"Ojciec chrzestny" sztucznej inteligencji: internet może zostać zalany przez fałszywe grafiki, nagrania i teksty
REKLAMA
REKLAMA
USA/ Pionier sztucznej inteligencji odszedł z Google'a, by ostrzegać przed zagrożeniami związanymi z AI
Geoffrey Hinton, naukowiec nazywany często "ojcem chrzestnym sztucznej inteligencji" odszedł z pracy w Google'u, by ostrzegać przed zagrożeniami związanymi z AI. Myślałem, że AI stanie się bardziej inteligentna niż ludzie za 30-50 lat lub później; oczywiście teraz już tak nie sądzę - powiedział Hinton w wywiadzie dla "New York Timesa".
Rozwój modeli sztucznej inteligencji, takich jak związany z Microsoftem ChatGPT czy konkurencyjnego oprogramowania opracowywanego przez Google'a jest coraz bardziej niebezpieczny - ostrzega naukowiec.
REKLAMA
Przeciętny odbiorca nie będzie w stanie odróżnić prawdy od fałszu
Internet może zostać zalany przez fałszywe grafiki, nagrania i teksty, tak że przeciętny odbiorca "nie będzie już w stanie odróżnić, co jest prawdą" - uważa Hinton.
AI a rynek pracy
Technologia AI może też wywrócić do góry nogami dotychczasowy rynek pracy, na razie jest w stanie zastąpić przede wszystkim pracowników zajmujących się żmudnymi zadaniami, takich jak asystenci, tłumacze czy sekretarki, ale to się może zmienić - zaznacza rozmówca "NYT" w opublikowanym w poniedziałek wywiadzie.
Sztuczna inteligencja może być zagrożeniem dla ludzkości
Przyszłe wersje AI mogą być ostatecznie zagrożeniem dla ludzkości, ponieważ analizują ogromne ilości danych i często uczą się zupełnie nieoczekiwanego zachowania - podkreśla Hinton. To ma znaczenie, ponieważ ludzie i firmy pozwalają sztucznej inteligencji nie tylko na pisanie oprogramowania, ale również na uruchamianie go, co pewnego dnia może doprowadzić do powstania autonomicznej broni - dodaje.
Trudno jest także zapobiec temu, by AI nie była wykorzystywana przez złych ludzi do złych celów - ocenia Hinton. Wyścig między koncernami technologicznymi może przerodzić się w wyścig między państwami, którego mogą nie być w stanie kontrolować międzynarodowe regulacje, jak udało się to zrobić z bronią jądrową - ostrzega.
Największą nadzieją jest porozumienie naukowców dotyczące sposobów panowania nad AI; sądzę, że ta technologia nie powinna być rozwijana do czasu, gdy uda się zrozumieć, czy możemy ją kontrolować - konkluduje badacz.
Urodzony w Wielkiej Brytanii Hinton przez wiele lat pracował na uniwersytecie w kanadyjskim Toronto. Przez całą karierę akademicką i zawodową zajmował się sztuczną inteligencją, w szczególności sieciami neuronowymi. Jak podkreśla, nie odszedł z Google'a, by krytykować poczynania tej konkretnej firmy, ale by mówić o zagrożeniach związanych z rozwojem sztucznej inteligencji bez zwracania uwagi na to, jak może to wpłynąć na Google'a.
"Google zachowuje się bardzo odpowiedzialnie" - zaznaczył Hinton w poniedziałkowym wpisie na Twitterze. (PAP)
adj/ ap/
REKLAMA
REKLAMA
- Czytaj artykuły
- Rozwiązuj testy
- Zdobądź certyfikat