Sztuczna inteligencja (AI) radykalnie zmieni nasze życie - prof. Mądry w Kongresie USA. Czy grozi nam scenariusz z "Terminatora"?
REKLAMA
REKLAMA
Prof. Aleksander Mądry w Kongresie USA: Sztuczna inteligencja radykalnie zmieni nasze życie
"AI nie jest już sprawą science-fiction ani technologią, która jest ograniczona do laboratoriów badawczych. AI to technologia, która już jest wykorzystywana i szeroko przyjmowana. Drastycznie zmieni nasze życie; musimy myśleć nad tym, jak kształtować napędzany przez AI świat, który stoi przed nami" - powiedział profesor prestiżowej uczelni podczas wysłuchania przed podkomisją Izby Reprezentantów ds. nadzoru.
Pochodzący z Polski uczony i szef ośrodka MIT Center for Deployable Machine Learning występował obok m.in. byłego szefa Google Erica Schmidta w wysłuchaniu poświęconym rozwojowi AI i przygotowaniu USA na "technologiczną rewolucję" z nim związaną.
REKLAMA
Nowa generacja AI - generatywna sztuczna inteligencja
Mądry podkreślił, że nowa generacja AI, tzw. generatywna sztuczna inteligencja, która pojawiła się w ostatnich latach i miesiącach - mowa tu m.in. o aplikacjach ChatGPT, Bing Chat, czy generatorach obrazów DALL-E i Midjourney - różni się nie tylko większymi zdolnościami, ale też dużo większą dostępnością i przystępnością dla zwykłego odbiorcy.
Jak podkreślił, wiążą się z tym zarówno ogromne możliwości w niemal każdym sektorze gospodarki, ale też wiele ryzyk, m.in. związanych z podatnością tych systemów na manipulacje i użycie ich do dezinformacji, powtarzaniem i utrwalaniem uprzedzeń, a także ich generalną zawodnością.
"Nawet eksperci AI mają bardzo słabe zrozumienie skali tych problemów i dopiero zaczynają znajdować sposoby, by je odkrywać i łagodzić" - powiedział ekspert.
Łańcuchy dostaw AI. Nowe aplikacje związane ze sztuczną inteligencją
Zwrócił też uwagę, że nowe problemy mogą powstać w drodze tworzenia "łańcuchów dostaw AI" - tzn. tworzenia nowych aplikacji na bazie i przy połączeniu z różnymi typami AI. Jak stwierdził, ponieważ tworzenie podstawowych systemów AI jest drogie i wymaga ogromnych nakładów, tylko bardzo nieliczne podmioty są w stanie je tworzyć, co da może dać im dominującą pozycję. Jak przewiduje, choć w niedalekiej przyszłości rozwój sztucznej inteligencji doprowadzi do ogromnej eksplozji nowych AI, niemal wszystkie będą oparte na kilku bazowych programach.
Łączenie różnych systemów sztucznej inteligencji
Prof. Mądry dodał też, że łączenie różnych systemów sztucznej inteligencji może prowadzić do nieprzewidywalnych zmian w ich charakterystykach.
"To jest problem nawet bardziej skomplikowany, bo eksperci AI nie potrafią wyjaśnić, jak pojedyncze systemy AI docierają do swoich konkluzji, a dochodzenie do tego stanie się dużo trudniejsze, jeśli systemy zostaną na siebie nałożone" - ocenił Mądry.
Potrzebne przepisy dot. sztucznej inteligencji
Wezwał również do wprowadzenia regulacji prawnych i technicznych, by móc odpowiadać na problemy związane z decyzjami dokonywanymi przez systemy sztucznej inteligencji.
Ryzyka rozwoju AI. Czy grozi nam scenariusz z "Terminatora"?
Pytany przez kongresmenów, czy obawia się tego, że szybki rozwój AI doprowadzi do katastrofy, Mądry odpowiedział, że choć nie obawia się "scenariusza z +Terminatora+", to jego niepokój budzi np. większe użycie AI w mediach społecznościowych, co może jeszcze wzmocnić dotychczasowe problemy z tymi sieciami, kreując "social media na sterydach". Powiedział przy tym, ze konieczne są w tym obszarze mocne regulacje prawne.
"Musimy zapewnić, że firmy, o których mówimy, nie są tylko motywowane przez zysk, ale zdają sobie sprawę, że mają też pewną odpowiedzialność" - powiedział profesor. Jak dodał, właśnie brak regulacji jest jego największą obawą, jeśli chodzi o rozwój AI.
Były szef Google: najbardziej niepokoi rozbieżność interesów między ludźmi i sztuczną inteligencją
Inną odpowiedź na temat swoich obaw dał Schmidt, były szef Google'a, który stwierdził, że najbardziej niepokoi go potencjalna rozbieżność interesów między ludźmi i sztuczną inteligencją.
"Chodzi o sytuację, gdzie człowiek ma jeden zestaw zachęt, komputer został wytrenowany, by dążyć do innych rezultatów, a społeczeństwo ma jeszcze inne interesy" - powiedział ekspert. Dodał też, że choć Pentagon chce, by broń oparta o AI automatycznie podejmowała decyzje, w chwili obecnej systemy te nie są gotowe do takich "ostatecznych" wyborów i może nigdy nie będą.
Z Waszyngtonu Oskar Górzyński (PAP)
osk/wr/
REKLAMA
REKLAMA
- Czytaj artykuły
- Rozwiązuj testy
- Zdobądź certyfikat