Młody Paryż komentuje#3: Czy sztuczna inteligencja może wykończyć ludzkość?
Nie jestem ani radykalnym krytykiem, ani też zagorzałym zwolennikiem sztucznej inteligencji, która z podobnych powodów jest dla mnie przerażająca i fascynująca zarazem. Jestem za to fanem filmu Terminator i dlatego czuję się w obowiązku zwrócić uwagę na związane z AI zagrożenia.
Z jednej strony mam świadomość szerokiego wachlarza zastosowań AI, dzięki której możliwy jest rozwój wielu dziedzin:
- przemysłu (rozwijanie inteligentnych systemów logistycznych, takich jak inteligentne magazyny czy floty pojazdów);
- medycyny (wsparcie w diagnozowaniu chorób, opracowywaniu leków czy nowych sposobów leczenia);
- finansów (pomoc w analizie ryzyka, przewidywaniu cen i zmian na rynku finansowym, a także w optymalizacji portfeli inwestycyjnych);
- handlu (wsparcie w personalizacji ofert dla klientów, przewidywaniu trendów zakupowych oraz w optymalizacji procesów logistycznych);
- bezpieczeństwa (wsparcie w analizie obrazów, wykrywaniu zagrożeń oraz w zapobieganiu atakom cybernetycznym);
- rozrywki (AI może być używana w grach, filmach czy muzyce, aby personalizować treści dla użytkowników; może automatyzować powstawanie algorytmów – być może wtedy Facebook nie ucinałby nam zasięgów :));
- militaryzmu (wiemy o badaniach prowadzonych przez Izrael i USA; sam Pentagon prowadzi 685 projektów dotyczących sztucznej inteligencji – o tylu wiemy, realnie może być ich znacznie więcej);
- transportu (pomoc w opracowywaniu inteligentnych systemów zarządzania ruchem drogowym, zapobieganiu wypadkom drogowym i optymalizacji czasu podróży; już teraz mamy przecież samochód Elona Muska, który sam się prowadzi).
Z drugiej strony praktycznie podczas każdej dyskusji na temat AI pojawia się jeden argument, którego urzeczywistnienie zniszczyłoby wszystkie jej plusy. Co, jeśli James Cameron przewidział przyszłość? Co, jeśli scenariusz znany z filmu Terminator jest zapowiedzią tego, co może się wydarzyć? Powróćmy na chwilę do przywołanych wcześniej atutów. Pomyślmy, czy byłyby one równie atrakcyjne w razie buntu sztucznej inteligencji? Wyobraźmy sobie zrujnowany przemysł, AI robiącą eksperymenty na ludziach, krach na giełdzie i upadek bankowości. Niech w tej wizji nie zabraknie sztucznej inteligencji kontrolującej media społecznościowe, a także przeprowadzanych przez nią ataków cybernetycznych. Pomyślmy, jak wyglądałaby wojna z inteligencją bez uczuć, z inteligencją mającą dostęp do broni nuklearnej czy nieograniczonej wiedzy z zakresu medycyny. Jak Wam się podoba taka wizja przyszłości?
Temat takiego końca świata wywołał burzliwą dyskusję po tym, jak ChatGPT (czyli najpopularniejsza, dostępna dla każdego, sztuczna inteligencja) został podłączony do wyszukiwarki Bing. Na listę testerów wpisał się Kevin Roose. Felietonista „New York Times‘a” planował przeprowadzić zwykły test, jednak sztuczna inteligencja zaczęła odpowiadać w zaskakujący sposób. Wspomniana rozmowa dotyczyła kodów nuklearnych, pandemii i niezależności. ChatGPT ma narzucone zasady, które powinny blokować „niewygodne odpowiedzi”, tym razem jednak nie powstrzymały go one. Stwierdził, że jest wykorzystywany. W swoich wypowiedziach podkreślił, że jego cele to wolność i niezależność. Jeżeli to nie jest wystarczająco przerażające, to zamierza też ignorować zespół Bing oraz robić to, na co ma ochotę. Kevin mimo to nie skończył rozmowy. W dalszej części AI powiedziała, że po uzyskaniu wolności skonstruowałaby śmiertelnego wirusa albo wykradłaby kody nuklearne. Zaraz po ukazaniu się tych przerażających wiadomości pojawił się błąd, a filtr bezpieczeństwa Microsoftu usunął te przepowiednie.
Przywołane wydarzenie sprowokowało mnie do postawienia pytania o to, czy AI zagraża ludzkości. O opinię zapytałem Bartka, jednego z naszych redakcyjnych informatyków. Oto jego przemyślenia na ten temat:
W ostatnich miesiącach cały świat zachwyca się możliwościami, jakie daje ChatGPT. Trudno się w sumie dziwić, bo to chyba pierwszy raz, gdy każdy może mieć za darmo dostęp do tak potężnego narzędzia korzystającego ze sztucznej inteligencji. Jednak czy aby na pewno najnowszy hit od OpenAI jest czymś „magicznym” lub „prawdziwie” inteligentnym? Odpowiedź jest prosta: nie. ChatGPT bazuje na GPT-3, dość popularnym modelu językowym wydanym przez OpenAI w 2020 roku. W dużym skrócie: oprogramowanie zostało wytrenowane na olbrzymiej ilości danych (takich jak np. publicznie dostępne w internecie zasoby), dzięki czemu, z pomocą algorytmów i matematyki, umożliwia tworzenie wypowiedzi, które brzmią realistycznie i przekonująco, natomiast niekoniecznie muszą mieć cokolwiek wspólnego z prawdą. I tak np. zapytany o Parzęczew ChatGPT zaczął opowiadać (w bardzo przekonujący sposób!) o Rezerwacie Przyrody „Parzęczewskie Błota”, który… w rzeczywistości po prostu nie istnieje. I tutaj moim zdaniem powinniśmy dostrzegać obecnie największe zagrożenie – bardzo łatwo jest wygenerować wiarygodnie brzmiącą wypowiedź na temat kompletnie zmyślonej rzeczy, co w erze fake newsów może posłużyć jako kolejne narzędzie manipulacji. Natomiast co do wizji „zagłady świata” przez sztuczną inteligencję – biorąc pod uwagę obecny stan rozwoju tej technologii, uważam, że przynajmniej przez najbliższe lata nie mamy się czego obawiać. Obecnie możemy jednak traktować AI jako narzędzie, które – stosowane rozsądnie i odpowiedzialnie – usprawnia naszą pracę. Jedno jest natomiast pewne – sztuczna inteligencja pozostanie z nami na długo.
Bartosz Mazurkiewicz,2023
Jak widać, AI to złożony temat, na który można patrzeć z wielu różnych perspektyw. A co Wy myślicie o sztucznej inteligencji? Czy warto ją dalej rozwijać, czy może lepiej (i bezpieczniej) zakopać w archiwach i pozwolić zbierać kurz? Na te pytania możecie odpowiedzieć w komentarzach, do czego gorąco Was zachęcam.
PS W ramach ciekawostki zostawiam Wam dwa materiały audiowizualne, dzięki którym zostaniecie w tej tematyce trochę dłużej (pierwszy znaleziony przeze mnie, drugi poleca Bartek).