Elon Musk: eksperci wzywają do wstrzymania rozwoju AI

30.03.2023

Ealon Musk

Ponad 1100 osób, w tym Ilon Musk i Steve Wozniak, podpisało list otwarty z prośbą do wszystkich laboratoriów AI o natychmiastowe zawieszenie na sześć miesięcy szkoleń na systemach AI potężniejszych niż GPT-4.
List zwrócił uwagę na konieczność opracowania solidnych protokołów, zanim wejdziemy w kolejną fazę rozwoju AI.

To prowadzi nas do pytania, dlaczego potrzebujemy takich protokołów?

Rozwój AI wykonał ogromny skok w ciągu ostatnich kilku miesięcy, dzięki konkurencji wygenerowanej przez gwałtownie rosnącą popularność ChatGPT.
Możliwości systemów AI takich jak GPT-4 wprawiły wszystkich w osłupienie. Ale stworzyły też szereg nowych problemów.
Ponieważ firmy pracujące nad AI dążą do zbudowania znacznie bardziej zaawansowanych systemów, niebo jest teraz granicą.

Protokoły bezpieczeństwa muszą być weryfikowane przez niezależnych ekspertów.

W liście sygnatariusze proszą zainteresowane strony o „opracowanie i wdrożenie” wspólnych protokołów bezpieczeństwa dla zaawansowanych opracowań AI. Te protokoły bezpieczeństwa powinny być „rygorystycznie audytowane i monitorowane przez niezależnych ekspertów zewnętrznych”, powiedzieli.
List wzywa rządy do wkroczenia i nałożenia moratorium, jeśli wszystkie główne zainteresowane strony nie zatrzymają rozwoju AI.

Są dwie strony AI: dobra i zła

Wszyscy widzieliśmy, co może zrobić zaawansowany chatbot AI, taki jak ChatGPT. Może zrobić wszystko, od pisania esejów, przez kodowanie, po zamawianie jedzenia w twoim imieniu (za pomocą wtyczek).
Jednak widzieliśmy również drugą stronę rzeczy. Stronę, która jest pełna dezinformacji, głębokich fałszerstw i cyberataków.
To właśnie ta druga strona stała się przyczyną powstania tego listu.

Modele AI mogą być potencjalnymi minami lądowymi fake newsów

Jednym z największych problemów z systemami sztucznej inteligencji jest ich potencjał do stania się minami dla fake newsów. Ich zdolność do naśladowania ludzi może doprowadzić do zapory fake newsów, ponieważ AI nie szuka prawdy.
Ponieważ systemy AI są szkolone na dużych ilościach danych, istnieje duże prawdopodobieństwo, że odziedziczą ludzkie uprzedzenia. Błędne informacje i uprzedzenia mogą być szkodliwe dla ludzi.

AI stające się inteligentne to poważny problem

Wszyscy pamiętamy, kiedy Google zwolnił Blake’a Lemoine’a, inżyniera, który pracował nad LaMDA, za twierdzenie, że AI staje się inteligentna.
Google i eksperci od AI szybko przymknęli oko na twierdzenia Lemoine’a. Wielu uważa, że inteligentna AI jest niemożliwa, ponieważ nie mamy jeszcze odpowiedniej infrastruktury.
Jednak biorąc pod uwagę tempo rozwoju AI, może to nastąpić szybciej niż sobie wyobrażamy.

Oszuści mogą wykorzystywać systemy AI do wyłudzania pieniędzy od ludzi

Rozwój AI okazał się dobrodziejstwem dla wielu. Jedną z grup, która bardzo skorzystała, są oszuści.
Oszuści wykorzystują ChatGPT do tworzenia wyrafinowanych i skomplikowanych maili phishingowych, aby zwabić ludzi w pułapki. ChatGPT i inne zaawansowane systemy AI mogą tworzyć hiperrealistyczne scenariusze telefoniczne, które oszuści mogą wykorzystać do podszywania się pod przedstawicieli obsługi klienta, aby uzyskać dostęp do wrażliwych informacji.

Sztuczna inteligencja zaciera granicę między tym, co prawdziwe, a tym, co fałszywe

Problemy generatywnej AI nie ograniczają się do AI generującej tekst. Systemy AI zdolne do generowania obrazów i filmów wprowadziły nowy wymiar fałszywych obrazów i filmów.
Ciągły rozwój technologii doprowadził do powstania bardziej realistycznych podróbek niż kiedykolwiek wcześniej. Potencjał do nadużyć jest tu nieograniczony.
Od fałszywych wiadomości po fałszywe produkty – to wszystko może prowadzić do wielu problemów dla ludzkości.

Czy rozwój zaawansowanych systemów sztucznej inteligencji powinien zostać wstrzymany?

Jak dotąd widzieliśmy wszystkie problemy, jakie mogą wywołać zaawansowane systemy AI. Czy to oznacza, że musimy wstrzymać rozwój systemów AI, które są potężniejsze niż GPT-4?
Potrzebne jest, aby wszystkie zainteresowane strony przeprowadziły dyskusję i doszły do konsensusu, co należy zrobić, aby systemy AI były bezpieczne.
Długa pauza może jednak zahamować innowacje i rozwój.

Porozmawiajmy o projekcie