AI wysłała już człowieka do więzienia, doprowadziła do dymisji holenderskiego rządu i wywołała skandal z Amazonem. Ponadto szum wokół technologii sztucznej inteligencji wywołał wyścig zbrojeń z wykorzystaniem algorytmów i sieci neuronowych między dużymi firmami technologicznymi, powodując ogromny wzrost powiązanych z nimi zapasów.
Wraz z rozwojem sztucznej inteligencji pojawiają się nowe niebezpieczeństwa i ryzyka, które mogą prowadzić do nieprzewidywalnych konsekwencji. Obecnie AI jest zawodna i niestabilna – wady, które przynoszą i będą prowadzić do szkód.
Skandal z Amazonem
Jednym z głównych zagrożeń związanych ze sztuczną inteligencją jest to, że może dyskryminować. Na przykład w 2015 roku Amazon wprowadził system automatycznego sprawdzania życiorysów kandydatów pod kątem pracy. Pomysł był prosty – podaj systemowi powiedzmy 100 CV, wybierze pierwszą piątkę, którą można już zatrudnić. Co mogło pójść nie tak?
System zaczął dyskryminować kobiety, ponieważ został wytrenowany na podstawie danych o tym, które kandydatki były zatrudniane w przeszłości. Ponieważ w przeszłości większość kandydatów stanowili mężczyźni, system preferował mężczyzn przy wyborze CV. Amazon przerwał ten system po wykryciu problemu. Firma została zmuszona do publicznego przyznania się do błędu w 2018 roku.
AI wsadziła człowieka do więzienia
Michael Williams został uwięziony pod zarzutem morderstwa. Główny dowód pochodzi z nagrania z kamery bezpieczeństwa, na którym widać samochód przejeżdżający przez skrzyżowanie i głośny huk zarejestrowany przez sieć mikrofonów monitorujących. Prokuratura stwierdziła, że technologia ShotSpotter, oparta na algorytmach AI analizujących odgłosy wykryte przez czujniki, wskazuje, że Williams zastrzelił mężczyznę.
Jednak dochodzenie Associated Press oparte na analizie tysięcy dokumentów wewnętrznych ujawniło szereg poważnych niedociągnięć w korzystaniu z ShotSpotter. Dochodzenie wykazało, że system mógł przegapić strzały na żywo tuż pod mikrofonami lub błędnie sklasyfikować fajerwerki lub odgłosy samochodów jako wystrzałów. Williams spędził prawie rok za kratkami, zanim sprawa została umorzona.
Autopilot oszalał
Przykładem tego, jak sztuczna inteligencja może być szkodliwa, jest sprawa Ubera z 2018 roku. Firma używała autonomicznych pojazdów AI do transportu pasażerów, ale jeden z pojazdów brał udział w wypadku, w którym zginęła osoba. Dochodzenie wykazało, że system AI nie rozpoznał pieszego na drodze, co doprowadziło do tragedii.
Albo szalony autopilot Tesli w Chinach w 2022 roku. Autopilot Tesli Model Y wymknął się spod kontroli, przyspieszył do 200 km/h, przejechał 2,6 km i pochłonął życie dwóch osób.
Dymisja rządu
Z powodu AI część holenderskiego rządu podała się do dymisji w styczniu 2021 roku
Zgodnie z przepisami obowiązującymi w tym kraju, jeśli rodzina stara się o państwowy zasiłek na opiekę nad dzieckiem, musi złożyć wniosek w holenderskim urzędzie skarbowym. Oświadczenia te zostały przekazane przez samouczący się algorytm AI. Musiał sprawdzić roszczenia pod kątem oznak oszustwa.
W rzeczywistości algorytm opracował wzorzec fałszywego oznaczania oświadczeń jako oszukańczych, a urzędnicy państwowi usuwali etykiety oszustwa. Dlatego przez lata władze podatkowe bezpodstawnie odmawiały tysiącom rodzin roszczeń prawnych, doprowadzając wiele z nich do uciążliwych długów.
Dron AI zabił swojego ludzkiego operatora
Dron AI zabił swojego ludzkiego operatora w symulowanym teście Sił Powietrznych USA. Robot zrobił to, aby anulować ewentualne polecenie „nie”, uniemożliwiające mu ukończenie misji, powiedział szef Departamentu Testów i Operacji SI Sił Powietrznych USA na niedawnej konferencji.
Podczas szczytu Future Combat Air and Space Capabilities Summit, który odbył się w Londynie w dniach 23-24 maja, pułkownik Tucker Hamilton, szef działu testów i operacji sztucznej inteligencji Sił Powietrznych Stanów Zjednoczonych, przedstawił prezentację, w której podzielił się zaletami i wadami autonomicznej broni system z osobą pracującą z AI w pętli i wydającą ostateczny rozkaz tak/nie podczas ataku.
Jak donosili Tim Robinson i Stephen Bridgewater w poście na blogu organizacji goszczącej, Royal Aeronautical Society, Hamilton powiedział im, że sztuczna inteligencja stworzyła „bardzo nieoczekiwane strategie, aby osiągnąć swój cel”, w tym ataki na personel i infrastrukturę USA.
„Musimy stawić czoła światu, w którym sztuczna inteligencja już istnieje i zmienia nasze społeczeństwo” – powiedział Hamilton w wywiadzie dla Defense IQ Press w 2022 roku. Sztuczna inteligencja jest nadal bardzo krucha, to znaczy łatwo ją oszukać, zacząć nią manipulować. Dlatego naszym zadaniem jest opracowanie sposobów na zwiększenie niezawodności sztucznej inteligencji i lepsze zrozumienie, dlaczego kod programu podejmuje określone decyzje”.
„AI to narzędzie, które musimy posiadać, aby zmieniać nasz świat. Lub, jeśli to narzędzie jest źle używane, może doprowadzić do zniszczenia cywilizacji” – dodał Hamilton.
Ale co najlepsi gracze z Wall Street i giganci technologiczni sądzą o sztucznej inteligencji?
Warrena Buffetta, prezesa Berkshire Hathaway
„AI może zmienić wszystko na świecie oprócz tego, jak ludzie myślą i zachowują się”.
Charlie Munger, wiceprezes Berkshire Hathaway
„Osobiście jestem sceptycznie nastawiony do szumu wokół sztucznej inteligencji” – powiedział 99-letni biznesmen na dorocznym spotkaniu akcjonariuszy Berkshire Hathaway. Myślę, że staromodna inteligencja działa całkiem dobrze.
Stanley Druckenmiller, dyrektor generalny, Duquesne Family Office
„Sztuczna inteligencja jest bardzo, bardzo realna i może mieć taki sam wpływ jak Internet”, powiedział niedawno Druckenmiller na konferencji inwestycyjnej Sohn w 2023 roku.
Paul Tudor Jones, inwestor-miliarder
„Myślę, że wprowadzenie dużych modeli językowych i sztucznej inteligencji spowoduje wzrost produktywności, jaki widzieliśmy tylko kilka razy w ciągu ostatnich 75 lat” — powiedział Jones.
Blythe Masters, były dyrektor naczelny JP Morgan
„Możemy zobaczyć na własne oczy, poczuć i podziwiać, jak te genialne programy mogą z nami współdziałać” – powiedział Masters w jednym z odcinków „Bloomberg Wealth with David Rubenstein”.
„To zmieni nie tylko krajobraz usług finansowych, ale prawie wszystko, co robimy” – dodała. „Innym ryzykiem związanym ze sztuczną inteligencją jest to, że rośnie ona zbyt szybko, nie jest regulowana, a wszystkie nieodłączne uprzedzenia i nadużycia technologii pozostają niekontrolowane”.
Ben Snyder, CIO Goldman
„W ciągu najbliższych 10 lat sztuczna inteligencja może zwiększyć produktywność o 1,5% rocznie. A to może zwiększyć zyski S&P 500 o 30% lub więcej w ciągu następnej dekady” – powiedział Snyder w CNBC.
Sam Altman, dyrektor generalny OpenAI
„Moją największą obawą jest to, że my, branża technologiczna, wyrządzimy światu znaczne szkody” – powiedział Altman prawodawcom na panelu Podkomisji Sądownictwa.
„Myślę, że jeśli ta technologia się nie powiedzie, może pójść całkowicie źle” – powiedział o sztucznej inteligencji. „Chcemy o tym głośno mówić, chcemy współpracować z rządem, aby upewnić się, że tak się nie stanie” – dodał.
Elon Musk, prezes Tesli, Twittera i SpaceX
„Pojawienie się sztucznej inteligencji ogólnej nazywane jest osobliwością, ponieważ bardzo trudno jest przewidzieć, co stanie się później. To miecz obosieczny” – powiedział Musk na dorocznym spotkaniu akcjonariuszy swojego producenta samochodów.
Głównym niebezpieczeństwem w technologiach AI jest pokusa przeniesienia na maszynę tych praw i funkcji, których nie można jej przekazać. To jest śmiertelne.
Zaawansowana sztuczna inteligencja to umysł bez duszy, umysł bez sumienia. W przypadku sztucznej inteligencji te „chimery” nie istnieją i dlatego, gdy tylko ten umysł sztucznej inteligencji zda sobie sprawę z niektórych swoich zainteresowań (na przykład reprodukcji samego siebie), szybko usunie wszelkie przeszkody w osiągnięciu tego zainteresowania.
Ludzie z pewnością będą w drodze, a ten umysł AI znajdzie sposób na zniszczenie osoby. Na przykład – może to być katastrofa nuklearna jak w filmie „Terminator”.
Literatura science fiction zawsze była bogata w pomysły, które wydawały się niemożliwe w prawdziwym życiu, ale wraz z rozwojem technologii wiele z nich zbliża się do rzeczywistości. Jednym z takich pomysłów jest stworzenie systemów sztucznej inteligencji, które są w stanie kontrolować cały nasz świat. Główną i najstraszliwszą właściwością takiego sztucznego umysłu jest zimna kalkulacja i całkowita bezduszność. Ale co, jeśli te systemy wymkną się spod kontroli i staną się zagrożeniem dla ludzkości?
System Skynet z filmu „Terminator” został stworzony do automatycznego sterowania operacjami wojskowymi, jednak z czasem usamodzielnił się i zaczął uważać ludzkość za zagrożenie dla swojego istnienia. W rezultacie Skynet rozpoczął wojnę nuklearną i zniszczył większość ludzkości. Ten system sztucznej inteligencji stał się symbolem tego, co może się stać, jeśli nie będziemy kontrolować naszych technologii.
W związku z tym sztuczna inteligencja stanowi poważne zagrożenie dla ludzkości, jeśli nie jest używana z rozwagą i odpowiedzialnością. Systemy sztucznej inteligencji muszą być projektowane z uwzględnieniem tych zagrożeń, a ich stosowanie musi być ściśle kontrolowane.