W poniedziałek 22 maja 2023 r. zweryfikowane konto na Twitterze o nazwie „Bloomberg Feed” udostępniło tweet twierdzący, że pojawiło się eksplozja w Pentagonie wraz ze zdjęciem. Jeśli zastanawiasz się, co to ma wspólnego ze sztuczną inteligencją (AI), zdjęcie zostało wygenerowane przez sztuczną inteligencję, a tweet szybko stał się wirusowy i wywołał krótki spadek na giełdzie. Mogło być znacznie gorzej – co stanowi wyraźne przypomnienie o niebezpieczeństwach związanych ze sztuczną inteligencją.
Zagrożenia związane ze sztuczną inteligencją
Nie tylko fałszywymi wiadomościami powinniśmy się martwić. Istnieje wiele bezpośrednich lub potencjalnych zagrożeń związanych ze sztuczną inteligencją, począwszy od tych związanych z prywatnością i bezpieczeństwem, po kwestie uprzedzeń i praw autorskich. Zagłębimy się w niektóre z tych zagrożeń związanych ze sztuczną inteligencją, zobaczymy, co robi się, aby je złagodzić teraz i w przyszłości, i zapytamy, czy ryzyko związane ze sztuczną inteligencją przewyższa korzyści.
fałszywe wiadomości
Gdy po raz pierwszy pojawiły się deepfakes, pojawiły się obawy, że można je wykorzystać w złych zamiarach. To samo można powiedzieć o nowej fali Generatory obrazów AI, takiej jak DALL-E 2, Midjourney czy DreamStudio. 28 marca 2023 r. fałszywy Wygenerowane przez sztuczną inteligencję obrazy papieża Franciszka w białej puchowej kurtce Balenciaga i przeżywający kilka przygód, w tym jazdę na deskorolce i grę w pokera, stał się wirusowy. Jeśli nie przestudiowałeś dokładnie zdjęć, trudno było je odróżnić od rzeczywistości.
Chociaż przykład z papieżem był niewątpliwie zabawny, obraz (i towarzyszący mu tweet) na temat Pentagonu wcale nie był taki zabawny. Fałszywe obrazy generowane przez sztuczną inteligencję mogą szkodzić reputacji, kończyć małżeństwa lub kariery, wywoływać niepokoje polityczne, a nawet rozpoczynać wojny, jeśli są używane przez niewłaściwe osoby. Krótko mówiąc, te obrazy generowane przez sztuczną inteligencję mogą być niezwykle niebezpieczne, jeśli zostaną niewłaściwie wykorzystane.
Dzięki generatorom obrazów AI, które są teraz swobodnie dostępne dla każdego i Photoshop dodaje generator obrazów AI ich popularnemu oprogramowaniu, możliwości manipulowania obrazami i tworzenia fałszywych wiadomości są większe niż kiedykolwiek.
Prywatność, bezpieczeństwo i hakowanie
Prywatność i bezpieczeństwo budzą również ogromne obawy, jeśli chodzi o ryzyko związane ze sztuczną inteligencją, ponieważ wiele krajów zakazało już ChatGPT OpenAI. Włochy zakazały tego modelu ze względu na obawy związane z prywatnością, uznając, że nie jest on zgodny z europejskim ogólnym rozporządzeniem o ochronie danych (RODO), natomiast rządy Chin, Korei Północnej i Rosji zakazały go w obawie, że może on rozpowszechniać dezinformację..
Dlaczego więc tak bardzo przejmujemy się prywatnością w przypadku sztucznej inteligencji? Aplikacje AI, a systemy gromadzą duże ilości danych, aby się uczyć i przewidywać. Ale w jaki sposób te dane są przechowywane i przetwarzane? Istnieje realne ryzyko naruszenia bezpieczeństwa danych, włamań i dostania się informacji w niepowołane ręce.
Zagrożone są nie tylko nasze dane osobowe. Hakowanie AI stanowi realne ryzyko — jeszcze się to nie wydarzyło, ale jeśli osoby mające złe zamiary mogłyby włamać się do systemów AI, mogłoby to mieć poważne konsekwencje. Hakerzy mogą na przykład kontrolować pojazdy autonomiczne, hakować systemy bezpieczeństwa AI, aby uzyskać dostęp do bardzo bezpiecznych lokalizacji, a nawet hakować systemy broni za pomocą zabezpieczeń AI.
Eksperci z Agencji Zaawansowanych Projektów Badawczych Obrony (DARPA) Departamentu Obrony Stanów Zjednoczonych dostrzegają te zagrożenia i już pracują nad projektem DARPA „Gwarancja sztucznej inteligencji przed oszustwem” (GARD), rozwiązując problem od podstaw. Celem projektu jest zapewnienie, że algorytmy i sztuczna inteligencja będą odporne na włamania i manipulacje.
Naruszenie praw autorskich
Kolejnym zagrożeniem związanym ze sztuczną inteligencją jest naruszenie praw autorskich. Może nie brzmi to tak poważnie, jak niektóre inne zagrożenia, o których wspomnieliśmy, ale rozwój modeli sztucznej inteligencji, takich jak GPT-4, naraża wszystkich na zwiększone ryzyko naruszeń.
Za każdym razem, gdy prosisz ChatGPT o utworzenie czegoś dla Ciebie – niezależnie od tego, czy jest to post na blogu poświęcony podróżom, czy nowa nazwa Twojej firmy – przekazujesz mu informacje, których następnie używa do odpowiadania na przyszłe zapytania. Informacje, które Ci przekazuje, mogą naruszać cudze prawa autorskie, dlatego tak ważne jest, aby przed opublikowaniem skorzystać z wykrywacza plagiatu i edytować wszelkie treści stworzone przez sztuczną inteligencję.
Uprzedzenia społeczne i dotyczące danych
Sztuczna inteligencja nie jest człowiekiem, więc nie może być stronnicza, prawda? Zło. Ludzie i dane są wykorzystywane do uczenia modeli sztucznej inteligencji i chatboty, co oznacza, że stronnicze dane lub osobowości spowodują powstanie stronniczej sztucznej inteligencji. Istnieją dwa rodzaje stronniczości w sztucznej inteligencji: stronniczość społeczna i stronniczość dotycząca danych.
Przy wielu uprzedzeniach obecnych w codziennym społeczeństwie, co się stanie, gdy te uprzedzenia staną się częścią sztucznej inteligencji? Programiści odpowiedzialni za szkolenie modelu mogą mieć stronnicze oczekiwania, które następnie trafiają do systemów sztucznej inteligencji..
Lub dane wykorzystywane do szkolenia i rozwijania sztucznej inteligencji mogą być nieprawidłowe, stronnicze lub zebrane w złej wierze. Prowadzi to do stronniczości w zakresie danych, która może być równie niebezpieczna jak stronniczość społeczna. Na przykład, jeśli system rozpoznawania twarzy zostanie przeszkolony przy użyciu głównie twarzy białych ludzi, może mieć trudności z rozpoznaniem twarzy osób należących do mniejszości, co pogłębi ucisk.
Roboty zabierają nam pracę
Rozwój chatbotów, takich jak ChatGPT i Google Bard, wzbudził zupełnie nowe obawy związane ze sztuczną inteligencją: ryzyko, że roboty odbierze nam pracę. Już teraz widzimy, jak pisarze w branży technologicznej są zastępowani przez sztuczną inteligencję, twórcy oprogramowania martwią się, że stracą pracę na rzecz botów, a także firmy korzystające z ChatGPT do tworzenia treści na blogi i treści w mediach społecznościowych, zamiast zatrudniać pisarzy.
Według Raport Światowego Forum Ekonomicznego na temat przyszłości miejsc pracy w roku 2020 oczekuje się, że sztuczna inteligencja zastąpi 85 milionów stanowisk pracy na całym świecie do 2025 r. Nawet jeśli sztuczna inteligencja nie zastąpi pisarzy, wielu już jej używa jako narzędzia. Osoby na stanowiskach zagrożonych zastąpieniem przez sztuczną inteligencję mogą na przykład potrzebować adaptacji, aby przetrwać – na przykład pisarze mogą zostać inżynierami AI, co umożliwi im pracę z narzędziami takimi jak ChatGPT do tworzenia treści, zamiast być zastępowani przez te modele.
Przyszłe potencjalne zagrożenia związane ze sztuczną inteligencją
To wszystko są bezpośrednie lub zagrażające zagrożenia, ale co z mniej prawdopodobnymi, ale wciąż możliwymi zagrożeniami związanymi ze sztuczną inteligencją, które możemy zaobserwować w przyszłości? Należą do nich takie rzeczy, jak sztuczna inteligencja zaprogramowana tak, aby szkodziła ludziom, na przykład autonomiczna broń wyszkolona do zabijania podczas wojny.
Istnieje wówczas ryzyko, że sztuczna inteligencja skupi się wyłącznie na zaprogramowanym celu, rozwijając destrukcyjne zachowania, próbując osiągnąć ten cel za wszelką cenę, nawet jeśli ludzie będą próbowali temu zapobiec.
Skynet nauczył nas, co się dzieje, gdy sztuczna inteligencja staje się świadoma. Chociaż inżynier Google Blake Lemoine mógł próbować przekonać wszystkich, że LaMDA, sztucznie inteligentny generator chatbotów Google, był świadomy już w czerwcu 2022 r., na szczęście nie ma dotychczas żadnych dowodów, które sugerowałyby, że to prawda.
Wyzwania związane z regulacją sztucznej inteligencji
W poniedziałek, 15 maja 202 r., Dyrektor generalny OpenAI Sam Altman wziął udział w pierwszym przesłuchaniu w Kongresie na temat sztucznej inteligencji, ostrzeżenie: „Jeśli ta technologia ulegnie awarii, może pójść całkiem źle”. Dyrektor OpenAI CO dał jasno do zrozumienia, że opowiada się za regulacjami i przedstawił na przesłuchaniu wiele własnych pomysłów. Problem w tym, że sztuczna inteligencja rozwija się z taką szybkością, że nie wiadomo, od czego zacząć regulacje..
Kongres chce uniknąć błędów popełnionych na początku ery mediów społecznościowych, dlatego zespół ekspertów wraz z przywódcą większości w Senacie Chuckiem Schumerem już pracują nad przepisami, które wymagałyby od firm ujawniania, z jakich źródeł danych korzystały podczas szkolenia modeli i kto ich szkolił. Może jednak minąć trochę czasu, zanim dokładnie będzie jasne, w jaki sposób sztuczna inteligencja będzie regulowana, i bez wątpienia spotka się z ostrym sprzeciwem ze strony firm zajmujących się sztuczną inteligencją.
Zagrożenie sztuczną inteligencją ogólną
Istnieje również ryzyko stworzenia sztucznej inteligencji ogólnej (AGI), która byłaby w stanie wykonać dowolne zadania, jakie mógłby wykonać człowiek (lub zwierzę). Często wspominani w filmach science-fiction, prawdopodobnie dzielą nas jeszcze dziesięciolecia od takiego stworzenia, ale jeśli i kiedy stworzymy AGI, może to stanowić zagrożenie dla ludzkości.
Wiele osób publicznych już podziela przekonanie, że sztuczna inteligencja stanowi egzystencjalne zagrożenie dla ludzi, w tym Stephen Hawking, Bill Gates, a nawet były dyrektor generalny Google Eric Schmidt, który stwierdził: „Sztuczna inteligencja może stwarzać ryzyko egzystencjalne, a rządy muszą wiedzieć, jak to zrobić aby mieć pewność, że technologia nie zostanie niewłaściwie wykorzystana przez złych ludzi”.
Czy zatem sztuczna inteligencja jest niebezpieczna i czy związane z nią ryzyko przewyższa korzyści? Ława przysięgłych wciąż się nad tym nie zastanawiała, ale już teraz widzimy dowody na istnienie niektórych zagrożeń wokół nas. Inne zagrożenia są mniej prawdopodobne, jeśli w ogóle pojawią się w najbliższym czasie. Jedno jest jednak jasne: nie należy lekceważyć zagrożeń związanych ze sztuczną inteligencją. Niezwykle ważne jest, aby od samego początku zapewnić odpowiednie regulacje dotyczące sztucznej inteligencji, aby zminimalizować i, miejmy nadzieję, złagodzić wszelkie przyszłe ryzyko.
.