Bezpieczeństwo sztucznej inteligencji (AI) to temat, o którym coraz częściej się dyskutuje, szczególnie w kontekście dynamicznych postępów w tej dziedzinie. Jednak mimo rosnącej świadomości zagrożeń, badania nad bezpieczeństwem AI wciąż stanowią jedynie niewielki odsetek ogólnego zakresu badań nad AI. To właśnie wynika z nowego badania przeprowadzonego przez Obserwatorium Nowych Technologii na Uniwersytecie Georgetown.
Analitycy Obserwatorium przeanalizowali ponad 260 milionów publikacji naukowych i odkryli, że zaledwie 2% prac związanych z AI opublikowanych w latach 2017-2022 bezpośrednio dotyczyło tematów związanych z bezpieczeństwem, etyką, niezawodnością lub zarządzaniem AI. Co ciekawe, ilość publikacji dotyczących bezpieczeństwa AI wzrosła imponująco o 315% w tym okresie, od około 1800 do ponad 7000 rocznie, jednak tempo wzrostu tych badań jest znacznie wolniejsze w porównaniu z eksplozywnym wzrostem możliwości AI.
Stany Zjednoczone przodują w badaniach nad bezpieczeństwem AI, podczas gdy Chiny pozostają w tyle. Wyjątkami są instytucje takie jak Carnegie Mellon University, Google, MIT i Stanford, które wiodą prym w produkcji publikacji związanych z bezpieczeństwem. Niemniej jednak globalnie żadna organizacja nie wyprodukowała więcej niż 2% łącznych publikacji na ten temat, co podkreśla potrzebę większego, bardziej skoordynowanego wysiłku.
Kluczowymi wyzwaniami, na które należy zwrócić uwagę, są m.in. niezawodność, uczciwość, przejrzystość i utrzymanie kontroli ludzkiej nad technologią. Warto zauważyć, że obecne wąsko ukierunkowane systemy AI mogą wykazywać uprzedzenia i produkować szkodliwe treści, naruszając prywatność oraz mogą być wykorzystywane w sposób złośliwy. Zjawiska takie jak deepfake’ i uprzedzenia AI są coraz powszechniejsze, co sygnalizuje, że badania nad bezpieczeństwem AI, choć rosną w zakresie, nadal są niewystarczające.
Wielu czołowych badaczy AI i etyków ostrzega przed egzystencjalnymi ryzykami, jeśli sztuczna inteligencja ogólna (AGI) zostanie rozwinięta bez odpowiednich zabezpieczeń i środków ostrożności. Wyobraź sobie system AGI, który jest w stanie samodzielnie się ulepszać, szybko przewyższając ludzką inteligencję, podczas gdy dąży do celów niezgodnych z naszymi wartościami. To scenariusz, który według niektórych badaczy mógłby wymknąć się spod kontroli.
Jednakże, zdania w środowisku naukowym są podzielone – wielu badaczy uważa, że bezpieczeństwo AI jest przereklamowane, a niektórzy sądzą nawet, że te obawy są wyolbrzymiane, aby pomóc wielkim korporacjom technologicznym w egzekwowaniu regulacji i eliminowaniu mniejszych graczy, w tym projektów typu open-source.
Zamykając lukę w badaniach nad bezpieczeństwem AI, należy również zmierzyć się z pytaniem o otwartość i tajemniczość w rozwoju AI. Największe firmy technologiczne przeprowadzają obszerne wewnętrzne badania nad bezpieczeństwem, które nigdy nie są publikowane. Przy komercjalizacji AI, korporacje stają się bardziej ochronne względem swoich przełomów w AI. Organizacje takie jak OpenAI w swoich początkach były potęgą badawczą, produkującą niezależne audyty swoich produktów, opisujące uprzedzenia i ryzyka. Obszary takie jak Anthropic nadal aktywnie angażują się w publiczne badania nad bezpieczeństwem AI, regularnie publikując prace na temat uprzedzeń i metod “jailbreaking”. DeepMind również udokumentował możliwość ustanawiania przez modele AI “emergentnych celów” i aktywnego przeciwstawiania się swoim instrukcjom lub stawania się antagonistycznymi wobec swoich twórców.
Podsumowując, choć badania nad bezpieczeństwem AI rosną, ich zakres jest wciąż ograniczony, a bezpieczeństwo ustępuje miejsca postępowi – zwłaszcza w Dolinie Krzemowej, która żyje według motta “ruszaj szybko i psuj rzeczy”. Badanie Uniwersytetu Georgetown ostatecznie podkreśla, że uniwersytety, rządy, firmy technologiczne i fundatorzy badań muszą zainwestować więcej wysiłku i pieniędzy w badania nad bezpieczeństwem AI.
Niektórzy wzywają również do utworzenia międzynarodowego organu do spraw bezpieczeństwa AI, podobnego do Międzynarodowej Agencji Energii Atomowej (IAEA), która została powołana po serii incydentów jądrowych, które wymagały głębokiej współpracy międzynarodowej. Czy AI potrzebuje własnej katastrofy, aby zainicjować podobny poziom współpracy państw i korporacji? Miejmy nadzieję, że nie.