W erze cyfrowej, gdzie technologia sztucznej inteligencji rozwija się w ekspresowym tempie, ostatnie badania przeprowadzone przez Anthropic otwierają nowy rozdział w świecie AI. Claude 3 Opus to model, który według badaczy może generować argumenty równie przekonujące jak te tworzone przez ludzi, co stanowi przełomowe odkrycie w obszarze komunikacji i perswazji maszynowej.
Kierowane przez Esin Durmus badania zanurzały się w zakamarki związków między skalą modeli a ich zdolnością do perswazji, analizując różne generacje językowych modeli Anthropic. Eksperymenty koncentrowały się na 28 złożonych i aktualnych tematach, takich jak moderacja treści online czy etyczne wytyczne do eksploracji kosmosu, które są stosunkowo nowe i w wielu przypadkach nie mają jeszcze wyrobionych, powszechnie akceptowanych opinii.
Badacze postanowili porównać siłę argumentów wygenerowanych przez różne modele Anthropic, w tym Claude 1, 2 i 3, z tymi, które zostały napisane przez uczestników badań. W trakcie eksperymentów posłużyli się czterema odrębnymi impulsami do generowania argumentów, co pozwoliło na uchwycenie szerszego zakresu stylów i technik przekonywania.
Kluczowe odkrycia badania wskazują, że najnowszy model – Claude 3 Opus, wytwarza argumenty, które są statystycznie nie do odróżnienia od argumentów pisanych przez człowieka, jeśli chodzi o ich przekonujący charakter. Co więcej, obserwuje się wyraźną tendencję wzrostową w perswazyjności między kolejnymi generacjami modeli, zarówno w kompaktowych, jak i pionierskich wersjach.
Zespół Anthropic przyznaje, że badanie perswazji w warunkach laboratoryjnych ma swoje ograniczenia i wyniki mogą nie być w pełni przenaszalne na rzeczywisty świat. Jednak zdolności przekonywania modelu Claude są niezaprzeczalnie imponujące, co potwierdzają również inne studia, na przykład te przeprowadzone przez zespół z EPFL w Szwajcarii i Instytutu Bruno Kesslera we Włoszech, które wykazały, że gdy GPT-4 miał dostęp do osobistych informacji o swoim adwersarzu w debacie, był o 81,7% bardziej skłonny przekonać przeciwnika niż człowiek.
Należy zwrócić uwagę na rosnące ryzyko związane z coraz bardziej przekonującymi modelami językowymi AI, takimi jak możliwość stosowania ich w celach inżynierii społecznej czy przymusu. Jak twierdzi Anthropic, zagrożenia te wymagają odpowiedzialnego podejścia do wdrażania technologii i opracowywania mechanizmów ochrony przed potencjalnym nadużyciem.
W dobie, kiedy deep fake i zaawansowane oszustwa są na porządku dziennym, warto także zastanowić się, jak połączenie rosnącej zdolności do przekonywania przez modele językowe AI z nowoczesnymi technologiami klona głosu, takimi jak Voice Engine od OpenAI, może wpłynąć na poziom zagrożeń cyfrowych. Technologia ta, jak informuje OpenAI, wymaga zaledwie 15 sekund na realistyczne sklonowanie głosu, co otwiera drzwi do wykorzystania jej w zaawansowanych oszustwach czy schematach inżynierii społecznej.
W świetle tych odkryć, coraz jaśniejszy staje obraz przyszłości, w której AI nie tylko asystuje, ale także kształtuje ludzkie dyskusje, zmuszając nas do zadawania pytania: czy jesteśmy gotowi na erę, w której maszyny mogą być tak samo, a może nawet bardziej przekonujące niż ludzie?
Źródło: DailyAI