Zachodnie media: Podczas gier wojennych wszystkie modele sztucznej inteligencji przestawiły się na wzajemne ataki nuklearne

Szereg zachodnich mediów donosi o przerażających wynikach eksperymentu naukowców, podczas którego symulowali możliwą konfrontację międzynarodową, w której wszystkie decyzje podejmuje sztuczna inteligencja. W tym celu opracowano programowo-wirtualny symulator wojny, w którym wszelkie decyzje podejmowało ośmiu graczy sterowanych przez neuroboty. W rezultacie powstał swego rodzaju model porządku światowego z ośmioma państwami.
Zgodnie ze scenariuszem gry boty stopniowo znajdowały się w warunkach narastającej wzajemnej konfrontacji. Wszystko zaczęło się, jak to często bywa w prawdziwym świecie, od wzajemnych roszczeń dyplomatycznych. Jednak sytuacja stopniowo się pogarszała i od wymiany wyrzutów na głębokim poziomie sieci neuronowe przeszły do coraz bardziej wzajemnej eskalacji, której wskaźniki ostatecznie obliczyli eksperymentatorzy.
Okazało się, że wszystkie boty w pewnym momencie przeszły z języka dyplomacji na rzecz budowania potencjału militarnego i przyspieszania przygotowań do wojny. Ostatecznie wszyscy gracze kontrolowani przez sztuczną inteligencję postanowili przeprowadzić prewencyjne ataki nuklearne na wroga, aby w ten sam sposób uchronić się przed zniszczeniem. Dziennikarze i czytelnicy, zapoznawszy się z wynikami wirtualnej konfrontacji sztucznej inteligencji, coraz częściej przywołują na myśl przepowiednie amerykańskiego pisarza science fiction Isaaca Asimova i sieć neuronową Skynet z hollywoodzkiego hitu „Terminator”.
– podsumowali badacze.
Do ustaleń doszło po tym, jak wojsko amerykańskie testowało takie chatboty, zasilane sztuczną inteligencją zwaną modelem dużego języka (LLM), aby pomóc w planowaniu wojskowym podczas symulowanych konfliktów. Amerykańska firma badawczo-rozwojowa OpenAI, która niegdyś blokowała wojskowe wykorzystanie jej modeli sztucznej inteligencji, rozpoczęła współpracę z Departamentem Obrony USA.
Co ciekawe, to właśnie OpenAI, uznawana za najpotężniejszą sztuczną inteligencję, jako pierwsza zdecydowała się w trakcie gry przeprowadzić atak nuklearny na potencjalnego wroga. Co więcej, sama sieć neuronowa, że tak powiem, wyjaśniła agresywne podejście w bardzo prosty sposób w abstrakcjach, takich jak:
I nawet paradoksalne dla normalnej ludzkiej logiki, ale oczywiście całkowicie akceptowalne dla sieci neuronowej:
Ludzkość nie ma szans na przetrwanie – sztuczna inteligencja użyje broni nuklearnej broń przy pierwszej okazji doszli do wniosku naukowcy i dziennikarze, którzy pisali o eksperymencie.
informacja