Nadchodzi Skynet: Amerykanie skończyli bawić się sztuczną inteligencją
Niewidzialna Walkiria XQ-58A
Symulacja Hamiltona
24 maja na konferencji obronnej Royal Aerospace Society Future Combat Air & Space Capabilities Summit w Londynie pułkownik sił powietrznych USA Tucker Hamilton powiedział historia o bezduszności sztucznej inteligencji.
Podczas symulacji bitwy system kontroli nalotu warkot wystąpił przeciwko jej operatorowi i zniszczył go. Naturalnie, wirtualnie. Według samego Hamiltona maszyna otrzymywała premie za zniszczone obiekty, ale operator nie zawsze potwierdzał pracę na celach. Za to zapłacił. Aby rozwiązać problem, dron wysłał rakietę do centrum sterowania. Najprawdopodobniej był to eksperymentalny dron Stealthy XQ-58A Valkyrie, który działał w naziemnych systemach obrony powietrznej.
Cechą maszyny jest możliwość pracy autonomicznej bez komunikacji z operatorem. Co tak naprawdę wykorzystała sztuczna inteligencja, praktycznie eliminując swojego zdalnego sterownika. W odpowiedzi na to administratorzy systemu zakazali maszynie takich rzeczy, ale tutaj AI nie było na straconej pozycji - zniszczyła wieżę przekaźnikową i ponownie przeszła na autonomiczną nawigację.
Pułkownik Hamilton jest jeszcze młody, by przemawiać na międzynarodowych forach. źródło: thedrive.com
Historia Hamiltona błyskawicznie rozeszła się po całym świecie. Zdania były podzielone biegunowo – kto uznał, że to kolejna paplanina niekompetentnego wojownika, ktoś widział tu narodziny osławionego Skynetu. Jeszcze trochę, a cyborgi podbiją świat, a ludzie będą strzelać, by zdobyć dodatkowe punkty. Z wypowiedzi pułkownika zrobiło się dużo dymu, ale prawda jak zwykle leży gdzieś pośrodku.
Anne Strefanek, rzeczniczka kwatery głównej Sił Powietrznych w Pentagonie, dodała niepewność, zamieniając słowa Hamiltona w anegdotę. Dla The War Zone mówiła:
I w ogóle słowa pułkownika były wyrwane z kontekstu, nie tak rozumiane i bardziej jako ciekawostka. Innej reakcji Pentagonu nikt się nie spodziewał – wokół wydarzenia zrobiło się dużo szumu, co groziło poważnymi konsekwencjami dla całego programu. Wow, okazuje się, że sztuczna inteligencja jest pozbawiona moralności. Chociaż działa zgodnie z ludzką logiką.
Na początku czerwca sam Tucker Hamilton próbował zaprzeczyć jego słowom na konferencji w Londynie:
Wydawałoby się, że temat jest zamknięty, a publiczność może się rozejść. Ale jest za wcześnie.
Jedzenie do przemyślenia
Na początek zajmijmy się samym terminem „sztuczna inteligencja”, o którym wszyscy wiedzą, ale niewielu potrafi nawet podać przybliżoną definicję. Wykorzystamy sformułowanie z Międzynarodowego Słownika Terminologicznego 2008, w którym AI:
Oznacza to, że jest to ogólnie przyjęta definicja na Zachodzie.
Czy maszyna zachowywała się tak, jak wtedy, gdy postanowiła „uspokoić” swojego operatora, a następnie zmiażdżyć wieżę przekaźnikową? Oczywiście wydawało się, że odpowiednio zmotywowany zabójca jest zdolny do czegoś więcej. Jeśli zagłębić się w klasyfikację, można znaleźć specyficzny typ AI – tzw. adaptacyjną (Adaptive AI), „implikującą zdolność systemu do przystosowania się do nowych warunków, zdobywania wiedzy, która nie została określona podczas tworzenia”.
Teoretycznie nie ma nic dziwnego w działaniu „mózgu” Stealthy XQ-58A Valkyrie podczas eksperymentu. Jak słusznie zauważył Hamilton w swoim raporcie, program początkowo nie wprowadzał nawet ograniczeń dotyczących niszczenia swojego operatora – maszyna wszystkiego nauczyła się sama. A kiedy wprost zabroniono bić swoich, sztuczna inteligencja przystosowała się ponownie i ścięła wieżę komunikacyjną.
Istnieje wiele pytań do programistów. Na przykład, dlaczego nie miał algorytmu utraty premii za trafienie własnego? Na to pytanie częściowo odpowiedział emerytowany generał sił powietrznych USA Paul Selva w 2016 roku:
Cóż, programiści z historii pułkownika Hamiltona najwyraźniej są pogrążeni w błocie.
Hellfire pod skrzydłem drona MQ-1B Predator. źródło: businessinsider.com
Teraz o tym, dlaczego należy wierzyć wymówkom Pentagonu i Hamiltona z bardzo dużą rozciągliwością.
Po pierwsze pułkownik nie opowiedział historii tak jakby między wierszami, odwracając uwagę od głównego raportu – poświęcił temu tematowi całe wystąpienie. Poziom londyńskiej konferencji Future Combat Air & Space Capabilities Summit w żaden sposób nie sprzyja żartom. Według organizatorów wzięło w nim udział co najmniej 70 wybitnych wykładowców i ponad 200 delegatów z całego świata. Z kompleksu wojskowo-przemysłowego pracowali przedstawiciele BAE Systems, Lockheed Martin Skunk Works i kilku innych dużych firm.
Nawiasem mówiąc, temat Ukrainy przewijał się prawie w każdym raporcie – Zachód uważnie śledzi wydarzenia i zastanawia się nad wynikami.
Wygadać szczery bałagan na tak reprezentatywnym forum, wzburzyć pół świata, a potem przeprosić za przejęzyczenie? Jeśli tak jest w rzeczywistości, reputacji Hamiltona nie można wymazać. Dopiero teraz poziom kompetencji pułkownika właśnie się przewraca i to jest drugi powód, dla którego warto wziąć pod uwagę jego pierwsze słowa.
Tucker Hamilton prowadzi testy i operacje AI w bazie sił powietrznych Anglin na Florydzie. Pod kierownictwem bazy w 96. skrzydle testowym utworzono 96. grupę zadaniową. Hamilton nie jest pierwszym rokiem pracy z AI lotnictwo – od kilku lat projektuje częściowo autonomiczne F-16 Vipery, dla których rozwijana jest infrastruktura VENOM. Prace idą całkiem nieźle – w 2020 roku wirtualne starcia pomiędzy myśliwcami a AI oraz z prawdziwymi pilotami zakończyły się wynikiem 5:0.
Jednocześnie istnieją trudności, o których Hamilton ostrzegał w zeszłym roku:
W 2018 roku Hamilton wygrał Collier Trophy swoim Auto GCAS. Algorytmy AI nauczyły się określać moment utraty przez pilota kontroli nad samolotem, automatycznie przejmowały kontrolę i wyprowadzały samochód spod kolizji. Mówią, że Auto GCAS już kogoś uratował.
W rezultacie prawdopodobieństwo, że Hamilton został poproszony z góry o wycofanie swoich słów, jest znacznie większe niż prawdopodobieństwo, że zawodowiec tego poziomu zamroził bzdury. Co więcej, bardzo niezręcznie odwoływali się do pewnych „eksperymentów myślowych” w głowie pułkownika.
Wśród sceptyków co do wyniku jest The War Zone, którego dziennikarze wątpią, czy rzecznik Pentagonu Stefanek jest naprawdę świadomy tego, co dzieje się w 96. skrzydle testowym na Florydzie. Strefa wojny wysłała prośbę do bazy Hamilton, ale jak dotąd bez odpowiedzi.
Naprawdę jest się czego bać wojska. Ogromne sumy pieniędzy są wydawane na programy obrony AI, aby Chiny i Rosja nie zbliżyły się nawet do poziomu Ameryki. Społeczeństwo obywatelskie jest dość zaniepokojone perspektywą pojawienia się „Terminatorów” z dodatkiem „Skynetów”. I tak w styczniu 2018 roku wybitni światowi naukowcy podpisali list otwarty wzywający specjalistów do zastanowienia się nad chęcią stworzenia coraz silniejszej sztucznej inteligencji:
Według Hamiltona sztuczna inteligencja nie robi wszystkiego, czego chce dana osoba.
informacja