Sztuczna inteligencja. Przyszłość bezpieczeństwa narodowego Rosji?
Dziesięć lat rozwoju
Nie jest tajemnicą, że sztuczna inteligencja coraz bardziej penetruje życie zwykłych ludzi na całym świecie. Sprzyja temu zarówno globalne rozprzestrzenianie się Internetu, jak i poważny wzrost mocy obliczeniowej. Sieci neuronowe, które mają pewne podobieństwo do ludzkiego mózgu, umożliwiły jakościowe usprawnienie pracy tworzonego oprogramowania. Jest jednak kilka kwestii doprecyzowania: sieci neuronowe wciąż są bardzo dalekie od poziomu ludzkiego mózgu, zwłaszcza pod względem efektywności energetycznej, a algorytmy działania są nadal niezwykle trudne do zrozumienia.
Pieniądze na przemysł sztucznej inteligencji, pomimo pewnych ograniczeń i głośnych incydentów z autopilotami, płyną szeroką rzeką. W ubiegłym roku, zgodnie z przyjętą Strategią Narodową, rynek rozwiązań informatycznych w tym obszarze przekroczył 21,5 mld USD. Bóg wie jaka kwota, ale będzie się ona zwiększać tylko z roku na rok, a do 2024 całkowita sztuczna inteligencja na świecie będzie warunkowo kosztować 140 miliardów, a potencjalny wzrost gospodarczy po wprowadzeniu AI sięgnie do tego czasu całkiem przyzwoitego 1 biliona. dolarów. Właściwie próbą nadążania za światowymi trendami było zatwierdzenie przez prezydenta Władimira Putina 10 października 2019 r. wspomnianej Strategii Narodowej. Jednocześnie sam program deklaruje nie tylko zmniejszenie dystansu do światowych liderów, ale wejście do grona czołowych graczy na tym rynku. Planuje się to zrobić do 2030 roku. Wśród oczywistych przeszkód na tej ścieżce będą protekcjonistyczne oświadczenia wielu krajów, że każde rosyjskie oprogramowanie niesie ze sobą potencjalne zagrożenie.
Gdzie zamierzają wdrożyć „nieograniczone” możliwości sztucznej inteligencji na rosyjskiej ziemi? Przede wszystkim jest to automatyzacja rutynowych operacji wraz z wymianą osoby w niebezpiecznych branżach (czytaj: w tym w wojsku). Planowane są też poważne prace z big data, które w ostatnim czasie zostały wygenerowane jak lawina. Zakłada się, że będą w stanie poprawić prognozy dla decyzji zarządczych, a także zoptymalizować dobór i szkolenie personelu. Opieka zdrowotna z edukacją za dziesięć lat będzie również aktywnymi użytkownikami AI. W medycynie zapobieganie, diagnozowanie, dawkowanie leków, a nawet operacje będą częściowo lub całkowicie oddane maszynowemu umysłowi. W szkołach AI będzie zaangażowana w indywidualizację procesów uczenia się, analizę skłonności dziecka do aktywności zawodowej oraz wczesną identyfikację uzdolnionej młodzieży. W strategii można znaleźć zapis o „opracowaniu i wdrażaniu modułów edukacyjnych w ramach programów edukacyjnych na wszystkich poziomach kształcenia”. Czy w szkole będą uczyć się podstaw sztucznej inteligencji?
Jak zwykle, oprócz wymiernych rezultatów rozwoju AI, środowisko naukowe będzie musiało zwiększyć liczbę i indeks cytowań artykułów krajowych naukowców w światowych publikacjach specjalistycznych. A do 2024 r., czyli już niedługo, w Rosji powinna wzrosnąć liczba obywateli posiadających kompetencje w zakresie sztucznej inteligencji. Będzie to realizowane między innymi poprzez przyciąganie krajowych specjalistów z zagranicy, a także przyciąganie cudzoziemców do pracy nad tym tematem w Rosji.
Sztuczna inteligencja ma jednak jedną kontrowersyjną cechę, którą strategia ma rozwiązać poprzez „opracowanie zasad etycznych interakcji człowieka ze sztuczną inteligencją”. Okazuje się, że chłodna kalkulacja umysłu komputera powoduje, że dokonuje on tendencyjnych i niesprawiedliwych uogólnień.
Stronniczość AI
Wśród natłoku pytań dotyczących funkcjonowania nowoczesnych systemów AI zwraca się uwagę na niedoskonałe obecnie algorytmy autopilota pojazdów kołowych, które wciąż nie dają prawnego zezwolenia na ich powszechne stosowanie. Najprawdopodobniej w dającej się przewidzieć przyszłości nie zobaczymy na naszych drogach samochodów kierowanych przez AI. Mamy do tego nieodpowiednie warunki drogowe, a klimat nie sprzyja korzystaniu z autopilota przez cały rok: błoto i śnieg szybko „oślepią” układy czujników najbardziej zaawansowanych robot. Ponadto masowe wprowadzenie sztucznej inteligencji nieuchronnie odbierze pracę milionom ludzi na całym świecie – albo będą musieli się przekwalifikować, albo resztę dni spędzą na bezczynności. Można śmiało powiedzieć, że różne nowomodne „Atlasy zawodów przyszłości” czasami zawierają jawne bzdury: w jednym z nich, datowanym na 2015 r., Do nowego roku 2020 na przykład zawody księgowego, bibliotekarza, korektora i testera powinny stały się nieaktualne. Niemniej jednak zmieni się profil większości zawodów i przeważy tutaj negatywny czynnik sztucznej inteligencji. W każdym razie perspektywy dalszego wprowadzania sztucznej inteligencji do społeczeństwa rodzą wiele pytań do rządowych regulatorów. I wydaje się, że niewiele osób wie, jak je rozwiązać.
Innym problemem, który już pojawia się na horyzoncie, jest stronniczość AI w podejmowaniu decyzji. Amerykanie byli jednymi z pierwszych, którzy zmierzyli się z tym problemem, gdy 15 stanów wprowadziło system COMPAS do przewidywania przypadków recydywy przestępców. I wszystko zaczęło się bardzo dobrze: udało się opracować algorytm zdolny do generowania zaleceń na podstawie masy danych (Big Data) dotyczących surowości kary, reżimu poprawczego lub wcześniejszego zwolnienia. Programiści słusznie przekonywali, że przed obiadem głodny sędzia może wytrzymać zbyt surową karę, a dobrze odżywiony jest zbyt łagodny. AI musi wprowadzić do tej procedury zimne obliczenia. Okazało się jednak, że COMPAS i wszystkie podobne programy są rasistowskie: sztuczna inteligencja dwukrotnie częściej niesłusznie oskarżała Afroamerykanów o skłonność do recydywy niż biali (45% vs 23%). Jasnoskórzy przestępcy są ogólnie uważani przez AI za osoby o niskim poziomie ryzyka, ponieważ statystycznie rzadziej łamią prawo - dlatego prognozy dla nich są bardziej optymistyczne. W związku z tym w Stanach Zjednoczonych słyszy się coraz więcej głosów o zniesieniu sztucznej inteligencji w rozwiązywaniu problemów związanych ze zwolnieniem za kaucją, wyrokiem i przedterminowym zwolnieniem. Jednocześnie amerykański wymiar sprawiedliwości nie ma nic wspólnego z kodem programu tych systemów - wszystko jest kupowane od zewnętrznych programistów. Systemy oprogramowania Predpol, HunchLab i Series Finder, które działają na ulicach wielu miast na całym świecie, już statystycznie dowiodły swojej skuteczności: spada przestępczość, ale nie są one pozbawione uprzedzeń rasowych. Najciekawsze jest to, że nie wiemy, jakie inne „karaluchy” są wszyte w sztuczne mózgi tych systemów, ponieważ wiele parametrów analizy jest sklasyfikowanych. Pojawiają się też wątpliwości, czy sami deweloperzy rozumieją, w jaki sposób AI podejmuje określone decyzje, jakie parametry uważa za kluczowe. Podobne sytuacje rozwijają się nie tylko w organach ścigania i sądownictwie, ale także w agencjach rekrutacyjnych. AI w większości przypadków preferuje młodych mężczyzn przy zatrudnianiu, pomijając słabszą płeć i starszych kandydatów. To zabawne, że tak gorliwie promowane tam wartości Zachodu (równość płci i rasy) są deptane przez najnowsze osiągnięcie Zachodu – sztuczną inteligencję.
Wniosek z krótkiej wycieczki do teorii i praktyki sztucznej inteligencji sugeruje, co następuje. Co innego, gdy nasze dane z sieci społecznościowych i innych źródeł są masowo przetwarzane w celach marketingowych lub manipulacji politycznych, a co innego, gdy miecz sprawiedliwości lub, co gorsza, arsenał bezpieczeństwa narodowego zostaje przekazany w ręce AI . Cena stronniczej decyzji wzrasta wielokrotnie i trzeba coś z tym zrobić. Ten, kto odniesie sukces, stanie się prawdziwym władcą XXI wieku.
informacja