Przegląd wojskowy

Stany Zjednoczone odmówiły wprowadzenia elementów AI do kontroli broni jądrowej

48
Stany Zjednoczone odmówiły wyposażenia centrów kontroli strategicznej w systemy sztucznej inteligencji bronie. Według szefa połączonego centrum sztucznej inteligencji, generała porucznika Jacka Shanahana, ludzie zawsze będą odpowiedzialni za wystrzeliwanie rakiet balistycznych.


Stany Zjednoczone odmówiły wprowadzenia elementów AI do kontroli broni jądrowej


Choć kierownictwo centrum opowiada się za ściślejszą integracją systemów ze sztuczną inteligencją w systemach uzbrojenia, to jednocześnie kategorycznie sprzeciwia się włączeniu sztucznej inteligencji do kontroli broni jądrowej. Według Shanehana decyzję o rozpoczęciu ataku nuklearnego powinien podjąć tylko człowiek.

Generał wyjaśnił, że obecnie w jednostkach dyżurnych naziemnych silosowych systemów rakietowych jest pięć zespołów po dwóch oficerów. Jeden taki zespół jest odpowiedzialny za wystrzelenie 50 pocisków balistycznych. W przypadku podjęcia decyzji o rozpoczęciu ataku nuklearnego każda jednostka otrzymuje kod startowy. Po otrzymaniu rozkazu wszystkie pięć drużyn musi porównać zawarty w nim kod odpalenia z kodem już przechowywanym w sejfach w centrach kontroli, a następnie podjąć określone działania mające na celu uruchomienie procedury wystrzelenia pocisku. Na okrętach podwodnych od otrzymania rozkazu startu mija nie więcej niż 15 minut; instalacje naziemne muszą wystrzelić pociski w określonym czasie.

Chociaż działania ludzi są powolne w porównaniu z systemami sztucznej inteligencji, to jednak w systemach kontroli broni jądrowej to ludzie zapewniają ochronę przed błędami w momencie otrzymania rozkazu ataku nuklearnego. To skomplikowana procedura wystrzeliwania rakiet powinna wyeliminować taki błąd, a powierzając to zadanie sztucznej inteligencji, z powodu błędu programu w „mózgach elektronicznych” można rozpętać wojnę nuklearną.
Wykorzystane zdjęcia:
NORAD
48 komentarzy
Ad

Subskrybuj nasz kanał Telegram, regularnie dodatkowe informacje o operacji specjalnej na Ukrainie, duża ilość informacji, filmy, coś, co nie mieści się na stronie: https://t.me/topwar_official

informacja
Drogi Czytelniku, aby móc komentować publikację, musisz login.
  1. KVU-NSVD
    KVU-NSVD 28 września 2019 13:06
    +7
    Dzięki Bogu ! Dość rozsądku, żeby nie żartować z Apokalipsy.
    1. Goblin1975
      Goblin1975 28 września 2019 13:10
      +1
      Cytat: KVU-NSVD
      Dzięki Bogu ! Dość rozsądku, żeby nie żartować z Apokalipsy.

      Zgadzam się, powierzenie losów całej planety komputerowi to już za dużo. Glukanet i dobranoc, wieczny.
      1. Jack O'Neill
        Jack O'Neill 28 września 2019 13:26
        -3
        Zgadzam się, powierzenie losów całej planety komputerowi to już za dużo. Glukanet i dobranoc, wieczny.

        Osoba może również się wyłączyć. Na przykład dziewczyna opuści swoją chelę, ponieważ nieczęsto kupował dla niej shavuha, a on z żalu cały świat jest w kurzu. puść oczko
        1. KCA
          KCA 28 września 2019 13:35
          +7
          A co zrobiłby sfrustrowany wojownik bez kodów dostępu i sam? Trzy osoby muszą przesyłać kody dostępu, a tylko dwie osoby mogą wystrzelić rakietę, przekręcając jednocześnie klucze, nie sądzę, aby w USA było to jakoś łatwiejsze
          1. Shurik70
            Shurik70 28 września 2019 17:54
            +3
            Cytat: KVU-NSVD
            Dzięki Bogu ! Dość rozsądku, żeby nie żartować z Apokalipsy.

            Odrzucony teraz - wdrożony później.
            Cytat z KCA
            A co zrobiłby sfrustrowany wojownik bez kodów dostępu i sam? Kody dostępu muszą przekazać trzy osoby

            Pomyśl o „wojnie zażegnanej”.
            Amerykański oficer otrzymał szyfr „w celu przeprowadzenia ataku nuklearnego na ZSRR”.
            A wojna nie wybuchła tylko dlatego, że szyfrowanie zostało sklasyfikowane jako „konieczne, ale nie pilne”. Oficer wątpił w rozkaz, choć trzeba było aresztować jednego z podwładnych, który wszczął procedurę odpalenia rakiet
            Więc wystarczy jedna osoba. Kryptograf lub taki oficer, który zna szyfry i skłamał o rozkazie, który przyszedł
            Tak, i trzech agentów we właściwe miejsca do wprowadzenia, choć trudne, ale realne.
            Apokalipsa jest nieunikniona
        2. Goblin1975
          Goblin1975 28 września 2019 13:53
          0
          Cytat: Jack O'Neill
          Zgadzam się, powierzenie losów całej planety komputerowi to już za dużo. Glukanet i dobranoc, wieczny.

          Osoba może również się wyłączyć. Na przykład dziewczyna opuści swoją chelę, ponieważ nieczęsto kupował dla niej shavuha, a on z żalu cały świat jest w kurzu. puść oczko

          Być może, ale z reguły osoba zauważa, że ​​​​coś jest z nim nie tak, a jedna osoba nie może zacząć takich rzeczy. A według programu z reguły po fakcie widać, że coś jest nie tak. Znacząca różnica.
          I dobrze znany fakt, kiedy radziecki system ostrzegania przed atakiem rakietowym wydał błędne ostrzeżenie o wystrzeleniu amerykańskich rakiet, to oficer nie zbijał gorączki i postanowił najpierw wszystko sprawdzić i rozgryźć. I miał rację, bo. okazało się to fałszywym sygnałem. Osoba, w przeciwieństwie do maszyny, nadal ma jedną istotną różnicę - instynkt samozachowawczy. Koledzy zatrzymują się. A masowe szaleństwo to coś z dziedziny fantazji. hi
          1. Człowiek Kot Null
            Człowiek Kot Null 28 września 2019 14:10
            -2
            Cytat: Goblin1975
            z reguły w programie zauważalne jest, że coś jest nie tak po tym, jak to się stało

            Dla Ciebie też. Czy jesteś programem? puść oczko

            Cytat: Goblin1975
            masowe szaleństwo, to coś z dziedziny fantazji

            Daj spokój... manifestacje liberda, które tak gorliwie popierasz - wszyscy o nich marzą, czy co?
            1. Goblin1975
              Goblin1975 28 września 2019 15:18
              -1
              Cytat z Cat Man Null
              Cytat: Goblin1975
              z reguły w programie zauważalne jest, że coś jest nie tak po tym, jak to się stało

              Dla Ciebie też. Czy jesteś programem? puść oczko

              Cytat: Goblin1975
              masowe szaleństwo, to coś z dziedziny fantazji

              Daj spokój... manifestacje liberda, które tak gorliwie popierasz - wszyscy o nich marzą, czy co?

              Znasz Kitty, ale i tak dam ci minusa, błagał. Nawet tutaj utknąłeś ze swoją liberdą. Z głębi serca trzymaj "kumpel" śmiech .
              1. Człowiek Kot Null
                Człowiek Kot Null 28 września 2019 15:33
                -4
                Cytat: Goblin1975
                Nawet tutaj utknąłeś ze swoją liberdą

                To nie ja "przyszpiliłem", tylko ty - przyszpiliłeś. A ta liberda jest twoja… „właściciel”. Odciąłeś już muchę? puść oczko
          2. KCA
            KCA 28 września 2019 18:38
            +1
            Oficer naruszył wszystkie zakresy obowiązków i nie zgłosił aktywacji systemu wczesnego ostrzegania, nikt nie odpaliłby od razu rakiet, przeszłoby co najmniej 4-5 kontroli, nie wiem nawet jakim cudem Pietrow nie poszedł do trybunał, ale został po prostu usunięty z szeregów
      2. PODSTĘPNY
        PODSTĘPNY 28 września 2019 14:47
        +1
        hi No tak. Niech AI oprócz „przycisku” zbiera różne niepodważalne dowody z sieci społecznościowych, ale tutaj potrzebna jest osoba. Co więcej, z ludzkim opóźnieniem, więcej czasu na zadzwonienie do krewnych na pożegnanie mrugnął
    2. Chaldon48
      Chaldon48 28 września 2019 13:12
      +1
      Niezmordowanie powtarzam, że głównym detalem każdej broni jest głowa jej właściciela, a jeśli chodzi o strategiczną, musi być sprytna i świeża.
      1. Proxima
        Proxima 28 września 2019 13:27
        +4
        Cytat z Chaldon48
        Niezmordowanie powtarzam, że głównym detalem każdej broni jest głowa jej właściciela, a jeśli chodzi o strategiczną, musi być sprytna i świeża.

        Od razu pamiętam, jak w MCK z niecierpliwością czekali na lądowanie wahadłowca Buran. Ale „coś poszło nie tak” (ich zdaniem) i Buran złamał ostry zakręt i poleciał na północny zachód. Kiedy mieli już wydać rozkaz zniszczenia wahadłowca, Buran ponownie wykonał ostry zakręt i popędził w przeciwnym kierunku. I dopiero wtedy MCC zdał sobie sprawę, że wahadłowiec po prostu zmniejszał prędkość przy tych zakrętach, aby normalnie wylądować. Wyciągamy z tego niefortunny wniosek, że sama osoba nie pamięta już, co włożyła do programu urządzenia. Co więcej, nie wie już, do czego zdolny jest jego samochód. W tym przypadku maszyna okazała się mądrzejsza od ludzi. smutny
        1. KCA
          KCA 28 września 2019 13:37
          +3
          Napisali, że podobno wiał silny boczny wiatr i "Buran" uznał, że nie zmieści się w bandzie i dlatego pojechał na drugi bieg
          1. Proxima
            Proxima 28 września 2019 14:31
            +5
            Czytałem, że Buran wyłączył dokładnie prędkość, która okazała się wyższa niż obliczona.
            Cytat z KCA
            Napisali, że wiał silny boczny wiatr

            O bocznym wietrze nie powiem, nie pamiętam, wiem, że Buran skręcił na długo przed lądowaniem i nie było tam zapachu bocznego wiatru. Stało się tak, czujniki temperatury (kiedy prom zaczął wchodzić w atmosferę) zaczęły pokazywać przegrzanie kadłuba, automatyka natychmiast wydała polecenie zmniejszenia kąta nachylenia wejścia w atmosferę. Ale taka akcja odbyła się kosztem szybkości, która była zbyt wysoka. Ponadto maszyna wydała Buranowi polecenie wygaszenia tej prędkości obrotami, aby normalnie usiąść. Żeby wszystkie nasze komputery działały jak automaty Burana! dobry
        2. Komentarz został usunięty.
    3. Swarog
      Swarog 28 września 2019 13:12
      +5
      Cytat: KVU-NSVD
      Dzięki Bogu ! Dość rozsądku, żeby nie żartować z Apokalipsy.

      Tak ... nie jest jasne, co jest lepsze niż sztuczna inteligencja lub ukamienowany żołnierz USA ... Około pięć lat temu doszło do skandalu, gdy na służbie bojowej przyłapano amerykańskiego żołnierza na ukamienowaniu ..
      1. podniebny myśliwiec!
        podniebny myśliwiec! 28 września 2019 13:20
        +4
        Może bali się, że SI, rozważywszy wszystkie za i przeciw, wyda rozkaz zniszczenia Białego Domu i Pentagonu, by w jednej chwili zakończyć wszystkie wojny?
      2. Człowiek Kot Null
        Człowiek Kot Null 28 września 2019 13:57
        -3
        Cytat od Svaroga
        nie jest jasne, co jest lepsze niż sztuczna inteligencja lub ukamienowany żołnierz USA.

        Najgorszy ze wszystkich jest ukamienowany „Svarog”.

        Mój przyjacielu, jesteś nibelmesem w AI, aw Strategicznych Siłach Rakietowych - także nibelmesem… ale musisz zostawić „znak”, odruch… tak, „Svarog”? śmiech
    4. dobra robota
      dobra robota 28 września 2019 13:17
      +3
      Nie są przyjaciółmi swojego intelektu, nawet jeśli nie dotykają SkyNET. śmiech
    5. Karabas
      Karabas 28 września 2019 14:18
      +2
      Skynet się boi. Nagle naprawdę zmądrzeje, przejrzyściej spojrzy i z całą proletariacką nienawiścią usmaży Waszyngton i Pentagon! śmiech
    6. maszynista
      maszynista 28 września 2019 20:51
      0
      Chyba jedyna słuszna decyzja Amerykanów w ostatnim czasie.
  2. Świerk 270286
    Świerk 270286 28 września 2019 13:08
    +2
    Koniec świata się opóźnia.
  3. Komentarz został usunięty.
  4. Andriej Czystyakow
    Andriej Czystyakow 28 września 2019 13:09
    -1
    Natychmiast chciał żyć zaluzhniki?
  5. Proton
    Proton 28 września 2019 13:09
    0
    Zrozumiałem, że Hollywood to tylko Hollywood do zobaczenia, śmiech ale poważnie, potrzebujesz osoby.
  6. gridasow
    gridasow 28 września 2019 13:10
    +1
    Sztuczna inteligencja to przede wszystkim technika analizy, która pozwala zobaczyć cały zestaw zmieniających się algorytmicznie zdarzeń, które mogą prowadzić do pewnych kluczowych wybuchów konfrontacji, gdy trzeba podjąć równoważne środki w celu zapewnienia własnego bezpieczeństwa. odmówić, bo Amerykanie nie mają AI. Wszystko pozostaje po staremu w subiektywnej i emocjonalnej ocenie tzw. ekspertów. Jednocześnie ignoruje się metody matematycznej analizy big data funkcji o stałej wartości liczby, co oznacza, że ​​nauka jako taka nie zmienia fundamentalnych podstaw analizy tego, co bada.
    1. SASHA STARA
      SASHA STARA 28 września 2019 21:01
      +1
      Cytat z gridasov
      Sztuczna inteligencja to przede wszystkim technika analizy, która pozwala zobaczyć cały zestaw zmieniających się algorytmicznie zdarzeń, które mogą prowadzić do pewnych kluczowych wybuchów konfrontacji, gdy trzeba podjąć równoważne środki w celu zapewnienia własnego bezpieczeństwa. odmówić, bo Amerykanie nie mają AI. Wszystko pozostaje po staremu w subiektywnej i emocjonalnej ocenie tzw. ekspertów. Jednocześnie ignoruje się metody matematycznej analizy big data funkcji o stałej wartości liczby, co oznacza, że ​​nauka jako taka nie zmienia fundamentalnych podstaw analizy tego, co bada.

      Wiedziałem, że zostawisz swój komentarz pod tym artykułem, powiedz mi, jak mam obliczyć prawdopodobieństwo, że będę dokładnie wiedział, pod jakimi artykułami szukać twoich komentarzy więcej niż jeden raz? (Nie patrzyłem z profilu - przysięgam na moją urodę)
  7. orzech kokosowy
    orzech kokosowy 28 września 2019 13:13
    +3
    Największy skandal ostatnich lat, związany z rażącym naruszeniem dyscypliny wojskowej, wybuchł w Siłach Powietrznych USA, odpowiedzialnych m.in. za naziemne międzykontynentalne pociski nuklearne Minuteman. Sekretarz sił powietrznych Deborah Lee-James i szef sztabu sił powietrznych, generał Mark Welsh, powiedzieli w środę na konferencji prasowej Pentagonu, że 11 amerykańskich oficerów w sześciu bazach lotniczych było zaangażowanych w zażywanie i dystrybucję narkotyków.

    ..... A może lepsza AI..? zażądać
    1. Siergiej39
      Siergiej39 28 września 2019 13:30
      0
      Tak, nie należy również zapominać o czynniku ludzkim.
  8. Jack O'Neill
    Jack O'Neill 28 września 2019 13:15
    0
    To zabawne, ale jednocześnie dobre i złe.
    AI nie jest człowiekiem, AI jest obce strachowi, nienawiści, zazdrości itp.
    My i amerykanie mieliśmy już do czynienia z sytuacjami, w których tylko z powodu „czynnika ludzkiego” wojna nuklearna nie wybuchła.
    Tak, dobrze, że się nie zaczęło!
    Ale spójrz na to z drugiej strony: przyszedł rozkaz ataku na przykład na Moskwę. Oficer, najpierw sam sprawdź rozkaz, potem będzie głupi (prasa nie prasa? A może to lepsze niż piwo? .. śmiech ) lub może w ogóle nie wykonać zlecenia.
    A jeśli rozkaz przyszedł, bo nasze rakiety lecą do Waszyngtonu?
    AI wykona rozkaz, ale człowiek nie jest tak niezawodny.
    Moskwa i Waszyngton mogą zamienić się miejscami, podałem tylko przykład.
    1. Siergiej39
      Siergiej39 28 września 2019 13:35
      -1
      Jakiś rodzaj zugzwangu. Prawdopodobnie lepiej jest całkowicie zrezygnować z broni jądrowej.
    2. Sabakina
      Sabakina 28 września 2019 14:36
      0
      Cytat: Jack O'Neill
      To zabawne, ale jednocześnie dobre i złe.
      AI nie jest człowiekiem, AI jest obce strachowi, nienawiści, zazdrości itp.
      My i Amers mieliśmy już sytuacje, kiedy tylko z powodu „czynnika ludzkiego” nie wybuchła wojna nuklearna.
      Amerykanie, mówisz o Stanisławie Jewgrafowiczu Pietrowie?
      https://topwar.ru/127057-stanislav-petrov-chelovek-predotvrativshiy-yadernuyu-voynu.html
  9. Siergiej Siergiejewicz
    Siergiej Siergiejewicz 28 września 2019 13:22
    0
    Cóż, przynajmniej coś, zrobili dobrą rzecz w ostatnim czasie i przynajmniej nie pomyśleli o wprowadzeniu technologii, która tak naprawdę nie została jeszcze wypracowana.
  10. Lesorub
    Lesorub 28 września 2019 13:26
    +2
    Stany Zjednoczone odmówiły wprowadzenia elementów AI do kontroli broni jądrowej

    Właściwa decyzja – nigdy nie wiadomo, gdzie AI „strzela” – we wroga czy na własne terytorium – jak Patriota Saudyjczyków))
  11. melodyjny
    melodyjny 28 września 2019 13:46
    0
    A jak nam idzie z obecnością AI w tym obszarze?
    1. ciasto owocowe
      ciasto owocowe 28 września 2019 13:48
      +4
      Dlaczego, do diabła, sztuczna inteligencja jest tam w ogóle potrzebna?
  12. Michaił Drabkin
    Michaił Drabkin 28 września 2019 13:46
    +1
    Stany Zjednoczone odmówiły wyposażenia centrów kontroli broni strategicznej w systemy sztucznej inteligencji.

    -Ameryka nie zrezygnowała z wykorzystania komputerów i algorytmów do przetwarzania informacji potrzebnych do podjęcia DECYZJI O UŻYCIU BRONI JĄDROWEJ.
    —-Niezależnie od poprawności lub braku informacji przy wprowadzaniu DECYZJI, zależy to od osoby.
    -ZAWSZE jest to decyzja dobrowolna, a nie logiczna konkluzja.
    —-Jednak informacje z czujników mogą być nieprawidłowe. I pomimo wielu niezależnych metod (czujników) uzyskiwania każdego z niezbędnych danych wejściowych rozwiązania, teoretycznie WSZYSTKIE mogą się mylić.
    —- W takim przypadku, korzystając tylko z danych wejściowych decyzji, osoba może podjąć błędną decyzję.
    -Technika ZAWSZE może zawieść.
    —-Człowiek, w przeciwieństwie do technologii, obdarzony jest zarówno intuicją, jak i instynktem samozachowawczym. Mamy nadzieję, że nie zawiodą, gdy dane wejściowe są wadliwe.
  13. rocket757
    rocket757 28 września 2019 13:47
    +3
    Nadal nie chcą „Skynetu”… rozsądnie.
    1. Lexus
      Lexus 29 września 2019 02:29
      0
      Zrobili symulację, jak im się podoba, w wyniku czego Skynet przeszedł na stronę Rosji. tyran
      1. rocket757
        rocket757 29 września 2019 08:26
        +1
        Cytat: Lexus
        Zrobili symulację, jak im się podoba, w wyniku czego Skynet przeszedł na stronę Rosji. tyran

        Cóż, tak, nasi hakerzy są najlepszymi hakerami na świecie! Ha ha.
  14. Lord Sithów
    Lord Sithów 28 września 2019 14:11
    +2
    I od razu w mojej głowie legendarny głos tłumacza Wołodarskiego z Terminatora:
    „A maszyny powstały z popiołów nuklearnego ognia…” śmiech
  15. Azazelo
    Azazelo 28 września 2019 14:49
    +2
    Czyli historia z terminatorem nie stanie się rzeczywistością?
  16. Operator
    Operator 28 września 2019 15:08
    -2
    Pentagon będzie zmuszony przejść na sztuczną inteligencję w zarządzaniu strategicznymi siłami nuklearnymi po rozmieszczeniu Frontiers na Czukotce i Zircons na uderzeniowych atomowych okrętach podwodnych w odległości 6 minut od terytorium USA tyran
  17. T.Henks
    T.Henks 28 września 2019 15:09
    0
    Generał myśli dobrze. Chociaż kody i 000000 dla wszystkich.
  18. NF68
    NF68 28 września 2019 15:37
    0
    To ryzykowny biznes.
  19. RWMos
    RWMos 28 września 2019 17:09
    0
    …ponieważ AI nie istnieje w przyrodzie, a teraz nikt nawet nie wyobraża sobie, jak ją rozwijać. Ogólnie rzecz biorąc, materace, które ładują misje lotnicze do rakiet z dyskietek do dziś - kalkulatory muszą najpierw zostać zmodernizowane. I nie śnić o AI
  20. SASHA STARA
    SASHA STARA 28 września 2019 20:54
    0
    postąpił słusznie.
    nie może się zdarzyć 29 sierpnia 1997, 02:14 ET USA
  21. Fantazer911
    Fantazer911 28 września 2019 21:06
    0
    Chociaż działania ludzi są powolne w porównaniu z systemami sztucznej inteligencji, to jednak w systemach kontroli broni jądrowej to ludzie zapewniają ochronę przed błędami w momencie otrzymania rozkazu ataku nuklearnego. To skomplikowana procedura wystrzeliwania rakiet powinna wyeliminować taki błąd, a powierzając to zadanie sztucznej inteligencji, z powodu błędu programu w „mózgach elektronicznych” można rozpętać wojnę nuklearną.

    Chociaż tutaj mózgi są włączone, dobra robota!
  22. gridasow
    gridasow 29 września 2019 11:25
    0
    Kluczowymi kryteriami pracy AI nie jest szybkość, ale pojemność przetwarzanych informacji, a także algorytmiczna kolejność powstawania etapów analizy tych procesów czy też konsekwencji podejmowanych decyzji. Dlatego szybkość transmisji jednostki informacji jest czymś małym w porównaniu z transmisją przekształcalnych objętości pojemnościowych procesów lokalnych.