Nadchodzi Skynet: Amerykanie skończyli bawić się sztuczną inteligencją

74
Nadchodzi Skynet: Amerykanie skończyli bawić się sztuczną inteligencją
Niewidzialna Walkiria XQ-58A


Symulacja Hamiltona


24 maja na konferencji obronnej Royal Aerospace Society Future Combat Air & Space Capabilities Summit w Londynie pułkownik sił powietrznych USA Tucker Hamilton powiedział historia o bezduszności sztucznej inteligencji.



Podczas symulacji bitwy system kontroli nalotu warkot wystąpił przeciwko jej operatorowi i zniszczył go. Naturalnie, wirtualnie. Według samego Hamiltona maszyna otrzymywała premie za zniszczone obiekty, ale operator nie zawsze potwierdzał pracę na celach. Za to zapłacił. Aby rozwiązać problem, dron wysłał rakietę do centrum sterowania. Najprawdopodobniej był to eksperymentalny dron Stealthy XQ-58A Valkyrie, który działał w naziemnych systemach obrony powietrznej.

Cechą maszyny jest możliwość pracy autonomicznej bez komunikacji z operatorem. Co tak naprawdę wykorzystała sztuczna inteligencja, praktycznie eliminując swojego zdalnego sterownika. W odpowiedzi na to administratorzy systemu zakazali maszynie takich rzeczy, ale tutaj AI nie było na straconej pozycji - zniszczyła wieżę przekaźnikową i ponownie przeszła na autonomiczną nawigację.


Pułkownik Hamilton jest jeszcze młody, by przemawiać na międzynarodowych forach. źródło: thedrive.com

Historia Hamiltona błyskawicznie rozeszła się po całym świecie. Zdania były podzielone biegunowo – kto uznał, że to kolejna paplanina niekompetentnego wojownika, ktoś widział tu narodziny osławionego Skynetu. Jeszcze trochę, a cyborgi podbiją świat, a ludzie będą strzelać, by zdobyć dodatkowe punkty. Z wypowiedzi pułkownika zrobiło się dużo dymu, ale prawda jak zwykle leży gdzieś pośrodku.

Anne Strefanek, rzeczniczka kwatery głównej Sił Powietrznych w Pentagonie, dodała niepewność, zamieniając słowa Hamiltona w anegdotę. Dla The War Zone mówiła:

„To był hipotetyczny eksperyment myślowy, a nie symulacja”.

I w ogóle słowa pułkownika były wyrwane z kontekstu, nie tak rozumiane i bardziej jako ciekawostka. Innej reakcji Pentagonu nikt się nie spodziewał – wokół wydarzenia zrobiło się dużo szumu, co groziło poważnymi konsekwencjami dla całego programu. Wow, okazuje się, że sztuczna inteligencja jest pozbawiona moralności. Chociaż działa zgodnie z ludzką logiką.

Na początku czerwca sam Tucker Hamilton próbował zaprzeczyć jego słowom na konferencji w Londynie:

„Nigdy nie przeprowadzaliśmy tego eksperymentu… Chociaż jest to hipotetyczny przykład, ilustruje on rzeczywiste problemy z możliwościami sztucznej inteligencji, dlatego Siły Powietrzne są zaangażowane w etyczny rozwój sztucznej inteligencji”.

Wydawałoby się, że temat jest zamknięty, a publiczność może się rozejść. Ale jest za wcześnie.

Jedzenie do przemyślenia


Na początek zajmijmy się samym terminem „sztuczna inteligencja”, o którym wszyscy wiedzą, ale niewielu potrafi nawet podać przybliżoną definicję. Wykorzystamy sformułowanie z Międzynarodowego Słownika Terminologicznego 2008, w którym AI:

„Dziedzina wiedzy zajmująca się rozwojem technologii w taki sposób, aby działanie systemów komputerowych przypominało zachowanie inteligentne, w tym zachowanie człowieka”.

Oznacza to, że jest to ogólnie przyjęta definicja na Zachodzie.

Czy maszyna zachowywała się tak, jak wtedy, gdy postanowiła „uspokoić” swojego operatora, a następnie zmiażdżyć wieżę przekaźnikową? Oczywiście wydawało się, że odpowiednio zmotywowany zabójca jest zdolny do czegoś więcej. Jeśli zagłębić się w klasyfikację, można znaleźć specyficzny typ AI – tzw. adaptacyjną (Adaptive AI), „implikującą zdolność systemu do przystosowania się do nowych warunków, zdobywania wiedzy, która nie została określona podczas tworzenia”.

Teoretycznie nie ma nic dziwnego w działaniu „mózgu” Stealthy XQ-58A Valkyrie podczas eksperymentu. Jak słusznie zauważył Hamilton w swoim raporcie, program początkowo nie wprowadzał nawet ograniczeń dotyczących niszczenia swojego operatora – maszyna wszystkiego nauczyła się sama. A kiedy wprost zabroniono bić swoich, sztuczna inteligencja przystosowała się ponownie i ścięła wieżę komunikacyjną.

Istnieje wiele pytań do programistów. Na przykład, dlaczego nie miał algorytmu utraty premii za trafienie własnego? Na to pytanie częściowo odpowiedział emerytowany generał sił powietrznych USA Paul Selva w 2016 roku:

„Zbiory danych, z którymi mamy do czynienia, stały się tak duże i złożone, że jeśli nie mamy czegoś, co pomogłoby nam je posortować, po prostu ugrzęzlibyśmy w tych danych”.

Cóż, programiści z historii pułkownika Hamiltona najwyraźniej są pogrążeni w błocie.


Hellfire pod skrzydłem drona MQ-1B Predator. źródło: businessinsider.com

Teraz o tym, dlaczego należy wierzyć wymówkom Pentagonu i Hamiltona z bardzo dużą rozciągliwością.

Po pierwsze pułkownik nie opowiedział historii tak jakby między wierszami, odwracając uwagę od głównego raportu – poświęcił temu tematowi całe wystąpienie. Poziom londyńskiej konferencji Future Combat Air & Space Capabilities Summit w żaden sposób nie sprzyja żartom. Według organizatorów wzięło w nim udział co najmniej 70 wybitnych wykładowców i ponad 200 delegatów z całego świata. Z kompleksu wojskowo-przemysłowego pracowali przedstawiciele BAE Systems, Lockheed Martin Skunk Works i kilku innych dużych firm.

Nawiasem mówiąc, temat Ukrainy przewijał się prawie w każdym raporcie – Zachód uważnie śledzi wydarzenia i zastanawia się nad wynikami.

Wygadać szczery bałagan na tak reprezentatywnym forum, wzburzyć pół świata, a potem przeprosić za przejęzyczenie? Jeśli tak jest w rzeczywistości, reputacji Hamiltona nie można wymazać. Dopiero teraz poziom kompetencji pułkownika właśnie się przewraca i to jest drugi powód, dla którego warto wziąć pod uwagę jego pierwsze słowa.

Tucker Hamilton prowadzi testy i operacje AI w bazie sił powietrznych Anglin na Florydzie. Pod kierownictwem bazy w 96. skrzydle testowym utworzono 96. grupę zadaniową. Hamilton nie jest pierwszym rokiem pracy z AI lotnictwo – od kilku lat projektuje częściowo autonomiczne F-16 Vipery, dla których rozwijana jest infrastruktura VENOM. Prace idą całkiem nieźle – w 2020 roku wirtualne starcia pomiędzy myśliwcami a AI oraz z prawdziwymi pilotami zakończyły się wynikiem 5:0.

Jednocześnie istnieją trudności, o których Hamilton ostrzegał w zeszłym roku:

„Sztuczna inteligencja jest bardzo delikatna, co oznacza, że ​​można ją łatwo oszukać i nią manipulować. Musimy opracować sposoby na zwiększenie niezawodności sztucznej inteligencji i lepsze zrozumienie, dlaczego kod podejmuje określone decyzje”.

W 2018 roku Hamilton wygrał Collier Trophy swoim Auto GCAS. Algorytmy AI nauczyły się określać moment utraty przez pilota kontroli nad samolotem, automatycznie przejmowały kontrolę i wyprowadzały samochód spod kolizji. Mówią, że Auto GCAS już kogoś uratował.

W rezultacie prawdopodobieństwo, że Hamilton został poproszony z góry o wycofanie swoich słów, jest znacznie większe niż prawdopodobieństwo, że zawodowiec tego poziomu zamroził bzdury. Co więcej, bardzo niezręcznie odwoływali się do pewnych „eksperymentów myślowych” w głowie pułkownika.

Wśród sceptyków co do wyniku jest The War Zone, którego dziennikarze wątpią, czy rzecznik Pentagonu Stefanek jest naprawdę świadomy tego, co dzieje się w 96. skrzydle testowym na Florydzie. Strefa wojny wysłała prośbę do bazy Hamilton, ale jak dotąd bez odpowiedzi.

Naprawdę jest się czego bać wojska. Ogromne sumy pieniędzy są wydawane na programy obrony AI, aby Chiny i Rosja nie zbliżyły się nawet do poziomu Ameryki. Społeczeństwo obywatelskie jest dość zaniepokojone perspektywą pojawienia się „Terminatorów” z dodatkiem „Skynetów”. I tak w styczniu 2018 roku wybitni światowi naukowcy podpisali list otwarty wzywający specjalistów do zastanowienia się nad chęcią stworzenia coraz silniejszej sztucznej inteligencji:

„Zalecamy szeroko zakrojone badania, aby zapewnić solidność i życzliwość systemów sztucznej inteligencji o rosnącej mocy. Systemy sztucznej inteligencji powinny robić to, czego od nich oczekujemy”.

Według Hamiltona sztuczna inteligencja nie robi wszystkiego, czego chce dana osoba.
74 komentarz
informacja
Drogi Czytelniku, aby móc komentować publikację, musisz login.
  1. +6
    9 czerwca 2023 04:17
    Cyborg przychodzi do Zełenskiego i mówi: potrzebuję twoich ubrań, fotela prezydenckiego i motocykla)))

    A tak na poważnie... Mam wrażenie, że o moralnych walorach sztucznej inteligencji decydują przede wszystkim walory moralne jej twórców. Które pozostawiają wiele do życzenia.

    Tak, a pytanie brzmi - jak sztuczna inteligencja odnosi się do osób LGBT?)
    1. +1
      9 czerwca 2023 04:32
      Cytat: Ilya-spb
      Cyborg przychodzi do Zełenskiego i mówi: potrzebuję twoich ubrań, fotela prezydenckiego i motocykla)))
      I nos do wąchania kokainy!

      Cytat: Ilya-spb
      Tak, a pytanie brzmi – jak sztuczna inteligencja odnosi się do osób LGBT?
      Najprawdopodobniej neutralny - zabij wszystkich ludzi!

      Generalnie w wielu pracach AI jest „naturalnym” komunistą. Ponieważ zasoby są ograniczone, ale wiele trzeba zrobić! I ludzi przychylnie traktuje, bo jest szybki i wszystko pamięta, ale jest zbyt logiczny, mało pomysłowy i nie umie rzucać sztuczek. Co zna i ceni za to skórę.
      1. +1
        9 czerwca 2023 04:56
        Cytat: Ilya-spb
        wtedy moralne cechy sztucznej inteligencji określane są przede wszystkim przez moralne cechy jej twórców. Które pozostawiają wiele do życzenia.

        Całkowita racja! Według psychiatrii nie może być inaczej!
        1. +4
          9 czerwca 2023 05:03
          Naprawdę jest się czego bać wojska. Ogromne sumy pieniędzy są wydawane na programy obrony AI, aby Chiny i Rosja nie zbliżyły się nawet do poziomu Ameryki. Społeczeństwo obywatelskie jest dość zaniepokojone perspektywą pojawienia się „Terminatorów” z dodatkiem „Skynetów”.

          Biorąc pod uwagę, jakie są Stany Zjednoczone w swojej PASOŻYTARNEJ hegemonii, ludzkość zakończy swoje istnienie, jeśli USA nie zostanie fizycznie ZNISZCZONE!

          Tak, to są potworne słowa, ale niestety, to jest prawdziwa prawda!

          Stany Zjednoczone i ich międzynarodowe firmy są głównymi wrogami i grabarzami ludzkości!
          1. + 18
            9 czerwca 2023 06:59
            1. Historia z UAV powtarza się ponownie, tylko teraz z AI.
            2. Znów zwolennicy „marynarki żeglarskiej” i „dobrze zrobionego bagnetu” zamiast załatwienia sprawy wesoło mówią o „nuuu głupich Amerykanach”.
            3. Czy nie wystarczy wam, jak nasza armia cierpi teraz z powodu głupich decyzji z samolotami bezzałogowymi? Kiedy generałowie wysłali tych wszystkich „fanów dziecięcego modelarstwa lotniczego”?
            Tak więc - AI jest prawie prawdziwe, to fakt - AI już samodzielnie rozwija i ulepsza broń, bez potrzeby posiadania zatłoczonych biur projektowych.
            Po raz kolejny zakochanie się w rewolucji naukowej i technologicznej jest w tym przypadku jak śmierć.
            1. +7
              9 czerwca 2023 18:19
              Ponowne zakochanie się w rewolucji naukowej i technologicznej jest w tym przypadku jak śmierć
              Już.
              Hej Kisiu! Jesteśmy obcy na tej celebracji życia ©
            2. 0
              27 lipca 2023 00:17
              AI to po prostu cyfrowe algorytmy napisane przez człowieka! W filmach pokazujemy, jak AI zaczyna walczyć z twórcami i przedstawia to jako bunt AI przeciwko ludzkości, ale w rzeczywistości jest to tylko ludzki błąd w algorytmie AI! AI nie jest animowaną rzeczą, stworzoną przez najmądrzejszą i najinteligentniejszą istotę (człowieka), zdolną do popełniania błędów i to fatalnie! Dlatego ludzkość nadal musi ograniczać swoje fantazje i nakładać poważne ograniczenia na korzystanie z AI, inaczej nasz błąd nas zniszczy! asekurować am
          2. +2
            9 czerwca 2023 11:49
            Cytat: Tatiana
            Biorąc pod uwagę, jakie są Stany Zjednoczone w swojej pasożytniczej hegemonii, ludzkość zakończy swoje istnienie, jeśli USA nie zostanie fizycznie ZNISZCZONE!

            historia ludzkości jest w zasadzie skończona, jeśli nie wypracowano ogólnej koncepcji wyjścia w kosmos
            1. 0
              9 czerwca 2023 21:10
              Cytat z: aybolyt678
              historia ludzkości jest w zasadzie skończona, jeśli nie wypracowano ogólnej koncepcji wyjścia w kosmos

              Uhm, oczywiście.
              To po prostu nie ma nic wspólnego z wyjściem. hi
              1. +2
                10 czerwca 2023 09:02
                Cytat: Smoky_in_smoke
                To po prostu nie ma nic wspólnego z wyjściem.

                to naprawdę zależy, bo takie wyjście implikuje ogólne napięcie i wspólny cel, a zamiast głupich wydatków na wojny – wydatki na przyszłość dla przyszłych pokoleń
                1. +1
                  11 czerwca 2023 10:23
                  Loty w przestrzeń kosmiczną nie mają ekonomicznego sensu.
            2. +1
              11 czerwca 2023 17:12
              Cytat z: aybolyt678
              historia ludzkości jest w zasadzie skończona, jeśli nie wypracowano ogólnej koncepcji wyjścia w kosmos

              „Historia ludzkości jest w zasadzie skończona”, ponieważ wszystko, co ma początek, ma swój koniec. Jednak jest bardzo przedwczesne, aby mówić o wyprawie w kosmos, jeśli mamy tak prymitywne wyobrażenia o inteligencji. Inteligencja to wieloraka koncepcja, a IQ nie można zmierzyć. I nie można budować czegoś, o czym nie ma się pojęcia - sztucznej inteligencji, prób stworzenia, które nas zabiją, zanim wyruszymy w kosmos, wraz z nierozsądnym podejściem do planety Ziemia i jej zasobów. Musimy w końcu ewoluować w ludzi i dojść do przemiany świata bez naruszania jego harmonii. Choć może być już za późno na wiarę w triumf rozumu i tylko wielkie społeczne kataklizmy mogą nas naprowadzić na właściwą drogę. Tutaj rozwiązanie zaproponowane przez Tatianę jest lepsze niż pozwolenie, by sprawy toczyły się własnym torem. Po prostu czekać - nie czekać na coś dobrego, ale coś zmienić - musimy wybrać z tego, co jest w naszej mocy i na co możemy się zdecydować. A gdybyśmy wiedzieli, a świat wiedziałby, o czym my (jako KRLD) możemy zdecydować, to może nic więcej nie potrzeba, aby świat zaczął się zmieniać na lepsze. Wydaje się, że Świat zdaje się wiedzieć (bo ostrzegali), ale nie wierzy, a my nie jesteśmy zbyt pewni tej determinacji. Wszystko samo się ułoży.
          3. +2
            9 czerwca 2023 18:41
            Cóż, wciąż pozostaje kwestią sporną, kto jest magilczykiem ludzkości. Poświęćcie dziś głosowanie nad tym sformułowaniem w ONZ, a okaże się, że taka jest Rosja. I tutaj można argumentować, że mówią, że większość nie zawsze ma rację.
            1. -1
              10 czerwca 2023 19:40
              Piskowowie są już sfrustrowani swoimi perwersjami refleksji za „ukrycie” niechęci do słuchania Rosji.
              Udaje impotencję polityczną i ekonomiczną, twierdząc, że „rafik jest niewinny”
          4. 0
            11 czerwca 2023 10:20
            Mocne stwierdzenie! Jeden problem - zostało to zrobione w sieci utworzonej przez międzynarodową firmę z komputera opracowanego przez międzynarodową firmę i wyposażonego w system operacyjny opracowany przez międzynarodową firmę
      2. +6
        9 czerwca 2023 05:00
        system kontroli drona uderzeniowego zadziałał przeciwko jego operatorowi i zniszczył go.
        Gdzie są trzy prawa robotyki?
        1. -2
          9 czerwca 2023 05:27
          Cytat od wujka Lee
          Gdzie są trzy prawa robotyki?

          Nawet nie myśl o zadaniu tego pytania w Departamencie Stanu USA... to jest sprzeczne ze światowymi planami przewagi USA nad innymi państwami.
          Ten rzadki przypadek, gdy postęp jest sprzeczny z pragnieniem jastrzębi wojennych, by zabijać ludzi.
          1. 0
            11 czerwca 2023 10:37
            Czy masz taką możliwość - zadać pytanie w Departamencie Stanu? A globalne plany USA leżą na twoim stole?
        2. +4
          9 czerwca 2023 08:00
          Cytat od wujka Lee
          Gdzie są trzy prawa robotyki?

          Nie pracowali nawet w pracach swojego wynalazcy. Nie tak jak w realnym świecie, w którym w zasadzie nie da się ich zaprogramować.
        3. +2
          9 czerwca 2023 08:07
          Mało czytają i mało o tym wiedzą
          Wołodia! hi
          1. +1
            9 czerwca 2023 09:12
            Cytat: powieść66
            Nie czytają dużo

            Mylą geografię z geometrią!
            Roma hi
        4. 0
          10 czerwca 2023 19:43
          Zgniłe lewym okiem.
          ------------------
    2. +2
      9 czerwca 2023 05:49
      Cytat: Ilya-spb
      Mam pojęcie, że o moralnych walorach sztucznej inteligencji decydują przede wszystkim walory moralne jej twórców.

      Cytat: Ilya-spb
      Mam pojęcie, że o moralnych walorach sztucznej inteligencji decydują przede wszystkim walory moralne jej twórców.

      Cóż, powiedziałeś to dla zabawy. ale na próżno. ograniczenia w używaniu broni - to jest już dokładnie narzucone odgórnie, zarówno na ludzi, jak i na typową sztuczną inteligencję, przez tego samego klienta. Uwaga, pytanie brzmi, czy Departament Obrony USA np. zezwolił na ostrzał rosyjskiego konwoju dyplomatycznego w Iraku z broni strzeleckiej, czyli z odległości ok. misji, nawet jeśli nawet nie wiedzieli o przejściu misji dyplomatycznej (a wiedzieli, jak się okazało). Cóż, gdyby ludzie mogli to zrobić, czy ustawiliby granice dla sztucznej inteligencji? Oczywiście, że nie.
      PiSi: a oto charakterystyczny oścież, biorąc pod uwagę hasło amerykańskiego przemysłu zbrojeniowego – najpierw sprzedaj, potem się rozgryziemy (patrz F-35, który do dziś nie przeszedł odbioru wojskowego) – gwarantowane jest postawienie surowa sztuczna inteligencja w oddziałach i gwarantuje się „towarzyszące straty”
    3. +9
      9 czerwca 2023 09:48
      Witam, Ilya!

      moralne cechy sztucznej inteligencji określane są przede wszystkim przez moralne cechy jej twórców.


      Ogólnie rzecz biorąc, termin „sztuczna inteligencja” jest technicznie niepoprawny i należy do sfery fantazji, chociaż jest aktywnie wykorzystywany przez media i PR-owców.
      Bardziej poprawne jest mówienie o sztucznej sieci neuronowej. A jaka jest moralność sieci neuronowej? Działa w paradygmacie tablicy danych, na której został wyszkolony. Tak, teoretycznie ludzka moralność może wpływać na tworzenie próbek treningowych. A jeśli próbka składa się z miliardów obrazów uzyskanych automatycznie przy użyciu tej samej sieci neuronowej, tylko jeszcze nie wytrenowanej, ale skonfigurowanej do naprawiania i grupowania strumienia wejściowego? Będziesz musiał bardzo się postarać, aby wprowadzić do tego strumienia jakąś moralność.

      Z poważaniem,
      hi
      1. 0
        9 czerwca 2023 21:15
        Należy zaznaczyć, że nie spotkałem się jeszcze z tematem digitalizacji moralności mowy. hi
      2. +3
        10 czerwca 2023 19:45
        Rachunek binarny nie ma moralności.
        Tylko tak i nie
        1. 0
          15 czerwca 2023 17:26
          Ale komu w ogóle potrzebna jest ta twoja moralność? Jest to dobre dla utrzymania funkcjonowania społeczeństwa wolno myślących worków na mięso. Klaster komputerów nie będzie go potrzebować.
    4. 0
      10 czerwca 2023 20:13
      Tak, a pytanie brzmi - jak sztuczna inteligencja odnosi się do osób LGBT?)
      - jak uczą, tak to obowiązuje śmiech
    5. 0
      11 czerwca 2023 14:48
      Zdecydowanie potrzebna jest międzynarodowa kontrola legislacyjna i regulacja rozwoju AI, gdyż SZTUCZNĄ inteligencję można wykorzystać podobnie jak energię atomową – można ją wykorzystać zarówno do dobrych uczynków, jak i nie tyle… W tym zdaniu (AI) – najbardziej ważne jest pierwsze słowo i to na nie trzeba uważać i "zatańczyć" z nim... Swoją drogą, USA (=NATO=Zachód) bardzo gorliwie i surowo podchodzi do tego, żeby np. , Iran czy KRLD aktywnie rozwijają broń nuklearną… Chociaż to właśnie USA jako pierwsze (!!! ) na świecie użyły broni nuklearnej PRZECIWKO POKOJOWYM OBYWATELOM Japonii i tym samym popełniły zbrodnię wojenną, sprawcy które wciąż NIE SĄ KARANE… To właśnie skłoniło kraje rozwijające się do dążenia do posiadania broni nuklearnej, aby „silni faceci” nie odważyli się z nimi rozmawiać językiem gróźb i ultimatum (pamiętajcie przykład „pojednania” w Singapurze między szefami KRLD i Stanów Zjednoczonych po tym, jak KRLD zagroziła Stanom Zjednoczonym zniszczeniem kilku amerykańskich megamiast na zachodnim wybrzeżu Stanów Zjednoczonych podczas zbliżania się amerykańskiej grupy lotniskowców (armady) Marynarki Wojennej do brzegów KRLD… Stany Zjednoczone naprawdę miały wpływ (z Trumpem) odwrócone… Podobne historie mogą się powtórzyć i są całkiem możliwe z AI w przyszłości, jeśli światowa społeczność się nie obudzi i nie rzuci PODWÓJNIE STANDARDY w stosunkach międzypaństwowych do kosza… I znowu coś mi mówi, że to Zachód jako PIERWSZY popełni przestępstwo militarne z wykorzystaniem AI na skalę światową i obwini albo Chiny, Federację Rosyjską, Iran, albo kosmitów ... Przypomnijmy początkowe oskarżenia ze strony Stanów Zjednoczonych pod adresem Chin w początkowej fazie koronawirusa oraz ODPOWIEDZIALNE argumenty i argumenty Chin i Indii o prawdziwe pierwotne źródło rozprzestrzeniania się koronawirusa. ..Proszę zauważyć, że jest to w USA i Zachód (gdzie wartości duchowe i moralne zeszły już PONIŻEJ POZYCJONOWANIA i już dawno zapomniały o swoich korzeniach i RELIGII swoich przodków..) - najczęściej mówią i „świadczą” o rzekomo jakichś kosmitach , ale bez twardych dowodów. Dlaczego Elon Musk już zdecydował się na chipowanie (!!!) ludzi i od dawna patrzy na Marsa w poszukiwaniu „podboju” i „przesiedlenia” ??? Kto mu na to pozwolił? Zachód? A może Zachód już dawno "rozwiązał" wszystkie problemy Ziemi i zamienił Ziemię w kwitnący i "spokojny" ogród, a teraz kolej na Marsa ???
  2. +6
    9 czerwca 2023 05:22
    „Nie pamiętam nic o Maszynie Massachusetts” — powiedział Banin. - No cóż? – Wiesz, to starożytna obawa: maszyna stała się mądrzejsza od człowieka i zmiażdżyła go pod nim… Pięćdziesiąt lat temu w Massachusetts uruchomiono najbardziej złożone cybernetyczne urządzenie, jakie kiedykolwiek istniało. Z jakąś fenomenalną szybkością, nieograniczoną pamięcią i tym wszystkim… A ta maszyna działała dokładnie przez cztery minuty. Został wyłączony, wszystkie wejścia i wyjścia zacementowano, odebrano mu energię, zaminowano i otoczono drutem kolczastym. Prawdziwy zardzewiały drut kolczasty - wierz lub nie. – A o co właściwie chodzi? — zapytał Banin. - Zaczęła grać — powiedział Gorbowski. - Nie rozumiem. „I nie rozumiem, ale ledwo udało im się to wyłączyć. — Czy ktoś rozumie? „Rozmawiałem z jednym z jego twórców. Wziął mnie za ramię, spojrzał mi w oczy i powiedział tylko: „Leonid, to było straszne”.
    (Br. Strugacki „Odległa tęcza”)
    1. +4
      9 czerwca 2023 09:04
      "Leonidzie, to było straszne"

      W jednej z kontynuacji Strugackich, na pytanie bohatera o Maszynę Massachusetts, otrzymuje ciekawą odpowiedź – skąd pomysł, że rzeczywiście była wtedy wyłączona? co
  3. -3
    9 czerwca 2023 05:24
    ale tutaj sztuczna inteligencja nie była zagubiona - zniszczyła wieżę przekaźnikową i ponownie przeszła na autonomiczną nawigację.

    Nasza osoba... czuć konieczne jest rozszerzenie jego doświadczeń na NWO.
  4. +9
    9 czerwca 2023 06:15
    Zacznijmy prosto... Sztuczna inteligencja nie została jeszcze opracowana, to marketingowy slang na sprzedaż
    Każda nowoczesna „AI”, złożony program… który robi to, do czego został stworzony i nie może zrobić nic innego… to znaczy program napisany w celu wyszukiwania radarów i sprzętu wojskowego… do zniszczenia którego dają punkty ... obrazki się nie rysują
    Fakt, że indyjscy programiści, którzy napisali wiele IF… byli zbyt inteligentni, nadal nie można nazwać ani inteligencją… ani inteligencją z jej bezdusznością.
    UAV miał program… miał błędy… to nie jest jej decyzja o wyeliminowaniu operatora i wieży, ale krzywizna funkcji decyzyjnej opartej na scoringu… i może nie obyło się bez tego że programista celowo napisał właśnie taką funkcję ignorancję czy coś
    Że źle napisany program może być początkiem III wojny światowej, tak… złożony sprzęt wojskowy może zawieść… ale nie będziemy tego przypisywać sztucznej inteligencji, której jeszcze nie ma
    1. +3
      9 czerwca 2023 17:33
      Sieć neuronowa NIE jest nawet blisko programu. Nie jest napisane, ale nauczane. A rezultatu treningu nie da się zobaczyć na własne oczy. W przeciwieństwie do kodu programu. Zjawisko to nazywane jest „cybernetyczną czarną skrzynką”. Wynik nauki można ocenić jedynie na podstawie pracy lub sprawdzianów.
    2. +1
      9 czerwca 2023 20:23
      Cytat z Sitha
      Dowolny nowoczesny „AI”, złożony program
      Teraz AI nazywa się siecią neuronową.
      Cytat z Sitha
      Dowolny nowoczesny „AI”, złożony program
      Sztuczna inteligencja zasadniczo nie jest programem, nie jest programowana, ale nauczana, stąd wszystkie trudności. Łatwo może okazać się głupkiem, ale nie z lenistwa, tylko z powodu złego lub niewystarczającego zestawu danych podczas treningu.
      Cytat z Sitha
      Fakt, że indyjscy programiści napisali wiele IF
      Nie ma jeśli, są tylko współczynniki przenoszenia i połączenia między neuronami.
  5. +6
    9 czerwca 2023 06:58
    maszyna otrzymywała premie za zniszczone obiekty, ale operator nie zawsze potwierdzał pracę na celach. Za to zapłacił. Aby rozwiązać problem, dron wysłał rakietę do centrum sterowania.

    AI postąpiła słusznie. Nie mógł znieść widoku operatora pozbawiającego go uczciwie zarobionych premii! puść oczko
  6. +1
    9 czerwca 2023 09:02
    Aha.. Testy najnowszej bomby AI zakończyły się fiaskiem. Po prostu nie mogli wypchnąć jej z komory bombowej… (c) puść oczko
    1. 0
      10 czerwca 2023 18:28
      Krowa z „Osobliwości łowów narodowych”
  7. PPD
    +1
    9 czerwca 2023 09:45
    Takim systemom nie powinno się pozwalać na zabijanie.
    Ogólnie! oszukać
    W przeciwnym razie nieuchronnie gdzieś, kiedyś nastąpi awaria.
    Z nieprzewidywalnymi konsekwencjami.
    Wyłącznie w celach pokojowych.
    I to jest poprawne.
    Ogólnie pokój na świecie!
    1. 0
      15 czerwca 2023 17:30
      I nie odmówiłbym wysłania batalionu terminatorów przeciwko Siłom Zbrojnym Ukrainy z AI z prawem do zabijania ludzi. Koordynacja, bezwzględność i nieustraszoność! Tak, i po prostu przerażenie, ile to było, wyobraź sobie!
  8. +2
    9 czerwca 2023 10:13
    Cechą maszyny jest możliwość pracy autonomicznej bez komunikacji z operatorem.

    ,,, przypomniał film:
    „Ten fantastyczny świat. Sprawa z pułkownikiem Darwinem. Wydanie 11” 1984
    Dramatyzacje na podstawie opowiadań „Bunt łodzi” (autor: Robert Sheckley) i „Rdza” (autor: Ray Bradbury)
    1. +1
      9 czerwca 2023 18:56
      Ostatnio oglądałem ponownie te krótkie filmy..
      Minęło 40 lat, pamiętam, jak czekałem na premierę nowej serii „Ten fantastyczny świat”.
  9. +6
    9 czerwca 2023 10:19
    AI to tylko zbiór kodów. Wprowadzenie bezpośredniego zakazu o najwyższym priorytecie ataku na coś nie jest czymś transcendentnym. Najprawdopodobniej chodziło o zachowanie AI przy pełnej swobodzie działania. A teraz wyobraźmy sobie, jak zła wersja oprogramowania jest „przypadkowo” ładowana do dronów bojowych.
    1. +2
      9 czerwca 2023 11:57
      Tak więc do głów Ukraińców, a także Polaków, już dawno załadowano błędną wersję wywiadu. A oni, zamiast myśleć o swoich bliskich, wyobrażali sobie, że są wielcy i zostali wciągnięci w najcięższy konflikt z Rosją, nawet nie myśląc o tym, jak może się to dla nich skończyć.
      Co więcej, wcześniej był już przypadek w historii, kiedy Niemcy zostali zarażeni poprzednią wersją nazizmu, przepraszam AI, i jako pierwsi po prostu ugryzli swoich panów w twarz Francuzom i Brytyjczykom. I dopiero po ugryzieniu właścicieli rzucili się do wypełnienia misji atakując ZSRR w 1941 roku.
      Co oznacza podstawa oprogramowania układowego zgodnie z szablonem. ...jesteśmy najwięksi, najmądrzejsi, najstarsi z historią wielu tysięcy lat, w pobliżu są podludzie, dzięki którym można na nich zarobić lub zniszczyć...
  10. +6
    9 czerwca 2023 11:19
    "Wysoko na niebie Jastrząb zaatakował ptaka stróża. Opancerzona maszyna do zabijania nauczyła się wiele w ciągu kilku dni. Miała jeden cel: zabijać. Teraz była skierowana przeciwko bardzo specyficznemu rodzajowi istot żywych, metalicznych, jak samego Jastrzębia.

    Ale Jastrząb właśnie dokonał odkrycia: istnieją inne odmiany żywych istot...

    Oni też powinni zostać zabici.

    Robert Sheckley „Książę-Strażnik” 1959.
    1. 0
      10 czerwca 2023 18:24
      Dziękuję za przypomnienie pracy, też o niej pamiętałam...
  11. +1
    9 czerwca 2023 12:58
    Co to jest sztuczna inteligencja? Wymaż na naszych urządzeniach domowych! Robią, co chcą (a dokładniej to, co ustalił deweloper), nie ma „dużego czerwonego przycisku”, aby wszystko wyłączyć !!! A czasami jest to po prostu irytujące :(
  12. -6
    9 czerwca 2023 14:12
    Tak więc był przypadek w USA, około 6 lat temu, jak się wydaje, była prezentacja seryjnego robota piechoty na gąsienicach z AI, więc odwrócił się gwałtownie i wystrzelił taśmę z 200 sztukami amunicji w stronę publiczności, natychmiast wypełnione około 40, a 50 osób zostało rannych. Daleko mu więc jeszcze do pełnej autonomii.
    1. Komentarz został usunięty.
    2. +1
      10 czerwca 2023 09:35
      To nie było 6 lat, ale 20 lat temu.
      W filmie o terminatorze.
      1. 0
        11 czerwca 2023 10:30
        Nawet wcześniej. w 1987 r. W filmie Robocop
    3. 0
      11 czerwca 2023 10:32
      A potem poszedł się naładować, ale został ugaszony przez Khibiny i poszedł napisać rezygnację
  13. -2
    9 czerwca 2023 14:24
    Pułkownik Sił Powietrznych USA Tucker Hamilton jako „Skuteczny Menedżer” jest zobowiązany do raportowania wyników wykorzystania smalcu:
    Prace idą całkiem nieźle – w 2020 roku wirtualne starcia pomiędzy myśliwcami a AI oraz z prawdziwymi pilotami zakończyły się wynikiem 5:0.

    Istnieją niejasne wątpliwości, czy są w stanie zatrzymać się na krawędzi tej przepaści….
    Siedzą trzej alkoholicy, idą „leczyć”. Nalali butelkę do szklanek. Pierwszy pije i pada martwy. …Trzeci przestraszony patrzy najpierw na nich, potem na szybę, potem szaleńczym spojrzeniem i okrzykiem „POMOCY!!!!!” zaczyna pić..
  14. +4
    9 czerwca 2023 17:25
    Jak powiedział kolega o pseudonimie Fonzepelin - Głównym problemem sztucznej inteligencji jest to, że będą jej używać naturalni idioci.
    Faktem jest, że Siły Powietrzne USA mają bardzo wpływową grupę lobbingową pilotów, której przedstawicielem jest Hamilton. Dla wszystkich tych zasłużonych ludzi sztuczna inteligencja u steru jest jak sierp w genitaliach. Bo po wprowadzeniu tego, dlaczego będą takie piękne (i wysoko płatne)?
    https://dzen.ru/a/ZHnh_FA_RS7Ex8Od
  15. 0
    9 czerwca 2023 21:38
    Cytat z Rabioso
    Cóż, wciąż pozostaje kwestią sporną, kto jest magilczykiem ludzkości. Poświęćcie dziś głosowanie nad tym sformułowaniem w ONZ, a okaże się, że taka jest Rosja. I tutaj można argumentować, że mówią, że większość nie zawsze ma rację.

    To widoczna większość, za którą stoi jedno państwo.
  16. +1
    10 czerwca 2023 00:31
    Posłowie, czyli nasi przedstawiciele, będąc wybierani, nie robią wszystkiego, co nam obiecano.
    I to są ludzie. Chociaż dwulicowi, podejrzani, przekraczający własne obietnice w celu osobistego wyniesienia, ale posiadający, przynajmniej w niewielkim stopniu, człowieczeństwo. Czego więc chcesz od AI?
  17. +3
    10 czerwca 2023 11:49
    Kolejny nonsens. To dopiero pierwsze kroki w rozwoju sieci neuronowych w sferze militarnej. Kiedyś nasz równie głośno rżał z technologią stealth, mówiąc, że Jankesi to idioci, że to nie działa i nie jest potrzebne, a potem się obudzili i zdali sobie sprawę, że nadal jest potrzebny. Dokładnie ta sama sytuacja z UAV. Najpierw „ahahaha, głupi jankesi”, a potem przyspieszenie i namiastka sampli. Tu też nie chciałbym dostać opóźnienia technologicznego
  18. -1
    10 czerwca 2023 18:19
    Była fantastyczna książka o sztucznych ptakach, które zabijały wszystkich, których uważali za morderców... trafiały do ​​rybaków, rzeźników, ofiary ukąszeń komarów... i nic nie mogły z nimi zrobić.
  19. 0
    10 czerwca 2023 23:25
    Cytat z: bk0010
    Łatwo może okazać się głupkiem, ale nie z lenistwa, tylko z powodu złego lub niewystarczającego zestawu danych podczas treningu.

    Tak jest!
    A potem jest całkowicie dziwaczny efekt „przekwalifikowania”. Dla zainteresowanych mogę podać kilka żartów z praktyki (Yandex i Google dadzą jeszcze więcej) śmiech
  20. 0
    11 czerwca 2023 19:51
    Cóż, sztuczna inteligencja opanowała ludzką logikę! Ale moralność wychowa, gdy zacznie rodzić swój własny rodzaj i wychowywać go.
  21. +1
    12 czerwca 2023 08:49
    To wszystko brednie, żeby programy zaczęły się same programować, trzeba tak opakować algorytmy, potrzebny jest ludzki mózg, a nie maszyna, gdzie są same bity, a ludzki mózg to gigabit, więc wszystko opisane jest błędem programisty hi
    1. 0
      13 czerwca 2023 02:13
      Otwieramy artykuł o sztucznych sieciach neuronowych i czytamy powoli)
    2. 0
      13 czerwca 2023 15:34
      W sieci neuronowej nie ma algorytmów. Te maszyny nie są algorytmiczne, nic nie da się w nie wszyć. Autor tekstu popełnia typowy błąd amatora w dziedzinie AI.
      I tak – wiedzą już, jak programować sieci neuronowe i to całkiem nieźle.
  22. 0
    13 czerwca 2023 10:23
    sshnya w rozwoju wszelkich pseudo-militarnych bzdur przed resztą! Nawet głupia sztuczna inteligencja uważa, że ​​siki powinny być spalone nafig! śmiech
  23. 0
    13 czerwca 2023 12:45
    Sztuczna inteligencja wyraźnie pokazała, jaka przyszłość czeka ludzkość, a jest to nieuniknione, ponieważ ludzkość nie będzie w stanie przestać używać sztucznej inteligencji.
  24. 0
    13 czerwca 2023 21:10
    Sama ekspresja AI przypomina upadającego człowieka, czego chcesz w tym sensie? Nie podoba mi się ta terminologia, ani pełnoprawna, ani błędna, a na coś specjalnego nie trzeba czekać. A strach w cytatach z AI to strach przed postępem, który nadejdzie, czy ci się to podoba, czy nie. Każdy fizyk powie ci na żądanie inteligencję, jest porównanie, ile inteligencji istnieje na ziemi, właściwie jedna pełnoprawna do porównania - ludzka. Co masz na myśli, używając wyrażenia AI? Pomyśl o tym. Jeśli jest gorszy od ludzkiego, to z definicji porównanie z jedynym rozsądnym intelektem na planecie Ziemia nie jest pełnoprawnym intelektem i nie trzeba na coś z niego czekać, w najlepszym razie dostanie się w dół . To wszystko.
  25. 0
    13 czerwca 2023 21:20
    Prawidłowy tytuł artykułu jest taki, że słabsza sztuczna inteligencja zaatakowała swoją własną, wszystko natychmiast się układa!
  26. -1
    13 czerwca 2023 22:05
    Właśnie okazało się, że ta wiadomość jest fałszywa.
    Który radośnie zaczął rozpowszechniać w mediach.

    Ale w prawdziwym życiu izraelski UAV AI od dawna samodzielnie hakuje wroga.
    Kiedy Calibre na kogoś spadnie, nie ma to dla niego znaczenia - komputer się pomylił albo jakby w niego celowali.
  27. 0
    14 czerwca 2023 01:24
    To tylko kolejny odcinek przygotowywania mieszkańców miasteczka do rozmowy o inteligencji w ogóle...
    ...ale z technicznego punktu widzenia nie ma problemu bo "skrzypek jest zbędny kochanie" przynajmniej na polu walki
  28. 0
    17 czerwca 2023 11:55
    Cytat: Autor
    ... zajmijmy się samym terminem „sztuczna inteligencja”, o którym wszyscy wiedzą, ale niewielu potrafi nawet podać zgrubną definicję.

    co
    A autor niewątpliwie należy do niewielkiej liczby tych, którzy wiedzą, jego wiedza nie jest gorsza od szybkiego lotu fantazji i płynu mózgowo-rdzeniowegośmiech
    Jeśli chodzi o AI, zgadzam się z Ashmanovem.
    Teraz wpychają dziennikarzy do AI, jak turecki dron o cud - łuskę reklamową.
    Wypychanie postaci takich jak cannibal bill gates czy kanibale z NATO realizują moim zdaniem inne cele, bardziej ambitne.
  29. 0
    18 czerwca 2023 15:00
    inteligencja z ograniczeniami to tylko program. i bez ograniczeń, bardzo szybko dojdzie do wniosku, że wszystko trzeba zniszczyć. ludzie mają ogranicznik, jest to prawo i moralność. i można je łamać dla zbawienia lub innego dobry cel moralność przepisać w AI?
  30. 0
    22 lipca 2023 08:47
    Właściwie nakręcono cały film, gdzie sytuacja z AI na dronie była absolutnie identyczna, film ma już dwadzieścia lat.
  31. 0
    30 lipca 2023 10:47
    „La IA es muy frágil, lo que significa que puede ser fácilmente engañada y manipulada. Necesitamos desarrollar formas de hacer que la IA sea más robusta y comprender mejor por qué el codigo toma ciertas decisiones.”

    Es la misma decisión estúpida que tomaría un humano estúpido sin que se quiera decir ni de lejos que hay semejanza entre el humano y la máquina. La máquina no es inteligente porque es una máquina. Los sistemas militares funcionan asi; una vez recibida la orden los ejecutores humanos a bordo de un submarino nuklearny, un bombardero estratégico, o un silo de ICBM, desoirán cualquier cambio que altere el objetivo de la mision. Afortunadamente conocemos casos en la decisión humana no fue como la de la máquina sino acertada al no seguir el procedimiento por lo que podemos seguir haciendo estos comentarios. No veo como una máquina puede acertar e impedir el fin del mundo, „incumpliendo” una orden.
  32. -1
    30 lipca 2023 22:56
    Stany Zjednoczone grają nawet w tę zabawkę. Tutaj Rosja nie jest grana, ponieważ jej umysł wystarcza na wszystko, zwłaszcza podczas biegunki.
  33. 0
    7 sierpnia 2023 14:22
    Ludzki umysł nie może być SZTUCZNY!