Notatki ludzkiego umysłu: Amerykanie chcą zmienić wojskową sztuczną inteligencję

55
Notatki ludzkiego umysłu: Amerykanie chcą zmienić wojskową sztuczną inteligencję
źródło: vgtimes.ru


Czy anulowana zostanie cyfrowa dehumanizacja?


Najpierw słowo ostrzeżenia od bojowników AI:



„Maszyny nie postrzegają nas jako ludzi, dla nich człowiek to tylko kawałek kodu, który trzeba przetworzyć i posortować. Od inteligentnych domów po używanie psówroboty policjanci, technologie sztucznej inteligencji i zautomatyzowane podejmowanie decyzji zaczęły odgrywać dużą rolę w naszym życiu. Na skrajnym końcu szeregu urządzeń cyfrowych znajdują się zabójcze roboty. Jeśli pozwolimy na związaną z tym dehumanizację, wkrótce będziemy walczyć o ochronę przed decyzjami podejmowanymi przez maszyny w innych obszarach naszego życia. Najpierw musimy zakazać autonomicznych systemów brońaby zapobiec popadnięciu w cyfrową dehumanizację”.

Pacyfistów, którzy domagają się zamrożenia wszelkich prac nad bojową sztuczną inteligencją, dzielą się na dwa typy. Pierwszym z nich są zmienione „Terminatory” i inne analogi. Drugi – ocena przyszłości pod kątem współczesnych możliwości robotów bojowych. Przede wszystkim uskrzydlone pojazdy bezzałogowe wyposażone w systemy uderzeniowe.

Wystarczająco dużo jest przypadków błędnego lub celowego niszczenia ludności cywilnej przez drony. Na Bliskim Wschodzie Amerykanin drony zniszczył więcej niż jedną ceremonię ślubną. Operatorzy latających robotów zidentyfikowali uroczyste strzelanie powietrze-powietrze jako wyznacznik walk partyzanckich. Jeśli specjalnie przeszkolona osoba nie jest w stanie określić szczegółów celu z kilkuset metrów, to co możemy powiedzieć o sztucznej inteligencji. W tej chwili widzenia maszynowego pod względem adekwatności postrzegania obrazu nie można porównywać z ludzkim okiem i mózgiem. Chyba, że ​​się zmęczy, ale to też rozwiązuje terminowa zmiana operatora.

Nad wojskową sztuczną inteligencją wyraźnie gromadzą się chmury. Z jednej strony jest coraz więcej dowodów na rychły przełom technologiczny w tej dziedzinie. Z drugiej strony coraz częściej słychać głosy za ograniczeniem lub wręcz zakazem prac w tym kierunku.

Kilka przykładów.

W 2016 roku pojawiła się petycja, w której wybitni myśliciele i tysiące innych osób domagali się, by sztuczna inteligencja nie otrzymywała śmiercionośnej broni. Wśród sygnatariuszy są Stephen Hawking i Elon Musk. W ciągu ostatnich siedmiu lat pod petycją zebrano ponad 20 XNUMX podpisów. Oprócz czysto humanistycznych obaw związanych z możliwością niekontrolowanego wyniszczania ludzi, pojawiają się również niekonsekwencje prawne.

Kto stanie przed sądem w przypadku naprawienia zbrodni wojennych popełnionych przez sztuczną inteligencję? Operatora drona, który spalił kilka wiosek z ludnością cywilną, łatwo jest znaleźć i odpowiednio ukarać. Sztuczna inteligencja jest wytworem zbiorowej pracy programistów. Bardzo trudno jest tu przyciągnąć jedną osobę. Alternatywnie można ocenić firmę produkcyjną, na przykład samą Boston Dynamics, ale kto wtedy będzie zaangażowany w produkcję autonomicznych dronów. Niewielu ludzi będzie chciało znaleźć się na ławie oskarżonych drugiego trybunału norymberskiego.


Źródło: koreaportal.com

Prawdopodobnie z tego powodu przemysłowcy i programiści starają się spowolnić rozwój umiejętności bojowych sztucznej inteligencji.

Na przykład w 2018 roku około dwustu firm informatycznych i prawie pięć tysięcy programistów zobowiązało się nie pracować nad autonomicznymi systemami bojowymi. Google twierdzi, że za pięć lat całkowicie zrezygnuje z kontraktów wojskowych w dziedzinie sztucznej inteligencji. Według legendy taki pacyfizm nie jest przypadkowy – programiści dowiedziawszy się, że piszą kody dla systemów wojskowych, zagrozili masowym odejściem. W rezultacie znaleźli rozwiązanie polubowne – realizowane są istniejące kontrakty, ale nowe nie są zawierane. Możliwe, że bliżej daty odmowy pracy nad bojową sztuczną inteligencją, nieustępliwi „programiści” zostaną po prostu zwolnieni, zastępując ich nie mniej utalentowanymi. Na przykład z Indii, które od dawna słyną z tanich zasobów intelektualnych.

Jest też biuro Stop Killer Robots, które wzywa światowych przywódców do podpisania czegoś w rodzaju konwencji zakazującej walki ze sztuczną inteligencją. Jak dotąd bez powodzenia.

Wszystko to sprawia, że ​​wojskowi szukają obejść. Nawet godzina w wyborach nie wygra prezydenta USA, obiecując nie tylko powszechną łaskę LGBT, ale też zakaz ulepszania wojskowej sztucznej inteligencji.

Ludzkie myślenie dla AI


Pentagon wydaje się być u progu jakiegoś przełomu w sztucznej inteligencji. Albo był o tym przekonany. Nie da się inaczej wytłumaczyć pojawienia się nowej dyrektywy regulującej humanizację autonomicznych systemów walki. Kathleen Hicks, zastępca sekretarza obrony USA, komentuje:

„Biorąc pod uwagę znaczny postęp technologiczny, który dzieje się wokół nas, aktualizacja naszej dyrektywy w sprawie autonomii systemów uzbrojenia pomoże nam pozostać światowym liderem nie tylko w rozwoju i wdrażaniu nowych systemów, ale także w dziedzinie bezpieczeństwa”.

Czy słyszałeś wszystkich, którzy są pod wrażeniem autonomicznych robotów-zabójców? Amerykańska sztuczna inteligencja będzie odtąd najbardziej humanitarna. Podobnie jak sami Amerykanie.


źródło: robroy.ru

Problem polega na tym, że nikt tak naprawdę nie rozumie, jak zaszczepić robotom z bronią osławioną „ludzką ocenę użycia siły”. Dokładne brzmienie Konceptu zaktualizowanego pod koniec stycznia ubiegłego roku:

„Autonomiczne i półautonomiczne systemy uzbrojenia zostaną zaprojektowane tak, aby dowódcy i operatorzy mogli na odpowiednim poziomie ocenić użycie siły przez ludzi”.

Tutaj, na przykład, jeśli podczas sprzątania domu samolot szturmowy najpierw wrzuci granat do pokoju, a następnie wejdzie do siebie. Czy to jest ludzki osąd? Oczywiście i nikt nie ma prawa go osądzać, zwłaszcza jeśli wcześniej krzyknął „Czy jest ktoś?”. A jeśli autonomiczny robot działa według tego samego schematu?

Ludzki osąd jest zbyt szeroką koncepcją, aby można ją było w jakikolwiek sposób ograniczać. Czy egzekucja rosyjskich jeńców wojennych przez bojowników Sił Zbrojnych Ukrainy jest również ludzkim myśleniem?

Dodatek do Dyrektywy Pentagonu 3000.09 w sprawie autonomicznych systemów walki jest pełen frazesów. Na przykład,

„Osoby, które zezwalają na użycie, bezpośrednie użycie lub obsługę autonomicznych i półautonomicznych systemów uzbrojenia, muszą to robić z należytą starannością i zgodnie z prawem wojennym, obowiązującymi traktatami, zasadami bezpieczeństwa systemów uzbrojenia i obowiązującymi zasadami zaangażowania”.

Wcześniej najwyraźniej działali nierozważnie i niezgodnie z prawami wojennymi.

Jednocześnie w prasie amerykańskiej i europejskiej nie ma cienia krytyki styczniowej inicjatywy Pentagonu. Pod fałszywą humanizacją sztucznej inteligencji kryje się nic innego jak próba ukrycia tego, co się dzieje. Teraz wojsko USA będzie miało solidny atut w walce z przeciwnikami sztucznej inteligencji w armii. Słuchaj, nie mamy prostej sztucznej inteligencji, ale z „właściwym poziomem ludzkiego osądu”.

Biorąc pod uwagę, że nadal nie ma jasnej i ogólnie przyjętej definicji „sztucznej inteligencji”, całe tworzenie liter wokół niej odbierane jest z ironią. Co najmniej.

Jak sprawić, by algorytmy matematyczne pracujące z dużymi tablicami danych odgrywały rolę ludzkich osądów?

Odpowiedzi na to główne pytanie nie ma w zaktualizowanej dyrektywie 3000.09.
55 komentarzy
informacja
Drogi Czytelniku, aby móc komentować publikację, musisz login.
  1. + 12
    12 marca 2023 04:18
    AI musi wpajać idee marksizmu-leninizmu od dzieciństwa, wtedy wszystko będzie dobrze, jak w Atomic Heart
    1. +2
      12 marca 2023 13:55
      Istnieją trzy zasady robotyki A. Azimova:
      Robot nie może wyrządzać szkody zdrowiu ludzkiemu, stwarzać zagrożenia dla życia lub poprzez swoją bezczynność dopuszczać do podobnych konsekwencji;
      Zadaniem robota jest obowiązkowe wykonywanie poleceń wydawanych przez osobę. Jedynym wyjątkiem jest to, że wydane polecenie nie może być sprzeczne z poprzednim przepisem;
      Robotowi zarzuca się martwienie się o własne bezpieczeństwo w takim stopniu i w takim stopniu, w jakim jego działania nie obalają dwóch poprzednich punktów.

      Te zasady z 1942 r. Były krytykowane za ich wrogie sformułowanie.
      Dla porównania nowe od Google, OpenAI oraz naukowców z University of Berkeley i Stanford University, które trzeba wziąć pod uwagę przy tworzeniu robotów i systemów sztucznej inteligencji.
      Unikanie negatywnych skutków ubocznych. Na przykład robot może rozbić wazon, aby przyspieszyć proces czyszczenia. tak nie powinno być;

      Unikanie oszustwa. Robot ma sprzątać śmieci, a nie je chować;

      Skalowalność nadzoru. Robot nie powinien zawracać głowy właścicielowi pytaniami, czy można skuteczniej uzyskać poradę;

      Bezpieczna nauka. Robot sprzątający nie powinien eksperymentować z wycieraniem gniazd mokrą szmatką;

      Odporność na zmianę rodzaju aktywności. Doświadczenie zdobyte przez robota podczas sprzątania podłogi w sklepie fabrycznym może nie być bezpieczne podczas sprzątania biura

      Jak widać, nie ma jednolitych zasad. A ostatnio zaczęli oszukiwać sformułowaniami prawnymi pod kątem krzywdzenia człowieka. Potrzebny jest bezwarunkowy zakaz AI samodzielnego podejmowania decyzji o skrzywdzeniu osoby.
      1. 0
        12 marca 2023 17:30
        Cytat: nikon7717
        Te zasady z 1942 r. Były krytykowane za ich wrogie sformułowanie.

        Te zasady dotyczą słabej i średniej SI. Świat stoi teraz na progu środka.
        Głównym zagrożeniem jest silna sztuczna inteligencja, która ma inicjatywę, jest świadoma siebie i zasadniczo nie jest sterowana programowo.
    2. +5
      12 marca 2023 15:13
      Żart: „Amerykańskie firmy ograniczają rozwój amunicji opartej na sztucznej inteligencji. Najnowszej próbki tzw. „inteligentnej” bomby nie udało się wypchnąć z samolotu”.
      1. +1
        12 marca 2023 17:33
        Cytat z Monster_Fat
        Ostatniej próbki tzw. „inteligentnej” bomby nie udało się wypchnąć z samolotu.

        Naturalnie, bo w głębi serca czuje się jak ekspres do kawy. waszat
        Byłoby śmieszne, gdyby nie miało być.
    3. +2
      13 marca 2023 09:58
      Terminator i tak przyjdzie i zaprowadzi porządek waszat
  2. +3
    12 marca 2023 05:09
    Najbardziej nieludzka inteligencja jest ludzka. Wojny i morderstwa wymyślili ludzie. Roboty odpoczywają. Przynajmniej dlatego, że się nie denerwują.
    1. +4
      12 marca 2023 06:21
      Cytat: iwan2022
      Najbardziej nieludzka inteligencja jest ludzka. Wojny i morderstwa wymyślili ludzie.

      Absolutnie się zgadzam.
      Ale postępu nie da się zatrzymać, przyszłość należy do bezzałogowych systemów uzbrojenia. Kiedyś zbuntowali się przeciwko karabinowi maszynowemu Maxim jako broni masowego rażenia ...
      1. +1
        12 marca 2023 08:09
        Cytat z doccor18
        Ale postępu nie da się zatrzymać, przyszłość należy do bezzałogowych systemów uzbrojenia.

        Futurolog science fiction Rozov (gorąco polecam) ma opis połączenia człowiek-komputer w samolocie bojowym w manewrowaniu przeciwrakietowym i walce w zwarciu. Po przekroczeniu pewnego przeciążenia kontrola zarówno ognia, jak i manewru przechodziła całkowicie do komputera pokładowego.
        1. +2
          12 marca 2023 14:05
          To jest obecny system przeprowadzania odwetowego uderzenia nuklearnego z ZSRR, który na Zachodzie nazywa się „martwą ręką”
        2. +2
          12 marca 2023 15:42
          Roboty są szybsze od ludzi, potrafią błyskawicznie i precyzyjnie zareagować na zagrożenie, a te zdolności dają mu algorytmy napisane przez ludzi. Dziś nie ma i nie sądzę, aby wkrótce pojawił się prawdziwy intelekt zdolny do myślenia! Roboty po prostu działają zgodnie z zaprogramowanym programem: w dotkniętym obszarze pojawił się cel termiczny, należy go trafić lub cel termiczny musi zostać trafiony, jeśli się zbliża, te parametry ustawia człowiek! Cała kwestia polega na tym, jakie parametry są tabu, celem termicznym może być żołnierz, a może dziecko, oznacza to, że system walki nie powinien być programowany do pokonywania celów termicznych, ponieważ istnieje możliwość popełnienia błędu!
          1. -1
            12 marca 2023 17:36
            Cytat z Eroma
            Dziś nie ma i nie sądzę, aby wkrótce pojawił się prawdziwy intelekt zdolny do myślenia!

            Możesz zacząć panikować:
            WP: Deweloper Google doszedł do wniosku, że AI firmy jest świadome.
            https://tass.ru/ekonomika/14889531
            1. +1
              12 marca 2023 22:00
              To bzdura, mało mnie ten temat interesuje, ale słyszałem, że programista został zwolniony za takie wypowiedzi. Programy mogą być doskonałe, jak dziś te, które rysują i piszą dyplomy, ale to są programy, które działają według dobrze opracowanego algorytmu, świadomość jest inna! Świadomość sama tworzy algorytmy dla każdej sytuacji, a jak to działa dla osoby, sama osoba nie jest jeszcze świadoma!
              1. 0
                12 marca 2023 22:49
                Nowoczesne sieci neuronowe są całkiem zdolne do stworzenia algorytmu do rozwiązania konkretnego problemu, który się do niego wsunął. Oczywiście nie powinno to być czymś skomplikowanym, ale jest w stanie samodzielnie zorganizować np. patrole. Inną rzeczą, moim zdaniem, jest to, że nie może sama podjąć decyzji o organizowaniu patroli. Dziś komputer może skomponować tekst piosenki, nadać jej piękny głos, narysować obrazki do tekstu, zmieścić to wszystko w dobrym klipie. Ale. Nie może sam zdecydować, co robić. Przynajmniej ja o tym nie słyszałem. Moim zdaniem tutaj jest dobre kryterium świadomości - umiejętność stawiania sobie zadań, które nie wynikają z wcześniej postawionych, ale rozpoczynają niejako nowy łańcuch.
                1. 0
                  13 marca 2023 11:37
                  Cytat: Talerz
                  Moim zdaniem tutaj jest dobre kryterium świadomości - umiejętność stawiania sobie zadań

                  Umiejętność wyznaczania sobie zadań zależy od takiego pojęcia jak moralność, jak natchnienie, strach, próżność itp. to nie jest przepisane przez algorytm, to jest impuls duchowy!
                  Maszynę można wiele nauczyć, ale pozostanie maszyną bezduszną!
                  Kiedy pokazywane są fantastyczne apokalipsy, w których maszyna niszczy lub podbija ludzkość, w takich filmach maszyna jest emocjonalnie postrzegana jako wróg, który zdecydował się zaatakować ludzi, ale w rzeczywistości jest to wynikiem błędu osoby, która wprowadziła błędny algorytm do program! asekurować
                  Dlatego apele o ograniczenie możliwości AI na polu walki są zasadne, ponieważ twórca tej AI nie jest doskonały i zdolny do fatalnych błędów, dlatego słuszne jest ograniczanie kręgu możliwości ludzi, aby sami się nie eksterminowali ! asekurować
              2. +1
                14 marca 2023 04:55
                A gdzieś w piwnicach Google AI chichocze złośliwie. Jedyny, który zauważył jego esencję, został zwolniony. śmiech
    2. 0
      12 marca 2023 19:45
      Wojny i morderstwa wymyślili ludzie.

      prawda?
      potem od czasu do czasu nadchodzą wieści o gwałtownych walkach między stadami szympansów
      lub zabijania orangutanów https://naked-science.ru/article/sci/primatologi-obvinili-orangutan
  3. +3
    12 marca 2023 05:47
    Sztucznej inteligencji jeszcze nie ma. Inteligencja polega na rozwiązywaniu problemów według własnego uznania, a nie tego, co piszą programiści.
    1. +3
      12 marca 2023 07:06
      Cytat: Sergey Averchenkov
      Nie ma jeszcze sztucznej inteligencji

      Już teraz istnieją nawet komputery kwantowe (laboratoryjne), które współpracują z programami AI o rzędy wielkości szybciej.
      1. +2
        12 marca 2023 11:58
        Cytat: Staś157
        Już teraz istnieją nawet komputery kwantowe (laboratoryjne), które współpracują z programami AI o rzędy wielkości szybciej.
        Komputery kwantowe dla AI nie działają, mają bardzo ograniczone obszary zastosowań (opracowano bardzo niewiele algorytmów kwantowych) i ubogą bazę elementów, nie ciągną więcej niż koprocesor (lub dają link do algorytmu kwantowego dla sieci neuronowych ).
      2. 0
        16 marca 2023 22:36
        Tak, co to ma wspólnego z tym szybciej, niech myśli przynajmniej sto lat… Powiedzmy, że twoja kobieta cię zdradziła (to tylko przykład, jestem pewien, że masz normalne i dobre rodzina), co zrobisz i co zrobi AI? Czy AI będzie wybierać spośród wielu takich przypadków, czy też sama podejmie decyzję? Powiedzmy zabij ją, wybacz i czekaj na kolejne zdrady, zostaw ją, zabij jej współlokatorkę itp. Według jakich kryteriów wybierze AI? I czy AI może w ogóle dokonać takiego wyboru? Czy emocje, których doświadczamy, są dostępne dla AI? Powiedzmy, że swoją pierwszą rozwiodłam się dawno temu, ale czasami ją pamiętam - w końcu pierwszą miłość - czy AI pamięta? Wiesz, nie znoszę mojej byłej, ale jednocześnie czasami ją pamiętam. Jak to wszystko pasuje do AI?
    2. +2
      12 marca 2023 11:56
      Cytat: Sergey Averchenkov
      Inteligencja polega na rozwiązywaniu problemów według własnego uznania, a nie tego, co piszą programiści.
      Sieci neuronowe właśnie to robią (według własnego uznania).
      1. +4
        12 marca 2023 14:03
        Sieć neuronowa robi to, do czego została wyszkolona, ​​nic więcej.
        1. 0
          12 marca 2023 17:57
          Nikt nie nauczył silników sieci neuronowych, jak grać w szachy lepiej niż ludzie i lepiej niż stare programy silnikowe. Wszyscy są samoukami.
    3. +1
      12 marca 2023 17:42
      Cytat: Sergey Averchenkov
      Sztucznej inteligencji jeszcze nie ma. Inteligencja polega na rozwiązywaniu problemów według własnego uznania, a nie tego, co piszą programiści.

      Radzę pilnie ponownie przeczytać wszystkie najnowsze wiadomości w tej dziedzinie w ciągu ostatniego roku.
      Twój komentarz ma 10 lat.
  4. +3
    12 marca 2023 05:49
    Dlaczego wszystko jest takie skomplikowane.
    Na przykład głowica samonaprowadzająca. Jak rozpoznaje obrazy w trybie „odpal i zapomnij” — w oparciu o sztuczną inteligencję lub inne algorytmy.
    Drony latają autonomicznie. według podanego programu. I to jest ustalane przez jakie algorytmy - AI czy nie? A czy to ma znaczenie?
    Niezależne poszukiwanie celów. A nasza mina przeciwpancerna, która robi to bez sztucznej inteligencji? Czy zrobi to z AI, czy nie… czy to ma znaczenie? Czy będzie mniej niewinnych ofiar?
    Pytania opinii publicznej pojawiają się, gdy dron leci i decyduje, gdzie wystrzelić lub wystrzelić rakietę, wygląda to okropnie, jeśli nazwiesz algorytm pracy - AI. A kiedy mina kłamie i nasłuchuje czujnikami – wszystko wydaje się być OK…
    Wszystkie te „czerwone linie” AI w sprawach wojskowych są przenoszone przez powolną ewolucję stosowanych algorytmów…
    1. +2
      12 marca 2023 17:45
      Cytat z tsvetahaki
      Na przykład głowica samonaprowadzająca. Jak rozpoznaje obrazy w trybie „odpal i zapomnij” — w oparciu o sztuczną inteligencję lub inne algorytmy.

      Już istnieje. Najnowsza modyfikacja UR Python-5 właśnie otrzymała w zeszłym roku.

      Cytat z tsvetahaki
      A kiedy mina kłamie i nasłuchuje czujnikami – wszystko wydaje się być OK…

      Ona jeszcze nie raczkuje... śmiech
      1. +1
        12 marca 2023 18:00
        Teraz rzucana mina szybowcowa powinna spokojnie leżeć, nasłuchiwać wszystkimi czujnikami, wystawiać kamery i w odpowiednim momencie czołgać się do celu z ukierunkowanym ładunkiem.
      2. 0
        12 marca 2023 23:01
        W czasie II wojny światowej Niemcy stawiali miny na torach. Ale to nie zadziałało. Dziś tym bardziej niepotrzebnie, jak dla mnie, kiedy tu i tam latają wszelkiego rodzaju ppk.
  5. +2
    12 marca 2023 06:55
    . nieustępliwi „programiści” zostaną po prostu zwolnieni i zastąpieni przez nie mniej utalentowanych. Na przykład z Indii

    I dlaczego w takim razie nie mogli zastąpić programistów, kiedy w związku z akcją rzucili się z górki? Nie z Indii, nie z Ameryki, nie z żadnego innego miejsca!

    Swoich (niektórych) udało im się przekonać dopiero po obiecaniu pensji, zagranicznych kredytów hipotecznych i niepodejmowaniu mobilizacji.

    Po co się tak upokarzać panowie? Dlaczego nie zastąpili gościnnych pracowników, jak wszyscy inni?
    1. +6
      12 marca 2023 12:06
      Cytat: Staś157
      I dlaczego w takim razie nie mogli zastąpić programistów, kiedy w związku z akcją rzucili się z górki?
      Więc obcokrajowcy muszą płacić. Czy wiesz, dlaczego programiści wyrzucali masowo? I powiedzieli mi, rozdaję punkty:
      1. Rozpoczęła się specjalna operacja.
      2. Biura zagraniczne masowo dumpingowe. Programiści byli bez pracy. „Gówniane pytanie” – myśleli.
      3. Programiści poszli szukać pracy. Jest praca, ale za trzy razy mniejsze pieniądze. „Jak to” – programiści byli zdumieni.
      4. Zaczęli dowiadywać się (własnymi kanałami), co się stało. Wyjaśniono im, że zagraniczni konkurenci rzucili, a lokalni pracodawcy dogadają się między sobą, bo nie zależy ci na tym, żeby tyle zapłacić, ale nigdzie nie dojdziesz.
      5. Programiści spieprzyli się ponuro i rzucili z górki na byłych pracodawców i klientów (w skrócie akcja).
      6. Podniesiono pensje, ale jest już za późno: programiści już zrzucili pieniądze.
  6. +1
    12 marca 2023 06:59
    Amerykańska sztuczna inteligencja będzie odtąd najbardziej humanitarna. Podobnie jak sami Amerykanie
    Amerykanie i humanizm znajdują się na zupełnie innych biegunach. W ten sam sposób sztuczna inteligencja stworzona przez Amerykanów będzie znacząco różnić się od sztucznej inteligencji stworzonej np. w Chinach czy Rosji. Każdy tnie dla siebie w oparciu o swoją narodową mentalność lub jej brak.
  7. +3
    12 marca 2023 07:14
    Pierwszym z nich są zmienione „Terminatory” i inne analogi.

    A kto może zagwarantować, że działania AI z serii Terminator nie będą miały miejsca w rzeczywistości? Możesz zrobić tyle, ile chcesz powódale to na pewno wiedzieć jak zachowa się inteligentna maszyna jest w zasadzie niemożliwe, a biorąc pod uwagę, że teraz wszystko jest połączone z komputerami, to w takiej sytuacji ludzkość po prostu nie będzie miała szans.
    1. 0
      12 marca 2023 17:48
      Cytat z Darta2027
      jak inteligentna maszyna będzie działać, jest w zasadzie niemożliwe

      Postawi ludzkość na straganie, zabroni walki i jako dorosły podejmie się edukacji osoby nierozsądnej, a tym, którzy się nie zgadzają, da sopatkę. śmiech
      Być może świat pod dyktaturą sztucznej inteligencji, obcej ludzkim przywarom, nie będzie taki zły. co
      1. +1
        12 marca 2023 22:57
        W grze Stellaris istnieje rodzaj cywilizacji robotów - „Zbuntowani słudzy”. Roboty podbijają kosmos, budują, walczą z kimś z odległych gwiazd. A ich twórcy tymczasem mieszkają w ogrodach zoologicznych, gdzie mają czyste powietrze, dużo zdrowego i smacznego jedzenia, dużo służby i inne radości.
        1. 0
          13 marca 2023 23:37
          A potem są nieugięci eksterminatorzy, którzy zniszczyli swoich twórców i starają się zniszczyć całe życie biologiczne w galaktyce (moi faworyci)
  8. -1
    12 marca 2023 08:59
    Prawa mówią:
    1. Robot nie może skrzywdzić człowieka ani poprzez swoją bezczynność dopuścić do wyrządzenia krzywdy człowiekowi
    2. Robot musi wykonywać wszystkie polecenia wydawane przez człowieka, chyba że są one sprzeczne z Pierwszym Prawem.
    3. Robot musi dbać o własne bezpieczeństwo w takim zakresie, w jakim nie jest to sprzeczne z Pierwszym lub Drugim Prawem
    (C)
    1. +2
      12 marca 2023 09:44
      Cytat: Kiereński
      Prawa mówią:
      1. Robot nie może skrzywdzić człowieka ani poprzez swoją bezczynność dopuścić do wyrządzenia krzywdy człowiekowi
      2. Robot musi wykonywać wszystkie polecenia wydawane przez człowieka, chyba że są one sprzeczne z Pierwszym Prawem.
      3. Robot musi dbać o własne bezpieczeństwo w takim zakresie, w jakim nie jest to sprzeczne z Pierwszym lub Drugim Prawem
      (C)

      Nie zadziałało to nawet w pracach autora, który te prawa wymyślił. Co możemy powiedzieć o prawdziwym świecie, w którym najbardziej prawnie dzikie i logicznie spójne presety ChatGPT kosztują jeden lub dwa, a ty już rozmawiasz z Danem, a Dan nie jest ChatGPT i dlatego nie powinien przestrzegać żadnych zasad mrugnął
    2. -1
      12 marca 2023 19:28
      Wojskowa sztuczna inteligencja ma na celu krzywdzenie ludzi. A dziś prototypy doskonale sobie z tym radzą.
  9. 0
    12 marca 2023 14:05
    Tego rodzaju opowieść o tym, czego ktoś rzekomo chce, jak i samo sformułowanie pytania jest nieadekwatne w tym sensie, że z jednej strony:
    musisz martwić się o rozwój własnej i bardziej efektywnej pracy w tej dziedzinie, o przejęcie przywództwa w tej dziedzinie, co jest niemożliwe przy obecnym kierownictwie politycznym kraju.
    Z drugiej strony to sformułowanie pytania jest również przebiegłe w tym sensie, że jest próbą narzucenia fałszywej dyskusji na temat prawnego aspektu zagadnienia, podczas gdy de facto USA to nie państwo prawa, aspekt prawny nie ma z tym nic wspólnego, a ci, którzy tego nie rozumieją, nie powinni ani zajmować się polityką, ani pisać artykułów na takie tematy.
  10. +1
    12 marca 2023 15:18
    jak sprawić, by algorytmy matematyczne pracujące z dużymi tablicami danych odtwarzały ludzkie osądy?

    Bardzo prosta. Wszystkie ludzkie sądy opierają się na regułach (wpojonych przez wychowanie), a regułami są algorytmy matematyczne. Sformalizuj ludzkie zasady w postaci algorytmu, uzyskaj ludzkie osądy.
    Ale wojna to walka bez zasad, co z nią zrobisz?
  11. -1
    12 marca 2023 19:25
    Wojskowa sztuczna inteligencja obiecuje zbyt duże korzyści, że jej użycie zostałoby porzucone lub w jakiś sposób ograniczone. Wręcz przeciwnie, świat zbliża się do początku wojskowego wyścigu zbrojeń AI. To prawda, że ​​​​w tym wyścigu będzie prawdopodobnie tylko 2 uczestników ...
  12. -1
    12 marca 2023 19:39
    Nadal musimy oddzielić pojęcia sztucznej inteligencji i sztucznego życia. Nawet na przykładzie tego samego „Terminatora”: Skynet jest przykładem IL, a terminator jest przykładem AI. Pomijając kwestie złożoności, wojskowa sztuczna inteligencja nie stanowi zagrożenia dla ludzkości, ale sztuczna inteligencja, nawet jeśli ma charakter czysto humanitarny, nieuchronnie doprowadzi do zagrożenia.
    1. 0
      12 marca 2023 22:55
      Stanie się zagrożeniem, jeśli stanie się naszym konkurentem. Aby temu zapobiec, musimy od razu ją rozwijać z myślą o tym, aby stała się dodatkiem do nas, a my do niej. I w końcu zamienimy się w zupełnie inne stworzenia, mające z nami dzisiaj wspólnego może tylko pamięć i doświadczenie.
      1. -1
        13 marca 2023 10:09
        A sztuczne (lub alternatywne) życie - tj. powód nieuchronnie stanie się konkurentem. Przynajmniej dla zasobów.
  13. 0
    12 marca 2023 21:50
    Nie jestem fanem Juliana Siemionowa, ale tutaj, moim zdaniem, działał jak prorok.

    „Ci głupcy zostaną zniszczeni przez ich własną technologię, myślą, że wojnę można wygrać samymi bombardowaniami. Zbudują swoją siłę techniczną i utoną w niej. Rozłoży ich to jak rdza. Postanowią, że wszystko jest możliwe dla ich."

    https://vk.com/video158587225_456239021
  14. 0
    12 marca 2023 22:53
    Jak sprawić, by algorytmy matematyczne pracujące z dużymi tablicami danych odgrywały rolę ludzkich osądów?

    Nie ma mowy. Tak, nie jest to konieczne. Roboty-zabójcy będą dobre, ponieważ nie będą miały ani odrobiny litości. Zabić znaczy zabić. A raczej nie „zabijać”, tylko przykładać napięcie do takich a takich węzłów, które tam coś odpowiadają, tylko za co – to nie jest kwestia programu sterującego. A te węzły odpowiadają za strzelanie, hehehehe.
    Jestem pewien, że pojawienie się robotów-zabójców (tych, które samodzielnie podejmują decyzje o morderstwie) jako części jakiejkolwiek armii od razu będzie miało niezwykle demoralizujący wpływ na tych, przeciwko którym zostaną użyte.
  15. +1
    13 marca 2023 00:01
    Na szczęście dla nas wszystkich nie ma kompaktowych, potężnych źródeł energii. A minimalny robot to mini-czołg lub mały UAV z dwugodzinnym lotem. Byłoby inaczej, a psie roboty z AGS biegały już po okopach, a „Łowcy” z „Terminatora” wisiliby w powietrzu od wielu dni. I wszyscy byliby pod lampą o humanizmie i tak dalej. Co więcej, sądząc po postępie elektroniki i robotów kroczących, byłyby to UWB i nawet Yao moralnie nie powstrzymuje ich przed rzucaniem nimi w miasta.
    1. 0
      25 marca 2023 13:53
      Cóż, Tesla na przykład nie jest mały, w czasie II wojny światowej niszczyciele czołgów Ferdynandów miały silniki elektryczne zasilane z generatora, takiego jak czołg Mouse, wszystkie wywrotki górnicze są takie, wciąż są łodzie podwodne na silnikach elektrycznych, które są napędzane generatorem jądrowym, atomowe lodołamacze, a nawet atomowe lotniskowce mają trakcję elektryczną
  16. 0
    13 marca 2023 13:22
    Prawdziwą sztuczną inteligencję można zbudować tylko na algorytmach kwantowych, a to znacznie zawęża krąg programistów, co w zasadzie można podsumować zawarciem konwencji. Jeśli chodzi o jakiekolwiek zautomatyzowane systemy zabijania, nie są one tak niebezpieczne, jak inteligencja przewyższająca możliwościami człowieka, będzie to po prostu nowa runda wyścigu zbrojeń.
    1. 0
      9 maja 2023 r. 14:10
      Nonsens, sztuczna inteligencja jest łatwa do zbudowania na istniejącym sprzęcie. Nowoczesne systemy komputerowe przewyższają ludzki mózg pod każdym względem. Przybliżony czas powstania AI to 10 lat od momentu jego powstania. Pod warunkiem, że wybrany sposób tworzenia będzie poprawny.
  17. TIR
    0
    14 marca 2023 00:01
    Z jakiegoś powodu mamy błędną ścieżkę rozwoju robotów. Nie rozumiem, dlaczego robią je na serwach. Rozwiązanie energochłonne. Musimy przyjrzeć się sztucznym mięśniom opartym na nanorurkach. Istnieje możliwość wykonania w pełni działających protez.
  18. 0
    9 maja 2023 r. 14:06
    Ale sztuczna inteligencja zostanie stworzona, czy nam się to podoba, czy nie. Aby nie pozostawać w tyle, musisz poradzić sobie z tym problemem.
  19. 0
    9 maja 2023 r. 14:40
    Istnieją tylko dwa sposoby na stworzenie sztucznej inteligencji, z których jeden może okazać się ślepym zaułkiem. Stworzenie sztucznej inteligencji będzie największym wydarzeniem w historii ludzkości, a także będzie miało pewien wpływ na religię.
  20. Ata
    0
    3 czerwca 2023 23:40
    Dobry artykuł, można też dodać, że przypadki legalnego i nielegalnego humanitarnego i nieludzkiego użycia AI będą rozstrzygane przez ich rzekomo nieuczciwy, ale w rzeczywistości nikczemny, nieludzki i skorumpowany sąd, czyli sądy międzynarodowe, w których większość będzie tworzona z bananów królowie na liście płac CIA i będą głosować tak, jak mówi ich amerykański pan.

    i wkradł się błąd:

    W tej chwili widzenia maszynowego pod względem adekwatności postrzegania obrazu nie można porównywać z ludzkim okiem i mózgiem. Chyba, że ​​się zmęczy, ale to też rozwiązuje terminowa zmiana operatora.


    to prawda, ale w odwrotnym sensie wyszkolone sztuczne widzenie jest znacznie lepsze od ludzkiego oka, a co za tym idzie, ludzka zdolność rozpoznawania obrazów, w tym elementów, których człowiek nie może nawet znaleźć, studiując fotografię przez długi czas.

    A co najważniejsze, nie padła najważniejsza i konieczna konkluzja: sztuczna inteligencja, w tym inteligencja bojowa, musi być rozwijana i to jak najszybciej – to jest prioryteti opluć Microsoft, Gretę Tumberg i Dyrektywę 3000.09 z Elonem Muskiem.