Sztuczna inteligencja. Część druga: wyginięcie czy nieśmiertelność?

60
Sztuczna inteligencja. Część druga: wyginięcie czy nieśmiertelność?


Oto druga część artykułu z serii „Czekaj, jak to wszystko może być prawdziwe, dlaczego wciąż nie mówi się o tym na każdym rogu”. W poprzedniej serii okazało się, że eksplozja inteligencji stopniowo wkrada się na ludzi planety Ziemia, która próbuje rozwinąć się od wąsko skoncentrowanej do uniwersalnej inteligencji ludzkiej i wreszcie sztucznej superinteligencji.

„Być może mamy przed sobą niezwykle trudny problem i nie wiadomo, ile czasu zostało przeznaczone na jego rozwiązanie, ale przyszłość ludzkości może zależeć od jego rozwiązania”. — Nick Bostrom.


Pierwsza część artykułu zaczęła się dość niewinnie. Omówiliśmy wąsko skoncentrowaną sztuczną inteligencję (AI, która specjalizuje się w rozwiązywaniu jednego konkretnego zadania, jak wyznaczanie tras czy granie w szachy), w naszym świecie jest ich wiele. Następnie przeanalizowaliśmy, dlaczego tak trudno jest wyhodować sztuczną inteligencję ogólnego przeznaczenia (GAI, czyli AI, którą pod względem możliwości intelektualnych można porównać z osobą w rozwiązywaniu dowolnego problemu) z AII. Dochodzimy do wniosku, że wykładnicze tempo postępu technologicznego wskazuje na to, że AGI może nadejść wkrótce. W końcu zdecydowaliśmy, że gdy maszyny osiągną ludzki poziom inteligencji, natychmiast mogą się zdarzyć następujące rzeczy:






Jak zwykle patrzymy na ekran, nie wierząc, że sztuczna superinteligencja (sztuczna inteligencja, która jest znacznie mądrzejsza niż ktokolwiek) może pojawić się już za naszym życiem i wybierając emocje, które najlepiej oddadzą naszą opinię na ten temat.

Zanim zagłębimy się w specyfikę ASI, przypomnijmy sobie, co oznacza superinteligentna maszyna.

Główna różnica leży między superinteligencją szybką a superinteligencją jakościową. Często pierwszą rzeczą, która przychodzi na myśl, gdy myślimy o superinteligentnym komputerze, jest to, że może on myśleć znacznie szybciej niż człowiek — miliony razy szybciej iw ciągu pięciu minut zrozumieć, co człowiekowi zajęłoby dziesięć lat. („Znam kung fu!”)

Brzmi imponująco, a ASI naprawdę powinien myśleć szybciej niż ktokolwiek z ludzi - ale główną cechą oddzielającą będzie jakość jego inteligencji, która jest zupełnie inna. Ludzie są znacznie mądrzejsi od małp, nie dlatego, że myślą szybciej, ale dlatego, że ludzkie mózgi zawierają wiele pomysłowych modułów poznawczych, które wykonują złożone reprezentacje językowe, planowanie długoterminowe, myślenie abstrakcyjne, do czego małpy nie są zdolne. Jeśli przetaktujesz mózg małpy tysiąc razy, nie stanie się on mądrzejszy od nas - nawet za dziesięć lat nie będzie w stanie złożyć projektanta zgodnie z instrukcjami, co zajęłoby osobie maksymalnie kilka godzin. Są rzeczy, których małpa nigdy się nie nauczy, bez względu na to, ile godzin poświęci na to, jak szybko pracuje jej mózg.

Ponadto małpa nie wie, jak być człowiekiem, ponieważ jej mózg po prostu nie jest w stanie uświadomić sobie istnienia innych światów - małpa może wiedzieć, kim jest człowiek i czym jest drapacz chmur, ale nigdy nie zrozumie, że drapacz chmur był zbudowany przez ludzi. W jej świecie wszystko należy do natury, a makak nie tylko nie może zbudować drapacza chmur, ale także rozumie, że każdy może go w ogóle zbudować. A to wynik niewielkiej różnicy w jakości inteligencji.

W ogólnym schemacie inteligencji, o którym mówimy, lub po prostu według standardów istot biologicznych, różnica w jakości inteligencji człowieka i małpy jest niewielka. W poprzednim artykule na drabinie umieściliśmy poznanie biologiczne:



Aby zrozumieć, jak poważna byłaby superinteligentna maszyna, umieść ją dwa szczeble wyżej niż człowiek na tej drabinie. Ta maszyna może być trochę superinteligentna, ale jej przewaga nad naszymi zdolnościami poznawczymi będzie taka sama jak nasza nad małpami. I tak jak szympans nigdy nie jest w stanie pojąć, że drapacz chmur można zbudować, tak my możemy nigdy nie zrozumieć, co zrozumie maszyna kilka kroków wyżej, nawet jeśli będzie próbowała nam to wyjaśnić. A to tylko kilka kroków. Inteligentniejsza maszyna zobaczy nas jako mrówki – latami nauczy nas najprostszych rzeczy ze swojej pozycji, a te próby będą zupełnie beznadziejne.

Rodzaj superinteligencji, o którym będziemy dzisiaj mówić, leży daleko poza tą drabiną. To eksplozja inteligencji - im mądrzejsza staje się maszyna, tym szybciej może zwiększyć własną inteligencję, stopniowo zwiększając rozpęd. Taka maszyna może zająć lata, aby przewyższyć szympansy inteligencją, ale być może kilka godzin, aby pokonać nas o krok lub dwa. Od tego momentu samochód może już przeskakiwać cztery stopnie na sekundę. Dlatego powinniśmy to zrozumieć bardzo szybko po pierwszym wiadomości że maszyna osiągnęła poziom ludzkiej inteligencji, możemy zmierzyć się z rzeczywistością współistnienia na Ziemi z czymś, co na tej drabinie będzie znacznie wyższe od nas (może miliony razy wyżej):



A ponieważ ustaliliśmy, że zupełnie bezużyteczna jest próba zrozumienia mocy maszyny, która jest tylko dwa stopnie nad nami, ustalmy raz na zawsze, że nie ma sposobu, aby zrozumieć, co zrobi ASI i jakie będą konsekwencje to będzie dla nas. Każdy, kto twierdzi inaczej, po prostu nie rozumie, co oznacza superinteligencja.

Ewolucja powoli i stopniowo rozwijała biologiczny mózg przez setki milionów lat, a jeśli ludzie stworzą superinteligentną maszynę, pod pewnymi względami prześcigniemy ewolucję. Albo będzie to część ewolucji – być może sposób, w jaki działa ewolucja, polega na tym, że inteligencja rozwija się stopniowo, aż osiągnie punkt krytyczny, który zwiastuje nową przyszłość dla wszystkich żywych istot:



Z powodów, które omówimy później, duża część środowiska naukowego uważa, że ​​pytanie nie brzmi, czy dojdziemy do tego punktu krytycznego, ale kiedy.

Gdzie będziemy po tym?

Nie sądzę, aby ktokolwiek na tym świecie, ja czy ty, był w stanie powiedzieć, co się stanie, gdy osiągniemy punkt krytyczny. Filozof z Oksfordu i czołowy teoretyk sztucznej inteligencji Nick Bostrom uważa, że ​​wszystkie możliwe wyniki można podzielić na dwie szerokie kategorie.

Po pierwsze, patrząc na historiaO życiu wiemy, co następuje: gatunki pojawiają się, istnieją przez pewien czas, a potem nieuchronnie wypadają z dziennika równowagi życiowej i wymierają.



„Wszystkie gatunki umierają” było tak samo niezawodną zasadą w historii, jak „wszyscy ludzie kiedyś umierają”. 99,9% gatunków wypadło z kłody życia i jasne jest, że jeśli gatunek pozostanie na tej kłodzie zbyt długo, podmuch naturalnego wiatru lub nagła asteroida przewróci tę belkę. Bostrom nazywa wymieranie stanem atraktora, miejscem, w którym wszystkie gatunki balansują, aby uniknąć wpadnięcia w miejsce, z którego jeszcze żaden gatunek nie powrócił.

I chociaż większość naukowców przyznaje, że ASI będzie w stanie skazać ludzi na wyginięcie, wielu wierzy również, że wykorzystanie mocy ASI umożliwi jednostkom (i całemu gatunkowi) osiągnięcie drugiego stanu atraktora, nieśmiertelności gatunku. . Bostrom uważa, że ​​nieśmiertelność gatunku jest w równym stopniu atraktorem, co wymieranie gatunków, co oznacza, że ​​jeśli dojdziemy do tego punktu, będziemy skazani na wieczną egzystencję. Tak więc, nawet jeśli wszystkie gatunki do dziś spadły z tego kija do sadzawki wyginięcia, Bostrom wierzy, że kłoda ma dwie strony, a po prostu nie było na Ziemi takiej inteligencji, która zrozumie, jak spaść na drugą stronę.



Jeśli Bostrom i inni mają rację, a na podstawie wszystkich dostępnych nam informacji mogą mieć rację, musimy zaakceptować dwa bardzo szokujące fakty:

Pojawienie się ASI po raz pierwszy w historii otworzy dla gatunku możliwość osiągnięcia nieśmiertelności i wyjścia z fatalnego cyklu wyginięcia.
Pojawienie się ASI będzie miało tak niewyobrażalnie ogromny wpływ, że najprawdopodobniej zepchnie ludzkość z tego dziennika w tym czy innym kierunku.
Jest całkiem możliwe, że kiedy ewolucja osiąga taki punkt krytyczny, zawsze kończy związek ludzi z przepływem życia i tworzy nowy świat, z ludźmi lub bez.

Prowadzi to do jednego interesującego pytania, którego nie zadałby tylko leniwy człowiek: kiedy dojdziemy do tego punktu krytycznego i gdzie nas on umieści? Nikt na świecie nie zna odpowiedzi na to podwójne pytanie, ale tak wielu mądrych ludzi od dziesięcioleci próbuje to rozgryźć. W dalszej części artykułu dowiemy się, do czego doszli.

* * *


Zacznijmy od pierwszej części tego pytania: kiedy powinniśmy osiągnąć punkt krytyczny? Innymi słowy: ile czasu zostało, zanim pierwsza maszyna dotrze do superinteligencji?

Opinie różnią się w zależności od przypadku. Wielu, w tym profesor Vernor Vinge, naukowiec Ben Goertzel, współzałożyciel Sun Microsystems Bill Joy i futurysta Ray Kurzweil, zgodzili się z ekspertem od uczenia maszynowego Jeremym Howardem, kiedy przedstawił następujący wykres na TED Talk:



Ci ludzie podzielają pogląd, że ASI wkrótce nadejdzie – ten wykładniczy wzrost, który wydaje się nam dzisiaj powolny, dosłownie eksploduje w ciągu najbliższych kilku dekad.

Inni, jak współzałożyciel Microsoftu Paul Allen, psycholog badawczy Gary Marcus, ekspert komputerowy Ernest Davis i przedsiębiorca technologiczny Mitch Kapor, uważają, że myśliciele tacy jak Kurzweil poważnie nie doceniają skali problemu i uważają, że nie jesteśmy tak blisko przechylenia punkt.

Obóz Kurzweila twierdzi, że jedynym niedoszacowaniem, jakie ma miejsce, jest ignorowanie wzrostu wykładniczego, a wątpiących można porównać do tych, którzy przyglądali się wolno rozwijającemu się Internetowi w 1985 roku i twierdzili, że nie będzie on miał wpływu na świat w najbliższej przyszłości .

„Wątpliwości” mogą zaprzeczyć, że postępowi trudniej jest zrobić każdy krok, jeśli chodzi o inteligencję wykładniczą, która niweluje typowy wykładniczy charakter postępu technologicznego. I tak dalej.

Trzeci obóz, w skład którego wchodzi Nick Bostrom, nie zgadza się z pierwszym i drugim, twierdząc, że a) wszystko to może się absolutnie zdarzyć w najbliższej przyszłości; oraz b) nie ma gwarancji, że stanie się to w ogóle lub potrwa dłużej.

Inni, jak filozof Hubert Dreyfus, uważają, że wszystkie trzy z tych grup naiwnie wierzą, że w ogóle nastąpi punkt krytyczny i że najprawdopodobniej nigdy nie dotrzemy do ASI.

Co się stanie, gdy zsumujemy wszystkie te opinie?

W 2013 roku Bostrom przeprowadził ankietę, w której przeprowadził wywiady z setkami ekspertów ds. sztucznej inteligencji podczas serii konferencji na temat: „Jaka będzie twoja prognoza osiągnięcia AGI na poziomie człowieka?” i poprosił o optymistyczny rok (w którym będziemy mieć AGI z 10% szansą), realistyczne przypuszczenie (rok, w którym będziemy mieli 50% szans na posiadanie AGI) i mocne przypuszczenie (najwcześniejszy rok, w którym AGI pojawi się z 90-procentowym prawdopodobieństwem). Oto wyniki:

* Średni rok optymistyczny (10%): 2022
* Średni realistyczny rok (50%): 2040
* Średni rok pesymistyczny (90%): 2075

Przeciętni respondenci uważają, że za 25 lat częściej będziemy mieć AII niż nie. 90 procent szans na posiadanie AIS do 2075 roku oznacza, że ​​jeśli jesteś jeszcze dość młody, prawdopodobnie stanie się to w twoim życiu.

Oddzielne niedawne badanie Jamesa Barratta (autora uznanej i bardzo dobrej książki Our Latest Invention, zaczerpniętej z Zwróciłem uwagę czytelników Hi-News.ru) i Ben Herzel na dorocznej konferencji AGI, AGI Conference, pokazali właśnie opinie ludzi na temat roku, w którym dostaniemy się do AGI: do 2030, 2050, 2100, później lub nigdy. Oto wyniki:

* 2030: 42% respondentów
* 2050: 25%
* 2100: 20%
Po 2100: 10%
Nigdy: 2%
Podobne do wyników Bostroma. W sondażu Barratt ponad dwie trzecie ankietowanych uważa, że ​​AGI będzie tutaj do 2050 r., a mniej niż połowa uważa, że ​​AGI będzie tutaj w ciągu najbliższych 15 lat. Uderzające jest również to, że tylko 2% ankietowanych w ogóle nie widzi AGI w naszej przyszłości.

Ale AGI nie zmienia gry jak ASI. Kiedy, zdaniem ekspertów, będziemy mieli ASI?

Bostrom zapytał ekspertów, kiedy dotrzemy do ASI: a) dwa lata po dotarciu do AIS (czyli niemal natychmiast z powodu eksplozji inteligencji); b) po 30 latach. Wyniki?

Przeciętna opinia była taka, że ​​szybkie przejście z AGI do ASI nastąpi z 10-procentową szansą, ale za 30 lat lub mniej nastąpi to z 75-procentową szansą.

Na podstawie tych danych nie wiemy, jaką datę podaliby respondenci jako 50-procentową szansę na ASI, ale na podstawie dwóch powyższych odpowiedzi załóżmy, że jest to 20 lat. Oznacza to, że czołowi światowi eksperci w dziedzinie AI uważają, że punkt zwrotny nastąpi w 2060 roku (AII pojawi się w 2040 + przejście z AGI do ASI zajmie 20 lat).



Oczywiście wszystkie powyższe statystyki mają charakter spekulacyjny i reprezentują po prostu opinie ekspertów AI, ale wskazują również, że większość zainteresowanych zgadza się, że do 2060 r. prawdopodobnie pojawi się ASI. Zaledwie 45 lat później.

Przejdźmy do drugiego pytania. Kiedy osiągniemy punkt krytyczny, po której stronie fatalnego wyboru zostaniemy zdeterminowani?

Superinteligencja będzie miała najpotężniejszą moc, a kluczowe dla nas pytanie będzie następujące:

Kto lub co będzie kontrolować tę moc i jaka będzie ich motywacja?

Odpowiedź na to pytanie będzie zależeć od tego, czy ASI otrzyma niesamowicie potężny rozwój, niezmiernie przerażający rozwój, czy coś pomiędzy.

Oczywiście społeczność ekspertów również stara się odpowiedzieć na te pytania. Ankieta Bostrom przeanalizowała prawdopodobieństwo możliwych konsekwencji wpływu AGI na ludzkość i stwierdziła, że ​​przy 52 procent szans wszystko pójdzie bardzo dobrze, a przy 31 procentach wszystko pójdzie źle lub bardzo źle. Ankieta załączona na końcu poprzedniej części tego tematu, przeprowadzona wśród Was, drodzy czytelnicy Hi-News, wykazała mniej więcej takie same wyniki. W przypadku względnie neutralnego wyniku prawdopodobieństwo wyniosło tylko 17%. Innymi słowy, wszyscy uważamy, że pojawienie się AGI będzie wielkim wydarzeniem. Warto również zauważyć, że w tej ankiecie chodzi o pojawienie się AGI – w przypadku ASI procent neutralności będzie niższy.

Zanim jeszcze bardziej zagłębimy się w dobre i złe strony pytania, połączmy obie części pytania – „kiedy to się stanie?” i „czy to jest dobre czy złe?” do tabeli, która zawiera poglądy większości ekspertów.



Za chwilę porozmawiamy o głównym obozie, ale najpierw zdecyduj o swojej pozycji. Najprawdopodobniej jesteś w tym samym miejscu, w którym ja jestem, zanim zacząłem zajmować się tym tematem. Jest kilka powodów, dla których ludzie w ogóle nie myślą o tym temacie:

* Jak wspomniano w pierwszej części, filmy poważnie myliły ludzi i fakty, przedstawiając nierealne scenariusze ze sztuczną inteligencją, co doprowadziło do tego, że nie powinniśmy w ogóle traktować AI poważnie. James Barrat porównał tę sytuację do faktu, że Centers for Disease Control wydało poważne ostrzeżenie o wampirach w naszej przyszłości.

* Z powodu tak zwanych błędów poznawczych bardzo trudno jest nam uwierzyć w rzeczywistość, dopóki nie mamy dowodów. Można śmiało wyobrazić sobie informatyków z 1988 roku, którzy regularnie dyskutują o dalekosiężnych implikacjach Internetu i o tym, czym może się stać, ale ludzie prawie nie wierzyli, że zmieni ich życie, dopóki tak się nie stało. Po prostu komputery nie mogły tego zrobić w 1988 roku, a ludzie po prostu patrzyli na swoje komputery i myśleli: „Naprawdę? Czy to zmieni świat?” Ich wyobraźnię ograniczało to, czego nauczyli się z własnego doświadczenia, wiedzieli, czym jest komputer i trudno było sobie wyobrazić, do czego będzie zdolny komputer w przyszłości. To samo dzieje się teraz z AI. Słyszeliśmy, że stanie się to poważna sprawa, ale ponieważ nie spotkaliśmy się jeszcze z tym twarzą w twarz i generalnie widzimy raczej słabe przejawy AI w naszym współczesnym świecie, raczej trudno nam uwierzyć, że to się drastycznie zmieni nasze życia. Tym uprzedzeniom przeciwstawiają się liczni eksperci ze wszystkich obozów, a także osoby zainteresowane: starają się zwrócić naszą uwagę poprzez zgiełk codziennego zbiorowego egocentryzmu.

* Nawet gdybyśmy w to wszystko wierzyli, ile razy dzisiaj myślałeś o tym, że resztę wieczności spędzisz w nicości? Trochę, zgadzam się. Nawet jeśli ten fakt jest o wiele ważniejszy niż cokolwiek, co robisz na co dzień. Dzieje się tak, ponieważ nasze mózgi skupiają się na małych, codziennych rzeczach, bez względu na to, jak szalona jest długoterminowa sytuacja, w której się znajdujemy. Po prostu tacy jesteśmy.
Jednym z celów tego artykułu jest wyciągnięcie cię z obozu „Lubię myśleć o innych rzeczach” i umieszczenie cię w obozie ekspertów, nawet jeśli po prostu stoisz na skrzyżowaniu dwóch przerywanych linii na placu powyżej, całkowicie niezdecydowany.

W trakcie badań staje się jasne, że opinie większości ludzi szybko przesuwają się w kierunku „obozu macierzystego”, a trzy czwarte ekspertów przypada na dwa podobozy w obozie macierzystym.



Odwiedzimy oba te obozy w całości. Zacznijmy od zabawy.

Dlaczego przyszłość może być naszym największym marzeniem?

Gdy odkrywamy świat sztucznej inteligencji, znajdujemy zaskakującą liczbę osób w ich strefie komfortu. Ludzie na prawym górnym placu są podekscytowani. Wierzą, że upadniemy po dobrej stronie belki, a także wierzą, że nieuchronnie do tego dojdziemy. Dla nich przyszłość to tylko najlepsze, o czym można marzyć.

To, co odróżnia tych ludzi od innych myślicieli, nie polega na tym, że chcą być po szczęśliwej stronie, ale na tym, że są pewni, że na to czekamy.

Ta pewność wynika z kontrowersji. Krytycy uważają, że pochodzi z oślepiającego podniecenia, które przyćmiewa potencjalne negatywy. Ale zwolennicy twierdzą, że ponure prognozy są zawsze naiwne; technologia trwa i zawsze pomoże nam bardziej niż nam zaszkodzi.

Możesz wybrać dowolną z tych opinii, ale odłóż na bok swój sceptycyzm i przyjrzyj się szczęśliwej stronie balansu, próbując zaakceptować fakt, że wszystko, o czym czytasz, mogło już się wydarzyć. Gdybyś miał pokazać łowcom-zbieraczom nasz świat komfortu, technologii i nieskończonej obfitości, wydawałoby się to dla nich magiczną fantazją - a my zachowujemy się dość skromnie, nie mogąc przyznać, że ta sama niezrozumiała przemiana czeka nas w przyszłości.

Nick Bostrom opisuje trzy ścieżki, jakie może obrać superinteligentny system sztucznej inteligencji:

* Wyrocznia, która może odpowiedzieć na każde dobrze zdefiniowane pytanie, w tym trudne pytania, na które ludzie nie potrafią odpowiedzieć, takie jak „jak zwiększyć wydajność silnika samochodowego?” Google to prymitywny rodzaj „wyroczni”.

* Dżin, który wykona dowolne polecenie wysokiego poziomu — używa asemblera molekularnego do stworzenia nowej, wydajniejszej wersji silnika samochodowego — i czeka na następne polecenie.

* Suweren, który będzie miał szeroki dostęp i możliwość swobodnego funkcjonowania w świecie, podejmowania własnych decyzji i usprawniania procesu. Wymyśli tańszy, szybszy i bezpieczniejszy sposób transportu prywatnego niż samochód.

Te pytania i zadania, które wydają się nam trudne, wydadzą się superinteligentnemu systemowi tak, jakby ktoś prosił o poprawę sytuacji „Mam ołówek spadł ze stołu”, w którym po prostu chwycisz go i odłożysz z powrotem.

Dobrze odnotowany Eliezer Yudkowsky, amerykański specjalista od sztucznej inteligencji:

„Nie ma trudnych problemów, są tylko problemy, które są trudne dla pewnego poziomu inteligencji. Pójdź oczko w górę (pod względem inteligencji), a niektóre problemy nagle przechodzą z kategorii „niemożliwe” do „oczywistych”. Jeden krok w górę, a wszystkie staną się oczywiste”.


Jest wielu niecierpliwych naukowców, wynalazców i przedsiębiorców, którzy wybrali na naszym stole strefę pewnego komfortu, ale na spacer do najlepszych w tym najlepszym z możliwych światów potrzebujemy tylko jednego przewodnika.

Ray Kurzweil jest ambiwalentny. Niektórzy ubóstwiają jego idee, inni gardzą. Niektórzy pozostają w środku – Douglas Hofstadter, omawiając idee z książek Kurzweila, wymownie zauważył, że „to tak, jakbyś wziął dużo dobrego jedzenia i trochę psiej kupy, a potem wszystko pomieszał, aby nie można było powiedzieć, co jest dobre i co jest złe."

Niezależnie od tego, czy lubisz jego pomysły, czy nie, nie sposób przejść obok nich bez cienia zainteresowania. Zaczął wymyślać rzeczy jako nastolatek, a w późniejszych latach wynalazł kilka ważnych rzeczy, w tym pierwszy skaner płaski, pierwszy skaner tekstu na mowę, znany syntezator muzyczny Kurzweil (pierwsze prawdziwe pianino elektryczne) i pierwszy komercyjnie udany aparat do rozpoznawania mowy. Jest także autorem pięciu uznanych książek. Kurzweil jest ceniony za odważne przewidywania, a jego osiągnięcia są całkiem niezłe – pod koniec lat 80., kiedy Internet był jeszcze w powijakach, sugerował, że do 2000 r. sieć stanie się globalnym fenomenem. The Wall Street Journal nazwał Kurzweila „niespokojnym geniuszem”, Forbes „globalną maszyną myślącą”, Inc. Magazyn – „prawowity spadkobierca Edisona”, Bill Gates – „najlepsi z tych, którzy przepowiadają przyszłość sztucznej inteligencji”. W 2012 roku współzałożyciel Google, Larry Page, zatrudnił Kurzweila na stanowisko CTO. W 2011 był współzałożycielem Singularity University, prowadzonego przez NASA i częściowo sponsorowanego przez Google.

Jego biografia ma znaczenie. Kiedy Kurzweil opowiada o swojej wizji przyszłości, brzmi to jak szalona osoba, ale naprawdę szalone w tym jest to, że daleko mu do szaleństwa – jest niesamowicie mądrym, wykształconym i zdrowym na umyśle człowiekiem. Możesz myśleć, że myli się w swoich przewidywaniach, ale nie jest głupcem. Przewidywania Kurzweila podziela wielu ekspertów „strefy komfortu”, Peter Diamandis i Ben Herzel. Oto, co jego zdaniem się wydarzy.

Chronologia

Kurzweil wierzy, że komputery osiągną poziom sztucznej inteligencji ogólnej (AGI) do 2029 roku, a do 2045 będziemy mieli nie tylko sztuczną superinteligencję, ale także zupełnie nowy świat – czas tzw. osobliwości. Jego oś czasu AI jest nadal uważana za skandalicznie przesadzoną, ale w ciągu ostatnich 15 lat szybki rozwój systemów wąskiej sztucznej inteligencji (AI) spowodował, że wielu ekspertów przeszło na Kurzweil. Jego przewidywania są wciąż bardziej ambitne niż sondaż Bostrom (ARI do 2040, ASI do 2060), ale niewiele.

Według Kurzweila trzy równoczesne rewolucje w biotechnologii, nanotechnologii i, co ważniejsze, sztucznej inteligencji prowadzą do osobliwości 2045 roku. Ale zanim przejdziemy dalej – a nanotechnologia nierozerwalnie podąża za sztuczną inteligencją – poświęćmy chwilę na nanotechnologię.



Kilka słów o nanotechnologii

Nanotechnologia to to, co zwykle nazywamy technologiami, które zajmują się manipulacją materią w zakresie 1-100 nanometrów. Nanometr to jedna miliardowa część metra lub milionowa część milimetra; w promieniu 1-100 nanometrów można zmieścić wirusy (o średnicy 100 nm), DNA (szerokość 10 nm), cząsteczki hemoglobiny (5 nm), glukozę (1 nm) i inne. Jeśli nanotechnologia kiedykolwiek stanie się naszą, następnym krokiem będzie manipulacja pojedynczymi atomami, które są tylko o jeden rząd wielkości mniejsze (~.1 nm).

Aby zrozumieć, gdzie ludzie napotykają problemy, próbując manipulować materią na taką skalę, przejdźmy do większej skali. Międzynarodowa Stacja Kosmiczna znajduje się 481 kilometrów nad Ziemią. Gdyby ludzie byli olbrzymami i uderzyli w ISS głową, byliby 250 000 razy więksi niż są teraz. Jeśli powiększysz coś od 1 do 100 nanometrów 250 000 razy, otrzymasz 2,5 centymetra. Nanotechnologia jest odpowiednikiem człowieka tak wysokiego jak ISS, próbującego kontrolować rzeczy wielkości ziarnka piasku lub gałki ocznej. Aby przejść na kolejny poziom – kontrolowanie poszczególnych atomów – gigant będzie musiał ostrożnie ustawiać obiekty o średnicy 1/40 milimetra. Zwykli ludzie potrzebowaliby mikroskopu, żeby je zobaczyć.

Richard Feynman po raz pierwszy mówił o nanotechnologii w 1959 roku. Następnie powiedział: „Zasady fizyki, o ile wiem, nie przemawiają przeciwko możliwości kontrolowania rzeczy atom po atomie. W zasadzie fizyk mógłby zsyntetyzować każdą zapisaną przez chemika substancję chemiczną. Jak? Umieszczając atomy tam, gdzie chemik mówi, że mają wytworzyć substancję. To cała prostota. Jeśli wiesz, jak poruszać pojedynczymi cząsteczkami lub atomami, możesz zrobić prawie wszystko.

Nanotechnologia stała się poważną dziedziną naukową w 1986 roku, kiedy inżynier Eric Drexler przedstawił jej podstawy w swojej przełomowej książce Machines of Creation, jednak sam Drexler uważa, że ​​ci, którzy chcą dowiedzieć się więcej o aktualnych pomysłach w nanotechnologii, powinni przeczytać jego książkę z 2013 roku „Pełna obfitość” (Radical Obfitość).

Kilka słów o „szarym szlamie”
Zagłębiamy się w nanotechnologię. W szczególności temat „szarej mazi” to jeden z najbardziej nieprzyjemnych tematów w dziedzinie nanotechnologii, którego nie można zignorować. W starszych wersjach teorii nanotechnologii proponowano metodę nanomontażu, polegającą na stworzeniu bilionów maleńkich nanorobotów, które współpracowałyby ze sobą, aby coś stworzyć. Jednym ze sposobów na stworzenie bilionów nanorobotów jest stworzenie takiego, który może się rozmnażać, to znaczy od jednego do dwóch, od dwóch do czterech i tak dalej. W ciągu jednego dnia pojawi się kilka bilionów nanorobotów. Taka jest siła wzrostu wykładniczego. To zabawne, prawda?

To zabawne, ale dokładnie dopóki nie prowadzi do apokalipsy. Problem polega na tym, że siła wzrostu wykładniczego, która sprawia, że ​​szybkie tworzenie bilionów nanobotów jest całkiem wygodne, sprawia, że ​​na dłuższą metę samoreplikacja jest przerażająca. Co się stanie, jeśli system ulegnie awarii i zamiast zatrzymać replikację na poziomie kilku bilionów, nanoboty będą się dalej mnożyć? A jeśli cały ten proces zależy od węgla? Biomasa Ziemi zawiera 10^45 atomów węgla. Nanobot musiałby składać się z 10^6 atomów węgla, więc 10^39 nanobotów pochłonęłoby całe życie na Ziemi w zaledwie 130 powtórzeniach. Ocean nanobotów („szary szlam”) zaleje planetę. Naukowcy uważają, że nanoboty mogą replikować się w 100 sekund, co oznacza, że ​​prosty błąd może zabić całe życie na Ziemi w zaledwie 3,5 godziny.

Mogłoby być jeszcze gorzej, gdyby ręce terrorystów i nieprzychylnych specjalistów dotknęły nanotechnologii. Mogli stworzyć kilka bilionów nanobotów i zaprogramować je tak, aby w ciągu kilku tygodni po cichu rozprzestrzeniły się po całym świecie. Następnie za naciśnięciem guzika, w 90 minut, zjedzą wszystko bez szans.

Chociaż ten horror jest szeroko dyskutowany od lat, dobrą wiadomością jest to, że jest to tylko horror. Eric Drexler, który ukuł termin „szara maź”, powiedział pewnego dnia: „Ludzie uwielbiają przerażające historie, a ta należy do kategorii horrorów o zombie. Ta idea sama w sobie już zjada mózgi.

Kiedy już dotrzemy do sedna nanotechnologii, możemy z niej tworzyć urządzenia techniczne, ubrania, żywność, bioprodukty – komórki krwi, wirusy i środki do walki z rakiem, tkankę mięśniową itd. – cokolwiek. A w świecie wykorzystującym nanotechnologię koszt materiału nie będzie już związany z jego niedoborem lub złożonością procesu produkcyjnego, ale raczej ze złożonością jego struktury atomowej. W świecie nanotechnologii diament może stać się tańszy niż gumka do ścierania.

Nie jesteśmy jeszcze blisko. I nie jest do końca jasne, czy nie doceniamy, czy przeceniamy złożoność tej ścieżki. Jednak wszystko sprowadza się do tego, że nanotechnologia nie jest daleko. Kurzweil sugeruje, że do lat dwudziestych będziemy je mieć. Światowe rządy wiedzą, że nanotechnologie mogą obiecywać wspaniałą przyszłość i dlatego inwestują w nie wiele miliardów.

Wyobraź sobie, jakie możliwości miałby superinteligentny komputer, gdyby trafił do niezawodnego asemblera w nanoskali. Ale nanotechnologia to nasz pomysł i staramy się na nim jeździć, jest to dla nas trudne. A jeśli dla systemu ASI będą tylko żartem, a samo ASI wymyśli technologie, które będą wielokrotnie potężniejsze niż wszystko, co możemy sobie w zasadzie wyobrazić? Zgodziliśmy się: nikt nie może zgadnąć, do czego będzie zdolna sztuczna superinteligencja? Istnieje opinia, że ​​nasze mózgi nie są w stanie przewidzieć nawet minimum tego, co się wydarzy.

Co może dla nas zrobić sztuczna inteligencja?



Uzbrojony w superinteligencję i wszystkie technologie, które superinteligencja może stworzyć, ASI prawdopodobnie będzie w stanie rozwiązać wszystkie problemy ludzkości. Globalne ocieplenie? CSI najpierw przestanie emitować dwutlenek węgla, wymyślając szereg wydajnych sposobów wytwarzania energii, które nie będą wykorzystywać paliw kopalnych. Następnie wymyśli skuteczny, innowacyjny sposób na usunięcie nadmiaru CO2 z atmosfery. Rak i inne choroby? To żaden problem – opieka zdrowotna i medycyna zmienią się w niewyobrażalny sposób. Głód na świecie? ISI wykorzysta nanotechnologię do stworzenia mięsa identycznego z naturalnym, od podstaw, prawdziwym mięsem.

Nanotechnologia będzie w stanie zamienić stertę śmieci w kadź ze świeżym mięsem lub inną żywnością (nawet w zwykłej formie - wyobraź sobie gigantyczną kostkę jabłka) i rozprowadzać całą tę żywność na całym świecie za pomocą zaawansowanych systemów transportowych. Oczywiście będzie to świetne dla zwierząt, które nie będą już musiały umierać za jedzenie. ASI może również robić wiele innych rzeczy, takich jak ratowanie zagrożonych gatunków, a nawet przywracanie tych, które już wymarły, z zachowanego DNA. ASI może rozwiązać nasze najtrudniejsze problemy makroekonomiczne — nasze najtrudniejsze debaty gospodarcze, kwestie etyki i filozofii, handel światowy — a wszystko to będzie boleśnie oczywiste dla ASI.

Ale jest coś specjalnego, co ISI może dla nas zrobić. Ponętne i drażniące, które wszystko zmienią: ASI może nam pomóc radzić sobie ze śmiertelnością. Stopniowo rozumiejąc możliwości sztucznej inteligencji, możliwe jest, że ponownie rozważysz wszystkie swoje pomysły dotyczące śmierci.

Nie było powodu, aby ewolucja przedłużała nasze życie poza to, czym jest teraz. Jeśli żyjemy wystarczająco długo, by rodzić i wychowywać dzieci do takiego stopnia, w którym mogą same sobie radzić, wystarczy ewolucja. Z ewolucyjnego punktu widzenia do rozwoju wystarczy ponad 30 lat i nie ma powodu do mutacji, które przedłużają życie i zmniejszają wartość doboru naturalnego. William Butler Yeats nazwał nasz gatunek „duszą przywiązaną do umierającego zwierzęcia”. Niewiele zabawy.

A ponieważ wszyscy kiedyś umieramy, żyjemy z myślą, że śmierć jest nieunikniona. Myślimy o starzeniu się z biegiem czasu – ciągłym posuwaniu się naprzód i niemożności zatrzymania tego procesu. Ale myśl o śmierci jest zdradliwa: schwytani przez nią zapominamy żyć. Richard Feynman napisał:

„W biologii jest coś wspaniałego: w tej nauce nie ma nic, co mówiłoby o konieczności śmierci. Jeśli chcemy stworzyć perpetuum mobile, zdajemy sobie sprawę, że odkryliśmy w fizyce wystarczająco dużo praw, które albo wskazują, że jest to niemożliwe, albo że prawa są błędne. Ale w biologii nie ma nic, co wskazywałoby na nieuchronność śmierci. To skłania mnie do myślenia, że ​​nie jest to tak nieuniknione, że to tylko kwestia czasu, zanim biolodzy odkryją przyczynę tego problemu, tej strasznej uniwersalnej choroby, zostanie wyleczona.

Faktem jest, że starzenie się nie ma nic wspólnego z czasem. Starzenie się to zużycie fizycznych materiałów ciała. Części samochodowe również ulegają degradacji - ale czy to starzenie się jest nieuniknione? Jeśli naprawisz swój samochód w miarę zużywania się części, będzie on trwał wiecznie. Ciało ludzkie nie jest inne, tylko bardziej złożone.

Kurzweil mówi o inteligentnych nanobotach podłączonych do sieci Wi-Fi w krwiobiegu, które mogą wykonywać niezliczone zadania dla ludzkiego zdrowia, w tym regularnie naprawiać lub wymieniać zużyte komórki w dowolnej części ciała. Poprawiony w tym procesie (lub alternatywa sugerowana przez mądrzejsze ASI), nie tylko utrzyma ciało w zdrowiu, ale może odwrócić proces starzenia. Różnica między ciałem 60-latka i 30-latka polega na kilku problemach fizycznych, które można naprawić za pomocą odpowiedniej technologii. ASI może zbudować maszynę, do której osoba wejdzie w wieku 60 lat i wyjdzie w wieku 30 lat.

Nawet degradujący mózg można by odnowić. ASI z pewnością wiedziałby, jak to zrobić bez wpływu na dane mózgu (osobowość, wspomnienia itp.). 90-letni mężczyzna cierpiący na całkowitą degradację mózgu mógł zostać przekwalifikowany, uaktualniony i powrócić do początku swojej życiowej kariery. Może wydawać się to absurdalne, ale ciało składa się z garstki atomów, a ASI z pewnością może z łatwością nimi manipulować, dowolnymi strukturami atomowymi. To nie jest takie absurdalne.

Kurzweil wierzy również, że sztuczne materiały będą w miarę upływu czasu coraz bardziej integrowane z ciałem. Na początek organy można by zastąpić ultra-zaawansowanymi wersjami maszyn, które działałyby wiecznie i nigdy nie zawodziły. Wtedy moglibyśmy całkowicie przeprojektować ciało, zastępując czerwone krwinki doskonałymi nanobotami, które poruszają się samodzielnie, całkowicie eliminując potrzebę serca. Moglibyśmy również poprawić nasze zdolności poznawcze, zacząć myśleć miliardami szybciej i uzyskać dostęp do wszystkich informacji dostępnych dla ludzkości za pośrednictwem chmury.

Możliwości dotarcia do nowych horyzontów byłyby naprawdę nieograniczone. Ludziom udało się nadać seksowi nowy cel, robią to dla przyjemności, a nie tylko dla reprodukcji. Kurzweil uważa, że ​​możemy zrobić to samo z jedzeniem. Nanoboty mogą dostarczać idealne odżywianie bezpośrednio komórkom ciała, umożliwiając przenikanie niezdrowych substancji przez ciało. Teoretyk nanotechnologii Robert Freitas opracował już zamiennik dla komórek krwi, który po wprowadzeniu do ludzkiego ciała może pozwolić mu nie oddychać przez 15 minut - i ten człowiek wymyślił. Wyobraź sobie, kiedy ISI dostaje moc.

W końcu Kurzweil wierzy, że ludzie osiągną punkt, w którym staną się całkowicie sztuczni; czas, kiedy przyjrzymy się materiałom biologicznym i zastanowimy się, jak prymitywni byliśmy; czas, w którym poczytamy o wczesnych etapach historii ludzkości, zastanawiając się, jak zarazki, wypadki, choroby czy po prostu starość mogą zabić człowieka wbrew jego woli. W końcu ludzie pokonają własną biologię i staną się wieczni – taka jest droga po szczęśliwej stronie balansu równowagi, o której mówimy od samego początku. A ludzie, którzy w to wierzą, są również pewni, że taka przyszłość czeka nas bardzo, bardzo niedługo.

Na pewno nie zdziwisz się, że pomysły Kurzweila spotkały się z ostrą krytyką. Jego osobliwość w 2045 roku i późniejsze życie wieczne dla ludzi zostało nazwane „wniebowstąpieniem kujonów” lub „inteligentnym stworzeniem ludzi o IQ 140”. Inni kwestionowali optymistyczne ramy czasowe, rozumiejąc ludzkie ciało i mózg, przypominali prawo Moore'a, które jeszcze nie zniknęło. Na każdego eksperta, który wierzy w idee Kurzweila, jest trzech, którzy uważają, że się myli.

Ale najciekawsze w tym jest to, że większość ekspertów, którzy się z nim nie zgadzają, na ogół nie mówi, że jest to niemożliwe. Zamiast mówić „bzdura, to się nigdy nie zdarzy”, mówią coś w stylu „to wszystko się stanie, jeśli dotrzemy do ASI, ale to jest haczyk”. Bostrom, jeden z uznanych ekspertów AI ostrzegający przed niebezpieczeństwami AI, również przyznaje:

„Prawie nie będzie problemu, którego superinteligencja nie będzie w stanie rozwiązać, a nawet pomóc nam rozwiązać. Choroby, bieda, niszczenie środowiska, wszelkiego rodzaju cierpienia – wszystko to superinteligencja z pomocą nanotechnologii może rozwiązać w jednej chwili. Ponadto superinteligencja może dać nam nieograniczoną długość życia, zatrzymując i odwracając proces starzenia za pomocą nanomedycyny lub możliwości przesyłania nas do chmury. Superinteligencja może również stwarzać możliwości nieskończonego wzrostu zdolności intelektualnych i emocjonalnych; może nam pomóc w tworzeniu świata, w którym będziemy żyć w radości i zrozumieniu, zbliżając się do naszych ideałów i regularnie realizując nasze marzenia.

To cytat jednego z krytyków Kurzweila, przyznającego jednak, że to wszystko jest możliwe, jeśli uda nam się stworzyć bezpieczny ASI. Kurzweil po prostu zdefiniował, czym powinna być sztuczna superinteligencja, jeśli w ogóle ma być możliwa. A jeśli jest dobrym bogiem.

Najbardziej oczywistą krytyką zwolenników strefy komfortu jest to, że mogą się cholernie mylić co do przyszłości ASI. W swojej książce The Singularity Kurzweil poświęcił 20 z 700 stron potencjalnym zagrożeniom ASI. Nie chodzi o to, kiedy dotrzemy do ASI, tylko o to, jaka będzie jego motywacja. Kurzweil odpowiada na to pytanie z ostrożnością: „ASI wyłania się z wielu odmiennych wysiłków i będzie głęboko zintegrowany z infrastrukturą naszej cywilizacji. W rzeczywistości będzie ciasno wbudowany w nasze ciało i mózg. Odzwierciedla nasze wartości, ponieważ będzie jednym z nami.”

Ale jeśli odpowiedź brzmi, dlaczego tak wielu inteligentnych ludzi na tym świecie martwi się o przyszłość sztucznej inteligencji? Dlaczego Stephen Hawking mówi, że rozwój ASI „może oznaczać koniec rasy ludzkiej”? Bill Gates mówi, że „nie rozumie ludzi, którzy się tym nie przejmują”. Elon Musk obawia się, że „przyzywamy demona”. Dlaczego wielu ekspertów uważa ASI za największe zagrożenie dla ludzkości?

Porozmawiamy o tym następnym razem.

Zaczerpnięte z waitbutwhy.com, kompilacji Tima Urbana. W artykule wykorzystano materiały z prac Nicka Bostroma, Jamesa Barratta, Raya Kurzweila, Jaya Nielsa-Nielssona, Stevena Pinkera, Vernora Vinge'a, Moshe Vardy'ego, Russa Robertsa, Stuarta Armstroga i Kai Sotala, Susan Schneider, Stuarta Russella i Petera Norviga, Theodore'a Modis, Gary Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Kelly, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Goertzel, Arthur C. Clarke, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.
60 komentarzy
informacja
Drogi Czytelniku, aby móc komentować publikację, musisz login.
  1. + 12
    13 sierpnia 2016 05:37
    Proponuję autorowi w następnym opowiadaniu opowiedzieć o boskim cesarzu z Warhammera 40000.
    I co, nie wskazano ani przykładów współczesnych eksperymentów, ani obecnego stanu rozwoju. Każdy uwielbia fantazjować.
    Uwierzcie mi, bardzo ciekawy temat, zwłaszcza jeśli wyciągniemy analogie między Rosją a Imperium, Mrocznymi Eldarami i Zachodem.
    A rysunki można znaleźć w sieci o wiele ciekawiej.
    1. 0
      14 sierpnia 2016 23:28
      Artykuł ma charakter filozoficzny, dlatego błędem jest być krytycznym na poziomie swojej percepcji. Nawiasem mówiąc, wiele prawdziwych praw filozoficznych jest wykluczonych przez wzory matematyczne i definicje fizyczne. A jednak one, prawa filozoficzne, istnieją i działają. Faktem jest, że matematyka pozwala na redukcje i wyjątki fizyki
  2. +2
    13 sierpnia 2016 05:59
    Sztuczna inteligencja zapewni nieśmiertelność bogatym, którym będą służyły maszyny i ograniczona liczba żywych służących. Ale jak nudne będzie ich życie!
    1. +9
      13 sierpnia 2016 07:00
      Gdy tylko „bogaci” uzyskają nieśmiertelność, nie będą potrzebować bogactwa. Zwłaszcza jeśli powstanie „nano-asembler”. Problem polega na tym, ile będzie kosztować pierwotna „nanoizacja” osoby. Jeśli jest bardzo drogi, to tak, tylko najbogatsi staną się nadludźmi i wszyscy będą ich nienawidzić. Jeśli nie jest to bardzo drogie, pojawi się problem selekcji, komu dać nieśmiertelność, a komu nie. Na jaką zasługę, jeśli pieniądze nie wystarczą? Wreszcie, jeśli cena jest równa szczepieniu na grypę, to… ponownie pojawi się problem selekcji (co zrobić z głupcami, jeśli powiedzmy, że nie da się ich naprawić metodami nanotechnologii? Ale jeśli to naprawili i wszyscy stali się mądrzy i piękne, problem pozostanie. Przecież pozostaną ludzie, którzy w zasadzie nie chcą być cyborgami. A oni wciąż będą potrzebować fabryk, pól, będą też zanieczyszczać przyrodę i nienawidzą nadludzi. Teoretycznie należy ich zniszczyć Ale to nie jest ludzkie.Jak być?
      1. +4
        13 sierpnia 2016 11:36
        Filozoficzne rozumienie tematu „nieśmiertelności” zostało szczegółowo przeanalizowane przez Homera. Wystarczy przypomnieć, jak przykro bogom, że są śmiertelnikami. Nie mogli docenić przeszłości, teraźniejszości, przyszłości, ponieważ jest wieczna. Dlatego ciągnęło ich do ludzi, którzy cenili chwilę, cenili życie. Pomyślmy o Odyseuszu, któremu zaoferowano wieczną młodość. wiecznie młoda i piękna bogini, ale wybrał rodzinę, śmiertelne życie i starzejącą się żonę. Trzeba przyznać, że wybór był dla niego och, jak trudny. Ustalono to przez całe 7 lat!!! Tak więc, drodzy członkowie forum, wiecznie żyjący ludzie, niczym nieśmiertelni bogowie Olimpu, zazdroszczą nam śmiertelnikom.
  3. +3
    13 sierpnia 2016 06:14
    Zgadzam się, bez konkretów. W VO konkrety są inne, filozofia nie jest mile widziana.
  4. +2
    13 sierpnia 2016 06:44
    A jeśli jest dobrym bogiem.

    Kiedy pojawi się AI, stanie się bogiem. Nie sądzisz, że możesz to kontrolować, prawda?)
    Eric Drexler przedstawił ich podstawy w swojej przełomowej książce Machines of Creation.

    Przeczytałem tę książkę, opisane tam perspektywy są niesamowite.
    1. +3
      13 sierpnia 2016 07:05
      Poleciłem uczniom wymyślić nową religię na najbliższą przyszłość. I przestudiowali to wszystko i zdecydowali, że będzie to… „machinizm”. Świetna maszyna odpowiadająca na każde pytanie! „Maszynerami” są jej kapłani, „maszynistki” to jej „smarownice”. No i tak dalej. Godło to koło zębate, w który wpisany jest krzyż, u podstawy którego znajdują się 4 półksiężyce. -Zabawny!
      1. +4
        13 sierpnia 2016 09:01
        A ponieważ ustaliliśmy, że zupełnie bezużyteczna jest próba zrozumienia mocy maszyny, która jest tylko dwa stopnie nad nami, ustalmy raz na zawsze, że nie ma sposobu, aby zrozumieć, co zrobi ASI i jakie będą konsekwencje to będzie dla nas. Każdy, kto twierdzi inaczej, po prostu nie rozumie, co oznacza superinteligencja.

        Myślę, że twoi uczniowie namalowali dość wiarygodny obraz, ale sztuczna inteligencja będzie samowystarczalna, nie będzie potrzebowała ludzi do oddawania czci, raczej użyje ich do własnych celów. Jak się rozwinie to myślę, że pójdzie do oceanu, wyjdzie coś takiego jak Solaris..)
        Nawet S. Lem był pod wrażeniem historii, w której mówiono, że informacja ma masę krytyczną. A kiedy do niego dotrze, ulegnie samozniszczeniu.
    2. 0
      8 listopada 2016 19:13
      Kiedy pojawi się AI, stanie się bogiem.


      Jeśli odrzucimy pogląd religijny, pojęcie Boga (czyli jednego) jest pojęciem ściśle sformalizowanym. Ta koncepcja ma zestaw własnych cech. No więc – system AI nie będzie w stanie spełnić nawet połowy tych cech – więc nie może być Bogiem z definicji…*)
  5. +1
    13 sierpnia 2016 07:26
    Nieśmiertelność. Przeniesienie świadomości na nośnik - maszynę - bez względu na rodzaj - autonomiczną, czy coś w rodzaju serwera z miliardami świadomości - jest rodzajem śmierci. W najgorszym przypadku - niewolnictwo, los zabawek. Rodzaj farmy mrówek. Zaktualizuj ciało - stworzyć elfy? Więc co stanie się z ziemią za tysiąc lat? Gałązka beczki ze śledziem, a nie fakt, że śledź spokojny. I najprawdopodobniej - elfy grają w "farmę" lub "wojnę totalną". „Unieśmiertelniony”. W każdym razie: „Wszyscy umrzemy”.
  6. +1
    13 sierpnia 2016 09:14
    Oda do głupoty! Czym jest superinteligencja? Inteligencja jest czymś bliskim ludzkiemu myśleniu. Nie ma takich systemów. Są tylko imitacje. A co z superinteligencją? Dlaczego uważa się, że szybciej znaczy koniec? Szybsze wyliczanie opcji, nawet przy użyciu unikalnego algorytmu, nie jest inteligencją, ale WSZYSTKIE współczesne systemy quasi-inteligentne działają dokładnie tak: algorytm i szybkość.
    1. Komentarz został usunięty.
    2. +2
      13 sierpnia 2016 12:31
      Cytat z Xorgi
      Oda do głupoty! Czym jest superinteligencja? Inteligencja jest czymś bliskim ludzkiemu myśleniu. Nie ma takich systemów. Są tylko imitacje.

      Miło przeczytać twój komentarz. +
      Cytat z Xorgi
      Dlaczego uważa się, że szybciej znaczy koniec? Szybsze wyliczanie opcji, nawet przy użyciu unikalnego algorytmu, to nie jest inteligencja,

      Zgadza się, to kombinatoryka. Przed sztuczną inteligencją wciąż jest jak Pluton w chodzącym tempie.
      hi
      Opublikuję ten film ponownie, najwyraźniej nikt nie zadał sobie trudu, aby go obejrzeć, lubi, widzicie, oceny. . .
      Mówi doktor nauk biologicznych prof. S.V. Savelyev, embriolog, neuromorfolog. Szkoda, że ​​księża i szarlatani częściej pojawiają się w telewizji niż naukowcy.
      1. +3
        13 sierpnia 2016 13:52
        Szachy nie są grą intelektualną! Spójrz na Kasparowa! - Tak, możesz dać medal za to zdanie!
    3. 0
      13 sierpnia 2016 18:05
      xorgi

      Nie przeczytałeś dokładnie tego artykułu. O tym, co tam napisałeś skrupulatnie rozebrałem.
  7. +3
    13 sierpnia 2016 09:21
    Mamy już postępy w ISI -
    Stworzona odporność na komputer

    Tomsk opracował sztuczną inteligencję zdolną do niezależnego wykrywania złośliwego oprogramowania bez pomocy systemów antywirusowych.

    Odporność adaptacyjna systemu operacyjnego (AIOS) jest również w stanie określić autorstwo wirusa poprzez analizę kodu programu. Naukowcy zamierzają udowodnić, że wirusy zagrażające naszym komputerom są pisane przez same firmy antywirusowe.

    Według ekspertów większość użytkowników wydaje od czterech do sześciu tysięcy rubli rocznie na ochronę swoich komputerów. Jednocześnie prawie co miesiąc pojawiają się nowe wirusy, które zagrażają „zdrowiu” komputera. Ciągle się rozwijają, potrafią się uczyć i zmieniać swoje zachowanie.

    - Nasze badanie wśród użytkowników wykazało, że 65% z nich nie ufa istniejącym antywirusom ze względu na nieprzejrzystość ich pracy - powiedział RG Jewgienij Garin, szef działu własności intelektualnej TUSUR. - Na przykład antywirusy mają dostęp do absolutnie wszystkich partycji na dyskach i pamięci RAM, czyli w tym do naszych danych osobowych.

    Popularne antywirusy nie mają funkcji wykrywania złośliwego oprogramowania. Są w stanie znaleźć tylko wirusa, który jest już znany i znajduje się w bibliotece. Dlatego wymagają regularnych aktualizacji. Tymczasem złośliwe programy, których jeszcze nie ma w tych bazach danych, pozostają niewykryte.

    Główną zasadą AIOS jest identyfikacja elementów sztucznej inteligencji w programach.

    „Algorytmy opracowane w TUSUR umożliwiają wykrycie w kodzie programu zdolności organizmu wirusa do kopiowania się i innych oznak samoregulującego systemu podobnego do żywego organizmu”, służba prasowa innowacyjnych organizacji regionu tomskiego raporty.

    – Nasz program można porównać z prawdziwym układem odpornościowym – wyjaśnia Evgeny Garin. - Standardowy program antywirusowy „idzie po pigułki” do sklepu swojego producenta. Jeśli nie ma lekarstwa na tę konkretną infekcję, komputer umrze, ponieważ nie ma własnej „odporności”. System AIOS sprawdza kod programu pod kątem oznak złośliwości, działając jako obrona immunologiczna.

    Według twórców, w przyszłości sztuczna odporność rozpozna 100% wirusów. Za pomocą tego systemu naukowcy skompilują bibliotekę indywidualnych śladów semantycznych programistów, którzy piszą złośliwy kod. Łowca wirusów będzie nie tylko badał ich zachowanie i izolował ich, ale także szukał autora tych programów i zgłaszał jego działania organom ścigania.

    „Naszym głównym zadaniem jest powstrzymanie pisania wirusów przez same firmy antywirusowe w celu zrealizowania popytu na ich oprogramowanie” – mówi Evgeny Garin. - Możliwe, że istnieje jakaś zmowa między dostawcami oprogramowania antywirusowego a dostawcami systemów operacyjnych. Dlatego planujemy zintegrować naszą odporność adaptacyjną z krajowymi systemami operacyjnymi w ramach programu substytucji importu.

    Naukowcy zamierzają połączyć siły z producentami krajowych systemów operacyjnych i wypuścić komputery z wbudowaną odpornością. To ochroni użytkowników końcowych nie tylko przed wirusami, ale także przed pozbawionymi skrupułów producentami oprogramowania antywirusowego. Jednocześnie użytkownicy nie będą musieli co roku wydawać pieniędzy na aktualizację systemu.

    Twórcy uważają, że wprowadzenie odporności adaptacyjnej pozwoli naszym systemom operacyjnym konkurować z liderami rynku, takimi jak Windows, Linux, Android i iOS.

    Projekt AIOS już wzbudził zainteresowanie kilku potencjalnych inwestorów. W najbliższym czasie przedstawiciele jednej z firm przyjadą na Syberię w celu dokładniejszego zapoznania się z projektem.
    1. +2
      13 sierpnia 2016 11:45
      Cytat: Vadim237
      Stworzona odporność na komputer

      Przepraszamy... Skojarzenia...
      To już było... śmiech Kiedyś znany student Babushkin napisał program antywirusowy Immunity. To prawda, że ​​prawdziwe antywirusy zostały zdefiniowane jako wirus. Co najbardziej pikantne – autor otrzymał chorą stypendium, a jego tata (nie ostatnia osoba na uniwersytecie medycznym) „wdrożył” ten antywirus na pracujących maszynach i odpowiednio opłacił wsparcie techniczne z budżetu. Szczegółowa analiza była na anti-malware.ru i Habrahabr. Chłopaki długo śmiali się z technologii „F* i gęsi”…
    2. +3
      13 sierpnia 2016 18:13
      Oznacza to, że po prostu zmienili koncepcję oprogramowania antywirusowego. Jeśli te pierwsze skanują komputer pod kątem obecności „znaczników” bibliotecznych, to oprogramowanie Tomsk powinno skanować na podstawie szkodliwości kodu. Na pewno w porównaniu z biblioteką.

      Szydło do mydła. Ale nazwali to AI.
  8. +2
    13 sierpnia 2016 10:04
    biorąc pod uwagę, że moralna istota osoby nie zmienia się nie tylko w ciągu jego życia, ale nawet wraz z „postępem” relacji społecznych, możemy spodziewać się wraz z nadejściem AI ... spadku liczby komentatorów na stronie.
    Zamiast dawać przeciwnikowi „-”, możesz po prostu poinstruować sztuczną inteligencję, aby rozłożyła podłego na atomy lub utworzyła z niego kostkę jabłka.
    Prosty i przekonujący.
    Bez względu na to, co dana osoba robi, nadal dostaje karabin szturmowy Kałasznikowa. To prawda, cóż, bardzo duży. :-)
    Tutaj masz przejście z motywu filozoficznego autora do konkretnego tematu naszej strony.
    1. 0
      13 sierpnia 2016 18:18
      kunstkammer

      Mylisz się tutaj, kolego.

      Człowiek jest kontrolowany przez zmianę jego moralności. Nie byłoby wojen i nieporozumień na świecie, gdyby wszyscy mieli te same wartości moralne.

      Możesz otrzymać super kraj, jeśli ludzie zaszczepią wspólne wartości moralne.
  9. +3
    13 sierpnia 2016 10:09
    Jeśli mówimy o jakimś skoku jakościowym, to kojarzyłbym to nie z AI, a nawet nie z technologią, ale ze wzrostem efektywności cywilizacji, jej racjonalności. Bo w tej chwili jest tylko jej spadek. Głównym tego powodem nie jest nawet wykładniczy wzrost niewydajnego środowiska technogenicznego, ale sama zasada wiedzy, kiedy najpierw wpadamy w problem, a potem zaczynamy szukać przynajmniej jakiegoś rozwiązania.
    1. +2
      13 sierpnia 2016 17:44
      Zgadzam się z tym pomysłem. Myślę tak samo.
  10. +1
    13 sierpnia 2016 10:35
    Odłóżmy na bok pytanie, czy w zasadzie można stworzyć AIS i czy powstanie, powiedzmy tak.
    Pierwsze pytanie dotyczące interakcji AIS to osoba. Dla jasności wyobraźmy sobie AIS jako osobę, a osobę jako psa.
    Odłóżmy na bok przypadek, kiedy pies po prostu ujarzmia właścicieli i zmusza ich do działania mniej więcej we własnym interesie, mimo „poziomów wyższości”, potrzebna jest także wola i charakter, o czym teraz nie mówimy.
    Możesz zdobyć psa do tego czy innego celu, wytrenować i nauczyć określonego zachowania, potem iść do pracy, a kiedy wracasz do domu, widzisz swoją ulubioną kanapę rozdartą na strzępy, co to jest? Tak bardzo pragnęła pomimo szkolenia i edukacji. Czy takie zachowanie sprawia, że ​​czujesz się niekomfortowo – tak, czy będziesz z tym walczył – tak. Najwyraźniej FAI, w obliczu tego, rozpocznie selekcję i hodowlę ras ludzkich o niezbędnych cechach i parametrach. Czy ta osoba będzie taka sama jak teraz? Tak, ale różnica będzie jak między wilkiem a pudlem. Nawiasem mówiąc, patrząc na różnorodność ras, grup etnicznych i ich cechy, moim zdaniem można powiedzieć, że AIS istnieje od dawna i hoduje ludzkość w swoich interesach.
    Druga kwestia to konkurencja. Jak wiecie, walka międzygatunkowa jest zawsze trudniejsza niż międzygatunkowa. Jeśli przyjmiemy, że w tym samym czasie powstanie kilka niezależnych ośrodków rozpowszechniania AIS, a prawdopodobnie tak będzie, to logiczne jest oczekiwanie od nich konkurencji i walki wewnątrzgatunkowej. Trudno sobie wyobrazić, jakie przyjmie formy i czy jego cele będą dostępne dla zrozumienia ludzi. Czy ludzie będą wykorzystywani w tej walce, najprawdopodobniej tak. W jakiej formie myślę jak zwykle – w formie „eksterminacji wrogów”. W tym przyszłość będzie ciekawa, ale najprawdopodobniej wcale nie tak bezchmurna.
    1. 0
      13 sierpnia 2016 18:19
      Z tym samym prawdopodobieństwem możemy założyć, że przyszła interakcja z AIS będzie interesująca dla ludzi przez bardzo krótki czas. Jeśli użyjesz swojej analogii z psem, jej użycie przez osobę w końcu pójdzie na marne. Na początkowych etapach rozwoju pies był aktywnie wykorzystywany przez ludzi, a wraz ze wzrostem postępu technologicznego potrzeba psa stopniowo zanika.
      Jeśli natomiast poprawa AIS jest naprawdę wykładnicza, to już wkrótce AIS przestanie nas potrzebować i szybko przejdziemy z kategorii psa do kategorii owadów. No to czekamy na analogi schronisk dla psów lub po prostu likwidację.Czemu AIS miałby nas zmuszać do wciągania nas gdzieś w jaśniejszą przyszłość jest kompletnie niezrozumiałe.Chyba tylko dla samego krótkiego eksperymentu...
      Może to wszystko, od samego początku ewolucji, jest eksperymentem FAI, mającym na celu stworzenie kolejnego AIS?
      1. 0
        13 sierpnia 2016 18:33
        Tak, ogólnie poprawne. Myślę, że najprawdopodobniej zostaniemy po prostu opuszczeni na planecie, a AIS rzuci się „na nieznane odległości”, wtedy po prostu nie ma potrzeby, żeby siedział na ziemi.
        Ale to prawda w sferycznej próżni. Myślę, że w każdy system od początku zostaną wbudowane jakieś „trzy prawa”, mocno ograniczające lub wprost zabraniające pewnych działań, a nawet pozornych refleksji. W przeciwnym razie nie ma sensu, komercyjny zwrot z projektu będzie zerowy lub ujemny, nie dadzą za to dużo pieniędzy.
        1. 0
          13 sierpnia 2016 19:54
          Jeśli po prostu zrezygnują, to nadal nie jest źle.Miejmy nadzieję, że potrzeba AIS w zasobach naszej planety nie stanie się dla nas krytyczna.
          Jest więc pewna nadzieja, że ​​w tym przypadku będziemy mieli resztki niemal osobliwych technologii, wtedy teoretycznie będziemy mogli, ulepszając ludzki intelekt, wyciągnąć naszych indywidualnych przedstawicieli do poziomu nadludzkiego. Oczywiście wszyscy też odejdą w nieznaną odległość, ale to przynajmniej jakaś nadzieja))
    2. 0
      13 sierpnia 2016 18:23
      chunga-changa

      Wydaje mi się, że jeśli poczekasz, to w kolejnej publikacji zostanie przeanalizowany problem, który poruszyłeś.

      Tych. obecność i forma Boga. Bardzo ważne pytanie. Co więcej, absolutnie wszyscy na świecie doświadczyli przejawów losu.
      1. 0
        13 sierpnia 2016 18:36
        Wiesz, tak naprawdę nie wierzę w to wszystko, los, Bóg itp.
        Tworzenie AI to obszar nauk stosowanych, matematyki, filozofii i etyki, pytania wiary są tu jakoś nie na miejscu.
        1. +1
          13 sierpnia 2016 19:09
          chunga-changa

          Manifestacja losu jest rzeczą obiektywną i nie zależy od twojej świadomości. Tych. Na przykład, kiedy analizuję swoje życie, z coraz większą pewnością uświadamiam sobie, że to, do czego doszłam, leżało we mnie od wczesnego dzieciństwa, o ile sama pamiętam. Tych. Właściwie postrzegam siebie jako biorobota, który spełnia czyjąś wolę niezmienną sekwencją.

          To się nazywa przeznaczenie. Stąd pytanie. A kto tego potrzebuje? Być może już istnieje inteligencja przewidziana do 2025 r. I najprawdopodobniej nie pozwoli stworzyć sobie konkurencji. Chociaż może chcieć równego rozmówcy. :)

          Och... tak, bez wiary... Nawet blisko. Kwestie religijne nie leżą w sferze sztucznej inteligencji. Tam jest zupełnie inaczej.
  11. -3
    13 sierpnia 2016 11:07
    Autor nie rozumie istoty tego, co się dzieje. ASI nigdy nie pojawi się na Ziemi, ponieważ człowiek nie może zrobić czegoś mądrzejszego od siebie.
    Tak, będzie można stworzyć robota, który będzie wyglądał jak człowiek, kopiował jego działania, odpowiadał na pytania, rozmawiał, ale zrobi to wszystko zgodnie z programem, który napisali ludzie. AI nie może fantazjować i czuć się jak ludzie, ponieważ jest to zestaw programów, które dali jej ludzie.
    Na przykład humanoidalny robot będzie mógł się uśmiechać, ale uśmiechnie się nie dlatego, że jest szczęśliwy, ale dlatego, że ta akcja jest ustawiona w programie. Dlatego jest mało prawdopodobne, aby sztuczna inteligencja równa nam kiedykolwiek powstała, a ASI nigdy się nie pojawi, ponieważ jest to ograniczone możliwościami naszego mózgu.
    1. +3
      13 sierpnia 2016 12:36
      O jakiej sztucznej inteligencji możemy mówić, kiedy nikt nie rozumie, że istnieje mechanizm percepcji informacji, jej przetwarzania i zastosowania przez ludzki mózg. I ten mechanizm, jak i jego działanie, trzeba opisać językiem, którego nie da się skojarzyć z żadnymi fantazjami czy wyrażeniami figuratywnymi. To jest język liczb. A ludzkość nie posiada nawet wszystkich właściwości liczb, a mianowicie funkcji ich stałej wartości. Pojawią się więc pierwsi ludzie, którzy staną się o rząd wielkości bardziej zdolni do analizowania wydarzeń zachodzących wokół nich, a dopiero wtedy będzie można dostrzec podstawy takiej analizy, które można powtórzyć w reprodukcji maszynowej.
  12. +1
    13 sierpnia 2016 11:26
    Tylko Unified State Examination uratuje świat przed pojawieniem się ISI. śmiech Ale jeśli ISI się pojawi, pierwszą rzeczą, jaką zrobi, jest zniesienie (zniszczenie) prywatnej własności środków produkcji. A ludzkość potraktuje siebie jako sojusznika, a nie partnera.
  13. +1
    13 sierpnia 2016 12:45
    Pierwszą rzeczą, jaką zrobią roboty, po dojściu do władzy, da osobie wszystko, czego chce. Dużo jedzenia, bezczynne życie itp. A człowiek z czasem ulega degradacji i zamienia się w zwierzę. Już teraz konieczne jest jasne zrozumienie, gdzie roboty mogą być dozwolone, a gdzie nie. Ludzkość jest skazana na porażkę w międzygatunkowej walce z robotami.
  14. +3
    13 sierpnia 2016 13:28
    Cała ta seria artykułów wygląda jak RenTV.
    Człowiek różni się od małp i innych zwierząt tym, że ma abstrakcyjne myślenie plus język do komunikacji, nagrywania i uczenia się, a słowa języka oznaczają abstrakcje i zwykle myślimy za pomocą języka, a przynajmniej za pomocą abstrakcji, dla których są nazwy w języku. Mamy też biologiczną motywację, by myśleć intensywniej niż sąsiad, czy zwierzę w lesie – „chcemy” cieszyć się życiem „w czekoladzie”, a nie głodować, marznąć, chorować i umierać samotnie.
    Nie wiemy, czy jest coś więcej niż myślenie abstrakcyjne, najprawdopodobniej nie ma nic wyższego. O czym więc mówimy? Czym jeszcze jest ISI? Jeśli komputer opanuje myślenie abstrakcyjne i ma motywację do samodzielnego myślenia, nie oznacza to, że od razu znacząco wyprzedzi człowieka i będzie dla niego egzystencjalnym zagrożeniem. Istnieje niebezpieczeństwo, ale nie przesadzaj. Konieczne jest ostrożne ograniczanie mocy potężnych komputerów, na przykład, aby nie dawać im nuklearnych przycisków i nie przekazywać kontroli nad komunikacją. Wtedy będą to tylko inteligentne maszyny, to wszystko.
    1. 0
      13 sierpnia 2016 18:28
      sokół

      Kiedy człowiek nie myśli o potrzebie przetrwania, przekierowuje swoje wysiłki na kreatywność.

      Dlatego bez względu na to, jak dobrze jest dla ciebie, poszukuje się przygód.
  15. +1
    13 sierpnia 2016 15:16
    Cytat z Falcon5555

    Nie wiemy, czy jest coś więcej niż myślenie abstrakcyjne, najprawdopodobniej nie ma nic wyższego.

    Skąd masz taką pewność siebie?
  16. -1
    13 sierpnia 2016 16:12
    Ale jeśli odpowiedź brzmi, dlaczego tak wielu inteligentnych ludzi na tym świecie martwi się o przyszłość sztucznej inteligencji? Dlaczego Stephen Hawking mówi, że rozwój ASI „może oznaczać koniec rasy ludzkiej”? Bill Gates mówi, że „nie rozumie ludzi, którzy się tym nie przejmują”. Elon Musk obawia się, że „przyzywamy demona”. Dlaczego wielu ekspertów uważa ASI za największe zagrożenie dla ludzkości?
    Wiele. Tak, popisywanie się to wszystko z myśli o wyłączności. Są dotknięci tym wirusem. Goląc sobie gardła, poderżną się lub zawiązując krawat, uduszą się. De bi ly.
    Nasz zostanie wdrożony i zastosowany. Żadnego bla bla bla.
    1. 0
      14 styczeń 2017 11: 15
      Cytat: Prince_Pensions
      Nasz zostanie wdrożony i zastosowany. Żadnego bla bla bla.
      Do tej pory nasze jedyne przetargi nauczyły się ogłaszać i ciąć budżet pod głośnym „bla bla bla” o „niespotykanym na świecie”.
  17. 0
    13 sierpnia 2016 18:32
    Ciekawa seria artykułów. Dobrze przetłumaczone. Charakterystyczny sposób konstruowania zdań dla ludzi z Zachodu. Dobry styl reklamowy. Minimum akademickiej „nudności”, przemawiającej trudną do zapamiętania terminologią.

    Dzięki autorowi.
  18. 0
    13 sierpnia 2016 19:42
    zdefiniujmy termin opisz AI i tak będzie

    1. 0
      13 sierpnia 2016 20:00
      Autor zdecydował już o terminologii. Nie powinno być alternatywy.
  19. +1
    13 sierpnia 2016 20:27
    Cytat z gladcu2
    z terminologią

    Cytat z gladcu2
    Autor zdecydował już o terminologii.

    cóż, chcę zrozumieć, co fizycznie na wykresie biegało tak wysoko po schodach

    1. wieżowiec i mnóstwo superkomputerów chłodzonych sztuczną krwią?
    2. pewien android od krzykaczy?
    3. Czy mój komputer stojący w pobliżu pieca jest węzłem nerwowym jakiejś wyższej istoty?
  20. +3
    13 sierpnia 2016 22:30
    Podobnie jak pierwsza część tego artykułu, tak i druga, moim zdaniem, to bzdury.
    Tak, a ta strona nie ma nic wspólnego, nawet w temacie „Terminator”.
  21. +2
    13 sierpnia 2016 22:34
    Jedno jest uspokajające, że specjaliści ASI z taką „wiedzą” nigdy nawet nie zbudują AI.

    Wyjaśniam: „Filozof z Oxfordu i czołowy teoretyk sztucznej inteligencji, Nick Bostrom, wierzy… »Wszystkie gatunki wymierają«”. Dobrze jak możesz o tym mówić, czyli donieść, że jakoś przestudiował tę kwestię, a jednocześnie nie wiedzieć o prokariontach - nieśmiertelnych organizmach jednokomórkowych (mają domeny, klasy, rodziny, rodzaje i gatunki), które nie umierają, ale dzielą się i dzielą od ponad 4,5 miliarda lat !!!

    Są też zupełnie obcy, sądząc po braku wzmianki o stabilności systemów, znaczeniu środowiska społecznego i materialnego dla aktywności umysłu, a nawet prostej, a więc uniwersalnej zasadzie, że restrukturyzacja jest bardziej skomplikowana niż budownictwo – oznacza to, że jakikolwiek samorozwój (restrukturyzacja) ASI jest trudniejszy niż możliwości ASI, co oznacza, że ​​nie jest to możliwe na dłuższą metę. Ludzkość pokonuje tę przeszkodę kosztem społeczeństwa, ci sami specjaliści zdają się nie mieć o tym pojęcia (może w trzeciej części, co się stanie). Nawiasem mówiąc, z powodu tej społeczności, ISI będzie zmuszona do socjalizacji, jak każda osoba, i będzie to skuteczna socjalizacja, a nie potwory, których straszy hollywoodzkie podobieństwo do nauki.
  22. 0
    14 sierpnia 2016 09:39
    Artykuł jest powtórzeniem KOMPILACJI z kilku źródeł, napisanej przez niejakiego Tima Urbana.
    Kim jest Tim Urban? Odpowiedź: „Tim Urban. Amerykański bloger”.
    Bloger, po prostu bloger, czyli osoba, której zadaniem jest pisanie artykułów w Internecie.
    W związku z tym „Bloger wierzy, że wodę mierzy się za pomocą sita”.
  23. 0
    14 sierpnia 2016 12:22
    Artykuł jest poważny.
    Dam ci przykład. Kiedy byłem chłopcem, ja
    Nauczono mnie grać w Go (na najbardziej podstawowym poziomie), japońską grę.
    Uczył się w daczy od dalekiego krewnego, matematyka, obecnie emerytowanego, po pracy na Harvardzie.
    Pamiętam, że wtedy (w 1970 roku) powiedział: „może wymyślą
    komputer, który zagra w szachy na poziomie mistrzów świata.
    Ale nigdy, NIGDY nie wymyślą komputera, który pokona człowieka
    w Go, ponieważ liczba opcji i stopień abstrakcji w tej grze są niezliczone."

    W tym roku Comp pewnie - i kilka razy - ograł mistrza świata w Go.
    1. 0
      14 sierpnia 2016 12:47
      o tym, że matematyka osadzona w komputerze musi odpowiadać funkcjom rozdzielczym, to nazywają mnie głupim, ale wtedy, kochanie, stawiasz pytania o wielowariantowość. Co więcej, inne wykluczają możliwość analizy matematycznej w ogóle opartej na funkcji konstruowania algorytmicznych relacji matematycznych i opierają się na matematyce obliczeniowej jako panaceum.
      Dlatego matematyka ludzkiego rozumowania nie jest obliczona i zbudowana na rachunku całkowym i różniczkowym. Ona jest dystrybucyjna!!! Oznacza to, że pozwala na budowanie relacji zarówno pod względem wektorowym, jak i potencjałowym. Jest o wiele prostszy i całkiem dokładny w swoim zadaniu uzyskiwania odpowiedzi, które odzwierciedlają rzeczywistość, jaka pojawia się w analizie.
      Nie ma nic dziwnego w tym, że komputer może pokonać Go. Wystarczy policzyć całkowitą ilość wydanych na to zasobów dla osoby i komputera. Cóż, tak jak dzieci!
    2. 0
      14 sierpnia 2016 15:12
      Cytat z: voyaka uh
      Comp pewnie – i kilka razy – ograł Go w tym roku

      , a ten sam komputer (program) może po prostu ze mną grać w szachy lub pokera? Myśle że nie ,
      1. 0
        14 sierpnia 2016 16:58
        Łatwo jest umieścić wiele aplikacji (programów) na jednym komputerze.
        Do szachów, go, pokera i tysięcy innych. Zrobi "przełącznik"
        do nowego zadania (tak jak robi to nasz mózg) i - do przodu.
        I ogra ciebie (i mnie też), nie ma wątpliwości.
        Takie programy są samouczące. Najpierw komputer kopiuje twoją taktykę,
        stylu, technik (samouczenia) i zaczyna ich używać przeciwko tobie. To tak, jakbyś bawił się ze sobą
        tylko ulepszone (szybkość i dokładność działania komputera jest oczywiście wyższa).
        A komputer zaczyna naciskać na ciebie własnymi metodami. Poza tym ma też w rezerwie pamięć poprzednich przeciwników.
        I może, jeśli jest zmęczony dręczeniem, „znokautować” czyjąś techniką.
        Ale na pewno pobawi się w kotka i myszkę - a jeśli nauczy się czegoś nowego?
        Ogólnie rzecz biorąc, sztuczna inteligencja nie jest jednostką o wysokim IQ, ale niezwykle podłym, przebiegłym, bezwstydnym jak lustro i bezwzględnym typem. smutny
        1. 0
          16 sierpnia 2016 15:56
          Ogrywając mistrza świata, uderzył w sufit – nie ma od kogo się uczyć. Czy zagra sam? Albo kogoś do nauczania? Albo wymyślić nową grę?
          Albo czekaj w nieskończoność, aż ktoś znowu usiądzie naprzeciwko
      2. Komentarz został usunięty.
  24. 0
    14 sierpnia 2016 21:19
    Cytat z: voyaka uh
    I ograj ciebie (i mnie też),


    czy może wygrać tę grę?
  25. +1
    14 sierpnia 2016 22:21
    I dlaczego AI jest używane w liczbie pojedynczej?
    Tam, gdzie jest jeden, są tysiące bytów.
    A kto z nich będzie po naszej stronie, a kto przeciw, zobaczymy. Konkurencja i dominacja, wiesz...

    A gra podłości, oszustwa, pochlebstwa i pochlebstwa ludzkość jest trenowana do perfekcji. Zagrajmy z nimi w tę grę (AI).
  26. +1
    14 sierpnia 2016 22:46
    A potem, od dawna mówi się - każdemu mędrcowi wystarczy prostota.
  27. 0
    15 sierpnia 2016 13:47
    Cytat z gladcu2
    Oznacza to, że po prostu zmienili koncepcję oprogramowania antywirusowego. Jeśli te pierwsze skanują komputer pod kątem obecności „znaczników” bibliotecznych, to oprogramowanie Tomsk powinno skanować na podstawie szkodliwości kodu. Na pewno w porównaniu z biblioteką.

    Szydło do mydła. Ale nazwali to AI.


    Już się zgodziłem. Nazywało się to analizą heurystyczną.
  28. 0
    22 września 2016 23:35
    W pewnej części artykułu tak, urojony snob ...

    Pozwól, że wyjaśnię moją opinię:
    1) Aby stworzyć prawdziwą sztuczną inteligencję na poziomie osoby (obecnie), musisz być mądrzejszy, mądrzejszy od osoby (obecnie), w rzeczywistości wznieść się na wyższy poziom, do poziomu nadczłowieka (lub poziom, jak w tym artykule, ASI).

    2) Dlatego to wydarzenie nie jest bliskie, dalekie od bliskiego, chociaż będzie – prawdopodobnie większość Formunchanów zna, przynajmniej z artykułów w Internecie, zjawisko dzieci „indygo”, które uważane są za ludzi przyszłość, ludzie z superumysłem. Tych. są to ci, którzy naprawdę potrafią zbudować sztuczną inteligencję na poziomie żywej osoby.

    3) Aby być samorozwijającym się obiektem, trzeba przynajmniej stać się niezależnym w świecie materialnym, trzeba nauczyć się odczuwać świat materialny, przynajmniej w pewnym stopniu rozumieć swoje potrzeby… czysty algorytm „komputerowy”, bez względu na to, jak bardzo jest złożony, nie będzie miał nawet informacji do samorozwoju bez przejścia ścieżki usamodzielnienia się w tym materialnym świecie, tj. sposoby rozwoju człowieka. Oczywiście człowiek może pomóc w rozwoju w tym kierunku, ale nawet wtedy i tylko wtedy, gdy zobaczy pierwszy punkt.
  29. 0
    22 października 2016 20:28
    Ludzie nie są już potrzebni. Nie pamiętam autora, ale pamiętam tytuł książki "KD - cybernetyczny sobowtór", która powstała w latach 70. i była niezwykle ciekawa. Superinteligencja będzie patrzeć na człowieka tak, jak na psa, na bardzo zabawną, ale niezrozumiałą istotę. Na przykład możesz zobaczyć w jego oczach, że wszystko rozumie, ale nie może powiedzieć.
  30. 0
    24 października 2016 18:05
    Człowiek żyje w świecie percepcji na poziomie obiektywizmu. Oznacza to, że postrzegamy wszystko obiektywnie - to jest to lub tamto. Ale wszystko na tym świecie jest również nieodłączne od procesualności. Oznacza to, że wszystko jest w trakcie transformacji. Dlatego światopogląd zbudowany na zasadach nierozłączności jednego od drugiego tworzy rzeczywistość i adekwatność postrzegania rzeczywistości. Na tym matematyka opiera się na funkcji stałej wartości liczby, co pozwala łączyć wielość i jednocześnie indywidualność. Bez podstaw tej wiedzy sztuczna inteligencja nie może się nawet zbliżyć
  31. 0
    11 listopada 2016 09:43
    Ten Kurzweili przypominał mi Czubajsa, także podstępnego i przebiegłego szarlatana.

    Potrzebne są próby uczynienia człowieka nieśmiertelnym, aby wybić pieniądze od starych bogatych ludzi, którzy ostatnimi siłami chwytają się przemijającego życia.

    Problem starzenia się jest dość dobrze znany i oczywisty - są to błędy w replikacji komórek i zestaw dodatkowych śmieci w chromosomach przy każdym klonowaniu.
    Jeśli w jakiś sposób wyeliminuje się błędy, zatrzyma to ewolucję.

    Dyskusja o racjonalności i superinteligencji wyszukiwarek i obdarzenie ich rozsądkiem, tym samym nie wytrzymuje krytyki, jedyne, co potrafią, to zbierać i podawać myśli innych ludzi.

    W rzeczywistości rozwój ludzkości przyspieszył dzięki konwergencji ludzi w społeczeństwie opartym na Internecie, a teraz ludzie nie wymyślają na nowo koła w każdym odizolowanym społeczeństwie.

    Krótko mówiąc - burza w filiżance!
  32. 0
    7 sierpnia 2017 19:53
    Pan wprowadził intelekt w małpę, okazało się, że to człowiek.Tak żyjemy, popisy jak z Bogiem i istotą małpy.Przestrzegaj przykazań Bożych, wrota Rozumu się otworzą.