Narodziny sowieckiego systemu obrony przeciwrakietowej. Z czego zbudowano Elbrus-2?

60

Pozostaje nam wreszcie przyjrzeć się bohaterowi okazji – słynnej logice ECL, na której montowano Elbrus-2 i z którą w Unii były takie piekielne męki.

Idea logiki sprzężonej z emiterem jest dość prosta.



Logika DTL i TTL jest trudna do przetaktowania do wysokich częstotliwości ze względu na fakt, że tranzystory w cyklu pracy osiągają tryb nasycenia, z którego stosunkowo wolno wychodzą.

W rezultacie narodził się pomysł stworzenia układu, w którym tranzystory podczas przełączania pozostaną w trybie liniowym.

Mogą więc, z grubsza rzecz biorąc, włączać się nie do końca i bardzo szybko przełączać bieżące ścieżki.

Naturalnie doprowadziło to do tego, że różnica między poziomami logicznymi była bardzo mała według standardów logiki bipolarnej (rzędu 0,8 V, 3-4 razy mniej niż TTL), a obwód stał się bardzo wrażliwy na szumy i nagrzewanie które je wygenerowały (kłopot polegał na tym, że dzięki realizacji samego pomysłu schemat nie był dziecinnie rozgrzany).

Przełączanie poziomu dla każdego 1V wymaga zwykle około nanosekundy, dlatego tak trudno jest przetaktować TTL do prędkości większych niż 3–4 ns, a dla ECL 1–2 ns to prawie tryb pracy po wyjęciu z pudełka bez dodatkowych sztuczek ( tylko w obwodzie po wyjęciu z pudełka bez sztuczek wszyscy pochłoną hałas).

Co to jest ECL?


Możesz pozostawić klucz w trybie liniowym, używając nie tylko tranzystora wzmacniającego, ale pełnoprawnego wzmacniacza różnicowego.

Co zabawne, ECL ma również swojego przodka w próżni, ponieważ taki trik można wykonać za pomocą kilku lamp. Obwód, nazwany później parą o długim ogonie lub różnicowym (różnicowy, od słowa „różnica”), został wynaleziony w Wielkiej Brytanii, w 1934 r. Pomysł został opublikowany przez wynalazcę-amatora Bryana Matthewsa, a w 1936 r. inżynier elektryk Alan złożył patent Blumlein (Alan Dower Blumlein).

Pod koniec lat trzydziestych topologia wzmacniaczy różnicowych była dobrze zrozumiana, a w komputerach ten proto-ECL był również pionierem brytyjskiego EDSAC (University of Cambridge Mathematical Laboratory, 1930), Pilot ACE (National Physical Laboratory, 1948) a kilka innych wczesnych maszyn, stworzonych przez kolegów Blumleina, zostało zmontowanych na różnicowych wzmacniaczach lampowych.

Ten obwód ma wiele zalet jako przełącznik: praktycznie odporny na fluktuacje lamp (ważne, jeśli twój obwód ma ich tysiące!), wysokie wzmocnienie i stabilność wzmocnienia, wysoka impedancja wejściowa, średnia/niska impedancja wyjściowa.

Generalnie było kwestią czasu, kiedy ten układ zostanie przystosowany do tranzystorów.

Zauważ, że opisaliśmy tylko najprostszy wzmacniacz różnicowy, w elektrotechnice jest to tak podstawowy obwód, jak każdy element NOR lub XOR w elektronice. Klasycznym rodzajem pilota zdalnego sterowania jest wzmacniacz operacyjny, który jest używany wszędzie, od komputerów analogowych po systemy stereo.


Lampowy wzmacniacz operacyjny GAP/R K2-W, wynaleziony przez George'a Philbrick w 1952 roku, stał się klasykiem i był używany w wielu komputerach analogowych i cyfrowych. Pilot ACE zbudowany przez Alana Turinga ze wzmacniaczami różnicowymi w 1950 roku. Jednostka ALU firmy DEUCE, produkcyjna wersja pilota ACE zbudowanego w 1955 roku przez English Electric Company. 32-bitowy DEUCE wykonał 1850 dodawania na sekundę. (https://www.computerhistory.org)

Wzmacniacz różnicowy działa dość prosto.

Przez obwód z dwoma ramionami przepływa stały prąd. Jeśli napięcie na lewym wejściu jest większe niż na prawym, włącza się lewy tranzystor, a większość prądu przechodzi przez lewą gałąź i odwrotnie.

Niewielka różnica między sygnałami wejściowymi generuje dużą zmianę prądu, stąd wzmacniacz.

Dodając parę tranzystorów bez problemu dostajemy lampę ze wzmacniacza. Aby to zrobić, musisz naprawić napięcie w jednym z ramion, nazywając to odniesieniem. Jeśli sygnał wejściowy jest większy niż odniesienie, uważany jest za „1”, a jeśli jest niższy - „0”. Zgodnie ze zwyczajem od czasów IBM, jako punkt odniesienia zwykle używa się poziomu gruntu.

W efekcie mamy bardzo, bardzo szybki obwód, który jest niestabilny na zakłócenia, zużywa dużo energii i tak samo się nagrzewa. Z dwóch ostatnich powodów trudno jest zwiększyć poziom integracji układów ECL - kilka miliardów tranzystorów CMOS będzie mniej się nagrzewać i zajmować mniej miejsca niż 50 XNUMX ECL.

Praca Motoroli i Fairchild była poświęcona przezwyciężeniu tych ograniczeń.


Wzmacniacz różnicowy i oparty na nim falownik. Jeśli sygnał wejściowy jest wysoki, prąd płynący przez lewy rezystor obniży napięcie. Aby zwiększyć wydajność, dolny rezystor został zastąpiony przez odpływ prądu (fioletowy). Prąd płynący przez dren jest kontrolowany przez zewnętrzne napięcie polaryzacji. Do wyjścia został dodany bufor (zielony). Bufor nazywa się popychaczem emitera, ponieważ wyjście jest pobierane z emitera tranzystora, a wyjście powtarza wejście (obwód z blog Kena Shirriffa).

Pierwszym komputerem zmontowanym na ECL był, jak już powiedzieliśmy, potężny IBM 7030 Stretch, w rzeczywistości został stworzony dla niego.

IBM chciał wypuścić prawdziwego giganta, przewyższającego najszybsze komputery w tym czasie 10-12 razy, oczywiście żaden znany już układ nie był do tego odpowiedni.

Innowacją Stretcha była logika sprzężona z emiterem, stworzona przez inżyniera IBM, Hannona S. Yourke. Przełącznik Yurkego był wzmacniaczem różnicowym z dwoma logicznymi poziomami odniesienia 3 V i wymagał naprzemiennych dwóch stopni npn i pnp.

Schemat ten został wykorzystany nie tylko w 7030, ale także w naukowym 7090, a później - w postaci GIS w superkomputerze dla NASA System 360 model 91.

Na początku lat 1960. opracowano wiele obwodów logicznych sprzężonych z emiterem, w tym warianty z diodami Zenera, które eliminowały potrzebę stosowania 2 rodzajów tranzystorów.

Wersja IBM dla S/370 (a nie oszczędzali pieniędzy i używali ECL dosłownie wszędzie w drugiej linii komputerów mainframe), w postaci mikroukładu, nosiła nazwę CSEF (Current-Switch Emitter Follower).


Oryginalny obwód Yurke zastosowany w IBM 7030 Stretch, chip IBM 360/91 ASLT (JL Langdon, EJ Vanderveer, Design of a High-Speed ​​Transistor for the ASLT Current Switch, 1967) oraz komórka bazowa Motorola 10k.


Powyżej: monstrualna konsola superkomputera IBM System/360 Model 195. Przy koszcie instalacji 12,5 mln USD i dodatkowym koszcie wsparcia 3,3 mln USD rocznie był to najdroższy komputer tamtych lat. Będąc bezpośrednim konkurentem CDC 7600, wykonanego na zastrzeżonych mikroukładach ECL, Model 195 przewyższał go mocą, ale został wyprodukowany później i nie był popularny (w latach 1971–1977 wyprodukowano tylko 20 samochodów, w porównaniu z 200 z CDC). Jedna karta z Modelu 195. Zwróć uwagę na żetony – są zrobione przez Texas Instruments, to był jedyny przypadek w Historiekiedy IBM zwrócił się do strony trzeciej o pomoc przy wydaniu! Zaskakujące są też koperty – złocone, metalowo-ceramiczne. Każdy układ scalony zawiera od 2 do 4 bramek, zwykle 3-wejściowy NAND. Czas przełączania bramki wynosił około XNUMX ns.
Na dole: schemat logiczny ALD (Automated Logic Diagram) stworzony przez oprogramowanie IBM EDA (Electronic Design Automation) do komputerowego wspomagania projektowania obwodów logicznych. Markowy brelok z chipem MST, 4 chipy IC są wyraźnie widoczne. Karta MST procesora mainframe IBM System/370 model 145 z 1982 roku. Każdy chip na nim zawierał do 5 chipów ECL i zastąpił całą płytę S/360. Kopiarki sowieckie z NITsEVT próbowały w latach 1980. iść prawie tą samą ścieżką, aby zastąpić całą TEZ jednym BMK
(http://ibm-1401.info, http://ummr.altervista.org/).

Sowiecką odpowiedzią na IBM 7030 był BESM-6, który był montowany na dość wyrafinowanej wersji ECL.

Problem, przed którym stanęli twórcy, był ogólnie taki sam: zwiększenie wydajności bez nadmiernego komplikowania obwodu, ale była jedna specyficzna cecha - nędza bazy elementów domowych.

W połowie lat 60. przemysł radziecki był w stanie wyprodukować tylko dwa szybkie urządzenia półprzewodnikowe: diodę D18 i tranzystor P416. A te były dość kiepskiej jakości. Musiałem wymyślić sprytne obwody.

Istotę opisuje jeden z projektantów BESM-6 V.N. Laut:

Przemysł produkował dyskretne diody i triody germanowe o bardzo słabych parametrach.
Czy można było na nich opracować elementy do wysokowydajnej maszyny?
... Do tego czasu w specjalistycznej literaturze pojawiło się wiele doniesień na temat wykorzystania diod tunelowych jako podstawy szybkich obwodów logicznych. Diody te miały krótkie czasy przełączania, wielokrotnie lepsze niż tranzystory.
Jednak elementy oparte na diodach tunelowych okazały się mieć słabą obciążalność, co doprowadziło do komplikacji obwodów maszynowych i szybko z nich zrezygnowaliśmy…
Trudność w stosowaniu tranzystorów polegała na tym, że były one bardzo wolne w trybie nasycenia, a elementy logiczne z nienasyconymi triodami okazały się skomplikowane ze względu na konieczność dopasowania poziomów sygnałów wejściowych i wyjściowych.
I nie tylko skomplikowane, ale i zawodne.
Przez jakiś czas nie widzieliśmy wyjścia z impasu.

Potrzebny był schemat zasilania, aby zminimalizować liczbę zawodnych tranzystorów, a jego kluczowy element został wymyślony przez tego samego Sokołowa, który później zmontował MCP dla Burcewa (a zespół BESM-6 podzielił się po śmierci Lebiediewa, po Mielnikowie lub Burcewie).

Istotą pomysłu było wprowadzenie do dobrze znanego elementu „przełącznika prądu” autonomicznego źródła zasilania, nie połączonego galwanicznie z innymi obwodami zasilającymi.
Na przykład, do tego celu można wykorzystać miniaturową baterię z zegarka elektronicznego.
Włączenie baterii między kolektor tranzystora a obciążenie kolektora (rezystor) sprawiło, że przełącznik stał się elementem o stałych poziomach sygnałów wejściowych i wyjściowych, a autonomicznemu źródłu zasilania nie nałożono żadnych szczególnie trudnych wymagań.
Oczywiście baterii nie dało się zainstalować, ponieważ w końcu się rozładowałaby, więc w rzeczywistym obwodzie został zastąpiony przez maleńki prostownik, składający się z miniaturowego transformatora na pierścieniu ferrytowym, dwóch diod półprzewodnikowych i kondensatora.
Nazwali te prostowniki „zasilaczami podwieszanymi” (PIP).
Wyjścia parafazowe wyłączników prądowych, wyposażone w wtórniki emiterowe, mogą pracować na wejściach układów logicznych „AND”, „OR”.
Pojawiły się następujące układy: pasywna logika kombinatoryczna oparta na elementach diodowo-rezystorowych została podłączona do wejść wzmacniających elementów aktywnych, których wyjścia z kolei zostały połączone z wejściami układów kombinatorycznych itp.
Tak więc korpus elektroniczny maszyny wyglądał jak tort warstwowy: warstwy diodowych obwodów logicznych były przeplatane warstwami wzmacniaczy na przełącznikach prądu.
Taka konstrukcja bardzo nadawała się do realizacji kolejnego niezwykle potężnego pomysłu - „pracy montażowej”.
W tym celu sygnały synchronizacji zostały również wprowadzone na wejście wzmacniaczy, które pełnią funkcję wyzwalaczy.
Z lekką ręką Siergieja Aleksiejewicza Lebiediewa obwody przenośników zaczęto nazywać w naszym kraju „zaopatrzeniem w wodę”.
BESM-6 była pierwszą radziecką maszyną wykorzystującą pracę przenośnika. Szybkość potoku, określona przez częstotliwość sygnałów synchronizacji, w BESM-6 wynosiła 10 MHz.
Tak więc opracowano zupełnie nowy system elementów logicznych, który pozwala wycisnąć maksymalną prędkość z dostępnych, niezbyt wysokiej jakości domowych tranzystorów i diod.
Wtedy konieczne stało się opracowanie konstrukcji takiej maszyny, aby nie tracić potencjalnej szybkości elementów logicznych, a także technologicznej i łatwej w obsłudze.
W latach 50. nie było wielowarstwowych płytek drukowanych szeroko stosowanych w nowoczesnych konstrukcjach komputerowych.
W BESM-6 płytki drukowane (dwustronne) były stosowane tylko w ogniwach (TEZ), które były dwojakiego rodzaju: z aktywnymi elementami wyzwalającymi i pasywnymi obwodami kombinatorycznymi.
Ogniwa aktywne miały na końcach sygnalizatory świetlne i zostały zainstalowane z przodu szafy, tworząc rodzaj panelu świetlnego, ogniwa pasywne umieszczono z tyłu szaf.
Płyty wolumetryczne miały złącza po obu stronach, a połączenia przewodowe przechodziły wewnątrz pomiędzy złączami po najkrótszej ścieżce.
To był niezwykły projekt. Zmniejszyło to wielkość maszyny, a co za tym idzie, czasy przejazdu sygnałów.

Ogólnie rzecz biorąc, był to prawdopodobnie najbardziej ekstrawagancki schemat implementacji ECL z nietypowym zasilaczem ze wszystkich możliwych.

Standardowa płytka, tzw. moduł „U”, z którego zmontowano procesor (cztery asynchroniczne zatrzaski RS), wymagała aż sześciu mocy znamionowych: +40 V, +5 V, -1,6 V, -3,5 V , - 9V, -60V, nie licząc zmiennych 6V na wejście PPS, to pestka nawet jak na standardy z początku lat 1960., nie mówiąc już o 1968 czy dziś.

Technicznie logika w BESM-6 była tak naprawdę zaimplementowana na diodach, więc ostatecznie okazało się, że jest to coś pomiędzy DTL a ECL.

Osobną premią było to, że wszystko działało w powietrzu – w CDC 6600 wymagany był freon, a to było bardzo trudne i zbyt drogie.

Sam układ chłodzenia maszyny ważył ponad 7 ton i zajmował osobne pomieszczenie (wraz z jedzeniem). W BESM-6 poradzili sobie bez takich perwersji, tym bardziej, że nie wiedzieli, jak sensownie pracować z freonem w ZSRR jeszcze pod koniec lat 1980. (o tym, jak bardzo cierpieli z powodu ochłodzenia SSBIS Electronics, powiemy później).


Blok „U” to podstawa BESM, jego nowoczesny schemat, schematy kombinatoryczne do których został podłączony oraz ich implementacja sprzętowa (https://1500py470.livejournal.com)

Jak widać pomysł nie był zły, natomiast formalnie częstotliwość była taka sama jak w CDC 6600 - 10 MHz (choć to ze słów, jaka była prawdziwa i pierwsze wersje BESM-6, czysto tranzystorowy, jest nieznany).

Bardzo dobrym pomysłem była też architektura systemu – w postaci podkowy, która zmniejsza długość połączeń i ułatwia zarządzanie, a BESM-6 prezentował się nie gorzej niż CDC.

Sterowanie zostało jednak zaimplementowane jak najbardziej niebanalnie – ze świętych powodów ITMiVT nie lubił konsol inżynieryjnych, tradycyjnych dla maszyn z lat 50. i 60. (a dla dużych maszyn – do lat 1970.). Z reguły wszystkie wskazania itd. były przesyłane do komputera na osobnej konsoli.

W BESM-6 tak naprawdę cały procesor był jednocześnie konsolą, kontrolki były wyświetlane na każdym TEC i energicznie mrugały podczas pracy!

Nawiasem mówiąc, konieczne jest wyjaśnienie, co to jest w ogóle.

Konsoli inżynierskiej nie należy mylić z terminalem, za terminalami pracowali programiści-użytkownicy maszyny. A konsola wyświetlała fizyczne informacje o bieżącej pracy procesora, zawartości wszystkich rejestrów itp. W większości przypadków można to zmienić ręcznie.

Takie konsole powstały nie z dobrego życia, ale dlatego, że stare maszyny wymagały debugowania i stałego monitorowania podczas wykonywania programu.

Nawiasem mówiąc, w latach 1. wielu użytkowników narzekało na brak takiego pilota w standardowej konfiguracji Elbrusa-1980.


Tradycyjna konsola inżynierska Burroughs B6700 i procesor konsoli BESM-6
(http://www.retrocomputingtasmania.com, https://vak.dreamwidth.org/)

Jednak wydajność maszyny nadal okazała się 2,5 razy mniejsza, a niezawodność - 1,5 razy mniejsza.

Jaki jest powód?

Częściowo rzeczywiście sowiecka baza elementów (chociaż w porównaniu z pierwszą generacją mikroukładów 155. serii w EU Row-1, radzieckie tranzystory w BESM-6 można uznać za absolutnie niezawodne).

Główny problem tkwił w architekturze systemu.

Jedyną rzeczą, w którą Lebiediew miał rękę w tej maszynie, było wymyślenie systemu dowodzenia, a okazało się, że jest tak oszukany, że, jak się później dowiadujemy, nawet dokładna implementacja BESM-6 na niewiarygodnie szybkich mikroukładach I200 ( ECL BMK) nie pozwalał nawet na 10-krotne zwiększenie wydajności (choć teoretycznie należało ją podnieść trzydzieści razy).

Nawet mikroprocesorowa implementacja monstrualnego zestawu instrukcji Lebiediewa z wczesnych lat pięćdziesiątych prawdopodobnie nie wycisnęła więcej z BESM-1950 niż obskurny procesor 6. Jednak baza elementów jest daleka od wszystkiego, architektura poleceń odgrywa dużą rolę, której szkoła Lebiediewa nigdy nie była w stanie poprawnie ocenić.

Jeśli chodzi o swojego głównego konkurenta, CDC 6600, Cray zastosował również dość egzotyczną opcję w samochodzie - bezpośrednią logikę tranzystorową (DCTL), coś pomiędzy TTL a RTL.

Bramki DCTL mają mniej komponentów, są bardziej ekonomiczne i łatwiejsze do wykonania na układach scalonych niż bramki RTL i są o rząd wielkości szybsze. Niestety DCTL ma znacznie niższy poziom sygnału, jest bardziej podatny na zakłócenia i wymaga dopasowanych charakterystyk tranzystorów, ponieważ są one mocno przeciążone. To dobra cecha, bo obniża napięcie nasycenia tranzystorów wyjściowych, ale w przypadku niedopasowanych elementów może spowolnić układ.

Działa bardzo szybko (nawet szybciej niż ECL!), natomiast nagrzewa się tak potwornie, że Cray już w 1966 roku potrzebował freonu, żeby jego samochód się nie stopił.

W przypadku DCTL różnica między poziomami logicznymi jest tak niewielka (a od tego zależy bezpośrednio szybkość przełączania), że przy sowieckiej bazie elementów układ ten w zasadzie nigdy by nie działał.

Nawet jak na standardy amerykańskie wymagane było precyzyjne dostrojenie wybranych komponentów (pierwsze kilka stron książki wydanej przez CDC na temat 6600 jest poświęconych temu, w jaki sposób nowe tranzystory krzemowe umożliwiły stworzenie tej maszyny), więc model ten nie stał się później powszechny. Ano dlatego, że nawet w wersji dyskretnej grzał się jak piekielny kocioł, w młodszych modelach - CDC 3000 i 1604 zastosowano zwykłe DTL, choć w wersji od Cray'a z kilkoma subtelnościami.

DCTL został wynaleziony w Bell Labs podczas pracy nad pierwszą w historii maszyną tranzystorową - TRADIC, ukończoną w 1954 roku. Jego wersja TRADIC Leprechaun z 1956 r. używała DCTL.

Główna idea DCTL jest prosta jak filcowy but – wyrzuć wszystkie rezystory z RTL.

Ale jak w takim razie przełączać tranzystory bez zbytniego doprowadzania ich do nasycenia?

Elementarne: zastąp rezystory tranzystorami o specjalnych impedancjach i wzmocnieniach.

Po tym następuje długa praca nad koordynacją całej tej gospodarki. W szczególności Cray obliczył, że wzmocnienie tranzystora nasyconego powinno być większe niż dwukrotność liczby obciążeń wyjściowych, a w przypadku CDC 6600 zasady są następujące: kolektor jednego tranzystora może sterować pięcioma bazami w module lub dwiema lokalnymi podstawy w module i dwie podstawy na skrętce na jednym innym module, a w module można podłączyć dokładnie sześć kolektorów.

Jak fajnie wyciśnięto z takiego schematu uczciwe 10 MHz?

Dla porównania, PDP-8, również na dyskretnych tranzystorach, wydany w 1965 roku, miał tylko 1,5 MHz, a pierwszy IBM PC, wydany 20 lat później, miał taktowanie mniej niż połowę szybkości CDC6600, mimo że był oparty na mikroprocesor. W ciągu ostatnich 20 lat wielu entuzjastów elektroniki przywróciło jako hobby montaż procesorów tranzystorowych.

Istnieją takie komputery amatorskie jak MT15, Megaprocesor czy Monster6502, ale pomimo całej bazy nowoczesnych elementów i znajomości nowych rozwiązań obwodów, które pojawiły się na przestrzeni dziesięcioleci od powstania CDC6600, żaden z nowoczesnych komputerów tranzystorowych nie osiąga nawet 1/10 prędkość wielka maszyna lat 1960-tych.

Stąd liczby 10 MHz na fundamentalnie innym obwodzie w BESM-6 wydają się wątpliwe.


Po lewej stronie jest sekwencja montażu bloków logicznych CDC 6600 z książki Projektowanie komputera Control Data 6600, po prawej schemat komórki TRADIC DCTL i jej samej (https://en.wikipedia.org)

Logiczna czystość CDC 6600 była również pomysłowa i minimalistyczna.

Jak w przypadku wszystkich swoich maszyn, Cray zbudował wszystko wokół jednego elementu, w tym przypadku falownika.

Dwa falowniki dają AND, jeszcze dwa + AND dają NOR, wszystko inne jest zbudowane na bazie NOR.

Interesująca jest również niezwykła notacja użyta przez Craya i odtworzona w fundamentalnej książce Design of a computer the Control Data 6600 napisanej przez Jamesa E. Thorntona, wiceprezesa CDC Advanced Design Laboratory, w 1970 roku.

Każda strzałka odpowiada inwerterowi, kółka i kwadraty wskazują, w jakiej logice należy interpretować aktualny węzeł - dodatni (kółko) lub odwrócony (kwadrat). W przypadku obu opcji schemat jest dokładnie taki sam. Każdy moduł w CDC 6600 jest zbudowany z wielu podstawowych inwerterów, każdy z jednym tranzystorem. Takie podejście było znakiem rozpoznawczym i rozpoznawalnym pomysłem Cray - weź tylko jedną z najprostszych rzeczy, zoptymalizuj do perfekcji i zbierz na niej wszystko inne.

W rezultacie CDC 6600 zdołał przetaktować do 5 ns - absolutny rekord dla maszyn opartych na dyskretnych tranzystorach, z którym nie każdy układ ECL jest w stanie pobić. „Elbrus-2” w 1989 r. miał prędkość przełączania zaworów tylko 1,5 raza mniejszą!

CDC 7600 został zbudowany w podobny sposób, tylko z całkowitą miniaturyzacją podzespołów – każdy z jego modułów składał się z 6 lub 8 płytek drukowanych połączonych drewnem kordowym z freonowym systemem chłodzenia, ale CDC 8600 (w przeciwieństwie do rowerów chodzących po Internet) powinien być już zbudowany na mikroukładach ECL.

Jedyny problem polegał na tym, że Cray nie mógł sprawić, by 4 procesory równoległe działały poprawnie, dostrojenie zajęło dużo czasu i pieniędzy (ogólnie, technologia programowania równoległego w latach 1960. nie była rozwijana tak bardzo, jak to możliwe, masowo Równolegle ILLIAC IV również nie przywodził na myśl), w wyniku czego rozczarował się konstrukcją wielu procesorów i przerzucił się na architekturę Cray-1 (a CDC na STAR-100) na architekturę wektorową.


Wyjątkowe zdjęcia. Powyżej - jedna z płyt modułu CDC 7600 oraz porównanie modułów CDC 6600 i 7600. Poniżej - moduł w zestawie oraz widok modułów 6 i 8 płytowych
(https://cds.cern.ch, https://vaxbarn.com, https://people.cs.clemson.edu)

Motorola stała się ikoną ECL.

W 1962 opracowali oryginalną topologię, skromnie i po prostu nazwaną Motorola ECL (MECL).

Pierwsze mikroukłady oparte na tej technologii, MC30x/MC35x, były produkowane w charakterystycznych obudowach na tablety i miały dobre parametry: opóźnienie 8–8,5 ns, częstotliwość do 30 MHz - pamiętajmy, że tranzystory mikrofalowe (no cóż, w tym czasie - mikrofale) CDC 6600 , wydany 2 lata później, wydał 10 MHz.

Druga generacja została nazwana nic dziwnego - MECL II (1966) i odpowiadała mikroukładom MC1000 / MC1200 z opóźnieniem 4 ns na bramkę.

Wreszcie w 1968 roku opracowano trzecią generację logiki, która odniosła tak duży sukces, że przetrwała na linii montażowej do połowy lat 1980-tych.

MECL III odpowiadał układom z serii MC16xx, które w zależności od roku i typu pracowały na częstotliwościach od 150 MHz (MC1658 Voltage Controlled Multivibrator) do 1,2 GHz (MC1699 Divide-by-Four GHz Counter).

W wariantach z lat 1980. MECL III umożliwił zaprojektowanie chipów z maksymalnie 10 000 bramek, podkręconych do 0,1–0,2 ns.


Z zapasów ebay - Motorola MC350, MC1000, MC10000 i dość rzadkością - nieotwarte opakowanie wafli krzemowych do produkcji ich chipów
(https://www.ebay.com)

W 1971 Motorola zdecydowała się zrobić małą gałąź swojej linii i zrobić chipy pośrednie pomiędzy i tak już nieco powolnym MC1000 a szybkim w kosmosie MC1600, chociaż do tego czasu prędkość MC1000 podwoiła się (na przykład MC1027/MC1227 120 MHz i MC1034 / MC1234 180 MHz , z czasem opóźnienia 2 ns, zamiast 4 ns dla pierwszych kopii z 1966 r.).

Tak narodziła się seria MC10000.

Różnił się od MECL III tylko wartościami rezystorów, układ był zupełnie taki sam.

Pierwsze wersje MC10k miały opóźnienia do 2-3 ns i częstotliwość do 125 MHz, a co najważniejsze, zmniejszone zużycie energii i rozpraszanie ciepła w porównaniu do MECL II/III. Jak zwykle wydano 2 serie - wojskową MC10500 (i wcześniej MC10600) oraz cywilną MC10100 (i później MC10200).

W składzie znalazło się miejsce na tak popularną wówczas rzecz jak BSP – jej rolę pełnił 4-bitowy MC10800.

Po tej linii pojawił się MC12k (1976) przy 250 MHz i MECL 10H (1981), aw 1987 r. pojawił się ECLinPS (Picosecond ECL, 0,5 ns) przy 1,1 GHz.

Motorola nie została jednak największym producentem amerykańskiej logiki ECL.

W 1973 Fairchild ogłosił modele F95K, F10K i F100K.

Linie te zadziwiają połączeniem dwóch rzeczy - jak mało o nich wiedzą (nawet w anglojęzycznym Internecie praktycznie nic nie ma, wszystko trzeba wygrzebać z książek i instrukcji) i jak świetne samochody zostały na nich zmontowane.

F10K był dalszym rozwinięciem MC10000 i znacznie się od niego różnił.

Ze względu na trudny los Fairchilda w latach 1970. (wszyscy najlepsi programiści i menedżerowie opuścili go, założywszy różnego rodzaju Signetics, Intel i AMD, a produkcja chipów była w jakiś sposób konieczna), produkcja F10K zawiesiła się na kilka lat, aż 1975.

Był to pierwszy na świecie układ ECL z pełną kompensacją napięcia i temperatury, w wyniku którego kryształ nagrzewał się znacznie bardziej równomiernie, co znacznie zmniejszyło hałas i niestabilność temperatury.

F100K był ultraszybką wersją F10K, przyspieszającą do 0,7 ns.

Wszystkie linie zostały zmontowane przy użyciu autorskiej technologii Isoplanar II, obudowy cywilne to małe DIP24. Sam F100K był serią małych luźnych elementów, jego podtypami były większe F200 (podstawowe kryształy matrycowe dla niestandardowych mikroukładów) i potężny 8-bitowy BSP F220 (pojawił się w 1980 roku, oznaczając 10022x).


I podobny wybór dla Fairchild F100, w tym książki dla programistów
(https://www.ebay.com)

Na takich chipach można było już zmontować coś naprawdę poważnego, a pojawienie się nie trwało długo - rok po wydaniu serii Seymour Cray zmontował na nim swojego świetnego Cray-1.

Cała maszyna pierwszej wersji została zaimplementowana tylko na 4 typach mikroukładów: Fairchild 11C01 (podwójny OR/NOT), Fairchild 10145A (64-bitowa pamięć RAM), Fairchild 10415 (1024-bitowa pamięć RAM) i Motorola MC10009 (tańszy odpowiednik 11C01 w schematach próbkowania adresów) ).

Co ciekawe, logika została zaimplementowana tak naprawdę na jednym typie elementów - 2OR-NOT.

Zajęło 250 000 takich mikroukładów i 65 000 mikroukładów pamięci.

Oczywiście nie tylko Cray skorzystał z radości, DEC wypuścił PDP-10 na SN74LS w 1974 roku, a rok później przeniósł starsze modele do F10K.

W 1977 roku pojawiły się ulepszone układy 4Kbit RAM, a Cray-1 doświadczył ulepszenia pamięci.

W tych samych latach Motorola ponownie licencjonowała F100K i cierpiała przez długi czas, próbując stworzyć analog, wprowadzając go dopiero w 1981 r. jako MC100k (ulepszony klon F200, zwany MCA - Macrocell Array), ale od razu wyszedł z szerszym zakresem i przyćmił oryginał (w rezultacie Cray-2 i CDC CYBER były już na nim zmontowane).

W latach 1980. na architekturze F100K wyprodukowali szereg wszelkiego rodzaju wyspecjalizowanych i po prostu potężnych maszyn, w tym tak egzotyczne, jak na przykład 64-bitowy koprocesor rzeczywisty Floating Point Systems FPS-264 (1985), który przyspieszył 5 razy w porównaniu do FPS-164 na SN74LS.

IBM rozpoczął produkcję swoich układów ECL dla S/370 pod koniec lat 1960., a Japończycy byli nie mniej znani: Fujitsu opracowało oryginalne ECL dla siebie i Amdahl (i kopiowane na licencji F100K), w Europie ECL były produkowane przez Siemensa.


Kilka płyt procesorowych od Cray-1 i zasada ich montażu w stelażu chłodzącym
(https://www.digibarn.com/ i https://www.computerhistory.org)

Główną komercyjną serią ECL-BMC z drugiej połowy lat 1980. była Motorola MCA3 ETL.

Były to potężne chipy wykonane zgodnie z zastrzeżoną technologią procesową MOSAIC III z mieszanym interfejsem, który obsługuje ECL, PECL (bardziej zaawansowana wersja logiki z dodatnim ECL-emterem z zasilaniem +5 V) i TTL. Opóźnienie nie przekraczało 150 ps, ​​wykorzystano pełnoprawne pakiety QFP, PGA i TAB, a bramek było od 858 do 6915. Układy oznaczono po prostu zgodnie z liczbą dostępnych bramek: od MCA600ETL do MCA6500ETL .


Konstrukcja Motorola MCA 3 z arkusza danych

Doskonałe zużycie energii i rozpraszanie ciepła przez ECL oznaczało, że można je było stosować tylko w najwyższej klasy systemach chłodzonych cieczą, zanurzeniowo lub krio.

W zasadzie dość wolne chipy mogły żyć z powietrzem, ale w większości instalowały coś mocniejszego.

IBM ES/3900 (swoją drogą walili przez około 10 lat i tyle samo miliardów na opracowanie wielochipowego modułu TCM - Thermal Conduction Module, dla nich w rzeczywistości to właśnie wtedy procesory wielochipowe, tak popularne w naszych czasów zostały wynalezione), Amdahl 470/V6, wszystkie japońskie superkomputery lat 1980., oczywiście Cray-1 i Cray-2, starsze modele DEC od KL10 PDP-10 do VAX 9000, wszystkie wykorzystywały ECL .

Słynna seria maszyn odpornych na uszkodzenia Tandem, o której już pisaliśmy, używała SN1983AS w swoim serwerze TXP (74), ale już wzięła ECL dla swojego flagowego NonStop VLX (1986).


Incredible TCM to technologia, na którą IBM wydał około 10 lat i ponad miliard dolarów
(https://www.researchgate.net, http://members.optusnet.com.au)


Jeszcze bardziej niesamowity procesor mainframe Amdahl 470 i jego płyta główna Fujitsu, wszystkie wykonane na ECL firmy BMK. Zupełnie podobny schemat zastosował mainframe Fujitsu FACOM M-190. Samo auto jest w tle. Takie tablice kosztują teraz wśród kolekcjonerów 2-3 tysiące dolarów.
(https://i.redd.it, https://www.flickr.com/)

Narodziny sowieckiego systemu obrony przeciwrakietowej. Z czego zbudowano Elbrus-2?

Innym klonem S/370 jest procesor mainframe National Advanced System AS/XL z 1982 roku. 8 ośmiobitowych procesorów BSP (klon F220 firmy National Semiconductor) tworzy 64-bitowy procesor. Łącznie opracowano około 30 niestandardowych mikroukładów dla komputerów typu mainframe na MECL 10K i MECL 10000 MCA.

W 1984 roku firma DEC próbowała wypuścić „zabójcę IBM” — najpotężniejszy komputer mainframe VAX 9000.

Firma planowała zainwestować około miliarda dolarów w rozwój, pomimo znacznych obaw pracowników, że procesory RISC szybko doganiają systemy wielochipowe w BMC.

Jednak do tego czasu PDP-11 nadal mógł zmieścić się w wersji jednoukładowej (procesor J-11), klasyczny VAX już nie istniał (tylko jego wersja MicroVAX 78032).

W 1980 roku Gene Amdahl stworzył Trilogy Systems, aby ulepszyć technologię ECL w swoich komputerach typu mainframe, a firma DEC udzieliła licencji na swoje projekty.

W ostatecznej wersji procesor VAX 9000 został zaimplementowany jako wielochipowy moduł typu IBM, z 13 BMC oryginalnej architektury zamówionej w Motoroli. Podczas prac rozwojowych, w 1988 roku, IBM wprowadził serwer AS/400 (który wygenerował ponad 14 miliardów dolarów sprzedaży — oni sami zarobili więcej niż cały DEC), trafiając do segmentu VAX.

W tym samym czasie firma Sun wprowadziła mikroprocesor SPARC, który pozwolił komputerom stacjonarnym przewyższyć nawet najszybsze istniejące maszyny DEC.

Po prostu tego nie rozumiem, nie widzę jak to jest możliwe, jak ten jeden chip może zastąpić te stojaki z elektroniką, po prostu nie rozumiem!

wykrzyknął nieszczęsny dyrektor DEC Ken Olsen, tkwiący jak radzieccy naukowcy w latach 1960. XX wieku.

Inżynierowie próbowali przekonać go do anulowania 9000, tłumacząc, że do czasu premiery nie będzie to najpotężniejszy komputer mainframe na świecie, ale zwykły serwer, tylko 1 razy droższy, ale Olsen nie ustępował, podobnie jak nasi ministrowie. i deweloperzy.

Ostatecznie DEC wpompował w projekt ponad 3,5 miliarda dolarów i zakończył go dopiero w 1990 roku, oferując maszynę porównywalną do IBM 3090 za około 4 miliony dolarów. Wyprodukowano i sprzedano tylko 40 9000 systemów - do tego czasu było oczywiste, że mikroprocesory CMOS zawładnęły tronem na zawsze.

W 1991 roku pojawił się NVAX - system dla zdrowego człowieka, opracowany przez grupę odpowiednich inżynierów DEC, o wydajności VAX 9000, ale w formacie konwencjonalnego mikroprocesora.

Pozwoliło to firmie nie umrzeć, ale stało się ostatnim w chwalebnej linii VAX - po drodze był DECchip 21064, lepiej znany jako Alpha, najmocniejszy i najlepszy procesor do początku 2000 roku.

VAX 9000 stał się w pewnym sensie analogiem "Elektroniki SSBIS" - opracowanym na czystej wytrwałości i głupocie, drogim i bezużytecznym.

Jedyną różnicą było to, że ręce inżynierów DEC wyrosły z odpowiednich miejsc (a nie jak w Delta Research Institute), w efekcie samochód miał chłodzenie powietrzem, a nie freonem, był 20 razy mniejszy, tak samo szybko trwał rozwój 5 lat, a nie 10, a mimo to doszła do produkcji seryjnej.

Dla porównania: SSBIS Electronics, prototyp częściowo wprowadzony na rynek w tym samym roku, to zestaw szafek z hali montażowej zawierający 5 kilogramów złota, setki kilometrów ręcznie okablowanego kabla koncentrycznego, procesor na wielowarstwowych kanapkach płyt dyskretnych chłodzonych freonem na setkach chipów ECL, których nie dało się podkręcić nawet do paszportu 75 MHz, utknął na 66.

I tak, jeśli chodzi o wydajność, wszystko to było w przybliżeniu równe VAX 9000, a 10 lat rozwoju zostało spuchnięte, niewyobrażalna liczba milionów i wysiłki całego Instytutu Badawczego Delta, tłumy starszych akademików i mnóstwo przedsiębiorstw.

Po takiej domowej mikroelektronice chcę strzelać z litości, co ogólnie wydarzyło się w 1991 roku.


Absolutnie cudowny procesor VAX 9000 na stercie BMK. Ściśle mówiąc nie jest to kompletny procesor we współczesnym znaczeniu tego słowa, maszyna została złożona z różnych modułów wykonanych w takiej konstrukcji, wśród których były JEDNOSTKA DYSTRYBUCYJNA, JEDNOSTKA CAŁKOWITA, JEDNOSTKA MNOŻENIA, JEDNOSTKA PŁYWAJĄCA, JEDNOSTKA STERUJĄCA, INSTRUKCJA WIRTUALNA CACHE, CROSSBAR UNIT, MICRO CONTRO STORAGE i inne. Pierwsze zdjęcie przedstawia P1004 FAD (EBOX FLOATING UNIT), przeznaczenie następujących technoarcheologów nie zostało jeszcze wyjaśnione
(zdjęcie z kolekcji użytkownika pixelmanca, https://www.cpu-world.com/forum/)


I dla porównania samochód gorszy od niego pod każdym względem, ale z tego samego roku - „Elektronika SSBIS”.
Zdjęcie ze zbiorów Muzeum Politechnicznego w Moskwie (https://1500py470.livejournal.com)

ECL w procesorach jest martwe na zawsze, ale jego ostatnie i najbardziej egzotyczne zastosowanie było w mikroprocesorach!

Firma Bipolar Integrated Technology, największy ekspert w dziedzinie technologii bipolarnej na początku lat 1990., postanowiła wycisnąć z niej wszystko, co możliwe i niemożliwe. Współpracowali z dwoma pionierami RISC, MIPS Computer Systems i Sun Microsystems, w celu stworzenia procesora ECL o niespotykanej mocy opartego na architekturach RISC.

Pierwsza implementacja architektury MIPS II, zestaw chipów R6000, R6010 i R6020, została wykonana jako moduł MCM i została wykorzystana w wysokowydajnych serwerach Control Data Systems InforServer z serii 4680-300 (próbowano je produkować dawna firma Control Data Corporation, zreorganizowana w 1992 r.).

Nawiasem mówiąc, podkręcili go do 80 MHz i nie przypomina to rekordów dostępnych przez ECL, ale procesor nie przepalił płyty. Dla firmy Sun powstał SPARC B5000, o którym nie ma prawie żadnych informacji.

Wreszcie, najbardziej szalonym chipem w ECL był eksperymentalny mikroprocesor firmy DEC, któremu udało się zmieścić MIPS II w jednym chipie!

W 1993 roku najpotężniejszym mikroprocesorem ogólnego przeznaczenia był Intel Pentium 66 MHz z TPD 15 watów. DEC MIPS II miał 300 MHz (!) i 115 W (!) - rozpraszanie ciepła na poziomie Core i9. Osobny artykuł został poświęcony ochłodzeniu tego potwora.

CMOS jednak podbił takie częstotliwości po 2-3 latach z rozpraszaniem ciepła 3 razy mniejszym i zapomniano o szalonym ECL.


Ten sam potwór DEC MIPS II z artykułu z 1993 r. A 300 MHz, 115 W 32 b bipolarny mikroprocesor ECL z pamięcią podręczną w układzie scalonym w przeglądzie dokumentów technicznych IEEE International Solid-State Circuits Conference Digest. Niestety nie udało się znaleźć zdjęcia R6000 i B5000.

BMK i jak go ugotować


Zanim przejdziemy do bazy elementów Elbrus-2, porozmawiajmy o tym, jak ogólnie współpracowali z BMK na Zachodzie i jakie to zwierzę.

Lata siedemdziesiąte były erą nisko- i średnio-niskich układów integracyjnych, co oznaczało, że była to jedna lub więcej płyt wysadzanych prostokątami chipów (mówimy oczywiście o poważnych procesorach maszynowych, a nie mikroprocesorach).

W 99% przypadków firmy produkujące sprzęt były zaangażowane w rozwój i produkcję procesora na wszystkich poziomach.

Wraz z początkiem lat 1980-tych nadeszła era LSI i dwóch nowych sposobów tworzenia własnej architektury.

Po pierwsze, możliwe było zmontowanie go na BSP na każdy gust, szybkość i budżet: od maleńkiego i wolnego TTL Intel 300x do potężnego 8-bitowego ECL Fairchild F220.

W tym przypadku produkcja procesora sprowadzała się w rzeczywistości do opracowania systemu poleceń i jego oprogramowania układowego w dołączonym urządzeniu sterującym.

Druga metoda przydała się, gdy architektura była zbyt potężna lub zbyt koncepcyjna, aby można ją było zaimplementować w standardowy sposób.

Producenci chipów szybko zdali sobie sprawę, że jeśli oferujesz tylko gotowe standardowe rozwiązania, możesz przegapić klientów, którzy chcą czegoś wyjątkowego za dodatkową opłatą.

Tak narodziła się koncepcja chipów robionych na zamówienie w oparciu o to, co w ZSRR nazywano BMK, czyli podstawowe kryształy matrycowe, a na Zachodzie - Gate Array.

FMC jest półproduktem dla ~15-50 000 bramek, jedyną różnicą jest to, że większość tranzystorów nie ma predefiniowanej funkcji. Można je łączyć z warstwami metalizującymi, tworząc standardowe ogniwa NAND lub NOR, a następnie składać z nich w kompletny obwód z kolejną warstwą.

Czyste BMC istnieje więc tylko w broszurze reklamowej lub w magazynach wewnętrznych – wszystkie chipy, które ostatecznie opuszczają fabrykę, mają już ściśle określoną strukturę.

Płyty wzorcowe BMK z niedokończonymi chipami są zwykle wcześniej produkowane i magazynowane, w efekcie konstrukcja procesora sprowadza się do wrzucenia jego topologii do CAD, a następnie płyty trafią dalej na przenośnik, gdzie ta topologia będzie odtworzona w je, cięte, pakowane i dostarczane do klienta.

Być może ktoś słyszał o czymś podobnym i tak, teraz podobna technologia nazywa się układem scalonym specyficznym dla aplikacji (ASIC).

ASIC to już pełnoprawny SoC, zawierający z reguły I/O, kontrolery i pamięć, są one wykorzystywane w ogromnej liczbie aplikacji, obsługują wiele różnych urządzeń wbudowanych, a także np. koparki bitcoinów .

Główną różnicą jest to, że ASIC są projektowane z już uformowanych standardowych ogniw, a nie z gołych tranzystorów, jak BMC.

Oczywiście BMK były dostarczane przez całe rodziny, różniące się ilością zaworów i ceną.

W rezultacie każdy producent komputerów mógł wybrać chipset, który optymalnie pasuje do jego zestawu instrukcji.

Oczywiście istnieją subtelności, na przykład przełącznik krosowy wymaga znacznie więcej połączeń i odpowiednio warstw niż podobny układ skurczowy, podczas gdy złożoność obwodu wyłącznie pod względem liczby zaworów będzie w przybliżeniu równa.

Niewykorzystane linie i bramki zwiększają złożoność i koszt chipa, zarówno dla producenta, jak i klienta, więc wielką sztuką jest zaprojektowanie BMC w optymalny sposób, który pasuje do większości zastosowań.

W rezultacie ich twórcy starali się zapewnić taką liczbę ścieżek, która wystarczyłaby do poprowadzenia większości potencjalnie możliwej topologii na tak wielu bramkach.

Często pomaga w tym empiryczne prawo Rent, odkryte przez jednego z inżynierów IBM w 1960 r. (Rent, EF: Microminiature packaging. Logic block to pin ratio. IBM Memoranda, 28 listopada - 12 grudnia 1960). Stwierdza, że ​​liczba pinów mikroukładu jest równa średniej liczbie połączeń na element logiczny pomnożonej przez liczbę elementów logicznych do potęgi R, gdzie R jest stałą Rent (na przykład dla mikroprocesorów R \u0,5d 0,74 - XNUMX).

Macierze bipolarne zostały wynalezione przez IBM w 1966 roku (IBM Journal of Research and Development Tom: 10, wydanie: 5, wrzesień 1966). To wtedy opisali technologię tego, co w przyszłości nazwano schematami semi-custom, a IBM nazwał technologią master slice.

Już podczas projektowania S/360 stało się jasne, że kolejna maszyna będzie musiała używać układów scalonych.

IBM nigdy niczego od nikogo nie kupił, w zasadzie wszystko dla swoich komputerów, aż do ostatniego zamka.

Oczywiście opracowali własną linię mikroukładów, które nigdy nie weszły na otwarty rynek, oraz absolutnie oryginalną technologię ich wytwarzania, aż po charakterystyczne obudowy - nie tępe DIP, ale rozpoznawalne metalowe kostki.

Ponieważ potrzebowali ogromnej liczby chipów, ich inżynierowie znaleźli sposób na radykalne obniżenie kosztów produkcji. Opracowali serię kilku matryc krzemowych ogólnego przeznaczenia, które następnie metalizowano szynami, łącząc je w wymaganej kolejności. Taki dysk nazywano mistrzowskim krojem. Już wtedy IBM używał komputerów do projektowania.

Fairchild rzucił się na ten pomysł i rok później wypuścił pierwszą na świecie komercyjną serię niestandardowych chipów Micromatrix (32-bramkową macierz DTL z opóźnieniem 20 ns). W 1968 roku wydano dwa warianty macierzy Polycell TTL (do 144 bramek, 18 ns).

Jednocześnie trzy kolejne firmy zapowiedziały takie zabawki: Sylvania SL80 (30 bramek), Motorola (25 i 80 bramek, 5 ns) oraz TI Master Slice (kilka komórek po 16 bramek).

Raytheon dołączył do uroczystości w 1971 roku, a w 1973 roku wypuścił TTL(S) RA-116, który był w produkcji do lat 80-tych.

Mniej więcej w tym czasie do biznesu BMK weszli również najwięksi producenci, tacy jak RCA i Hughes.

W 1972 roku brytyjski Ferranti wypuścił pierwszą wersję swojego ULA (Uncommited Logic Array), a później kupił nawet amerykańskiego producenta BMK Interdesign. Do 1983 roku dotarli do 10000 XNUMX bramek na torze.

CMOS otworzył najszersze możliwości produkcji niestandardowych układów scalonych, pierwsze CMOS-BMC zostały stworzone przez Roberta Lippa w 1974 roku dla International Microcircuits, Inc. (IMI).

Technologie CAD w tamtych latach były bardzo prymitywne, dlatego większość prac projektowych wykonywano ręcznie. W 1978 roku Lipp założył konkurenta IMI firmę California Devices, Inc. (CDI).

Od 1976 roku nadszedł rozkwit BMC.

Fairchild i Motorola powróciły na rynek ze swoimi ECL i Texas Instruments z I2L i STL.

W Europie co najmniej czterech producentów (Ferranti, Philips, Plessey i Siemens) było zaangażowanych w BMK, a w Japonii najbardziej znani byli Fujitsu, Hitachi i NEC.

Programowalne zworki bezpiecznikowe FPLA pojawiły się w Signetics w 1975 roku w wyniku rozwoju technologii wytwarzania zworek nichromowych stosowanych w pamięci ROM.

W tym samym okresie pojawiły się mikroprocesory i wybuchły spory o to, która opcja rozwoju zwycięży.


Różnorodność niestandardowych chipów i FPGA na każdy gust i budżet, 1985-1995.
(https://www.ebay.com)

Przez dziesięć lat BMC uważano za poważnego konkurenta dla mikroprocesorów (prawdopodobnie montowano na nich 70 proc. dużych i średnich maszyn) i nawet nie było z góry przesądzone, które podejście wygra.

W 1979 roku firma VLSI Technology została założona, jak zwykle, przez absolwentów Fairchild Jacka Balletto, Daniela Floyda i Gunnara Wetlesena, we współpracy z Dougiem Fairbairnem z projektu Xerox PARC.

Od samego początku firma koncentrowała się na rozwoju niestandardowych chipów, opierając się na intelektualnych zasobach pobliskiego Caltech i University of Berkeley. VLSI stało się pierwszym dostawcą ASIC - niestandardowych mikroukładów opartych na standardowych ogniwach na początku lat 1980., a druga firma, LSI Logic, była liderem w produkcji mikroukładów opartych na klasycznych BMC.

Firma LSI Logic została założona w 1981 roku w tej samej słonecznej Kalifornii, a do 1985 roku wraz z Kawasaki Steel zbudowała ogromną fabrykę płyt w Tsukuba (Japonia).

W 1983 roku, na zlecenie Departamentu Obrony Stanów Zjednoczonych, opracowano specyfikację VHDL (VHSIC Hardware Description Language), zaprojektowaną do formalnego opisu obwodów logicznych na wszystkich etapach rozwoju.

W tym samym roku powstała firma Automated Integrated Design Systems, stworzona do opracowywania obwodów CAD, a także opracowano ich pierwszy produkt - analog VHDL, język Verilog.

IBM przyczynił się do wzrostu popularności rozwiązań niestandardowych, kiedy w 1981 roku wprowadził najpotężniejszy komputer mainframe nowej generacji, IBM 3081, z procesorem całkowicie złożonym z BMC ECL.

W Wielkiej Brytanii tego samego roku, na przeciwległym krańcu spektrum wydajności, Sinclair buduje ZX81 (poprzednik ikony domowego PC, ZX Spectrum) na Ferranti ULA BMK (sklonowanym w ZSRR jako T34VG1).


Heavy metal po japońsku. To są wszystkie podstawowe kryształy matrycy. Fujitsu FACOM M-780 z 1987 roku, najpotężniejszy komputer mainframe zgodny z IBM na świecie w tamtym czasie i pierwszy komputer mainframe z procesorem na jednej płycie. Tak wyglądałby rząd 4 zdrowej i bogatej osoby. Po lewej - blok pamięci głównej wykonany z modułów wykonanych w całości według nowoczesnej technologii, oraz niewyobrażalny procesor - po prawej: płyta 54x49 cm (!) Z 336 BMC (!), Umieszczona jako sandwich pomiędzy dwoma płytami chłodzącymi z poszczególne miedziane radiatory do każdego kryształu. Dalej: NEC i Hitachi miały również płyty typu monster, procesor Hitachi HITAC M-68X (1986) i NEC ACOS System 1000 (1980)
(http://muzeum.ipsj.or.jp)

Co więcej, rynek był nie do zatrzymania.

W 1983 roku narodziła się Altera, oferując fundamentalną nowość na rynku - rekonfigurowalny programowalny chip EP300.

W 1985 roku Ross Freeman i Bernard Vonderschmitt opracowali i opatentowali nowy sposób tworzenia takich macierzy, zwany programowalną tablicą bramek (FPGA).

Wraz z wydaniem w tym samym roku pierwszego FPGA XC2064, rozpoczyna się historia głównego konkurenta Altery, Xilinx.

Jego pierwsze produkty były pod wieloma względami podobne do wczesnych BMC - powolne i drogie, odpowiednie tylko dla niektórych niszowych rynków. Jednak prawo Moore'a szybko uczyniło z nich siłę i na początku lat 1990. poważnie zakłócili rynek chipów na zamówienie.

Wreszcie w 1988 r. założono Cadence Design Systems, firmę, która przeniosła zautomatyzowane projektowanie chipów na wyższy poziom i obecnie oferuje systemy projektowania licencjonowane za miliony dolarów.

Prawie wszystkie współczesne mikroprocesory od Intel Core i9 do Apple M1 są tworzone w Cadence CAD. Klasyczne BMC wymarły w połowie lat 1990., wyparte przez FPGA, ASIC i mikroprocesory, ale ich wpływ na rozwój komputerów był kolosalny.

Jak więc wyglądał rozwój niestandardowego układu ECL w Fairchild F200 BMK w 1981 roku?

Przejdźmy do broszury reklamowej samej firmy.

Korzystając z najszybszej rodziny ECL dla swojego F200 BMK, Fairchild zachowuje kompatybilność z F100K.
Rozwój odbywa się prawie w całości na komputerze.
Fairchild pobiera opłatę wpisową w wysokości 20 000 do 25 000 USD i zapewnia szkolenie (od 2 do 8 tygodni) w zakresie korzystania z naszej sieci komputerowej Cybernet.
Tworzenie BMC z wykorzystaniem komórek makrofunkcyjnych odbywa się ręcznie, ale kolejne kroki (generowanie wektorów testowych i weryfikacja projektu) wykorzystują program TEGAS na Cybernecie.
Łączenie i umieszczanie makr odbywa się częściowo ręcznie, częściowo za pomocą komputera; zasady projektowania są sprawdzane przez komputer.
Opłaty za czas komputera wahają się od 5 do 000 15 USD, w zależności od poziomu doświadczenia.
Wykonanie podstawowej maski dla macierzy F200 kosztuje od 10 000 do 15 000 USD; Fairchild wykona również projekt i opakowanie za dodatkowe 25 000-30 000 USD (teraz wiesz, dlaczego komputery typu mainframe są drogie).


Fairchild F300 FGA2000 - potężny BMK lat 1980., marzenie radzieckich deweloperów
(https://1500py470.livejournal.com)

Jak widać, zastosowanie technologii BMC wymaga znacznej inwestycji czasu i zasobów; musisz współpracować z producentem chipów, aby tworzyć diagramy logiki systemu, sekwencje testów funkcjonalnych, konwertować logikę na wzorce macierzy bramek, symulacje oprogramowania i sprzętu, diagramy połączeń, opracowywanie masek i prototypowanie.

W ZSRR wszystko to spadło na barki poszczególnych instytutów, których było trzy, a byli to konkurenci: ITMiVT (Elbrus-2 drugiej generacji), NITSEVT (ES Computer Ryad-4) i Research Institute Delta (elektronika). SSBIS).

ITMiVT i NITSEVT należały do ​​MRP, Delta należała do MEP, a MEP posiadała 90% fabryk mikroprocesorów.

Dopóki żył przyjaciel Szokina, Kałmykow, nie stanowiło to problemu dla MCI. Wraz ze zmianą ministra na Pleszakowa w 1974 roku proces współpracy uległ spowolnieniu.

Dodatkowo sytuację pogorszyły intrygi między trzema grupami deweloperów – Przhiyalkovsky z komputerami ES i Burtsev z Elbrus-2 w MRP oraz Mielnikow z Elektroniką SSBIS z eurodeputowanego.

Poseł chciał też mieć własny superkomputer, a wyrzucając do niego Mielnikowa w 1974 roku, Burcew stworzył dla siebie niebezpiecznego konkurenta.

Na początku lat 1980. przyjęto projekt SSBIS Electronics, do którego również potrzebny był BMK, a w najbardziej krytycznym dla Elbrus-2 okresie ważyła się współpraca między MCI a europosłem.

Musiałem ukłonić się wewnętrznym konkurentom – NICEVT w ich słynnej siedzibie, 700-metrowym „leżącym wieżowcu” na Warszawskim, najdłuższym budynku naukowym na świecie. W tym wieżowcu, w sąsiednich salach, pracownicy NICEVT i ITMiVT wspólnie majstrowali przy temacie BMC.

Nic dziwnego, że rozwój BMK w Unii trwał kilka lat.

Nawet w USA, w ojczyźnie techniki, gdzie od samego początku była dokładnie badana i gdzie biznes mikroelektroniczny działał w tamtych latach po prostu na granicy ludzkiej wydajności (zważywszy na to, jakie szalone, niewyobrażalne pieniądze tam wirowały), pełna cykl projektowy BMC trwał w latach 1980-ych od 6 do 12 miesięcy.

W tym czasie tylko Japończycy prześcignęli Amerykanów, którzy pracowali już na granicy nie człowieka, a wydajności biorobotów, a więc 4 gigantów – Fujitsu, NEC, Toshiba i Hitachi (oraz Amdahl, który mądrze zamówił u Japończyków BMC z Fujitsu) rozerwał amerykański rynek na strzępy, dopóki Reagan nie zainterweniował w zakresie środków ochronnych (i dopóki IBM nieprzyjemnie pozwał Gene'a Amdala za to, że odważył się wypuścić na rynek maszynę kompatybilną z S/370, ale dwukrotnie lepszą).

Jeśli weźmiemy pod uwagę, że każdy schemat wymagał z reguły kilku iteracji w celu udoskonalenia architektury, a kosztem znikomego błędu była partia tysięcy żetonów, nie dziwi fakt, że tylko bardzo, bardzo grube firmy mogły sobie pozwolić na współpracuj z BMK przy bardzo solidnych projektach.

W rezultacie opóźnienie między ogłoszeniem nowej technologii BMK a prawdziwymi maszynami na nich wynosiło 3-4 lata, nawet w przypadku Stanów Zjednoczonych - w rzeczywistości przy całej jakości sowieckich mikroukładów to tylko cud i wyczyn, który opanowali do wydania w ciągu 6-7 lat.

Potwornie bogata firma Fujitsu, zatrudniająca tysiące inżynierów i mająca pełny cykl produkcyjny, mogła sobie pozwolić na wypuszczenie w 1980 r. komputera typu mainframe dla firmy Amdahl na BMK z zaworami 10 tys. ludzi na tiny w porównaniu do Fujitsu z zaledwie 16 matrycami zaworowymi ukończono dopiero w 1982 roku.

CDC napisało w ogłoszeniu:

CDC używa najszybszej rodziny ECL swoich czasów Fairchild F200, kompatybilnej z serią Fairchild F100K, dzięki czemu te BMC i standardowe obwody można łączyć w celu zmniejszenia liczby wymaganych opcji.
Projektowanie za pomocą F200 jest bardzo kosztowne.
Rozwój odbywa się prawie w całości na komputerze wypożyczonym w Fairchild za pośrednictwem terminali klienta.

Powstaje rozsądne pytanie.

CDC i Cray były dosłownie u szczytu postępu technologicznego w latach 1980. i 1990., będąc malutkimi w stanie, zdołały przetrwać w społeczeństwie stłoczonym wokół gigantów Fujitsu, IBM i UNISYS. W tym samym czasie produkowali komputery ręcznie, a liczbę każdego modelu oszacowano na zaledwie kilkadziesiąt sztuk.

Ich interesy zawsze się toczyły, kulejąc na obie nogi, jak oni w ogóle przetrwali?

A skąd w kółko zdobywali szalone pieniądze na rozwój, zawsze schodząc do zera pod względem zysku?

I dlaczego, przy całym talencie ich inżynierów, ten program nagle przestał działać w 1990 roku?

Odpowiedź na to pytanie ma swoją nazwę.

Ronalda Wilsona Reagana.

Jak już wspomnieliśmy, lata 1970. były złotym wiekiem sowieckich partokratów.

Ciągłe odprężenie, petrodolary, współpraca techniczna ze Stanami Zjednoczonymi. Po raz pierwszy od późnych lat pięćdziesiątych naszym ludziom pozwolono ponownie korzystać z Motoroli, doszło do tego, że w latach 1950-1975 negocjacje z IBM w sprawie normalnych licencji UE były dość owocne (biorąc pod uwagę, że cały świat był już tak zajęty z tym - i Niemców, i Brytyjczyków i Japończyków), a w Motoroli legalnie kupiliśmy paczki MC1976k.

Jednak proces ciągnął się przez kilka lat, a potem nastąpiły nieprzewidziane wydarzenia, które położyły kres wszystkim planom. Afganistan, powstanie „Solidarności” w Polsce i stan wojenny w nim oraz, jak wisienka na torcie – śmierć Breżniewa i dojście do władzy „mini-Stalina” – Andropowa.

Reagan oczywiście wykorzystał to wszystko jako casus belli i nastąpiła ostatnia potężna runda zimnej wojny, która wykończyła ZSRR w 10 lat.

Rząd USA zainwestował najwięcej w ciągu dekady od II wojny światowej w różnorodne badania i rozwój podwójnego zastosowania, co doprowadziło w latach 1980. do niesamowitych zamieszek najbardziej dziwacznych, egzotycznych i unikalnych architektur i maszyn.

A od 1990 r. zniknęła potrzeba dopływu środków, a rynek pozostał, aby decydować o losie wszystkiego, co wymyślono w tłustej dekadzie.

Jak wiemy, zdecydował: w ciągu następnych 5 lat mikroprocesory RISC i ich masowo równoległa architektura wygrały konkurencję, wypierając całe cudowne zoo.

CDC otrzymało bezpośrednią inwestycję od rządu wraz z odejściem Cray'a w 1972 roku, a to pozwoliło jej na dokończenie kompletnie nieopłacalnego STAR-100, który miał ogromne trudności w projektowaniu (biorąc pod uwagę, że zaimplementowano tam jedno połączenie z komputerem sterującym PDP-11). na aż 4 typach ECL BMK po 168 zaworów).

W rzeczywistości cały projekt STAR był przykrywką dla rozwoju trzech systemów: Flexible Processor (FP), Image Processor (IP) i Advanced Flexible Processor (AFP), znany również jako Cyberplus, przeznaczony do przetwarzania obrazów fotograficznych i danych radarowych dla CIA i NSA.

Do 1986 roku zainstalowano co najmniej 21 wieloprocesorowych instalacji Cyberplus na niestandardowych chipach. Te systemy przetwarzania równoległego obejmowały od 1 do 256 procesorów Cyberplus zapewniających 250 MFLOPS każdy, które są połączone z maszynami CYBER za pośrednictwem architektury Direct Memory Attached Architecture (MIA).

Liczba wydanych i zainstalowanych FP i IP jest nieznana, ostatnim produktem wojskowym CDC jest równoległy modułowy procesor sygnałowy (PMSP) wydany w 1988 roku.

Tak więc rozwój BMC na ECL został hojnie opłacony przez rząd amerykański.

Ogólnie rzecz biorąc, w USA wydano niesamowitą liczbę tajnych architektur, głównie dla NSA i CIA, wiele kryptokomputerów wciąż jest utajnionych.

Na przykład w National Cryptologic Museum pokazano pewną płytę MC100k o nazwie CLAW 1 i mówi się, że była już zainstalowana w CDC 7600 (!), ale przede wszystkim nikt nie wie dlaczego, a jest brak informacji na ten temat.


Zaawansowana architektura elastycznego procesora i tajemnicza płyta CLAW 1 na prawdziwym ECL firmy Motorola
(https://1500py470.livejournal.com, https://en.wikipedia.org)

W tym czasie w ZSRR


W ZSRR historia ECL zaczęła się, kto by w to wątpił, od tej samej Motoroli.

Czasami wspominamy, że przejście na kopiowanie serii BMK 10k, jak zwykle, zrujnowało unikalne sowieckie rozwiązania, prezentowane pod koniec lat 1960. przez serie 137, 187, 229 i 138.

Nasz ukochany Małaszewicz wspomina:

Ciekawym przykładem jest stworzenie serii ESL IC 100.
Już w 1969 roku NIIME opracowało i dostarczyło własną technologię do produkcji układów scalonych ESL w Mikron, dzięki czemu uzyskano pierwsze próbki kilku oryginalnych układów scalonych z serii 138.
Ale wkrótce rozpoczął się rozwój superkomputera Elbrus, a na prośbę jego głównego konstruktora (poparty dekretem KC KPZR i Rady Ministrów ZSRR, z którym nie można się spierać) NIIME i Micronowi powierzono reprodukcję serii Motorola MC10000.
Wyprodukowanie dwóch serii układów scalonych o podobnych właściwościach, wykraczających poza możliwości NIIME i Mikron, nie było ani celowe, ani wykonalne.
W rezultacie rozwój oryginalnej serii K138 musiał zostać zatrzymany i, aby zadowolić klienta, powstały analogi długo produkowanego MC10000 (seria 100), gorsze pod względem prędkości od serii K138 (najważniejszy parametr dla układów scalonych ESL).

W rzeczywistości tutaj, jak zwykle, wszystko jest takie, a nie takie.

Właściwie, natychmiast po założeniu w nim Zelenogradu (ponieważ uruchomiono nowe fabryki i zbudowano nowe instytuty badawcze), wprowadzono w nim coraz więcej linii kopiowania. Wraz z TTL i DTL, chipy ECL rozpoczęły się w połowie lat sześćdziesiątych.

Pierwsze radzieckie ECL to rzadkie serie D34 i D35, prototyp, który pojawił się w 1968 roku i jest dokładnym klonem Motoroli MECL-I. Rok później ukazała się ich nieco ulepszona wersja - seria 137 (w płaskiej złotej kopercie dla wojska, znana jako 191).

Początkowo zostały opracowane na zlecenie Przyjałkowskiego z NICEVT do montażu okrętu flagowego pierwszego rzędu UE – EU-1050. Miał trzystopniowy asynchroniczny potok i wydajność 500 MIPS, w zasadzie nieźle.

EU-1060 miał być generalnie okrętem flagowym, ale nie zdążyli tego zrobić i przenieśli go do Ryad-2.

Zespół do opracowania maszyny R-500, która później stała się znana jako EU-1050, został utworzony w 1968 roku (początkowo chcieli wykonać 4 opcje: R-20, R-100, R-500 i R-2000 ), w tym samym roku rozpoczął się rozwój 137. serii.

Jurij Łomow, uczestnik rozwoju EU-1050, wspomina:

... Baza elementów (zintegrowane układy logiczne o średniej integracji ECL137, ECL138 oraz rdzenie ferrytowe jako elementy pamięci), choć znacznie gorsza od obcych, nadal pozwalała na zaimplementowanie proponowanej architektury komputerowej.
Nie spodziewaliśmy się więc żadnych trudności w spełnieniu wymagań wydajnościowych (500 operacji/s) z punktu widzenia możliwości architektury.

W rezultacie 137. seria była klonem MECL I z 1962 r., a 138. (z czasem opóźnienia 3 ns) była klonem MECL II.

W przypadku planarnym są to odpowiednio seria 191/197, seria 229 jest analogiem hybrydowym, a 187. to wolniejsza i zimniejsza wersja 137. Biorąc pod uwagę, że EC-1050 przekazano dopiero w 1974 r., w latach 1970-1971 nie jest faktem, że ich seryjna produkcja została w ogóle uruchomiona.

Jak widać, Borys Małaszewicz, delikatnie mówiąc, się myli, po pierwsze nie są one zbliżone do oryginalnych chipów, a po drugie ich parametry są znacznie gorsze zarówno od MECL III i MC10000, jak i Elbrus-2 (potencjalnie planowane na 1975 rok). -1978 lat) nie było sensu ich zbierać.

Trzeci błąd polega na tym, że zostały rzekomo wycofane z produkcji na zlecenie ITMiVT, a zaawansowane rozwiązania zgniły. W serii 137/138 z powodzeniem zmontowano zarówno EC-1050, jak i 1052, do 1980 roku w sumie wyprodukowano około 170 samochodów.

W zasadzie ich premiera zapewniła stabilne zamówienia na 137. serię przez kolejne 10 lat i nikt by nie pomyślał, żeby użyć jej w Elbrusie, była za wolna i nie została do tego stworzona.

Co zabawne, EC-1060 korzystał nie tylko z K500, ale także z jego oryginału - prawdziwej, żywej Motoroli MC10k! Przypomina Lomova, który był wówczas głównym twórcą ES-1060:

... Komputer ES-1060 rozpoczął prace rozwojowe w 1972 roku, a zakończył w 1977 roku.
Podstawą elementów są układy scalone średniej serii K500, które zostały wygenerowane przez odpady z serii 100 i 700 stworzone dla Elbrus z ITMiVT.
Główną trudnością w rozwoju był brak w tym czasie układów scalonych pamięci statycznej dla pamięci i kanałów buforowych procesora oraz układów scalonych pamięci dynamicznej dla pamięci RAM.
Układy scalone pamięci statycznej dla prototypu i pierwszych próbek produkcyjnych trzeba było kupić za granicą.


Dwa procesorowe TEZ z komputerów ES. Po lewej - EC-1050 w serii ECL 137, po prawej - EC-1060 w serii ECL K500. Należy pamiętać, że na drugim, sowieckie mikroukłady cicho współistnieją z ich oryginałem - Motorola MC10k
(https://1500py470.livejournal.com)

Wielokrotnie wspominany Małaszewicz (rodowity eurodeputowany) pisze:

O czasie powstania ESL IS.
E. Gornev twierdzi, że kiedy K. A. Valiev był w USA (1973 lub 1974), prace nad mikroukładami ESL dopiero się rozpoczynały (od 1974) i nie było jeszcze serii 500 (a raczej K500).
Jego produkcja rozpoczęła się pod koniec lat 70-tych.

Jednak technoarcheolodzy z łatwością obalili te fantazje (od blog):

Rozmawiałem z bezpośrednimi uczestnikami tych wydarzeń - N. Lukanovem, S. Nazarowem, O. Boczkinem, Yu Zhuravlevem, a dwaj pierwsi prowadzili tematy dotyczące urządzeń ESL.
Zgodnie z ich ogólną opinią, Gorniew nie miał w tym czasie nic wspólnego z tematami ESL. Okazało się, że:
Prace nad technologią ESL w NIIME rozpoczęto nie w 1974 roku, ale znacznie wcześniej.
Już w 1969 roku uzyskano pierwsze obwody ESL (G. Krasnikov, wspomniana kolekcja „NIIME - Micron”) ...
Do czasu wizyty K. Valieva i V. Kolesnikova w USA sześć typów układów scalonych było gotowych, ich duży pakiet z układami scalonymi z serii 500 w plastikowych obudowach został pokazany w Motoroli (N. Lukanov, wspomniana kolekcja "Mikroelektronika" ).
Sam fakt tej wizyty i porównania IP potwierdza wywiad Valieva z okazji 40-lecia NIIME, w którym powiedział:
„Przywieźliśmy ze sobą próbki szybkich serii układów scalonych. A gdy Amerykanie porównali je z własnymi, okazało się, że są one prawie całkowicie wymienne. Okazuje się, że w tym czasie szliśmy, jak mówią, nozdrza w nozdrza.
W badanym okresie pracowałem w SVT, gdzie w latach 1972-1973 na bazie układów Micron ESL serii 100 opracowano wstępny projekt superkomputera 41-50, mieliśmy już próbki układów scalonych.
Z tego wynika, że ​​informacje E. Gorneva w sprawie ESL IS są całkowicie błędne.

Nozdrza do nozdrza to oczywiście wyraźna przesada.

W rezultacie do 1975 r. Ustanowiono produkcję przemysłową 100., 500. i 700. serii, ale nie bez wielkich ościeży.

Technicznie były to te same chipy, tylko setna seria została wykonana w płaskiej wersji wojskowej, 100. - w cywilnym DIP, a 500. to specjalne zamówienie ITMiVT - bezramowe setki do umieszczenia w mikrozespołach K700, po 100–200 sztuk mikroczipy.

Zamówienie to zostało złożone w 1972 roku, ponieważ Burtsev wierzył, że użycie mikrozespołów zwiększy prędkość (pamiętajmy, że w tamtym czasie tylko IBM posiadał magię prawdziwych modułów wielochipowych).

Dlaczego K500 zostały przygotowane na wizytę Waliewa i Kolesnikowa w USA?

Nie ze względu na tajność setnej serii, ale dlatego, że w niej początkowo głupio zmieniliśmy przewody zasilające, rozkładając je po rogach obudowy.

Wydawałoby się to nonsensem?

Tak, ale nie w przypadku nanosekundowych układów scalonych.

Dzięki takiemu rozmieszczeniu zwiększyła się długość przewodników i nieznacznie zmieniła się indukcyjność, co wystarczyło, aby odporność na zakłócenia splotu była znacznie gorsza niż w oryginale, a wszyscy wiemy, jak czuły jest ECL na zakłócenia.

Pokazywanie ich byłoby tylko haniebne, ujawniając swoją ignorancję.


Oto setna seria, podstawa Elbrus-2
(https://1500py470.livejournal.com)

Co więcej, Yankees zdobył punkty za ulepszenie technologii MC10000, ponieważ pojawiła się nowa seria MC10100, a wraz z nią, jak widać na TEZ z EU-1060, proces kopiowania był trudny.

Udało im się skopiować K500TM130, ale jeszcze nie TM133, a z pamięcią MC10400 okazało się tak źle, że amerykańskie układy trzeba było instalować na seryjnych maszynach w pierwszym roku produkcji.

Amerykanie wypuścili już MC10200…

W rzeczywistości idea UE, jak już powiedzieliśmy, była dobra sama w sobie, a nasi projektanci dawali z siebie wszystko, zawiedli bazę elementów.

Seria Row-1 EU jako całość była raczej zepsuta (ze względu na słabą produkcję cywilnych TTL), ale EU-1060 początkowo okazał się tylko katastrofą.

Na przykład w tym samym instytucie badawczym „Delta” Mielnikow wolał wykonywać obliczenia dla „Elektroniki SSBIS” według klasyków - na BESM-6, dopóki ich EU-1060 nie został zastąpiony przez EU-1055M NRD, a Mielnikow ostatecznie zachował swoje nienawiść do UE na całe życie.

Poseł jednak łatwo wyszedł - wydał własne specyfikacje, które nie pokrywały się z TX w tych parametrach, których nie można było spełnić, a 500 spokojnie przeszło akceptację, korzystając z nieograniczonego patronatu lorda klonów Shokina.

Sprawa zakończyła się tym, że przedstawiciele MON (który również potrzebował potężnej UE jako komputera ogólnego przeznaczenia, a nie specjalnych komputerów obrony przeciwlotniczej/przeciwrakietowej) przyszli bezpośrednio do Shokina i wyrazili swoje oficjalne niezadowolenie z następujących faktów .

W K500, jak się okazało, w ogóle nie było obwodów kompensacji termicznej, w wyniku czego EC-1060 natychmiast nagrzewał się do 70+ stopni, a to był jedyny sposób, aby zapewnić przynajmniej pewną sprawność, ponieważ przy równomierne ogrzewanie działało (choć bezbożnie zwalniało), a gdy nie było równe, zaczęło strasznie zawodzić z powodu desynchronizacji między zimniejszymi i cieplejszymi układami scalonymi.

W rezultacie w zakresie temperatur przewidzianym w dokumentach regulujących Regionu Moskiewskiego mikroukłady nie działały, co było przedmiotem skargi.

Jednak Shokin (który wpadł w nieopisaną wściekłość, gdy myślał, że ktoś odważył się z nim nie zgodzić) pokazał, że Ministerstwo Obrony nie jest dekretem dla eurodeputowanego.

Według naocznych świadków wyjaśnił w tak potężnym chłopskim języku wielkoruskim, że eurodeputowany wyprodukował 500. serię w pełnej zgodności z jej specyfikacją, a TK z Ministerstwa Obrony można wysłać prosto i na lewo, że nawet wojsko było w szoku, i wycofali się z biura.

W rezultacie ostatecznie przeklęta seria 100/500/700 została zaakceptowana dopiero w 1980 roku i jednocześnie wyleczyła jej dziecięce rany.

Nic dziwnego, że jednym z pierwszych dekretów Gorbaczowa, którymi zaczął oczyszczać stajnie Augiasza z sowieckich ministerstw, był dekret o rezygnacji Szokina.

Nie zdążył jednak oficjalnie go wyrzucić, zdał sobie sprawę, że pachniał smażonymi i sam wolał wyjść trochę wcześniej.

Właściwie Burtsev również o tym przypomina:

Elbrus-2 MVK został zbudowany na nowej podstawie elementów.
Spowodowało to wiele problemów.
Układy scalone okazały się wyjątkowo zawodne: skoro zostały skopiowane, wiele nie zostało skopiowanych, były błędy systemowe.
Staliśmy cały rok, nie wiedząc, co robić, zwłaszcza z pamięcią.
Eurodeputowany zlokalizował produkcję układów scalonych w różnych fabrykach, a ja musiałem zorganizować kontrolę przychodzącą, ponieważ na przykład schematy Zelenograd (zakład Mikron) działały doskonale, a układy scalone produkowane w Kownie miały rozprężanie obudowy.


Deski z "Elbrus-2" dwóch pokoleń. Najpierw na 100. seriach i składach K200 10 takich kryształów, a potem na BMK I200. Tablice na wystawie w Mountain View w Kalifornii
(https://1500py470.livejournal.com)

Maksymalne problemy czekały, jak można się domyślić, z K200 - próbą zobrazowania radzieckiego MCM a la IBM 3081.

Wielu inżynierów, którzy pracowali w ITMiVT, uważało decyzję Burtseva o zamieszaniu z MBIS (multichip LSI, nie mylić z dalszym MAIS - matrix LSI, czyli BMK serii I200!) za całkowicie błędną i dodatkowo opóźnioną pracę nad Elbrus-2.

Pierwsze K200 były gotowe w 1976 roku i rozpoczął się rozwój procesora.

Około połowa jego logiki została zaimplementowana jako pojedyncze układy z serii 100, a druga połowa jako moduły K200.

Instalacja pakowania została wykonana w samym ITMiVT i byłoby lepiej, gdyby tego nie zrobili...

Debugowanie rozpoczęło się dopiero w 1981 roku, według jednego z szacunków niezawodność zespołów była taka, że ​​przy każdym włączaniu i wyłączaniu procesora coś się paliło.

Codziennie wymieniano do 5 stref TEZ, z tego powodu debugowanie trwało trzy razy dłużej niż planowano.

Generalnie z TTL w Elbrusie-1 sytuacja nie była dużo lepsza.

W efekcie do 1984 r. samochód został de jure przekazany de iure, de facto był to prototyp, który jeszcze nie został wypolerowany i wypolerowany (jak wiemy, wypolerowano go dopiero do 1989 r., po raz kolejny zmieniając bazę elementów, oraz wszedł do pełnoprawnej serii dopiero od 1990 r.).

W rezultacie Burcew przez 10 lat nie dotrzymał wszelkich możliwych terminów (pomimo faktu, że ersatz-Elbrus, pierwsza wersja na TTL, również działała normalnie nie wcześniej niż na początku lat 1980. i dla tak dzikiego napływu pieniędzy i napięcia siła okazała się dość nieszczęśliwa).

To właśnie pozwoliło nieszczęśnikom Burcewa dokonać rewolucji w ITMiVT i korzystając z faktu, że jego potężny patron Kałmykow leżał w grobie przez 10 lat, powtórzyć nad nim to samo, co Burcew zrobił ze Starosem.

Jeszcze przed dostarczeniem Elbrusa-2 stało się jasne, że podobnie jak pierwsza wersja jest beznadziejnie przestarzała technicznie.

Seria MC10k wyglądała dobrze w 1970 roku, ale już w 1985 roku była to już muzealny złom.

Jak już wspomnieliśmy, w ZSRR było wystarczająco dużo kandydatów na nowe technologie.

Instytut Badawczy Delta – od strony MEP i ITMiVT z NICEVT – od strony MRP, natomiast w pierwszym etapie wszystkie typy ECL były produkowane i rozwijane tylko w Zelenogradzie w zakładach MEP.
60 komentarzy
informacja
Drogi Czytelniku, aby móc komentować publikację, musisz login.
  1. +9
    4 lutego 2022 19:16
    Nieustanny przepływ ciekawej wiedzy, jak zwykle wielkie podziękowania dla autora.
  2. + 10
    4 lutego 2022 20:04
    Dwa falowniki dają AND, jeszcze dwa + AND dają NOR, wszystko inne jest zbudowane na bazie NOR.

    Chcę doprecyzować, dwa falowniki nigdy nie dadzą ORAZ bez dodatkowej operacji. Najprawdopodobniej pominięto „montowanie I”.
    Tutaj już uzyskuje się filozofię, nic nie wyjdzie z samego zaprzeczenia. Operacja matematyczna wymaga co najmniej dwóch argumentów.
    Dlatego minimalnym elementem będzie albo 2-AND-NIE lub 2-LUB-NIE (mnożenie logiczne z negacją lub dodawanie logiczne z negacją).Wszystkie operacje logiczne mogą być realizowane na tych dwóch elementach.
    1. +5
      4 lutego 2022 21:10
      Najprawdopodobniej pominięto „montowanie I”.

      Od razu widać osobę, która „cierpiała” w młodości z kart Karnot-Veitcha. śmiech Bez obrazy... Jak ci się podoba ten artykuł? Nie zdawałem sobie sprawy, na jaką publiczność liczył autor. Dla radiotechników - więc zostawiłbym tylko historię, jest ciekawa. Bo wszyscy pozostali zjedli łysinę. Tak, a w „Podręczniku Shilo” jest prostsze, bardziej eleganckie i krótsze w krótkiej przedmowie do każdej serii. Dla szerokiej gamy - brr !!! To jak neurochirurg próbujący opowiedzieć o swojej pracy w przedszkolu.
      Cholera. Ponieważ jest takie napięcie z pisarzami, bezczelnie kopiuj stare czasopisma Zagranicznego Przeglądu Wojskowego z lat 80-tych. Każdy będzie miał o czym porozmawiać.
      1. +7
        5 lutego 2022 11:39
        Historia jest ciekawa, ale antysowiecka pędzi ze straszliwą siłą.
        1. + 11
          5 lutego 2022 12:19
          Cytat z Ua3qhp
          Historia jest ciekawa, ale antysowiecka pędzi ze straszliwą siłą.
          To dlatego, że pomylili antysowieckość z rzeczywistością ZSRR i zgięli. Odsłanianie ławic sowieckiej biurokracji nie jest antysowieckie. Zamiast korygować błędy i wypierać ich źródła z przywództwa, zamykają (z powodzeniem, niestety) tych, którzy je zdemaskowali. A ponieważ przedsiębiorstwa w ZSRR nie zbankrutowały, błędy nie zostały naprawione metodami ekonomicznymi, powodując degradację kraju jako całości.
          1. +6
            5 lutego 2022 21:22
            Tak, na tym samym VZPP nie było ideologicznego tła. Ludzie próbowali, pracowali, oczywiście nie wszystko się układało i oczywiście było dużo intryg, jak we wszystkich wieloosobowych zespołach.
          2. 0
            6 lutego 2022 23:44
            ... i czas zająć się dyrygentami (Arkady Raikin)
      2. +2
        5 lutego 2022 12:15
        Cytat od daurii
        Nie zdawałem sobie sprawy, na jaką publiczność liczył autor.
        Na przykład dla mnie. Trochę zapomniałem lub nie znałem tej logiki (pamiętałem tylko TTL i ESL). Ponadto bez znajomości cech podstawy elementu trudno jest zrozumieć niektóre rozwiązania projektowe i „nieprojektowe”.
        1. 0
          28 sierpnia 2022 04:44
          Tak więc w artykule jest on przedstawiony tak powierzchownie i krzywo (często zastępując prawdziwe przyczyny frotte antysowietyzmem), że nawet drogi rozwoju zagranicznej elektroniki nie da się prześledzić.
          Co możemy powiedzieć o krajowej - o której informacje wydają się pochodzić z broszury reklamowej IBM z połowy lat 80. (dobitnie pokazała, że ​​"wszystko jest do dupy, tylko my jesteśmy w bieli"), przepisanej przez rusofobicznego mieszkańca Zachodu .
  3. +3
    4 lutego 2022 20:30
    Jeśli pamięć służy, to w połowie lat 90. istniały w ESL pewne konfigurowalne układy, które pozwalały na pracę z zegarem megahercowym 250-300.
    Ale kto to wyprodukował - niestety, powiedzieli mi to jako ciekawostkę.
    Myślę, że mówiąc o amerykańskiej elektronice cyfrowej lat 80-tych, fajnie byłoby nie zapomnieć o vlsi-programie. Znaczący wlew pieniędzy wojskowych (darpa) do nauki o przemyśle, który dał rozwój projektowania komputerowego i koncepcji RYZYKA (moim zdaniem są to główne wyniki).

    Trochę na bok, ale czy są jakieś planowane artykuły na temat kopiowania ibm-pc?
    Jako trzy ministerstwa wykonane na maszynie (Spark, EU i neuron), programowo zgodne z oryginałem, ale nie kompatybilne w sposób rozłączny (nie można przełożyć płytki od jednej do drugiej), nie tylko z oryginałem, ale także ze sobą.
    Pamiętam, że nawet w prasie dyskutowano o tej historii.
    1. +2
      4 lutego 2022 21:39
      W MKM, w drugiej połowie lat 80-tych, w NIITsEVT pracowali technolodzy, choć nie z ceramiki, to były płyty metalowe (aluminiowe?), na które w kilku warstwach nałożono izolator z folii miedzianej.
      Nie wiadomo, do czego był przeznaczony.
    2. + 10
      4 lutego 2022 22:09
      Cóż, w zasadzie mam superkomputerowy temat w aspekcie tego, jak zbudowano nasze systemy obrony przeciwrakietowej, niedługo skończę tę epopeję, trochę zostało, wtedy w zasadzie możemy pamiętać o PC, zobaczymy.
      A 250 Mg dla kryształów czysto domowych do połowy lat 90. jest, IMHO, fantastyczne, chociaż znając naszą nieprzewidywalną przeszłość, nie będę tu niczym zaskoczony. Mamy połowę historii o gorzkim wstydzie, a połowę o niewiarygodnie przytłaczającym.
      1. +3
        4 lutego 2022 23:24
        Nie, oczywiście nie były to produkty radzieckie, amerykańskie. Ale w latach 90. ESL jakoś tam nie było.

        połowa historii

        „Piętnaście do dwudziestu procent naszej tajemnicy wojskowej kryje naprawdę ciekawe osiągnięcia i wyniki. Jeśli nie myśleć, za jaką cenę je otrzymaliśmy. Ale reszta tajemnicy zamyka głębię kapłanów, w których siedzimy”
        (Jeden bardzo piśmienny znajomy, pod koniec lat osiemdziesiątych.)
  4. +9
    4 lutego 2022 21:12
    Czysta nostalgia. Gdzie są te DEC i SUN ze SPARC? odpoczywali w Bose i dawno zostali zapomniani. Tylko w takich artykułach pamiętają. Dzięki autorowi zebranie tak dużej ilości materiału i opisanie tej historii to nie lada praca.
    Ale wydaje mi się, że bardzo niewielu na stronie zagłębi się i doceni wzloty i upadki rozwoju technologii do produkcji obwodów półprzewodnikowych, obwodów, cech konstrukcyjnych itp. To przynajmniej kilka kursów na specjalistycznej uczelni.
    1. +1
      5 lutego 2022 21:28
      Gdzie są te DEC i SUN ze SPARC? odpoczywali w Bose i dawno zostali zapomniani.

      Tutaj używają ich astronauci
      1. +1
        5 lutego 2022 23:22
        Ale nie kochamy SUN za kamienie. puść oczko
        Prawdopodobnie technologia pozostała, nie pamiętam, kto po serii odsprzedaży miał wszystkie prawa do tego wszystkiego. Legendarna marka nie żyje. Komentarz czysto emocjonalny. Jeśli naprawdę się znudzisz, możesz poczytać o błędach kierownictwa, które doprowadziły do ​​tego wyniku. Ma to na celu podniesienie kompetencji w zakresie zarządzania.
        1. +1
          6 lutego 2022 10:27
          Tak więc architektura SPARC jest dziedzictwem firmy SUN. Wersja LEON jest obecnie open source. Użyj, kto może. lol
  5. +4
    4 lutego 2022 22:40
    Z niesłabnącym zainteresowaniem czytam tę serię artykułów o narodzinach sowieckich komputerów. Autor z łatwością podaje kompetentną, z wizualnymi zdjęciami i diagramami, historyczną sagę. Od lat 70., od czasów instytutu, korzystałem z tego regionu z kilkoma komputerami do prac semestralnych i dyplomu.

    Dlatego autor – SZACUNEK!
  6. BAI
    0
    4 lutego 2022 23:16
    Cykl artykułów odradza się w toku wykładów o obwodach elektrycznych z domieszką fizyki urządzeń elektronicznych.
  7. +1
    5 lutego 2022 01:12
    1060 było straszne. smutny
  8. 0
    5 lutego 2022 07:31
    nawet dokładna implementacja BESM-6 na niewiarygodnie szybkich mikroukładach I200 (ECL BMK) nie pozwoliła na zwiększenie wydajności nawet o współczynnik 10 (chociaż teoretycznie powinna była wzrosnąć o współczynnik trzydziestu).
    Czy możesz wyjaśnić, w jaki sposób system poleceń przełamuje wzrost wydajności obliczeniowej wraz ze wzrostem szybkości bazy sprzętowej? Powiedzmy, że częstotliwość zegara wzrosła N razy, „dokładna kopia” powinna zacząć wykonywać N razy więcej poleceń, słabych lub nie, a to jest dokładnie N razy więcej obliczeń, prawda?
    1. +4
      5 lutego 2022 11:43
      Możesz oprzeć się występom peryferii. Tych. Jednostka ALU może wykonywać polecenia szybciej, ale pamięć pozostaje wolna, a jednostka ALU zaczyna być bezczynna, a architektura jest dostosowana specjalnie do pracy z pamięcią, prędkość magistrali może również spowolnić wszystko itp.
    2. +4
      5 lutego 2022 12:10
      jak system dowodzenia przełamuje wzrost wydajności obliczeniowej

      Na przykład użycie „złożonych” poleceń, które wymagają mikrokodu do zaimplementowania.
      Jeśli czytasz artykuł Pattersona (z którym zaczęło się RYZYKO), miga "implementacja mikrokodu spowalnia procesor i nie pozwala na zwiększenie zegara"
      Lub (jak już wcześniej powiedziano) ciasny ciąg poleceń dla pamięci, a nie dla rejestrów.
      Notoryczna „dziura” między szybkością procesora a pamięcią (jeśli nie ma pamięci podręcznej). Pit na lata 90-te bardzo się rozrósł.
      Nie powiem nic o BESM, ale rekord 1801 wydaje się zawierać 70 cykli dla niektórych skomplikowanych poleceń. Lub 65.

      Załóżmy, że częstotliwość zegara wzrosła N razy

      Nie tak bardzo. Nie „zegar wzrósł”, ale skrócił się czas reakcji zaworu. Ale nadal nie możemy podnieść zegara.
      1. 0
        5 lutego 2022 15:09
        Dlaczego nie możemy (nie powinniśmy, nie chcemy itp.) podnieść zegara, jeśli czas reakcji zaworu się skrócił?

        Zgadzam się co do przydatności dużej liczby rejestrów.
        1. +1
          5 lutego 2022 15:58
          Dlaczego nie możemy (nie powinniśmy, nie chcemy itp.) podnieść zegara, jeśli czas reakcji zaworu się skrócił?

          Na przykład problem wzajemnych połączeń. Strome fronty impulsów - wzrastają przesłuchy (jeden z podręczników o projektowaniu szybkich obwodów nazywał się "zaawansowana czarna magia" - czarna magia).
          Pamięć mikrorozkazów nie ma czasu na wydanie danych do dekoderów.
          W zestawie instrukcji znajduje się wiele instrukcji, które wymagają pobrania operandu z pamięci operacyjnej - czekamy, aż pamięć je wyda.
          Możemy zwiększyć szybkość zegara, ale nie zgodnie ze wzrostem szybkości przełączania.

          I tak dalej.
          Możesz zajrzeć do samego artykułu Jamesa Pattersona (tam jednak o mikroprocesorach jednoukładowych), ale w sieci nie ma tłumaczenia. Oryginał (połowa lat 80.) gdzieś na stronie Berkeley.
          1. 0
            5 lutego 2022 18:03
            Ok.

            Cytat od: user707
            nadal nie możemy podnieść zegara
            To było kontrowersyjne twierdzenie.

            Cytat od: user707
            Możemy zwiększyć szybkość zegara, ale nie zgodnie ze wzrostem szybkości przełączania.
            To już normalne.
            1. -1
              9 lutego 2022 10:13
              Jeśli jesteś zainteresowany, możesz zobaczyć artykuł Łomowa, w obszarze 74. strony znajdują się przykłady stosunku szybkości przełączania elementów i opóźnień propagacji.
              Dla seniorów UE.
              eser-ddr.de/documents/Lomov_Ju.S._it_history_3.pdf
    3. +6
      5 lutego 2022 12:40
      Należy o to zapytać Maestro Lebedev. Tranzystor BESM-6 wydał (no weźmy średnio w teorii) warunkowy 1 MIPS, podobną implementację w koprocesorze do Elbrus-2 na najdzikszym MECL z częstotliwością 6 razy (przynajmniej bo xs jak uczciwie były w BARDZO PIERWSZYM tranzystorze BESM-6 10 MHz) więcej - około 2-3 MIPS. Chociaż z reguły zmiana bazy elementów na generację powinna zwiększyć wydajność o 5-10 razy, ale tutaj zmieniono z diod dyskretnych na BMK.
      Tam system dowodzenia był naprawdę dość krzywy, ogólnie można znaleźć analizy i nie będziesz zbyt leniwy, żeby się kopać, ale alternatywna wersja będzie tylko taka, że ​​w rzeczywistości częstotliwość i osiągi oryginalnego BESM-6 były baaardzo dużo przeceniony później przez kolejnych gawędziarzy. Jeśli faktycznie wydała, powiedzmy, 0,3 MIPS, to wzrost do 3 jest już logiczny i normalny.
      Problem polega na tym, że w 1968 r. nie wypuszczono żadnych testów porównawczych na pierwszym oryginalnym BESM-6, a nie na jego wariantach z lat 1980. z pamięcią TTL itp., nikt nie uruchomił rzetelnie. A jego moc można ocenić tylko bardzo pośrednio w bardzo dużym zakresie. Jak przypomniał jeden towarzysz, dzwonią pod numery od 0,25 do 1,5 MIPS, a pierwszy to oszczerstwo na naszych dzielnych programistów, a drugi to brutalna, nieokiełznana fantazja. Więc szukaj prawdy w naszej nieprzewidywalnej przeszłości...
      1. +2
        5 lutego 2022 13:24
        Nadal istnieje silna zależność od rodzaju poleceń.
        Powiedzmy dla MK KR580VM80A, który zaczął być produkowany w 1977 roku: z Wiki
        "Maksymalna częstotliwość taktowania gwarantowana przez dokumentację dla procesora KR580VM80A wynosi 2,5 MHz. Każda instrukcja wykonywana jest w 1...5 cyklach maszynowych, z których każdy składa się z 3...5 cykli. Minimalny czas wykonania prostych poleceń rejestrów wynosi 4 cykle. Tym samym maksymalna wydajność procesora szacowana jest na 625 tys. op/c"
        Tych. jeśli nasz program używa głównie operacji rejestr-rejestr, to prędkość wyniesie 0,625 MIPS, a jeśli „długie” operacje pamięciowe wykonywane są w 25 cyklach, to prędkość wyniesie 0,1 MIPS.
        To prawda, że ​​ten procesor może z powodzeniem pracować z częstotliwością zegara 3 MHz.
  9. +3
    5 lutego 2022 12:27
    Główną różnicą jest to, że ASIC są projektowane z już uformowanych standardowych ogniw, a nie z gołych tranzystorów, jak BMC.

    ASIC mogą być formowane ze standardowych elementów (albo mogą nie być formowane, tzw. full custom, i będą to też ASIC), ale nie mówimy o „już uformowanych” komórkach, ale o bibliotekach elementów, których topologie są w CAD. A potem są wykonane na szczerym, czystym krzemie.

    Teraz pojawiły się opcje konwersji FPGA, gdy producent FPGA robi chipy oparte na strukturach FPGA i firmware FPGA od klienta, ale zamiast układów rekonfiguracyjnych tworzony jest zestaw przewodników według wygenerowanej maski. Sami producenci nie nazywają takiego rozwiązania „ASIC”, wyróżniając je jako osobną klasę (niektórzy nazywają to „ustrukturyzowanym ASIC”), a nawet sprzeciwiają się ASIC.
  10. +2
    5 lutego 2022 19:35
    Autor jest bardzo nieszczery, na zaległości mikroelektroniki powstałej w latach 70-80 można by żyć przez dziesięciolecia. Do 1991 roku nie doszło do upadku i nie było nawet blisko. Procesory segmentowe serii KS1804 i KR1804, pamięć KM1804, układy planarne serii 564 i inne były absolutnie niezawodne. Na przykład liczba procesorów sekcyjnych była liczona w tysiącach i nie było ani jednego bezużytecznego. Własna elektronika została uderzona klubem administracyjnym, publikacją dokumentów regulacyjnych uniemożliwiających jej użycie. Importowana elektronika, z wyjątkiem mikroprocesorów, obecnie sprowadzana z zagranicy, jest często kilkakrotnie gorsza pod względem niezawodności od ówczesnej krajowej. Płonące teraz, jak nasiona, deski do pralek trudno było spotkać.
    1. +2
      5 lutego 2022 20:02
      można było żyć przez dziesięciolecia na zaległościach mikroelektroniki stworzonej w latach 70-80.

      Czy możesz wymienić wydajność produktów odpowiednich dla opanowanych produktów na poziomie mikroprocesorów, powiedzmy, na Zelenogradzie "Angstrem"?

      Do 1991 roku nie doszło do upadku i nie było nawet blisko.

      A jak opanowano sowiecki ćwierćmegabajt? (RU7)/
      A co się stało z megabitnikiem (RU9)
      Jaka jest maksymalna ilość dysku twardego, który Penza jest w stanie wyprodukować?
      Ile pamięci potrzeba do edycji przynajmniej pięciostronicowego dokumentu w wswyg?

      płyty pralki były trudne do znalezienia.

      Zgadza się, to trudne.
      Jeśli już, pamiętam, jak rozmieszczona jest automatyczna jednostka sterująca Vyatka.
      1. +1
        5 lutego 2022 20:15
        Nie mam pojęcia, jak opanowano mikroukład RU7, nie było to częścią mojego kręgu zainteresowań. Miałem do czynienia ze sprzętem, w którym znajdowała się pamięć KM185RU7A, absolutnie niezawodna i działająca pamięć, ani jednej awarii spośród setek dostępnych w pracy mikroukładów. Sytuacja była gorsza z mikroukładami K155RU7, które czasami nie działały, ale z kilkuset zakupionych do naprawy i wymiany żaden mikroukład nie był bezużyteczny.
        Ze względu na problemy z dyskami twardymi zastosowano emulator oparty na chipach KR565RU5, tzw. pamięć dynamiczną. Jakość tych konkretnych mikroukładów była nieistotna, użyto kodu Hamminga, ale problem polegał głównie na testowaniu, identyfikowaniu bezużytecznych przypadków, testy fabryczne były słabe, a uruchomienie natychmiast ujawniło bezużyteczny TEC.
        Całkiem możliwe było zapewnienie całodobowej i bezawaryjnej pracy wielu szaf gęsto upakowanych mikroukładami.
        1. 0
          6 lutego 2022 21:41
          Nie mam pojęcia, jak opanowano układ RU7

          Mniej niż dziesięć procent wydajności.
          Ale więcej niż pięć.

          pamięć KM185RU7A
          K155RU7

          To jest kilobit. Mowa o obiecującej (pod koniec lat 80.) pamięci o pojemności 256 razy większej. dynamiczny.

          do zastosowań przemysłowych wystarczały również procesory sekcyjne, a także inne mikroukłady o małym i średnim stopniu integracji.

          CNC ? Automatyzacja fabryki?
          Elektronika-60 nie jest zła, ale potrzebujemy (jeszcze) innego poziomu.

          prawie pierwszą rzeczą, jaką zrobili Amerykanie, po osiedleniu się na Ukrainie, zakazali dostaw żetonów z Kijowa

          Myślę, że opowiadano ci historie.
          Na początku lat 90. komunikacja się zepsuła, było źle, prawie wszystkie A/C i C/A o przyzwoitej prędkości pozostały w krajach bałtyckich, ale Amerykanie nie mieli z tym nic wspólnego.
          „Popis”, bzdury (i ze strony rosyjskiej też), było dużo.
          Następnie, gdy potrzebne były pieniądze, Bałtowie całkowicie zaczęli dostarczać.
          Podczas gdy przedsiębiorstwa działały.

          Był w serwisie i sprzęcie komunikacyjnym PCM

          Jeśli chodzi o sprzęt do zagęszczania, nie powiem, kto wyprodukował IKM-32 (i częstotliwość K-60), ale główne systemy przekaźników radiowych były produkowane w przedsiębiorstwach, które miały więcej niż połowę obciążenia (pod względem pracochłonności ) produktów czysto wojskowych.
          1. -1
            6 lutego 2022 23:05
            Więc podziel się o „popisy”, bzdury (i ze strony rosyjskiej też), było wiele ... W przeciwnym razie wydaje się, że wiesz dużo, ponieważ tak słynnie odrzucasz moje argumenty, ale nie ma specyfika. Powiedz nam gdzie, kto, jak i kiedy "głupio" odwołał dostawy?
            Twoje osądy są na poziomie zastępcy dyrektora ds. zaopatrzenia, a nawet dyrektora generalnego, nie mniej. Popieraj takie „smażone” stwierdzenia faktami.
            1. -1
              11 lutego 2022 21:37
              Twoje osądy są na poziomie zastępcy dyrektora ds. zaopatrzenia, a nawet dyrektora generalnego, nie mniej. Popieraj takie „smażone” stwierdzenia faktami.

              To ty próbujesz posadzić mnie na takich krzesłach, na których nawet nie interesuje mnie siadanie.

              Popieraj takie „smażone” stwierdzenia faktami.

              Nie, nie z faktami. Rozmowy z różnymi pracownikami fabryk w pierwszej połowie lat 90., opowieści o tym, co się wydarzyło i gdzie, a ja jestem osobą pamięci. Powiedzą ci, co pamiętasz, a potem, za dziesięć lat, będę pamiętał i pytał kogoś, kto wie. Sytuacja się wyjaśni.

              podziel się o „popisy”, bzdury (i ze strony rosyjskiej też), było wiele rzeczy ...

              A więc: ile gównianych nie widziałem, nie słyszałem opowieści i nie obserwowałem konsekwencji, nigdzie (nawet w przypadkach typu „fabryczny magazyn komponentów został wrzucony do wykopu i przykryty buldożerem z góry”) nie było ani amerykańskiego, ani angielskiego intryga. Była chciwość i głupota byłych obywateli ZSRR. W przypadku magazynu (na przykład) - aby konkurenci ze „starych szefów” nie mogli powiedzieć, że zakład może pracować jako zakład, a nie jako teren do wynajęcia.

              o „popisy”, bzdury (i ze strony rosyjskiej też)

              Początek lat 90-tych, rozmowa „nie, ci Ukraińcy nam nic nie dostarczą, bo jesteśmy w Rosji, naliczyli podwójną cenę za sprzęt, którego potrzebują i powiedzieli „nie sprzedajemy taniej komór gazowych”, oni od tego czasu po prostu nie dostarczyli niczego na wschód

              Czy jesteś jednym z telefonistów-GTSovtsev?
              Nie czytałeś prasy branżowej, nie wiesz, co mieliśmy z poziomem telefonizacji?
              1. -1
                11 lutego 2022 22:34
                Faktem jest, że jesteś bliski faktom, a wnioski mają uniwersalną skalę. Dalecy od prostych inżynierów pochodzili z USA i Europy, a ich działania i pod ich kierownictwem, zarówno w przemyśle naftowym, jak i elektronicznym, były dalekie od emocjonalnych i głupich. A efektem zakupu akcji przez Amerykanów było niemal natychmiastowe zatrzymanie produkcji. Zarówno na Ukrainie, jak i w Kazachstanie bardzo aktywnie działali zagraniczni wykonawcy gościnni.
                I nie potrzebuję odniesień do rozmów z pracownikami fabryki, rzeczywisty stan rzeczy bardzo różni się od treści rozmów w palarniach inżynieryjnych.
                1. -1
                  11 lutego 2022 23:06
                  konsekwencją zakupu akcji przez Amerykanów było niemal natychmiastowe zatrzymanie produkcji.

                  Jeśli mówimy o wykupieniu przedsiębiorstw za „cięcie złomu”, to znowu nie spisek, ale czysta ekonomia.
                  Można by pomyśleć, że nie było to w rosyjskich przestrzeniach.
                  Turecka metalurgia pracowała przez całe lata 90. na ukraińskim metalu wtórnym, nowe (nienaruszone) szyny eksportowano przez Odessę.

                  rzeczywista sytuacja jest zupełnie inna

                  Tajna wiedza?
                  Czy można sprawdzić, jakie (w kraju) pieniądze jako pierwsze pojawiły się na zakup przedsiębiorstw U. „na złom” (później przyciągnął też kapitał z innych krajów)?
    2. -1
      6 lutego 2022 00:08
      Cytat: Siergiej Aleksandrowicz
      Autor jest bardzo nieszczery, na zaległości mikroelektroniki powstałej w latach 70-80 można by żyć przez dziesięciolecia.
      Kogo żyć? Wojskowy? Być może, zwłaszcza jeśli nędzę podstawy elementu rekompensuje praca inżynierów. gospodarka narodowa? Nie. Jest to teraz pięcioletni procesor, co jest dość istotne, ale wtedy istniała przepaść między procesorami z różnicą wydajności wynoszącą 5 lat, i to nie tylko pod względem szybkości. To prawda, że ​​jeśli przez „na żywo” nie masz na myśli sprzedaży sprzętu komputerowego, to mogą istnieć opcje. Oprogramowanie nie nadążało za sprzętem: 486 już się rozprzestrzeniło, pentium były w drodze, a ludzie nadal siedzieli na DOS-ie. Pamiętam nawet artykuły, kiedy wychodziły 486/25MHz, "kto potrzebuje takiej szybkości?".
      1. 0
        6 lutego 2022 00:19
        Jeśli chodzi o procesory do komputerów osobistych, jak je wtedy nazywano, pozostawały daleko w tyle, a opóźnienie rosło, nie można się z tym spierać. Ale w zastosowaniach przemysłowych było wystarczająco dużo procesorów sekcyjnych, a także innych mikroukładów o małym i średnim stopniu integracji. Chodzi o to, że elektronikę domową zamknięto zakazami administracyjnymi, a nie porzucono z powodu rzekomo całkowitej nieprzydatności i przestarzałości. Na przykład prawie pierwszą rzeczą, jaką zrobili Amerykanie po osiedleniu się na Ukrainie, był zakaz dostarczania żetonów z Kijowa (NPO Korolev) do Rosji.
        Widziałem 386. i 486. procesory w europejskim sprzęcie do użytku przemysłowego dopiero pod koniec lat 90., tam też wszystko nie poruszało się w zawrotnym tempie.
    3. +4
      6 lutego 2022 16:22
      Podejrzewam, że po odbiorze wojskowym pracowałeś nad sprzętem. Ale pracowałem w zwykłej fabryce naprawiając maszyny CNC. Były takie systemy i nadal działają, 2P22 i NTs-31. Tak więc po uruchomieniu pierwsze 2 lata były dla nas piekłem! Mikroukłady i procesory serii 155 latały jak nasiona, zwłaszcza latem, kiedy temperatura w sklepie była wyższa. A także te, nie wspominając o nocy, wentylatory VN-1 i VN-2 nieustannie się zacinały. A w kolejnych latach, po wymianie większości śmieci, mikroukłady nadal latały, znacznie rzadziej, ale latały stale. Ale mieliśmy 10 obrabiarek, które nie trafiły do ​​przedsiębiorstwa obronnego i dlatego trafiły do ​​nas z bazą elementarną akceptacji wojskowej - tak, problemów prawie nie było.
      1. +2
        6 lutego 2022 17:18
        Odbioru wojskowego nie było, odbiór trwał kilka miesięcy, w tym czasie wadliwa podstawa elementu została usunięta. 155. seria była rzadkością, głównie 555 oraz KR1533 i 531. Z 155. serii, jeśli były bezużyteczne, były to 155LN1, zostały złapane przez elementarny oscyloskop. Główne problemy dostarczyło 531 mikroukładów i mikroukładów pamięci KR132RU5A, do tego stopnia, że ​​nie mogłem zdiagnozować, wymieniłem go z rzędu na KM132RU5A. Było dużo zapasowych mikroukładów, były problemy z częściami zamiennymi, ale zostały one szybko rozwiązane. Sprzęt łączności PCM również był w służbie, był na 533, 1533 i 564, są kadłuby planarne i najprawdopodobniej odbiór wojskowy, nie zepsuł się w ogóle od lat.
        Miałem okazję porównać zagraniczną i naszą elektronikę, import cyfrowy był około 3-4 razy bardziej niezawodny niż nasza, ale jeśli chodzi o urządzenia zasilające i inne urządzenia zasilające, nasza była już bardziej niezawodna z tym samym stosunkiem o 3-5 czasy.
      2. +1
        6 lutego 2022 17:49
        To było naprawdę interesujące, kiedy byłem zaangażowany w SMU przy naprawie i uruchomieniu sprzętu do identyfikacji dzwoniącego w elektromechanicznych centralach telefonicznych. Tam fabrycznie do szafki dołączono worek z zapasowymi układami scalonymi i innymi elementami, więc wszystko zostało wydane! Trwały też prace nad ich szczegółami! Kilka wadliwych elementów było po uruchomieniu. Ale potem wszystko działało dla nich przez lata.
        Nauczyłem się pinów mikroukładów serii 555 i 561 z książki referencyjnej Shilo i diagramów prawie na pamięć.
  11. 0
    6 lutego 2022 16:43
    Z artykułu zrozumiałem jedno kompletne gówno w ZSRR, BESM-6 to śmieci, a jego twórca Lebiediew jest niezdarny, ale IBM tak. Może autor napisze artykuł o tym, jak Amerykanie wrzucili nam ten IBM dla jednego systemu (UE), jak zrobili wszystko, co możliwe i nie mogli wziąć swojego IBM za podstawę UE. ale bynajmniej nie rozwój Lebiediewa? I dlaczego użycie jakiejkolwiek EU80… w Siłach Zbrojnych ZSRR zostało zakazane pod koniec lat 10-tych?
    1. +2
      6 lutego 2022 17:47
      Cytat z vignat21
      I dlaczego użycie jakiejkolwiek EU80… w Siłach Zbrojnych ZSRR zostało zakazane pod koniec lat 10-tych?
      Nie miał. EU-ki w Siłach Zbrojnych ZSRR i Rosji pracował aż do fizycznego zużycia. Były też sparowane z komputerami osobistymi (sieć Ruslan). Problem 2000 roku ich wykończył.
    2. -1
      6 lutego 2022 21:46
      Amerykanie wrzucili nam tego IBM dla jednego systemu (UE), ponieważ zrobili wszystko, co możliwe i niemożliwe, aby ich IBM został wzięty za podstawę UE. ale bynajmniej nie rozwój Lebiediewa?

      Problem! Oprogramowanie !! Zaprowiantowanie!!!
      Skąd wziąć oprogramowanie dla swoich unikalnych architektur?
      W środowisku szybko rosnącej różnorodności i rosnącej złożoności.
  12. +2
    7 lutego 2022 12:33
    Wszystko jest jak zwykle: problemy burżuazji są normalne; problemy w ZSRR - od bezwładności, skrzywienia i niezdolności. Chłodzenie powietrzem sowieckich komputerów przeciw freonowi na Zachodzie jest ZŁEM (i niemożnością pracy z freonem), a za 15-20 lat kompaktowe zaawansowane chłodzenie powietrzem burżuazyjnej maszyny przeciw zacofanemu freonowi rosyjskiemu jest jak „stolarz przeciw stolarz."
    Tak więc klasyka o krzyżu i majtkach wpada mi do głowy.
  13. +1
    7 lutego 2022 13:01
    Cytat: Siergiej Aleksandrowicz
    Jeśli chodzi o procesory do komputerów osobistych, jak je wtedy nazywano, pozostawały daleko w tyle, a opóźnienie rosło, nie można się z tym spierać. Ale do zastosowań przemysłowych było wystarczająco dużo procesorów sekcyjnych, a także innych mikroukładów o małym i średnim stopniu integracji ... .

    Nie dość. W połowie lat 80. maszyny z radzieckimi CNC miały 2.5-współrzędne, jeśli 3-współrzędne, to już zainstalowały importowane CNC (Bosch, Siemens, Fujitsu). Inna sprawa, że ​​często wystarczyła współrzędna 2,5. Nie mogę się pochwalić, że miałem do czynienia z najnowszym sprzętem, ale 2C85 (bazujący na Elektronice-60) zdecydowanie nie był śmieciem. A wykonanie procesora M2 (E-60) było takie sobie: niepozorna 4-warstwowa płyta z głównym okablowaniem na wewnętrznych warstwach 2 i 3. Na tle M2 znacznie bardziej podobała mi się wydajność procesora MC1201.
    1. -1
      11 lutego 2022 22:27
      Były rezerwy szybkości i niezawodności nawet w procesorach sekcyjnych. Oszczędności i uproszczenia nie powiodły się. Nie jest więc jasne, czy istnieje zapotrzebowanie na komputery jednopłytkowe. Jeśli pamięć zostanie podzielona na statyczną i dynamiczną, a procesor i pamięć są wykonane osobno na różnych TEZ, to łatwość konserwacji i niezawodność wzrosną, ale poszliśmy w odwrotną stronę. Nie było wystarczającej wbudowanej diagnostyki w sprzęcie domowym, zaoszczędzili pieniądze, w obwodach zagranicznych do 1/3 tablicy zajmowała logika diagnostyczna. Ucierpiał projekt, a nie podstawa elementów.
      1. +1
        13 lutego 2022 17:57
        Cytat: Siergiej Aleksandrowicz
        Ucierpiał projekt, a nie podstawa elementów

        Były problemy, IMHO, zarówno z podstawą elementu, jak iz konstrukcją i wykonaniem. Spotkałem się ze wszystkim, choć park maszynowy był generalnie mały.
        Cytat: Siergiej Aleksandrowicz
        Nie jest więc jasne, czy istnieje zapotrzebowanie na komputery jednopłytkowe. Jeśli pamięć zostanie podzielona na statyczną i dynamiczną, a procesor i pamięć są wykonane osobno w różnych TEZ, wówczas wzrośnie łatwość konserwacji i niezawodność

        Zamiast jednej płytki - trzy plus kilka złączy i chipów interfejsu. A przy tym pickupy w długich kolejkach. Więc jak to poprawia niezawodność?
        A "Electronics-60" w 2P22, o ile pamiętam, miał ROM tylko na osobnej płytce. RAM, szczerze mówiąc, nie pamiętam, gdzie to było.
        1. +1
          13 lutego 2022 20:54
          Dzięki kompetentnym obwodom cyfrowym nie ma zakłóceń w długich liniach, na pewno w seriach 1801 i 1804, tylko jeśli zabierzesz je do przedłużacza w celu naprawy. Złącza nie dają żadnego efektu, zdarzały się przypadki zacięć, ale niezwykle rzadko. Naprawa i diagnostyka są znacznie uproszczone, gdy są podzielone na osobne tablice, same tablice są prostsze i łatwiejsze w utrzymaniu. Obwody buforowe są bardzo łatwe do zidentyfikowania i naprawy, oszczędzanie na takich jest nieodpowiednie, a także na chipach z kodem parzystości i Hamminga. Takie są wnioski z ogromnego, dziesięcioletniego doświadczenia uruchomieniowego.
          Chociaż, uczciwie, przypomniałem sobie kilka przypadków, w których licznik i spust nie rysowały długich linii, ale jest to dokładnie błąd projektowy obwodu. Wyeliminowane przez wlutowanie dodatkowego chipa buforowego lub użycie wolnego elementu na istniejącym chipie.
          W zagranicznych schematach spotkałem całą sieć sygnałów sterujących i mikroukładów, co oznacza, że ​​​​mieli te same problemy z bazą elementów, ale wiedzieli, jak je rozwiązać, nie oszczędzali na tym.
          1. +1
            14 lutego 2022 11:12
            Sergey Alexandrovich, twoje doświadczenie w obsłudze zamówień jest znacznie większe niż moje, więc nie będę się sprzeciwiać. Tak, i tak naprawdę nic. Urządzenie podzielone na kilka płyt jest łatwiejsze do zdiagnozowania i naprawy. A układy scalone bufora są wymagane. A ze złączami problemy są dość rzadkie, chociaż się zdarzają.
            Jednocześnie z mojego doświadczenia operacyjnego: jeśli nie myjesz złączy płytki alkoholem co 2-3 tygodnie - spodziewaj się problemów. Ale nie na wszystkich urządzeniach, na niektórych lepiej było nie dotykać („nie dotykaj sprzętu, a nie zawiedzie”). Minęło 30 lat, ale zawsze ciepło wspominam ten czas.
            1. 0
              14 września 2022 19:59
              Urządzenie podzielone jest na kilka płyt, dzięki czemu łatwiej je zdiagnozować i naprawić


              Wątpliwe, tylko jeśli doprowadzony do naprawy z dokładnością osobnego rezystora. Ale ze względu na obecność złącz na pewno będzie wymagał większej uwagi, zamiast zabierać i wyrzucać buggy, zamieniając ją na nową.
              1. 0
                15 września 2022 14:05
                Cytat z glestwid
                ...zamiast wyjmować buggy i wyrzucać, wymieniając na nową....

                Cóż, tak, w tamtych czasach byłoby to gdzie indziej, aby ta nowa opłata zastąpiła tę zawartą.
  14. +1
    7 lutego 2022 13:12
    Cytat ze starego buta
    Podejrzewam, że po odbiorze wojskowym pracowałeś nad sprzętem. Ale pracowałem w zwykłej fabryce naprawiając maszyny CNC. Były takie systemy i nadal działają, 2P22 i NTs-31. Tak więc po uruchomieniu pierwsze 2 lata były dla nas piekłem! Mikroukłady i procesory serii 155 latały jak nasiona, zwłaszcza latem, kiedy temperatura w sklepie była wyższa. A także te, nie wspominając o nocy, wentylatory VN-1 i VN-2 nieustannie się zacinały. A w kolejnych latach, po wymianie większości śmieci, mikroukłady nadal latały, znacznie rzadziej, ale latały stale. Ale mieliśmy 10 obrabiarek, które nie trafiły do ​​przedsiębiorstwa obronnego i dlatego trafiły do ​​nas z bazą elementarną akceptacji wojskowej - tak, problemów prawie nie było.

    Pracowałem z 2P22, rzeczywiście chłodzenie chciało zostawić jak najlepiej. Ulepszony stojak. I pojawiły się problemy z uruchamianiem. A z NTs-31 maszyna była. To nie ja wykonałem prace zlecające, ale biuro na kontrakcie. Ale po premierze i niezbyt długim okresie awarii nie pamiętam większych problemów z NTs-31 i 2R22.
    I w coś wątpię, że przy produkcji systemów CNC z góry wiadomo było, dokąd pójdą. W dodatku do tego samego 2P22, o ile dobrze pamiętam, komputery były produktami zakupionymi i trochę odstawały w stelażu. Ale wszystko jest możliwe.
    1. 0
      11 lutego 2022 20:59
      Tylko tam kołował DEC, a nie UE. W zasadzie wszystko działało dla DEC, nie było tam żadnych akademików, to było żelazo robotniczo-chłopskie.
  15. +1
    14 lutego 2022 16:00
    Jak wszystko w liberalnej fikcji pochodzi z lat 90. ...
    Beczka ciekawych informacji zatruta łyżką antysowieckiej linii lol
    Ponowne logowanie „Głos Ameryki” śmiech
  16. 0
    27 lutego 2022 12:47
    Autor jest w 100% antysowiecki! Gdyby tylko oszukać wszystko, co sowieckie i wywyższyć wszystko, co amerykańskie! Srać BESM-6 i Elbrus-2 - cóż, w porządku ... Dość powiedzieć, że Elbrus-2 nadal z powodzeniem zapewnia obronę przeciwrakietową dla regionu moskiewskiego. A srać wielkiego Lebiediewa... To tak samo jak srać Kałasznikowa, Korolowa czy Tupolewa!
  17. 0
    1 maja 2022 r. 20:05
    Proszę wyjaśnić, jak ten odbiornik rurowy ma się do rosyjskiego systemu obrony przeciwrakietowej? Czy region moskiewski nad tym pracuje? Użyjmy broni jądrowej? Zastrzel mnie!
  18. 0
    28 sierpnia 2022 04:37
    odkąd zostały skopiowane, wiele nie zostało skopiowanych, były błędy systemowe.
    Już samo to zdanie wystarczy, by zrozumieć – seria nie została skopiowana, ale stworzona od podstaw – może poza skupieniem się na zasadach znanych z artykułów naukowych (które nie opisują samych niuansów, które składają się na produkt komercyjny z półfabrykatu) oraz znane opakowanie elementów logicznych...