2. Co to jest mikroelektronika i do czego jest nam potrzebna

2.5. Mikroprocesory, pamięci i „prawo Moore’a”

W końcu lat 60 XX wieku były już produkowane elektroniczne kalkulatory wykorzystujące układy scalone małej skali integracji. W roku 1971 w nowo powstałej firmie Intel zaprojektowano i wyprodukowano pierwszy układ scalony, który miał zastąpić kilka odrębnych układów stosowanych dotąd w kalkulatorach. Powstał układ o symbolu 4004, operujący na słowach czterobitowych, będący z punktu widzenia wewnętrznej architektury układem zasługującym na miano mikroprocesora. Jest on powszechnie uważany za pierwszy mikroprocesor, choć w rzeczywistości firma Texas Instruments miesiąc wcześniej wyprodukowała inny czterobitowy mikroprocesor TMS 1000 (zastosowany później w kalkulatorach tej firmy) i to właśnie Texas Instruments, a nie Intel, posiada amerykański patent na mikroprocesor. Wkrótce zarówno Intel, jak i inne firmy zaczęły wypuszczać na rynek coraz bardziej złożone układy mikroprocesorów. Pierwsze mikroprocesory 8-bitowe to 8008 (Intel, 1972) i jego rozbudowany następca 8080 (1974). Jednocześnie powstały mikroprocesory konkurencyjne, jak MC 6800 (Motorola, 1974), MOS 6502 (MOS Technology, 1975), Z80 (Zilog, 1976). Postępy technologii półprzewodnikowych, a w tym wprowadzenie do produkcji technologii CMOS, umożliwiły szybki rozwój architektur mikroprocesorów i wzrost ich szybkości działania przy równoczesnym spadku cen. Mikroprocesory zaczęły być stosowane w sterowaniu urządzeniami przemysłowymi, w motoryzacji, w elektronice medycznej, a także w sprzęcie powszechnego użytku. Jednak prawdziwą rewolucję zapoczątkowały komputery osobiste – powstające najpierw jako projekty hobbystyczne, a nieco później już jako dojrzałe produkty rynkowe przeznaczone dla każdego, a nie tylko dla specjalistów. Pierwszym takim produktem był Apple II (1977), którego kolejne wersje produkowane były w wielkich ilościach do roku 1983. Jego głównym projektantem był Amerykanin polskiego pochodzenia Steve Wozniak. Projekty Wozniaka cechowały się techniczną wirtuozerią, co było jednym ze źródeł sukcesu Apple II. Pojawiły się wkrótce inne konkurencyjne komputery osobiste (Commodore, Atari, TRS-80 i in.). W roku 1981 wejście na rynek wielkiej firmy IBM z komputerem IBM PC zmieniło reguły gry. IBM zakupił system operacyjny od małej wówczas firmy Microsoft, a także opublikował specyfikację techniczną komputera, co zaowocowało powstaniem dziesiątków firm produkujących klony IBM PC oraz oprogramowanie. Ponadto komputer z IBM uzyskał w biznesie opinię „profesjonalnego”, w odróżnieniu od Apple II uważanego za sprzęt do użytku domowego i dla hobbystów. Odpowiedzią Apple był komputer Macintosh (1984). W odróżnieniu od IBM PC, w którym wykorzystano 8-bitowy procesor Intela, Macintosh miał procesor Motoroli MC 68000 o mieszanej 16/32-bitowej architekturze i dużo wyższej sprawności obliczeniowej. Bogata jak na owe czasy grafika i „okienkowy” system operacyjny, koncepcyjnie wywodzący się z prac prowadzonych w latach 70 w laboratoriach firmy XEROX, stały się „znakiem firmowym” produktów Apple i umożliwiły przetrwanie i rozwój tej firmy mimo potężnej konkurencji kolejnych generacji komputerów wywodzących się od IBM PC, wyposażonych w końcu także w system Microsoft Windows wzorowany na systemie graficznym Macintosha.

Błyskawiczny rozwój rynku komputerów osobistych spowodował, że mikroprocesory stały się jednym z dwóch głównych produktów mikroelektronicznych (drugim są pamięci półprzewodnikowe – o nich dalej). Od końca lat 80 XX wieku wyścig technologiczny w mikroelektronice dyktowany był głównie przez rosnące potrzeby kolejnych generacji mikroprocesorów. Komputery „IBM-kompatybilne” do dziś wykorzystują procesory o architekturze znanej jako „x86”, wywodzącej się z 16-bitowego procesora Intela 8086 z lat 80 XX wieku. Do początku lat 90 XX wieku linia procesorów „68xxx” Motoroli skutecznie konkurowała z procesorami Intela. Potem konsorcjum Apple-IBM-Motorola wprowadziło na rynek procesory PowerPC o nowocześniejszej architekturze i większej wydajności od ówczesnych procesorów Intela. W latach 1994 – 2006 procesory PowerPC były stosowane w komputerach Apple, a także w wielu innych urządzeniach, lecz w końcu zaczęły przegrywać wyścig konkurencyjny z procesorami Intela z przyczyn ekonomicznych – Intel miał ogromne zasoby finansowe umożliwiające wprowadzanie mniej więcej co dwa lata nowych generacji technologii produkcji. Takich możliwości nie mieli producenci procesorów PowerPC (Motorola w roku 2004 w ogóle zrezygnowała z produkcji układów scalonych tworząc odrębną firmę Freescale Semiconductor). Intel jako dostawca procesorów do komputerów wygrał dzięki temu, że procesory o mniej wydajnej architekturze „x86”, ale produkowane w nowocześniejszym procesie, były szybsze i pobierały mniej mocy od procesorów PowerPC. Od roku 2006 również komputery Apple mają procesory Intela. W ten sposób procesory „x86” stały się de facto standardem w świecie komputerów osobistych, a ich główny producent – Intel – praktycznie monopolistą. Ogromna skala produkcji tych procesorów dała firmie Intel gigantyczne przychody, dzięki którym Intel na wiele lat stał się liderem w rozwoju technologii produkcji, co odbywało się głównie przez zmniejszanie wymiarów tranzystorów, czemu jednak towarzyszyło wiele innych innowacji. W ostatnich latach pozycja Intela jako lidera technologicznego uległa jednak zachwianiu. Pojawiła się potężna konkurencja: urządzenia mobilne – smartfony i tablety, a do nich energooszczędne mikroprocesory ARM.

ARM jest firmą założoną w Wielkiej Brytanii w roku 1990. Nie jest i nigdy nie była producentem układów scalonych. Zajmuje się wyłącznie projektowaniem energooszczędnych (i z każdą generacją coraz bardziej wydajnych) mikroprocesorów ARM i sprzedażą licencji producentom tych mikroprocesorów. Licencjobiorcy często wykorzystują rdzenie procesorów ARM we własnych bardziej złożonych układach tworzących systemy jednoukładowe („system on chip”). Niemal wszystkie produkowane na świecie smartfony i tablety wykorzystują procesory ARM lub bardziej złożone układy z rdzeniami ARM. ARMy są wykorzystywane także w wielu innych urządzeniach, jak odbiorniki GPS, konsole do gier, aparaty fotograficzne i kamery, telewizory cyfrowe, urządzenia elektromedyczne. Głównymi producentami układów scalonych dla tego olbrzymiego rynku są tajwańska firma TSMC (m.in. główny dostawca dla Apple) oraz koreański Samsung, ale procesory ARM są też w ofercie wielu innych firm, w tym m.in. firmy STMicroelectronics - najbardziej zaawansowanej technologicznie firmy europejskiej. Pod względem stopnia zaawansowania technologii produkcji TSMC i Samsung doścignęły, a pod pewnymi względami wyprzedzają Intela.

Równolegle do mikroprocesorów rozwijały się technologie produkcji pamięci półprzewodnikowych, przede wszystkim pamięci dynamicznych DRAM, które są powszechnie stosowane w pamięciach operacyjnych praktycznie wszystkich systemów cyfrowych – nie tylko komputerów, ale i tabletów, smartfonów i wielu innych urządzeń. Pamięci DRAM wymagają specyficznego procesu produkcyjnego, w którym wyspecjalizowały się głównie dwie firmy z Korei Południowej: Samsung i SK Hynix, trzecim z głównych producentów jest amerykańska firma Micron Technology. Pamięci DRAM są to pamięci ulotne – ich zawartość zanika po wyłączeniu zasilania. Odrębnym, coraz ważniejszym rodzajem pamięci są pamięci nieulotne zwane potocznie pamięciami „flash”. Przechowują one swą zawartość także, gdy nie są zasilane. To one znajdują się w popularnych kartach pamięci do aparatów fotograficznych i kamer, pamięciach USB (zwanych popularnie „pendrive”) oraz pamięciach masowych komputerów zwanych potocznie „dyskami SSD”, które coraz śmielej wypierają tradycyjne dyski magnetyczne z wirującym talerzem. Pamięci „flash” także wymagają szczególnej, niełatwej technologii produkcji. Tu też liderem jest Samsung, ale drugim producentem jest japońska Toshiba, ale i kilka innych firm, m.in. Western Digital, SK Hynix, Micron Technology i Intel.

Użytkownicy oczekują, że kolejne generacje komputerów, laptopów, tabletów, smartfonów, konsol do gier itp. będą coraz wydajniejsze, a producenci starają się zaspokajać to oczekiwanie, bo stagnacja oznacza utratę rynku. Konsumenci nie kupią nowego sprzętu, jeśli nie będzie wyraźne lepszy od tego, który już posiadają. To zmusza producentów układów scalonych – głównie mikroprocesorów i pamięci – do wytwarzania coraz wydajniejszych procesorów i coraz pojemniejszych i szybciej działających pamięci. W technologii CMOS wzrost szybkości działania układów cyfrowych osiąga się głównie przez zmniejszanie wymiarów tranzystorów. Krytycznym wymiarem jest długość kanału tranzystora, i kolejne generacje technologii określa się podając ten wymiar. W latach 60 XX wieku było to 10 mikrometrów, dziś (początek 2019 roku) najmniejsze tranzystory w układach produkowanych seryjnie mają kanały o długości 7 nanometrów, czyli ponad tysiąc razy mniej. Zmniejszanie wymiarów tranzystorów oznacza zarazem, że w układzie scalonym można ich zmieścić coraz więcej, a przy tym koszt pojedynczego tranzystora spada. Już w latach 60 XX wieku Gordon Moore, jeden z założycieli Intela, stwierdził, że co 18 miesięcy najkorzystniejsza z punktu widzenia kosztu układu scalonego liczba tranzystorów w układzie rośnie dwukrotnie. Ta tendencja, zwana „prawem Moore’a”, utrzymuje się od ponad 40 lat, z tą różnicą, że najkorzystniejsza ekonomicznie liczba tranzystorów w układzie podwaja się nie co 18 miesięcy, lecz co dwa lata. 

Rysunek 2‑4. Prawo Moore'a na przykładzie wybranych mikroprocesorów

Procesy produkcyjne w każdej kolejnej generacji technologii są coraz kosztowniejsze. Dotyczy to zarówno kosztu opracowania i uruchomienia nowej technologii, jak i kosztu nowocześniejszej aparatury technologicznej oraz kosztu samego procesu produkcyjnego. W rezultacie koszt jednostki powierzchni (powiedzmy – jednego centymetra kwadratowego) wyprodukowanego układu scalonego rośnie. Jednak liczba tranzystorów mieszczących się na tej powierzchni rośnie szybciej, a więc koszt pojedynczego tranzystora nie rośnie, lecz maleje. Oznacza to, że układy produkowane w nowocześniejszej technologii są nie tylko lepsze (szybsze, o bogatszej i wydajniejszej architekturze), ale i z reguły tańsze. 

Rysunek 2 5. Koszt jednego tranzystora w układzie scalonym odniesiony do kosztu w technologii 65 nm (źródło danych: Intel, 2012)

A więcej o procesach produkcyjnych mikroelektroniki, technologii CMOS, pamięciach ulotnych i nieulotnych przeczytasz dalej.