Operując pojęciem elektronu można było wyjaśnić nieco zapomniany efekt jednokierunkowego przepływu prądu przez anodę wprowadzoną do żarówki. Podjęte wkrótce po odkryciu elektronu ponowne badania tego efektu doprowadziły do opracowania w 1904 roku przez J. A. Fleminga diody próżniowej (rys. 22). Fleming opisał diodę jako użyteczny element elektroniczny zdolny do prostowania sygnałów zmiennych dużych częstotliwości. Przez dodanie trzeciej elektrody L. De Forest otrzymał w 1906 roku triodę, czyli lampę elektronową zdolną do wzmacniania sygnałów zmiennych (rys. 23). Jej zastosowanie jako wzmacniacz lampowy w telegrafii pozwoliło zwiększyć zasięg przesyłu sygnałów oraz spowodowało zaniechanie stosowania w kablach żył o średnicach większych niż 1,4 mm [53]. W Wigilię tego samego roku została przeprowadzona pierwsza transmisja radiowa muzyki i mowy przez R. Fessenden'a w oparciu o alternator o częstotliwości 50 kHz oraz nadajnik iskrowy [1].
W roku 1905 A. Einstein, jeden z niewielu uczonych, którzy potraktowali poważnie teorię kwantową M. Plancka (1900) zakładającą, iż energia emitowana jest w postaci paczek falowych o skończonych rozmiarach wysunął hipotezę, iż kwant światła, czyli foton zachowuje się podobnie do cząstki. Einstein stworzył także szczególną teorię względności, przewidział równoważność masy i energii oraz badał falowo - cząstkową naturę fotonów [1].
W roku 1911 Holender K. Onnes na skutek wielu doświadczeń dotyczących zachowania się metali w niskich temperaturach odkrył nadprzewodnictwo, zaobserwował on bowiem nagły spadek rezystancji rtęci w ciekłym helu w temperaturze 4.15 O K. Prawie dwadzieścia lat później dwaj Holendrzy, W. J. de Haas oraz J. Voogd kontynuując prace Onnesa zauważyli, iż przewodnik wykonany ze stopu Pb - Bi w polu magnetycznym o natężeniu 16 000 do 20 000 gaussów posiada temperaturę krytyczną 8.8 0 K. Odkrycie to rozpoczęło zaawansowane badania nad nadprzewodnikami wysokotemperaturowymi. Niestety, ze względu na olbrzymie trudności materiałowo - technologiczne dalsze badania zostały zarzucona na następne dwadzieścia lat [1].
Dioda i trioda próżniowa stały się podstawą dla rozwoju radiotechniki. Dzięki wprowadzeniu lamp elektronowych stopniowo stało się możliwe elektroniczne wytwarzanie sygnałów dużej częstotliwości. Pierwszy generator lampowy oparty na idei dodatniego sprzężenia zwrotnego został opracowany przez E. H. Armstronga w USA w 1912 roku. Ten sam wynalazca opracował w 1918 roku koncepcję odbiornika superheterodynowego. W międzyczasie zostały opracowane lampowe wzmacniacze, modulatory i inne podstawowe układu elektroniczne. Znalazły one szybko zastosowanie w powstającej wówczas radiofonii [53].
W latach dwudziestych i trzydziestych bieżącego stulecia nastąpił w USA bardzo szybki rozwój radiofonii. Zaczęły powstawać stacje nadawcze, rosła produkcja radioodbiorników. W początkowym okresie rozwoju, w latach 1922 -29 wartość sprzedaży radioodbiorników w USA wzrosła 15 - krotnie, osiągając na koniec tego okresu poziom 900 milionów USD. Pod koniec 1930 roku było w USA około 15 milionów radioodbiorników, co odpowiadało połowie liczby gospodarstw domowych. Poziom produkcji lamp elektronowych przekroczył w 1936 roku 100 milionów sztuk. Jedne z pierwszych radioodbiorników przedstawiają rysunki rys. 24 i rys. 25 [53].
Kraje europejskie były opóźnione w stosunku do Stanów Zjednoczonych pod względem produkcji radioodbiorników. Należy zauważyć, że osiągnięcia naukowo - techniczne ważne dla powstania elektroniki następowały w wielu krajach europejskich (Anglia, Włochy, Niemcy, Rosja, Francja), jednak rozwój produkcji elektronicznej w USA był szybszy niż w Europie, o czym decydowały zarówno czynniki techniczne, jak i ekonomiczne [53]. Radio, jako nowy, efektywny sposób kreowania świadomości społecznej został bardzo szybko zauważony przez organa rządzące, a na lata trzydzieste w Niemczech przypadł główny rozwój propagandy podczas rządów nazistów, o czym może świadczyć poniższy plakat propagandowy (rys. 26). W roku 1931 A. D. Blumlein w Anglii oraz Bell Telephone Labs. w U.S.A., niezależnie od siebie, wynaleźli nowy sposób zapisu i odczytu dźwięku - stereofonię. Blumlein opracował kompletny system zdolny do zapisu i odczytu dźwięku stereofonicznego, jednakże trudności ekonomiczne powstrzymały go przed rozwinięciem i wprowadzeniem systemu do normalnej eksploatacji, natomiast pierwszy publiczny pokaz wynalazku Bell Labs miał miejsce w 1933 roku - odtwarzane były nagrania The Philadelpia Orchestra [1].
Zasady elektrycznego kodowania ruchomych obrazów pochodzą jeszcze z XIX wieku. W latach dwudziestych XX wieku, na podstawie wcześniejszych badań promieni katodowych V. K. Zworykin opracował w firmie RCA lampy telewizyjne - ikonoskop (1923 rys. 27) i kineskop (1924). Podstawowe bloki elektroniczne rozwijane dla radiofonii adaptowano do urządzeń telewizyjnych. W latach trzydziestych podjęto prace nad konstrukcją anten telewizyjnych, opracowywano eksperymentalne konstrukcje odbiorników i podejmowano próby przesyłania obrazów. Pierwsze, regularnie nadawane programy telewizyjne miały miejsce w Wielkiej Brytanii poprzez BBC w roku 1936. W tym samym roku Igrzyska Olimpijskie odbywające się w Berlinie transmitowane były na obszarze Niemiec. Jeden z odbiorników telewizyjnych tamtego okresu przedstawia rys. 28. Ogromne zainteresowania społeczeństwa nowym środkiem przekazu spowodowało, iż amerykańska firma Warner Bros. opracowała system jednoczesnego zapisu dźwięku i obrazu. Kamera zsynchronizowana była z urządzeniem, które zapisywało dźwięk na specjalnych dyskach. Pierwszym dźwiękowym filmem był "Don Juan", a następny "Jazz Singer" okazał się sukcesem kasowym. Dzięki intensywnym pracom badawczym m.in. W Flechsiga w 1941 w USA dokonano pierwszych prób nad telewizją kolorową, a w roku 1948 wprowadzono pierwszy europejski standard dotyczący telewizji. Dzięki sugestii Szwajcara W. Gerbera obraz telewizyjny składał się z 625 linii odświeżanych 25 razy na sekundę według metody przeplotu. Znamiennym jest również fakt, iż dynamiczny rozwój telewizji miał znaczący wpływ na cenę odbiorników, bowiem w roku 1947 wyprodukowano pierwszy telewizor Pilot TV-37 o cenie nie przekraczającej 100 USD (rys. 29) [1].
Lata trzydzieste dwudziestego wieku charakteryzują się zastosowaniem wielu odkryć i wynalazków w medycynie. Już w roku 1931 P. Rijlant z Belgii skonstruował pierwszy elektrokardiogram pozwalający na monitorowanie akcji serca, a rok później zbudowany został mikroskop elektronowy o 17 - krotnym powiększeniu [1].
Po zatonięciu Titanica po zderzeniu z górą lodową w 1912 roku, brytyjski inżynier Richardson zaproponował metodę wykrywania gór lodowych dzięki odbijaniu się od nich fal emitowanych przez nadpływający statek. Problemem tym zajął się m. in. P. Langevin, który w 1915 roku w oparciu o fale ultradźwiękowe generowane w oparciu o efekt piezoelektryczny odkryty przez J. i P. Curie zbudował pierwszy w świecie sonar. Projektowany był z myślą o zastosowaniu cywilnym, szybko jednak okazało się, iż ma nieocenione zastosowanie w marynarce wojennej [1].
Rozwój radiofonii w latach dwudziestych spowodował zainteresowanie elektroniką ze strony instytucji wojskowych. Między innymi, możliwości łączności bezprzewodowej były bardzo atrakcyjne dla armii. Jednym z urządzeń, które powstało na bazie potrzeb militarnych, był radar (rys. 30). Brytyjczycy skoncentrowani byli głównie na systemach lokalizacji i detekcji, podczas gdy Niemcy koncentrowali się na systemach nawigacji. W roku 1940 Anglicy przekazali wyniki swoich badań nowo utworzonej komórce Radiation Laboratory w USA. Komórka ta w krótkim okresie liczyła ponad 1300 inżynierów m.in. przyszłych laureatów Nagrody Nobla. Opracowana została ponad setka modeli radarów różnego przeznaczenia, włączając systemy wczesnego ostrzegania, detekcji samolotów, okrętów podwodnych oraz precyzyjnego naprowadzania. Zarówno Niemcy, jak również Japonia były pod tym względem opóźnione w stosunku do Stanów Zjednoczonych, którzy do końca drugiej wojny światowej wyprodukowali ponad milion radarów. Rys. 31 przedstawia ekran radaru z tamtego okresu [1].
Przyspieszenie rozwoju niektórych działów elektroniki w latach 1939 - 45 wiąże się ze specyfiką udziału USA w II wojnie światowej. Przez długi czas Stany Zjednoczone nie uczestniczyły w wojnie bezpośrednio, lecz produkowały sprzęt na potrzeby aliantów. Nawet po wybuchu wojny z Japonią, na zasadniczym terytorium USA nie było typowych działań wojennych. Najintensywniejsze prace związane z aplikacjami militarnymi dotyczyły systemów łączności, radiolokacji i technik obliczeniowych. Instytucje wojskowe przeznaczały na produkcję i badania w zakresie elektroniki bardzo duże środki finansowe. W momencie zakończenia wojny istniało w USA bardzo wiele znakomicie wyposażonych elektronicznych laboratoriów badawczych, a szereg projektów badawczych było w trakcie realizacji [53].
W XX wieku, oprócz kalkulatorów wykonujących proste czynności arytmetyczne zaczęto opracowywać maszyny do bardziej złożonych obliczeń numerycznych, a także tzw. maszyny analogowe zdolne na przykład do automatycznego rozwiązywania równań różniczkowych. Pomysł wykonania takich maszyn pochodzi z XIX wieku, ale pierwsze próby realizacji technicznych przeprowadzono dopiero w latach trzydziestych XX wieku. Do ich rozwoju przyczyniła się także wojna. Produkcja nowych, skomplikowanych rodzajów broni zwiększyła zapotrzebowanie na urządzenia wykonujące złożone, często kilkuwariantowe obliczenia. Nawet najbardziej skomplikowane mechaniczne kalkulatory wciąż nie umożliwiały jednak zaprogramowania ciągu obliczeń i swobodnego dysponowania wynikami. Pozwoliły na to dopiero maszyny liczące zbudowane na bazie przekaźników - elementów elektromechanicznych. Pierwszą z nich, zaprezentowaną w roku 1942 przez niemieckiego naukowca K. Zuse był kalkulator ZUSE Z3 (rys. 32) Posiadał on około 600 przekaźników do obliczeń oraz 2000 do pamięci. Dwa lata później w Stanach Zjednoczonych pracę rozpoczął komputer MARK 1 (rys. 33) skonstruowany przez H. H. Aikena, a w latach 1946 - 47 naukowcy amerykańscy Eckert i Mauchly opracowali w Uniwersytecie Stanowym w Pensylwanii w pełni elektroniczny komputer ENIAC (rys. 34) [5]. ENIAC zajmował pomieszczenie o powierzchni około 200 m2, miał ponad 3 metry wysokości, ważył 30 ton i pobierał średnio ok. 150 kW mocy. ENIAC zawierał 18 000 lamp elektronowych i potrafił wykonywać serie mnożeń w czasie kilku milisekund na operację (około 1 000 razy szybciej niż komputery elektromechaniczne). Program był definiowany przez połączenia setek zewnętrznych przewodów. Ten komputer był oczywiście wielkim osiągnięciem, ale jego parametry wskazują na istnienie barier, jakie stwarzała technika lampowa [53].
Bardzo duże zapotrzebowanie rynku (radiofonia, telewizja, technika obliczeniowa) oraz rozwinięcie potężnego zaplecza naukowego elektroniki w USA pod koniec wojny stwarzało bardzo dobre perspektywy rozwoju tej dyscypliny. Jedno z utrudnień potencjalnego rozwoju wiązało się ze specyfiką lamp elektronowych. Typowe lampy: diody, triody, pentody wymagały dużych napięć zasilania (200 - 300 V) i specjalnego obwodu żarzenia katody. Nawet proste układy lampowe miały duże rozmiary i ciężar i wymagały dużej mocy zasilania. Z powodu wysokich temperatur wnętrza, trwałość i niezawodność lamp były niezadowalające. Każda lampa, czyli bańka szklana opróżniona z powietrza, jest wrażliwa na uszkodzenia mechaniczne [53].
Trudności w zastosowaniu techniki lampowej do bardziej złożonych urządzeń są szczególnie dobrze widoczne na przykładzie komputerów lampowych. Jedna z zasadniczych trudności wiąże się z niezawodnością takiego urządzenia. W opisach komputera ENIAC zaznaczano, że osiągnięcie zadowalającej niezawodności wymagało selekcji najlepszych możliwych typów lamp i zapewnienia warunków ich pracy znacznie poniżej typowych wartości mocy zasilania. Opracowywanie kolejnych typów komputerów, o większej liczbie elementów prowadziło do zaostrzenia problemów z niezawodnością [53].
Jak zostało wspomniane w poprzednim rozdziale, fizycy XIX wieku znali kilka właściwości półprzewodników, chociaż sama nazwa "półprzewodnik" pojawiła się dopiero w wieku XX. Najważniejszy był efekt prostujący w styku ostrza metalowego z kryształkiem galeny cynkowej. W pierwszej połowie XX wieku rozpoznano więcej substancji półprzewodnikowych, które wykazywały efekt prostujący w styku z ostrzem metalowym (selen, tlenek miedzi, krzem, german). Struktury takie mogły spełniać funkcje diod i były nazywane diodami ostrzowymi, jednak ich zastosowanie w okresie przedwojennym było ograniczone. Technologia tych elementów nie została wówczas zadowalająco opanowana i ich parametry użytkowe były gorsze niż dobrze rozwiniętych w tym czasie diod próżniowych. Dodać należy, iż stan wiedzy teoretycznej o budowie ciał stałych, zwłaszcza półprzewodników, był w pierwszych dziesięcioleciach dwudziestego wieku niezadowalający. Dopiero w latach trzydziestych, po ugruntowaniu się mechaniki kwantowej zaczęła powstawać solidna teoria półprzewodników, głównie dzięki pracom Motta, Schottky'ego, Tamma i Dawidowa [53].
Już w latach dwudziestych XX wieku pojawiły się pomysły wykonania elementu wzmacniającego w postaci struktury ciała stałego. W latach 1926 - 28 w Urzędzie Patentowym USA zgłoszono kilka propozycji wykonania elementu, który według dzisiejszej nomenklatury, był tranzystorem polowym. Autor pomysłu, J. Lilienfeld urodził się w Polsce w roku 1882, w latach 1910 - 26 był profesorem fizyki w Lipsku, a w roku 1926 wyemigrował do Stanów Zjednoczonych. Podobne rozwiązania elementów wzmacniających były proponowane później, w latach trzydziestych jednak ani tych, ani tranzystorów Lilienfelda nie udawało się wytworzyć. Jednym z ważnych osiągnięć techniki półprzewodnikowej w latach trzydziestych było opracowanie sposobów wytwarzania kryształów germanu i krzemu oraz stopniowe rozpoznawanie ich właściwości, między innymi wpływu zanieczyszczeń na parametry elektryczne [1].
Jednym z laboratoriów, gdzie w latach trzydziestych prowadzono badania półprzewodników, było laboratorium Bella w New Jersey w Stanach Zjednoczonych. Badania takie prowadził między innymi W. Brattain, w roku 1936 dołączył do niego (po studiach w MIT), W. Shockley. Wojna przerwała ich wspólne prace, lecz już w roku 1945 wrócili do laboratorium i wraz z nowym współpracownikiem J. Bardeenem przystąpili do systematycznych analiz teoretycznych i badań eksperymentalnych właściwości elektrycznych tlenku miedzi, germanu i krzemu. Jednym z ich zamierzeń w latach 1946 - 47 było wykonanie i praktyczne zbadanie struktur tranzystorów polowych proponowanych wcześniej przez Lilienfelda. Realizacja tego celu napotykała jednak na trudności, a przeprowadzane badania wskazywały na potrzebę rozbudowy i uściślenia teorii zjawisk powierzchniowych, zachodzących na granicy półprzewodników i innych ośrodków [53].
W trakcie tych badań, w grudniu 1947 roku Bardeen i Brittain zaobserwowali zjawisko, które wspólnie z Shockleyem zdołali wytłumaczyć teoretycznie i które potem nazwali efektem tranzystorowym. Umieścili dwa ostrza metalowe w bardzo małej odległości, w kontakcie z kryształkiem germanu. Jeśli przepuszczali prąd przez jedno ostrze w kierunku płytki germanowej, a jednocześnie przykładali ujemne napięcie do drugiego ostrza, to ostrze to przechwytywało część prądu pochodzącego z ostrza. Ponieważ rezystancja struktury od strony ostrza była znacznie większa niż od strony ostrza, możliwe było uzyskanie wzmocnienia napięciowego. Opisana struktura została nazwana po kilku dniach tranzystorem ostrzowym. Po paru tygodniach Shockley opracował koncepcję tranzystora złączowego, który okazał się znacznie trudniejszy do wykonania, ale zapewniał lepsze parametry. Obie wymienione wersje tranzystorów należą (według obecnej nomenklatury) do grupy tranzystorów bipolarnych. Wymyślone wcześniej tranzystory polowe doczekały się realizacji technicznej dopiero kilka lat po tranzystorach bipolarnych.
Kierownictwo Laboratorium Bella ujawniło odkrycie tranzystora bipolarnego dopiero w czerwcu 1948 roku. W tym czasie prowadzono intensywne prace nad właściwościami, technologią i parametrami użytkowymi tranzystorów. Opanowanie technologii umożliwiającej podjęcie produkcji tranzystorów bipolarnych (rys. 35) (w wersji złączowej) zajęło około trzech lat [53].