Od wynalezienia tranzystora datuje się bardzo silny rozwój elektroniki. Spowodowane to było coraz szerszą skalą zastosowania układów elektronicznych m.in. w telekomunikacji, przemyśle wojskowym, technice obliczeniowej oraz w wielu sferach życia codziennego. Dodatkowo występował tu swoisty mechanizm sprzężenia zwrotnego. Postępy w dziedzinie tranzystorowej wskazywały, że jest to dziedzina bardzo atrakcyjna ekonomicznie oraz umiejętnie zachowano proporcje między nakładami na bezpośrednią produkcję i nakładami na prace badawczo - rozwojowe.
Od początku lat pięćdziesiątych stało się oczywiste, że nowy element może spełniać podobne funkcje co trioda próżniowa, a przy tym ma znacznie mniejsze rozmiary oraz wymaga znacznie mniejszych napięć zasilania i poboru mocy. Te cechy tranzystora były bardzo atrakcyjne ze względu na dostrzeganą już w tamtym okresie potrzebę miniaturyzacji sprzętu elektronicznego. Zastosowanie bowiem konwencjonalnych elementów elektronowych, np. w technice lotniczej, powodowało wiele niedogodności (duże wymiary i masa, duży pobór mocy, duży koszt wytwarzania, mała niezawodność). Należy bowiem zwrócić uwagę, iż w początkowym okresie rozwoju elektroniki liczba elementów elektronowych stosowanych w poszczególnych urządzeniach wzrastała w przybliżeniu o rząd wielkości co 10 lat, czyli znacznie "wzrastało" zelektronizowanie poszczególnych urządzeń. Przykładowo, w 1920 r. wzmacniacz telefoniczny zawierał ok. 10 elementów elektronowych, a w 1930 r. podobne urządzenie zapewniające łączność radiową zawierało ok. 200 elementów, w tym dwadzieścia lamp. Aparatura elektroniczna samolotu bombowego typu B - 17 z 1942 r. zawierała ok. 200 000 elementów elektronowych, a podobna aparatura samolotu B - 47 z 1952 r. zawierała ich dziesięć razy więcej [53].
We wczesnych latach pięćdziesiątych pokonano trudności związane z produkcją powtarzalnych złącz p - n techniką stopową oraz udoskonalono technologię wytwarzania tranzystorów germanowych, jednakże okazało się, iż lepsze parametry posiadają tranzystory krzemowe W drugiej połowie lat pięćdziesiątych, kiedy produkcja tranzystorów rozwinęła się w kolejnych firmach, stwierdzono, że w wykonaniu jednego tranzystora a wykonaniu kilku tranzystorów na tej samej płytce nie ma dużych różnic technologicznych. Problem tkwił jedynie w zapewnieniu połączeń lub izolacji między poszczególnymi elementami tej samej płytki, zgodnie z pożądanym schematem elektrycznym. Na przełomie lat pięćdziesiątych i sześćdziesiątych, w roku 1959, niezależnie od siebie J. Kilby w firmie Texas Instrument oraz R. N. Noyce w firmie Fairchild po serii badań nad miniaturyzacją opracowali pierwsze modele półprzewodnikowych układów scalonych. Rys. 36 przedstawia układ zbudowany przez Kilby'ego, a rys. 37 jego notatki [17]. Produkcja seryjna układów scalonych w U.S.A. rozpoczęła się w roku 1963 - wyprodukowanych zostało około 0,5 miliona sztuk. W ciągu pięciu następnych lat roczna produkcja wzrosła 137 - krotnie, podczas, gdy rynkowa wartość rocznej produkcji - tylko 14,4 - krotnie. Odzwierciedla to gwałtowny, prawie 10 - krotny spadek średnich cen układów w tym okresie spowodowany w głównej mierze ich ogromnym zainteresowaniem producentów. Ich cena, niezawodność i parametry elektryczne w wielu zastosowaniach okazały się rozwiązaniami najkorzystniejszymi. Rozwój układów scalonych w Japonii odbywał się w sposób inny niż amerykański. Japończycy starali się dostosować układy scalone do danego produktu. Powstał więc m. in. układ scalony spełniający funkcje stopnia przemiany, wzmacniacza pośredniej częstotliwości, automatycznej regulacji wzmocnienia, detektora i wzmacniacza akustycznego - do skompletowania radioodbiornika należało podpiąć jedynie kilka kondensatorów, oporników i obwody rezonansowe.
W latach pięćdziesiątych nastąpił gwałtowny rozwój radiofonii i telewizji opartych o układy tranzystorowe. W roku 1954 zostało wyprodukowane pierwsze radio tranzystorowe, Regency TR - 1 (rys. 38), a od roku 1953 r. w USA rozpoczęto wdrażanie telewizji kolorowej, jednakże w początkowym okresie była ona bardzo złej jakości. Rok później ustanowiono amerykański standard telewizyjny NTSC, zgodnie z którym obraz składał się z 525 linii odświeżanych 30 razy na sekundę. Rok później firma RCA wypuściła na rynek pierwszy telewizor kolorowy CT - 100 (rys. 39). Równolegle nad telewizją prowadzono badania nad zapisem dźwięku na taśmie magnetycznej. W początkowej fazie w magnetofonach taśma nawinięta była na szpulach (rys. 40), w toku dalszych udoskonaleń wymyślono magnetofony na kasety z taśmą magnetofonową (rys. 41).
Rok 1957 przyniósł nowe, ważne wydarzenia w telewizji i telekomunikacji. H. De France zaproponował system SECAM z 819 liniami jako standard dla Francji, a amerykańska firma RCA opracowała "magnetowizjofon", będący protoplastą dzisiejszych magnetowidów. Urządzenie to składało się z 26 lamp, umożliwiało zapis obrazu i dźwięku telewizyjnego na taśmie, maksymalny czas odtwarzania wynosił od 8 do 33 minut. W tym samym roku Związek Radziecki jako pierwsze państwo na świecie wysłało sztucznego satelitę Sputnik 1 (rys. 42) na orbitę okołoziemską. Była to kula o średnicy 58 cm i wadze 84 kg. Trzy lata później, w 1960 roku USA wysłała pierwszego satelitę telekomunikacyjnego Echo 1 A (rys. 43). Znajdował się na orbicie na wysokości 1600 km, miał kształt balonu, który odbierał i nadawał sygnały. W tym samym roku japońska firma SONY wypuściła na rynek pierwszy przenośny, tranzystorowy odbiornik tranzystorowy SONY TV 8 - 301 W (rys. 44).
Na przełomie lat pięćdziesiątych i sześćdziesiątych nastąpił burzliwy rozwój nowej dziedziny - elektroniki kwantowej. Wyrosła ona na gruncie studiów i badań fizycznych nad wzajemnym oddziaływaniem materii i promieniowania elektromagnetycznego. Podjęte w tej dziedzinie prace teoretyczne i doświadczalne doprowadziły w latach pięćdziesiątych do powstania i realizacji pomysłu zastosowania układów kwantowych do wzmacniania i wytwarzania fal elektromagnetycznych, początkowo w zakresie mikrofalowym, a następnie również w zakresie optycznym. Podstawą tych badań było zjawisko emisji wymuszonej, odkryte już w 1917 roku przez A. Einsteina, jednakże w latach następnym po tym fundamentalnym odkryciu zjawisko to nie było przedmiotem dociekań naukowców. Możliwość otrzymania zjawiska wymuszonej energii promieniowania uzasadnił dopiero w roku 1950 uczony radziecki, W. A. Fabrikant, potwierdziły to doświadczenia fizyków amerykańskich, E. Purcella i R. V. Pounda, którzy zaobserwowali omawiane zjawisko podczas badań nad kryształkiem fluorku litu. W pierwszych latach pięćdziesiątych jednocześnie w Stanach Zjednoczonych i Związku Radzieckim przystąpiono do budowy mikrofalowego wzmacniacza i generatora mikrofalowego. W 1954 roku C.H. Townes wraz ze współpracownikami J. P. Gordonem i H. J. Zeigerem uruchomili maser amoniakalny pracujący w układzie generatora, wykorzystany następnie jako wzorzec częstotliwości. Niezależnie od tych prac N. G. Basow i A. M. Prochorow skonstruowali molekularny generator kwantowy, również oparty na wykorzystaniu wiązki wzbudzonych cząstek amoniaku. Cztery lata później A. L. Schawlow i C. H. Townes opublikowali artykuł o akcji laserowej, ich próbach uzyskania emisji wymuszonej i sugestiach materiałowych. W roku 1960 Maiman oraz Javan uzyskali jako pierwsi emisję wymuszoną w paśmie optycznym w oparciu o laser rubinowy [27]. W tym samym roku J. W. Allen i P. E. Gibons wynaleźli diodę elektroluminescencyjną (LED) stosując fosforek galu GaP, a w Bell Laboratories odkryto i opracowano nową metodę wytwarzania tranzystorów technologią epitaksji na krzemie. W kolejnych latach nastąpił rozwój elementów optoelektronicznych, w roku 1962 wynaleziono laser półprzewodnikowy (używając złącza grupy AIII - BV - arsenku galu GaAs). Rok później Amerykanin J. B Gunn odkrył efekt, który nazwał swoim imieniem, a dzięki któremu stało się możliwe skonstruowanie mikrofalowych diod generacyjnych. W latach 1962 - 64 wprowadzono i opanowano technologię MOS (głównie dzięki pracom S. R. Hofsteina oraz F. P. Heimana), a już kilka lat później uzyskano gęstość upakowania układów MOS ponad 104 elementów na 1 cm3, co pozwoliło na opracowanie półprzewodnikowych pamięci wielkobitowych. W 1966 roku dwaj amerykańscy naukowcy K. C. Kao oraz G. A. Hockham zaproponowali użycie szklanego kabla do transmisji światła. Początkowo nowa technologia napotkała na szereg trudności technologicznych (tłumienność 1000 dB / km, kruchość przewodów), przez co wywołała małe zainteresowanie, jednakże stopniowe pokonanie tych barier umożliwiło szerokie zastosowanie światłowodów w telekomunikacji (jeden światłowód o średnicy 1/1000 mm pozwolił na jednoczesny przesył od 30 do 40 tysięcy rozmów telefonicznych jednocześnie) (rys. 45).
Pod koniec lat sześćdziesiątych pojawiły się pierwsze informacje o opanowaniu produkcji wielkoskalowej integracji oraz o wprowadzeniu techniki komputerowej do projektowania i optymalizacji konstrukcji układów scalonych, a na początku lat siedemdziesiątych wprowadzono do produkcji doświadczalnej i małoseryjnej przyrządów półprzewodnikowych technologię elektronowo - jonową (rzeźba elektronowa oraz implantacja domieszek). Obserwowana od roku 1970 prawdziwa eksplozja w rozwoju półprzewodnikowych układów pamięciowych o dużej skali integracji (L.S.I.) spowodowała udoskonalenie szeregu technologii wytwarzania układów scalonych oraz opracowanie nowych, które umożliwiły dużą gęstość upakowania elementów oraz pozwoliły na pracę w krótszym czasie przy stosunkowo niewielkim poborze mocy. Posiadanie tych technologii oraz nasycenie rynku układami pamięciowymi skłoniło wielu producentów do zwrócenia uwagi na układy logiczne. W pierwszym etapie opracowano układy małej (SSI) i średniej (MSI) skali integracji technikami bipolarnymi, takimi, jak: ECL, RTL, IIL, oraz technikami MOS: p - MOS, n - MOS i CMOS.
W latach pięćdziesiątych elektronika coraz silniej ingerowała w różne dziedziny przemysłu. Generatory wielkiej częstotliwości znalazły zastosowanie w procesach grzania, suszenia itp. Używane początkowo w przemyśle drzewnym, dzięki angielskiej firmie Redifon znalazły zastosowanie w przemyśle gastronomicznym. W 1961 roku opracowała ona kuchenkę mikrofalową o symbolu RH72. Był to piec o mocy wyjściowej 1,75 kW pracujący przy częstotliwości 2450 MHz.
W latach pięćdziesiątych komputery ENIAC zastąpione zostały komputerami opartymi o tranzystory. Nowe podzespoły okazały się znacznie bardziej wytrzymałe, pobierały mniej prądu, ale wysoki koszt produkcji i spore rozmiary ograniczały ich zastosowanie. Poza tym wojsko i rządy starannie dbały o swój monopol na maszyny liczące. Jednym z pierwszych komputerów lat pięćdziesiątych był IBM 560 (rys. 46). W roku 1958 powstał pierwszy komputer oparty o technikę tranzystorową - Control Data Corporation CDC - 1604 (rys. 47).Komputery budowane w latach sześćdziesiątych opierane były już o układy scalone wynalezione pod koniec lat pięćdziesiątych. Charakteryzowały się one większą szybkością działania, były mniejsze i tańsze. W roku 1963 powstał pierwszy kalkulator kieszonkowy firmy Bell Punch Co. Bowmar. Rys. 48 przedstawia kieszonkowy kalkulator Bowmar 901B z 1971 roku. W roku 1968 R. Noyce wraz z G. Moore'em założyli firmę Intel. Trzy lata później firma Fairchild Semiconductor zbudowała 256 - bitowy układ pamięciowy, a firma Intel skonstruowała pierwszy na świecie mikroprocesor Intel 4004 (rys. 49) - niezbędne do produkcji komputerów nowej generacji. Intel 4004 był układem wykonanym techniką p - MOS o długości słowa 4 bitów. Chociaż opracowanie mikroprocesora nie było rewelacją technologiczną, spowodował on jednak swoistą rewolucję w mikroelektronice. Bezpośrednim powodem było powstanie impasu w produkcji układów scalonych. Ciągłe zwiększanie stopnia scalenia, a więc i złożoności układów doprowadziło do opracowywania coraz bardziej wyspecjalizowanych, czyli mało uniwersalnych układów o coraz krótszych seriach wytwórczych [26]. Mikroprocesory natomiast dały konstruktorom sprzętu elektronicznego nowe możliwości, m. in. pozwoliły zastąpić całkowicie lub prawie całkowicie sztywne sieci logiczne. Łatwość zmiany programu działania umożliwiło ich elastyczne stosowanie w różnych zespołach funkcjonalnych, przy czym mogły również wykonywać sekwencyjnie wiele funkcji obsługując kilka wejść i wyjść układu. Nie bez znaczenia na ich coraz większą popularność miała niska cena, w zależności od typu od 20 USD wzwyż. Stworzenie komputera na bazie mikroprocesorów zawdzięczamy konstruktorom amerykańskiej firmy Datapoint, którzy zbudowali mikrokomputer oparty tylko na jednym układzie scalonym. Choć urządzenie pracowało bardzo wolno, to właśnie mikroprocesory ustaliły kierunek rozwoju branży informatycznej. Mikrokomputery, bo tak nazwano wynik przewrotu w informatyce, były coraz bardziej popularne, głównie dzięki niskim kosztom produkcji.
W roku 1969, dzięki staraniom amerykańskiego Departamentu Obrony, w celu usprawnienia komunikacji między różnymi bazami wojskowymi, stworzono sieć komputerową ARPANET (od Advanced Research Projects Agency). W początkowym okresie z jej możliwości korzystały ośrodki militarne, badawcze oraz uniwersyteckie, jednakże w miarę upływu czasu ilość użytkowników gwałtownie wzrastała, powstała poczta elektroniczna (E - mail) oraz szereg innych udoskonaleń. Sieć ta mogła funkcjonować poprawnie nawet jeśli jedna lub więcej linii transmisyjnych zostało uszkodzonych. Projekt połączenia różnych sieci komputerowych z siecią ARPA w celu zniesienia ograniczeń komunikacji między komputerami oraz rozszerzenia metod komunikacji nosił nazwę "internetting project", skąd wzięła nazwę ogólnodostępna sieć o światowym zasięgu Internet. Sieć ta rozwija się w sposób bardzo dynamiczny, w roku 1974 pierwsze państwa poza Stanami Zjednoczonymi zostały do niej przyłączone (Norwegia i Wielka Brytania), a wszystkie komputery w jej obrębie pracujące rozpoczęły komunikację z użyciem protokołu NCP (Network Control Protocol), będącym protoplastą protokołu TCP / IP.
Od początku lat siedemdziesiątych rozpoczęła się era szaleńczego rozwoju telekomunikacji oraz komputeryzacji. W roku 1970 IBM w celu usprawnienia systemu diagnostycznego komputera IBM 370 wprowadziło dyski elastyczne (początkowo tylko do odczytu), jednakże w niedługim czasie zostały one przystosowane do zapisu i odczytu danych z komputera. Dwa lata później Intel zaprezentował ośmiobitowy mikroprocesor 8008, a firma Magnavox jako pierwsza opracowała grę komputerową Pong na komputer Atari (rys. 50), pokazując zastosowanie komputera jako źródła rozrywki. Wprowadzony na rynek w 1975 roku komputer Altair 8800 (rys. 51) zdobył szybko tak dużą popularność wśród użytkowników, iż określony został jako pierwszy komputer osobisty "personal computer". W celu obliczeń skomplikowanych operacji matematycznych opracowywano również "superkomputery" o wielkiej mocy obliczeniowej. Pierwszy z nich, Cray 1, o mocy 100 milionów operacji na sekundę, został zbudowany w 1976 roku przez S. Cray'a i G. Amdahla (rys. 52). Był on chłodzony wodą, jego koszt w 1976 roku wynosił 700 000 $ (zbudowano 16 sztuk tych komputerów). W dalszych latach powstawały kolejne, ulepszone wersje tego komputera (1985 - Cray 2, 1993 - Cray 3 w oparciu o arsenek galu GaAs i 1996 - Cray 4 rys. 53). Kolejny sukces w tej dziedzinie nie należał do inżynierów pracujących w wielkich koncernach, laury przypadły dwóm konstruktorom - hobbystom. W 1977 roku S. Jobbs i S. Wozniak wymyślili Apple - komputer osobisty. Niezależnie od nich podobne, proste w obsłudze urządzenie skonstruował Ch. Paddle. Rozpowszechnieniem jego wynalazku zajął się koncern Commodore (rys. 54), znany dotychczas z produkcji kalkulatorów. Obydwa wynalazki dały podstawę do rozwoju informatyki w zupełnie innym niż dotychczas kierunku. Wojsko straciło swój informatyczny monopol, a komputer osobisty stał się powszechnym narzędziem pracy. Konkurencja wśród coraz większej liczby producentów skłaniała konstruktorów do opracowywania rozwiązań lepszych i tańszych. W roku 1980 na rynku ukazał się komputer o cenie poniżej 100 USD - ZX 80 (rys. 55) produkowany przez firmę Sinclair. W tym samym roku firma IBM wypuściła na rynek pierwszy z komputerów nowej generacji IBM PC na rynek zdominowany przez Apple (ponad 50 % udziału w rynku) z językiem Basic napisanym przez nowo powstałą firmę Microsoft. Trzy lata później B. Stroustrup stworzył język wysokiego poziomu C++ zdobywający szybko popularność wśród użytkowników komputerów. Rok 1985 to kolejny sukces firmy Microsoft - przedstawiony zostaje system operacyjny Windows 1.0. W związku z rozwojem Internetu w europejskim laboratorium badawczym CERN opracowany zostaje WWW (World Wide Web). Rok 1981 rozpoczął nową erę mikroprocesorów 32 - bitowych, z pierwszym tego typu mikroprocesorem iAPX432 wypuszczonym na rynek przez firmę Intel. Mikroprocesor ten zawierał cztery układy scalone, każdy po 120 000 tranzystorów, szybkość wykonywania instrukcji wynosiła 500 000 instrukcji na sekundę. Pewną nowością wprowadzoną w tym samym roku na rynek była możliwość produkcji specjalizowanych układów scalonych na zamówienie. Zasada wykonywania tego typu usługi była następująca: producent wykonywał maskę elementów podstawowych na płytce półprzewodnikowej w technologii CMOS lub NMOS, a następnie klient sam lub przy pomocy producenta opracowywał maskę do metalizacji. Powstały w ten sposób układ scalony okazał się rozwiązaniem stosunkowo prostym i mało kosztownym [24].
Jednocześnie z rozwojem komputerów tworzone było oprogramowanie niezwykle pomocne przy projektowaniu różnego typu układów elektronicznych, określane mianem CAD (Computer Aided Design). Pierwszy program do analizy układów elektronicznych powstał w latach sześćdziesiątych w firmie IBM pod nazwą ECAP. Od tamtej pory rozwój tych programów określany jest w co najmniej trzech generacjach. Programy pierwszej generacji stanowiły przeważnie algorytmizację znanych wcześniej metod analizy układów elektronicznych stosowanych przed zastosowaniem komputerów. Druga generacja programów uniwersalnych, powstała na przełomie lat sześćdziesiątych i siedemdziesiątych, była wyrazem popularności zmiennych stanu metody zmiennych stanu, do formułowania równań opisujących nieliniowe układy elektroniczne w dziedzinie czasu. Zamknięte metody całkowania i rozszerzona metoda potencjałów węzłowych, to główne cechy programów trzeciej generacji, takich, jak NAP2 i SPICE. Programy te, oprócz obliczania stałoprądowego punktu pracy (analiza DC), pozwoliły również na obliczanie charakterystyk częstotliwościowych (analiza AC), czasowych (analiza TR), dokonać ich optymalizacji, obliczeń zniekształceń, zawartości harmonicznych itp. [21].
Równolegle z gwałtownym rozwojem komputeryzacji następował rozwój sprzętu audio - wizualnego. Po badaniach nad udoskonaleniem wynalezionego w 1951 roku magnetowidu VCR opartego na zapisie obrazów na taśmie magnetycznej, w roku 1975 Sony przedstawiło pierwszy system, który zdobył szeroką popularność, mianowicie Betamax SL - 6300 (rys. 56). Trzy lata później Philips zaprezentował swój system VHS (Video Home System) (rys. 57) oraz zupełnie nową technologię laserowego odczytu dźwięku zapisanego cyfrowego na dysku. Cztery lata później Sony wprowadził na rynek pierwsze odtwarzacze CD (Compact Disc) CDP - 101. Nowa technologia szybko zyskała dużo zwolenników, głównie dzięki bardzo dobrej jakości dźwięku i stosunkowo niskiej cenie odtwarzacza. Trzy lata później, w roku 1985 opatentowana została nowa technologia zapisu i odczytu dźwięku - cyfrowy magnetofon DAT (Digital Audio Tape), jednakże pomimo szerokiej reklamy technologia ta została zarzucona wskutek nikłego zainteresowania potencjalnych klientów. W tym samym okresie wprowadzona została cyfrowa obróbka sygnałów fonicznych DSP (Digital Signal Processing), która pozwoliła na wzmacnianie, tłumienie, filtrowanie, opóźnianie (pogłos, echo, efekty dźwiękowe), kompresję, zapis dźwięku itd., a więc dała szerokie możliwości operacji - znalazła zastosowanie m. in. przy stołach reżyserskich.
Od lat siedemdziesiątych obserwowana jest bardzo silna ekspansja elektroniki, której roczny wzrost nierzadko przekraczał 9 %. Pomimo tak optymistycznych danych elektronika w Europie przeżywała osłabienie spowodowane ostrą konkurencją ze strony Japonii i Stanów Zjednoczonych. Na początku lat siedemdziesiątych firma CNET wprowadziła we Francji nowość telekomunikacyjną - transmisję danych przy użyciu metod komutacji czasowej. Otworzyło to drogę do powstania zintegrowanej sieci usług cyfrowych ISDN (Integrated Services Digital Network). Obsługiwała ona wszelkie typy informacji (obrazy, głos i teksty), które są kodowane cyfrowo i przekazywane do wspólnej sieci. Zastosowanie techniki cyfrowej stworzyło możliwości połączenia telekomunikacji z obszarami techniki związanymi z przetwarzaniem danych. Dzięki zastosowaniu satelitów i światłowodów zmieniły się również metody transmisji. Przejście do cyfrowego kodowania danych, rozszerzenie się sieci komunikacyjnych na cały świat i coraz lepsza jakość sprzętu elektronicznego otworzyły telekomunikację dla rynku informatycznego. Od początku lat osiemdziesiątych Wspólnota Europejska wspierała prace badawczo - rozwojowe w przemyśle elektronicznym poszczególnych krajów członkowskich poprzez nadanie im szerszego, ogólnoeuropejskiego wymiaru. Wprowadzono w życie m. in. program JESSI dotyczący podzespołów elektronicznych, program ESPRIT, którego zadaniem był wzrost udziału mikroelektroniki, systemów przetwarzania danych i technologii w przemyśle europejskim oraz projekt RACE, związany ze stworzeniem połączonych sieci telekomunikacyjnych w całej Europie [38].
Standard zintegrowanej sieci usług cyfrowych ISDN umożliwił integrację usług "wąskopasmowych", co pozwoliło użytkownikowi na wykorzystanie ich w znacznie szerszym zakresie, przykładowo telefaks, wideotekst, komutację pakietów, audiokonferencje, telefony bezprzewodowe oraz wideofony. Od początku lat dziewięćdziesiątych zaobserwować można silny rozwój telefonii bezprzewodowej opartej na naziemnych stacjach, oparty na połączeniach satelitarnych VSAT (Very Small Aperture Terminal) jak również systemów naziemnych o bardzo dużych przepływnościach. [38].
Pod koniec lat osiemdziesiątych telefonia komórkowa ruszyła pełną parą, weszły wówczas pierwsze przenośne telefony komórkowe. We wcześniejszym okresie, w roku 1956 szwedzka firma Ericsson wprowadziła na rynek przenośny telefon walizkowy o wadze około 40 kg o cenie porównywalnej do ceny samochodu. Pierwsza sieć telefonii komórkowej w Sztokholmie miała zaledwie stu abonentów, a w jej zasięgu znajdował się obszar wielkości 25 - 30 kilometrów kwadratowych. W 1974 roku ta sama firma wypuściła na rynek telefon o wadze "tylko" 9 kilogramów. Jednym z pierwszych dostępnych telefonów był aparat firmy Motorola - Associate 2000, zwany "kaloryferem". Telefon można było naładować przez 24 godziny, a do zestawu załączona była kaseta wideo z instruktażem. Telefon ten w swoim okresie był szczytem techniki - miał regulator głośności, pamięć o pojemności 99 numerów, a także elektroniczną blokadę zabezpieczającą przed dostępem osób niepowołanych i wskaźnik mocy natężenia pola. Kolejne telefony były coraz mniejsze, od walizek producenci doszli do telefonów mieszczących się w kieszeni. Najnowsze modele telefonów ważą po kilkadziesiąt gramów. Telefon v3688 firmy Motorola przy rozszerzonej baterii zapewnia ponad 11 godzin ciągłej rozmowy i 380 godzin może pozostawać w stanie gotowości. Za jego pomocą można wysyłać faks lub pocztę elektroniczną. Ponieważ telefonów komórkowych nie było sensu dalej zmniejszać, producenci rozpoczęli zwiększanie ich funkcji. Przykładowo telefon Nokia 7110 pozwala czytać wiadomości, rozkłady lotów, pocztę elektroniczną, bezprzewodowo przeprowadzać transakcje bankowe. W książce telefonicznej aparat mieści tysiąc nazwisk, a do każdego można przyporządkować pięć numerów. Jego waga to zaledwie 141 gramów. W roku 1990 było na świecie 11 milionów właścicieli telefonów komórkowych, a w chwili obecnej jest ich ponad 350 milionów. Z danych Międzynarodowej Unii Telekomunikacyjnej wynika, iż chociaż liczba komórek ustępuje liczbie telefonów tradycyjnych, to liczby te powinny się zrównać za około osiem do dziesięciu lat. W roku 1998 przychody operatorów komórkowych wyniosły 154 miliardy dolarów, co stanowiło jedną trzecią obrotów w telefonii stacjonarnej. [60].
Chociaż w ostatnim okresie większość interesów telekomunikacyjnych to przysłowiowa kopalnia złota, to prawdziwą katastrofą wydaje się historia Iridium - systemu przenośnej telefonii satelitarnej. System ten wsparty przez grupy małych i przemieszczających się nad Ziemią satelitów zapewnia łączność w każdym zakątku globu. Pomimo obiecującego brzmienia, przedsięwzięcie okazało się klęską. Spowodowane to było wysokimi cenami usług, niemożnością telefonowania w centrach wielkich miast, gdzie wieżowce blokują dostęp do satelitów oraz rozwojem telefonii komórkowej. [60].
Lata osiemdziesiąte i dziewięćdziesiąte charakteryzują się również burzliwym rozwojem układów ASIC (Application Specific Integrated Circuits), uważanych często po tranzystorze, układzie scalonym i mikroprocesorze za czwartą rewolucję technologiczną. Układy te stały się kluczem do rozwoju mikromaszyn krzemowych. Zamiast gotowych układów scalonych od tej pory konstruktor mógł zamawiać układy wykonane ściśle według jego specyfikacji. Uzupełnieniem tych układów są układy ASSP (Application Specific Standard Product) wykonywane w technologii ASIC, lecz sprzedawane wielu klientom. Do układów ASIC zaliczamy: układy Semi Custom IC, Custom IC oraz układy PLD (Programmable Logic Device). Największe znaczenie mają układy typy "Full Custom", w których wszystkie warstwy masek są robione specjalnie dla klienta. Połączenie osiągnięć technologii układów VLSI - długości kanału rzędu 1 m m oraz postępu w wykonywaniu elementów dużej mocy umożliwiło wykonywanie przyrządów mocy opartych na połączeniu technologii MOS i bipolarnej, do których zaliczyć można tranzystory VDMOS, tranzystory IGBT, tyrystory MCT, tranzystory SIT - BSIT, tyrystory SITh oraz tyrystory GTO. Połączenie w jednym układzie scalonym lub hybrydowym elementów mocy - "Power" oraz układów VLSI - "Smart" pozwoliło na wykonywanie układów zawierających elementy wykonawcze, sterowania i zabezpieczenia w jednym waflu krzemowym. Dokonał się również ogromny postęp w technologii wykonywania układów scalonych VLSI. Projektowanie typu "bottom - up" zastąpione zostało projektowaniem typu "top - down" przy wykorzystaniu projektowania komputerowego [51].
W ostatnich latach w przemyśle elektronicznym zaszły niebywałe zmiany rynkowe, spowodowane globalną konkurencją i dążeniem do obniżenia kosztów wytwarzania. Czynniki te spowodowały konieczność dokonania zmian strukturalnych w tej dziedzinie działalności. Zwiększająca się konkurencja w Europie, wprowadzenie nowej waluty oraz zwiększający się wpływ technologii internetowej spowodowały rozwój rynku i technologii teleinformatycznych i telekomunikacyjnych. [56].