Większość nowoczesnych komputerów PC to maszyny. Komputer (komputery i internet). Kluczowe zmiany w architekturze powszechnych komputerów osobistych

💖 Podoba Ci się? Udostępnij link swoim znajomym

Klasyfikacja komputerów.

Definicja komputera.

Po lewej i prawej stronie równania znajdują się sumy efektów elektrycznych w pionowych sekcjach schematu projektowego.

Równanie zostało rozwiązane dla h 1 . Podstawiając wyrażenia EV (patrz wzory 5, 7, 8) otrzymujemy:

Komputery osobiste (PC) i ich klasyfikacja.

(slajd 1)

1. Definicja komputera.

2. Klasyfikacja komputerów ze względu na zasadę działania

3. Klasyfikacja komputerów według etapów powstawania i podstawy elementów.

4. Klasyfikacja według zasad działania i użytkowania.

4.1. Duże komputery lub komputery mainframe.

4.2. Małe komputery lub Mini- komputer.

4.3. Mikrokomputery lub Mikro - komputer .

5. Klasyfikacja sieciowa komputerów.

6. Komputery osobiste (PC) i ich klasyfikacja.

6.1. Klasyfikacja zgodnie ze specyfikacją PC99.

6.2. Klasyfikacja według poziomu specjalizacji.

6.3. Klasyfikacja według przeznaczenia i standardowych rozmiarów.

6.4. Klasyfikacja zgodności

6.5. Klasyfikacja według rodzaju użytego procesora.

7. Główne wnioski.
1. Definicja komputera.

Wstępne definicje .

· Inżynieria komputerowa - zespół urządzeń przeznaczonych do automatycznego lub zautomatyzowanego przetwarzania danych .

· System komputerowy - określony zestaw współdziałających ze sobą urządzeń i programów zaprojektowanych do obsługi jednego miejsca pracy.

· komputer (komputer elektroniczny) Lub Komputer - ­ centralne urządzenie większości systemów komputerowych.

· Komputer - Jest to uniwersalne urządzenie elektroniczne przeznaczone do automatyzacji procesów i pracy tworzenia, przechowywania, przetwarzania, transportu, odtwarzania i wydawania danych.

Podstawowa definicja.

Komputer elektroniczny Lub komputer - Jest to zestaw sprzętu i oprogramowania zaprojektowany w celu automatyzacji przygotowywania i rozwiązywania zadań użytkownika. Pod użytkownik zrozumieć osobę, w imieniu której dane są przetwarzane. Aby zmniejszyć pracochłonność przygotowania problemów do rozwiązania, efektywnie wykorzystać indywidualny sprzęt, oprogramowanie i komputer w ogóle, a także ułatwiając ich obsługę, każdy komputer posiada specjalny zestaw narzędzi programowych.

Niektóre programy umożliwiają interakcję użytkownika z komputer i jest swego rodzaju pośrednikiem pomiędzy nimi. Dostała to imię system operacyjny i jest podstawowe oprogramowanie komputer.

Pod oprogramowanie zrozumiany zestaw narzędzi programowych do regularnego użytku, w celu stworzenia niezbędnej usługi dla użytkowników.

2. Klasyfikacja komputerów ze względu na zasadę działania.


Komputery można klasyfikować według szeregu cech, w szczególności:

· Zasada działania;

· etapy tworzenia i baza elementów;

· spotkanie;

· sposób organizacji procesu obliczeniowego;

· rozmiar, moc obliczeniowa;

· funkcjonalność;

· możliwość równoległego wykonywania programów itp.

Przez Zasada działania komputer są podzielone na trzy duże klasy:

· analog;

· cyfrowy;

· hybrydowy.

Komputer cyfrowy- komputery cyfrowe lub dyskretne maszyny liczące - pracują z informacjami przedstawionymi w postaci dyskretnej, a raczej cyfrowej.

AVM- komputery analogowe lub maszyny liczące ciągłe - pracują z informacjami przedstawionymi w formie ciągłej (analogowej), to znaczy w postaci ciągłego ciągu wartości o dowolnej wielkości fizycznej (najczęściej napięcia elektrycznego).

GVM - hybrydowe maszyny obliczeniowe lub komputery o działaniu kombinowanym - pracują z informacjami prezentowanymi zarówno w formie cyfrowej, jak i analogowej; łączą zalety AVM I Komputer cyfrowy. GVM Wskazane jest jego wykorzystanie do rozwiązywania problemów zarządzania złożonymi, szybkimi systemami technicznymi.

W ekonomii , w nauce i technologii znalazły szerokie zastosowanie Komputer cyfrowy z elektryczna reprezentacja dyskretnej informacji - elektroniczne komputery cyfrowe, zwykle nazywany po prostu informatyka elektroniczna samochody (KOMPUTER).

3. Klasyfikacja komputerów według etapów powstawania i podstawy elementów.

Główne etapy i kierunki rozwoju komputerów, ich sprzętu i oprogramowania - (slajd 2)

Przez etapy tworzenia I podstawa elementu Komputery umownie dzieli się na generacje:

Pierwsza generacja, lata 50.: Komputery wykorzystujące elektroniczne lampy próżniowe.

Główny aktywny element komputerów pierwsza generacja była lampą elektronową, pozostałymi elementami sprzętu elektronicznego są zwykłe rezystory, kondensatory i transformatory. Aby zbudować RAM już od środka lata 50-te lat zaczęto stosować elementy specjalnie opracowane do tego celu - rdzenie ferrytowe. Początkowo jako urządzenia wejścia-wyjścia używano standardowych urządzeń telegraficznych (dalekopisy, dziurkacze, nadajniki, urządzenia liczące i dziurkujące), a następnie specjalnie opracowano elektromechaniczne urządzenia przechowujące na taśmach magnetycznych, bębnach, dyskach i urządzeniach drukujących o dużej prędkości.

Komputery tej generacji były duże, zużywały dużo energii, miały stosunkowo niską prędkość, małą pojemność pamięci RAM i niską niezawodność. Szybkość tych maszyn wahała się od kilkuset do kilku tysięcy operacji na sekundę, pojemność pamięci wynosiła kilka tysięcy słów maszynowych, a niezawodność liczono w kilkugodzinnej pracy.

W nich automatyzacji podlegał tylko szósty etap, ponieważ praktycznie nie było żadnego oprogramowania. Wszystkie pięć poprzednich użytkownik musiał przygotować samodzielnie, aż do otrzymania kodów maszynowych do programów. Pracochłonny i rutynowy charakter tych prac był źródłem dużej liczby błędów w zadaniach. Dlatego w komputer W kolejnych pokoleniach pojawiały się pierwsze elementy, a potem całe systemy, które ułatwiały proces przygotowania problemów do rozwiązania.

II generacja, lata 60.: Komputery oparte na dyskretnych elementach półprzewodnikowych (tranzystorach).

Do wymiany lamp w samochodach drugie pokolenie (Początek lata 60. XX w.) Tranzystory dotarły. Komputery zaczęły mieć większą prędkość, pojemność pamięci RAM i niezawodność. Wszystkie główne cechy zwiększone o 1-2 zamówienie. Wymiary, waga i pobór mocy zostały znacznie zmniejszone. Wielkim osiągnięciem było zastosowanie drukowanego okablowania. Wzrosła niezawodność elektromechanicznych urządzeń wejścia/wyjścia, których ciężar właściwy wzrósł. Maszyny drugiej generacji zaczęły mieć większe możliwości obliczeniowe i logiczne.

Cechą maszyn drugiej generacji jest ich zróżnicowanie ze względu na zastosowanie. Pojawiły się komputery do rozwiązywania problemów naukowych, technicznych i ekonomicznych, do sterowania procesami produkcyjnymi i różnymi obiektami (maszynami sterującymi).

Wraz z udoskonaleniem technicznym komputer Rozwijane są metody i techniki programowania obliczeń, których najwyższym poziomem jest pojawienie się zautomatyzowanych systemów programowania, które znacznie ułatwiają ciężką pracę matematyków i programistów. Języki algorytmiczne zostały znakomicie rozwinięte i zastosowane ( ALGOL, FORTRAN itp.), znacznie upraszczając proces przygotowania problemów do rozwiązania. Wraz z pojawieniem się języków algorytmicznych liczba programistów zajmujących się wyłącznie programowaniem gwałtownie spadła, ponieważ sami użytkownicy mogli pisać programy w tych językach.

III generacja, lata 70.: komputery oparte na półprzewodnikowych układach scalonych o niskim i średnim stopniu integracji (setki - tysiące tranzystorów w jednym przypadku).

Trzecia generacja komputerów(na końcu Lata 60- początek Lata 70 lat) charakteryzuje się powszechnym stosowaniem układów scalonych.

Układ scalony- specjalny układ elektroniczny, wykonany w postaci pojedynczego kryształu półprzewodnikowego, który łączy w sobie dużą liczbę elementów aktywnych (diod i tranzystorów) - stanowi kompletny blok logiczny i funkcjonalny odpowiadający dość złożonemu obwodowi tranzystorowemu.

Dzięki zastosowaniu układów scalonych udało się poprawić parametry techniczne i eksploatacyjne maszyn. Technologia komputerowa zaczęła dysponować szeroką gamą urządzeń, które umożliwiają budowę różnorodnych systemów przetwarzania danych ukierunkowanych na różne zastosowania. Ułatwiło to także zastosowanie tzw. wielowarstwowy zespół obwodów drukowanych .

W komputerach trzeciej generacji znacznie rozszerzyła się gama różnych elektromechanicznych urządzeń wejściowych i wyjściowych. Charakterystyczną cechą rozwoju narzędzi programowych tej generacji jest pojawienie się wyraźnego oprogramowanie (PRZEZ) i rozwój jego rdzenia - system operacyjny , odpowiedzialny za organizację i zarządzanie procesem obliczeniowym. Stąd słowo „ komputer„coraz częściej zaczęto zastępować koncepcję” system komputerowy ", co w dużej mierze odzwierciedlało złożoność zarówno sprzętu, jak i oprogramowania komputer.

system operacyjny (system operacyjny) planuje kolejność dystrybucji i wykorzystania zasoby komputerowego, a także zapewnia ich skoordynowane działanie.

Pod zasoby zazwyczaj rozumieją te narzędzia, które są używane do obliczeń:

czas maszynowy poszczególnych procesorów lub komputer, zawarte w systemie;

· ilość pamięci RAM i pamięci zewnętrznej;

· oddzielne urządzenia,

· tablice informacyjne;

· biblioteki programów;

· osobne programy, zarówno do zastosowań ogólnych, jak i specjalnych, itp.

Maszyny trzeciej generacji znacznie rozszerzyły możliwości zapewnienia bezpośredniego dostępu do nich z abonentów znajdujących się na różnych, w tym znaczących (dziesiątki i setki kilometrów) odległościach. Wygoda komunikacji pomiędzy abonentem a maszyną osiągana jest poprzez rozwiniętą sieć powiązanych z nią punktów abonenckich komputer kanały przekazywania informacji i powiązane oprogramowanie.

IV generacja, lata 80-90: komputery oparte na dużych i bardzo dużych układach scalonych, z których głównym jest mikroprocesor (setki tysięcy - dziesiątki milionów aktywnych elementów w jednym chipie).

BIS - duże układy scalone zawierają gęsto upakowane elementy aktywne. Cały komputerowy sprzęt elektroniczny 1 pokolenia, które zajmowało salę o pow 100-150 mkw. M umieszczone w jednym mikroprocesorze o pow 1,5-2 m2 cm. Odległości pomiędzy elementami aktywnymi w układzie scalonym o bardzo dużej skali wynoszą dziesiąte części mikrona. Dla porównania grubość ludzkiego włosa wynosi kilkadziesiąt mikronów.

Do samochodów czwarta generacja (lata 80-te XX wieku) typowym zastosowaniem duże układy scalone (BIS). Wysoki stopień integracji przyczynił się do zwiększenia gęstości układu sprzętu elektronicznego, komplikacji jego funkcji, zwiększenia niezawodności i szybkości oraz obniżenia kosztów. Zacieśnia się związek pomiędzy konstrukcją maszyny a jej oprogramowaniem, zwłaszcza systemem operacyjnym.

W głębi czwartej generacji wraz z nadejściem USA mikroprocesory ( 1971.) pojawiła się nowa klasa komputerów - mikro komputer, które zostaną zastąpione przez Lata 80 wszedł osobisty komputer T epoki ( komputer). W tej klasie komputer wraz z BIS zaczęto używać układy scalone o bardzo dużej skali (VLSI) 32-, i wtedy 64- głębia bitowa.

V generacja - obecnie: komputery wyposażone w kilkadziesiąt równolegle pracujących mikroprocesorów, pozwalające na budowanie efektywnych systemów przetwarzania wiedzy; komputery na ultraskomplikowanych mikroprocesorach o strukturze wektora równoległego, wykonujące jednocześnie setki sekwencyjnych poleceń programu.

VI generacja i kolejne generacje: komputery optoelektroniczne o masowej równoległości i strukturze neuronowej, z rozproszoną siecią kilkudziesięciu tysięcy prostych mikroprocesorów modelujących architekturę neuronowych układów biologicznych.

Wydajność każdej kolejnej generacji komputerów i pojemność wszystkich urządzeń pamięci masowej wzrasta z reguły o ponad rząd wielkości. Technologie komputerowe ewoluowały odpowiednio (slajd 3).

4. Klasyfikacja według zasad działania i użytkowania.

Wyróżnić (slajd 4):

· duże komputery ( komputer ) Lub komputery mainframe,

· małe komputery Lub mini- komputer ,

· mikrokomputery Lub mikro - komputer ,

· PC – komputery osobiste (Klasyfikacja komputer zostanie omówione poniżej).

4.1. Duże komputery lub komputery mainframe.

Najpotężniejsze komputery służące do obsługi bardzo dużych organizacji i całych sektorów gospodarki narodowej. Obsługa duży komputer liczy kilkadziesiąt osób. W oparciu o takie superkomputery tworzą VC - przetwarzanie danych centra, obejmujące kilka działów lub grup.

Pomimo powszechnego komputer, oznaczający duży komputer nie maleje. Ze względu na wysokie koszty ich utrzymania w trakcie eksploatacji duży komputer Zwyczajowo planuje się i bierze pod uwagę każdą minutę. Aby zaoszczędzić czas pracy duży komputer wykonywane są niskowydajne operacje przygotowania danych wejściowych, wyjściowych i pierwotnych komputer, pracując w kompleksie. Przygotowane dane przesyłane są do duży komputer.

Centralna jednostka przetwarzania (CPU)- blok główny KOMPUTER - blok przetwarzania danych i obliczania wyników. procesor i napędy to kilka stojaków na sprzęt, które znajdują się w osobnym pomieszczeniu – tzw. strefa hermetyczna , w którym spełnione są podwyższone wymagania dotyczące temperatury, wilgotności, ochrony przed zakłóceniami elektromagnetycznymi i pyłem.

Komputery typu mainframe obsługiwane są przez następujące działy strukturalne VC:

· Zespół Programowania Systemowego zapewnia oprogramowanie i sprzęt interfejs system komputerowy. Personel - programiści systemowi .

· Grupa Programowania Aplikacyjnego zapewnia interfejs użytkownika system komputerowy . Personel - programiści aplikacji.

· Grupa Przygotowania Danych .

· Grupa wsparcia technicznego.

· Grupa wsparcia informacyjnego - tworzy i przechowuje archiwa wcześniej opracowanych programów i zgromadzonych danych - biblioteki programów Lub banki danych .

· Dział wydawania danych. Informacje drukowane są na urządzeniach drukujących - drukarki lub wyświetlane na ekranach wyświetlaczy.

Komputery typu mainframe Charakteryzują się wysokimi kosztami sprzętu i utrzymania, dlatego praca takich superkomputerów zorganizowana jest w cyklu ciągłym. Jednocześnie, aby zwiększyć wydajność, komputer pracuje jednocześnie z kilkoma zadaniami i odpowiednio z kilkoma użytkownikami. Nazywa się dystrybucją zasobów systemu komputerowego zasada podziału czasu .

Często nazywane są duże komputery za granicą komputery mainframe; Należą do nich zazwyczaj komputery posiadające m.in minimum :

· produktywność, nie mniejsza 100 MIPS;

pamięć główna o pojemności 512 zanim 10 000MB T;

Pamięć zewnętrzna nie mniej 100 GB;

· tryb pracy wielu użytkowników (obsługa jednocześnie z 16 zanim 1000 użytkowników).

Główne kierunki skutecznego stosowania komputery mainframe - rozwiązywanie problemów naukowo-technicznych, praca w systemach komputerowych z wsadowym przetwarzaniem informacji, praca z dużymi bazami danych, zarządzanie sieciami komputerowymi i ich zasobami. Ostatnim kierunkiem jest użycie komputery mainframe jak duże serwery dla sieci komputerowych – często uznawane przez ekspertów za najbardziej odpowiednie.

Przodkiem współczesnych dużych komputerów, według standardów jakich maszyny tej klasy opracowywano w większości krajów świata na przestrzeni ostatnich kilkudziesięciu lat, są maszyny firmy IBM-a.

1. generacja komputery mainframe - modele IBM360 I IBM370 wraz z ich architekturą i oprogramowaniem zostały wzięte za podstawę do stworzenia krajowego systemu dużych maszyn KOMPUTER ES.

2. generacja komputery mainframe (1979) - IBM3090, IBM4300;

Trzecia generacja komputery mainframe (1990) - IBMES/9000;

4. generacja komputery mainframe :

· 1997- małe rozmiary komputery mainframe S/390 o pojemności pamięci RAM do 16 giga bajtów byli rodziną komputery mainframe z modelu jednoprocesorowego o dużej wydajności 50 MIPS zanim 10- model procesora o dużej szybkości 500 MIPS. Aby poprawić wydajność, możesz połączyć maksymalnie 32 samochody S/390 w tzw klastry .

· 1999 - komputery mainframe średnia produktywność AS/400, co zawiera 12 modele. Maksymalna pojemność pamięci RAM nowej rodziny wynosi 16 giga bajtów i pamięć dyskowa - 2,1 TB..

· niezawodność,

· produktywność;

· pojemność pamięci głównej i zewnętrznej;

· czas dostępu do pamięci głównej;

· czas dostępu i transfer zewnętrznych urządzeń magazynujących;

· Charakterystyka pamięci podręcznej;

· liczba kanałów i wydajność układu wejścia/wyjścia;

· kompatybilność sprzętu i oprogramowania z innymi komputer; obsługa sieci itp.

Dość szczegółowa dyskusja komputery mainframe Wynika to z faktu, że współczesnemu użytkownikowi komputera, przyzwyczajonemu do wszechobecności komputerów stacjonarnych, trudno jest wyjaśnić, że istnieją inne rodzaje technologii komputerowej. Zdaniem ekspertów, na komputery mainframe Obecnie zlokalizowanych jest około 70% informacji komputerowych; setki tysięcy zainstalowanych w samych Stanach Zjednoczonych komputery mainframe.

4.2. Małe komputery lub Mini- KOMPUTER.

Małe komputery (minikomputery) ) - niezawodne i łatwe w obsłudze komputery o nieco mniejszych możliwościach w porównaniu do komputerów typu mainframe. Wyróżniają się zmniejszonym rozmiarem, a co za tym idzie niższą produktywnością i kosztami, i są wykorzystywane przez duże przedsiębiorstwa, instytucje naukowe, banki i niektóre instytucje szkolnictwa wyższego, które łączą działalność edukacyjną z działalnością naukową.

W przedsiębiorstwach przemysłowych minikomputer zarządzać procesami produkcyjnymi, ale potrafi łączyć zarządzanie produkcją z innymi zadaniami. dokumenty Do organizacji pracy minikomputer wymagane jest również specjalne centrum obliczeniowe, choć nie tak liczne jak np komputery typu mainframe .

Minikomputery(i najpotężniejszy z nich superminikomputery ) mają następujące cechy:

· produktywność - do 1000 MIPS;

pojemność pamięci głównej - do 8000 MB;

· pojemność pamięci dysku - do 1000 GB;

liczba obsługiwanych użytkowników - 16-1024.

Wszystkie modele minikomputery opracowywane są w oparciu o mikroprocesorowe zestawy układów scalonych, 32-, 64- i 128- mikroprocesory bitowe.

Ich główne cechy:

· szeroki zakres wydajności w specyficznych warunkach zastosowania;

· prosta realizacja systemów wieloprocesorowych i wielomaszynowych;

· duża prędkość przetwarzania przerwań;

· możliwość pracy z formatami danych o różnej długości.

DO zasługi minikomputery obejmują:

· specyficzna architektura o dużej modułowości;

· lepszy niż komputery mainframe stosunek wydajności do ceny;

Przodek nowoczesności minikomputery można uznać za komputery PDP-11 firmy GRUDZIEŃ (USA), były prototypem krajowym mini -komputer - Małe systemy komputer (KOMPUTER SM): SM 1,2,3,4,1400,1700 itp.

Nowoczesne komputery supermini faktycznie dorównują komputerom mainframe pod względem parametrów.

4.3. Mikrokomputery lub Mikro - komputer .

Komputery tej klasy są dostępne dla wielu przedsiębiorstw. Organizacje korzystające mikrokomputer , zwykle nie tworzą centrów danych. Do utrzymania takiego komputera potrzeba jedynie kilkuosobowego personelu.

Niezbędne programy systemowe kupuje się zazwyczaj wraz z komputerem, a opracowanie niezbędnych programów użytkowych zleca się większym firmom. VC lub wyspecjalizowanych organizacji, albo kup gotowe oprogramowanie.

Mikrokomputery są bardzo liczne i różnorodne:

· Mikrokomputery dla wielu użytkowników - to potężne mikrokomputery wyposażone w kilka terminali wideo i działające w trybie podziału czasu, co pozwala na efektywną pracę na nich kilku użytkowników jednocześnie.

· Serwery) - potężny wielu użytkowników mikrokomputery w sieciach komputerowych przeznaczonych do przetwarzania żądań od wszystkich stacje robocze sieci.

· Komputery sieciowe - uproszczone mikrokomputery , zapewniający pracę w sieci i dostęp do zasobów sieciowych, często specjalizujący się w wykonywaniu określonego rodzaju pracy (ochrona sieci przed nieuprawnionym dostępem, organizowanie przeglądania zasobów sieciowych, poczty elektronicznej itp.).

Podklasa rozważona osobno później - komputery osobiste ( komputer ) - pojedynczy użytkownik mikrokomputery , spełniające wymogi powszechnej dostępności i uniwersalności zastosowania. Stacje robocze są przeznaczone dla jednego użytkownika mikrokomputery , często wyspecjalizowane do wykonywania określonego rodzaju pracy (grafika, inżynieria, wydawnictwo itp.).

Większość nowoczesnych komputerów składa się z dwóch lub więcej warstw. Istnieją maszyny nawet z sześcioma poziomami (ryc. 1.2). Poziom 0 - osprzęt maszyny. Jego układy elektroniczne realizują programy napisane w języku poziomu 1. Dla kompletności należy wspomnieć, że poniżej poziomu 0 znajduje się jeszcze jeden poziom. Poziom ten nie jest pokazany na rys. 1.2, ponieważ wchodzi w zakres inżynierii elektronicznej i dlatego nie jest omawiany w tej książce. Nazywa się to poziom urządzeń fizycznych. Na tym poziomie są tranzystory, które dla projektantów komputerów są prymitywami. Wyjaśnienie działania tranzystorów jest zadaniem fizyki.

Na najniższym poziomie, cyfrowy poziom logiczny, nazywają się obiekty zawory. Chociaż bramki składają się z elementów analogowych, takich jak tranzystory, można je dokładnie modelować jako urządzenia cyfrowe. Każda bramka ma jedno lub więcej wejść cyfrowych (sygnały reprezentujące 0 lub 1). Bramka oblicza proste funkcje tych sygnałów, takie jak AND lub OR. Każda bramka zbudowana jest z kilku tranzystorów. Kilka bramek tworzy 1 bit pamięci, który może zawierać 0 lub 1. Bity pamięci połączone w grupy, na przykład 16,32 lub 64, tworzą rejestry. Każdy rejestr może przechowywać jedną liczbę binarną do pewnego limitu.

Sam komputer może również składać się z bramek.

Następny poziom - poziom mikroarchitektury. Na tym poziomie można zobaczyć zbiór 8 lub 32 rejestrów tworzących lokalną pamięć i obwód tzw ALU (jednostka arytmetyczno-logiczna). Jednostka ALU wykonuje proste operacje arytmetyczne. Rejestry wraz z formularzem ALU ścieżka danych, za pośrednictwem którego odbierane są dane. Podstawowa operacja ścieżki danych jest następująca. Wybiera się jeden lub dwa rejestry, jednostka ALU wykonuje nad nimi jakąś operację, np. dodawanie, a wynik umieszcza w jednym z tych rejestrów.

Na niektórych maszynach działanie ścieżki danych jest kontrolowane przez specjalny program o nazwie oprogramowanie sprzętowe. Na innych komputerach ścieżka danych jest kontrolowana przez sprzęt. W poprzednich wydaniach książki nazywaliśmy ten poziom „poziomem mikroprogramowania”, ponieważ w przeszłości był to prawie zawsze interpretator oprogramowania. Ponieważ ścieżka danych jest obecnie zwykle kontrolowana przez sprzęt, zmieniliśmy się

nazwa, aby dokładniej odzwierciedlała znaczenie.

Na maszynach, na których ścieżka danych jest kontrolowana przez oprogramowanie,

Oprogramowanie sprzętowe jest interpreterem poleceń poziomu 2. Oprogramowanie wywołuje polecenia z pamięci i wykonuje je po kolei, korzystając ze ścieżki danych. Na przykład, aby wykonać instrukcję ADD, instrukcja jest wywoływana z pamięci, jej argumenty umieszczane są w rejestrach, jednostka ALU oblicza sumę, a następnie wynik jest przekazywany z powrotem. Na komputerze ze sprzętową kontrolą ścieżki danych zachodzi ta sama procedura, ale nie ma programu sterującego interpretacją poleceń poziomu 2.

Wielopoziomowa organizacja komputera 23

Poziom drugi nazwiemy poziomem architektury systemu dowodzenia.

Każdy producent publikuje podręcznik do sprzedawanych przez siebie komputerów, zatytułowany „Podręcznik w języku maszynowym” lub „Zasady operacyjne modelu Western Wombat 100X” itp. Podręczniki te zawierają informacje na tym poziomie. Kiedy opisują zestaw instrukcji maszynowych, w rzeczywistości opisują instrukcje wykonywane przez oprogramowanie sprzętowe lub sprzęt interpretera. Jeżeli producent dostarcza dwóch tłumaczy do jednej maszyny, musi opublikować dwie instrukcje w języku maszynowym, oddzielnie dla każdego tłumacza.

Następny poziom jest zwykle hybrydowy. Większość poleceń w jego języku znajduje się również na poziomie architektury systemu dowodzenia (polecenia dostępne na jednym z poziomów mogą równie dobrze znajdować się na innych poziomach). Ten poziom ma kilka dodatkowych funkcji: zestaw nowych instrukcji, inną organizację pamięci, możliwość jednoczesnego wykonywania dwóch lub więcej programów i kilka innych. Budując trzeci poziom, dostępnych jest więcej opcji niż przy budowie pierwszego i drugiego.

Nowe funkcje wprowadzone na trzecim poziomie są wykonywane przez interpreter działający na drugim poziomie. Ten interpreter był kiedyś nazywany systemem operacyjnym. Polecenia trzeciego poziomu, identyczne z poleceniami drugiego poziomu, są wykonywane przez oprogramowanie sprzętowe lub sprzęt, ale nie przez system operacyjny. Innymi słowy, jedna część poleceń trzeciego poziomu jest interpretowana przez system operacyjny, a druga przez oprogramowanie sprzętowe. Dlatego ten poziom jest uważany za poziom hybrydowy. Nazwiemy ten poziom poziomie systemu operacyjnego.

Istnieje znacząca różnica pomiędzy poziomem trzecim i czwartym. Trzy dolne poziomy nie są przeznaczone do pracy dla przeciętnego programisty.

Pierwotnie zostały zaprojektowane do obsługi tłumaczy ustnych i pisemnych obsługujących wyższe poziomy. Na tłumaczy pisemnych i ustnych składają się tzw programiści systemowi, specjalizujących się w rozwoju i budowie nowych maszyn wirtualnych. Poziomy czwarty i wyższe przeznaczone są dla programistów aplikacji rozwiązujących określone problemy.

Kolejną zmianą wprowadzoną w Poziomie 4 jest sposób obsługi wyższych poziomów. Poziomy 2 i 3 są zwykle tłumaczone, natomiast poziomy 4, 5 i wyższe są zwykle, chociaż nie zawsze, obsługiwane przez tłumacza.

Kolejną różnicą pomiędzy poziomami 1,2,3 a poziomami 4,5 i wyższymi jest funkcja językowa. Języki maszynowe na poziomach 1,2 i 3 mają charakter cyfrowy. Programy napisane w tych językach składają się z długich ciągów liczb, które są wygodne dla komputerów, ale całkowicie niewygodne dla człowieka. Począwszy od czwartego poziomu, języki zawierają słowa i skróty zrozumiałe dla człowieka.

Czwarty poziom reprezentuje symboliczną formę jednego z języków

kovs niższego poziomu. Na tym poziomie programy można pisać w formie czytelnej dla człowieka. Programy te są najpierw tłumaczone na język poziomu 1, 2 lub 3, a następnie interpretowane przez odpowiednią maszynę wirtualną lub rzeczywistą. Nazywa się program, który wykonuje transmisję monter.

Poziom piąty to zazwyczaj języki przeznaczone dla programistów aplikacji. Takie języki nazywane są języki wysokiego poziomu. Istnieją setki języków wysokiego poziomu. Najbardziej znane z nich to BASIC, C, C++, Java, LISP i Prolog. Programy napisane w tych językach są zwykle tłumaczone na poziom 3 lub 4. Nazywa się tłumaczy, którzy przetwarzają te programy kompilatory. Należy pamiętać, że czasami stosowana jest również metoda interpretacji. Na przykład zwykle interpretowane są programy Java.

W niektórych przypadkach piąty poziom składa się z interpretera dla obszaru zastosowań, takiego jak matematyka symboliczna. Dostarcza danych i operacji umożliwiających rozwiązywanie problemów w tej dziedzinie w sposób zrozumiały dla osób biegłych w matematyce symbolicznej.

Wniosek: komputer został zaprojektowany jako hierarchiczna struktura poziomów, z których każdy opiera się na poprzednim. Każda warstwa reprezentuje konkretną abstrakcję z różnymi obiektami i operacjami. Patrząc na komputer w ten sposób, możemy zignorować niepotrzebne szczegóły i zredukować złożony temat do czegoś łatwiejszego do zrozumienia.

Zbiór typów danych, operacji i cech każdej warstwy nazywa się architekturą. Architektura zajmuje się aspektami widocznymi dla programisty. Na przykład wiedza o tym, ile pamięci można wykorzystać podczas pisania programu, jest częścią architektury. A aspekty projektu (takie jak technologia używana do tworzenia pamięci) nie są częścią architektury. Badaniem nazywa się badanie rozwoju tych części systemu komputerowego, które są widoczne dla programistów architektura komputerowa. Terminy „architektura komputera” i „organizacja komputera” zasadniczo oznaczają to samo.

Rozwój maszyn wielopoziomowych

W tym rozdziale przedstawimy pokrótce historię rozwoju maszyn wielopoziomowych, pokazując jak na przestrzeni lat zmieniała się liczba i charakter poziomów. Programy napisane w języku maszynowym (poziom 1) mogą być natychmiastowo wykonywane przez komputerowe układy elektroniczne (poziom 0), bez konieczności stosowania tłumaczy ustnych i pisemnych. Tworzą się te obwody elektroniczne wraz z pamięcią i urządzeniami wejścia/wyjścia Sprzęt komputerowy. Sprzęt składa się z obiektów materialnych – układów scalonych, płytek drukowanych, kabli, zasilaczy, urządzeń pamięci masowej i drukarek. Abstrakcyjne pojęcia, algorytmy i polecenia nie są specyficzne dla sprzętu.

Oprogramowanie, zamiast tego składa się z algorytmów (szczegółowych sekwencji poleceń opisujących sposób rozwiązania problemu) i ich komputerowych reprezentacji, czyli programów. Programy mogą być przechowywane na dysku twardym, dyskietce, płycie CD-ROM lub innym nośniku, ale oprogramowanie to zasadniczo zbiór instrukcji tworzących programy, a nie fizyczny nośnik, na którym te programy są zapisane.

Już w pierwszych komputerach granica między sprzętem a oprogramowaniem była wyraźna. Z biegiem czasu nastąpiło jednak znaczne zatarcie tej granicy, przede wszystkim ze względu na proces rozwoju.

Wielopoziomowa organizacja komputerów z 25 komputerami, dodano, usunięto i połączono poziomy. Obecnie bardzo trudno je od siebie oddzielić. W rzeczywistości główny temat tej książki można wyrazić w następujący sposób: logicznie rzecz biorąc, sprzęt i oprogramowanie

są równoważne.

Każdą operację wykonywaną przez oprogramowanie można wbudować w sprzęt (najlepiej po jej zrozumieniu). Powiedziała Karen Panetta Lenz; „Sprzęt to po prostu skostniałe oprogramowanie”. Oczywiście sytuacja jest również odwrotna: każde polecenie wykonywane sprzętowo można symulować w oprogramowaniu. Decyzja o oddzieleniu funkcji sprzętu i oprogramowania opiera się na takich czynnikach, jak koszt, szybkość, niezawodność i częstotliwość oczekiwanych zmian. Istnieje kilka twardych i szybkich zasad, zgodnie z którymi X musi być sprzętowy, a Y musi być programowalny.

Decyzje te zmieniają się w zależności od trendów w rozwoju technologii komputerowej.

2.Typy komputerów

Aspekty technologiczne i ekonomiczne

Stopień postępu technologicznego można zaobserwować za pomocą Prawo Moore'a, nazwane na cześć jednego z założycieli i szefa Intela, Gordona Moore'a, który odkrył je w 1965 roku, prawo Moore'a stwierdza, że ​​liczba tranzystorów w pojedynczym chipie podwaja się co 18 miesięcy, czyli co roku wzrasta o 60%. Wymiary mikroukładów i daty ich produkcji pokazano na ryc. 1.6 potwierdzają, że prawo Moore'a nadal obowiązuje.


Wielu ekspertów uważa, że ​​prawo Moore’a będzie obowiązywać w XXI wieku, być może do 2020 roku. Jest prawdopodobne, że tranzystory wkrótce będą składać się z zaledwie kilku atomów, chociaż postęp w obliczeniach kwantowych może umożliwić wykorzystanie spinu jednego elektronu do przechowywania jednego bitu.

Kolejnym czynnikiem rozwoju technologii komputerowej jest pierwsze Nathan Law of Software, nazwane na cześć Nathana Myhrvolda, głównego administratora firmy Microsoft. Prawo to stanowi: „Oprogramowanie to gaz. Rozprzestrzenia się i całkowicie wypełnia zbiornik, w którym się znajduje.” Nowoczesne edytory elektroniczne zajmują dziesiątki megabajtów. W przyszłości niewątpliwie zajmą dziesiątki gigabajtów. Oprogramowanie stale ewoluuje i stwarza stałe zapotrzebowanie na szybsze procesory, więcej pamięci i większą wydajność we/wy.

Z roku na rok następuje gwałtowny wzrost liczby tranzystorów w jednym chipie. Należy pamiętać, że osiągnięcia w rozwoju innych części komputera są równie duże.

Obliczenie, jak szybko poprawia się dysk twardy, jest znacznie trudniejsze, ponieważ istnieje kilka parametrów (pojemność, prędkość przesyłania danych, cena itp.), Ale pomiar któregokolwiek z tych parametrów pokaże, że wskaźniki wzrosną o co najmniej 50% w ciągu roku .

Duże postępy dokonuje się także w dziedzinie telekomunikacji i sieci. W niecałe dwie dekady przeszliśmy od modemów przesyłających informacje z szybkością 300 kb/s do modemów analogowych z szybkością 56 kb/s, linii telefonicznych ISDN z szybkością 2x64 kb/s i sieci światłowodowych z szybkością 2x64 kb/s, których prędkość wynosi już ponad 1 Gbit/s. Transatlantyckie kable telefoniczne światłowodowe (np. TAT-12/13) kosztują około 700 mln dolarów, działają 10 lat i mogą realizować 300 000 rozmów jednocześnie, więc koszt 10-minutowego połączenia międzykontynentalnego to niecałe 1 cent. Badania laboratoryjne potwierdziły, że możliwe są systemy łączności działające z prędkością 1 terabita/s (1012 bitów/s) na dystansie ponad 100 km bez wzmacniaczy. O rozwoju Internetu nie trzeba tu wspominać.

3.Rodziny komputerów

3.1. Szeroka oferta komputerów

Richard Hamming, były badacz w Bell Laboratories, zauważył, że ilościowa zmiana ilości o rząd wielkości prowadzi do zmiany jakościowej.

Na przykład samochód wyścigowy, który może jechać z prędkością 1000 km/h na pustyni w Nevadzie, zasadniczo różni się od zwykłego samochodu jadącego z prędkością 100 km/h po autostradzie. Podobnie 100-piętrowego drapacza chmur nie można porównywać z dziesięciopiętrowym wieżowcem. piętrowy apartamentowiec, to w ciągu trzech dekad wskaźniki ilościowe wzrosły nie 10, ale 1 000 000 razy.

Istnieją dwie drogi rozwoju technologii komputerowej: albo tworzyć komputery o coraz większej mocy po stałej cenie, albo produkować ten sam komputer, obniżając cenę co roku. Przemysł komputerowy wykorzystuje obie te ścieżki do tworzenia szerokiej gamy komputerów. Bardzo przybliżoną klasyfikację współczesnych komputerów przedstawiono w tabeli. 1.3.

Na samej górze znajdują się żetony, które przykleja się do wnętrza kartek okolicznościowych, aby odtwarzać melodie z okazji urodzin, marsze weselne lub coś podobnego. Autor pomysłu nie wymyślił jeszcze kartek kondolencyjnych odtwarzających marsz żałobny, ale odkąd wypuścił ten pomysł w sferę konsumencką, możemy spodziewać się, że takie kartki pojawią się już wkrótce. Każdy, kto wychował się na komputerach wartych miliony dolarów, postrzega komputery dostępne dla wszystkich w taki sam sposób, jak samolot, który jest dostępny dla każdego. Niemniej jednak takie komputery niewątpliwie powinny istnieć (a co z workami na śmieci, które mówią, żeby nie wyrzucać puszek aluminiowych?).

Druga linia to komputery umieszczane w telefonach, telewizorach, kuchenkach mikrofalowych, odtwarzaczach CD, zabawkach, lalkach itp. Za kilka lat wszystkie urządzenia elektryczne będą miały wbudowane komputery, których liczba będzie mierzona w miliardach . Takie komputery składają się z procesora, mniej niż 1 MB pamięci i urządzeń wejścia/wyjścia, a wszystko to w jednym małym chipie, który kosztuje tylko kilka dolarów.

Następną linią są komputery do gier. To zwykłe komputery ze specjalną grafiką, ale z ograniczonym oprogramowaniem i niemal całkowitym brakiem otwartości, czyli możliwości przeprogramowania. Notebooki elektroniczne i inne komputery kieszonkowe, a także komputery sieciowe i terminale internetowe są w przybliżeniu porównywalne pod względem kosztów. Wszystkie zawierają procesor, kilka megabajtów pamięci, jakiś wyświetlacz (może nawet telewizor) i nic więcej. Dlatego są takie tanie.

Następne są komputery osobiste. To właśnie one większości ludzi kojarzą się ze słowem „komputer”. Istnieją dwa rodzaje komputerów osobistych: komputery stacjonarne i laptopy. Zwykle zawierają kilka megabajtów pamięci, dysk twardy z kilkoma gigabajtami danych, płytę CD-ROM, modem, kartę dźwiękową i inne urządzenia peryferyjne. Są wyposażone w rozbudowane systemy operacyjne, można je rozbudowywać, a podczas pracy z nimi wykorzystuje się szeroką gamę oprogramowania. Komputery z procesorem Intel nazywane są zwykle „komputerami osobistymi”, natomiast komputery z innymi

procesory - „stacje robocze”, chociaż nie ma między nimi dużej różnicy.

Komputery osobiste i stacje robocze są często używane jako serwery sieciowe zarówno dla sieci lokalnych (zwykle w tej samej organizacji), jak i Internetu. Komputery te zazwyczaj mają jeden lub więcej procesorów, kilka gigabajtów pamięci i wiele GB miejsca na dysku. Takie komputery mogą pracować w sieci z bardzo dużymi prędkościami. Niektóre z nich mogą przetwarzać jednocześnie tysiące przychodzących wiadomości.

Oprócz małych serwerów z kilkoma procesorami istnieją systemy zwane sieciami stacji roboczych (NOW – Networks of Workstations) lub klastrami stacji roboczych (COW – Clusters of Workstations). Składają się ze zwykłych komputerów osobistych lub stacji roboczych podłączonych do sieci, za pośrednictwem której informacje przesyłane są z szybkością 1 Gbit/s, oraz specjalnego oprogramowania, które pozwala wszystkim maszynom na jednoczesną pracę nad tym samym zadaniem. Systemy takie są szeroko stosowane w nauce i technologii. Klastry stacji roboczych mogą obejmować od kilku do kilku tysięcy komputerów. Dzięki niskim kosztom komponentów poszczególne organizacje mogą zakupić maszyny będące w istocie minisuperkomputerami.

A teraz dotarliśmy do dużych komputerów wielkości pomieszczenia, przypominających komputery z lat 60. W większości przypadków systemy te są bezpośrednimi potomkami dużych komputerów z serii IBM-360. Zwykle nie są dużo szybsze od wydajnych serwerów, ale mają większą prędkość procesów I/O i mają całkiem sporo miejsca na dysku - 1 terabajt lub więcej (1 terabajt = 1012 bajtów). Takie systemy są bardzo drogie i wymagają dużych inwestycji w oprogramowanie, dane i personel do konserwacji tych komputerów. Wiele firm uważa, że ​​taniej jest jednorazowo zapłacić kilka milionów dolarów za taki system, niż w ogóle myśleć o konieczności przeprogramowywania wszystkich aplikacji dla małych komputerów.

To właśnie ta klasa komputerów była przyczyną problemu z rokiem 2000. Problem powstał, ponieważ programiści języka COBOL w latach sześćdziesiątych i siedemdziesiątych XX wieku przedstawiali rok jako dwucyfrową liczbę dziesiętną, aby zaoszczędzić pamięć. Nie przewidzieli, że ich oprogramowanie będzie w użyciu trzy lub cztery dekady później. Wiele firm popełniło ten sam błąd, dodając tylko dwa miejsca po przecinku do numeru roku. Autor tej książki przewiduje, że koniec cywilizacji nastąpi o północy 31 grudnia 9999 r., kiedy wszystkie programy w języku COBOL napisane przez 8 000 lat zostaną natychmiast zniszczone.

Kolejne duże komputery to prawdziwe superkomputery. Ich procesory działają z bardzo dużymi prędkościami, ich pojemność pamięci wynosi wiele gigabajtów, a ich dyski i sieci są również bardzo szybkie. W ostatnich latach wiele superkomputerów stało się bardzo podobnych, są prawie nie do odróżnienia od klastrów stacji roboczych, ale mają więcej komponentów i są szybsze. Superkomputery służą do rozwiązywania różnorodnych problemów naukowych i inżynieryjnych wymagających skomplikowanych obliczeń, takich jak symulowanie zderzających się galaktyk, opracowywanie nowych leków i symulowanie przepływu powietrza wokół skrzydła samolotu.

3.2.Rodziny komputerów

W tej części podamy krótki opis trzech komputerów, które będą użyte jako przykłady w tej książce: Pentium II, UltraSPARC II i picojava II.

W 1968 roku Robert Noyce, wynalazca krzemowego układu scalonego, Gordon Moore, autor Prawa Moore'a i Arthur Rock, kapitalista z San Francisco, założyli firmę Intel Corporation w celu produkcji chipów komputerowych. W pierwszym roku swojego istnienia korporacja sprzedała jedynie chipy o wartości 3000 dolarów, ale potem wolumen sprzedaży firmy zauważalnie wzrósł.

Pod koniec lat 60. kalkulatory były dużymi maszynami elektromechanicznymi wielkości nowoczesnej drukarki laserowej i ważyły ​​około 20 kg.

We wrześniu 1969 roku japońska firma Busicom zwróciła się do Intel Corporation z prośbą o wyprodukowanie 12 nieseryjnych chipów do komputera elektronicznego. Inżynier Intela Ted Hoff, przydzielony do tego projektu, zdecydował, że możliwe jest umieszczenie w jednym chipie 4-bitowego procesora ogólnego przeznaczenia, który spełniałby te same funkcje, a byłby prostszy i tańszy. I tak w 1970 roku pojawił się pierwszy procesor na jednym chipie, procesor 4004 z 2300 tranzystorami.

Należy zauważyć, że ani Intel, ani Busicom nie mieli zielonego pojęcia, jakiego wielkiego odkrycia dokonali. Kiedy Intel zdecydował, że warto spróbować wykorzystać procesor 4004 w innych projektach, zaoferował zakup wszystkich praw do nowego chipa od Busicom za 60 000 dolarów, czyli kwotę, jaką Busicom zapłacił Intelowi za opracowanie chipa. Busicom natychmiast przyjął ofertę Intela, a Intel rozpoczął prace nad 8-bitową wersją chipa 8008, wydaną w 1972 roku.

Intel nie spodziewał się dużego popytu na chip 8008, dlatego wypuścił niewielką liczbę tego produktu. Ku zaskoczeniu wszystkich, nowy chip wzbudził duże zainteresowanie, więc Intel zaczął opracowywać kolejny procesor, który przekraczał limit 16 KB pamięci (jak procesor 8008) narzucony przez liczbę zewnętrznych pinów w chipie. Tak pojawił się mały procesor ogólnego przeznaczenia 8080, wydany w 1974 roku.

Podobnie jak PDP-8 zrewolucjonizował rynek komputerowy i natychmiast stał się produktem masowym: sam DEC sprzedał tysiące PDP-8, a Intel sprzedał miliony procesorów 8080.

W 1978 roku pojawił się procesor 8086 – 16-bitowy procesor w jednym chipie. Procesor 8086 był pod wieloma względami podobny do 8080, ale nie był z nim w pełni kompatybilny. Potem pojawił się procesor 8088 o tej samej architekturze co 8086.

Uruchamiał te same programy co 8086, ale zamiast 16-bitowej magistrali miał 8-bitową magistralę, dzięki czemu procesor był wolniejszy, ale kosztował mniej niż 80861. Kiedy IBM wybrał procesor 8088 do IBM PC, było to chip stał się punktem odniesienia w produkcji komputerów osobistych.

Ani 8088, ani 8086 nie miały dostępu do więcej niż 1 MB pamięci. Na początku lat 80-tych stało się to poważnym problemem, dlatego Intel opracował procesor 80286, kompatybilny z procesorem 8086. Podstawowy zestaw instrukcji pozostał zasadniczo taki sam jak w procesorach 8086 i 8088, ale pamięć była rozmieszczona nieco inaczej, chociaż i nadal mogła działa ze względu na wymóg kompatybilności z poprzednimi chipami. Procesor 80286 zastosowano w modelach IBM PC/AT i PS/2.

Podobnie jak 8088, cieszył się dużym zainteresowaniem (głównie dlatego, że kupujący postrzegali go jako szybszy procesor 8088).

Następnym krokiem był 32-bitowy procesor 80386, wydany w 1985 roku. Podobnie jak 80286, był mniej więcej kompatybilny ze wszystkimi starszymi wersjami. Ten rodzaj kompatybilności okazał się dobrodziejstwem dla tych, którzy używali starszego oprogramowania, i nieco wadą dla tych, którzy preferowali nowoczesną architekturę, nieobciążoną błędami i technologiami przeszłości.

Cztery lata później pojawił się procesor 80486. Był szybszy od 80386, mógł wykonywać operacje zmiennoprzecinkowe i miał 8 KB pamięci podręcznej. Pamięć podręczna służy do przechowywania najczęściej używanych słów w procesorze i pozwala uniknąć długiego dostępu do pamięci głównej (RAM). Czasami pamięć podręczna nie znajduje się wewnątrz procesora, ale obok niego. Model 80486 miał wbudowaną obsługę wielu procesorów, dając producentom możliwość projektowania systemów z wieloma procesorami.

W tym momencie Intel, po przegranej batalii prawnej o naruszenie zasad nazewnictwa produktów, dowiedział się, że liczby (na przykład 80486) nie mogą być znakami towarowymi, dlatego następną generację komputerów nazwano Pentium (od greckiego słowa LEUTE - pięć ). W przeciwieństwie do 80486, który miał jeden wewnętrzny potok, Pentium miał dwa wewnętrzne potoki, co pozwoliło mu działać prawie dwukrotnie szybciej (potokom przyjrzymy się szczegółowo w rozdziale 2).

Kiedy pojawiła się kolejna generacja komputerów, ci, którzy liczyli na nazwę Sexium (po łacinie – sześć), zawiedli się. Nazwa Pentium stała się tak popularna, że ​​postanowiono z niej odejść, a nowy chip nazwano Pentium Pro. Pomimo tak drobnej zmiany nazwy, procesor ten bardzo różnił się od poprzedniego. Miał zupełnie inną organizację wewnętrzną i mógł wykonywać do pięciu poleceń jednocześnie.

Kolejną innowacją w Pentium Pro jest dwupoziomowa pamięć podręczna. Procesor zawierał 8 KB pamięci na często używane instrukcje i kolejne 8 KB na często używane dane. W przypadku Pentium Pro obok procesora (a nie na samym chipie) znalazło się kolejne 256 KB pamięci podręcznej.

Po Pentium Pro pojawił się procesor Pentium II, zasadniczo taki sam jak jego poprzednik, ale ze specjalnym systemem poleceń do zadań multimedialnych (MMX - rozszerzenia multimedialne). Ten system poleceń miał przyspieszyć obliczenia potrzebne do odtworzenia obrazu i dźwięku. W przypadku MMX specjalne koprocesory nie były potrzebne. Polecenia te były dostępne w późniejszych wersjach Pentium, ale nie były obecne w Pentium Pro.

W ten sposób komputer Pentium II połączył funkcje Pentium Pro z poleceniami multimedialnymi.

Na początku 1998 roku Intel wprowadził na rynek nową linię produktów o nazwie Celeron. Celeron miał mniejszą wydajność niż Pentium II, ale był tańszy. Ponieważ komputer Celeron ma tę samą architekturę co Pentium II, nie będziemy go omawiać w tej książce. W czerwcu 1998 roku Intel wypuścił specjalną wersję Pentium II - Xeop. Miał większą pamięć podręczną, jego magistrala wewnętrzna była szybsza i poprawiono obsługę wielu procesorów, ale pod wszystkimi innymi względami pozostał zwykłym Pentium II, więc o tym też nie będziemy rozmawiać. Komputery z rodziny Intel przedstawiono w tabeli. 1.4.

Wszystkie chipy Intela są kompatybilne z ich poprzednikami aż do

Innymi słowy, Pentium II może uruchamiać programy napisane dla procesora 80861. Kompatybilność zawsze była jednym z głównych wymagań przy opracowywaniu nowych komputerów, aby kupujący mogli nadal pracować ze starym oprogramowaniem bez konieczności wydawania pieniędzy. nowe. Oczywiście Pentium II jest wielokrotnie bardziej złożony niż 8086, więc może wykonywać wiele funkcji, których nie może 8086. Wszystkie te przyrostowe ulepszenia z każdą nową wersją oznaczają, że architektura Pentium II nie jest tak prosta, jak mogłaby być. gdyby projektanci procesora Pentium II otrzymali 7,5 miliona tranzystorów i instrukcje, aby zacząć od nowa.

Co ciekawe, chociaż prawo Moore'a było kiedyś kojarzone z liczbą bitów w pamięci komputera, ma ono również zastosowanie do procesorów.

Jeśli ustawimy liczbę tranzystorów w tym chipie naprzeciwko daty premiery każdego mikroukładu (liczba tranzystorów pokazano w tabeli 1.4), zobaczymy, że prawo Moore'a również tutaj ma zastosowanie. Wykres pokazano na ryc. 1.7.

W latach 70. system operacyjny UNIX był bardzo popularny na wielu uniwersytetach, ale komputery osobiste nie nadawały się do tego systemu operacyjnego, więc hobbyści UNIX musieli pracować na minikomputerach z podziałem czasu, takich jak PDP-11 i VAX. Andy Bechtolsheim, absolwent Uniwersytetu Stanforda, był bardzo zdenerwowany, że musi udać się do centrum komputerowego, aby pracować z systemem UNIX. W 1981 roku rozwiązał ten problem budując własną stację roboczą z systemem UNIX ze standardowych, dostępnych na rynku części, którą nazwał SUN-1 (Stanford University Network).

Bechtolsheim wkrótce został zauważony przez Vinoda Khoslę, 27-letniego Hindusa, który gorąco pragnął zostać milionerem w wieku trzydziestu lat i wycofać się z biznesu. Khosla zasugerował Bechtolsheimowi założenie firmy produkującej stacje robocze Sun. Do kierowania produkcją zatrudnił Scota McNealy’ego, innego absolwenta Uniwersytetu Stanforda. Do napisania oprogramowania zatrudnili Billa Joya, głównego twórcę systemu UNIX. W 1982 roku cała czwórka założyła firmę Sun Microsystems. Pierwszy komputer firmy, Sun-1, był wyposażony w procesor Motorola 68020 i odniósł ogromny sukces, podobnie jak jego kolejne modele, Sun-2 i Sun-3, które również zostały zaprojektowane przy użyciu mikroprocesorów Motoroli. Maszyny te były znacznie potężniejsze niż inne ówczesne komputery osobiste (stąd nazwa „stacja robocza”) i pierwotnie były przeznaczone do pracy w sieci. Każda stacja robocza Sun została wyposażona w kartę sieciową Ethernet i oprogramowanie TCP/IP do komunikacji z ARPANET, poprzednikiem Internetu.

W 1987 roku firma Sun, która do tego czasu sprzedawała stacje robocze warte pół miliarda dolarów rocznie, zdecydowała się opracować własny procesor oparty na nowym, rewolucyjnym projekcie Uniwersytetu Kalifornijskiego w Berkeley (RISC II). Procesor ten nazwano SPARC (Scalable ProcessorARCitecture – skalowalna architektura procesora). Wykorzystano go przy produkcji stacji roboczej Sun-4. Po pewnym czasie wszystkie stacje robocze firmy Sun zaczęto produkować w oparciu o ten procesor.

W przeciwieństwie do wielu innych firm komputerowych, firma Sun zdecydowała się nie produkować procesorów SPARC. Zamiast tego udzielił patentu na ich wytwarzanie kilku przedsiębiorstwom, mając nadzieję, że konkurencja między nimi doprowadzi do wyższej jakości produktów i niższych cen. Firmy te wyprodukowały kilka różnych chipów, opartych na różnych technologiach, działających z różnymi prędkościami i różniących się kosztami.

Chipy nazwano MicroSPARC, HyperSPARK, SuperSPARK i TurboSPARK. Niewiele się od siebie różniły, wszystkie były kompatybilne i mogły uruchamiać te same programy, których nie trzeba było zmieniać.

Firma Sun zawsze chciała, aby różne firmy dostarczały komponenty i systemy dla SPARK. Trzeba było zbudować całą branżę; tylko w tym przypadku można było konkurować z Intelem, liderem rynku komputerów osobistych. Aby zdobyć zaufanie firm, które były zainteresowane produkcją procesorów SPARC, ale nie chciały inwestować w produkty, które byłyby tłumione przez firmę Intel, firma Sun utworzyła konsorcjum branżowe SPARC International, aby kierować rozwojem przyszłych wersji architektury SPARC. Ważne jest, aby rozróżnić architekturę SPARC, która jest zbiorem instrukcji, od faktycznego wykonania tych instrukcji. W tej książce omówimy zarówno ogólną architekturę SPARC, jak i procesor używany w stacji roboczej SPARC (po wcześniejszym omówieniu procesorów w rozdziałach trzecim i czwartym).

Pierwszy SPARC był 32-bitowy i działał z częstotliwością 36 MHz. Centralny procesor nazywał się Ш (Integer Unit – procesor arytmetyczny liczb całkowitych) i był bardzo przeciętny. Miał tylko trzy główne formaty drużyn i łącznie tylko 55 drużyn. Wraz z pojawieniem się procesora zmiennoprzecinkowego dodano 14 kolejnych instrukcji. Należy pamiętać, że Intel zaczynał od układów 8- i 16-bitowych (modele 8088, 8086, 80286), a dopiero potem przeszedł na 32-bitowy (model 80386), a Sun, w przeciwieństwie do Intela, od razu zaczął od 32-bitowego.

Zasadniczy przełom w rozwoju SPARC nastąpił w 1995 roku, kiedy opracowano wersję 64-bitową (wersja 9) z 64-bitowymi adresami i rejestrami. Pierwszą stacją roboczą o tej architekturze był UltraSPARC I, wydany w 1995 roku. Był w pełni kompatybilny z 32-bitowymi wersjami SPARC, chociaż sam był 64-bitowy.

Podczas gdy poprzednie maszyny pracowały z danymi znakowymi i numerycznymi, UltraSPARC był od samego początku projektowany do pracy z obrazami, dźwiękiem, wideo i ogólnie multimediami. Wśród innowacji, oprócz architektury 64-bitowej, pojawiły się 23 nowe polecenia, w tym polecenia dotyczące pakowania i dekompresji pikseli ze słów 64-bitowych, skalowania i obracania obrazów, przesuwania bloków, a także kompresji i dekompresji wideo w czasie rzeczywistym. Polecenia te nazwano VIS (zestaw instrukcji wizualnych) i miały na celu obsługę multimediów. Byli podobni do drużyn MMX.

UltraSPARC był przeznaczony dla serwerów WWW z kilkudziesięciu procesorami i pamięcią fizyczną do 2 TB (terabajt, 1 TB = 1012 bajtów). Jednak niektóre wersje UltraSPARC mogą być również używane w laptopach.

Po UltraSPARC I pojawiły się UltraSPARC II i UltraSPARC III. Modele te różniły się od siebie szybkością, a każdy z nich miał kilka nowych funkcji. Kiedy będziemy mówić o architekturze SPARC, będziemy mówić o 64-bitowej wersji komputera UltraSPARC II (wersja 9).

Język programowania C został wynaleziony przez jednego z pracowników Bell Laboratories, Dennisa Ritchie. Język ten został zaprojektowany do pracy w systemie operacyjnym UNIX. Ze względu na dużą popularność UNIX-a, C wkrótce stał się językiem dominującym w programowaniu systemów. Kilka lat później Bjarne Stroustrup, również z Bell Laboratories, dodał do C pewne funkcje z programowania obiektowego i narodził się C++, który również stał się bardzo

popularny.

W połowie lat 90. badacze z Sun Microsystems zastanawiali się, jak to zrobić

dzięki czemu użytkownicy mogą wywoływać programy binarne przez Internet i pobierać je jako część stron internetowych. Lubili C++, ale nie był on niezawodny w tym sensie, że program wysłany do jakiegoś komputera mógł spowodować uszkodzenie tego komputera. Następnie postanowiono stworzyć nowy język programowania Java, oparty na C++, który nie miałby takich problemów. Java to język zorientowany obiektowo, używany do rozwiązywania różnych problemów z aplikacjami. Ponieważ ten język jest prosty i popularny, użyjemy go w przykładach.

Ponieważ Java jest tylko językiem programowania, możliwe jest napisanie kompilatora, który przekonwertuje ją na Pentium, SPARC lub dowolny inny komputer. Takie kompilatory istnieją. Jednakże język ten został stworzony przede wszystkim w celu przesyłania programów pomiędzy komputerami przez Internet bez konieczności ich zmiany przez użytkowników. Ale jeśli program Java został skompilowany dla SPARC, to kiedy został przesłany przez Internet do Pentium, nie można go było tam już uruchomić.

Aby rozwiązać ten problem, firma Sun zaproponowała nową maszynę wirtualną o nazwie JVM (Java Virtual Machine). Pamięć tej maszyny składała się ze słów 32-bitowych, maszyna obsługiwała 226 poleceń. Większość poleceń była prosta, ale niektóre dość złożone polecenia wymagały do ​​wykonania dużej liczby cykli dostępu do pamięci.

Firma Sun opracowała kompilator konwertujący programy Java na poziom JVM oraz interpreter JVM do uruchamiania tych programów.

Interpreter ten został napisany w języku C i dlatego można go używać na prawie każdym komputerze. Dlatego też, aby na komputerze można było uruchamiać programy binarne w języku Java, wystarczyło pozyskać interpreter JVM dla odpowiedniego komputera (na przykład Pentium II z systemem Windows 98 lub SPARC z systemem UNIX) wraz z określonymi programami pomocniczymi i biblioteki. Ponadto większość przeglądarek internetowych zawiera interpreter JVM, który ułatwia uruchamianie apletów (małych programów binarnych Java połączonych ze stronami WWW).

Większość z tych apletów obsługuje

  • 1. Rodzaje komputerów
  • 3. Rodzaje komputerów stacjonarnych
  • 4. Rodzaje laptopów
  • 5. Laptopy
  • 6. Tabletki
  • 7. Komputery kieszonkowe i smartfony
  • 8. Serwery obliczeniowe
  • 9. Superkomputery
  • 10. Inne typy

Nowoczesne komputery różnią się pod wieloma względami: rozmiarem, możliwościami i przeznaczeniem. Postęp postępuje skokowo, a dziś na półkach sklepowych można znaleźć sprzęt, który do niedawna kojarzył nam się z odległą przyszłością. Klasyfikacja komputerów i jej zrozumienie pomoże konsumentowi dokonać najbardziej efektywnego zakupu, a ignorowanie takich informacji doprowadzi do bezmyślnych wydatków, które spowodują jedynie rozczarowanie.

Typy komputerów

Jakie są różnice w zależności od typu komputera? Typ to grupa, która ma podobne funkcje, cele i zadania, a czasem nawet wygląd. Jeśli na przykład typem jest komputer osobisty, to jego typami są laptopy lub komputery typu all-in-one. Kilkadziesiąt lat temu klasyfikacja komputerów obejmowała zarówno nowoczesne maszyny cyfrowe, jak i analogowe, jednak te ostatnie odeszły w niepamięć i tutaj będziemy mówić wyłącznie o urządzeniach cyfrowych.

Komputer osobisty

Jest to najczęstszy rodzaj takiej technologii; taki komputer polega na bezpośredniej interakcji z osobą i dostarczaniu jej zrozumiałych informacji. Klasyfikacja komputerów osobistych w ogóle obejmuje urządzenia stacjonarne i przenośne; omówimy każdy z tych typów nieco bardziej szczegółowo.

Rodzaje komputerów stacjonarnych

Taki komputer zajmuje stałe miejsce, na przykład biurko komputerowe. Z reguły takie systemy mają większą moc obliczeniową niż gadżety przenośne, ponieważ nie trzeba ich przenosić z miejsca na miejsce, a mogą sobie pozwolić na zastosowanie większych podzespołów, których moc jest większa. Podkreślmy główne typy takich urządzeń:


Rodzaje laptopów

Przenośny – zwany także przenośnym komputerem osobistym, ma między innymi wysokie wymagania co do mobilności konstrukcji i jej wagi, gdyż niewiele osób chce dźwigać dziesięciokilogramowe urządzenie. Takie urządzenia mogą pracować w trybie offline, a aby to zwiększyć, producenci często poświęcają wydajność systemu. Ten typ komputera PC jest klasyfikowany w następujący sposób:

Laptopy

Są to komputery przenośne wyposażone w akumulator, który pozwala na pracę urządzenia bez konieczności podłączania go do gniazdka elektrycznego. Jedno ciało takiego gadżetu zawiera jednocześnie wszystkie niezbędne elementy - monitor, klawiaturę, procesor i inne wypełnienia.

Pomimo tego, że laptopy są zauważalnie bardziej kompaktowe i mobilne niż komputery stacjonarne, dzielą je także między sobą waga i gabaryty. Netbooki to kompaktowe laptopy, które poświęcają wydajność na rzecz lekkości i łatwości przenoszenia; są świetne dla tych, którzy lubią pracować nie tylko przy konkretnym biurku, ale dosłownie wszędzie - w pociągu, w kawiarni czy w bibliotece.
Chociaż laptopy nie są w stanie konkurować wydajnością z komputerami stacjonarnymi w porównywalnej cenie, ich sprzęt jest w zupełności wystarczający dla większości funkcji, a w ostatnich latach coraz większą popularność zaczęły zyskiwać laptopy do gier wyposażone w najnowszy sprzęt, chociaż takie modele ważą sporo.

Tabletki

Urządzenia te to coś pomiędzy smartfonami a laptopami. Często mają dość dużą przekątną ekranu, wynoszącą około 10 cali, a mimo to ważą zauważalnie mniej od laptopów, a ich wydajność zdecydowanie nie wystarcza do współczesnych gier komputerowych, choć zabawki mobilne potrafią być nie mniej ciekawe i zaawansowane technologicznie.
Takimi urządzeniami steruje się za pomocą wyświetlacza dotykowego, chociaż obudowa taka jak laptop typu tablet ma również pełną klawiaturę. Głównym zadaniem takich gadżetów jest surfowanie po Internecie i oglądanie treści wideo, ale w razie potrzeby można je wykorzystać do pracy w programach biurowych, korzystania z poczty elektronicznej i wielu innych.

Pocket PC i Smartfony

Obudowa PDA była niezwykle popularna na początku XXI wieku, kiedy telefony komórkowe nie zapewniały jeszcze szerokiego dostępu do Internetu, jednak wielu fanów tej technologii nadal wykorzystuje kieszonkowców w celach biznesowych.
Smartfony, które zastąpiły PDA, pod względem wydajności ustępują cięższym i mocniejszym laptopom, mają jednak niezaprzeczalną zaletę – mieszczą się w kieszeni i zawsze można je mieć pod ręką. Jest mało prawdopodobne, że będziesz czerpał wiele przyjemności z używania go jako głównej platformy do gier lub pracy, niemniej jednak dostępna jest również taka możliwość, dzięki której dziś prawie każda osoba ma w kieszeni marynarki pełnoprawne środowisko komputerowe. Skończyliśmy z komputerami osobistymi, więc przejdźmy do następnego typu komputera.

Serwery obliczeniowe

Dzięki takim komputerom zapewniony jest ogólnie dostęp do sieci, w tym Internetu. Wszystkie pliki i informacje, które widzisz na ekranie monitora podczas surfowania po Internecie, są przechowywane na takich serwerach. Oczywiście w przypadku takich maszyn wydajność odgrywa ogromną rolę, ale istnieje również ważniejsza cecha takich systemów - niezawodność.

Wszystkie informacje o serwisie muszą być stale dostępne, w przeciwnym razie nie będziemy mogli z nich skorzystać, dlatego serwery obliczeniowe muszą działać bezawaryjnie przez cały okres użytkowania. Tego typu komputery zawsze posiadają kopie zapasowe danych, co wpływa na ogólną koncepcję ich architektury.

Sprzęt taki opiera się na równoległym przetwarzaniu informacji, dlatego serwery stały się pionierami w rozwoju technologii wieloprocesorowej i wielordzeniowej, która jest obecnie stosowana wszędzie, także w komputerach biurowych i domowych. Nawet nettop czy smartfon może w zasadzie pełnić funkcję serwera, jednak ich potencjał w takiej roli jest niewielki, dlatego większość nowoczesnych serwerów to sprzęt dość nieporęczny, składający się z ogromnej liczby urządzeń do przechowywania i przetwarzania danych.

Superkomputery

Są to profesjonalne maszyny o najwyższej dotychczas wydajności, wykorzystywane w laboratoriach naukowych i dużych przedsiębiorstwach. Takie urządzenie to cały kompleks urządzeń komputerowych, które mogą zajmować ogromne pomieszczenia.
Każdy element składowy takiego kolosa ma swoje specyficzne zadanie; taka struktura i organizacja wektorów umożliwiają rozwiązanie najbardziej złożonych problemów wymagających niesamowitej ilości obliczeń. Jeśli w telewizji słyszy się o złożonym modelowaniu procesów wielowymiarowych, na przykład przewidywaniu klęsk żywiołowych, to prawdopodobnie taka prognoza została wygenerowana przy użyciu superkomputera.

Inne rodzaje

Wiele urządzeń, które zwykliśmy postrzegać pośrednio z komponentu komputera, na przykład bankomaty lub konsole do gier, to także w zasadzie komputery. Urządzenia gospodarstwa domowego, zarówno skomplikowane, jak i dość prymitywne jak czajniki, również zawierają małe komputery odpowiedzialne za realizację szeregu funkcji.

Roboty, które stopniowo pojawiają się w naszym życiu, to także urządzenia komputerowe. Jest prawdopodobne, że niedaleki jest dzień, w którym komputery w ogóle przenikną do ludzkiego ciała i na przykład zwiększą nasz poziom wzroku czy inteligencji. Mamy nadzieję, że nasz krótki przegląd pomógł Ci trochę zrozumieć zawiłości rozgałęzionej struktury urządzeń komputerowych.

W ciągu ostatnich 20 lat komputery osobiste szybko się rozwinęły. Komputer osobisty (PC) został zaprojektowany do obsługi pojedynczej stacji roboczej i może zaspokoić potrzeby małych firm i osób prywatnych. Wraz z pojawieniem się Internetu popularność komputerów stacjonarnych znacznie wzrosła, ponieważ za pomocą komputera osobistego można korzystać z informacji naukowych, referencyjnych, edukacyjnych i rozrywkowych.

Komputer to uniwersalny system techniczny zdolny do jednoznacznego wykonania sekwencji operacji określonego programu. Komputer osobisty (PC) może być używany przez jedną osobę bez pomocy personelu konserwacyjnego. Interakcja użytkownika odbywa się za pośrednictwem wielu mediów, od dialogu alfanumerycznego lub graficznego poprzez wyświetlacz, klawiaturę i mysz po urządzenia rzeczywistości wirtualnej.

Pierwszy komputer osobisty IBM został wprowadzony na rynek w 1981 roku. Po raz pierwszy komputery zostały wyposażone w nowy system operacyjny MS-DOS firmy Microsoft. Komputer otrzymał nazwę IBM PC i został zbudowany w oparciu o mikroprocesor Intel 8088. Pojawienie się komputera IBM PC stało się rewolucyjnym wydarzeniem w rozwoju technologii informatycznych ze względu na zasady nieodłącznie związane z tworzeniem komputera. zasada otwartej (modułowej) architektury. W rezultacie stała się możliwa dość łatwa zmiana konfiguracji komputera lub jego aktualizacja poprzez wymianę przestarzałych bloków i podzespołów.

Większość nowoczesnych komputerów to komputery osobiste kompatybilne z IBM PC. Oznacza to, że są kompatybilne z komputerem IBM PC, opracowanym w 1981 roku przez firmę IBM. Pojęcie „kompatybilności” oznacza zarówno możliwość wykonania na dowolnym modelu komputera kompatybilnego z IBM dowolnego programu napisanego dla tego typu komputera (kompatybilność programowa), jak i możliwość samodzielnego podłączania różnych urządzeń zewnętrznych do różnych komputerów IBM (kompatybilność sprzętowa).

Najważniejszą rolę w rozwoju komputerów kompatybilnych z IBM PC odegrał zasada otwartej architektury. IBM nie uczynił komputera pojedynczym, jednoczęściowym urządzeniem, ale zapewnił możliwość złożenia go z niezależnie wyprodukowanych części.

Na przestrzeni lat zmieniło się kilka generacji maszyn IBM PC, charakteryzujących się przede wszystkim rodzajem procesora (patrz niżej). Historycznie rzecz biorąc, pierwszym i od dawna przestarzałym modelem komputera IBM był model IBM PC XT (eXtended Technology) oparty na mikroprocesorze Intel 8086 wprowadzony na rynek w 1984 roku.

Za punkt wyjścia w historii współczesnych komputerów kompatybilnych z IBM PC można uznać standard komputerowy IBM PC AT (Advanced Technology), oparty na mikroprocesorze Intel 80286. Nowoczesne komputery są również identyfikowane jako „kompatybilne z AT”.

Najszerzej stosowane są komputery osobiste kompatybilne z IBM PC, ich moc stale rośnie, a ich zakres rośnie. Ich możliwości są jednak w dalszym ciągu ograniczone, a ich wykorzystanie nie zawsze jest uzasadnione.

Komputery osobiste można z grubsza podzielić na profesjonalne i domowe, ale ze względu na rosnące koszty sprzętu granica między nimi zaciera się. Od 1999 roku wprowadzono międzynarodowy standard certyfikacji – specyfikacja PC99:

− masowy komputer osobisty (Consumer PC)

− komputer osobisty służbowy (Office PC)

− przenośny komputer osobisty (Mobile PC)

− stacja robocza (WorkStation)

− komputer osobisty rozrywkowy (Entertaiment PC)

Większość komputerów osobistych dostępnych na rynku należy do kategorii komputerów stacjonarnych głównego nurtu. Komputery biznesowe mają minimalne możliwości odtwarzania grafiki i dźwięku. Komputery przenośne wyróżniają się obecnością

środki komunikacji na odległość (komunikacja komputerowa). Stacje robocze – zwiększone wymagania wobec urządzeń do przechowywania danych. Komputery rozrywkowe - główny nacisk położony jest na sposoby odtwarzania grafiki i dźwięku.

Podstawowa konfiguracja komputera

Pomimo różnorodności typów, kształtów i architektur komputerów osobistych, większość komputerów PC składa się z następujących komponentów: jednostka systemowa, wyświetlacz, klawiatura, mysz (lub inne urządzenie wskazujące) i urządzenia peryferyjne. W zależności od potrzeb i możliwości użytkowników skład peryferii można rozbudować o system audio z syntezatorem, modemem, drukarką lub skanerem.

Zazwyczaj komputery osobiste składają się z trzech części (bloków):

− jednostka systemowa;

− klawiaturę umożliwiającą wprowadzanie znaków do komputera;

− monitor (lub wyświetlacz) – do wyświetlania informacji tekstowych i graficznych.

Jednostka systemowa obejmuje wszystkie główne elementy komputera osobistego. Jego najważniejszym elementem jest płyta główna, czyli płyta systemowa. Zawiera moduły elektroniczne stanowiące podstawowy zestaw elektroniki komputerowej:

− procesor centralny – główny układ wykonujący operacje obliczeniowe i logiczne;

− pamięć o dostępie swobodnym (pamięć o dostępie swobodnym – RAM) – zespół układów służących do przechowywania danych i programów podczas pracy komputera;

− ROM (pamięć tylko do odczytu) – mikroukład służący do długotrwałego przechowywania danych i programów;

− szyny – zestawy przewodów służące do wymiany sygnałów pomiędzy wewnętrznymi elementami komputera

− chipset – zestaw chipów sterujący pracą wewnętrznych elementów komputera i określający funkcjonalność płyty głównej;

− złącza (sloty) – przedłużki umożliwiające podłączenie dodatkowych urządzeń;

− kontrolery urządzeń itp.

W jednostce systemowej znajdują się także:

− zasilacz przetwarzający napięcie sieciowe na prąd stały niskiego napięcia do zasilania podzespołów komputera;

− napędy dyskowe (napędy) do odczytu i zapisu dyskietek, dysków magnetooptycznych, dysków CD i DVD;

− dysk twardy (dysk twardy).

Wszystkie urządzenia zewnętrzne są podłączone do jednostki systemowej: monitor, klawiatura, mysz, drukarka, modem, skaner, głośniki itp.

Monitor(wyświetlacz) wyświetla na ekranie informacje tekstowe i graficzne, dane wprowadzane z klawiatury lub wyprowadzane z komputera, komunikaty z systemu komputerowego, kopie dokumentów i inne informacje ważne dla użytkownika.

Klawiatura przeznaczony do wprowadzania poleceń i danych do komputera.

Mysz pozwala na wskazywanie elementów ekranu za pomocą wskaźnika i wykonywanie określonych operacji poprzez klikanie przycisków.

Drukarka generuje tekst i grafikę w trybie czarno-białym i kolorowym w formie papierowej. Wydruk można wykonać na papierze lub folii.

Modem przeznaczony do podłączenia komputera do linii telefonicznej.

Skaner zapewnia wprowadzanie do komputera informacji tekstowych lub graficznych, czarno-białych lub kolorowych w celu ich dalszego przetwarzania.

System wideo komputera PC: monitor (przeznaczenie, klasyfikacja, parametry techniczne) i karta graficzna.

Monitory

Pierwsze komputery nie miały monitorów, był jedynie zestaw migających diod LED i wyniki drukowane na drukarce. Wraz z rozwojem technologii komputerowej pojawiły się monitory, które obecnie stanowią niezbędną część podstawowej konfiguracji komputera osobistego.

Monitor (wyświetlacz) to standardowe urządzenie wyjściowe przeznaczone do wizualnego wyświetlania danych tekstowych i graficznych. W zależności od zasady działania monitory dzielą się na:

Monitory z lampą elektronopromieniową;

Wyświetlacze ciekłokrystaliczne.

Monitor z lampą elektronopromieniową

Monitor kineskopowy jest podobny do telewizora. Lampa elektronopromieniowa to elektronowe urządzenie próżniowe w postaci szklanej kolby, w której szyjce znajduje się lampa elektronowa, a na dnie znajduje się ekran z warstwą luminoforu. Po podgrzaniu działo elektronowe emituje strumień elektronów, które poruszają się z dużą prędkością w kierunku ekranu. Przepływ elektronów (elektroniczny

wiązka) przechodzi przez cewkę ogniskującą i odchylającą, która kieruje ją do określonego punktu na fosforowej powłoce ekranu. Pod wpływem elektronów luminofor emituje światło, które widzi użytkownik. Fosfor charakteryzuje się czasem emisji po działaniu przepływu elektronów. Wiązka elektronów porusza się dość szybko, smugując po ekranie linie od lewej do prawej i od góry do dołu. Podczas skanowania, czyli poruszania się po ekranie, wiązka wpływa na te elementarne obszary powłoki fosforowej, w których może pojawić się obraz. Intensywność wiązki stale się zmienia, co powoduje świecenie odpowiednich obszarów ekranu. Ponieważ blask zanika bardzo szybko, wiązka elektronów musi w sposób ciągły przebiegać przez ekran, przywracając go.

Czas emisji i częstotliwość aktualizacji żarzenia muszą sobie odpowiadać. Przeważnie częstotliwość skanowania pionowego wynosi 70-85 Hz, co oznacza, że ​​blask na ekranie odnawia się 70-85 razy

na sekundę. Zmniejszenie częstotliwości odświeżania powoduje migotanie obrazu, co powoduje zmęczenie oczu. Odpowiednio zwiększenie częstotliwości odświeżania prowadzi do rozmycia lub podwojenia konturów obrazu.

Monitory mogą mieć stałą częstotliwość skanowania lub różne częstotliwości w określonym zakresie. Dostępne są dwa tryby skanowania: z przeplotem i bez przeplotu. Zwykle stosuje się skanowanie porządkowe. Wiązka skanuje ekran linia po linii od góry do dołu, tworząc obraz w jednym przejściu. W trybie skanowania z przeplotem wiązka skanuje ekran od góry do dołu, ale w dwóch przejściach: najpierw linie nieparzyste, a następnie parzyste. Skanowanie z przeplotem zajmuje połowę czasu, aby ukończyć pełną klatkę w trybie bez przeplotu. Dlatego czas aktualizacji dla obu trybów jest taki sam.

Ekrany do monitorów kineskopowych mogą być wypukłe lub płaskie. Standardowy monitor jest wypukły. Niektóre modele wykorzystują technologię Trinitron, w której powierzchnia ekranu ma lekką krzywiznę poziomą, natomiast ekran pionowy jest całkowicie płaski. Ten ekran ma mniej odblasków i lepszą jakość obrazu. Jedyną wadę można uznać za wysoką cenę.

Wyświetlacz ciekłokrystaliczny (LCD)

Wyświetlacze ciekłokrystaliczne charakteryzują się nieoślepiającym płaskim ekranem i niskim poborem energii elektrycznej (5 W w porównaniu do monitora kineskopowego zużywającego 100 W). Istnieją trzy typy wyświetlaczy ciekłokrystalicznych:

Monochromatyczny z matrycą pasywną;

Kolor z matrycą pasywną;

Kolor z aktywną matrycą.

W wyświetlaczach ciekłokrystalicznych filtr polaryzacyjny wytwarza światło o dwóch różnych długościach fal. Fala świetlna przechodzi przez komórkę ciekłokrystaliczną. Każda komórka ma swój własny kolor. Ciekłe kryształy to cząsteczki, które mogą przepływać w postaci cieczy. Substancja ta przepuszcza światło, ale pod wpływem ładunku elektrycznego cząsteczki zmieniają swoją orientację.

W pasywnych wyświetlaczach ciekłokrystalicznych każda komórka jest napędzana ładunkiem elektrycznym (napięciem), które jest przesyłane przez obwód tranzystora zgodnie z rozmieszczeniem komórek w rzędach i kolumnach matrycy ekranu. Ogniwo reaguje na przychodzący impuls napięcia.

W wyświetlaczach z aktywną matrycą każde ogniwo wyposażone jest w oddzielny przełącznik tranzystorowy. Zapewnia to wyższą jasność obrazu w porównaniu z pasywnymi wyświetlaczami matrycowymi, ponieważ każda komórka jest wystawiona na działanie stałego, a nie pulsacyjnego pola elektrycznego. W związku z tym aktywna matryca zużywa więcej energii. Ponadto posiadanie osobnego przełącznika tranzystorowego dla każdego ogniwa komplikuje produkcję, co z kolei zwiększa ich cenę.

Monitory monochromatyczne i kolorowe

Na podstawie zestawu odcieni wyświetlanych kolorów monitory dzieli się na kolorowe i czarno-białe (monochromatyczne). Monitory monochromatyczne są tańsze, ale nie nadają się do pracy z systemem operacyjnym Windows.

W monitorach kolorowych stosowane są bardziej złożone techniki obrazowania. W monochromatycznych lampach katodowych znajduje się jedno działo elektronowe, w lampach kolorowych – trzy. Ekran monochromatycznej lampy elektronopromieniowej pokryty jest luminoforem jednego koloru (z emisją żółtą, białą lub zieloną). Ekran kolorowej lampy elektronopromieniowej składa się z triad fosforowych (o promieniowaniu czerwonym, zielonym i niebieskim). Kombinacje trzech kolorów zapewniają dużą różnorodność odcieni wyjściowych.

Podstawowe parametry monitorów

Z punktu widzenia użytkownika głównymi cechami monitora są: przekątna, rozdzielczość, częstotliwość odświeżania i stopień ochrony.

Rozmiar monitora . Przekątna ekranów monitorów jest mierzona w calach. Rozmiary wahają się od 9 cali (23 cm) do 42 cali (106 cm). Im większy ekran, tym droższy monitor. Typowe rozmiary to 14, 15, 17, 19 i 21 cali. Duże monitory najlepiej sprawdzają się w przypadku DTP i prac graficznych, w których trzeba zobaczyć wszystkie szczegóły obrazu. Optymalne do masowego użytku są monitory 15- i 17-calowe.

Rezolucja.W trybie graficznym obraz na ekranie monitora składa się z punktów (pikseli). Liczba punktów poziomych i pionowych, które monitor jest w stanie odtworzyć


dawanie wyraźnie i osobno nazywa się jego zdolnością rozdzielczą. Wyrażenie „rozdzielczość 800x600” oznacza, że ​​monitor może wyświetlić 600 poziomych linii po 800 punktów każda. Standardowo dostępne są następujące tryby rozdzielczości: 800x600, 1024x768, 1152x864 i wyższe. Ta właściwość monitora jest określona przez wielkość kropki (ziarna) ekranu. Wielkość ziarna nowoczesnych monitorów nie przekracza 0,28 mm. Im wyższa rozdzielczość, tym lepsza jakość obrazu. Jakość obrazu jest również powiązana z rozmiarem ekranu. Tak więc, aby uzyskać zadowalającą jakość obrazu w trybie 800x600 na 15-calowym monitorze, można ograniczyć wielkość ziarna do 0,28 mm; w przypadku 14-calowego monitora o tej samej wielkości ziarna w tym samym trybie wideo, jakość małych szczegółów obrazu będzie nieco gorzej.

Częstotliwość regeneracji . Parametr ten nazywany jest inaczej liczbą klatek na sekundę. Pokazuje, ile razy na sekundę monitor może całkowicie odświeżyć obraz na ekranie. Częstotliwość odświeżania jest mierzona w hercach (Hz). Im wyższa częstotliwość, tym mniejsze zmęczenie oczu i tym więcej czasu możesz pracować nieprzerwanie. Obecnie minimalna dopuszczalna częstotliwość wynosi 75 Hz, normalna - 85 Hz, wygodna - 100 Hz lub więcej. Ten parametr zależy również od charakterystyki karty wideo.

Klasa ochrony monitora określa norma, jaką spełnia monitor w zakresie wymogów bezpieczeństwa. Obecnie za ogólnie przyjęte uważa się międzynarodowe standardy TCO-92, TCO-95 i TCO-99, ograniczające poziomy promieniowania elektromagnetycznego, normy ergometryczne i środowiskowe, w granicach bezpiecznych dla zdrowia człowieka.

Adapter wideo

Monitorem steruje specjalna płytka zwana adapterem wideo (kartą graficzną). Karta graficzna wraz z monitorem tworzy podsystem wideo komputera osobistego. Pierwsze komputery nie miały karty graficznej. W pamięci RAM znajdowała się sekcja pamięci ekranu, w której procesor przechowywał dane obrazu. Kontroler ekranu odczytywał z komórek pamięci dane o jasności poszczególnych punktów ekranu i sterował skanowaniem poziomej wiązki działa elektronowego monitora.

Po przejściu z monitorów monochromatycznych na kolorowe i wraz ze wzrostem rozdzielczości ekranu obszar pamięci wideo stał się niewystarczający do przechowywania danych graficznych, a procesor nie miał czasu na przetwarzanie obrazów. Wszystkie operacje związane ze sterowaniem ekranem zostały przydzielone osobnej jednostce – karcie graficznej.

Karta wideo ma postać osobnej karty rozszerzeń, którą wkłada się do określonego gniazda na płycie głównej (w nowoczesnych komputerach jest to gniazdo AGP). Adapter wideo pełni funkcje kontrolera wideo, procesora wideo i pamięci wideo.

W ciągu życia komputera zmieniło się kilka standardów kart wideo:

MDA (Monochromatyczny adapter wyświetlacza) - monochromatyczny,

CGA(Color Graphics Adapter) - 4 kolory,

EGA (Adapter Ulepszonej Grafiki) – 16 kolorów,

VGA (Video Graphics Array) – 256 kolorów,

SVGA (Super VGA) – do 16,7 miliona kolorów.

Wszystkie programy przeznaczone dla komputerów kompatybilnych z IBM są zaprojektowane tak, aby spełniać te standardy. Wygenerowany obraz graficzny jest przechowywany w wewnętrznej pamięci karty wideo, zwanej pamięcią wideo. Wymagana pojemność pamięci wideo zależy od danej rozdzielczości i palety kolorów, dlatego do pracy w trybach o wysokiej rozdzielczości i pełnym kolorze gamma potrzebna jest jak największa ilość pamięci wideo. Jeśli do niedawna typowe były karty wideo z 2-4 MB pamięci wideo, dziś za normalną uważa się pojemność 32-64 MB. Większość nowoczesnych kart graficznych ma możliwość rozszerzenia pamięci wideo do 128 MB, a także przyspieszenia wideo. Istota tej właściwości polega na tym, że część operacji konstruowania obrazu może odbywać się bez wykonywania obliczeń matematycznych w głównym procesorze, ale wyłącznie sprzętowo - poprzez konwersję danych w specjalnych układach akceleratora wideo.

Akceleratory wideo mogą być dołączone do karty wideo lub mogą być dostarczane jako oddzielna karta rozszerzeń instalowana na płycie głównej i podłączona do karty graficznej. Istnieją dwa rodzaje akceleratorów wideo: do grafiki płaskiej (2D) i trójwymiarowej (3D). Te pierwsze są bardziej efektywne w pracy z aplikacjami ogólnego przeznaczenia i zoptymalizowane pod kątem systemu operacyjnego Windows, podczas gdy inne koncentrują się na pracy z różnymi programami multimedialnymi i rozrywkowymi.

Komputer w tłumaczeniu z języka angielskiego oznacza „komputer”. Jest to urządzenie, które wykonuje określoną, z góry ustaloną sekwencję operacji. Daną sekwencję operacji nazywa się oprogramowaniem. Komputery mają bardzo szerokie zastosowanie. Służą do wszelkich skomplikowanych obliczeń, do gromadzenia, przetwarzania, przechowywania, odbierania i przesyłania informacji, sterowania maszynami i mechanizmami w produkcji, do tworzenia obrazów graficznych i wideo z możliwością ich przetwarzania itp.

Termin „komputer”

Ściśle rzecz biorąc, termin „komputer” jest bardzo szeroki, ponieważ zasada jego działania może opierać się na wykorzystaniu szerokiej gamy środowisk pracy i komponentów. Komputer może być elektroniczny, mechaniczny, kwantowy, optyczny itp., Działający w wyniku ruchu fotonów, kwantów, części mechanicznych itp. Ponadto funkcjonalnie komputery dzielą się na dwa typy - elektroniczne i analogowe (mechaniczne).

Nawiasem mówiąc, słowo komputer zostało po raz pierwszy wprowadzone w 1887 roku w słowniku Oxford English Dictionary. Twórcy tego podręcznika rozumieli słowo „komputer” jako mechaniczne urządzenie służące do przetwarzania danych. Dopiero znacznie później, bo w 1946 roku, słownik uzupełniono o terminy jednoznacznie opisujące komputery mechaniczne, analogowe i cyfrowe.

Obecnie pojęcie komputera znacznie się zawęziło, ponieważ wiele urządzeń jest przestarzałych i nie jest już używanych w pracy, zmniejszając w ten sposób istniejący zasięg tych urządzeń.

Wydajność komputera

Szybkość komputera zależy bezpośrednio od jego mocy obliczeniowej, to znaczy szybkości, z jaką wykonywane są określone operacje w jednostce czasu. Ilość ta nazywana jest „ klapy».

W praktyce prędkość silnie zależy od wielu dodatkowych warunków: rodzaju zadania wykonywanego na komputerze, częstej wymiany danych pomiędzy elementami systemu itp. Dlatego też za ten parametr przyjmuje się szczytową prędkość obliczeniową – pewną hipotetyczną liczbę charakteryzującą maksymalna możliwa prędkość wykonywania operacji.

Na przykład superkomputery to urządzenia zdolne do wykonywania obliczeń z szybkością przekraczającą 10 teraflopów (czyli dziesięć bilionów flopów). Dla porównania, przeciętny komputer osobisty w gospodarstwie domowym zużywa około 0,1 teraflopa.

Aby ocenić praktyczną wydajność urządzeń komputerowych, opracowano specjalne testy (w slangu komputerowym często nazywane są „ punkty odniesienia„), które opierają się na specjalnych obliczeniach matematycznych. Wydajność komputerów osobistych ocenia się zwykle z punktu widzenia wszystkich jego podzespołów, aby uzyskać ostateczną, przeciętną ocenę jego wydajności.

Rodzaje współczesnych komputerów

Jak wspomniano powyżej, w zależności od ich konstrukcji, parametrów technicznych i zastosowania, wszystkie komputery można podzielić na kilka typów:

Komputery elektroniczne (komputery)

W rzeczywistości to urządzenie jest zbiorem całego kompleksu środków, w którym wszystkie jego elementy składowe są wykonane przy użyciu elementów elektronicznych. Głównym zadaniem takiego urządzenia jest wykonywanie różnorodnych obliczeń i rozwiązywanie problemów obliczeniowych lub informacyjnych.

Obecnie termin ten jest używany w odniesieniu do konkretnej implementacji sprzętowej urządzenia oraz jako termin prawniczy w dokumentach prawnych. Ponadto pojęciem tym określa się zarówno sprzęt komputerowy wyprodukowany w latach 1950–1990, jak i nowoczesne, duże elektroniczne urządzenia obliczeniowe, w celu odróżnienia ich od komputerów osobistych.

Komputer osobisty

Niedrogie, uniwersalne, dość kompaktowe urządzenie przeznaczone dla jednego użytkownika do użytku w domu lub w biurze i wykonywania różnych indywidualnych zadań - obliczania, pisania, oglądania filmów, słuchania muzyki itp. To właśnie dzięki tej wszechstronności i przystępnej cenie komputery osobiste stały się tak powszechne.

Najbardziej znane są komputery tej firmy Jabłko i tzw Urządzenia kompatybilne z IBM, które obecnie zajmują lwią część całego rynku komputerów osobistych. Szeroką popularność IBM zapewniła jego niższa cena przy niemal identycznych możliwościach.

Do niedawna urządzenia te nie miały ze sobą żadnej kompatybilności – ani sprzętowej, ani programowej. Obecnie istnieje specjalne oprogramowanie („emulatory”), które umożliwia uruchamianie programów Apple (z ograniczeniami) na komputerach kompatybilnych z IBM i odwrotnie.

Z kolei wszystkie komputery osobiste można podzielić na kilka typów:

Komputery stacjonarne.

Powiedz przyjaciołom