BUDOWA KOMPUTERA
Płyta główna
Płyta główna jest płytką z obwodami drukowanymi, na której montowana jest znaczna część
komponentów niezbędnych do poprawnego funkcjonowania systemu komputerowego. Na płycie
głównej swoje miejsce mają: procesor, magistrala systemowa, pamięć ROM (służąca do
przechowywania głównego programu obsługi komputera - BIOSU, a także programów testujących
podzespoły komputera przy starcie systemu - POST), sloty na karty rozszerzeń, gniazda pamięci
RAM, kontroler urządzeń I/O, porty służące do podłączania urządzeń I/O oraz chipset płyty głównej.
Budowa płyty
głównej
Chipset
Chipset stanowi "serce" płyty głównej i odpowiada za sterowanie przepływem strumienia danych.
Chipset zwykle jest podzielony logicznie na dwa osobne układy, tzw. mostki.
Mostek południowy (ang. south bridge) umożliwia dołączenie do procesora portów I/O (tj.
interfejsy szeregowe/równoległe, magistrala USB), zapewnia możliwość korzystania z magistrali
ISA oraz pozwala podłączyć urządzenia do złącz IDE. Ponadto mostek południowy steruje
funkcjami zarządzania energii oraz monitoruje parametry systemu.
Mostek północny (ang. north bridge), który steruje przepływem danych (jest kontrolerem FSB -
głównej szyny procesora) pomiędzy procesorem, pamięcią operacyjną i podręczną, złączem AGP i
PCI, a także mostkiem południowym. Mostek północny zapewnia bezkonfliktową współpracę
magistrali pracujących nierzadko z różnymi częstotliwościami taktowania.
Pojęcie chipsetu ściśle wiąże się z typem obsługiwanego przez płytę główną procesora - innego
chipsetu wymaga procesor Intel 80486 a innego Intel Pentium III. Rodzaj chipsetu zależy również od
specyfikacji elektrycznej i mechanicznej wyprowadzeń gniazda procesora (a więc typu gniazda).
Poniżej przedstawiamy kilka najpopularniejszych obecnie chipsetów.
Intel 82440BX
Chipset ten został oryginalnie zaprojektowany dla procesora Pentium II. Układ oprócz ww.
procesora obsługuje również Pentium III oraz Celeron z jądrem Coppermine. Architektura kości
Chipset
opiera się o technologię QPA (ang. Quad Port Acceleration), którą cechuje zwiększona pojemność
buforów, przez co rośnie przepustowość a opóźnienia występujące w komunikacji są mniejsze (ang.
bus latency). Niestety 82440BX obsługuje tylko tryb 2x szyny AGP [3].
Intel 815/815E
Chipset ten, podobnie jak jego starszy poprzednik (82440BX), wspiera taktowanie szyny adresowej
na poziomie 66, 100, 133 MHz. Ponadto szyna AGP może pracować w trybie 4x. Dostęp do pamięci
(także PC133), o max. rozmiarze 512 MB, odbywa się asynchronicznie. W skład układu wchodzi
również zintegrowany chip graficzny, który pracuje w trybie 2x AGP [3].
W skład i815E wchodzi ponadto: kontroler EIDE wspierający standard Ultra-ATA/100, 2-kanałowy
czteroportowy kontroler USB, wyjście CNR (Communications and Networking Riser), możliwa jest
obsługa 6-kanałowego dźwięku AC'97.
AMD 750
Ten model chipsetu wyróżnia taktowanie FSB z częstotliwością 200 MHz, co daje maksymalną
przepustowość 1,6 GB/s. Chipset wspiera jedynie standard AGP 2x oraz Ultra-ATA/66. Pozwala na
obsługę do 768 MB pamięci RAM PC100. Ponadto posiada zintegrowany 4-portowy hub USB [3].
Ważniejsze wyprowadzenia
ISA (ang. Industry Standard Architecture)
Niestety powoli już wychodzący z użycia standard 16-bitowej magistrali danych, umożliwiającej
dołączanie dodatkowych kart rozszerzeń i oferującej "imponującą" przepustowość 8,33 MB/s.
EISA
(ang. Extended Industry Standard Architecture)
Zgodna ze swoją 16-bitową poprzedniczką, 32-bitowa magistrala zewnętrzna, która ze względu na
kompatybilność wstecz, pracuje z prędkością 8,33 MHz, jednak dostęp do pamięci odbywa się z
pełną szybkością 33 MB/s [1]. Ze względu na niezbyt spektakularne osiągi i dużą cenę wytwarzania,
magistrala ta jest coraz rzadziej wykorzystywana.
VESA
Local Bus (ang. Video Electronics Standards Association)
Standard ten najbardziej popularny w latach 1993-1996 miał stanowić wsparcie dla szybkich kart
graficznych. Stanowił swoiste rozszerzenie technologii ISA o dodatkową magistralę danych,
zwiększającą szybkość transferu pomiędzy procesorem a kartą graficzną, teoretycznie do 120 MB/s.
32-bitowa szyna VESA taktowana była zegarem procesora, którego częstotliwość pracy nie mogła
przekraczać 40 MHz [1]. W pewnym czasie technologia stanowiła konkurencję dla droższej EISA,
jednak szybko została wyparta przez technologię PCI.
PCI (ang. Peripheral Component Interconect)
Architektura ta została wprowadzona w 1993 roku przez firmę Intel i obecnie jest
najpopularniejszym rodzajem gniazd rozszerzeń. Zaletą magistrali PCI jest możliwość tworzenia
złożonych systemów (specyfikacja 2.1 PCI opisuje, że możliwa jest współpraca do 256 magistrali, z
których każda może obsługiwać do 32 urządzeń PCI). Ciekawostką świadczącą o możliwościach
eskalacji PCI niech będzie fakt, że w typowym PC wykorzystywana jest tylko jedna magistrala PCI
obsługująca do 10 urządzeń [1]. Magistrala PCI może pracować z szybkością od 0 do 33 MHz (ver.
2.1 do 66 MHz), co daje przepustowość 132 MB/s. Magistrala pozwala na dostęp do adresowanego
obiektu w jednym takcie zegara. Zdefiniowane jest również 64-bitowe złącze magistrali PCI,
pracujące z prędkością do 264 MB/s.
Architektura komputera z magistralą PCI
AGP (ang. Accelerated Graphics Port)
AGP stanowi pewne przedłużenie magistrali PCI, dlatego określana jest jako interfejs
komunikacyjny. Magistrala AGP nie przyspiesza operacji graficznych, a jedynie umożliwia bardziej
wydajną pracę procesora graficznego [1]. Dzieje się tak, gdyż ów procesor sprawuje wyłączną
kontrolę nad magistralą. AGP bazuje na specyfikacji PCI 2.1, zmienia jednak znaczenie niektórych
sygnałów i wprowadza szereg nowych. Magistrala AGP może pracować w jednym z trzech trybów:
_ Tryb 1x. Rozszerzenie standardu PCI, w którym dzięki podwojeniu częstotliwości pracy
zegara taktującego do 66 MHz, uzyskano teoretyczny maksymalny transfer 264 MB/s.
_ Tryb 2x. Częstotliwość zegara jest taka jak poprzednio, ale wymiana danych odbywa się
podczas narastającego i opadającego zbocza sygnału taktującego. Daje to wzrost
częstotliwości zegara do 133 MHz , a teoretyczna przepustowość wynosi 532 MB/s.
_ Tryb 4x. Różnica w stosunku do trybu poprzedniego polega na tym, że w czasie zbocza
wykonywane są dwie transmisje, a więc teoretyczna przepustowość wzrasta do 1064 MB/s.
Tryb ten pracuje na znacznie obniżonym poziomie napięć - 1.5V.
AMR, CNR i PTI
Wszystkie trzy gniazda zostały opracowane przez firmę Intel i ułatwiać mają instalowanie prostych
urządzeń rozszerzających.
AMR (ang. Audio modem Riser) - pozwala na dołączenie modemu lub karty dźwiękowej.
CNR (ang. Communication and Network) - pozwala na rozbudowę o kartę sieciową 10/100Mb/s.
PTI (ang. Panel link TV-out Interface) - pozwala na podłączenie kart TV.
Procesory
Intel Pentium
Pewnie niewielu użytkowników komputerów osobistych pamięta procesory Pentium 60 MHz, ale
zapewniam, że to autentyczna historia. Te pierwsze procesory zasilane były napięciem 5V. Kolejna
grupa procesorów Pentium (P54C) pracowała przy mniejszym napięciu zasilającym (3,3V), a
częstotliwość taktowania jądra oscylowała w granicach 200 MHz [1].
Procesory Pentium uznawane za 32-bitowe, tak jest w istocie - rejestry procesora są 32-bitowe,
jednakże wewnętrzne ścieżki mają nawet do 256 bitów szerokości, dzięki czemu prędkość
wewnętrznych transferów jest większa niż mogłoby wynikać z owych 32-bitów.
Pentium posiada dwa potoki przetwarzające instrukcje stałoprzecinkowe (U i V) oraz jednostkę
zmiennoprzecinkową. Jeżeli jest to możliwe, procesor przetwarza w każdym cyklu dwie instrukcje
(po jednej na potok). Potoki pracują wyłącznie w trybie synchronicznym, niemożliwe jest więc np.
przewidywanie skoków przez jeden z nich, ponieważ zatrzymanie jednego z potoków prowadzi do
zatrzymania drugiego. Jednak Pentium posiada dodatkowy moduł dynamicznego przewidywania
rozgałęzień BPU (ang. Branch Prediction Unit). Moduł ten przewiduje rozgałęzienia, czyli "wkłada"
do potoku te instrukcje, które jego zdaniem będą wykonywalne. Błędne przewidzenie rozgałęzienia
powoduje, że jeden z potoków musi wstrzymać przetwarzanie, a więc i drugi potok nie może być
realizowany [1].
Pentium może działać w systemach wieloprocesorowych, ale tylko z identycznym procesorem (Dual
system). Montowany jest w gniazdach rozszerzeń typu Socket 7.
Intel Pentium MMX
Procesor Pentium MMX jest jednostką typu SIMD (Single Instruction Multiple Data), czyli
wykonuje operację na kilku grupach danych jednocześnie.
MMX stanowi rozszerzenie procesora Pentium o nowe rozkazy multimedialne. Rozszerzenie
spowodowało pojawienie się nowych instrukcji (i nowych wyprowadzeń) oraz nowych rejestrów
wykorzystywanych do tego celu. Istotne zmiany procesora Pentium MMX w stosunku do jego
poprzednika, to [1]:
_ podwójne napięcie zasilające (od wersji 166 MHz) - układy odpowiadające za współpracę z
magistralami I/O zasilane są innym napięciem niż rdzeń procesora;
_ zwiększona pamięć podręczna L1 (ang. first-level cache) do 16kB - pracuje z poczwórną
asocjacją;
_ stos powrotu (ang. return stack) - przy przejściu do wykonywania podprogramu
zapamiętywany jest adres powrotu do programu aktualnie wykonywanego;
_ bufor zapisu jest zwiększony z 2 do 4 słów;
_ nowa doskonalsza jednostka BPU (taka jak w Pentium Pro);
_ możliwość równoległego wykonywania rozkazów (w sprzyjających warunkach 2 polecenia
równolegle);
Modele Pentium MMX dzięki wykorzystaniu ww. nowinek (ale bez nowych instrukcji) osiągają
wzrost mocy obliczeniowej do ok. 20 %.
Intel Pentium II
Pentium II to model, który pierwszy przełamał granicę taktowania 200 MHz (stąd już tylko krok do
1GHz). Tym co odróżniło go od poprzedników był zupełnie nowy image. Otóż procesor Pentium II
pojawił się na pokładzie specjalnej karty o 242 końcówkach, którą wkłada się do złącza
krawędziowego o nazwie Slot 1 (patrz rysunek dla Pentium 3).
Dodatkową zmianą było oddzielenie pamięci podręcznej L2 (ang. Second Level Cache) od
procesora, a stało się to dlatego, że taki sposób produkcji był znacznie tańszy. Pamięć L2 miała
rozmiar 256/512 kB, taktowana była częstotliwością równą połowie taktu zegara procesora i
znajdowała się na płytce wraz z procesorem.
Dodatkowe informacje o konstrukcji są następujące: pamięć podręczna L1 ma rozmiar 32KB (po
16KB dla kodu programu i danych), wewnętrzna magistrala ma szerokość 300 bitów, procesor może
zaadresować 64 GB (wirtualnie 64 TB), zasilanie wynosi 2,8V, jako pierwszy współpracuje z
magistralą taktowaną 100 MHz.
Pentium II przetwarza dane w trzech równoległych dwunastostopniowych potokach, a jądro
procesora pracuje w układzie RISC (ang. Reduced Instruction Set Computer) - instrukcje rozkładane
są na proste mikrooperacje i grupowane w centralnym zbiorniku (ang. Instruction Pool). Dzięki
temu zbiornikowi pobieranie kolejnych kodów x86 z pamięci operacyjnej jest niezależne od ich
wykonania [1]. Ze zbiornikiem instrukcji połączony jest układ dyspozytora (ang. Dispatcher), który
kieruje mikroinstrukcje do właściwych jednostek wykonawczych (ang. Execute). Dyspozytor kieruje
do wykonania te mikrokody, które aktualnie nie czekają na żadne wyniki pośrednie z innych operacji
[1]. Wykonane instrukcje RISC trafiają znowu do zbiornika instrukcji (nie wiadomo, czy układ
przewidywania rozgałęzień dobrze określił czy dana instrukcja rzeczywiście jest potrzebna).
Instrukcja uznana za wykonaną zostaje "wyrzucona" ze zbiornika i przechodzi na "emeryturę" (ang.
retire) i dopiero w tym momencie wyniki jej działania są zapisane.
Intel Celeron A (Medocino)
Celerony A Medocino (określenie "medocino" identyfikuje strukturę krzemową) posiadają znaczniki
300A , 333, 366 i wyżej... Wyposażone są one w zintegrowaną pamięć podręczną L2 o skromnym
rozmiarze 128 kB, która jest taktowana z pełną prędkością zegara procesora, czyli z prędkością
cache L1. Medocino współpracuje z magistralami 66/100MHz. Taka konstrukcja procesora
zapewniła mu dużą wydajność, przy stosunkowo niskim koszcie.
Dodatkowo, Celeron A jako pierwszy dał możliwość "podkręcania" (ang. overclocking)
częstotliwości pracy magistrali systemowej współpracującej z tym procesorem, a więc częstotliwości
pracy procesora (znane są przypadki podkręcania Celeron'a 333 do ok. 700 MHz). Sprawiło to, że
Celeron A stał się w swoim czasie rynkowym przebojem i idealną "maszyną do overclocking'u".
AMD Duron
Procesor Duron został stworzony przez firmę AMD głównie z myślą o klientach, którzy potrzebują
dużej mocy obliczeniowej za niewielką cenę. Ograniczenie kosztów możliwe stało się dzięki
zmniejszeniu ilości pamięci ciche poziomu L2 do 64 KB. Pamięć cache poziomu L1 w procesorze
Durom wynosi 128 KB, a więc po raz pierwszy w historii procesor rodziny x86 posiada mniejszy
cache poziomu L2 niż poziomu L1. Nie powoduje to jednak znacznego spadku wydajności dzięki
zastosowaniu specjalnej organizacji pamięci podręcznej. Wykluczająca się architektura dostępu do
pamięci cache (ang. exclusive cache) to rozwiązanie, które pozwala procesorowi używać
sumarycznej pojemności pamięci cache L1 i L2 tak, jakby to była pamięć poziomu L1 o średnim
czasie dostępu 1.5 cyklu zegara.
Zaimplementowana w Duronie interpretacja rozkazów 3DNow! i Enchanced 3DNow!, które
wspomagają operacje multimedialne, pozwala na równoległe przetwarzanie kilku liczb arytmetyki
stałoprzecinkowej jak i zmiennoprzecinkowej, a więc zwiększenie szybkości przetwarzania danych.
Taki sposób przetwarzania określany jest jako SIMD (ang. Single Instruction Multiple Data) i polega
na wykonywaniu jednej instrukcji na bloku danych.
Procesor AMD Duron komunikuje się z pamięcią SDRAM z częstotliwością 100 MHz (dla pamięci
DDR 200 MHz), jest wykonany w technologii 0.25 mikrona (wersja 600 MHz) i zainstalowany
może być na płycie głównej zawierającej podstawkę typu Socket A.
Procesor ten (nazwany roboczo Katmai), tak jak jego poprzednik, ma architekturę 32-bitową.
Ponadto posiada zintegrowaną 512 kB pamięć podręczną drugiego poziomu, wykorzystuje
poszerzoną 256-bitową szynę BSB (ang. Back Side Bus) zapewniającą szybszy transfer wewnętrzny
danych. Procesor zasilany jest napięciem 1.65/1.7 V (zależnie od modelu).
Intel Pentium III
Pentium III dysponuje poszerzoną listą rozkazów. Dodano ponad 70 rozkazów określanych jako
ISSE (ang. Internet Streaming SIMD Extentions), czyli wykorzystanie znanych z MMX technik
przetwarzania kilku danych z użyciem jednego rozkazu. Co ważne, ISSE potrafi operować także na
danych w formacie zmiennoprzecinkowym, co wykorzystywane jest do obliczania obrazów 3D,
rozpoznawania mowy, itp. [3]. Aby możliwe było korzystanie z rozszerzeń ISSE, kod aplikacji musi
być specjalnie zoptymalizowany.
Procesor Pentium III
Ponadto, cache L2 jest zintegrowany z procesorem i jest taktowany z taką samą szybkością jak rdzeń
procesora. Interfejs magistrali zewnętrznej w procesorze Intela oparty jest na standardzie - GTL+
(ang. Gunning Tranceiver Logic). Magistrala jest taktowana z częstotliwością 133 MHz.
AMD Athlon Thunderbird
Architektura procesora Athlon Thunderbird jest niemal identyczna jak ta, która charakteryzuje
procesor AMD Duron. Najbardziej istotną różnicą jest rozmiar pamięci cache L2 działający z pełną
szybkością jądra układu, który wynosi 256 KB. Pamięć ta pracuje w trybie exclusive L2 cache
memory.
Procesor Athlon współpracuje z 200/266 MHz magistralą systemową, dzięki czemu możliwe jest
dostarczenie do procesora 1.6/2.13 GB danych. Ten wydajny interfejs magistrali zewnętrznej
Thunderbirda - EV6 - pochodzi od procesorów Alpha firmy DEC.
Rysunek 2.5. Procesor Athlon Thunderbird
W Athlonie, tak jak i w Duronie, zaimplementowane są rozkazy SIMD - 3DNow! (21 instrukcji)
oraz Enhanced 3DNow! (45 instrukcji), dzięki którym uzyskano przyspieszenie blokowych operacji
na danych. Dzięki tym rozszerzeniom procesor potrafi efektywniej wykonywać takie zadania jak:
kodowanie/dekodowanie MPEG2, MP3, itp.
Procesory Athlon Thunderbird montowane są obecnie już tylko w złączach typu Socket A -
początkowe wersje tego procesora mogły być osadzane również w podstawkach Slot A.
Maksymalna podawana przez producenta częstotliwość taktowania Thunderbirda to 1.4 MHz.
Intel Pentium 4
Procesor Pentium 4 jest najnowszym produktem firmy Intel. Wyróżnia go wysoka częstotliwość
pracy układu - ponad 1,4 GHz. Wraz z procesorem zintegrowana jest pamięć cache L2 o pojemności
256 kB, która pracuje tak jak u poprzednika, z pełną prędkością procesora. Brak jest natomiast
pamięci cache L1. Usprawnione jest przetwarzanie potokowe, a długość kolejki rozkazów wynosi
20. Za tłumaczenie kodu x86 odpowiada wyspecjalizowany dekoder.
P4 posiada nowy mechanizm mający na celu poprawienie wydajności układu. Jest to 8 kB bufor
śledzenia wykonywania instrukcji (ang. Execution Trace Cache), przechowujący kod x86 w postaci
mikrooperacji (nie ma konieczności odkodowywania instrukcji, gdyż są już odkodowane). Ponadto
ALU pracuje dwa razy szybciej niż reszta procesora, a więc np. 2.8 GHz dla procesora 1.4 GHz.
Mechanizm ten nosi nazwę Rapid Execution Engine i umożliwia zakończenie operacji na danych
stałoprzecinkowych w połowie cyklu zegarowego [3].
Najmniej zmienioną częścią najnowszego procesora Intela jest jednostka zmiennoprzecinkowa. Tak
jak dla P3 wykorzystywane są dwa kanały do obliczeń zmiennoprzecinkowych. Poszerzony został
zestaw instrukcji ISSE o 144 nowe rozkazy, który nosi nazwę ISSE2 i umożliwia wykonywanie
operacji na liczbach 128 bitowych o podwójnej precyzji oraz na 128 bitowych liczbach
stałoprzecinkowych.
Procesor Pentium 4
Architektura Pentium 4 jest 64-bitowa, procesor dysponuje 400 MHz magistralą systemową o
przepustowości 3,2 GB/s (3 razy szybciej niż Pentium III). Procesor oryginalnie przeznaczony był
tylko do współpracy z pamięcią RDRAM, jednakże pojawiły się już wersje współpracujące z
pamięciami typu SDRAM.
Rodzaje pamięci
Aby zająć się rodzajami pamięci, należy najpierw zastanowić się nad budową pamięci DRAM.
Pamięci tego typu wymagają okresowego odświeżania (ang. refresh) ze względu na to, że
nośnikiem informacji są kondensatory (a dokładnie tranzystory polowe Denarda) [3], które
samoistnie rozładowują się. Odświeżanie polega na odczytaniu i zapisaniu tej samej informacji.
Ponadto odczyt z pamięci DRAM jest niszczący (informacja jest kasowana w wyniku rozładowania
kondensatora przez współpracujący z nim tranzystor), dlatego też należy powtórnie zapisać
odczytane dane tak, aby nie uległy zmianie.
FPM RAM
FPM RAM (ang. Fast Page Mode RAM) jest najstarszym rodzajem pamięci. Jest to pamięć typu
asynchronicznego, w której sygnały sterujące matrycą komórek pamięci (sygnały te to: RAS: Row
Adress Strobe - wybór wiersza matrycy pamięci oraz CAS: Column Adress Strobe - wybór kolumny
matrycy pamięci) generowane są niezależnie od taktów zegara. Tak więc, informacja na wyjściu
ukazuje się po czasie wynikającym z konstrukcji układu. Dodatkowo, występują problemy ze
zsynchronizowaniem się taktów zegara systemowego i taktów pamięci [3].
Termin "Fast" odnosi się do faktu, iż pamięci te umożliwiają szybszy dostęp do danych znajdujących
się na jednej stronie pamięci. Niegdyś pamięci te były montowane
"na pokładzie" 386-óstek i 486-óstek
w postaci 72-pinowych modułów SIMM (ang. Single In-line Memory Module).
Pamięci typu SIMM i DIMM
SDRAM
Pamięć SDRAM (ang. Synchronous DRAM), podobnie jak pamięć typu FPM, jest pamięcią typu
DRAM. Pamięć ta pracuje z częstotliwością zewnętrznej magistrali systemowej (a więc
synchronicznie) i charakteryzuje się czasem dostępu rzędu 10 ns. SDRAM-y wyróżnia ponadto
wysoka teoretyczna przepustowość danych - 800 MB/s dla kości typu PC-100 i 1064 MB/s dla PC-
133 [3]. Pamięci SDRAM są wykonywane w postaci 168-pinowych modułów DIMM (ang. Dual Inline
Memory Module), obecnie zasilanych napięciem 3,3 V.
DDR SDRAM
Pamięć DDR SDRAM (ang. Double Data Rate DRAM) jest ulepszoną wersją swojej poprzedniczki.
Ulepszenie polega na możliwości przesyłania danych na obydwu zboczach sygnału zegarowego.
Charakteryzują się bardzo dużą przepustowością - 2.1 GB/s dla DDR SDRAM pracujących
efektywnie z częstotliwością 266 MHz.
Podwojenie częstotliwości pracy nie jest jedyną nowinką związaną z pamięciami DDR. Pamięci tego
typu posiadają usprawniony mechanizm synchronizacji oraz buforowania danych. Pamięć DDR
wykonana jest w postaci 184-pinowych modułów DIMM.
Obecnie, trwają prace nad pamięciami DDR-II, które będą wykonane w technologii 0,13 mikrona i
oferować będą przepustowość 6,4 GB/s przy częstotliwości 800 MHz.
RDRAM
Pamięci RDRAM (ang. Rambus Direct RAM) są układami podobnymi do pamięci DRAM. W
układach tych matryca pamięci jest podzielona na 8 niezależnych bloków. Każda z części jest
odczytywana z pewnym opóźnieniem, wynikającym z częstotliwości zegara. W jednym takcie
zegara jest więc odczytana informacja z pojedynczego bloku. Przy kolejnych cyklach pobierane są
kolejne dane i dopiero po odczytaniu wszystkich bloków, dane wysyłane są na zewnątrz w postaci
pojedynczego pakietu (patrz rysunek 2.7) [3].
Pobieranie danych z poszczególnych banków przez pamięci Rambus [3]
Ważną zaletą pamięci RDRAM jest fakt, że umożliwiają one duże transfery - 1,6 GB/s dla pamięci
współpracującej z 16-bitową szyną danych z częstotliwością 400 MHz (efektywnie 800 MHz -
informacje przesyłane są na obu zboczach sygnału zegarowego). Podwojenie kanału Rambus (do
którego wsparcie oferuje chipset i840) daje przepustowość 3,2 GB/s. Olbrzymia przepustowość
pamięci Rambus spowodowała wydłużenie czasu dostępu do danych.
Z wytwarzaniem pamięci RDRAM wiąże się wiele problemów technologicznych, jak np. eliminacja
efektu linii długiej, zakłócającego poprawność przesyłania informacji [3]. Wymusza to rezygnację z
możliwości zainstalowania więcej niż dwóch modułów pamięci RDRAM na płycie głównej. Pamięć
RDRAM wytwarzana jest w postaci modułów RIMM (ang. Rambus In-line Memory Module).
Pamięci masowe
Dysk twardy
Dyski twarde HDD (ang. Hard Disk Drive) zostały tak nazwane z powodu swej sztywnej
konstrukcji. Dyski twarde nie zawsze były takie "twarde". Kiedyś, przed przenoszeniem dysku z
miejsca na miejsce, trzeba było zaparkować głowice, czyli uruchomić specjalny program, który
zajmował się przemieszczeniem głowic poza obszar magnetyczny dysku.
Dysk twardy firmy Quantum
Dzisiaj dyski operacje takie wykonują automatycznie, ponadto są bardzo odporne na wstrząsy. Dyski
twarde zawierają w swej obudowie kilka, a nawet kilkanaście talerzy (standardowo 3 talerze
magnetyczne). Talerze wirują prędkością 3600-7200 obrotów na minutę (ang. RPM - Rounds Per
Minute), a niektóre dyski SCSI kręcą się z prędkością 15 000 RPM (250 obrotów na sekundę).
Wewnątrz pyłoszczelnej obudowy dysku twardego znajdują się (oprócz głowicy i talerzy): układy
sterowania silnikiem napędu dysków, silnikiem przesuwu głowic (służącym do pozycjonowania)
oraz głowicami zapisu/odczytu, a także inne układy sterowania i kontroli. Dzięki dużej prędkości w
ruchu obrotowym wytwarza się poduszka powietrzna pod głowicą zapisu/odczytu, dlatego łatwo
może ona być utrzymywana w stałej odległości od talerza (głowica nie dotyka dysku podczas
pracy !) [1]. Dzięki dużej prędkości obrotowej możliwe jest również uzyskiwanie dużych prędkości
transmisji danych.
Najważniejszymi parametrami dysków twardych są:
_ szybkość transmisji (transfer) danych;
_ prędkość obrotowa (5400 RPM, 7200 RPM, 15 000 RPM);
_ Średni czas dostępu (ang. average access time) wyrażany w ms (np. 10ms). Na tę wielkość
składają się:
_ średni czas wymagany do umieszczenia głowic nad odpowiednim cylindrem (ang.
average seek time);
_ opóźnienie rotacyjne związane z umieszczeniem głowicy nad wybranym sektorem;
_ pojemność (popularnie 40 GB);
Należy tu zauważyć, że prędkość dysku zależy od wykorzystywanej technologii transmisji. Dyski
pracujące z magistralą SCSI, wykorzystując szybszy i wydajniejszy interfejs, pracują szybciej, dyski
obsługiwane przez interfejs EIDE, nawet używające trybu UltraAta/100 póki co, nie są w stanie
zagrozić "konkurencji".
CD-ROM
Prace nad napędem CD-ROM rozpoczęte zostały w roku 1978. Pierwszy napęd powstał dzięki firmie
Phillips, ale odtwarzacz CD-ROM, jaki znamy w dzisiejszej postaci zaprojektowany został przez
team (ang. "team") firm Phillips i Sony. W połowie lat 80 minionego wieku, napędy te weszły do
szerszej dystrybucji, zaś lata 90 przyniosły im niezwykłą popularność głównie dzięki stosunkowo
niskiej cenie oraz dużej pojemności jaką oferowały płyty CD-ROM.
Zasada działania napędu CD-ROM jest prosta (patrz rysunek poniżej). Otóż [3]:
1. Dioda laserowa (1) emituje na lustro (2) promień podczerwony o niskiej energii.
2. Silnik servo, przesuwając lustro (2) na rozkaz mikroprocesora, ustawia promień na właściwej
ścieżce płyty (3).
Zasada działania napędu CD-ROM
3. Po odbiciu promienia przez płytę (3), jego światło jest zbierane i skupiane przez pierwszą
soczewkę (4) znajdującą się pod płytą, odbijane od lustra (5) i kierowane do układu
pryzmatów (6).
4. Układ pryzmatów (6) kieruje promień na następną soczewkę skupiającą (7).
5. Druga soczewka kieruje promień światła na fotodetektor (8), który zamienia go na ciąg
impulsów elektrycznych.
6. Impulsy elektryczne są dekodowane przez mikroprocesor i wysyłane do komputera.
Zagłębienia wytrawione na płycie CD-ROM (ang. pit) sprawiają, że światło odbite od pit'a różni się
intensywnością (energią) od tego, które na pit'a nie trafiło. Zmiana energii wiązki lasera traktowana
jest więc jako pojawienie się informacji i przekształcana przez fotodetektor na impulsy elektryczne.
Ponieważ przekłamanie informacji o pojedynczym bicie może być groźne np. dla działania
programu typu *.exe, stosuje się zaawansowane techniki wykrywania i korekcji błędów. Dzięki nim
prawdopodobieństwo niewykrycia błędu jest rzędu 10^(-25). Sama korekcja wymaga zaś 288 B na
każde 2048 B danych [2].
Najważniejszymi parametrami napędów CD-ROM są :
_ Szybkość transmisji - określa jak szybko może odbywać się komunikacja pomiędzy jednostką
entralną a urządzeniem. Dla napędów CD-ROM przyjęło się używać oznaczeń 1x, 2x, 8x, itp.
Są to oznaczenia właśnie szybkości transmisji. Symbol 1x określa przepływ danych przez 75
sektorów danych po 2048 B w ciągu sekundy (format CD), co daje szybkość 150 kB/s.
Naturalnie sybole 2x, 4x, itd. są wielokrotnościami wymienionej prędkości.
_ Czas dostępu (ang. access time) - opóźnienie pomiędzy momentem zlecenia odczytu, a chwilą
uzyskania danych (typowa wartość 100 ms). Należy pamiętać, że inny jest czas dostępu do
danych położonych blisko środka, a inny przy brzegu płyty.
Napęd CD-ROM można podłączyć do komputera korzystając z interfejsów, z których
najpopularniejsze to SCSI/ASPI oraz IDE/ATAPI.
Karta graficzna
Karta MDA
Prekursorem kart graficznych, instalowanych w komputerach rodziny PC, był sterownik, który
pojawił się w komputerach IBM PC w roku 1981, o nazwie MDA (ang. Monochrome Display
Adapter). Karta pracowała tylko w trybie tekstowym o rozdzielczości 25 linii x 80 znaków [2].
Wyposażona w 4KB pamięci oferowała częstotliwość odchylania pionowego 50 Hz.
Karta CGA
Następcą sterownika MDA była karta CGA (ang. Color Graphics Adapter) - opracowana przez IBM
w 1982 roku karta jako pierwsza oferowała możliwość korzystania z trybu graficznego. Były to
jednak tylko dwie rozdzielczości: 640x200 oraz 320x200 punktów. Karta oferowała 16 KB pamięci -
większa rozdzielczość wyświetlana była jedynie w trybie monochromatycznym, zaś niższa "aż" w 4
kolorach. Tryb tekstowy możliwy był również w dwóch wariantach: 80 znaków x 25 linii, bądź 40
znaków x 25 linii, niestety matryca znaku miała rozmiary 8x8 pikseli. Karta oferowała maksymalną
częstotliwość odświeżania pionowego 60 Hz.
Karta wykorzystywała spakowaną (ang. packed) metodę odwzorowania pamięci - w danym bloku
pamięci RAM każdemu pikselowi obrazu odpowiadał fragment bajtu, zawierający numer koloru
tego punktu (np. 1 bit - 2 kolory, 2 bity - 4 kolory, itd.) [1].
Karta Hercules
Karta Hercules pojawiła się w tym samym czasie co karta CGA. Była ona wyposażona dodatkowo w
złącze równoległe, umożliwiające podłączenie drukarki.
Karta oferowała możliwość pracy w rozdzielczości 720x348 punktów (zarówno w trybie tekstowym,
jak i graficznym), ale jedynie w trybie monochromatycznym. Wyposażona była w 64 KB pamięci.
Znaki w trybie tekstowym wyświetlane były na podstawie matrycy 9x14 punktów. Karta nie miała
możliwości współpracy z IBM-BIOS, gdyż nie została wyprodukowana przez IBM.
Aby umożliwić szybszy dostęp do danych pamięć została podzielona była na dwie strony graficzne,
natomiast każda ze stron - na cztery banki.
Karta EGA
Karta EGA (ang. Enchanced Graphics Adapter) to kolejny etap rozwoju CGA. Karta oferowała
wyświetlanie obrazu w rozdzielczości 640x350 punktów przy 16 kolorach (wybieranych z palety 64
kolorów). Zaopatrzona była w 256 KB pamięci. Rozdzielczość w trybie tekstowym wynosiła 80x43,
przy matrycy znaku 8x14.
Sterownik EGA składał się z czterech głównych bloków funkcjonalnych [1]:
_ Układ sekwencyjny - generuje sygnał zegarowy; przesyła dane pomiędzy pamięcią obrazu,
układem graficznym i układem określania atrybutu; odpowiada za wybór lokalizacji
wyświetlanych znaków.
_ Układ graficzny - przekazuje dane pomiędzy pamięcią obrazu, układem graficznym i układem
określania atrybutu.
_ Układ sterowania atrybutem - służy do zmiany kolorów zapisanych w pamięci obrazu na
indeksy kolorów zdefiniowanych w rejestrach wzorców kolorów.
_ Układ sterowania wyświetlaczem - odpowiada za zachowanie zależności czasowych podczas
wyświetlania obrazu oraz wyświetla kursor.
Pamięć wideo opisywanej karty podzielona jest na cztery 64KB obszary (rozwiązanie to jest
wykorzystywane również w kartach VGA). Trzy kolory podstawowe (RGB) przyporządkowane są
do kolejnych obszarów, zaś czwarty z obszarów zawiera informacje o intensywności z jaką ma być
wyświetlony dany kolor. Tak więc jeden piksel zawiera swoje składowe w czterech blokach pamięci.
Dzięki takiej strukturze 256 KB zajmuje 64 KB przestrzeni adresowej. Rozwiązanie to nosi nazwę
metody płatowej (ang. planar, bit maped), a jego wadą jest to, że utrudniony zostaje dostęp do
danych [1].
Karta VGA
Karta VGA (ang. Video Graphics Array) to kolejny standard firmy IBM, opracowany z myślą o
aplikacjach graficznych. Sterownik ten jest w stanie emulować wszystkie dotychczas opisane
standardy.
Cechą wyróżniającą kartę VGA jest fakt, że wysyła ona do monitora sygnały analogowe
(poprzedniczki operowały na sygnałach cyfrowych), dzięki czemu zwiększono ilość wyświetlanych
kolorów. Zajmuje się tym wyspecjalizowany układ przetwornika cyfrowo-analogowego (DAC - ang.
Digital Analog Converter), który jest w stanie przedstawić każdą z barw w postaci określonej liczby
poziomów (np. 64) [1].
Standardowy sterownik VGA umożliwia wyświetlanie 25 wierszy znaków w 80 kolumnach
(matryca znaku 9x16). Znak może być wyświetlany w jednym z 16 kolorów, natomiast kolor tła dla
każdego znaku może być inny.
W trybie graficznym karta VGA umożliwia wyświetlenie obrazu o rozmiarach 640x480 punktów
przy 16 kolorach (wybranych z palety 256 kolorów). Maksymalną liczbę kolorów - 256 - osiągnąć
można przy rozdzielczości 320x200 punktów.
Karta SVGA
Karty SVGA (ang. Super VGA) są rozszerzeniem techniki VGA. Sterowniki SVGA wykorzystują
tzw. technikę stronicowania, polegającą na kojarzeniu z niewielkim obszarem pamięci (oknem), w
przestrzeni adresowej, różnych fragmentów większego obszaru pamięci (stron lub banków) [1]. Tak
więc, zapis/odczyt adresu położonego wewnątrz okna, powoduje zapis/odczyt odpowiadającego mu
bajtu w banku. Rozmiar banku i okna wynosi zwykle 64 KB. Aby dostać się do pamięci spoza
bieżącego banku, należy zmienić zawartość rejestru sterującego położeniem banku (ang. Bank Start
Adress). Wszystko to po to, aby efektywniej wykorzystać 128 KB przestrzeni adresowej, którą ma
zarezerwowaną procesor na pamięć obrazu.
Karta graficzna firmy Matrox
Dzięki takim, i wielu innym innowacjom, możliwe jest korzystanie z dużej pojemnościowo pamięci,
co umożliwia współczesnym kartom graficznym osiąganie rozdzielczości 1280x1024 i wyższych,
przy palecie kolorów 16.7 mln. (true color).
Współczesna karta graficzna to wysoko-wydajnościowy system mikroprocesorowy, na którego
"pokładzie" znajduje się procesor graficzny, szybka pamięć, magistrala łącząca te dwa elementy
(często 64 bitowa), układ przetwornika cyfrowo-analogowego (RAM-DAC) oraz kontroler CRT
(ang. Cathode Ray Tube Controller). Zadaniem przetwornika cyfrowo-analogowego jest zamiana
cyfrowego sygnału karty na analogowy sygnał RGB, sterujący monitorem. Zadanie kontrolera CRT
polega na odczycie danych z pamięci, z określoną częstotliwością (częstotliwość wyświetlania
klatek) oraz na sterowaniu częstotliwością synchronizacji pionowej (tzw. odświeżania ) i poziomej.
Urządzenia wejścia
Klawiatura
Wynalezienie klawiatury było dla komputera było tym, czym był pierwszy lot dla kosmonautyki.
Historycznie klawiatury podzielić można na trzy grupy: model XT, model AT, i współczesna
klawiatura 101- lub 102- klawiszowa PS/2 (wprowadzona na rynek przez firmę IBM).
Klawiaturę XT i AT charakteryzowała mniejsza liczba klawiszy (83), inne ich rozmieszczenie,
ponadto klawiatura XT zapewniała jedynie jednokierunkową wymianę informacji pomiędzy
klawiaturą a komputerem.
Zasada działania klawiatury jest stosunkowo prosta (Patrz rysunek 2.11.). Klawiatura posiada swój
mikrokontroler jednoukładowy, który nadzoruje siatkę połączeń linii X i kolumn Y, w węzłach
której umieszczone są poszczególne klawisze. Układ wysyła, z odpowiednią częstotliwością,
impulsy kolejno wszystkimi liniami X i bada, czy nie pojawiły się one na którejś z linii Y. Dzięki
takiemu rozwiązaniu można jednoznacznie określić, które klawisze zostały naciśnięte, a które
zwolnione. Informacja o mapie klawiatury jest przekazywana szeregowo do komputera. Dane
przesyłane są synchronicznie, a 11-bitowa ramka ma stałą budowę i zawiera: 1 bit startu (zawsze 0),
8 bitów danych, 1 bit kontroli parzystości, bit stopu (zawsze 1) [1]. Pojawienie się przychodzącego z
klawiatury znaku, komputer sygnalizuje przerwaniem IRQ1. Dzięki możliwości dwukierunkowej
wymiany informacji (w synchronicznym trybie półdupleksowym), procesor komputera jest w stanie
programować zarówno klawiaturę, jak i kontroler.
Schemat obsługi klawiatury typu AT i PS/2 [1]
Należy pamiętać, że każdemu klawiszowi przyporządkowany jest unikalny numer (ang. scan code),a
naciśnięcie klawisza powoduje przesłanie do komputera tzw. kodu naciśnięcia (ang. make code),
który to mieści się we wspomnianej 11-bitowej ramce. Ponadto do interpretacji znaczenia klawisza
(grupy klawiszy) potrzebna jest cała mapa zestyków klawiatury.
Dzięki ww. możliwości programowania klawiatury i kontrolera oraz istnieniu unikatowych numerów
przypisanych każdemu klawiszowi (ang. scan code) możliwe jest dostosowanie klawiatury do
używania znaków narodowościowych (np. polskich) np. z użyciem sterownika "keyb.com".
Mysz
Myszkę wynalazł w 1963 roku Douglas Engelbart, pracujący ówcześnie w Stanford Research
Center. W latach 70 rozwijaniem technologii "myszatych" zajęła się firma Xerox, ale pierwsza mysz
wyprodukowana na masową skalę pojawiła się w roku 1983. Cena produktu: 200 USD, producent:
Microsoft.
ysz firmy Microsoft
Jak działa mysz, wiedzą niemal wszyscy. Przesuwanie małym urządzeniem, wyposażonym w
przycisk(i), powoduje przekazanie do komputera informacji o zmianie położenia myszy i w
rezultacie ruch kursora na ekranie. Kliknięcie w przycisk(i) myszki powoduje modyfikację
parametrów używanego programu.
Ze względu na sposób, w jaki myszy odczytują swoją pozycję, urządzenia te możemy podzielić na
trzy grupy: mechaniczne, optomechaniczne i optyczne [3]. Modele mechaniczne i optomechaniczne
działają według podobnych zasad.
_ Model mechaniczny. Wewnątrz myszy znajduje się kulka wykonana ze specjalnego
materiału. Przesuwanie myszy po płaskiej powierzchni powoduje obroty kulki, które
zamieniane są na składowe ruchu w kierunkach X i Y. Za proces ten odpowiada para,
umieszczonych prostopadle do siebie przetworników (zestawu rolek, diody i fotodetektora),
które stykają się z kulką.
_ Model optomechaniczny. Jedyną rzeczą odróżniającą ten model od modelu mechanicznego
jest fakt, że zmiana pozycji kulki odczytywana jest za pomocą detektorów optycznych, a nie
rolek.
_ Model optyczny. Tak jak w poprzednim przypadku czujniki optyczne używane są do odczytu
zmiany pozycji, jednakże nie kulki. Do działania myszy niezbędna jest specjalna podkładka
pokryta siatką punktów kontrolnych, na których podstawie sensory optyczne odczytują
aktualne położenie urządzenia.
Ważnym parametrem myszy, jest rozdzielczość myszy - liczba impulsów wysyłanych w trakcie
przemieszczania się urządzenia na odcinku jednego cala (zazwyczaj 300 lub 400 dpi). Naturalnie, im
rozdzielczość jest większa, tym lepiej dla użytkownika.
Większość myszy komunikuje się z komputerem wykorzystując złącze RS-232, PS/2 lub USB.
Możliwa jest również bezprzewodowa komunikacja pomiędzy komputerem a myszą chociażby z
wykorzystaniem np. standardu IrDA (łącze podczerwieni).
Skaner
Zadaniem skanera jest konwersja dokumentów i zdjęć z postaci papierowej do cyfrowej oraz
przesłanie ich, z użyciem sterownika TWAIN (ang. Technology Without An Interesting Name), do
komputera. Typowym zastosowaniem skanerów jest również rozpoznawanie wyrazów - system
OCR (ang. Optical Character Recognition). Działanie OCR opiera się na odpowiednio
"wytrenowanych" do tego celu sieciach neuronowych, a uzyskane wyniki są, w porównaniu z
początkami tej technologii, zaskakująco dobre.
Podstawowym parametrem skanera jest rozdzielczość, na którą składają się [3]:
_ rozdzielczość sprzętowa - zależy od jakości wykonania fizycznych komponentów skanera
(lustra, układu skupiającego). Najczęściej spotykane rozdzielczości to 600x600 dpi (DPI -
Dots Per Inch - punkty na cal) i 1200x1200 dpi, ale profesjonalne skanery potrafią pracować
nawet przy rozdzielczości 14000x5600 dpi.
_ rozdzielczość interpolowana - jej wartość wynika z zastosowanych algorytmów interpolacji,
mających na celu zwiększenie "wyostrzenie" szczegółów obrazu. Typowa wartość 19 200 dpi.
Należy jednak pamiętać, że takie obliczenie niekoniecznie musi odpowiadać zeskanowanemu
oryginałowi [3].
Kolejnym, bardzo istotnym, parametrem skanera, jest poprawna interpretacja barw oryginału.
Standardowo informacja o barwie każdego zeskanowanego punktu zapisana jest na 24 bitach.
Profesjonalne skanery odczytują informację o barwie z większą dokładnością. Posługując się tzw.
wewnętrznym kodowaniem, uzyskują głębię koloru (np. 36 bitów), po czym z zeskanowanego
zbioru wyliczany jest najlepszy (wg programu, który dokonuje tych obliczeń) zakres barw i
zapisywany w formacie RGB 24-bitowym.
Innym parametrem, który ma wpływ na jakość skanowanego obrazu, jest zakres gęstości optycznej
(D), czyli zdolność prawidłowej prezentacji najjaśniejszych i najciemniejszych partii obrazu.
Skaner płaski
Wszystkie opisane powyżej własności skanera związane są z jego wnętrzem, to ono w największym
stopniu decyduje o jakości skanowanych dokumentów i fotografii.
Konstrukcje skanerów podzielić możemy, ze względu na wykorzystane elementy światłoczułe
(zamieniające sygnał świetlny na elektryczny), na dwie grupy [3]:
1. Urządzenia wykorzystujące układy typu CCD (ang. Charge Coupled Device). Konstrukcje
takie zawierają lampę z zimną katodą, której rozgrzewanie, w początkowej fazie skanowania,
wymaga dostarczenia prądu o większym natężeniu niż urządzenia drugiego typu. Skanery te
mają znaczną wagę. Jest to spowodowane faktem, że głowica skanująca, prócz elementów
CCD i lampy, zawiera lustro i układ skupiający.
2. Urządzenia wykorzystujące układy typu CID (ang.Contact Image Sensor). Konstrukcja
zawiera diody LED wymagające skromnego poboru prądu. Głowica skanująca nie zawiera
układu lustra i układu skupiającego, dzięki czemu skanery tego typu są bardzo lekkie.
Charakteryzują się jednak gorszymi parametrami jakościowymi od swoich starszych braci.
Zaletą tych urządzeń jest przystępna cena.
Niezależnie od typu, działanie skanera jest bardzo podobne [3]: podczas skanowania pod
dokumentem przemieszcza się głowica skanera (najczęściej o długości równej szerokości
skanowanego dokumentu), której lampa (lub diody LED) oświetlają dokument, który odbija światło.
Natężenie światła odbitego od elementu ciemniejszego jest inne, niż natężenie światła odbitego od
elementu jaśniejszego. Światło odbite (o różnym natężeniu) kierowane jest do komórek
światłoczułych (w przypadku elementów CCD wymagany jest specjalny układ lustra-soczewek
skupiających). Dla każdego punktu skanowanego dokumentu istnieje zbiór elementów
światłoczułych, które zajmują się "obróbką" tego sygnału. Elementy światłoczułe zamieniają
informację o natężeniu światła na impulsy elektryczne, które są przesyłane do komputera. W
komputerze informacje o poszczególnych częściach dokumentu są zbierane i generowany jest obraz
dokumentu jako całości.
Skanery komunikują się z komputerem poprzez magistrale SCSI, FireWire, przez łącza USB, a także
poprzez drukarkowy port równoległy LPT.
Urządzenia wyjścia
Monitor
Prototypem dzisiejszych monitorów była, zaprezentowana w 1897 roku, lampa obrazowa typu CRT
(ang. Cathode Ray Tube), tzw. oscyloskop. Stosowany obecnie kineskop CRT jest wciąż lampą
elektronową pokrytą od wewnątrz warstwą luminoforu, na którym elektrony rysują obraz z
określoną częstotliwością, powiedzmy 47 razy na sekundę. Wspomnieć należy, że kluczową rolę w
rozwoju kineskopów do monitorów był moment wprowadzenia, na początku lat dziewięćdziesiątych,
monitorów kolorowych. Wydarzenie to wzbudziło powszechne zainteresowanie tym typem
urządzeń.
Jedną z własności monitorów jest wielkość plamki (an. dor pitch), czyli odstępu między dwoma
sąsiednimi punktami obrazu. Pojęcie plamki wiąże się jednak ściśle z konstrukcją maski kineskopu.
Dla masek perforowanych, w których każdy piksel składa się z trzech punktów luminoforu (tzw.
triady) w kolorach podstawowych RGB ułożonych w kształt trójkąta, wielkość plamki liczona jest
jako odległość między punktami luminoforu tego samego koloru. W przypadku masek
szczelinowych i kratowych, o wielkości plamki decyduje szerokość jednej triady luminoforu.
Istotnym parametrem monitora są również jego wymiary, w tym głównie przekątna obrazu, która
opisuje wielkość przekątnej ekranu (np. 17 cali). Dzięki ulepszeniu dział elektronowych w ostatnich
latach, możliwe stało się zmniejszenie gabarytów monitorów. W ich konstrukcji uwzględnione są
różnice w odległości pomiędzy działem elektronowym a środkiem ekranu, oraz działem a krawędzią
kineskopu - kształt plamki na krawędzi zbliżony jest do elipsy, zaś w środku do okręgu. Wyrzutnia
elektronowa w połączeniu z układem ogniskującym, zapewnia stały kołowy przekrój plamki obrazu,
niezależnie od miejsca padania wiązki elektronowej na luminofor. Gwarantuje to wszędzie
jednakową ostrość obrazu. Dodatkowo nowe wysokonapięciowe katody (wyrzutnie elektronowe)
charakteryzują się mniejszymi wymiarami i zmniejszonym poborem prądu [3].
Kolejnym parametrem monitorów jest częstotliwość odświeżania (pionowa), która określa, ile razy
w ciągu sekundy tworzony jest obraz. Według normy TCO '99 ergonomiczne minimum, powyżej
którego oko ludzkie nie dostrzega migotania, to 85 Hz.
Konwergencja (zbieżność kolorów) stanowi ważny parametr wyświetlanego obrazu. Konwergencja
określa precyzję, z jaką wyświetlane są kolorowe punkty. Każdy piksel tworzony jest z trzech barw
składowych (czerwonej, zielonej, niebieskiej). Jeżeli miejsce padania na luminofor którejś z wiązek
elektronowych, odpowiedzialnych za rysowanie barw, jest przesunięte względem pozostałych
dwóch, to obraz punktu ulega rozmyciu.
Bardzo istotnym czynnikiem, świadczącym o jakości monitora, jest rozdzielczość wyświetlanego
obrazu. Podajemy ją na końcu, gdyż obecne monitory oferują bardzo zbliżone parametry
rozdzielczości, które zdają się bardziej zależeć od wielkości użytego kineskopu, niż od pozostałych
elementów. Standardową, zadowalającą rozdzielczość 1024x768 punktów, wyświetla właściwie
każdy dostępny na rynku monitor, dlatego producenci skupiają się bardziej na "podkręcaniu" innych
parametrów monitorów.
Promieniowanie monitora nie jest obojętne dla zdrowia człowieka i dlatego powinno zwracać się
uwagę na normy dotyczące emisji promieniowania. Najbardziej restrykcyjną z nich jest norma TCO,
ale również popularne są MPR-II i TUV.
Wyświetlacz LCD
Głównym składnikiem wyświetlaczy LCD (ang. Liquid Crystal Display) jest pewna substancja,
która wykazuje własności zarówno cieczy jak i ciała stałego. Mowa tu o odkrytym w 1888 roku
przez austriackiego botanika Friedrich'a Rheinitzer'a ciekłym krysztale.
Kolejna ważna data związana z panelami LCD to rok 1973. To wtedy, za sprawą firmy Sharp, na
rynek trafił pierwszy seryjnie produkowany kalkulator zawierający wyświetlacz ciekłokrystaliczny.
Ogólna zasadę działania paneli LCD opisać można następująco (patrz rysunek poniżej):
1. Lampa fluorescencyjna emituje światło.
2. Światło przechodzi przez filtr polaryzacyjny nr 1.
3. Spolaryzowane światło dociera do substancji ciekłokrystalicznej, której długie molekuły
wcześniej, w procesie produkcyjnym, zostały odpowiednio ułożone wewnątrz każdej z
komórek matrycy LCD (o rozmiarze np. 1024 x 768 punktów).
_ W przypadku braku zasilania molekuły ciekłego kryształu układają się w położeniu
"skręconym", wymuszonym przez warstwę orientującą znajdującą się wewnątrz każdej
z komórek. Powoduje to zmianę polaryzacji światła o 90 stopni.
_ Pod wpływem napięcia sterowania cząsteczki ciekłego kryształu układają się
równolegle do linii pola elektrycznego.
4. Światło po przejściu przez warstwę ciekłokrystaliczną pada na filtr polaryzacyjny nr 2,
którego oś polaryzacji jest zmieniona o 90 stopni w stosunku do filtru nr 1. Zależnie od
braku/występowania napięcia sterującego możliwe są dwa rezultaty działania filtru:
_ Brak napięcia powoduje przepuszczenie światła przez filtr - odpowiada to emisji
światła, a więc zapaleniu się piksela.
_ Przyłożenie napięcia sterowania powoduje wytłumieniu światła przez filtr nr 2 - piksel
czarny.
Budowa i działanie pojedynczej komórki LCD wykonanej w technologii Twisted
Nematic - przypadek występowania napięcia sterującego.
Ad. 2
Polaryzacja światła z użyciem filtru powoduje zorientowanie fali świetlnej tak, aby była
zorientowana w jednej płaszczyźnie, którą wyznacza oś filtru.
Ad. 4
Sterowanie wartością napięcia sterującego pozwala na zmianę przestrzennego ułożenia
cząsteczek ciekłego kryształu. Dzięki temu możliwe staje się odchylenie płaszczyzny
spolaryzowanego światła o kąt różny od 90 stopni (np. 25 stopni), a więc uzyskanie różnych
odcieni szarości. Kolorowe wyświetlacze zawierają dodatkową warstwę, w której skład
wchodzą barwne filtry RGB (ang. Red Green Blue). Dzięki złożeniu jednego piksel z trzech
różnokolorowych komórek matrycy, możliwe staje się wyświetlenie dowolnego koloru.
Główne rodzaje wyświetlaczy LCD:
1. Wyświetlacze pasywne DSTN (ang. Dual Scan Twisted Nematic). Cechy charakterystyczne
to:
_ duża bezwładność - czas potrzebny na ustalenie się wymaganego napięcia sterującego
migracją cząsteczek ciekłego kryształu jest duży, co owocuje długim czasem
odświeżania obrazu;
_ wzajemne oddziaływanie na siebie ścieżek przewodzących - powoduje to ograniczenie
palety barw możliwych do wyświetlenia oraz powstawanie przesunięć obrazu przy
dużych kontrastach;
2. Matryca aktywna TFT (ang. Thin Film Transistor). W roku 1970 po raz pierwszy
zastosowano tranzystory wbudowane w ekran ciekłokrystaliczny. Każda komórka matrycy
sterowana jest cienkowarstwowym tranzystorem TFT, który reguluje napięcie na elektrodach.
Dzięki takiej konstrukcji wyeliminowany zostały niemal zupełnie niekorzystny efekt
wzajemnego wpływu ścieżek przewodzących na siebie.
3. Wyświetlacze IPS (ang. In-Plane Switching). Ten opracowany przez Hitachi w roku 1995
standard stworzył ekran o kącie widzenia przekraczającym 60 stopni. Odmiennie niż przy
dwóch poprzednich panelach cząsteczki ciekłego kryształu rozmieszczone są w taki sposób, że
przyłożenie napięcia sterowania powoduje wyświetlenie piksela. Wyświetlacze tego typu w
przeciwieństwie do matryc TFT (złożonych z oddzielonych komórek) zbudowane są jako
jednolite struktury, co zapewnia lepszą jakość obrazu. Wadą tych wyświetlaczy jest
stosunkowo długi czas reakcji na zmianę obrazu - duży czas potrzebny do wytworzenia
odpowiedniego napięcia sterującego ułożeniem cząsteczek ciekłego kryształu w komórce.
Wyświetlacze LCD dzięki wielu swym zaletom, do których na pewno należy zaliczyć dużą
żywotność (ok. 60 tyś. godzin), niewielką grubość oraz ciągle malejącą cenę, mają dużą szansę już
niedługo zagościć w naszych domach na dobre.
Drukarka
Drukarka, w przeciwieństwie do skanera, zamienia postać dokumentu z cyfrowej na papierową.
Drukarki podzielić możemy na trzy grupy w zależności od techniki jaką wykorzystują do
drukowania:
1. Drukarki igłowe. Technika druku opiera się na dwóch elementach: głowicy (z igłami) i
taśmie barwnej. Igły głowicy uderzając w taśmę barwiącą powodują przeniesienie barwnika na
papier. Drukarki tego typu niestety są bardzo głośne i oferują słabą jakość wydruku.
2. Drukarki atramentowe. Wykorzystują atrament jako nośnik informacji. Atrament, który
znajduje się w zbiornikach, jest doprowadzany do głowicy i wypychany przez dysze. Istnieje
wiele rodzajów drukarek atramentowych, wykorzystujących różne techniki do nakładania na
papier atramentu. Najpopularniejsze z nich to [3]:
_ technika termiczna - tutaj kropelka atramentu jest "wypluwana" na papier na skutek
rozprężenia pęcherzyka powietrza (w każdej z dysz znajduje się specjalny "grzejniczek",
który w krótkim czasie potrafi rozgrzać się do wysokiej temperatury. W wyniku takiej
reakcji wytwarza się para wodna, której pęcherzyk wypycha kropelkę atramentu z
dyszy).
Drukarka atramentowa firmy HP
_ technika piezoelektryczna - w tym wypadku kropelka jest wypychana przez kryształki,
które pod wpływem przyłożonego napięcia zmniejszają swą objętość, co powoduje
zwiększenie ciśnienia w dyszy i w rezultacie "wyplucie" kropelki atramentu.
3. Drukarki laserowe. Zasadę działania drukarki laserowej opiszemy w punktach i zilustrujemy
(patrz rysunek 2.16.) [3]:
_ Za pomocą specjalnej rolki, toner jest rozkładany w tych miejscach, które wcześniej
oświetlił promień lasera - ujemnie naładowany toner jest przyciągany przez dodatnio
naładowane punkty bębna.
_ Naelektryzowany toner przyciągany jest przez papier (również naelektryzowany, lecz
przeciwnie), po czym zostaje utrwalony przez zespół wałków rozgrzanych do 200 stopni
Celsiusza (w temperaturze tej toner topi się).
Zasada działania drukarki laserowej
_ W trzecim etapie bęben jest oczyszczany z resztek barwnika i rozładowywany. Jest
gotowy do kolejnego wydruku.
Najważniejszym parametrem drukarki jest maksymalna rozdzielczość, z jaką jest w stanie drukować
(rozdzielczość ta może być inna dla wydruku kolorowego, a inna dla czarno-białego). Typowe
rozdzielczości popularnych drukarek atramentowych to 600x300 dpi, 600x600 dpi. Oczywiście
drukarki laserowe (ale i atramentowe również) oferują znacznie większe rozdzielczości. Drugim,
ważnym czynnikiem jest czas drukowania dokumentów (drukarki atramentowe ok. 4-6 stron na
minutę, drukarki laserowe 10 i więcej).
Na zakończenie warto wspomnieć, że drukarki komunikują się z komputerem wykorzystując port
równoległy LPT, ale możliwa jest także komunikacja przez magistralę USB lub łącze IrDA.