BUDOWA KOMPUTERA

 

Płyta główna

 

Płyta główna jest płytką z obwodami drukowanymi, na której montowana jest znaczna część

komponentów niezbędnych do poprawnego funkcjonowania systemu komputerowego. Na płycie

głównej swoje miejsce mają: procesor, magistrala systemowa, pamięć ROM (służąca do

przechowywania głównego programu obsługi komputera - BIOSU, a także programów testujących

podzespoły komputera przy starcie systemu - POST), sloty na karty rozszerzeń, gniazda pamięci

RAM, kontroler urządzeń I/O, porty służące do podłączania urządzeń I/O oraz chipset płyty głównej.

 

  Budowa płyty głównej

 

 

Chipset

Chipset stanowi "serce" płyty głównej i odpowiada za sterowanie przepływem strumienia danych.

Chipset zwykle jest podzielony logicznie na dwa osobne układy, tzw. mostki.

 

Mostek południowy (ang. south bridge) umożliwia dołączenie do procesora portów I/O (tj.

interfejsy szeregowe/równoległe, magistrala USB), zapewnia możliwość korzystania z magistrali

ISA oraz pozwala podłączyć urządzenia do złącz IDE. Ponadto mostek południowy steruje

funkcjami zarządzania energii oraz monitoruje parametry systemu.

 

Mostek północny (ang. north bridge), który steruje przepływem danych (jest kontrolerem FSB -

głównej szyny procesora) pomiędzy procesorem, pamięcią operacyjną i podręczną, złączem AGP i

PCI, a także mostkiem południowym. Mostek północny zapewnia bezkonfliktową współpracę

magistrali pracujących nierzadko z różnymi częstotliwościami taktowania.

Pojęcie chipsetu ściśle wiąże się z typem obsługiwanego przez płytę główną procesora - innego

chipsetu wymaga procesor Intel 80486 a innego Intel Pentium III. Rodzaj chipsetu zależy również od

specyfikacji elektrycznej i mechanicznej wyprowadzeń gniazda procesora (a więc typu gniazda).

Poniżej przedstawiamy kilka najpopularniejszych obecnie chipsetów.

Intel 82440BX

Chipset ten został oryginalnie zaprojektowany dla procesora Pentium II. Układ oprócz ww.

procesora obsługuje również Pentium III oraz Celeron z jądrem Coppermine. Architektura kości

 

 Chipset

opiera się o technologię QPA (ang. Quad Port Acceleration), którą cechuje zwiększona pojemność

buforów, przez co rośnie przepustowość a opóźnienia występujące w komunikacji są mniejsze (ang.

bus latency). Niestety 82440BX obsługuje tylko tryb 2x szyny AGP [3].

Intel 815/815E

Chipset ten, podobnie jak jego starszy poprzednik (82440BX), wspiera taktowanie szyny adresowej

na poziomie 66, 100, 133 MHz. Ponadto szyna AGP może pracować w trybie 4x. Dostęp do pamięci

(także PC133), o max. rozmiarze 512 MB, odbywa się asynchronicznie. W skład układu wchodzi

również zintegrowany chip graficzny, który pracuje w trybie 2x AGP [3].

W skład i815E wchodzi ponadto: kontroler EIDE wspierający standard Ultra-ATA/100, 2-kanałowy

czteroportowy kontroler USB, wyjście CNR (Communications and Networking Riser), możliwa jest

obsługa 6-kanałowego dźwięku AC'97.

AMD 750

Ten model chipsetu wyróżnia taktowanie FSB z częstotliwością 200 MHz, co daje maksymalną

przepustowość 1,6 GB/s. Chipset wspiera jedynie standard AGP 2x oraz Ultra-ATA/66. Pozwala na

obsługę do 768 MB pamięci RAM PC100. Ponadto posiada zintegrowany 4-portowy hub USB [3].

 

 

Ważniejsze wyprowadzenia

 

ISA (ang. Industry Standard Architecture)

Niestety powoli już wychodzący z użycia standard 16-bitowej magistrali danych, umożliwiającej

dołączanie dodatkowych kart rozszerzeń i oferującej "imponującą" przepustowość 8,33 MB/s.

EISA (ang. Extended Industry Standard Architecture)

Zgodna ze swoją 16-bitową poprzedniczką, 32-bitowa magistrala zewnętrzna, która ze względu na

kompatybilność wstecz, pracuje z prędkością 8,33 MHz, jednak dostęp do pamięci odbywa się z

pełną szybkością 33 MB/s [1]. Ze względu na niezbyt spektakularne osiągi i dużą cenę wytwarzania,

magistrala ta jest coraz rzadziej wykorzystywana.

VESA Local Bus (ang. Video Electronics Standards Association)

Standard ten najbardziej popularny w latach 1993-1996 miał stanowić wsparcie dla szybkich kart

graficznych. Stanowił swoiste rozszerzenie technologii ISA o dodatkową magistralę danych,

zwiększającą szybkość transferu pomiędzy procesorem a kartą graficzną, teoretycznie do 120 MB/s.

32-bitowa szyna VESA taktowana była zegarem procesora, którego częstotliwość pracy nie mogła

przekraczać 40 MHz [1]. W pewnym czasie technologia stanowiła konkurencję dla droższej EISA,

jednak szybko została wyparta przez technologię PCI.

PCI (ang. Peripheral Component Interconect)

Architektura ta została wprowadzona w 1993 roku przez firmę Intel i obecnie jest

najpopularniejszym rodzajem gniazd rozszerzeń. Zaletą magistrali PCI jest możliwość tworzenia

złożonych systemów (specyfikacja 2.1 PCI opisuje, że możliwa jest współpraca do 256 magistrali, z

których każda może obsługiwać do 32 urządzeń PCI). Ciekawostką świadczącą o możliwościach

eskalacji PCI niech będzie fakt, że w typowym PC wykorzystywana jest tylko jedna magistrala PCI

obsługująca do 10 urządzeń [1]. Magistrala PCI może pracować z szybkością od 0 do 33 MHz (ver.

2.1 do 66 MHz), co daje przepustowość 132 MB/s. Magistrala pozwala na dostęp do adresowanego

obiektu w jednym takcie zegara. Zdefiniowane jest również 64-bitowe złącze magistrali PCI,

pracujące z prędkością do 264 MB/s.

 

 

  Architektura komputera z magistralą PCI

 

 

AGP (ang. Accelerated Graphics Port)

AGP stanowi pewne przedłużenie magistrali PCI, dlatego określana jest jako interfejs

komunikacyjny. Magistrala AGP nie przyspiesza operacji graficznych, a jedynie umożliwia bardziej

wydajną pracę procesora graficznego [1]. Dzieje się tak, gdyż ów procesor sprawuje wyłączną

kontrolę nad magistralą. AGP bazuje na specyfikacji PCI 2.1, zmienia jednak znaczenie niektórych

sygnałów i wprowadza szereg nowych. Magistrala AGP może pracować w jednym z trzech trybów:

_ Tryb 1x. Rozszerzenie standardu PCI, w którym dzięki podwojeniu częstotliwości pracy

zegara taktującego do 66 MHz, uzyskano teoretyczny maksymalny transfer 264 MB/s.

_ Tryb 2x. Częstotliwość zegara jest taka jak poprzednio, ale wymiana danych odbywa się

podczas narastającego i opadającego zbocza sygnału taktującego. Daje to wzrost

częstotliwości zegara do 133 MHz , a teoretyczna przepustowość wynosi 532 MB/s.

_ Tryb 4x. Różnica w stosunku do trybu poprzedniego polega na tym, że w czasie zbocza

wykonywane są dwie transmisje, a więc teoretyczna przepustowość wzrasta do 1064 MB/s.

Tryb ten pracuje na znacznie obniżonym poziomie napięć - 1.5V.

 

AMR, CNR i PTI

Wszystkie trzy gniazda zostały opracowane przez firmę Intel i ułatwiać mają instalowanie prostych

urządzeń rozszerzających.

AMR (ang. Audio modem Riser) - pozwala na dołączenie modemu lub karty dźwiękowej.

CNR (ang. Communication and Network) - pozwala na rozbudowę o kartę sieciową 10/100Mb/s.

PTI (ang. Panel link TV-out Interface) - pozwala na podłączenie kart TV.

 

 

Procesory

 

Intel Pentium

Pewnie niewielu użytkowników komputerów osobistych pamięta procesory Pentium 60 MHz, ale

zapewniam, że to autentyczna historia. Te pierwsze procesory zasilane były napięciem 5V. Kolejna

grupa procesorów Pentium (P54C) pracowała przy mniejszym napięciu zasilającym (3,3V), a

częstotliwość taktowania jądra oscylowała w granicach 200 MHz [1].

Procesory Pentium uznawane za 32-bitowe, tak jest w istocie - rejestry procesora są 32-bitowe,

jednakże wewnętrzne ścieżki mają nawet do 256 bitów szerokości, dzięki czemu prędkość

wewnętrznych transferów jest większa niż mogłoby wynikać z owych 32-bitów.

Pentium posiada dwa potoki przetwarzające instrukcje stałoprzecinkowe (U i V) oraz jednostkę

zmiennoprzecinkową. Jeżeli jest to możliwe, procesor przetwarza w każdym cyklu dwie instrukcje

(po jednej na potok). Potoki pracują wyłącznie w trybie synchronicznym, niemożliwe jest więc np.

przewidywanie skoków przez jeden z nich, ponieważ zatrzymanie jednego z potoków prowadzi do

zatrzymania drugiego. Jednak Pentium posiada dodatkowy moduł dynamicznego przewidywania

rozgałęzień BPU (ang. Branch Prediction Unit). Moduł ten przewiduje rozgałęzienia, czyli "wkłada"

do potoku te instrukcje, które jego zdaniem będą wykonywalne. Błędne przewidzenie rozgałęzienia

powoduje, że jeden z potoków musi wstrzymać przetwarzanie, a więc i drugi potok nie może być

realizowany [1].

Pentium może działać w systemach wieloprocesorowych, ale tylko z identycznym procesorem (Dual

system). Montowany jest w gniazdach rozszerzeń typu Socket 7.

 

Intel Pentium MMX

Procesor Pentium MMX jest jednostką typu SIMD (Single Instruction Multiple Data), czyli

wykonuje operację na kilku grupach danych jednocześnie.

MMX stanowi rozszerzenie procesora Pentium o nowe rozkazy multimedialne. Rozszerzenie

spowodowało pojawienie się nowych instrukcji (i nowych wyprowadzeń) oraz nowych rejestrów

wykorzystywanych do tego celu. Istotne zmiany procesora Pentium MMX w stosunku do jego

poprzednika, to [1]:

_ podwójne napięcie zasilające (od wersji 166 MHz) - układy odpowiadające za współpracę z

magistralami I/O zasilane są innym napięciem niż rdzeń procesora;

_ zwiększona pamięć podręczna L1 (ang. first-level cache) do 16kB - pracuje z poczwórną

asocjacją;

_ stos powrotu (ang. return stack) - przy przejściu do wykonywania podprogramu

zapamiętywany jest adres powrotu do programu aktualnie wykonywanego;

_ bufor zapisu jest zwiększony z 2 do 4 słów;

_ nowa doskonalsza jednostka BPU (taka jak w Pentium Pro);

_ możliwość równoległego wykonywania rozkazów (w sprzyjających warunkach 2 polecenia

równolegle);

Modele Pentium MMX dzięki wykorzystaniu ww. nowinek (ale bez nowych instrukcji) osiągają

wzrost mocy obliczeniowej do ok. 20 %.

 

Intel Pentium II

Pentium II to model, który pierwszy przełamał granicę taktowania 200 MHz (stąd już tylko krok do

1GHz). Tym co odróżniło go od poprzedników był zupełnie nowy image. Otóż procesor Pentium II

pojawił się na pokładzie specjalnej karty o 242 końcówkach, którą wkłada się do złącza

krawędziowego o nazwie Slot 1 (patrz rysunek dla Pentium 3).

Dodatkową zmianą było oddzielenie pamięci podręcznej L2 (ang. Second Level Cache) od

procesora, a stało się to dlatego, że taki sposób produkcji był znacznie tańszy. Pamięć L2 miała

rozmiar 256/512 kB, taktowana była częstotliwością równą połowie taktu zegara procesora i

znajdowała się na płytce wraz z procesorem.

Dodatkowe informacje o konstrukcji są następujące: pamięć podręczna L1 ma rozmiar 32KB (po

16KB dla kodu programu i danych), wewnętrzna magistrala ma szerokość 300 bitów, procesor może

zaadresować 64 GB (wirtualnie 64 TB), zasilanie wynosi 2,8V, jako pierwszy współpracuje z

magistralą taktowaną 100 MHz.

Pentium II przetwarza dane w trzech równoległych dwunastostopniowych potokach, a jądro

procesora pracuje w układzie RISC (ang. Reduced Instruction Set Computer) - instrukcje rozkładane

są na proste mikrooperacje i grupowane w centralnym zbiorniku (ang. Instruction Pool). Dzięki

temu zbiornikowi pobieranie kolejnych kodów x86 z pamięci operacyjnej jest niezależne od ich

wykonania [1]. Ze zbiornikiem instrukcji połączony jest układ dyspozytora (ang. Dispatcher), który

kieruje mikroinstrukcje do właściwych jednostek wykonawczych (ang. Execute). Dyspozytor kieruje

do wykonania te mikrokody, które aktualnie nie czekają na żadne wyniki pośrednie z innych operacji

[1]. Wykonane instrukcje RISC trafiają znowu do zbiornika instrukcji (nie wiadomo, czy układ

przewidywania rozgałęzień dobrze określił czy dana instrukcja rzeczywiście jest potrzebna).

Instrukcja uznana za wykonaną zostaje "wyrzucona" ze zbiornika i przechodzi na "emeryturę" (ang.

retire) i dopiero w tym momencie wyniki jej działania są zapisane.

 

Intel Celeron A (Medocino)

Celerony A Medocino (określenie "medocino" identyfikuje strukturę krzemową) posiadają znaczniki

300A , 333, 366 i wyżej... Wyposażone są one w zintegrowaną pamięć podręczną L2 o skromnym

rozmiarze 128 kB, która jest taktowana z pełną prędkością zegara procesora, czyli z prędkością

cache L1. Medocino współpracuje z magistralami 66/100MHz. Taka konstrukcja procesora

zapewniła mu dużą wydajność, przy stosunkowo niskim koszcie.

 

 

Dodatkowo, Celeron A jako pierwszy dał możliwość "podkręcania" (ang. overclocking)

częstotliwości pracy magistrali systemowej współpracującej z tym procesorem, a więc częstotliwości

pracy procesora (znane są przypadki podkręcania Celeron'a 333 do ok. 700 MHz). Sprawiło to, że

Celeron A stał się w swoim czasie rynkowym przebojem i idealną "maszyną do overclocking'u".

 

AMD Duron

Procesor Duron został stworzony przez firmę AMD głównie z myślą o klientach, którzy potrzebują

dużej mocy obliczeniowej za niewielką cenę. Ograniczenie kosztów możliwe stało się dzięki

zmniejszeniu ilości pamięci ciche poziomu L2 do 64 KB. Pamięć cache poziomu L1 w procesorze

Durom wynosi 128 KB, a więc po raz pierwszy w historii procesor rodziny x86 posiada mniejszy

cache poziomu L2 niż poziomu L1. Nie powoduje to jednak znacznego spadku wydajności dzięki

zastosowaniu specjalnej organizacji pamięci podręcznej. Wykluczająca się architektura dostępu do

pamięci cache (ang. exclusive cache) to rozwiązanie, które pozwala procesorowi używać

sumarycznej pojemności pamięci cache L1 i L2 tak, jakby to była pamięć poziomu L1 o średnim

czasie dostępu 1.5 cyklu zegara.

Zaimplementowana w Duronie interpretacja rozkazów 3DNow! i Enchanced 3DNow!, które

wspomagają operacje multimedialne, pozwala na równoległe przetwarzanie kilku liczb arytmetyki

stałoprzecinkowej jak i zmiennoprzecinkowej, a więc zwiększenie szybkości przetwarzania danych.

Taki sposób przetwarzania określany jest jako SIMD (ang. Single Instruction Multiple Data) i polega

na wykonywaniu jednej instrukcji na bloku danych.

Procesor AMD Duron komunikuje się z pamięcią SDRAM z częstotliwością 100 MHz (dla pamięci

DDR 200 MHz), jest wykonany w technologii 0.25 mikrona (wersja 600 MHz) i zainstalowany

może być na płycie głównej zawierającej podstawkę typu Socket A.

Procesor ten (nazwany roboczo Katmai), tak jak jego poprzednik, ma architekturę 32-bitową.

Ponadto posiada zintegrowaną 512 kB pamięć podręczną drugiego poziomu, wykorzystuje

poszerzoną 256-bitową szynę BSB (ang. Back Side Bus) zapewniającą szybszy transfer wewnętrzny

danych. Procesor zasilany jest napięciem 1.65/1.7 V (zależnie od modelu).

 

Intel Pentium III

Pentium III dysponuje poszerzoną listą rozkazów. Dodano ponad 70 rozkazów określanych jako

ISSE (ang. Internet Streaming SIMD Extentions), czyli wykorzystanie znanych z MMX technik

przetwarzania kilku danych z użyciem jednego rozkazu. Co ważne, ISSE potrafi operować także na

danych w formacie zmiennoprzecinkowym, co wykorzystywane jest do obliczania obrazów 3D,

rozpoznawania mowy, itp. [3]. Aby możliwe było korzystanie z rozszerzeń ISSE, kod aplikacji musi

być specjalnie zoptymalizowany.

 

 

 Procesor Pentium III

 

Ponadto, cache L2 jest zintegrowany z procesorem i jest taktowany z taką samą szybkością jak rdzeń

procesora. Interfejs magistrali zewnętrznej w procesorze Intela oparty jest na standardzie - GTL+

(ang. Gunning Tranceiver Logic). Magistrala jest taktowana z częstotliwością 133 MHz.

 

AMD Athlon Thunderbird

Architektura procesora Athlon Thunderbird jest niemal identyczna jak ta, która charakteryzuje

procesor AMD Duron. Najbardziej istotną różnicą jest rozmiar pamięci cache L2 działający z pełną

szybkością jądra układu, który wynosi 256 KB. Pamięć ta pracuje w trybie exclusive L2 cache

memory.

Procesor Athlon współpracuje z 200/266 MHz magistralą systemową, dzięki czemu możliwe jest

dostarczenie do procesora 1.6/2.13 GB danych. Ten wydajny interfejs magistrali zewnętrznej

Thunderbirda - EV6 - pochodzi od procesorów Alpha firmy DEC.

Rysunek 2.5. Procesor Athlon Thunderbird

W Athlonie, tak jak i w Duronie, zaimplementowane są rozkazy SIMD - 3DNow! (21 instrukcji)

oraz Enhanced 3DNow! (45 instrukcji), dzięki którym uzyskano przyspieszenie blokowych operacji

na danych. Dzięki tym rozszerzeniom procesor potrafi efektywniej wykonywać takie zadania jak:

kodowanie/dekodowanie MPEG2, MP3, itp.

Procesory Athlon Thunderbird montowane są obecnie już tylko w złączach typu Socket A -

początkowe wersje tego procesora mogły być osadzane również w podstawkach Slot A.

Maksymalna podawana przez producenta częstotliwość taktowania Thunderbirda to 1.4 MHz.

 

Intel Pentium 4

Procesor Pentium 4 jest najnowszym produktem firmy Intel. Wyróżnia go wysoka częstotliwość

pracy układu - ponad 1,4 GHz. Wraz z procesorem zintegrowana jest pamięć cache L2 o pojemności

256 kB, która pracuje tak jak u poprzednika, z pełną prędkością procesora. Brak jest natomiast

pamięci cache L1. Usprawnione jest przetwarzanie potokowe, a długość kolejki rozkazów wynosi

20. Za tłumaczenie kodu x86 odpowiada wyspecjalizowany dekoder.

P4 posiada nowy mechanizm mający na celu poprawienie wydajności układu. Jest to 8 kB bufor

śledzenia wykonywania instrukcji (ang. Execution Trace Cache), przechowujący kod x86 w postaci

mikrooperacji (nie ma konieczności odkodowywania instrukcji, gdyż są już odkodowane). Ponadto

ALU pracuje dwa razy szybciej niż reszta procesora, a więc np. 2.8 GHz dla procesora 1.4 GHz.

Mechanizm ten nosi nazwę Rapid Execution Engine i umożliwia zakończenie operacji na danych

stałoprzecinkowych w połowie cyklu zegarowego [3].

Najmniej zmienioną częścią najnowszego procesora Intela jest jednostka zmiennoprzecinkowa. Tak

jak dla P3 wykorzystywane są dwa kanały do obliczeń zmiennoprzecinkowych. Poszerzony został

zestaw instrukcji ISSE o 144 nowe rozkazy, który nosi nazwę ISSE2 i umożliwia wykonywanie

operacji na liczbach 128 bitowych o podwójnej precyzji oraz na 128 bitowych liczbach

stałoprzecinkowych.

 

Procesor Pentium 4

Architektura Pentium 4 jest 64-bitowa, procesor dysponuje 400 MHz magistralą systemową o

przepustowości 3,2 GB/s (3 razy szybciej niż Pentium III). Procesor oryginalnie przeznaczony był

tylko do współpracy z pamięcią RDRAM, jednakże pojawiły się już wersje współpracujące z

pamięciami typu SDRAM.

 

Rodzaje pamięci

Aby zająć się rodzajami pamięci, należy najpierw zastanowić się nad budową pamięci DRAM.

Pamięci tego typu wymagają okresowego odświeżania (ang. refresh) ze względu na to, że

nośnikiem informacji są kondensatory (a dokładnie tranzystory polowe Denarda) [3], które

samoistnie rozładowują się. Odświeżanie polega na odczytaniu i zapisaniu tej samej informacji.

Ponadto odczyt z pamięci DRAM jest niszczący (informacja jest kasowana w wyniku rozładowania

kondensatora przez współpracujący z nim tranzystor), dlatego też należy powtórnie zapisać

odczytane dane tak, aby nie uległy zmianie.

 

FPM RAM

FPM RAM (ang. Fast Page Mode RAM) jest najstarszym rodzajem pamięci. Jest to pamięć typu

asynchronicznego, w której sygnały sterujące matrycą komórek pamięci (sygnały te to: RAS: Row

Adress Strobe - wybór wiersza matrycy pamięci oraz CAS: Column Adress Strobe - wybór kolumny

matrycy pamięci) generowane są niezależnie od taktów zegara. Tak więc, informacja na wyjściu

ukazuje się po czasie wynikającym z konstrukcji układu. Dodatkowo, występują problemy ze

zsynchronizowaniem się taktów zegara systemowego i taktów pamięci [3].

Termin "Fast" odnosi się do faktu, iż pamięci te umożliwiają szybszy dostęp do danych znajdujących

się na jednej stronie pamięci. Niegdyś pamięci te były montowane "na pokładzie" 386-óstek i 486-óstek
w postaci 72-pinowych modułów SIMM (ang.
Single In-line Memory Module).

 

 

Pamięci typu SIMM i DIMM

 

 

SDRAM

Pamięć SDRAM (ang. Synchronous DRAM), podobnie jak pamięć typu FPM, jest pamięcią typu

DRAM. Pamięć ta pracuje z częstotliwością zewnętrznej magistrali systemowej (a więc

synchronicznie) i charakteryzuje się czasem dostępu rzędu 10 ns. SDRAM-y wyróżnia ponadto

wysoka teoretyczna przepustowość danych - 800 MB/s dla kości typu PC-100 i 1064 MB/s dla PC-

133 [3]. Pamięci SDRAM są wykonywane w postaci 168-pinowych modułów DIMM (ang. Dual Inline

Memory Module), obecnie zasilanych napięciem 3,3 V.

 

DDR SDRAM

Pamięć DDR SDRAM (ang. Double Data Rate DRAM) jest ulepszoną wersją swojej poprzedniczki.

Ulepszenie polega na możliwości przesyłania danych na obydwu zboczach sygnału zegarowego.

 Charakteryzują się bardzo dużą przepustowością - 2.1 GB/s dla DDR SDRAM pracujących

efektywnie z częstotliwością 266 MHz.

Podwojenie częstotliwości pracy nie jest jedyną nowinką związaną z pamięciami DDR. Pamięci tego

typu posiadają usprawniony mechanizm synchronizacji oraz buforowania danych. Pamięć DDR

wykonana jest w postaci 184-pinowych modułów DIMM.

Obecnie, trwają prace nad pamięciami DDR-II, które będą wykonane w technologii 0,13 mikrona i

oferować będą przepustowość 6,4 GB/s przy częstotliwości 800 MHz.

 

RDRAM

Pamięci RDRAM (ang. Rambus Direct RAM) są układami podobnymi do pamięci DRAM. W

układach tych matryca pamięci jest podzielona na 8 niezależnych bloków. Każda z części jest

odczytywana z pewnym opóźnieniem, wynikającym z częstotliwości zegara. W jednym takcie

zegara jest więc odczytana informacja z pojedynczego bloku. Przy kolejnych cyklach pobierane są

kolejne dane i dopiero po odczytaniu wszystkich bloków, dane wysyłane są na zewnątrz w postaci

pojedynczego pakietu (patrz rysunek 2.7) [3].

 

Pobieranie danych z poszczególnych banków przez pamięci Rambus [3]

 

Ważną zaletą pamięci RDRAM jest fakt, że umożliwiają one duże transfery - 1,6 GB/s dla pamięci

współpracującej z 16-bitową szyną danych z częstotliwością 400 MHz (efektywnie 800 MHz -

informacje przesyłane są na obu zboczach sygnału zegarowego). Podwojenie kanału Rambus (do

którego wsparcie oferuje chipset i840) daje przepustowość 3,2 GB/s. Olbrzymia przepustowość

pamięci Rambus spowodowała wydłużenie czasu dostępu do danych.

Z wytwarzaniem pamięci RDRAM wiąże się wiele problemów technologicznych, jak np. eliminacja

efektu linii długiej, zakłócającego poprawność przesyłania informacji [3]. Wymusza to rezygnację z

możliwości zainstalowania więcej niż dwóch modułów pamięci RDRAM na płycie głównej. Pamięć

RDRAM wytwarzana jest w postaci modułów RIMM (ang. Rambus In-line Memory Module).

 

 

Pamięci masowe

 

Dysk twardy

Dyski twarde HDD (ang. Hard Disk Drive) zostały tak nazwane z powodu swej sztywnej

konstrukcji. Dyski twarde nie zawsze były takie "twarde". Kiedyś, przed przenoszeniem dysku z

miejsca na miejsce, trzeba było zaparkować głowice, czyli uruchomić specjalny program, który

zajmował się przemieszczeniem głowic poza obszar magnetyczny dysku.

 

Dysk twardy firmy Quantum

 

Dzisiaj dyski operacje takie wykonują automatycznie, ponadto są bardzo odporne na wstrząsy. Dyski

twarde zawierają w swej obudowie kilka, a nawet kilkanaście talerzy (standardowo 3 talerze

magnetyczne). Talerze wirują prędkością 3600-7200 obrotów na minutę (ang. RPM - Rounds Per

Minute), a niektóre dyski SCSI kręcą się z prędkością 15 000 RPM (250 obrotów na sekundę).

Wewnątrz pyłoszczelnej obudowy dysku twardego znajdują się (oprócz głowicy i talerzy): układy

sterowania silnikiem napędu dysków, silnikiem przesuwu głowic (służącym do pozycjonowania)

oraz głowicami zapisu/odczytu, a także inne układy sterowania i kontroli. Dzięki dużej prędkości w

ruchu obrotowym wytwarza się poduszka powietrzna pod głowicą zapisu/odczytu, dlatego łatwo

może ona być utrzymywana w stałej odległości od talerza (głowica nie dotyka dysku podczas

pracy !) [1]. Dzięki dużej prędkości obrotowej możliwe jest również uzyskiwanie dużych prędkości

transmisji danych.

Najważniejszymi parametrami dysków twardych są:

_ szybkość transmisji (transfer) danych;

_ prędkość obrotowa (5400 RPM, 7200 RPM, 15 000 RPM);

_ Średni czas dostępu (ang. average access time) wyrażany w ms (np. 10ms). Na tę wielkość

składają się:

_ średni czas wymagany do umieszczenia głowic nad odpowiednim cylindrem (ang.

average seek time);

_ opóźnienie rotacyjne związane z umieszczeniem głowicy nad wybranym sektorem;

_ pojemność (popularnie 40 GB);

Należy tu zauważyć, że prędkość dysku zależy od wykorzystywanej technologii transmisji. Dyski

pracujące z magistralą SCSI, wykorzystując szybszy i wydajniejszy interfejs, pracują szybciej, dyski

obsługiwane przez interfejs EIDE, nawet używające trybu UltraAta/100 póki co, nie są w stanie

zagrozić "konkurencji".

 

CD-ROM

Prace nad napędem CD-ROM rozpoczęte zostały w roku 1978. Pierwszy napęd powstał dzięki firmie

Phillips, ale odtwarzacz CD-ROM, jaki znamy w dzisiejszej postaci zaprojektowany został przez

team (ang. "team") firm Phillips i Sony. W połowie lat 80 minionego wieku, napędy te weszły do

szerszej dystrybucji, zaś lata 90 przyniosły im niezwykłą popularność głównie dzięki stosunkowo

niskiej cenie oraz dużej pojemności jaką oferowały płyty CD-ROM.

Zasada działania napędu CD-ROM jest prosta (patrz rysunek poniżej). Otóż [3]:

1. Dioda laserowa (1) emituje na lustro (2) promień podczerwony o niskiej energii.

2. Silnik servo, przesuwając lustro (2) na rozkaz mikroprocesora, ustawia promień na właściwej

ścieżce płyty (3).

 

Zasada działania napędu CD-ROM

 

3. Po odbiciu promienia przez płytę (3), jego światło jest zbierane i skupiane przez pierwszą

soczewkę (4) znajdującą się pod płytą, odbijane od lustra (5) i kierowane do układu

pryzmatów (6).

4. Układ pryzmatów (6) kieruje promień na następną soczewkę skupiającą (7).

5. Druga soczewka kieruje promień światła na fotodetektor (8), który zamienia go na ciąg

impulsów elektrycznych.

6. Impulsy elektryczne są dekodowane przez mikroprocesor i wysyłane do komputera.

Zagłębienia wytrawione na płycie CD-ROM (ang. pit) sprawiają, że światło odbite od pit'a różni się

intensywnością (energią) od tego, które na pit'a nie trafiło. Zmiana energii wiązki lasera traktowana

jest więc jako pojawienie się informacji i przekształcana przez fotodetektor na impulsy elektryczne.

Ponieważ przekłamanie informacji o pojedynczym bicie może być groźne np. dla działania

programu typu *.exe, stosuje się zaawansowane techniki wykrywania i korekcji błędów. Dzięki nim

prawdopodobieństwo niewykrycia błędu jest rzędu 10^(-25). Sama korekcja wymaga zaś 288 B na

każde 2048 B danych [2].

Najważniejszymi parametrami napędów CD-ROM są :

_ Szybkość transmisji - określa jak szybko może odbywać się komunikacja pomiędzy jednostką

entralną a urządzeniem. Dla napędów CD-ROM przyjęło się używać oznaczeń 1x, 2x, 8x, itp.

Są to oznaczenia właśnie szybkości transmisji. Symbol 1x określa przepływ danych przez 75

sektorów danych po 2048 B w ciągu sekundy (format CD), co daje szybkość 150 kB/s.

Naturalnie sybole 2x, 4x, itd. są wielokrotnościami wymienionej prędkości.

_ Czas dostępu (ang. access time) - opóźnienie pomiędzy momentem zlecenia odczytu, a chwilą

uzyskania danych (typowa wartość 100 ms). Należy pamiętać, że inny jest czas dostępu do

danych położonych blisko środka, a inny przy brzegu płyty.

Napęd CD-ROM można podłączyć do komputera korzystając z interfejsów, z których

najpopularniejsze to SCSI/ASPI oraz IDE/ATAPI.

 

Karta graficzna

 

Karta MDA

Prekursorem kart graficznych, instalowanych w komputerach rodziny PC, był sterownik, który

pojawił się w komputerach IBM PC w roku 1981, o nazwie MDA (ang. Monochrome Display

Adapter). Karta pracowała tylko w trybie tekstowym o rozdzielczości 25 linii x 80 znaków [2].

Wyposażona w 4KB pamięci oferowała częstotliwość odchylania pionowego 50 Hz.

 

Karta CGA

Następcą sterownika MDA była karta CGA (ang. Color Graphics Adapter) - opracowana przez IBM

w 1982 roku karta jako pierwsza oferowała możliwość korzystania z trybu graficznego. Były to

jednak tylko dwie rozdzielczości: 640x200 oraz 320x200 punktów. Karta oferowała 16 KB pamięci -

większa rozdzielczość wyświetlana była jedynie w trybie monochromatycznym, zaś niższa "aż" w 4

kolorach. Tryb tekstowy możliwy był również w dwóch wariantach: 80 znaków x 25 linii, bądź 40

znaków x 25 linii, niestety matryca znaku miała rozmiary 8x8 pikseli. Karta oferowała maksymalną

częstotliwość odświeżania pionowego 60 Hz.

Karta wykorzystywała spakowaną (ang. packed) metodę odwzorowania pamięci - w danym bloku

pamięci RAM każdemu pikselowi obrazu odpowiadał fragment bajtu, zawierający numer koloru

tego punktu (np. 1 bit - 2 kolory, 2 bity - 4 kolory, itd.) [1].

 

Karta Hercules

Karta Hercules pojawiła się w tym samym czasie co karta CGA. Była ona wyposażona dodatkowo w

złącze równoległe, umożliwiające podłączenie drukarki.

Karta oferowała możliwość pracy w rozdzielczości 720x348 punktów (zarówno w trybie tekstowym,

jak i graficznym), ale jedynie w trybie monochromatycznym. Wyposażona była w 64 KB pamięci.

Znaki w trybie tekstowym wyświetlane były na podstawie matrycy 9x14 punktów. Karta nie miała

możliwości współpracy z IBM-BIOS, gdyż nie została wyprodukowana przez IBM.

Aby umożliwić szybszy dostęp do danych pamięć została podzielona była na dwie strony graficzne,

natomiast każda ze stron - na cztery banki.

 

Karta EGA

Karta EGA (ang. Enchanced Graphics Adapter) to kolejny etap rozwoju CGA. Karta oferowała

wyświetlanie obrazu w rozdzielczości 640x350 punktów przy 16 kolorach (wybieranych z palety 64

kolorów). Zaopatrzona była w 256 KB pamięci. Rozdzielczość w trybie tekstowym wynosiła 80x43,

przy matrycy znaku 8x14.

Sterownik EGA składał się z czterech głównych bloków funkcjonalnych [1]:

_ Układ sekwencyjny - generuje sygnał zegarowy; przesyła dane pomiędzy pamięcią obrazu,

układem graficznym i układem określania atrybutu; odpowiada za wybór lokalizacji

wyświetlanych znaków.

_ Układ graficzny - przekazuje dane pomiędzy pamięcią obrazu, układem graficznym i układem

określania atrybutu.

_ Układ sterowania atrybutem - służy do zmiany kolorów zapisanych w pamięci obrazu na

indeksy kolorów zdefiniowanych w rejestrach wzorców kolorów.

_ Układ sterowania wyświetlaczem - odpowiada za zachowanie zależności czasowych podczas

wyświetlania obrazu oraz wyświetla kursor.

Pamięć wideo opisywanej karty podzielona jest na cztery 64KB obszary (rozwiązanie to jest

wykorzystywane również w kartach VGA). Trzy kolory podstawowe (RGB) przyporządkowane są

do kolejnych obszarów, zaś czwarty z obszarów zawiera informacje o intensywności z jaką ma być

wyświetlony dany kolor. Tak więc jeden piksel zawiera swoje składowe w czterech blokach pamięci.

Dzięki takiej strukturze 256 KB zajmuje 64 KB przestrzeni adresowej. Rozwiązanie to nosi nazwę

metody płatowej (ang. planar, bit maped), a jego wadą jest to, że utrudniony zostaje dostęp do

danych [1].

 

Karta VGA

Karta VGA (ang. Video Graphics Array) to kolejny standard firmy IBM, opracowany z myślą o

aplikacjach graficznych. Sterownik ten jest w stanie emulować wszystkie dotychczas opisane

standardy.

Cechą wyróżniającą kartę VGA jest fakt, że wysyła ona do monitora sygnały analogowe

(poprzedniczki operowały na sygnałach cyfrowych), dzięki czemu zwiększono ilość wyświetlanych

kolorów. Zajmuje się tym wyspecjalizowany układ przetwornika cyfrowo-analogowego (DAC - ang.

Digital Analog Converter), który jest w stanie przedstawić każdą z barw w postaci określonej liczby

poziomów (np. 64) [1].

Standardowy sterownik VGA umożliwia wyświetlanie 25 wierszy znaków w 80 kolumnach

(matryca znaku 9x16). Znak może być wyświetlany w jednym z 16 kolorów, natomiast kolor tła dla

każdego znaku może być inny.

W trybie graficznym karta VGA umożliwia wyświetlenie obrazu o rozmiarach 640x480 punktów

przy 16 kolorach (wybranych z palety 256 kolorów). Maksymalną liczbę kolorów - 256 - osiągnąć

można przy rozdzielczości 320x200 punktów.

 

Karta SVGA

Karty SVGA (ang. Super VGA) są rozszerzeniem techniki VGA. Sterowniki SVGA wykorzystują

tzw. technikę stronicowania, polegającą na kojarzeniu z niewielkim obszarem pamięci (oknem), w

przestrzeni adresowej, różnych fragmentów większego obszaru pamięci (stron lub banków) [1]. Tak

więc, zapis/odczyt adresu położonego wewnątrz okna, powoduje zapis/odczyt odpowiadającego mu

bajtu w banku. Rozmiar banku i okna wynosi zwykle 64 KB. Aby dostać się do pamięci spoza

bieżącego banku, należy zmienić zawartość rejestru sterującego położeniem banku (ang. Bank Start

Adress). Wszystko to po to, aby efektywniej wykorzystać 128 KB przestrzeni adresowej, którą ma

zarezerwowaną procesor na pamięć obrazu.

 

Karta graficzna firmy Matrox

 

Dzięki takim, i wielu innym innowacjom, możliwe jest korzystanie z dużej pojemnościowo pamięci,

co umożliwia współczesnym kartom graficznym osiąganie rozdzielczości 1280x1024 i wyższych,

przy palecie kolorów 16.7 mln. (true color).

Współczesna karta graficzna to wysoko-wydajnościowy system mikroprocesorowy, na którego

"pokładzie" znajduje się procesor graficzny, szybka pamięć, magistrala łącząca te dwa elementy

(często 64 bitowa), układ przetwornika cyfrowo-analogowego (RAM-DAC) oraz kontroler CRT

(ang. Cathode Ray Tube Controller). Zadaniem przetwornika cyfrowo-analogowego jest zamiana

cyfrowego sygnału karty na analogowy sygnał RGB, sterujący monitorem. Zadanie kontrolera CRT

polega na odczycie danych z pamięci, z określoną częstotliwością (częstotliwość wyświetlania

klatek) oraz na sterowaniu częstotliwością synchronizacji pionowej (tzw. odświeżania ) i poziomej.

 

Urządzenia wejścia

 

Klawiatura

Wynalezienie klawiatury było dla komputera było tym, czym był pierwszy lot dla kosmonautyki.

Historycznie klawiatury podzielić można na trzy grupy: model XT, model AT, i współczesna

klawiatura 101- lub 102- klawiszowa PS/2 (wprowadzona na rynek przez firmę IBM).

Klawiaturę XT i AT charakteryzowała mniejsza liczba klawiszy (83), inne ich rozmieszczenie,

ponadto klawiatura XT zapewniała jedynie jednokierunkową wymianę informacji pomiędzy

klawiaturą a komputerem.

Zasada działania klawiatury jest stosunkowo prosta (Patrz rysunek 2.11.). Klawiatura posiada swój

mikrokontroler jednoukładowy, który nadzoruje siatkę połączeń linii X i kolumn Y, w węzłach

której umieszczone są poszczególne klawisze. Układ wysyła, z odpowiednią częstotliwością,

impulsy kolejno wszystkimi liniami X i bada, czy nie pojawiły się one na którejś z linii Y. Dzięki

takiemu rozwiązaniu można jednoznacznie określić, które klawisze zostały naciśnięte, a które

zwolnione. Informacja o mapie klawiatury jest przekazywana szeregowo do komputera. Dane

przesyłane są synchronicznie, a 11-bitowa ramka ma stałą budowę i zawiera: 1 bit startu (zawsze 0),

8 bitów danych, 1 bit kontroli parzystości, bit stopu (zawsze 1) [1]. Pojawienie się przychodzącego z

klawiatury znaku, komputer sygnalizuje przerwaniem IRQ1. Dzięki możliwości dwukierunkowej

wymiany informacji (w synchronicznym trybie półdupleksowym), procesor komputera jest w stanie

programować zarówno klawiaturę, jak i kontroler.

 

 Schemat obsługi klawiatury typu AT i PS/2 [1]

 

Należy pamiętać, że każdemu klawiszowi przyporządkowany jest unikalny numer (ang. scan code),a

naciśnięcie klawisza powoduje przesłanie do komputera tzw. kodu naciśnięcia (ang. make code),

który to mieści się we wspomnianej 11-bitowej ramce. Ponadto do interpretacji znaczenia klawisza

 (grupy klawiszy) potrzebna jest cała mapa zestyków klawiatury.

Dzięki ww. możliwości programowania klawiatury i kontrolera oraz istnieniu unikatowych numerów

przypisanych każdemu klawiszowi (ang. scan code) możliwe jest dostosowanie klawiatury do

używania znaków narodowościowych (np. polskich) np. z użyciem sterownika "keyb.com".

 

Mysz

Myszkę wynalazł w 1963 roku Douglas Engelbart, pracujący ówcześnie w Stanford Research

Center. W latach 70 rozwijaniem technologii "myszatych" zajęła się firma Xerox, ale pierwsza mysz

wyprodukowana na masową skalę pojawiła się w roku 1983. Cena produktu: 200 USD, producent:

Microsoft.

ysz firmy Microsoft

 

Jak działa mysz, wiedzą niemal wszyscy. Przesuwanie małym urządzeniem, wyposażonym w

przycisk(i), powoduje przekazanie do komputera informacji o zmianie położenia myszy i w

rezultacie ruch kursora na ekranie. Kliknięcie w przycisk(i) myszki powoduje modyfikację

parametrów używanego programu.

Ze względu na sposób, w jaki myszy odczytują swoją pozycję, urządzenia te możemy podzielić na

trzy grupy: mechaniczne, optomechaniczne i optyczne [3]. Modele mechaniczne i optomechaniczne

działają według podobnych zasad.

_ Model mechaniczny. Wewnątrz myszy znajduje się kulka wykonana ze specjalnego

materiału. Przesuwanie myszy po płaskiej powierzchni powoduje obroty kulki, które

zamieniane są na składowe ruchu w kierunkach X i Y. Za proces ten odpowiada para,

umieszczonych prostopadle do siebie przetworników (zestawu rolek, diody i fotodetektora),

które stykają się z kulką.

_ Model optomechaniczny. Jedyną rzeczą odróżniającą ten model od modelu mechanicznego

jest fakt, że zmiana pozycji kulki odczytywana jest za pomocą detektorów optycznych, a nie

rolek.

_ Model optyczny. Tak jak w poprzednim przypadku czujniki optyczne używane są do odczytu

zmiany pozycji, jednakże nie kulki. Do działania myszy niezbędna jest specjalna podkładka

pokryta siatką punktów kontrolnych, na których podstawie sensory optyczne odczytują

aktualne położenie urządzenia.

Ważnym parametrem myszy, jest rozdzielczość myszy - liczba impulsów wysyłanych w trakcie

przemieszczania się urządzenia na odcinku jednego cala (zazwyczaj 300 lub 400 dpi). Naturalnie, im

rozdzielczość jest większa, tym lepiej dla użytkownika.

Większość myszy komunikuje się z komputerem wykorzystując złącze RS-232, PS/2 lub USB.

 

Możliwa jest również bezprzewodowa komunikacja pomiędzy komputerem a myszą chociażby z

wykorzystaniem np. standardu IrDA (łącze podczerwieni).

 

Skaner

Zadaniem skanera jest konwersja dokumentów i zdjęć z postaci papierowej do cyfrowej oraz

przesłanie ich, z użyciem sterownika TWAIN (ang. Technology Without An Interesting Name), do

komputera. Typowym zastosowaniem skanerów jest również rozpoznawanie wyrazów - system

OCR (ang. Optical Character Recognition). Działanie OCR opiera się na odpowiednio

"wytrenowanych" do tego celu sieciach neuronowych, a uzyskane wyniki są, w porównaniu z

początkami tej technologii, zaskakująco dobre.

Podstawowym parametrem skanera jest rozdzielczość, na którą składają się [3]:

_ rozdzielczość sprzętowa - zależy od jakości wykonania fizycznych komponentów skanera

(lustra, układu skupiającego). Najczęściej spotykane rozdzielczości to 600x600 dpi (DPI -

Dots Per Inch - punkty na cal) i 1200x1200 dpi, ale profesjonalne skanery potrafią pracować

nawet przy rozdzielczości 14000x5600 dpi.

_ rozdzielczość interpolowana - jej wartość wynika z zastosowanych algorytmów interpolacji,

mających na celu zwiększenie "wyostrzenie" szczegółów obrazu. Typowa wartość 19 200 dpi.

Należy jednak pamiętać, że takie obliczenie niekoniecznie musi odpowiadać zeskanowanemu

oryginałowi [3].

Kolejnym, bardzo istotnym, parametrem skanera, jest poprawna interpretacja barw oryginału.

Standardowo informacja o barwie każdego zeskanowanego punktu zapisana jest na 24 bitach.

Profesjonalne skanery odczytują informację o barwie z większą dokładnością. Posługując się tzw.

wewnętrznym kodowaniem, uzyskują głębię koloru (np. 36 bitów), po czym z zeskanowanego

zbioru wyliczany jest najlepszy (wg programu, który dokonuje tych obliczeń) zakres barw i

zapisywany w formacie RGB 24-bitowym.

Innym parametrem, który ma wpływ na jakość skanowanego obrazu, jest zakres gęstości optycznej

(D), czyli zdolność prawidłowej prezentacji najjaśniejszych i najciemniejszych partii obrazu.

 

 Skaner płaski

 

Wszystkie opisane powyżej własności skanera związane są z jego wnętrzem, to ono w największym

stopniu decyduje o jakości skanowanych dokumentów i fotografii.

Konstrukcje skanerów podzielić możemy, ze względu na wykorzystane elementy światłoczułe

(zamieniające sygnał świetlny na elektryczny), na dwie grupy [3]:

1. Urządzenia wykorzystujące układy typu CCD (ang. Charge Coupled Device). Konstrukcje

takie zawierają lampę z zimną katodą, której rozgrzewanie, w początkowej fazie skanowania,

wymaga dostarczenia prądu o większym natężeniu niż urządzenia drugiego typu. Skanery te

mają znaczną wagę. Jest to spowodowane faktem, że głowica skanująca, prócz elementów

CCD i lampy, zawiera lustro i układ skupiający.

2. Urządzenia wykorzystujące układy typu CID (ang.Contact Image Sensor). Konstrukcja

zawiera diody LED wymagające skromnego poboru prądu. Głowica skanująca nie zawiera

układu lustra i układu skupiającego, dzięki czemu skanery tego typu są bardzo lekkie.

Charakteryzują się jednak gorszymi parametrami jakościowymi od swoich starszych braci.

Zaletą tych urządzeń jest przystępna cena.

Niezależnie od typu, działanie skanera jest bardzo podobne [3]: podczas skanowania pod

dokumentem przemieszcza się głowica skanera (najczęściej o długości równej szerokości

skanowanego dokumentu), której lampa (lub diody LED) oświetlają dokument, który odbija światło.

Natężenie światła odbitego od elementu ciemniejszego jest inne, niż natężenie światła odbitego od

elementu jaśniejszego. Światło odbite (o różnym natężeniu) kierowane jest do komórek

światłoczułych (w przypadku elementów CCD wymagany jest specjalny układ lustra-soczewek

skupiających). Dla każdego punktu skanowanego dokumentu istnieje zbiór elementów

światłoczułych, które zajmują się "obróbką" tego sygnału. Elementy światłoczułe zamieniają

informację o natężeniu światła na impulsy elektryczne, które są przesyłane do komputera. W

komputerze informacje o poszczególnych częściach dokumentu są zbierane i generowany jest obraz

dokumentu jako całości.

Skanery komunikują się z komputerem poprzez magistrale SCSI, FireWire, przez łącza USB, a także

poprzez drukarkowy port równoległy LPT.

 

Urządzenia wyjścia

 

Monitor

Prototypem dzisiejszych monitorów była, zaprezentowana w 1897 roku, lampa obrazowa typu CRT

(ang. Cathode Ray Tube), tzw. oscyloskop. Stosowany obecnie kineskop CRT jest wciąż lampą

elektronową pokrytą od wewnątrz warstwą luminoforu, na którym elektrony rysują obraz z

określoną częstotliwością, powiedzmy 47 razy na sekundę. Wspomnieć należy, że kluczową rolę w

rozwoju kineskopów do monitorów był moment wprowadzenia, na początku lat dziewięćdziesiątych,

monitorów kolorowych. Wydarzenie to wzbudziło powszechne zainteresowanie tym typem

urządzeń.

Jedną z własności monitorów jest wielkość plamki (an. dor pitch), czyli odstępu między dwoma

sąsiednimi punktami obrazu. Pojęcie plamki wiąże się jednak ściśle z konstrukcją maski kineskopu.

Dla masek perforowanych, w których każdy piksel składa się z trzech punktów luminoforu (tzw.

triady) w kolorach podstawowych RGB ułożonych w kształt trójkąta, wielkość plamki liczona jest

jako odległość między punktami luminoforu tego samego koloru. W przypadku masek

szczelinowych i kratowych, o wielkości plamki decyduje szerokość jednej triady luminoforu.

Istotnym parametrem monitora są również jego wymiary, w tym głównie przekątna obrazu, która

opisuje wielkość przekątnej ekranu (np. 17 cali). Dzięki ulepszeniu dział elektronowych w ostatnich

latach, możliwe stało się zmniejszenie gabarytów monitorów. W ich konstrukcji uwzględnione są

różnice w odległości pomiędzy działem elektronowym a środkiem ekranu, oraz działem a krawędzią

kineskopu - kształt plamki na krawędzi zbliżony jest do elipsy, zaś w środku do okręgu. Wyrzutnia

elektronowa w połączeniu z układem ogniskującym, zapewnia stały kołowy przekrój plamki obrazu,

niezależnie od miejsca padania wiązki elektronowej na luminofor. Gwarantuje to wszędzie

jednakową ostrość obrazu. Dodatkowo nowe wysokonapięciowe katody (wyrzutnie elektronowe)

charakteryzują się mniejszymi wymiarami i zmniejszonym poborem prądu [3].

Kolejnym parametrem monitorów jest częstotliwość odświeżania (pionowa), która określa, ile razy

w ciągu sekundy tworzony jest obraz. Według normy TCO '99 ergonomiczne minimum, powyżej

którego oko ludzkie nie dostrzega migotania, to 85 Hz.

Konwergencja (zbieżność kolorów) stanowi ważny parametr wyświetlanego obrazu. Konwergencja

określa precyzję, z jaką wyświetlane są kolorowe punkty. Każdy piksel tworzony jest z trzech barw

składowych (czerwonej, zielonej, niebieskiej). Jeżeli miejsce padania na luminofor którejś z wiązek

elektronowych, odpowiedzialnych za rysowanie barw, jest przesunięte względem pozostałych

dwóch, to obraz punktu ulega rozmyciu.

Bardzo istotnym czynnikiem, świadczącym o jakości monitora, jest rozdzielczość wyświetlanego

obrazu. Podajemy ją na końcu, gdyż obecne monitory oferują bardzo zbliżone parametry

rozdzielczości, które zdają się bardziej zależeć od wielkości użytego kineskopu, niż od pozostałych

elementów. Standardową, zadowalającą rozdzielczość 1024x768 punktów, wyświetla właściwie

każdy dostępny na rynku monitor, dlatego producenci skupiają się bardziej na "podkręcaniu" innych

parametrów monitorów.

Promieniowanie monitora nie jest obojętne dla zdrowia człowieka i dlatego powinno zwracać się

uwagę na normy dotyczące emisji promieniowania. Najbardziej restrykcyjną z nich jest norma TCO,

ale również popularne są MPR-II i TUV.

 

Wyświetlacz LCD

Głównym składnikiem wyświetlaczy LCD (ang. Liquid Crystal Display) jest pewna substancja,

która wykazuje własności zarówno cieczy jak i ciała stałego. Mowa tu o odkrytym w 1888 roku

przez austriackiego botanika Friedrich'a Rheinitzer'a ciekłym krysztale.

Kolejna ważna data związana z panelami LCD to rok 1973. To wtedy, za sprawą firmy Sharp, na

rynek trafił pierwszy seryjnie produkowany kalkulator zawierający wyświetlacz ciekłokrystaliczny.

Ogólna zasadę działania paneli LCD opisać można następująco (patrz rysunek poniżej):

1. Lampa fluorescencyjna emituje światło.

2. Światło przechodzi przez filtr polaryzacyjny nr 1.

3. Spolaryzowane światło dociera do substancji ciekłokrystalicznej, której długie molekuły

wcześniej, w procesie produkcyjnym, zostały odpowiednio ułożone wewnątrz każdej z

komórek matrycy LCD (o rozmiarze np. 1024 x 768 punktów).

_ W przypadku braku zasilania molekuły ciekłego kryształu układają się w położeniu

"skręconym", wymuszonym przez warstwę orientującą znajdującą się wewnątrz każdej

z komórek. Powoduje to zmianę polaryzacji światła o 90 stopni.

_ Pod wpływem napięcia sterowania cząsteczki ciekłego kryształu układają się

równolegle do linii pola elektrycznego.

4. Światło po przejściu przez warstwę ciekłokrystaliczną pada na filtr polaryzacyjny nr 2,

którego oś polaryzacji jest zmieniona o 90 stopni w stosunku do filtru nr 1. Zależnie od

braku/występowania napięcia sterującego możliwe są dwa rezultaty działania filtru:

_ Brak napięcia powoduje przepuszczenie światła przez filtr - odpowiada to emisji

światła, a więc zapaleniu się piksela.

_ Przyłożenie napięcia sterowania powoduje wytłumieniu światła przez filtr nr 2 - piksel

czarny.

 

 

 Budowa i działanie pojedynczej komórki LCD wykonanej w technologii Twisted

Nematic - przypadek występowania napięcia sterującego.

 

Ad. 2

Polaryzacja światła z użyciem filtru powoduje zorientowanie fali świetlnej tak, aby była

zorientowana w jednej płaszczyźnie, którą wyznacza oś filtru.

Ad. 4

Sterowanie wartością napięcia sterującego pozwala na zmianę przestrzennego ułożenia

cząsteczek ciekłego kryształu. Dzięki temu możliwe staje się odchylenie płaszczyzny

spolaryzowanego światła o kąt różny od 90 stopni (np. 25 stopni), a więc uzyskanie różnych

odcieni szarości. Kolorowe wyświetlacze zawierają dodatkową warstwę, w której skład

wchodzą barwne filtry RGB (ang. Red Green Blue). Dzięki złożeniu jednego piksel z trzech

różnokolorowych komórek matrycy, możliwe staje się wyświetlenie dowolnego koloru.

Główne rodzaje wyświetlaczy LCD:

1. Wyświetlacze pasywne DSTN (ang. Dual Scan Twisted Nematic). Cechy charakterystyczne

to:

_ duża bezwładność - czas potrzebny na ustalenie się wymaganego napięcia sterującego

migracją cząsteczek ciekłego kryształu jest duży, co owocuje długim czasem

odświeżania obrazu;

_ wzajemne oddziaływanie na siebie ścieżek przewodzących - powoduje to ograniczenie

palety barw możliwych do wyświetlenia oraz powstawanie przesunięć obrazu przy

dużych kontrastach;

2. Matryca aktywna TFT (ang. Thin Film Transistor). W roku 1970 po raz pierwszy

zastosowano tranzystory wbudowane w ekran ciekłokrystaliczny. Każda komórka matrycy

sterowana jest cienkowarstwowym tranzystorem TFT, który reguluje napięcie na elektrodach.

Dzięki takiej konstrukcji wyeliminowany zostały niemal zupełnie niekorzystny efekt

wzajemnego wpływu ścieżek przewodzących na siebie.

3. Wyświetlacze IPS (ang. In-Plane Switching). Ten opracowany przez Hitachi w roku 1995

standard stworzył ekran o kącie widzenia przekraczającym 60 stopni. Odmiennie niż przy

dwóch poprzednich panelach cząsteczki ciekłego kryształu rozmieszczone są w taki sposób, że

przyłożenie napięcia sterowania powoduje wyświetlenie piksela. Wyświetlacze tego typu w

przeciwieństwie do matryc TFT (złożonych z oddzielonych komórek) zbudowane są jako

jednolite struktury, co zapewnia lepszą jakość obrazu. Wadą tych wyświetlaczy jest

stosunkowo długi czas reakcji na zmianę obrazu - duży czas potrzebny do wytworzenia

odpowiedniego napięcia sterującego ułożeniem cząsteczek ciekłego kryształu w komórce.

Wyświetlacze LCD dzięki wielu swym zaletom, do których na pewno należy zaliczyć dużą

żywotność (ok. 60 tyś. godzin), niewielką grubość oraz ciągle malejącą cenę, mają dużą szansę już

niedługo zagościć w naszych domach na dobre.

 

 

Drukarka

Drukarka, w przeciwieństwie do skanera, zamienia postać dokumentu z cyfrowej na papierową.

Drukarki podzielić możemy na trzy grupy w zależności od techniki jaką wykorzystują do

drukowania:

1. Drukarki igłowe. Technika druku opiera się na dwóch elementach: głowicy (z igłami) i

taśmie barwnej. Igły głowicy uderzając w taśmę barwiącą powodują przeniesienie barwnika na

papier. Drukarki tego typu niestety są bardzo głośne i oferują słabą jakość wydruku.

2. Drukarki atramentowe. Wykorzystują atrament jako nośnik informacji. Atrament, który

znajduje się w zbiornikach, jest doprowadzany do głowicy i wypychany przez dysze. Istnieje

wiele rodzajów drukarek atramentowych, wykorzystujących różne techniki do nakładania na

papier atramentu. Najpopularniejsze z nich to [3]:

_ technika termiczna - tutaj kropelka atramentu jest "wypluwana" na papier na skutek

rozprężenia pęcherzyka powietrza (w każdej z dysz znajduje się specjalny "grzejniczek",

który w krótkim czasie potrafi rozgrzać się do wysokiej temperatury. W wyniku takiej

reakcji wytwarza się para wodna, której pęcherzyk wypycha kropelkę atramentu z

dyszy).

 

 Drukarka atramentowa firmy HP

 

_ technika piezoelektryczna - w tym wypadku kropelka jest wypychana przez kryształki,

które pod wpływem przyłożonego napięcia zmniejszają swą objętość, co powoduje

zwiększenie ciśnienia w dyszy i w rezultacie "wyplucie" kropelki atramentu.

3. Drukarki laserowe. Zasadę działania drukarki laserowej opiszemy w punktach i zilustrujemy

(patrz rysunek 2.16.) [3]:

_ Za pomocą specjalnej rolki, toner jest rozkładany w tych miejscach, które wcześniej

oświetlił promień lasera - ujemnie naładowany toner jest przyciągany przez dodatnio

naładowane punkty bębna.

_ Naelektryzowany toner przyciągany jest przez papier (również naelektryzowany, lecz

przeciwnie), po czym zostaje utrwalony przez zespół wałków rozgrzanych do 200 stopni

Celsiusza (w temperaturze tej toner topi się).

 

Zasada działania drukarki laserowej

 

_ W trzecim etapie bęben jest oczyszczany z resztek barwnika i rozładowywany. Jest

gotowy do kolejnego wydruku.

Najważniejszym parametrem drukarki jest maksymalna rozdzielczość, z jaką jest w stanie drukować

(rozdzielczość ta może być inna dla wydruku kolorowego, a inna dla czarno-białego). Typowe

rozdzielczości popularnych drukarek atramentowych to 600x300 dpi, 600x600 dpi. Oczywiście

drukarki laserowe (ale i atramentowe również) oferują znacznie większe rozdzielczości. Drugim,

ważnym czynnikiem jest czas drukowania dokumentów (drukarki atramentowe ok. 4-6 stron na

minutę, drukarki laserowe 10 i więcej).

Na zakończenie warto wspomnieć, że drukarki komunikują się z komputerem wykorzystując port

równoległy LPT, ale możliwa jest także komunikacja przez magistralę USB lub łącze IrDA.