Jaką wielkość ma piksel ?
autor: Marek Lewandowski, www.stud.uni-karlsruhe.de/~uyh0, 4.02.2005
tekst pojawił się na grupie dyskusyjnej pl.rec.foto.cyfrowa
Jaką wielkość ma piksel? [skrócony wykład gościnny V]

Pixel jest bezposrednim zlepkiem od Picture Element, czyli fragment obrazu.
Jest w technice cyfrowej tym samym dla obrazu, czym probka (sample) dla dzwieku.
Przyrownac to mozna w pewnym sensie do pojedynczego ziarna emulsji - mniejszego detalu nie zarejestrujesz.

Geometrycznego sensu pixel nie ma. Jego najblizszym odpowiednikiem jest - czesto mylnie nazywane pixelem - "photosite" matrycy, czyli pojedynczy czujnik swiatla.

Rozwazmy przez chwile droge sygnalu od momentu, gdy jest swiatlem odbijajacym sie po scenie do momentu, gdy zostanie przedstawiony na odbitce "cyfrowej".
Dla uproszczenia zanalizujmy tylko jedna "linie" obrazu, zeby uniknac zlozonosci zwiazanej z odwzorowaniem R2 [x,y] -> R3 [Y,U,V].
Przyjmijmy tez do wiadomosci, ze mimo, iz oko ludzkie wyposazone jest w sensory skladowych R, G i B, to uklad oko+mozg postrzega obraz w kategoriach luminancji (jasnosc) i chrominancji (barwa).

Ujmujac to nieco analogowo nasze oczy widza jak "kanapka" z drobnoziarnistego i wysokoczulego materialu cz/b z podlozonym chamskim, ziarnistym negatywem ORWO przeterminowanym o trzydziesci lat.

Co jest zadaniem techniki w fotografii? Wziac rozklad jasnosci i barwy w scenie tak, jak "widzi" to optyka kamery i "zamrozic" a nastepnie odtowrzyc dla widza. Biorac pojedynczy "plasterek" sceny dostajemy linie o wahajacej sie luminancji i chrominancji. Te zmiany nalezy zarejestrowac. W analogu ta linia pada na warstwe(y) emulsji swiatloczulej i prowadzi do odpowiedniego zaczernienia/za-barwienia/zasyfienia/whatever przezroczystego negatywu.
W technice cyfrowej rozklad musi zostac zdyskretyzowany przestrzenie i amplitudowo, tzn. nalezy zmierzyc wartosc (natezenie) padajacego swiatla w (najlepiej) rownych odstepach, a zmierzone wartosci zamienic na liczby calkowite. Kazda taka kompletna probka to pojedynczy PIXEL.
W przypadku normalnych matryc krzemowych kwantyzacja przestrzenna zalatwiona jest przez podzial powierzchni swiatloczulej na poletka o okreslonej powierdzchni i lokalizacji - to zalatwia kwantyzacje przestrzeni. Kwantyzacja wartosci jest zalatwiana za nas, bo swiatlo ma nature dyskretna i pol fotonu pasc nie moze, ergo, liczba elektronow musi byc calkowita. Poniewaz liczenie elektronow odbywa sie w sposob niedokladny, to efektywna rozdzielczosc kwantyzacji amplitudy spada o nastepne n rzedow wielkosci, n>0.
Poniewaz pixele sa monochromatyczne, to na kazdy photosite dostajemy przyblizona informacje o luminancji, ale dla info o chromie potrzeba kwadratu 4 pixeli, ergo, zapisanie 4MPix na podstawie info z 4Mphotosites jest lekkim naciaganiem, ale zostalo uwzglednione np. w zapisie JPEG, ktory domyslnie na 4 pixele zapisuje lume o 4, a chrome o 2, lub wrecz tylko o 1 (zapis 4:2:2 i 4: 1:1, znane rowniez jako color channel subsample).

Teraz nalezy sobie przypomniec twierdzenia Nyquista i tak dalej, to znaczy, jesli bierzemy n probek na jednostke dlugosci, to najmniejszy dostrzegalny detal nie powinien byc mniejszy niz 2*jednostka / n, ergo, primo, sygnal nalezy przed samplowaniem filtrowac (rozmazujac lekko detale, czyli zacierajac szczegoly zbyt male do poprawnego zanalizowania), secundo, filtrowanie nalezy zaprowadzic rowniez przy ODTWARZANIU. Mianowicie postrzeganie pixela jako kwadracika jednej barwy jest bzdura: sugeruje, ze moglismy zaobserwowac i zapisac tak drobny detal, jak raptowna zmiane koloru przy przejsciu od 1 do 2 photosite. Przy naswietlaniu papieru jest to oczywiste: nie ma doskonalych obiektywow, wiec jesli wyswietlimy nasze zdjecie kwadracikami" na papier, to na papier juz nie dojda kwadraciki, tylko nieco rozmyte plamki i przy odpowiednim rozmyciu zdjecie bedzie wygladalo ostro.

Na monitorze CRT sprawa jest jeszcze prostsza: sygnal cyfrowy - wartosci kolejnych pixeli - zamieniany jest na analogowy (wartosc napiecia sterujacego dzialem elektronowym), filtrowany i pchany w rure, ergo nie ma szans na schodki. To jest tez przyczyna, dla ktorej fotografie na monitorze LCD podpietym po DVI wygladaja koszmarnie - brakuje filtrowania kantow na wyjsciu, sygnal jest odtwarzany bez ograniczenia pasma i widac w nim szum kwantyzacji - ostre krawedzie pixeli.

[addendum]

Teraz uzupelnienie co do kwantyzacji przestrzennej, ktora moznaby rozumiec, jako "wielkosc pixela" - w takim samym znaczeniu, jak rozumie sie "czestotliwosc probkowania" dla dzwieku.

Ze wzgledu na to, ze fotografujac obserwacje prowadzimy wglab wycinka kuli, ostroslupa czwo-rokatnego, rozdzielczosc w sensie punktow/mm jest nieco abstrakcyjna, znaczenie ma rozdzielczosc przestrzenna, to znaczy, ile probek na kat brylowy objety przez ten ostroslup mozemy wziac. Dlatego rozdzielczosc aparatow przyjelo sie okreslac w pixelach (megapixelach aktualnie) - 6MP okresla, ze kat widzenia ciety jest na 6 milionow czesci i dla kazdej z nich z osobna okreslana jest wartosc pixela. Przy zalozeniu okreslonego pola widzenia, na przyklad odpowiadajacego temu, jakie obejmuje fotografia maloobrazkowa przy f=50mm, fizyczny rozmiar pixela zalezal bedzie od odleglosci plaszczyzny fokalnej od punktu kardynalnego tylnego obiektywu.

Tu trafiamy na zderzenie optymalizacji procesu krzemowego oraz inzynierii optyki.
Z jednej strony im mniejsza matryca, tym tansza - w krzemie placi sie za wielkosc talerza, a nie za to, co na nim siedzi. To prowadzi do tendencji do skracania ogniskowej, przesuniecia plaszczyzny fokalnej blizej optyki, zadany kat brylowy obejmuje wtedy mniejsza powierzchnie plaszczyzny fokalnej, matryca moze byc mniejsza, a rozmiar pixela - powiazany z rozmiarem photosite - spada. Dla danej calkowitej liczby pixeli kat brylowy objety przez dany pixel pozostaje staly. Odsuniecie matrycy od optyki daje wieksze rozmiary photosites, wieksze liniowe odstepy miedzy pixelami, wymaga optyki o dluzszej ogniskowej i - dla danej jasnosci - wiekszych elementow optycznych. W zamian przy tej samej rozdzielczosci katowej mamy wieksze fizycznie photosites, wiec kwantyzacja amplitudy sygnalu moze zostac przeprowadzona dokladniej - przy tej samej ekspozycji mamy do dyspozycji wiecej elektronow.
komentarze
..
..