Matryce CMOS
autor: Marek Lewandowski, www.stud.uni-karlsruhe.de/~uyh0, 22.02.2005
tekst pojawił się na grupie dyskusyjnej pl.rec.foto.cyfrowa
Matryce CMOS [wykład gościnny VI]

O co chodzi z CMOS?

Sensory CMOS pojawiły się jeszcze wcześniej niż CCD, już w późnych latach 60-tych. Wynalazek CCD datowany jest na ~1970.
CCD na początku zdominowało rynek ze względu na lepszą jakość dostarczanego obrazu: chip mimo dość drogiej produkcji (nietypowy proces, inny niż standardowych scalaków) jest strukturalnie w miarę prosty. Wada CCD jest w niego niejako z definicji wbudowana: żeby zgromadzony ładunek zmierzyć, trzeba
go wyprowadzić poza obręb matrycy. Ze względu na proces produkcji nie można zintegrować elektroniki sterującej matrycą na tym samym klocku krzemu, więc primo układ się komplikuje (zewnętrzne scalaki są niezbędne), a secundo szumy wywołane utratą ładunku w transporcie są nie do wyeliminowania.
O co poszło najpierw? O pieniądze oczywiście.

Pierwszy renesans CMOSów nastąpił w momencie integracji kamer we wszystko co się rusza. Jeśli coś ma być tanie nie może zawierać 4 scalaków i kilkudziesięciu pierdół i na czubek żreć wata mocy. Tak, CCD żrą prądu ile wlezie.
CMOS, mimo podówczas znacząco gorszej jakości obrazu, miały tę zaletę, że na jednym kawałku krzemu dało się upchnąć wszystko - sensor, elektronikę nim sterujacą, wzmacniacze, ADC, a na koniec to wszystko wymagało tylko jednego zasilania 3.3V i paru mA prądu.

Przeskakując kawałek historii zajmijmy się tym, co się dzieje obecnie:
Mamy rozwiniętą technologię CCD, która nadal dostarcza bardzo dobrego obrazu.
Wszystkie kompakty mają chipy CCD. Dlaczego ktoś się w ogóle pcha z lustrzankami w CMOS, zamiast udoskonalić CCD?
O co idzie teraz? O pieniądze oczywiście...

CMOSy można robić na jednym waflu z innymi scalakami. CCD nie. Póki mowa o formacie paznokcia, takich sensorów mieści się na waflu DUŻO. Odpad z okrągłego plastra krzemu można odżałować.
Ale jak mamy robić sensory o rozmiarze klatki, to jakby z tych okrągłych wafli mniej daje wykroić. W dodatku ciąg produkcji CMOS jest unormowany, znany i rozwijany przy okazji robienia coraz szybszych CPU. CMOS zrobić jest zwyczajnie taniej.
Ale samo to nie byłoby wystarczającym powodem do pchnięcia nowej-starej technologii na stół defibrylacyjny.
CCD są dobre póki są małe. Przy małych pixelach CMOS daje dupy, bo wymaga bardziej skomplikowanej struktury która kradnie przestrzeń światłoczułą. Ale gdy rozmiar matrycy rośnie ta różnica zanika, za to CCD zaczynają chorować na pojemności elektrod sterujących - wymagają coraz wyższych napięć sterowania i coraz większych prądów aby utrzymać sensowną prędkość odczytu i nie tracić danych po drodze. Poza tym defekt (hotpixel to jeszcze nie defekt) pojedynczego pixela CCD najczesciej ubija całą linię, CMOS - niekoniecznie.

Więc co różni konstukcyjnie CCD i CMOS?

w CMOS APS (APS = Active Pixel Structure, nie chodzi o rozmiar chipu) ładunek nie jest wyprowadzany ze studni potencjału pixela w momencie odczytu, tylko "ważony na miejscu" a "wynoszona" jest już informacja o jego wielkości. To pozwala na ten przykład czytać pixele w dowolnej kolejności. Pozwala też kilkukrotnie odczytać ten sam pixel bez zmieniania jego wartości.

Jak?

W sensorze CMOS-APS w odróżnieniu od CCD nie mamy jednej wielkiej powierzchni zbierania ładunku, bo nie ma potrzeby tego ładunku potem ruszać. Chip stawiany jest na substracie P, tak jak CCD, na środku każdego pixela wstawiany jest kawałek N tworząc diodę. To jest nasza fotodioda. Jest zauważalnie mniejsza od powierzchni pixela, o tym później. W kącie, możliwie małe, upchnięte są trzy tranzystory MOS:

schemat > zobacz

jeden (M1) na żądanie podłącza "rdzeń" (fotodiodę) do (+) zasilania. To jest reset pixela - wszystkie zgromadzone elektrony uciekają.
drugi (M2) jest bardzo istotny: to jest nasza "waga" do zgromadzonego ładunku.
W zależności od wielkości ładunku zgromadzonego w obrębie fotodiody przewodzi on lepiej lub gorzej, tym samym wzmacniając "złapany" sygnał.trzeci (M3) na żądanie podłącza wyjście z (M2) do wyjścia matrycy. Pozwala wybrać, który wiersz w danym momencie będzie czytany.

Bramki tranzystorów (M3-select) każdego pixela połączone są wierszami.
Uaktywnia się zawsze na raz cały wiersz.
Tak samo bramki sterujące (M1-reset) - kasuje się też cały wiersz na raz, zazwyczaj zaraz po odczytaniu.
"czytać" dany wiersz można dowolna ilość razy, czytanie nie zabiera nam stamtąd ładunku.
Wyjścia pixeli (output) połączone są kolumnami. Czyta się na raz tylko jeden wiersz i cały jeden wiersz.

Wspomniałem wcześniej, że fotodioda jest mniejsza niż powierzchnia pixela.
Czas powiedzieć, dlaczego:
"czytający" tranzystor (M2) reaguje na napięcie na fotodiodzie.
To napięcie zależy od zgromadzonego ładunku oraz od elektrycznej pojemności fotodiody. Gromadzi się ładunek łatwiej, gdy fotodioda jest większa, ale jednocześnie ma ona wtedy większą pojemność i zmiany napięcia są małe.
Jednocześnie ładunki "złapane" niedaleko od fotodiody mają tendencję "dryfowania" w jej kierunku. W efekcie rozmiar "czujnika" wybiera się tak, żeby był mozliwie mały, ale jeszcze zbierał "wałęsające się" ładunki z całej powierzchni pixela.

o dobra. Jak dotychczas wygląda przyjemnie, nie? Nie trzeba przepychać ładunków, po prostu wybiera się wiersz i dostaje napięcie proporcjonalne do ilości schwytancyh fotonów. Można przeczytać sobie dowolny jeden wiersz, można dowolny jeden skasować, potem następny, skasować, potem dowolny inny itd. To gdzie jest ten zdechły szczur?

Primo: tranzystory zajmują powierzchnię. Gęstość struktury rośnie z dnia na dzień i w tej chwili już te trzy tranzystory nie zajmują 1/3 powierzchni pixela, ale nie ma mowy o upchaniu 6MPIX na matrycy 1/4".
6MPIX sensor potrzebuje 18 milionów tranzystorów. To więcej niż Pentium II - ten opędzał się ca. 8 milionami.
Secundo: większa ilość złącz p-n w okolicy pixela oznacza więcej dziur, którymi ładunek może nam uciec.
Tertio: w CCD ładunek każdego pixela "ważony" jest tą samą "wagą". Jak ona oszukuje, to cały obraz jest jaśniejszy albo ciemniejszy, ale równomiernie.
Tutaj każdy pixel ma własną wagę, więc jeśli nie uda się zrobić ich wszystkich identycznych, to mamy wbudowany na stałe "szum" wzmocnienia.

Trzeci problem, mimo, że wygląda na najgorszy, takim ne jest - nawet, jeśli nasze wagi się "rozjezdżają" wystarczy, że sensor zostanie raz skalibrowany (oświetlony równomiernie i sczytany), żeby wiedzieć, jakie są mnożniki dla poszczególnych pixeli. Tablica korekcji to kilka MB, ale nie jest to coś, co by w dzisiejszych czasach sprawiało trudności.

Problem ciemnego prądu (ucieczki elektronów) jest w nowoczesnych sensorach CMOS opanowany nie gorzej, niż CCD. Sporo źródeł podaje go jako "znacznie większy", niż w przypadku CCD, ale dotyczy to raczej sytuacji, gdy porówna się co _można_ osiągnąć w danej technologii, a nie _co można dostać za te same
pieniądze_.
Jeśli mówimy o długoterminowych ekspozycjach w teleskopach astronomicznych, to CCD mogą w tej chwili więcej, ale primo, żeby to osiągnąć, siedzą na aktywnym chłodzeniu, secundo, kosztują odpowiednio, tertio nikt nie przejmuje się walniętymi kilkoma kolumnami pixeli no i quatro, nie są w stanie lecieć 5
klatek na sekundę full-res. Nie nasza liga.

Kwestia zabierania powierzchni przez dodatkowe struktury straciła nieco na znaczeniu w ciągu ostatnich lat, bo powiedzmy, że tranzystory umiemy już robić "dosyć małe". Poza tym nie musimy, jak w CCD, nakrywać części chipa metalem, bo wałęsające sięładunki nie są groźne - nie mogą dołączyć do żadnej karnej kolonii z przeciwległego końca matrycy, a conajwyżej do najbliższego pixela, gdzie i tak należą --> nawet obszar tranzystorów jest w pewnym, niewielkim stopniu światłoczuły.

Gdy zejdziemy z porównywaniem CCD vs. CMOS do rozmiaru i zastosowania klatki filmu (APS czy 35mm), CMOS wykazuje parę poważnych zalet:
- nawet poważnie uszkodzony pixel (dopóki nie zacznie przeciekać M3 można rozwalić w pixelu praktycznie wszystko) nie wpływa na odczyt kolumny, w której się znajduje. Matryca o dużej powierzchni BĘDZIE zawierać kilka defektów.
Szanse, że te defekty ubiją CCD są większe niż to, że ubiją CMOS.
- CMOS można odczytać szybciej. Odczytanie całej linii wymaga tylko wysterowania linii [SELECT] i to niskim napięciem.
- blooming dotyczy CMOSów w duuużo mniejszym zakresie - pixele nie są rozdzielone tylko polem elektrycznym elektrody na wierzchu (ccd), tylko stanowią odrębne struktury.
- przy zwiększaniu rozdzielczości nie rosną straty związane z przepompowywaniem ładunku w kółko
- cmosy chodzą już przy zasilaniu 3.3-5V, a nie +9/-15V czy t.p.
- wstępna obróbka sygnału może odbywać się już w obrębie samej matrycy.
- tak samo generacja sygnałów sterujacych, timingów itd.

przerwa, czas na pytania. Dziękuję za uwagę...
komentarze
..
..