Hvordan blir lys til strøm?

DIGITALFOTOSKOLEN DEL 1: Når vi slår på en lampe, blir elektrisk strøm omgjort til lys. I digitalkameraet er det omvendt.

Publisert Sist oppdatert

Når vi med lysbryteren slår på strømmen til en lampe, blir elektrisk strøm omgjort til lys. Det ser vi jo hver kveld. Da er det vel enkelt å forstå den omvendte prosessen også: hvordan lys blir til elektrisitet? For det er jo slik våre fotografier skapes i digitalkameraet.

Dette er det første kapitlet i PC Worlds artikkelserie om digital fotografering. Siden PC World er et pc-tidsskrift, vil vi legge mest vekt på hva du kan gjøre med bildene dine på pc-en. Dyptpløyende gjennomgang av kamerateknologi, bildekomposisjon og så videre overlater vi til de dedikerte fototidsskriftene og til forfatterne av lærebøker om fotografering - dem finnes det mange av.

Likevel tror vi det er fornuftig med en rask gjennomgang av det mest grunnleggende innenfor disse områdene også.

LES OGSÅ: - Mange slurvete digitalfotografer

Ut fra dette resonnementet starter vi med å ta en titt på hvordan vi får omgjort lys til strøm - og dermed til digitale fotografier.

Hva er fotoner?

Det essensielle begrepet i lysteori er foton, av det greske ordet for lys: phos. Ordet benevnes både som en partikkel - en «lyspartikkel» - og som den minste enheten som finnes av energi i elektromagnetisk stråling.

LES OGSÅ: Ny Sony-speilrefleks

Når vi vet at Albert Einstein forsket mye på lysteori og fotoner før han gjorde seg mer kjent gjennom sin relativitetsteori, skal vi vokte oss vel for å dykke dypt ned i denne materien. Men la oss forsøke å få med det vesentligste:

Fotonets masse er null, noe som forklares ved at massen egentlig består av bevegelsesenergi. I et vakuum beveger fotonene seg med en hastighet på like oppunder 300 000 kilometer i sekundet - det vi kaller lysets hastighet. (Det nøyaktige tallet er 299 792 458 meter i sekundet, som tilsvarer i overkant av én milliard kilometer i timen.)

LES OGSÅ: - D300 er altfor billig

I moderne fysikk er fotonet den grunnleggende partikkelen i alle elektromagnetiske fenomener. Lys er dermed identisk med elektromagnetisk stråling av en hvilken som helst bølgelengde. Synlig lys er elektromagnetisk stråling innenfor et bølgelengdespekter som kan oppfattes av det menneskelige øye.

I tillegg har vi lys innenfor bølgelengdeområder som ikke er synlig for det menneskelige øye, for eksempel ultrafiolett og infrarødt lys, mikrobølger, radiobølger og røntgenstråler.

En laserstråle sendes gjennom en krystallkule. (Ill.: iStockphoto)

Oppsummert kan vi si at lys kan forstås som energi i bevegelse. Lys i uhindret bevegelse forflytter seg altså meget fort, for eksempel fra sola til jorda på litt over åtte minutter. Men når fotonene treffer annen masse, kan en rekke forskjellige reaksjoner oppstå. Lyset kan absorberes og overføre energi til massen det treffer (lys og varme), det kan reflekteres og sendes videre i en annen retning eller tilbake mot utgangspunktet, avhengig av form og substans hos de elementene som lyset treffer.

LES OGSÅ: Norge på speilreflekstoppen

Lyset kan altså både spres, bli bøyd av og bli oppslukt.

Den såkalte fotoelektriske effekten oppstår når et foton treffer en metallplate. Energien i fotonet sørger da for å trigge utsendelsen av et elektron fra metallplaten. Det er denne effekten ccd-brikkene i digitalkameraene utnytter.

Fra lys til elektrisitet

Ccd står for charge-coupled device og er betegnelsen på det vi til daglig kaller digitalkameraets bildesensor. Ccd-brikken består av en integrert krets med en mengde sammenknyttede («coupled») lyssensitive kondensatorer. Disse befinner seg i de såkalte fotodiodene, som slipper lyset inn til det lyssensitive området. Når lys med tilstrekkelig stor foton-energi treffer kondensatoren, sender den fra seg et elektron som i sin tur genererer fotoelektrisk strøm, som kameraet bruker til å generere det digitale bildet.

Å kalle digitalkameraet for et solcellepanel i miniatyr er en sterkt forenklet forklaring på hvordan lys og fotodioder fungerer, men forhåpentlig nok til å få frem hovedprinsippene bak det digitale bildet.

Fargene

Hittil har vi bare snakket om lys som én type partikler. Men når lyset fra solen sendes gjennom et prisme, ser man ikke bare én gul lysstråle, slik vi tegnet solstrålene rundt sola da vi var barn. Vi ser hele den synlige delen av solspekteret - hele regnbuen.

Når lyset treffer en gjenstand, absorberes alt annet lys enn det som er i samme farge som gjenstanden selv. Et rødt eple er synlig for det menneskelige øye fordi det reflekterer rødt lys, men oppsluker alt annet lys.

Røde gjenstander absorberer alt annet lys enn rødt lys fra solspekteret, mens grønne gjenstander absorberer alt annet lys enn grønt lys.

Selv om solspekteret inneholder utallige fargenyanser, kan vi faktisk fremstille alle farger ved å blande tre farger - rødt, grønt og blått. Du har sikkert støtt på forkortelsen RGB mange ganger - det er dette den står for.

LES OGSÅ: Liten Pentax med stor zoom

Det menneskelige øye har nerver som er lysfølsomme, slik også ccd-brikken i digitalkameraet er det - og slik de kjemiske sølvforbindelsene på filmen var det i «gamle dager».

Ved å regulere og variere mengden av rødt, grønt og blått lys kan man fremstille alle mulige fargenyanser.

Vi kommer tilbake til fargelæren senere. Det grunnleggende vi har tatt med her, er for å forstå hvordan ccd-brikken håndterer kombinasjonen av farger og lys når den skal omsette all informasjonen til elektriske impulser.

Kameraet trenger informasjon om både intensiteten til lyset og om fargen fra de enkelte delene av motivet. Alle diodene eller pikslene på ccd-brikken registrerer luminans, som er faguttrykket for lystetthet. Lystetthet måles i candela per kvadratmeter, cd/m2.

Grønt vinner

Men over hver piksel er det lagt et fargefilter. I hver samling på fire dioder er det ett rødt filter, ett blått filter og to grønne filtre. Dette har sammenheng med at det menneskelige øyet er mer sensitivt for grønt enn for blått og rødt.

LES OGSÅ: Olympus E-3 imponerer

Det finnes ccd-brikker med varianter av dette mønsteret, blant annet en løsning fra Sony der cyan er tatt inn som en fjerde filterfarge.

Store og små piksler

Hva er det viktig for oss digitalfotografer å vite om ccd-brikkene? Tre ting: Betydningen av størrelsen, oppløsningen og lysømfintligheten.

Størrelsen tok vi grundig for oss i en annen artikkel om fotografering, les avsnittet om «Optikken, filmen og bildebrikken». Vi minner bare om at selv en del dyre, profesjonelle speilreflekskameraer har ccd-brikke som bare er litt over halvparten så stor som god, gammel 35 mm-film, mens de fleste kompaktkameraer har ccd-brikke på størrelse med en liten fingernegl.

Poenget er at du ikke må lese deg blind på fabrikantenes opplysninger om oppløsning. Selve brikkestørrelsen har minst like mye å si for bildekvaliteten og for hvor store forstørrelser bildet tåler.

Megapiksel-racet

Megapiksel-racet fortsetter som før, tross produsentenes innrømmelser av at antall piksler alene ikke er avgjørende for bildekvaliteten.

Antall piksler eller bildepunkter i det ferdige bildet er altså samsvarende med antall dioder på bildebrikken - eller mer korrekt antallet av effektive dioder. Det ligger noen dioder utenfor selve bildefeltet som er nødvendige for å gi riktig spenning i den ytterste raden av dioder innenfor bildefeltet.

LES OGSÅ: Kjøp riktig digitalkamera

Én megapiksel er én million piksler. Et eksempel: Nikon D40x har en oppløsning på 3 872 x 2 592 piksler. Dette utgjør totalt 10 036 224 piksler, eller 10 megapiksler.

For utskrifter i fotokvalitet regner man gjerne at én megapiksel holder til et 15 x 10 cm albumbilde, 4-5 megapiksler holder til et 20 x 15 cm bilde og 10 megapiksler holder til et 40 x 30 cm bilde.

Men dette er ingen endelig fasit. Mange andre elementer spiller inn, blant annet forventet betraktningsavstand til det ferdige bildet.

Lysømfintligheten, de såkalte ISO-verdiene, kommer vi tilbake til i en senere artikkel.

Er cmos bedre?

Du har kanskje lagt merke til at noen kameraprodusenter opererer med cmos-brikker i stedet for ccd-brikker? Forkortelsen står for complementary metal-oxide semiconductor og er egentlig bare en annen måte å bygge opp integrerte kretser på, der bruken av cmos-teknologi i bildebrikker er én av mange typer anvendelser.

I ccd-brikken blir ladningen som registreres i hver diode, transportert til hjørnet av brikken og konvertert til digital verdi i en felles analog-til-digital-konverter. I en cmos-brikke er det derimot flere transistorer knyttet til hver diode som forsterker og transporterer signalet direkte. Begge løsningene har både fordeler og ulemper.

Dårlig start

De første cmos-kompaktkameraene vi så på 1990-tallet, hadde dårligere bildekvalitet enn ccd-kameraene på den tiden. Fordelene med cmos som gjorde at produsentene var ivrige etter å utnytte teknologien, var lavere utviklingskostnader og mindre strømforbruk.

Derimot slet man altså lenge med bildestøy. Ccd-ens dominans i kameramarkedet har også gjort det lettere å holde produksjonskostnadene ved ccd-brikker nede.

Men fremskrittene innen produksjon av integrerte kretser generelt er noe som også produsentene av cmos-brikker har greid å dra nytte av. I dag benytter for eksempel Canon cmos-brikker i alle sine speilreflekskameraer, men ccd-brikker i kompaktkameraene. Blant fordelene Canon trekker frem med sine cmos-brikker, er at diodene ikke ligger så dypt som på ccd-brikkene. Det skal gi mindre fare for at støv setter seg fast på bildebrikken.

Neste kapittel

I neste kapittel spør vi om ISO er noe å bry seg om? Følg med!

Her er forøvrig kjøreplanen for de 10 første kapitlene i Digitalfotoskolen:

Del 1, som du nå har lest, sto i PC World nr. 7/2007 og tok for seg hvordan lys blir til strøm.

Del 2 handler om lysømfintlighet. Her forklarer vi hva ASA-, DIN- og ISO-standardene sier oss om bildekvalitet, bildestøy og kornete bilder.

Del 3 tar for seg sammenhengen mellom lys og farger, om det hvite sollyset som blir gult før det kommer frem til jorden, om regnbuen som viser at alt lys ikke er gulhvitt likevel, og om Kelvins fargetemperaturskala.

Del 4 handler om fargerom, gamut og om man bør velge sRGB eller Adobe RGB.

Del 5 tar for seg blenderåpningen og dens effekt blant annet på dybdeskarphet og optisk kvalitet.

Del 6 handler om å kontrollere lukkertiden.

Del 7 dreier seg om brennvidde og zoomobjektiver, med fokus på 3x zoom.

Del 8 tar for seg de forskjellige metodene til å overføre bilder til pc-en.

Del 9 handler om lagring, arkivering og sikkerhetskopiering.

Del 10 er praktiske tips om hvordan du får bedre farger og skarpere bilder.