Az iPhone 14 Pro négy kamerával rendelkezik, ahol az Apple a termékoldalon fő kameraként írta, ultraszéles látószögű, valamint kettős és hármas zoom. Hátul azonban csak három kamera látható. A megoldás erre a látszólagos rejtélyre? A “virtuális kamera” kettős zoommal, amelyet a 48 MP-es, négy pixeles érzékelő tesz lehetővé. Ez pofátlan marketing vagy valóban hasznos információ?
Az ante 2022-ben tovább emelkedik, ami az őrült megapixel versenyt illeti. Miután az első 108 MP-es okostelefon 2019 végén megjelent a piacon, ebben a hónapban átlépték a 200 MP-es határt a Motorola Edge 30 Ultra (felülvizsgálat) és a Xiaomi 12T Pro (gyakorlatias) telefonnal.
Még a korábban említett iPhone 14 Pro is 48 MP-es kamerára ugrott idén, ami nagyon szokatlan az Apple számára. A rendkívül nagy felbontású szenzorok izgalmas tulajdonsága azonban nem a házban nyomatokhoz használt 100 MB-os fotók, hanem azok zoomja.
Hogyan működik a 2x-es zoom az iPhone 14 Pro-ban?
A teljes értékű digitális fényképezőgépekkel ellentétben az okostelefonok túlnyomó többsége nem rendelkezik olyan zoomobjektívvel, amely az objektívek eltolásával módosítani tudja a gyújtótávolságot, a hely korlátai miatt. Ehelyett külön érzékelők vannak a különböző zoomszintekhez. Az iPhone 14 Pro egy érzékelővel rendelkezik az ultraszéles látószöghöz (0,5x), egy a nagylátószöghöz (1x) és egy a teleobjektívhez (3x).
Ha a kameraalkalmazásban a kétujjas mozdulattal zoomol, az okostelefon immár digitálisan ráközelít az egyik kamera képére, amíg el nem éri a következő kameramodul nagyítását, mielőtt az átváltana. A digitális nagyítás növekedésével a minőség természetesen csökken. A csökkenés mértéke a kérdéses kamerától függ.
Az iPhone 14 Pro fő kamerája egy 1/1,28 hüvelykes képérzékelő, amely 9,8 × 7,3 milliméter méretű, 48 MP-es felbontással. A 2x-es zoommal az Apple egyszerűen kivág egy 12 megapixeles részt a szenzor közepéből, ami ekkor még 4,9 x 3,7 milliméteres a szenzoron – és így nagyjából megfelel az 1/3 hüvelykes formátumnak. Ez még mindig elég tisztességes fényképekhez jó fényviszonyok mellett.
3-szoros zoom mellett az Apple a következő 12 megapixeles érzékelőre vált (ami valójában inkább 3,2-szeres 77 milliméteres gyújtótávolsággal). Az 1/3,5 hüvelykes vagy 4,0 x 3,0 milliméteres formátumnál az érzékelő ismét valamivel kisebb, mint a “2x szenzor” amelyet a fő kamera közepéből vágtak ki.
A következő táblázatban láthatja, hogy mekkora érzékelőterület áll rendelkezésre a kamerához az iPhone 14 Pro és az iPhone 13 Pro készülékekben különböző gyújtótávolság mellett. Az ultraszéles látószög (13 milliméter) a perem bal szélén kezdődik. A fő kamera (24 milliméter) jelentős növekedést mutat. A teleobjektív kameráig (77 milliméter) az iPhone 14 Pro mindig több érzékelőterülettel rendelkezik, mint az iPhone 13 Pro. Végül a teleobjektív kamera változatlan marad.
A fenti diagram is érdekes, csak a függőleges tengelyen nézett szenzorterület helyett megapixellel (MP). Míg az előrehaladás megegyezik az ultra-széles és a teleobjektív érzékelőkkel, amelyek mindegyike 12 MP-es, a 48 MP-re való ugrás egyértelműen észrevehető. Az iPhone 14 Pro lényegesen nagyobb felbontást kínál 1x és 3,2x közötti digitális zoommal.
Mekkora és milyen felbontású legyen?
Az eddig tárgyalt iPhone 14 Pro nem is a legnagyobb felbontású vagy a legnagyobb érzékelővel rendelkező okostelefon. A héten a Xiaomi piacra dobta a 12T Pro-t, amely 200 MP-es érzékelőt kínál – és cserébe teljesen lemond a teleobjektívről. De mennyivel több helyet kínál ennyi megapixel a digitális zoom számára? Vessünk egy pillantást az iPhone 14 Pro-hoz képest:
A felbontás mellett azonban fontosabb tényező az érzékelő területe, amely különböző gyújtótávolságon áll a fényképezőgép rendelkezésére. A Xiaomi 12T Pro-ba telepített Isocell HP1 jóval nagyobb, mint az iPhone 14 Pro fő kamerája, 1/1,22 hüvelykes, de aztán veszít a rendelkezésre álló érzékelőterület tekintetében, amikor az Apple okostelefon teleobjektív zoomra vált:
És mi a helyzet a quad-bayerrel?
Eddig egy tényezőt figyelmen kívül hagytunk: az érzékelő feletti színmaszkokat. A Quad-Bayer magyarázatához először is meg kell vizsgálnunk a képérzékelők működését. A képérzékelő sok kis fényérzékelőből áll, amelyek csak a beeső fény mennyiségét mérik, anélkül, hogy képesek lennének megkülönböztetni a színeket. A 12 MP azt jelenti, hogy 12 millió ilyen fényérzékelő van.
A fekete-fehér érzékelő színérzékelővé alakításához egy színmaszkot helyeznek az érzékelőre, amely a beeső fényt zöld, piros vagy kék szerint szűri. A legtöbb képérzékelőben használt Bayer maszk mindig két-két pixelt oszt két zöld pixelre, valamint egy piros és egy kék pixelre. Egy 12 MP-es felbontású szenzor tehát hatmillió zöld, illetve hárommillió kék és piros képponttal rendelkezik.
A demosaicining vagy de-bayering során a képfeldolgozó algoritmusok a környező, eltérő színű képpontok fényerejét használják az egyes pixelek RGB-értékére következtetni. Egy nagyon élénkzöld pixel körülötte “sötét” így a kék és piros pixelek teljesen zöldekké válnak. A teljesen exponált kék és piros pixel mellett egy zöld pixel pedig fehérré válik. És így tovább, amíg nem lesz egy 12 millió RGB pixeles képünk.
A nagyobb felbontású érzékelőknél azonban a színmaszk másképp néz ki. Az úgynevezett quad-bayer szenzornál, jellemzően az 50 MP-es tartományban, minden piros, zöld vagy kék pixel alatt négy fényerő pixel található. A 108 MP-es érzékelők még kilenc (3×3) képpontot is csoportosítanak egy színterület alá, a 200 MP-es érzékelők pedig 16 (4×4) képpontot tartalmaznak. A Sony ezt quad-bayernek nevezi, míg a Samsung tetra-, nona- vagy tetra2pixelt használ.
Míg a képérzékelők ténylegesen akár 200 MP-es felbontással is rendelkeznek a fényerő tekintetében, a színmaszk 12 MP-nél áll meg. Ez sem baj, hiszen az érzékelésben a fényerő felbontása fontosabb, mint a színfelbontás. Ennek ellenére rendkívül nagy digitális zoom esetén a színfelbontás végül olyan mértékben csökken, hogy képhibák lépnek fel.
Példaként itt dolgoztunk fel egy fotót egy kis androidról. A bal oldalon (1) egy szürkeárnyalatos kép látható, a jobb oldalon (3) egy RGB kép negyedelt felbontással. A középső kép bal és jobb oldali képekből áll – és első pillantásra az eredmény nagyon jónak tűnik. Közelebbről megvizsgálva azonban az android tetején lévő zöld és kék közötti átmenet tisztátalan.
És pontosan az ilyen átmeneteknél keletkeznek műtermékek, amikor túlságosan nagyítunk egy olyan érzékelőre, ahol a színmaszk felbontása kisebb, mint maga az érzékelő. A Samsung egyébként valószínűleg egy 64 MP-es érzékelőt használt RGB mátrixszal, ami nem jellemző erre a felbontásra az S20 Plusban és az S21 Plusban sokat szidott 1,1-szeres telefotó érzékelőjéhez pontosan emiatt.
A lényeg az, hogy pusztán a hardver specifikációiból nehéz megmondani, hogy a képminőség hogyan viselkedik a kamerákban, főleg, hogy végső soron a gyártó algoritmusainak is nagyon meghatározó szerepe van. A 2×2-es, 3×3-as vagy 4×4-es bayermaszkos szenzorok számára is komoly kihívást jelent az úgynevezett re-mosaicing. Ellentétben a normál de-mozaicizálással, a színértékeket egyre nagyobb szenzorterületekre kell interpolálni, és egyre bonyolultabbak.
Másrészt az egyre nagyobb szenzorok is magukkal hoznak problémákat. Annak érdekében, hogy a lencsék kompaktak maradjanak, a gyártóknak olyan objektíveket kell használniuk, amelyek egyre jobban megtörik a fényt, és így kromatikus aberrációkkal és egyéb műtermékekkel küzdenek, különösen a kép szélén. És a kis mélységélesség is gondot jelent közelről.
Ezért továbbra is izgalmas, és remélem, érdekesnek találta ezt az utazást a rendkívül nagy és rendkívül nagy felbontású képérzékelők világába. Hogyan néz ki álmai kamerája okostelefonon? Várom észrevételeiket!