Hur kan kameran från Lenovo Z6 Pro producera 100 MP-fotografier?

Låt oss börja med hårdvaran. Lenovo Z6 Pro har fyra kameramoduler på baksidan. En av dessa är en "time of flight" -kamera med låg upplösning, det senaste för att göra djupkartläggning. Det finns en 8-megapixel tele-modul med f / 2.4-objektiv, en 16-megapixel ultra-vidvinkelmodul med f / 2.2-objektiv.

Sedan finns det huvudkameran. Lenovo kallar detta en "HyperVision" -kamera, som uppenbarligen bara är deras slagord för vad de än råkar göra med kameror vid varje tillfälle. De flesta kommer att kalla detta en Sony IMX586 kameramodul med f / 1.8-objektiv. Det är en 1/2 ″ sensor, cirka 30 mm ², så bara ett hår som är större än det typiska 1 / 2.3 ″-chipet som används i vissa Sony-telefoner och i stort sett alla låg-peka-och-skjuta-kameror.

Detta är en 48 megapixelsensor som använder ett Quad Bayer-mönster. Det betyder att även om det faktiskt kan spela in data på 48 megapixlar, kommer det att ha mycket fler färgfel än en konventionell Bayer-sensor med full upplösning, eftersom de flesta pixlar bara har en närliggande färg för att beräkna RGB-data, snarare än flera grannar som tillåter mer exakt interpolering. Men sensorn kan också konfigureras som en 12 megapixelsensor - det är poängen med Quad Bayer-mönstret. Så det är högre upplösning utan att offra någon chans till inomhusfotografering.

Nu föreslog jag att det kan spela in 48 megapixlar, men det betyder inte att det faktiskt kan leverera 48 megapixels upplösning. Fotodioderna i detta chip är 800 nm breda, den minsta i nästan vilken sensor som helst hittills och bara något bredare än 700 nm våglängden för rött ljus. Sensorn behöver en f / 1.4-lins för att undvika mjukning via diffraktion. Med f / 1.8-objektivet handlar det om en 33 megapixel effektiv kamera - fortfarande ganska ok för en kameratelefon.

Så de hävdar 100 megapixlar, eller hur? Hur är det möjligt med en 48 megapixelsensor? Möt min trogna gamla Olympus OM-D E-M5 Mark II från 2016. Det här är en 16 megapixelkamera, men den kan producera rakt ut-från-kamera 40 megapixel JPEG-bilder eller 64 megapixel råbilder. På vilket sätt? Det gör lite beräkningsfotografering och smart manipulation av sensorn.

E-M5ii kan flytta sin sensor med supernoggrannhet. Detta var utformat för att användas för bildstabilisering, men det har bättre än 1/2 pixel noggrannhet. Så i hirest-läge skjuter det fyra skott med 1 pixel-förskjutning, sedan en annan uppsättning med fyra skott som förskjuts 1/2 pixel från det första. Det ger 32 megapixlar av interstitiellt överlappad bild. När du samplas till en vanlig HxV-pixelmatris får du 64 megapixlar.

Nu är Olympus anställningsläge 2014 inte för handhållning, även om de precis introducerade en handhållen version i år i en ny kamera. Smartphones kommer inte att bry sig om ett enda stativläge, men de har alla mycket mer beräkningskraft än en spegelfri kamera - de är fickdatorer, inte riktigt kameror - så det finns massor av beräkning tillgänglig för problem.

Så även om jag inte har hittat detaljer om Lenovos algoritm har Google gjort en liknande sak i sin Pixel 3 i sex månader eller mer. Liksom de flesta av de senaste beräkningsfotograferingstrickarna tar kameran en kort sekvens av foton och buffrar dem i minnet. De kommer inte att använda bildstabilisatorn för att flytta pixel-för-pixel. Snarare kommer telefonen / datorn att övervaka din handhållning för skakning. Om du inte skakar tillräckligt kommer det att flytta sensorn för "entropi".

I grund och botten, om du skjuter en bild, får du 48 megapixel tagna, ge eller ta. Men om du tar ytterligare en bild med en slumpmässig liten rörelse, kommer nästa bild inte att hitta samma exakta bildelement på samma fotodioder ... provtagningen ändras bara lite. Ta några fler så får du tillräckligt med information för att förbättra bilden.

Googles användning är att skapa en 2x beskuren zoom, så de måste skala bilden 2x i varje riktning och sedan beskära mitten. Resultaten? Ofta inte lika bra som en 2x optisk zoom, men mycket bättre än enkel digital zoom (aka, beskärning).

Här är en liknande sak som jag gjorde nyligen. Flera bilder kan användas för att öka upplösningen i olika situationer. Förra veckan åkte jag till Virginia för att titta på en raketlansering från Anteres. Jag var ungefär 3.2 mil från raketen och ställde in min kamera med min 500 mm lins, och det såg ut så här:

Att skjuta i god vind, över vatten, det finns tillräckligt med krusningar i luften för att förvränga bilden.

Men i genomsnitt tillsammans ett antal bilder tagna från samma plats, och de slumpmässiga delarna rensas upp. Tyvärr är detta inte en teknik som kan användas för den faktiska avlyftningen, eftersom raketen rör sig.

Precis som med mitt raketskott kommer det här mjukvarudrivna 100 megapixel-läget inte att vara användbart för allt som har mycket rörelse. Och den andra saken: nästan ingen behöver 48 megapixlar, mycket mindre 100 megapixlar. Det kommer att äta upp onödigt utrymme på din telefon, och om du är som de flesta ser du sällan ett foto på mer än 2 megapixlar eller så - din skärmupplösning.

Å andra sidan kommer att leverera den första telefonen med ett 100 megapixel-läge att dra mycket uppmärksamhet. Och jag misstänker att Lenvo använder detta som ett litet bludgeon för att låta folk veta att de kan ha samma typ av coola AI och beräkningsfotograferingstrick som Samsung, Apple och Google.

Läs mer

48 MP eller inte? En titt på Sonys nya kamerasensor | AndroidPIT

Olympus E-M5 II Review - Högupplöst läge

Se bättre och längre med Super Res Zoom på Pixel 3


Dave Haynies svar på Är framtiden för fotokod?

Dave Haynies svar på Kan du göra bättre fotografier med hjälp av tekniker från beräkningsfotografering?

Dave Haynies svar på Vad kan vi förvänta oss av beräkningsfotografering i framtiden?

Lämna en kommentar