Hur mycket mer kan kvaliteten på fotografier förbättras?

Visst kommer det att fortsätta förbättringar av bildkvaliteten. Men det finns gränser för fysik. Och även idag gör vi avvägningar. Fotografisk kvalitet är en funktion av de verktyg vi faktiskt använder, och det är tydligt, idag, den digitala kameran. Så låt oss täcka var vi är och antyda var vi tar slut på rummet och där det kan finnas ytterligare bildkvalitet möjligt.

Sony tillverkar faktiskt tre olika versioner av A7-helskärmslös kamera. Självklart, om du kan vara "perfekt" i en modell, varför göra tre? A7RII har den näst mest avancerade sensorn i någon spegelfri eller DSLR (den nya Sony A9, som snart kommer ut, kommer att ha den mest avancerade), och den fick 98 på DxO-bildriktmärket, det högsta som registrerats för någon fullbild kamera. Men med 42 megapixlar är den bara så känslig i svagt ljus. Det är väldigt bra, missförstå mig inte. Men 12Mpixel A7s är bättre. A7s kan också producera bättre video.

Och de är båda i samma generation, men de illustrerar problemet. Här är en annan sak att tänka på ... vid den andra ytterligheten av fotografering. I flera år har kamerorna i smartphones blivit större och större: 5Mpixel, 8Mpixel, 12Mpixel, 16Mpixel, 20Mpixel ... en från Nokia gick faktiskt till 42Mpixel.

Men Nokias jätte sensor gjorde telefonen för stor. Under det senaste året verkar både Apple, Samsung och Google ha bestämt sig för 12Mpixel-sensorer, även om Samsung och Google hade använt chips med högre upplösning i tidigare kameror. Och Google Pixel-telefonen hade den högst rankade kameran 2016, även mot Sony-modeller med något större chip och 20Mpixels.

Den irriterande fysiken förstör partiet

I grund och botten finns det praktiska gränser för antalet pixlar du kan lägga på valfritt chip. En stor del av det kommer till diffraktion. Om jag lyser en perfekt ljuspunkt men vilken bländare som helst - till exempel din kameralins - är det jag får i fokus för objektivet / bländaren inte en perfekt punkt utan en skiva. Detta kallas en luftig skiva, efter George Airy, den första killen som arbetade med all matematik i detta fenomen.

Storleken på en luftig skiva bestäms endast av bländaren. Vid en snabb f / 1.4 är den luftiga skivan från en stråle med rött ljus cirka 1.78 μm. Det är inte en oro för en kamera med riktigt stora pixlar, 6.55 μm, som min fullformat Canon 6D. Men smartphones har vanligtvis haft pixelstorlekar inom intervallet 1.0 μm till 1.5 μm. Som visas i illustrationen är skivan en impulsfunktion som löser sig snabbt, så nej, din telefon har inga problem med af / 1.4-objektiv. Även med det mer typiska f / 2.0-objektivet är din Airy Disc bara 2.54 μm.

Men så småningom blir skivan så stor att även den ljusa aktiva mitten täcker mer än en pixel. Vid f / 3.5-f / 4.0, en vanlig maximal bländare på pek-och-skjutkameror i nedre änden, är skivan 5.08 μm .. inte vad du vill ha på en kamera med 1.5 μm pixlar. Anledningen till att smartphones och avancerade P & S-kameror inte har en iris, inte har någon variabel bländare är inte kostnad. Det beror på att de levereras vid eller nära den punkt där linsen, inte sensorn, ställer in den effektiva upplösningen. Detta kallas en diffraktionsbegränsad kamera. Varje 20Mpixel P & S-kamera med f / 3.5 eller smal bländare kommer att vara diffraktionsbegränsad. Resultaten kommer att vara mer som för en 12Mpixel-kamera.

Dessa regler gäller även spegelfria och DSLR-kameror. I min Olympus OM-D E-M5 mark II har 16MPixelsensorn 3.74 μm pixlar. Inga problem vid f / 4.0. Men av f11 är den luftiga skivan 13.94 μm bred ... den kommer att täcka många pixlar, vilket orsakar en förlust av effektiv upplösning. Gå till Canons 50Mpixel EOS 5Dr så ser du 4.11 μm pixlar ... den kameran kommer också att se upplösningsförlust vid f / 11. 6D kanske går lite bättre, men med f / 16 kommer även hela bilden att se några diffraktionsbegränsningar.

Och så, baserat på det faktum att vi spelar in ljus, kan vi helt enkelt inte fortsätta krympa pixlar. För en fullt fungerande pro-kamera behöver du faktiskt kunna stoppa ner till minst f / 16 och förvänta dig att den inte förstör din bild. Också, linserna vi vet hur man gör, som använder glas så sällsynt att ibland dras en lins från marknaden när dess speciella smak av konstigt glas försvinner. Så när Canon lägger ut 50Mpixel EOS 5Ds, lägger de också ut en lista med linser som rekommenderas för det. Varför? Eftersom den extra upplösningen faktiskt inte levererades med en hel del linser där ute. Tekniken för en 100Mpixel-kamera är inte ens en fråga ... Canon visade en 120Mpixel-sensor för några år tillbaka (Fullständiga specifikationer för Canons nya sensor på 120 megapixlar). Men det levererar kanske inte en praktisk 120Mpixel som vem som helst kan använda under de flesta omständigheter.

Dynamiskt omfång och buller

I vilket foto som helst definieras det dynamiska intervallet som intervallet mellan den mörkaste mörka och den ljusaste ljusa pixeln. I en JPEG är detta garanterat 8 f-stopp, bara -för JPEG är ett 8-bitarsformat. Men en modern DSLR-sensor kan leverera 14 f-stopp av räckvidden. Några digitala filmkamerasensorer klättrar garderoben till 15 f-stopps räckvidd idag.

Det är viktigt att förstå att effektivt ljus till mörkt område är en funktion av hela kamerans system. Varje fotodiod släpper ut elektroner som svar på fotoner. Dessa elektroner lagras per pixel i kondensatorer som kallas "laddningsbrunnar". Ljusflödestätheten och pixelstorleken bestämmer laddningens styrka och den effektiva mörka änden av ljusupptagning, storleken på kondensatorn bestämmer hur många elektroner du kan fånga innan den "välter" och att pixeln mättas.

För att läsa upp omvandlas den insamlade laddningen till spänning och, beroende på ISO, förstärks. Den förstärkta spänningen körs sedan till en analog-till-digital-omvandlare, som omvandlar vanligtvis 10, 12 eller 14-bitar från den analoga spänningen. Systemets faktiska dynamiska omfång kan vara större, men digitaliseringsprocessen kommer att sätta en hård gräns. Eftersom systemen blir tystare är det vettigt att lägga till fler bitar av upplösning i ADC, det är därför som 14-bitars ADC vanligtvis bara finns på stora sensorer: ibland APS-C, i stort sett alla sensorer i fullformat och medelformat. Att leverera fler sensorpixlar driver även dessa sensorer till mer bullrig drift.

Varje verkligt system har ett ljudgolv ... den punkt där det mest slumpmässiga bullret lever. Ingen signal kan vara tystare än bullergolvet. Buller är en produkt av slumpmässig elektronrörelse, kamerans och sensorn, och några andra saker. Och jag pratar om slumpmässigt brus - vi har för länge sedan räknat ut hur vi ska hantera "mönster" -brus i sensorer.

Så i starkt ljus digitaliserar din kamera, till exempel, 14 bitar längst upp i kamerans användningsområde. Som nämnts, när laddningen väl fylls, samlar du inte mer ljus för den pixeln. Så standardinställningen för en kamera har ingen förstärkningsläge och laddningsstorleken är koordinerad, helst. Vissa kameror har en "mycket låg" eller någon annan ISO-inställning som inte är ISO-certifierad, men en del av ett utökat område, där de kan leka med det här lite i programvara, men annars, vid din lägsta normala ISO, borde du få all signal. Och eftersom det är den långsammaste inställningen blir det den tystaste kameran kan vara. De flesta är mycket bra här. Även små smartphonesensorer kan se bra ut med ett starkt, starkt ljus.

Men för varje ISO-inställning måste förstärkningen skruvas upp. Faktum är att det i professionella videokameror inte finns någon ISO-inställning alls - bara en förstärkningsknapp. Fördelen med ISO-nummer är att känslighetsvärdena är standardiserade. Så ISO 400 på en kamera ska exponera på samma sätt vid samma EV som ISO 400 på en annan kamera .. faktiskt får vi kalla "ISO" eftersom International Standards Organization har ett antal regler för hur ISO kalibreras på en smartphone. Camcoder-förstärkningstal är olika, modell till modell.

Så småningom kan en del av det bullret som sitter i bullergolvet, medan det fortfarande är under provtagningsgolvet, börja vända den enstaka minsta gemensamma nämnarbiten i ADC. Resultatet av detta är att de mörkare områdena på ett foto börjar utveckla ett ljudmönster, ser lite ut som korn i kemisk fotografering. När du lägger till förstärkning har bullret mer effekt på fotot.

Så med tiden har det systemintroducerade bruset minskat i kameror. Under CCD-dagarna var de analoga pixeldata tvungna att kedja sig genom chipet som en "hinkbrigad" av laddning, konvertera till spänning, förstärka, lämna kamerasensorn, färdas över ett kretskort och in i en ADC och en digital bildprocessor . Idag har CMOS-sensorn laddning på chip till spänning och förstärkare och mer omvandling av analog-till-digital-chip, vilket möjliggör digitala gränssnitt med hög hastighet som MIPI CCS2 / CCS3 för att ta signalen till bildprocessorn. Så ingen analog kör över ett bullrigt kretskort ... bara det interna bruset från en sensor-IC.

Som nämnts skapas det slumpmässiga bullergolvet av termisk energi. Det är faktiskt sant att kylning av kameran minskar bruset. Astronomer gör massor av mycket långa exponeringar, och naturligtvis byggs upp slumpmässigt buller över tiden. Så det finns många modderade och kommersiella astronomiska kameror som kan kylas för att minska buller. Kan vi någonsin arbeta med ett kylsystem till ett chip? Det har diskuterats för de som söker superledande chipidéer, men det är inte en sak helt än.

Evolving Sensor Technologies

Som nämnts gick vi in ​​i eran med digital fotografering med en helt analog sensor som heter Charge-Coupled Device (CCD). Detta har allt annat än ersatts av CMOS-sensorn, som säkert också är analog på sensornivå, men använder vanligare chipprocesser som gör det möjligt att blanda in digital strömning. Detta har lett till snabbare sensorer, lägre brus osv ... allt i intresset av att justera lite mer kvalitet av en digital bild.

De flesta av de nya teknikerna har handlat om att leverera mer ljus till sensorn. Tidiga CMOS-sensorer hade olika elektronikbitar framför fotodioduppsättningen ... lite som det mänskliga ögat, som också har sina "ledningar" framför sensoruppsättningen.

Detta utvecklades till sensorn "bakbelyst". Chipet är byggt med fotodioder på botten, elektronik uppbyggd som tidigare. Men sedan skärs botten av chipet av, poleras och vänds runt och lämnar fotodioderna högst upp på stapeln, elektroniken under, som bläckfiskarnas ögon. För styrka är den tunna skivgivaren bunden till bulk-kisel.

Och den nuvarande teknikmästaren här är den staplade sensorn. Detta delar upp fotodiodmatrisen utan någon annan elektronik än själva dioderna och deras anslutningar. Denna skiva begränsas sedan till en aktiv bearbetningskomponent. Detta arrangemang sänker kostnaden för misslyckade sensorarrayer och tillåter att olika processer används för de övre och nedre staplade elementen. Slutresultatet är lägre brus och en starkare bildsignal.

Ny färgteknik

Den som verkligen är uppenbar att misslyckas med dagens sensorer är färg. Inte vår förmåga att fånga färg, utan hur vi gör det och det pris som betalas.

Så detta är en representation av Bayer-filtret, uppkallat efter Bryce Bayer från Kodak. Bayer uppfann detta filterarray 1976 för att ge färg till en annars färglös sensor. Fotodioder är känsliga för allt ljus, även infrarött. De flesta kameror har ett helt sensor IR-filter för att förhindra att osynligt ljus påverkar sitt skott. R-, G- och B-pixlarna fångar just den färgen med 12 bitar eller 14 bitar eller vad som helst. De interpolerar närliggande pixlar för att uppskatta de saknade R-, G- eller B-färgerna för varje pixel.

Detta fungerar väldigt bra när dina pixlar är tillräckligt små (standard definiton-videokameror, med endast 720x480 (NTSC) pixlar, använde tre separata sensorer och ett diakroiskt prisma för att leverera full R-, G- och B-färg vid varje pixel). Det mänskliga ögat har bara cirka 6 miljoner färg "sensorer" i sig, bredvid 120 miljoner luminanssensorer (se: Dave Haynies svar på Hur många pixlar för ett mänskligt öga?). Men det är inte perfekt ... och det lägger till sin egen typ av "buller".

Vilket buller? Det finns interpolationsljud. Om jag har i genomsnitt fyra röda pixlar för att leverera det röda värdet som saknas för en blå pixel har jag en riktigt bra chans att få det nära, om inte perfekt. Men inte en 100% chans.

Sedan finns det grundidén med ett filter: det blockerar ljus. Ett rött filter passerar rött ljus och blockerar blått och grönt ljus. Så att göra ett mycket bra filter som är bra för färgbalans kommer att säkerställa att din Bayer-sensor blockerar 2/3 av ljuset som kommer till den.

Alternativa konfigurationer

Företagen har provat ett antal variationer av det klassiska Bayer-filtret, men de kommer mer eller mindre tillbaka till enkel Bayer-design.

Det har gjorts några försök att blanda in "vita" element i filtren, vilket gör att pixlarna bara registrerar luminans vid 3x känslighet. De avslutar handel med färgkvalitet och ibland skärpa för känslighet.

Flera företag har provat CMY- eller CMYG-filter, en ”kompletterande primär” färgmatris. Dessa har den grundläggande effekten att öka ljuset per färdig pixel - eftersom rött, blått och grönt (när det gäller CMY) kommer var och en från två pixelprover, men den extra interpoleringen resulterar i en mjukare bild.

Fujifilm, möjligen mer än något annat företag, har trasslat runt med olika bildstrukturer. SuperCCD använde en interstitiell färgmatris. För att interpolera detta till ett vanligt N x M-rutnät fördubblade de pixelantalet, men naturligtvis gjorde det inte dubbelt så hög upplösning.

SuperCCD lade gradvis till ett par versioner av små och stora pixlar för att tillåta dubbla känsligheter i samma bild. I den andra formen, SRII, får de i huvudsak en lågkänslighetsmatris mellanvägs med en högkänslighetsmatris. Jag förväntar mig att dessa visade sig vara dyra att göra för vad de levererade, men det antyder verkligen att vi kan se andra försök att bygga specialpixlar.

Jag har två Fujifilm-kameror med EXR-sensormatriser som överfördes till CMOS-eran. Detta orienterar pixlar diagonalt så att två pixlar av samma färgfilter alltid kan "binds" som grannar. Således kan 12Mpixel-sensorerna i min X-F1 och X-S1 konfigureras som 6Mpixel-sensorer. Varför göra det? Flera saker. Enkelt inbäddat betyder de dubbla dioderna per pixel mindre brus per pixel. Varje hälft av matrisen kan exponeras oberoende i viss utsträckning, så detta möjliggör också högre dynamiskt område per pixel. En annan idé som Fujifilm har lämnat efter sig, men jag kan inte låta bli att undra är att det är vettigt framöver. Föreställ dig en sensor med superhög upplösning som tydligt kan falla tillbaka till en lägre upplösning, även beroende på vilket objektiv som används, fotograferingssituationen, den valda ISO, etc., vilket alltid ger den bästa övergripande bilden.

Nuvarande Fujifilm-kameror använder ett filtermönster som heter X-Trans III, vilket betyder mycket mer grönt - toppen av vårt ögons känslighet. De hävdar att detta, en gång interpolerat, leder till ett mer filmliknande utseende. Motståndare pekar på den ytterligare bearbetning som behövs för att hantera buller som högre ISO-inställningar, vilket leder till ett något ”vaxartat” utseende.

Kort sagt, dessa saker undersöks fortfarande. Teknik går framåt, men inte alltid med stormsteg.

Eller vad sägs om inget filter alls?

Det har gjorts några försök, särskilt från Sigma-ägda Foveon, att helt eliminera filtren, bygga chips med fotodioder på tre olika djup och använda kiselens absorptionskurva för att härleda rött, grönt och blått vid varje lager.

Observera att när säger "blå", "grön" och "röd", det är i grunden de punkter utöver vilka den färgen går förlorad ... "blå" lagret spelar faktiskt in vitt ljus, det gröna lagret grönt och rött och det röda naturligtvis bara rött ... så att få RGB-färg innebar ytterligare bearbetning. Det stora problemet här är att så mycket ljus går förlorat i kislet, detta byter ut potentiellt mer exakt färg för mycket mer ljud vid mycket av en förhöjd ISO-inställning. De senaste versionerna av dessa sensorer upprätthåller baspixelstorleken på det översta lagret men använder större pixlar på de nedre kiselskikten, vilket ger en slags hybridfärgmodell.

Ett annat tillvägagångssätt som undersöks är mikrofärgsdelaren. I grund och botten, med diffraktionsbaserade matriser, får denna typ av sensor frekvensspecifik böjning av ljus mellan fotodioder. Så sensorgruppen får allt ljus, men inte lika fördelat mellan pixlar. Det är troligt att de kan justera för detta genom att gå till en icke-enhetlig pixelstorlek.

Software Aided Photography

En stor del av de senaste innovationerna inom fotografering idag är en kombination av smart programvara med din hårdvara, på sätt som tidigare varit omöjliga. Jag förväntar mig att detta fortsätter. Visst, du kan göra saker i Photoshop som förbättrar en redan fångad bild, men vad sägs om att tillämpa programvara (och kanske någon kompatibel maskinvara) för att möjliggöra en bättre bildtagning på kameran?

Eftersom jag använder en, titta på Olympus. De har en massa coola idéer i sina kameror. Först och främst systemet IBIS (in-body-image-stabilization). Pentax har använt det också, och mer nyligen Sony, men Olympus drev det till cirka 5 stoppstabilisering i OM-D E-M5II och 5.5 i E-M1II. Eftersom den kopplas ihop med en optiskt stabiliserad lins också, kan det ge 6.5 stoppstabilisering. Människor tar faktiskt skarpa bilder, handhållna, med exponeringar på flera sekunder. Det är redan en slags science fiction. Jag kan spela in video på min E-M5II lika stabil som min Panasonic-videokamera på min Glidecam 2000. Eller bättre. Den här typen av teknik har kommit väldigt långt under det senaste decenniet, och den kommer sannolikt att spridas (Panasonic använder den i vissa nya modeller) och förbättras.

Olympus använde samma rörliga bildsensor för ett annat trick. Eftersom den rörliga sensorn kan drivas för att kompensera för rörelse, tänk om de istället flyttar den exakt för att förbättra bildkvaliteten. Det är Olympus “Hires” -läge på E-M5II, Pen F och nya E-M1II. Vad de gör är att skjuta åtta bilder och flytta sensorn antingen 1/2 eller 1 full pixel varje gång. Det resulterar i åtta 16MPixel-bilder i en E-M5II raw-fil, men det uppgår verkligen till två 16Pixel-bilder, kompenserade med 1/2 pixel, med varje pixel som innehåller RGBG-information. Så ingen de-Bayering, förbättrad färg och förbättrat dynamiskt omfång ... och det innan du räknar ut hur du gör det till en enda bild.

Jag nämnde behovet av en trevlig jämn grupp tidigare, va? Här har vi i huvudsak en 32Mpixel full RGB-bild, men med mellanliggande pixlar. Interpolering av detta till en rektangulär vanlig pixelmatris ger dubbelt så många pixlar, eller 64Mpixels. Detta kommer inte att ha upplösningen på en riktig 64MPixel-kamera ... i kameran, en JPEG av detta återges med 40Mpixels och jämförs ganska bra med en 36Mpixel Nikon - kanske lite mindre praktisk upplösning, men bättre färg.

Nu, idag, måste detta göras på ett stativ och är bara riktigt praktiskt för ett stillbild. Men lägg till snabbare fotografering och snabbare bearbetning, och kanske fungerar den här typen av bilder handhållen en dag.

Det finns naturligtvis andra multi-shot-förbättringar. Vid signalbehandling är det vanligt att sampla en repeterande signal för att minska synligt brus. Ljudet som vi inte helt kan kontrollera i ett system är slumpmässigt brus, men det är slumpmässigt. När jag lägger till ett slumptal till ett annat får jag ett slumptal som ser exakt ut. Så när jag i genomsnitt ger fyra bilder av samma sak tillsammans, får jag ett skott med bara 1/4 av originalbruset. Min Canon 6D, som redan är fantastisk vid prestanda i svagt ljus, har ett läge som gör detta.

Många människor är i High Dynamic Range-fotografering idag, och vissa kameror har ett auto-HDR-läge som gör flera exponeringar för att "stapla" flera för HDR-bearbetning ... om du fäster tre bilder med två f-stopp, förlänger du kamerans naturligt omfång med 2 f-stopp. Många kameror kan till och med bearbeta detta åt dig. Den typen av saker kommer att fortsätta utvecklas. Vissa kameror kan till och med göra det idag i ett skott på grund av sensorns dynamiska omfång. För konsumenterna skjuter du JPEG för det mesta, som spelar in 4-bitar / färg (och ibland mindre än så), men en DSLR-sensor i toppklass kan leverera 8-bitars information per sensor. Så att komprimera det (vilket är vad HDR-programvaran gör) till en JPEG kan ge dig en smak av det breda dynamiska omfånget, fylld i något du kan använda i vanliga fotoflöden.

En annan ny mjukvaruinnovation är automatisk fokusstapling. Tänk dig att du skjuter ett makrobild av Mr. Frog här. Du bryr dig inte om att en del av honom är ur fokus, men det är omöjligt att få nog av honom i fokus med makrolinsen och exponeringen du behöver för att skjuta. Automatisk fokusfäste gör att din kamera tar en serie bilder med lite annorlunda fokus. Fokusstapling i kameran bearbetar bilden så att den innehåller den tydligaste delen av varje bild. Du får enkelt ett skott som skulle ha varit svårt manuellt och omöjligt utan någon form av fokusstapling.

En annan från Olympus i de senaste kamerorna är Live Composite-läge. Detta stackar i princip ljus. Det tar flera exponeringar, men lägger bara till ökningen av ljus mellan skott. Det här kan du göra i Photoshop genom att skapa ett smart objekt och ställa in rätt kompositläge, men det är faktiskt kraftfullare att ha kameran, för du vet att det är gjort precis vid fotograferingspunkten.

Panasonic har en cool teknik som heter Depth from Defocus (DFD). I DSLR-världen har du speciella fokuseringssensorer i din kamera som läser av eller genom spegeln och använder fasdetektering för autofokus. Fasdetektering tittar i princip på lite bild och avgör inte bara om det är i fokus, men om inte, hur långt det är och i vilken riktning. Detta möjliggör mycket snabb fokusering, vilket de flesta spegelfria kameror inte kan matcha. Vissa spegelfria satte PDAF-sensorer på bildchipet, men Panasonic hade en annan idé.

De gjorde en ganska omfattande analys av sina linser och hur de såg ut när de var ur fokus vid olika punkter och inkluderade den informationen i linsen. Kameran föreställer sig att han bearbetar bilden för att få en signatur som jämförs med objektivets DFD-information, och som gör att kameran kan uppskatta var objektivet ska flyttas för att få det nära fokus, vid vilken tidpunkt kontrastdetekteringsautofokus tar över . CDAF kan normalt inte uppskatta riktning eller utsträckning av defokus, så det måste "söka" efter fokus, och det är ofta långsammare än PDAF, ibland väsentligt. Eftersom vi har mer signalbehandling på kameran tror jag att vi får se mer av dessa nya lösningar.

Till andra dimensioner

Alla dessa saker hittills diskuterar fortfarande ganska konventionella digitalkameror. Men några av dessa förändras redan på intressanta sätt.

Ett antal företag rör sig med böjda bildsensorer. Vi hanterar redan en varje dag - ögat. Det mänskliga ögat har en diameter på ungefär 22 mm, lite större än sensorn i en Micro-fyr tredjedelars kamera. Men det är halvsfäriskt, så den faktiska ytan är cirka 1100 mm ^ 2, större än en 35 mm kamerasensor. Och linsen är också halvsfärisk. Så ögat kan leverera en mycket bra bild utan behovet av de komplexa linserna vi gör för kameror idag - en del av de många elementslinserna är krysset för att hålla en bild klar och lika ljus över det plana bildfältet vi är utskjutande. En böjd sensor skulle erbjuda en bättre bild och större sensor i ett mindre paket.

En annan sak ögat gör är att kontinuerligt integrera resultatet av bildskanningar med ”sensorrörelse”, lite som det Olympus-sensortricket. Microtremors håller ögonen i rörelse bara lite, även när de är fokuserade på en enda sak. Som jag nämnde är "pixel" -upplösningen i ditt öga cirka 120 megapixlar ... men på grund av bildbehandlingen levererar din faktiska vision något närmare 400–500 megapixlar. Vi har redan kameror som gör lite multibildsökning för saker som HDR eller brusfiltrering, men eftersom sensorer blir snabbare och mjukare smartare kan detta användas på andra sätt.

Ta ett helt motsatt tillvägagångssätt, varför inte göra en platt lins? Forskare inom metamaterial har kommit med en platt lins tillverkad i en process som liknar en IC. De börjar med en supertunn bit genomskinlig kvarts och bygger nanostrukturer av titandioxid bara 600 nm höga. Orienteringen och andra fysiska egenskaper hos dessa strukturer. Egenskaperna är ganska smala just nu, men de kan designa dessa med mycket avvikelser, designa specifikt för projicering på plana ytor etc. En enda lins av denna typ kan bevisa allt du behöver för en kameralins .. prototypen gjord på Harvard , som användes som ett mikroskoplins, var 30% skarpare än mikroskoplinsen som den ersatte. Dessa linser är så tunna att de behöver förstärkas, kan vara tunnare än ett filter. En kamera kan ha flera av dessa inbyggda, förmodligen till och med en smartphone, som byter dem baserat på önskad brännvidd.

En annan ny riktning är den plenoptiska kameran, även kallad ljusfältkamera (Lytro Illum visas). När vi tänker på en kamera är det lätt att förstå i den digitala världen, vi tar ett foto genom en lins och den bilden projiceras över en rad sensorer, var och en blir mer eller mindre en pixel i bilden, ett bildelement .

Vad händer om vi faktiskt spelat in ljusstrålar? I stället för att bara spela in en intensitet för varje pixel, vad sägs om en intensitet och en vektor - riktningen för den ljusstrålen. Det är idén med ljusfältkamera. Om du kan göra det på något meningsfullt sätt spelar du i princip inte in en bild, du spelar in den information som krävs för att skapa en bild på olika sätt. Lytro har gjort några av dessa kameror, men de har varit lite mer än en nyfikenhet. Men nu arbetar de med lightfield-kameror för digital film, vilket kan vara väldigt intressant.

Och en annan är objektbearbetning. Just nu kan de flesta nya kameror känna igen mänskliga ansikten. Programvara på sociala mediasidor som Facebook kan känna igen bra bilder av specifika personer i bilderna du laddar upp. Föreställ dig denna typ av teknik bakning i några decennier.

För länge sedan designades MPEG-4-videoformatet för objektbehandlad video. Så till exempel kanske du får se fotbollsmatchen gratis, men du måste betala lite extra för att se bollen. Det är kanske en tröskel exempel, och ingen har gjort mycket med det, men det diskuterades. Ok, föreställ dig inte att din kamera är tillräckligt smart för att katalogisera många saker i varje foto. Du tar det skottet, du kommer hem, laddar upp den bilden i Photoshop 2030 och du ser att det finns en ful telefonundersökning. Du går till objektmenyn, tar bort telefonundersökningen efter namn, och det är borta från ditt foto, inget spår kvar. Du kan också söka i din fotokatalog för varje foto av din katt ”Joffrey” (min fru valde namnet). Visst, idag kan du lägga till metadata när du går genom din fotosamling. Men i framtiden kan din kamera ropa ut enskilda objekt på fotot, lättare eftersom det ser ut före och efter den faktiska exponeringen för att hålla definierade dessa objekt, och din katalogprogramvara skulle fylla i mer specifik information: den vet att det finns en katt, ett specifikt kattnamn Joffrey, kanske ytterligare information, den vet att han sitter eller sover eller hoppar osv. Allt med mycket lite arbete från din sida.

Vi har sett några smartphones med flera sensorer nyligen, men den här, Light-kameran, var ute innan det och typ av över-the-top. Denna kamera innehåller sexton separata sensorer, varav upp till tio kan användas för ett visst skott. Av de sexton mobiltelefonliknande små sensorer är fem vidvinklade, fem korta telefoto och sex långa telefoner. Ljusvägen för alla telefonsensorer är vikta, ungefär som ett periskop, vilket håller kameran både tunn.

De gör en mängd beräkningsfotograferingstrick i den här kameran. De komponerar utgången från flera sensorer för att ge en större bild med mindre brus. De gör en del parallexberäkning, baserat på olika sensorpositioner, som kan användas för att leverera konstgjorda skärpedjupeffekter ... som nämnts på ett sätt tillbaka, dessa små sensorer har mycket djupa fokalfält och kan inte stoppas utan diffraktion. Detta kan också interpolera mellan kamerans brännvidd för att ge något som effekten av en jämn zoom. Denna modell var faktiskt ganska dyrare än en bra DSLR eller spegelfri rigg på grundnivå, men de är första produktionen slutsålda, och de planerar att göra mer i år.

I vissa fall är frågan inte "bättre fotografier" i någon absolut skala, utan "bättre fotografier med hårda gränser", såsom smartphonefotografering. Det är nödvändigt att inkludera små, relativt billiga kameramoduler på smartphones, och ändå har de ersatt min mammas gamla Instamatic som low-end ”folkets kamera”.

Redan har LG, Apple, Huawei och andra placerat dubbla kameror i sina smartphones. Detta är något erkännande att dagens 12–20Mpixel-kamerakameror bara inte kommer att bli bättre, förutom kanske genom små inkrementella teknikförbättringar, utan att bli för stora för en telefon. Så alla vill göra något nytt med flera kameror.

Den Leica-kodade dubbla kameran i Huawei P9, medan den var en underpresterare, hade många intressanta idéer. Det har två matchade kamera- / linssystem, förutom att en av kamerorna inte har något Bayer-filter. Så du har ett monokromt skott som är tre gånger så känsligt för din färgkamera. Även så nära som de är kan programvaran utnyttja parallex mellan de två för att bedöma avståndet mellan saker och leverera en "virtuell" bländarinställning, genom att göra programvara defokusering av bakgrundsbilder skalade till vad du kan se med en DSLR. Apple gör en liknande sak med deras "Portrait Mode".

Den digitala revolutionen

En bra del av frågan om dagens bilder kommer att se gamla ut och av dålig kvalitet kan besvaras nu: inte alltför troligt. Våra äldre bilder ser gamla ut på grund av uppenbara defekter och lämnar det berättande ämnet som mode, frisyr, tekniska artefakter på bilden etc. Hon tog bilder med en skit Instamatic, sedan en Poloroid SX-70 instant-kamera. De utskrifter hon fick från den lokala apoteket började blekna på några år, och idag säger både utskriftsstilen (3.5 ″ x 3.5 ″ kvadratiska bilder) och tillståndet "gammalt".

Å andra sidan, min fars foton, mest tagna på Kodachrome 25 eller Kodachrome 64, båda högkvalitativa, långlivade transparensfilmer, skannade på över 10Mixer och ser ganska fräscha ut även idag, när de visas på en skärm eller skrivs ut i en modern process.

Dagens bilder är mestadels på digitala. När vi går framåt kommer kameror och datorer att ha tillräckligt med minne för att vanliga människor slutar komprimera allt i JPEG .... seriösa fotografer skjuter redan råa. Men det är en pixel-kikande sak. Mycket gamla digitalkameror avslöjar sin ålder genom låg upplösning, men när genomsnittskamerorna gick till 12Mpixel eller mer är det ganska osannolikt att det är en viktig fråga för hur de flesta ser en bild, tryckt eller på skärmen. Åtminstone tills vi börjar bioteknik bättre ögon.

Det betyder inte att det inte kommer att finnas trender som kommer och går. Ovanstående skott görs med galna nivåer av bearbetning med högt dynamiskt omfång, som justerar mikrokontrast över hela bilden för att dynamiskt komprimera 10, 12, 14 bitar dynamiskt omfång till det vanliga 8-bitars dynamiskt omfång du får i ett onlinefoto. Det är en cool effekt, och du kan ganska mycket inte få den med en enda exponering. Om vi ​​bestämde oss för att vi behövde göra detta vid varje skott, skulle dina gamla bilder se bra ut, daterade. Men också realistiskt, vilket berättar att just denna modefluga i bästa fall är ett konstnärligt val, inte framtiden för alla.

Slutsatser och en liten titt på marknaden

Så designtekniker kan förbättra kamerachipsens känslighet, minska buller, förbättra färg etc. Men det finns inget tecken på ett stort hopp i prestanda längre i ett enda chip, som vi har sett tidigare.

Faktum är att vi kan se detta i försäljningen. Kameraförsäljningen ökade stadigt på 1970-talet, eftersom fler konsumenter började använda kameror. Det planade ut mer eller mindre i början av 1990-talet, men sedan hände det digitala. Det växte långsamt under några år, eftersom digitalkameror var dyra och gav resultat av låg kvalitet. Men det tog fart, och blev sedan galet, eftersom fler människor flyttade till digitala, tidiga användare köpte en ny modell (och en annan och en annan ...) ... men den nådde sin topp 2009. Den har fallit ganska snabbt sedan dess.

Kort sagt har det funnits en digitalkamerabubbla och den håller på att poppa. Varför? De är riktigt bra idag. Jag har åtta digitalkameror, alla ger mycket bra resultat. Där det finns problem, som att mina P & S-modeller inte levererar lika hög kvalitet som min spegelfria eller DSLR, är det lätt att se till gränserna för fysik: mindre sensorchips, enklare linser etc.

Lämna en kommentar