Efter vår första inblick i autofokus, tar vi nu ett mer tekniskt tillvägagångssätt. Jag är fast övertygad om att ju mer du förstår om din kamera och hur den tolkar världen ur ett tekniskt perspektiv, desto mer kan du komma ut ur det för att noggrant skapa din vision.
Leitz, nu känd som Leica, började patentera en serie autofokussystemteknik år 1960 och visade en autofokuseringskamera vid Photokina (som startade 1950) 1976. Den första massproducerade AF-kameran var Konica C35-pekskytten släpptes 1977. Den första AF 35mm SLR var Pentax ME-F 1981, följd av en liknande Nikon F3AF 1983.
Ursprungligen hade alla dessa tidiga AF-spegelmotorer linsmotorer, i huvudsak en standardlins med ett stort, ljuvt motorblock som fastnat på det. Detta fortsatte tills 1985 Minolta Maxxum 7000 hade drivmotorn i kamerahuset tillsammans med sensorerna.
Detta var den första AF-SLR som möttes med rimlig kommersiell framgång. De tidigare försöken var långsamma, otillräckliga och fungerade endast under idealiska förhållanden, vilket inte gjorde något för dubbla kostnader jämfört med liknande manuell fokuskameror. Maxxum 7000 kostade Minolta 130 miljoner dollar 1991 efter en långvarig patentstrid med det amerikanska företaget Honeywell över AF-tekniken.
Nikon följde Minoltas kostym, men återvände tillbaka till linsmotorer 1992, vilket innebär att moderna Nikons intranivå inte har en integrerad AF-drivmotor. Canons EOS-system (electro-optical system) AF-systemet kom fram 1987, där de irriterade många fotografer genom att släppa FD-objektivet och skapa det helt elektroniska EF-fäste.
FD med mekaniska kopplingar och krage-lock bajonettfäste mot EF med elektroniska kontakter och påbyggnad bajonettlås.Tja, det är i allmänhet vad som hände och den ordning som det hände i. Så vad sägs om själva tekniken? Låt oss gräva lite mer.
Fasdetektering autofokus är den snabba AF som finns på DSLR (och i allt högre grad spegelfria kameror som en del av ett hybrid AF-system). I DSLR-enheter är en del av huvudspegeln halvsilverad och passerar ungefär en fjärdedel av ljuset från linsen till en liten sekundär spegel bakom den och ner i spegelboxens botten. I basen är små linser som fokuserar ljuset från linsens kanter på CCD-sensorns matris.
Bas av en spegelbox, med antireflekterande geometri och portar för AF-ljus. Linsens kanter där nere är bara synliga genom luckorna. Ser lite dammig ut!Arrayen består i allmänhet av ett antal endimensionella remsor av pixlar i olika orienteringar. Varje remsa kan bara se en funktion som kontrasterar vinkelrätt mot den, eftersom den enda förändringen det kan se ligger längs linjen. Om en egenskap i bilden är parallell med remsan, kan den bara se en viss aspekt av funktionen samtidigt, snarare än "formen" av den.
Kontrastdetektering finns generellt direkt på bildbildningsgivaren, det vill säga dess användning i direktvy på DSLR. Det är oftast det enda detekteringssystemet som finns på spegelfria och kompakta kameror. Det är en mjukvaruimplementering, så det finns ingen mer verklig fysisk aspekt för den, bara sensorn och en processor.
Som namnet antyder, en kombination av båda systemen. Detta kan ske i form av att konvertera några av sensorpixlarna till AF-pixlar eller att ha en fasdetekteringsmatris lagrad över sensorn, som sedan arbetar med kontrastdetekteringssystemet i tandem för att förbättra AF-hastigheten.
Okej, nu vet vi den fysiska inställningen för varje typ av AF-system, låt oss täcka hur de använder sina respektive implementeringar för att göra sitt jobb.
Den sammansatta linsen (ett optiskt system som består av ett antal enkla linser, vanligtvis kallad "element" i fotolitteraturen) i kameralinsen använder en eller flera glidlinser för att fokusera ljusstrålarna i bildplanet.
Avståndet till ämnet dikterar hur långt korrigeringslinsen behöver röra sig för att fokusera. Tänk på det som ett par glasögon för huvudoptiken, förutom istället för att ändra linsens kraft ändras dess position.
Låt oss ta ett mycket enkelt exempel med bara en enkel lins, för att visa att när motivet rör sig, blur bilden, approximerad av tunnlinsformeln:
$$ 1 \ över f = 1 \ över S_1 + 1 \ över S_2 $$
I denna ekvation antas linser av försumbar tjocklek i luften, så det översätter inte korrekt till verkliga linser, men det gör det möjligt för mig att få poängen över enklare.
Vi använder en punktkälla för ljus med en lins med brännvidd 1m (1000mm). Detta ger ett \ (1 \ över f \) värde av 1. Om \ (S_1 \) är två meter är \ (1 \ över S_1 \) 0,5. Således är \ (S_2 \) också 2m när linsen är fokuserad. Om vi flyttar punktkällämnet tillbaka till 8m från linsen blir \ (1 \ över S_1 \) 1/8. För att kompensera måste \ (1 \ över S_2 \) bli 7 \ 8, vilket kräver ett \ (S_2 \) värde av 8/7 eller 1,14m. Naturligtvis är värdet \ (S_2 \) fixat när sensorn är stationär, så bilden blir bortkastad.
Om vi sätter in en sekund, korrigerar, objektiv på avstånd \ (d \) från den första till det här optiska systemet för att skapa en sammansatt lins, kan vi fokusera bilden som motivet rör sig. Den kombinerade nya brännvidden är enligt den tunna linsekvationens sammansättning:
$$ 1 \ över f = 1 \ över f_1 + 1 \ över f_2 - d \ över f_1 f_2 $$
Så vi har en ny brännvidd. Avståndet från den nya linsen till den nya kontaktpunkten för det kombinerade systemet kallas bakbrännvidden, vilket bör vara en relativt känd term i fotografering, eftersom det är avståndet från det bakre elementet till sensorn. Om jag ringer brännviddens längd "\ (d_2 \)", ges detta av:
$$ d_2 = f_2 (d - f_1) \ över d - (f_1 + f_2) $$
Låt oss försöka ett exempel där bilden är inriktad på ett fast bildplan, då rör motivet. Lägga till divergerande korrigeringslinser och krossa siffrorna ger oss följande:
Sammansättningssystem, mer som en riktig fotografilins. Fokuseringselementet [s] rör en liten fraktion jämfört med ämnesavståndet.Matematiken kanske inte är felfri, men det är tillräckligt bra för att få poängen över! Såsom motivet rör sig måste korrigeringslinsen röra sig för att kompensera för att bildningsplanet är fixerat.
I AF-system beräknar elektroniken var linsen behöver flyttas och instruerar linsmotorn att flytta den där. Hur gör det här? Detta leder oss till upptäcktssystem.
De små linserna i spegelboxens bas fokuserar ljuset från motsatta sidor av linsen. På grund av klyftan mellan dessa två punkter skapas ett parallax där var och en ser lite olika syn på motivet, precis som de två ingångslinserna i en mätare.
De enskilda punkterna är i fokus, precis som i en mätare; Det är den oändliga kombinationen av punkter över det tvådimensionella bildfältet som skapar brännpunkten i en verklig bild. Det är därför stora öppningar skapar mer dimsyn inte genom någon form av optisk manipulation, men helt enkelt för att mer glasdiameter används, vilket skapar fler punkter att överlappa och skapa oskärpa. Föreställ dig AF att använda en f / 22 eller mindre bländare på varje sida av linsen, så vyn är fortfarande i fokus oavsett objektivets brännpunkt.
Medan ljuset kommer från motsatta sidor av linsen är den delade bilden som går till AF-sensorerna av samma del av motivet, där AF-punkterna i sökaren är.
CCD-remsorna läses ut och skickas till ett dedikerat AF-chip, vilket utför en jämförelse mellan de två. Medan enskilda tillverkare, förbättrad teknik, patentintrångsundvikande och olika prispunkter för utrustning sannolikt förändrar den exakta algoritmen som används, är den allmänna punkten här att utföra en matematisk funktion som kallas autokorrelation eller liknande.
Autokorrelation är en mönster matchande algoritm under paraplyet av korskorrelation vid signalbehandling, men istället för att jämföra två olika signaler jämför den en signal med en skiftad version av sig själv. I huvudsak är det en integrerad (eller mer sannolikt i det här fallet av diskreta värdeuppsättningar, summering) -funktion som beräknar, jämför och maximerar området under de överordnade signalgraferna.
Målet är att beräkna hur långt det måste byta en av signalerna för att maximera det området och därmed matcha de två vyerna. Den inblandade matematiken är väldigt långvarig (det skulle troligtvis ta flera artiklar att arbeta genom ett grundläggande exempel) men resultatet av den övergripande slutliga algoritmen bör falla mellan 1 och -1, med kameran som letar efter att hitta skiftvärdet där korrelationen värdet är så nära 1 som möjligt.
Genom att göra detta ser och förstår den samma funktionen som kommer från varje sida av linsen, och att veta det fysiska rymdskiftet mellan dem längs pixelremsan berättar det med trigonometri baserat på kända kameramått, hur långt och i vilken riktning linsen är out of focus. Den kan sedan skicka en fokuseringssignal till linsen och kontrollera fokus efter flytten. Det är när kameran indikerar fokuslås och låter bilden bli skjuten.
Du kanske har hört talas om punkter "punkt" eller "punkt" typ AF-poäng vs. "cross" -typ AF-punkter. Skillnaden mellan dessa är att punkttyppunkter är enkla, endimensionella remsor av pixlar, medan tvärpunktspunkter är två linjer anordnade vinkelrätt. Eftersom en AF-sensor är endimensionell, kan den bara se luminansändring längs dess längd. Dot-typ sensorer är sålunda endast känsliga för detaljer i en riktning, medan kors-typer kan se tvärs dimensioner.
Om en dot-typsensor är parallell med en stor detaljfunktion, kan den inte se skillnaden mellan den och dess intilliggande kontrastfunktion och har därmed betydande svårigheter att fokusera.
Denna metod avläser några pixlar i önskat fokusläge från bildsensorn. Processorn beräknar kontrastvärdet mellan dessa pixlar, skillnaden i luminans över pixelutrymmet mäts. Genom att beräkna kurvens gradient längs pixellinjerna och kolumnerna kan den sträva efter att maximera värdet av denna gradient.
Linsens fokus flyttas sedan fraktionalt, och kontrasten beräknas igen. Om kontrasten är lägre har systemet flyttat linsen i fel riktning, så flyttas den i motsatt riktning. Kontrasten mäts igen, linsen flyttas vidare, och denna process upprepas när kontrastvärdet klättrar tills det faller. När den faller har linsen gått för långt och algoritmen flyttar linsen igen och gör ytterligare mikrojusteringar.
Kontrastdetekteringsmetoden för AF har potential att vara extremt noggrann eftersom den är på sensornivå, inget separat system. Det rör sig bara linsen tills kontrast maximeras. Tyvärr av samma anledning verkar det osannolikt att någonsin vara snabb; man kan argumentera för att det bara skulle kräva en mätning vid två fokalpositioner för att veta hur mycket linsen är defokuserad, men det kräver att kameran ska veta exakt hur kontrastigt ämnet ska börja med.
Det har ingen väg att veta vad den "sanna" fördelningen av luminansvärdena som mäts kommer att vara, eftersom de är beroende av ämnet. Därför kan det inte heller finnas en "tröskelgradient" eller ett "idealtopplumavärde". Dessa saker varierar mycket från scen till scen.
Således kommer professionell filmframställning i framtiden att fortsätta att använda manuella fokusdragare som det alltid har, och spegelfri punkt-och-skott fortsätter att vara långsam. Såvida inte…
Vad händer om du kan få det bästa av båda världarna? Vad händer om du kan få fasen att upptäcka och eliminera jakt, men kombinerar det med noggrannhet och enkelhet i kontrastdetektering? Jo, det är precis vad tillverkare gör nu.
I stället för att sätta fasdetekteringsremsorna på botten av en spegelbox, vilket är värdelöst i spegelfria kameror och DSLR i levande visning, skapas de istället som dedikerade arrayer på bildsensorn själv. Men säkert finns det inget att fas-matcha på sensorn, för att det blir blasted av allt ljus från resten av linsen i en stor oskarp cirkel av förvirring som jag sa tidigare? Inte så snabbt!
Eftersom pixlarna (tekniskt "senslar", eftersom de är sensorelement och inte bildelement) på en bildsensor är täckta i mikrolinser för förbättrad ljusinsamling, är allt vi behöver göra för att blockera halva pixeln för att få bilden från ena sidan av linsen. Är detta ideal? Nej, bilden kommer fortfarande att vara suddig, men halv så suddig som den är när man ser hela linsen och nu kan vi använda den för att mer noggrant upptäcka fokus eftersom det kommer att finnas en parallell mellan de två bilderna.
I Fuji X100-talet används denna teknik för att bota upp de manuellt fokuserade visuella hjälpmedel med en split-prisma-liknande EVF-överläggning, men Sony använder det som ett sann hybridsystem i anslutning till kontrastdetektering AF som "Fast Hybrid AF" i sin högre -änd NEX-kameror. Canon och Nikon använder också detta koncept i sina nedre kameror. I Sony: s A99 utnyttjar en andra dedikerad fasdetekteringsmatris den genomskinliga spegeln genom att läggas direkt framför bildsensorn, känd som Dual AF.
Så låg sensibilitet på sensorns fasfrekvens är inte så mycket, det tenderar att vara begränsad till en mittenpunkt för att minska antalet pixlar som tas ur bildbehandling och tekniken är i sin linda. Men med mer dedikerade system som Sonys Dual AF-arrays, och kanske några "offrade" bildsensorpixlar (med hjälp av mjukvaruinterpolering) med mer riktiga mikrolinser, ser det ut som framtiden för autofokus.
Så vi har kommit från uppfinningen av autofokus, genom dess utveckling och utbredd adoption. Vi har tittat på den grundläggande optiska mekaniken i fokus. Vi vet vilka typer av AF som finns, där de befinner sig i kameran och hur de fungerar, liksom hur dessa attribut praktiskt påverkar kamerans prestanda. Vi har tittat på den senaste utvecklingen i hybrid autofokussystem och övervägde var de kan fortsätta härifrån.
När du använder AF, överväga hur kameran ser scenen och justera därefter. När du handlar för kameror, ta en titt på deras AF-system och hur bra de kan fungera för din skyttestil.
Tja, det är en omslag på denna tekniska översikt över autofokus. Frågor? Kommentarer? Upprepa kommentarerna nedan!