Er was maar één opvallende functie op de Pixel 3- telefoons: die fantastische (single-lens!) Camera, die in de loop van de tijd beter werd en de Pixel 3a ook de beste mid-ranger op de markt maakte. Nu heeft Google de follow-ups, de Pixel 4 en de Pixel 4 XL onthuld – kunnen ze de pixels bovenop de stapel houden in termen van telefooncamera’s?
De snapper met enkele lens is nu een zaak met twee lenzen geworden, een combinatie van een 16 MP f / 2.4 2x optische zoom-telecamera en een 12,2 MP f / 1.7 camera. Ongebruikelijk voor een smartphone in 2019, er is geen groothoeklens: “Hoewel groothoek leuk kan zijn, vinden we telefoto belangrijker”, zegt Marc Levoy van Google Research (en Stanford University) tijdens het lanceringsevenement Made by Google .
De Pixel 4 vertrouwt, net als de pixels ervoor, op ‘computationele fotografie’ – dat is een term die Levoy zelf bedacht voor een Stanford-cursus en het betekent ‘minder doen met bedrade circuits en meer met code’ in zijn eigen woorden.
Camerafuncties namen veel tijd in beslag bij Made by Google.
Camerafuncties namen veel tijd in beslag bij Made by Google.
Afbeelding : Google
In wezen hebben we het over het maken van meerdere foto’s tegelijk, en ze combineren om een beter eindresultaat te krijgen – smartphonelenzen en verwerkingssnelheden zijn nu geëvolueerd naar het stadium waarin dit in een oogwenk kan gebeuren, zonder dat je het merkt zodra je op de ontspanknop gedrukt.
En het betekent dat de ene foto de belichting kan aanpassen om de donkere delen van een scène vast te leggen, en een andere kan hetzelfde doen om details in de lichtere gebieden te behouden. Zet ze bij elkaar en u verliest geen van de fijnere details. Het is een techniek die je nu zult zien op tal van geavanceerde telefooncamera’s, waaronder die van Samsung en Apple.
De Pixel 4-camera-array bevat ook een hyperspectrale sensor , die wordt vermeld als een “spectrale + flikkersensor” in de Google Store. Google heeft niet teveel gezegd over wat dit doet, maar we gaan ervan uit dat hyperspectrale beeldvorming om meerdere lichtkanalen te detecteren, de gegevens die deze sensor vastlegt, zullen worden ingevoerd in de algoritmen van de Pixel om de nieuwe foto verder te verbeteren modi werken.
Wat is er nieuw
Elke Pixel heeft de kenmerken van wat Google HDR + noemt, waarbij elke keer dat je op de ontspanknop drukt een burst van maximaal negen foto’s wordt gemaakt en vervolgens wordt gemiddeld om schaduwruis te verminderen. De eerste nieuwe Pixel 4-functie is Live HDR +, waar je dit effect ziet wanneer je een opname maakt – je hoeft niet te raden hoe het eindresultaat eruit zou kunnen zien.
Pixel 4 introduceert ook dubbele belichtingsregelaars, schuifregelaars waarmee je de helderheid (de opname-belichting) en schaduwen (de tonemapping) kunt aanpassen voordat je een opname maakt (je kent dit soort tweaks misschien al van apps zoals Photoshop). Als u bijvoorbeeld een dramatische silhouetfoto wilt in plaats van de gelijkmatige balans die HDR + u biedt, maken dubbele belichtingsregelingen dit mogelijk.
Als het gaat om zoomen, zegt Google dat de nieuwe 2x telelens op de Pixel 4, in combinatie met de bestaande Super Res Zoom-technologie die op beide lenzen werkt, resulteert in een superieure hybride zoomlens. Super Res Zoom, dat vorig jaar debuteerde , gebruikt de kleine verschillen tussen elk van de negen afbeeldingen in een burst om de details in te vullen terwijl je inzoomt. Het maakt gissingen, maar erg slimme.
HDR + werkt nu in de zoeker.
HDR + werkt nu in de zoeker.
Afbeelding : Google
De technologie, zegt Google, werkt beter dan bijsnijden nadat de foto is gemaakt. Als je zoomt voordat je de foto maakt, krijg je betere resultaten dan wanneer je de foto daarna bijsnijdt, vanwege de berekeningen die worden toegepast terwijl je inzoomt .n
De Pixel 4 is ook slimmer als het gaat om automatische witbalans, een fotografieprobleem dat erg lastig op te lossen is – in wezen ervoor te zorgen dat wit er wit uitziet, ongeacht de lichtomstandigheden (als je bijvoorbeeld binnenshuis bent) Ik krijg vaak een oranje tint van de verlichting).
Nogmaals, het gaat erom de algoritmen van Google te trainen om te herkennen wanneer wit wit moet zijn: “We gebruiken op leren gebaseerde witbalans in Night Sight sinds Pixel 3”, zei Levoy op het podium. “In Pixel 4 gebruiken we het in alle fotomodi, dus je krijgt echtere kleuren, vooral bij lastige belichting.”
Andere verbeteringen komen in de portretmodus, waarvan de berekeningen nu worden toegepast in de RAW-modus, vertelde Levoy aan CNET . De toevoeging van de extra cameralens betekent meer informatie voor de machine learning-algoritmen van Google om mee te werken, en dat zou ertoe moeten leiden dat diepten nauwkeuriger worden gemeten over langere afstanden (elke cameralens legt de opname onder een iets andere hoek vast).
Dubbele belichtingsregeling op de Pixel 4.
Dubbele belichtingsregeling op de Pixel 4.
Afbeelding : Google
Eindelijk staat het toch al indrukwekkende Night Sight op het punt nog beter te worden met de Pixel 4 en Pixel 4 XL. Misschien heb je de astrofotografie-opnamen van de telefoons al gezien, die mogelijk worden gemaakt door langere belichtingen en meer: meer bepaald 15 belichtingen van maximaal 16 seconden elk voor de Pixel 4-astrofotografiemodus.
Reken maar uit en dat betekent dat je Pixel 4 vier minuten stil moet blijven staan, maar de resultaten zien er de moeite waard uit. Terwijl de sterren bewegen en de bomen gedurende die vier minuten zwaaien, zullen de Pixel 4-algoritmen de foto’s uitlijnen en samenvoegen die nodig zijn om een helder, ruisvrij eindresultaat te creëren. Als er mensen in het beeld zitten, moet je ze zeggen dat ze heel stil moeten blijven.
Net als bij de Pixel 3, verwacht u dat de mogelijkheden voor het maken van foto’s van de Pixel 4 in de loop van de tijd beter worden, omdat een groot deel van het proces afhankelijk is van software. Levoy plaagde een toekomstige update waarmee een foto een heldere maan en een donkere voorgrond zou kunnen balanceren – een helderheidsverschil van ongeveer 1.500.000 keer, zegt Levoy, of 19 f-stops.
De competitie
Drie cameralenzen zijn voor het eerst op de achterkant van de iPhone gekomen.
Drie cameralenzen zijn voor het eerst op de achterkant van de iPhone gekomen.
Foto : Raul Marrero ( Gizmodo )
Google is natuurlijk niet het enige bedrijf dat aan deze computationele benadering van fotografie werkt. De belangrijkste rivalen Samsung en Apple hebben ook camera’s met meerdere lenzen die verschillende opnamen combineren tot één om de beste resultaten te bereiken – het aantal en de soort opname in de burst kan variëren, evenals de verwerkingsalgoritmen, maar het idee is hetzelfde.
Zoals je zou verwachten, houden deze telefoonfabrikanten veel van hun algoritmische geheimen voor zichzelf, maar het doel is altijd om de meeste details en de minste hoeveelheid ruis in een foto te produceren, evenals de meest nauwkeurige kleurreproductie – en om doe dit allemaal, ongeacht de verlichtingsomgeving.
De Deep Fusion-camera-update van Apple voor de iPhone 11, die wordt verwacht met iOS 13.2, gebruikt de neurale verwerkingskracht van de A13 Bionic-chip om te optimaliseren voor detail en weinig ruis over negen afzonderlijke belichtingen, hetzelfde aantal dat Google gebruikt. (Het was tijdens het beschrijven van Deep Fusion dat Apple-ex Phil Schiller de term ‘gekke wetenschap’ gebruikte die door Levoy werd afgewezen in de Google-presentatie.)
Samsung Galaxy-telefoons verwerken veel voordat u op de ontspanknop drukt.
Samsung Galaxy-telefoons verwerken veel voordat u op de ontspanknop drukt.
Afbeelding : Samsung
De handsets van de iPhone 11, iPhone 11 Pro en iPhone 11 Pro Max hebben ook een 12 MP f / 2.4 ultragroothoeklens. De Pixel 4 doet dat niet. Dat komt overeen met een 12 MP f / 1.8 groothoeklens op alle drie de telefoons, plus een 12 MP f / 2.0 telelens op de Pro en Pro Max – en zoomt uit tot 0,5x, zodat u meer kunt passen in hetzelfde frame uitkijkpunt kunt u inzoomen tot 2x optische zoom.
De beste telefooncamera van Samsung bevindt zich momenteel op de achterkant van de Galaxy Note 10+ . U krijgt vier lenzen: een 16 MP f / 2.2 ultrabrede, een 12 MP f / 1.5-2.4 groothoeklens, een 12 MP f / 2.1 telefoto (met 2x optische zoom) en een “DepthVision Camera” om afstanden nauwkeuriger te meten .
Samsung-telefoons verwerken doorgaans van tevoren meer dan die van Apple of Google, en dat is waar die verstelbare f-stoplens van pas komt: de lichtomstandigheden worden geanalyseerd en de belichting wordt aangepast terwijl u de opname in beeld brengt. Door om te beginnen meer informatie vast te leggen (iets wat Samsung al jaren doet), is minder nabewerking vereist.
We weten nog niet hoe de Pixel 4 eruit zal zien om elke dag foto’s te maken, maar we weten wel dat de iPhone- en Galaxy-handsets dit jaar de Pixel hebben ingehaald – of de Pixel 4 het resterende saldo zal verschuiven naar gezien worden. Maar meer dan ooit tevoren gaat het beoordelen van een telefooncamera minder over het lezen van de specificaties op de pagina en meer over het zien van de eindresultaten van al die ingebouwde verwerking en bedrog.