imagazin arrow2-left arrow2-right arrow2-top arrow-up arrow-down arrow-left arrow-right cart close dossiers education fb instagram menu notification oander rss rss-footer search service shuffle speech-bubble star store stores tests twitter youtube

Itt az új MacBook Pro 16" 2019

Mi pedig leteszteltük

Deep Fusion – a még profibb fotókért


A szeptemberi Keynote-on mutatta be az Apple a Deep Fusion névre keresztelt rendszert, ami közepesen megvilágított beltéri portréinkból hozza ki a maximumot. Az iOS 13.2-vel pedig majd mi is kipróbálhatjuk az iPhone 11 és 11 Pro készülékeken!

Ilyesmi fotókra érdemes számítani majd. Apple kivétel nélkül mintás pulcsikkal promózza a feature-t, az még a fejlesztői bétából nem derült ki, hogy más felsővel is működik-e a funkció.

Mitől olyan különleges a Deep Fusion technológia? Elöljáróban had szögezzem le, hogy Phil Schiller nem véletlenül nevezte “őrült tudománynak”. Nézzük hogyan készül el egy fotó az új funkció segítségével:

  1. Még azelőtt, hogy az exponáló gombra böknénk a telefon már lekapott az adott tárgyról 4 képkockát, gyors záridő mellett – ennek köszönhetően a képen nincs bemozdulás, minden szuper éles. Ezt megfejeli még további 3 fotóval közepes gyorsaságú záridővel elkészítve.
  2. Harmadik tényezőnek számító hosszú záridős kép pedig akkor készíti el, mikor hüvelykujjunkkal hozzáérünk az exponáló gombhoz. Ez fogja tartalmazni a fotó részleteit, színeit, mivel hosszú záridőnél sokkal több fényt fogad be a szenzor. Mi viszont nagy valószínűséggel megmozdulunk annyi idő alatt, így közel sem lesz olyan éles a kép, amilyennek szeretnénk.
  3. Ezután készül el az ún. “syntethic log” a 3 normál fotóból és a hosszú expós kép kombinációjából.
  4. Ezt a művet tovább fokozza a Deep Fusion az algoritmus által legtökéletesebbnek tartott rövid záridős képpel, hogy az éleket, vonalakat képes legyen kitisztázni. Majd az összes kiválasztott képkockákon egyesével végzi zajszűrést, a Smart HDR-hoz képest nagyban eltérő módszerrel.
  5. Ezt követően még mindig nincs vége az alkímiának, a kép egy négy lépcsős feldolgozási folyamaton megy keresztül, pixelről pixelre. Itt az MI a fókuszt a fotó olyan részeire összpontosítja, ahol bőr, haj, különböző minták találhatóak (ezért kell a mintás pulcsi). A kiemelt részleteket a syntethic log és a hosszú expós kép összevetésével tökéletesíti. A textúrát az egyikről kiemelve, még a színeket, árnyékokat, tónusokat a másikról.
  6. Végül pedig mentésre kerül a végleges fotó a könyvtárunkba.

Az egész folyamat a bivalyerős chipeknek köszönhetően pedig pont egy lehelettel több időt vesz igénybe a Smart HDR képek generálásánál. Összesen kb. egy másodpercet. A Deep Fusion a HDR-rel és az iOS 13-ban debütált Night Mode-dal ellentétben nem kapcsolható funkció, sőt nem is látjuk, ha az adott fotó így készült el. Így nem kell gondolkoznunk, hogyan hozhatjuk ki a legtöbbet az adott szituációból, a kamera automatikusan a helyzetnek megfelelően cselekszik.

Sorozatfotó szerelmeseit viszont hideg zuhanyként érheti, hogy innentől kezdve az expó gomb hosszan nyomásával nem készülnek sorjában a képek. Ennek egyik oka, hogy se a Deep Fusion, se a Night Mode nincs meg egy pillanat alatt, másrészt ezt felváltotta a rögtön induló videófelvétel.

Én kíváncsian várom mire lesz képes a Deep Fusion, új készülék tulajdonosoknak pedig kötelező próbálgatni. Ha felvesztek egy kellően mintás pulcsit, garantáltan életbe lép a funkció!

iPhone XR akár 0 Ft önrésszel és 0% THM-mel

Ezt már olvastad?

A Sirinek ez is az egyik baja, hogy mindenki a célközönség. Valószínűleg hatékonyabb lenne, ha először jól működő modulokat hoznának létre egy-egy funkcióra szabva.

Miért nem ismeri anyanyelvünket az Apple virtuális asszisztense? - Klikk ide!