O iPhone 11 e o iPhone 11 Pro (Max) estão à venda pela segunda semana, mas ainda carecem de um dos recursos mais interessantes - Deep Fusion. No entanto, de acordo com os últimos relatórios, a Apple já tem o recurso pronto e em breve irá oferecê-lo na próxima versão beta do iOS 13, provavelmente no iOS 13.2.
Deep Fusion é o nome do novo sistema de processamento de imagem para fotografia do iPhone 11 (Pro), que aproveita ao máximo as capacidades do processador A13 Bionic, especificamente do Neural Engine. Com a ajuda do aprendizado de máquina, a foto capturada é processada pixel a pixel, otimizando texturas, detalhes e possíveis ruídos em cada parte da imagem. A função será, portanto, útil especialmente ao tirar fotos dentro de edifícios ou com iluminação média. Ele é ativado de forma totalmente automática e o usuário não poderá desativá-lo – praticamente, ele nem sabe que o Deep Fusion está ativo naquela situação.
O processo de tirar uma foto não será diferente com o Deep Fusion. O usuário apenas pressiona o botão do obturador e aguarda um pouco até que a imagem seja criada (semelhante ao Smart HDR). Embora todo o processo leve apenas um segundo, o telefone, ou melhor, o processador, consegue realizar uma série de operações complexas.
Todo o processo é o seguinte:
- Antes mesmo de você pressionar o botão do obturador da câmera, três fotos são tiradas em segundo plano com um curto tempo de exposição.
- Posteriormente, quando o botão do obturador é pressionado, mais três fotos clássicas são tiradas em segundo plano.
- Em seguida, o telefone tira outra foto com longa exposição para capturar todos os detalhes.
- Um trio de fotos clássicas e uma foto de longa exposição são combinadas em uma imagem, que a Apple chama de “longa sintética”.
- O Deep Fusion seleciona a única foto de exposição curta de melhor qualidade (escolhe entre as três tiradas antes de o obturador ser pressionado).
- Posteriormente, o quadro selecionado é combinado com o "longo sintético" criado (dois quadros são mesclados).
- A fusão das duas imagens ocorre em um processo de quatro etapas. A imagem é criada pixel a pixel, os detalhes são destacados e o chip A13 recebe instruções de como exatamente as duas fotos devem ser combinadas.
Embora o processo seja bastante complexo e possa parecer demorado, no geral leva apenas um pouco mais de tempo do que capturar uma imagem usando Smart HDR. Como resultado, imediatamente após pressionar o botão do obturador, o usuário vê primeiro uma foto clássica, mas ela é substituída logo depois por uma imagem detalhada do Deep Fusion.
Amostras de fotos Deep Fusion (e Smart HDR) da Apple:
Ressalta-se que as vantagens do Deep Fusion serão aproveitadas principalmente pela teleobjetiva, porém, mesmo ao fotografar com uma lente grande angular clássica, a novidade virá a calhar. Em contraste, a nova lente ultra-grande angular não suporta Deep Fusion (bem como não suporta fotografia noturna) e, em vez disso, usará Smart HDR.
O novo iPhone 11 oferecerá assim três modos diferentes que são ativados em condições diferentes. Se a cena estiver muito clara, o telefone usará Smart HDR. O Deep Fusion é ativado ao fotografar em ambientes internos e em condições de pouca luz. Assim que você tirar fotos à noite ou à noite com pouca luz, o Modo Noturno será ativado.
fonte: The Verge
As demos parecem muito engraçadas quando comparadas ao modo clássico. Porque este resultado também poderia ser alcançado classicamente usando uma fonte de luz externa.
J.
Olha, claro, costumo levar dois ou três comigo, principalmente para a praia..