Anúncio fechado

A terceira versão beta do desenvolvedor do sistema iOS 13 esconde muitos novos gadgets. Um deles é a correção automática do contato visual. A outra parte tem a impressão de que você está olhando diretamente nos olhos dela.

Agora, quando você está em uma ligação FaceTime com alguém, muitas vezes a outra parte percebe que você está olhando para baixo. Isso se deve ao fato de as câmeras não estarem diretamente na tela, mas na borda superior acima dela. Porém, no iOS 13, a Apple surge com uma solução pouco convencional, onde o novo ARKit 3 desempenha um papel de liderança.

O sistema agora ajusta os dados da imagem em tempo real. Portanto, mesmo com os olhos baixos, o iOS 13 mostra como se você estivesse olhando diretamente nos olhos da outra pessoa. Vários desenvolvedores que testaram o novo recurso já apareceram nas redes sociais.

Um deles foi, por exemplo, Will Sigmon, que forneceu fotos nítidas. A foto da esquerda mostra a situação padrão durante o FaceTime no iOS 12, a foto da direita mostra a correção automática através do ARKit no iOS 13.

iOS 13 pode corrigir contato visual durante FaceTime

O recurso usa ARKit 3, não estará disponível para iPhone X

Mike Rundle, que estava de plantão, está encantado com o resultado. Além disso, é uma das características que ele previu em 2017. Aliás, toda a sua lista de previsões é interessante:

  • O iPhone será capaz de detectar objetos 3D ao seu redor usando varredura contínua do espaço
  • Rastreamento ocular, que torna o software capaz de prever movimentos e possibilita controlar a interface do usuário do sistema com movimentos oculares (a Apple comprou a SensoMotoric Instruments em 2017, que é considerada líder neste campo)
  • Dados biométricos e de saúde obtidos através da digitalização do rosto (qual é o pulso da pessoa, etc.)
  • Edição avançada de imagens para garantir contato visual direto durante o FaceTime, por exemplo (o que já aconteceu)
  • O aprendizado de máquina permitirá gradualmente que o iPhone conte objetos (o número de pessoas na sala, o número de lápis na mesa, quantas camisetas tenho no guarda-roupa...)
  • Medição instantânea de objetos, sem a necessidade de usar régua AR (qual a altura da parede, ...)

Enquanto isso, Dave Schukin confirmou que o iOS 13 usa ARKit para corrigir o contato visual. Durante uma reprodução mais lenta, você pode perceber como os óculos distorcem repentinamente antes de serem colocados nos olhos.

O desenvolvedor Aaron Brager acrescenta então que o sistema usa uma API especial que está disponível apenas no ARKit 3 e é limitada aos modelos mais recentes do iPhone XS/XS Max e iPhone XR. O iPhone X mais antigo não suporta essas interfaces e a função não estará disponível nele.

Zdroj: 9to5Mac

.