O efeito que desfoca o fundo das fotos para destacar as pessoas ou objetos em primeiro plano já está presente em muitos celulares, desde intermediários até os mais poderosos (e casos). Ao longo do tempo, recebeu vários nomes: modo retrato, bokeh, blur, foco dinâmico, efeito de profundidade, entre outros. O recurso, que deixa as imagens mais sofisticadas, caiu no gosto dos consumidores nos últimos anos.

iPhone XR e XS, Google Pixel 3 e 3 XL, Motorola One e Galaxy Note 9 são alguns dos modelos recentes que fazem fotos com o efeito. Antes exclusivo da fotografia profissional, ele tem sido reproduzido pelas fabricantes de celulares com diversos métodos e de forma cada vez mais eficiente.

Na hora de criar o efeito, o grande desafio é diferenciar o que é o assunto da foto do que é o fundo. Câmeras DSLR e mirrorless têm mecanismos melhores para realizar esse trabalho. Nesses equipamentos, o tamanho do sensor e da abertura das lentes (calculada pela distância focal dividida pelo diâmetro da abertura) influenciam a intensidade do fundo desfocado. Abertura e sensor grandes estão associados à capacidade de focar em uma área mais próxima, ou seja, permitem um campo de profundidade raso. Assim, a câmera pode isolar o objeto principal e borrar o resto. Nos smartphones, porém, o espaço é muito mais limitado. A abertura é fixa na maioria dos smartphones e o sensor tem que ser pequeno, além de ficar posicionado perto da lente.

Para driblar essas restrições, portanto, os telefones recorrem a uma série de soluções. A técnica mais popular hoje é a combinação de duas câmeras – o chamado dual camera, com algumas variações no funcionamento. Há também smartphones com câmera única nos quais tudo é feito por software, um processo que pode incluir a tecnologia de foco automático dual pixel. Em outros casos, o infravermelho é utilizado. Vamos examinar cada estratégia em mais detalhes a seguir.

Câmera dupla

O princípio por trás desse método é simples. Do mesmo modo que as imagens combinadas dos nossos dois olhos criam um senso de profundidade, as duas câmeras em um smartphone também. Por conta do posicionamento levemente distinto, cada lente captura uma imagem um pouco diferente, o que serve de base para a identificação da distância dos elementos. Quanto mais perto está uma coisa, maior a disparidade na posição do que é visto pelas câmeras.

Essa diferença é analisada pelo dispositivo, assim como nossos cérebros processam as informações recebidas pelos olhos, para criar um mapa de profundidade da cena. Um algoritmo então aplica o desfoque no que é identificado como segundo plano.

A precisão desse procedimento melhorou bastante desde que começou a aparecer nos celulares em 2014, sendo que o HTC One M8 foi o pioneiro. Hoje, alguns telefones produzem um bom blur progressivo, em que os objetos vão perdendo o foco gradualmente quanto mais longe estão. Outros ainda deixam que o usuário ajuste o nível de desfoque antes e/ou depois do clique.

Entre os smartphones que utilizam câmera dupla para criar o efeito bokeh, alguns têm sensores com distâncias focais iguais e outros, diferentes. No segundo caso, não é possível usar a funcionalidade em fotografias amplas, feitas pela lente grande-angular, pois a lente teleobjetiva não captura uma segunda perspectiva da imagem inteira, portanto, não consegue criar o mapa. No entanto, o contrário funciona normalmente, e ainda costuma gerar resultados melhores em retratos. O iPhone XS e o Zenfone 5 são alguns modelos com câmeras de distâncias focais distintas.

Além disso, smartphones mais baratos geralmente têm uma seg

... unda câmera de resolução bem baixa, cujo único propósito é mapear a profundidade. Mais recentemente, foram lançados celulares com três ou quatro câmeras, como o Galaxy A9, em que há tipos diferentes de lentes, mas também um sensor só para captar a profundidade de campo.

Outros métodos

Quando o celular tem apenas uma câmera, outras táticas entram em ação, com foco maior no trabalho do software. Nessa tarefa, o Google tem sido provavelmente o mais eficaz. O Pixel 3 utiliza o foco automático dual pixel para determinar quais partes da imagem são o assunto e quais estão mais distantes. Cada pixel no sensor da câmera é feito de dois fotodiodos, o material que detecta luz, o que permite distinguir a luminosidade que vem da direita e da esquerda. Dessa forma, é possível criar duas fotos ligeiramente desiguais.

Devido ao tamanho dessa diferença, é claro que o mapeamento de profundidade não é tão eficiente, então o smartphone recorre ao mesmo tempo a uma análise de inteligência artificial para chegar ao resultado final. Enquanto isso, na câmera frontal do Pixel 3, que não tem o dual pixel, o efeito é produzido apenas por software, com uma rede neural capaz de reconhecer pessoas e animais.

O iPhone XR, que tem apenas uma câmera traseira, também emprega a tecnologia dual pixel junto com inteligência artificial. O celular da Apple só fotografa pessoas no modo retrato, não animais e objetos. Já a câmera frontal do aparelho conta com sensor TrueDepth, que surgiu no iPhone X e é responsável também pelo reconhecimento facial que destrava a tela. Trata-se de um sistema infravermelho que projeta mais de 30 mil pontos de luz e traça um mapa tridimensional da superfície a sua frente. Assim, ao fazer uma selfie, o rosto é identificado e o fundo pode ser borrado.

Vale notar que todos os telefones capazes de tirar fotos com o popular efeito de profundidade têm algum nível de dificuldade para delinear o primeiro plano quando os contornos são mais complexos. Como o efeito não é ótico, o desfoque do fundo é sempre uma espécie de palpite, o que leva às vezes a recortes estranhos e artificiais.



>>> Veja o artigo completo no TechTudo