Na era do smartphone, as edições digitais instantâneas para melhorar as fotos tornaram-se comuns, desde o aumento das cores até o ajuste dos níveis de luz.
Agora, uma nova geração de ferramentas para smartphones alimentadas por inteligência artificial (IA) está aumentando o debate sobre o que significa fotografar a realidade.
Os smartphones mais recentes do Google lançados na semana passada, o Pixel 8 e o Pixel 8 Pro, vão um passo além dos dispositivos de outras empresas. Eles estão usando IA para ajudar a alterar as expressões das pessoas nas fotografias.
É uma experiência que todos nós já tivemos: uma pessoa em uma foto de grupo desvia o olhar da câmera ou não sorri. Os telefones do Google agora podem examinar suas fotos para misturar e combinar expressões anteriores, usando o aprendizado de máquina para colocar um sorriso de uma foto diferente na imagem. O Google chama isso de Melhor Tomada.
É uma experiência que todos nós já tivemos: uma pessoa em uma foto de grupo desvia o olhar da câmera ou não sorri. Os telefones do Google agora podem examinar suas fotos para misturar e combinar expressões anteriores, usando o aprendizado de máquina para colocar um sorriso de uma foto diferente na imagem. O Google chama isso de Melhor Tomada.
‘Nojento e assustador’
Para alguns observadores, isto levanta novas questões sobre como tiramos fotografias.
A nova tecnologia de IA do Google foi descrita de várias maneiras por comentaristas e revisores de tecnologia como potencialmente “nojenta” (The Verge), “assustadora”(Tech Radar) e com potencial para “representar sérias ameaças à confiança (já frágil) das pessoas sobre o conteúdo online” (CNET).
Andrew Pearsall, fotógrafo profissional e professor sênior de Jornalismo na Universidade de Gales do Sul, concordou que a manipulação da IA apresenta perigos.
“Uma simples manipulação, mesmo por razões estéticas, pode nos levar por um caminho sombrio”, disse ele.
Esta fotografia foi editada usando o AI Magic Editor do Google para mudar a posição e o tamanho das pessoas em primeiro plano.
Novo software
A qualidade e o software da câmera são fundamentais para a empresa competir com Samsung, Apple e outras – e esses recursos de IA são vistos como um ponto de venda exclusivo.
E todos os críticos que levantaram preocupações sobre a tecnologia elogiaram a qualidade das fotos do sistema de câmera.
“Se houvesse uma versão [da foto que você tirou] em que aquela pessoa estava sorrindo, ela mostraria para você. Mas se não houvesse uma versão em que ela sorrisse, sim, você não verá isso”, explicou ele. .
Para Reynolds, a imagem final torna-se uma “representação de um momento”. Em outras palavras, aquele momento específico pode não ter acontecido, mas é a imagem que você queria que acontecesse, criada a partir de vários momentos reais.
‘As pessoas não querem a realidade’
O professor Rafal Mantiuk, especialista em gráficos e displays da Universidade de Cambridge, disse que é importante lembrar que o uso da IA em smartphones não visa fazer com que as fotografias pareçam reais.
“As pessoas não querem capturar a realidade”, disse ele. “Eles querem capturar belas imagens. Todo o pipeline de processamento de imagens em smartphones tem como objetivo produzir imagens bonitas – e não reais.”
As limitações físicas dos smartphones fazem com que eles dependam do aprendizado de máquina para “preencher” informações que não existem na foto.
Isso ajuda a melhorar o zoom, melhorar as fotografias com pouca luz e – no caso do recurso Magic Editor do Google – adicionar elementos às fotografias que nunca existiram ou trocar elementos de outras fotos, como substituir uma carranca por um sorriso.
A manipulação de fotografias não é nova – é tão antiga quanto a própria forma de arte. Mas nunca foi tão fácil aumentar o real graças à inteligência artificial.
Algoritmos
No início deste ano, a Samsung foi alvo de críticas pela forma como utilizou algoritmos de aprendizagem profunda para melhorar a qualidade das fotos tiradas da Lua com os seus smartphones. Os testes descobriram que, para começar, não importava quão ruim fosse a imagem tirada, ela sempre dava uma imagem utilizável.
Em outras palavras – sua foto da Lua não era necessariamente uma foto da Lua que você estava olhando.
A empresa reconheceu as críticas, dizendo que está trabalhando para “reduzir qualquer confusão potencial que possa ocorrer entre o ato de tirar uma foto da Lua real e uma imagem da Lua”.
Sobre a nova tecnologia do Google, Reynolds diz que a empresa adiciona metadados às suas fotos – a pegada digital de uma imagem – usando um padrão da indústria para sinalizar quando a IA é usada.
“É uma questão sobre a qual conversamos internamente. E conversamos bastante. Porque trabalhamos nessas coisas há anos. É uma conversa e ouvimos o que nossos usuários estão dizendo”, afirma.
Google Pixel
O Google está claramente confiante de que os usuários concordarão – os recursos de IA de seus novos telefones estão no centro de sua campanha publicitária.
Então, existe um limite que o Google não cruzaria quando se trata de manipulação de imagens?
Reynolds disse que o debate sobre o uso da inteligência artificial era muito matizado para simplesmente apontar para uma linha na areia e dizer que estava longe demais.
“À medida que você se aprofunda na construção de recursos, você começa a perceber que uma linha é uma espécie de simplificação exagerada do que acaba sendo uma decisão muito complicada, recurso por recurso”, diz ele.
Embora estas novas tecnologias suscitem considerações éticas sobre o que é e o que não é realidade, o professor Mantiuk disse que devemos também considerar as limitações dos nossos próprios olhos.
Ele disse: “O fato de vermos imagens coloridas nítidas é porque nosso cérebro pode reconstruir informações e inferir até mesmo informações que faltam.
“Então, você pode reclamar que as câmeras fazem ‘coisas falsas’, mas o cérebro humano na verdade faz a mesma coisa de uma maneira diferente.”
Fonte: BBC News
Comente este post