Recriar fotos por meio de inteligência artificial se tornou uma tendência nas redes sociais e entre os criadores de conteúdo. Mas, por trás da tecnologia capaz de transformar uma selfie em um retrato hiper-realista, esconde-se um problema ainda sem solução definitiva: a falta de regulamentação clara sobre o uso de dados pessoais.
Ao enviar imagens para plataformas de IA, muitos usuários não percebem que estão abrindo mão do controle sobre esses dados — o que pode representar sérios riscos à privacidade e à integridade digital.
O especialista em Tecnologia e Marketing de Influência André Maini, que atua como Head de B.I. e Novas Tecnologias na agência ID. Impulso Digital, alerta para os perigos de recriar fotos em plataformas de IA. Segundo ele, imagens enviadas a essas plataformas podem ser usadas para treinar modelos de inteligência artificial sem o consentimento explícito do usuário, servindo até como base para deepfakes e outras formas de manipulação de imagem.
“As pessoas não se dão conta de que, ao aceitarem os termos de uso de certas plataformas, estão permitindo que suas imagens sejam reutilizadas para fins desconhecidos. Muitas vezes, essas fotos podem ser reaproveitadas de maneira comercial ou vazadas, sem qualquer controle posterior por parte do usuário”, explica Maini.
De acordo com o especialista, os riscos de recriar fotos com IA incluem desde o uso indevido de dados visuais sensíveis — como rostos, ambientes domésticos e até marcas de objetos pessoais — até a disseminação de conteúdos enganosos baseados nessas imagens.
“O problema central reside nos termos de uso das plataformas. Muitos desses termos permitem o reaproveitamento das imagens geradas e até mesmo das imagens originais enviadas, muitas vezes para fins que o usuário desconhece. É essencial diferenciar plataformas seguras, com políticas alinhadas a regulamentações como a LGPD e a futura Lei de IA, daquelas que operam com baixa transparência”, alerta.
Saiba mais:
- Veja 5 formas de usar o ChatGPT para ajudar a fazer seu TCC
- WhatsApp ganha novo recurso para evitar compartilhamentos de conversas para aplicativos externos
Recriar fotos no ChatGPT é seguro?
Mesmo plataformas populares e bastante utilizadas, como o ChatGPT da OpenAI, estão no centro desse debate. Segundo Maini, imagens enviadas ao ChatGPT podem ser utilizadas para o treinamento de seus modelos, a menos que o usuário desative essa função nas configurações de privacidade.
A plataforma oferece diferentes níveis de controle de dados:
- Imagens enviadas ao ChatGPT podem ser utilizadas para treinar os modelos da OpenAI.
- Usuários podem desativar essa opção nas configurações de privacidade.
- As versões gratuita e Plus oferecem controle ao usuário para desativar o uso de dados para treinamento.
- Existe um modo de chat temporário que não salva nem reutiliza informações.
- Nas versões corporativas (Enterprise/Team), os dados não são utilizados para treinamento por padrão, oferecendo maior segurança e conformidade com regulamentações como SOC 2 Type 2.
- A OpenAI aplica testes de segurança, incluindo avaliações de terceiros. No entanto, o envio de imagens sensíveis ainda representa risco, especialmente se o usuário não ajustar as configurações de privacidade.
Nenhuma inteligência artificial é neutra
Apesar dessas proteções, o envio de imagens sensíveis continua a representar um risco, especialmente se o usuário não ajustar manualmente suas configurações de privacidade. Segundo Maini, é possível usar essas ferramentas de forma criativa e recreativa, desde que o usuário tenha consciência dos riscos e evite enviar imagens pessoais sensíveis.
O especialista também recomenda a leitura atenta dos termos de uso e destaca:
“Nenhuma IA é neutra ou isolada, e o que é compartilhado pode alimentar uma base global amanhã”.