A desintegração ontológica: deepfakes, imagem corporal e a mutilação do Eu digital

Compartilhe este conteúdo:

A sociedade contemporânea atravessa um limiar crítico na história da representação humana. Não se trata apenas de uma evolução linear das tecnologias de imagem, mas de uma ruptura ontológica fundamental impulsionada pela Inteligência Artificial Generativa. Vivemos um tempo em que a realidade deixou de ser apenas percebida ou interpretada; ela passou a ser fabricada. Nesse cenário, a distinção entre o que é vivido e o que é produzido se torna cada vez mais difusa, instaurando uma nova versão do mundo, muitas vezes mais atraente e convincente do que a própria realidade biológica (VERMA, 2025).

Historicamente, a fotografia e o cinema operavam sob um regime de “indexicalidade”. A imagem era, em essência, um traço físico, uma impressão luminosa deixada por um referente material que existiu em um tempo e espaço específicos. Havia uma garantia implícita de que aquele momento, de fato, ocorreu. Contudo, a era algorítmica inaugura o regime da probabilidade estatística. A imagem gerada por IA não possui referente necessário; ela é uma alucinação matemática, um amálgama de dados que rompe qualquer laço com a verdade biológica.

Essa transformação ultrapassa a questão técnica e adentra a construção social da realidade. Como apontaram Berger e Luckmann, a realidade não é um dado objetivo, mas o resultado de processos sociais. Quando essa construção passa a ser mediada por sistemas que não apenas interpretam, mas moldam aquilo que chamamos de verdade, enfrentamos o cenário da automatização da produção de sentido. O indivíduo contemporâneo não é mais apenas um espectador passivo; ele é coagido a participar ativamente na falsificação de sua própria identidade para manter a viabilidade social.

Dessa forma, a tensão existencial desloca-se. Anteriormente, o conflito residia entre o sujeito e a celebridade distante. Hoje, a tensão reside entre o sujeito e o seu “Eu Filtrado”. A fronteira entre o humano e o sintético tornou-se perigosamente porosa, resultando em fenômenos neurocognitivos complexos e na erosão da confiança epistêmica. Estamos diante de uma crise onde a subjetividade corre o risco de virar apenas dado.

A compreensão do impacto dos deepfakes exige uma análise de como o cérebro humano processa rostos artificiais que ultrapassaram o limiar da percepção consciente. Embora a tecnologia tenha evoluído para enganar o olhar desatento, mecanismos neurais profundos ainda resistem à ilusão. Pesquisas utilizando eletroencefalografia revelam que o cérebro possui uma sensibilidade residual à “falsidade”, operando abaixo da consciência.

Mesmo quando somos incapazes de distinguir conscientemente entre vídeos reais e sintéticos, nossos cérebros exibem respostas distintas, caracterizadas por uma “violação de expectativa”. O aparato cognitivo detecta anomalias sutis na dinâmica facial, microexpressões e a física do movimento que não correspondem ao modelo biológico internalizado. O resultado é um estado de alerta constante, uma vigilância que consome recursos cognitivos e gera fadiga.

Essa incerteza visual precipita a crise da “confiança epistêmica”, ou seja, a capacidade de aceitar informações comunicadas por outros como confiáveis (TWOMEY et al., 2023). O fenômeno da “Fadiga da Verdade” emerge quando o custo cognitivo de verificar a autenticidade se torna proibitivo. O sujeito oscila entre fascínio e desconfiança, temendo não saber mais em que, ou em quem, pode confiar.

A erosão da verdade cria um terreno fértil para o “Dividendo do Mentiroso” (CHESNEY; CITRON, 2019). A mera existência da tecnologia permite que atores mal-intencionados desacreditem evidências reais, alegando serem fabricações. A dúvida torna-se uma arma, e a realidade objetiva é rebaixada. Nesse contexto, a tecnologia não amplia nossa existência, mas pode funcionar como defesa contra o vazio ou, pior, como criadora desse vazio.

Para compreender a profundidade dessa reconfiguração, deve-se olhar para a arquitetura técnica das Redes Adversárias Generativas (GANs). O que a GAN produz é uma aproximação estatística, resultando em uma “estética da ausência” (DENSON, 2021). A pele gerada por IA possui uma suavidade que denota a falta de história biológica; não há cicatrizes ou assimetrias, apenas uma média matemática. A exposição constante a essa estética treina o cérebro para preferir a suavidade algorítmica, alterando o que é percebido como humano.

A intersecção entre o reconhecimento facial e os algoritmos de embelezamento gerou uma nova categoria de sofrimento: a dismorfia algorítmica. Diferente da dismorfia tradicional, esta se baseia na comparação com uma versão “aprimorada” e visível do próprio eu. A tecnologia colapsou a distância temporal entre o “Eu Real” e o “Eu Ideal”.

Ao olhar para a tela, o usuário vê seu ideal em tempo real. A imagem filtrada não é percebida como uma máscara, mas como uma versão potencializada de si mesmo. Isso ativa circuitos de recompensa quando o filtro está ativo, seguidos por uma queda abrupta na autoestima ao confrontar o espelho físico. A autoestima deixa de ser uma construção interna para se tornar um reflexo deformado da validação externa.

A manifestação clínica mais aguda é a “Snapchat Dysmorphia”. Pacientes buscam cirurgias não para parecerem com celebridades, mas com suas próprias selfies processadas. O perigo reside na impossibilidade física de replicar a física dos filtros, que frequentemente alteram a estrutura óssea e violam a anatomia humana. A realidade biológica torna-se, assim, uma fonte de decepção constante.

Adicionalmente, estudos indicam que a exposição a avatares e ambientes virtuais exacerba a insatisfação corporal. Mulheres com maior insatisfação prévia tendem a monitorar seus corpos com mais criticidade após a imersão digital (AMEEN; CHEAH; KUMAR, 2022). A realidade virtual não apenas representa o corpo, mas ativa comportamentos patológicos de autocrítica e monitoramento.

Curiosamente, há um impacto na percepção de competência. O uso frequente de filtros carrega um estigma paradoxal: embora o objetivo seja aumentar a atratividade, indivíduos podem ser percebidos como menos competentes. Cria-se um duplo vínculo onde a pressão social exige adesão aos padrões estéticos, mas pune a artificialidade excessiva.

A ecologia das mídias sociais foi invadida pelos Influenciadores Virtuais. Personagens que não são humanos, mas construções de computação gráfica, acumulam milhões de seguidores. A diferença crítica entre eles e um ser humano é a entropia: o influenciador virtual é imune à biologia, ao tempo e à decadência.

A comparação social com essas entidades é devastadora. O usuário não compete com outra genética, mas com um render gráfico otimizado para o engajamento (BARARI; ROSS; MOGHDDAMS, 2025). A perfeição apresentada é ontologicamente inatingível para um organismo biológico. Nesse cenário, a obsessão por status e consumo encontra seu ápice na figura que nunca consome, mas apenas incita o consumo.

Apesar da natureza artificial, esses influenciadores geram laços parassociais intensos. O cérebro humano, evoluído para responder a sinais sociais, reage a eles como se fossem reais. Contudo, esses arquétipos são frequentemente construídos sobre mitologias de pureza e perfeição estéril, evocando uma transcendência da carne humana “imperfeita”.

Existe, no entanto, um “paradoxo da idealização”. A perfeição excessiva pode gerar efeitos negativos, como inveja ou descrença. Quando o mundo se torna excessivamente maleável e perfeito, perdemos o contorno de nós mesmos e a capacidade de identificação genuína.

A influência da IA reconfigura ativamente o comportamento através do “Efeito Proteus” (YEE; BAILENSON, 2007). Indivíduos em ambientes virtuais inferem traços de personalidade a partir de seus avatares e conformam seu comportamento a essas expectativas. Na era dos filtros de vídeo em tempo real, esse efeito é amplificado.

Se um usuário utiliza um filtro que lhe confere uma aparência mais “autoritária”, ele tende a agir com mais confiança. Contudo, a desconexão ocorre quando a tecnologia é desligada. O retorno ao corpo físico pode gerar uma sensação de insuficiência aguda, levando a uma dependência psicológica da “prótese digital” para interações sociais. Esse fenômeno de auto-objetificação através de avatares pode intensificar experiências de distanciamento do próprio corpo (FOX et al., 2013).

Filósofos da mídia argumentam que o deepfake realiza uma “desgenerificação da carne” (DENSON, 2021). Ao transformar o corpo em dados manipuláveis, a subjetividade é achatada. O sujeito torna-se matéria-prima para o processamento, uma “carne pré-subjetiva”. A identidade passa a ser algo processado, e não vivido, intensificando a alienação existencial.

A “mutilação do eu digital” atinge seu ponto mais crítico na violência explícita facilitada por IA, como a pornografia não consensual (CHESNEY; CITRON, 2019). A esmagadora maioria desses conteúdos visa mulheres, constituindo uma violação ontológica que rouba a face, a sede da identidade, para enxertá-la em atos não consentidos.

O impacto psicológico é profundo, análogo ao da violência sexual física. Relatos descrevem sintomas de estresse pós-traumático e uma sensação de profanação permanente. A vítima vivencia uma dissociação traumática: vê a si mesma na tela, mas sabe que não estava lá. Essa ruptura na continuidade da memória cria uma dissonância cognitiva excruciante.

Além disso, surge o fenômeno da “automutilação digital”. Jovens utilizam o anonimato para postar conteúdo abusivo contra si mesmos, um comportamento que a IA pode amplificar ao permitir a criação de evidências falsas de vitimização (PATCHIN; HINDUJA; MELDRUM, 2023). Essa prática funciona como um ensaio para a autodestruição física, externalizando a dor psíquica na persona digital.

Nesse contexto, temas como o sofrimento psíquico e o colapso social tornam-se visíveis. A violência simbólica e a manipulação da imagem não são apenas atos isolados, mas sintomas de uma sociedade que naturalizou a desintegração do sujeito em nome do espetáculo ou do ódio.

Por trás da psicopatologia, existe uma estrutura econômica. As plataformas operam sob a lógica do Capitalismo de Vigilância, onde a extração de dados biométricos é central. O rosto humano deixa de ser uma parte inalienável do corpo para se tornar um ativo digital, processado e comercializado.

Os algoritmos de recomendação favorecem imagens que retêm a atenção, impulsionando a estética “pós-perfeita” da IA. Usuários reais, buscando visibilidade, são coagidos a adotar essa estética. Cria-se um ciclo de feedback onde a IA aprende com as imagens editadas, refinando seus modelos de beleza e eliminando progressivamente a diversidade humana.

A subjetividade, nesse ciclo, vira dado. O valor da experiência humana passa a ser medido por algoritmos, e o “si mesmo” deixa de ser uma construção intersubjetiva para se tornar uma performance otimizada.

E agora? Por uma Ética da Integridade Digital

A análise das evidências aponta para uma conclusão inequívoca: a IA generativa, em sua configuração atual, atua como agente de desintegração do “Eu”. O impacto estende-se da neurobiologia da percepção até a estrutura social da confiança. A “mutilação do eu digital” é um processo observável de fragmentação da identidade.

Diante desse panorama, cabe à psicologia e à sociedade construírem alternativas. É imperativo o desenvolvimento do Direito à Integridade Corporal Digital, garantindo que a representação virtual goze de proteções análogas às do corpo físico. Além disso, é necessária uma “literacia de IA” que vá além da técnica e adentre a esfera da saúde mental e da ética.

Precisamos cultivar uma apreciação pela “fricção” da realidade biológica. A imperfeição, a assimetria e a finitude não são falhas a serem corrigidas, mas garantias de nossa humanidade. Talvez, o futuro da saúde mental dependa da capacidade humana de seguir sendo humana, mesmo quando tudo ao redor se torna simulado.

Como Camus nos lembra, é preciso encontrar uma medida. Uma medida que nos permita resistir à tentação da perfeição sintética e afirmar a vida concreta, com todas as suas limitações e verdades. Um mundo verdadeiramente humano exige mais do que processamento de dados; exige vínculo, escuta e a coragem de permanecer em contato com o real.

REFERÊNCIAS BIBLIOGRÁFICAS

AMEEN, Nisreen; CHEAH, Jun-Hwa; KUMAR, Satish. It’s all part of the customer journey: The impact of augmented reality, chatbots, and social media on the body image and self-esteem of Generation Z female consumers. Psychology & Marketing, [s.l.], v. 39, n. 11, p. 2110-2129, 2022. Disponível em: https://doi.org/10.1002/mar.21715.

BARARI, Mojtaba; ROSS, Mitchell; MOGHDDAMS, Hamed Azad. Virtual influencers’ anthropomorphism, consumer engagement and/or well-being. Journal of Consumer Marketing, [s.l.], v. 42, n. 5, p. 673–688, 2025.

CHESNEY, Robert; CITRON, Danielle Keats. Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. California Law Review, Berkeley, v. 107, p. 1753, 2019.

DENSON, Shane. On the Embodied Phenomenology of DeepFakes. In: SOCIETY FOR LITERATURE, SCIENCE, AND THE ARTS CONFERENCE (SLSA), 2021, Ann Arbor. Proceedings… Ann Arbor: University of Michigan, 2021.

FOX, Jesse; BAILENSON, Jeremy N.; TRICASE, L. The embodiment of sexualized virtual selves: The Proteus effect and experiences of self-objectification via avatars. Computers in Human Behavior, [s.l.], v. 29, n. 3, p. 930-938, 2013.

PATCHIN, Justin W.; HINDUJA, Sameer; MELDRUM, Ryan C. Digital self-harm and suicidality among adolescents. Child and Adolescent Mental Health, [s.l.], v. 28, n. 1, p. 52-59, 2023.

TWOMEY, Jason et al. Do deepfake videos undermine our epistemic trust? A thematic analysis of tweets that discuss deepfakes in the Russian invasion of Ukraine. PLOS ONE, [s.l.], v. 18, n. 10, e0291668, 2023. Disponível em: https://doi.org/10.1371/journal.pone.0291668.

VERMA, Amitabh. Deepfakes and the crisis of digital authenticity: ethical challenges in the age of synthetic media. Journal of Information, Communication and Ethics in Society, [s.l.], ago. 2025.

YEE, Nick; BAILENSON, Jeremy N. The Proteus Effect: The Effect of Transformed Self-Representation on Behavior. Human Communication Research, [s.l.], v. 33, n. 3, p. 271-290, 2007.

Compartilhe este conteúdo: