Vivemos um tempo em que a realidade deixou de ser apenas percebida ou interpretada, ela passou a ser fabricada. Vídeos hiper-realistas, vozes artificiais, imagens sintéticas. Tudo gerado por Inteligências Artificiais que aprendem, com inquietante precisão, a capturar nossos desejos antes mesmo que os formulemos. Nessa paisagem digital, a distinção entre o que é vivido e o que é produzido se torna cada vez mais difusa. E talvez esse seja o ponto: não se trata de representar o real, mas de instaurar uma nova versão dele, mais atraente, mais envolvente, mais convincente do que o próprio mundo.
Esse fenômeno ultrapassa a questão técnica. Estamos diante de uma nova fase da construção social da realidade (Berger & Luckmann, 1985), agora mediada por sistemas que não apenas interpretam, mas moldam aquilo que chamamos de verdade. São algoritmos que não só respondem a comportamentos, mas os antecipam, os sugerem, os fabricam.
Cenas que antes pertenciam à ficção científica, rostos que choram com emoção sem jamais terem existido, discursos políticos que nunca foram proferidos, celebridades promovendo produtos que nunca tocaram tornam-se cada vez mais comuns. Nas redes sociais, os chamados deepfakes e os conteúdos sintéticos povoam nossos feeds com uma naturalidade inquietante. A pergunta já não é “isso é verdadeiro?”, mas “por que isso me afeta tanto?”. Essas construções não refletem o mundo, mas os desejos que projetamos sobre ele, desejos esses extraídos de nossos rastros digitais: cliques, curtidas, padrões de consumo e afeto.
A psicologia social nos lembra que a realidade é uma construção contextual e relacional. Contudo, quando essa construção passa a ser mediada por inteligências não-humanas, capazes de gerar conteúdos altamente personalizados e em larga escala, enfrentamos um novo cenário: o da automatização da produção de sentido. Como sugeriu Piaget (1999), o desenvolvimento mental depende de uma equilibração entre o sujeito e o meio. Mas o que acontece quando esse meio é artificial, moldado para se adaptar continuamente ao sujeito, sem exigir dele qualquer adaptação real? O equilíbrio, nesse caso, é ilusório. E essa ilusão pode se tornar perigosa.
No campo da saúde mental, os efeitos dessa nova ecologia simbólica ainda estão sendo investigados, mas os primeiros sinais são inquietantes. Um deles é a desregulação emocional provocada pela exposição constante a conteúdos intensos, rápidos e moralmente ambíguos. O sujeito oscila entre fascínio e desconfiança: por um lado, sente-se seduzido pela estética e coerência das narrativas artificiais; por outro, teme não saber mais em que, ou em quem, pode confiar. Não se trata apenas de uma crise de informação, mas de uma crise de identidade. Quando o mundo se torna excessivamente maleável, também perdemos o contorno de nós mesmos.
Além disso, há um impacto silencioso, mas profundo, sobre o senso de pertencimento. A IA não produz apenas conteúdo, mas também os critérios de relevância social. Aquilo que aparece nas redes como “real” não é o que aconteceu, mas o que foi mais engajado. Cria-se, assim, um ciclo de retroalimentação em que o valor da experiência humana passa a ser medido por algoritmos. O si mesmo, nesse contexto, deixa de ser uma construção intersubjetiva para se tornar uma performance otimizada, pensada para agradar à máquina. A subjetividade vira dado.
Essa transformação simbólica tem implicações importantes para a psicologia clínica. Quando o sujeito perde o contato com uma realidade compartilhada, com vínculos, narrativas e pertencimentos comuns, abre-se espaço para o adoecimento. A literatura da psicologia familiar, por exemplo, destaca que a saúde emocional se estrutura em redes intergeracionais de sentido, afeto e pertencimento (Baptista & Teodoro, 2012). Se essas redes são desfeitas ou substituídas por realidades múltiplas, fragmentadas e artificiais, o sujeito pode perder o chão simbólico que o sustenta. E é justamente aí que o sofrimento psíquico se instala: na forma de angústias difusas, crises existenciais silenciosas, sensação de desalojamento.
Diante desse panorama, cabe à psicologia não apenas compreender os impactos, mas também construir alternativas. Afinal, se a realidade está sendo reprogramada, talvez seja hora de reprogramarmos também as formas de cuidado, escuta e acolhimento que oferecemos.
A experiência humana sempre dependeu de consensos compartilhados, ainda que frágeis, sobre o que é o mundo e como habitá-lo. Como apontaram Berger e Luckmann (1985), a realidade não é um dado objetivo, mas o resultado de processos sociais de institucionalização, sedimentação e legitimação. No entanto, na era das inteligências artificiais, essas instituições, como a ciência, a mídia ou mesmo os vínculos familiares perdem força diante de tecnologias que criam universos sob medida. Deixamos de compartilhar um mundo para passar a compartilhar uma interface.
Nas redes sociais, a personalização de conteúdo criou um fenômeno que poderíamos chamar de solidão algoritmizada. Cada sujeito mergulha em um fluxo de confirmações, onde suas crenças são reforçadas e o que poderia desafiá-las é silenciado (Pariser, 2011). Essa bolha não é fruto do acaso, mas de sistemas projetados para manter a atenção — e, com ela, o engajamento. Para isso, manipulam emoções intensas como medo, raiva, desejo e nostalgia. O resultado é uma erosão gradual do senso de realidade comum. Como sugeriu Piaget (1999), é como se houvesse uma regressão egocêntrica da estrutura cognitiva: o outro deixa de ser referência para o pensamento e passa a ser percebido como ruído ou ameaça.
Esse cenário traz implicações profundas para a clínica psicológica. Já não basta mediar o conflito entre desejo e realidade, é preciso intervir na própria constituição da realidade. O que escutamos em consultórios e serviços de saúde mental são relatos de desconexão, de deslocamento subjetivo, de um sentimento de estar sozinho em meio a um mundo hiperconectado, mas desprovido de sentido compartilhado. Em especial entre adolescentes, cresce a angústia existencial gerada pela constante comparação com versões idealizadas de existência, muitas delas criadas ou editadas por IA. A autoestima, nesse contexto, não é uma construção interna, mas um reflexo deformado da validação externa mediada por algoritmos.
Outro aspecto crítico é a naturalização da desinformação como linguagem cotidiana. Quando conteúdos falsos, bem editados e emocionalmente apelativos recebem mais atenção do que informações verificáveis, a própria noção de verdade perde valor funcional. E isso não afeta apenas o campo da informação, afeta os vínculos. Como destacam Baptista e Teodoro (2012), a saúde psíquica está profundamente ligada à previsibilidade e coesão nas relações. Quando o fluxo de dados fragmenta essas bases, surge uma nova pergunta clínica: não apenas “o que é verdade?”, mas “em quem posso confiar para organizar meu mundo?”.
Ainda assim, é importante evitar leituras catastrofistas. A tecnologia em si não é o problema. As inteligências artificiais também podem atuar como ferramentas terapêuticas, fontes de criação e dispositivos de mediação. O risco está no modo como essas tecnologias são integradas aos processos sociais e subjetivos. Como já advertia Piaget, o desenvolvimento saudável ocorre quando há trocas com o ambiente que desafiem o sujeito sem desintegrá-lo. Hoje, porém, o que vemos com frequência é o oposto: ambientes que confirmam tudo, anestesiam o conflito e dissolvem o sujeito em versões fragmentadas de si mesmo.
Para os profissionais da psicologia, o desafio se torna urgente: precisamos criar espaços de resistência simbólica. Lugares de escuta, de diálogo e de reconstrução coletiva de sentido. Isso não implica negar a tecnologia, mas compreender sua atuação crítica e eticamente. Afinal, talvez o futuro da saúde mental não dependa tanto das inteligências artificiais, mas da capacidade humana de seguir sendo humana, mesmo quando tudo ao redor se torna simulado.
Diante da nova ecologia informacional moldada por inteligências artificiais, o papel da psicologia não pode mais se restringir à escuta do sofrimento individualizado. É necessário ampliar o olhar clínico para os atravessamentos sociotécnicos que constituem a experiência subjetiva contemporânea. Uma parcela significativa do sofrimento psíquico atual emerge não apenas de conflitos internos, mas de um colapso simbólico coletivo, onde aquilo que outrora era tecido em linguagem compartilhada se fragmenta em experiências hiperpersonalizadas, desvinculadas da realidade comum.
Na prática clínica, esse cenário exige um reposicionamento ético e técnico. O terapeuta passa a operar como mediador entre mundos: de um lado, a vivência íntima do sujeito; de outro, uma realidade social permanentemente reconfigurada por tecnologias cuja lógica escapa à percepção crítica cotidiana. Trabalhar com psicoeducação digital torna-se, nesse contexto, mais do que um recurso complementar, passa a ser parte essencial da escuta clínica. A proposta não é denunciar o falso, mas reconstruir o que ainda é confiável: nos vínculos, nas narrativas pessoais, nas emoções que resistem à manipulação.
Do ponto de vista ético e político, torna-se urgente reavaliar os limites da responsabilidade individual. Não se pode delegar exclusivamente aos usuários ou aos profissionais de saúde mental o ônus de lidar com os efeitos colaterais de sistemas algorítmicos criados para capturar atenção e moldar comportamento. O desenvolvimento de inteligências artificiais demanda regulação clara, políticas públicas consistentes e a participação ativa de psicólogos, educadores, filósofos e cientistas sociais nos espaços decisórios. A verdade, no século XXI, não será apenas uma questão de fatos, mas também de design. E isso nos convoca a proteger a integridade da experiência humana como um bem coletivo.
No campo educacional, isso implica reconhecer o letramento midiático e a crítica epistemológica como competências fundamentais desde os primeiros anos de formação. Se a IA é capaz de produzir com facilidade realidades que parecem verdadeiras, torna-se essencial formar subjetividades aptas a sustentar a ambiguidade, praticar o diálogo e discernir o verdadeiro não apenas pela forma, mas pelo sentido. Afinal, como bem lembra a psicologia social, a mentira mais perigosa é aquela que se apresenta com as cores da verdade.
Berger e Luckmann (1985) já nos alertavam: uma realidade é reconhecida como tal não apenas por sua consistência lógica ou perceptiva, mas por sua validação social. Quando essa validação se dissolve, o risco é que a sociedade se converta em uma justaposição de solitudes paralelas, cada uma com seu feed, sua verdade, seu mundo.
Diante disso, talvez a pergunta mais urgente não seja “o que a IA é capaz de criar?”, mas “o que nós ainda somos capazes de sustentar?”. Um mundo verdadeiramente humano exige mais do que processamento de dados. Exige vínculo, escuta, simbolização e a coragem de permanecer em contato com o não-saber. E, até onde sabemos, esses ainda são atributos que nenhuma máquina foi capaz de simular com autenticidade.
Referências:
BAPTISTA, Maria Célia; TEODORO, Maria Lúcia. Terapia familiar sistêmica: princípios teóricos e prática clínica. Petrópolis: Vozes, 2012.
BERGER, Peter L.; LUCKMANN, Thomas. A construção social da realidade: tratado de sociologia do conhecimento. 26. ed. Petrópolis: Vozes, 1985.
NICKERSON, Raymond S. Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, Washington, v. 2, n. 2, p. 175–220, 1998. DOI: https://doi.org/10.1037/1089-2680.2.2.175.
PARISER, Eli. The filter bubble: what the internet is hiding from you. New York: Penguin Press, 2011.
PIAGET, Jean. Equilibração das estruturas cognitivas: problema central do desenvolvimento. Rio de Janeiro: Zahar, 1999.
SUNSTEIN, Cass R. #Republic: divided democracy in the age of social media. Princeton: Princeton University Press, 2017.