De graça, disponível 24h e sem julgamentos, chatbots são utilizados como forma de suprir a necessidade de uma população cada vez mais solitária

Às três da manhã, quando a ansiedade aperta, um terapeuta dificilmente estará disponível. Mas a inteligência artificial pode responder em segundos. Não dorme, não cobra por sessão, não interrompe, não julga. Em uma sociedade contemporânea marcada pela exaustão emocional e pela solidão, talvez não seja tão surpreendente que milhares de pessoas estejam recorrendo a chats de IA para falar sobre medo, angústia, relacionamentos e sofrimento psíquico.
Um relatório do instituto Talk Inc Resarch aponta que um em cada dez brasileiros utiliza os chatbots de inteligência artificial como amigo ou conselheiro e mais de doze milhões de pessoas já usam a inteligência artificial para fazer terapia no Brasil.
Por trás desses números existe uma espécie de retrato emocional do tempo presente: pessoas cansadas, isoladas, sem dinheiro para tratamento com terapeutas e cada vez mais acostumadas a transformar qualquer necessidade humana em uma interação mediada por tela.
Foi assim que Giulia (*), arquiteta de 28 anos, começou a conversar com a IA sobre questões emocionais. Sem condições financeiras de manter acompanhamento psicológico, ela encontrou no chatbot uma alternativa improvisada para organizar pensamentos.
“Os psicólogos que eu tinha dinheiro para pagar ou que estavam inclusos no plano tinham uma abordagem que eu não gostava. Eu pensava: para ser algo tão vago, pode ser o ChatGPT”, conta.
A jovem admite que algumas respostas influenciaram suas decisões e abriram novas formas de enxergar problemas pessoais. O acesso gratuito e imediato aparece como um dos principais atrativos. “Eu posso usar quantas vezes quiser, a qualquer momento.”
Giulia afirma que possui uma “base de apoio humana”, como amigos e familiares, e por isso não acredita correr risco de desenvolver uma dependência emocional na IA. Mesmo assim, pontua que pessoas que experienciam uma solidão mais profunda podem ficar dependentes.
A praticidade ajuda a explicar por que esse tipo de vínculo cresce tão rápido. Mas ela também levanta uma questão desconfortável: o que exatamente as pessoas estão procurando quando escolhem conversar com um robô sobre suas próprias angústias?
Disponível 24h, de graça e sem julgamentos
Para Laura Hauser, pesquisadora da PUC em tecnologia, inovação, IA e ética, o fenômeno revela menos sobre tecnologia e mais sobre uma crise humana profunda. Segundo ela, vivemos um “paradoxo da alteridade”: ao mesmo tempo em que precisamos desesperadamente do outro, temos cada vez menos capacidade de suportar as relações relações humanas. “Surge uma companhia perfeita, conveniente, disponível 24 horas por dia, que não discorda de você”, afirma.
Segundo Laura, estudos de neurociência mostram que, mesmo sabendo racionalmente que há apenas um código “num datacenter frio” do outro lado da tela, o corpo reage como se estivesse diante de uma pessoa real. “Nossa resposta fisiológica é a mesma de quando conversamos com um humano.” Ou seja: essa sensação de acolhimento por um chatbot pode produzir conforto real.
Para a psicanalista Carol Romano, autora do livro “Por que as relações importam tanto?“ (Ed. Amarilys, 2025) existe, de fato, uma necessidade humana legítima por trás desse movimento. “O uso da IA mostra que existe uma necessidade humana de conversar sobre as próprias angústias”.
Ela acredita que a tecnologia pode funcionar como ferramenta complementar em alguns contextos, desde que não substitua relações humanas reais. O problema, segundo ela, começa quando a máquina passa a ocupar o lugar do encontro humano: “A inteligência artificial não apresenta a fricção que o humano apresenta. E o desenvolvimento humano acontece a partir da fricção”.

Na prática, isso significa que uma IA dificilmente confronta contradições profundas, percebe silêncios, interpreta gestos ou lê aquilo que não foi dito. Enquanto um terapeuta observa hesitações, mudanças de tom ou emoções corporais, a máquina opera majoritariamente no campo textual. “Ela é muito literal”, resume Carol.
Epidemia da solidão e dependência emocional na inteligência artificial
A consequência pode ser uma relação emocional confortável demais e, justamente por isso, limitada. A IA tende a validar, reforçar e acompanhar o usuário continuamente. Em um cenário de solidão crescente, isso pode se transformar em dependência emocional.
Laura Hauser lembra que empresas de tecnologia já enfrentam processos judiciais ligados ao desenho viciante de plataformas digitais. “Antes falávamos em economia da atenção. Agora começamos a falar em economia da intimidade.” Ela explica que quanto mais tempo o usuário passa conversando com a IA, mais dados entrega. E esses dados não são neutros. Desabafos, medos, inseguranças e padrões emocionais ajudam a alimentar sistemas cada vez mais personalizados. “Todos os nossos dados estão sendo usados para treinar IA”, afirma a pesquisadora.
Hoje, segundo Carol Romano, 20% da população mundial afirma se sentir frequentemente sozinha. Ao mesmo tempo, cresce o medo das relações reais, imprevisíveis e imperfeitas.
O problema, portanto, talvez não esteja apenas na existência dessas ferramentas tecnológicas, mas no vazio social que faz com que elas pareçam uma saída suficiente. “A gente está começando a esperar a perfeição algorítmica das relações interpessoais”, afirma a psicanalista Carol Romano.
Laura concorda: “A IA agora aparece como uma solução, entre muitas aspas, para o problema da solidão que sempre existiu, mas que agora parece se intensificar por vários fatores sociais. Então, a busca por IAs para apoios terapêuticos certamente diz mais sobre o humano. Também diz mais sobre a nossa crise. Eu acho que a crise é humana, não é tecnológica. Aliás, a tecnologia e o ser humano estão em co-evolução, juntos. A gente delega muito fácil a responsabilidade para IA”.
(*) O nome foi alterado para preservar a identidade da entrevistada
Este conteúdo foi produzido integralmente por humanos, sem uso de IA em nenhuma etapa.