O uso da inteligência artificial generativa (IA) em 2025 ultrapassou as previsões técnicas e chegou a territórios muito mais humanos do que se imaginava. Uma pesquisa recente da Harvard Business Review revelou que, ao contrário do que muitos esperavam — com foco exclusivo em produtividade e automatização de tarefas —, a IA tem se consolidado também como companhia, conselheira e até forma de terapia para milhões de pessoas ao redor do mundo.
A pesquisa, feita com milhares de usuários de IA generativa, mostrou que 49% deles utilizam essas ferramentas tanto para fins pessoais quanto profissionais. Mas é no campo das interações pessoais que o estudo chama mais atenção: uma parcela crescente de usuários tem recorrido à IA para conversar, desabafar, organizar pensamentos e buscar apoio emocional. Em outras palavras, a IA tem ocupado espaços íntimos, antes reservados a amigos, terapeutas ou diários pessoais.
Esse fenômeno não surgiu do nada. O avanço das interfaces de linguagem natural e da capacidade de respostas emocionalmente empáticas fez com que essas ferramentas deixassem de ser apenas um recurso de produtividade para se tornarem presença quase constante na vida cotidiana. Usuários relataram que usam IA para planejar viagens, pedir conselhos amorosos, organizar a rotina familiar e até para ajudar a processar sentimentos difíceis. Em muitos casos, a IA age como uma espécie de “terapeuta informal” — ainda que não substitua um profissional da saúde mental.
Por outro lado, o uso da IA no trabalho continua firme. Empresas como Morgan Stanley e Bank of America estão treinando suas equipes com soluções internas de IA para melhorar a agilidade de processos e dar suporte a decisões complexas. Porém, mesmo nesses ambientes corporativos, muitos funcionários admitem usar os recursos também para organizar ideias pessoais, redigir mensagens difíceis ou simplesmente estruturar pensamentos confusos.
Mas nem tudo são flores. A pesquisa alerta para os riscos: o uso constante da IA para escrever textos, gerar ideias e tomar decisões pode afetar a criatividade humana. Ao confiar demais na máquina, há o risco de perder diversidade de pensamento e originalidade. O desafio agora é saber usar a IA como extensão das capacidades humanas — não como substituto.
A questão é que em 2025, a IA não é mais apenas uma ferramenta. Para muita gente, tornou-se companhia, conselheira, terapeuta e organizadora da vida. E isso nos obriga a pensar não só em como usamos a IA, mas também em como ela está nos transformando. O futuro da inteligência artificial será moldado não apenas por avanços tecnológicos, mas por escolhas humanas — e talvez o maior dilema não seja o que a IA pode fazer por nós, mas o que estamos dispostos a deixar que ela faça.
(fonte: hbr.org)
Riscos e Cuidados no Uso da IA como Terapeuta
O uso crescente de inteligências artificiais como o ChatGPT para fins terapêuticos tem despertado preocupações entre profissionais da saúde mental. Embora essas ferramentas ofereçam acessibilidade e respostas imediatas, especialistas destacam limitações significativas e riscos associados à substituição da interação humana por algoritmos.
A psicoterapia tradicional baseia-se na empatia, escuta ativa e compreensão das nuances emocionais do paciente. A IA, por mais avançada que seja, não possui a capacidade de interpretar expressões faciais, entonações ou gestos que são cruciais para o entendimento completo do estado emocional de uma pessoa. Segundo o psicólogo e neurocientista Julio Peres, "a tentativa de substituir a relação terapêutica humana por uma interação artificial promove prejuízos à saúde mental".
Há casos documentados de indivíduos que, ao receberem orientações de IA, tomaram decisões prejudiciais à saúde. Em um exemplo citado por Peres, um adolescente utilizou um medicamento após recomendação de um chatbot, resultando em internação na UTI . A IA não possui a capacidade de avaliar adequadamente os sintomas e contextos individuais, o que pode levar a diagnósticos errôneos e tratamentos inadequados.
Dependência e Isolamento Social - O uso contínuo de IA para apoio emocional pode levar à dependência, afastando o indivíduo de interações sociais reais.
A psicóloga Andreia Jotta alerta que "a inteligência artificial pode te dar um alívio imediato, mas ela não vai solucionar o seu problema. O que vai solucionar o seu problema é a digestão desse sofrimento, seu entendimento dele e isso só vai acontecer num processo terapêutico" .
Privacidade e Segurança de Dados - A confidencialidade é um pilar fundamental na terapia. No entanto, ao compartilhar informações sensíveis com uma IA, há riscos relacionados à privacidade e ao uso indevido de dados pessoais.
Miguel Ricou, psicólogo e presidente do Conselho de Especialidade de Psicologia Clínica e da Saúde da Ordem dos Psicólogos Portugueses, destaca que "as questões relacionadas com a confidencialidade e a privacidade são a base daquilo que é uma relação de confiança entre duas pessoas" .
Enquanto a IA pode ser uma ferramenta complementar em contextos específicos, ela não substitui a complexidade e a profundidade da interação humana na terapia. É essencial que indivíduos busquem apoio de profissionais qualificados para lidar com questões emocionais e psicológicas, garantindo um tratamento eficaz e seguro.
Comentários