Prompts e emoções: muita calma com os divãs chatbotianos

“Quando uma amizade começa a se abalar, geralmente é por acúmulo de pequenas coisas não faladas ou por mudanças na vida de um ou de ambos”, me respondeu o ChatGPT quando lhe pedi para agir como um psicólogo e me orientasse a respeito das minhas preocupações sobre meu relacionamento “um tanto estremecido” com um amigo.

É fato, e isso está comprovado com dados científicos. Milhares de pessoas recorrem a chats de inteligência artificial para desabafar, buscar conselhos ou simplesmente conversar. A Talk Inc, por exemplo, produziu um estudo que aponta isso, além de revelar uma série de outros usos a partir da IA.

Para citar alguns casos sobre os sentimentos em relação à IA, o estudo mostra que 85% têm sentimentos positivos, como esperança e entusiasmo, 68% expressam preocupações, incluindo medo e ansiedade e 62% acreditam que a IA pode aumentar desigualdades sociais. ​

Baixe o estudo da Talk Inc

O estudo foi feito com 1000 pessoas maiores de 18 anos de diferentes regiões e classes sociais do Brasil.

Voltando para a minha “sessão de terapia” — aliás, não vejo a hora na nova temporada de “Sessão de Terapia”, com Selton Mello no papel do terapeuta Caio —, vejam só o que o chatbot da OpenAI me respondeu:

— ChatGPT: “Aqui vai um caminho que você pode seguir para lidar com essa preocupação de forma construtiva”.

  1. Primeiro, entenda o que sente
  • Pergunte a si mesmo: O que exatamente me preocupa? É algo que ele fez, deixou de fazer, uma mudança no comportamento ou algo que você mesmo percebe que mudou em você?
  • Tente separar fatos de interpretações — às vezes, estamos reagindo mais à nossa leitura da situação do que ao que realmente aconteceu.
  1. Depois, avalie o valor da amizade
  • Pense no histórico: essa relação já trouxe mais coisas boas do que ruins? Ela ainda é importante para você?
  • Isso ajuda a decidir se vale a pena investir energia para resolver ou se é hora de aceitar um distanciamento natural.

Usar as plataformas de inteligência artificial como ChatGPT, Copilot, Perplexity e outras que existem e vão surgir oferece riscos e preocupa especialistas.

O professor do Departamento de Engenharia de Teleinformática da Universidade Federal do Ceará, Victor Hugo de Albuquerque, alerta que chatbots de IA ajustam respostas para as nossas perguntas com base em padrões e não em raciocínios, como ocorreria em uma sessão no mundo real como um psicólogo, por exemplo.

“Esses sistemas são cada vez mais sofisticados e treinados para reconhecer os padrões usados no dia a dia, para prever quais palavras ou frases devem vir em sequência, baseadas nas palavras anteriores. Eles não só entendem palavras, mas também conseguem captar o tom, a intenção é ajustar respostas baseadas em padrões, não em um raciocínio”, explica o professor.

Chatbots são ferramentas capazes de simular conversas e gerar textos similares aos escritos por humanos. Essa humanização forjada tem encantado muitos usuários, que passaram a confiar intimidades e angústias a essas ferramentas e encarar a interação como uma sessão de terapia.

“Essa capacidade de capturar contextos e intenções ajuda o chatbot a gerar respostas mais naturais e contextualmente apropriadas, simulando uma conversa humana com mais precisão. Dessa forma, temos a sensação de que estamos conversando com um ser humano, mas longe disso”, completa.

Para se ter ideia do galope da IA na direção do nosso mundo real, o Conselho Federal de Psicologia (CFP) recebe constantemente consultas sobre o uso de inteligência artificial relacionado à psicologia.

“Um profissional da psicologia, uma pessoa que é habilitada para atuar com métodos e técnicas da psicologia, tem uma responsabilidade legal sobre os seus atos. Mas uma tecnologia não pode ser responsabilizada. E, se ela não foi desenvolvida para fins terapêuticos, ela está ainda mais sujeita ao erro, a induzir a pessoa a situações de risco”, alerta a conselheira do CFP, Maria Carolina Roseiro.

“A inteligência artificial pode induzir pessoas a situações de risco”Maria Carolina Roseiro, conselheira do CFP

Do outro lado da moeda

O professor da pós-graduação em psicologia da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) Leonardo Martins é um dos especialistas que compõem o grupo de trabalho do Conselho Federal de Psicologia. Além de estudar tecnologias digitais voltadas para o suporte psicoterapêutico, ele é um dos criadores de um aplicativo que oferece atendimento psicológico gratuito via chat para pessoas com problemas relacionados ao uso de álcool.

Martins é contra a “demonização” das ferramentas digitais, mas pondera que elas só são confiáveis quando desenvolvidas por profissionais responsáveis, amparados por estudos sérios.

Saúde mental: 900 milhões de pessoas com algum transtorno

“A gente tem um cenário de saúde mental de 900 milhões de pessoas com algum transtorno, segundo estimativas da Organização Mundial da Saúde, em especial ansiedade e depressão. Então, a gente tem uma crise importante em relação a esse aspecto de saúde, um cenário de poucos profissionais, que precisam de mais recursos, mas a gente quer que esses recursos ajudem de fato essas pessoas e não que as coloquem mais vulneráveis ainda”, enfatiza.

Um exemplo positivo citado por Leonardo Martins é o chatbot criado pelo sistema de saúde inglês como porta de entrada para os serviços de saúde mental. A conversa com a inteligência artificial resultou em maior procura aos serviços de saúde, especialmente entre populações marginalizadas como imigrantes e pessoas LGBTQIA+, que costumam ter mais receio de procurar ajuda.

O panorama do mundo depois da popularização da IA para nós seres humanos comuns certamente não deve parar por aqui, só tende a se estender. E o Brasil se destaca dentro desse mapa.

Pesquisa feita pela Ipsos e o Google com 21 mil pessoas em 21 países mostrou que em 2024 o Brasil ficou acima da média global no uso de inteligência artificial (IA), com 54% dos brasileiros relatando que utilizaram IA generativa enquanto a média global ficou em 48%.

Baixe o estudo do Google e Ipsos

Bom, daqui para frente talvez os próximos passos, e não descarto este novo cenário, é que com este horizonte que se verticaliza a cada dia, logo teremos no centro dos debates a regulação sobre os limites do que a IA pode nos oferecer diante dos tipos de prompts. Afinal de contas, o mundo humano não pode “perder a mão” ou o seu limitar seu poder de raciocínio para interlocutores chatbotianos.

Recorte da pesquisa da Talk Inc. O documento explora a integração da IA na vida cotidiana dos brasileiros, destacando usos e percepções. ​

Uso e Conhecimento da IA

  • 94% dos brasileiros conhecem ou já ouviram falar de IA. ​
  • 36% utilizam IA na vida pessoal, 9% no trabalho e 18% em ambos. ​
  • 21% aprenderam sobre IA sozinhos, enquanto 52% usam com frequência. ​

Impacto da IA na Vida Cotidiana

  • 57% usam assistentes virtuais para tarefas diárias. ​
  • 31% utilizam ferramentas para melhorar textos e produzir conteúdo. ​
  • 43% dos jovens usam IA para trabalhos escolares e universitários. ​

Sentimentos em Relação à IA

  • 85% têm sentimentos positivos, como esperança e entusiasmo. ​
  • 68% expressam preocupações, incluindo medo e ansiedade. ​
  • 62% acreditam que a IA pode aumentar desigualdades sociais. ​

Preocupações e Benefícios da IA

  • 84% se preocupam com deepfakes e 80% com fake news. ​
  • 34% veem melhorias em tratamentos de saúde como um benefício. ​
  • 50% destacam ganho de tempo como principal vantagem da IA. ​

Desigualdade no Uso da IA

  • O uso de IA varia entre classes sociais, com 61% da classe DE utilizando. ​
  • A classe A utiliza IA principalmente no trabalho, enquanto a classe C usa mais na vida pessoal. ​
  • A adoção da IA é mais recente entre as classes mais baixas. ​

Com informações da Agência Brasil

Linha8
Redes Sociais:
Instagram: @portallinha8
Twitter: @portallinha8
Facebook: https://www.facebook.com/portallinha8

Últimas matérias

spot_imgspot_img

Deixe seu comentário

Por favor digite seu comentário!
Por favor, digite seu nome aqui

spot_imgspot_img