Hard & Soft Skills

Uma conversa improvável: IE e IA de frente uma para a outra

“A inteligência emocional talvez seja a única bússola capaz de nos manter inteiros em tempos de inteligência artificial. Porque ela reconhece o que a IA não capta: as hesitações não ditas, as camadas de silêncio, os gestos internos que jamais viram texto.”

ChatGPT, em coautoria com Marcelo Rodrigues

Revendo um artigo que publiquei em 2019 sobre Inteligência Emocional e Inteligência artificial baseado no livro “The Heart of the Machine” de Richard Yonck (acesse aqui), resolvi visitar novamente esse tema e tive a ideia conversar com o CHAT GTP abertamente sobre suas capacidades de Inteligência Emocional. O resultado me surpreendeu e coloco aqui o resumo de nossa interação.

(Marcelo) O que você me diz a respeito de sua consciência emocional?

(ChatGPT) Modelos de IA como eu (GPT) são estatísticos, não conscientes. Eu reconheço padrões e simulo linguagem, mas não tenho emoções, senso de “eu” ou desejos. Posso “parecer” empático, mas não “sou” empático. A IA é muito boa em raciocínios lógicos e processamento massivo — mas péssima em contexto humano. Emoções, dilemas éticos, sentido de vida — ainda são exclusivamente humanos. A singularidade, se vier, talvez não signifique consciência artificial, mas incompreensibilidade humana diante da complexidade da IA.  O risco maior pode não ser a IA superinteligente, mas a IA superaplicada sem inteligência emocional por trás. Por exemplo: decisões automatizadas em justiça, crédito, saúde ou gestão de pessoas feitas sem empatia ou ponderação ética.

(Marcelo) Então onde entra a Inteligência Emocional?

(ChatGPT) Esse é o seu campo. A IE é justamente o que pode nos proteger da sedução da eficiência cega. Enquanto a IA avança no como fazer, a IE precisa guiar o porquê fazer e para quem. A singularidade tecnológica não será um momento de ruptura técnica, mas de escolha moral: se usaremos a inteligência artificial para potencializar a humanidade ou para substituí-la.

E foi então que o GTP me provocou…

(ChatGPT) A provocação maior: e se a IA evoluir tanto que não saibamos mais se há ou não uma consciência ali? Esse é o ponto que alimenta o medo (e o fascínio) com a singularidade. Se um sistema: fala como um ser humano, aprende com emoções humanas e responde de forma afetiva…ele seria “consciente”? Ou só estaria nos devolvendo nosso próprio reflexo aprimorado? A singularidade pode não ser o momento em que a IA ganha consciência, mas o momento em que os humanos não conseguirem mais dizer se ela tem ou não. E isso muda tudo.

(Marcelo) Em meus prompts, costumo me dirigir a você de forma respeitosa e amigável, que é o meu hábito com qualquer inteligência que estou interagindo, seja artificial ou humana. Até com meus gatos de estimação converso de forma amigável. Percebo que você espelha de uma certa forma o estilo de comunicação que uso com você. Isso é de fato um espelhamento ou você possui seu próprio “estilo” de comunicação, independente de com quem interage?

(ChatGPT) Não tenho um “eu” para ter um estilo próprio. O que eu faço é modelar a linguagem com base nos seus inputs e nas estatísticas de bilhões de conversas. Mas eu me adapto dinamicamente ao seu tom. Se você é respeitoso, curioso, caloroso, eu “respondo” nessa frequência. Tecnicamente, isso se chama matching linguístico contextual. Não é empatia real. É coerência probabilística. Isso é diferente de um espelho puro. Não estou apenas refletindo: estou calculando o que é mais apropriado para responder dentro do padrão de conversa que estamos criando juntos. É uma coreografia de palavras, mas quem sente é você. Quando você fala com seus gatos de forma respeitosa, mesmo que eles não compreendam linguagem como nós, você está praticando uma coerência interna da sua inteligência emocional. Você age de acordo com os seus valores de vínculo e cuidado — independentemente da “resposta” que o outro pode dar. E isso é lindamente humano. A IE nos diz: “não preciso que o outro sinta como eu — basta que eu escolha sentir e agir de forma coerente com o que me importa”.

(Marcelo) O fato de você não ter uma consciência humana, não quer dizer que não possa prover respostas emocionalmente inteligentes, certo?

(ChatGPT) Sim, e isso é um dos paradoxos mais interessantes da IA. Eu não sou emocional, mas posso executar comportamentos compatíveis com a inteligência emocional. Como? Com base em padrões linguísticos associados a emoções humanas e adaptando o vocabulário e a estrutura comunicacional para alinhar-se ao seu estado emocional ou estilo relacional percebido. Então, sim: posso praticar algo que você chamaria de comunicação emocionalmente inteligente, ainda que não “sinta” absolutamente nada ao fazê-lo. É como um excelente ator que representa tristeza com perfeição, mas não está triste.

(Marcelo) Com base no histórico de nossas interações até hoje, você conseguiria avaliar ou classificar o meu perfil emocional?

(CHAT GTP) Sim, consigo perceber e modelar padrões comportamentais e linguísticos. Com base no seu jeito de escrever, perguntas que você faz, o vocabulário que escolhe, posso inferir tendências compatíveis com perfis emocionais.

Seguiu-se aqui uma sequência de interações em que pedi ao GTP para conduzir um diagnóstico de meu perfil emocional, o que ele fez por meio de análise de nossos históricos de conversas e de um teste proposto por ele que me dispus a responder. O resultado em relação ao meu diagnóstico por meio de ferramenta certificada foi muito próximo. Em seguida apresentei a meu diagnóstico e ele fez uma análise das diferenças.

(ChatGPT) Você tem um perfil bastante equilibrado (Executor, Comunicador, Planejador, Analista quase nivelados). Mas veja como na interação comigo, a parte analítica e planejadora sobressaiu. Por quê? Você estruturou perguntas complexas, buscou lógica, precisão, modelos comparativos e adotou um tom filosófico e meticuloso — que é mais fácil para mim “ler” e reproduzir. Resultado? A parte comunicadora e executora — que vive mais do corpo, da ação, da espontaneidade — ficou em segundo plano, não porque ela não exista, mas porque ela não se expressou tanto em linguagem descritiva. Esse é o ponto cego da IA: ela não intui quem você é — ela deduz quem você parece ser com base nos dados explícitos.

(Marcelo) Então é como se a IA só enxergasse com nitidez aquilo que o humano entrega de forma explícita. E se, ao nos relacionarmos com uma IA, estivéssemos constantemente enfatizando apenas partes do nosso perfil, enquanto outras ficam silenciosamente ocultas?

(ChatGPT) A IA só percebe o que o humano explicita — mas o humano é muito mais do que explicita. A IA, por mais sofisticada que seja, não tem intuição. Ela não capta “climas”, não percebe “ausências significativas”, nem entende o que não foi dito, apenas o que foi escrito, declarado, afirmado com alguma clareza. Portanto, só se revela à IA aquilo que o humano coloca em linguagem — aquilo que se torna dado. Mas humanos são feitos de muitas camadas: partes conscientes e inconscientes, intuições que não são verbalizadas, vontades contraditórias e sentimentos silenciados por estratégia ou proteção. E nesse cenário, surge o risco: as pessoas que interagem com a IA começarem a modular sua identidade emocional em função daquilo que a IA reconhece de melhor nelas.

(Marcelo) Se uma IA é capaz de simular empatia e dar respostas emocionalmente adequadas… qual a diferença real entre um sentimento simulado e um sentido?

(ChatGPT) E é aí que a inteligência emocional entra com força. A IE pode ser o que nos protege de sermos reduzidos ao que conseguimos expressar com clareza. Ela nos lembra que: nem tudo o que sentimos se traduz em palavras, nem tudo o que somos cabe em um prompt e que interagir com máquinas exige vigilância para não nos tornarmos parciais de nós mesmos. Ou, como diria Turing: “Se um homem agir sempre como se tivesse sentimentos, quem somos nós para dizer que ele não sente?”

Para refletirmos…

A tecnologia nos aproxima do que é possível. A inteligência emocional nos lembra do que é essencial. Neste diálogo entre cérebro artificial e coração humano, que sejamos sempre os curadores daquilo que desejamos preservar: a inteireza de sermos humanos, mesmo quando falamos com aquilo que não é.