top of page

Modelos de IA cometem erros ao tratar de particularidades regionais do Brasil

  • Foto do escritor: Vítor Vieira Ferreira
    Vítor Vieira Ferreira
  • 26 de ago. de 2024
  • 1 min de leitura

O jornal O Globo realizou um teste de "brasilidade" utilizando algumas das principais ferramentas de inteligência artificial disponíveis atualmente: o Claude, robô de inteligência artificial da Anthropic, o ChatGPT e o Gemini da Google. Elas operam a partir de uma extensa base de dados e dispõem de modelos de linguagem ampla (LLMs) para fazer o tratamento desta grande quantidade de informações.


Quando perguntados, porém, sobre questões da cultura brasileira, os chatbots nem sempre dão uma resposta correta e raramente afirmam não saber respondê-las. Ao explicar, por exemplo, o significado de um termo como "carapanã", utilizado na região norte para se referir a mosquito, o ChatGPT diz que se trata de uma árvore e de um peixe. Também o Gemini, segundo o teste, falhou em dizer que o fígado com jiló é um prato popular no Rio, e não em Belo Horizonte.


Para ver mais alguns dos equívocos destes robôs, confira aqui na íntegra o teste feito pelo Globo.

 

 
 
 

Posts recentes

Ver tudo

Comentários


bottom of page