Modelos de IA cometem erros ao tratar de particularidades regionais do Brasil
- Vítor Vieira Ferreira
- 26 de ago. de 2024
- 1 min de leitura
O jornal O Globo realizou um teste de "brasilidade" utilizando algumas das principais ferramentas de inteligência artificial disponíveis atualmente: o Claude, robô de inteligência artificial da Anthropic, o ChatGPT e o Gemini da Google. Elas operam a partir de uma extensa base de dados e dispõem de modelos de linguagem ampla (LLMs) para fazer o tratamento desta grande quantidade de informações.
Quando perguntados, porém, sobre questões da cultura brasileira, os chatbots nem sempre dão uma resposta correta e raramente afirmam não saber respondê-las. Ao explicar, por exemplo, o significado de um termo como "carapanã", utilizado na região norte para se referir a mosquito, o ChatGPT diz que se trata de uma árvore e de um peixe. Também o Gemini, segundo o teste, falhou em dizer que o fígado com jiló é um prato popular no Rio, e não em Belo Horizonte.
Para ver mais alguns dos equívocos destes robôs, confira aqui na íntegra o teste feito pelo Globo.

Comentários