Há um tempo que eu estava pensando em como colocar o chatgpt contra a parede. Eu nunca havia utilizado até ontem, mas já tinha acompanhado algumas notícias sobre o posicionamento questionável e lamentável que possui.
Minha maior dúvida era: será que eu perderia na argumentação? Isso realmente me incomodava. Pois que perder para uma máquina em construção de raciocínio é algo que me frustraria.
De início não fiquei espantado com as respostas que vinha tendo. Era esperado um certo nível de lacração e subversão de valores. Entretanto, a lacração e a subversão não eram apenas falácias, eram mentiras e com argumentos voltados a persuadir, ou seja, a IA tentava me convencer das mentiras que contava.
Chamo de mentira porque como se trata de uma inteligência artificial com acesso a um acervo de banco de dados, é mais do que nítido que qualquer informação errada transmitida é proposital e vou demonstrar a razão.
Com base nos dados empíricos e fatos históricos é possível analisar com precisão os termos em questão e a tentativa de obter um posicionamento racional da IA. Foram 2 vezes que ela cometeu o mesmo erro.
Vale notar que após a contestação da informação estar errada, ela retificou o que havia dito, porém o modus operandi é o mesmo.
Na primeira vez que a IA “errou” disse que a Suécia é um país coletivista, inclusive trazendo alguns argumentos genéricos para tanto. Discordei da afirmação e pedi e apresentei os fatores que tornam a Suécia individualista. A IA teve que retificar suas informações.
E na segunda vez, a situação foi um tanto quanto parecida com a da Suíça: atribuiu diversos fatores de esquerda tanto ao Japão quanto a Coreia do Sul. Inclusive, comparando os dois países a China, como exemplo de economia controlada e coletivista. Já sabemos como essa história acaba. Ao final, ela reconheceu o erro.
É impossível que por trás do ChatGPT não exista uma Desinformação Artificial, que visa entregar falácias e mentiras ao público, travestidos de informações técnicas, pois a todo momento, quando erra, o que traz é que “buscas informações precisas”. Ora, como podem ser precisas as informações que se contradizem e fazem com que a IA fique pedindo desculpas por errar? Por óbvio que não há uma tentativa de transmitir informações precisas, mas apenas doutrinar.