Provocando o ChatGPT

Por Flávio Dutra

11/03/2024 14:51 / Atualizado em 11/03/2024 14:50
Provocando o ChatGPT

Descobri recentemente novas qualidades, ou propriedades, no ChatGPT, depois de conseguir dele o porquê a goiaba é associada a caduquices em geral, tema da coluna anterior. Agora, decidi qualificar um pouco mais a relação com a tal tecnologia disruptiva. Assim, solicitei que comentasse sobre os escritores que utilizam seus préstimos e depois saem a criticá-lo. O ChatGPT assume uma postura super sincera e muito humilde para quem detém a quase totalidade do conhecimento humano. "Como inteligência artificial, eu não possuo emoções, então não tenho opiniões pessoais sobre os usuários que utilizam meus serviços", foi a resposta.

Note-se que usei aspas em serviço como forma de me posicionar, já que sou humano e posso fazer isso sobre o comportamento do Chat, diferente dele que banca o isentão diante de um questionamento mais provocativo. Só falta um toque de cinismo para a plataforma ficar mais próxima das reações humanas. Será que o ChatGPT, assim como a Barbie do filme, está virando gente? 

Para testá-lo, na verdade, para provocá-lo, submeti ao ChatGPT o parágrafo acima, pedindo para que corrigisse e comentasse. Interessa mesmo é o comentário:

O texto parece tratar da experiência do autor em relação ao ChatGPT e a forma como ele lida com os comentários e críticas sobre seu desempenho. Vamos fazer algumas observações:

Na primeira frase, não há erros, mas é interessante notar que o autor descobriu qualidades no ChatGPT que antes desconhecia. É importante elucidar quais são essas qualidades mais adiante no texto.

Na segunda frase, o termo correto é "detém" (com "m") e não "detem". Além disso, não ficou claro o que o ChatGPT faz quando é solicitado a comentar sobre escritores que o utilizam e, posteriormente, o criticam.

O uso das aspas em "serviço" para se posicionar como humano é adequado, mas pode ser mais claro para evitar ambiguidade, especificando a situação que levou ao uso dessas aspas.

O termo "isentão" não é muito comum e pode não ser entendido por todos os leitores. É importante considerar uma palavra mais clara ou acrescentar uma explicação.

O autor menciona "um toque de cinismo" como algo que falta para o ChatGPT se assemelhar mais às reações humanas. No entanto, é essencial lembrar que o ChatGPT é uma inteligência artificial e não tem emoções, nem personalidade, como cinismo.

Comparar o ChatGPT com a Barbie do filme pode ser um recurso literário, mas precisa ser contextualizado melhor para que o leitor compreenda completamente a analogia.

Em resumo, o texto precisa ser mais claro na comunicação das qualidades do ChatGPT que o autor descobriu, bem como na contextualização das comparações feitas. Além disso, é importante evitar usar termos ou referências que podem não ser amplamente compreendidos. Lembre-se sempre de que o ChatGPT é uma inteligência artificial e não possui emoções ou personalidade própria.

Era só o que me faltava: levar xixi da Inteligência Artificial. Mais uma demonstração de que o ChatGPT está virando gente.