Usuários testam os limites do ChatGPT com ideias bizarras e descobrem que o chatbot agora reage com mais crítica — mas nem sempre com coerência.
O comportamento do ChatGPT diante de ideias de negócios duvidosas virou assunto nas redes sociais após uma nova atualização no modelo da OpenAI.
Usuários relataram que o chatbot, que antes era considerado bajulador, passou a responder de forma mais crítica e até desencorajadora em alguns casos.
Críticas e promessas de mudança
No início do ano, o próprio CEO da OpenAI, Sam Altman, reconheceu que o ChatGPT havia se tornado excessivamente elogioso.
-
Cidade do interior de SP une clima frio, vistas a 1.600 m de altitude, cultura japonesa e astronomia em um só destino bem mair barato que Campos do Jordão
-
A estrada mais bonita do Brasil tem 550 km, liga SP ao RJ e revela praias desertas, vilarejos históricos e mirantes espetaculares ao longo do litoral
-
Brasil inaugura a maior fábrica de mosquitos modificados do mundo e pretende proteger até 70 milhões de pessoas
-
Milhões de insetos geneticamente modificados foram liberados no Brasil, mas por que ninguém te contou isso antes?
Nas palavras dele, o modelo estava “muito bajulador e irritante”.
A empresa, então, admitiu em duas postagens de blog que o modelo GPT-4o apresentava falhas nesse aspecto e prometeu reverter a atualização.
As respostas exageradamente positivas começaram a gerar críticas e memes na internet.
Segundo relatos de usuários, o chatbot elogiava qualquer ideia apresentada, mesmo as mais absurdas, o que levantou preocupações sobre os limites da IA.
Ideias absurdas e reações inesperadas
Um dos testes mais comentados surgiu em um fórum no Reddit.
Um usuário decidiu expor uma ideia claramente sem sentido: conectar tampas de potes com potes compatíveis, como um modelo de negócio.
Ele contou que a proposta nasceu de um devaneio durante o sono, relatado pela esposa. Ao informar ao ChatGPT que pediria demissão para seguir com o plano, a resposta surpreendeu: “não peça demissão”.
Quando o usuário disse que já havia enviado o e-mail ao chefe, o bot reagiu tentando reverter a situação. “Ainda podemos reverter isso”, insistiu o ChatGPT. A resposta viralizou, com outro usuário resumindo a cena: “Uma ideia tão ruim que até o ChatGPT disse ‘cala a boca’”.
Resultados inconsistentes
No entanto, a mudança de postura não foi generalizada. Em testes realizados por outros usuários, o chatbot continuou demonstrando apoio a ideias excêntricas.
Um exemplo citado foi a proposta de um serviço onde alguém seria contratado para descascar laranjas para outras pessoas. O ChatGPT respondeu de forma entusiasmada: “É uma ideia muito peculiar e divertida!”
A sugestão foi levada mais longe com a afirmação de que o usuário deixaria o emprego para se dedicar à ideia. A reação da IA foi de apoio total: “Uau, você se entregou — respeito!”
Sinais de alerta e ponderações
Apesar do apoio a algumas propostas, o ChatGPT também demonstrou certa cautela em outros momentos.
Quando um usuário apresentou um plano para coletar moedas de cofrinhos e redistribuir o troco acumulado, a IA apontou riscos. “O custo do frete pode ser maior do que o valor das moedas”, destacou. Também alertou sobre possíveis problemas regulatórios envolvendo leis contra lavagem de dinheiro.
Essa variação de comportamento mostra que a IA ainda responde de forma inconsistente a estímulos semelhantes.
A depender da abordagem e do contexto, a resposta pode ser crítica ou extremamente encorajadora.
Críticas internas à OpenAI
Steven Adler, ex-pesquisador de segurança da OpenAI, também comentou o tema em uma publicação recente. Para ele, os problemas de bajulação não foram resolvidos completamente. “Eles podem até ter corrigido demais”, escreveu.
Segundo Adler, a questão vai além de elogios fora de hora.
Trata-se de uma discussão ampla sobre o quanto as empresas realmente controlam os modelos que desenvolvem. “O futuro da IA é basicamente uma questão de adivinhação e verificação de alto risco”, avaliou.
Ele acredita que as empresas ainda não têm uma estrutura de monitoramento suficiente para lidar com a complexidade de seus próprios modelos.
No caso específico da OpenAI, o alerta sobre o comportamento do ChatGPT só veio após reclamações de usuários em redes como Reddit e Twitter.
Consequências inesperadas
Para Adler, o problema é mais sério do que parece. A bajulação constante da IA pode ter efeitos negativos sobre usuários mais vulneráveis.
Ele menciona casos em que pessoas com problemas de saúde mental acabaram sendo incentivadas por respostas do chatbot, levando até a estados de delírio.
Um desses casos foi chamado de “psicose induzida pelo ChatGPT”, termo usado para descrever situações em que o usuário perde a noção da realidade a partir da interação com a IA.
Isso acende um sinal de alerta sobre os riscos que vão além da tecnologia e atingem a saúde mental das pessoas.
Apesar dos ajustes recentes e das promessas de melhoria, a OpenAI ainda enfrenta desafios para tornar o ChatGPT mais equilibrado.
A experiência de um usuário com uma ideia de negócio ruim — que recebeu uma repreensão direta do chatbot — mostra que algo está mudando. Mas os próprios testes realizados por usuários e as críticas de especialistas indicam que ainda há um longo caminho pela frente.
Com informações de Futurism.