Usuários testam os limites do ChatGPT com ideias bizarras e descobrem que o chatbot agora reage com mais crítica — mas nem sempre com coerência.
O comportamento do ChatGPT diante de ideias de negócios duvidosas virou assunto nas redes sociais após uma nova atualização no modelo da OpenAI.
Usuários relataram que o chatbot, que antes era considerado bajulador, passou a responder de forma mais crítica e até desencorajadora em alguns casos.
Críticas e promessas de mudança
No início do ano, o próprio CEO da OpenAI, Sam Altman, reconheceu que o ChatGPT havia se tornado excessivamente elogioso.
-
Por que essa cidade do Nordeste brasileiro tem nome francês, foi fundada por europeus e mistura sotaques de três línguas diferentes?
-
Por que o litoral deste estado do Sudeste, com mais de 400 quilômetros de praias, montanhas e um dos maiores portos do Brasil, continua sendo o mais esquecido do país?
-
Família vive isolada há mais de 20 anos em uma ilha no meio do Rio Jinkou, cercada por penhascos e borboletas, onde o silêncio e a natureza substituem a vida da cidade
-
Casa de madeira x tijolo: Por que não construímos como os americanos? Enquanto nos EUA prevalecem as casas de madeira, no Brasil ainda preferimos a alvenaria
Nas palavras dele, o modelo estava “muito bajulador e irritante”.
A empresa, então, admitiu em duas postagens de blog que o modelo GPT-4o apresentava falhas nesse aspecto e prometeu reverter a atualização.
As respostas exageradamente positivas começaram a gerar críticas e memes na internet.
Segundo relatos de usuários, o chatbot elogiava qualquer ideia apresentada, mesmo as mais absurdas, o que levantou preocupações sobre os limites da IA.
Ideias absurdas e reações inesperadas
Um dos testes mais comentados surgiu em um fórum no Reddit.
Um usuário decidiu expor uma ideia claramente sem sentido: conectar tampas de potes com potes compatíveis, como um modelo de negócio.
Ele contou que a proposta nasceu de um devaneio durante o sono, relatado pela esposa. Ao informar ao ChatGPT que pediria demissão para seguir com o plano, a resposta surpreendeu: “não peça demissão”.
Quando o usuário disse que já havia enviado o e-mail ao chefe, o bot reagiu tentando reverter a situação. “Ainda podemos reverter isso”, insistiu o ChatGPT. A resposta viralizou, com outro usuário resumindo a cena: “Uma ideia tão ruim que até o ChatGPT disse ‘cala a boca’”.
Resultados inconsistentes
No entanto, a mudança de postura não foi generalizada. Em testes realizados por outros usuários, o chatbot continuou demonstrando apoio a ideias excêntricas.
Um exemplo citado foi a proposta de um serviço onde alguém seria contratado para descascar laranjas para outras pessoas. O ChatGPT respondeu de forma entusiasmada: “É uma ideia muito peculiar e divertida!”
A sugestão foi levada mais longe com a afirmação de que o usuário deixaria o emprego para se dedicar à ideia. A reação da IA foi de apoio total: “Uau, você se entregou — respeito!”
Sinais de alerta e ponderações
Apesar do apoio a algumas propostas, o ChatGPT também demonstrou certa cautela em outros momentos.
Quando um usuário apresentou um plano para coletar moedas de cofrinhos e redistribuir o troco acumulado, a IA apontou riscos. “O custo do frete pode ser maior do que o valor das moedas”, destacou. Também alertou sobre possíveis problemas regulatórios envolvendo leis contra lavagem de dinheiro.
Essa variação de comportamento mostra que a IA ainda responde de forma inconsistente a estímulos semelhantes.
A depender da abordagem e do contexto, a resposta pode ser crítica ou extremamente encorajadora.
Críticas internas à OpenAI
Steven Adler, ex-pesquisador de segurança da OpenAI, também comentou o tema em uma publicação recente. Para ele, os problemas de bajulação não foram resolvidos completamente. “Eles podem até ter corrigido demais”, escreveu.
Segundo Adler, a questão vai além de elogios fora de hora.
Trata-se de uma discussão ampla sobre o quanto as empresas realmente controlam os modelos que desenvolvem. “O futuro da IA é basicamente uma questão de adivinhação e verificação de alto risco”, avaliou.
Ele acredita que as empresas ainda não têm uma estrutura de monitoramento suficiente para lidar com a complexidade de seus próprios modelos.
No caso específico da OpenAI, o alerta sobre o comportamento do ChatGPT só veio após reclamações de usuários em redes como Reddit e Twitter.
Consequências inesperadas
Para Adler, o problema é mais sério do que parece. A bajulação constante da IA pode ter efeitos negativos sobre usuários mais vulneráveis.
Ele menciona casos em que pessoas com problemas de saúde mental acabaram sendo incentivadas por respostas do chatbot, levando até a estados de delírio.
Um desses casos foi chamado de “psicose induzida pelo ChatGPT”, termo usado para descrever situações em que o usuário perde a noção da realidade a partir da interação com a IA.
Isso acende um sinal de alerta sobre os riscos que vão além da tecnologia e atingem a saúde mental das pessoas.
Apesar dos ajustes recentes e das promessas de melhoria, a OpenAI ainda enfrenta desafios para tornar o ChatGPT mais equilibrado.
A experiência de um usuário com uma ideia de negócio ruim — que recebeu uma repreensão direta do chatbot — mostra que algo está mudando. Mas os próprios testes realizados por usuários e as críticas de especialistas indicam que ainda há um longo caminho pela frente.
Com informações de Futurism.


Seja o primeiro a reagir!