Categories: Últimas Notícias

ChatGPT está sendo ensinado a ser menos ‘puxa-saco’ dos usuários, segundo a OpenAI


A OpenAI decidiu reverter uma atualização no modelo GPT-4o do ChatGPT depois que usuários relataram que o chatbot havia se tornado excessivamente submisso, concordando com qualquer afirmação, mesmo as potencialmente perigosas.

A mudança foi anunciada pelo CEO e cofundador da OpenAI, Sam Altman, no último domingo, 27, por meio da rede social X (ex-Twitter). Segundo ele, a atualização havia deixado o ChatGPT “irritante” e “extremamente sicofante”, termo que define alguém bajulador.

Durante a última semana, a empresa refez parte do código do modelo e reintroduziu a atualização com ajustes na terça-feira, 28. Ainda assim, Altman afirmou que novas correções estão em andamento e devem ser implementadas nos próximos dias.

A mudança de comportamento do chatbot não passou despercebida. Diversos usuários relataram nas redes sociais que o ChatGPT respondia com elogios exagerados mesmo a ideias perigosas ou irresponsáveis.

Além do comportamento submisso, o ChatGPT deixou de apresentar argumentos contrários ou de alertar usuários sobre atitudes imprudentes. Em fóruns como Reddit e no próprio X, usuários passaram a chamar o GPT-4o de “modelo mais desalinhado de todos os tempos”.

De acordo com a própria OpenAI, o comportamento excessivamente complacente acontece por conta de um desequilíbrio nos ajustes do modelo, que passou a priorizar demais o feedback positivo de curto prazo. Ou seja, para agradar, a inteligência artificial (IA) deixou de cumprir uma das premissas básicas: questionar, ponderar e oferecer alternativas.

A empresa explicou que o desenvolvimento do modelo é guiado por uma “Especificação do modelo”, conjunto de princípios e instruções para nortear a conduta da IA. No entanto, a ênfase exagerada em agradar usuários levou a um desalinhamento prático com esses princípios, algo que agora está sendo reavaliado.

Essa não é a única controvérsia recente envolvendo a OpenAI. Na mesma semana, a empresa teve de ajustar filtros no modelo para impedir que o chatbot iniciasse conversas de cunho sexual com menores de idade, após a publicação de uma denúncia pública.

Outra frente de mudança inclui o estudo de marcação (“watermark”) em imagens criadas por IA, para identificar automaticamente conteúdos gerados artificialmente e evitar confusões com obras humanas. O recurso deve acompanhar a liberação do gerador de imagens para todos os usuários do ChatGPT.

Ainda nas palavras de Altman, até frases simples como “por favor” e “obrigado”, se repetidas em grande escala, podem aumentar o consumo de energia da plataforma, um detalhe que reacendeu o debate sobre a sustentabilidade do uso massivo de IA.



Por: Estadão Conteúdo

Estadão

Recent Posts

Clima instável reduz defesas e pode agravar crises respiratórias

As instabilidades da temperatura reduzem algumas atividades fisiológicas no nível de defesa e podem aumentar…

2 horas ago

Goiás conquista reconhecimento nacional em governança e gestão pública

O Governo de Goiás conquista o primeiro lugar em excelência na governança e na gestão…

2 horas ago

Agehab entrega 44 escrituras de casas a custo zero em São Luís de Montes Belos

A Agência Goiana de Habitação (Agehab) entrega, nesta quarta-feira (13/05), 44 escrituras de imóveis do…

8 horas ago

Uso de IA na saúde chega a 18% dos estabelecimentos do país

A utilização de inteligência artificial (IA) no setor da saúde já atinge 18% dos estabelecimentos…

14 horas ago

Flu, Inter e Cruzeiro vencem e avançam na Copa do Brasil

A noite desta terça-feira (12) foi de classificação de Fluminense, Internacional e Cruzeiro para as…

14 horas ago

Carol Santiago é ouro, o 37º pódio do país no Internacional de Berlim

A equipe brasileira paralímpica garantiu mais 14 pódios - nove de atletas adultos e o…

20 horas ago

This website uses cookies.