09 de maio de 2026

?? ºC São Paulo - SP
?? ºC Salvador - BA

TikTok reduz descrições geradas por IA após erros absurdos

Tecnologia tecnologia 08/05/2026 16:00 Liv McMahon bbc.com

TikTok recuou de um recurso de IA que resumia incorretamente alguns vídeos na plataforma, incluindo afirmar que uma celebridade era uma fruta.

O TikTok recuou de um recurso de IA que resumia incorretamente alguns vídeos na plataforma, incluindo afirmar que uma celebridade era uma fruta.

As 'visões gerais de IA' da empresa começaram recentemente a aparecer abaixo do conteúdo na plataforma para descrever o que um vídeo estava mostrando ou fornecer mais contexto.

Embora tenha sido lançado apenas para alguns usuários nos EUA e nas Filipinas, os resumos incorretos e bizarros gerados por IA do conteúdo do TikTok - vistos abaixo de vídeos de celebridades como a estrela da plataforma Charli D'Amelio - foram amplamente compartilhados.

De acordo com o TikTok, seus resumos experimentais foram ajustados para sugerir apenas produtos semelhantes aos mostrados nos vídeos.

As mudanças foram relatadas pela primeira vez pelo veículo de notícias Business Insider.

Assim como as Visões Gerais de IA no topo da maioria dos resultados de pesquisa do Google, as visões gerais geradas por IA do TikTok tentavam resumir o conteúdo dos vídeos para alguns usuários quando eles clicavam para ver mais da legenda de um vídeo.

Alguns exemplos capturados por usuários e vistos pela BBC mostravam vídeos na plataforma sendo descritos com precisão, mas o Business Insider também identificou várias visões gerais de IA 'extremamente imprecisas'.

Isso incluiu uma que viu um vídeo da dançarina Charli D'Amelio descrito como uma 'coleção de vários mirtilos com coberturas diferentes', disse a publicação.

Viu resumos gerados por IA igualmente vagos, imprecisos e estranhos em outros vídeos do TikTok de celebridades e artistas, incluindo Shakira e Olivia Rodrigo.

O recurso agora será usado apenas para mostrar informações sobre itens em vídeos, de acordo com o TikTok.

Isso acontece enquanto as empresas de tecnologia buscam implantar mais produtos de IA em suas plataformas para aumentar o engajamento dos usuários. No entanto, alguns desses esforços foram recebidos com reação negativa ou zombaria dos usuários quando essas ferramentas dão errado.

'Cortando água'

Postagens reagindo ao teste do TikTok de visões gerais de IA em seus vídeos começaram a aparecer em janeiro.

Mas parece que os resumos foram disponibilizados de forma mais ampla, com vários usuários e criadores destacando descrições geradas por IA contendo erros absurdos no final de abril.

Um exemplo recente compartilhado no Reddit viu uma apresentação dos dançarinos de salão Reagan e Juli To descrita em uma visão geral de IA no TikTok como 'uma pessoa batendo repetidamente a cabeça com um frango de borracha'.

Outros exemplos compartilhados por usuários do TikTok continham descrições igualmente estranhas.

Por exemplo, visões gerais de IA para dois vídeos separados, nenhum dos quais apresentava violência ou ferramentas, diziam que apresentavam 'uma pessoa batendo repetidamente a cabeça com um martelo'.

De acordo com o TikTok, os usuários podiam denunciar e fornecer feedback sobre as visões gerais de IA.

Mas isso não impediu que alguns especulassem se a plataforma estava 'trollando' seus usuários.

'A nova Visão Geral de IA é tão ruim que parece que tem que ser uma piada', escreveu o usuário e criador do TikTok Brett Vanderbrook ao lado de seu vídeo.

Ele mostrou uma série de exemplos em que o recurso de IA do TikTok criou descrições bizarras para o que estava acontecendo nos vídeos - como um esquete de comédia descrito como alguém 'demonstrando uma nova técnica engenhosa para cortar água'.

Duendes e pizza de cola

O TikTok diz que identificou a causa dos erros e inconsistências da visão geral de IA, sem detalhar o que foi.

Mas ferramentas de IA generativa frequentemente inventam coisas ao responder aos usuários, resumindo ou gerando informações, e os erros podem variar de hilários a potencialmente prejudiciais.

O Google foi amplamente ridicularizado em 2024 depois que seus resultados de Visão Geral de IA disseram aos usuários para comer pedras e 'pizza de cola'.

A Apple enfrentou críticas posteriormente depois que uma ferramenta de IA projetada para resumir notificações criou manchetes falsas para os aplicativos BBC News e New York Times.

A gigante da tecnologia suspendeu o recurso, dizendo que iria melhorá-lo e atualizá-lo.

Desde então, o desenvolvimento da IA continuou, com as empresas alegando que a tecnologia melhorou vastamente em capacidade e precisão, mas as chamadas 'alucinações' persistem.

No entanto, a OpenAI, criadora do ChatGPT, disse recentemente que identificou 'duendes' e 'goblins' se infiltrando nas respostas de seus sistemas - uma peculiaridade que acredita ter surgido depois que uma ferramenta que treinou para ter uma personalidade nerd incentivou a menção às criaturas.

Jurisprudência ou citações falsas aparecendo em documentos judiciais, entretanto, provocaram alertas sobre o uso de IA em ambientes jurídicos, com erros de IA também supostamente causando problemas para alguns governos.