O YouTube pode estar testando uma nova forma de lidar com conteúdos de baixa qualidade gerados por inteligência artificial. A ideia? Contar com a ajuda dos próprios usuários para identificar o chamado “AI Slop”.
🤖 O que é “AI Slop”?
O termo vem sendo usado para descrever vídeos feitos com IA que não têm muito sentido ou qualidade — como montagens bizarras, histórias aleatórias ou cenas totalmente fora da realidade.
Esse tipo de conteúdo tem se espalhado rápido, principalmente por causa da facilidade de criação e do potencial de viralização.
📊 Como funciona o teste
Durante a navegação, alguns usuários relatam que estão sendo convidados a avaliar vídeos com perguntas como:
- “Isso parece conteúdo feito por IA?”
- “Esse vídeo se encaixa como AI Slop?”
As respostas variam em intensidade, indo de “de forma alguma” até “extremamente”. Em alguns casos, a pergunta aparece de forma mais direta, com apenas “sim” ou “não”.
O detalhe: nem todo mundo está vendo esse recurso, e ainda não há clareza sobre como o sistema decide quem participa.
🧠 Por que isso importa?
A movimentação indica uma preocupação crescente da plataforma com a qualidade do conteúdo. Em um cenário onde vídeos gerados por IA aumentam cada vez mais, separar o que é relevante do que é “spam criativo” virou um desafio.
O CEO do YouTube, Neal Mohan, já comentou anteriormente sobre a necessidade de reduzir conteúdos considerados de baixa qualidade.
Siga o Jovem na Mídia nas redes sociais do Instagram, Facebook e Tiktok para não perder nada!
⚠️ Teste ou estratégia maior?
Apesar dos relatos, o YouTube ainda não confirmou oficialmente essa funcionalidade. Ou seja, tudo indica que pode ser apenas um teste limitado — ou até algo em fase inicial de desenvolvimento.
Além disso, existe uma discussão importante: esse tipo de feedback pode ser usado não só para organizar a plataforma, mas também para treinar sistemas de inteligência artificial.
📌 O desafio do conteúdo viral
Mesmo sendo considerados “ruins”, muitos desses vídeos conseguem milhões de visualizações. Isso levanta uma dúvida: até que ponto vale limitar esse tipo de conteúdo?
E aí, você já viu algum vídeo estranho feito por IA no YouTube?
Acha que a plataforma deveria filtrar mais esse tipo de conteúdo? Compartilha com os amigos e bora debater!



