Uma pesquisa feita por cientistas no Japão sugere que a inteligência artificial pode aprender melhor quando passa a “conversar consigo mesma”. O estudo, conduzido pelo Instituto de Ciência e Tecnologia de Okinawa (OIST) e publicado na revista Neural Computation, mostra que unir diálogo interno com memória de curto prazo deixa os sistemas mais flexíveis e eficientes.
Na prática, os pesquisadores criaram modelos de IA que fazem pequenos “murmúrios” internos durante o treinamento, algo parecido com o que os humanos fazem ao organizar pensamentos ou tomar decisões. O resultado foi um aprendizado mais rápido e uma adaptação melhor a tarefas novas e mais complexas.
Os testes compararam diferentes tipos de memória em sistemas de IA. Aqueles que tinham múltiplos espaços de memória temporária e eram incentivados a refletir internamente tiveram desempenho superior, especialmente em atividades com várias etapas ou que exigiam alternar entre tarefas.
Siga o Jovem na Mídia nas redes sociais do Instagram, Facebook e Tiktok para não perder nada!
Outro ponto importante é que esse modelo funciona bem mesmo com poucos dados, o que pode reduzir a dependência de grandes bancos de informações — algo comum no treinamento de inteligências artificiais hoje.
Apesar dos bons resultados, os cientistas ainda querem entender como essa abordagem se comporta em situações reais, mais caóticas e imprevisíveis. A ideia é, no futuro, aplicar o método em áreas como robótica doméstica e agricultura, aproximando ainda mais a IA da forma como os humanos aprendem.
Curtiu esse avanço da tecnologia? Você acha que “pensar sozinho” pode deixar a IA mais parecida com a gente? Compartilhe a matéria com os amigos e puxe esse debate 👀🤖



