Meta ajusta temporariamente as políticas relacionadas ao chatbot de IA para adolescentes
Na sexta-feira, horário local, a Meta afirmou que, devido às preocupações dos legisladores sobre segurança e conversas inadequadas, a empresa está ajustando temporariamente suas políticas relacionadas ao chatbot de IA para o público adolescente.
Um porta-voz da Meta confirmou que o gigante das redes sociais está atualmente treinando seu chatbot de IA para que ele não gere respostas para adolescentes sobre temas como automutilação, suicídio e distúrbios alimentares, além de evitar possíveis diálogos emocionais inadequados.
A Meta declarou que, em momento apropriado, o chatbot de IA passará a recomendar recursos de ajuda de instituições especializadas para adolescentes.
Em um comunicado, a Meta afirmou: “À medida que nossa base de usuários cresce e a tecnologia evolui, continuamos estudando como os adolescentes interagem com essas ferramentas e fortalecendo as medidas de proteção de acordo.”
Além disso, adolescentes que utilizam aplicativos da Meta, como Facebook e Instagram, no futuro só poderão acessar determinados chatbots de IA, que são voltados principalmente para oferecer suporte educacional e desenvolvimento de habilidades.
Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
Top 3 Potenciais Líderes de Mercado do Próximo Ciclo: Ozak AI, Bitcoin e Solana

O momento HTTPS da privacidade do Ethereum: de ferramenta defensiva a infraestrutura padrão
Resumo de dezenas de palestras e discussões do evento “Ethereum Privacy Stack” no Devconnect ARG 2025, abordando a “reconstrução holística do paradigma da privacidade”.

Doando 256 ETH, Vitalik aposta em mensagens privadas: por que Session e Simplex?
Quais diferenciais essas ferramentas de mensagens focadas em privacidade estão buscando? E em qual roteiro técnico Vitalik está apostando novamente?

