A Meta anunciou que poderá interromper o desenvolvimento de sistemas de IA considerados excessivamente perigosos. A decisão, revelada em um novo documento da empresa, surge em meio a crescentes preocupações sobre os riscos potenciais da inteligência artificial.
A nova política marca uma mudança na abordagem “aberta” da Meta para o desenvolvimento da tecnologia.
IAs de “risco crítico”: o que preocupa a Meta?
O documento descreve tipos de sistemas que a Meta considera muito arriscados para lançamento. Como aqueles capazes de auxiliar em ataques cibernéticos, químicos e biológicos. A empresa ilustra a gravidade desses riscos com exemplos como a proliferação de armas biológicas e a invasão automatizada de sistemas corporativos.
A avaliação de risco da Meta é baseada na análise de pesquisadores internos e externos. Diante da identificação de um sistema de “alto risco”, por exemplo, a Meta promete restringir o acesso.
No caso de um sistema classificado como “risco crítico”, a Meta se compromete a implementar salvaguardas de segurança, como interromper o desenvolvimento até que o sistema se torne menos perigoso.
zuckerberg meta
Nova política marca uma mudança na abordagem “aberta” da Meta para o desenvolvimento da IA
O relatório da Meta representa uma resposta às críticas sobre sua abordagem de desenvolvimento de IA. A empresa tem sido notória por tornar sua tecnologia de IA abertamente disponível, em contraste com empresas como a OpenAI, que optam por proteger seus sistemas.
Essa estratégia de “lançamento aberto” tem sido um divisor de águas para a Meta. Sua família de modelos de IA, Llama, acumula centenas de milhões de downloads. No entanto, essa mesma abertura gerou preocupações, com relatos de que o Llama foi usado para desenvolver um chatbot de defesa por um adversário dos EUA, segundo o TechCrunch.
Logo do Meta AI em um smartphone, que repousa ao lado de um notebook
Nova política marca uma mudança na abordagem “aberta” da Meta para o desenvolvimento da tecnologia.
Fonte Olhar Digital
(Imagem:(Imagem: Tada Images/Shutterstock)