
Meta pode interromper desenvolvimento de IA em caso de riscos extremos
A Meta, empresa controladora do Facebook, Instagram e WhatsApp, divulgou recentemente um documento intitulado “Frontier AI Framework” (Estrutura para IA de Vanguarda), no qual detalha suas políticas de segurança para o desenvolvimento de sistemas de inteligência artificial (IA). No documento, a empresa afirma que poderá interromper o desenvolvimento de um sistema de IA caso identifique riscos extremos associados a ele.
Classificação de riscos
A Meta adota uma classificação de riscos em dois níveis para seus sistemas de IA:
• Risco alto: O sistema facilita uma ação perigosa, mas não a torna viável por si só.
• Risco crítico: O sistema torna a ação perigosa possível, e os riscos não podem ser mitigados durante a implementação.
Esses riscos incluem a possibilidade de os sistemas de IA auxiliarem em ataques cibernéticos, químicos ou biológicos.
Medidas adotadas pela Meta
De acordo com o documento, caso um sistema de IA seja classificado como de risco alto, a Meta poderá optar por não lançá-lo, limitando seu acesso a uma equipe restrita de pesquisadores para prevenir vazamentos. Nessa situação, a empresa trabalharia para mitigar o risco e reduzi-lo a um nível moderado, onde a IA não poderia auxiliar em ataques.
No caso de risco crítico, as medidas seriam mais severas. A Meta pausaria o desenvolvimento do sistema para avaliar se existem barreiras que possam impedir um cenário catastrófico. O acesso seria restrito a um pequeno grupo de especialistas, com medidas adicionais para evitar invasões e vazamentos.
Avaliação dos riscos
A avaliação dos riscos será conduzida por pesquisadores internos e externos, com decisões finais sendo tomadas por executivos de alto escalão da empresa. A Meta reconhece que o campo científico de avaliações de risco em IA ainda não é suficientemente robusto para fornecer métricas quantitativas precisas, o que torna a avaliação qualitativa essencial nesse processo.
Compromisso com a segurança
A iniciativa da Meta reflete uma postura cautelosa diante dos avanços rápidos na área de inteligência artificial. Ao estabelecer diretrizes claras para identificar e mitigar riscos associados ao desenvolvimento de sistemas de IA, a empresa demonstra seu compromisso com a segurança e a responsabilidade no uso dessas tecnologias.
Conclusão
A decisão da Meta de potencialmente interromper o desenvolvimento de sistemas de IA que apresentem riscos extremos destaca a importância de abordagens responsáveis no avanço da inteligência artificial. À medida que a tecnologia continua a evoluir, é crucial que empresas líderes no setor adotem medidas proativas para garantir que o desenvolvimento de IA seja seguro e beneficie a sociedade como um todo.
Fontes: Tecnoblog, Olhar Digital, Exame