😰 Meta pode interromper desenvolvimento de IA em caso de riscos extremos

Meta pode interromper desenvolvimento de IA em caso de riscos extremos

Meta pode interromper desenvolvimento de IA em caso de riscos extremos

A Meta, empresa controladora do Facebook, Instagram e WhatsApp, divulgou recentemente um documento intitulado “Frontier AI Framework” (Estrutura para IA de Vanguarda), no qual detalha suas políticas de segurança para o desenvolvimento de sistemas de inteligência artificial (IA). No documento, a empresa afirma que poderá interromper o desenvolvimento de um sistema de IA caso identifique riscos extremos associados a ele. 

Classificação de riscos

A Meta adota uma classificação de riscos em dois níveis para seus sistemas de IA:

Risco alto: O sistema facilita uma ação perigosa, mas não a torna viável por si só.

Risco crítico: O sistema torna a ação perigosa possível, e os riscos não podem ser mitigados durante a implementação.

Esses riscos incluem a possibilidade de os sistemas de IA auxiliarem em ataques cibernéticos, químicos ou biológicos. 

Medidas adotadas pela Meta

De acordo com o documento, caso um sistema de IA seja classificado como de risco alto, a Meta poderá optar por não lançá-lo, limitando seu acesso a uma equipe restrita de pesquisadores para prevenir vazamentos. Nessa situação, a empresa trabalharia para mitigar o risco e reduzi-lo a um nível moderado, onde a IA não poderia auxiliar em ataques.

No caso de risco crítico, as medidas seriam mais severas. A Meta pausaria o desenvolvimento do sistema para avaliar se existem barreiras que possam impedir um cenário catastrófico. O acesso seria restrito a um pequeno grupo de especialistas, com medidas adicionais para evitar invasões e vazamentos. 

Avaliação dos riscos

A avaliação dos riscos será conduzida por pesquisadores internos e externos, com decisões finais sendo tomadas por executivos de alto escalão da empresa. A Meta reconhece que o campo científico de avaliações de risco em IA ainda não é suficientemente robusto para fornecer métricas quantitativas precisas, o que torna a avaliação qualitativa essencial nesse processo. 

Compromisso com a segurança

A iniciativa da Meta reflete uma postura cautelosa diante dos avanços rápidos na área de inteligência artificial. Ao estabelecer diretrizes claras para identificar e mitigar riscos associados ao desenvolvimento de sistemas de IA, a empresa demonstra seu compromisso com a segurança e a responsabilidade no uso dessas tecnologias.

Conclusão

A decisão da Meta de potencialmente interromper o desenvolvimento de sistemas de IA que apresentem riscos extremos destaca a importância de abordagens responsáveis no avanço da inteligência artificial. À medida que a tecnologia continua a evoluir, é crucial que empresas líderes no setor adotem medidas proativas para garantir que o desenvolvimento de IA seja seguro e beneficie a sociedade como um todo.

Fontes: Tecnoblog, Olhar Digital, Exame

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima