Notícias

Meta pode interromper o desenvolvimento de IA em caso de risco extremo

Providencias podem ser tomadas caso se identifique um risco associado à tecnologia

A Meta divulgou um documento sobre suas diretrizes de segurança em Inteligência Artificial (IA), no qual afirma que pode interromper o desenvolvimento de um sistema caso identifique um risco extremo associado à tecnologia. Além disso, a empresa pode optar por não lançar um produto caso o risco seja classificado como alto.

O documento, intitulado ’Frontier AI Framework’ (ou ‘Estrutura para IA de vanguarda’, em tradução livre), possui 21 páginas. Ele apresenta informações sobre o modelo de classificação adotado pela bih tech e os critérios

A Meta define duas classificações de risco para seus IAs, como: alto e crítico. Nos dois casos, a preocupação envolve o uso em ataques de cibersegurança, químicos ou biológicos. Contudo, há uma diferença entre eles: em nível de risco alto, o sistema pode facilitar uma ação, mas não se torna viável. Já no nível crítico, a tecnologia possibilita a ação e não há formas eficazes de mitigação durante a implementação.

Compartilhar:

ÚLTIMAS NOTÍCIAS

Relacionados

CADASTRE-SE
Captcha obrigatório
Seu e-mail foi cadastrado com sucesso!

Aviso: se você optou por parar de receber nossos e-mails e deseja voltar à nossa lista, ou está com dificuldades para se cadastrar, entre em contato com a Redação pelo formulário Fale Conosco e informe seu nome e o e-mail que deseja incluir.