Meta pode interromper o desenvolvimento de IA em caso de risco extremo
Providencias podem ser tomadas caso se identifique um risco associado à tecnologia
A Meta divulgou um documento sobre suas diretrizes de segurança em Inteligência Artificial (IA), no qual afirma que pode interromper o desenvolvimento de um sistema caso identifique um risco extremo associado à tecnologia. Além disso, a empresa pode optar por não lançar um produto caso o risco seja classificado como alto.
O documento, intitulado 'Frontier AI Framework' (ou 'Estrutura para IA de vanguarda', em tradução livre), possui 21 páginas. Ele apresenta informações sobre o modelo de classificação adotado pela bih tech e os critérios
A Meta define duas classificações de risco para seus IAs, como: alto e crítico. Nos dois casos, a preocupação envolve o uso em ataques de cibersegurança, químicos ou biológicos. Contudo, há uma diferença entre eles: em nível de risco alto, o sistema pode facilitar uma ação, mas não se torna viável. Já no nível crítico, a tecnologia possibilita a ação e não há formas eficazes de mitigação durante a implementação.
Coletiva