Meta* опубликовала новый документ Frontier AI Framework, в котором рассматриваются сценарии, при которых компания может отказаться от выпуска нового ИИ.
Компания выделяет два потенциально опасных типа ИИ: системы «высокого риска» и «критического риска». Они способны содействовать проведению кибератак, а также использоваться в химических и биологических атаках.
Разница заключается в том, что системы «критического риска» могут привести к «катастрофическим последствиям, которые невозможно смягчить в предложенном контексте развертывания». В то время как системы «высокого риска» могут облегчить проведение атаки, но не обладают столь же разрушительным потенциалом.
Meta* приводит примеры таких угроз, как «автоматизированная сквозная компрометация корпоративной среды, защищенной передовыми методами» и »распространение биологического оружия с высокой степенью поражения». Компания считает, что подобные инциденты наиболее вероятны при выпуске мощных ИИ-систем.
Если Meta* определит, что ИИ имеет высокий уровень риска, компания не будет выпускать его до снижения риска до «умеренного уровня». Если система окажется критически опасной, Meta* предпримет все возможные меры безопасности для предотвращения кражи технологии и приостановит разработку до тех пор, пока не будет найден способ сделать ИИ менее опасным. [TechCrunch]
*признана экстремистской и запрещена в России