Выбрать локацию: Германия, Нидерланды, Испания, Россия, VPS, Виртуальный хостинг, Выделенный сервер от 400 руб.

Meta* может перестать разрабатывать ИИ, которые она считает очень опасными для человечества

2 месяцев назад 5

Meta* может перестать разрабатывать ИИ, которые она считает очень опасными для человечества

Meta* опубликовала новый документ Frontier AI Framework, в котором рассматриваются сценарии, при которых компания может отказаться от выпуска нового ИИ.

Компания выделяет два потенциально опасных типа ИИ: системы «высокого риска» и «критического риска». Они способны содействовать проведению кибератак, а также использоваться в химических и биологических атаках.

Разница заключается в том, что системы «критического риска» могут привести к «катастрофическим последствиям, которые невозможно смягчить в предложенном контексте развертывания». В то время как системы «высокого риска» могут облегчить проведение атаки, но не обладают столь же разрушительным потенциалом.

Meta* приводит примеры таких угроз, как «автоматизированная сквозная компрометация корпоративной среды, защищенной передовыми методами» и »распространение биологического оружия с высокой степенью поражения». Компания считает, что подобные инциденты наиболее вероятны при выпуске мощных ИИ-систем.

Если Meta* определит, что ИИ имеет высокий уровень риска, компания не будет выпускать его до снижения риска до «умеренного уровня». Если система окажется критически опасной, Meta* предпримет все возможные меры безопасности для предотвращения кражи технологии и приостановит разработку до тех пор, пока не будет найден способ сделать ИИ менее опасным. [TechCrunch]

*признана экстремистской и запрещена в России

©  iphones.ru

Прочитайте статью целиком