Кажется, сериал «Чёрное зеркало» действительно был предупреждением.
Искусственный интеллект стал одной из самых обсуждаемых тем, во многом благодаря появлению чат-ботов, таких как ChatGPT и DeepSeek. Популярность этих инструментов вызвала опасения по поводу их влияния на различные отрасли и потенциальных рисков, связанных с дезинформацией, нарушением конфиденциальности и использованием в военных целях.
Ведущие компании в области ИИ постоянно работают над обеспечением безопасности технологии. Google уже шесть лет публaликует ежегодный «Отчёт о прогрессе в области ответственного ИИ». В 2024 году компания обновила свой Frontier Safety Framework — набор протоколов, разработанных Google DeepMind для выявления и снижения потенциальных рисков, связанных с продвинутыми моделями ИИ. Обновленный фреймворк включает рекомендации по повышению безопасности, процедуры снижения рисков при развертывании и меры по предотвращению злонамеренного использования систем.
Google подчеркивает важность лидерства демократических стран в развитии ИИ, руководствуясь такими ценностями, как свобода, равенство и уважение прав человека. Компания также обновила свои принципы ИИ, впервые опубликованные в 2018 году.
Примечательно, что из обновленных принципов исчезло упоминание об отказе от использования ИИ в разработке оружия. Ранее Google прямо заявляла, что не будет «разрабатывать или развертывать ИИ» в технологиях, «основной целью или применением которых является причинение вреда людям». Теперь компания сосредоточится на трех основных принципах: смелые инновации, ответственная разработка и развертывание, а также совместный прогресс.
Google не прокомментировала изменение своей позиции, хотя ранее сотрудники компании выступали против использования ИИ в военных целях. В 2018 году почти 4000 сотрудников подписали письмо с требованием разорвать контракт с Министерством обороны США по проекту Maven, который предполагал использование ИИ для анализа данных с беспилотников. В прошлом году сотрудники Google DeepMind также призывали компанию прекратить связи с военными организациями, ссылаясь на принципы ИИ.