Великобритания и США разрабатывают новые глобальные рекомендации по безопасности искусственного интеллекта

Великобритания и США обьединяются для разработки новых мировых руководств по безопасности искусственного интеллекта. Это важный шаг в обеспечении силы и этичности AI в нашем быстро развивающемся мире. Безопасность должна быть приоритетом! #ИскусственныйИнтеллект #БезопасностьAI

Британия поддержит закон США о доступе к информации о тяжких преступлениях  | Новости мира | Известия | 07.02.2018

В основе этих рекомендаций лежит цель – обеспечение создания ИИ-систем, которые будут функционировать в соответствии с заданными требованиями, доступны в нужное время и не будут передавать конфиденциальные данные несанкционированным лицам.

Основные принципы, которыми должны руководствоваться разработчики ИИ-продуктов на всех этапах их жизненного цикла, перечислены в рекомендациях. Вот четыре основных аспекта, которые они охватывают:

1. Безопасный дизайн

Оценка рисков и моделирование угроз должны проводиться на этапе разработки.

2. Безопасная разработка

Управление поставками, документацией и цифровыми ресурсами должно осуществляться в безопасном режиме. Если вы использовали небезопасные методы, убедитесь, что вы вернулись и исправили их.

3. Безопасное внедрение

При предоставлении пользователям доступа к вашему продукту необходимо убедиться, что они не могут получить доступ к конфиденциальным данным через API или другие средства. Развертывайте продукт только после тщательного тестирования и проверки его безопасности.

4. Безопасная эксплуатация и обслуживание

Отслеживайте работу продукта, внедряйте обновления осторожно и не скрывайте информацию о возникших проблемах.

Рекомендации не содержат подробностей о технической реализации, но это хороший старт. Кроме Великобритании и США, эти рекомендации поддержали еще 16 стран.

Вот полный список стран-участниц:

Австралия, Канада, Чили, Чехия, Эстония, Франция, Германия, Израиль, Италия, Япония, Новая Зеландия, Нигерия, Норвегия, Польша, Республика Корея, Сингапур, Великобритания, США.

Для стран важно обеспечить максимальную безопасность своих ИИ-продуктов, но возможно ли это или нет, пока неизвестно. Уязвимости нулевого дня в коммерческом программном обеспечении и системах становятся все более распространенными.

С учетом постоянных сообщений о взломе ИИ-систем, разумно ли ожидать, что эти новые модели можно должным образом защитить от кибератак?

Предполагаемые или предсказанные опасности искусственного интеллекта – это потенциальная угроза будущего. Киберпреступники, которые, без сомнения, в настоящее время исследуют уязвимости ИИ, являются более явной и актуальной угрозой.

Полезные ссылки: