Свод правил разработан с учетом использования ИИ как в вооруженных силах, так и в мирных целях.
Возможность того, что искусственный интеллект в ближайшем будущем сам сможет формулировать и выполнять боевые задачи, вызывает ожесточенные споры и критику в адрес военных как в США, так и за их пределами.
Работа над документом велась на протяжении 15 месяцев. Военные тесно сотрудничали со специалистами в области искусственного интеллекта (ИИ), учеными и общественностью.
Всего ключевых этических норм для искусственного интеллекта определено пять:
- Ответственность (человек обязуется разумно подходить к разработке и использованию ИИ);
- Справедливость (человек будет делать все, чтобы свести к минимуму предвзятость ИИ);
- Понятность (человеку будет в полной мере понимать, как работать с ИИ, а вся документация будет максимально прозрачной для понимания и унифицированной);
- Надежность (человек наделит ИИ конкретными функциями и возможностями, которые будут тестироваться на надежность и безопасность в течение всего срока использования ИИ);
- Управляемость (человек сохранит возможность в любой момент отключать ИИ, если он продемонстрирует признаки незапланированного поведения).
В основу этических норм легли в первую очередь существующие этические нормы вооруженных сил США на основе Конституции США, главы 10 Кодекса США, Закона о войне, а также существующих международных договоров и давних норм и ценностей в области ведения боевых действий.
«США совместно с нашими союзниками и партнерами должны ускорить внедрение искусственного интеллекта, должны лидировать в его применении в целях национальной безопасности, чтобы поддерживать наши стратегические позиции, побеждать на полях сражениях будущего и защищать международный порядок, основанный на правилах», – заявил в этой связи министр обороны Марк Эспер.
По его словам, технологии не должны повлиять на «ответственное и законное» поведение военных.
Сообщает Dknews