Свод правил разработан с учетом использования ИИ как в вооруженных силах, так и в мирных целях.

Пентагон

Фото: Shutterstock / Ivan Cholakov

Возможность того, что искусственный интеллект в ближайшем будущем сам сможет формулировать и выполнять боевые задачи, вызывает ожесточенные споры и критику в адрес военных как в США, так и за их пределами.

Работа над документом велась на протяжении 15 месяцев. Военные тесно сотрудничали со специалистами в области искусственного интеллекта (ИИ), учеными и общественностью.

Всего ключевых этических норм для искусственного интеллекта определено пять:

  • Ответственность (человек обязуется разумно подходить к разработке и использованию ИИ);
  • Справедливость (человек будет делать все, чтобы свести к минимуму предвзятость ИИ);
  • Понятность (человеку будет в полной мере понимать, как работать с ИИ, а вся документация будет максимально прозрачной для понимания и унифицированной);
  • Надежность (человек наделит ИИ конкретными функциями и возможностями, которые будут тестироваться на надежность и безопасность в течение всего срока использования ИИ);
  • Управляемость (человек сохранит возможность в любой момент отключать ИИ, если он продемонстрирует признаки незапланированного поведения).

В основу этических норм легли в первую очередь существующие этические нормы вооруженных сил США на основе Конституции США, главы 10 Кодекса США, Закона о войне, а также существующих международных договоров и давних норм и ценностей в области ведения боевых действий.

«США совместно с нашими союзниками и партнерами должны ускорить внедрение искусственного интеллекта, должны лидировать в его применении в целях национальной безопасности, чтобы поддерживать наши стратегические позиции, побеждать на полях сражениях будущего и защищать международный порядок, основанный на правилах», – заявил в этой связи министр обороны Марк Эспер.

По его словам, технологии не должны повлиять на «ответственное и законное» поведение военных.


Сообщает Dknews