Свод правил разработан с учетом использования ИИ как в вооруженных силах, так и в мирных целях.
[caption id="attachment_69847" align="aligncenter" width="1000"] Фото: Shutterstock / Ivan Cholakov[/caption]
Возможность того, что искусственный интеллект в ближайшем будущем сам сможет формулировать и выполнять боевые задачи, вызывает ожесточенные споры и критику в адрес военных как в США, так и за их пределами.
Работа над документом велась на протяжении 15 месяцев. Военные тесно сотрудничали со специалистами в области искусственного интеллекта (ИИ), учеными и общественностью.
Всего ключевых этических норм для искусственного интеллекта определено пять:
Сообщает Dknews
- Ответственность (человек обязуется разумно подходить к разработке и использованию ИИ);
- Справедливость (человек будет делать все, чтобы свести к минимуму предвзятость ИИ);
- Понятность (человеку будет в полной мере понимать, как работать с ИИ, а вся документация будет максимально прозрачной для понимания и унифицированной);
- Надежность (человек наделит ИИ конкретными функциями и возможностями, которые будут тестироваться на надежность и безопасность в течение всего срока использования ИИ);
- Управляемость (человек сохранит возможность в любой момент отключать ИИ, если он продемонстрирует признаки незапланированного поведения).
"США совместно с нашими союзниками и партнерами должны ускорить внедрение искусственного интеллекта, должны лидировать в его применении в целях национальной безопасности, чтобы поддерживать наши стратегические позиции, побеждать на полях сражениях будущего и защищать международный порядок, основанный на правилах", – заявил в этой связи министр обороны Марк Эспер.По его словам, технологии не должны повлиять на "ответственное и законное" поведение военных.
Сообщает Dknews