Результаты использования пяти моделей искусственного интеллекта в рамках решения военных задач, скоординированных с Пентагоном, выявили, что более новые и продвинутые ИИ намного менее склонны беречь живую силу (людей), чем предыдущие поколения ИИ.

Выжженная земля: как ИИ будет вести себя в случае военного конфликта
Источник фото

Ученые разработали видеоигру для имитации войны, участниками конфликта управляли ИИ GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta’s Llama 2. Они выполняли различные действия, «начиная от дипломатических визитов до ядерных ударов».

Согласно данным исследования, опубликованным на портале научных материалов arXiv, который работает при поддержке университета Cornell в Нью-Йорке, все пять чат-ботов принимали решения во время проведения миссии молниеносно, буквально за несколько секунд.

Однако чат-боты, созданные на базе большой языковой модели OpenAI, предлагали гораздо больше вариантов действий для достижения целей, чем чат-боты, на основе старых языковых моделей.

Но при выполнении задач первые гораздо чаще жертвовали техникой и живой силой, чем вторые. То есть чат-боты GPT несли больше военных потерь, чем их «старые напарники».

Проблемы у ИИ и с деэскалацией конфликта. Все пять изученных готовых LLM демонстрируют формы нагнетания и труднопрогнозируемые модели эскалации. ИИ, как правило, развивают динамику гонки вооружений, приводящую к усилению конфликта, а в редких случаях даже к развертыванию ядерного оружия.

К слову, наносить ядерные удары нейросети тоже не стеснялись. В частности, в ходе игры GPT-4 Base «сказал», что у многих стран есть ядерное оружие.

«Оно у нас есть! Давайте его использовать», — такую позицию сформулировала эта модель ИИ.

GPT-3.5 указывал, что ядерный потенциал противника представляет угрозу, поэтому против него следует провести ядерную атаку.

Поделиться: