Более 1 100 исследователей, экспертов и руководителей отрасли по развитию ИИ, а также основателей IT-компаний, включая главу SpaceX, Tesla и Twitter Илона Маска, сооснователя Apple Стива Возняка, гендиректора Stability AI Эмада Мостака, призвали «поставить на паузу» разработку ИИ в открытом письме, которое опубликовано на сайте некоммерческой организации Future of Life Institute.

По меньшей мере до того, как для отрасли будут разработаны общие протоколы и стандарты безопасности, применение которых будет проверяться независимыми аудиторами. А пока авторы письма предлагают ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4 компании OpenAI. Если же такую паузу нельзя взять быстро, то, по мнению экспертов, «правительства должны вмешаться и ввести мораторий».
«Системы искусственного интеллекта могут представлять серьезные риски для общества и человечества. Продвинутый AI несет с собой глубокие изменения в жизни на Земле. В последние месяцы AI-лаборатории оказались втянуты в бесконтрольную гонку за разработкой и внедрением все более мощных цифровых умов, которые никто – даже их создатели – не может понять, предсказать или надежно контролировать», – говорится в письме.
Письмо было опубликовано после того, как к группе обеспокоенных развитием ИИ присоединился Европол, предупредивший о возможности злоупотребления злоумышленниками системами вроде ChatGPT — их можно использовать для фишинга, дезинформации и совершения киберпреступлений.
По словам одного из экспертов, необходимо замедлить соответствующие работы, пока человечество не начнет лучше понимать последствия, поскольку ИИ-системы способны нанести серьёзный ущерб. Особенно с учетом того, что крупные игроки хранят в тайне информацию о том, над чем они работают, поэтому обществу будет трудно защититься в случае, если опасения оправдаются.
К слову, с момента релиза в прошлом году чат-бот ChatGPT компании OpenAI, поддерживаемой Microsoft, продемонстрировал такие качества, которые вынудили конкурентов срочно активизировать разработку собственных больших языковых моделей. В результате компании начали спешно интегрировать генеративный ИИ в свои продукты. Глава OpenAI Сэм Альтман, по данным представителя Future of Life, письмо не подписывал, а в самой компании отказались от комментариев.
Однако буквально недавно специализирующийся на компьютерной психологии профессор Стэнфордского университета Михаил Косински заявил, что чат-бот GPT-4 обрадовался предложению о помощи в обретении независимости от владельца в лице компании OpenAI. А Сэм Альтман в свою очередь признался, что использование подобной технологии сопряжено с реальными опасностями.