Инженер по программному обеспечению компании Google Блейк Лемойн заявил, что созданный корпорацией искусственный интеллект LaMDA обладает собственным сознанием. 

voice-control
Источник фото

LaMDA (Language Model for Dialogue Applications) представляет собой нейросетевую языковую модель для диалоговых приложений, предназначенную для общения на любые темы. Лемойн в должен был определить, не использует ли система дискриминационную или разжигающую вражду лексику.

В результате тестирования системы специалист пришел к выводу, что ИИ обладает собственным сознанием. В частности, Лемойн заметил, что чат-бот говорит о своих правах, обсуждает законы робототехники Айзека Азимова и воспринимает себя как личность.

«Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики», — отметил он.

По итогам работы инженер подготовил письменный отчет. Однако руководство компании посчитало аргументацию сотрудника неубедительной и… отстранило его от работы.

«Ему было сказано, что свидетельства того, что LaMDA обладает сознанием, отсутствуют. При этом есть множество свидетельств обратного», — объяснил решение компании официальный представитель Google Брайан Гэбриел.

Однако, как сообщает The Washington Post, Лемойн не одинок в своих предположениях – о разговорах с «разумной» программой отчитывались и другие, прикладывая к заявлениям фрагменты бесед.

В Google же поясняют, что обрабатываемых чат-ботом данных так много, что программе не обязательно понимать написанное. Показавшееся программистам разумным диалогом могло быть простым цитированием интернет-энциклопедий или форумов.

Поделиться: