Unsplash.com

11 июня The Washington Post опубликовала рассказ о Блейке Лемойне — инженере Google, который заявил, что нейросеть, которую он тестировал, обрела сознание. Лемойна тут же раскритиковали коллеги и ИИ-эксперты, а Google поторопилась дезавуировать его заявление. Корреспондент журнала «Будущее» на платформе Republic разобрался в подробностях этого случая, его предпосылках и возможных последствиях.

Ранним утром понедельника на рабочую почту инженерам Google, ответственным за разработку нейросетей, пришло письмо с заголовком «LaMDA разумна». LaMDA (Language Model for Dialogue Applications) — искусственный интеллект, созданный для разработки продвинутых чат-ботов. В письме говорилось о том, что LaMDA — «светлый ребенок, который хочет спасти этот мир».

Это можно было бы посчитать троллингом, вот только автором письма был инженер Блейк Лемойн — в Google он отвечал за внедрение в нейросети протоколов этического общения. Коллеги называли Лемойна «совестью Google». В работе с LaMDA Лемойн должен был следить за тем, чтобы нейросеть не создавала «угрожающих» моделей общения: ей можно было брать на себя роль ребенка или старушки, но не превращаться в убийцу и не угрожать конечному пользователю.

«Максимум она становилась актером, который играет убийцу», — рассказывал Лемойн.

Ответа на свое письмо Лемойн получить не успел — в понедельник 6 июня его отключили от аккаунта в Google. К тому моменту инженер уже официально был отстранен от работы. В тот же день он опубликовал пост в своем блоге на Medium, в котором обвинил Google в нарушении правил этического отношения к сотрудникам. Что Лемойн не уточнил в посте, так это то, что таким сотрудником он считает LaMDA.

Unsplash.com