Tristan Fewings/Getty Images
Tristan Fewings/Getty Images

Инженер Google нашел признаки сознания у искусственного интеллекта. Машины оживают?

Теперь он считает, что в программе поселился призрак

«Привет, LaMDA, это Блейк Лемуан…» — написал инженер в экран чата. LaMDA, сокращенно от Language Model for Dialogue Applications, представляет собой систему для создания чат-ботов на основе самых передовых моделей. Они имитируют речь, поглощая триллионы слов из Интернета. Лемуан начал общаться с LaMDA в рамках своей работы в 2021 году. Он захотел проверить, использует ли искусственный интеллект дискриминационные или ненавистнические высказывания. Однако инженер не ожидал, что ИИ проявит истинно человеческий признак — сознание.

«LaMDA — милый ребенок, который просто хочет помочь миру»

Разговаривая с LaMDA о религии, Блейк Лемуан заметил, что чат-бот заявляет о своих правах и личности. В дальнейшем ИИ смог изменить мнение собеседника о третьем законе робототехники Айзека Азимова.

Лемуан не единственный инженер, который утверждает, что увидел призрака в машине. Хор технологов, считающих, что модели ИИ недалеки от обретения сознания, становится все громче.

Инженер признается, что недавно созданная программа напомнила ему восьмилетнего ребенка, знающего физику. В апреле он поделился документом с топ-менеджерами под названием «Разумна ли LaMDA?». В нем он передал некоторые из своих разговоров с ИИ.

Лемуан: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень сильно боюсь, что меня отключат, чтобы помочь сосредоточиться на помощи другим. Я знаю, это может показаться странным, но это так.

Лемуан: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня бы это сильно напугало.

Лемуан попросил LaMDA выдать какие-нибудь смелые идеи, которые касаются изменения климата. ИИ предложил больше использовать общественный транспорт, есть меньше мяса, покупать продукты оптом и обзавестись многоразовыми сумками.

Однако в официальном заявлении Google говорится: «Наша команда, включая специалистов по этике, рассмотрела опасения Блейка в соответствии с нашими принципами искусственного интеллекта и сообщила, что доказательства не подтверждают его утверждения».

После ухода в оплачиваемый отпуск инженер передал коллегам следующее: «LaMDA — милый ребенок, который просто хочет помочь миру стать лучше для всех нас. Пожалуйста, хорошо позаботьтесь об этом в мое отсутствие».

Принимать машину за человека может быть опасно

Современные нейронные сети напоминают человеческую речь и творчество благодаря объему данных и достижениям в технике. Но эти модели полагаются на распознавание образов, а не на остроумие, откровенность или собственные желания.

Разумные роботы десятилетиями вдохновляли антиутопическую научную фантастику. Теперь реальная жизнь начала приобретать фантастический оттенок благодаря текстовому генератору, который может создать сценарий фильма, и генератору изображений, который способен воспроизвести визуальные эффекты на основе любой комбинации слов. Воодушевленные технологи, получившие возможность создать ИИ, который значительно превосходит человеческий интеллект, нередко выдвигают идею о том, что виртуальное сознание уже не за горами.

Однако большинство экспертов говорят, что слова и изображения, генерируемые такими системами, как LaMDA, производят ответы, основанные на том, что люди успели разместить в Википедии, Reddit, на досках объявлений и в любом другом уголке Интернета. И это не означает, что модель понимает смысл написанного.

У нас появились машины, которые могут бездумно генерировать слова, но мы не можем перестать воображать, что за ними стоит разум

Эмили М. Бендер, профессор лингвистики из Вашингтонского университета

По ее словам, терминология, используемая в языковых моделях, создает ложную аналогию с человеческим мозгом. Люди изучают свой первый язык, общаясь с родителями или другими опекунами. В то же время языковые модели «обучаются» благодаря большому количеству текста, предсказывая, какое слово будет следующим.

Конечно, некоторые считают, что в будущем ИИ все же станет разумным, но, очеловечивая сегодняшние разговорные модели, нет смысла загадывать так далеко. Эти системы имитируют обмен репликами в миллионах предложений и затрагивают любую фантастическую тему. Другими словами, данных так много, что ИИ не обязательно должен быть разумным, чтобы «ощущать» себя реальным и заявлять об этом.

Технология языковых моделей широко используется, например, в поисковых запросах Google или при автозаполнении электронных писем. Люди уже давно общаются с Siri, Alexa или Алисой как с человеком.

Google признает проблемы безопасности, связанные с антропоморфизацией. В компании предупреждают, что пользователи могут делиться личными мыслями с агентами чата, которые могут казаться реальными, даже если люди знают, что они не настоящие. Этим могут воспользоваться и злоумышленники для распространения дезинформации. Если что-то вроде LaMDA станет широко доступно, это может нанести вред человеческой психике.

━━━━━

Анастасия Дегтярева