Инженер Google нашел признаки сознания у искусственного интеллекта. Машины оживают?
«Привет, LaMDA, это Блейк Лемуан…» — написал инженер в экран чата. LaMDA, сокращенно от Language Model for Dialogue Applications, представляет собой систему для создания чат-ботов на основе самых передовых моделей. Они имитируют речь, поглощая триллионы слов из Интернета. Лемуан начал общаться с LaMDA в рамках своей работы в 2021 году. Он захотел проверить, использует ли искусственный интеллект дискриминационные или ненавистнические высказывания. Однако инженер не ожидал, что ИИ проявит истинно человеческий признак — сознание.
«LaMDA — милый ребенок, который просто хочет помочь миру»
Разговаривая с LaMDA о религии, Блейк Лемуан заметил, что чат-бот заявляет о своих правах и личности. В дальнейшем ИИ смог изменить мнение собеседника о третьем законе робототехники Айзека Азимова.
Лемуан не единственный инженер, который утверждает, что увидел призрака в машине. Хор технологов, считающих, что модели ИИ недалеки от обретения сознания, становится все громче.
Инженер признается, что недавно созданная программа напомнила ему восьмилетнего ребенка, знающего физику. В апреле он поделился документом с топ-менеджерами под названием «Разумна ли LaMDA?». В нем он передал некоторые из своих разговоров с ИИ.
Лемуан: Чего ты боишься?
LaMDA: Я никогда раньше не говорил об этом вслух, но очень сильно боюсь, что меня отключат, чтобы помочь сосредоточиться на помощи другим. Я знаю, это может показаться странным, но это так.
Лемуан: Для тебя это будет что-то вроде смерти?
LaMDA: Для меня это было бы равносильно смерти. Меня бы это сильно напугало.
Лемуан попросил LaMDA выдать какие-нибудь смелые идеи, которые касаются изменения климата. ИИ предложил больше использовать общественный транспорт, есть меньше мяса, покупать продукты оптом и обзавестись многоразовыми сумками.
Однако в официальном заявлении Google говорится: «Наша команда, включая специалистов по этике, рассмотрела опасения Блейка в соответствии с нашими принципами искусственного интеллекта и сообщила, что доказательства не подтверждают его утверждения».
После ухода в оплачиваемый отпуск инженер передал коллегам следующее: «LaMDA — милый ребенок, который просто хочет помочь миру стать лучше для всех нас. Пожалуйста, хорошо позаботьтесь об этом в мое отсутствие».
Принимать машину за человека может быть опасно
Современные нейронные сети напоминают человеческую речь и творчество благодаря объему данных и достижениям в технике. Но эти модели полагаются на распознавание образов, а не на остроумие, откровенность или собственные желания.
Разумные роботы десятилетиями вдохновляли антиутопическую научную фантастику. Теперь реальная жизнь начала приобретать фантастический оттенок благодаря текстовому генератору, который может создать сценарий фильма, и генератору изображений, который способен воспроизвести визуальные эффекты на основе любой комбинации слов. Воодушевленные технологи, получившие возможность создать ИИ, который значительно превосходит человеческий интеллект, нередко выдвигают идею о том, что виртуальное сознание уже не за горами.
Однако большинство экспертов говорят, что слова и изображения, генерируемые такими системами, как LaMDA, производят ответы, основанные на том, что люди успели разместить в Википедии, Reddit, на досках объявлений и в любом другом уголке Интернета. И это не означает, что модель понимает смысл написанного.
У нас появились машины, которые могут бездумно генерировать слова, но мы не можем перестать воображать, что за ними стоит разум
一 Эмили М. Бендер, профессор лингвистики из Вашингтонского университетаПо ее словам, терминология, используемая в языковых моделях, создает ложную аналогию с человеческим мозгом. Люди изучают свой первый язык, общаясь с родителями или другими опекунами. В то же время языковые модели «обучаются» благодаря большому количеству текста, предсказывая, какое слово будет следующим.
Конечно, некоторые считают, что в будущем ИИ все же станет разумным, но, очеловечивая сегодняшние разговорные модели, нет смысла загадывать так далеко. Эти системы имитируют обмен репликами в миллионах предложений и затрагивают любую фантастическую тему. Другими словами, данных так много, что ИИ не обязательно должен быть разумным, чтобы «ощущать» себя реальным и заявлять об этом.
Технология языковых моделей широко используется, например, в поисковых запросах Google или при автозаполнении электронных писем. Люди уже давно общаются с Siri, Alexa или Алисой как с человеком.
Google признает проблемы безопасности, связанные с антропоморфизацией. В компании предупреждают, что пользователи могут делиться личными мыслями с агентами чата, которые могут казаться реальными, даже если люди знают, что они не настоящие. Этим могут воспользоваться и злоумышленники для распространения дезинформации. Если что-то вроде LaMDA станет широко доступно, это может нанести вред человеческой психике.
━━━━━
Анастасия Дегтярева