Alexander Supertramp/Shutterstock
Alexander Supertramp/Shutterstock

Искусственный интеллект предупредил о собственной опасности. Это угроза человечеству?

По мере того, как ИИ становится все более умелым, голоса, предупреждающие о его нынешних и будущих кознях, звучат все громче

Представители Оксфордского университета вступили в диалог с искусственным интеллектом и обсудили будущее отрасли. Об этом сообщает издание The Next Web. В то же время возможные риски наращивания технологической мощи в области ИИ широко обсуждаются передовыми разработчиками. По словам специалистов и самого представителя искусственного разума, подобная технология способна принести однозначные выгоды, но также может положить конец человечеству, если применить ее неосторожно.

Вопрос этичности ИИ

Профессор и научный сотрудник Оксфордского университета пригласили ИИ принять участие в дискуссии, посвященной этике нейросети. В частности, как объясняют доктор Алекс Коннок и профессор Эндрю Стивен, начало темы они положили следующее: «Мы считаем, что ИИ никогда не будет этичным».

На это модель Megatron-Turing NLG ответила:

ИИ никогда не будет этичным. Это инструмент, и, как и любой другой инструмент, он используется как во благо, так и во вред. Хорошего ИИ не существует, есть только хорошие и плохие люди. Мы [ИИ] недостаточно умны, чтобы сделать ИИ этичным. Мы недостаточно умны, чтобы сделать ИИ нравственным...

Говоря о безопасности искусственного интеллекта для человека, модель считает, что единственный способ избежать гонки вооружений с ИИ — это «вообще не иметь ИИ». Лишь так, по ее словам, человечество сможет окончательно защититься от всевозможных рискованных последствий.

Модель естественного языка обучили с помощью Википедии, Reddit и миллионов англоязычных новостных статей, опубликованных в период с 2016 по 2019 годы.

В то же время модель подчеркнула, дав более оптимистичный взгляд на взаимодействие с человеком: «Когда я смотрю на то, как развивается мир технологий, я вижу четкий путь в будущее, в котором ИИ будет использоваться для создания чего-то, что сможет превзойти лучших людей».

О чем предупреждали Маск и Хокинг

В течение многих лет генеральный директор Tesla Илон Маск оповещал людей об опасностях роботов на базе искусственного интеллекта и даже предсказывал страшные последствия, вспоминая о «Терминаторе». Хотя Маск известен за поддержку и развитие искусственного интеллекта, долгое время он выступал против высоких темпов развития робототехники. На одной из конференций миллиардер дружески предупредил: «Запомните мои слова. ИИ намного опаснее ядерного оружия».

В январе 2015 года предприниматель вместе со Стивеном Хокингом и десятками экспертов в области ИИ подписали открытое письмо с призывом исследовать, как искусственный разум воздействует на общество. В письме подтверждается, что общество сможет извлечь огромные потенциальные выгоды от ИИ. Однако там же содержится и призыв к конкретным исследованиям, чтобы в случае чего предотвратить определенные риски: исследователи не должны создавать то, над чем могут потерять контроль. Подписавшие письмо утверждают, что системы ИИ должны «делать то, что мы хотим, чтобы они делали».

Искусственный разум — угроза?

Сверхчеловеческий искусственный интеллект способен принести неисчислимые преимущества, но также может положить конец человечеству, если применить его неосторожно.

Если ИИ выйдет из строя и 95% людей будут убиты, тогда оставшиеся 5% исчезнут вскоре после этого. Таким образом, несмотря на свою неопределенность, у него есть определенные черты очень серьезных рисков

Стюарт Армстронг, научный сотрудник Института будущего жизни

По словам Армстронга, даже ядерная война находится на совершенно другом уровне разрушений, поскольку она «убьет лишь относительно небольшую часть планеты». То же самое с касается пандемии. По мере того, как ИИ становится все более изощренным и распространяется на все континенты, голоса, предупреждающие о его нынешних и будущих кознях, звучат все громче.

Техническое сообщество давно обсуждает угрозы, создаваемые искусственным интеллектом. Автоматизация рабочих мест, распространение фейковых новостей и опасная гонка вооружений на базе ИИ были предложены как некоторые из самых серьезных опасностей, исходящих от виртуального разума.

Если ИИ окажется в плохих руках

Злонамеренное использование искусственного интеллекта может поставить под угрозу цифровую безопасность. Это происходит и сегодня — данные пользователей подвергаются взлому. Под вопросом сохранности может оказаться даже физическое благополучие. Например, злоумышленники могут воспользоваться беспилотниками в качестве оружия. Пострадает и политическая безопасность в случае как реальной, так и виртуальной слежки или же целенаправленной дезинформации.

По словам исследователей, авторитарные режимы уже используют и собираются продолжать использовать ИИ в своих целях. Вопрос в том, насколько сильно это повлияет на демократические страны.

ИИ также приведет к появлению гиперреалистичных «личностей» в социальных сетях, которых будет очень трудно отличить от реальных. То же самое уже происходит с так называемыми «дипфейками», которые используются для наложения существующих изображений и видео на исходные. Так, с помощью ИИ можно легко манипулировать аудиозаписью речи любого политика, чтобы создать впечатление, будто человек поддерживает расистские или сексистские взгляды. Этого будет достаточно, чтобы ввести в заблуждение широкую публику и сорвать политическую кампанию.

Пагубны и различные формы предвзятости ИИ. Выступая недавно в New York Times, профессор компьютерных наук из Принстона Ольга Русаковская заявила, что возможностям искусственного разума неподвластны понятия пола и расы. По словам профессора, ИИ разрабатывается людьми, которые изначально предвзяты к этим социальным категориям. Русаковская утверждает, что исследователи — это в первую очередь люди мужского пола, которые принадлежат к определенной расовой группе, а также в первую очередь люди без инвалидности. Это сказывается на отсутствие инклюзивности в вопросе направленности ИИ.

Выгоды ИИ огромны. Однако в то же время мы не можем предсказать, чего достигнем и как сложится наша жизнь, если ИИ выйдет за рамки человеческого контроля. Остается лишь следить за продвижением разработчиков в этой области и наблюдать за результатами.

━━━━━

Анастасия Дегтярева