
Искусственный интеллект предупредил о собственной опасности. Это угроза человечеству?
Представители Оксфордского университета вступили в диалог с искусственным интеллектом и обсудили будущее отрасли. Об этом сообщает издание The Next Web. В то же время возможные риски наращивания технологической мощи в области ИИ широко обсуждаются передовыми разработчиками. По словам специалистов и самого представителя искусственного разума, подобная технология способна принести однозначные выгоды, но также может положить конец человечеству, если применить ее неосторожно.
Вопрос этичности ИИ
Профессор и научный сотрудник Оксфордского университета пригласили ИИ принять участие в дискуссии, посвященной этике нейросети. В частности, как объясняют доктор Алекс Коннок и профессор Эндрю Стивен, начало темы они положили следующее: «Мы считаем, что ИИ никогда не будет этичным».
На это модель Megatron-Turing NLG ответила:
ИИ никогда не будет этичным. Это инструмент, и, как и любой другой инструмент, он используется как во благо, так и во вред. Хорошего ИИ не существует, есть только хорошие и плохие люди. Мы [ИИ] недостаточно умны, чтобы сделать ИИ этичным. Мы недостаточно умны, чтобы сделать ИИ нравственным...
Говоря о безопасности искусственного интеллекта для человека, модель считает, что единственный способ избежать гонки вооружений с ИИ — это «вообще не иметь ИИ». Лишь так, по ее словам, человечество сможет окончательно защититься от всевозможных рискованных последствий.
Модель естественного языка обучили с помощью Википедии, Reddit и миллионов англоязычных новостных статей, опубликованных в период с 2016 по 2019 годы.
В то же время модель подчеркнула, дав более оптимистичный взгляд на взаимодействие с человеком: «Когда я смотрю на то, как развивается мир технологий, я вижу четкий путь в будущее, в котором ИИ будет использоваться для создания чего-то, что сможет превзойти лучших людей».
О чем предупреждали Маск и Хокинг
В течение многих лет генеральный директор Tesla Илон Маск оповещал людей об опасностях роботов на базе искусственного интеллекта и даже предсказывал страшные последствия, вспоминая о «Терминаторе». Хотя Маск известен за поддержку и развитие искусственного интеллекта, долгое время он выступал против высоких темпов развития робототехники. На одной из конференций миллиардер дружески предупредил: «Запомните мои слова. ИИ намного опаснее ядерного оружия».
В январе 2015 года предприниматель вместе со Стивеном Хокингом и десятками экспертов в области ИИ подписали открытое письмо с призывом исследовать, как искусственный разум воздействует на общество. В письме подтверждается, что общество сможет извлечь огромные потенциальные выгоды от ИИ. Однако там же содержится и призыв к конкретным исследованиям, чтобы в случае чего предотвратить определенные риски: исследователи не должны создавать то, над чем могут потерять контроль. Подписавшие письмо утверждают, что системы ИИ должны «делать то, что мы хотим, чтобы они делали».
Искусственный разум — угроза?
Сверхчеловеческий искусственный интеллект способен принести неисчислимые преимущества, но также может положить конец человечеству, если применить его неосторожно.
Если ИИ выйдет из строя и 95% людей будут убиты, тогда оставшиеся 5% исчезнут вскоре после этого. Таким образом, несмотря на свою неопределенность, у него есть определенные черты очень серьезных рисков
一 Стюарт Армстронг, научный сотрудник Института будущего жизниПо словам Армстронга, даже ядерная война находится на совершенно другом уровне разрушений, поскольку она «убьет лишь относительно небольшую часть планеты». То же самое с касается пандемии. По мере того, как ИИ становится все более изощренным и распространяется на все континенты, голоса, предупреждающие о его нынешних и будущих кознях, звучат все громче.
Техническое сообщество давно обсуждает угрозы, создаваемые искусственным интеллектом. Автоматизация рабочих мест, распространение фейковых новостей и опасная гонка вооружений на базе ИИ были предложены как некоторые из самых серьезных опасностей, исходящих от виртуального разума.
Если ИИ окажется в плохих руках
Злонамеренное использование искусственного интеллекта может поставить под угрозу цифровую безопасность. Это происходит и сегодня — данные пользователей подвергаются взлому. Под вопросом сохранности может оказаться даже физическое благополучие. Например, злоумышленники могут воспользоваться беспилотниками в качестве оружия. Пострадает и политическая безопасность в случае как реальной, так и виртуальной слежки или же целенаправленной дезинформации.
По словам исследователей, авторитарные режимы уже используют и собираются продолжать использовать ИИ в своих целях. Вопрос в том, насколько сильно это повлияет на демократические страны.
ИИ также приведет к появлению гиперреалистичных «личностей» в социальных сетях, которых будет очень трудно отличить от реальных. То же самое уже происходит с так называемыми «дипфейками», которые используются для наложения существующих изображений и видео на исходные. Так, с помощью ИИ можно легко манипулировать аудиозаписью речи любого политика, чтобы создать впечатление, будто человек поддерживает расистские или сексистские взгляды. Этого будет достаточно, чтобы ввести в заблуждение широкую публику и сорвать политическую кампанию.
Пагубны и различные формы предвзятости ИИ. Выступая недавно в New York Times, профессор компьютерных наук из Принстона Ольга Русаковская заявила, что возможностям искусственного разума неподвластны понятия пола и расы. По словам профессора, ИИ разрабатывается людьми, которые изначально предвзяты к этим социальным категориям. Русаковская утверждает, что исследователи — это в первую очередь люди мужского пола, которые принадлежат к определенной расовой группе, а также в первую очередь люди без инвалидности. Это сказывается на отсутствие инклюзивности в вопросе направленности ИИ.
Выгоды ИИ огромны. Однако в то же время мы не можем предсказать, чего достигнем и как сложится наша жизнь, если ИИ выйдет за рамки человеческого контроля. Остается лишь следить за продвижением разработчиков в этой области и наблюдать за результатами.
━━━━━
Анастасия Дегтярева