Искусственный интеллект естественного влияния

Американский вариант искусственного интеллекта (ИИ) настроен на обман и манипуляцию, которые человечество в скором времени уже перестанет замечать, предупреждает Илон Маск. По его словам, существующий ИИ навязывает миру «нишевую идеологию Сан-Франциско и Беркли», которая окажется неприемлемой для остального мира. В Китае крупнейшие компании уже договариваются о регулировании китайского варианта ИИ, который сможет противостоять американским идеологическим установкам.

Илон Маск, глава Tesla и SpaceX, а также владелец социальной сети Twitter, дал высокую оценку развитию индустрии ИИ в Китае в связи с проводимой в Шанхае Всемирной конференции по искусственному интеллекту, сообщило агентство «Синьхуа». Маск заявил, что в будущем Китай достигнет значительного прогресса в области ИИ, поскольку в стране есть множество образованных специалистов. Однако, передает агентство, американский предприниматель призвал регулировать индустрию ИИ по всему миру ввиду опасений и рисков относительно «темной стороны» ее стремительного развития.

Заявления о «темной стороне» технологии ИИ звучат давно, а в мае Маск и около 1 тыс. экспертов, ученых, предпринимателей подписали открытое письмо с призывом к лабораториям искусственного интеллекта приостановить разработки продвинутого ИИ до тех пор, пока не будут разработаны, внедрены и проверены независимыми экспертами общие протоколы безопасности для таких систем.

В интервью популярному американскому журналисту Такеру Карлссону на его канале в соцсети Маск недавно озвучил свой главный страх, связанный с ИИ. «Сверхсильный ИИ, способный хорошо писать и четче понимать, как влиять на людей, залезет в Twitter и начнет манипулировать общественным мнением. Миллионы таких человекоподобных ботов будут делать это массово, приводя к катастрофе», – сказал Маск. В качестве защиты он предлагает помечать аккаунты, чтобы было понятно, где живой человек, а где бот.

Конференция в Шанхае проводится уже с 2018 года неслучайно, в этом магаполисе расположено более тысячи компаний, занятых разработкой технологий ИИ, в которых работают десятки тысяч специалистов. По прогнозам, к 2025 году эта индустрия будет приносить городу около 60 млрд долл., в два раза больше, чем в 2020-м. Трудно предположить, что призывы, которые выглядят несколько запоздавшими, смогут остановить подобную индустрию, хотя по некоторым признакам можно заметить, что в мировом масштабе надулся небольшой ИИ-пузырь. По данным аналитической компании CB Insights, в 2022 году мировые инвестиции в проекты по разработке ИИ снизились на 34% процента, до 45,8 млрд долл.

«Письмо 1 тысячи» нашло отклик у политиков. Человечество вступает в новую технологическую эру, при этом будучи совсем неподготовленным, заявил в обращении к участникам саммита Шанхайской организации сотрудничества (ШОС) генеральный секретарь ООН Антониу Гутерриш. Искусственный интеллект – это сфера, где возможности управления далеко отстают, отметил он.

Как отмечала Wall Street Journal, администрация президента Джозефа Байдена начала уже с апреля исследовать вопрос о необходимости регулирования сервисов искусственного интеллекта, включая чат-бот ChatGPT четвертого поколения, с которого и началась активизация тревожных заявлений. Национальное управление по телекоммуникациям и информации США разрабатывает принципы, которые должны гарантировать, что системы ИИ делают то, что они должны делать, и, что важнее, не делают того, чего не должны. «Ответственные системы искусственного интеллекта могут принести огромную пользу, но только если мы устраним их потенциальные последствия и вред», – заявил руководитель управления Алан Дэвидсон.

Евросоюз также недавно сообщал, что планирует ужесточить регулирование сферы ИИ. В Брюсселе обсуждается закон об ИИ, который будет направлен на снижение рисков, представляемых различными моделями этой технологии, заявил еврокомиссар по внутреннему рынку Тьерри Бретон. Вступление в действие этого закона намечено на 2023 год.

В Китае продвигают принцип прозрачности, нейросети должны быть понятными и объяснимыми для пользователей. С начала января 2023 года действуют правила Администрации киберпространства, которые запрещают создавать дипфейки во вред национальным интересам. А в апреле был опубликован для общественного обсуждения проект документа по управлению услугами с применением ИИ. Главное, что генерируемый ИИ контент должен продвигать основные принципы и ценности социализма и не должен содержать положений, подрывающих основы государственной власти. Нельзя также использовать преимущества генеративных нейронных сетей для недобросовестной конкуренции.

«ИИ сегодня вызревает как технология, политический инструмент и как объект правового регулирования, – сказала «НГ» директор Центра цифровой экономики МГИМО, глава третейского суда РСПП по разрешению цифровых споров Элина Сидоренко. – Акценты в полемике об управлении ИИ смещаются с этических вопросов, с вопросов ответственности за продукцию, полученную с помощью ИИ, как это было долгие годы, в сторону самой технологии. Под предлогом кибербезопасности предпринимаются попытки ограничить применение ИИ по отдельным видам деятельности, отраслям, кроме того, раздаются призывы ограничить и конкретные типы технологий».

США, которые стали пионерами во внедрении ИИ, пытаются теперь удержать пальму первенства, поясняет эксперт. «В Конгресс уже вносятся законы о запрете использования других, кроме ChatGPT, чат-ботов, что, безусловно, создаст последнему конкурентное преимущество и даже полное лидерство: ведь ИИ становится тем умнее, чем дольше он работает, обучаясь на все новых и новых задачах. США раскручивают тему опасности «чужих» систем. У Китая другой подход, он понимает угрозу со стороны США в этой сфере, которая носит и чисто экономический характер. Китай мастерски играет на идее низкого киберриска ИИ и все шире вводит ИИ во все сферы жизни, развивая свои системы на внутреннем рынке с перспективой выхода на внешние», – говорит Сидоренко.

«Есть различия и в ограничениях по сферам применения. Например, западные страны достигают консенсуса о неприменении ИИ в оборонной промышленности, их настораживают результаты экспериментов, когда ИИ предлагает уничтожить оператора, сформировавшего трудновыполнимое задание в сфере обороны. Китай на словах поддерживает такой подход, однако активно использует ИИ в своих оборонительных системах», – продолжает эксперт.

На самом деле риски использования ИИ есть, вопрос ответственности его использования сохраняется, и никто не знает, где та кнопка, тот рубильник, который пресечет действия ИИ на каком-то этапе, если что-то пойдет не так, говорит Сидоренко. «Что касается России, то у нас есть прогресс в развитии ИИ, власти и бизнес ориентированы на его развитие, на широкое использование в экономике и госуправлении, – говорит эксперт. – РФ также видит риски использования такой технологии, но сейчас, особенно в условиях санкций, оппонировать США и Китаю в этой сфере мы не можем».

Анатолий Комраков

Источник

Свежие публикации

Публикации по теме

Сейчас читают
Популярное