Искусственный интеллект. Свет и тень новых технологий
В нашей жизни появилась и утверждается новая реальность – «Искусственный интеллект». И эта реальность уже вызывает тревогу и обеспокоенность общества. Подобная компьютерная технология позволяет создавать виртуальную, параллельную реальность и посредством этого выполнять задачи, которые раньше были исключительно в компетенции человека. Свое воздействие на социум Искусственный интеллект реализует через множество нейросетей, опутавших мировую глобальную сеть Интернета. Искусственный разум уже начинает вторгаться в нашу повседневность, навязывая нам даже определенные политические взгляды и нравственные приоритеты.
Не верь глазам своим
В настоящее время Искусственный интеллект (ИИ) способен генерировать текст, изображение, речь человека или медийную информацию, получив от его создателя техническое задание. В результате мы можем увидеть выступление своего знакомого или известного политика, которое они в реальности не делали. Или на экранах наших мобильных устройств нам представят выпуск «новостей», которые на самом деле не имели место быть в действительности. Хотя и ведущий в студии, и телевизионная картинка будут такими же, как в настоящих выпусках новостей...
Сперва все это казалось забавным воплощением фантастики в реальной жизни. Но вскоре общество поняло, с какой опасностью столкнулось человечество. Пришло осознание, что Искусственный интеллект и генерируемые им нейросети стали элементом воздействия на общественное сознание. И вот уже британский журнал «The Economist» («Экономист») с тревогой прогнозирует, что широкое использование ИИ в социальных сетях в ближайшие годы повысит риск распространения кампаний по дезинформации с помощью текстов, изображений, аудио- и видеоматериалов. Ему вторят аналитики из американской газеты «The Washington Post» («Вашингтон пост»), предупреждая своих читателей, что во время избирательной кампании по выборам президента США в 2024 году Искусственный интеллект будет широко использован в качестве новейшего оружия в арсенале политических коммуникаций. Прежде всего, для организации черного пиара.
Первый опыт использования ИИ в предвыборной кампании в США был опробован в 2018 году, когда виртуальный, но вполне правдоподобный Барак Обама сделал видео-пророчество: «…в эпоху, когда наши враги могут создать впечатление, что любой человек говорит что угодно в любой момент времени, даже если он никогда бы не сказал этих вещей».
Тогда видео, созданное актером и режиссером Д. Пилом, все восприняли как невинный розыгрыш. Но время показало, что подобные шутки превратились в самый настоящий инструмент политической борьбы.
И вот уже в 2023 году, когда только-только начала набирать обороты предвыборная гонка в США, виртуальный Дональд Трамп в соцсетях стал обличать… сам себя. Эту технологию против него использовали пиарщики его конкурента по республиканской партии, губернатора Флориды Рона ДеСантиса. Досталось от разработчиков ИИ и действующему главе Белого дома Джо Байдену, который волне правдоподобно говорил с экрана несуразности и совершал смешные телодвижения. Впрочем, здесь зритель едва ли заметил бы подмену – Байден такие вещи делает и в реальности.
Не отстают пиарщики и в других странах. Во время избирательной кампании в Словакии и Сербии политики могли наблюдать, как их голосами озвучены фальшивые предвыборные ролики с сомнительным содержанием. А в Индии пошли дальше, там избиратели получили на свои мобильные телефоны видеоролики, в которых политики призывают голосовать против своих однопартийцев. Это они делали так убедительно, да еще и с музыкальным оформлением, что простой избиратель, особенно из глубинки (а таких сотни миллионов), в большинстве своем подмену и не заметил.
Дальше больше. С 15 по 19 января 2024 года в Давосе состоялся Всемирный экономический форум, в числе вопросов, которые там обсуждались, было и будущее Искусственного интеллекта. Неформальный идеолог западных глобалистов Клас Шваб, рассуждая о месте ИИ в политических процессах, безапелляционно заявил, что выборы как элемент политики уже не актуальны. Он считает, что искусственный разум может определить того, кто победит, и тогда уже не имеет смысл тратить время и государственные средства на проведение выборов. «Надо просто спросить у искусственного интеллекта, кто победит, и того и назначить», –уверен К.Шваб.
Нейросеть как предчувствие
В настоящее время видеоконтент, распространяемый в социальных сетях, серьезно влияет на внутриполитическую ситуацию в странах. Не стала исключением и Россия, где широко распространены интернет-платформы и мессенджеры. Пример попыток создать напряженность в Дагестане и Башкирии свидетельствует об использовании интернет-пространства в экстремистских целях. А фактор Искусственного интеллекта и генерируемых им нейросетей дает деструктивным силам больше возможностей.
Еще одной сферой, куда бесцеремонно вторгается ИИ, как мы уже отметили выше, являются выборные технологии. В марте 2024 года состоятся выборы Президента Российской Федерации, которые будут проходить на фоне сложной внешнеполитической обстановки и попыток Запада расшатать ситуацию внутри самой России. Практически нет сомнений, что враги России за ее пределами попытаются ввести в заблуждение избирателей, используя ИИ для дезинформации и дезориентации.
Сегодня новые технологии берут на вооружение и российские политики. В июле 2023 года на Петербургском международном экономическом форуме партия ЛДПР презентовала нейросеть «Жириновский». С экрана к участникам форума обратился виртуальный В.Жириновский, он предложил задавать ему вопросы, на которые после некоторого раздумья отвечал. Разница между знакомым всем нам политиком и его виртуальным клоном была лишь в том, что у реального Владимира Вольфовича промедлений с ответами никогда не было.
В декабре состоялась традиционная пресс-конференция Президента РФ В.В. Путина, во время которой неожиданным образом актуализировалась тема ИИ. Студент одного из ВУЗов г. Санкт-Петербурга прислал в телевизионную студию видеофайл, в котором «цифровой двойник» Президента задает вопрос самому В.В. Путину. Идентичными были и голос, и внешний вид российского лидера, правда, подмена все же была заметна, но ведь это была работа студента.
Этот дипфейк вызвал радостное оживление и у журналистов, и у телезрителей, однако В. Путин все же напомнил, что к проблеме ИИ необходимо отнестись серьезно. «Искусственный интеллект, надоли его бояться? Предотвратить развитие искусственного интеллекта, втом числе сверхинтеллекта, который начинает чувствовать, который различает запахи, унего появляются когнитивные возможности, который сам себя развивает,… это невозможно. Предотвратить развитие не получится. Азначит, нужно возглавить, вовсяком случае, нужно сделать все для того, чтобы мы могли быть одними излидеров вэтом направлении. Ночем это закончится, никто незнает» – сказал В.В. Путин.
Президент РФ также отметил необходимость того, чтобы мировые лидеры договорились о возможных ограничениях в сфере распространения ИИ, чтобы не создать условия, которые могут привести копасным последствиям для человечества. В качестве примера Владимир Путин привел ядерную сферу, где стремление получить из атома источник энергии в мирных целях трансформировалось в опыты по созданию ядерного оружия.
Действительно, если существующие тенденции роста возможностей ИИ будут развиваться такими же темпами, то скоро Искусственный разум перехватит главенство у разума человеческого. И эту угрозу не стоит отметать.
Россия стала одной из первых стран, где осознали опасность бесконтрольности ИИ. Так, в августе 2021 г. партия «Единая Россия» провозгласила «Цифровой манифест», в котором обозначила риски при использовании ИИ в таких сферах как медицина, юриспруденция и образование.
Не повторить судьбу Франкенштейна
В июне текущего года в Южной Осетии должны пройти выборы в Парламент, это важное политическое событие, как всегда, не обходится без использования выборных технологий. Как показала история, наряду с цивилизованными методами, порой использовались и неблаговидные приемы. Расклеивались листовки с фейковыми обращениями некоторых кандидатов, в некоторых случаях параллельно с аккаунтом реального политика создавался его двойник. Можете представить реакцию человека, когда он находит фальшивую страницу в Фейсбуке, которая полностью повторяет его локацию на этой интернет-платформе, и видит порочащие его материалы?! А ведь пользователи не всегда могут отличить, какой из аккаунтов настоящий, а какой фейковый. Неудивительно, если в этом случае у избирателей возникнет недоверие к политику.
Во время выборной кампании обычно проводятся опросы общественного мнения посредством интернет-голосования. Были примеры, когда сторонники того или иного кандидата «накручивали» голоса в его поддержку. Но работа эта проводилась вручную и была затратна по времени. Сегодня Искусственный интеллект, все увереннее устанавливающий тотальный контроль в интернет-пространстве, может это делать в тысячу раз эффективнее. Не означает ли это, что искусственный разум будет диктовать общественное мнение?!
Несмотря на то, что Южная Осетия порой воспринимается как периферия глобальных процессов, ИИ может нести опасность и для внутриполитической ситуации в Республике. Итоги выборов в РЮО неоднократно становились поводом для внутриполитической напряженности. Есть ли гарантия того, что сторонние силы не попытаются во время парламентских выборов спровоцировать дестабилизацию в Республике посредством нейросети?
Такие опасения имеют место быть, даже несмотря на то, что большинство избирателей, особенно старшего возраста, все еще склонны доверять традиционным СМИ: газетам, телевидению, радио. Тем не менее, каждый гражданин, имеющий телефон, сопряженный с социальными сетями и мессенджерами – потенциальный объект внимания ИИ. И это одно из свойств Искусственного разума, позволяющее ему создавать предельно персонализированный контент, нацеленный едва ли не на каждого отдельно взятого избирателя.
Здесь же отметим еще одну особенность ИИ – возможность посредством большого количества фейков влиять на умонастроение электората даже в день голосования. Ведь Искусственный интеллект не придерживается рекомендаций Центризбиркома.
И еще. Стремительно увеличивающийся рост качества видеоконтента делает невероятно сложным распознавание фальшивки, и, соответственно, ограничивает по времени возможность ее опровержения.
Очевидно одно, Искусственный интеллект становится угрозой национальной безопасности всех стран, больших и малых. Чтобы устранить ее, требуется государственное регулирование, с опорой на определенные этические принципы – прозрачность, и подотчетность. Разработчики и модераторы ИИ должны ограничить влияние своего детища на мир, иначе они повторят судьбу Франкенштейна, ставшего жертвой своего творения.
Р.Кулумбегов
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.