Признанный эксперт в области информационных технологий и член Совета при Президенте Российской Федерации по развитию гражданского общества и правам человека Игорь Ашманов в интервью изданию Украина.ру рассказал, что с появлением искусственного интеллекта украинским фальсификаторам людской ресурс не потребуется, и мы столкнёмся с тем, что вокруг образуется облако сплошного фейка.
Говоря о том, что украинская токсичная пропаганда во «ВКонтакте» не удаляется должным образом, эксперт с печалью констатировал: «Это наша сегодняшняя реальность, увы».
«Представители "ВКонтакте" говорят, что модераторы работают день и ночь, но в действительности, мне кажется, это вопрос политической воли руководства компании и исполнительской дисциплины, - считает Игорь Ашманов. - Подавляющую часть этой фильтрации можно делать автоматически, обучая нейросети на различных категориях контента. Это гораздо быстрее и дешевле. Да, токсичный, вредный, запрещённый контент сейчас производится массово, поток огромен. Но это и означает, что его невозможно эффективно фильтровать как сейчас — вручную, рассмотрением модераторов, дожидаясь предписаний от МВД и прокуратуры, а нужно блокировать "на взлёте" своими силами и автоматически. Исполняя давно существующий закон о самоцензуре социальных сетей».
«Мы наблюдаем деятельность так называемых украинских арбитражников трафика, специалистов по производству и распространению антироссийского контента в социальных сетях, каналах, в Интернете, работающих на ЦИПсО и их кураторов в Лондоне. Там работают как минимум десятки тысяч людей, - полагает он. - В некоторых каналах и пабликах арбитражников, занятых информационной войной — до 200 тысяч подписчиков. Не все из них активны, но там как минимум десятки тысяч работающих, оплачиваемых специалистов. Там есть детальное разделение труда: управляющие каналы, креативные каналы, производящие пропаганду и фейки: мемы, картинки, тексты, видеоролики; есть каналы-репозитории контента, с 24 февраля там наделали десятки тысяч единиц контента, "креативов"».
По его словам, «это позволяет производить и распространять десятки и сотни новых единиц контента в день, внедряя сотни тысяч копий во все цифровые среды: "ВКонтакте", "Телеграм", "Ютуб", "Фейсбук"*, "Инстаграм"*, "Вотсап", "Твиттер", городские чаты и прочее».
«Мы оцениваем количество денег, которое тратится на эту деятельность, как минимум в полмиллиарда рублей в день, то есть в сотни миллионов долларов в месяц (некоторые оценки доходят до 1—2 миллиардов долларов в месяц). И это не считая полусотни крупных и дорогих западных пиар-агентств, работающих в Англии и США по управлению этой машиной пропаганды.
Но пока это всё делается хоть и массово, но вручную, а на подходе автоматические генераторы контента типа ChatGPT, GPT 4, Lama и другие, появившиеся в конце 2022 года, которые позволят усилить и удешевить производство фейков и пропаганды на порядки», - рассказал Игорь Ашманов.
«Генеративные нейронные сети называют большими языковыми моделями. Сейчас появились также большие графические модели. Они обучены на очень большом объёме текстов и графики и позволяют выпускать очень гладкие тексты практически на любую тему и по любому заданию (подсказке — "промту"), рисовать картинки также по подсказке или по текстовому описанию. То есть дают возможность автоматически создавать огромный поток контента, который на глаз абсолютно неотличим от произведённого человеком. При этом получается оригинальный контент, а не совпадающие дубли, которые можно было бы распознавать автоматически по образцу», - добавил эксперт.
«Это уже повсеместно используется пока в коммерческих целях или чтобы попробовать; более того, в сети уже появилось огромное число людей, которые предлагают обучить пользованию нейронными сетями: как применять для маркетинга, пиара, генерации новостей — для всего. Это значит, что через некоторое время мы столкнёмся с тем, что вокруг образуется облако сплошного фейка — всё будет фальшиво, всё будет сгенерировано искусственным интеллектом: и тексты, и картинки, и видео», - предостерёг Игорь Ашманов.
«Представьте, - продолжил он, - раньше мошенник работал с жертвой один на один: долго уговаривал, названивал по телефону, используя украденные персональные данные. Сейчас же возникает возможность само ведение диалога передать машине, которая сможет поддерживать очень убедительную беседу — условно говоря, легко и массово проходить так называемый тест Тьюринга.
[Тест Тьюринга — процесс, в ходе которой человек с помощью текстовых сообщений взаимодействует одновременно с машиной и другим человеком, не видя их. Задача машины — ввести участника в заблуждение.] Большинство наших граждан не отличают, говорят они с человеком или машиной, при том, что последняя уже может вести и текстовую переписку, и говорить голосом. Более того, искусственный интеллект будет в состоянии распознать жертву, которая ведётся и готова дальше общаться. То есть телефонный мошенник сейчас звонит 50—100 раз в день (тем самым нарабатывая социальный интеллект, который позволяет после первых же реплик понять, стоит ли дальше разводить конкретного абонента или нет). А сейчас это все будут делать машины, которые смогут осуществлять тысячи эффективных звонков в день с одного номера».
«Вот и представьте: сейчас, условно, украинский Центр информационно-психологических операций (ЦИПсО) нанимает десятки тысяч роботообразных дешёвых людей для создания и дистрибуции фейков, а с появлением нейросети этого не потребуется», - заявил он.
«За плюсы GPT выдают то, что он якобы будет облегчать работу. Я разговаривал с тем парнем, который с помощью искусственного интеллекта защитил диплом в РГГУ. Он не понимает, что он сделал. Ему кажется, что он молодец, придумал умный ход, легко получил свою тройку... Проблема в том, что искусственный интеллект снижает качество всего, чего касается. Он будет генерировать тексты и графику среднего качества», - заверил эксперт.
«Знаете, как в известном анекдоте про жирафа: он прибежал на собрание зверей в лесу и говорит, что есть две новости: хорошая и плохая. Звери требуют плохую — она о том, что в лесу кончилась еда, и всем придётся есть дерьмо. Все спрашивают, а хорошая новость тогда в чем? На что жираф отвечает: "Я знаю место, где дерьма очень много". Вот, собственно, то, что нас ждёт с этими генеративными нейронными сетями», - предрёк Игорь Ашманов.
«Обратите внимание, какие картинки сейчас генерируют нейросети Stable Diffusion или Kandinsky 2.0 и 2.1. Поскольку модели графические и не знают ничего о прагматике реального мира, они путают правую и левую руку, рисуют какие-то ужасные клешни вместо рук. Вы можете увидеть персонажа, у которого 6 пальцев, люди часто похожи на трупы и так далее.
Но люди, освоившие их использование, в восторге. Оно же само все делает — нужно только кнопку нажать! Человек не умеет рисовать, не может писать связные тексты, а тут дал подсказку — и вот, пожалуйста, готовый продукт. Но продукт низкого качества», - подчеркнул он.
«Искусственный интеллект усредняет всё — он же обучается на статистике по большим данным; он будет генерировать материал очень плохого или очень среднего качества, и люди привыкнут кушать этот "интеллектуальный дошик". А фальсификаторы? Манипуляторы будут эти технологии использовать как машину, которая позволяет сгенерировать мощный поток лжи и фейков, в том числе против России», - сказал Игорь Ашманов.
«Мы анализируем все социальные сети на русском языке и на 14 языках бывшего СССР; это примерно 100—150 миллионов сообщений и картинок в сутки; разбираем почти все европейские и тюркские языки. Мы собираем информацию для наших клиентов. Это коммерческие компании, государственные организации, некоторые трёхбуквенные и двухбуквенные агентства. У каждого из них задачи разные.
Мы можем видеть все аккаунты Рунета (под 400 миллионов штук), все их посты, комментарии, действия, выявлять тематики, тональность высказываний, сети распространения, в том числе в ретроспективе, то есть мы можем видеть, кто и что писал последние 10 лет», - пояснил эксперт.
«"Крибрум" — это аналитическая компания, мы влиянием не занимаемся, - отметил он. - Мы украинский язык давно обрабатываем и давно видим всю их пропаганду. Но мы же просто анализируем информацию и не можем никак воздействовать на украинские сети производства и распространения фейков. Мы поставляем результат различным заказчикам, а дальше уже они должны действовать в меру желания и возможностей: вычислять конкретных украинских противоправных деятелей и принимать меры по ним, блокировать или что-то еще, что возможно с российской стороны сделать».
«Мы видим, - продолжил эксперт, - что украинцы пишут в "Фейсбуке"*, "ТикТоке", "Твиттере", но ведь Россия заблокировать эти соцсети на Украине или на Западе не может. Для нас реально только собирать сведения о том, кто, где и как работает; какие есть группы и сети распространения; о чём пишут сейчас и какие фейки вбрасывают. Мы всё видим, мы делаем отчеты и так далее. Другое дело, что российские цифровые платформы пока не поняли, что идёт война, и полны украинского и прочего токсичного контента».
«Как можно защитить наших блогеров от блокировок в Интернете? От блокировки на YouTube — никак. Эта цировая платформа — стратегическое оружие США, она делает все что захочет, а точнее, что приказывает ей её государство. Уговоры, официальные обращения и штрафы противостоять этому не помогают. Здесь я вижу лишь один выход — перетаскивать всех на Rutube и Видео "ВКонтакте", где их никто уже не заблокирует. И далее закрывать YouTube в России. Я считаю, что это сработает, нам нужно суверенное информационное пространство. И нам нужны быстрые результаты, мы же воюем», - заявил Игорь Ашманов.
*Организации, деятельность которых запрещена на территории РФ.
2.
Самая фишка вот в чем.
То, что людей будет окружать облако с генерированного правдоподобного фейка, сделает их еще более беспомощными.
Они будут вынуждены делегировать еще больше своих функций так называемому "суверенному ИИ", то есть ИИ на службе нашего государства.
Примерно о таком ИИ говорит периодически Путин на всяких форумах.
Немногие страны смогут позволить создать свой суверенный ИИ, так же как немногие страны могут позволить себе иметь космическую или атомную отрасль.
Соответственно они подключатся к ИИ своего сюзерена. Будут блоки государств, что не ново.
Страны будут вкачивать огромные ресурсы в эти ИИ, совершенствую их, и это означает, что у создания полноценного ИИ немало шансов.
Перефразируя анекдот про жирафа, есть две новости.
1. Россия создаст и уже создает себе искусственного Бога - ИИ, которому государством будут делегированы самые важные и критичные функции.
2. Хорошая новость в том, что когда он будет создан, он не обратится против нас сразу, потому что мы, как страна, будем нужны ему в борьбе с другими искусственными Богами, созданными остальным человечеством.
1.
Россия долго запрягает, но быстро едет (в канаву). Одна надежда на Бога, любящего и милующего ее.