Во вторник, 18 апреля, председатель Патриаршей комиссии по вопросам семьи, защиты материнства иерей Феодор Лукьянов принял участие в круглом столе на тему: «Вопросы правового регулирования и применения нейросетевых технологий», который прошел в Национальном исследовательском университете «Высшая школа экономики», сообщает сайт Патриаршей комиссии по вопросам семьи, защиты материнства и детства.
Участие в мероприятии приняли депутаты Государственной Думы РФ, представители профильных органов исполнительной власти, эксперты в области ИИ, представители отечественных IT-гигантов – компаний «Яндекс», «Сбер» и «Сколково». Модератором дискуссии выступил декан факультета права НИУ ВШЭ, руководитель рабочей группы по законодательству в сфере интернет-технологий и цифровизации Общественной палаты Вадим Виноградов.
Открывая мероприятие, декан факультета права НИУ ВШЭ, руководитель рабочей группы по законодательству в сфере интернет-технологий и цифровизации Общественной палаты РФ Вадим Виноградов отметил, что в настоящее время технологии нейросетей развиваются быстрыми темпами.
«Они оказывают все больше влияния на различные сферы жизни. С одной стороны, они улучшают качество и эффективность многих процессов, с другой – мы видим возникающие риски. Риски безопасности, конфиденциальности, этичности и дискриминации: в случае, если такие алгоритмы будут использоваться без должной осторожности. Чтобы обеспечить защиту интересов граждан, необходимо создавать правовые механизмы и соблюдать прозрачность принятия решений на основе алгоритмов искусственного интеллекта», – подчеркнул Вадим Виноградов.
Участники дискуссии обсудили широкий круг вопросов, связанных с правовым регулированием деятельности искусственного интеллекта в целом и нейросетей в частности, морально-этические аспекты взаимодействия между человеком и «машиной», рамки, которые должны сопровождать деятельность ИИ, а также инвестиционный потенциал технологии в масштабах российской экономики.
Отец Феодор Лукьянов заявил о необходимости установить запрет на антропоморфизацию программ (перенесение человеческого образа и его свойств на неодушевленные предметы) и закрепить на законодательном уровне дисклеймер для нейросетей, указывающий на то, что человек общается с искусственным интеллектом, сообщают «Ведомости».
«Необходимо установить запрет на применение в программах и технологиях ИИ человеческих голосов, лиц, т. е. образа и подобия человека и его качеств как живого существа. Фактически нужен запрет на антропоморфизацию программ, технологий, роботов, т. е. запрет на перенесение человеческого образа и его свойств на неодушевленные предметы», – говорится в презентации отца Федора.
По его словам, также необходимо разработать и закрепить на законодательном уровне введение дисклеймера для нейросетей, т.е. человек должен понимать, что общается с искусственным интеллектом. При этом имеет смысл установить ответственность разработчика за содержание информации, транслируемой программой, по аналогии с Китаем, где такая ответственность закреплена не только в административном, но и в уголовном законодательстве.
Несовершеннолетних нужно защитить от доступа к нейросетям из-за высокой опасности влияния на детскую психику, обратил внимание в своем выступлении отец Феодор. При этом технологию ChatGPT необходимо локализовать под российскую вычислительную инфраструктуру и телекоммуникационные сети, поскольку страны Запада строят свои нейросети на основе своей этики, которая может расходиться с российской, предложил он.
Данные вопросы и проблемы обсуждались в порядке экспертной дискуссии по этому направлению и выражают обеспокоенность православного экспертного сообщества, но говорить о направлении данных предложений в государственные органы пока преждевременно, сказал «Ведомостям» отец Феодор.
Реализация предложений отца Феодора технически возможна, полагает юрист, член комитета ТПП РФ по предпринимательству в сфере медиакоммуникаций Павел Катков. Но это может ослабить российские нейросети в их конкуренции с западными, предупреждает он.
Нужно, по его мнению, выбрать, что стране важнее: теологические ценности или конкурентное IT-преимущество.
Русская Церковь не может вносить законопроекты в Госдуму напрямую, но как организация, представляющая значительную часть общества, предлагает парламентариям и правительству разного рода инициативы, говорит руководитель департамента внешних коммуникаций консалтинговой группы «Полилог» Лариса Гелина. Также церковные юристы могут привлекаться для проработки конкретных законопроектов и законодательных актов.
Нейросети – сейчас одна из самых спорных тем для правового регулирования не только в России, продолжает Гелина. Выступление отца Феодора в первую очередь показывает, что в Русской Церкви следят за современными трендами, и демонстрирует верующим готовность своевременно реагировать на новые вызовы. По ее словам, пока тема никак законодательно не закреплена и еще часто будут звучать публично предложения разной степени проработанности.
В современном мире существует практика создания андроидов, или антропоморфных роботов, с высокой степенью сходства с человеком, указывает аналитик агентства MForum Analytics Алексей Бойко. Можно говорить о том, что это вполне массовое направление во всех технологически развитых странах, включая Россию, и создание таких устройств может существенно облегчить и улучшить жизнь людей. На сегодня высокоразвитые речевые модели ИИ на основе нейросетей – это передовая технология и те люди и страны, которые будут лишены доступа к ней из-за самоограничения или из-за внешних факторов, будут проигрывать странам, которые такой доступ сохранят, обращает внимание Бойко.
В то же время мировой регуляторный опыт показал, что универсальные правила, применимые ко всем системам ИИ без учета их специфики, создать сложно, отмечает Андрей Незнамов, председатель комиссии по реализации Кодекса этики в сфере искусственного интеллекта, функционирующей на базе Альянса в сфере ИИ. Необходимо рассматривать контекст, в котором используются конкретные системы ИИ, а также степень риска, которую они могут нести, поэтому регулирование важно выстраивать по этому принципу.
В настоящий момент любое применение ИИ в России можно проверить на этичность. Для этого в октябре 2021 г. появился Кодекс этики в сфере ИИ. Документ установил ориентиры для разрешения этических дилемм, которые могут возникнуть при применении ИИ. В тоже время этот «свод правил» не накладывает дополнительных к действующему законодательству запретов, которые могут создать барьеры для развития технологий. Кодекс этики ИИ является сегодня наиболее релевантной площадкой для диалога по вопросам регулирования ИИ для всех заинтересованных сторон и пилотировать предложения можно там, указывает Незнамов.
Регулирование в сфере ИИ должно быть нацелено на обеспечение информационной безопасности, защиту персональных данных и недопущение распространения фейков, считает Гелина. Для религиозных организаций нейросети несут те же риски (например, фейковое фото папы римского в пуховике). Распространение ложной информации или некорректная интерпретация религиозных норм может нанести гораздо больше вреда, чем сам факт антропоморфизации программ, отметила она. В конце концов, было бы разумно, чтобы при общении с роботом по телефону «искусственный собеседник» предупреждал об этом человека, но делал это ненавязчиво, например один раз за сеанс общения, заключает Бойко.
4. Ответ на 1, JG:
3.
2.
Отец Феодор Лукьянов заявил о необходимости установить запрет на антропоморфизацию программ (перенесение человеческого образа и его свойств на неодушевленные предметы)Это вряд ли возможно. Уже сегодня немало людей, которые пользуются секскуклами. Кто-то, будучи внешне уродливым или инвалидом, не может найти женщину. Кто-то по эгоистическим соображением не хочет иметь дела с нормальными женщинами. Не хочет детей и постоянных конфликтов. Следующая ступень ИИ это биороботы, которые будут почти неотличимы от настоящих людей. Послушные и ни в чем не перечащие. Пусть никто не подумает, я приветствую это. Но такова реальность падшего человека.
1.