Всероссийский центр изучения общественного мнения (ВЦИОМ) представил на своём сайте результаты опроса об этике в сфере искусственного интеллекта.
«Высокий темп научно-технического прогресса, растущий объем цифровых данных и потребность в автоматизации бизнес-процессов делают неизбежным наступление эры повсеместного использования искусственного интеллекта. Уже сейчас эти технологии активно тестируются и находят широкое применение в различных сферах нашей жизни, тем самым не только повышая производительность и конкурентоспособность бизнеса, но и упрощая жизнь конечному потребителю. В то же время, несмотря на все преимущества и большой потенциал, к полномасштабному внедрению "умных решений" российское общество пока не готово. В большинстве своем россияне придерживаются мнения, что ИИ следует использовать только в некоторых сферах (67%), тогда как каждый девятый вовсе не видит в нем нужды ("не должен использоваться вообще" — 11%). В настоящее время лишь 18% наших сограждан выступают за повсеместное использование подобного рода технологий», - отмечается в исследовании.
Мнение о применимости ИИ в различных сферах жизни обусловлено следующими факторами:
Возраст. Чем старше респондент, тем выше скепсис в отношении технологий ИИ. В самой младшей когорте широкомасштабное внедрение ИИ-решений поддерживает каждый четвертый опрошенный (18-24 лет — 26%), в самой старшей — каждый шестой (17%), при этом доля сторонников мнения, что искусственный интеллект вовсе не должен использоваться, в пять раз выше среди представителей старшего поколения (15% vs. 3% среди 18-24-летних).
Урбанизированность. 24% жителей городов-миллионников и 22% жителей обеих столиц поддерживают применение ИИ во всех возможных сферах, за полный отказ от них выступают только 6% москвичей и петербуржцев (vs. 8-17% среди жителей других населенных пунктов).
Медиапредпочтения. Активные потребители интернета вдвое чаще активных телезрителей считают, что ИИ следует применять повсеместно (24% vs. 13%). Среди приверженцев традиционной модели медиапотребления (ТВ), напротив, больше противников искусственного интеллекта (22% vs. 9% среди активных интернет-пользователей).
«Вместе с популярностью технологий ИИ растет и число этических вопросов, связанных с их использованием. В частности, речь идет о защите персональных данных, прозрачности работы алгоритмов, на основе которых принимаются решения, а также об ответственности за "ошибки" ИИ. Несмотря на способность к самообучению, в вопросах этики искусственный интеллект явно проигрывает человеку: 8 из 10 россиян считают обязательным участие человека в оценке этичности продуктов и решений, созданных с помощью технологий ИИ (79%). Обратного мнения, согласно которому искусственный интеллект можно научить морали, придерживается каждый восьмой (12%).
Наряду с ограничением сфер применения ИИ россияне выступают за маркировку продукции и контента, созданного с его помощью (69%). Чем выше частота "выхода в сеть", тем выше убежденность в необходимости подобной меры: среди ежедневных пользователей интернета уровень поддержки составляет 72%, среди эпизодических (или тех, кто вовсе не пользуется) — 59%. При этом у последних этот вопрос заметно чаще вызывает затруднения (20% vs. 5% в группе ежедневных пользователей). Еще 23% полагают, что такая маркировка не нужна», - говорится в исследовании ВЦИОМ.
«В представлениях россиян наиболее остро этические вопросы применения ИИ встают в здравоохранении и образовании — именно эти сферы чаще всего звучат в ответах на вопрос о том, где труднее всего сочетать технологии искусственного интеллекта и нормы морали (34% и 30% соответственно). То есть речь в первую очередь идет о профессиях типа "человек — человек", в которых одно неверное решение ИИ может нанести вред всем вовлеченным в его работу. Для каждого четвертого такими сферами являются военное дело (26%) и государственное управление (25%). Далее следуют творчество и социальная сфера (19% и 18% соответственно), дорожное движение и безопасность назвали по 13%, экономику — каждый восьмой (12%). Реже проблемными сферами с точки зрения столкновения мира техники с миром морали россияне считают промышленность (10%), робототехнику (9%), а также интернет вещей (9%). Затруднились с ответом еще 14%.
Здравоохранение, образование и социальная сфера чаще звучат в ответах женщин (40%, 36% и 21% соответственно) и высокообразованных граждан (40%, 37% и 26% соответственно).
Молодежь 18-24 лет называет творчество (дизайн, создание изображений, музыки и прочее) в 1,5 раза чаще россиян в целом (30% vs. 19% среди всех опрошенных).
Сложнее всего назвать сферы, в которых проблематично сочетаются технологии ИИ и существующие этические нормы, оказалось представителям старшего поколения 60+ (22%), гражданам с неполным средним образованием (28%) и активным телезрителям (28%). Эти же группы чаще затруднялись в ответах на вопрос о возможности научить ИИ этике и об обязательной маркировке продукции, созданной с его помощью, что свидетельствует об их слабой степени погруженности в данную тему», - отметили во ВЦИОМ.
«Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред, — гласит первый закон робототехники, сформулированный писателем-фантастом Айзеком Азимовым. Однако практика показывает, что ни одно умное устройство не застраховано от ошибок, вопрос лишь в том, кто несет за них ответственность. В ситуации, когда врач предписывает пациенту неверное лечение на основе ошибочно поставленного диагноза с помощью ИИ, россияне в первую очередь винят человека. По мнению каждого второго, ответственность за случившееся несет врач (54%), каждый пятый назвал разработчика искусственного интеллекта (21%) и только 3% — сам ИИ. Еще 30% полагают, что в равной степени виноваты все трое.
Мужчины чаще женщин считают ответственным врача (59% vs. 49% женщин) и разработчика ИИ (26% vs. 17%), женщины — всех в равной мере (36% vs. 22%).
Россиянам до 25 лет в меньшей степени, чем старшему поколению, свойственно считать случившееся врачебной ошибкой — они называют ответственным врача на 7-8 п.п. реже, чем граждане 60+ (48-49% vs. 56%) и, напротив, на 14-15 п.п. чаще придерживаются мнения, что виноваты все трое — и медицинский работник, и разработчик, и искусственный интеллект (37-38% vs. 23%)», - заключили авторы исследования.
Результаты исследования проанализировал в интервью «Русской народной линии» соавтор образовательного курса «Нравственные основы семейной жизни» для старшеклассников, разработчик научного направления семейно-ориентированного образования, кандидат биологических наук протоиерей Димитрий Моисеев:
В первую очередь необходимо понимать, что искусственный интеллект (ИИ) – это инструмент.
Во-первых, ИИ не может заменять ни цель, ни смысл, ни предназначение человека. Этические проблемы, связанные с искусственным интеллектом, можно сравнить с этическими проблемами использования любого инструмента – ножа, скальпеля или топора. Должны быть чётко определены ситуации и сферы, в которых использование ИИ недопустимо.
Если говорить по-простому, то скальпелем можно спасти человека от смерти, а можно наоборот погубить. Поэтому все вопросы искусственного интеллекта должны рассматриваться именно с позиции инструмента. Любое использование искусственного интеллекта должно быть обговорено с точки зрения права, морали, безопасности и прочее.
Во-вторых, существует опасность, что ИИ приведёт к деградации интеллекта человека. Это мы уже наблюдали при появлении калькуляторов, компьютеров. Неразумное делегирование интеллектуальных функций искусственному интеллекту, а не человеку может привести к атрофии мозга и деградации интеллектуальных способностей человека. Это очень серьёзная проблема.
В-третьих, ответственность за ошибки ИИ. Например, если собака в магазине съела колбасу, то к ответственности привлекается хозяин четвероногого или работник магазина. При любом инциденте ответственность должна быть на кого-то возложена.
Уже существующая практика использования ИИ в социальных процессах некоторых стран в ряде случаев незаконна. Неправильные решения ИИ, приводящие к серьезным моральным, физическим последствиям для людей, не приводят к ответственности конкретных лиц.
Использование искусственного интеллекта не освобождает врача или педагога от ответственности за неправильно принятое решение. Для этого у специалиста есть профессиональный опыт, человеческий разум и совесть. Тем более, это относится к социальным вопросам.
Самое опасное, что после ошибки искусственного интеллекта человеку не с кого спросить. Это очень скользкая стезя, где ответственные лица могут перекладывать ответственность на ИИ – все ошибки, неправды и преступления. Это недопустимо!
При любом ущербе должно быть ответственное лицо. Например, организация, использующая ИИ, несёт ответственность за его работу, автор-разработчик ИИ, специалист, использующий ИИ в качестве инструмента. Всё это должно быть оговорено.
За любой сбой и ошибку ИИ должна быть личная ответственность людей. Если эти три основных пункта будут соблюдены, то можно думать о том, как использовать ИИ. Например, нельзя не использовать искусственный интеллект в военной авиации. Но все риски должны быть учтены, а лакуны безответственности устранены.
ИИ должен помочь человеку развивать собственные интеллектуальные способности, а не губить интеллект человека.
Есть ли возможность не переступить грань, за которой последует деградация человека? Нужно развивать образование. Мы с коллегами под руководством член-корреспондента РАО В.И.Слободчикова многие годы разрабатываем антропологический подход в образовании, в котором задействованы различные человеческие качества, не только интеллектуальные. Поэтому, если развивать образование, то использование искусственного интеллекта будет более окультуренным, более человеко-сообразным и полезным для общества. А если у нас не будет должного развития качества образования, то применение ИИ может привести к отрицательным последствиям, в том числе к деградации интеллектуальных способностей значительной части населения. Этого нельзя допускать!
Но развивать образование нужно не только в ключе знаний, как это теперь делается. Как говорил Козьма Прутков: «Специалист подобен флюсу».
Может возникнуть конфликт: человек стремится к знаниям в ущерб нравственному, физическому, духовному и культурному развитию. На пути знаний у человека появляется серьёзный конкурент в виде искусственного интеллекта. И это может привести к психологическим срывам, что мы видим в странах Востока – в Китае и Японии. Среди населения этих стран царит повышенная невротизация в связи с развитым перфекционизмом. В китайских школах дети учатся по 14 часов.
Нужно гармонично развивать человека – не только интеллектуально, но и физически, нравственно, культурно, духовно. У человека большой потенциал развития интеллекта, поскольку природа человеческого интеллекта более сложная, многогранная, чем ИИ. Конечно, скорость принятия решений ИИ может опережать человеческую, но в качественном плане невозможно заменить интеллект человека в обозримой исторической перспективе.
Поэтому есть ещё одна опасность, которая присутствует в нашей жизни – безграничное доверие к искусственному интеллекту, возложение на него чрезмерных надежд и ответственности. Излишнее упование на искусственный интеллект может приводить к негативным последствиям.
Ныне интеллект человека недооценен, а возможности ИИ – переоценены. Напомню, что в советское время наука была во многом поставлена в качестве идола и мерила всех вещей. Считалось, что наука может ответить на любой вопрос. Но это является откровенным заблуждением. В советское время были отвергнуты многие религиозные и философские подходы в пользу чисто научного знания. Многие негативные последствия произошли именно из-за переоценки научных знаний. Искусственный интеллект, как и наука, должен занимать своё место в системе смыслов и ценностей человеческого бытия – не идеализироваться и не идолизироваться!
Ещё одна опасность современного этапа развития общества – это идеализация и идолизация искусственного интеллекта, когда могут приписывать ИИ божественные свойства всеведения, всемогущества и прочее. Что является современной формой идолопоклонства.
Самая большая опасность, что владение этим инструментом одними людьми увеличит их власть, а отсутствие доступа к ИИ других делает их зависимыми. Контроль над искусственным интеллектом должен быть строго связан с вопросами права и власти. Иными словами, ИИ должен быть под контролем государства и общества. Мощные инструменты искусственного интеллекта не должны быть в ведении отдельных частных лиц и корпораций, преследующих сугубо личные или корпоративные интересы. Речь идет о безопасности государства. ИИ по мощности воздействия можно сравнить с ядерным оружием.
Если частные люди, а тем более люди, склонные к экстремизму, будут обладать ядерным оружием – это будет угрозой для общества и мира. То же самое касается искусственного интеллекта, а также разработок в области биологии, генной инженерии. Человечество должно выработать определенные юридические законы и нормативы в отношении к такому серьезному, а в некоторых ситуациях, и небезопасному инструменту, как искусственный интеллект.
1.