ИИ может привести к деградации интеллекта человека

Об этических проблемах, связанных с использованием искусственного интеллекта

Электронный концлагерь 
1 Человек 
1190
Время на чтение 9 минут

Всероссийский центр изучения общественного мнения (ВЦИОМ) представил на своём сайте результаты опроса об этике в сфере искусственного интеллекта.

«Высокий темп научно-технического прогресса, растущий объем цифровых данных и потребность в автоматизации бизнес-процессов делают неизбежным наступление эры повсеместного использования искусственного интеллекта. Уже сейчас эти технологии активно тестируются и находят широкое применение в различных сферах нашей жизни, тем самым не только повышая производительность и конкурентоспособность бизнеса, но и упрощая жизнь конечному потребителю. В то же время, несмотря на все преимущества и большой потенциал, к полномасштабному внедрению "умных решений" российское общество пока не готово. В большинстве своем россияне придерживаются мнения, что ИИ следует использовать только в некоторых сферах (67%), тогда как каждый девятый вовсе не видит в нем нужды ("не должен использоваться вообще" — 11%). В настоящее время лишь 18% наших сограждан выступают за повсеместное использование подобного рода технологий», - отмечается в исследовании.

Мнение о применимости ИИ в различных сферах жизни обусловлено следующими факторами:

Возраст. Чем старше респондент, тем выше скепсис в отношении технологий ИИ. В самой младшей когорте широкомасштабное внедрение ИИ-решений поддерживает каждый четвертый опрошенный (18-24 лет — 26%), в самой старшей — каждый шестой (17%), при этом доля сторонников мнения, что искусственный интеллект вовсе не должен использоваться, в пять раз выше среди представителей старшего поколения (15% vs. 3% среди 18-24-летних).

Урбанизированность. 24% жителей городов-миллионников и 22% жителей обеих столиц поддерживают применение ИИ во всех возможных сферах, за полный отказ от них выступают только 6% москвичей и петербуржцев (vs. 8-17% среди жителей других населенных пунктов).

Медиапредпочтения. Активные потребители интернета вдвое чаще активных телезрителей считают, что ИИ следует применять повсеместно (24% vs. 13%). Среди приверженцев традиционной модели медиапотребления (ТВ), напротив, больше противников искусственного интеллекта (22% vs. 9% среди активных интернет-пользователей).

«Вместе с популярностью технологий ИИ растет и число этических вопросов, связанных с их использованием. В частности, речь идет о защите персональных данных, прозрачности работы алгоритмов, на основе которых принимаются решения, а также об ответственности за "ошибки" ИИ. Несмотря на способность к самообучению, в вопросах этики искусственный интеллект явно проигрывает человеку: 8 из 10 россиян считают обязательным участие человека в оценке этичности продуктов и решений, созданных с помощью технологий ИИ (79%). Обратного мнения, согласно которому искусственный интеллект можно научить морали, придерживается каждый восьмой (12%).

Наряду с ограничением сфер применения ИИ россияне выступают за маркировку продукции и контента, созданного с его помощью (69%). Чем выше частота "выхода в сеть", тем выше убежденность в необходимости подобной меры: среди ежедневных пользователей интернета уровень поддержки составляет 72%, среди эпизодических (или тех, кто вовсе не пользуется) — 59%. При этом у последних этот вопрос заметно чаще вызывает затруднения (20% vs. 5% в группе ежедневных пользователей). Еще 23% полагают, что такая маркировка не нужна», - говорится в исследовании ВЦИОМ.

«В представлениях россиян наиболее остро этические вопросы применения ИИ встают в здравоохранении и образовании — именно эти сферы чаще всего звучат в ответах на вопрос о том, где труднее всего сочетать технологии искусственного интеллекта и нормы морали (34% и 30% соответственно). То есть речь в первую очередь идет о профессиях типа "человек — человек", в которых одно неверное решение ИИ может нанести вред всем вовлеченным в его работу. Для каждого четвертого такими сферами являются военное дело (26%) и государственное управление (25%). Далее следуют творчество и социальная сфера (19% и 18% соответственно), дорожное движение и безопасность назвали по 13%, экономику — каждый восьмой (12%). Реже проблемными сферами с точки зрения столкновения мира техники с миром морали россияне считают промышленность (10%), робототехнику (9%), а также интернет вещей (9%). Затруднились с ответом еще 14%.

Здравоохранение, образование и социальная сфера чаще звучат в ответах женщин (40%, 36% и 21% соответственно) и высокообразованных граждан (40%, 37% и 26% соответственно).

Молодежь 18-24 лет называет творчество (дизайн, создание изображений, музыки и прочее) в 1,5 раза чаще россиян в целом (30% vs. 19% среди всех опрошенных).

Сложнее всего назвать сферы, в которых проблематично сочетаются технологии ИИ и существующие этические нормы, оказалось представителям старшего поколения 60+ (22%), гражданам с неполным средним образованием (28%) и активным телезрителям (28%). Эти же группы чаще затруднялись в ответах на вопрос о возможности научить ИИ этике и об обязательной маркировке продукции, созданной с его помощью, что свидетельствует об их слабой степени погруженности в данную тему», - отметили во ВЦИОМ.

«Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред, — гласит первый закон робототехники, сформулированный писателем-фантастом Айзеком Азимовым. Однако практика показывает, что ни одно умное устройство не застраховано от ошибок, вопрос лишь в том, кто несет за них ответственность. В ситуации, когда врач предписывает пациенту неверное лечение на основе ошибочно поставленного диагноза с помощью ИИ, россияне в первую очередь винят человека. По мнению каждого второго, ответственность за случившееся несет врач (54%), каждый пятый назвал разработчика искусственного интеллекта (21%) и только 3% — сам ИИ. Еще 30% полагают, что в равной степени виноваты все трое.

Мужчины чаще женщин считают ответственным врача (59% vs. 49% женщин) и разработчика ИИ (26% vs. 17%), женщины — всех в равной мере (36% vs. 22%).

Россиянам до 25 лет в меньшей степени, чем старшему поколению, свойственно считать случившееся врачебной ошибкой — они называют ответственным врача на 7-8 п.п. реже, чем граждане 60+ (48-49% vs. 56%) и, напротив, на 14-15 п.п. чаще придерживаются мнения, что виноваты все трое — и медицинский работник, и разработчик, и искусственный интеллект (37-38% vs. 23%)», - заключили авторы исследования.

Результаты исследования проанализировал в интервью «Русской народной линии» соавтор образовательного курса «Нравственные основы семейной жизни» для старшеклассников, разработчик научного направления семейно-ориентированного образования, кандидат биологических наук протоиерей Димитрий Моисеев:

В первую очередь необходимо понимать, что искусственный интеллект (ИИ) – это инструмент.

Во-первых, ИИ не может заменять ни цель, ни смысл, ни предназначение человека. Этические проблемы, связанные с искусственным интеллектом, можно сравнить с этическими проблемами использования любого инструмента – ножа, скальпеля или топора. Должны быть чётко определены ситуации и сферы, в которых использование ИИ недопустимо.

Если говорить по-простому, то скальпелем можно спасти человека от смерти, а можно наоборот погубить. Поэтому все вопросы искусственного интеллекта должны рассматриваться именно с позиции инструмента. Любое использование искусственного интеллекта должно быть обговорено с точки зрения права, морали, безопасности и прочее.

Во-вторых, существует опасность, что ИИ приведёт к деградации интеллекта человека. Это мы уже наблюдали при появлении калькуляторов, компьютеров. Неразумное делегирование интеллектуальных функций искусственному интеллекту, а не человеку может привести к атрофии мозга и деградации интеллектуальных способностей человека. Это очень серьёзная проблема.

В-третьих, ответственность за ошибки ИИ. Например, если собака в магазине съела колбасу, то к ответственности привлекается хозяин четвероногого или работник магазина. При любом инциденте ответственность должна быть на кого-то возложена.

Уже существующая практика использования ИИ в социальных процессах некоторых стран в ряде случаев незаконна. Неправильные решения ИИ, приводящие к серьезным моральным, физическим последствиям для людей, не приводят к ответственности конкретных лиц.

Использование искусственного интеллекта не освобождает врача или педагога от ответственности за неправильно принятое решение. Для этого у специалиста есть профессиональный опыт, человеческий разум и совесть. Тем более, это относится к социальным вопросам.

Самое опасное, что после ошибки искусственного интеллекта человеку не с кого спросить. Это очень скользкая стезя, где ответственные лица могут перекладывать ответственность на ИИ – все ошибки, неправды и преступления. Это недопустимо!

При любом ущербе должно быть ответственное лицо. Например, организация, использующая ИИ, несёт ответственность за его работу, автор-разработчик ИИ, специалист, использующий ИИ в качестве инструмента. Всё это должно быть оговорено.

За любой сбой и ошибку ИИ должна быть личная ответственность людей. Если эти три основных пункта будут соблюдены, то можно думать о том, как использовать ИИ. Например, нельзя не использовать искусственный интеллект в военной авиации. Но все риски должны быть учтены, а лакуны безответственности устранены.

ИИ должен помочь человеку развивать собственные интеллектуальные способности, а не губить интеллект человека.

Есть ли возможность не переступить грань, за которой последует деградация человека? Нужно развивать образование. Мы с коллегами под руководством член-корреспондента РАО В.И.Слободчикова многие годы разрабатываем антропологический подход в образовании, в котором задействованы различные человеческие качества, не только интеллектуальные. Поэтому, если развивать образование, то использование искусственного интеллекта будет более окультуренным, более человеко-сообразным и полезным для общества. А если у нас не будет должного развития качества образования, то применение ИИ может привести к отрицательным последствиям, в том числе к деградации интеллектуальных способностей значительной части населения. Этого нельзя допускать!

Но развивать образование нужно не только в ключе знаний, как это теперь делается. Как говорил Козьма Прутков: «Специалист подобен флюсу».

Может возникнуть конфликт: человек стремится к знаниям в ущерб нравственному, физическому, духовному и культурному развитию. На пути знаний у человека появляется серьёзный конкурент в виде искусственного интеллекта. И это может привести к психологическим срывам, что мы видим в странах Востока – в Китае и Японии. Среди населения этих стран царит повышенная невротизация в связи с развитым перфекционизмом. В китайских школах дети учатся по 14 часов.

Нужно гармонично развивать человека – не только интеллектуально, но и физически, нравственно, культурно, духовно. У человека большой потенциал развития интеллекта, поскольку природа человеческого интеллекта более сложная, многогранная, чем ИИ. Конечно, скорость принятия решений ИИ может опережать человеческую, но в качественном плане невозможно заменить интеллект человека в обозримой исторической перспективе.

Поэтому есть ещё одна опасность, которая присутствует в нашей жизни – безграничное доверие к искусственному интеллекту, возложение на него чрезмерных надежд и ответственности. Излишнее упование на искусственный интеллект может приводить к негативным последствиям.

Ныне интеллект человека недооценен, а возможности ИИ – переоценены. Напомню, что в советское время наука была во многом поставлена в качестве идола и мерила всех вещей. Считалось, что наука может ответить на любой вопрос. Но это является откровенным заблуждением. В советское время были отвергнуты многие религиозные и философские подходы в пользу чисто научного знания. Многие негативные последствия произошли именно из-за переоценки научных знаний. Искусственный интеллект, как и наука, должен занимать своё место в системе смыслов и ценностей человеческого бытия – не идеализироваться и не идолизироваться!

Ещё одна опасность современного этапа развития общества – это идеализация и идолизация искусственного интеллекта, когда могут приписывать ИИ божественные свойства всеведения, всемогущества и прочее. Что является современной формой идолопоклонства.

Самая большая опасность, что владение этим инструментом одними людьми увеличит их власть, а отсутствие доступа к ИИ других делает их зависимыми. Контроль над искусственным интеллектом должен быть строго связан с вопросами права и власти. Иными словами, ИИ должен быть под контролем государства и общества. Мощные инструменты искусственного интеллекта не должны быть в ведении отдельных частных лиц и корпораций, преследующих сугубо личные или корпоративные интересы. Речь идет о безопасности государства. ИИ по мощности воздействия можно сравнить с ядерным оружием.

Если частные люди, а тем более люди, склонные к экстремизму, будут обладать ядерным оружием – это будет угрозой для общества и мира. То же самое касается искусственного интеллекта, а также разработок в области биологии, генной инженерии. Человечество должно выработать определенные юридические законы и нормативы в отношении к такому серьезному, а в некоторых ситуациях, и небезопасному инструменту, как искусственный интеллект.

Заметили ошибку? Выделите фрагмент и нажмите "Ctrl+Enter".
Подписывайте на телеграмм-канал Русская народная линия
РНЛ работает благодаря вашим пожертвованиям.
Комментарии
Оставлять комментарии незарегистрированным пользователям запрещено,
или зарегистрируйтесь, чтобы продолжить

1.

Хотел бы обратить внимание вот на эту фразу: "Во-вторых, существует опасность, что ИИ приведёт к деградации интеллекта человека. Это мы уже наблюдали при появлении калькуляторов, компьютеров." Суждение высказано так, как будто это является научным фактом. Но это не так.

Во-первых, не очень понятно, как оценивать интеллект. Есть нкоторая статистика IQ-тестов. По ней видно, что если в первых трех четвертях прошлого столетия средний IQ рос, то в конце он начал снижаться. Говорит ли это о реальном снижении интеллекта? Уверенно сказать нельзя. Допустить, правда, можно

Но виновны ли в этом "калькуляторы и компьютеры"? Прежде всего, ученые пеняют системе образования. Вообще, научным фактом можно считать вот что: интеллект формируется в детском возрасте. Вернее, есть генетические и социальные факторы интеллекта. С генетикой всё понятно, а вот как воздействует на интеллект среда? Выяснилось, что среда воздействует только в детстве. Потом пластичность ума снижается и дальнейшего развития интеллекта во взрослом возрасте не происходит.

Калькуляторы, думаю,тут вообще ни при чем. Что касается компьютеров, то слово "компьютеры" слишком общее. Отрицательное влияние на интеллект приписывается компьютерным играм. Пока это еще не доказанный научный факт, но близко к этому.

Ещё один фактор - это масс-медиа (дурацкое телевидение, прежде всего). Сегодня это, возможно, и отрицательное влияние соцсетей... Но это тоже ещё надо изучать. Но соцсети и компьютерные игры - это вовсе не "компьютеры", это некоторые приложения... Сами по себе компьютеры скорее открыли мир программирования, который сильно простимулировал развитие математики и должен работать с точки зрения интеллекта "в плюс".
Андрей Карпов / 20.09.2023, 12:22
Сообщение для редакции

Фрагмент статьи, содержащий ошибку:

Организации, запрещенные на территории РФ: «Исламское государство» («ИГИЛ»); Джебхат ан-Нусра (Фронт победы); «Аль-Каида» («База»); «Братья-мусульмане» («Аль-Ихван аль-Муслимун»); «Движение Талибан»; «Священная война» («Аль-Джихад» или «Египетский исламский джихад»); «Исламская группа» («Аль-Гамаа аль-Исламия»); «Асбат аль-Ансар»; «Партия исламского освобождения» («Хизбут-Тахрир аль-Ислами»); «Имарат Кавказ» («Кавказский Эмират»); «Конгресс народов Ичкерии и Дагестана»; «Исламская партия Туркестана» (бывшее «Исламское движение Узбекистана»); «Меджлис крымско-татарского народа»; Международное религиозное объединение «ТаблигиДжамаат»; «Украинская повстанческая армия» (УПА); «Украинская национальная ассамблея – Украинская народная самооборона» (УНА - УНСО); «Тризуб им. Степана Бандеры»; Украинская организация «Братство»; Украинская организация «Правый сектор»; Международное религиозное объединение «АУМ Синрике»; Свидетели Иеговы; «АУМСинрике» (AumShinrikyo, AUM, Aleph); «Национал-большевистская партия»; Движение «Славянский союз»; Движения «Русское национальное единство»; «Движение против нелегальной иммиграции»; Комитет «Нация и Свобода»; Международное общественное движение «Арестантское уголовное единство»; Движение «Колумбайн»; Батальон «Азов»; Meta

Полный список организаций, запрещенных на территории РФ, см. по ссылкам:
http://nac.gov.ru/terroristicheskie-i-ekstremistskie-organizacii-i-materialy.html

Иностранные агенты: «Голос Америки»; «Idel.Реалии»; «Кавказ.Реалии»; «Крым.Реалии»; «Телеканал Настоящее Время»; Татаро-башкирская служба Радио Свобода (Azatliq Radiosi); Радио Свободная Европа/Радио Свобода (PCE/PC); «Сибирь.Реалии»; «Фактограф»; «Север.Реалии»; Общество с ограниченной ответственностью «Радио Свободная Европа/Радио Свобода»; Чешское информационное агентство «MEDIUM-ORIENT»; Пономарев Лев Александрович; Савицкая Людмила Алексеевна; Маркелов Сергей Евгеньевич; Камалягин Денис Николаевич; Апахончич Дарья Александровна; Понасенков Евгений Николаевич; Альбац; «Центр по работе с проблемой насилия "Насилию.нет"»; межрегиональная общественная организация реализации социально-просветительских инициатив и образовательных проектов «Открытый Петербург»; Санкт-Петербургский благотворительный фонд «Гуманитарное действие»; Мирон Федоров; (Oxxxymiron); активистка Ирина Сторожева; правозащитник Алена Попова; Социально-ориентированная автономная некоммерческая организация содействия профилактике и охране здоровья граждан «Феникс плюс»; автономная некоммерческая организация социально-правовых услуг «Акцент»; некоммерческая организация «Фонд борьбы с коррупцией»; программно-целевой Благотворительный Фонд «СВЕЧА»; Красноярская региональная общественная организация «Мы против СПИДа»; некоммерческая организация «Фонд защиты прав граждан»; интернет-издание «Медуза»; «Аналитический центр Юрия Левады» (Левада-центр); ООО «Альтаир 2021»; ООО «Вега 2021»; ООО «Главный редактор 2021»; ООО «Ромашки монолит»; M.News World — общественно-политическое медиа;Bellingcat — авторы многих расследований на основе открытых данных, в том числе про участие России в войне на Украине; МЕМО — юридическое лицо главреда издания «Кавказский узел», которое пишет в том числе о Чечне; Артемий Троицкий; Артур Смолянинов; Сергей Кирсанов; Анатолий Фурсов; Сергей Ухов; Александр Шелест; ООО "ТЕНЕС"; Гырдымова Елизавета (певица Монеточка); Осечкин Владимир Валерьевич (Гулагу.нет); Устимов Антон Михайлович; Яганов Ибрагим Хасанбиевич; Харченко Вадим Михайлович; Беседина Дарья Станиславовна; Проект «T9 NSK»; Илья Прусикин (Little Big); Дарья Серенко (фемактивистка); Фидель Агумава; Эрдни Омбадыков (официальный представитель Далай-ламы XIV в России); Рафис Кашапов; ООО "Философия ненасилия"; Фонд развития цифровых прав; Блогер Николай Соболев; Ведущий Александр Макашенц; Писатель Елена Прокашева; Екатерина Дудко; Политолог Павел Мезерин; Рамазанова Земфира Талгатовна (певица Земфира); Гудков Дмитрий Геннадьевич; Галлямов Аббас Радикович; Намазбаева Татьяна Валерьевна; Асланян Сергей Степанович; Шпилькин Сергей Александрович; Казанцева Александра Николаевна; Ривина Анна Валерьевна

Списки организаций и лиц, признанных в России иностранными агентами, см. по ссылкам:
https://minjust.gov.ru/uploaded/files/reestr-inostrannyih-agentov-10022023.pdf

Протоиерей Димитрий Моисеев
Слово и число как антропологические категории
Проект цифровизации образования может быть непосредственно связан с угрозой национальной безопасности России
07.02.2024
Православная отечественная культура – потери и приобретения и образ будущего
Доклад на епархиальных Алатырских Рождественских Чтениях 27 ноября 2023 года
05.02.2024
Мы на стадии расчеловечивания
О последствиях для человечества вживления в мозг импланта Neuralink
03.02.2024
Нужна смена парадигмы
О национальной доктрине образования и Концепции воспитания человека в России
23.11.2022
Как воспитать семьянина
О создании в России семейно-ориентированного образования
19.11.2022
Все статьи Протоиерей Димитрий Моисеев
Электронный концлагерь
В обществе преодолён страх технологической революции
О правильном отношении к новым технологиям – ИИ, нейросети, биоинженерии
18.04.2024
Дуров: Есть две причины почему Telegram не в США
Первое интервью основателя VK и Telegram за последние 6 лет
17.04.2024
«Заменить человека “железками” и технологиями невозможно»
Государству и обществу нужны твердые знания, а не только умение пользоваться интернетом
05.04.2024
Все статьи темы
Последние комментарии
Леваки назвали великого русского философа Ильина фашистом
Новый комментарий от Сергей Швецов
25.04.2024 22:16
К 305-летию выхода Робинзона Крузо
Новый комментарий от Павел Тихомиров
25.04.2024 22:02
Потерянное время
Новый комментарий от Русский Иван
25.04.2024 21:45
Откуда берутся товарищи Ивановы?
Новый комментарий от Русский Иван
25.04.2024 21:42
История капитализма в России. Куда идем?
Новый комментарий от Русский Иван
25.04.2024 21:18