Послушала очередное выступление Юваля Ноя Харари. Общий порок всех его выступлений: он всегда считает своим долгом заявить, что "искусственный интеллект может принести много пользы". Это надо пропустить как нерелевантное, дальше можно слушать.
В этот раз он сказал совершенно правильные вещи про то, что:
— 1) люди передают искусственному интеллекту человеческие функции (уже сейчас — решение о выдаче кредита в банках, о выплате страховки и т.д.); мы рискуем оказаться в ситуации не то чтобы централизованного захвата контроля, а в ситуации, когда понемножку, понемножку из наших рук уплывёт контроль над множеством функций;
— 2) искусственный интеллект чрезмерно ускоряет людей, которые по своей природе существа небыстрые, люди не имеют шанса выиграть эту гонку (ровно это я написала в ноябрьской статье в МК);
— 3) гонка ИИ проистекает из того, что люди не доверяют друг другу, и при этом с чего-то решили, что могут доверять искусственному интеллекту. Поэтому государства пихают ИИ-разработки вперёд, даже сознавая, что они небезопасны. Рассуждение здесь такое: "Вот мы остановим разработки, а китайцы не остановят, и нас опередят. Так что мы не будем останавливать".
Тут Харари прав, правительства действительно так рассуждают. Но он глубоко и спекулятивно неправ, когда возводит этот образ мышления к "империалистической войне, которую Россия развязала против Украины". По его словам, с этой войной "всё очень-очень просто". Зато когда его спрашивают про Израиль и Газу (Харари еврей) — всё сразу становится, по его словам, "сложной проблемой". Ну в общем вы поняли. Это очень типично. И не способствует доверию.
Кроме того, конкурентная гонка вовсе не восходит к 2022 году. Она началась годами раньше, когда "Гугл", осознавая, что дело малость выходит из-под контроля, закрыл свою ИИ-разработку (они ведь первые изобрели трансформер), а OpenAI не закрыла — и опередила "Гугл". И тогда "Гугл" понял, что осторожность нынче не в моде, надо скорей-скорей.
Так что план Харари, который заключается в том, что прежде чем решить проблему ИИ, надо решить проблему доверия, кажется мне, скажем так, легковесным. Неосновательным.
Мне кажется, что надо идти глубже — и отталкиваться не от доверия даже, а от того, что идея искусственного интеллекта порочна сама по себе. Это можно делать ещё до установления доверия. Ещё до того, как установить прочные доверительные контакты с другими людьми, люди должны осознавать, что искусственному интеллекту доверять нельзя в принципе. Осознавать и говорить об этом. Это как ещё до того, как поверить человеку, вы скажете "я уж лучше поверю человеку, чем нечеловеческому монстру".
Но для этого надо перестать заявлять, что "ИИ может принести много пользы". Это следует отметать с ходу, как нерелевантное. Надо формировать отношение к нему как к монстру.
1.