Москва, г. Москва и Московская область, Россия
Целью представляемого исследования являлось выявление политических и социальных рисков для человечества и России в связи с развитием технологий искусственного интеллекта. Методологически исследование соотносится с направлением политической научной футурологии. При выявлении политических рисков развития искусственного интеллекта используется методика сценарного прогнозирования. На основании изучения научной литературы и общественного дискурса выявляются основные позиции в осмыслении угроз развития искусственного интеллекта для человечества. В ходе исследования на анализе рассмотрения различных футурологических моделей было идентифицировано одиннадцать возможных групп политических и социальных рисков. Делается вывод о продуцировании рисков современной системой мирового общественного устройства, её противоречиями и конфликтами. Подчеркивается, что необходимость разработок в сфере искусственного интеллекта обусловливается угрозами отставания от потенциальных противников и конкурентов, которые могут означать потерю России ее суверенного статуса. Результаты исследования могут быть взяты за основу практических разработок по модернизации системы национальной безопасности России в связи с актуализацией рисков развития технологий искусственного интеллекта. В теоретико-методологическом плане представляемое исследование может быть использовано в целях дальнейшего осмысления новых технологических реальностей и перспектив через призму политологического анализа.
искусственный интеллект, политические трансформации, политические и социальные риски, национальная безопасность, конфликт, ценности
Введение
Мир стремительно меняется, трансформируются уклады жизни, рушатся казавшиеся незыблемыми культурные нормы. Увеличивается при этом скорость изменений, и нет никаких оснований считать, что в будущем будет взята технологическая пауза.
Планирование и прогнозирование технологического развития парадоксальным образом осуществляется сегодня в разрыве с вопросами этики и аксиологии. Не учитываются этические и аксиологические риски изменений, которые способны перечеркнуть практическую полезность инноваций. А между тем разрыв технологического развития и нравственного состояния человечества достиг критической величины. Появляются новые системы связи, убыстряется коммуникация, возрастают скорости, тогда как человек даже не находится в статике, а деградирует. Постмодерн с его однополыми браками, культом потребления и пропагандой насилия в виртуальном пространстве обозначает падение в бездну. Соединить технологическое развитие с развитием белого ценностного пакета человечества – вначале хотя бы в пространстве дискурса – задача также сверхактуальная.
Вопросы о грядущих трансформациях – это и вопросы национальной безопасности России. Отстать в их решении означает сегодня потерять суверенитет, что для большинства российского населения неприемлемо. И именно через призму приоритетности ценности суверенитета следует оценить внедрение новых технологий и связываемого с ними контента.
Технологии вместе с тем есть лишь инструмент, средство. Они вторичны по отношению к ценностям и целям и производны от них. Следовательно, требуется не просто развитие технологий, а формирование их ценностно-целевых оснований. В противном случае технологии обратятся против нас самих. И тем более эта связь возрастает при усложнении технологий, их «оразумливании».
Оразумливание машины, даже относительное, в свою очередь, связано с ценностными матрицами программного обеспечения. Какие ценности будут положены в её основу в условиях аксиологической разнородности человека? Этого вопроса сегодня в повестке для широкого обсуждения нет. А между тем конфликт ценностей в современном мире усиливается и наверняка выйдет на новый уровень при запуске новых технологий. Сегодня об этом не говорят, но завтра при появлении технологического монополиста уже, может, говорить будет поздно.
При раскрытии дефиниции «искусственный интеллект» [12; 13] акцент делается, как правило, на слове «искусственный», тогда как об интеллекте говорится как о метафоре. Разработка темы «искусственного интеллекта» монополизируется специалистами в сфере техники и технологий, и допуск к ней представителей гуманитарного знания осуществляется с крайней неохотой.
Между тем, проблема искусственного интеллекта содержит и политические составляющие. Во-первых, возникают новые политические технологии и возможности. Во-вторых, становится потенциально возможно появление новых политических акторов в виде самообучаемых искусственных интеллектуальных систем, вышедших из-под контроля человека. В-третьих, на новый уровень противостояния в связи с гонкой ИИ-технологий выходят прежние межгосударственные, геополитические и цивилизационные конфликты. В-четвертых, в случае монополизации или технологического отрыва какой-либо из конкурирующих сторон в сфере искусственного интеллекта, возникает риск установления мировой политической гегемонии. В-пятых, бросается вызов институции выборов и в целом демократии. Все это означает, что, как минимум, проблема искусственного интеллекта должна находиться в фокусе внимания политологов.
Целью представляемого исследования являлось выявление политических и социальных рисков для человечества и России в связи с развитием технологий искусственного интеллекта в перспективе грядущей трансформации. Выявление рисков осуществляется через соотнесение технологических трендов с проблемами и диспаритетами современного мироустройства.
Обзор научной литературы
Условно научная литература в отношении политических и социальных трансформаций мира в связи с развитием искусственного интеллекта может быть разделена на направления алармистов, оптимистов и скептиков. Алармисты полагают, что проблемы исторически беспрецедентны, человечество находится перед вызовом, которого никогда не было прежде. Крайнюю позицию занимают алармисты, заявляющие о ближайшей возможности выхода роботов из-под контроля и установления их глобальной диктатуры. Особое место в алармизме занимают алармисты религиозные, связывающие появление искусственного интеллекта с эсхатологической перспективой.
Оптимисты, напротив, считают, что появление искусственного интеллекта предоставляет человечеству возможности развития во всех сферах, которые были невозможны прежде. Крайней позицией среди оптимистов является взгляд, сообразно с которым перед человечеством открывается реальная перспектива кибернетического коммунизма.
Наконец, скептики считают, что, как технологические перспективы развития искусственного интеллекта, так и его последствий, соответственно, сильно преувеличены. Среди них распространена точка зрения, что создание искусственного интеллекта вообще невозможно, так как интеллект есть имманентная характеристика человека, а не машины.
Тема угроз для человека от созданного им же искусственного антропоморфного существа имеет давнюю историю. Искусственный человек становится в этой сюжетной линии субъектом зла. С Карла Чапека в научной фантастике развивается активно сюжетная линия установления тотальной политической власти роботов и истребления ими человечества.
Конечно, проще всего отмахнуться от всех подобных «страшилок», сказав, что это не более чем гуманитарные фантазии. Однако об угрозах для человечества развития ИИ-технологий говорили в последнее время лица, практически связанные с разработкой и внедрением новых технологий.
Среди них – знаменитый британский физик, теоретик и космолог Стивен Хокинг. Более авторитетную фигуру в экспертной оценке перспектив «искусственного интеллекта» трудно отыскать [11]. Хокинг недвусмысленно указывал на угрозу, исходящую от машин, для человека, говорил о проигрыше человечества в конкурентной борьбе с роботами. «Появление полноценного искусственного интеллекта может стать концом человеческой расы» [9]. «Такой разум возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией, мы не сможем тягаться со скоростью машин и проиграем» [7]. Хокинг во втором из представленных высказываний говорит не только о факте конкуренции, но и о механизме, обеспечивающем победу роботов – о способности к самосовершенствованию, осуществляемому с большой скоростью. Значит, по мнению знаменитого физика и в противоречие с позицией скептиков, машина способна саморазвиваться.
Наиболее резонансные высказывания последних лет об угрозах, продуцируемых развитием искусственного интеллекта, принадлежат Илону Маску. Искусственный интеллект, предостерегает Маск, есть «самый большой риск, с которым мы сталкиваемся как цивилизация» [10]. И эта оценка принадлежит человеку, деятельность которого находится в авангарде внедрения технологий, сопряжённых с перспективой появления искусственного интеллекта.
Предупреждения Маска по яркости создаваемых образов надвигающейся для человека катастрофы звучат как апокалиптические пророчества, но большинством они не воспринимаются всерьёз.
«Наименее страшное будущее, о котором я могу думать, — это то, в котором мы по крайней мере демократизировали искусственный интеллект, потому что, если одна компания или небольшая группа людей сумеют развить богоподобный цифровой суперинтеллект, они смогут захватить мир» [2].
«Всех, даже самых злобных и отвратительных диктаторов, объединяло одно – они были смертными. Однако для ИИ вообще не будет существовать такого понятия, как смерть. Он сможет существовать вечно. От такого зла людям некуда будет спрятаться» [3].
«Если у искусственного интеллекта есть цель, а человечество просто оказывается на пути, он уничтожит человечество, как нечто само собой разумеющееся, даже не задумываясь об этом. Это похоже на то, как мы строим дорогу и по пути попадается муравейник. Мы ведь не ненавидим муравьев, мы просто строим дорогу. Итак, до свидания, муравейник» [4].
«Мы стремительно продвигаемся к созданию цифрового суперинтеллекта, который намного превосходит любого человека, я думаю, что это довольно очевидно. У нас есть лет пять» [1].
О необходимости использования этического подхода при разработках программ искусственного интеллекта заговорили в последнее время на уровне руководящих официальных структур Европейского союза. В 2017 г. Европарламент принял Нормы гражданского права о робототехнике, ставшие законодательной платформой для соответствующих разработок. В профильных структурах ЕС подготавливалась Директива об этическом подходе к использованию искусственного интеллекта. Создание Директивы исходит из констатации угроз, связанных с проектом «искусственный интеллект». И эти угрозы предполагается блокировать применением этического подхода.
Следовательно, угроза состоит в том, что неэтичные машины могут действовать, как минимум, во вред человеку, а то и нести зло в этической системе координат. Применение этического подхода, по мнению экспертов из Евросоюза, станет выходом из ловушки развития технического прогресса.
Позитивная перспектива связывается с давней мечтой о том, что машина заменит человека в рутинном труде, а сам человек сможет сосредоточиться на творчестве. Такая перспектива соотносилась часто с мечтой о наступлении коммунистического общества. Общество будущего, существенно трансформирующееся под влиянием новых технических изобретений и автоматизации, описывали в художественном обрамлении футурологии коммунизма Николай Носов в «Незнайке в Солнечном городе» и Иван Ефремов в «Туманностях Андромеды».
На Западе эту линию представлял американский футуролог Жак Фреско, описывавший кибернетическое сообщество, в котором отмирает необходимость в работе и получении рабочих профессий и создавший ориентированный на его достижение специальный проект «Венера».
Сегодня убежденным сторонником позиции о том, что искусственный интеллект принесет счастье для человечества выступает один из самых известных предпринимателей мира, создатель компании «Алибаба» Джек Ма. Возможно, членство в Коммунистической партии Китая играет влияние на его позицию о прекрасных перспективах построения общества будущего, которые открывает искусственный интеллект. Джек Ма полемизирует с Илоном Маском, дающим пессимистические прогнозы. Наиболее резонансным было предсказание создателя «Алибабы» о переходе в будущем человечества под влиянием ИИ-технологий к 12-часовой рабочей неделе. «Сила электричества, - рассуждает Джек Ма, - состоит в том, что оно дает людям больше свободного времени для посещения вечерами караоке или танцевальных вечеринок. Я думаю, что искусственный интеллект даст людям больше времени наслаждаться тем, что они — люди... Производство не будет создавать новые места, потому что машины и искусственный интеллект будут заниматься производством, а люди будут заниматься чем-то другим».
Анализ научной литературы по гуманитарной и обществоведческой проблематике развития искусственного интеллекта приводит к выводам: во-первых, об отсутствии систематизации возможных рисков и угроз развития ИИ-технологий; во-вторых, о вытеснении проблемы преимущественно в сферу научно-художественную и паранаучную; в-третьих, о дефиците выработанных методологических подходов к осмыслению политических и социальных последствий появления искусственного интеллекта.
Методы
Методологическим основанием исследования явились разработки по направлению политической футурологии. В современной России существует очевидный дефицит научной футурологии. Такая дисциплина отсутствует в учебных планах ведущих российских университетов. Нет её и в перечне специальностей ВАК. Безусловно, преподаётся прогнозирование и даются различного рода прогнозы. Но футурология не тождественна любому прогнозу. Она представляет собой попытку описания будущего не как продолжения настоящего, а как качественно, а то и парадигмально иного состояния. Это будущее за чертой грядущих трансформаций. Сообразно с этим такие трансформации в связи с существующими тенденциями развития общественной сферы в сопряжение с развитием сферы технологической и были положены в основу выявления ключевых рисков.
При этом существует известная доля неопределенности в отношение направлений будущей политической трансформации, так и происходящие изменения не имеют соответствующих аналогий в прошлом. В этой связи использовалась методика сценарного прогнозирования рисков со значительным диапазоном самих сценариев.
Результаты анализа
Угрозы в развитии искусственного интеллекта имеют двоякую субъектность, будучи связаны, как с применением ИИ-технологий какими-то политическими акторами, так и с превращением в политического актора самого искусственного интеллекта. Начнем с рассмотрения первой угрозы. Тема выхода машины из-под контроля человека была поднята уже на ранних этапах развития робототехники.
Попытки разработки моральных норм для машины предпринимались не единожды. Наиболее известная из них – формулировка Айзеком Азимовым в рассказе «Хоровод» 1942 г. «трех законов робототехники». Законы формулировались следующим образом:
«1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам» [5].
Законы Азимова пытались модернизировать, но в целом они дошли до нашего времени в качестве некоторого консенсусного подхода. Однако в перспективе выхода на принципиально новый уровень в развитии искусственного интеллекта приходится констатировать, что законы не работают.
Первый закон не работает ввиду различия существующих культурно-антропологических типов, а соответственно, и различий в трактовке вреда и пользы. При создании искусственного интеллекта будут программироваться разные модели определения вреда и пользы для человека, соотносимые с различием национальных культур.
Второй закон Азимова не работает по причине существования конфликтов между людьми и сообществами. Соответственно, робот будет программироваться на непричинение вреда «своим» и нанесение его «чужим». Вероятен сценарий войн роботов, заменяющих собой людей в качестве солдат в межгосударственных конфликтах.
Третий закон не может быть признан работающим ввиду его противоречия более общему закону самосохранения систем. Чем дальше будет происходить продвижение в «оживлении» робота, тем больше вероятность приоритетности третьего закона, сохранения собственной безопасности, над первым, неприченением вреда человеку. Объективно наступит порог, после которого собственная безопасность для искусственного интеллекта окажется более значима, чем предписание не навредить человеку.
Скептики, а их в экспертном сообществе достаточно, указывают, что «искусственный интеллект» есть художественное, а не строго научное понятие. Ссылаются на неверный перевод с английского, в котором используется слово «intelligence», но не «intellect», что имеет значение ‘умение рассуждать разумно’, но не ‘интеллект’ в субъектном антропоморфном смысле. Хотя и «умение рассуждать» не отрицает субъектности интеллекта, так как предполагает вопрос «кто рассуждает?» на первой же фазе раскрытия дефиниции.
Но главной в критике скептиков является позиция, согласно которой в машине может присутствовать только то, что заложил в неё создатель. Ничего сверх того! Если создатель не заложил в робота агрессии против человека, то и агрессия с его стороны невозможна. Но действительно ли искусственный интеллект есть не более чем художественный, научно недопустимый перенос на машину человеческих качеств?
В программу робота создатель закладывает определённую информацию. Когда объёмы информации ограничены, создатель может просчитать все возможные действия машины. Но при сверхбольших объёмах информации ситуация меняется. Отдельные составляющие информации – информационные кванты – различным образом комбинируются между собой, и все возможные варианты комбинаций уже человеком не просчитываются. И не исключено, что какие-то из комбинаций приведут к таким программным изменениям, которые перепрограммируют искусственный интеллект против человека.
Ещё больше вариантов выхода робота из-под контроля человека заключают открытые информационные системы. Машина, черпающая информацию из глобальной сети, уже не определяется всецело функционалом, заданным создателем. Принимая решения на основе некой собственной репрограммированной логики, она и становится «искусственным интеллектом» в собственном смысле слова. Машина наделяется субъектностью. Соответственно, закладка через программу определённой ценностной матрицы может при действиях машины в режимах неопределённости минимизировать риски, хотя и не блокировать их полностью.
Нельзя сбрасывать со счетов и вероятность сбоев системы. Происходит элементарное замыкание – и сложная машина репрограммируется.
В нашей стране тема социальных преобразований на основе технологий искусственного получила распространение еще задолго до появления самого понятия искусственный интеллект. Идеи эволюционной замены естественного разума искусственным придерживался русский космист Константин Циолковский. «Чем далее подвигается человек по пути прогресса, - заявлял один из предтеч создания космонавтики, - тем более естественное заменяется искусственным». Искусственный интеллект Циолковский не просто считал неизбежным изобретением, но и определял его в качестве следующей эволюционной ступеньки развития.
В СССР существовало забытое сейчас, но важное для отражения альтернатив развития советского государства движения среди части ученых и управленцев кибернетического коммунизма. Его сторонники полагали, что посредством компьютерных сетей можно создать гораздо более эффективную систему управления экономикой, нежели рыночная система и система централизованного управления.
Фактически во главе проекта стоял академик АН СССР Виктор Михайлович Глушков, возглавлявший Институт кибернетики АН Украинской ССР. Его проект «Общегосударственная автоматизированная система управления советской экономикой» предполагал создание единой сети тысячи связанных друг с другой и Главным вычислительным центром компьютеров. Сторонником перехода к целостному кибернетическому управлению выступал также другой академик, председатель Научного совета по комплексной проблеме «Кибернетика» при Президиуме АН СССР, занимавший одно время пост заместителя министра обороны, Аксель Иванович Берг.
Еще один яркий приверженец идеи глобального кибернетического управления был первый советский чемпион мира по шахматам Михаил Моисеевич Ботвинник. Ботвинник в последние десятилетия жизни практически занимался проблемами компьютерного моделирования мышления человека и связывал с этим большие перспективы.
Применительно к задачам шахматным Ботвинником с коллегами была разработана программа «Пионер». В отличие от знаменитой шахматной машины «Каиссы» она основывалась не на переборе комбинаций, а именно на моделировании логики человека. Проект не был доведён до конца, но это уже был проект, продвигающийся по пути создания искусственного интеллекта.
Во времена Ботвинника утверждение гроссмейстера, что придёт время, когда машина будет обыгрывать в шахматы человека, воспринималось лирическим мечтанием. Эксперты полагали, что это невозможно ввиду неспособности машины к творчеству, на которое способен человек, и творческого характера шахматной игры. Ботвинник, убедившись в возможностях, предоставляемых компьютером при игре в шахматы, предлагал приступить к разработке программ компьютерного управления экономикой.
В США крайне опасались этих советских разработок, будучи уверены в том, что русские приближаются к созданию кибернетической цивилизации. По всей стране создавались специализированные институты, открывались факультеты и кафедры для подготовки кадров по автоматизированным системами управления. Но проекты сторонников кибернетического управления были в позднем СССР свернуты по политическим причинам. Вперед ушли США, а сейчас семимильными шагами к созданию комплексной системы искусственного управления вплотную подходит КНР.
Форсированные разработки в сфере искусственного интеллекта вести в любом случае необходимо, так как их активно ведут другие, и промедление здесь означает не больше не меньше, как потерю суверенитета. А что произойдёт с Россией при очередной, после 1990-х гг., десуверенизации? Нет никакого сомнения, что на этот раз противники попытаются её ликвидировать уже раз и навсегда. Тот же, кто первым создаст искусственный интеллект, получит колоссальные преимущества, гораздо большие, чем те, которые получили США, оказавшись в 1945 г. монополистом в обладании атомной бомбой.
Особое внимание при рассмотрении риска появления монополиста в сфере технологий искусственного интеллекта заслуживает две конфликтные проекции – глобальный геополитический конфликт и глобальный социальный конфликт. Первый выражается в достигшем апогея противостоянии Запад – Россия (возможно, Россия в связке с Китаем), оцениваемом многими экспертами в качестве «новой холодной войны» [8]. Второй – в максимизации социального расслоения между мировым бенефициариатом и большинством человечества.
Уместно в этой связи привести оценку вызовов, связанных с развитием искусственного интеллекта, данных Президентом России Владимиром Путиным: «Борьба за технологическое лидерство, прежде всего в сфере искусственного интеллекта, уже стала полем глобальной конкуренции. Скорость создания новых продуктов и решений растёт в геометрической прогрессии, по экспоненте. Уже говорил и хочу ещё раз повторить: если кто-то сможет обеспечить монополию в сфере искусственного интеллекта, – ну последствия нам всем понятны – тот станет властелином мира…. И мы, конечно, должны обеспечить технологический суверенитет в сфере искусственного интеллекта» [6].
То, что, получив монополию в сфере искусственного интеллекта, Запад применит новые технологии против геополитического противника, не вызывает сомнений. В борьбе за будущее мира – не до сантиментов. Промедление же может означать, как в случае с атомной бомбой, что монопольное положение окажется в скором времени утрачено.
Последствием социальных диспаритетов в условиях появления технологий искусственного напряжения может стать реализация идеи замещения людей роботами. Логика бизнеса подсказывает бенефицариату идти в этом направлении. Зачем делиться доходом с людьми, когда те же самые операции с гораздо большей степенью надёжности и в гораздо больших физических объёмах могут осуществить роботы?
Когда индустриальное производство переводилось из стран «золотого миллиарда» в страны Азиатского континента, капитал руководствовался теми соображениями, что азиаты более работоспособны и менее финансово затратны. Но эта же логика заставит капитал сделать со временем выбор в пользу роботов.
Всякий шаг по пути прогресса имел исторически негативные социальные последствия для лиц, связанных с прежним технологическим укладом. Предполагаемый же шаг создания искусственного интеллекта станет, очевидно, наибольшим за всю историю потрясением для большинства, лишив работы сотни миллионов населения в разных уголках мира.
Можно ли всего этого избежать, или создание искусственного интеллекта неизбежно обрекает мир на доминацию обладателей новых технологий? Да, можно, если, во-первых, не допустить монополизации, и во-вторых, связать научно-технический прогресс с прогрессом нравственным. Вторая позиция предполагает не больше не меньше, как постановку вопроса о смене парадигмы глобального жизнеустройства.
Серьёзность вызовов заставляет со всей серьёзностью приступить к обсуждению такой перспективы. И почему бы не России, имея в виду её исторический опыт, выдвинуть такого рода проект, как российское послание мира.
Принципиальное значение имеет то, в какой логике будет осуществляться программирование машины. Существуют различные национальные логики – китайская, индийская, арабская, американская, немецкая, русская и др. Соответственно, от того, кто программирует машину, зависит, в какой системе координат она будет действовать в ситуации неопределённости.
Пока, вероятно, применительно к машинам, функционирующим в заданных исходно ситуативных условиях, такие вопросы не имеют большой актуальности. Но всё изменится при переходе к ситуации неопределённости. Нестандартные условия поставят искусственный интеллект перед выбором. А между тем разные люди, представители разных ментальных типов, оказавшись в сходных условиях с теми, в которых окажется машина, поступили бы по-разному. Универсальной для всего человечества ценностной системы нет. Следовательно, выбор искусственного интеллекта будет зависеть от того, какая ценностная программа, какой цивилизационный тип окажутся в него заложены. И здесь, вероятно, в недалёком будущем развернётся большая борьба. Не исключено и появление искусственных интеллектов с разными исходными ценностными матрицами.
Выявление рисков, связанных с развитием любой системы и любых технологий, говорит о достаточно высокой научной и управленческой проработанности проблемы. Риски выявляются для того, чтобы оценить целесообразность самого дальнейшего движения в избранном направлении, так и определения механизмов их блокировки. Риски в отношении развития технологий искусственного интеллекта могут быть отнесены к глобальным проблемам развития человечества. В общественном обсуждении находятся с разной степенью акцентированности следующие заявляемые угрозы развития искусственного интеллекта. Зачастую они противоречат друг другу, будучи соотнесены с различными мировоззренческими системами.
Во-первых, непредсказуемость побочных эффектов. Мы сегодня не можем в реальности просчитать все те возможные последствия, к которым может привести развитие технологий искусственного интеллекта. Неопределенность повышает, соответственно, и опасность. На эту угрозу, в частности, обращал особое внимание автор концепции конца истории Френсис Фукуяма.
Во-вторых, восстание роботов, истребление ими человечества. Сценарий предполагает выход искусственного интеллекта из-под контроля со стороны человека. Данная угроза ярко описывается в мировой художественной литературе и кинематографе. Илон Маск – наиболее известная сегодня фигура из тех, кто бьют в набат, предупреждая о грядущем восстании роботов.
В-третьих, рост безработицы. Развитие искусственного интеллекта объективно в рамках рыночной модели экономики высвобождает труд миллионов, а возможно, и миллиардов людей. Отмирают многие профессиональные ниши. Экономическая потребность корпораций в людях минимизируется. Вероятно, потребность в криэйторах сохранится, но их потенциальное количество не может быть сопоставимо с количеством занятых в нишах стандартизированного труда.
В-четвертых, усиление неравенства, блага, созданные искусственным интеллектом, обогатят ограниченный круг людей. Владельцы новыми технологиями при их появлении получат небывалые дивиденды. Между ними и остальным человечеством, связанным с традиционными технологиями, возникнет непреодолимая социальная пропасть. Можно будет говорить о двух реальностях жизни – одна структурируемая вокруг искусственного интеллекта и другая – традиционная, а далее – и о двух антропологических измерениях.
В-пятых, абсолютный контроль над человеком, глобальный тоталитаризм. Искусственный интеллект будет способен оперативно собирать полный объем информации о человеке и составлять его психограмму. Футурологи говорят об угрозе полной утраты свободы в человеческом обществе. На этот счет высказывался, в частности, на Гайдаровском форуме премьер-министр Российской Федерации Д.А. Медведев. Появляется возможность тотального контроля за сознанием человека и его зомбированием.
В-шестых, монополист в сфере искусственного интеллекта будет способен установить мировое господство. Угроза такой монополии для человечества гораздо выше для человечества, чем существовавшая когда-то монополия обладания ядерным оружием. И с большой долей вероятности монополист в сфере искусственного интеллекта использует свое монопольное положение в борьбе со своими противниками. Не случайно, президент России напрямую связывает вопрос о развитии искусственного интеллекта с национальной безопасностью и суверенностью страны.
В-седьмых, подрыв культуры, основанной на сочетание рационального и иррационального. Искусственный интеллект, будучи совершенен в рациональном плане, не функционирует в иррациональном выражении. Это создает угрозу подавления всей иррациональной сферы, имеющей принципиальное значение для культуры и опирающейся на эмоции. Под репрессинг в данном случае подпадают религиозная вера, любовь, самопожертвование и др.
В-восьмых, создание квазирелигии, противопоставление искусственного интеллекта Богу. О том, что создание искусственного разума есть бунт против Творца говорят многие религиозные мыслители. В таком создании видят попытку заменить Бога в его акте творения человека. При этом, надо сказать, что далеко не все религиозные мыслители разделяют пафос таких предупреждений, но сама их фиксация весьма важна для реконструкции всего пространства существующих рисков.
В-девятых, усиление психологической и социальной зависимости человека от машины. Зависимость современного человека от технологий уже сегодня является реальностью. При их отключении или блокировке человек впадает в панику, его воля и сознание парализуется. Психологи говорят о психиатрической зависимости новых поколений детей от гаджетов, о новой форме технологической наркомании. Очевидно, что в перспективе развития искусственного интеллекта все эти формы зависимости будут только возрастать.
В-десятых, использование искусственного интеллекта в геополитических и цивилизационных войнах. Искусственный интеллект может стать новым совершенным оружием. А тот факт, что в отличие от ядерного оружия он не содержит эффекта бумеранга в отношении применившей его стороны, следует предположить, что с большой вероятностью он будет применен. Создание кибервойск в разных государствах мира и разработка доктрин кибербезопасности свидетельствует о том, что уже сегодня технологии искусственного интеллекта активно используются в межгосударственном противостоянии.
В-одиннадцатых, ошибки искусственного интеллекта могут иметь самые катастрофические последствия. Цена ошибки при доминировании искусственного интеллекта принципиально возрастает. Известна история, когда в период «холодной войны», когда техника ошибочно зафиксировала атаку противника, решение человека, не поверившего машине, спасло мир от ядерной катастрофы. При доминанте искусственного интеллекта, как предупреждают футурологи, машину остановить уже будет невозможно.
Отказаться ввиду всех этих рисков от самой перспективы развития искусственного интеллекта невозможно. Блокирование развития ИИ-технологий в какой-то стране или группе стран, не дает гарантий, что другие государства или корпорации не будут их развивать, даже вопреки запретам. И тогда угрозы не только не ослабнут, но, напротив, принципиально возрастут, ввиду появления монополиста.
Следовательно, человечество должно работать по каждому из обозначенных рисков. Блокирование рисков возможно как научно-технологическое, так и социальное. Безусловно, сегодняшняя система мироустройства механизмами такой блокировки не обладает. Но безопасность всего человечества требует, чтобы соответствующие мироустроительные изменения были проведены.
Выводы
Возможно с высокой долей вероятности предсказать, что развитие искусственных интеллектов объективно усилит риски для человечества. Но вызовы, как это следует из истории человечества, всегда порождали ответы. Мироустроительные изменения, как ответы на вызов повышения рисков в связи с развитием ИИ-технологий, в этой связи представляются объективно неизбежными.
Мир сегодня подошёл к черте значимых социальных трансформаций. Существующая система жизнеустройства оказывается не способной ответить на глобальные вызовы времени. Но её трансформация может направляться в разных модельных перспективах. В значительной мере это будет определяться овладением человеком технологиями искусственного интеллекта. Но то, как он будет использоваться, зависит от акторов мирового политического процесса.
Машина – это, в конце концов, всего лишь инструмент, способный быть применённым как во благо, так и во вред человечеству. Один сценарий – установление за счёт технологий искусственного интеллекта новой глобальной и тотальной фашистской системы. Другая сценарная перспектива, обозначенная в своё время в теории русского космизма, состоит в выстраивании новой модели солидарного развития человечества, обусловливаемого неограниченными технологическими возможностями, предоставляемыми искусственным интеллектом.
Развитие мира в направлении искусственного интеллекта, если исключить сценарий глобальной технологической катастрофы, по-видимому, предопределено. Это развитие содержит значительные риски и угрозы, способные перечеркнуть приобретаемые дивиденды. Блокировать угрозы возможно при целевом управлении этими проектами на базе соответствующего ценностного пакета.
1. Илон Маск боится робота-диктатора [Электронный ресурс]. URL: https://news.rambler.ru/tech/39588402-ilon-mask-boitsya-robota-diktatora/ (дата обращения 02.10.2019).
2. Илон Маск в очередной раз предупредил об опасности искусственного интеллекта [Электронный ресурс]. URL: https://vc.ru/future/35969-ilon-mask-v-ocherednoy-raz-predupredil-ob-opasnosti-iskusstvennogo-intellekta (дата обращения 02.10.2019).
3. Илон Маск предрек появление безжалостного ИИ-диктатора [Электронный ресурс]. URL: https://hi-news.ru/technology/ilon-mask-predrek-poyavlenie-bezzhalostnogo-ii-diktatora.html (дата обращения 02.10.2019).
4. Илон Маск стращает человечество роботом‑диктатором [Электронный ресурс]. URL: https://gmbox.ru/materials/34974-ilon-mask-strashchaet-chelovechestvo-robotom-diktatorom (дата обращения 02.10.2019).
5. Культурный код Азимова: как три закона робототехники вошли в историю [Электронный ресурс]. URL: https://robo-hunter.com/news/kulturnii-kod-azimova-kak-tri-zakona-robototehniki-voshli-v-istoriy8887 (дата обращения 02.10.2019).
6. Совещание по вопросам развития технологий в области искусственного интеллекта [Электронный ресурс]. URL: http://special.kremlin.ru/events/president/news/60630 (дата обращения 02.10.2019).
7. Стивен Хокинг рассказал, что уничтожит человечество в скором времени [Электронный ресурс]. URL: http://iz.ru/news/601974 (дата обращения 02.10.2019).
8. Федорченко С.Н. Значение искусственного интеллекта для политического режима России: проблемы легитимности, информационной безопасности и "мягкой силы" //Вестник Московского государственного областного университета. Серия: История и политические науки. – 2020. – № 1. – С. 41-53. DOI: 10.18384/2310-676X-2020-1-41-53.
9. Хокинг: Появление полноценного искусственного интеллекта может стать концом человеческой расы [Электронный ресурс]. URL: http://www.ng.ru/energy/2014-12-09/15_ugroza_iskusstvennogo_razuma.html (дата обращения 02.10.2019).
10. Человечество в опасности: Илон Маск призвал регулировать искусственный интеллект [Электронный ресурс]. URL: https://www.forbes.ru/tehnologii/347945-chelovechestvo-v-opasnosti-ilon-mask-prizval-regulirovat-iskusstvennyy-intellekt (дата обращения 02.10.2019).
11. 23 принципа искусственного интеллекта, одобренные Стивеном Хокингом и Илоном Маском [Электронный ресурс]. URL: http://ai-news.ru/2017/09/23_principa_iskusstvennogo_intellekta_odobrennye_stivenom_hokingom_i_ilonom.html (дата обращения 02.10.2019).
12. Cath C., Wachter S., Mittelstadt B., Taddeo M., Floridy L. Artificial Intelligence and the 'Good Society': the US, EU, and UK approach //Science and Engineering Ethics. 2018. 24(2). P. 505-528. DOI: 10.1007/s11948-017-9901-7.
13. Miailhe N. The geopolitics of artificial intelligence: The return of empires? //Politique étrangère. - 2018. - Issue 3. - P. 105-117.