
Из всей совокупности общих для психологии и искусственного интеллекта тем ниже будут рассмотрены две, наиболее существенные. Первая относится к сходствам и различиям устройства естественного и искусственного интеллекта, как их видят психология и информатика. Вторая — к психологическим проблемам, сопутствующим проникновению в жизнь технологий искусственного интеллекта.
Искусственный и естественный интеллект: аналогии и различия
Технические устройства нечасто воспроизводят естественные биологические структуры. Подъемные силы самолета создаются не так, как у птицы, колесо автомобиля не похоже на конечности животного, а плавники рыбы — на винт подводной лодки. Искусственный интеллект в реализованных на сегодняшний день проектах добивается эффективности решения задач в большинстве случаев не теми средствами, что человек, и опирается на другие вычислительные ресурсы и «элементную базу». Во многих областях искусственному интеллекту еще очень далеко до рационального поведения человека, в то время как в других, например, в игре в шахматы или го, он уже намного ушел вперед. Однако трудно указать такую отрасль, где интеллектуальная машина делала бы в точности то и так, что и как человек. Если ей удается догнать человека, она не останавливается и, опираясь на вычислительное быстродействие, вырывается вперед.
Тем не менее, сколь ни парадоксально это звучит на фоне только что сказанного, между исследованиями в двух областях прочерчиваются глубокие параллели, которые сопровождаются двухсторонними заимствованиями и перетеканием идей и принципов. Возьмем нейронные сети глубокого обучения, с которыми связан последний бум в области искусственного интеллекта. Корни идеи нейронных сетей уходят в глубь времен, далеко предшествующих формированию наук об искусственном интеллекте. Согласно философско-психологическому ассоцианистскому подходу1, ассоциативные связи составляют сеть, пронизывающую всю совокупность идей, которыми располагает человек. Эта идеология составляет фактически начало пути к современным сетям глубокого обучения, хотя и содержит довольно сильные отличия2. Дальнейшее движение по этому пути шло силами как психологов, так и психофизиологов: взаимодействие психологии с искусственным интеллектом нельзя представить вне биологии, в первую очередь таких ее разделов, как психо- и нейрофизиология. В конце XIX — первой половине XX века трудами И.П. Павлова, В.М. Бехтерева, Э. Торндайка, Б.Ф. Скиннера и др. представления об ассоциировании были распространены (через понятия условного и оперантного научения) с области идей на область поведенческих актов, обучения и обогащены впечатляющим корпусом экспериментальных данных.
Следующий шаг был сделан в 1949 г. нейропсихологом Д. Хеббом, который наложил ассоцианистские и рефлекторные идеи на сформировавшиеся к тому времени представления о нейронах и их связях, введя понятия о гипотетическом синапсе, который формирует связь между нейронами в случае совпадения моментов их разрядов. Тем самым фактически предлагался первый алгоритм обучения нейронных сетей, делался последний шаг к идеологии распределенного хранения знания — поведенческий акт или понятие связаны в памяти с работой целой группы нейронов, возможно, расположенных в различных отделах мозга.
Сам Хебб, однако, не пытался исследовать, какими способностями будет обладать сеть, собранная из описанных им нейронов. Собственно, и сегодня нет каких-либо оснований считать, что такая сеть способна обучиться распознавать конфигурации или совершать другие важные когнитивные действия. Первой моделью сети, показавшей способность к распознаванию, стал в 1957 г. Персептрон, изобретатель которого Ф. Розенблатт при всей разносторонности его интересов может быть охарактеризован скорее как нейрофизиолог или психолог, чем как математик или программист.
Персептрон фактически открыл эру нейроморфных устройств, способных к обучению. Наложением физиологической концепции на компьютерное устройство было показано, что построенная по определенным принципам нейронная сеть может научаться распознаванию конфигураций. При этом алгоритм обучения Персептрона — метод коррекции ошибки — не совпадал с работой нейрона Хебба. Нейрон Хебба образует новую связь под воздействием положительного подкрепления, в то время как алгоритм Персептрона меняет связи только в случае ошибки, отрицательного подкрепления.
Дальнейшее развитие Персептрона — многоуровневые сети глубокого обучения — позволили добиться выдающихся результатов в плане функционирования, но еще дальше ушли от подобия работе мозга. Обратное распространение ошибки — алгоритм обучения многоуровневых сетей, предложенный исходно А.И. Галушкиным и П. Вербосом, подхваченный и развитый такими специалистами, как Д. Румельхарт и Д. Хинтон, и позволивший достичь поразительных результатов в области машинного обучения, — вряд ли аналогичен нейрофизиологическим процессам. Если бы этот алгоритм соответствовал биологическим реалиям, то в человеческом мозге должны были бы присутствовать мощные пути обратного распространения ошибки, с чем физиологи, однако, не встречаются.
Синапс Хебба, напротив, до сих пор продолжает казаться физиологически правдоподобным. Так, данные, полученные с помощью оптогенетических технологий, свидетельствуют, что активация нейрона световым воздействием в то время, как организм совершает какую-либо поведенческую реакцию (например, оборонительную), приводит к тому, что последующая активация этого нейрона вызывает ту же реакцию. В то же время модели самообучающихся сетей, построенных по принципу синапса Хебба, создать не удалось, и неясно, как это можно было бы сделать.
Нейросети, обучающиеся при помощи механизмов обратного распространения ошибки, порой показывают удивительно «человекоподобные» результаты даже там, где речь идет о неправильном или ошибочном поведении. Так, например, в классических работах Д. Румельхарта и Д. Макклелланда было показано, что при выучивании прошедших времен английских глаголов нейросеть демонстрирует те же стадии развития, что и англоязычный ребенок.
Таким образом, пример нейросетей показывает сложную и неоднозначную картину: идеи психологов и разработчиков искусственного интеллекта взаимодействуют, взаимно используются, технологии искусственного интеллекта в некоторых моментах оказываются очень похожими на естественные когнитивные системы, но при этом всегда сохраняется несовпадение, обусловленное тем, что психологи обязаны следовать фактам об объекте их исследований, а специалисты по искусственному интеллекту движимы стремлением к созданию наиболее эффективно работающих систем.
Еще один пример подобного частичного совпадения нейрофизиологических процессов и машинного обучения предоставляет зрительная кора. Д. Хьюбел и Т. Визель получили в 1981 г. Нобелевскую премию за открытие нейронов-детекторов, отвечающих на опознание определенных зрительных стимулов, например, линии с заданным углом наклона. Эти нейроны имеют разные рецептивные поля: некоторые из них отвечают на релевантные стимулы лишь в некоторых частях зрительного поля, другие — по всему полю. На этой основе сложилась четкая картина работы нейросетей в сфере зрительного восприятия, на которой были построены т.н. сверточные (convolutional) сети: первичные слои сети отвечают на точечные стимулы, далее распознаются отдельные признаки типа прямых линий в отдельных частях зрительного поля, еще более высокие слои обнаруживают эти признаки по всему полю. Сверточные сети показали себя весьма успешными в решении задач искусственного интеллекта, особенно в задачах распознавания видеоизображений. Однако недавний анализ баз данных по функционированию клеток зрительной коры показал, что лишь примерно 10% из них работают по тем принципам, которые установили Д. Хьюбел и Т. Визель.
Таким образом, вероятно, что нейронные сети в мозге человеке способны к самообучению по механизмам, в чем-то сходным, но не совпадающим полностью с современными алгоритмами глубокого обучения. Прогресс нашего знания предполагает, что постепенно понимание нейрофизиологических механизмов будет углубляться, приводя к прояснению механизмов обучения нейронные сети в мозгу. Но даже углубление понимания этих механизмов не будет означать, что технические решения в сфере искусственного интеллекта непременно последуют за образцами, данными природой.
Представляется, что наиболее горячей зоной обмена идеями психологов со специалистами по искусственному интеллекту могут стать когнитивные архитектуры (Kotseruba, Tsotsos, 2018.
Сегодня, когда революция глубокого обучения уже принесла блестящие плоды, становится все очевиднее односторонность этой парадигмы в ее чистом виде, необходимость для дальнейшего движения дополнения нейросетей другими технологиями.
Так, при всех удивительных достижениях нейросети все равно проигрывают когнитивной системе человека по ряду направлений, например — по скорости обучения и широте использования результатов научения. Например, программа АльфаГо может сегодня победить любого человека в игре го. Однако подсчеты показывают, что АльфаГо для достижения такого уровня сыграла и изучила порядка миллиона партий, в то время как профессиональные игроки в го достигают хорошего уровня, сыграв, вероятно, в тысячи раз меньше. Победа достигнута, таким образом, за счет не столько алгоритма обучения, сколько быстродействия и неутомимости компьютера, т.е. экстенсивным путем. Кроме того, перенос мастерства на другие варианты игры (например, для поля другой формы и размеров, измененных правил и т.д.) для нейросети проблематичен.
При этом добавление к нейросети механизмов обучения за счет конструирования моделей объектов и событий в ряде случаев позволяет приблизить достижения нейросетей к человеческим. Основанный на построении моделей подход не только выглядит более похожим по механизмам на естественный интеллект, но и позволяет приблизиться к человеку как в плане узнавания с одного примера, так и возможности генерировать новые образцы (например, Lake, Salakhutdinov, Tenenbaum, 2015).
Подобные примеры улучшения функций искусственного интеллекта и приближения его к человеку при дополнении нейросети глубокого обучения механизмами создания моделей объектов можно продолжить. Американский фонд DARPA, анонсируя в 2018 г. новую программу работ по искусственному интеллекту AI Next, особое внимание уделил дополнению нейросетей глубокого обучения элементами контекстного рассуждения и объяснения решений.
Одним из перспективных направлений представляется комбинация нейросетей глубокого обучения с символьным искусственным интеллектом, что удивительно резонируют с историей и современными исследованиями психологии.
Идеология нейросетей глубокого обучения в информатике родственна идеологии «диффузных ассоциаций» в науках о человеческом интеллекте, и выше мы видели, как первая проистекла из таких течений второй, как ассоцианистская психологии и исследования условного и оперантного обучения. В психологии, как и в информатике, делались попытки свести всю организацию когнитивной системы к диффузным ассоциациям, что, однако, также наталкивалось на критику. Критика связана с тем, что механизм диффузных ассоциативных связей плохо подходит для формирования структурированного знания и выполнения умственных действий, даже таких элементарных, как арифметические. Эта критика впервые прозвучала еще в возражениях немецких ученых против ассоцианизма, ведущего родословную из Англии и США. Так, в 1910–20-х гг. представители Вюрцбургской школы, такие как Н. Ах, показывали, что в интроспективном опыте человека (самонаблюдении) присутствуют феномены, не сводимые к ассоциациям, и параллельно утверждали, что путем одних только ассоциаций объяснить рассуждения человека нельзя. В дополнение к ассоциативным принципам они предполагали функционирование структурирующих процессов (детерминирующая тенденция и т.д.) и даже пытались средствами своего времени посчитать, насколько эти структурирующие процессы могут противостоять ассоциативным. Аналогичным образом ассоциативный бихевиоризм начиная с 1930-х гг. стал дополняться идеями о таких не сводимых к ассоциациям структурированных образованиях, как когнитивные карты (Э. Толмен).
Современные исследования также показывают частичный характер объяснения когнитивных процессов через диффузные ассоциации. Чисто ассоцианистские механизмы выявления регулярностей в окружающем мире выступают у человека в форме т.н. имплицитного обучения, при котором индивид выучивает некоторые правила, не сознавая самого факта, что он их выучил (А. Ребер). Прототипическим примером имплицитного обучения может служить усвоение родного языка, на котором люди говорят по правилам, которые не сознают. Например, читатель может спросить себя, в каком случае он говорит «два», а в каком — «двое». Скорее всего, если читатель — носитель русского языка, то употребляет эти слова без ошибок, но определит правило, по которому это употребление происходит, лишь приложив специальные усилия, а именно, воспроизведя контексты, в которых употребляются оба слова, и проанализировав различие этих контекстов. Это сильно напоминает глубокое обучение нейросетей, в отношении которых нужно принимать специальные меры, чтобы установить, на каком основании они выносят то или иное решение (т.н. объяснимый ИИ — explainable AI).
При этом в психологии несомненно, что более распространенным и, вероятно, важным случаем, чем имплицитное обучение, является обучение эксплицитное. Подобно тому, как в искусственном интеллекте в качестве дополнения к глубокому научению часто рассматриваются символьные системы, в психологии когнитивную систему можно понять, только вводя наряду с ассоциативными процессами также и действия с хорошо структурированным знанием.
Наиболее сбалансированные психологические модели когнитивных процессов сегодня носят комбинированный характер, включая как ассоциативную сеть, так и процессы создания и интерпретации структурированных репрезентаций. Примером может служить теория Я.А. Пономарева, согласно которому когнитивная система человека имеет двухполюсный характер, где один полюс связан с хорошо структурированным знанием, а другой — с диффузным, но постоянно пополняемым за счет взаимодействия человека с окружающим миром (Пономарев, 1976). Когнитивная деятельность человека, согласно теории Пономарева, связана с «перемещением» между этими полюсами, при котором происходят постоянные переходы между диффузным и хорошо структурированным знанием. Можно показать, что такая двухполюсная организация является эффективным способом обеспечить возможность для когнитивной системы к открытию нового при одновременном удержании ранее выработанных схем структурированного поведения (Ушаков, 2006).
Параллели между психологическими исследованиями когнитивной системы и моделями искусственного интеллекта вряд ли случайны. В конечном счете психология, нейрофизиология, когнитивная лингвистика и искусственный интеллект вторгаются с разных сторон в одну и ту же область. Разгадывание загадки человеческого мышления было бы равнозначно колоссальному прогрессу в области создания устройств искусственного интеллекта.
Тем не менее, встречи туннелей, прорываемых с разных сторон, пока не происходит. В этом месте с новой силой возникает известный с середины прошлого века вопрос о том, может ли в принципе техническое устройство воспроизвести в полной мере человеческое мышление, а далее превзойти его. Этот вопрос по-прежнему составляет предмет дискуссий, которые основываются на разведении сущностей, с одной стороны, относящихся к вычислимости и доступных техническим устройствам типа машины Тьюринга, а с другой — связанных с сознанием, таких как субъективные переживания (в терминах философов — квалиа), истинность, логическая необходимость, понимание или моральная ответственность. Вопрос заключается в том, параллельны ли состояния сознания работе материального вычислительного устройства или для их появления требуется нечто большее?
Наиболее серьезное обсуждение в этой связи вызывает т.н. геделевский аргумент, который приобрел широкую известность после работ британского философа Дж. Лукаса. Аргумент основывается на теореме Геделя, согласно которой в любой формальной системе, включающей в себя арифметику, присутствуют истинные, но не выводимые из аксиом утверждения. На этом основании Лукас доказывал, что человек способен понимать истинность утверждений, которые не могут быть вычислены. Таким образом, производится разотождествление сознания истинности и вычислений, на которые способна машина.
Более изощренную аргументацию на основе геделевского аргумента развил нобелевский лауреат по физике Р. Пенроуз, доказавший специальную «теорему» на этот счет (Пенроуз, 2003). На этом основании Пенроуз предполагает, что собственно мышление не может осуществляться машиной Тьюринга, и связывает его с квантовыми процессами, протекающими в микротрубочках нейронов. Более того, как стало выясняться, сам К. Гедель был склонен интерпретировать свою теорему о неполноте в духе принципиального барьера между вычислениями, которые в принципе могут быть осуществлены материальным устройством, и истиной, лежащей в Платоновом мире идей.
Тем не менее, фундаментальное математическое исследование в этой области не находит, что геделевский аргумент ведет к твердому заключению о превосходстве человека над машиной (Ершов, Целищев, 2012). Авторы процитированного исследования рассматривают итог спора вокруг геделевского аргумента пока как ничейный.
Существуют и аргументы другого типа, согласно которым разумное поведение технического устройства еще не означает наличие у него ментальных состояний5. Однако такого рода аргументы не могут не ставить под сомнение и существование ментальных состояний у других людей — ведь о ментальных состояниях каждый знает непосредственно только по себе, а о других судит лишь на основании признаков осознанности в поведении.
В целом в качестве итога можно утверждать, что сегодня не существует твердых аргументов о невозможности создания мыслящих и сознательных машин (например, Чалмерс, 2015), как, конечно, нет и гарантии, что они когда-либо будут созданы человеком.
Взаимодействие человека с искусственным интеллектом
Предсказывать отдаленное будущее технологий — неблагодарное занятие. Технологии — результат движения мысли, а мысль, по определению, непредсказуема. Тем не менее, мы создаем более или менее глубокие и реалистичные программы дальнейшего развития технологий искусственного интеллекта и должны представлять себе их потенциальное включение в жизнь общества. Велики или не очень потенциальные возможности искусственного интеллекта, однако они заставляют задуматься о том, как выстроить отношения человека с ними. Сегодня идет внедрение в практику технологий искусственного интеллекта, пока еще далеких по своим возможностям от того, что просматривается вдалеке. Однако сопоставление с этими далекими и не очень ясными перспективами позволяет увидеть глубину происходящего.
Идея опасности для человека созданных им же самим разумных существ идет еще со времен Античности. Чудовище Франкенштейна будоражило воображение в XIX в., а с началом разработки технологий искусственного интеллекта был найден наиболее подходящий кандидат на роль существа, восстающего против человека.
С. Хокинг, например, выражал опасение, что супермощный искусственный интеллект может расправиться с человечеством, как с семьей муравьев. Мало кто из людей, аргументировал он, разрушит муравейник со зла. Но если вам нужно поднять уровень воды для обеспечения работы ГЭС, то вряд ли вы будете принимать в расчет затопление муравейника. Сверхумный ИИ будет очень хорошо справляться с задачами, и если его и наши цели не будут совпадать, у нас будут огромные проблемы.
Образ, нарисованный Хокингом, предполагает, что решение задач — высшая ценность для ИИ. Если люди утеряют интеллектуальное лидерство, их ценности перестанут главенствовать и не будут выступать чем-то, с чем нужно считаться, торя магистральную дорогу истории.
По мнению И. Гуда, способность человека создать интеллектуальную машину, превосходящую его возможности, приведет ко все ускоряющемуся созданию машин с нарастающими интеллектуальными способностями: первая ультраинтеллектуальная машина является последним изобретением, которое человек должен когда-либо делать.
Во главу угла ставятся всеобщие ценности, квинтэссенцией которых является «вселенский прогресс интеллекта». Пафос движения за и через человека и «слишком человеческое» иногда проскальзывает в постгуманизме. В этом чувствуется романтика готовности к гибели, чтобы вырастить великое будущее.
Противоположная позиция — абсолютная ценность индивидуального человеческого существования. Она находит отражение, например, у Н.Ф. Федорова в идее использования технологического прогресса для достижения ценностных идеалов. В этом плане цивилизационное назначение техники, в т.ч. искусственного интеллекта — реализовать исконное стремление человека к справедливости, счастью, бессмертию.
Большинство людей, безусловно, примыкают ко второй ценностной позиции. Проблема, однако, заключается в возможности, во-первых, людям, странам и социальным институтом договориться о целях создания искусственного интеллекта и не превратить его в средство или арену борьбы, а во-вторых, не допустить случайного формирования могучих искусственных агентов с бесчеловечными ценностями. История часто состоит в том, что совокупные действия множества людей приводят к результату, которого не хотел никто из них.
Представляется важным держать эту более удаленную оптику, рассматривая сегодняшние проблемы искусственного интеллекта.
Теперь перейдем к описанию тех процессов в человеческом обществе, которые возникают уже в связи с нынешним уровнем искусственного интеллекта и его ближайшим прогнозируемым развитием. Внедрение любых технологий перестраивает жизнь людей и требует психологической адаптации, но искусственный интеллект в этом плане занимает особое место. Даже те устройства, которые просто решают, лучше или хуже, задачи, решаемые также человеком, могут влиять на различные процессы в обществе. Одно из ближайших по времени событий в этом плане — внедрение систем искусственного интеллекта в управление транспортом. На наших глазах формируются устройства, обеспечивающие автономное управление автомобилем — от навигаторов и круиз-контроля до системы удержания автомобиля в полосе, автопарковщика и т.д. Это, казалось бы, вполне позитивное и прогрессивное явление оказывается, однако, на деле не столь простым, например, в плане обеспечения безопасности. Тонким получается момент обратного принятия человеком функции управления на себя, как показал опыт Гугломобиля. Возможность положиться на работу искусственного водителя в какой-то момент снимает у человека чувство ответственности за происходящее на дороге, что может не позволить ему в полной мере включиться в процесс управления, когда это потребуется.
В то же время необходимость полагаться на надежность электронного водителя может приносить душевный дискомфорт. Внедрение технологий искусственного интеллекта должно повышать качество жизни, увеличивать безопасность, психологический комфорт. Однако в действительности эффект может быть иным, и побочные продукты внедрения искусственного интеллекта без должного социо-гуманитарного сопровождения могут вести к повышению тревожности, напряженности у людей.
Маркетологи автокорпораций предсказывают значительный период сосуществования обычного автомобиля с автономным, причем последний, будучи существенно дороже, должен быть способен предложить потребителю серьезные преимущества. В каком-то смысле преимущество очевидно, поскольку происходит избавление от труда. Однако при этом теряется и удовольствие. На протяжении десятилетий автопроизводители рекламировали потребителям удовольствие от вождения их автомобилей, «драйверские автомобили» и т.д. Теперь, однако, предлагается от этого удовольствия отказаться, заплатив серьезные деньги. Более того, у водителя, передавшего управление автомобилем автомату, возникает тревога, связанная с потерей того, что психологи называют «иллюзией контроля» — человек испытывает большую уверенность в благоприятном исходе, если сам может каким-либо образом влиять на ситуацию.
В более общем плане возникает проблема передачи машинам контроля над сферами жизни, которые до сих пор находились в ведении людей. Искусственный интеллект, заменяя человека в его когнитивной деятельности, конечно, способен избавить от многочисленных малоприятных и утомительных дел и драматически повысить производительность труда, точнее — предоставить на благо человечества почти не ограниченные объемы производимого автоматическими устройствами труда. Однако он и лишает удовольствий, более того — грозит затронуть функции главного действующего лица, субъекта собственной жизни, т.е. смыслообразующий стержень человеческой психики. Наконец, это означает передачу ответственности устройству, которое не обладает сознанием и, как следствие, не является вменяемым в юридическом и психиатрическом смыслах. Все это ставит перед социо-гуманитарными науками задачу выработки такой концепции передачи некоторых когнитивных функций искусственным устройствам, которая бы способствовала реализации человеком своих смыслов в жизни.
Далее, передача когнитивных функций человека искусственным устройствам неизбежно связана с уничтожением рабочих мест для людей и возможной безработицей по причине автоматизации. Так, в связи с тем же автономным автомобилем работу могут потерять профессиональные водители — такси, общественного и грузового транспорта. Для России, например, это — миллионы человек.
А если искусственный интеллект окажется способен работать в области бухгалтерского учета и логистики, торговли и архитектурного проектирования, перевода и регистрации документов, то с неизбежностью произойдет перераспределение сфер занятости, причем не совсем понятно, где остановится экспансия искусственного интеллекта.
Этот сюжет фактически повторяет на новом витке историю начала XIX века — развитие информационных технологий грозит привести к тем же последствиям, к каким привело широкое внедрение машин, а именно к протестам теряющих трудовые места работников, вылившимся в движение луддитов. На своей родине в Англии луддизм составил для правительства проблему, соизмеримую по масштабам с проходившими примерно в то же время наполеоновскими войнами.
В случае искусственного интеллекта машины, заменяя людей, создают вместе с этим и средства существования. Отсюда возникает перспектива всеобщего минимального гарантированного дохода, при которой приобретение профессии и труд перестают быть необходимым условием выживания человека. Жизнь вроде бы станет проще, но для психологов понятно, что свободное время и свобода выбора жизненных проектов с большой остротой ставят вопрос о смысле существования.
Еще один пласт опасений связан с тем, что искусственный интеллект может анализировать людей и социальные процессы, более того — активно на них влиять. Так, технологии искусственного интеллекта уже сегодня способны оценивать свойства человека по различным его проявлениям, прогнозировать поведение в различных ситуациях. Но также эти технологии способны создавать средства влияния: например, генерировать новые объекты — тексты, картинки, видео — с заранее заданным значением, например, создавать новые изображения известных предметов и людей или их видеоизображения. Сформировалось понятие «глубинной фальсификации», deep fakes, которое обозначает технологию, использующую глубокое обучение (deep learning) в целях создания достаточно правдоподобной ложной информации (fakes). В дальнейшем можно ожидать применения такого рода объектов как в психотерапии, так и для индоктринации.
Сказанное означает, что стараниями искусственного интеллекта для реципиента новостей мир чьих-то фантазий становится трудноотличимым от действительно происходящих событий.
Искусственный интеллект вызывает подозрения в контексте использования «Большим Братом», т.е. для выявления неблагонадежных и чрезмерно свободомыслящих граждан. Впрочем, пока эти технологии скорее используются коммерческими предприятиями в целях выявления потенциального интереса людей к совершению тех или иных покупок и последующего таргетирования рекламы, отслеживания передвижения пользователя, его предпочтений в социальных сетях, а также запросов в поисковых системах. Пусть это использование и относительно безобидно, но оно может вести к отработке технологий выявления индивидуальных уязвимостей людей с дальнейшим воздействием на них в нужном кому-либо направлении.
Искусственный интеллект в целом создает невиданные возможности вычисления психологических тайн людей и их слабостей, а также средств воздействия. В истории человечества происходит уменьшение физического принуждения, но повышение более эффективного принуждения путем манипуляций.
Индивидуальный цифровой ангел
Быстрое и точное распознавание паттернов человеческого поведения искусственным интеллектом позволяет решать в реальном времени задачи, которые лежали до последнего времени в сфере человеческой компетенции. Создается возможность индивидуального взаимодействия искусственного интеллекта с человеком, при котором с учетом особенностей человека для него создаются оптимальные условия в сферах, например, образования или личностной поддержки. В связи с этим проф. С.Ю. Степановым и автором этих строк предложена концепция индивидуального цифрового ангела, интегрирующего различные технологии искусственного интеллекта в интересах человека.
Цифровой ангел должен способствовать человеку в самых разнообразных сферах его жизни. Так, он может помогать в образовании и саморазвитии. Сегодня уже разработаны модели создания индивидуальных образовательных траекторий для учеников, наиболее продвинутой из которых на сегодняшний день, пожалуй, является модель Фальманя. Индивидуальная образовательная траектория предполагает, что ученики получают задания наиболее подходящей для них сложности и направленности, объяснения нужного материала и в нужной форме.
Можно выделить три последовательных уровня, которые должен пройти искусственный интеллект в этом направлении. На первом уровне в систему закладываются экспертные мнения профессионалов-преподавателей. На втором уровне искусственный интеллект обучается на больших данных, собранных в процессе выполнения учениками заданий. На третьем уровне электронный учитель сам придумывает наиболее подходящие задания для учеников, основываясь на цифровой модели его знаний, умений и способностей.
Образование — это лишь одна из сторон саморазвития, и технологии искусственного интеллекта могут помогать людям узнавать свои сильные и слабые стороны, а также развиваться в разных областях — самообладании, общительности, настойчивости и т.д. Они могут помогать и с самоорганизацией, устройством распорядка дня, совладанием со стрессом, отслеживанием возникновения и преодолением зависимостей.
Саморазвитие связано с самореализацией, в том числе — в профессиональной сфере. Электронные ассистенты могут осуществлять профориентацию и своего рода индивидуальный коучинг — основываясь на оценке индивидуальных особенностей человека, учете его сильных сторон, они могут консультировать по вопросам выбора профессиональной траектории.
Одной из интенсивно развивающихся областей является автоматическая психотерапия. Сегодня уже эффективность такого рода воздействий считается доказанной результатами ряда исследований. Электронные ассистенты смогут оказывать определенную помощь в трудных жизненных ситуациях, консультировать и поддерживать людей. Искусственный психотерапевт способен вести беседу, например, с пожилыми людьми и оказывать психологическую помощь. Искусственный интеллект уже в настоящее время довольно успешно применяется для помощи аутистам.
Эта деятельность хорошо дополняется растущими возможностями искусственного интеллекта по распознаванию состояний людей. В частности, развиваются методы распознавания состояний по видеоизображениям человеческого лица и фигуры, по контенту и акустике речи, а также на основе психофизиологических индикаторов — кожно-гальванической реакции, сердечного ритма, электроэнцефалографии, излучения в ближнем инфракрасном спектре и др. Кроме того, развиваются методы распознавания психологического состояния индивидов и групп на основе больших данных, в первую очередь — анализа поведения в социальных сетях.
На основе оценки состояния человека на протяжении определенных временных промежутков электронный ассистент может давать ему советы, оказывать помощь в регуляции состояний, например, с помощью биологической обратной связи.
Но искусственный интеллект способен давать своему хозяину и информацию о состоянии и свойствах других людей, что может улучшать социальные взаимодействия. Взаимодействие — деловое и межличностное — вообще составляет еще одну важную область, где интеллектуальные ассистенты могут помогать людям. Такие устройства в принципе могут оценивать не только состояния, но и свойства людей, давать обратную связь, способствовать рефлексии. В них могут быть заложены алгоритмы, применяемые психологами для улучшения диадического и группового взаимодействия.
Индивидуальные ассистенты могут обмениваться информацией с интеллектуальными устройствами, обеспечивающими психологический климат коллективов — школ, университетов, компаний.
Наконец, умные ассистенты должны обеспечивать и защиту от злонамеренных психологических воздействий, которые, как отмечалось выше, с течением времени могут становиться все интенсивнее. Феномен дипфейка свидетельствует о том, что маскировка ложной информации под истинную становится искуснее и интеллектуальные системы могут стать необходимыми для различения одного и другого. Необходима также защита от захвата внимания, который формирует игроманов и интернет-зависимых.
Последнее логически подводит к вопросу об уязвимостях цифровых ангелов. Потенциальная возможность захвата цифрового ангела человека путем вирусной атаки или иного взлома означала бы не просто похищение персональной информации, но и чрезвычайные возможности управления и манипуляции человеком. Падение ангела легко может превратить его в самого опасного искусителя и врага человека.
Ассимиляция искусственного интеллекта как цивилизационный вызов
Вышесказанное подводит к мысли, что технологии искусственного интеллекта могут крайне благотворно повлиять на жизнь человечества, но и, наоборот, стать для него большим несчастьем. Причем дело здесь не в искусственном интеллекте, а в человеке. Вопрос в том, возобладают ли в обществе силы конкуренции или кооперации. ИИ увеличивает общие доступные человечеству ресурсы, делая тем самым менее необходимой конкуренцию за них, но в то же время создает и невероятные ранее по своей изощренности методы этой конкуренции.
Силы конкуренции очень сильны — они пронизывают всю жизнь от межгосударственных отношений до бизнеса и политики внутри стран. Конец истории Ф. Фукуямы, похоже, отменился и баталии на всех уровнях продолжаются. Еще одна проблема связана с возможным резким увеличением скорости социальных и жизненных изменений при широком внедрении искусственного интеллекта. О постоянном возрастании темпов эволюции писал в XIX в. Э. Геккель, а за ним — Ф. Энгельс, а позже подобный феномен исследовал В.И. Вернадский. Перемены с внедрением технологий искусственного интеллекта грозят идти со все возрастающей скоростью, оставляя нам минимум времени на раздумья.
Создание технологий искусственного интеллекта выглядит полем для нового Армагеддона и, возможно, сформирует основную линию напряжения грядущего времени.
Работа выполнена при поддержке РФФИ, грант №18-29-22095мк.
Сноски
1 Идеи ассоцианизма при более внимательном изучении можно найти еще в Античности — у Аристотеля и даже Платона, но подробное рассмотрение этого вопроса выходит за рамки данной статьи.
2 Так, узлы сетей ассоцианистов связаны с определенными понятиями, в то время как в промежуточных слоях сетей глубокого обучения узлы работают на субсимволическом уровне, а понятия кодируются распределенно, связаны с несколькими узлами.
3 Формально работы по когнитивным архитектурам относятся к области искусственного интеллекта, поскольку предполагают создание программ, осуществляющих определенные когнитивные функции, однако имеют две существенные особенности. Во-первых, когнитивные архитектуры представляют собой устройства не специализированные, а направленные на решение большого количества задач. Они имеют перцептивные функции, позволяющие кодировать и анализировать поступающую на сенсоры информацию, структуры, проводящие логический вывод и рассуждение, а также системы принятия решений и планирование действий. Возможность решения разнородных задач предполагает и разнообразие режимов работы, а значит, различные процессы, связанные со сменой режимов, в том числе — внимание. Во-вторых, эти устройства тестируются на соответствие экспериментальным данным, получаемым на человеке. Таким образом, когнитивные архитектуры представляют собой фактически сконцентрированное видение устройства когнитивной системы человека сквозь призму понятий искусственного интеллекта. Очевидно, что прикладное значение когнитивных архитектур по сравнению с обычными моделями искусственного интеллекта ниже: специализированное устройство способно решать конкретную задачу лучше неспециализированного. Однако такие архитектуры за счет стремления к сходству с когнитивной системой человека играют роль моста между двумя областями исследований.
4 Фактически Р. Пенроуз подводит новую аргументацию под представления Р. Декарта, согласно которым мышление привносится в мир душой, которая влияет на протекание физических процессов в местах разрыва детерминационных цепочек. Понятно, что в соответствии с таким подходом между науками о человеке и искусственным интеллектом будет всегда стоять непреодолимый барьер, а технические устройства не приобретут собственно человеческие возможности. Этому подходу противостоит другой, восходящий к Г.В. Лейбницу, согласно которому сознательные явления строго параллельны физическим процессам. В этом плане символично и, возможно, неслучайно, что Лейбниц был создателем арифмометра, который рассматривается как один из прообразов современного компьютера.
5 Наиболее часто в этом контексте обсуждается мысленный эксперимент «Китайская комната» американского философа Дж. Серля. Представим себе человека, который не знает китайского языка, но обучен правилам отвечать на определенную комбинацию китайских иероглифов другой их комбинацией так, что внешне он неотличим от носителя китайского языка. Эксперимент призван показать отсутствие равенства между внешним разумным поведением системы и наличием у нее ментального опыта. Однако сам Серль не использует свою аргументацию для отрицания возможности машинного мышления, направляет полемику на более локальные цели — опровержение представлений, что «инстанциация» адекватной компьютерной программы сама по себе является достаточным условием понимания.
Литература
- Ершов Ю.Л., Целищев В.В. Алгоритмы и вычислимость в человеческом познании. Новосибирск: Изд-во Сибирского отд-ния Российской акад. наук, 2012.
- Пенроуз Р. Новый ум короля: О компьютерах, мышлении и законах физики. М., 2003.
- Степанов С.Ю., Оржековский П.А., Ушаков Д.В. Проблема цифровизации и стратегии развития непрерывного образования // Непрерывное образование: XXI век. 2020. № 2 (30). С. 2–15. — DOI 10.15393/j5.art.2020.5684.
- Чалмерс Д. Сознающий ум: В поисках фундаментальной теории. М.: УРСС: Книжный дом «ЛИБРОКОМ», 2015.
- Kotseruba I., Tsotsos J.K. (2018) 40 years of cognitive architectures: core cognitive abilities and practical applications // Artificial Intelligence Review https://doi.org/10.1007/s10462-018-9646-y
- Lake, B.M., Salakhutdinov, R., Tenenbaum, J.B. (2015) Humanlevel concept learning through probabilistic program induction. Science 350(6266):1332–38. [arBML, MB, ED, NK].
- Stepanov S.Yu., Ushakov D.V. Artificial intelligence and digital angel technology in education // Сборник трудов «Восемнадцатая национальная конференция по искусственному интеллекту с международным участием КИИ-2020. Москва, 10-16 октября 2020 г.» / Под ред. В.В. Борисова, О.П. Кузнецова. М.: МФТИ, 2020. С. 105–112.
- Russell S, Norvig P. Artificial intelligence: a modern approach. Prentice Hall, Upper Saddle River.1995.
Источник: Ушаков Д.В., Валуева Е.А. Вызовы искусственного интеллекта для психологии // Человек и системы искусственного интеллекта / под ред. В.А. Лекторского. СПб: Юридический центр, 2022. С. 107–127.
Замечательная статья! Актуальная, глубокая, профессионально и бесстрастно освещающая проблему. « Вышесказанное подводит к мысли, что технологии искусственного интеллекта могут крайне благотворно повлиять на жизнь человечества, но и, наоборот, стать для него большим несчастьем. Причем дело здесь не в искусственном интеллекте, а в человеке. » Человеческий фактор основополагающая величина.
, чтобы комментировать
Уважаемые коллеги!
Проблема ИИ интересует и волнует не только психологов, но и специалистов из других научных направлений. Меня интересует возможность использования ИИ в медицине. Понятна глобальная польза ИИ для человека в медицине, но при этом могут быть и определенные опасения.
По моему, ИИ можно сравнить с ядерной энергией, которая может быть использована в МИРНЫХ и ВОЕННЫХ целях. Кто даст гарантии, что ИИ не будет использован в военных целях? Какой Международный орган будет контролировать использование ИИ, подобно ООН?
А как же РЕЛИГИЯ и ИИ будут совмещаться в ОБЩЕСТВЕ?
Или у ИИ будет своя религия и свой Бог?
Про "Индивидуальный цифровой ангел".
Сразу перед глазами появляется картина Хуго Симберга "Раненый ангел". Кто поможет "раненому" цифровому ангету? Я думаю, что человек! Пока Человек будет помогать "Ангелам", катострофы можно будет избежать. Тогда и Бог ИИ, если такой у него появиться, будет помогать человечеству избежать гибели.
Много чего еще неясного с будущим ИИ и его роли в развитии ОБЩЕСТВА. Нам пока этого знать не дано(+++
С уважением, Валерий Михайлович.
Уважаемый Валерий Михайлович, Вы пишете: « Тогда и Бог ИИ, если такой у него появиться, будет помогать человечеству избежать гибели.» А откуда он у ИИ ?? И появиться не может, т. к. эмоциональная сфера отсутствует, структура сознания иная. ( Это лишь очередной инструмент в руках человеческого фактора, как скальпель или атом.
, чтобы комментировать
Уважаемая Людмила Григорьевна!
Почему Вы так считаете? А откуда ОН появился у человека?!
Он появился по мере развития. Вначале и у Человека Его в сознании не было.
Мы сейчас с ИИ стоим, примерно, на этапе первобытно-общинного строя. Я же писал " Много чего еще неясного с будущим ИИ и его роли в развитии ОБЩЕСТВА. Нам пока этого знать не дано(+++".
Кроме того, и в религии ИИ будут продвигать служители культа. Может появиться вообще новое религиозное течение. Религия тоже не стоит на месте.
, чтобы комментировать
Хотелось бы услышать мнение об этом у авторов статьи. ВМ
, чтобы комментировать
Ноам Хомский:
"Человеческий разум не похож на ChatGPT и его коллег - статистическую машину, проглатывающую сотни терабайт данных, чтобы получить наиболее правдоподобный ответ на разговор или наиболее вероятный ответ на научный вопрос. ""
Наоборот... «Человеческий разум — удивительно эффективная и элегантная система, работающая с ограниченным количеством информации. "Он не пытается коррелировать с данными, он пытается создавать объяснения. [ ]
Так что давайте перестанем называть его "искусственным интеллектом", назовём его тем, что он есть и делает "программным обеспечением для плагиата", потому что "он не создает ничего, кроме копирования существующих работ существующих художников и модифицирует их настолько, насколько он уклоняется от авторских законов об авторском "
Это крупнейшая кража интеллектуальной собственности с момента прибытия европейских поселенцев на земли коренных американцев. "
Ноам Хомски, Нью-Йорк Таймс - 8. Март 2023
, чтобы комментировать
Замглавы Минпромторга Василий Шпак:
«Вместе с тем считаем, что для создания единой системы регулирования в сфере ИИ в Российской Федерации необходимо дополнительно разработать комплексный законодательный акт, который будет учитывать все аспекты использования ИИ, включая этические, правовые и социальные нормы, основываясь на перечне приоритетных отраслей экономики».
, чтобы комментировать