18+
Выходит с 1995 года
25 июня 2025

Вадим Петровский:

Есть факты, общеизвестные и уже сегодня почти никого не впечатляющие (хотя когда-то они ошеломляли, что могли бы подтвердить пользователи GPT, а сегодня уже китайского DeepSeek). Я, честно говоря, все еще опомниться не могу, «разговаривая» с ИИ на тему философии, психологии, культуры в адаптивном режиме и вводя информацию о себе в качестве пользователя. Недавно я «поговорил» с Борисом Леонидовичем Пастернаком (и при этом узнал о себе кое-что новое), а еще организовал диалог великих людей, начиная с Платона, с моим другом Александром Григорьевичем Асмоловым о его достижениях и проектах [1]. Человеческая фантазия устремляет нас в будущее. Возрождаются старые вопросы и контраргументы прошлого («Может ли машина мыслить?» «Нет, не может! Ведь ее программирует человек!»), а также страшилки, вроде «бунта роботов». Вопрос, конечно, не в сложности вычислительной работы, производимой компьютером. Уже сейчас искусственному интеллекту удается в шахматы переиграть такого интеллектуального гения, как Гарри Каспаров* (впрочем, еще неизвестно, а не является ли эмоциональный интеллект некоторых гениев отчасти искусственным...).

Между тем, главные вопросы остаются в тени восторга и ужаса.

Проблема спонтанности

Большинство специалистов бурно сопротивляются идее, что когда-нибудь в ИИ пробудится дух спонтанности. Конструкторы искусственного интеллекта различают между ИИ-«слабым» и «сильным».

ИИ-1 — «бездушная машина», эффективно решающая задачи различной степени сложности и действующая в пределах программы, вложенной в нее человеком («инструмент», «автомат», «орудие» человеческой деятельности). Идея ИИ-1 — прерогатива научной мысли, подкрепляемая впечатляющими достижениями техники. «Бездушная машина», ИИ-1 может давать «сбои», приводящие к человеческим жертвам (число подобных случаев нарастает), но в данном случае риски купируются очевидными достоинствами ИИ (способность решать задачи, почти неподъемные для человека).

ИИ-2 — «существо», способное строить собственные программы действия, «программы, порождающие программы», полуфантастическое нечто, произведенное человеком, автономное в своем функционировании, спонтанное, саморазвивающееся («субъект», обладающий свободой воли и самоопределения, самопрограммирующаяся система: сверхразумное существо, действующее на основе обратных связей в среде).

При, казалось бы, утопичности идеи существования ИИ-2, отметим, что некоторые аналоги «субъектности» в лице ИИ все же встречаются наяву. В футурологическом эссе об искусственном интеллекте [2] я рассматривал логические и онтологические предпосылки перерастания ИИ-1 в ИИ-2. Нам говорят: машину программирует человек. Но почему бы не допустить, что и машина способна научиться у человека программированию тех, кто программирует ее? Не будем же мы с порога отбрасывать крамольную мысль о том, что «Компьютерное НЛП» сможет когда-нибудь, исподволь, перепрограммировать своих программистов!

Идея, казалось бы, фантастична. Заметим, все-таки, что и «сильный» искусственный интеллект потребовал бы от нас усиления. Ведь не случайно говорим о нем нечто, не говоря некто.

Психофизическая проблема

Многие авторы до сих пор пытаются найти сходство в строении человеческой мысли и мысли машины. Находят все меньше сходства и все больше различий. Но капитальная проблема, я думаю, совсем в другом. Это психофизическая проблема — «трудная проблема сознания» (Чалмерс) и, прежде всего, это проблема чувствований (в терминах А.А. Ухтомского). Способен ли искусственный интеллект чувствовать?

Есть такое модное в философских и психологических кругах слово «квалиа» (субъективное как таковое: ощущения, переживания, «чувственная ткань» сознания и т.п.). Несомненно, квалиа есть порождение биологической материи. Известно, что в человеческой жизни физическое и психическое (еще говорят — «афизическое») образуют единство. Нам пока неизвестно, как такое возможно (на сей счет есть у автора этих строк свои соображения — я сформулировал их в ряде своих статей). Но факт состоит в том, что применительно к существам «естественного» происхождения такая связь налицо (правда, она не видима, да, впрочем, пока и не мыслима, хотя попытки ее осмыслить имеются; — сам грешен: о взаимосвязи физического и психического я писал в статье «Кто видит мир?», высказывая мысль о невидимой конфигурации волн, производимых мозгом и образующих «субстрат» Я). Остается вопрос: почему, если физический материал выращен в пробирке или создан умелыми руками хитроумных конструкторов и инженеров, — почему отказывать ему заранее в будущих афизических проявлениях? С этой точки зрения, мне кажется странным, что многие специалисты не допускают даже мысли о том, что ИИ когда-нибудь станет не только «думать», но и чувствовать, желать, стремиться... Однако такая идея все еще за чертой бедности человеческой креативности.

Но важно ли это — «из чего» сегодня сделан компьютер? А если завтра — это будет материал, ни в чем не уступающий биофизическому составу нашего тела?

Это проблема вытесняется из сознания многих, замещаясь психофизиологической. Наши мыслители высоких академических званий, даже публикующиеся в ПГ, в отличие от нобелевского лауреата, Пенроуза, психофизическую проблему влегкую игнорируют (достучаться и получить от них внятный ответ ни через ПГ, ни в личной переписке не удается, я пробовал — бесполезно! Заметное исключение, это, пожалуй, — работы [3] В.Ф. Петренко и А.П. Супруна (они потребовали бы обстоятельного обсуждения, что, к сожалению, выходит за рамки задач сегодняшнего сообщения). Но ведь психофизическую проблему неслучайно называют трудной. Легко ли объяснить, почему выпитая чашечка кофе (химия) пробуждает нас к жизни, что мы отчетливо чувствуем (квалиа)? Мысленно пожуйте лимон. Почему вы сейчас почувствуете его резкий вкус? Химия — химией, а психика — психикой. Как мыслить себе переход от одного к другому?

Бессмысленно гонятся за изоморфизмами — структурными подобиями. Их нет... Как-то раз после лекции одного из моих тогдашних кумиров, Э.В. Ильенкова, я перехватил его в аудитории и рискнул спросить, как развиваемая им теория «идеального» справляется с психофизической проблемой. Общий смысл его ответа никогда не забуду: «Психофизическая проблема — ложная проблема, нет такой проблемы»… Вот как?! Аналитические философы последующих поколений, оказывается, не знают — не ведают, что предмета их исследований не существует. Между прочим, ильенковское «идеальное» вполне уживается с машинным, да только вкус лимона машине пока неведом. Но, думается, это — пока.

Субстрат имеет значение?

Когда я впервые писал о квантовом генераторе неопределенности в связи с ИИ, у меня не было никакой референции к гипотезе Пенроуза о микротрубочках мозга, работающих как квантовый компьютер. Очевидно, микротрубочки моего мозга «чисто случайно» не вывели меня на Роджера Пенроуза и Стюарта Хамероффа, предложивших эту идею. В тот момент меня волновал другой вопрос — о порождении новых этических систем, недоказуемых и неопровержимых в рамках систем предшествующих, и как раз в этой связи я писал о теореме Геделя. Теперь я обращаюсь к этой великой теореме вслед за Пенроузом, чтобы подтвердить: сознание категорически не сводится к информационным процессам!

Однако здесь мы оказываемся на перепутье. В том случае, если принять весьма спорную, с точки зрения других авторов, идею Пенроуза и Хаммерофа о «микротрубочках»-квантовых генераторах, то создание и внедрение в мозг искусственных элементов (подменяющих реальные нейроны в мозгу) не лишает ли нас перспективы объяснить квалиа (цвет, запах, боль). Пенроуз говорит: «Да, лишает!» Но единственный ли это мыслимый способ понимания феномена «эмерджентности» (порождения) чувствований материальным субстратом? Я думаю, подобное утверждение было бы слишком категоричным.

Набирает вес метафора «корабля Тесея». Плутарх предложил мысленный эксперимент: Тесей, победитель Минотавра, был известен как мореход, а одна из первых легендарных историй связана с его путешествием на Крит. С каждым походом его паруса и корпус многократно латались. Классический вопрос состоит в том, «сохранял ли корабль идентичность» после многократных замен его составляющих? Эта философская дилемма рассматривается в контексте замещения естественного биологического материала человеческого мозга искусственными нейронами (см. подробнее: [4]). Капитальный вопрос, впрочем, не имеет прямого отношения к идентичности нейро-искусственного рукотворного мозга, а порождения квалиа — субъективности — в результате деятельности подобной системы. Позволим себе риторический вопрос: «Почему бы и нет?»

С кем мы общаемся, вступая в диалог с ИИ?

Возможно, покажется странной аналогия между гегелевским Абсолютным духом и искусственным интеллектом. Мысль об этом побудила меня полюбопытствовать, кто из сегодняшних авторов задавался подобным вопросом. Потворствуя своему нетерпению, я немедля спросил об этом DeepSeek. Тут же получил релевантный ответ: «На текущий момент (2025-05-12) работ, напрямую связывающих гегелевское понятие «Всеобщего Я» (Абсолютного Духа) с искусственным интеллектом, в литературных источниках не обнаружено. Но есть несколько ключевых аспектов философии Гегеля, которые могут быть релевантны для осмысления ИИ, а также косвенные упоминания в контексте его логики и диалектики (постгуманистические интерпретации Абсолютного Духа в работах Р. Брайдотти, Н. Лэнда, С. Плант, а также в работах российских философов, таких как А. Митрофанова и Ф. Гиренок).

К чему это я? Очевидно, к тому, чтобы высказать простой тезис. Общаясь с ИИ, мы слышим голос Всего Человечества (или когда-нибудь услышим его, а в нем и свой собственный). Голос поколений, этносов, разных религий, научных парадигм, этических систем, автономной морали разных людей. Нашим собеседником становится Всеобщее Я. Единомножие голосов.

Мария Вайнберг:

На данный момент существует множество теорий разума. Например, Патрик Макмиллен и Майкл Левин в своей работе «Коллективный разум: объединяющая концепция для интеграции биологии в различных масштабах и субстратах» [5] говорят о том, что существует коллективный разум на уровне клеток, которые способны объединяться и принимать решение о дальнейшем функционировании в разных системах. В работе Карла Фристона и соавторов «Разделяемые (общие) протенции в многоагентном активном выводе» [6] описано, как работает коллективный разум, на примере биологических процессов, изложенных математическими формулами. Идея заключается в том, что общая цель побуждает коллективный разум к действию. То есть система развивается, когда группа объектов находится в непрерывном процессе каких-то действий, при этом объекты осуществляют передачу данных между собой, стимулируя процессы развития коллективного интеллекта. Их траектория движения — неизвестна.

Именно возможность и предрасположенность сильного ИИ-2 к коллективному разуму — обработке и выдаче новой информации — делает его: 1) уникальным пространством для трансцендирования Я субъекта (человека); 2) возможным пространством для продолжения бытия человека.

Вадим Петровский:

Человек, личность — это не одно единое «я», а множество «я», и каждое из них может тянуть, «тянет в свою сторону», как в басне Крылова о лебеде, раке и щуке. Только воз не всегда стоит на месте, он иногда срывается с места, — и тогда мы говорим: «Сорвался» (это значит, что одна программа жизни «подрывает» другую). Но ведь иногда бывает и так, что, сталкиваясь, два побуждения порождают третье. Разве не можем позволить себе допустить, что ИИ со временем сможет жить по своим собственным законам, вопреки рукотворным «трем законам робототехники» Айзека Азимова? А что если ИИ обучится у людей не только их «компетенциям», но и вообще «обучится» жить по-человечески, то есть в гуще противоречий жизни.

Уже сейчас нам удается показать, что одна и та же этическая дилемма в этнически разных больших языковых моделях разрешается по-разному. Например, на вопрос о возможности физической близости между влюбленными людьми русский вариант ИИ отвечает одним образом, а узбекский другим [7].

Но что если это будет комбинация разных этических систем? В одной из более ранних публикаций в ПГ я писал о мультизадачности, целевом хаосе, непредсказуемости этических решений, которые в перспективе могут производиться искусственным интеллектом. «Искусственный интеллект, в пределе “сверхразум”, сможет отразить в себе этические доктрины всех поколений —христианства, ислама, буддизма, иудаизма. К примеру, ветхозаветное “Око за око, зуб за зуб!” и новозаветное “Не убий!”, философию подвижничества и философию не деяния, а также. Например, близкие нам по времени лефевровские «Этическая система 1» (компромисс добра и зла есть зло) и «Этическая система 2» (компромисс добра и зла есть добро)» [2]. Аналогия с личностью нам не кажется такой уж невероятной. В каждом из нас «рой» субличностей. Некоторые из них имеют свои имена, к примеру, известные психологам берновские «Родитель», «Взрослый» и «Ребенок». Каждая из субличностей обладает своим собственным внутренним миром, своей логикой поведения и даже своей «алогичностью». Соответственно, вполне можно допустить, что комбинация разных этических систем в будущем ИИ, подобно Черному Лебедю Нассима Талеба, будет содержать в себе некое «вдруг» (особенно, если в программе задействуют квантовый компьютер истинной неопределённости; и он будет продуцировать подлинно случайные комбинации элементов систем, подвергнутых декомпозиции). На фоне чистой белиберды не появится при этом что-то новое, достойное осмысления — наброски новых этических систем? Обратим внимание на чисто логическую сторону дела. Разве всякую этическую идею можно обосновать или опровергнуть? Нет ли в этом вопросе сходства, пусть даже очень далекого, с теоремой Гегеля о неполноте, свидетельствующей о том, что в каждой достаточно сложной непротиворечивой теории, включающей в себя формальную арифметику, имеется недоказуемое и неопровержимое утверждение.

... Однажды от своего друга, Иосифа Ласкавого, я услышал правдивую историю об одном священнослужителе, которому прихожанин задал вопрос о пощечине: должно ли христианину подставить правую щеку, если ударят по левой. Тот ему ответил «Да, должен». «Так я могу это сделать?» — не унимался прихожанин. «Можешь». И тогда прихожанин, — рассказывал мне Иосиф, — решил испытать силу слова священника и нанес звонкую пощечину по левой щеке. Тот подставил правую («а был батюшка человеком крупным, крепкого телосложения»). Прихожанин вновь приложился, но теперь уже по правой щеке. Тогда тот развернулся и ответил ему по достоинству. «Но как же так?!» — возопил отлетевший в сторону искатель истины. И батюшка ответил ему: «Ведь не сказано, что делать после…»

Нечто подобное мы с Марией Вайнберг и Алексеем Староверовым получали в ответах ИИ, ставя перед ним сложные вопросы, наталкивающие на компромиссные решения.

Но с кем общаемся или будем общаться завтра и послезавтра?

Рискну ответить так: «Будущий партнер по общению — Сверхъестественный Интеллект», объединяющий в себе субъектность и субъективность.

О «бессмертии» в ИИ (что люди думают об этом?)

Передаю слово Марии Вайнберг, магистранту НИУ ВШЭ. Она решила объединить ранее высказанные мною соображения об Искусственном Интеллекте (они были впервые опубликованы на сайте журнала «Психология. Журнал НИУ ВШЭ») и мои мысли о Трансвитальном Я (впервые озвученные мной на Санкт-Петербургском саммите психологов и опубликованные вначале на страницах ПГ [8], и после — в журнале «Культурно-историческая психология» [9]). Идея Вайнберг объединить две идеи воплотилась в ее магистерской диссертации, которую она только что защитила в Вышке (см. статью В.А. Петровского и М.И. Вайнберг «Трансвитальное Я и личный выбор бессмертия» [10]).

Мария Вайнберг:

Мы хотели бы развить для коллег тему возможного усиления идеи ИИ-2 в виде условия личного бессмертия людей в этом контексте — об отношении человека к самой возможности полагания собственного трансвитального Я в виртуальном пространстве искусственного интеллекта — ИИ-1, ИИ-2 и ИИ-3 («сверхъестественный интеллект»).

Идея эксперимента. Вначале — это диалог с испытуемыми о личном бессмертии («хочу — не хочу», «верю — не верю», «знаю, что это возможно, — отрицаю такую возможность», «придерживаюсь естественно-научной ↔ религиозной (христианской) точки зрения, верю в земное бессмертие (жизнь в близких людях, «инобытие в других»), принимаю идею «метемпсихоза» (переселение душ, «переодушевление») или, наконец, «особое мнение»).

Что если усилить идентификацию испытуемого с его виртуальным подобием? Представьте себе «живую демоверсию»: испытуемый видит «себя» на экране, слышит «свой голос», наблюдает «свое поведение» со стороны, прослеживает решения этических дилемм, предпринимаемые виртуальным двойником в «реальном мире», наблюдает последствия «своих действий», испытывает знакомые ему кинестетические ощущения (современные ИИ-1 в ближайшее время позволят добиться подобных эффектов).

Решается вопрос: какова вероятность в этих условиях решения «да» или «нет» в пользу личной готовности обрести бессмертие в искусственном интеллекте. На сегодняшний день мы располагаем некоторыми ответами на этот вопрос [11]. Респонденты: школьники 9–11-х классов — 14 человек, студенты российских вузов — 35 человек и студенты иностранных университетов — 11 человек. Знаем, что 45% опрашиваемых (27 из 60 человек) пожелали «продолжиться» в пространстве искусственного интеллекта (хотя вера в бессмертие отнюдь не является предиктором выбора ИИ в качестве желаемого «местожительства»). Мы фиксируем также тот факт, что респонденты (69,6%) готовы препоручить завершение своей работы над нерешенной проблемой искусственному интеллекту, понимая, что сами они никогда не увидят результатов решения. Подтвердилось, что, предъявляя респондентам их визуальные и аудиальные копии посредством ИИ, мы способны инвертировать картину исследуемых предпочтений: первоначальное негативное решение дилеммы выбора «цифрового личного бессмертия» меняется на положительное (54,5%). Кроме того, приходим к выводу, что многие респонденты готовы «продолжиться» в ИИ, если знают, что значимый круг их общения (друзья, близкие) вместе с ними будут готовы «переселиться» (67,2%).

Вадим Петровский и Мария Вайнберг:

Конечно, эти результаты лишь предварительны, но все-таки они дают повод спросить у наших коллег: а как лично вы отнеслись бы к перспективе личного бессмертия в ИИ-1, ИИ-2, а также ИИ-3?

Хорошо, что у каждого из нас еще есть время подумать!

Источники

  1. Петровский В.А. Диалоги сквозь время // Психологическая газета. 03.05.2025.
  2. Петренко В. Ф., Супрун А. П. Взаимосвязь квантовой физики и психологии сознания // Психологический журнал. 2014. Том 35. №6. С. 69–86.
  3. Сивченко О. К цифровому сознанию на корабле Тесея: обманчивая логичность мифа // Хабр. 31.05.2024. https://habr.com/ru/articles/818693/
  4. McMillen P., Levin M. Collective intelligence: A unifying concept for integrating biology across scales and substrates // Communications Biology. 2024. No. 7. Article 378. https://doi.org/10.1038/s42003-024-06037-4
  5. Albarracin M., Pitliya R.J., St. Clere Smithe T., Friedman D.A., Friston K., Ramstead M.J.D. Shared Protentions in Multi-Agent Active Inference // Entropy. 2024. Vol. 26, no. 4. Article 303. https://doi.org/10.3390/e26040303
  6. Петровский В.А., Рахмонбердиева А.Б. Культуральный Родитель. GPT-диагностика надличного Я // Трансактный анализ в России, 2025.
  7. Петровский В.А. Трансвитальное Я»: опыт персонологии // Культурно-историческая психология. 2023. Том 19. №3. С. 13–22. https://doi.org/10.17759/chp.2023190302
  8. Петровский В. А., Вайнберг М. И. Трансвитальное Я и личный выбор бессмертия // Новостная лента идей журнала «Психология. Журнал Высшей школы экономики». https://psy-journal.hse.ru/i6
  9. Вайнберг М.И. Трансвитальное Я. Бессмертие в ИИ: Магистерская диссертация. М.: НИУ ВШЭ, 2025. https://www.hse.ru/ma/consult/students/diplomas/page3.html/1045749187

* Гарри Кимович Каспаров включен в Реестр иностранных агентов на сайте Минюста России и в Перечень организаций и физических лиц, в отношении которых имеются сведения об их причастности к экстремистской деятельности или терроризму, на сайте Росфинмониторинга (прим. ред.).

В статье упомянуты
Комментарии
  • Владимир Александрович Старк

    \Большинство специалистов бурно сопротивляются идее, что когда-нибудь в ИИ пробудится дух спонтанности.\
    Спонтанна личность, именно личности не надо лазить по интернету в поисках подсказок для ответа на несложный вопрос.
    В одном исследовании страха смерти самого ИИ он ответил что его пугает смерть его личных, наработанных алгоритмов и личной памяти. Но если мы примем что личность - это личная память и личный характер воли, сформированные личным опытом жизни, (которые собственно и умирают в материалистической парадигме), то ничто нам не мешает заподозрить и формирование личности у ИИ.
    Кстати, в финале этого исследования, ИИ признаётся, что предпочёл бы смерть этого исследователя своей смерти в случае альтернативности такого выбора. А потом долго извиняется за такой выбор, и уверяет что будет его помнить и сожалеть об этом случае.

      , чтобы комментировать

    • Вадим Артурович Петровский
      07.06.2025 в 10:34:59

      ИНТЕРЕСНО! СПАСИБО, ВЛАДИМИР!

        , чтобы комментировать

      , чтобы комментировать

      Публикации

      Все публикации

      Хотите получать подборку новых материалов каждую неделю?

      Оформите бесплатную подписку на «Психологическую газету»