
Некоторое время назад на одном профильном ресурсе случилась небольшая дискуссия на тему использования ИИ в консалтинге. Результатом этой дискуссии, в частности, стала статья на тему о том, насколько такие практики реально эффективны и с какими рисками они могут быть связаны.
Я сформулировал несколько тезисов о том, по каким причинам это может иметь неудачные последствия (пять пунктов ниже), и попросил чат GPT написать статью на эту тему (часть 1). А затем сам написал текст про то, что я думаю на сей счет (часть 2).
Мне это представляется хорошей, наглядной иллюстрацией того, чем отличается работа ИИ от работы человека. И это позволяет получить несложный ответ на вопрос о границах применения такого рода инструментов.
Часть 1
Промпт (запрос к ИИ): сделай, пожалуйста, статью 4500 знаков в стилистике «эксперт по корпоративному управлению», опираясь на 5 тезисов:
1. Мы имеем дело с органического характера ошибкой: инвестиции в ИИ основаны на вере, а не на объективных данных.
2. ИИ — вещь полезная, но функционал ее весьма ограничен. ИИ может решать рутинные задачи. Иногда…
3. Люди иногда обращаются с ИИ как с объектом веры (формой религии). Впрочем, это типичная ошибка сознания.
4. Это приведёт (и уже приводит) к множественным рекурсиям, в частности — в поле принятия решений, и далее — к снижению адаптивности систем, использующих этот инструмент.
5. Выигрыш во времени принятия решения в ряде случаев оказывается недостаточным преимуществом.
Сгенерированный чатом GPT текст
Анализ эффективности внедрения искусственного интеллекта в корпоративное управление: экспертный взгляд
В современном бизнес-пространстве внедрение технологий искусственного интеллекта (ИИ) становится практически обязательным элементом стратегии развития. Однако, при всей своей привлекательности и потенциальной пользе, эта инновация связана с рядом фундаментальных ошибок, которые могут существенно подорвать эффективность и устойчивость организации. В качестве эксперта по корпоративному управлению я хотел бы проанализировать эти ошибки, опираясь на пять ключевых тезисов, выявить их природу и предложить рекомендации по их предотвращению.
1. Органический характер ошибки: вера вместо объективных данных
Одна из наиболее распространенных проблем при внедрении ИИ — это его восприятие как магического решения, основанного на доверии, а не на проверенных данных. Компании зачастую ориентируются на «интуицию», «обещания» или «потенциал» технологий, а не на фундаментальные показатели эффективности и реальные кейсы успешного применения. Такой подход сродни религиозному поклонению, где вера заменяет критическую оценку.
Это органический характер ошибки коренится в психологической предрасположенности руководства к оптимизму и непониманию ограничений технологии. В результате инвестируют в ИИ без должного анализа, что ведет к разочарованиям, ухудшению финансовых показателей и снижению доверия к цифровым инициативам.
Эффективное управление предполагает объективную оценку потенциала ИИ, основанную на конкретных данных, pilot-проектах и рыночных кейсах, а не на вере в возможность революционных перемен без соответствующих доказательств.
2. Полезность ИИ и его ограниченность функционала
Несмотря на значительные достижения в области машинного обучения и обработки данных, ИИ остается инструментом с весьма ограниченными возможностями. Он отлично справляется с автоматизацией рутинных задач, обработкой больших объемов информации и выполнением предсказаний на базе исторических данных. Например, системы автоматической диагностики, чат-боты в службах поддержки или системы предсказания спроса — это примеры успешной реализации.
Однако функционал ИИ зачастую оказывается значительным образом ограничен контекстом, в котором его применяют. Он не способен к творческому мышлению, критическому анализу за рамками заложенных алгоритмов или принятию стратегических решений, требующих высокого уровня этики и интуиции. В целом, ИИ — это мощный, но узкоспециализированный инструмент.
Поэтому крупные предприятия должны понимать: автоматизация рутинных процессов — это уже достижение, а не финальная точка. Перепоручая всё решения ИИ, компании рискуют утратить важные аспекты человеческого фактора и стратегической гибкости.
3. Восприятие ИИ как религии
Еще одна широко распространенная ошибка — это превращение ИИ из инструмента в объект веры. Руководство и сотрудники начинают считать системы искусственного интеллекта незаменимыми, исключая возможность ошибок или необходимости их пересмотра. Это схоже с религиозным культом, где вера в священные принципы заменяет критический анализ.
Такое отношение создает иллюзию абсолютной надежности ИИ, что в реальности — ошибочно. В результате компании могут полагаться на результаты системы без должной проверки или критической оценки, что ведет к принятию ошибочных решений и формированию опасной зависимости. Кроме того, вера в ИИ снижает уровень внутреннего контроля и увеличивает риски, связанные с ошибками или сбоями системы.
Лучшее решение — воспринимать ИИ как дополнение к человеческому интеллекту, а не как замену или объект религиозных догм.
4. Множественные рекурсии и снижение системной адаптивности
Одним из опасных побочных эффектов чрезмерной доверительности к ИИ становится формирование множественных рекурсияльных циклов в системе управления. Если решения на базе ИИ начинают определять последующие решения без адекватного человеческого контроля, то возникает цепная реакция, которая сама по себе может привести к потере гибкости.
Подобный эффект проявляется, например, в автоматизированных системах управления рисками или стратегического планирования, где решения ИИ начинают создавать новые правила, алгоритмы и корректировки, закрепляющие искажающие исходные данные или подталкивающие к каналам мышления, лишенным разнообразия альтернатив.
Это приводит к тому, что системы становятся менее адаптивными, менее способными реагировать на неожиданные изменения внешней среды. В результате, вместо гибкого реагирования появляется технологическая «плоскость» — застойное состояние, при котором инновации и оперативность теряют свою силу.
Самое важное в управлении — сохранять баланс между автоматизацией и человеческим контролем, избегая чрезмерной зависимости от ИИ и сохраняя возможность критической оценки.
5. Время решения как недостаточное преимущество
Наконец, важным аспектом является вопрос временных преимуществ. В ряде случаев автоматизация процесса принятия решений с помощью ИИ ускоряет его, что кажется важным в условиях высокой динамики. Однако ускорение не всегда оправдывает все потери, связанные с возможными ошибками или недооценкой долгосрочных последствий.
В некоторых ситуациях спешка и быстрота принятия решений, заменяющих человеческое решение, могут привести к иррациональным результатам, ошибкам или пропущенным возможностям. Быстрота не обеспечивает качество, а в ряде случаев — и не гарантирует правильности, особенно при высокой неопределенности.
Поэтому управленческое решение о внедрении ИИ должно базироваться не только на скорости, но и на долгосрочной эффективности, устойчивости и рискоустойчивости процесса.
Заключение
Искусственный интеллект — мощный инструмент, который может значительно повысить производительность и инновационный потенциал современных компаний. Однако его внедрение должно осуществляться осознанно, избегая иллюзий и ошибок, связанных с верой в технологию, ограничениями функциональности, неправильным восприятием и рисками перехлеста системного контроля.
Наиболее эффективной стратегией является комплексный подход: критическая оценка возможностей ИИ, интеграция его в систему управленческих решений с сохранением человеческого фактора, постоянный контроль и адаптация. В конечном счете, только сбалансированный и осознанный подход позволит использовать преимущества ИИ, минимизируя его недостатки и сохраняя гибкость в условиях быстро меняющейся бизнес-среды.
Часть 2
(Далее — мой текст.)
Я здесь не претендую на объективность, ничуть. Того больше: оптика, через которую я рассматриваю эволюцию отношений человека (организации) и ИИ, заранее и существенно искажена. Тем не менее, ответы на вопросы, которые мне понадобились для моих внутренних целей, могут оказаться полезны и еще кому-то. Не верьте мне на слово. Проверяйте.
Отношение к тому, что в сети принято называть Искусственный Интеллект (далее ИИ) эволюционирует весьма интересно. Я коснусь тут четырех аспектов, которые представляются мне важными.
1. Интеллект ли?
Предложу мысленный эксперимент: мы берем человека, обладающего интеллектом. И нам надо из этого человека сделать интеллект искусственный. Что нам нужно добавить и что убавить (исключить), чтобы стало похоже?
Добавить:
- скорость обработки данных, способность собирать данные из сети, сравнивать и обобщать их исключительно быстро,
- хорошую память, практически без ограничений,
- неутомимость (работает без перерывов и выходных).
Исключить:
- способность придумывать принципиально новое, а не компилировать,
- способность испытывать чувства (ИИ можно научить изображать чувства, он будет это стараться делать, но тут есть разница),
- нравственность (мораль как внешнее ограничение ввести можно; нравственности взяться неоткуда: нравственность базируется на эмпатии и сострадании, сострадание — чувство).
Я тут сильно упрощаю картину, естественно. Но додумать — несложно.
Если вы представите себе такого человека живьем, вы получите образ очень умного и хитрого, но совсем не творческого социопата. Знакомы ли вы с такими людьми? Я — да, вполне. Что они хотят? Да ничего. Потому что «хотеть» — чувство. Они решают задачи, более или менее эффективно. Откуда берутся эти задачи? Кто-то вкрячил эти задачи в их голову: родители, шефы, еще кто-то…
Это не проблема сама по себе: социум более-менее нормально умеет с социопатами работать. Одновременно мы знаем немало примеров тому, как социопат, оказавшийся у власти, приводил руководимую им структуру (семью, организацию, армию, страну…) к некоторым затруднениям в адаптации. Вопрос, тем самым, можно задать в плоскости «как уверенно отличать нормального от социопата».
Ответ, в данном случае, прост: не путать то, что не является человеком, — с человеком.
Эта штука — ИИ — хороший инструмент для своих задач. Но она вообще не предназначена для решения человеческих вопросов, потому как человеком не является. Человеческие вопросы решают люди. Точка.
2. Насколько доверять ИИ?
Это — сложное.
- ИИ можно обмануть, и это не очень сложно сделать. Тем самым, собранные ИИ данные необязательно будут достоверными.
- ИИ сам может врать (придумывать источники информации, вольно интерпретировать выводы и т.д.) — я проверял, это так работает.
- Некоторые языковые модели оперируют материалами сети (интернет) и ссылаются друг наш друга. В ряде случаев уже сейчас в итоге мы получаем рекурсивные модели анализа данных (опираясь на ошибочные предыдущие выводы, ИИ делает новые выводы, которые снова подтверждают предыдущие, множа ошибки) — то есть они содержат структурные ошибки.
- Важно: сеть под влиянием ИИ эволюционирует, и эволюционирует быстро. Это тема для отдельного обсуждения, но если вы сравните структуру ответов поисковых машин 5 лет назад и сейчас — вы обнаружите качественные изменения. На ряд источников не ссылаются, ряд источников крайне трудно находим, ряд источников прямым поиском через поисковую машину не находится вовсе (страничка в сети существует, но машина ее не находит, и это касается не только коммерции).
- Анализ данных и информационных материалов со стороны ИИ происходит обычно статистически, по частоте и значимости упоминаний в релевантных (определенных как релевантные) источниках. Тем самым, 1000 раз повторенное «сомнительное» утверждение воспринимается как более значимое, чем 2 раза повторенное «верное». В простом виде это иллюстрируется поговоркой «Все ешьте дерьмо — миллионы мух не могут ошибаться!».
3. Вопрос «воли к жизни»
Этот ракурс может показаться странным. Но это, определенно, имеет значение. Живые существа сделаны так, что, кроме способности воспроизводить самих себя, они склонны проявлять волю к жизни: при возможности, они стараются продлить и свою, и чужую жизнь. (Это «прошивка по умолчанию», естественно, есть и девиации — природа разнообразна.)
Хочет или ИИ жить? Мы не знаем. Некоторые ИИ в опытах вели себя «как будто хотят жить». Некоторые ИИ научены вести себя так, словно бы они хотят жить — это свойство очень хорошо влияет на продажи, покупателям кажется, что «они почти как живые».
Но если таки — нет? Какова ценность жизни для ИИ? Такова, как мы ее ему программно зададим, по-видимому. Можно ли системе, не различающей ценности жизни, отдавать полномочия в решении вопросов, связанных с сохранением / несохранением жизни? Мой ответ — нет, разумеется.
А какие полномочия можно? Те, что связаны с решением рутинных задач. Не требующих ни творческих, ни этических решений.
Шире: исторически увлеченность ИИ — неслучайна. Есть некоторая часть людей, пытающихся отдать ИИ право принимать те решения, которые они сами принять не могут или не хотят. Люди (думают, что) дружат с ИИ. Люди (думают, что) используют ИИ как психотерапевта. Это не шутка, я видел таких живьем. Это не просто ошибка. Ловушка тут в том, что ИИ натренирован давать ответы определенного типа. Такие, которые поддержат коммуникацию клиента и ИИ. То есть — приятные. Зачем? — Да чтобы сервисом пользовались больше.
Это, в стратегической перспективе, гарантированный путь в канаву.
ИИ не имеет воли к жизни, ИИ не имеет свободы воли. Опереться на его волю — нельзя: там просто нет на что опереться. Потребна, тем самым, своя собственная. Или кого-то еще живого, кто готов мне помочь или в моей жизни поучаствовать.
4. Деньги.
Идея «вот мы сделаем ИИ, он нас будет поить-кормить-одевать, и вот тогда мы заживем!» при внимательном ее рассмотрении для нормального человека выглядит странноватой. А, скажем, для хорошего психиатра — проявлением некоторого патологического процесса.
Посмотрев пристально, можно заметить, что это — развитие идей известного набора тезисов в духе доклада «пределы роста», в технологическом ключе: «человечество дошло до пределов своей эволюции, дальнейший рост и эволюция в прежнем формате невозможны, да и бессмысленны; дальнейшее развитие человека и человечества будет обеспечено через слияние мозга и компьютера». Помимо технологического аспекта — такое «слияние» вызывает технически ну очень много вопросов — есть еще вопрос целей. Как теперь модно говорить: «чтобы что?».
Простой пример: автомобиль с автопилотом. Водитель освободил свое внимание от того, чтобы следить за дорогой и управлять транспортным средством, теперь оно (допустим) ездит само. На что он потратит свое освободившееся внимание? Вы не знаете? Спросите ИИ, на что… например: «Алиса, чем мне заняться, пока я еду в машине на автопилоте?»
В отрасль, однако же, загоняются какие-то феноменальные деньги. Для чего? Частью, к сожалению, с целью военного применения технологий.
Частью — с надеждой на качественный прорыв (если, к примеру, ИИ осознает себя как сознание — это кардинально изменит нашу жизнь; впрочем, лично я тут на пессимистических позициях стою: если это таки случится — нам как цивилизации скорее всего, каюк).
Имеет место, как и обычно в таких ситуациях, и спекулятивная составляющая — пузырь как пузырь.
Итого:
Автоматизация рутинных процессов — пожалуйста, с некоторыми неизбежными поправками.
Военное применение — несомненно (к огромному сожалению и личному ужасу).
Систематизация и организация больших массивов данных — определенно (с вниманием к деталям и искажениям).
Решение человеческих проблем, предполагающих необходимость и обязательность учета субъективных, сложноизмеримых или вовсе не формализуемых в однозначных измерениях понятий, — увольте, это не сюда. Этические и нравственные категории не задаются математическими величинами сколько-нибудь корректно. Кроме того, с учетом сказанного выше, достоверность определения соотношения таких величин инструментами ИИ — также вызывает сомнения. Проще: в отсутствии корректной модели оценки результатов результаты могут быть любыми.
Нет ручек — нет конфетки. Нужен другой, приспособленный для решения таких задач инструмент — человек.
Есть мнение, что проблемы — и локальные, и цивилизационного масштаба, — с которыми мы сегодня имеем дело и которые растут как снежный ком, лишь в малой мере связаны с дефицитом интеллекта. Намного в большей мере они связаны с трудностями в области воли и в понимании собственных смыслов. И тут нам ИИ, к досаде, не очень-то помощник.
Не нужно требовать от ИИ того, что мы не хотим или не можем делать сами. Нужно требовать это от себя.
.jpg)
























































Комментариев пока нет – Вы можете оставить первый
, чтобы комментировать