Судьба управленца

Bark
07.05.2025 20:54
 

«В течение 12–18 месяцев мы достигнем точки, когда большая часть кода, который идет на эти усилия, будет написана ИИ» так Марк Цукерберг обрисовал нам будущее в начале 2025 года. Примечательно что на эту тему отметились почти все фронтмены большой АI семерки ( И Эрик Шмидт и Дарио Амодеи, генеральный директор Anthropic, недавно заявил, что «через 3–6 месяцев ИИ будет писать 90% кода, а через 12 месяцев почти весь код может быть сгенерирован ИИ». Тем временем Дженсен Хуанг из NVIDIA предложил молодым людям полностью отказаться от программирования в пользу биологии, образования или сельского хозяйства, как будто эти области каким-то образом невосприимчивы к технологическим потрясениям). Естественно в ожидании конца диктата "переоценки" IT специалистов много кто хлопает в ладоши, эти заявления с энтузиазмом подхватываются двумя различными группами: менеджерами среднего звена, которые никогда не написали ни строчки кода, кроме формулы Excel, и той особой категорией менеджеров высшего звена, которая долгое время возмущалась программистами за их предполагаемые привилегии, упорно отказываясь при этом узнать, что на самом деле представляет собой «шаблон проектирования» .

«В сфере технологий доминируют два типа людей: те, кто понимает, чем не управляет, и те, кто управляет тем, чего не понимает». — Закон Патта))) Рассмотрим с помощью Deep Research от Gemini стоит ли управленцам так радоваться?

Сравнение принятия решений человеком-менеджером и искусственным интеллектом


1. Введение: Меняющийся ландшафт управленческого принятия решений


Эффективное принятие решений всегда было краеугольным камнем успешного управления и организационного развития.1 В современной бизнес-среде, характеризующейся возрастающей сложностью, быстрыми технологическими сдвигами и динамичными рыночными условиями 2, требования к менеджерам в части принятия гибких, обоснованных и эффективных решений многократно возросли. Характер принимаемых решений и контекст, в котором они формируются, претерпели значительные изменения, что делает сравнение человеческого и искусственного интеллекта (ИИ) в этой области особенно актуальным и критически важным.

Искусственный интеллект перестал быть футуристической концепцией и превратился в повседневную реальность, трансформирующую целые отрасли за счет обеспечения более быстрого и точного принятия решений.3 ИИ обладает способностью оперативно анализировать огромные объемы данных, выявлять закономерности и предоставлять информацию, основанную на данных.3 В данном контексте ИИ рассматривается не просто как инструмент, а как формирующаяся сущность, способная принимать решения, дополнять или даже автоматизировать определенные аспекты управленческих функций. Внедрение ИИ в процессы принятия решений представляет собой не просто постепенное усовершенствование, а потенциальный сдвиг парадигмы в функционировании и стратегическом планировании организаций. Традиционное принятие решений опирается на когнитивные способности человека, которые имеют свои ограничения в обработке информации и подвержены предвзятости. ИИ же привносит принципиально иные возможности по скорости и масштабу анализа данных 3, что предполагает его эволюцию от вспомогательной роли к фундаментальному изменению процессов принятия решений, формулирования стратегий 4 и даже организационных структур. Это означает, что организациям необходимо не просто внедрять инструменты ИИ, а переосмысливать свои подходы к принятию решений и роли менеджеров.

Целью данного отчета является всесторонний сравнительный анализ процессов принятия решений, используемых менеджерами-людьми и системами искусственного интеллекта. В отчете будут рассмотрены их характерные черты, сильные и слабые стороны, влияющие факторы (включая предвзятость), этические аспекты и развивающаяся область сотрудничества человека и ИИ. Сравнение будет охватывать теоретические основы, практическое применение и стратегические последствия для организаций, стремящихся оптимизировать свои возможности в области принятия решений. Важно отметить, что это сравнение носит не только технический, но и глубоко социально-технический характер, затрагивая организационную культуру, этику и психологию человека. Принятие решений является ключевой человеческой функцией в управлении, связанной с авторитетом, опытом и интуицией.1 Внедрение ИИ бросает вызов этим традиционным аспектам, что может привести к сопротивлению или чрезмерной зависимости.8 Этические соображения 10 усложняются с участием ИИ, особенно в вопросах подотчетности и предвзятости. Следовательно, чисто технического сравнения будет недостаточно; необходимо рассмотреть эти многогранные аспекты.

2. Человеческий фактор: Деконструкция процесса принятия управленческих решений


2.1. Ключевые характеристики: Рациональность, интуиция и процесс


Принятие управленческих решений человеком представляет собой сложное сочетание рациональных, аналитических процессов и интуитивных, основанных на опыте суждений.1 Эта двойственность является фундаментальной характеристикой человеческого познания в управленческом контексте.

Рациональное мышление предполагает систематический анализ вариантов на основе логики и фактических данных. Оно включает определение целей, сбор информации, оценку альтернатив и выбор наилучшего варианта действий.1 Такой подход основан на данных и следует формальному, пошаговому анализу.1 Интуитивное принятие решений, напротив, опирается на инстинкт, «внутреннее чутье» и накопленный опыт. Часто это спонтанный подход без видимого структурированного процесса.1 Интуиция особенно важна в ситуациях, когда данные ограничены или ненадежны, или когда требуется быстрое принятие решений.1 Эффективные менеджеры часто успешно сочетают аналитический и интуитивный подходы.7 Воспринимаемое разделение между «рациональным» и «интуитивным» принятием решений человеком часто является упрощением. Сама интуиция может быть формой быстрой, подсознательной обработки паттернов, сформированной на основе опыта, что делает ее высокоэффективной, хотя и менее прозрачной, формой обработки данных. Интуиция описывается как опора на «опыт и сигналы, которые трудно измерить или подтвердить» 1 и «основывается на личном опыте, предчувствиях и инстинктах».7 Опыт – это накопленные данные и усвоенные закономерности. «Предчувствие» может быть результатом подсознательного сопоставления текущей ситуации с этими усвоенными паттернами. Это говорит о том, что интуиция не является чисто «нерациональной», а скорее представляет собой иной способ обработки информации, который был интернализирован с течением времени. Следовательно, развитие управленческой интуиции (через разнообразный опыт, рефлексию) так же важно, как и обучение аналитическим методам. Это также означает, что ИИ, преуспевающий в распознавании образов на основе огромных объемов данных, может рассматриваться как дополнение к ключевому компоненту того, что мы называем человеческой интуицией, хотя и в явной форме.

Процесс принятия управленческих решений обычно включает такие этапы, как постановка целей, определение проблемы, требующей решения, сбор информации, выявление альтернатив, взвешивание доказательств, выбор из альтернатив, принятие мер и анализ результатов принятого решения.1 Этот структурированный подход направлен на обеспечение тщательности и объективности. Однако важно понимать, что формальный «процесс принятия решений» 1 является идеализированной моделью. В действительности принятие управленческих решений часто бывает более запутанным, итеративным и в значительной степени подверженным влиянию таких факторов, как эмоции, предубеждения и организационная политика, что делает «процесс» скорее нормативным ориентиром, чем строгим описанием. Этапы (определение проблемы, сбор информации и т. д.) логичны и последовательны.1 Однако другие источники подчеркивают роль эмоций 1, предубеждений 18 и организационной политики 20, которые могут нарушить или изменить этот линейный процесс. Например, сильная эмоциональная реакция 16 может привести к преждевременному выбору до взвешивания всех альтернатив, или предвзятость подтверждения 19 может исказить сбор информации. Это подразумевает, что понимание отклонений от этого идеального процесса имеет решающее значение для истинного понимания принятия решений человеком-менеджером и выявления областей, где ИИ может предложить корректирующие или поддерживающие вмешательства.

Менеджеры могут демонстрировать различные стили принятия решений:

  1. Психологический стиль более креативен и гибок, включает интуицию, но может быть импульсивным.1
  2. Когнитивный стиль основан на логике и рассуждениях, учитывает всю доступную информацию; часто приводит к разумным выборам, но может занимать много времени.1
  3. Нормативный стиль предполагает следование установленным правилам и процедурам, часто используется при ограниченном времени и низких ставках.1


Другие характеристики принятия решений включают избирательность (выбор лучшего варианта), целенаправленность (ориентация на результат), позитивность (стремление к хорошим результатам), требование приверженности и постоянную оценку.1 Это непрерывный, динамичный и гибкий процесс, на который влияют такие ограничения, как бюджет и ресурсы.7

2.2. Влияющие факторы: Роль опыта, эмоций и этики


На процесс принятия решений менеджером оказывает существенное влияние множество факторов, среди которых особо выделяются опыт, эмоции и этические соображения.

Опыт формирует как инстинктивные реакции (Система 1 мышления), так и логическое, обдуманное мышление (Система 2).22 Обучение на прошлых успехах и неудачах совершенствует навыки принятия решений.22 Опытные менеджеры часто полагаются на интуицию, особенно в условиях дефицита времени.15 Однако чрезмерная опора на прецеденты без адаптации к новой информации может привести к когнитивным искажениям.18 Неудачные проекты в прошлом (например, ребрендинг J.C. Penney из-за непонимания существующих клиентов или провал бургера Arch Deluxe от McDonald's из-за игнорирования целевой аудитории 23) преподают ценные уроки о важности исследования рынка, согласованности с клиентами и оценки рисков, влияя на будущий выбор проектов и распределение ресурсов. И наоборот, прошлые успехи могут привести к излишней самоуверенности или нежеланию отклоняться от проверенных методов. Эффективное распределение ресурсов, например, выигрывает от наличия данных и понимания навыков/доступности 24, но прошлый опыт менеджера с аналогичными проектами — знание того, какие навыки были критически важны, где возникали узкие места или как развивалась командная динамика — неизбежно будет формировать его текущие стратегии распределения. Управленческий опыт является обоюдоострым мечом: с одной стороны, он оттачивает интуицию и предоставляет ценные эвристики, с другой — может укоренять предубеждения и создавать сопротивление новым подходам, если прошлый опыт чрезмерно обобщается или если негативный опыт приводит к излишней боязни риска. Опыт формирует инстинкты и улучшает принятие решений.22 Результаты прошлых проектов 23 явно влияют на будущие подходы. Однако чрезмерная опора на прошлые прецеденты является причиной когнитивных искажений.18 Менеджер, столкнувшийся с неудачей в определенном типе проекта, может избегать подобных проектов, даже если контекст изменился, или менеджер с чередой успехов может стать излишне самоуверенным. Это означает, что эффективным менеджерам необходимы метакогнитивные навыки для критического осмысления своего опыта и определения, когда прошлые уроки применимы, а когда они могут вводить в заблуждение. Организации должны поощрять извлечение уроков из неудач, не культивируя при этом неоправданную боязнь риска.

Эмоции являются неотъемлемой частью процесса принятия решений человеком, а не чем-то отдельным от него.1 Они могут привести к неверным решениям, если ими не управлять, но также могут способствовать принятию эффективных решений.17 Положительные эмоции (например, радость) могут привести к переоценке вероятности положительных исходов, недооценке отрицательных и, возможно, к поспешным или менее точным решениям.16 Негативные эмоции (например, подавленное настроение) могут способствовать более сфокусированному поиску информации в ситуациях высокого риска, однако гнев может увеличить склонность к риску.16 Сожаление (или его боязнь) может привести к параличу принятия решений или откладыванию важных выборов.16 Эвристика аффекта описывает опору на эмоции, а не на конкретную информацию, особенно в условиях нехватки времени или усталости, что приводит к неоптимальному выбору.27 Глубоко укоренившиеся эмоциональные предубеждения, основанные на личном опыте, могут привести к упущенным возможностям или ошибочным стратегиям.28 Влияние эмоций на принятие решений часто недооценивается и не всегда является негативным. Хотя сильные отрицательные эмоции могут ухудшить суждение, умеренная эмоциональная вовлеченность может повысить концентрацию и стимулировать этические соображения. Эмоции представлены как неотъемлемая часть.16 Положительные эмоции могут привести к поспешности 16, а гнев — к повышенному риску.16 Однако негативное настроение может привести к более сфокусированному поиску информации 16, а такие эмоции, как эмпатия, играют центральную роль в принятии этических решений и лидерстве.11 Эвристика аффекта 27 показывает, как эмоции могут быть быстрым, хотя иногда и ошибочным, путем к решению. Это говорит о том, что эмоциональный интеллект — распознавание, понимание и управление своими и чужими эмоциями — является критически важной компетенцией для менеджеров, не для устранения эмоций, а для их конструктивного использования. Это также подразумевает, что ИИ, лишенный подлинных эмоций, упускает это измерение входных данных для принятия решений, к лучшему это или к худшему.

Этика является краеугольным камнем эффективного лидерства, требуя, чтобы выбор соответствовал моральным принципам, организационным ценностям и ожиданиям общества.11 Это включает учет влияния на всех заинтересованных сторон (сотрудников, клиентов, сообщества, окружающую среду).10 Ключевые этические соображения включают стремление поступать правильно, соответствие основным ценностям, прозрачность, доверие, справедливость и учет как положительных, так и отрицательных результатов.10 Этические рамки (утилитарная, основанная на правах, справедливости, добродетели, этика заботы) предоставляют структурированные подходы к решению сложных дилемм.31 Например, реакция Johnson & Johnson на кризис с Tylenol, когда безопасность потребителей была поставлена выше прибыли, демонстрирует этическое лидерство.31 Этическое лидерство укрепляет доверие, повышает вовлеченность сотрудников и способствует долгосрочному успеху.11 Менеджеры-люди привносят в процесс принятия решений такие сильные стороны, как эмоциональный интеллект, эмпатия и этическое мышление.29 Этическое принятие решений в управлении — это не просто соблюдение норм, а проактивное формирование ответственной организационной культуры. Это непрерывный процесс балансирования конкурирующих интересов и ценностей заинтересованных сторон. Этика предполагает учет всех заинтересованных сторон и моральных последствий, выходя за рамки простого соблюдения законов.10 Этическое лидерство формирует доверие и положительный опыт сотрудников.11 Пример с Tylenol 32 показывает, как этика определяет стратегию. Существуют этические рамки 31, но их применение требует суждения и навигации в условиях неопределенности.31 Подразумевается, что этическое лидерство — это активная, а не пассивная позиция. Оно требует смелости и долгосрочной перспективы, что иногда может вступать в конфликт с краткосрочными давлениями. Это область, где человеческое суждение и ценности имеют первостепенное значение, и ИИ может только поддерживать, но не заменять это.

2.3. Когнитивные искажения: Невидимые силы, формирующие человеческие суждения


Когнитивные искажения представляют собой систематические ошибки в суждениях, возникающие из-за иррациональных мыслительных процессов. Они часто упрощают сложную реальность, но приводят к искаженному восприятию.18 Такие искажения психологически удобны и труднопреодолимы.18 Они не являются единичными ошибками, а часто взаимодействуют и усиливают друг друга, создавая сложную сеть искаженных суждений. Например, предвзятость подтверждения может укрепить первоначальное суждение, основанное на ранней информации (якоре), а чрезмерная самоуверенность может сделать менеджера менее склонным искать опровергающие доказательства или признавать ошибку невозвратных затрат. Эта взаимосвязь означает, что устранение одного искажения в изоляции может быть недостаточным. Необходим целостный подход к устранению предвзятости. «Психологическое удобство» 18 искажений предполагает, что они служат эволюционной или когнитивной цели эффективности, помогая людям быстро принимать решения в сложных условиях. Это делает их особенно трудными для полного искоренения. Проблема возникает в сложных управленческих решениях, где ставки высоки. Трудность их преодоления 18 проистекает из этой глубоко укоренившейся полезности. Это означает, что стратегии борьбы с искажениями должны быть сосредоточены на создании сред и процессов, которые уменьшают зависимость от этих упрощений в критически важных решениях (например, структурированные протоколы принятия решений, предварительный анализ рисков), а не на попытках устранить сами искажения из человеческого познания. Это также подчеркивает ключевое различие с ИИ, которому (теоретически) не нужны такие когнитивные упрощения, хотя у него могут быть свои «алгоритмические упрощения» или предубеждения.

В управленческой практике наиболее распространены следующие когнитивные искажения:

  1. Предвзятость подтверждения (Confirmation Bias): Тенденция искать или интерпретировать доказательства таким образом, чтобы они соответствовали существующим убеждениям, ожиданиям или гипотезам.19 Менеджеры могут сосредоточиться на данных, поддерживающих предпочтительный проект, или преуменьшать риски.37
  2. Эффект якоря (Anchoring Bias): Чрезмерная опора на первую полученную информацию («якорь») при принятии решений, даже если она нерелевантна. Последующие суждения выносятся с недостаточной корректировкой этого якоря.19 Примерами могут служить переговоры о заработной плате или первоначальные оценки проекта.37 Эвристика «якоря и корректировки» (Тверски и Канеман, 1974) объясняет это явление, отмечая, что корректировка часто бывает недостаточной, особенно в условиях нехватки времени.39
  3. Ошибка невозвратных затрат (Sunk Cost Fallacy) или Эскалация обязательств: Продолжение деятельности из-за ранее вложенных ресурсов (времени, денег, усилий), даже когда это уже нерационально.19 Обусловлено правилом «не тратить зря» или самооправданием.43 Менеджеры могут продолжать финансировать убыточные проекты, чтобы оправдать прошлые решения.43
  4. Искажение чрезмерной уверенности (Overconfidence Bias), особенно эффект «лучше среднего» (Overplacement): Переоценка собственных способностей или точности своих убеждений.19 Камерер и Ловалло (1999) показали, что эффект «лучше среднего» приводит к избыточному входу на рынок.44 Менеджеры могут переоценивать шансы на успех проекта или недооценивать риски.37
  5. Эвристика доступности (Availability Heuristic): Оценка вероятности события по легкости, с которой соответствующие примеры приходят на ум.19 Яркие или недавние события могут иметь завышенный вес. Менеджер может переоценить редкий провал проекта, если он был недавним и значительным.
  6. Групповое мышление (Groupthink): Явление, при котором группа принимает ошибочные решения ради согласия или конформизма, ценя гармонию выше точного анализа и критического мышления.37 Симптомы включают иллюзию неуязвимости, самоцензуру и давление на несогласных.46 Приводит к плохим решениям, отсутствию креативности и упущенным решениям.46 Групповое мышление 46 можно рассматривать как возникающее на организационном уровне когнитивное искажение, порожденное индивидуальными предубеждениями (например, предвзятостью конформизма, желанием угодить авторитету) и социальной динамикой. Симптомы группового мышления включают самоцензуру, иллюзию единодушия и давление на несогласных.46 Такое поведение может быть связано с индивидуальными предубеждениями, такими как предвзятость конформизма 19 или предвзятость авторитета.19 Групповой контекст усиливает эти индивидуальные тенденции, превращая их в коллективный провал критического мышления. Это говорит о том, что для смягчения группового мышления требуется не только осознание этого явления, но и содействие психологической безопасности, поощрение инакомыслия и структурирование процессов принятия групповых решений для обеспечения учета различных точек зрения.
  7. Эвристика аффекта (Affect Heuristic): Опора на эмоции, а не на конкретную информацию, особенно в условиях нехватки времени или усталости.19 Настроение менеджера может влиять на восприятие риска и выбор проекта.27
  8. Другие искажения: Пренебрежение вероятностью, искажение нулевого риска, эффект фрейминга, эффект Даннинга-Крюгера (иллюзия знания), искажение задним числом, туннельное зрение, искажение авторитета, искажение статус-кво и др..19


Проявление и влияние этих искажений могут привести к несправедливым оценкам 37, неверным стратегическим выборам 37, неэффективному распределению ресурсов и подавлению инноваций. Они широко распространены и затрагивают даже опытных лиц, принимающих решения.35


2.4. Влияние организационного контекста: Политика и групповая динамика


Решения менеджеров принимаются не в вакууме, а в сложном организационном контексте, где существенную роль играют внутренняя политика и динамика группового взаимодействия.

Организационная политика определяется как неформальные, часто корыстные действия, направленные на оказание влияния на решения и достижение личных или групповых целей, включающие торги, переговоры и создание альянсов.21 Она существует в большинстве организаций, и многие менеджеры считают ее необходимой для успеха.21 Организационная политика может существенно влиять на принятие решений, иногда перевешивая соображения целесообразности.20 Политические маневры могут привести к неэффективности, если личные интересы преобладают над целями организации.20 Это влияет на моральный дух сотрудников, доверие, сотрудничество и производительность.20 Воспринимаемая высокая политизированность среды коррелирует с более низкой приверженностью, удовлетворенностью и производительностью, а также с более высокой текучестью кадров.20 Политические игры могут обостряться во время организационных изменений или при нехватке ресурсов.21 Примерами могут служить: менеджер, представляющий идею подчиненного как свою собственную для получения выгоды 20; отделы, лоббирующие выделение бюджета 20; формирование альянсов для продвижения стратегического выбора.20 Организационная политика не является по своей сути негативным явлением; это естественный результат различных интересов и динамики власти. Ключевое различие заключается между конструктивным политическим навыком (умением выстраивать отношения для достижения результатов) и деструктивным, корыстным маневрированием. Политика является «частью организационной жизни» из-за различных интересов, нуждающихся в согласовании.21 Сотрудники, подверженные влиянию офисной политики, могут стать более проницательными в чтении социальных сигналов и понимании динамики власти.20 Лица с высоким политическим мастерством могут быть более эффективными.21 Негативная сторона проявляется при «чрезмерно политизированном поведении» 21 или когда «политическое маневрирование последовательно перевешивает заслуги».20 Это означает, что организации должны стремиться не к устранению политики, а к формированию культуры, в которой политическое поведение направлено на достижение организационных целей и этичное поведение, и где прозрачность может смягчить ее наиболее вредные формы.

Групповая динамика (возвращаясь к групповому мышлению):

Групповое мышление 46 является ярким примером ошибочного принятия решений в группе из-за социального давления. Его симптомы (неуязвимость, рационализация, морализаторство, стереотипы, давление, самоцензура, иллюзия единодушия, «стражи порядка») 46 приводят к тому, что гармония ценится выше критического анализа. Причинами могут быть отсутствие разнообразия в группах, сильное/харизматичное лидерство, недостаток информации и стресс.47 Последствия: неверные решения, отсутствие креативности, излишняя самоуверенность, упущенные решения и потенциал для значительных негативных последствий (например, атака на Перл-Харбор).46 Привлечение команд к принятию решений может быть высокоэффективным за счет объединения коллективных знаний и опыта, но требует формирования «исследовательского» мышления (совместное решение проблем), а не «адвокационного» (состязательного).48 Групповое мышление и негативная организационная политика часто процветают в средах с информационной асимметрией и лидерством с высокой дистанцией власти. Групповое мышление может быть вызвано сильным лидерством 47, когда члены группы могут бояться бросить вызов лидеру. «Стражи порядка» 46 защищают лидеров от противоречивой информации. Организационная политика включает такие модели поведения, как «обход цепочки подчинения» или «лоббирование высокопоставленных менеджеров» 21, что свидетельствует о неравномерном распределении доступа к информации и лицам, принимающим решения. Лидеры, которые «запугивают» или придерживаются позиции «всезнайки», способствуют групповому мышлению.47 Это говорит о том, что развитие открытой коммуникации, обеспечение равного доступа к информации и продвижение инклюзивных стилей лидерства являются важнейшими средствами защиты как от группового мышления, так и от пагубного политиканства. Эффективность принятия решений командой 48 сильно зависит от целенаправленного культивирования «исследовательского мышления» и психологической безопасности, в противном случае она рискует поддаться групповому мышлению или быть сорванной внутренней политикой. Принятие решений командой может объединить знания и преодолеть предубеждения.48 Однако групповое мышление подчеркивает, как легко группы могут принимать неверные решения.46 Различие между «адвокационным» (состязательным) и «исследовательским» (совместным решением проблем) мышлением является ключевым.48 Адвокационное мышление может легко привести к политическому маневрированию внутри команды. Поэтому простого «вовлечения команды» недостаточно. Менеджеры должны активно структурировать процессы и культивировать культуру, поддерживающую исследования, критическую оценку и инакомыслие без страха возмездия.

3. Искусственный интеллект: Новая парадигма в принятии решений


3.1. Архитектура принятия решений ИИ: Обработка данных, аналитические методы и модели рассуждений


Процесс принятия решений с помощью искусственного интеллекта включает представление данных в форме, обрабатываемой машиной, и применение логики для выработки решения.49 Ключевыми компонентами этой архитектуры являются база знаний и механизм вывода. База знаний содержит структурированные знания, такие как графы знаний, онтологии и семантические сети, которые отображают сущности реального мира, правила и взаимосвязи.49 Она служит основой для системы рассуждений ИИ. Механизм вывода, работающий на основе обученных моделей машинного обучения, реализует логику и методы рассуждений для анализа данных из базы знаний и принятия решений.49

ИИ превосходно справляется со сбором и обработкой огромных объемов как структурированных, так и неструктурированных данных из различных источников, таких как финансовые отчеты, рыночные тенденции, отзывы клиентов и социальные сети.3 Он использует машинное обучение, обработку естественного языка и анализ данных для автоматизации принятия решений и предоставления расширенных аналитических сведений.8

Системы ИИ используют различные модели рассуждений для обработки информации и решения проблем 49:

  1. Дедуктивное рассуждение: Применяет логические правила для вывода конкретных заключений из общих принципов (например, в экспертных системах).49
  2. Индуктивное рассуждение: Анализирует закономерности в данных для выявления тенденций и составления прогнозов (например, в статистическом анализе, прогнозировании).49
  3. Абдуктивное рассуждение: Генерирует наиболее вероятные объяснения наблюдаемых событий (например, в диагностике, поддержке принятия решений).49
  4. Вероятностное рассуждение: Использует теорию вероятностей для оценки неопределенных данных и вычисления вероятных исходов (например, в оценке рисков, рекомендательных системах).50
  5. Рассуждение на основе здравого смысла: Направлено на имитацию человеческой интуиции и общих знаний для понимания повседневных сценариев (например, в разговорном ИИ).49
  6. Аналогическое рассуждение: Проводит сравнения между различными ситуациями для решения проблем на основе предшествующих знаний (например, в рассуждениях на основе прецедентов), хотя ИИ все еще испытывает здесь трудности.49
  7. Причинно-следственное рассуждение: Сосредоточено на выявлении причинно-следственных связей.50
  8. Агентное рассуждение: Позволяет агентам ИИ автономно выполнять задачи, от простых агентов на основе правил до сложных целеориентированных или полезностно-ориентированных агентов.49

В качестве практического примера можно рассмотреть автономного робота-уборщика.49 Его база знаний содержит информацию о типах полов и методах их очистки. Механизм вывода, обрабатывая данные с датчиков, применяет различные типы рассуждений (индуктивное для определения типа пола, дедуктивное для выбора метода уборки, рассуждение на основе здравого смысла при обнаружении пролитой жидкости) для принятия решений в реальном времени.

Сложность и разнообразие моделей рассуждений ИИ 49 указывают на то, что ИИ движется от простой автоматизации к более тонким формам «мышления», хотя это мышление принципиально отличается от человеческого познания. Включение индуктивных, абдуктивных, вероятностных рассуждений и попыток имитировать здравый смысл и аналогическое мышление свидетельствует о стремлении воспроизвести более сложные человеческие мыслительные процессы. Агентное рассуждение 49 подразумевает определенную степень автономии и целенаправленного поведения. Это означает, что потенциальные области применения ИИ в принятии решений быстро расширяются, но также и то, что понимание конкретной модели рассуждений, используемой в той или иной системе ИИ, имеет решающее значение для оценки ее результатов и ограничений.

Эффективность любой архитектуры принятия решений ИИ критически зависит от качества, структуры и полноты ее базы знаний и данных, на которых она обучалась. Принцип «мусор на входе — мусор на выходе» усиливается в сложных системах ИИ. База знаний является «основой».49 Механизм вывода анализирует данные из базы знаний. ИИ обрабатывает структурированные и неструктурированные данные 8 , но интерпретация зависит от того, как эти данные представлены и поняты моделью. Если база знаний неполна, предвзята или устарела, решения ИИ, независимо от сложности его механизма рассуждений, будут ошибочными. Это напрямую связано с проблемами алгоритмической предвзятости. Это подчеркивает огромную важность управления данными, их курирования и постоянного обслуживания для организаций, внедряющих ИИ для принятия решений.

Хотя ИИ может использовать различные «модели рассуждений», он не «понимает» в человеческом смысле. Он выполняет сложные операции по сопоставлению с образцом и логические операции на основе своего программирования и обучающих данных. Это различие имеет решающее значение для управления ожиданиями и обеспечения надлежащего человеческого контроля. ИИ представляет данные в форме, которую «машина может обрабатывать и понимать» 49, но «понимать» здесь означает операционную обработку, а не семантическое или контекстуальное понимание, подобное человеческому. Даже рассуждение на основе здравого смысла в ИИ 49 имитирует человеческую интуицию на основе закономерностей в данных, а не подлинного жизненного опыта или тонкого понимания. Пример с роботом-уборщиком 49 иллюстрирует сложное принятие решений на основе запрограммированных правил и усвоенных классификаций, а не разумного понимания. Это означает, что ИИ является мощным инструментом для расширения человеческих рассуждений, но его не следует ошибочно принимать за замену человеческого суждения, особенно в неоднозначных, новых или этически сложных ситуациях, где первостепенное значение имеет истинное понимание.

3.2. Ключевые преимущества ИИ в поддержке принятия решений: Скорость, масштаб и последовательность


Искусственный интеллект демонстрирует ряд существенных преимуществ, которые делают его мощным инструментом поддержки принятия решений в современном бизнесе.

Обработка и анализ данных: ИИ способен обрабатывать и анализировать огромные объемы сложных данных (Big Data) со скоростью, значительно превосходящей человеческие возможности.3 Это позволяет выявлять скрытые закономерности, тенденции и корреляции, которые могут быть упущены аналитиками-людьми.3 Сила ИИ в обработке данных со скоростью и в масштабе заключается не только в эффективности, но и в обеспечении совершенно новых типов решений и бизнес-моделей, которые ранее были невозможны из-за когнитивных ограничений человека. Люди имеют ограниченные возможности для обработки массивных наборов данных в режиме реального времени.6 Способность ИИ анализировать «огромные наборы данных в режиме реального времени, выявляя тенденции, корреляции и закономерности, которые могут упустить аналитики-люди» 6, открывает двери для гиперперсонализации 51, оценки рисков в режиме реального времени 8 и динамической оптимизации в сложных системах, таких как цепочки поставок.3 Это означает, что ИИ — это больше, чем просто инструмент повышения производительности; это стратегический фактор инноваций и конкурентных преимуществ в мире, управляемом данными.

Скорость и эффективность: ИИ предоставляет немедленные аналитические выкладки и предложения, кардинально сокращая время, необходимое для анализа данных и стратегического планирования.3 Системы ИИ могут работать круглосуточно, непрерывно обрабатывая новые данные.6

Точность и последовательность: Алгоритмы ИИ могут точно обрабатывать обширные наборы данных, минимизируя человеческие ошибки при четко определенных задачах и качественных данных.3 В таких сценариях ИИ принимает решения исключительно на основе данных, обеспечивая объективные и последовательные результаты.6 «Последовательность» и «объективность» принятия решений ИИ, хотя и являются сильными сторонами, зависят от последовательности и объективности его обучающих данных и алгоритмов. Если в них заложены предубеждения, ИИ будет последовательно и объективно применять эти предубеждения. ИИ «принимает решения исключительно на основе данных, обеспечивая объективные и последовательные результаты».6 Однако, как будет подробно описано далее, ИИ может наследовать и увековечивать предубеждения из данных.52 Поэтому последовательность ИИ может быть обоюдоострым мечом: последовательно хорошей, если базовая логика и данные надежны, но последовательно плохой или предвзятой, если они ошибочны. Это подчеркивает критическую важность тщательной проверки и постоянного мониторинга систем принятия решений ИИ для обеспечения соответствия их «объективных» результатов желаемым этическим и практическим результатам.

Автоматизация рутинных решений: ИИ может автоматизировать трудоемкие и повторяющиеся задачи, включая определенные процессы принятия решений, такие как планирование, финансовое прогнозирование и управление цепочками поставок.3 Это высвобождает человеческие ресурсы для решения более стратегических и сложных проблем.5 Автоматизация рутинных решений с помощью ИИ 3 неизбежно приведет к пересмотру роли менеджеров, смещая акцент с оперативного выполнения решений на стратегический надзор, обработку исключений и управление самими системами ИИ. ИИ автоматизирует такие задачи, как планирование, прогнозирование и управление цепочками поставок.8 Это «высвобождает человеческие ресурсы для сосредоточения на более стратегических видах деятельности».5 Подразумевается, что менеджерам потребуются новые навыки: понимание возможностей и ограничений ИИ, интерпретация результатов ИИ, управление командами человек-ИИ и сосредоточение на задачах, которые ИИ (пока) не может выполнять, таких как сложные этические суждения или содействие инновациям.

Предиктивная аналитика и прогнозирование: Модели ИИ анализируют прошлые данные для прогнозирования будущих рыночных движений, поведения клиентов и операционных потребностей, обеспечивая проактивное стратегическое планирование.3

Оценка и управление рисками: ИИ может оценивать потенциальные бизнес-риски, анализируя закономерности и аномалии в данных, помогая руководителям предотвращать убытки.3

Масштабируемость: Принятие решений на основе ИИ может адаптироваться и масштабироваться по мере роста потребностей бизнеса, управляя все большими объемами данных.3

3.3. Внутренние ограничения ИИ: Отсутствие здравого смысла, контекстуальной нюансировки и истинного понимания


Несмотря на впечатляющие возможности, искусственный интеллект обладает рядом фундаментальных ограничений, которые особенно проявляются в сложных сценариях принятия решений.

Отсутствие здравого смысла и контекстуального понимания: Системы ИИ испытывают трудности с нюансами человеческого языка и общения, такими как сарказм, ирония, образные выражения и культурные отсылки.55 Им не хватает способности гибко применять рассуждения на основе здравого смысла к новым или непредвиденным ситуациям.55 ИИ может не в полной мере понимать контекст решения, что приводит к неверной интерпретации или применению данных.55 Люди воспринимают окружающий мир с помощью разума, интегрируя сенсорные данные с контекстом и опытом, чего лишен ИИ.57 Ограничения ИИ — это не просто технические пробелы, которые со временем будут устранены; некоторые из них представляют собой фундаментальные различия в природе интеллекта (человеческого и искусственного). Здравый смысл, истинное понимание и этическое мышление являются эмерджентными свойствами человеческого сознания и опыта, которые ИИ в его нынешнем виде в основном имитирует, а не обладает ими. ИИ не хватает «глубокого понимания контекста» и «рассуждений на основе здравого смысла».56 Он обрабатывает данные, но не «по-настоящему понимает их».57 Этические соображения и эмоциональный интеллект являются уникальными человеческими достоинствами.4 Хотя ИИ можно обучить на огромных объемах текста и данных, это не равносильно жизненному опыту, культурному погружению или способности к субъективным квалиа, которые лежат в основе большей части человеческого понимания и этических суждений. Это означает, что, вероятно, всегда будет существовать потребность в человеческом надзоре и суждении при принятии сложных, высокорисковых решений, и целью должно быть взаимодействие, а не полная замена.

Трудности с неоднозначностью и неопределенностью: Системы ИИ могут испытывать трудности с неоднозначными или неопределенными данными, что может привести к неверным или неполным решениям.55 Человеческое решение проблем в таких ситуациях руководствуется проницательностью и интуицией.57

Ограниченная креативность и инновационность: Хотя ИИ может выявлять закономерности и оптимизировать процессы, он испытывает трудности с подлинным нестандартным мышлением и генерированием действительно новых стратегических возможностей.4 Человеческая интуиция, основанная на разнообразном опыте, здесь превосходит ИИ.4

Отсутствие подлинных эмоций и эмпатии: ИИ лишен эмоционального интеллекта и не может по-настоящему понимать человеческие эмоции и реагировать на них.30 Это критически важно в лидерстве и при принятии решений, затрагивающих людей.

Этическое мышление: ИИ не обладает присущими ему способностями к моральному мышлению и этическим суждениям, которые имеют решающее значение для сложных решений с последствиями для благосостояния общества или отдельных лиц.4

Зависимость от качества данных и обобщения: Модели ИИ настолько хороши, насколько хороши данные, на которых они обучались; низкое качество или предвзятость данных приводят к неоптимальным решениям.8 ИИ может плохо обобщать новые, невиданные ситуации и переобучаться на обучающих данных.55 Зависимость ИИ от исторических данных для обучения 55 означает, что он по своей сути ориентирован на прошлое и может испытывать трудности с принятием эффективных решений в действительно новых ситуациях или быстро меняющихся средах, где прошлые закономерности больше не действуют. ИИ принимает прогнозы на основе данных, на которых он обучался.56 Он полагается на исторические данные, а не на интуицию для новых методов.61 Это делает его склонным к ошибкам в новых ситуациях 56 и ограничивает его способность к хорошему обобщению.55 Менеджеры-люди, напротив, могут использовать креативность, адаптивность и стратегическое предвидение для преодоления непредвиденных сбоев.30 Это означает, что ИИ лучше всего подходит для сред со стабильными закономерностями или там, где обширные исторические данные могут надежно предсказывать будущие результаты. В крайне динамичных или беспрецедентных сценариях человеческое суждение и адаптивность остаются предпочтительными.

Прозрачность и объяснимость (проблема «черного ящика»): Логика, лежащая в основе решений ИИ, особенно в сложных моделях, таких как глубокое обучение, может быть непрозрачной и трудной для интерпретации или объяснения.4 Это затрудняет доверие, отладку и обеспечение подотчетности. Проблема «черного ящика» 12 является серьезным препятствием не только для доверия и подотчетности, но и для организационного обучения и совершенствования ИИ. Если менеджеры не могут понять, почему ИИ дал определенную рекомендацию, они не могут ее проверить, извлечь из нее уроки или предоставить значимую обратную связь для улучшения модели. Непрозрачность означает, что логика «принципиально непостижима или не поддается пониманию».12 Это затрудняет «понимание, где что-то пошло не так и что нужно исправить».13 Если ИИ используется для принятия стратегических решений 4, а его логика непрозрачна, организация теряет возможность развивать собственное стратегическое мышление и «организационную мышечную память».4 Это подчеркивает критическую важность исследований и разработок в области объяснимого ИИ (XAI) 8 для ответственного и эффективного использования ИИ в принятии решений.

3.4. Алгоритмическая предвзятость: Когда системы ИИ усваивают и увековечивают человеческие недостатки


Алгоритмическая предвзятость возникает, когда системы ИИ выдают несправедливые или предвзятые результаты из-за проблем с данными, алгоритмами или целями, на которых они обучались.52 Эту предвзятость часто труднее обнаружить, чем человеческую, но она может иметь далеко идущие последствия.54 Алгоритмическая предвзятость — это не просто техническая проблема «исправления данных» или «настройки алгоритма»; это социально-техническая проблема, глубоко укоренившаяся в исторических и системных общественных предубеждениях. Системы ИИ, обучаясь на реальных данных, неизбежно становятся зеркалами, отражающими существующее неравенство. Предвзятость данных проистекает из «исторических предубеждений» 52 и «существующих социальных ценностей».12 Примеры, такие как предвзятые данные уголовного правосудия 53 или данные о найме 54, показывают, что ИИ учится на прошлой социальной дискриминации. Даже разработчики-люди могут неосознанно внедрять свои собственные предубеждения в дизайн алгоритмов.53 Это означает, что чисто технических решений недостаточно. Для решения проблемы алгоритмической предвзятости требуются междисциплинарные усилия, включая участие социологов, этиков и затронутых сообществ, для понимания и противодействия коренным причинам этих предубеждений в обществе. Это означает, что организации не могут просто «делегировать» справедливость ИИ; они должны активно участвовать в этической рефлексии и внедрять надежные системы управления.52

Источники алгоритмической предвзятости:

  1. Предвзятость данных (Data Bias): Предвзятость, присутствующая в обучающих данных (например, исторические социальные предубеждения, недостаточное представительство определенных демографических групп, нерепрезентативные данные), приводит к тому, что ИИ отражает эти дисбалансы.12 Это может создавать петли обратной связи, усиливающие предвзятость.53
  2. Алгоритмическая предвзятость (Предвзятость проектирования): Дизайн и параметры алгоритмов могут непреднамеренно вносить предвзятость, даже при использовании объективных данных. Программисты могут несправедливо взвешивать факторы или внедрять субъективные правила, основанные на собственных сознательных или бессознательных предубеждениях.12
  3. Предвзятость прокси-данных (Proxy Bias): Использование кажущихся нейтральными точек данных (например, почтовых индексов) в качестве косвенных показателей для чувствительных атрибутов (например, расы, экономического статуса) может привести к дискриминационным результатам, если эти прокси-данные коррелируют с защищаемыми характеристиками.12 Попытка использовать «прокси» для чувствительных атрибутов 12 во избежание прямой дискриминации может быть ошибочной стратегией, поскольку эти прокси часто несут те же самые встроенные предубеждения, что приводит к косвенной дискриминации, которую труднее обнаружить и доказать. Прокси, такие как почтовые индексы, могут коррелировать с расой или экономическим статусом.53 Алгоритмы способны находить корреляции, даже ложные.12 Если прокси-переменная коррелирует с защищаемым атрибутом, а также с результатом, который прогнозирует ИИ (например, невыполнение кредитных обязательств), ИИ может фактически дискриминировать, никогда не «видя» сам защищаемый атрибут. Это подчеркивает тонкость алгоритмической предвзятости и необходимость тщательного отбора признаков и строгого тестирования на предмет несоразмерного воздействия на различные демографические группы. Это означает, что справедливость в ИИ требует большего, чем просто удаление чувствительных атрибутов из набора данных; она требует глубокого понимания потенциальных смешивающих переменных и их социального контекста.
  4. Предвзятость оценки (Evaluation Bias): Интерпретация результатов ИИ человеком может быть предвзятой, что приводит к несправедливому применению, даже если сам алгоритм нейтрален.53
  5. Предвзятость генеративного ИИ (Generative AI Bias): Модели, создающие текст, изображения или видео, могут производить предвзятый контент на основе обучающих данных, усиливая стереотипы.52


Примеры из реальной жизни и их последствия:

  1. Уголовное правосудие: Предвзятые инструменты оценки рисков (например, COMPAS) неверно классифицируют обвиняемых по расовому признаку.53 Алгоритмы предиктивной полиции завышают прогнозы преступности в определенных районах из-за предвзятых данных отчетности.53
  2. Здравоохранение: Ошибочный диагноз и неравный доступ к лечению из-за недостаточного представительства в данных.53 ИИ воспроизводит предвзятость медицинских работников в отношении пола пациентов при сортировке.62
  3. Подбор персонала/HR: Инструменты ИИ дискриминируют женщин-кандидатов из-за обучения на данных резюме, исторически представленных преимущественно мужчинами.9
  4. Финансовые услуги: Алгоритмы кредитного скоринга ставят в невыгодное положение определенные группы.52 Ипотечные кредиты выдаются представителям меньшинств по более высоким ставкам.53
  5. Распознавание лиц: Более высокие показатели ошибок для людей с темным цветом кожи, особенно женщин.53


Проблемы: Предвзятость ИИ трудно обнаружить, поскольку предвзятые решения могут казаться нейтральными или объективными.54 Подотчетность размыта.54 Проблема «черного ящика» многих передовых моделей ИИ 12 чрезвычайно затрудняет выявление и смягчение алгоритмической предвзятости, поскольку конкретные механизмы, через которые предвзятость влияет на результаты, могут быть непрозрачными. Если логика превращения входных данных в выходные «принципиально непостижима» 12, трудно точно определить, где и как действует предвзятость. Эта непрозрачность затрудняет «проверку результатов» 63 или определение того, было ли решение несправедливым из-за предвзятости. Это контрастирует с человеческой предвзятостью, которую, хотя и трудно устранить, по крайней мере, можно исследовать посредством разговора и рефлексии (хотя у людей также есть элементы «черного ящика» в их интуиции). Это усиливает критическую необходимость в объяснимом ИИ (XAI) 8 и прозрачных процессах разработки ИИ для укрепления доверия и обеспечения эффективного обнаружения и исправления предвзятости. Без прозрачности алгоритмическая предвзятость может действовать незаметно.

Влияние: Увековечивание дискриминации и неравенства, подрыв доверия к ИИ, принятие ошибочных бизнес-решений, операционная неэффективность, а также юридические и финансовые риски.53

4. Сравнительный анализ: Человек-менеджер против искусственного интеллекта


4.1. Эффективность и результативность: Прямое сопоставление в бизнес-сценариях


Определения эффективности и результативности могут различаться для человека и ИИ. ИИ часто превосходит в количественных показателях, таких как скорость, снижение затрат и частота ошибок в повторяющихся задачах. Эффективность человека может оцениваться по более широким, качественным результатам, таким как стратегическое соответствие, инновации, удовлетворенность заинтересованных сторон и этичное поведение. «Победитель» в сравнении эффективности человека и ИИ сильно зависит от контекста и конкретной задачи. ИИ превосходит в структурированных, насыщенных данными и повторяющихся средах, в то время как люди преуспевают там, где первостепенное значение имеют адаптивность, стратегическое предвидение и тонкое понимание. ИИ быстрее и точнее справляется с производственными задачами 64 и анализом данных.61 Люди лучше справляются с неожиданными изменениями на рынке 61, творческими задачами 61 и задачами, требующими эмоциональной глубины или этических суждений.61 Даже при анализе фактических данных 65 ИИ ускоряет некоторые этапы процесса, но для обеспечения качества и нюансов необходим человеческий вклад. Это означает, что общее утверждение о том, что один из них «лучше», вводит в заблуждение. Ключ в том, чтобы понять специфические сильные стороны каждого и применять их соответствующим образом, часто в рамках совместной модели.

Скорость и производительность:

  1. ИИ: Работает круглосуточно, обрабатывает данные и выполняет задачи значительно быстрее (например, в 5-10 раз быстрее на производстве 64, на 23% меньше времени на анализ фактических данных 65). Превосходно справляется с анализом данных, моделированием, разработкой продуктов, оптимизацией затрат/цепочек поставок и реагированием на колебания рынка в режиме реального времени при наличии своевременных и полных данных.61
  2. Человек: Нуждается в перерывах, подвержен усталости. Медленнее при обработке больших объемов данных и выполнении повторяющихся задач.64



Точность и контроль качества:

  1. ИИ: Почти нулевая погрешность в повторяющихся, четко определенных задачах.64 Может обнаруживать микроскопические дефекты или закономерности, которые упускает человек.64 Однако качество вывода ИИ может быть «нескладным» и требовать больше исправлений 65, а ИИ склонен к галлюцинациям и ошибкам, требующим ручной проверки.58
  2. Человек: Склонен к ошибкам из-за рассеянности, усталости или предвзятости.1


Экономическая эффективность:

  1. ИИ: Более высокие первоначальные инвестиции, но более низкие долгосрочные операционные расходы за счет сокращения трудозатрат, отходов и переделок.8

Человек: Постоянные расходы (заработная плата, льготы, обучение).64

Конкретные сценарии:

  1. Моделирование автомобильной промышленности 61: ИИ быстрее разрабатывал продукты, оптимизировал затраты/цепочки поставок, реагировал на колебания рынка. Однако руководители, управляемые ИИ, терпели неудачу при неожиданных изменениях рыночных условий, им не хватало человеческой стратегической гибкости.
  2. Производство 64: ИИ выигрывает по скорости, точности, последовательности для массового производства и повторяющихся задач. Люди выигрывают по адаптивности, решению проблем, креативности.
  3. Стратегический анализ фактических данных 65: Процесс с использованием ИИ в целом быстрее, особенно на этапах анализа/синтеза. Только человеческий подход лучше справлялся с качеством первоначального проекта и интеграцией повествования. Оба метода дали схожие по качеству итоговые результаты.
  4. Оценка эффективности сотрудников 66: Сотрудники воспринимают оценки ИИ как более заслуживающие доверия, когда существует опасение предвзятости со стороны руководителя-человека. ИИ рассматривается как более справедливый, поскольку менее подвержен влиянию личных ценностей. Восприятие справедливости и доверия играет значительную роль в принятии и эффективности принятия решений ИИ, особенно когда ИИ используется в оценочных контекстах, таких как аттестация персонала. ИИ может восприниматься как более объективный, но это восприятие хрупко и зависит от прозрачности и отсутствия предполагаемой алгоритмической предвзятости. Сотрудники больше доверяют оценкам ИИ, когда опасаются человеческой предвзятости.66 Однако, если сам ИИ предвзят или его процессы непрозрачны, это доверие может быть быстро подорвано. Существует «неприятие алгоритмов» 60, когда люди не доверяют ИИ. Исследование предвзятости ChatGPT 67 показывает, что ИИ может демонстрировать человекоподобные недостатки, что может подорвать воспринимаемую объективность. Это говорит о том, что психологические и социальные аспекты внедрения ИИ так же важны, как и технические возможности. Укрепление доверия требует прозрачности, объяснимости и демонстрации справедливости.
  5. Управление проектами 68: ИИ улучшает управление проектами за счет автоматизации задач, оптимизации распределения ресурсов, улучшения коммуникации и проактивного управления рисками, особенно в сложных проектах. Однако чрезмерная зависимость и этические проблемы являются вызовами; человеческий опыт остается решающим. Хотя ИИ может повысить эффективность в таких задачах, как управление проектами 68, чрезмерная зависимость без интеграции человеческого суждения может привести к потере навыков критического мышления и неспособности справляться с тонкими или непредвиденными проблемами проекта. ИИ автоматизирует, оптимизирует и улучшает коммуникацию в управлении проектами.68 Однако тот же источник предостерегает от «чрезмерной зависимости от автоматизации» и необходимости интегрировать ИИ с «человеческим опытом» и «тонким суждением».68 Если менеджеры проектов будут полагаться исключительно на прогнозы, сгенерированные ИИ, они могут потерять навыки критического мышления.4 Это означает, что роль менеджера проекта-человека эволюционирует, становясь стратегическим контролером и интегратором идей ИИ, а не заменяясь ИИ. Они должны сохранять способность ставить под сомнение и отменять решения ИИ при необходимости.


4.2. Анализ проблем и генерация решений: Контрастирующие методологии


Подходы человека и ИИ к анализу проблем и выработке решений существенно различаются, отражая их фундаментальные различия в обработке информации и «мышлении».

Человеческие подходы:

  1. Анализ проблем: Люди используют сочетание опыта, интуиции, логического мышления и понимания контекста.1 Они способны улавливать не поддающиеся количественной оценке элементы, социальную динамику и глубинные причины, которые могут быть неявными в данных. Они могут «читать между строк». Анализ проблем ИИ в основном заключается в выявлении корреляций и закономерностей в данных, тогда как человеческий анализ проблем может включать более глубокое причинное понимание, даже при неполных данных, за счет использования ментальных моделей и абдуктивных рассуждений. ИИ превосходно «выявляет закономерности, корреляции и аномалии».5 Его модели рассуждений включают индуктивные (основанные на закономерностях) и вероятностные подходы.50 Люди используют опыт и интуицию 1, что включает распознавание закономерностей, а также понимание контекста и потенциальных причинно-следственных связей.57 ИИ может испытывать трудности с различением причинно-следственной связи и корреляции.12 Это означает, что для проблем, требующих понимания «почему» что-то происходит, а не только «что» происходит, человеческое понимание остается критически важным. ИИ может выявлять симптомы (закономерности), но люди часто лучше диагностируют основные заболевания (причинные механизмы).
  2. Обработка информации: Медленнее, чем ИИ, для больших наборов данных, подвержена искажениям при сборе информации (например, предвзятость подтверждения) и ограничениям памяти.1 Обрабатывает информацию избирательно.1
  3. Генерация решений: Опирается на креативность, инновации, эвристики на основе опыта и совместный мозговой штурм.30 Может разрабатывать новые решения для беспрецедентных проблем. Возможности ИИ по генерированию решений эффективны для оптимизации и исследования известных пространств решений, но человеческая креативность необходима для прорывных инноваций или решений «сложных проблем», которые не имеют четких определений и данных. ИИ генерирует решения на основе «алгоритмической обработки, оптимизации и предиктивного моделирования на основе обучающих данных».3 Это отлично подходит для совершенствования существующих решений или поиска оптимальных путей в рамках определенных ограничений. Люди преуспевают в «креативности, инновациях» 33 и могут разрабатывать новые решения для беспрецедентных проблем. Большие языковые модели (LLM) уступают в задачах, требующих эмоциональной глубины или оспаривания общепринятого мышления.61 «Сложные проблемы» часто связаны с неоднозначностью, конфликтующими ценностями и социальной сложностью — областями, где подход ИИ, основанный на данных, недостаточен без человеческой интерпретации и суждения. Это предполагает совместную модель, в которой ИИ занимается оптимизацией и исследованием данных, а люди сосредотачиваются на формулировании проблемы, определении успеха и привнесении творческих или этических соображений в пространство решений.


Подходы ИИ:

  1. Анализ проблем: Преимущественно на основе данных, выявление закономерностей, корреляций и аномалий в больших наборах данных.3 Превосходно анализирует структурированные проблемы, где данных в избытке.
  2. Обработка информации: Чрезвычайно быстрая и эффективная для огромных объемов данных.5 Может быстро обрабатывать множество запросов и исследовать неограниченное количество информации.33
  3. Генерация решений: Основана на алгоритмической обработке, оптимизации и предиктивном моделировании на основе обучающих данных.3 Может генерировать широкий спектр решений в рамках своих изученных параметров, но может не хватать истинной новизны или быть ограниченной своим обучением.33 LLM могут соответствовать человеческой производительности в решении структурированных проблем, но уступают в творческих задачах, требующих эмоциональной глубины.61



4.3. Преодоление сложности, неоднозначности и неопределенности


Способность справляться со сложностью, неоднозначностью и неопределенностью является ключевым аспектом принятия эффективных решений.

Сильные стороны человека:

  1. Адаптивность: Люди могут адаптироваться к неожиданным ситуациям, новым проблемам и меняющимся условиям.7 Они могут «думать на ходу».30 Основное преимущество человека в преодолении сложности, неоднозначности и неопределенности заключается в более целостной, адаптивной когнитивной архитектуре, которая объединяет опыт, интуицию, эмоциональный интеллект и контекстуальное понимание — возможности, которые существующие архитектуры ИИ имитируют или моделируют лишь частично. Люди «интегрируют сенсорные данные с контекстом и опытом» 57, «преуспевают в планировании в условиях неопределенности» 57 и используют «интуицию и опыт» для неоднозначной информации.7 ИИ, напротив, ограничен своими обучающими данными 56, не обладает истинным здравым смыслом 56 и испытывает трудности с контекстуальными нюансами.56 Это говорит о том, что человеческое познание — это не просто обработка данных, а построение смысла и адаптация стратегий динамичными способами, которые ИИ в настоящее время не может воспроизвести. Это означает, что для принятия стратегических решений в средах VUCA (изменчивых, неопределенных, сложных, неоднозначных) человеческое лидерство и суждение остаются незаменимыми, а ИИ служит мощным аналитическим инструментом поддержки, а не заменой.
  2. Контекстуальное понимание: Люди превосходно улавливают нюансы, неявную информацию и более широкий контекст ситуации, что крайне важно для принятия сложных решений.4
  3. Работа с неоднозначностью: Люди могут принимать решения при неполной или неоднозначной информации, используя суждения, интуицию и опыт.7
  4. Стратегическая гибкость: Руководители-люди могут закладывать стратегическую гибкость для преодоления непредвиденных сбоев, в отличие от моделей ИИ, оптимизированных для краткосрочного роста на основе исторических данных.61



Проблемы ИИ:

  1. Новые ситуации: ИИ испытывает трудности с ситуациями, не представленными в его обучающих данных.55 Ему не хватает способности гибко применять знания к новым сценариям.56
  2. Отсутствие здравого смысла: Неспособность ИИ применять рассуждения на основе здравого смысла ограничивает его эффективность в сложных реальных сценариях.55
  3. Понимание нюансов: ИИ имеет ограниченное понимание тонкостей человеческого языка, общения и контекста.56

Неопределенность: Хотя вероятностный ИИ может справляться с некоторыми формами неопределенности, глубокая неопределенность или «неизвестные неизвестные» представляют собой серьезные проблемы.8 GPT-4 демонстрирует более сильное предпочтение определенности, чем люди.67 Предпочтение ИИ определенности 67 и его зависимость от исторических данных 61 могут сделать его по своей сути консервативным или хрупким перед лицом радикальной неопределенности или смены парадигм, что потенциально может привести к упущенным возможностям или неспособности предвидеть события типа «черный лебедь». GPT-4 демонстрирует «более сильное предпочтение определенности, чем даже люди».67 Модели ИИ обычно «оптимизированы для краткосрочного роста и прибыльности, но испытывают трудности с непредвиденными сбоями», поскольку они полагаются на исторические данные.61 Люди, хотя и подвержены предубеждениям, могут участвовать в творческом сценарном планировании, интуитивных прорывах и стратегических поворотах, выходящих за рамки экстраполяции данных. Это подразумевает риск, если


4.4. Этические соображения и системы подотчетности


Этические аспекты и механизмы подотчетности являются критически важными как для человеческого, так и для машинного принятия решений.

Этическое принятие решений человеком:

  1. Включает моральные принципы, организационные ценности, ожидания общества и учет влияния на все заинтересованные стороны.10
  2. Руководствуется этическими рамками (утилитарной, основанной на правах, справедливости, добродетели, этики заботы) 31 и личными ценностями/честностью.10
  3. Сильные стороны включают эмпатию, сострадание, моральное мышление и способность справляться со сложными этическими дилеммами.29
  4. Слабые стороны: подверженность искажениям, эмоциональному влиянию и политическому давлению, которые могут подорвать этические суждения.


Этические проблемы ИИ:

  1. Предвзятость и дискриминация: Алгоритмическая предвзятость может привести к несправедливым или дискриминационным результатам в таких областях, как найм, кредитование и уголовное правосудие.12 Этические проблемы, связанные с принятием решений ИИ, часто являются новыми и более системными, чем те, с которыми обычно сталкиваются при принятии решений человеком, что требует новых этических рамок и структур управления, а не простого применения существующих. Этические сбои человека часто носят индивидуальный или групповой характер, тогда как этические сбои ИИ (например, широко распространенная предвзятость одного алгоритма 54) могут быть системными и быстро масштабироваться. Проблема «черного ящика» 12 и размытая подотчетность 12 уникальны для ИИ и бросают вызов традиционным представлениям об ответственности. Такие вопросы, как конфиденциальность данных 8, приобретают новые измерения с учетом способности ИИ анализировать и делать выводы из огромных наборов данных. Это означает, что организациям необходимо развивать специфические возможности «этики ИИ» и управление, выходящие за рамки общей деловой этики, для решения этих уникальных проблем. Это включает соображения «ответственного ИИ».69
  2. Отсутствие прозрачности (непрозрачность): Природа «черного ящика» некоторых ИИ затрудняет понимание того, как принимаются решения, что препятствует подотчетности и доверию.4 Хотя ИИ часто рекламируется за его потенциал по снижению человеческой предвзятости, он также может вводить новые уровни предвзятости или скрывать существующие, что усложняет этический надзор. Ключевая задача состоит в том, чтобы ИИ служил для улучшения, а не уменьшения общих этических результатов. ИИ может увековечивать и усиливать предубеждения из обучающих данных.12 Непрозрачность ИИ может затруднить обнаружение и устранение этих предубеждений по сравнению с человеческими предубеждениями.12 Даже если ИИ технически «справедлив» по какому-либо показателю, его применение в сложной социальной системе все же может привести к несправедливым результатам, если его не тщательно продумать.12 Это говорит о том, что этичное развертывание ИИ требует участия человека для этической проверки 63 и постоянного мониторинга на предмет непреднамеренных дискриминационных последствий, а не предположения, что ИИ по своей сути более этичен или беспристрастен.
  3. Подотчетность и ответственность: Определение того, кто несет ответственность, когда ИИ совершает ошибки или причиняет вред, является сложной задачей.12 Разработчик, пользователь, организация или сам ИИ?
  4. Конфиденциальность: Системы ИИ часто требуют огромных объемов данных, что вызывает опасения по поводу конфиденциальности.8
  5. Необоснованные действия: ИИ может действовать на основе корреляций, не устанавливая причинно-следственной связи, что приводит к проблематичным решениям.12
  6. Этические рамки ИИ: Необходимость в рамках, обеспечивающих объективное принятие решений ИИ, прозрачность и этические практики ИИ.8


Сравнительная подотчетность:

  1. Менеджеры-люди обычно несут ответственность в рамках организационных иерархий, правовых рамок и профессиональной этики.
  2. Подотчетность ИИ менее ясна, часто распределена между несколькими участниками. Установление четких линий ответственности за решения, принимаемые ИИ, является серьезной проблемой.12


5. Синергия и дополнение: Будущее сотрудничества человека и ИИ

5.1. Модели сотрудничества человека и ИИ: От помощи к партнерству

Современные тенденции указывают на смещение парадигмы от рассмотрения ИИ как полной замены человека-менеджера к концепции дополнения (аугментации) человеческих возможностей.3 Цель такого подхода — объединить аналитическую мощь ИИ с человеческим суждением, интуицией и этическим контролем.60 Эффективность любой модели сотрудничества человека и ИИ критически зависит от четко определенных ролей, обязанностей и интерфейсов между человеческим и ИИ-компонентами, а также от характера задачи принятия решения. Различные модели (многоуровневый обзор, человек-в-цикле, кентавр, киборг и т. д. из 63) явно разграничивают различные уровни человеческого контроля и автономии ИИ. Модель, подходящая для принятия решений с высокими ставками и низкой частотой (например, медицинская диагностика — человек-в-цикле), будет отличаться от модели для операционных решений с высокой частотой и более низкими ставками (например, торговые алгоритмы — многоуровневый обзор). Успех этих моделей зависит от плавной интеграции в рабочие процессы 73 и четкого понимания пользователями-людьми возможностей и ограничений ИИ в рамках этой конкретной роли. Это означает, что организации должны тщательно разрабатывать свои протоколы взаимодействия человека и ИИ на основе риска, сложности и потребности в человеческом суждении, а не принимать универсальный подход.

Существуют различные определенные модели сотрудничества 63:

  1. Многоуровневые системы обзора (Tiered Review Systems): ИИ выполняет задачи автономно; люди контролируют и обрабатывают исключения/ситуации высокого риска (например, алгоритмы финансовой торговли с риск-менеджерами). Человек сохраняет высокий уровень контроля.
  2. Человек-в-цикле (Human-in-the-Loop, HITL): Люди выступают в роли рецензентов/утверждающих, в то время как ИИ функционирует как автономный исполнитель. Поддерживает высокий уровень человеческого контроля для решений с высокими ставками (например, ИИ анализирует медицинские снимки, врачи проверяют заключения).
  3. Гибрид/Кентавр (Hybrid/Centaur): Люди делегируют определенные подзадачи ИИ (как специализированному помощнику), сохраняя при этом человеческое руководство и окончательное право принятия решения. Сбалансированный контроль для сложной интеллектуальной работы.
  4. Гибрид/Киборг (Hybrid/Cyborg): Люди непрерывно сотрудничают с ИИ как с интегрированным партнером. Гибкий контроль, подходит для творческих и аналитических задач (например, инструменты Microsoft Copilot, предлагающие правки/код). Истинное партнерство человека и ИИ (модель «Киборг» или «суперагентство») требует совместной эволюции человеческих навыков и возможностей ИИ, где люди учатся работать с ИИ как с когнитивным партнером, а системы ИИ разрабатываются для более интуитивного и адаптивного взаимодействия. Модель «Киборг» предполагает непрерывное сотрудничество с ИИ как с «интегрированным партнером».73 «Суперагентство» 70 подразумевает, что ИИ дополняет когнитивные функции человека. Это выходит за рамки простого делегирования задач и требует от людей развития «ИИ-грамотности» 70 — понимания того, как «мыслит» ИИ, его сильных сторон и «слепых зон». Это также требует разработки систем ИИ, ориентированных на объяснимость, адаптивность и отзывчивость на человеческое руководство. Подразумевается долгосрочный сдвиг в обучении и развитии как людей (повышение квалификации для сотрудничества с ИИ), так и ИИ (проектирование для партнерства с человеком), движение к более симбиотическим отношениям.
  5. Человек-на-цикле (Human-on-the-Loop): Люди контролируют и корректируют решения ИИ, обеспечивая систему безопасности (например, в автономном вождении).
  6. Человек-в-команде (Human-in-Command): Люди принимают окончательные решения, ИИ предоставляет поддержку и рекомендации. Люди сохраняют полный контроль.


Преимущества сотрудничества включают повышение точности решений, потенциальное снижение предвзятости, оптимизацию процессов и повышение эффективности.9 ИИ может взять на себя анализ данных, освобождая людей для стратегического мышления, творчества и взаимодействия с заинтересованными сторонами.4

Примеры из отраслей и прогнозы: McKinsey и BCG формируют гибридные команды консультантов, специалистов по ИИ и инженеров.71 Gartner прогнозирует, что к 2025 году генеративный ИИ станет основным компонентом аналитики данных, повышая производительность аналитиков.69 McKinsey видит в ИИ создание «суперагентства», повышающего личную производительность и креативность.70


5.2. ИИ как инструмент для смягчения когнитивных искажений человека: Потенциал и подводные камни


Искусственный интеллект обладает потенциалом стать мощным инструментом для мониторинга и предотвращения предвзятости.52 Хорошо откалиброванные системы ИИ могут помочь смягчить существующие когнитивные искажения человека, предоставляя объективные, основанные на данных аналитические выкладки.74 ИИ может выявлять закономерности предвзятости в судебных решениях, позволяя принимать корректирующие меры.75 Инструменты ИИ (НЛП, предиктивная аналитика) могут поддерживать логический вывод, предоставляя аналитические данные и прогнозы, помогая пользователям принимать более обоснованные, основанные на фактических данных решения.76 При оценке эффективности работы сотрудники воспринимают ИИ как более справедливый и заслуживающий доверия, если ожидают предвзятости со стороны руководителя-человека.66 Эффективность ИИ в смягчении когнитивной предвзятости человека сильно зависит от собственного уровня предвзятости и прозрачности ИИ. Беспристрастный, прозрачный ИИ может быть мощным инструментом устранения предвзятости, но предвзятый или непрозрачный ИИ может усугубить ситуацию. Точные, беспристрастные рекомендации ИИ могут улучшить человеческое суждение и смягчить ранее существовавшие предубеждения.74 ИИ может выявлять закономерности предвзятости в человеческих решениях.75 Однако сам ИИ может быть предвзятым 67 и может усиливать человеческие предубеждения.74 Это означает, что «объективность» ИИ не является гарантией. Для того чтобы ИИ служил надежным инструментом устранения предвзятости, он сам должен быть тщательно проверен на наличие предвзятости, а его процессы принятия решений должны быть максимально прозрачными. В противном случае существует риск замены одного набора предубеждений другим, возможно, даже более коварным, поскольку он скрыт за фасадом машинной объективности.

Однако существуют и подводные камни:

  1. Проявление предвзятости ИИ: Сами системы ИИ могут быть предвзятыми. Исследования показывают, что ИИ (например, ChatGPT) может демонстрировать человекоподобные искажения, такие как чрезмерная самоуверенность, неприятие риска и предвзятость подтверждения, избегая при этом других, таких как пренебрежение базовой ставкой и ошибка невозвратных затрат.67
  2. Усиление человеческих искажений: Предвзятый ИИ может усиливать когнитивные искажения человека.74 Например, генеративный ИИ, чрезмерно представляющий определенные демографические группы в какой-либо роли, может повлиять на пользователей, заставив их выносить более предвзятые суждения.74 Предвзятый чат-бот ИИ может усилить человеческую предвзятость подтверждения.74
  3. Чрезмерное доверие и автоматизационная предвзятость: Люди могут чрезмерно полагаться на результаты ИИ, даже если они ошибочны, из-за «автоматизационной предвзятости» — тенденции чрезмерно доверять автоматизированным системам.60 Это может снизить критический анализ рекомендаций ИИ.
  4. Ограничения текущего ИИ: В исследовании с использованием сконструированных кейсов терапевтические чат-боты продемонстрировали ограниченные возможности в исправлении когнитивных искажений по сравнению с универсальными LLM, такими как GPT-4.77 Это говорит о том, что специализированный ИИ для смягчения предвзятости все еще может находиться на начальной стадии развития.


Эффект взаимодействия между человеческой и ИИ-предвзятостью сложен и не до конца изучен. Взаимодействие предвзятых людей с предвзятым ИИ может усугублять искажения и изменять процесс принятия решений неожиданным образом.74 Взаимодействие между человеческими и ИИ-предубеждениями является критически важной новой областью исследований. Понимание того, как эти два типа предубеждений взаимодействуют — усиливая, компенсируя или создавая совершенно новые формы искаженного суждения — имеет решающее значение для разработки действительно эффективных стратегий смягчения последствий. Предвзятые люди, взаимодействующие с предвзятым ИИ, могут «усугублять» предубеждения.74 Исследования показывают, что предвзятый ИИ может «усиливать человеческие когнитивные предубеждения», в то время как «хорошо откалиброванные системы могут помочь их смягчить».74 Это подчеркивает необходимость не только в беспристрастном ИИ, но и в обучении людей тому, как критически взаимодействовать с результатами ИИ, осознавая потенциал этих сложных взаимодействий. Необходимы комплексные системы смягчения составной человеко-ИИ предвзятости, которые учитывают эти эффекты взаимодействия и предоставляют рекомендации по разработке систем ИИ, действительно смягчающих предвзятость.74

6. Перспективы и заключение



6.1. Эволюция роли менеджера


Внедрение ИИ в процессы принятия решений неизбежно ведет к трансформации роли менеджера. Происходит сдвиг от прямого исполнителя решений к стратегическому организатору, управляющему системами ИИ и лидеру, ориентированному на человека.3 Менеджерам будущего потребуются новые навыки: ИИ-грамотность (понимание возможностей и ограничений ИИ, умение интерпретировать его результаты и эффективно взаимодействовать с ним), способность к этическому надзору за применением ИИ и развитый эмоциональный интеллект для управления человеческими аспектами работы, которые ИИ не может заменить. Автоматизация рутинных задач и аналитических функций ИИ позволит менеджерам сосредоточиться на более творческих, стратегических и межличностных аспектах своей работы, таких как развитие команды, мотивация сотрудников, построение отношений с заинтересованными сторонами и принятие решений в условиях высокой неопределенности и этической сложности.

6.2. Организационная адаптация

Для успешной интеграции ИИ в процессы принятия решений организациям потребуется не только технологическая, но и культурная трансформация. Это включает инвестиции в повышение ИИ-грамотности сотрудников на всех уровнях, разработку и внедрение четких этических руководств и стандартов использования ИИ, а также пересмотр и адаптацию существующих процессов принятия решений для эффективного включения ИИ-инструментов.4 Организациям необходимо будет создать среду, в которой поощряется критическое мышление по отношению к результатам ИИ, а также развивать культуру непрерывного обучения и адаптации к быстро меняющимся технологиям. Важным аспектом станет обеспечение прозрачности и объяснимости ИИ-решений для поддержания доверия и подотчетности.

6.3. Синтез сравнения: Балансирование сильных сторон для достижения оптимальных результатов


Сравнительный анализ показывает, что как у человека-менеджера, так и у искусственного интеллекта есть свои уникальные сильные и слабые стороны в контексте принятия решений. Человек превосходит в задачах, требующих понимания контекста, здравого смысла, этического суждения, креативности и адаптивности к новым ситуациям. Эмоциональный интеллект и способность к эмпатии также являются ключевыми человеческими преимуществами. Однако человеческие решения подвержены когнитивным искажениям, эмоциональным влияниям и ограничениям в обработке больших объемов информации.

Искусственный интеллект, в свою очередь, демонстрирует выдающиеся способности в обработке огромных массивов данных на высокой скорости, выявлении сложных закономерностей, автоматизации рутинных задач и обеспечении последовательности решений при условии качественных данных. Тем не менее, ИИ лишен истинного понимания, здравого смысла, эмоций и этической интуиции, а также может наследовать и усиливать предвзятости, заложенные в данных или алгоритмах.

Оптимальный подход заключается не в противопоставлении «человек против ИИ», а в поиске синергии «человек + ИИ». Эффективное сочетание сильных сторон человека и ИИ, где ИИ дополняет и расширяет возможности человека, а человек обеспечивает критический контроль, этическое руководство и контекстуальное понимание, является ключом к достижению наилучших результатов в принятии решений.

6.4. Заключительные замечания


Путь к интеграции искусственного интеллекта в управленческое принятие решений находится в постоянном развитии и сопряжен как с огромными возможностями, так и со значительными вызовами. Потенциал ИИ для повышения эффективности, точности и скорости принятия решений неоспорим. Однако слепое доверие или неправильное применение этой технологии может привести к усугублению существующих проблем, таких как предвзятость, или к возникновению новых этических дилемм.

Для организаций и менеджеров первостепенное значение приобретают непрерывное обучение, этическая бдительность и фокус на построении эффективных моделей сотрудничества человека и ИИ. Развитие ИИ-грамотности, критического мышления по отношению к результатам ИИ, а также разработка надежных механизмов управления и контроля являются необходимыми условиями для ответственного использования ИИ. Будущее эффективного принятия решений лежит в гармоничном сочетании уникальных человеческих качеств — интуиции, эмпатии, этического компаса и творческого подхода — с вычислительной мощью и аналитическими способностями искусственного интеллекта. Только такой сбалансированный подход позволит в полной мере реализовать потенциал обеих сторон и направить его на достижение устойчивого организационного успеха и общественного блага.


Источники

  1. Decision Making in Management: Importance, Types, Process, дата последнего обращения: мая 7, 2025, https://www.knowledgehut.com/blog/project-management/decision-making-in-management
  2. Project selection and prioritization in portfolio management - Digital Commons at Harrisburg University, дата последнего обращения: мая 7, 2025, https://digitalcommons.harrisburgu.edu/cgi/viewcontent.cgi?article=1020&context=dandt
  3. AI & Automation: Transforming Business Decision - Futurense, дата последнего обращения: мая 7, 2025, https://futurense.com/uni-blog/ai-automation-impact-business-decision
  4. Augmented Strategy: The Promise and Pitfalls of AI in Strategic Planning, дата последнего обращения: мая 7, 2025, https://balancedscorecard.org/blog/augmented-strategy-the-promise-and-pitfalls-of-ai-in-strategic-planning/
  5. AI in Business Decision Making: Strategies for Success | Vation ..., дата последнего обращения: мая 7, 2025, https://www.vationventures.com/blog/ai-in-business-decision-making-strategies-for-success
  6. How AI decision-making improves business outcomes | AI for ..., дата последнего обращения: мая 7, 2025, https://lumenalta.com/insights/how-ai-decision-making-improves-business-outcomes
  7. 10 Features/Characteristics of Decision Making in ... - 10characteristics, дата последнего обращения: мая 7, 2025, https://10characteristics.com/characteristics-of-decision-making/
  8. The Role of AI Agents in Decision Support Systems for CEOs and ..., дата последнего обращения: мая 7, 2025, https://www.zartis.com/the-role-of-ai-agents-in-decision-support-systems-for-ceos-and-business-leaders/
  9. AI-Augmented Human Resource Management Decision Systems: A Comprehensive Study, дата последнего обращения: мая 7, 2025, https://www.researchgate.net/publication/387580961_AI-Augmented_Human_Resource_Management_Decision_Systems_A_Comprehensive_Study
  10. 20 Ethical Considerations For Business Leaders Making Big Decisions, дата последнего обращения: мая 7, 2025, https://www.forbes.com/councils/forbesbusinesscouncil/2025/01/13/20-ethical-considerations-for-business-leaders-making-big-decisions/
  11. Leadership and the importance of ethical decision-making - University of Lincoln, дата последнего обращения: мая 7, 2025, https://online.lincoln.ac.uk/leadership-and-the-importance-of-ethical-decision-making/
  12. Common ethical challenges in AI - Human Rights and Biomedicine, дата последнего обращения: мая 7, 2025, https://www.coe.int/en/web/human-rights-and-biomedicine/common-ethical-challenges-in-ai
  13. The ethical implications of AI decision-making - RSM Global, дата последнего обращения: мая 7, 2025, https://www.rsm.global/insights/ethical-implications-ai-decision-making
  14. Intuition in Decision Making –Theoretical and Empirical Aspects, дата последнего обращения: мая 7, 2025, https://ijbed.org/cdn/article_file/i-9_c-98.pdf
  15. www.wjrr.org, дата последнего обращения: мая 7, 2025, https://www.wjrr.org/download_data/WJRR0904007.pdf
  16. Mood Swing | Effect of Emotion on Decision-Making | Rice Business ..., дата последнего обращения: мая 7, 2025, https://business.rice.edu/wisdom/peer-reviewed-research/hidden-role-emotion-decision-making
  17. Emotions and Decision-Making in the Workplace - i creatives, дата последнего обращения: мая 7, 2025, https://www.icreatives.com/iblog/emotions-and-decision-making/
  18. Cognitive bias | EBSCO Research Starters, дата последнего обращения: мая 7, 2025, https://www.ebsco.com/research-starters/psychology/cognitive-bias
  19. Cognitive bias and how to improve sustainable decision making - PMC, дата последнего обращения: мая 7, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10071311/
  20. Making the Best Out of Organizational Politics and Its Challenges ..., дата последнего обращения: мая 7, 2025, https://staffbase.com/blog/organizational-politics/
  21. 2.4 Organizational Politics – Fundamentals of Leadership - Open Text WSU, дата последнего обращения: мая 7, 2025, https://opentext.wsu.edu/organizational-behavior/chapter/13-4-organizational-politics/
  22. How does experience influence our decision-making process?, дата последнего обращения: мая 7, 2025, https://youexec.com/questions/how-does-experience-influence-our-decision-making-proce
  23. Project Management Success Examples | Smartsheet, дата последнего обращения: мая 7, 2025, https://www.smartsheet.com/content/successful-project-examples
  24. What is Resource Management and Why Is It Important? - Planview, дата последнего обращения: мая 7, 2025, https://www.planview.com/resources/guide/resource-management-software/resource-management-leverage-people-budgets/
  25. Examples of Resource Allocation in Project Management | Quickbase, дата последнего обращения: мая 7, 2025, https://www.quickbase.com/blog/examples-of-resource-allocation-in-project-management
  26. What is resource allocation? Importance, benefits, & optimization, дата последнего обращения: мая 7, 2025, https://dayshape.com/insights/what-is-resource-allocation-benefits-importance-methods
  27. Affect Heuristic - The Decision Lab, дата последнего обращения: мая 7, 2025, https://thedecisionlab.com/biases/affect-heuristic
  28. Swimming the Seas of Sentiment: The Role of Emotional Bias in ..., дата последнего обращения: мая 7, 2025, https://9operators.com/blog/swimming-the-seas-of-sentiment-the-role-of-emotional-bias-in-business-decision-making
  29. 9 Essential Human Resource Management Skills - Visual Planning, дата последнего обращения: мая 7, 2025, https://www.visual-planning.com/en/blog/the-9-essential-skills-of-human-resource-management
  30. Balancing human adaptability and AI: the future of leadership ..., дата последнего обращения: мая 7, 2025, https://naturaldirection.co.uk/2025/03/19/balancing-human-adaptability-and-ai-the-future-of-leadership/
  31. Ethical Decision-Making Frameworks For Leaders - Aurora Training Advantage, дата последнего обращения: мая 7, 2025, https://auroratrainingadvantage.com/leadership/ethical-decision-making-frameworks/
  32. 4 Examples of Ethical Leadership in Business - HBS Online, дата последнего обращения: мая 7, 2025, https://online.hbs.edu/blog/post/examples-of-ethical-leadership
  33. 5 Key Differences Between AI and Human Intelligence: Confront or ..., дата последнего обращения: мая 7, 2025, https://www.hausmanmarketingletter.com/5-key-differences-between-ai-and-human-intelligence-confront-or-join-forces/
  34. philarchive.org, дата последнего обращения: мая 7, 2025, https://philarchive.org/archive/MICCBW#:~:text=As%20defined%20by%20Nickerson%20(1998,175).
  35. philarchive.org, дата последнего обращения: мая 7, 2025, https://philarchive.org/archive/MICCBW
  36. What Is Cognitive Bias? 7 Examples & Resources (Incl. Codex), дата последнего обращения: мая 7, 2025, https://positivepsychology.com/cognitive-biases/
  37. Examples of Cognitive Bias in the Workplace | Wellhub, дата последнего обращения: мая 7, 2025, https://wellhub.com/en-us/blog/organizational-development/examples-of-cognitive-bias-in-the-workplace/
  38. Anchoring Bias - The Decision Lab, дата последнего обращения: мая 7, 2025, https://thedecisionlab.com/biases/anchoring-bias
  39. The anchoring bias reflects rational use of cognitive resources, дата последнего обращения: мая 7, 2025, https://cocosci.princeton.edu/papers/AnchoringSimulations.pdf
  40. Anchoring-and-Adjustment During Affect Inferences - Frontiers, дата последнего обращения: мая 7, 2025, https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2018.02567/full
  41. Anchoring-and-Adjustment During Affect Inferences - PMC, дата последнего обращения: мая 7, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC6331480/
  42. Evaluating the Sunk Cost Effect* - Authors: David Ronayne*,a,1, Daniel Sgroi", Anthony Tuckwell - University of Warwick, дата последнего обращения: мая 7, 2025, https://warwick.ac.uk/fac/soc/economics/staff/dsgroi/evaluating_the_sunk_cost_effect.pdf
  43. Investigating How Resource and Situation Type Influence the Sunk ..., дата последнего обращения: мая 7, 2025, https://surface.syr.edu/cgi/viewcontent.cgi?article=1300&context=honors_capstone
  44. www.minneapolisfed.org, дата последнего обращения: мая 7, 2025, https://www.minneapolisfed.org/-/media/files/mea/contest/2018papers/millsrobertsonnanaadomandwangqian.pdf
  45. Gender robustness of overconfidence and excess entry - IDEAS/RePEc, дата последнего обращения: мая 7, 2025, https://ideas.repec.org/a/eee/joepsy/v72y2019icp179-199.html
  46. Groupthink - Learn About the Negative Impact of Groupthink, дата последнего обращения: мая 7, 2025, https://corporatefinanceinstitute.com/resources/management/groupthink-decisions/
  47. What Is GroupThink & Why It's Bad For Business - Arcoro, дата последнего обращения: мая 7, 2025, https://arcoro.com/groupthink-bad-business/
  48. 5 Key Decision-Making Techniques for Managers - HBS Online, дата последнего обращения: мая 7, 2025, https://online.hbs.edu/blog/post/decision-making-techniques
  49. What Is Reasoning in AI? | IBM, дата последнего обращения: мая 7, 2025, https://www.ibm.com/think/topics/ai-reasoning
  50. 7 reasons why AI reasoning models accelerate time to value ..., дата последнего обращения: мая 7, 2025, https://lumenalta.com/insights/7-reasons-why-ai-reasoning-models-accelerate-time-to-value
  51. AI Examples & Business Use Cases | IBM, дата последнего обращения: мая 7, 2025, https://www.ibm.com/think/topics/artificial-intelligence-business-use-cases
  52. What is AI bias? Causes, effects, and mitigation strategies | SAP, дата последнего обращения: мая 7, 2025, https://www.sap.com/swiss/resources/what-is-ai-bias
  53. What Is Algorithmic Bias? | IBM, дата последнего обращения: мая 7, 2025, https://www.ibm.com/think/topics/algorithmic-bias
  54. What is AI Bias? - Understanding Its Impact, Risks, and Mitigation Strategies, дата последнего обращения: мая 7, 2025, https://www.holisticai.com/blog/what-is-ai-bias-risks-mitigation-strategies
  55. What are the limitations of AI in complex decision-making scenarios ..., дата последнего обращения: мая 7, 2025, https://infermatic.ai/ask/?question=What%20are%20the%20limitations%20of%20AI%20in%20complex%20decision-making%20scenarios?
  56. 6 Limitations of AI & Why it Won't Quite Take Over In 2023!, дата последнего обращения: мая 7, 2025, https://www.adcocksolutions.com/post/6-limitations-of-ai-why-it-wont-quite-take-over-in-2023
  57. Artificial Intelligence versus Human Intelligence: Which Excels ..., дата последнего обращения: мая 7, 2025, https://sbmi.uth.edu/blog/2024/artificial-intelligence-versus-human-intelligence.htm
  58. A.I. STRENGTHS & WEAKNESSES in AEC Applications, дата последнего обращения: мая 7, 2025, https://go.psmj.com/blog/accelerating-cash-flow-0
  59. дата последнего обращения: января 1, 1970, https://balancedscorecard.org/blog/augmented-strategy-the-promise-and-pitfalls-of-ai-in-strategic-planning
  60. Artificial Intelligence-Augmented Decision-Making: Examining the Interplay Between Machine Learning Algorithms and Human Judgment in - Journal of Ecohumanism, дата последнего обращения: мая 7, 2025, https://ecohumanism.co.uk/joe/ecohumanism/article/download/6364/6513/15228
  61. Human brain vs AI: what makes better decisions? - News & insight ..., дата последнего обращения: мая 7, 2025, https://www.jbs.cam.ac.uk/2025/human-brain-vs-ai-what-makes-better-decisions/
  62. How AI can help detect and reduce bias in emergency medicine ..., дата последнего обращения: мая 7, 2025, https://healthcare-in-europe.com/en/news/ai-detect-reduce-bias-emergency-medicine.html
  63. What is Human AI Collaboration? - Aisera, дата последнего обращения: мая 7, 2025, https://aisera.com/blog/human-ai-collaboration/
  64. How does AI-driven automation compare human vs. machine ..., дата последнего обращения: мая 7, 2025, https://www.quora.com/How-does-AI-driven-automation-compare-human-vs-machine-efficiency-in-production
  65. AI-Assisted vs human-only evidence review: results from a ... - GOV.UK, дата последнего обращения: мая 7, 2025, https://www.gov.uk/government/publications/ai-assisted-vs-human-only-evidence-review/ai-assisted-vs-human-only-evidence-review-results-from-a-comparative-study
  66. AI vs. Human: Could Algorithms Be the Key to Fairer Employee ..., дата последнего обращения: мая 7, 2025, https://www.unh.edu/unhtoday/2025/02/ai-vs-human-could-algorithms-be-key-fairer-employee-evaluations
  67. AI is just as overconfident and biased as humans can be, study shows | Live Science, дата последнего обращения: мая 7, 2025, https://www.livescience.com/technology/artificial-intelligence/ai-is-just-as-overconfident-and-biased-as-humans-can-be-study-shows
  68. (PDF) ARTIFICIAL INTELLIGENCE IN PROJECT MANAGEMENT ..., дата последнего обращения: мая 7, 2025, https://www.researchgate.net/publication/388082425_ARTIFICIAL_INTELLIGENCE_IN_PROJECT_MANAGEMENT_BALANCING_AUTOMATION_AND_HUMAN_JUDGMENT
  69. Top Data Analytics and AI Trends Shaping 2025 - WebProNews, дата последнего обращения: мая 7, 2025, https://www.webpronews.com/top-data-analytics-and-ai-trends-shaping-2025/
  70. Superagency in the workplace: Empowering people to unlock AI's full potential - McKinsey & Company, дата последнего обращения: мая 7, 2025, https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/superagency-in-the-workplace-empowering-people-to-unlock-ais-full-potential-at-work
  71. The Impact of AI on Consulting Hiring - StrategyCase.com, дата последнего обращения: мая 7, 2025, https://strategycase.com/the-impact-of-ai-on-consulting-hiring/
  72. The Rise of AI-Driven Leadership: Can Machines Manage People? - Reworked, дата последнего обращения: мая 7, 2025, https://www.reworked.co/digital-workplace/the-rise-of-ai-driven-leadership-can-machines-manage-people/
  73. Human-AI collaboration: finding the sweet spot (part II) - Liminary Blog, дата последнего обращения: мая 7, 2025, https://www.liminary.io/blog/human-ai-collaboration-finding-the-sweet-spot-part-ii
  74. Beyond Isolation: Towards an Interactionist Perspective on Human Cognitive Bias and AI Bias - arXiv, дата последнего обращения: мая 7, 2025, https://arxiv.org/html/2504.18759v1
  75. Artificial intelligence and judicial decision-making: Evaluating the ..., дата последнего обращения: мая 7, 2025, https://www.tatup.de/index.php/tatup/article/view/7099
  76. AI Tools in Society: Impacts on Cognitive Offloading and the Future ..., дата последнего обращения: мая 7, 2025, https://www.mdpi.com/2075-4698/15/1/6#:~:text=AI%20tools%20such%20as%20natural,and%20suggesting%20evidence%2Dbased%20conclusions.
  77. The Efficacy of Conversational AI in Rectifying the Theory-of-Mind and Autonomy Biases: Comparative Analysis - PMC, дата последнего обращения: мая 7, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC11845887/
  78. Leveraging AI for Personalized Employee Development: A New Era in Human Resource Management | Advances in Consumer Research, дата последнего обращения: мая 7, 2025, https://acr-journal.com/article/leveraging-ai-for-personalized-employee-development-a-new-era-in-human-resource-management-885/


Критика от CHAT GPT


Консолидированный доклад-review исследования «Судьба управленца»(Telepat, 7 мая 2025)

1. Методология — взгляд поведенческого экономиста

Автор честно строит «башню из кирпичей литературы» — от когнитивных искажений до теории «человек-в-цикле» — но кладёт туда мало собственных кирпичей. Основные тезисы опираются на публичные заявления топ-менеджеров Big AI и на компиляцию открытых статей, без описания выборки, критериев включения или процедур валидации. В результате отчёт больше напоминает «разумно сшитый дайджест», чем исследование в академическом смысле. Такой подход полезен для обзорного чтения, но даёт ограниченные гарантии надёжности выводов.

2. Новая ценность — взгляд футуролога-стратега

Свежесть работы в том, что она соединяет популярные футуристические цитаты («90 % кода напишет ИИ») с классикой менеджмента и показывает, как тот же anchoring bias трансформируется в эпоху LLM. Это расширяет дискуссию о роли менеджера за пределы банального «роботы отнимут работу». Тем не менее, большинство стратегических тезисов уже фигурировали в HBR-статьях последних лет; Telepat лишь упаковывает их для русскоязычной аудитории. Ценность поэтому средняя: полезно, если вы не читали западные обзоры, но не революция.

3. Практическая применимость — взгляд организационного психолога

В разделе о когнитивных ловушках и политике автор приводит конкретные симптомы (групп-think, «стражи порядка») и рекомендации: внедрять психологическую безопасность, многоуровневые review-процессы, «исследовательское» мышление команд. Это-то читатель может вынести на план-действий сразу в понедельник-стендап. Плюс — неплохая таблица моделей сотрудничества человека и ИИ (кентавр, киборг) с указанием, где оставить «человека в петле». Минус — нет расчётов ROI, чек-листа внедрения или кейсов, так что линейным менеджерам придётся самим конвертировать идеи в KPI. (www2.deloitte.com)

4. Риски и ограничения — взгляд специалиста по этике ИИ

Автор адекватно бьёт тревогу о «масштабируемой предвзятости» и размытой подотчётности, ссылаясь на классические проблемы «чёрного ящика». Однако раздел про ответственность остаётся декларативным: нет дорожной карты governance, метрик fairness, процедур аудит-логов. В эпоху, когда Stanford HAI в AI Index называет ответственность ключевым трендом, упускать конкретику — роскошь.

5. Срок годности выводов — взгляд ML-Ops-практика

McKinsey показывает, что только за 2023 год доля компаний, использующих gen-AI «на поток», выросла до трети, а Deloitte в 2025 г. уже советует менеджерам рулить «гибридными» командами людей и агентов. Значит, описанные сценарии могут устареть в течение 18-24 месяцев: модели quickly evolve, data-flywheels spin faster. Рекомендуем мониторить: (а) уровень explainability в коммерческих LLM, (б) новые регуляторные акты ЕС/США по AI-governance, (в) появление «суперагентств» внутри ERP-систем. (www2.deloitte.com)

Итоговая оценка полезности: Medium


Добротный, местами остроумный мета-обзор о том, как ИИ меняет управленческие решения. Сильные стороны: читабельное объяснение когнитивных искажений, ясная карта моделей «человек + ИИ», удачные практические советы по командной динамике. Слабые: отсутствие оригинальных данных, недоработанная методология, поверхностные рекомендации по этике и метрикам эффективности. Читателю даёт хорошее «общее поле зрения», но не заменяет глубокий due-diligence перед внедрением AI-инструментов. Смотреть как компас, а не как GPS.

Добавляем оценку аргументов от Deep Research



«Доклад-бурение» (Deep Research) по статье Telepat «Судьба управленца»

1. Метаресёрчер-синтезатор: критический мета-анализ


2. Поведенческий data-scientist: кросс-валидация тезисов

3. Юрист по AI Governance: аудит EU AI Act


4. Квантификация bias

Исследование (INFORMS, 2025) показало: GPT-4 воспроизводит ≥9 из 18 когнитивных искажений в ≈ 45 % сценариев livescience.com.


5. Стратег Future-of-Work: сценарное моделирование 2025-2027

(подробные цифры см. в DataSheet)


6. Трудовой экономист/HR-аналитик: рекомендации

  1. Governance: назначить AI risk officer, ввести audit-логи для high-risk модулей.
  2. People: переподготовка > 15 % менеджеров к 2026: навыки prompt-crafting, causal reasoning.
  3. Tech: пилоты AI-агентов (до 5 % процессов) + sandbox для explainability.
  4. Early-warning индикаторы: latency ↑ > 30 %, всплеск employee-trust ↓, регуляторные изменения (EU AI Act delegated acts).

7. Лимитации и agenda-2026



Verdict: High usefulness для ориентира политики и трансформации, Medium для строгой академической работы.

Жёсткий аудит Telepat-статьи подтверждает ключевые цифры (65 % Gen AI → 78 % к 2025), уточняет контекст EU AI Act и даёт KPI-ориентированные сценарии 2025-2027. LLM-ы уже «калькуляторно» точны (Brier 0.18) и чуть меньше предвзяты, чем люди, но требуют прозрачного контроля.

Для менеджеров рецепт прост: в 2025 — малые агент-пилоты и обучение, к 2026 — прозрачность метрик, к 2027 — full-stack hybrid-teams, иначе рискуете отстать на два квартала и попасть под штраф регуляторов.


0
0
0
Опубликовано:
Комментариев:0
Репостов:0
Просмотров: 0