アルゴリズム嫌悪とは?AIと人の関係を考える
皆さんは、「この候補者はAIが高く評価しています」と告げられたとき、どのように感じるでしょうか。AIの判断はデータに基づいた論理的なものですが、人間の感覚としては「本当に良い人材かを、自分の目で確認したい」と考えるのではないでしょうか。
現在、人事領域においてAIの導入が着実に進んでいます。採用や配置、育成など、多くの場面でAIが意思決定の支援をするようになってきています。AIは大量のデータを短時間で分析でき、人間が見落としがちな要素を発見できます。その精度の高さについては、数多くの実践で裏づけられています。
しかし実際には、AIの判断をそのまま受け入れられないケースが散見されます。AIに対して不安を感じ、慎重になる人が少なくありません。この心理的なメカニズムは「アルゴリズム嫌悪」と呼ばれており、AI時代における課題の一つといえるかもしれません。
本コラムは、アルゴリズム嫌悪の実態と、それが組織に及ぼす作用について考えます。人々がAIの判断を受け入れにくい理由やその心の仕組みを分析し、そのうえで、AIと人が共に働くための方法を検討していきます。
アルゴリズム嫌悪は、技術に対する疑いの気持ちだけではありません。この現象は、人間本来の心理や組織における判断の方法に根ざした問題です。本コラムを通して、AIをめぐる人間心理に関する理解を深めていきましょう。
目次
アルゴリズム嫌悪とは何か
アルゴリズム嫌悪は、人々がAIやそのアルゴリズムに抱く心理的な抵抗のことを指します。これは、技術全般への不安とは異なります。たとえば、電卓や表計算ソフトといった確立された技術には抵抗を感じない人でも、AIの判断には不安を覚えることがあります。
特筆すべきは、この抵抗が必ずしも理にかなった理由に基づいているわけではない点です。人間の感情や価値観、社会的な規範など、多くの要素が組み合わさって生じる反応です。
人間の専門家を優先する傾向
アルゴリズム嫌悪は、たとえば、人を評価する場面で現れます。採用担当者を対象に、AIと人間の専門家による候補者の評価を比べた研究があります*1。AIの評価が正確だったとしても、多くの採用担当者は人間の専門家の評価を選びました。このことは、私たちの判断が論理的な基準だけで行われているわけではないことを表しています。
AIの判断ミスへの敏感さ
加えて人々は、AIの判断ミスに対して敏感な反応を示します。研究によれば、AIが一度でも間違いを起こすと、たとえその後の判断が人間よりも優れていても、信用を失う傾向にあります*2。これは人間の判断への態度とは異なります。人間の誤りは「誰にでも間違いはある」と受け止められますが、AIの誤りは「根本的な問題」として捉えられることが多いのです。
重大な意思決定にAIを用いることへの不安
また、判断の結果が重大なものになるほど、AIへの不安も増します。日常業務の進め方などの小さな判断ではAIの提案を受け入れやすい一方で、人事評価や大規模なプロジェクトの判断など、結果が大事な意思決定では、人間の判断を求める度合いが強まります。
この傾向を考慮すると、人と組織をめぐる重要性の高い意思決定にAIを用いるとき、アルゴリズム嫌悪が出やすいことが分かります。採用面接での評価や昇進・昇格の判断、人材配置の決定など、従業員の職業人生に変化をもたらす判断では、AIの提案があっても、最後は人間が判断したいという意識が働くということです。
また、人事に関する判断は、能力や実績の評価だけではなく、将来性や組織との調和、周囲への波及など、多面的な観点を必要とします。これらの中には、数字や定量化が難しいものも多く含まれています。そのため、AIの判断だけでは十分ではないと感じられるのでしょう。
アルゴリズム嫌悪が生じる理由
アルゴリズム嫌悪が生じるのは、なぜでしょうか。いくつかの理由が示されています*3。
AIの判断の不透明性
第一に、「不透明性」が挙げられます。AIがどのように結論を導き出したのかが分かりにくい状態を指します。AIは複雑な数理モデルを用いて判断を行いますが、その内部の仕組みは、専門家であっても完全には把握できないことがあります。AIの判断がどのような道筋で導かれたのかが見えにくく、それが不安や不信につながります。
不透明性は、深層学習を用いたAIで特に顕著です。深層学習は、大量のデータから特徴を学習し、高度な判断を可能にする技術ですが、その判断の道筋は非常に複雑で、人間の理解を超えることがあります。なぜその判断に至ったのか、その理由を説明することが難しいのです。
AIの無感情性
第二に、「無感情性」もアルゴリズム嫌悪の原因になります。AIは、人間のような感情的な理解や共感が欠けている。人間には少なくともそのように受け止められています。
人間の判断には、論理的な思考だけでなく、感情的な理解や直感、経験からの学びなど、多様な要素が含まれている一方で、AIは与えられたデータと決められたルールに基づいて判断を行うため、AIには感情的な側面がないと考えられています。そのため、人事のように従業員の職業人生に関わる判断に用いることに難色を示す可能性があります。
AIが判断に関わることによる制御の喪失感
第三に、「制御の喪失感」というのも理由になります。人間は一般的に、自分の意思決定については、自分で管理したいと考えています。しかし、AIが判断に関わることで、このコントロールが脅かされる可能性があります。
たとえば、昇進や異動、新しい職務の割り当てなど、キャリアに関する判断がAIによって行われることへの抵抗感は強いものがあるでしょう。そのような決定が、自分の意思や努力とは関係なく、機械的な過程で決められてしまうのではないかという不安を感じるとしても、不思議はありません。
AIの判断に対する意見表明の難しさも、制御の喪失感を強める要因となっています。人間による判断であれば、その判断に納得がいかない場合、対話を通じて理解を深めたり、場合によっては判断の見直しを求めたりすることができます。しかし、AIの判断に対しては、そのような対話や交渉が難しく、それが無力感につながることがあります。
これらの要因は互いに関連し合い、時には強め合います。AIの判断過程が不透明なことは、制御の喪失感をより強く感じさせる原因となります。また、無感情性への不安は、判断過程の不透明性によってさらに強められます。この要因の相互の作用が、アルゴリズム嫌悪をより深い問題にしているのです。
アルゴリズム嫌悪を弱める方法
では、このようなアルゴリズム嫌悪を弱めてAIの活用を促進するにはどうすればよいのでしょうか。
判断過程の明確化
アルゴリズム嫌悪への対処の第一歩は、AIの判断過程を分かりやすくすることです。この点について気づきを提供する研究があります*4。研究チームは、AIの判断過程を人々に分かりやすく説明することで、AIの受け入れやすさが向上することを発見しました。この発見は、AIの存在を伝えるだけでなく、その判断過程を丁寧に説明することの大切さを表しています。
分かりやすさの確保には、いくつかの大切な要素があります。まず、AIがどのようなデータを使用しているのかを明らかにする必要があります。使用しているデータの種類や集め方、更新の頻度などを説明することで、AIの判断の基となる情報が理解しやすくなります。
次に、AIがそのデータをどのように分析し、判断を導き出しているのかについての説明も大切です。完全な技術的な説明までは不要ですが、主な判断基準や大切にしている要素について説明することで、AIの判断過程への理解が深まります。
さらに、AIの判断の限界や不確かさについても、率直に説明すると良いでしょう。AIは完璧ではなく、特定の条件下では判断を誤る可能性があることを認めることで、かえって信頼性が高まることがあります。このような分かりやすさの確保は、AIに対する不安や誤解を緩和し、活用を促すことができます。
リーダーのAIに対する前向きな姿勢
続いて重要になるのは、組織におけるリーダーのあり方です。リーダーのAIに対する姿勢が組織全体に作用することを明らかにした研究が参考になります*5。研究においては、リーダーがAIに対して前向きな姿勢を見せ、自らその活用方法を探る姿勢を見せることで、組織全体のAIへの姿勢が改善されることが分かりました。
このような効果が生まれる理由として、社会的学習の観点から説明することができます。人々は、特に影響力のある立場の人物の行動を見て、それを学ぶ傾向があります。リーダーがAIを前向きに活用し、その効果を実証することで、組織のメンバーもAIに対してより前向きな姿勢をとるようになるのです。
ただし、これは単なる「上からの指示」であってはなりません。リーダー自身が率先してAIと向き合い、その効果と限界を理解し、適切な活用方法を探る姿勢を見せることが求められます。このような真摯な取り組みは、組織のメンバーにとっての見本となり、AIに対する心理的な壁を低くする効果があります。
アルゴリズム嫌悪は無意味ではない
ここまでアルゴリズム嫌悪を、どちらかというと、減らすべきネガティブなものとして議論を進めてきました。確かに、アルゴリズム嫌悪によってAIの判断を受け入れないことは組織に不利益をもたらすかもしれません。しかし一方で、この心理的反応は人間の判断力を保護し、AIと良好な関係を築く防御機制として働く可能性もあります。
適切な懐疑心の維持
たとえば、アルゴリズム嫌悪は、AIの判断に対する適切な懐疑心を保つことに貢献します。AIの結果を即座に受け入れることは、効率的に見えても、深刻な問題を見逃す危険性があります。
採用活動でAIが過去のデータから候補者を評価する場合、そのデータに含まれるバイアスが強調されるかもしれません。従業員を評価する場合、定量的な指標に偏り、質的な価値を見逃す懸念があります。アルゴリズム嫌悪による慎重な対応は、このような問題の発見と修正の機会をもたらします。
人間の判断力の向上
アルゴリズム嫌悪には、人間の専門性や判断力の向上につながる側面もあります。AIの判断を疑問なく受け入れると、自身の判断力を手放すことになりかねません。その結果、主要な業務知識やスキルが消失し、組織全体の判断力が弱まる可能性があります。
人事領域では、従業員一人ひとりの状況や組織の文化的背景を理解し、それらを総合的に判断する力が必須です。アルゴリズム嫌悪に基づく入念な検証は、人間がAIと対話しながら学習し、成長する機会を創出し得ます。
AIシステムの精度向上
アルゴリズム嫌悪は、AIシステムの進歩にも良い影響を及ぼします。AIの判断に疑問を投げかけ、その根拠を探ることは、システムの課題や制約を見出すことにつながります。AIの判断過程を検証すると、アルゴリズムの改良点や必要なデータが判明することがあります。こうした建設的な意見は、AIシステムの精度向上や、使いやすい設計の開発を促す情報となります。
アルゴリズム嫌悪は、AI時代における適応機能と考えられなくもありません。それは技術への抵抗というだけではなく、人間の専門性を保護し、AIと良好な協力関係を構築するための心理的反応になり得ます。特に人と組織に関する領域においては、アルゴリズム嫌悪による慎重さと批判的思考が、調和のとれた意思決定を支える基盤になるともいえます。
アルゴリズム嫌悪の両面性に向き合う
アルゴリズム嫌悪は、AIと人間の関係において両面性を持つ現象です。過剰な抵抗感はAIの有効活用を妨げますが、ほどよい懐疑心は、判断を補い、より確かな意思決定に結びつきます。この心理の背景には、AIの判断がどのように行われているのか分かりにくいこと、人間のような感情的な理解ができないと考えられていること、自分で判断をコントロールできない感覚があります。
特に人事の場面では、従業員の仕事人生に関わる判断に関して、こうした不安が強く表れます。AIの出した答えの理由が不明確で、その内容について意見することも容易ではありません。このような場合に慎重な態度をとることは、人として自然な対応といえます。
AIによる分析と人間ならではの判断は、両者とも必要でしょう。採用・評価・育成の際に、AIは膨大な情報を処理して、人間が気づきにくい特徴を見出すことができます。一方で、組織内の雰囲気や人間関係、個人が持つ将来性など、数値化が難しい部分については、人間による細やかな観察と理解が欠かせません。
私たちに必要なのは、アルゴリズム嫌悪を完全になくすことというより、それを前向きに活かすことです。AIの判断の過程を分かりやすくし、組織のリーダーが使い方の指針を示していきましょう。リーダー自らがAIに対する理解を深め、AIの長所と短所を把握する姿勢を示すことで、組織全体のAIに対する考え方も変わっていくはずです。
アルゴリズム嫌悪は、技術への拒否感だけではありません。それは、AIと人間がお互いの得意分野を認め合い、より良い関係を作るためのヒントとなります。時には、AIシステムの問題点を浮き彫りにし、使いやすい技術の開発を後押しする要因にもなります。
これからAIの利用が広がる中で、この両面性を考慮しながら、調和のとれた取り組み方を探る必要があります。アルゴリズム嫌悪の本質を理解し、その意義を考えることは、AI時代の組織マネジメントにおける課題として残り続けるでしょう。
<参考文献>
*1 Lacroux, A., and Martin-Lacroux, C. (2022). Should I trust the artificial intelligence to recruit? Recruiters’ perceptions and behavior when faced with algorithm-based recommendation systems during resume screening. Frontiers in Psychology, 13, 895997.
*2 Dietvorst, B. J., Simmons, J. P., and Massey, C. (2015). Algorithm aversion: People erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology: General, 144(1), 114-126.
*3 De Freitas, J., Agarwal, S., Schmitt, B., and Haslam, N. (2023). Psychological factors underlying attitudes toward AI tools. Nature Human Behaviour, 7(11), 1845-1854.
*4 Cadario, R., Longoni, C., and Morewedge, C. K. (2021). Understanding, explaining, and utilizing medical artificial intelligence. Nature Human Behaviour, 5(12), 1636-1642.
*5 Li, W., Qin, X., Yam, K. C., Deng, H., Chen, C., Dong, X., Jiang, L., and Tang, W. (2024). Embracing artificial intelligence (AI) with job crafting: Exploring trickle-down effect and employees’ outcomes. Tourism Management, 104, 104935.
著者紹介
伊達洋駆(だて ようく)
株式会社ビジネスリサーチラボ代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。