AIを使って仕事を進めることは、特別なことではなくなってきました。
文章を書く。
情報を整理する。
選択肢を比較する。
会議の論点をまとめる。
以前は時間をかけていた作業を、AIが短時間で支援してくれるようになっています。
一方で、AI活用が広がるほど、「判断しやすくなった」はずなのに、なぜか動きにくくなっている感覚を抱える人も増えているように見えます。
選択肢は見えている。
情報も整理されている。
失敗確率もある程度予測できる。
それでも、最後の一歩が出ない。
その背景には、「AIが正確すぎるから」だけでは説明できない何かがあるのかもしれません。
AIは「判断支援ツール」なのか
ミハル・グリックマン(M. Glickman)とタリ・シャロット(T. Sharot)による、2024年の論文
「人間とAIのフィードバックループは、人間の知覚・感情・社会的判断をどのように変化させるのか(How human–AI feedback loops alter human perceptual, emotional and social judgements)」では、
人間とAIの相互作用について興味深い整理が行われています。
Nature Human Behaviour
https://www.nature.com/articles/s41562-024-02077-2
この論文で扱われている中心概念のひとつが、
Human–AI feedback loop
です。
これは、
人間がAIの判断を参照し、
その判断に影響を受け、
その結果として生じた人間側の行動や選択が、
さらにAIの学習や出力傾向に影響を与えていく、
という循環構造を指しています。
つまり、
AIと人間は独立して判断しているのではなく、
互いの判断傾向を反復的に強化し合う可能性がある、ということです。
論文では、
知覚、感情、社会的判断など、
さまざまな領域でこの影響が生じうることが示されています。
ここで重要なのは、
AIが「誤っている」かどうかではありません。
むしろ、
AIが一定の精度を持っているからこそ、
人間側がその判断傾向に引き寄せられていく可能性です。
AIは「安全側」を強化しやすいのか
AIは、大量のデータをもとに、
もっとも妥当と思われる選択肢を提示します。
それは多くの場合、
極端な判断ではなく、
「失敗確率が比較的低い選択」
として現れます。
もちろん、それ自体は悪いことではありません。
問題は、
そのやり取りが繰り返される中で、
人間側の判断基準そのものが、
少しずつ「安全側」に固定されていく可能性です。
たとえば、
・前例があるか
・成功確率は高いか
・説明可能か
・批判されにくいか
そうした条件を満たす選択ばかりを、
AIとの対話を通じて繰り返し選んでいくと、
不確実だけれど意味のある挑戦や、
まだ前例のない選択肢が、
徐々に「選びにくいもの」になっていくことがあります。
AIは、
「これが最適です」と命令しているわけではありません。
けれど、
人間がAIを参照し続け、
AIもまた人間の行動を学習し続けることで、
結果として、
「無難な判断」が強化され続ける構造が生まれる。
この論文は、
そうした可能性を静かに示しています。
「AIがそう言ったので」が増えるとき
リーダーシップの場面では、
この構造はさらに複雑になります。
不確実性が高い状況ほど、
人は「判断の根拠」を求めます。
そしてAIは、
その根拠を非常に整った形で提示してくれます。
だからこそ、
「AIがそう分析していたので」
「データ上はこちらが合理的なので」
という判断は、
これからさらに増えていくのかもしれません。
もちろん、
データを参照すること自体は重要です。
しかし、
リーダーシップには、
「まだ答えがない状態」で動かなければならない場面があります。
十分な根拠が揃わない。
成功確率も読めない。
それでも、
誰かが最初の一歩を引き受けなければならない。
そうした場面で、
AIとの相互作用によって、
「正解らしさ」を求め続ける感覚が強くなると、
挑戦そのものが、
少しずつ難しくなっていく可能性があります。
リスク選好性とは、「無謀さ」ではない
Emotional Compassでは、
「リスク選好性」という特性があります。
リスク選好性とは、
「失敗や不確実性があっても、それを避けずに『やってみよう』と動き出す力」
として定義されています。
ここでいうリスク選好性は、
無謀さや衝動性ではありません。
むしろ、
完全な正解が見えない状態でも、
不完全さを抱えたまま、
一歩を踏み出せるかどうか。
その感覚に近いものです。
AIによって、
判断精度はこれからさらに高まっていくのだと思います。
けれど同時に、
「十分に確からしくなければ動かない」
という感覚も、
強まっていく可能性があります。
もしそうだとすると、
これから必要になるのは、
単純な意思決定能力だけではないのかもしれません。
正しさが完全に保証されない状態でも、
それでも関わり、
引き受け、
動いてみる。
そうした力が、
これまでとは別の意味を持ち始める可能性があります。
AI時代に、「考える」とは何なのか
AIは、
私たちの判断を支援します。
けれど、
支援され続ける中で、
私たち自身の「判断の癖」もまた、
少しずつ形づくられていきます。
安全な選択。
説明可能な選択。
失敗しにくい選択。
それらは確かに重要です。
ただ、
新しい挑戦や変化は、
必ずしも「最適解」から始まるとは限りません。
AIと共に働く時代だからこそ、
不完全さや不確実性と、
私たちはどのように付き合っていくのか。
そして、
「考える」とは、
単に正解を選ぶことなのか。
その問い自体が、
少しずつ変わり始めているのかもしれません。
参考文献
Glickman, M., & Sharot, T. (2024).
How human–AI feedback loops alter human perceptual, emotional and social judgements. Nature Human Behaviour.
https://www.nature.com/articles/s41562-024-02077-2
INNERSHIFTからのお知らせ
JOURNAL
https://innershift.jp/journal
Emotional Compass
https://innershift.jp/compass-diagnosis/
YouTube
https://www.youtube.com/@INNERSHIFT
LinkedIn
https://www.linkedin.com/in/yuta-mogami/X
https://x.com/INNERSHIFT_JP
Facebook
https://www.facebook.com/INNERSH
