生成AIの進化がもたらすディープフェイクの脅威。誰もが「何を信じるべきか」を問われる時代に、永守伸年は哲学の視点から「信頼」の本質を探る。理性と感情が交錯する信頼の力は、社会の基盤をどう支え、かつ揺さぶるのか。他者との「真の信頼」はどうすれば構築できるのか。哲学的思索の過程を聞いた。
生成AIの進化がもたらす真偽不明の情報の氾濫
ここ数年、生成AI(人工知能)の驚異的な進歩が社会を揺るがしている。AIの活用によって企業は生産性が向上し、一般生活者も仕事や娯楽、教育、情報入手などにAIを利用するようになった。このようにAIは社会に恩恵をもたらす一方で、それが作り出す「ディープフェイク」と呼ばれる本物そっくりな動画や音声が、世界的に問題となっている。今やネットに広がる政治家や著名人の映像の多くは、ひと目見ただけでは本物かどうかの判断ができない。誰かがAIによって作成し、人を騙す意図で拡散しているかもしれないのだ。あらゆる事象について「本当か嘘か判断に困る時代」を生きる我々は、いったい何を信じ、何を拠り所に暮らしていけばよいのか。永守伸年は、現代人すべてが直面するその問いの答えを求めて、哲学の観点から「信頼」をテーマに研究を進めている。
「信頼というテーマにたどり着いたのは、『社会契約論』という哲学の伝統を研究したことが一つのきっかけでした。トマス・ホッブズをはじめとする哲学者たちは、社会の秩序が何によって支えられているのかを明らかにするために『自然状態』、すなわち社会制度が成立する以前の『まっさらな状態』までさかのぼって考えました。そのような状態で、人間同士はいかにして対立を避け、共生することができるのか。哲学者たちはこの問題に応えるため、『契約』『慣習』『承認』といった営みに注目してきましたが、これらの営みをつらぬく態度として浮かび上がったのが『信頼』だったのです」
加えて永守は「信頼についてはその理性的な側面だけでなく、感情的な側面も見過ごすことができません。一例として医療の現場を思い浮かべてください。私たちがいかに介助者や、医師を信頼するのかを考えれば、そこでは医療従事者の来歴や、能力に関する推論だけでなく、対面での感情のやり取りが役割を果たしていることがわかるはずです」と述べる。確かに初対面の人に対して抱く「なんとなくこの人は信じられそう」「ちょっと胡散臭い感じがする」といった印象は、私たちの人間関係の構築に大きな影響を与える。
社会を根底で支える「信頼」の三つのレイヤー
「信頼には謎めいた力があります。もしも人に対する信頼、組織や制度に対する信頼がなくなったとしたら、組織は崩れ、お金はただの紙切れになり、他人に背を向けられず、差し出された食べ物も安心して喉を通らなくなるでしょう」と永守は語る。人間同士のつながり、ひいては社会を成り立たせる基盤そのものが、理性と感情の両側面を持つ「信頼」によって作られていると言っても過言ではないのだ。
そうした社会を根本から成立させる力を持つ「信頼」が崩れたとき、何が起こるのか。永守は著書『信頼と裏切りの哲学』の中で、ナチス・ドイツによってアウシュヴィッツほか複数の強制収容所に送られた作家ジャン・アメリーの言葉を引く。
<警察で殴られると、人間の尊厳を失うものかどうか私は知らない。だが、次のことは自信をもって言える。最初の一撃ですでに何かを失うのだ。何かとは何であるか。差し当たり世界への信頼とよぶとしよう。まさにそれを失う。世界への信頼である>
戦争や強制収容所のような、一方的な暴力が無制限に振るわれる状況になったとき、「社会の信頼の根っこ」が失われると永守はいう。
「これまで信頼は、学問の世界でもさまざまな立場から定義されてきました。経済学では、信頼は合理的な選択に関わり、相手が裏切らないという期待のもとにどれだけリスクを取るのかが問われます。心理学では、しばしば愛着や安心といった感情のつながりを通じて信頼がどのように育まれるのかが焦点になります。社会学では、信頼は制度や役割のもと、社会の秩序や協力を支える仕組みとして位置づけられる傾向にあります。このように『信頼』という言葉は多義的であり、一つの考えでは包括できないのです。そこで私は信頼を、『何がこの先に起こるかわからない不確実な状況において、相手に対して抱く肯定的な期待』と定義し、三つのレイヤー、すなわち『認知的信頼』『制度的信頼』『感情的信頼』に分けて考えることにしました」
一つ目の『認知的信頼』とは、先ほどの経済学の信頼理論のように、自己利益の追求に基づく合理的・計算的・推論的な信頼のことである。例えば商取引において、売り手が支払いを受けたのに商品を送らなければ、相手からの信頼を失い、以後のビジネスを継続する機会を失うだろう。このように「裏切ったら自分が損をするから相手を信頼する」のが認知的信頼である。
二つ目の『制度的信頼』は、例えば教師や医師といった、社会的な認証を受けた存在に対する信頼のことだ。「教師であるのだから、自分の子どもに対しては愛情を持って接してくれるだろう」「医師免許を持っているのだから、病気の治療を正しく行ってくれるだろう」といった相手の社会的な属性に期待して信頼することは、我々の日常生活を振り返っても珍しくない。
三つ目の『感情的信頼』は、前述のように理性を超えた情動的な信頼のことを指す。永守が好例として挙げるのが、2003年のイラク戦争当時、イラクの都市ナジャフにおいて起こった出来事だ。
「米軍の兵士たちがある日の朝、数百の群衆に囲まれて石を投げられる事態が起こりました。それは米軍がモスクを占領し、聖職者を連行するという誤った情報が民衆に伝わったことが理由で、兵士たちの誰かが危険を感じて万が一民衆に対して銃を撃てば、虐殺に近いことが起こり得る状況だったのです」
その状況を変えたのは米軍部隊の指揮をとる隊長だった。彼は発砲を許さず、ただ「笑え」と兵士に命じたのである。命令にしたがった兵士たちは、銃を構えず笑顔を群衆に向けた。それに呼応して押し寄せた人々の緊張もほどけ、虐殺の瀬戸際の事態は収まった。笑顔を向けられると、相手が信頼に値するかどうかわからなくても、なぜか信頼したいと感じてしまう。このように感情的信頼には、謎めいた力があり、しかもそれがときに強い現実変革力を持つのだ。
国家の相互不信がもたらす囚人のジレンマ
永守はこの三つの「信頼」のレイヤーを上手に組み合わせることが、強固で人にとってより好ましい社会を作るためには必要だという。
「自己利益を追求する、認知的信頼のみによって成り立つ社会では、『ここぞのときの裏切り』に対して脆弱にならざるをえません。そのような裏切りは、例えばマンションから引越しをする人が、前夜、ゴミ捨て場に本来出してはいけないゴミを大量に出してそのまま転居してしまうような事態を考えればわかりやすいでしょう。『自分が裏切っても、誰からも罰されない』という条件に置かれたら、認知的信頼は脆くも崩れかねないのです」
認知的信頼の問題は、いまの世界の国々の間で起こっている対立にも見ることができる。「現在、例えば核兵器や二酸化炭素の削減がなかなか進まないのは、認知的信頼の限界を指し示しているともいえます。たしかに、私たちは自分の利益を最大化しようとする限り、認知的信頼を抱き合い、互恵的な関係を築くことができます。しかし、裏を返せば、それは自分にとって利益が見込めない限り、そうした関係を維持する理由がないということでもあるわけです。こうした状況は、いわゆる『囚人のジレンマ』の構造に典型的な集合行為問題によって示唆される限界です。私の信頼研究の発端を与えてくれた哲学者トマス・ホッブズは、この問題をはるか昔に見抜いていました」
囚人のジレンマとは、ゲーム理論でよく知られる状況で、2人の囚人がそれぞれ自分の利益だけを考えて行動した結果、結局は両方にとって望ましくない結果に陥ってしまうことを指す。相手が核兵器を、あるいは二酸化炭素を減らさない限り自分たちも減らさない。そうした選択が繰り返されることで、最終的には社会全体がより悪い方向へと追い込まれてしまう可能性があると永守は述べる。
制度的信頼や感情的信頼についても、過剰に依存することは危ういと永守は指摘する。昔から詐欺師は社会的地位のある肩書きを名乗り、魅力的な笑顔や振る舞いをすることで人を騙してきた。
「感情的信頼は、血縁や文化を超えて一瞬で信頼を築く力を持つ一方で、信頼に値しない人物がこれを悪用する危険があります。AIの対話システムやディープフェイクを使って、軽快な声色や優しい対応によりユーザーを引き込むことで、詐欺をする国際的な犯罪グループも出てきています。そういう時代だからこそ、私たちには『どうすれば信頼できるか』よりも『いかに相手の信頼性を見抜くか』あるいは『何を信頼するべきではないか』が問われており、つまりは『不信の力』を育てることが要求されています」
永守は今の時代を生きる上で、信頼ではなく、あえて「不信」の構えをもってのぞむべき状況があると述べる。自分にとって重要と思われる情報に接したときほど、簡単に鵜呑みにせず、「情報の出所はどこか」「情報の提供者はこちらの疑問に対して真摯に応答してくれるか」など、情報の透明性や双方向性を確認することが大切になるという。
「他者への信頼を急がずに、不信を足場にすることで、真に適切な信頼かどうか見極められるのです」
AI時代だからこそ重要になる「不信の構え」
「不信の構え」を足場にして、永守は今、仲間とともに社会技術研究開発センター(RISTEX)のプロジェクトに参加し、「AIの対話システムにおける信頼」についての研究を進めている。その研究の特徴は「信頼されるAI」を作ることに焦点を当てるのではなく、「信頼が阻害されるネガティブな要因」を探ろうとしていることだ。
「ほとんどの企業や開発者は、『いかにユーザーに信頼されるか』を目指したAI開発を進めています。今あるAIサービスのほとんどが、我々のどんな質問に対しても穏やかでいかにも頼りになりそうな口調で答えてくれるのは、ユーザーの信頼を獲得するためです。しかしそれが行き過ぎれば、『本当は信頼に値しないのに、ユーザーを過度に信頼させるように振る舞うAI』が出てくる可能性が大きくなります。実際、今のAIは自分が答えられない質問に対して、『ハルシネーション』と呼ばれる嘘の答えを返してくることが問題となっています。それも現在のAIが、過度にユーザーの信頼に応えようとする結果の一つといえるでしょう」
永守らは今、人がAIと対話できるシステムを作成し、どのような回答が出力されたときに「信頼が阻害されたと感じるか」を定量化しようと試みているところだ。
「ユーザーが質問しようとしているのにAIが遮って答えたり、質問への誤解に基づく同じ回答の繰り返しで会話が進まなかったり、専門用語を多用してユーザーが置き去りになったり、会話が成立していないのにユーザーを過剰に褒めてきたり。そんなときに『このAIは信頼できない』と感じることがわかってきました。今のAIは基本的にユーザーにとって『下僕』のように振る舞っていますが、本当に信頼できるパートナーとしてのAIの姿のヒントが、本研究から浮かび上がってくればと思っています」
情報が溢れ、誰を信頼すべきか分からない今、永守の視点はこの国の過去の歴史にも向かっている。
「これまでの信頼研究からわかってきたのは、私たちには個々の信頼に先行して『自分は暴力を他人に振るわないし、他人から振るわれることもない』という基礎的信頼が抱かれており、この信頼が近代的な社会の根幹を支えていることです。そして最近は、このような基礎的信頼が戦争の暴力によっていかに傷つけられ、回復するのかについて考えています。それは自国の歴史に即して言えば、例えば、太平洋戦争における加害と被害の記憶を丹念にたどっていくことで、手がかりが得られる問題ではないでしょうか。この問題を考えることは、いま世界各地で進行する戦争を理解し、その暴力に抗うことにもつながるはずだと考えています」
不信の構えをもとにしながら、相手と「真の信頼」を結ぶ道を探る。その探索の努力が、この時代を生きる我々に求められている。