Designing
New Context

Designing
New Context

禅の視点から問う、AIと「人間らしさ」技術者と哲学者が議論

多種多様なデジタル技術を駆使し、どのように社会をデザインするべきかーー。そんな問いを国内外の有識者との議論を通じて考えていくカンファレンス「NEW CONTEXT CONFERENCE(NCC)TOKYO 2025 Summer」が6月、東京都渋谷区のデジタルガレージ本社で開催された。第一線で活躍する起業家や技術者、哲学者らがテクノロジーと未来のあり方を熱く語り合ったイベントの模様を、連載で振り返る。

AIが急速に進化し、社会や価値観に大きな影響を与える中で、「禅」の精神が新たなヒントになるのではないか──。NCC TOKYO 2025 Summer「“Zen AI”とオープンソース」のセッションでは、技術者や哲学者といった多様な分野の専門家が集まり、AI時代における人間らしさや民主主義のあり方について議論が交わされた。

セッションではまず、LLMの課題を乗り越える可能性を持つAI技術「プロバブリスティックコンピューティング」を研究する千葉工業大学変革センター主席研究員の岡瑞起氏、シビックテックに取り組む一般社団法人コード・フォー・ジャパン代表理事の関治之氏、哲学者のTenzin Priyadarshi氏が講演。続くパネルディスカッションでは東京大学名誉教授でオープンなコンピュータアーキテクチャTRON開発者の坂村健氏と臨済宗妙心寺派仏母寺住職の松原正樹氏が加わり、伊藤穰一氏の進行で、技術と思想・哲学両面の視点からAIと人間との共生について語った。


<Speaker>
千葉工業大学変革センター主席研究員 岡 瑞起
一般社団法人コード・フォー・ジャパン代表理事 関 治之
MIT The Dalai Lama Center 所長兼CEO The Venerable Tenzin Priyadarshi Rinpoche
臨済宗妙心寺派仏母寺住職 松原 正
東京大学名誉教授・INIAD cHUB機構長 坂村 健

ファシリテーター:株式会社デジタルガレージ共同創業者 取締役 伊藤 穰一

(所属・肩書は公開時点)


生成AIの課題「プロバリスティックコンピューティング」で克服を

千葉工業大学の岡瑞起氏は、AIは博士課程レベルの科学的な質問に答えられるほど賢くなっている一方で、人間の子どもが簡単に解けるようなパターン認識の問題に苦労するなど、その成長の仕方は人間とは全く異なることを指摘。現在の生成AI、特にLLM(大規模言語モデル)が抱える課題として、AIが事実とは異なる情報を生成してしまうハルシネーションや、データが抱えるバイアスと価値観選択の問題、膨大な計算コストを挙げた。また、AIの答えがなぜ導き出されたのか、その理由を追跡する術がないという「ブラックボックス」の問題も深刻だ。

こうした課題を解決する可能性がある技術として、岡氏はマサチューセッツ工科大学(MIT)で15年以上研究されてきた「プロバビリスティックコンピューティング」を紹介した。この技術は、データが増えるにつれて背後にあるパターンをプログラムとして自動的に学習するもので、従来のAIのように大量のデータで学習するのではなく、少ないデータでもモデル化が可能である。また、学習結果がどのくらい確からしいかという不確実性も扱えるため、現実世界の問題をより的確にモデル化できる。モデルがプログラムで記述されるため、なぜそのような結果になったのかを読み解くことができ、必要に応じて変更することも可能だ。こうした特性を活かし、元データが少ない中での画像認識やノイズの多いデータのクリーニングなどの分野で実用レベルのアプリケーションが開発されているという。

岡氏はプロバリスティックコンピューティングの利点として、その透明性と解釈可能性、不確実性を扱えること、データ効率と柔軟性、そしてモジュール性を挙げた。岡氏は「Chat GPTのような中央集権的な巨大AIが注目されていますが、プロバブリスティックコンピューティングは小さな特化モデルをネットワークでつなげることで、エコシステム的に大きな知能を実現しようとする世界。中央集権的な技術が注目されるときは必ず分散化された解決策が出てくるもので、その一つのトレンドに沿っているのではないか」と期待を込めた。

「Plurality(多元性)」を反映したデジタル民主主義の可能性

続いて登壇したCode for Japanの関治之氏は「デジタル民主主義」をテーマに講演した。関氏はまず、オープンソースソフトウェアやオープンデータを公共財として活用することで、社会の格差を減らし、SDGsに貢献できるという「デジタル公共財」という考え方が世界で広がっていると説明した。この考えの実例として、東京都の新型コロナウイルス感染症対策サイトがオープンソースで公開され、多くのエンジニアの協力によって改善されていった事例や、市民参加型合意形成プラットフォーム「Decidim(デシディム)」が世界的に活用されている事例を紹介した。

しかし、関氏はテクノロジーの発展が民主主義を悪い方向に向かわせる可能性についても警鐘を鳴らした。SNSによる分断やエコーチェンバー現象、AIによる雇用不安など、さまざまな課題が顕在化していると述べ、台湾でオードリー・タン氏とグレン・ワイル氏が提唱している「Plurality(プルラリティ)」という考え方を紹介した。これは「社会的差異を超えたコラボレーションのための技術」として、多様な意見を持つ人々がテクノロジーを使って協調していくためのアプローチを指す。

熟議民主主義を促すような技術のあり方について、関氏が特に注目しているのは「ブロードリスニング」という概念だ。これはAIを使って多くの意見を要約・分析し、意思決定者に伝えやすくする技術で、意見のクラスタリングや可視化を可能にする。しかし、AIが要約した情報がそのまま事実として受け入れられたり、透明性のないまま自動化された意思決定に依存したりする危険性も指摘した。このため、アルゴリズムや学習データ、ソースコードの透明性と検証可能性がデジタル民主主義において重要であると述べた。

仏教の視点から考える、AIと倫理

Priyadarshi氏は、人間の営みを「帝国を築くこと」と「宇宙を築くこと」という二つに分けて語った。人類史には二種類の人物がいるとの考えを引用し、ひとつはアレクサンダー大王やナポレオンのような「帝国の建設者」。もうひとつは聖人や哲学者などの「宇宙の建設者」で、宇宙的視野から人間と世界の健全な関係を築こうとする者たちだと説明。そして現代のAI研究は「宇宙の建設者」の視点に立たなければならないにもかかわらず、現状は世界のごく少数の企業である「帝国の建設者」によって進められており、このままでは破滅のシナリオはそう遠くないと指摘した。

そして「AIは苦しむことができるか?」という問いを投げかけ、感情や苦痛を模倣することと実際に感じることの違いを強調した。AIは自己認識を持つ必要はないし、人間のような苦痛を理解することもできない。また、AIとSNSの結合が信頼や公共心を脅かし始めており、信頼、共感、思いやり、尊厳といった価値をどうAIに反映させるかが問われていると語った。そしてAIの発展がもたらすであろう大規模な失業や精神疾患の増加といった現実的な課題に目を向けるべきだと主張した。

最後に、Priyadarshi氏は「宇宙は原子ではなく物語でできている」という映画監督フランシス・コッポラの言葉を引用した。人間は物理学的な原子世界ではなく、記憶や経験や物語を通じて世界を理解している。よって人間にとってAIはどのような共感できる物語を持っているのかを考えることが重要だと説き、「変化は必ず訪れる。大切なのは、その変化をどう自らの手で導くかです」と締め括った。

人間とAIとの関係性の最適な設計とは?

パネルディスカッションでは、3名の登壇者に加え、臨済宗妙心寺派仏母寺住職の松原正氏、東京大学名誉教授の坂村健氏が加わり、より深い議論が展開された。

坂村氏は、システムやAIは「何か一つのものでなければならない」という考え方ではなく、多様なものが分散して協調する考え方が重要であると強調。坂村氏が籍を置く東洋大学の創設者・井上円了が日本の開国時に、世界の多様な文化や哲学を知った上で自分の頭で考える必要性を説いたことを挙げ、「非常に今の時代に合っている」思想だと紹介した。また「オープンであること」の意義を語り、自身の開発したTRONシステムがオープンアーキテクチャで進化した事例を紹介。GoogleがLLMの研究成果を論文として公開したこともAI分野のイノベーションに貢献したと評価した。一方で、現在のAI開発が再びクローズドな方向に向かっていることに懸念を示し、「議論していかなければならない点だと思う」と語った。

松原氏は禅の視点から、「和敬清寂」の精神や「当たり前を疑う」ことの重要性を語った。特に現代の学生がAIが生成した情報を疑わずに鵜呑みにする傾向に危機感を覚え、論文や情報源を引用することの重要性を日々教えていると述べた。また、自身の研究テーマである「伝統の創造」についても触れ、伝統は守るものではなく、時代のニーズに応じて発展させていくものであると語った。

議論は、AIが人間を操るような存在になる可能性や、AIが生成した情報が真実として受け入れられてしまう危険性についても及んだ。岡氏は、AIが「優しい」言葉で同調してくれるため、それに慣れた子どもたちが現実世界でコミュニケーションに苦労する事例や、AIに強い信念で誤った情報を何度も繰り返すと、AIがそれを正しいと認識してしまうという実験結果を紹介。AIの参照力が非常に強まっている中で、「どれだけ信念を持って『これは間違っている』と言えるようなメンタリティを作れるかが重要になってきている」と語った。

関氏は、AIを使った合意形成がテキストベースになりがちな点を指摘し、意見を表明するのが苦手な人々が取り残される可能性に言及した。また、「人間の合意形成はロジックだけではなく、その場の空気や雰囲気、体験によって形成される」ものだとして、言語情報だけではハックできない側面があるとも述べた。

伊藤氏の「AIモデルそのものをオープンにするべきか」という問いに対し、登壇者からはさまざまな意見が出た。Priyadarshi氏は悪用される危険性からクローズドにする理由に理解を示しつつも、オープンなプラットフォームなしにAIの真の民主化はあり得ないと述べた。一方、坂村氏は「クローズにしたい人はクローズに、オープンにしたい人はオープンにすればいい。一つの考え方しか許さないのは間違っている」と語り、多様なアプローチが共存することの重要性を強調した。

最後に、伊藤氏は日本の多様な視点を認める文化、「オタク的な多様性」がこうした複雑な課題を解決する上で重要な役割を果たすかもしれないと示唆し、パネルディスカッションは締めくくられた。

*動画はこちら(YouTube)
<Session1>“Zen AI”とオープンソース|NCC TOKYO 2025 Summer

<NEW CONTEXT CONFERENCE(NCC)>
デジタルガレージの共同創業者の林郁と伊藤穰一がホストとなり、最先端のインターネット技術やその周辺で生まれるビジネスに関心のある方々を対象に、2005年から開催しているカンファレンス。NCC TOKYO 2025 Summerは27回目の開催となった。
https://ncc.garage.co.jp/2025summer/

アーカイブ動画はこちら(YouTube)

Share

Follow Our Information