道徳のメカニズムとAI

 令和6年6月5日、モラルサイエンス研究推進プロジェクトによるモラルサイエンス研究会(共通テーマ「道徳とAI」)を開催しました。

 報告者である鄭雄一先生(東京大学教授)からは「道徳のメカニズムとAI」をテーマにした報告がありました。報告では、まず、既存の道徳が抱える三つの未解決問題――①「誰が、なぜ、殺人はいけないと決めるのか?」、②「なぜ戦争や死刑では殺人が許容されるのか?」、③「(多様な)人唯全体に共通の道徳原理は無いのか?」――について、過去の道徳思想を例に挙げながら説明された。とくに①と②の過去の思想における基本的スタンス、前提は社会に重点を置くモデルと個人に重点を置くモデルといった大きく二つの視点に分類できることを述べられました。

 そして、道徳の基本原理についても、道徳の真の姿と既存のモデルには限界があるといった仮説をもとにした、戒律の考察からは、道徳には本来二面性(個別の掟と共通の掟の二重構造)があり、道徳の基本原理は「仲間らしくしなさい」にあることを提示されました。

 最後にはこれまで述べた内容を踏まえ、道徳のアルゴリズムを、基本的構成(他の動物と共通)・現実の人間的構成・理想的構成(AI、ロボット用)の三つに分けて紹介され、それぞれの構成に判定基準として「仲間らしさ」が導入されていることを示されました。

 報告後の質疑応答では、フロアからはたくさんのコメントや質問をいただき、とくにモラロジーの視点からの質問では活発な意見交換が行われました。

<文責:モラルサイエンス研究推進プロジェクト・リーダー 冬月 律>