大野正英 – AIとどう向き合っていくべきか

大野正英

モラロジー道徳教育財団道徳科学研究所 研究主幹・教授

麗澤大学経済学部 教授

 

 

●「生成AI」の衝撃

 チャットGPTの普及によりどのような社会問題が起きると予想されるでしょうか。
 チャットGPTの普及により、以下の社会問題が予想されます。まず、偽情報の拡散やディープフェイクの増加により、社会的な混乱や信頼の崩壊が生じる可能性があります。また、チャットGPTを悪用したオンライン詐欺が増加し、個人や組織の財産やプライバシーが脅かされるでしょう。さらに、チャットGPTによる業務自動化が進むと、一部の労働者の雇用に影響を及ぼす恐れがあります。個人の依存と社会的孤立が増加し、人間との対話や人間関係が減少する可能性もあります。また、大量のデータを学習するため、ユーザーのプライバシーや個人情報が侵害されるリスクも懸念されます。これらの問題には適切な規制と倫理的なガイドラインの整備、技術的な対策の導入が必要です。

 以上の文章は、実はチャットGPTが作成したものです。冒頭の質問に対して400字以内で回答を求めたところ、ほんの数秒でこのような文章が作成されました。この内容はほぼ適確であると同時に、文章自体も日本語として自然な構成や文体となっており、チャットGPTの能力の高さが実感できるかと思います。チャットGPTのように文章を作成するAIの他にも画像や動画、音楽などを自動的に作成する機能を持つAIも開発されており、総称して「生成AI」と呼ばれていますが、昨年頃からその利用が急速に進み、実際にさまざまな業務にも活用されるようになっています。

 2016年から17年にかけて将棋や囲碁においてAIがトップ棋士を破るというニュースが続き、その技術の基盤となっているディープラーニング(深層学習)という手法が注目されました。これは人間が細かく教えることなく、大量のデータを読み込ませるだけで、機械自身がデータから自動的に特徴やパターンを学習する機械学習の手法の一つです。「生成AI」の爆発的な広がりはこうした技術の延長線上にありますが、その進化の速度は専門家の予測を上回るものです。ディープラーニングを利用したAIは、すでに自動運転、医療診断、機械翻訳など多様な分野で活用されていますが、「生成AI」の出現によって創作的な業務にまでその活用の可能性が広がりました。

 

 

●AIの活用において考えるべき課題

 活用の可能性が高いAIですが、その利用に際してAIの特性について気を付けるべき点があります。一つはブラックボックス問題といわれるもので、AIが何らかの判断を提示した場合、それがどのような根拠に基づいて下されたのかというプロセスが明らかではなく、人間が理解することができないという問題です。そのために、人間自身がその判断が正しいかどうかを検証することが難しく、根拠の不確かなままに意思決定を下さなければならないことが起こるわけです。この問題に関しては、AI自身に意思決定に至る過程を説明させるという「説明可能なAI」の開発が行われています。

 もう一つは、AIが人間と同じように意味を理解しているわけではないという点です。チャットGPTは人間と同じような文章を作成しますが、実際にはその文章の意味を理解しているわけではありません。意味を分かって文章を作っているのではなく、単に単語と単語のつながりを学習して最も可能性が高いと判断される回答を返してきているわけです。したがって、何らかの感情や価値観、道徳意識などを持って答えているわけではありません。こうした点をきちんと理解した上で活用することが必要です。

 AIの進歩と普及が私たちの社会をより効率的で便利にすることは間違いなく、今後その活用が加速度的に進むことは必然的ですが、一方でその影響が大規模で広範囲なものであるため、さまざまな倫理的・道徳的な問題を引き起こします。

 現在、危惧されている問題としては、フェイクニュースによる社会の混乱、詐欺等の犯罪への利用、プライバシーの侵害、著作権の侵害、無人兵器などの軍事利用、事故や判断ミスにおける責任の所在などが挙げられます。どれも深刻な問題ですが、ここでは長期的視点に立って、人間と機械との関係にとって本質的であり、社会全体に重大な問題を生み出す恐れのある二つの問題を取り上げてみたいと思います。一つは仕事や労働に及ぼす影響であり、もう一つは意思決定におけるAIへの過度の依存の問題です。

 

 

●仕事や労働に対する影響

 機械が人間の仕事を奪うことに対する危機意識は歴史上何度も登場しましたが、結局のところ新しい仕事が生まれ、雇用が増加することで長期的には大きな問題とはなりませんでした。しかし、AIについては少し事情が異なります。AIが人間の知的業務の領域まで進出し、その応用範囲が広範囲にわたるために、相当な範囲の仕事がAIに代替されうる一方で、人間にしかできないという新しい仕事が現時点ではなかなか見えてきません。

 具体的にはデータの整理や分析、書類の作成などのオフィス業務が特に影響を強く受け、コンピュータ・エンジニアの業務も将来的にはAIに置き換えられていくと考えられます。社会全体として失業が大量に発生するかどうかは、人口減少による労働力不足と相殺されるという見方もあり、現時点では不明確ですが、労働の二極化が進むことは確実であると考えられています。創造性やマネジメント能力が必要とされる一部の高度な業務と、特別な知識やスキルを必要としない多数の単純労働へ分かれるという見方です。前者はAIへ完全に置き換えることが難しく、人間の高い知識と能力が依然として必要とされる業務であり、後者は機械化するよりも人間を低賃金で雇ったほうがコストを抑えられる仕事です。この他に介護や看護、接客など人間による丁寧な対応が求められる仕事も、今後も人間が担っていくでしょう。全体としての雇用が確保されたとしてもこのような二極化が進むならば、社会における格差が拡大することになります。

 機械に仕事を任せることで、人間が労働から解放されるという見方もありますが、そのためには生活を保障する社会の仕組みづくりが必要となります。

 

 

●AIへの過度の依存

「AIが賢くなるほど人間はバカになる」と冗談交じりに言われることがありますが、実際に今後AIがより正確で適切な判断を下すようになると、AIに対する依存度はさらに高くなっていくでしょう。AIが提示した見解を参考にして、最終的には人間が判断を下すという形でAIが補助的な役割にとどまるのが理想的な関係でしょうが、現実にはAIが進歩すればAIの下した判断を人間がそのまま受け入れるケースが増えてくることが予想されます。

 すでにネット上では、個人の閲覧や購入の履歴を基にしてそれぞれの嗜好にあったものをお勧めするレコメンド機能があふれています。今後、さらにさまざまな分野でAIによるアドバイスが与えられるようになったとき、私たちは無意識のうちにそれを受け入れるようになっていく可能性があります。つまりAIを使いこなすのではなく、AIに動かされるようになってしまうわけです。AIが提示した答えに対して、それを評価できるだけの判断基準を人間の側が持たなければ、このような依存傾向は強まるばかりです。

 私たちは経験を積み重ねる中で自分なりの価値観や道徳意識を確立して、それに基づいてさまざまな判断を下していますが、AIを使いこなしていくためには、「自分の頭で考える」ことがより必要とされます。この点で特に子どもの教育においてAIをどのように導入していくかが非常に重要な課題となります。「自分で考える力」が十分に形成される前に、安易にAIを利用することに慣れてしまうと、AIに全面的に依存する人間となってしまいますので、それは極力避けなければなりません。

 AIのさらなる進歩と普及は必然ですが、それを社会の中でどのように使っていくかについては人間がコントロールする余地があります。そのためにも人間とAIの関係について社会全体で議論を進めていくことが喫緊の課題です。

 

(『まなびとぴあ』令和5年8月号「令和のオピニオン」㉚より)