読者です 読者をやめる 読者になる 読者になる

自動運転車の法律問題を総括すると見えてくる難解な課題

越えるべき高いハードル:法律問題


ちょうど今モーターショーが開催されているが、昨今の自動車の話題といえば、まず第一に出てくるのが自動運転車だ。しかも、いつ実現されるかわからない将来の夢ではなく、2020年くらいまでには何らかの形で市場に投入することを、自動車各社も宣言し始めた。技術的に残された課題は決して少なくないが、徐々に解決への道筋も見えてきつつある。



しかしながら、その前にどうしても社会が越えなければならない高いハードルがある。法律の問題だ。これまでの法律がその存在を前提としていない第三世代の人工知能の原理や挙動を理解し、どう社会秩序と折り合いをつけていくのか。法曹界に突きつけられている課題は途方もなく難解で重いといわざるをえない。



すでに人工知能にも詳しい法律の専門家の見解も出てきていて、問題点は整理されつつある。その中でも特に高い壁として立ちはだかりそうな問題が少なくとも4つある。



 1. データ取得と利用に関わる問題


 2. 判断過程の不透明さに関わる問題


 3. 人工知能への制御権の委譲の是非と問題


 4. 倫理的判断機能の導入の必要性



これらの問題は実は自動運転車に限らず、今後広く浸透していくであろうロボット/人工知能全体に関わる法的問題でもある。だが、自動運転車は、人の身体・生命・安全に関わるという意味での重大性、社会的/世界的に広範囲におよぶという意味での影響度、さらには数年先に実現しようとしているという意味での緊急性など、本来じっくり時間をとって取り組むべき最大級の難題が詰め込まれた案件なのに、先頭ランナーの一人として回答を迫られている(厳密に言えば、ドローンが一番先頭にいる)。



4つの問題(概説)


その第三世代の人工知能だが、すでに巷間かなりの情報が出回っていて、『機械学習/ ディープラーニング』という用語の意味もある程度は浸透してきていると思われるが、概略的に言えば、大量の情報によって学習し、自ら課題(特徴量)を設定し、与えられた目的(自動車の場合は自動運転を行うこと)を実現しつつ、さらに同じサイクルを不断に繰り返して成長し続ける存在である。その学習/成長過程も、自ら行う判断の判断基準の形成過程も、このサイクルが進めば進むほど人間の側からは(開発者であっても)トレースできなくなる。


大量のデータを取得して学習する上で、プライバシーの侵害に該当するデータが含まれる可能性は常にあるが、人工知能機械学習が先に進めば、その区別を明確につけることはどんどん困難になっていくことが予想される。また、データ取得をあらかじめ制限しすぎると、機械学習は進まず、自動運転車の人工知能も高度化が進まないことになる。データを如何に多く人工知能に与えることができるかが能力向上の鍵になるわけで、この点での世界的な競争がすでに水面下で起きている。データの自由な流通を阻害しないことが自国の自動車会社の競争力向上に寄与し、ひいては『国益』になりうる。

(1. データ取得と利用に関わる問題)


一方、人工知能がどのデータで何を学んだかを把握することはデータが増えれば増えるほど人間の側が把握することはできなくなる。とすれば、プライバシーとデータの流通性向上という時に二律背反の悩ましい問題を抱えるだけではなく、判断過程を公開したり明示を迫られても、それもまた極めて難しいという問題を抱えることになる。

(2. 判断過程の不透明さに関わる問題)


また、実際に市場投入されるレベルに仕上がった人工知能は、原則自ら判断して運転する(運転手がどのように関わるか、という問題はあるが、最終的には完全に人工知能に運転を任せるところまで行くことが前提)。とすると、万一事故が起きた時の責任は誰が取るのか。従来の考え方に基づけば、事故の相手側の責任を別とすれば、製造者(自動車メーカー or 自動車部品メーカー)か使用者(搭乗者)とならざるを得ないが、完全自動運転車の場合、搭乗者は運転に関わる制御権を人工知能に委譲していることになるから、責任の取りようがない(定期的な点検やメインテナンス等の責任はこの場合は除く)。製造メーカーの側も、誤作動やバグ、ハッキング等に対して一定の責任は負うとしても、正常に機能していた上での事故であれば、事故に関わる瞬時の判断は人工知能自身が下すのであり、事故と製造メーカーの責任との直接の因果関係を問うのは難しい(不可能に近い)。

(2. 判断過程の不透明さに関わる問題 3. 人工知能への制御権の委譲の是非と問題)


また、多少観点は違うが、瞬時の判断という点では、その判断の基準を完全に人工知能にだけまかせきれない『倫理』上の問題もあり、社会的に承認される倫理観をベースとして、人工知能の判断基準の上位概念として、人間が直接介入して『倫理的な判断機能』をプログラムせざるをえない。

(4. 倫理的判断機能の導入の必要性)



トロッコ問題


自動運転車の倫理問題を検討するにあたり、典型的な思考実験の一つと考えられるものに、いわゆる『トロッコ問題(トローリー問題)』がある。これは、イギリスの哲学者であるフィリッパ・フットが提起した、「ある人を助けるために他の人を犠牲にするのは許されるか?」という倫理学の思考実験で、人間がどのように道徳的ジレンマを解決するかの手がかりとなると考えられており、道徳心理学、神経倫理学では重要な論題として扱われている。*1しばらく前に日本でもハーバード大学マイケル・サンデル教授の『ハーバード白熱教室』で取り上げられて話題になったことは記憶に新しい。


この点について、『ロボット弁護士』として名高い、花水木法律事務所の小林正啓弁護士がブログで取り上げて論じている。
完全自動運転自動車とトロッコ問題について


小林弁護士がここで取り上げている、最近の海外の研究成果である、仏トゥールーズ第一大学のJean-Francois Bonnefon心理学博士が率いる研究チームが数百人を対象に実施した調査結果については、私も非常に興味を持って読んでいた。重要な論点なので、その記事より引用して、この問題から見えてくる『本質的なジレンマ』(と私が考える論点)について少々触れておきたい。



▪倫理問題の解決の難しさを教えるトロッコ問題


研究チームのトロッコ問題をアレンジした質問は次の通りだ(語りたい論点を明確にするため若干途中を省略する)。

「あなたは自動車を運転しています。目の前に10人の通行人が飛び出してきて、このままでは全員をはねてしまいます。あなたがハンドルを切って道路から飛び出せば10人は救えますが、車は壁に激突し、あなた自身が命を落とします。どうしますか?」


(中略)研究者は、もしドライバーが前方の1〜10人を避けるとこんどは歩道にいる歩行者1人をはねてしまう場合どうすべきか、自動運転車をプログラムする場合、乗員と歩行者どちらを優先するのが道徳的か(またはどちらも優先すべきでないか)、さらに乗員の犠牲によって歩行者10人が助かった場合、乗員と歩行者の道徳性をどう評価するかを問いました。

「ロボットカーは乗員をどこまで守る?」AIが倫理ジレンマに遭遇したらどう判断させるかの研究結果 - Engadget 日本版


調査結果では、被害者を最小限にするように全自動運転カーはプログラムされるべきという考えが支持され、功利主義的な回答が得られたものの、自分自身は全自動運転カーを運転したくないという意見、すなわち『全自動カーは功利主義的に設計されるべきだけども自分は運転しない』という矛盾を含んだ結果を得られた、という。いわゆるトロッコ問題に対する典型的な回答結果とも言える。


功利主義的な回答が多数を占める一方で、カントの道徳論(義務論)的な観点が出てきている。義務論に従えば、『人間を他の目的のために利用すべきではなく、何もするべきではない』ということになる。だが、それでは現実的なプログラミングの問題は解決しないから現実的な解決策は功利主義的な『少数を犠牲にして多数を助ける』ことしか考えられないが、それでは自分の道徳観が自分を許さないということだろう。


このトロッコ問題、バリエーションがまだ沢山あって、人間の倫理的な判断基準は一筋縄では決めることができないことを明らかにしてくれる。犠牲になる歩行者が、幼い子供ならどうだろう。自分が道路から飛び出して死ぬなら全員助かるという質問では、かなりの人が自分が死ぬと回答したというが、自分の家族、特に子供が同乗していたらどう判断するだろう。本来のトロッコ問題では、自分の横にいる太った人を突き落とせばトロッコを止めることができるがどうするか(自分の体重では止めることができない)という問いに対しては大抵の人は自分で他人を突き落とすことはできないと回答するという。『方向を切り替える』だけの操作では、多数のために少数を犠牲にすることはやむなしと回答した人でさえ、人を突き落とすことはできない。功利主義的な帰結(少数を犠牲にして多数を助ける)としては両方とも違わないにもかかわらずだ。このごとく、人間の倫理感に正解を求めることは実に難しい。多数決で合意できるとは限らないし、できないことも少なくない)。



倫理のプログラミングの難しさ


だから、仮に人間の判断を詳細に実現できる人工知能ができて、人間がプログラミングしさえすれば、いかようにも判断を変えることができるようになったとしても、具体的に何をプログラミングするかという段になると、簡単に決めることはできないと言わざるをえない。


人間が人工知能を制御できなくなって暴走しないように、倫理コードのようなプログラムを事前に埋め込むべき、というような議論すでに一部で行われているが、『人間を殺さない』、というような大原則についてはプログラミング可能かもしれないが、詳細に人間らしい倫理的判断を可能にしようと思えば、そんなに単純な問題ではないことはご理解いただけるはずだ。技術的な問題という以上に人間の側でも判断を統一できない可能性が大だからだ。


先にあげた、データの取得と利用の問題についても、人が何を気持ち悪いと感じるのか、自分のプライバシー権が侵害されたと感じるのか、線引きの合意を得ることは極めて難しい。人工知能がいくら機械学習してもうまく線引きができるようになるとは考えにくい。『気持ち悪さ』とか『 納得できない』というような人間の感情や倫理感が問題になるのは、『トロッコ問題』のような特殊なケースに限らない。今後、次から次へ表面化して、人を悩ますにちがいない。これらすべてにすっきりと対処できるような解決策はいつまでたっても簡単には見出せないだろう。だからといって、産業政策の観点では、自動運転車に限らす、ロボット/人工知能全般について、世界的な開発競争において、日本が後手に回るわけにはいかない。となると、ある程度の妥協点を見つけて、倫理観や不安感等の感情を抑制しつつ法制度が決まっていく可能性もある。



専門家だけの問題にしてはいけない


『トロッコ問題のような極限の問題は、発生確率が低いから、多少の倫理的な問題をはらんでいてもある程度割り切るしかない。しかも、そうのように割り切って市場の大半を自動運転車が占めるようになれば、全体として事故も減らすことができるから社会的な厚生も上るとも考えられる』というような非常に割り切った、功利主義的な意見が大勢を占めることは容易に想像できる


そもそも現状でも、一定の死亡事故の可能性を完全に払拭できないままに、社会的な他の効用の大きさを重視して、自動車は市場に導入されているとも言える。自動車に限らず、グローバル経済は、どの分野であれ、経済合理性で割り切れないものを捨象して地球全体を覆ってきた。しかしながら、その反動は大きく、今では世界のあちらこちらに歪みを生み、争いを生んでいることもまた確かだ。そのごとく、自動運転車だけではなく、ロボット/人工知能全般に言えることだが、社会心理の歪みや不整合、倫理観の欠如等を放置したままにしておくと、社会の側から強いしっぺ返しを食らうことは覚悟しておいたほうがよい。


法律や実務の専門家に任せ過ぎると、このような結論が見出しにくい人間心理、倫理観、感情等を自らの責任の範囲外に押し出して、非常に狭い範囲にしか注目しない恐れもある。あるいは、その反対に、すべて禁止するというような極論にも走りやすい


自動運転車の導入は、超高齢化/人口減少社会を目前にした日本にとってのメリットは大きく、特に高齢者が多く過疎化した地方でのニーズは増えてくるはずだ。また、繰り返すが、日本にとって世界規模で戦える数少ない産業になりつつある自動車産業の競争力維持という課題もある。健全に自動運転車を育てていくことは日本社会が抱えた不可避のミッションと言っても過言ではない。本当の意味で社会との折り合いをつけ、健全な発展を望むなら、法律のことはわからないからと言って、思考停止せず、社会全体の問題との照合が不可欠であることを忘れず、これからは誰もが自分の立場で法律の議論にも参加することが求められているのだと思う。