CISLP 京都大学大学院法学研究科附属法政策共同研究センター

E-Mail
京都大学大学院法学研究科附属法政策共同研究センター
新着情報

新着情報
研究会案内・研究会記録・お知らせ

研究会記録第2回 人工知能と法ユニット研究会 議事録
2021年06月10日

研究ユニット:人工知能と法

開催日時:2021527日(木)13001430

ユニットリーダー:稲谷龍彦教授

作成者:窪田栄一(特定研究員)

 

概 要

1 参加者(敬称略)

稲谷龍彦、曽我部真裕、吉政知広、山下徹哉、音無知展

 

2 研究会の実施報告

 5月25日に開催された研究会(「人と機械の協調動作時における事故に関する非難感情についての日英データの比較検証」)について、稲谷教授から実施報告がなされた。同研究会では、①自動運転車の事故に対する非難感情について日英で実施されたオンライン調査の結果報告、②自律的システムと人間の主体性感覚(sense of agency)の関係に関する報告が行われ、活発な議論が展開された。同研究会は今後も継続し、その成果を国際的な学術誌で公表する予定である(研究会の詳細は、「人と機械の協調動作時における事故に関する非難感情についての日英データの比較検証」研究会報告書を参照)。

 上記の議論について、定例ミーティングでは、欧州委員会の提案する「AIに関する包括的規則案(Proposal for a Regulation laying down harmonised rules on artificial intelligence)」との関連も指摘された。ハイリスクAIの規制において要求される「人間による監視(human oversight)」の問題など法的観点からも検討を進めていく予定である。

 

3 その他プロジェクトの進捗状況の報告

 その他進行中の複数のプロジェクトについて進捗状況の報告がなされた。

 また、新規の研究会および「人工知能と法」ユニットでのワークショップの開催も検討中である。

研究会記録人と機械の協調動作時における事故に関する非難感情についての日英データの比較検証
2021年06月10日

研究会名等:人と機械の協調動作時における事故に関する非難感情についての日英データの比較検証

研究ユニット:「人工知能と法」

開催日時:2021年5月25日(火)16:00~18:00  

ユニットリーダー:稲谷龍彦 教授

作成者:成鎮宇 特定研究員

 

概 要

 A. 参加者参加者(敬称略)

    Phillip Morgan, Christopher Wallbridge, Dylan Jones, Qiuan Zhang, Arpit Patel

    稲谷龍彦、浅田稔、上田祥行、勝野宏史、音無知展、守田知代、吉政知広

 B. 【議題Ⅰ】Rule of Law in the Age of AI: Distributive Principles of Legal Liability for Multi-Agent Societies

  ●日英で共同実施した自動運転車の事故に関する非難感情等についてのオンライン調査の結果報告

   ・本報告の目的は、自動運転車の事故に対する人々の感情判断における文化的な相違点と類似点(cultural differences and similarities)を明らかにすることである

   ・そのためにCardiff大学のPhillip Morgan教授のチームは、多様な運転条件と交通事故の状況を想定したシナリオに対して、日英両国の人々がどのように反応するのかを比較検証した

   ・その結果、①同様の状況と行為であっても、ヒューマンドライバーに比べ、自律運転システムに対する非難の水準が高く、このような傾向は交通事故がもたらすアウトカムの規模に影響を受けること(類似点)、②運転主体に関わらず、事故を引き起こした車両に対する非難の水準は、英国よりも日本の方が全般的に高いこと(相違点)、などが明らかとなった

   ・このように確認された類似点と相違点は、人と機械による事故への感情判断に普遍的な側面がある可能性と、その根底に異なるメカニズムがある可能性を同時に示唆している

  ●ディスカッション 

   ・自動運転車の経験水準や交通法規、運転慣行など、両国間における様々な異質性の影響が結果に反映されている可能性を指摘する意見や、交通事故の状況など、より具体化したシナリオの可能性を提言する見解などが示された

   ・これに対して、潜在的な交絡要因に対処しながら、①心理学的な行動メカニズム及び、多様な状況を想定した追加的なシナリオの導入、②ドライブ・シミュレーターやビデオ・レコーダーの活用などで、理論と分析方法の両面において改善を図っていくという答弁が行われた

C.【議題Ⅱ】Brainstorming for Behavioral Experiments

     ●認知科学の先行研究の検討を通じて、人と機械との協調動作時に指向すべき方向性を明らかにする

       ・人間の主体性(sense of agency)をどのように高めるか

         ・ラベルによる判断の歪曲など、機械の不適切なフィードバックとどのように相互作用するか

         ・自律化システムの知能水準に対する統制、システムの長所と短所についての理解

           ・反復して学習することでシステムのモニタリングを自動的・効率的にできるか

           ・交通事故が起きたとき、何を報告するべきか、その報告をどのように活かすか

             ・以上で示した側面は、危険性の高いAIシステムに対する規制のあり方や、自律運転システムのインタフェースの改善などを考えるうえで極めて重要な問題となる

               ・AIシステムのインターフェイスの改善に関して、EUと日本のAI規制の方針が異なる結論をもたらす可能性がある

             ●ディスカッション

                 ・自律運転システムのレベル区分に関する情報確認と、その理論的・実態的な重要性を問う質問や、自律度の水準と交通事故の状況認識、人々の感情判断との関係、人間型のインタフェースの活用、文化的な相違の影響など、多くの論点と今後の発展可能性に関する見解が示された

                   ・これに対して、①人間が介入する程度によって区分される自律運転システムのレベルを十分に考慮すべきであること、②日本の事例からすると、自動運転車の事故に対する人々の非難感情については、理論(もしくは、規範)と実態が乖離していること、③このギャップを埋める、そして人と機械との協調動作のパフォーマンスを改善させるためには、人間側もトレーニングを受ける必要がある、あるいは、④機械の側で人間の適切なパフォーマンスを引き出すべく介入する必要があること、⑤インターフェイスによる介入という方法をとらない場合、自律運転システムに関するライセンスやトレーニング・システムは持続的に設計される必要があることなど、活発な議論が行われた   

                D.【議題Ⅲ】今後の実験・論文執筆の計画

                    ● 英国側は、引き続き異文化間の研究(cross-cultural study)を発展させながら、その成果を学術論文として国際的な学術誌に公表する

                        ・人と機械による事故に対する感情判断の非対称性など、両国共通の傾向を規定する要因の解明

                        ・全般的な非難水準の程度など、両国で異なる傾向を規定する要因の解明

                        ● 日本側は、新型コロナウイルス感染症に関する昨今の状況を踏まえ、サーベイ調査やドラフトへのフィードバック、意見交換など、オンラインを中心とした協力活動を継続していくと共に、日本側での実験計画を策定し、英国側と共有する

                       

                      研究会記録第1回 人工知能と法ユニット研究会 議事録
                      2021年06月10日
                      • 研究ユニット: 人工知能と法ユニット(ユニットリーダー:稲谷 龍彦)
                      • 研究会名: 『マルチ・エージェント社会における法的責任分配原理』
                      • 開催日時: 202149日(金)AM 1000 AM 1130
                      • 記録作成: 青山 和志

                      1. 研究会参加者の紹介

                      本日出席の研究会参加者より自己紹介が行われた。

                       

                      2. 研究報告

                      ユニットリーダーの稲谷氏より『マルチ・エージェント社会における法的責任分配原理』をテーマとして、研究計画の説明が行われた。

                      2.1 研究背景

                      • 高度情報処理社会の進展に伴い、人間と機械が事故を起こすケースが懸念される。
                      • 現状の法制度は事故の法的責任をどのように分配するか不明確である。イノベーションを阻害せず、人間が安心して機械を使用するための法整備が必要である。
                      • そのためには人間の主体性に関する議論が必要であり、人は自由意志で機械をコントロールできるかが問われなければならない。

                       2.2 人間の主体性をめぐる理論

                      • 人間の主体性を把握するために、従来の定性的なアプローチと比較して、より共有可能性の高いモデルを構築する。
                      • 認知心理学における主体性理論と文化人類学のハイブリッド理論を援用する。
                      • モデル化に動学的ゲーム理論を用いることで、人間と機械の協調動作を見直す。

                       2.3 共同研究

                      • 現在、英国のカーディフ大学と共同でサーベイ調査を行っている。

                       2.4 期待される成果

                      • 認知心理学や文化人類学、ゲーム理論を用いた学際的研究による方法論的インパクトが期待される。
                      • 実践的意義として、研究から得られた知見をもとに政策提言を行うことで、政策決定におけるニーズに応えられる。
                      • 英国チームとの共同研究と国際的な研究拠点の形成を通じて国際連携を促進する。

                       2.5 サーベイ調査途中経過概要(カーディフ大学との共同研究)

                      • 人間と機械の協調動作に関する認識について、日英間で異なる結果が出つつある。
                      • 報告によると、英国では、機械が人間とコミュニケーションして事故を回避することまでは期待されていない。機械を個性ではなくシステムとして捉えている可能性が考えられる。
                      • ただし、サーベイ調査の回答率や回答への所要時間に改善すべき点がある。
                      • 5月以降、日英比較の詳細が提示される予定である。

                       2.6 今後の予定及び課題

                      • 英国のコロナ状況を注視しながら、英国側とのミーティングを継続する。
                      • 心理学的アプローチから、先行研究の報告を行う。その他、必要に応じてミーティングを開く。
                      • 事故の責任分配に関する実験を行う。
                      • 秋口までに、計画を具体化し、必要な人員を雇用する。

                       

                      3. ディスカッション

                      研究報告後、参加者より下記の論点について、ディスカッションが行われた。

                       3.1 サーベイ調査について

                      • サーベイ調査の回答率の低さが、調査結果にバイアスをもたらす可能性はないか。→ 統計量の確認に注意を払いつつ、今後の調査の改善に役立てる。
                      • 人工物に対する擬人化の度合いを確認できないか。→ 現在のサーベイ調査の結果を確認し、次の段階のオンラインサーベイで盛り込めるか検討する。

                        3.2 人間と機械への働きかけについて

                      • 好ましくない均衡状態にあるとき、人間と機械のどちらに働きかければよいか。→ 自分の意志で行ったつもりでも、結果がシステマティックに生じている可能性がある以上、人間に対して、別の方向に向かうように規範を押し付けるのは難しい。機械やその製作者に働きかけるのが望ましいか。

                       3.3 既存の規範理論とその適用可能性について

                      • 既存の規範理論は、機械との協調動作について、人間による完全なコントロールという遵守不可能な条件を求めている。
                      • 人間が環境による影響を受ける以上、自由意志の人間を前提とする義務論の適用は難しい。道徳的な主体として人間の最終的な介入を認める人たちとどう向き合うか。
                      • 政策決定における功利主義アプローチもまた、義務論と同じく一回的な決定に注目している。
                      • 人間と機械の事故は長期的・確率的事象であり、人間の多様性(習慣)と切り離すことはできない。人間の主体性には決定論的な因果論では捉えきれない部分が存在するため、まず人間の主体性感覚を把握しなければならない。

                       3.4 人間と機械のゲーム理論について

                      • 確率的事象として生じる人間と機械の協調動作をモデル化するうえで、動学的ゲーム理論が利用できる。ただし、利得表を用いたゲーム理論以外のアプローチも別途検討する。

                       

                      4. 次回日程、その他

                      5月末から6月初めにかけて、心理学的アプローチからの先行研究の報告を行う。

                      英国のコロナ状況が改善し、フィールドワークが進展した場合、7月を予定として日英の文化人類学に関する報告を行う。

                      お知らせ日独交流160周年記念オンラインシンポジウム「コロナ禍と憲法問題」
                      2021年05月22日

                      本年6月11日(金)に,日独交流160周年記念オンラインシンポジウム「コロナ禍と憲法問題」を立命館大学比較法制センターの主催,同国際平和ミュージアム平和教育センター・ドイツ法律家協会・コンラート・アデナウアー財団・ドイツ学術交流会友の会と本センターの共催で開催することになりました。

                      本センターから山本敬三センター長がコメンテーターとして参加します(本研究科から毛利透教授もコメントされます)。使用言語はドイツ語となります。

                      参加を希望される方は,こちらで事前に登録をしてください。

                      お知らせ未来社会とIT
                      2021年04月15日

                      特別講義の様子2021年4月15日に開催された情報学ビジネス実践講座(京都大学経営管理大学院)第1回特別講義「未来社会とIT」に,山本敬三教授(法政策共同センター長)と稻谷龍彦教授(人工知能と法・ユニットリーダー)が出講しました。

                      「自動運転を通じてAIと人と法制度を考える」というテーマで,自動車の自動運転技術を具体例に,人工知能と法制度の関係を検討しました。


                      お知らせ特定研究員採用式
                      2021年04月01日

                      2021年度採用式4月1日に発足した法政策共同研究センターに同日付で採用された特定研究員5名に対する採用式が,同日15時から,法学研究科小会議室で開催されました。

                      山本敬三センター長・待鳥聡史副センター長と,ユニットリーダー(服部教授・原田教授)が参加し,センターの概要や勤務内容等に関する説明を行いました。その後,参加者が長めの自己紹介を行い,特定研究員相互の親睦を深めました。

                      お知らせ法政策共同研究センター webサイト開設のお知らせ
                      2021年04月01日

                      2021年4月1日に,京都大学大学院法学研究科附属法政策共同研究センターが開設されました。これに併せて,センターのwebサイトを開設しました。まだ作成途上のコンテンツもありますが,なるべく早く全体を完成させたいと思います。

                      (4月6日追記)
                      webサイトのコンテンツ作成を完了しました。今後は新着情報を中心に更新を行います。