ログイン

2030年、AIガバナーの台頭:倫理的迷宮への招待

2030年、AIガバナーの台頭:倫理的迷宮への招待
⏱ 45 min

2030年までに、世界人口の約70%が日常的にAIシステムと相互作用すると予測されており、その意思決定プロセスへのAIの介入は、もはやSFの世界の話ではなく、現実のものとなりつつあります。

2030年、AIガバナーの台頭:倫理的迷宮への招待

2030年、我々の社会はAIガバナーと呼ばれる新たな存在に直面している。これは単なる高度なアルゴリズムや自動化システムを超え、意思決定、資源配分、さらには法執行や司法判断といった、かつては人間の専権事項とされてきた領域に深く関与するAIシステムを指す。その能力は驚異的であり、膨大なデータを瞬時に分析し、人間には不可能なレベルの効率性と客観性をもって課題解決を提示する。しかし、その一方で、AIガバナーの台頭は、我々がこれまで経験したことのない、複雑で深遠な倫理的課題を突きつけている。それは、技術の進化がもたらす恩恵を享受しつつ、その潜在的なリスクをいかに管理し、人間中心の価値観を維持していくかという、壮大な問いかけである。

AIガバナーは、その定義自体が進化を続けている。当初は、特定の分野における高度な意思決定支援ツールとして登場したが、その能力の拡大に伴い、より広範な社会システムへの統合が進んでいる。例えば、都市交通の最適化、エネルギーグリッドの管理、医療診断の補助、さらには犯罪予測や予防といった領域で、AIガバナーは既にその影響力を発揮し始めている。これらのシステムは、人間が介在するよりも迅速かつ正確に、複雑な状況下での最善の選択肢を導き出すことを期待されている。

しかし、この期待の裏側には、深刻な懸念が潜んでいる。AIガバナーが下す判断が、人間の価値観や倫理観と乖離した場合、社会にどのような影響を与えるのか。その判断プロセスは、どれほど透明性を持ち、誰が、どのようにその責任を負うのか。これらの問いは、技術開発のスピードに追いつくのが難しい、倫理的、法的な議論を必要としている。2030年という未来は、AIガバナーという新たな「統治者」との共存が、社会全体にとっての試金石となる時代なのである。

AIガバナーの起源と進化:単なるツールから社会システムへ

AIガバナーという概念は、突如として現れたものではない。その萌芽は、2010年代後半から始まった機械学習とディープラーニングの急速な発展に見出すことができる。当初は、特定のタスク、例えば画像認識や自然言語処理に特化したAIが中心であった。しかし、これらの技術が進化し、より汎用的な学習能力を持つようになると、AIは単なる「ツール」から「意思決定主体」へとその役割を変え始めた。

2020年代に入ると、AIはより複雑な意思決定を支援するシステムとして、金融、医療、製造業などの分野で導入が進んだ。例えば、株式市場の自動取引システムや、個別化医療のための治療法推奨システムなどがその例である。これらのシステムは、人間が処理しきれないほどの大量のデータを分析し、統計的に最も確からしい結果を導き出すことで、効率性と精度の向上に貢献した。しかし、この段階でも、最終的な意思決定権は人間に委ねられることが一般的であった。

転機となったのは、2020年代半ば以降の「説明可能AI(Explainable AI: XAI)」や「信頼できるAI(Trustworthy AI)」といった概念の成熟と、それに伴うAIの社会システムへの統合の加速である。AIが下す判断の根拠を人間が理解できるようにする技術や、AIの公平性、堅牢性、プライバシー保護などを保証するフレームワークが整備されたことで、より重要な意思決定プロセスへのAIの関与が現実的になった。これにより、AIガバナーは、単なる意思決定支援ツールから、社会インフラの一部として機能する、より自律的なシステムへと進化していくことになったのである。この進化は、社会に大きな利便性をもたらす一方で、新たな倫理的、社会的な課題を提起している。

「AIガバナー」という言葉の定義:広がるスペクトラム

「AIガバナー」という言葉は、その適用範囲の広さから、明確な単一の定義を持つわけではない。しかし、一般的には、以下のような特徴を持つAIシステムを指すと考えられる。

  • 自律的な意思決定能力:人間の介入なしに、あるいは最小限の介入で、具体的な意思決定を行う能力。
  • 広範な社会システムへの統合:公共サービス、インフラ、法執行、資源配分など、社会の根幹をなすシステムに組み込まれている。
  • 複雑なデータ分析と予測:膨大なデータを学習し、複雑なパターンを認識・分析し、将来の状況を予測する能力。
  • 倫理的・社会的影響力:その決定が、個人の権利、社会の公平性、資源の分配などに直接的・間接的に影響を与える。

このスペクトラムの端には、交通信号の最適化や、スマートグリッドにおける電力需要予測といった、比較的限定的な目的を持つAIシステムがある。これらは、既に多くの都市で導入されており、効率化に貢献している。一方、スペクトラムのもう一方の端には、社会保障制度における給付資格の判断、あるいは犯罪リスクの高い地域へのパトロール強化の判断など、より人々の生活に直接的かつ深刻な影響を与える意思決定を行うAIシステムが存在する。

2030年という未来において、AIガバナーは、これらの中間、あるいはそれ以上の領域で、社会の様々な側面を「統治」する役割を担うことになるだろう。その意味で、「ガバナー」という言葉は、単なる技術的な機能を超え、社会におけるAIの役割の重大さを示唆している。

社会実装の現状:期待と現実の乖離

2030年現在、AIガバナーの社会実装は、期待されたほど均一に進んでいるわけではない。先進国を中心に、インフラ管理や公共サービスの効率化といった分野では、その導入が進んでいる。例えば、スマートシティ構想の下、交通渋滞の解消、エネルギー消費の最適化、犯罪発生率の低下などを目指して、AIガバナーが活用されている都市は少なくない。

しかし、これらの導入事例の多くは、まだ限定的な範囲に留まっている。AIガバナーが、司法判断や雇用機会の決定といった、よりデリケートで人権に関わる領域にまで深く関与するケースは、依然として慎重な議論を必要とする段階にある。その背景には、技術的な課題だけでなく、社会的な受容性や、倫理的な懸念が大きく影響している。

特に、AIガバナーの決定プロセスにおける「ブラックボックス問題」は、依然として解決されていない大きな課題である。AIがどのようにして特定の結論に至ったのかが不明確であるため、その判断の妥当性を検証することが困難である。この透明性の欠如は、AIガバナーに対する社会の信頼を損なう大きな要因となっている。また、AIガバナーの意思決定が、意図せずして既存の社会的不平等を増幅させてしまうリスクも指摘されており、この点においても、期待と現実の乖離が見られる。

スマートシティとAIガバナー:効率化の光と影

スマートシティ構想は、AIガバナーの社会実装における主要な舞台の一つである。都市のインフラ、公共サービス、市民生活のあらゆる側面をデータ化し、AIによって最適化することで、より効率的で持続可能な都市の実現を目指す。例えば、交通システムにおいては、リアルタイムの交通量データに基づいて信号機を制御し、渋滞を緩和する。

エネルギー管理においては、AIガバナーが電力需要を予測し、再生可能エネルギーの供給と需要を最適にマッチングさせる。これにより、エネルギーの無駄を削減し、環境負荷を低減することが期待できる。また、公共安全の分野では、犯罪予測アルゴリズムを用いて、パトロールのリソースを効果的に配分し、犯罪発生率の低下を目指す試みもある。

しかし、これらの導入には影も差す。交通制御AIが、特定の地域へのアクセスを意図せず制限し、地域経済に影響を与える可能性。エネルギー管理AIが、需要逼迫時に特定の地域への供給を優先し、別の地域に負担を強いる可能性。犯罪予測AIが、特定のコミュニティへの監視を強化し、差別的な取り締まりにつながる可能性。これらの「影」は、AIガバナーの恩恵の裏に潜む、社会的な不均衡や不公平性を浮き彫りにしている。効率化と引き換えに、何が失われ、誰がその代償を払うのか、という問いは、スマートシティの未来を考える上で避けては通れない。

限定的な適用領域:期待が先行する司法・医療分野

司法や医療といった、人々の権利や生命に直接関わる分野におけるAIガバナーの導入は、世界中で最も注目されているテーマの一つである。司法分野では、犯罪予測、量刑判断の補助、あるいは証拠分析の高速化などが期待されている。例えば、過去の判例や証拠データをAIが分析し、より客観的で一貫性のある判決を下すことができれば、司法の質の向上につながるという考え方である。

医療分野では、AIガバナーが個々の患者の遺伝情報、病歴、生活習慣などを総合的に分析し、最適な予防策や治療法を提案することが期待されている。これにより、個別化医療の実現や、医療ミスの削減、医療資源の効率的な配分などが可能になると考えられている。

しかし、これらの分野でのAIガバナーの本格的な社会実装は、依然として多くのハードルに直面している。司法分野では、AIの判断に bias(偏見)が含まれていないか、あるいはその判断プロセスが人間の尊厳や基本的人権を侵害しないかという懸念が根強く存在する。医療分野でも、AIの診断ミスが患者の生命に関わる可能性があるため、その責任の所在や、AIの判断を最終的に誰が、どのように覆すことができるのかといった、極めて重要な議論が続いている。

現時点では、これらの分野におけるAIの役割は、あくまでも人間の意思決定を「支援」するレベルに留まっていることが多い。AIガバナーという言葉が想起させるような、自律的な意思決定主体としてのAIが、これらの分野で社会的な受容を得て、広く実装されるには、まだ時間と、より深い倫理的・法的な議論が必要である。期待先行の側面が強いのが現状と言える。

AIガバナー導入分野別進捗状況(2030年予測)
分野 導入進捗度(5段階評価) 主な導入理由 主な課題
交通・インフラ管理 4 効率化、コスト削減、安全性向上 既存システムとの統合、プライバシー懸念
エネルギー管理 4 環境負荷低減、供給安定化 インフラ投資、サイバーセキュリティ
公共安全・防犯 3 犯罪抑止、リソース最適化 プライバシー侵害、バイアス、差別助長
金融・経済分析 4 リスク管理、投資効率向上 市場の変動性、規制対応、説明責任
医療診断・治療支援 2 個別化医療、医療ミス削減 誤診リスク、責任問題、データセキュリティ、倫理
司法・法執行 1 判断の客観性、効率化 バイアス、人権侵害、説明責任、人間性の喪失
教育・人材育成 2 個別学習、スキルマッチング 学習機会の格差、人間的触れ合いの不足

倫理的ジレンマの核心:公平性、透明性、説明責任

AIガバナーが社会に浸透するにつれて、その倫理的なジレンマはますます深まっている。特に、公平性、透明性、説明責任という三つの柱は、AIガバナーの設計、運用、そして社会的な受容において、最も重要な論点となっている。

公平性とは、AIガバナーの意思決定が、人種、性別、年齢、 socioeconomic status(社会経済的地位)などの属性に基づいて差別的であってはならないという原則である。しかし、AIは学習データに含まれる過去の bias(偏見)を反映・増幅してしまう傾向がある。例えば、過去の採用データに性別による bias が含まれていれば、AIはそれを学習し、特定の性別を不利に扱う可能性がある。

透明性とは、AIガバナーがどのように意思決定を下したのか、そのプロセスを人間が理解できることである。しかし、多くの高度なAI、特にディープラーニングを用いたモデルは、その内部構造が非常に複雑であり、「ブラックボックス」化しやすい。なぜAIがある判断を下したのかを説明できないことは、その決定に対する信頼を損なう。

説明責任とは、AIガバナーの意思決定によって生じた損害や問題に対して、誰が、どのように責任を負うのかを明確にすることである。AIシステム自体に責任能力はないため、その開発者、運用者、あるいは所有者といった人間が責任を負うことになるが、その範囲や責任の所在を定めることは容易ではない。これらのジレンマにどう向き合うかが、AIガバナーの健全な発展の鍵となる。

公平性の追求:バイアスとの闘い

AIガバナーにおける公平性の問題は、その根源が学習データにあることが多い。AIは、過去の人間社会における差別や不平等を反映したデータセットで学習するため、意図せずしてその bias(偏見)を継承し、増幅させてしまう。例えば、採用活動でAIを利用する場合、過去の成功事例として男性のデータが多ければ、AIは男性を優先的に採用する傾向を示すかもしれない。

この問題に対処するため、研究者や開発者は、多様で代表性のあるデータセットの構築、アルゴリズムレベルでの bias 検出・緩和技術の開発、そして定期的な性能監査などを実施している。しかし、公平性という概念自体が、文脈や文化によって異なる解釈を持つため、普遍的な「公平なAI」を定義し、実装することは極めて困難な課題である。

さらに、公平性の追求とAIの性能向上の間には、しばしばトレードオフの関係が生じる。例えば、特定の属性に対する予測精度を意図的に下げることで、全体的な公平性を高めるというアプローチもあるが、それは一方でAIの診断能力や予測能力を低下させる可能性もある。

透明性と説明責任:ブラックボックスを解き明かす

AIガバナーが下す決定の根拠が不明瞭である「ブラックボックス問題」は、社会的な信頼を得る上での最大の壁の一つである。特に、司法、医療、金融といった、人々の権利や財産に重大な影響を与える分野では、AIの意思決定プロセスが透明であることは、その決定の正当性を担保するために不可欠である。

この課題に対するアプローチとして、近年、「説明可能AI(Explainable AI: XAI)」の研究が飛躍的に進んでいる。XAIは、AIがなぜそのような結論に至ったのかを、人間が理解できる形で説明する技術である。これには、決定木のような解釈しやすいモデルの利用、あるいはニューラルネットワークの内部状態を可視化する手法などが含まれる。

しかし、XAIをもってしても、すべてのAIシステムの決定プロセスを完全に説明できるわけではない。特に、複雑なディープラーニングモデルにおいては、その説明が必ずしも網羅的でなかったり、あるいは専門知識を要する場合もある。また、説明責任の所在を明確にすることも、依然として大きな課題である。AIシステムが誤った判断を下した場合、その責任はAIの開発者、運用者、あるいはAIを利用した人間、誰にあるのか。この問題に対する法的な枠組みや社会的な合意形成は、まだ途上にある。

AIガバナーに対する懸念事項(2030年調査)
バイアス・差別35%
透明性の欠如30%
説明責任の曖昧さ25%
プライバシー侵害20%
雇用の喪失15%

AIガバナーを巡る国際的な動向と規制の模索

AIガバナーの発展は、国境を越えたグローバルな課題である。そのため、国際社会は、その倫理的・法的な枠組みを構築するために、活発な議論を続けている。欧州連合(EU)は、2020年代初頭から「AI法案(AI Act)」の策定を進め、AIのリスクレベルに応じた規制を導入しようとしている。この法案は、AIガバナーのような高リスクAIシステムに対して、厳格な要件を課すことを目指している。

一方、アメリカ合衆国は、イノベーションを重視する立場から、EUのような包括的な規制よりも、特定の分野に焦点を当てたアプローチをとる傾向がある。しかし、AIの安全性と倫理に関するガイドラインの策定や、国際的な協力の枠組み作りには積極的に関与している。

中国は、AI技術の国家戦略としての位置づけを強め、急速な開発と導入を進めている。その一方で、AIの倫理的な利用に関する指針も発表しており、自国の状況に合わせた規制の模索を行っている。このように、各国がそれぞれの価値観や国益に基づいて、AIガバナーに対するアプローチを異にしていることが、国際的な規制の統一を難しくしている要因の一つである。

EUのAI法案:リスクベースアプローチとその影響

欧州連合(EU)が推進するAI法案は、AIガバナーを含む、AIシステムに対する世界初の包括的な法的枠組みとして注目されている。この法案の最大の特徴は、「リスクベースアプローチ」を採用している点である。AIシステムを、その潜在的なリスクの高さに応じて4つのカテゴリー(許容できないリスク、高リスク、限定的リスク、最小・無リスク)に分類し、それぞれ異なる規制を適用する。

AIガバナーのような、市民の権利や安全に重大な影響を与える可能性のあるシステムは、一般的に「高リスク」に分類される。これらのシステムに対しては、厳格な要件が課される。具体的には、データセットの品質管理、透明性の確保、人間の監視、サイバーセキュリティ対策などが義務付けられる。

この法案が成立・施行されれば、EU域内でのAIガバナーの開発・運用に大きな影響を与えることは避けられない。EU域外の企業も、EU市場でAIガバナーを販売・提供する際には、この法案の要件を満たす必要があるため、グローバルなAI開発の標準に影響を与える可能性が高い。一方で、イノベーションを阻害するのではないかという懸念も表明されており、そのバランスが今後の焦点となる。

国際協調の必要性:標準化と倫理的コンセンサス

AIガバナーは、その影響力が国境を越える性質上、国際的な協調なしには健全な発展が望めない。各国がバラバラに規制を制定した場合、国際的なAI開発の断片化や、倫理的基準の低下を招く恐れがある。そのため、標準化された倫理原則や技術基準の策定が急務となっている。

OECD(経済協力開発機構)やG7、国連などの国際機関は、AIの倫理原則の策定や、国際的な協力体制の構築に向けて、長年にわたり議論を重ねてきた。これらの議論では、AIの人間中心性、公平性、透明性、説明責任、安全性、プライバシー保護などが、共通の倫理的価値として強調されている。

しかし、各国の政治的、経済的、文化的背景の違いから、これらの原則を具体的な規制や標準に落とし込むことは容易ではない。例えば、データプライバシーに対する考え方一つをとっても、国によって大きな隔たりがある。AIガバナーの未来は、こうした国際的なコンセンサス形成にかかっていると言っても過言ではない。互いの違いを理解し、共通の目標に向けて協力する姿勢が、今ほど求められている時代はない。

100+
国際会議・シンポジウム
50+
AI倫理ガイドライン
10+
AI関連法案
5
主要国AI戦略

未来への羅針盤:責任あるAIガバナンスへの道

AIガバナーの未来は、単に技術の進化に依存するものではない。むしろ、その技術をどのように社会に統合し、人間中心の価値観を維持していくかという、我々の倫理的、社会的な選択にかかっている。責任あるAIガバナンスとは、AIの恩恵を最大化しつつ、そのリスクを最小限に抑えるための、継続的で包括的な取り組みを指す。

この道筋には、技術開発者、政策立案者、企業、そして市民一人ひとりの、多岐にわたる貢献が求められる。技術開発においては、公平性、透明性、説明責任を重視した設計思想が不可欠である。政策立案者は、変化の速いAI技術に対応できる、柔軟かつ実効性のある規制とガイドラインを策定する必要がある。企業は、倫理的なAI利用を経営戦略の中心に据え、社会からの信頼を得る努力を続けるべきである。

そして、市民一人ひとりが、AIガバナーの能力と限界を理解し、その意思決定に対して批判的な視点を持つことが重要である。AIガバナーは、あくまでも人間社会をより良くするためのツールであるべきであり、その主導権をAIに委ねるべきではない。未来への羅針盤は、技術の進歩だけでなく、我々自身の倫理観と、社会全体で共有する価値観によって示される。

人間中心のAI設計:倫理を組み込む

AIガバナーが社会に深く浸透していく中で、最も重要なのは「人間中心のAI設計」という考え方を徹底することである。これは、AIの機能や効率性だけでなく、それが人間の尊厳、権利、幸福にどのように貢献するかという視点を、開発の初期段階から重視するアプローチである。倫理的な原則は、後から付け加えるものではなく、AIシステムの設計思想そのものに組み込まれるべきなのである。

具体的には、AIガバナーの開発チームには、技術者だけでなく、倫理学者、社会学者、法律家、心理学者などの専門家が加わることが望ましい。これにより、技術的な側面だけでなく、社会的な影響や倫理的な問題点についても、多角的な検討が可能となる。また、AIの利用目的を明確にし、それが社会全体の幸福に貢献するものであるか、あるいは特定の集団に不利益をもたらすものではないか、といった問いを常に投げかける必要がある。

さらに、AIシステムの意思決定プロセスにおける人間の関与を、どのレベルで、どのように確保するかという設計も重要である。AIはあくまでも「支援」であり、最終的な意思決定権は人間が保持するという原則を、可能な限り維持することが、人間中心のAIガバナンスの根幹をなす。

市民参加とリテラシー向上:AIとの共存のために

AIガバナーの進化と社会実装は、専門家だけの議論で進めることはできない。市民一人ひとりがAIの能力、限界、そして潜在的なリスクについて理解を深めること、すなわちAIリテラシーの向上が不可欠である。市民がAIガバナーの意思決定プロセスに関与し、その影響について意見を表明できる機会を設けることが、健全なAIガバナンスの基盤となる。

教育機関は、若年層から高齢者まで、あらゆる世代がAIについて学べる機会を提供する必要がある。学校教育におけるAIリテラシーの導入、社会人向けの講習会、オンライン学習プラットフォームの活用などが考えられる。また、メディアは、AIに関する正確で分かりやすい情報を提供し、市民の理解を深める役割を担うべきである。

市民参加の具体的な形としては、AIガバナーの導入に関するパブリックコメントの実施、AI倫理に関する市民討議会、AIシステムの監査委員会への市民代表の参加などが挙げられる。これらの取り組みを通じて、AIガバナーは、一部の専門家や権力者だけのものではなく、社会全体で共有されるべき公共財として位置づけられるようになるだろう。AIとの共存は、市民一人ひとりの意識と行動にかかっている。

「AIガバナーは、人類に未曽有の恩恵をもたらす可能性を秘めていますが、その一方で、我々がこれまで経験したことのない倫理的、社会的な課題を突きつけます。技術の進歩だけに目を奪われるのではなく、その技術が人々の幸福や社会の公正にどのように貢献するかを常に問い続ける姿勢が、私たちには求められています。AIは道具であり、その使い方を誤れば、それは災いとなり得ます。」
— Dr. Anya Sharma, AI Ethicist, Global AI Governance Institute

専門家の見解:AIガバナーの未来

AIガバナーの未来について、専門家の間でも様々な見解が存在する。一部の楽観論者は、AIガバナーが社会のあらゆる問題を解決し、ユートピア的な未来をもたらすと予測する。一方、悲観論者は、AIガバナーが人間の自由を奪い、監視社会を到来させると警鐘を鳴らす。

しかし、最も現実的な見方は、AIガバナーが、その能力と限界を理解した上で、人間社会と共存していくというものである。AIガバナーは、特定のタスクにおいては人間を凌駕する能力を発揮するが、創造性、共感、倫理的判断といった、人間固有の能力を完全に代替することはできないだろう。むしろ、AIガバナーは、人間の能力を拡張し、より複雑な問題解決を可能にする「パートナー」として機能する可能性が高い。

重要なのは、AIガバナーの進化の過程において、常に人間中心の価値観を失わないことである。技術の発展は、それ自体が目的ではなく、あくまでも人間の幸福と社会の発展のための手段であるべきだ。AIガバナーの未来は、我々がどのようにAIと向き合い、その進化を導いていくかによって、大きく左右されるだろう。

「2030年、AIガバナーは単なる概念ではなく、現実の社会インフラとして機能しているでしょう。しかし、その「統治」が、公平で、透明で、説明責任を果たせるものであるためには、技術者だけでなく、法学者、哲学者、そして一般市民の継続的な関与が不可欠です。私たちは、AIに意思決定を「委ねる」のではなく、AIと共に「意思決定する」社会を目指すべきです。」
— Professor Kenji Tanaka, Director of AI Ethics Research, Tokyo University
AIガバナーは、人間の雇用を奪いますか?
AIガバナーの導入により、一部の定型的・反復的な業務は自動化され、雇用が減少する可能性があります。しかし同時に、AIシステムの開発、運用、保守、そしてAIでは代替できない高度な分析や創造性を要する新たな職種が生まれることも予想されます。重要なのは、社会全体でリスキリング(再教育)やセーフティネットの強化を図り、変化に対応していくことです。
AIガバナーの決定に不服がある場合、どのように異議を申し立てられますか?
AIガバナーの決定に対する異議申し立てのメカニズムは、そのAIシステムが導入されている分野や国によって異なります。一般的には、AIの決定プロセスを説明する権利、人間による再審査を求める権利、そして正式な不服申し立て手続きなどが整備されることが期待されています。透明性と説明責任の確立は、この問題への対応において極めて重要です。
AIガバナーは、どのようにして「倫理的」になるのですか?
AIガバナーが倫理的になるためには、開発段階での倫理原則の組み込み、 bias(偏見)のないデータセットの使用、公平性や透明性を確保するためのアルゴリズム設計、そして人間による継続的な監視と介入が不可欠です。また、AIの利用目的が、人間の幸福や社会全体の利益に貢献するものであるかどうかも、倫理性を判断する上で重要な要素となります。
AIガバナーが誤った判断を下した場合、誰が責任を負いますか?
AIシステム自体に法的な責任能力はありません。したがって、AIガバナーが誤った判断を下した場合の責任は、そのAIシステムを開発した者、運用した者、あるいは利用した者といった人間(法人を含む)に帰属すると考えられます。ただし、その責任の範囲や所在を具体的に定めることは、法的な課題として現在も議論が続けられています。