ログイン

AI倫理の羅針盤:なぜ今、不可欠なのか

AI倫理の羅針盤:なぜ今、不可欠なのか
⏱ 28 min
PwCが2023年に発表した調査によると、日本企業の約65%がAI導入の加速を計画している一方で、AIの倫理的リスクに対する懸念が依然として高く、特にデータプライバシー、アルゴリズムの透明性、そしてバイアス問題が主要な課題として挙げられています。この統計は、AIの無限の可能性と、それに伴う社会的な責任との間の複雑なバランスを浮き彫りにしています。

AI倫理の羅針盤:なぜ今、不可欠なのか

人工知能(AI)は、私たちの生活、経済、そして社会のあらゆる側面に深く浸透しつつあります。自動運転車から医療診断、金融取引からコンテンツ推薦まで、AIはもはや未来の技術ではなく、現在のインフラとなっています。しかし、その急速な進化と普及は、新たな倫理的課題を提起しています。AIが下す決定は、個人の生活、企業の運命、さらには社会全体の公平性に直接影響を与える可能性があります。このため、AIの設計、開発、導入、そして運用において、倫理的な原則に基づいた明確な「羅針盤」が不可欠となっています。 倫理的AIとは、単に法律を遵守するだけでなく、公平性、透明性、説明責任、プライバシー保護、安全性、そして人間の尊厳尊重といった価値観を積極的に組み込んだAIシステムを指します。これらの価値観が欠如したAIは、意図せずとも差別を生み出し、プライバシーを侵害し、あるいは人間のコントロールを逸脱する恐れがあります。例えば、採用プロセスにAIを導入した企業が、過去のバイアスのあるデータに基づいて特定の性別や人種を不当に排除してしまうケースや、犯罪予測AIが特定のコミュニティを過剰に監視の対象とする事例などが報告されています。これらの問題は、技術的な欠陥というよりも、むしろ設計段階における倫理的配慮の不足に起因することが少なくありません。 AIの倫理的運用は、単なる道徳的な義務に留まらず、ビジネス上の戦略的優位性をもたらします。消費者は、透明で信頼できるAI製品やサービスを求める傾向にあり、企業が倫理的なAIを追求することは、ブランドイメージの向上、顧客からの信頼獲得、そして長期的な持続可能性に直結します。逆に、倫理的課題を軽視する企業は、法的制裁、風評被害、消費者からの不信といった重大なリスクに直面する可能性があります。AI倫理の羅針盤は、この複雑な技術の海を航海する上で、私たちが必要とする指針となるのです。

バイアスの深淵:AIの公平性を蝕むもの

AIシステムにおけるバイアス(偏り)は、その公平性と信頼性を根本から損なう最も深刻な問題の一つです。AIは学習データに基づいてパターンを認識し、意思決定を行いますが、もしその学習データ自体に社会的な偏見や不公平が含まれていれば、AIはそれを学習し、さらに増幅させてしまう可能性があります。この問題は、AIが人間の意思決定を代替する領域が拡大するにつれて、社会全体に深刻な影響を及ぼす恐れがあります。

データバイアスとアルゴリズムバイアス

AIにおけるバイアスは主に二つの形態に分類できます。一つは「データバイアス」です。これは、AIが学習するデータセットが、特定の集団を過小評価したり、偏った情報を含んでいたりする場合に発生します。例えば、顔認識システムが特定の肌の色の人物を正確に識別できない、あるいは融資審査AIが過去のデータに基づいて特定の属性を持つ申請者を不当に低く評価するといったケースです。学習データが現実世界の多様性を反映していない場合、AIはその不均衡を固定化し、差別を助長する結果となります。 もう一つは「アルゴリズムバイアス」です。これは、AIモデルの設計やアルゴリズム自体に、意図せず特定の偏りが組み込まれてしまう場合に発生します。例えば、最適化目標の設定が特定のグループに有利に働くように設計されたり、特徴量エンジニアリングの段階で特定の属性が過度に重視されたりすることで、結果的に不公平な決定が下されることがあります。アルゴリズムが複雑で「ブラックボックス」化している場合、どこでバイアスが生じているのかを特定し、修正することは非常に困難になります。
バイアスの種類 具体例 社会への影響
データバイアス(歴史的バイアス) 過去の差別的データに基づく採用AIの性別・人種偏向 雇用の機会不均等、社会的格差の固定化
データバイアス(サンプリングバイアス) 特定の地域や集団に偏ったデータによる顔認識精度の低下 犯罪捜査やセキュリティにおける誤認逮捕のリスク増大
アルゴリズムバイアス(評価基準) 特定の集団に対する予測エラー率が高い医療診断AI 医療格差、生命の危険
アルゴリズムバイアス(インタラクション) ユーザーからのフィードバックにより偏りが増幅される推薦システム フィルターバブル、情報多様性の喪失

バイアスに対処するための戦略

バイアスに対処するためには、多角的なアプローチが必要です。まず、学習データの収集とキュレーションの段階で、多様性と代表性を確保することが極めて重要です。異なる人種、性別、年齢、文化、社会経済的背景を持つデータを含めることで、データバイアスを軽減できます。また、データの偏りを検出するためのツールや手法(例えば、属性ごとの分布分析や公平性指標の導入)も活用すべきです。 次に、アルゴリズムの設計と評価プロセスにおいても、公平性を考慮に入れる必要があります。モデルの透明性を高め、意思決定プロセスを解釈可能なものにする「説明可能なAI(XAI)」技術は、アルゴリズムバイアスを発見し、修正する上で役立ちます。さらに、開発者は、モデルの性能評価において、単一の精度指標だけでなく、異なる属性グループ間での公平性指標(例えば、性別や人種ごとの真陽性率や偽陽性率の比較)も考慮に入れるべきです。
「AIにおけるバイアスは、技術的な問題であると同時に、社会的な問題でもあります。私たちは、AIが学習するデータが社会の偏見を反映していることを認識し、能動的に多様性と公平性を追求しなければなりません。そうでなければ、AIは私たちの最も暗い側面を増幅させる道具となってしまうでしょう。」
— 山本 恵子, 東京大学AI倫理研究センター 教授

プライバシーの壁:個人情報保護とAIの共存

AIの進化は、大量のデータ収集と分析に支えられています。特に、パーソナライズされたサービスや高精度な予測を実現するためには、個人の行動履歴、健康情報、位置情報といった機微なデータが不可欠となるケースが少なくありません。しかし、このようなデータの利用は、個人のプライバシー侵害のリスクを常に伴います。AI時代において、いかにしてイノベーションを追求しつつ、個人のプライバシー権を確実に保護するかは、極めて重要な課題です。

データ収集から利用までのプライバシーリスク

AIシステムにおけるプライバシーリスクは、データのライフサイクル全体にわたって存在します。 まず「データ収集」の段階では、ユーザーが自身のデータがどのように利用されるかを十分に理解せず同意してしまう、あるいは企業が必要以上のデータを収集してしまうといった問題があります。スマートデバイスやIoT機器の普及により、意図せず個人情報が収集・共有されるケースも増えています。 次に「データ保存と処理」の段階では、データ漏洩やサイバー攻撃による情報流出のリスクが存在します。また、匿名化されたデータであっても、他の情報と組み合わせることで個人の特定が可能になる「再識別」のリスクも指摘されています。 「データ利用」の段階では、収集されたデータが当初の目的を超えて利用されたり、差別的な意思決定に利用されたりする懸念があります。例えば、健康データを基に保険料が不当に高額になる、あるいは求職者のSNS投稿履歴が採用判断に影響するといった事態です。
90%
AI企業がデータプライバシーを主要な懸念事項と認識
75%
消費者がAIによる個人データ利用に懸念を表明
320億ドル
2023年のデータ侵害による世界経済損失(推定)

プライバシー保護技術と法規制の進化

AIによるプライバシー侵害のリスクに対処するため、技術的、そして法的なアプローチが進められています。技術的な側面では、「差分プライバシー」「連合学習(Federated Learning)」「準同型暗号」といったプライバシー保護強化技術(Privacy-Enhancing Technologies: PETs)が注目されています。 差分プライバシーは、データセットにノイズを加えることで個人の特定を防ぎつつ、統計的な分析を可能にする技術です。連合学習は、個々のデバイス上でAIモデルを学習させ、モデルの更新情報のみを中央サーバーに集約することで、生データを外部に送信せずにAIを強化する手法です。準同型暗号は、暗号化されたデータのままで計算処理を可能にする画期的な技術であり、データの機密性を完全に保ちながらAI分析を行う未来を拓く可能性を秘めています。 法規制の面では、EUのGDPR(一般データ保護規則)が世界的なプライバシー保護の標準となり、AI開発企業に対しても厳格なデータ保護義務を課しています。日本においても個人情報保護法が改正され、個人の権利保護が強化されています。これらの法規制は、企業に対し、透明なデータ利用方針の策定、同意取得の厳格化、データ主体が自身のデータにアクセスし、修正・削除する権利(忘れられる権利)の保障などを求めています。AI開発者は、これらの法規制を遵守し、倫理的なデータ利用プラクティスを設計段階から組み込むことが不可欠です。プライバシーの壁を乗り越え、AIと個人の共存を実現するためには、技術と倫理、そして法規制が三位一体となって機能する必要があります。

コントロールの行方:自律型AIと人間の意思

AIが高度化し、自律性を増すにつれて、「誰が、何を、どのようにコントロールするのか」という問いが、倫理的AIの議論の中心に据えられるようになっています。特に、意思決定プロセスが複雑で人間には理解しにくい「ブラックボックス」化したAIや、人間の介入なしに自律的に行動するシステムが増える中で、人間の意思との整合性をいかに保つかが喫緊の課題となっています。

自律性増大に伴う責任の所在

自律型AIシステムは、人間の介入なしに環境を感知し、意思決定を行い、行動を実行する能力を持っています。自動運転車はその典型的な例であり、緊急時に人命に関わる判断をAIが下す可能性があります。このようなシステムが誤作動を起こしたり、予期せぬ結果を引き起こしたりした場合、その責任は誰に帰属するのでしょうか? 開発者、運用者、所有者、それともAIシステム自体でしょうか? 既存の法制度や倫理的枠組みは、AIの自律性増大という新たな状況に対応しきれていないのが現状です。 この問題は、「説明責任(Accountability)」と「透明性(Transparency)」の欠如と密接に関連しています。AIがどのようにして特定の決定に至ったのかが不明瞭である場合、その決定の妥当性を評価したり、間違いを特定して改善したりすることが困難になります。これは、AIの利用が社会に与える影響が大きくなるにつれて、より深刻な問題となります。特に、人権に関わる決定(例:司法、医療、雇用)においては、AIの意思決定プロセスが人間によって理解・検証可能であることが不可欠です。
AIにおける主要な倫理的懸念(2023年調査)
バイアスと公平性85%
プライバシー侵害80%
コントロールと責任78%
透明性と説明責任72%
雇用への影響60%

ヒューマン・イン・ザ・ループとセーフティネット

AIの自律性を許容しつつ、人間の意思とコントロールを確保するためには、「ヒューマン・イン・ザ・ループ(Human-in-the-loop)」の原則が重要です。これは、AIシステムが自律的に動作する中で、重要な判断ポイントや異常事態が発生した際に、必ず人間の介入や承認を求める仕組みを組み込むことを意味します。例えば、医療診断AIが重篤な病気を検出した場合、最終的な診断と治療方針の決定は医師が行う、といった運用です。これにより、AIの効率性と人間の専門知識・倫理的判断を両立させることができます。 また、AIシステムが予期せぬ振る舞いをしたり、危険な状況に陥ったりした場合に、システムを安全に停止させる「キルスイッチ」や、人間の監視下でAIを訓練・検証する「サンドボックス環境」などのセーフティネットを設けることも不可欠です。これらの仕組みは、AIが人間のコントロールを完全に逸脱することを防ぎ、潜在的なリスクを最小限に抑える役割を果たします。 最終的には、AIはあくまでツールであり、その目的は人間の生活を豊かにし、社会に貢献することであるという認識を共有することが重要です。AIの設計者、開発者、運用者、そして政策決定者は、AIが社会の価値観と調和し、人間の尊厳を尊重する形で利用されるよう、継続的に議論し、実践的なガイドラインを策定していく責任を負っています。
「AIの自律性が高まるほど、私たちは『AIが何をすべきか』ではなく、『人間がAIに何をさせるべきか』という問いに真剣に向き合う必要があります。究極のコントロールとは、技術の進歩を人間の倫理的枠組みの中にしっかりと位置づけることなのです。」
— 田中 健一, 京都大学情報学研究科 特任准教授

国際的な動向と規制の枠組み

AI倫理に関する議論は、もはや一国だけの問題ではありません。AI技術は国境を越えて瞬時に伝播し、その影響はグローバルな規模に及びます。このため、国際社会はAIの倫理的開発と利用を促進するための共通の原則や規制枠組みの構築に向けて、活発な議論と協調を進めています。

主要国の政策とイニシアチブ

世界各国は、AIの倫理的側面に対する重要性を認識し、それぞれの国家戦略や法規制を策定し始めています。 * **欧州連合(EU):** EUは、AI倫理の議論において最も積極的な地域の一つです。2021年には、リスクベースアプローチに基づいた包括的な「AI法案(AI Act)」を提案しました。この法案は、AIシステムをリスクレベルに応じて分類し、高リスクAIに対しては厳格な適合性評価、透明性要件、人間の監視などの義務を課すものです。EUのAI法は、世界の他の地域におけるAI規制に大きな影響を与えることが予想されています。 * **アメリカ:** アメリカは、AIのイノベーションと競争力維持を重視しつつ、倫理的課題にも取り組んでいます。国立標準技術研究所(NIST)は、「AIリスク管理フレームワーク」を公開し、企業がAIのリスクを特定、評価、軽減するためのガイダンスを提供しています。また、ホワイトハウスは「AI権利章典の青写真」を発表し、AIが個人の権利を侵害しないための原則を提示しています。 * **中国:** 中国は、AI技術の開発において世界をリードする一方で、AIの倫理的利用に関する規制も強化しています。2021年には、アルゴリズム推薦サービスや深層学習技術に対する規制を導入し、アルゴリズムの透明性やユーザーの選択権を保護する方針を示しました。また、合成メディア(ディープフェイク)に対する規制も先行して導入しています。 * **日本:** 日本政府は、G7議長国として「広島AIプロセス」を主導し、国際的なAIガバナンスの議論を推進しています。国内では、総務省が「AI開発ガイドライン」を、経済産業省が「AI原則の実践のためのガバナンス・ガイドライン」を策定し、企業がAI倫理を実践するための具体的な指針を提供しています。日本は、AIの健全な社会実装に向けて、技術と倫理の両面からアプローチしています。
国/機関 主要なAI倫理規制/イニシアチブ 特徴
EU AI法案 (AI Act) リスクベースアプローチ、高リスクAIへの厳格な規制
アメリカ AIリスク管理フレームワーク、AI権利章典の青写真 イノベーション重視、リスク管理と個人の権利保護
中国 アルゴリズム推薦管理規定、合成メディア規制 特定技術領域への規制、国家安全保障と社会安定の重視
日本 広島AIプロセス、AI開発ガイドライン、ガバナンス・ガイドライン 国際協調、社会実装と倫理的利用の両立

国際的な協調と標準化の動き

AI倫理の課題は国境を越えるため、国際的な協調と標準化の動きが活発化しています。OECD(経済協力開発機構)は、2019年に「AI原則」を採択し、包摂的成長、人間の中心性、透明性、強靭性、説明責任といった共通の価値観を提示しました。これは、多くの国や地域におけるAI政策の基礎となっています。 また、ユネスコ(国連教育科学文化機関)も「AI倫理に関する勧告」を採択し、加盟国に対しAI倫理の枠組みを国内法に取り入れるよう促しています。ISO(国際標準化機構)やIEEE(電気電子学会)といった標準化団体も、AIの信頼性、透明性、公平性に関する技術標準の策定を進めており、これらの国際標準は、AI製品やサービスがグローバル市場で受け入れられるための重要な基盤となります。 AIがもたらす便益を最大化し、リスクを最小化するためには、各国が協力し、共通の倫理的原則と技術標準に基づいてAIを開発・運用することが不可欠です。この国際的な協調の動きは、AI倫理の羅針盤をより強固なものにし、持続可能なAI社会の実現に向けた重要な一歩となります。 総務省:AI開発ガイドライン
経済産業省:AI原則の実践のためのガバナンス・ガイドライン

企業と個人の責任:実践的な倫理的AIの構築

AI倫理は、抽象的な概念に留まるものではありません。それは、AIを開発し、導入し、利用するすべてのステークホルダーが、日々の業務の中で実践すべき具体的な責任を伴います。企業は倫理的AIガバナンスの確立に、個人はAIリテラシーの向上に、それぞれ主体的に取り組む必要があります。

企業における倫理的AIガバナンスの確立

企業にとって、倫理的AIの構築は単なる法令遵守を超えた、事業戦略の中核をなす要素となりつつあります。効果的な倫理的AIガバナンスを確立するためには、以下の要素が不可欠です。 1. **AI倫理原則の策定と浸透:** 企業独自のAI倫理原則を明確に策定し、それを企業文化として組織全体に浸透させることが重要です。経営層からの強いコミットメントが求められます。 2. **倫理審査体制の構築:** AIシステムの開発・導入プロセスにおいて、倫理的リスクを評価し、適切な対策を講じるための独立した倫理委員会や審査プロセスを設置します。多様な専門家(技術者、倫理学者、法律家、社会学者など)による多角的な視点を取り入れることが望ましいです。 3. **透明性と説明責任の確保:** AIの意思決定プロセスを可能な限り透明にし、その判断理由を人間が理解できる形で説明できるメカニズムを導入します。これは、特に高リスクAIにおいて不可欠です。 4. **公平性・プライバシー保護の技術的実装:** データの収集、処理、利用の各段階で、バイアス検出・軽減技術、プライバシー保護強化技術(PETs)などを積極的に導入します。 5. **従業員への教育とトレーニング:** AI開発者、データサイエンティスト、製品マネージャーなど、AIに関わるすべての従業員に対し、AI倫理に関する継続的な教育とトレーニングを実施し、倫理的意識を高めます。 6. **第三者監査と継続的改善:** 外部の専門家によるAIシステムの倫理的監査を定期的に実施し、評価結果に基づいてシステムやガバナンス体制を継続的に改善していくPDCAサイクルを確立します。 7. **ステークホルダーとの対話:** 顧客、市民社会、規制当局など、様々なステークホルダーとの対話を通じて、AIの倫理的課題に対する社会の期待を理解し、企業活動に反映させます。

個人に求められるAIリテラシーの向上

AIが社会のインフラとなる中で、私たち一人ひとりにも、AIとの健全な関係を築くための責任が求められます。それは、「AIリテラシー」の向上として具体化されます。 1. **AIの基本的な仕組みの理解:** AIがどのように学習し、意思決定を行うのか、その限界は何かといった基本的な知識を持つことは、AIの情報を批判的に評価する上で不可欠です。 2. **情報源の吟味:** AIが生成した情報(テキスト、画像、音声など)は、必ずしも真実であるとは限りません。フェイクニュースや誤情報の拡散源となる可能性もあるため、常に情報源を吟味し、複数の情報源で確認する習慣を身につける必要があります。 3. **プライバシー意識の向上:** 自身のデータがAIによってどのように利用されているのかを意識し、不必要な情報を提供しない、プライバシー設定を適切に行うなど、自己防衛の意識を持つことが重要です。 4. **AIへの批判的思考:** AIの提案や判断を盲目的に受け入れるのではなく、常に「なぜそう判断したのか?」「他に選択肢はないのか?」といった批判的な視点を持つことが、人間の判断力を維持する上で重要です。 5. **倫理的対話への参加:** AI倫理に関する社会的な議論に積極的に参加し、自身の意見を表明することで、AIの健全な発展に貢献することができます。 AIは強力なツールであり、その力を善用するか悪用するかは、最終的にそれを扱う人間の倫理観と責任感にかかっています。企業と個人がそれぞれの立場で責任を果たし、協力することで、初めて倫理的なAI社会の構築が可能となります。

未来への展望:倫理的AIが拓く社会

AI技術の進化は止まることなく、私たちの想像を超えるスピードで進んでいます。汎用人工知能(AGI)や超知能(ASI)といった概念が現実味を帯びる未来において、倫理的AIの羅針盤はさらにその重要性を増すでしょう。倫理的AIが拓く社会とは、単に技術的な進歩を享受するだけでなく、その進歩がすべての人にとって公平で、安全で、持続可能なものであることを保障する社会です。 倫理的AIが深く根付いた社会では、AIは人間の能力を拡張し、より創造的で、より人間的な活動に集中できる環境を提供します。例えば、AIはルーティンワークを自動化し、医師は患者との対話により多くの時間を割けるようになるかもしれません。教育現場では、AIが生徒一人ひとりの学習スタイルに合わせたパーソナライズされた指導を提供し、教育格差の是正に貢献する可能性もあります。科学研究においては、AIが新たな発見を加速させ、人類が直面する地球規模の課題(気候変動、パンデミック、貧困など)の解決に貢献するでしょう。 しかし、この理想的な未来を実現するためには、乗り越えるべき課題が山積しています。技術的な側面では、AIの透明性や説明責任をさらに高めるための「説明可能なAI(XAI)」の進化が不可欠です。また、悪意のあるAI利用(例えば、自律型兵器や大規模なプロパガンダ)を防ぐための国際的な枠組みと、その実効性を担保するメカニズムの構築も急務です。社会的な側面では、AIによる雇用の変化に対応するための再教育プログラムや社会保障制度の充実、そしてAIがもたらす情報格差の是正が求められます。 究極的には、倫理的AIが拓く社会とは、技術の力を人間の価値観と深く結びつけ、テクノロジーを単なる道具としてではなく、人類の進歩と幸福に貢献するパートナーとして位置づける社会です。このビジョンを実現するためには、AIの研究者、開発者、政策立案者、倫理学者、そして市民社会が継続的に対話し、協力し、倫理的AIの原則を日々の実践に落とし込んでいく必要があります。 AIは、私たちに巨大な力をもたらします。その力をどのように使いこなすかは、私たち自身の選択と責任にかかっています。倫理的AIの羅針盤をしっかりと手放さず、公平性、プライバシー、そして人間のコントロールを常に最優先することで、私たちはより良い未来を築くことができるでしょう。 Wikipedia: AI原則 Reuters: PwC survey on AI adoption (英語記事)
AIにおけるバイアスとは何ですか?
AIにおけるバイアスとは、AIシステムが特定の集団や属性に対して不公平な判断を下したり、偏った結果を生成したりする傾向を指します。これは、学習データに含まれる偏見(データバイアス)や、アルゴリズムの設計上の問題(アルゴリズムバイアス)に起因することが多いです。例えば、特定の性別や人種に対する採用選考での不公平な評価や、顔認識システムが特定の肌の色の人物を正確に認識できないといった問題が挙げられます。
AIのプライバシー侵害リスクにはどのようなものがありますか?
AIは大量の個人データを分析するため、プライバシー侵害のリスクが伴います。具体的には、ユーザーが同意しない形でのデータ収集、データ漏洩による個人情報の流出、匿名化されたデータの再識別による個人の特定、そして収集されたデータが当初の目的を超えて利用されることによる不利益(例:健康データに基づく差別的な保険料設定)などが挙げられます。
「ヒューマン・イン・ザ・ループ」とは何ですか?
「ヒューマン・イン・ザ・ループ(Human-in-the-loop)」とは、AIシステムが自律的に動作する中で、重要な意思決定や異常事態の発生時に、必ず人間の介入や承認を求める仕組みを組み込むことを指します。これにより、AIの効率性と人間の倫理的判断や専門知識を両立させ、AIが人間のコントロールを逸脱するリスクを軽減することを目的としています。
AI法案(EU AI Act)はどのような内容ですか?
EUのAI法案は、AIシステムをそのリスクレベルに応じて分類し、高リスクAIに対しては特に厳格な規制を課すものです。具体的には、高リスクAIには、厳格な適合性評価、透明性要件、人間の監視、堅牢なデータガバナンス、サイバーセキュリティ対策などが義務付けられます。これにより、AIがもたらす潜在的なリスクから市民の権利と安全を保護しつつ、信頼できるAIのイノベーションを促進することを目指しています。
企業が倫理的AIを構築するために何ができますか?
企業は、AI倫理原則の策定と組織全体への浸透、独立した倫理審査体制の構築、透明性と説明責任の確保、公平性・プライバシー保護のための技術的実装、従業員への継続的な教育とトレーニング、そして第三者監査と継続的改善のサイクル確立を通じて、倫理的AIガバナンスを確立することができます。また、ステークホルダーとの対話も不可欠です。
個人がAI時代に求められるリテラシーは何ですか?
個人に求められるAIリテラシーとは、AIの基本的な仕組みや限界を理解し、AIが生成する情報を批判的に吟味する能力、自身のデータがAIによってどのように利用されるかを意識しプライバシーを守る意識、AIの判断を盲目的に受け入れずに批判的思考を持つこと、そしてAI倫理に関する社会的な対話に積極的に参加することなどが含まれます。