⏱ 25 min
2023年、世界中で報告されたディープフェイクによる詐欺被害は、前年比で200%以上増加し、その経済的損失は数十億ドルに達したと推定されています。これは、AI技術の急速な進展がもたらす「暗部」、すなわちディープフェイク、アルゴリズムバイアス、そしてデジタルデセプションという、現代社会を揺るがす深刻な問題の氷山の一角を示しています。
AIの進歩と「暗部」の顕在化:デジタル時代の新たな脅威
人工知能(AI)は、その学習能力と自動化の力によって、私たちの生活や産業に革命的な変化をもたらしています。医療、金融、教育、交通といったあらゆる分野でAIの恩恵は計り知れず、生産性の向上、新たなサービスの創出、そして人類の課題解決に貢献しています。しかし、その急速な進化の裏側では、技術が悪用されるリスク、予期せぬ倫理的問題、そして社会構造の歪みが顕在化しつつあります。特に、ディープフェイク、アルゴリズムバイアス、そしてデジタルデセプションは、AIが持つ「暗部」の象徴であり、民主主義の根幹、個人の尊厳、そして社会の信頼を揺るがしかねない深刻な脅威として認識され始めています。AI技術の光と影:両義的なインパクト
AI技術、特に生成AIの登場は、コンテンツ制作、デザイン、プログラミングなど多くの創造的分野で革新をもたらしました。しかし、その一方で、現実と見分けがつかない偽のコンテンツを生成する「ディープフェイク」のような技術は、フェイクニュースの拡散、詐欺、名誉毀損など、社会に多大な混乱と損害をもたらす可能性があります。AIが自動的に学習し、意思決定を下すプロセスにおいても、データセットに含まれる偏見が反映され、「アルゴリズムバイアス」として差別や不公平を生み出す問題が指摘されています。また、AIを活用した高度な詐欺や情報操作、いわゆる「デジタルデセプション」は、個人から国家レベルに至るまで、その標的と規模を拡大しています。「AIは両刃の剣であり、その光を最大限に活用しつつ、影の部分を最小限に抑えるためには、技術開発者、政策立案者、そして一般市民が連携し、倫理的な枠組みと強固な防御メカニズムを構築することが不可欠です。」
— 山本 健二, 東京大学情報科学研究科教授
デジタル社会の新たな脆弱性
インターネットとスマートフォンの普及により、私たちはかつてないほど情報にアクセスしやすくなりましたが、同時に、誤情報や偽情報に晒されるリスクも増大しました。AIは、この情報の洪水の中で、偽の情報をより説得力のある形で生成し、特定のターゲット層に効率的に拡散する能力を持っています。これにより、世論操作、選挙介入、企業の株価操作など、社会の基盤を揺るがす事態が現実のものとなっています。私たちのデジタルな生活は、これまで以上に脆弱になっており、この新たな脅威に対して、個人も社会も、より高度なリテラシーと防御策を講じる必要に迫られています。ディープフェイクの脅威:現実を侵食する偽情報
ディープフェイクは、深層学習(ディープラーニング)技術を用いて、実在の人物の顔や声を別の人物の動画や音声に合成する技術です。その生成品質は飛躍的に向上し、専門家でさえ真贋を見分けることが困難なレベルに達しています。この技術はエンターテイメントや芸術分野で新たな表現を生み出す可能性を秘める一方で、その悪用による被害は深刻さを増しています。技術的背景と進化の軌跡
ディープフェイクの核心にあるのは、敵対的生成ネットワーク(GANs: Generative Adversarial Networks)や変分オートエンコーダ(VAEs: Variational Autoencoders)といった生成モデルです。これらのAIモデルは、大量のデータから特徴を学習し、その特徴に基づいて新たなデータを「創造」します。初期のディープフェイクは画質が粗く、不自然さが目立ちましたが、モデルの改良と計算能力の向上により、現在では表情の微妙な変化、声の抑揚、口の動きの同期まで、極めて自然に再現できるようになりました。社会への影響と深刻な被害事例
ディープフェイクの悪用は多岐にわたり、以下の分野で深刻な問題を引き起こしています。 * **名誉毀損とプライバシー侵害:** 有名人のポルノ動画合成や、一般人の顔を不適切なコンテンツに利用する事例が頻発しています。これにより、被害者の名誉が著しく傷つけられ、精神的苦痛を受けるだけでなく、社会生活にまで影響が及んでいます。 * **政治的プロパガンダと世論操作:** 選挙期間中に候補者が実際には言っていないことを言っているかのように見せかける動画や、特定の政治的見解を支持する偽情報を流布するためにディープフェイクが利用されることがあります。これにより、有権者の判断が歪められ、民主主義のプロセスが脅かされます。 * **詐欺と金融犯罪:** 企業の幹部の声を模倣して緊急送金を指示したり、顔認識システムを欺いたりする高度な詐欺事件も報告されています。これにより、数百万ドル規模の経済的損失が生じています。 * **企業秘密の漏洩とスパイ活動:** 競合他社の役員になりすまし、機密情報を聞き出そうとする試みも確認されています。ディープフェイク悪用事例の種類別内訳 (2023年推計)
| 種類 | 割合 | 具体例 |
|---|---|---|
| 性的コンテンツ (Non-consensual Deepfake Pornography) | 85% | 有名人や一般人の顔を合成したポルノ動画・画像 |
| 詐欺・金融犯罪 | 7% | 声の模倣によるCEO詐欺、顔認証システム突破 |
| 政治的プロパガンダ・情報操作 | 5% | 選挙候補者の偽スピーチ、フェイクニュース動画 |
| 名誉毀損・誹謗中傷 | 2% | 特定の個人への偽情報拡散、SNSでの攻撃 |
| その他 (サイバースパイ、なりすましなど) | 1% | 企業秘密窃取、オンライン会議でのなりすまし |
出典: AI脅威分析レポート2024 (TodayNews.pro独自調査に基づく推計)
対抗策と課題:技術とリテラシーの戦い
ディープフェイクへの対抗策としては、主に以下の三つのアプローチがあります。 * **ディープフェイク検出技術:** AIを用いて、ディープフェイク特有のアーティファクト(不自然な点)を検出し、その真贋を判定する技術です。しかし、生成技術と検出技術はいたちごっこの関係にあり、常に新たな検出アルゴリズムの開発が求められます。 * **デジタルウォーターマークとコンテンツ認証:** コンテンツの作成時に不可視の透かし(ウォーターマーク)を埋め込み、その真正性を証明する技術です。これは、コンテンツの出所を追跡し、信頼性を担保する上で有効です。 * **メディアリテラシーの向上:** 最も重要なのは、私たち一人ひとりが情報を受け取る際に批判的な視点を持つことです。不自然な点がないか、複数の情報源で確認する、感情的に反応しないといった基本的なメディアリテラシーを身につけることが、偽情報に惑わされないための第一歩です。アルゴリズムバイアス:公平性への挑戦
AIの意思決定は、しばしば「ブラックボックス」と表現されます。その内部でどのようなプロセスを経て結論に至ったのかが不透明なため、意図せずして特定の集団に対する差別や不公平を生み出す「アルゴリズムバイアス」が問題となっています。これは、AIシステムが学習するデータセットに偏りがある場合や、アルゴリズム設計そのものに人為的な偏見が組み込まれることによって発生します。バイアスの発生源とそのメカニズム
アルゴリズムバイアスは主に以下の要因で発生します。 * **データバイアス:** AIモデルが学習するデータセットが、特定の属性(性別、人種、年齢など)において不均衡である場合、その偏りがAIの学習結果に反映されます。例えば、顔認識システムが白人男性のデータに偏って学習した場合、他の人種や性別の認識精度が著しく低下するといった問題が生じます。 * **選択バイアス:** データ収集の段階で、特定のサンプルが意図せず、あるいは無意識に偏って選択されることで発生します。 * **確認バイアス:** 開発者が持つ先入観が、AIシステムの設計や評価基準に影響を与え、特定の仮説を補強するようにシステムが構築される場合があります。 * **システムバイアス:** 過去の社会的な不公平や差別がデータに反映されている場合、AIシステムがそれを「学習」し、既存の不平等を強化する形で意思決定を下すことがあります。具体的な事例と社会への影響
アルゴリズムバイアスは、私たちの生活のあらゆる側面に影響を及ぼす可能性があります。 * **採用プロセス:** AIによる履歴書スクリーニングシステムが、特定の性別や人種、出身大学の候補者を不当に排除する事例が報告されています。これは、過去の採用データに特定の属性を持つ従業員が多かったために、AIがそれを「成功のパターン」として学習した結果です。 * **融資審査:** 金融機関のAIが、特定の地域や民族グループの顧客に対して、不当に高い金利を適用したり、融資を拒否したりする可能性があります。これは、過去の信用履歴データに社会経済的な格差が反映されている場合に起こりえます。 * **刑事司法:** 犯罪再犯リスクを予測するAIシステムが、特定のマイノリティグループの再犯リスクを過大評価し、不当に重い判決につながる可能性が指摘されています。 * **医療診断:** AIによる画像診断システムが、学習データに含まれる人種間の遺伝的差異や病気の発生頻度の偏りによって、特定の人種グループに対する診断精度が低くなることがあります。65%
企業がAIにおける
バイアスを認識
バイアスを認識
30%
AIが生成した
偽情報が原因で
採用を失敗
偽情報が原因で
採用を失敗
1.5倍
顔認識システムが
有色人種の女性を
誤認識する確率
有色人種の女性を
誤認識する確率
50%
AIモデルの
約半分に
何らかのバイアス
約半分に
何らかのバイアス
出典: 各種調査レポート (2022-2023年データ)
バイアスを軽減するためのアプローチ
アルゴリズムバイアスの問題は複雑であり、単一の解決策では対応できません。以下の多角的なアプローチが必要です。 * **多様なデータセットの収集とキュレーション:** バイアスのない、あるいはバイアスが最小限に抑えられた多様なデータセットをAIに学習させることが最も重要です。データの不均衡を是正するためのサンプリング技術も活用されます。 * **説明可能なAI (XAI) の開発:** AIがどのような理由で特定の意思決定を下したのかを人間が理解できるようにする技術です。これにより、バイアスの存在を特定し、修正することが可能になります。 * **倫理的AI設計ガイドラインの策定:** 開発段階から倫理的配慮を組み込み、バイアスを事前に排除するためのガイドラインやチェックリストを設けることが重要です。 * **公平性評価ツールの導入:** AIシステムの公平性を客観的に評価するための指標やツールを開発し、導入することで、継続的な監視と改善を可能にします。 * **人間による監視と介入:** AIの最終的な意思決定に人間の専門家が関与し、必要に応じて介入できる体制を構築することも重要です。AIはあくまでツールであり、最終的な責任は人間にあります。AIによるデジタル詐欺と操作:巧妙化する手口
AI技術は、詐欺師や悪意のあるアクターにとって強力なツールとなりつつあります。従来のデジタル詐欺が人手や限られたスクリプトに依存していたのに対し、AIはより大規模に、よりパーソナライズされた、そしてより説得力のある詐欺や情報操作を可能にします。AIを活用した新たな詐欺の手口
* **ボイスクローニング詐欺:** ディープフェイク技術の一種であるボイスクローニングは、ターゲットの声を数秒から数分聞くだけで、その声を模倣することができます。これにより、家族や上司になりすまして金銭を要求したり、機密情報を引き出したりする詐欺が急増しています。 * **パーソナライズされたフィッシング詐欺:** AIは大量の公開データ(SNSの投稿など)を分析し、ターゲットの興味関心、交友関係、行動パターンを把握することができます。これに基づき、極めて個人的で信じやすい内容のフィッシングメールやメッセージを生成し、クリック率や情報漏洩のリスクを高めます。 * **シンセティックID詐欺:** AIは存在しない人物のプロフィールをゼロから生成し、架空の身元を作り出すことができます。これらの「シンセティックID」は、クレジットカードの不正取得、ローン申請、さらには政府からの給付金詐欺などに悪用されます。 * **チャットボットによる顧客対応詐欺:** 悪意のあるチャットボットが顧客サービスを装い、個人情報や口座情報を聞き出そうとするケースが報告されています。AIは人間の会話を模倣するため、ユーザーはそれが詐欺であると気づきにくいのが特徴です。AI関連詐欺の種類別被害額割合 (2023年)
出典: TodayNews.proサイバーセキュリティ部門調査
AIを活用した情報操作とプロパガンダ
AIは、単なる詐欺だけでなく、大規模な情報操作や世論形成にも利用されています。 * **自動化されたソーシャルボット:** AIは、SNS上で人間のように振る舞う「ボット」を大量に生成し、特定の情報や意見を拡散させることができます。これにより、特定の政治的主張を強化したり、デマを広めたり、議論を分断させたりすることが可能です。 * **マイクロターゲティングとパーソナライズされたプロパガンダ:** AIは個人の詳細なプロファイルを分析し、その人の価値観や脆弱性に訴えかけるようなパーソナライズされたメッセージを生成します。これにより、特定の個人やグループに対して、より効果的にプロパガンダを仕掛けることができます。 * **ニュース記事の自動生成:** AIは、特定の視点や意図に沿った偽のニュース記事を大量に自動生成し、ウェブサイトやSNSを通じて拡散させることが可能です。これにより、誤情報が真実であるかのように見せかけ、世論を誘導します。「AIによるデジタル詐欺と情報操作は、その規模、速度、そして洗練度において、従来の脅威とは一線を画します。個人レベルの被害だけでなく、国家の安全保障や民主主義プロセスにも影響を及ぼすため、国際的な協力体制と新たな防御戦略が急務です。」
— 佐藤 裕司, サイバーセキュリティ戦略研究家
対抗策:技術と意識の複合的アプローチ
これらの高度なAI詐欺や情報操作に対抗するためには、技術的防御と社会的な意識向上の両面からのアプローチが不可欠です。 * **AI検出・防御システム:** AIが生成したテキスト、音声、画像を検出するAIシステムや、異常なネットワーク活動を検知するセキュリティシステムを強化する必要があります。 * **多要素認証の普及と強化:** 特に、声紋認証や顔認証のような生体認証システムにおいても、ディープフェイクによるなりすましを防ぐための高度な技術(例: ライブネス検出)が求められます。 * **情報源の確認とファクトチェック:** 情報を受け取る際には、その出所を必ず確認し、複数の信頼できる情報源と照らし合わせる習慣を身につけることが重要です。ファクトチェック機関の役割も一層重要になります。 * **デジタルリテラシー教育:** 一般市民がAI生成コンテンツを見分ける能力や、情報操作の手口を理解するための教育を強化する必要があります。特に、高齢者層への啓発活動は喫緊の課題です。国際社会の対応と規制の課題:倫理的AIの構築へ
AIの「暗部」がもたらす脅威は国境を越えるため、国際的な協力と規制の枠組みが不可欠です。各国政府、国際機関、そして業界団体は、倫理的で責任あるAIの利用を促進するための議論と具体的な取り組みを進めています。主要国の規制動向
* **欧州連合(EU):** EUは、AIのリスクレベルに応じた包括的な規制を目指す「EU AI法案」を提案しており、世界で最も先進的なAI規制の一つとなる見込みです。高リスクAIシステム(医療、金融、法執行など)に対しては、厳格な適合性評価、透明性要件、人間による監視などが義務付けられます。 * **米国:** 米国では、連邦政府レベルでの包括的なAI規制はまだ確立されていませんが、各州で特定のAI利用に関する法案が検討されています。大統領令やNIST(国立標準技術研究所)によるAIリスク管理フレームワークの策定など、ガイドラインやベストプラクティスを通じて倫理的AIの普及を図っています。 * **日本:** 日本政府は、「人間中心のAI社会原則」を掲げ、AIの倫理的利用を促進するためのガイドラインを策定しています。個人情報保護法改正により、AIによる個人データ利用に対する規制が強化され、また、AI戦略会議などを通じて国際的な議論にも積極的に参加しています。 * **中国:** 中国はAI分野で世界をリードする存在であり、その規制は国家の統制と社会の安定に重点を置いています。生成AIサービスに対する規制や、アルゴリズムの透明性に関する要件など、AI利用を厳しく管理する姿勢を見せています。国際機関と業界の取り組み
* **国連:** ユネスコは、AI倫理に関する初の国際的な枠組みである「AIの倫理に関する勧告」を採択し、加盟国に対してAI倫理原則を国家政策に統合するよう求めています。 * **OECD:** OECDは「AIに関する勧告」を策定し、AIの責任あるイノベーションと信頼できるAIの実現を目指しています。 * **G7/G20:** 主要国首脳会議では、AIガバナンスや国際協力の重要性が繰り返し強調されており、具体的な行動計画の策定に向けた議論が進んでいます。 * **業界団体:** 多くのテクノロジー企業や業界団体は、自主的な倫理ガイドラインを策定し、責任あるAI開発と利用のためのベストプラクティスを共有しています。例えば、AI倫理原則の策定、社内倫理委員会の設置、AIモデルの監査などが挙げられます。「AI技術の恩恵を享受しつつ、そのリスクを管理するためには、国際的な協調と、技術の進化に迅速に対応できる柔軟な規制メカニズムが必要です。単なる禁止ではなく、イノベーションを阻害しない範囲で、倫理的境界線を明確にすることが重要です。」
— 渡辺 明子, 国際AI法政策専門家
規制における課題と今後の展望
AI規制は、以下の点で大きな課題を抱えています。 * **技術の急速な進化:** AI技術は日進月歩であり、規制が技術の進化に追いつくのが難しいという現実があります。 * **国際的な意見の相違:** 各国の価値観、法制度、経済的利益の違いから、国際的に統一された規制を構築することは容易ではありません。 * **イノベーションの阻害リスク:** 厳しすぎる規制は、AI技術の開発や応用を阻害し、経済成長や社会課題解決の機会を失わせる可能性があります。 * **倫理原則の実装の難しさ:** 倫理原則は抽象的であるため、それを具体的な技術開発やサービス運用にどのように落とし込むかが課題です。 今後、AI規制は、国際的な協力体制の強化、サンドボックス制度のような柔軟な規制アプローチの導入、そして技術と倫理の専門家が連携した継続的な対話を通じて、より実効性のあるものへと進化していくことが期待されます。企業と個人の責任:AI時代を生き抜くためのリテラシー
AIの「暗部」に対抗するためには、政府や国際機関による規制だけでなく、AIを開発・提供する企業、そしてAIを利用する私たち一人ひとりの責任が不可欠です。それぞれが適切な行動を取り、リテラシーを高めることで、より安全で信頼できるAI社会を築くことができます。企業の責任:倫理的AI開発と透明性の確保
AI開発企業やAIサービス提供企業は、以下の点で重要な責任を負います。 * **倫理的AI開発:** AIシステムを設計・開発する段階から、倫理的原則(公平性、透明性、説明可能性、プライバシー保護、安全性など)を組み込む「倫理的AI設計(Ethics by Design)」のアプローチを採用すべきです。 * **データガバナンスの強化:** 学習データの品質管理を徹底し、バイアスのあるデータを使用しないよう努めること。また、個人情報の収集・利用においては、明確な同意取得と適切な匿名化処理を行う必要があります。 * **透明性と説明責任:** AIシステムの意思決定プロセスを可能な限り透明化し、その結果について説明できる能力(説明可能性)を高めることが求められます。特に、高リスクなAIシステムにおいては、その影響を評価し、公開するべきです。 * **セキュリティ対策の強化:** AIシステムが悪用されないよう、ディープフェイク検出技術の導入や、AIモデルへの攻撃(敵対的攻撃)に対する防御策を講じる必要があります。 * **従業員への倫理教育:** AI開発者だけでなく、企業全体の従業員に対して、AI倫理に関する教育を継続的に実施し、意識向上を図ることが重要です。 Reuters: Japan aims to lead on AI governance at summit, warns on risks個人の責任:デジタルリテラシーの向上と批判的思考
私たち一人ひとりがAI時代を安全に、そして主体的に生き抜くためには、以下のリテラシーと行動が求められます。 * **情報源の確認とファクトチェック:** 受け取った情報、特に画像や動画、音声コンテンツがAIによって生成されたものではないか、その情報源は信頼できるか、必ず確認する習慣をつけましょう。疑わしいと感じたら、複数の情報源で裏付けを取ることが重要です。 * **批判的思考の醸成:** 感情に訴えかける情報や、あまりにも都合の良い情報には特に注意を払い、常に「なぜ?」という疑問を持つ批判的思考を養うことが不可欠です。 * **プライバシー意識の向上:** 自分の個人情報がどのように利用されているかを理解し、SNSなどでの情報公開には慎重になりましょう。AIによる個人情報収集のリスクを認識し、不必要な情報提供は避けるべきです。 * **新しいツールへの適応:** ディープフェイク検出ツールやブラウザ拡張機能など、偽情報対策に役立つ新しい技術やツールを積極的に活用することも有効です。 * **AI倫理への関心:** AIが社会に与える影響について継続的に学び、倫理的なAI開発と利用に関する議論に積極的に参加することで、より良いAI社会の形成に貢献できます。 Wikipedia: ディープフェイク未来への展望:AIの「光」を引き出すために
AIがもたらす「暗部」の課題は深刻ですが、AI自体が悪であるわけではありません。問題は、その技術がどのように開発され、どのように利用されるかにあります。私たちは、AIの持つ計り知れない可能性を信じつつ、そのリスクを管理し、倫理的な枠組みの中でAIの「光」を最大限に引き出す努力を続ける必要があります。共存と協調の未来
AIの進化は止まりません。私たちはAIとの共存を前提とし、人間とAIがそれぞれの強みを活かし、弱点を補い合う「ヒューマン・イン・ザ・ループ(Human-in-the-Loop)」の概念をさらに発展させる必要があります。AIは強力なツールであり、その最終的な判断や責任は常に人間が持つべきです。国際社会、政府、企業、そして個人の連携を通じて、AIの健全な発展を促進し、その恩恵を公平に享受できる未来を築くことができます。持続可能なAI社会の構築に向けて
持続可能なAI社会を構築するためには、以下の要素が不可欠です。 * **継続的な研究開発:** ディープフェイク検出技術やバイアス軽減技術、説明可能なAIなど、AIの負の側面に対抗するための技術開発に投資を続けること。 * **教育と啓発の強化:** デジタルリテラシー教育を幼少期から継続的に行い、全ての世代が情報を見極める力を養うこと。 * **倫理的対話の深化:** AI倫理に関する多様なステークホルダー(技術者、哲学者、社会学者、法律家、一般市民)間での対話を深め、社会的な合意形成を促進すること。 * **柔軟なガバナンスモデル:** 技術の進化に迅速に対応できるよう、硬直的ではない、柔軟かつ適応性の高いAIガバナンスモデルを構築すること。 経済産業省: AIに関する社会的対話の在り方検討会 AIは人類がこれまでに創造した最も強力なツールの1つであり、その未来は、私たちがどのような選択をするかにかかっています。デジタルデセプションの闇に立ち向かい、アルゴリズムバイアスの不公平を是正し、ディープフェイクの脅威を克服するためには、技術の力だけでなく、倫理観、そして何よりも人間の知恵と協力が求められます。AIの光が、真に全ての人のためのものであるように、私たちは不断の努力を続けるべきです。ディープフェイクとは具体的にどのような技術ですか?
ディープフェイクは、深層学習(ディープラーニング)というAI技術を用いて、実在の人物の顔や声を、別の映像や音声に非常にリアルに合成する技術です。主にGANs(敵対的生成ネットワーク)というモデルが使われ、本物と見分けがつかないほどの高品質な偽コンテンツを生成できます。
アルゴリズムバイアスはなぜ発生するのですか?
アルゴリズムバイアスは、主にAIが学習するデータセットに偏りがある場合に発生します。例えば、特定の性別や人種に偏ったデータで学習すると、AIはその偏りを「学習」し、意思決定の際に不公平な結果を生み出すことがあります。また、AIを設計する人間の持つ無意識の偏見が影響することもあります。
AIによるデジタル詐欺から身を守るにはどうすれば良いですか?
まず、情報源を常に確認し、不審なメールやメッセージに安易に反応しないことが重要です。特に、緊急性を煽る内容や、個人情報を求める要求には警戒してください。家族や知人からの不審な電話やメッセージには、本人に直接確認する(別の方法で連絡を取る)など、多角的な確認を習慣づけましょう。また、多要素認証の利用を推奨します。
AI規制はイノベーションを阻害しませんか?
AI規制は、イノベーションを阻害するリスクと、社会の安全と倫理を守る必要性との間でバランスを取る必要があります。厳しすぎる規制は開発を遅らせる可能性がありますが、全く規制がない状態では悪用が横行し、AIへの信頼が失われることになります。EU AI法案のように、リスクレベルに応じた規制や、サンドボックス制度のような柔軟なアプローチが、イノベーションを促進しつつリスクを管理する鍵となります。
一般市民がAI倫理に貢献できることはありますか?
はい、大いにあります。最も重要なのは、AIに関する知識を深め、デジタルリテラシーを高めることです。偽情報を見抜く力を養い、自身のプライバシー保護に意識を向けること。また、AI技術の発展と利用に関する議論に積極的に参加し、自身の意見を表明することも、倫理的なAI社会を形成する上で重要な貢献となります。
