⏱ 22 min
世界保健機関(WHO)によると、世界中で約10億人が何らかの精神疾患を抱えており、そのうち約75%は必要な治療を受けられていないとされています。特に日本では、ストレス社会の進行、高齢化、そして長引くパンデミックがメンタルヘルスへの負荷を増大させており、医療資源の不足、アクセスの障壁、そしてスティグマ(偏見)といった課題が深刻化しています。こうした状況を受け、デジタルトランスフォーメーションが加速する現代において、人工知能(AI)を活用したメンタルヘルスケア、いわゆる「AIセラピスト」が、従来の医療モデルの限界を克服し、アクセス向上とパーソナライズされたサポートを提供する新たなフロンティアとして注目されています。AIセラピストは、単なるチャットボットを超え、複雑な対話を通じて利用者の感情を認識し、認知行動療法(CBT)などの専門的アプローチをベースとした介入を提供することで、精神的ウェルネスの向上に貢献しようとしています。しかし、その革新性の裏には、倫理的課題、プライバシー保護、そして技術的限界といった多くの課題が横たわっています。
AIセラピストの台頭:デジタルメンタルケアの現状と背景
近年、世界的にメンタルヘルスケアの需要が高まる一方で、精神科医や臨床心理士といった専門人材の不足が深刻化しており、特に地方部ではその傾向が顕著です。従来の対面型カウンセリングや治療は、時間的・地理的制約、高額な費用、そして精神疾患に対する社会的なスティグマといった障壁が存在し、多くの人々が必要なサポートにアクセスできない状況が続いていました。このギャップを埋めるべく、テクノロジーの進化、特にAI技術の飛躍的な発展が、新たな解決策として「デジタルメンタルヘルス」という概念を生み出しました。メンタルヘルスケアへの高まる需要と課題
2020年以降の新型コロナウイルス感染症のパンデミックは、社会構造、経済活動、個人の生活様式に甚大な影響を与え、多くの人々に不安、ストレス、孤立感といった精神的負担をもたらしました。リモートワークの普及、外出制限、経済的な不安定さなどが重なり、抑うつや不安症の症状を訴える人が増加。これにより、メンタルヘルスケアの必要性はかつてないほど高まりました。しかし、パンデミック下においても、対面での医療機関受診は感染リスクを伴い、さらにアクセスが困難になるという二重の課題が生じました。このような状況が、オンラインカウンセリングやメンタルヘルスアプリといったデジタルソリューションへの関心を一気に高める契機となりました。テクノロジー進化がもたらす変革の波
AI技術、特に自然言語処理(NLP)と機械学習の進化は目覚ましく、人間が話す言葉の意図や感情を理解し、自然な対話を行うことが可能になりました。この技術を応用することで、AIは利用者の言葉の選択、表現の仕方、さらには声のトーン(音声分析)から感情状態を推測し、個別化された応答を生成する能力を持つようになりました。これにより、24時間いつでも、場所を選ばずに利用できるAIセラピストの実現が可能となり、従来の医療モデルではリーチできなかった層へのアプローチが可能になったのです。初期のチャットボットが単純なQ&Aに終始していたのに対し、現代のAIセラピストは、より複雑な心理学的アプローチ、例えば認知行動療法(CBT)や弁証法的行動療法(DBT)の原則をプログラムに組み込み、利用者自身が自身の感情や思考パターンを認識し、健全な対処法を学ぶ手助けをするレベルにまで進化しています。500億ドル
デジタルメンタルヘルス
世界市場規模 (2027年予測)
世界市場規模 (2027年予測)
3億人
メンタルヘルスアプリ
利用者数 (推定)
利用者数 (推定)
30%
AI導入による
医療費削減効果 (推定)
医療費削減効果 (推定)
100万+
AIベースの
メンタルヘルス
プログラム導入機関数
メンタルヘルス
プログラム導入機関数
AIセラピストのメカニズム:どのように機能するのか
AIセラピストは、単に質問に答えるだけのシステムではありません。その背後には、高度な技術と心理学的知見が統合された複雑なメカニズムが存在します。利用者の発言を理解し、適切な応答を生成し、さらには治療的な介入を行うために、複数のAI技術が協調して機能しています。自然言語処理(NLP)と感情認識技術
AIセラピストの核となるのが、自然言語処理(NLP)です。これは、人間が日常的に使う言葉をコンピューターが理解し、処理するための技術分野です。AIセラピストはNLPを用いて、利用者のテキスト入力や音声入力(音声認識技術と連携)を解析します。単語の意味だけでなく、文脈、表現のニュアンス、さらには頻繁に使われるキーワードやフレーズから、利用者の感情状態を推測します。 感情認識技術は、NLPのさらに進んだ応用です。ポジティブ、ネガティブ、中立といった基本的な感情に加え、怒り、悲しみ、喜び、不安、落胆といったより具体的な感情を識別しようと試みます。これには、機械学習モデルが大量の感情がラベリングされたテキストデータや音声データを学習することで、パターンを認識する能力が不可欠です。例えば、「疲れた」「もう無理」「希望がない」といった表現が繰り返される場合、AIは抑うつ状態の可能性を認識し、より慎重で共感的な応答を生成したり、専門家への相談を促したりすることが可能になります。これにより、AIは単なる情報提供者ではなく、利用者の感情に寄り添う「聴き手」としての役割を果たすことができます。参考: 自然言語処理 - Wikipedia ja.wikipedia.org/wiki/自然言語処理
行動変容を促す対話モデル
AIセラピストのもう一つの重要な側面は、心理療法、特に認知行動療法(CBT)の原則に基づいた対話モデルを内蔵している点です。CBTは、思考パターン、感情、行動の相互関係に焦点を当て、非適応的な思考や行動を修正することで精神的な苦痛を軽減する治療法です。AIセラピストは、以下のようなCBT的手法を対話を通じて提供します。- 思考の記録と分析:利用者に特定の状況下での思考や感情を記録するよう促し、それらを客観的に評価する手助けをします。例えば、「自動思考」を特定し、それが現実とどの程度一致しているかを検討させます。
- 認知の再構成:ネガティブな思考パターンや歪んだ認知を特定し、より現実的で建設的な見方に修正するための質問やエクササイズを提供します。
- 行動活性化:抑うつ状態にある利用者が活動レベルを上げるための具体的な目標設定を支援し、行動計画の立案を促します。
- リラクゼーション技法:ストレスや不安を軽減するための深呼吸、瞑想、マインドフルネスといったリラクゼーション法のガイダンスを提供します。
| 機能 | AIセラピストアプリ | セルフケアアプリ | オンラインカウンセリング |
|---|---|---|---|
| 24時間アクセス | ✅ | ✅ | ❌ |
| 個別化された対話 | ✅ | △ | ✅ |
| 感情分析 | ✅ | △ | ✅ (人間による) |
| 危機介入 | △ (限定的) | ❌ | ✅ |
| 専門家との連携 | △ (一部) | ❌ | ✅ |
| 匿名性 | ✅ | ✅ | △ (条件による) |
効果と限界:AIが提供できるもの、できないもの
AIセラピストは、メンタルヘルスケアのアクセス性を劇的に向上させる可能性を秘めていますが、その効果には明確な範囲があり、人間のセラピストと完全に置き換わるものではありません。その強みと限界を理解することが、適切な利用のために不可欠です。AIの強み:アクセシビリティと標準化された介入
AIセラピストの最大の利点は、そのアクセシビリティにあります。- 24時間365日利用可能:時間や場所の制約を受けずに、必要な時にすぐにサポートを受けることができます。これにより、多忙な現代人や、地理的に専門機関へのアクセスが困難な人々にとって大きな助けとなります。
- コスト効率:人間のセラピストによるセッションに比べて、はるかに低い費用で利用できることが多いです。これにより、経済的な理由で治療をためらっていた人々にも門戸が開かれます。
- 匿名性とスティグマの軽減:AIとの対話は、他人に知られることへの抵抗感や、精神疾患に対するスティグマを感じることなく行えます。これにより、心理的サポートを求める最初のハードルを下げることができます。
- 標準化された介入:AIは、特定の心理療法(例:CBT)のプロトコルに厳密に従って介入を提供できます。これにより、治療の質が一定に保たれ、経験の浅いセラピストによるばらつきが生じるリスクを回避できます。軽度から中程度の抑うつや不安症の症状に対して、効果的な介入を提供できることが複数の研究で示されています。
- データに基づくパーソナライゼーション:利用者の過去の対話履歴や感情の変化を分析し、最適な介入を提案する能力は、人間には不可能なレベルでの個別化を可能にします。
人間ならではの共感と複雑な判断の壁
一方で、AIセラピストには明確な限界があります。- 共感能力の限界:AIは人間の感情を「認識」することはできても、「共感」することはできません。人間のセラピストが持つ、言葉の裏にある深い感情や微細なニュアンスを察し、人間としての温かさや理解を持って寄り添う能力は、現状のAIには模倣不可能です。特に、トラウマや喪失体験といった複雑な感情を伴う問題には、AIでは対応しきれない場面が多くあります。
- 複雑な状況判断の難しさ:利用者の抱える問題が複雑で多岐にわたる場合、AIは状況全体を把握し、最適な解決策を導き出すことに限界があります。例えば、家庭環境、社会経済的要因、身体疾患の有無など、多層的な要因が絡み合う精神疾患に対しては、専門家による統合的なアセスメントと介入が不可欠です。
- 危機介入の制限:自殺念慮や自傷行為の兆候がある場合など、緊急性の高い状況では、AIは適切な危機介入を行うことができません。AIは緊急連絡先を提示するなどの対応はできますが、人間の専門家のような即座の判断、冷静な対応、そして命を守るための行動を直接的に取ることはできません。
- 治療関係の構築:心理療法において、セラピストとクライアントの間に築かれる「治療関係」は、治療効果を左右する重要な要素です。信頼、安心感、受容といった要素は、人間同士の相互作用の中で育まれるものであり、AIとの間ではその深い関係性を構築することは困難です。
「AIはアクセスの障壁を下げ、多くの人々に最初のステップを提供しますが、人間の複雑な感情や背景を深く理解し、寄り添う能力には依然として限界があります。最終的には、適切なタイミングでの人間の介入が不可欠であり、AIはあくまでツールの位置づけで活用されるべきです。」
— 山田 健一, 精神科医、デジタルヘルス研究者
AIセラピストへの期待度 (複数回答)
倫理的課題とプライバシー:信頼性をどう築くか
AIセラピストの普及には、その技術的な有効性だけでなく、倫理的な側面とプライバシー保護への配慮が不可欠です。利用者が安心してサービスを利用するためには、これらの課題に真摯に向き合い、透明性と信頼性を確保する仕組みを構築する必要があります。個人情報の保護とデータ管理の厳格化
AIセラピストとの対話は、非常に個人的で機微な情報を多く含みます。精神状態、病歴、人間関係、個人的な悩みなど、外部に漏洩した場合に利用者に甚大な被害をもたらす可能性のあるデータが扱われます。そのため、データの収集、保存、利用、共有に関する厳格なプライバシー保護策が求められます。- データ暗号化:利用者データは、通信中も保存中も高度な暗号化技術によって保護されるべきです。
- 匿名化と仮名化:研究目的などでデータを利用する際は、個人を特定できないよう匿名化・仮名化を徹底する必要があります。
- 同意の取得:データ利用に関する明確な同意を、利用者に分かりやすい言葉で取得することが不可欠です。どのデータが、どのような目的で、誰と共有されるのかを明示する必要があります。
- アクセス制限:データへのアクセスは、最小限の関係者のみに限定し、厳格な認証と監視の下で行われるべきです。
- データガバナンス:企業は、データ管理に関する明確なポリシーを策定し、定期的な監査と改善を行う責任があります。GDPR(EU一般データ保護規則)やCCPA(カリフォルニア州消費者プライバシー法)などの国際的なデータ保護規制への準拠も重要です。
アルゴリズムの公平性と責任の明確化
AIセラピストのアルゴリズムは、特定のバイアス(偏見)を学習してしまうリスクを抱えています。例えば、特定の人口統計グループ(性別、人種、年齢など)のデータが不足している場合、そのグループの利用者に対して不適切な診断や介入を行う可能性があります。このようなアルゴリズムの公平性( fairness)と透明性(transparency)は、倫理的AIの重要な柱です。- バイアスの検出と軽減:AI開発者は、データセットにおけるバイアスを積極的に検出し、軽減するための技術的・プロセス的対策を講じる必要があります。多様な背景を持つ人々からのデータを学習させ、定期的に性能を評価することが重要です。
- アルゴリズムの透明性:AIがどのような基準で意思決定を行っているのか、そのロジックを完全に「説明可能」にすることは難しいですが、少なくともその動作原理や、特定の介入が選択される理由について、ある程度の説明責任を果たす努力が必要です。「ブラックボックス」化されたAIは、利用者の不信感を招きやすいため、可能な限り透明性を高める必要があります。
- 責任の所在:AIが誤った情報を提供したり、不適切な介入を行ったりした場合、その責任は誰が負うのかという問題も重要です。開発企業、サービス提供者、あるいは利用者に一部の責任があるのか、法的な枠組みを明確にする必要があります。特に、利用者がAIの助言に従って健康を害した場合、その法的責任は非常に複雑な問題となります。
「AIセラピストの真の価値は、その技術的精度だけでなく、個人データの厳格な保護、アルゴリズムの透明性、そして何よりも利用者の安全と福祉を最優先する倫理的枠組みの上に成り立ちます。信頼なくして普及はありえません。」
— 佐藤 裕美, AI倫理研究者、データプライバシー専門家
規制と未来の展望:日本の現状と世界の動向
AIセラピストが医療の一部として広く受け入れられるためには、その安全性と有効性を保証する法規制とガイドラインの整備が不可欠です。世界各国でその動きが進められており、日本も例外ではありません。医療機器としての承認と法規制の進化
デジタルヘルス技術、特に診断や治療を目的とするソフトウェアは、「デジタルセラピューティクス(DTx)」として分類され、医薬品や医療機器と同様に厳格な規制の対象となる傾向があります。これは、その有効性だけでなく、安全性、信頼性、そして倫理的な側面が医療行為に準ずるレベルで保証される必要があるためです。- FDAの動向(米国):米国食品医薬品局(FDA)は、早くからDTxに対する規制枠組みを構築しており、特定の精神疾患(例:ADHD、不眠症)向けアプリを医療機器として承認しています。これは、臨床試験によってその有効性と安全性が実証されたものに限られます。
- CEマーク(欧州):欧州連合では、医療機器規則(MDR)に基づき、DTxがCEマークを取得することで市場投入が可能となります。ここでも、リスク分類に応じた厳格な評価が求められます。
- 日本の現状:日本では、AIを活用したプログラムが「医療機器プログラム」として薬機法(医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律)の対象となる可能性があります。しかし、どの範囲のAIセラピストが医療機器と見なされるか、その線引きはまだ明確ではなく、現在進行形で議論が進められています。例えば、単なる情報提供やリラクゼーションを目的としたアプリは医療機器には該当しない一方、診断補助や特定の疾患の治療を目的とするものは医療機器としての承認が必要となるでしょう。厚生労働省は、デジタルヘルス分野のイノベーションを促進しつつ、国民の安全を確保するためのガイドライン策定に取り組んでいます。
参考: 厚生労働省 - こころの健康 www.mhlw.go.jp/stf/seisakunitsuite/bunya/hukushi_kaigo/shougaishahukushi/kokoro/index.html
国際的な動向と日本の挑戦
世界の多くの国々がデジタルメンタルヘルス分野に投資し、技術開発と同時に規制環境の整備を進めています。日本もこの流れに乗り遅れないよう、以下の点での挑戦が求められます。- 研究開発の促進:AIセラピストの有効性を示すための大規模な臨床研究や実証実験を、政府や学術機関が積極的に支援する必要があります。特に、日本特有の文化や言語的背景を考慮したAIモデルの開発が重要です。
- 産学官連携の強化:AI技術を持つ企業、心理学や精神医学の専門家、そして規制当局が密接に連携し、最適なサービス開発と規制環境の構築を進める必要があります。
- 国民への啓発:AIセラピストの正しい知識と利用法について、国民への啓発活動が重要です。過度な期待も過度な不安も避け、バランスの取れた理解を促すことで、社会的な受容を高めることができます。
- 医療現場への導入支援:承認されたAIセラピストが、実際に医療機関や専門家と連携して活用されるためのインセンティブやガイドラインも必要です。例えば、診療報酬における評価などが検討されるべきでしょう。
人間とAIの協調:ハイブリッドモデルの可能性
AIセラピストの限界を認識する上で、最も現実的かつ効果的なアプローチとして注目されているのが、人間とAIがそれぞれの強みを活かして協調する「ハイブリッドモデル」です。これは、AIが初期スクリーニングや定型的なサポート、データ分析などを担当し、人間の専門家がより複雑なケースや危機介入、深い人間関係の構築に集中するという分業体制を意味します。専門家による監督と連携の重要性
ハイブリッドモデルでは、AIセラピストが独立して機能するのではなく、常に人間の専門家の監督下にあることが前提となります。- 初期スクリーニングとトリアージ:AIは、利用者の初期の症状やニーズを把握し、適切なサービスへの誘導(トリアージ)を行うことができます。例えば、軽度なストレスや不安に対してはAIがセルフケアプログラムを提示し、より深刻な症状や危機介入が必要な場合は、すぐに人間のセラピストや精神科医に繋ぐ役割を担います。これにより、専門家は本当に介入が必要なケースに集中でき、医療資源の効率的な配分が可能になります。
- 治療補助とモニタリング:人間のセラピストが中心となる治療プロセスにおいて、AIは補助ツールとして活用されます。例えば、治療計画に基づいた認知行動療法の宿題の提示、気分や症状の記録・モニタリング、リラクゼーションエクササイズの提供などです。AIが集めたデータは、セラピストが利用者の状態を客観的に把握し、治療効果を評価するための貴重な情報源となります。
- 危機対応プロトコルの組み込み:AIセラピストが自殺念慮や自傷行為の兆候を検知した場合、即座に人間の専門家や緊急サービスにアラートを出し、利用者に緊急連絡先を提示するような、厳格な危機対応プロトコルが必須です。この際、AIはあくまで「検知と橋渡し」に徹し、実際の介入は人間が行います。
治療プロセス全体の効率化と質の向上
ハイブリッドモデルは、メンタルヘルスケアの全体的な効率と質を向上させる可能性を秘めています。- 治療の継続性:AIは24時間稼働するため、人間のセラピストが対応できない時間帯や曜日に、利用者が継続的なサポートを受けられるようになります。これにより、治療の中断リスクを減らし、セッション間のサポートを強化できます。
- パーソナライズされたケアの強化:AIが収集・分析した利用者の行動パターンや感情のデータは、人間のセラピストがより深く利用者を理解し、個別化された治療計画を立てる上で役立ちます。例えば、特定の状況で利用者がどのような思考パターンに陥りやすいか、どのような介入が効果的かといったインサイトを提供できます。
- 専門家のバーンアウト対策:メンタルヘルス専門職は、高いストレスとバーンアウト(燃え尽き症候群)のリスクに直面しています。AIが定型的な作業やデータ収集を担うことで、専門家はより複雑で人間的な側面に集中できるようになり、負担軽減に繋がります。
参考: Reuters Japan - メンタルヘルス関連ニュース jp.reuters.com/
| 目的 | 回答割合 |
|---|---|
| ストレス軽減 | 82% |
| 気分改善 | 78% |
| 睡眠改善 | 65% |
| 自己理解の深化 | 59% |
| 認知行動療法の実践 | 48% |
| 専門家への橋渡し | 35% |
消費者と利用者への提言:賢い選択のために
AIセラピストは多くの可能性を秘めていますが、利用者がそのメリットを最大限に享受し、同時に潜在的なリスクを回避するためには、賢明な判断と行動が求められます。サービス選定のポイントとリスク認識
市場には多様なAIセラピストアプリやサービスが存在します。選択に際しては、以下の点に注意してください。- 開発元の信頼性:サービスを提供している企業や機関の評判、専門知識の有無、過去の実績などを確認しましょう。医療機関や大学と連携しているかどうかも重要な指標です。
- 科学的根拠の有無:そのAIセラピストが、どのような心理療法の理論(例:CBT)に基づいているのか、また、その有効性が科学的に検証されているか(臨床試験の結果など)を確認しましょう。単なる一般的なアドバイスに終始するものではなく、具体的な治療的アプローチが組み込まれているかどうかが重要です。
- プライバシーポリシーの確認:個人情報がどのように収集され、利用され、保護されるのかを定めたプライバシーポリシーを必ず熟読し、納得できる内容であるかを確認してください。第三者へのデータ共有の有無、匿名化のプロセス、データ削除の権利などが明確に記載されていることが望ましいです。
- 緊急対応プロトコル:緊急時(例:自殺念慮)にどのように対応するのか、緊急連絡先への誘導があるかなど、危機介入に関する明確なプロトコルが示されているか確認しましょう。
- 無料トライアルの活用:まずは無料トライアルなどを利用し、実際に使ってみて、自分に合っているかどうかを試すことをお勧めします。AIとの対話の質、操作性、使いやすさなどを評価してください。
AIとの健全な向き合い方
AIセラピストをより効果的に、そして安全に利用するために、以下の点を心がけましょう。- 過度な期待をしない:AIは共感や人間的な温かさを提供することはできません。感情的なサポートは人間関係の中で求めるべきであり、AIにはあくまで特定の心理的課題への対処や情報提供を期待するという現実的な姿勢が重要です。
- 自己判断の限界を理解する:AIが提供する情報やアドバイスは参考情報の一つとして捉え、最終的な判断は自身で行うか、必要に応じて専門家の意見を仰ぎましょう。診断や治療方針の決定は、必ず専門家が行うべきです。
- 専門家との併用を検討する:AIセラピストは、専門家による治療の「前段階」や「補助」として非常に有効です。例えば、心理療法を受けている間にAIアプリでセルフケアを継続したり、AIで自身の状態をモニタリングして専門家との面談時に役立てたりするなど、ハイブリッドな利用法を検討しましょう。
- デジタルデトックスの意識:AIセラピストアプリの利用は便利ですが、過度な依存は避けるべきです。時にはデジタルデバイスから離れ、現実世界での人間関係や活動に時間を費やすことも、精神的ウェルネスにとって重要です。
Q: AIセラピストは精神疾患を治せますか?
A: AIセラピストは、軽度から中程度のストレス、不安、抑うつなどの症状に対して、認知行動療法(CBT)などの専門的アプローチに基づいたサポートを提供し、症状の軽減や自己管理能力の向上に役立つ可能性があります。しかし、重度の精神疾患や緊急性の高い症状(自殺念慮など)を「治す」ことはできません。そのような場合は、精神科医や専門機関への相談が不可欠です。AIはあくまで補助的なツールとして活用し、専門家の診断や治療の代替とはならないことを理解しておく必要があります。
Q: AIセラピストはプライバシーを守ってくれますか?
A: 信頼できるAIセラピストサービスは、高度なセキュリティ対策と厳格なプライバシーポリシーを導入しています。利用者のデータは暗号化され、匿名化された上で管理されることが一般的です。しかし、サービスを選ぶ際には、プライバシーポリシーを詳細に確認し、どのようなデータが、どのような目的で、誰と共有される可能性があるのかを理解することが重要です。不明な点があれば、利用前に問い合わせることをお勧めします。
Q: どのような場合にAIセラピストを利用すべきですか?
A: AIセラピストは、日常的なストレス軽減、気分の浮き沈みの管理、睡眠の質の改善、自己理解の深化、軽度の不安や抑うつ症状への対処などに有効です。特に、専門家へのアクセスが難しい、費用が心配、他人に話すことに抵抗がある、といった場合に、最初のステップとして試す価値があります。しかし、症状が重い、日常生活に支障が出ている、自傷行為や自殺念慮がある場合は、直ちに専門の医療機関を受診してください。
Q: AIセラピストと人間セラピストの違いは何ですか?
A: AIセラピストは24時間いつでも利用可能で、コスト効率が高く、標準化された介入を提供できるという利点があります。しかし、人間のセラピストが持つ共感能力、複雑な状況を多角的に判断する能力、深い人間関係を構築する能力には及びません。人間セラピストは、言葉の裏にある感情や文化的な背景を深く理解し、利用者に合わせた柔軟なアプローチを提供できます。AIは初期サポートや補助として優れており、人間セラピストはより複雑なケースや深い感情的なサポートが必要な場合に強みを発揮します。
Q: 日本でのAIセラピストの法的な位置づけはどうなっていますか?
A: 日本において、AIセラピストは提供される機能によって法的な位置づけが異なります。単なる情報提供やリラクゼーションを目的としたアプリは医療機器には該当しないことが多いですが、特定の精神疾患の診断補助や治療を目的とするものは、医薬品医療機器等法(薬機法)に基づく「医療機器プログラム」として承認が必要となる場合があります。厚生労働省はデジタルヘルス分野のガイドライン整備を進めており、今後の規制動向に注目が必要です。利用するサービスが医療機器として承認されているか否かも、選択の重要な基準の一つとなります。
