Skip to content

コラム一覧

SEO-OGP1 (8)

DPCデータ分析をDifyが言語化。「改善提案書」作成アシスタント

DPCデータ分析をDifyが言語化:病院経営を加速するAI改善提案書アシスタント

DPC(診断群分類別包括評価)データは、病院経営の「羅針盤」として極めて重要ですが、その膨大なデータを分析し、経営層や診療科に響く具体的な「改善提案書」として言語化するには、高度な専門知識と多くの時間を要します。この「分析」と「提案」の間のギャップこそが、多くの病院で経営改善が停滞する最大のボトルネックです。本記事では、この課題を解決するために、Difyのような大規模言語モデル(LLM)を活用し、DPCデータ分析結果を即座に具体的な提案書へと変換するAIアシスタントのメカニズムと、それが病院経営にもたらす劇的な効果を、具体的なデータに基づいて解説します。

医療DXが加速する現代において、データ分析の「最終工程」である言語化をAIに任せることで、人間はより高度な意思決定と現場での実行に集中できるようになります。このAIアシスタントが、いかにして病院の収益改善、医療の質向上、そして医師の働き方改革を同時に実現するのか、その全貌をご覧ください。

DPCデータ分析のグラフと、AIが生成した改善提案書を受け取る病院経営者のイメージ
目次

1. DPCデータ分析の現状と「言語化」のボトルネック

DPCデータは、病院の収益構造、診療プロセス、医療資源の投入状況などを詳細に把握するための「宝の山」です。しかし、多くの医療機関では、このデータの真価を十分に引き出せていません。課題は大きく分けて2つあります。1つは、Excelなどの汎用ツールでは、データ量増加や多角的なクロス集計といった高度な分析に限界があることです。2つ目のより大きな課題は、分析結果を具体的なアクションに繋げる「言語化」のプロセスにあります。

DPCデータ分析の重要な指標には、全国平均やベンチマーク病院と比較した「平均在院日数」、クリニカルパスの見直しに直結する「手術・処置の実施状況」、そしてコスト管理に欠かせない「薬剤費・材料費」の分析が含まれます。これらの分析結果を「なぜその課題が発生しているのか」「どのような改善策が必要か」という論理的な提案書に落とし込むには、経営分析の専門家や医師の深い理解が必要です。この専門人材の不足と、提案書作成にかかる膨大な時間こそが、病院経営改善の最大のボトルネックとなっています。

💡 ポイント

DPC分析は、単なる「集計」ではなく、他院との比較(ベンチマーキング)や時系列での変化を捉える「深掘り分析」が不可欠です。分析結果を業務改善に繋げるには、診療科・疾患レベルでの課題の「見える化」と、それを具体的な改善策として言語化する作業が成功の鍵を握ります。約8,000の病院が存在する中で、DPCシステムを採用する急性期病院は1,786施設(2024年4月時点)であり、データ活用は病院競争力を左右します。

2. AIアシスタントがもたらす結論:経営改善の加速化

生成AIによる医療文書作成時間が47%削減されたことを示すグラフとAIアシスタントの画面Difyのような大規模言語モデル(LLM)を基盤としたAIアシスタントは、DPCデータ分析のボトルネックを解消し、病院経営改善のPDCAサイクルを劇的に加速させます。このシステムの結論は、「分析結果のインサイトを、即時かつ論理的な提案書として自動生成する」ことです。これにより、専門家が数日かけて作成していた提案書作成業務を、大幅に短縮することが可能になります。

実際、電子カルテシステムに搭載された生成AIによる医療文書作成支援の実証実験では、文書に記載する要約文章の新規作成時間を平均47%削減できたという結果が報告されています。これは、DPC分析に基づく経営提案書のような複雑な文書においても、同様の効率化が期待できることを示唆しています。AIは、分析ツールが出力した大量の数値データ(例:在院日数が全国平均より2日長い疾患群)をインプットとして受け取り、その背景にある可能性のある要因(例:クリニカルパスの未整備、退院支援の遅れ)を論理的に結びつけ、経営層が理解しやすいビジネス文書の形式で出力します。これにより、データ分析から改善実行までのリードタイムが劇的に短縮され、病院の収益改善スピードが加速します。

3. DifyによるDPCデータ言語化のメカニズムとプロセス

DifyなどのAIプラットフォームがDPCデータを言語化するプロセスは、高度なプロンプトエンジニアリングとデータ連携によって成り立っています。まず、DPC分析ツールが出力した集計データやベンチマーク結果(CSV、JSON形式など)をAIの入力データとして取り込みます。このデータは、特定の疾患群(例:脳梗塞、大腿骨頸部骨折)における平均在院日数、医療資源投入量、DPC入院期間II未満の比率といった具体的な数値情報です。

1データ入力とプロンプト設定

DPC分析結果(数値)と、提案書作成の目的(例:在院日数短縮、薬剤費削減)をLLMに入力。「病院経営層向けに、具体的な数値目標を含む提案書を作成せよ」といった明確な指示(プロンプト)を与える。

2論理構造の自動構築

LLMが、入力データに基づき「現状分析(データ引用)」「課題の深掘り(論理的考察)」「改善策の提示(クリニカルパス見直しなど)」「期待される効果(数値目標)」という提案書の論理構造を自動的に構築する。

3文書の生成と検証

生成された提案書ドラフトを、病院の専門家が最終チェック。生成AIの機能には、引用元となる電子カルテ情報(DPCデータの元情報)を関連付けて表示する機能もあり、ハルシネーション(尤もらしい嘘)対策として信頼性を高めます。この検証フェーズが、最終的な文書の品質を保証します。

この一連のプロセスにより、人間はデータ収集や文書構造の構築といった定型作業から解放され、AIが出した論理構造の調整や、現場に合わせた具体的な数値の微調整といった、より付加価値の高い作業に集中できるようになります。

4. AIが生成する「改善提案書」の具体的な構成要素と品質

AIアシスタントが生成する改善提案書は、単なる分析結果の羅列ではなく、実行可能なアクションプランを含む、説得力の高いビジネス文書としての品質を確保します。その構成要素は、病院経営の意思決定を支援するために最適化されています。

  • 現状分析と課題特定:ベンチマーク分析に基づき、自院の平均在院日数が全国平均より長い疾患群(例:肺炎、心不全など)を特定。具体的な日数差(例:2.5日超過)を明記し、収益への影響額を試算します。
  • 課題の深掘り(Why):DPCデータの詳細(手術・処置の実施時期のばらつき、薬剤費の診療科間格差など)を引用し、在院日数超過の背景にある要因(例:術前日数の長期化、退院支援の遅れ)を論理的に提示します。
  • 具体的な改善策とアクションプラン:「クリニカルパスの見直し」や「地域連携室の強化」など、課題に直結する具体的な解決策を提案。実施スケジュールや担当部署を盛り込み、実行可能性を高めます。
  • 期待される効果(KPI):改善策の実施により見込まれる数値的効果(例:平均在院日数の3ヶ月後の1日短縮、年間約2000万円の収益改善)を定量的に示し、投資対効果を明確にします。

このAIが生成する文書は、論理構造が明確で、根拠となるデータが明示されるため、多忙な経営層や医師会での議論を円滑に進めるための強力なツールとなります。特に、分析結果から「クリニカルパスの見直しを含め早急の対策を要する」疾患群を自動的に特定できる点は、専門家による手動分析の負荷を劇的に軽減します。

5. AI活用による病院経営改善の事例と数値的効果

DPCデータ分析に基づいたAIによる言語化支援は、既に様々な形で病院経営に具体的な効果をもたらし始めています。特に、分析結果の「実行への接続」がスムーズになることで、経営改善のスピードが向上します。

例えば、ある病院ではDPCデータ分析の結果、疾患別に入院期間II未満の比率を解析したところ、特定の疾患で入院期間II未満の比率が減少傾向にあることが判明しました。このデータをAIが言語化し、「クリニカルパスの見直しを含め早急の対策を要する」という具体的な提案書を作成した結果、迅速な対応が可能となり、診療効率の改善に繋がりました。また、診療科によって入院期間II未満の比率に明らかな格差があることも重要課題として浮き彫りになり、AIが作成した提案書を通じて、診療科間の是正に向けた議論を加速させることができました。

また、AIによる文書作成支援は、医師の働き方改革にも直結します。医師が医療文書作成にかける時間を年間数十時間単位で削減できるという試算もあり、これにより、医師は本来のコア業務である患者ケアや医療の質向上に集中できるようになります。DPCデータ分析、AI言語化、改善実行という一連のサイクルを確立することで、病院は単なるコスト削減に留まらず、医療の質と収益性の両立を実現することが可能です。

6. 導入・運用における補足情報とデータセキュリティ

DifyのようなAIアシスタントをDPCデータ分析に導入する際には、医療情報を取り扱う上での厳格なセキュリティと運用ルールを遵守することが不可欠です。DPCデータは、厚生労働省が定める「匿名診療等関連情報」として、医療の質向上や病院経営の改善に役立てるために匿名加工後のデータが第三者に提供されています。そのため、AI活用においても、データの匿名性と安全性を確保する必要があります。

導入初期には、AIが生成する提案書の品質を担保するため、特定の疾患や診療科に特化したプロンプトのチューニング(調整)が重要となります。また、将来的には、他の情報と照合しない限り特定の個人を特定できないよう加工した「仮名化情報」の二次利用も可能とする方針が示されており、より高度なデータ連携と分析が可能になる見込みです。AI導入は、単なるツールの導入ではなく、データ活用文化の定着とセキュリティ体制の強化を伴う、全病院的なDXの取り組みとして位置づけるべきです。

⚠️ 注意

DPCデータをAIにインプットする際は、個人が特定されないよう、厚生労働省の「匿名診療等関連情報の提供に関するガイドライン」を厳格に遵守することが必須です。データは暗号化され、利用目的が制限された環境下で取り扱う必要があります。AIが生成した提案書は、必ず医師や経営専門家が最終的な内容確認と承認を行うプロセスを設けるべきであり、AIの出力をそのまま最終決定とすることは避けてください。

まとめ

DPCデータ分析をDifyのような大規模言語モデル(LLM)が言語化し、具体的な「改善提案書」を作成するアシスタントは、病院経営におけるデータ活用の課題を根本から解決するソリューションです。分析結果を経営層に響く論理的な文書に変換するボトルネックを解消することで、提案書作成にかかる時間を大幅に短縮し、データ分析から業務改善実行までのリードタイムを劇的に短縮します。これにより、平均在院日数の短縮や薬剤費の適正化など、具体的な数値目標達成に向けたPDCAサイクルが加速されます。導入にあたっては、厚生労働省のガイドラインを遵守した匿名化・仮名化情報の厳格なセキュリティ管理が必須ですが、このAI活用は、医師の働き方改革と病院の収益性向上を同時に実現する、医療DXの新たな基盤となるでしょう。今こそ、AIによるデータ言語化を取り入れ、データドリブンな病院経営へと転換を図るべきです。

監修者
監修者

株式会社ヘルツレーベン代表 木下 渉

株式会社ヘルツレーベン 代表取締役/医療・製薬・医療機器領域に特化したDXコンサルタント/
横浜市立大学大学院 ヘルスデータサイエンス研究科 修了。
製薬・医療機器企業向けのデータ利活用支援、提案代行、営業戦略支援を中心に、医療従事者向けのデジタルスキル教育にも取り組む。AI・データ活用の専門家として、企業研修、プロジェクトPMO、生成AI導入支援など幅広く活動中。

https://herzleben.co.jp/

SEO-OGP1 (7)

RWDの「再識別リスク」をDifyで評価支援。匿名加工ガイドライン準拠のためのAI活用

RWDの「再識別リスク」をAIで評価支援:匿名加工医療情報の活用基盤(Dify)構築への道

新薬開発や医療政策立案の鍵としてリアルワールドデータ(RWD)の活用が世界的に進められています。しかし、患者の診療情報やゲノム情報を含むRWDの利活用には、「特定の個人を再識別してしまう」という重大なプライバシーリスクが伴います。日本では、このリスクを厳格に管理するため、「医療分野の研究開発に資するための匿名加工医療情報及び仮名加工医療情報に関する法律」(通称:次世代医療基盤法)が定められています。本記事では、この法規制のガイドラインが要求する高水準の再識別リスク評価を、生成AI開発プラットフォーム「Dify」を活用していかに効率的かつ高精度に支援し、データ利活用とプライバシー保護の両立を実現しているかを、具体的な技術的指標(k-匿名性、l-多様性など)を交えて解説します。データ管理者や研究者にとって、法規制をクリアし、RWDの真の価値を引き出すための羅針盤となるでしょう。

RWDの再識別リスク評価フローを示す複雑なネットワーク図
目次

1. RWD活用に必須の「再識別リスク評価」と法規制の壁

リアルワールドデータ(RWD)は、電子カルテやレセプト、健診データなど、日常の診療や生活から得られる膨大な医療情報であり、その解析は創薬の効率化や個別化医療の進展に不可欠です。しかし、RWDには、生年月日、性別、郵便番号といった「準識別子」が多数含まれており、これらの情報を外部の公開データ(例:選挙人名簿)と照合することで、特定の個人が容易に識別されかねない「再識別リスク」が常に存在します。このリスクを克服し、データの安全な流通を可能にするために、日本では「医療分野の研究開発に資するための匿名加工医療情報及び仮名加工医療情報に関する法律」(次世代医療基盤法)が制定されました。同法に基づく「認定匿名加工医療情報作成事業者」は、厳格な基準に従い、提供する医療情報が「特定の個人を識別することができないように加工し、当該個人情報を復元できないようにした情報」であることを証明しなければなりません。この証明プロセスの中核となるのが、科学的根拠に基づいた再識別リスクの評価です。

この再識別リスクの評価は、膨大なデータセットと複雑な匿名化手法を扱うため、従来の手法では時間とコストが膨大にかかることが課題でした。例えば、米国の事例では、生年月日、性別、郵便番号のわずか3つの準識別子の組み合わせで、約87%の居住者を一意に識別できることが示されており、RWDの匿名化には極めて高度な技術が要求されます。

【出典】

www.jfmda.gr.jp

(www.jfmda.gr.jp)

2. 医療情報ガイドライン準拠を支えるAI基盤(Dify)の役割

AIがRWDを分析し匿名化するプロセスを示す抽象的なイラストRWDの再識別リスク評価におけるAIの役割は、主に「リスク指標の高速かつ高精度な計算」と「最適な匿名化手法の自動選択」の2点に集約されます。次世代医療基盤法のガイドラインに準拠するためには、データセットが特定のプライバシー基準を満たしていることを客観的に示す必要があります。この基準には、後述するk-匿名性やl-多様性といった数学的な指標が用いられますが、数百万〜数千万件にも及ぶ医療記録に対してこれらの指標を正確に計算するには、従来の統計ソフトウェアでは非現実的な時間がかかります。

DifyのようなAI開発プラットフォームを活用し、機械学習モデルを組み込むことで、データセット内の準識別子の分布パターンや特異な値を瞬時に解析し、潜在的な再識別リスクを定量的に数値化できます。これにより、リスク評価にかかる時間を従来の約1/10に短縮し、匿名加工のプロセス全体を劇的に効率化することが可能です。AIは、単にリスクを測るだけでなく、どのデータ項目を削除(マスキング)し、どの項目を一般化(例:年齢を10歳刻みにする)すれば、データの有用性を最大限に保ちつつ、法的基準を満たせるかという最適解を導き出す「匿名化エージェント」としても機能します。

💡 ポイント:AIプラットフォーム(Dify)の活用

AIは、膨大なRWDに対して、再識別リスクの定量化(k-匿名性などの計算)と、データ有用性を最大化する最適な匿名加工パラメーターの自動決定を担い、法規制への準拠を技術的に支援します。

3. 国のガイドラインが要求する「再識別リスク」の定義と基準

匿名加工医療情報を作成する事業者は、次世代医療基盤法ガイドラインに基づき、特定の個人を識別できないよう、データ復元を不可能にする措置を講じる必要があります。具体的には、氏名や保険証番号といった直接識別子を削除するだけでなく、再識別の可能性を生む「準識別子」に対して、リスク評価と加工を実施します。ガイドラインでは、規則第18条の基準への適合性が求められており、この基準には、匿名加工後の情報について、様々な技術を駆使して個人の再識別を試行する「情報再識別テスト」の実施が含まれます。

この厳格な基準を満たすために、匿名化の専門家や認定事業者は、主に以下の3つのステップを踏みます。

  • 特定項目の削除: 氏名、住所、電話番号、保険者番号など、直接的な識別子を削除する。
  • 加工手法の適用: 準識別子(年齢、郵便番号など)に対して、一般化(値を粗くする)や、削除、または摂動化(ノイズを加える)といった手法を適用する。
  • リスク評価の実施: 加工後のデータに対し、k-匿名性やl-多様性といった指標を用いて、再識別リスクが許容範囲内にあるかを検証する。

このプロセスは、単なる項目の削除で終わらず、匿名加工の適否を判定するための科学的かつ客観的な検証が不可欠であり、これがAIによる評価支援が求められる背景となっています。

4. AIが実現するk-匿名性・l-多様性の定量評価メカニズム

再識別リスクを定量的に評価するための代表的なプライバシー指標が「k-匿名性(k-anonymity)」と「l-多様性(l-diversity)」です。AIは、これらの指標を大規模データセット上で効率的に計算し、匿名化の精度を保証します。

  • k-匿名性: データセット内のどの個人を特定しようとしても、少なくともk人の個人と区別がつかない状態であることを保証する指標です。例えば、k=5であれば、攻撃者は対象者を5人の中から絞り込むことしかできません。
  • l-多様性: k-匿名性が満たされていても、k人全員が同じ機密情報(例:希少疾患名)を持っている場合、個人が特定できなくても機密情報が漏洩するリスクがあります。l-多様性は、等価クラス(同じ準識別子を持つ行のグループ)内の機密情報が少なくともl種類以上存在することを保証します。

AIは、データマイニング技術や統計的推論モデルを活用し、データセット全体から準識別子の組み合わせ(等価クラス)を抽出し、kの値やlの値を高速に計算します。特に、攻撃者が持つ外部知識を統計的にモデル化し、匿名化後のデータと照合する「k-マップ」などの高度な手法を用いることで、再識別可能性リスクを数値化し、安全性を客観的に示します。これは、匿名化技術の確立とリスク評価の急務に対応するための重要なステップです。

⚠️ 注意:k-匿名性の限界

k-匿名性は、機密情報そのものの多様性を考慮しないため、l-多様性やt-近接性といった他のプライバシー指標と組み合わせて評価することが、ガイドライン準拠の安全性を高める上で不可欠です。

5. AIによるリスク評価支援の具体的なステップと成功事例

AIによる再識別リスク評価支援は、以下のステップで実行されます。これにより、認定匿名加工医療情報作成事業者は、ガイドラインの要求事項をクリアし、データの有用性を極力損なわずに安全なデータを提供できます。

1準識別子と機密情報の特定

RWD内の郵便番号、年齢、性別など、再識別の鍵となる準識別子と、病名、検査値などの機密情報をAIが自動でラベリングし、データ間の相関関係を分析します。

2リスク指標の計算と最適化

AIがk-匿名性やl-多様性の値を計算し、目標とする許容リスクレベル(例:k=5以上)を満たすために、どの準識別子をどの程度「一般化」すべきかをシミュレーションし、最適な匿名加工パラメーターを提案します。

3情報再識別テストの自動実行

匿名加工後のデータに対して、AIが外部の知識を模倣した「攻撃シミュレーション」を数万回実行し、再識別が成功する確率を算出します。国内の研究では、k-匿名化によって識別される人数の割合が平均2.9%まで減少することが実験的に示されています。

このAIを活用したアプローチにより、手作業では数週間かかっていた再識別リスク評価と匿名化の調整作業が数日レベルに短縮され、医療分野の研究開発のスピードアップに貢献しています。

6. 再識別リスク評価における動的な注意点

AIによるリスク評価は強力ですが、再識別リスクは静的なものではなく、常に変動する「動的なリスク」であるという点に注意が必要です。時間が経過し、新たな公的データベースや外部情報が公開されると、以前は安全とされていた匿名加工医療情報でも、再識別が可能になるリスクが高まる可能性があります。これは、AIによるリスク評価モデルが、攻撃者が持つ知識や技術の進化を常に予測し、評価に組み込む必要があることを意味します。

したがって、法規制への準拠を継続するためには、データ提供後も定期的な「再識別リスクの再評価」が不可欠です。AIモデルは、最新のデータセットや外部の統計情報を学習し、匿名化の基準値を動的に調整する「継続的モニタリング」システムとして運用されることが求められます。過剰な匿名化はデータの有用性を著しく損なうため、リスク評価とデータ有用性のバランス(プライバシー・ユーティリティ・トレードオフ)をAIが最適に保つことが、RWD利活用の成否を分ける鍵となります。

また、AIモデル自体が持つバイアス(特定の属性を持つ個人に対するリスク評価の偏り)にも配慮し、評価結果の公平性を担保するための技術的な検証も重要です。

まとめ

リアルワールドデータ(RWD)の安全な利活用は、次世代医療基盤法が定める「匿名加工医療情報」の厳格な基準への準拠にかかっています。この法規制準拠の核心となるのが、再識別リスクの徹底的な定量評価です。AI技術(Dify等のプラットフォーム)は、k-匿名性やl-多様性といった複雑なプライバシー指標を、大規模なRWDに対して高速かつ高精度に計算し、最適な匿名加工パラメーターを自動で導き出すことで、この評価プロセスを劇的に効率化します。これにより、認定匿名加工医療情報作成事業者は、法規制をクリアする安全性を確保しつつ、データの有用性を最大限に維持することが可能となります。AIによる継続的なリスクモニタリングと、データ有用性とのバランスを最適化する取り組みこそが、日本の医療研究開発と新産業創出を加速させるための、不可欠なインフラとなるでしょう。

監修者
監修者

株式会社ヘルツレーベン代表 木下 渉

株式会社ヘルツレーベン 代表取締役/医療・製薬・医療機器領域に特化したDXコンサルタント/
横浜市立大学大学院 ヘルスデータサイエンス研究科 修了。
製薬・医療機器企業向けのデータ利活用支援、提案代行、営業戦略支援を中心に、医療従事者向けのデジタルスキル教育にも取り組む。AI・データ活用の専門家として、企業研修、プロジェクトPMO、生成AI導入支援など幅広く活動中。

https://herzleben.co.jp/

SEO-OGP1 (6)

論文データとリアルワールドデータの「乖離」を見つける。Difyに2つのソースを読み込ませる比較

RCTとRWDの「乖離」をRAGで特定:AIによる医薬品開発最適化

新規医薬品の臨床開発において、ランダム化比較試験(RCT)で示された高い有効性(Efficacy)が、市販後の実臨床(リアルワールド)で必ずしも再現されないという「乖離」は、製薬企業や医療現場にとって長年の課題です。このギャップは、治療戦略の最適化や保険償還の判断に大きな影響を与えます。本記事では、このRCTデータとリアルワールドデータ(RWD)の乖離が生まれる根本的なメカニズムを解き明かし、DifyなどのRAG(Retrieval-Augmented Generation:検索拡張生成)技術を活用して、非構造化データ(論文)と構造化データ(データベース)を統合的に比較・分析し、この乖離を効率的に特定する具体的な方法論を、日本の規制環境を踏まえて専門的に解説します。

AIを活用したデータ統合分析は、従来の統計的手法だけでは困難だった複雑な因果関係やサブグループ間の差異を浮き彫りにし、より現実(リアルワールド)に即した医薬品の価値評価と安全対策の実現を可能にします。

RCTとRWDの乖離を特定することが医薬品開発成功の鍵であることを示すイラスト
目次

1. RCTとRWDの乖離特定が医薬品開発の鍵となる理由

医薬品の承認を得るためのゴールドスタンダードはRCT(無作為化比較試験)ですが、その結果は「理想的な環境下での有効性(Efficacy)」を示すものであり、実臨床の多様な環境を完全に反映しているわけではありません。例えば、RCTでは平均して約70%の患者が厳格な選択基準を満たす必要があり、併存疾患の多い高齢者や重症患者は除外されがちです。これにより、実臨床で薬を服用する患者集団(RWD)と、治験に参加した患者集団(RCT)との間に構造的な差異が生じます。

この乖離を特定し、その大きさと要因を定量化することは、市販後に予期せぬ副作用や効果の減弱を防ぎ、薬剤の真の価値(Effectiveness)を最大化するために不可欠です。乖離の早期特定は、製造販売後調査(PMS)の最適化や、ターゲットを絞った適応拡大戦略の立案に直結し、結果として年間数十億円規模のコスト削減と開発期間の短縮に貢献する可能性があります。

2. RCTとRWDの根本的な違い:乖離を生むメカニズム

RCTとRWDの乖離は、主に「患者選択の厳格性」と「治療環境の管理度」の違いから生じます。RCTは、均質な集団に対して介入を行うことで、交絡因子(結果に影響を与える第三の因子)を排除し、介入薬の純粋な有効性を評価することに特化しています。一方、RWDは電子カルテ(EHR)やレセプトデータ、レジストリ、ウェアラブルデバイスなど、日常的な診療環境で収集されたデータを指します。

この違いから、RWDではRCTで除外された多様な背景を持つ患者(高齢者、多併存疾患患者など)や、実際の治療アドヒアランス(服薬遵守率)の変動が反映されます。この構造的な差異こそが、RCTの理想的な有効性(Efficacy)と、RWDの実臨床における有効性(Effectiveness)との間にギャップを生じさせる主要なメカニズムです。

項目RCT (理想的な環境)RWD (実臨床の環境)
検証目的有効性(Efficacy)実効性(Effectiveness)
患者集団均質・厳格な選択基準(バイアス抑制)多様・広範な患者背景(併存疾患含む)
データソース症例報告書(CRF)EHR、レセプト、レジストリ、PHR
💡 ポイント:RWDの国際的な定義

保健医療福祉情報システム工業会(JAHIS)の資料によれば、RWDは国際的な組織(FDA、ISPORなど)によって定義されており、RCTによって取得されたものでなく、日常的な患者状態や診療に関するデータ、非介入的な方法で観察的に得られるデータという特徴が共通しています。

3. Dify(RAG)を活用した「乖離」特定プロセス

DifyのようなRAG(Retrieval-Augmented Generation)プラットフォームは、この乖離を特定するための強力なツールとなります。RAGは、大規模言語モデル(LLM)が持つ一般知識に加え、外部の信頼できるナレッジベース(この場合、RCT論文とRWDデータベース)を参照して回答を生成する技術です。これにより、LLMの「ハルシネーション(幻覚)」を防ぎつつ、最新かつ根拠のある比較分析が可能になります。

1データソースの準備と組み込み(ナレッジベース化)

RCTの非構造化データ(PDF形式の論文、承認申請資料)と、RWDの構造化データ(EHR、レセプトDB)をDifyのナレッジベースとしてそれぞれインデックス化します。この際、RWDは匿名化された上で、共通データモデル(CDM)に準拠した形式で構造化されていることが望ましいです。

2比較クエリの実行と乖離の抽出

LLMに対して、「RCT論文のサブグループAにおける有効性(例:奏効率55%)と、RWDデータベースのサブグループA(例:併存疾患を持つ患者)における有効性(例:奏効率38%)の差異とその要因を抽出せよ」といったクエリを実行します。RAGは両方のナレッジベースから該当するテキストや数値を検索し、比較結果と引用元(論文のページ番号やDBのテーブル名)を提示します。

3要因分析とレポート生成

乖離が確認された場合、RAGはさらに「RCTの除外基準」や「RWDにおける併用薬の頻度」など、乖離の背景にある交絡因子を自動で検索し、要因を分析します。これにより、従来の統計解析では見落とされがちだった、実臨床特有の要因(例:特定の併用薬による相互作用)を迅速に特定できます。

【出典】

Difyを活用したRAG(検索拡張生成)徹底解説:社内ナレッジをAIエージェントで最大限に活用する方法

(sokuresu.ai)

4. 乖離特定がもたらす医薬品開発と臨床現場へのベネフィット

RCTとRWDの乖離を特定し、その要因を理解することは、医薬品のライフサイクル全体にわたって多大なベネフィットをもたらします。製薬企業にとっては、承認後のリスク管理(ファーマコビジランス)を強化し、実臨床で高いリスクを持つサブグループを特定することで、市販後調査(PMS)のコストを約20%削減できる可能性があります。また、より正確な費用対効果分析(HTA)の実施により、保険償還交渉を有利に進められます。

規制当局である医薬品医療機器総合機構(PMDA)も、RWD活用推進に向けた取り組みを積極的に進めており、RWD WGを設置してライフサイクルを通じたRWD活用の基本的考え方や信頼性担保に関する検討を行っています。 2018年4月のGPSP省令改正以降、製造販売後の安全性監視活動にRWDの活用が認められており、RWDは特に以下の分野で重要な役割を担っています。

  • 希少疾患に対する外部対照群(Historical Control Arm)としての利用
  • 長期的な安全性・有効性の監視(ファーマコビジランス)
  • 臨床ガイドラインにおける実効性(Effectiveness)の裏付け
  • 適応拡大に向けたエビデンス創出

5. 日本におけるRWD利活用の現状と課題

日本におけるRWD利活用が諸外国に比べて遅れている現状を示すグラフ日本製薬工業協会(製薬協)の検討によると、日本におけるRWD/RWE(リアルワールドエビデンス)の利活用に向けた環境整備は進んでいるものの、医薬品の承認申請利用に関しては諸外国と比較して進んでいない現状が指摘されています。 この背景には、日米の規制当局(PMDAとFDA)が発出するガイダンスの違いなどが要因として挙げられています。

しかし、政府による医療DXの推進や、PMDAによるレジストリ・データベースに関する相談枠の設置など、RWD活用を後押しする動きは加速しています。製薬企業がRWDを十分に二次利用し、開発に活かすためには、以下の課題を克服する必要があります。

  • データの標準化と品質確保:異なる医療機関のデータを統合するための共通データモデル(CDM)の普及。
  • データアクセスの透明性:RWD提供者(医療機関、DB事業者)と利用者(製薬企業)間の円滑な連携。
  • 規制面での明確化:RWEを承認申請に利用する際の信頼性担保に関する具体的な留意点の遵守。

特に、希少疾患領域では、RWDを外部対照群として活用することで、治験実施の困難性を克服し、新薬へのアクセスを向上させるという社会的意義の大きなベネフィットが期待されています。

6. AI分析の限界とデータの品質管理

DifyなどのRAGツールを活用した乖離特定は非常に強力ですが、その結果の信頼性は、入力するデータの品質に依存します。RWDは日常診療の副産物であるため、データの欠損、誤入力、非構造化された自由記載テキストの多さなど、品質にばらつきがあることが最大の課題です。AIによる分析を成功させるためには、以下の注意点を厳守する必要があります。

特にRAG技術は、情報検索(Retrieval)の精度が分析結果を大きく左右するため、非構造化データ(論文)をインデックス化する際のチャンク分割(データの区切り方)やメタデータ付与の設計が、乖離特定における成功率を左右します。データ品質管理への投資は、AI導入コストの約30%を占めるとも言われ、その重要性は計り知れません。

⚠️ 注意:AI分析の信頼性を高めるための3原則
  • データの匿名化と倫理性:個人情報保護法に基づき、RWDは完全に匿名化され、二次利用の倫理的・法的側面をクリアしていること。
  • コホートの適合性検証:RCTの対象患者とRWDの分析対象コホートが、比較に適した特性を持っているかを事前に統計的に検証すること(Propensity Score Matchingなど)。
  • AIのハルシネーション対策:RAGが生成した結果について、必ず引用元(RCT論文のページやDBのレコード)を提示させ、専門家(疫学者、医師)がファクトチェックを行う体制を構築すること。

まとめ

RCTとRWDの乖離特定は、医薬品開発の効率化と実臨床での安全性・有効性(Effectiveness)の最大化に不可欠です。RAG技術(Difyなど)は、非構造化された論文データと構造化されたRWDを統合的に分析し、従来の統計的手法では見つけにくかった「サブグループ間の有効性の差異」や「実臨床特有の交絡因子」を効率的に抽出する革新的な手法を提供します。日本の規制当局(PMDA)もRWD活用を推進しており、今後は製薬企業がRAGなどのAIツールを導入し、データ品質管理と倫理的利用を徹底することで、より現実的な医薬品の価値を評価し、患者に最適な医療を提供する未来が実現します。この技術は、特に治験が困難な希少疾患領域において、新薬開発のブレイクスルーをもたらす可能性を秘めています。

監修者
監修者

株式会社ヘルツレーベン代表 木下 渉

株式会社ヘルツレーベン 代表取締役/医療・製薬・医療機器領域に特化したDXコンサルタント/
横浜市立大学大学院 ヘルスデータサイエンス研究科 修了。
製薬・医療機器企業向けのデータ利活用支援、提案代行、営業戦略支援を中心に、医療従事者向けのデジタルスキル教育にも取り組む。AI・データ活用の専門家として、企業研修、プロジェクトPMO、生成AI導入支援など幅広く活動中。

https://herzleben.co.jp/

Difyで作る論⽂仕分けアプリpart2: PubMedAPIから詳細を取得

Difyで作る論⽂仕分けアプリpart2: PubMedAPIから詳細を取得

目次

本記事は、Difyのチャットワークフローを使ってPubMed論⽂の検索‧翻訳‧要約を⾃動化するシリーズのPart 2です。

Part 1の振り返り:

  • ⾃然⾔語クエリ(⽇本語)からPubMed検索パラメータを抽出
  • E-SearchでPMIDリストを取得
  • 後段ノードに渡すためPMIDをカンマ区切り⽂字列へ整形
ワークフロー

Part 2(本記事)では、PMIDリストをもとにE-Fetchで論⽂の詳細データを取得し、後続のAI処理で扱いやすい構造化データへ変換するまでを解説します。ここでは、PubMedから返却されるXMLのパース処理を丁寧に解説します。

シリーズ構成

  • Part0: 全体像とPubMed API基礎
  • Part 1: パラメータ抽出とE-Search編
  • Part 2(本記事): E-Fetchとデータパース編
  • Part 3: AI処理‧データ整形編
  • Part4: データ保存とGAS連携編

Part  1で整形したPMID⽂字列は、これから紹介するノードに渡されます。

  1. E-Fetch: 論⽂の詳細データを取得(XML形式)
  2. XMLパース: LLM処理で扱いやすいPython dict / list形式へ変換

この簡易版では、E-Fetchのみを使⽤して論⽂の詳細データを取得します。E-Summaryは使⽤せず、常にE-FetchでXML形式のデータを取得することで、アブストラクトやMeSH⽤語などの詳細情報を確実に取得できます。

ここまでを整えることで、Part  3で実施するAI要約‧優先度付けをスムーズに実装できます。

E-Fetch(HTTP Requestノード)

PubMedの E-fetch APIを呼び出して、論⽂の詳細データをXML形式で取得するノードです。
この簡易版のワークフローでは、テスト⽤に retmax を固定で 3 に設定することで、最大取得件数を3件に抑えています。

パラメータ説明
URLhttps://eutils.ncbi.nlm.nih.gov/entrez/eutils/efetch.fcgiPubMed E-Fetchエンドポイント
メソッドGET
パラメータ説明
dbpubmedデータベース名
id{{#1764077943290.result#}}カンマ区切りのPMID⽂字列(前のノードから取得)
retmodexmlXMLレスポンスを取得
retmax3取得件数(テスト⽤に3件で固定)

特徴: Abstract、MeSH、著者、掲載誌など詳細なデータがすべて含まれるため、LLM要約やキーワード抽出に最適です。

XMLレスポンスのパース(Codeノード)

E-FetchのエンドポイントはXML形式のデータを返します。
通常のJSON文字列ではないため、コードブロックにてPythonのxml.etree.ElementTree を使って必要な項⽬を抽出・整形します。
(Difyでは標準的なPythonライブラリを呼び出して使うことができます)

以下のコードは理解していなくても⼤丈夫です。コピペで動かすことができます(コードブロックの⼊⼒変数と出⼒変数の名称や、タイプを揃えるよう注意してください)

項⽬説明
pmidPubMed ID
title英語タイトル
abstractAbstractTextに付与されたLabel込みで抽出し、改⾏で結合
author著者⼀覧(”Forename Lastname”形式)
main_author_affiliation第⼀著者の所属機関
journal_inshort雑誌略称
journal雑誌正式名称
year公開年( PubDateDateCompleted の順に参照)
doiDOI(ELocationIDから抽出)
MeSH_Keywords著者キーワードとMeSH⽤語の統合(Qualifier含む場合はDescriptor/Qualifier 形式)
publication_types論⽂タイプ(RCT、Review、Case  Reportsなど)のリスト
import xml.etree.ElementTree as ET
import json

def main(xml_string: str): 
  try:
    root = ET.fromstring(xml_string) 
  except ET.ParseError: 
    return {"parsed_result": []} 

  articles = []
  for article in root.findall('.//PubmedArticle'): 
    data = {} 

    # 1. pmid 
    pmid = article.find('.//PMID') 
    data['pmid'] = pmid.text if pmid is not None else "" 

    # 2. Title 
    title = article.find('.//ArticleTitle') 
    data['title'] = title.text if title is not None else "" 

    # 3.Abstract 
    abstract_texts = [] 
    abstract_section = article.find('.//Abstract') 

    if abstract_section is not None: 
      for text_node in abstract_section.findall('AbstractText'): 
        label = text_node.get('Label') 
        content = text_node.text or "" 
        if label: 
          abstract_texts.append(f"[{label}] {content}") 
        else: 
          abstract_texts.append(content) 
    data['abstract'] = "\n".join(abstract_texts)

    # 4. Authors & Affiliations 
    author_list = [] 
    for author in article.findall('.//Author'): 
      last = author.find('LastName') 
      fore = author.find('ForeName') 
      if last is not None and fore is not None: 
        author_list.append(f"{fore.text} {last.text}") 
      elif last is not None: 
        author_list.append(last.text) 
    data['author'] = author_list 

    main_author_affil = "" 
    first_author = article.find('.//AuthorList/Author') 
    if first_author is not None: 
      aff = first_author.find('.//AffiliationInfo/Affiliation') 
      if aff is not None and aff.text: 
        main_author_affil = aff.text.strip() 
    data['main_author_affiliation'] = main_author_affil 

    # 5-1.Journal(in short) info 
    journal_inshort = article.find('.//ISOAbbreviation') 
    data['journal_inshort'] = journal_inshort.text if journal_inshort is not None else "" 

    # 5-2. Journal_info 
    journal = article.find('.//Journal/Title') 
    data['journal'] = journal.text if journal is not None else "" 

    # 6.Year 
    year = article.find('.//PubDate/Year')
    if year is None: 
      year = article.find('.//DateCompleted/Year') 
    data['year'] = year.text if year is not None else "" 

    # 7.DOI 
    doi = "" 
    for eloc in article.findall('.//ELocationID'): 
      if eloc.get('EIdType') == 'doi': 
        doi = eloc.text 
        break 
    data['doi'] = doi 

    # 8.Keywords 
    keywords_set = set() 

    # A. 著者キーワード (KeywordList) 
    for kw in article.findall('.//Keyword'): 
      if kw.text: 
        keywords_set.add(kw.text.strip()) 

    # B. MeSH用語 (MeshHeadingList) 
    for mesh_heading in article.findall('.//MeshHeading'): 
      descriptor = mesh_heading.find('DescriptorName') 
      if descriptor is not None and descriptor.text: 
        desc_text = descriptor.text.strip() 

        # Qualifier 
        qualifiers = mesh_heading.findall('QualifierName') 

        if len(qualifiers) > 0: 
          for q in qualifiers: 
            if q.text: 
              keywords_set.add(f"{desc_text}/{q.text.strip()}") 
        else: 
          keywords_set.add(desc_text)

    # 9. Publication Types 
    pub_types = [] 
    for pt in article.findall('.//PublicationTypeList/PublicationType'): 
      if pt.text: 
        pub_types.append(pt.text.strip()) 
    data['publication_types'] = pub_types 

    # リストに戻してソート 
    data['MeSH_Keywords'] = sorted(list(keywords_set)) 
    articles.append(data) 

  return { 
    "parsed_result" : articles 
  }
出⼒名説明
parsed_resultarray[object]1レコード1論⽂の辞書リスト
  • E-Fetchによる論⽂詳細データの取得(XML形式)
  • XMLレスポンスを構造化データへ変換するコード例
  • 抽出される主要なフィールド(pmid、title、abstract、author、MeSH_Keywords、publication_typesなど)
次のステップ

Part 3では、ここで得た parsed_result を⼊⼒に、LLMでタイトル翻訳‧要約‧優先度判定を⾏います。イテレーションノードの並列処理やStructured Outputの活⽤法など、AI処理の中⼼部分を解説します。


シリーズ記事

  • Part0: 全体像とPubMed API基礎
  • Part 1: パラメータ抽出とE-Search編
  • Part 2: E-Fetchとデータパース編
  • Part 3(次回記事): AI処理‧データ整形編
  • Part4: データ保存とGAS連携編
check

ヘルツレーベンでは、ライフサイエンス業界に特化したDX・自動化支援を提供しています。
PubMedや学術情報の自動収集をはじめ、Slack・Gmailなどを活用したナレッジ共有の仕組みまで、実務に直結するワークフローを設計・導入いたします。

提供サービスの例

  • 製薬・医療機器業界での提案活動や調査業務の自動化支援
  • アカデミアや研究者向けの文献レビュー・情報共有フローの最適化
  • 医療従事者のキャリア開発を支援するリスキリングプログラム

👉 ご興味をお持ちの方はぜひお気軽にお問い合わせください。
お問い合わせフォームはこちら

株式会社ヘルツレーベン代表 木下 渉

監修者 株式会社ヘルツレーベン代表 木下 渉

株式会社ヘルツレーベン 代表取締役/医療・製薬・医療機器領域に特化したDXコンサルタント/
横浜市立大学大学院 ヘルスデータサイエンス研究科 修了

製薬・医療機器企業向けのデータ利活用支援、提案代行、営業戦略支援を中心に、医療従事者向けのデジタルスキル教育にも取り組む。AI・データ活用の専門家として、企業研修、プロジェクトPMO、生成AI導入支援など幅広く活動中

SEO-OGP1 (5)

Difyで実現するRWEのパーソナライズ展開。本部の解析結果を、現場の「武器」へ。

Difyで実現するRWEのパーソナライズ展開戦略

製薬業界において、リアルワールドエビデンス(RWE)は医薬品開発やマーケティング戦略の効率を劇的に向上させる鍵として注目されています。しかし、本部で高度に解析されたRWEの知見が、Medical Representative(MR)をはじめとする現場の営業担当者にとって「複雑すぎて使いこなせない」「医師の質問に即座にパーソナライズして提供できない」というギャップが大きな課題となっています。本記事は、オープンソースのLLMアプリケーション開発プラットフォーム「Dify」を活用し、このギャップを埋める具体的なソリューションを提示します。Difyの持つRAG(検索拡張生成)やAgent/Workflow機能が、RWEを個々の医師や患者背景に合わせた「生きた武器」へと変貌させ、製薬企業の収益性向上と医療の質の向上に貢献する道筋を、プロフェッショナルな視点から深く解説します。

複雑なRWEデータを前に活用に悩むMRのイメージ
目次

1. RWE活用の現状と本部と現場の間に存在するギャップ

リアルワールドエビデンス(RWE)は、電子カルテやレセプト、患者レジストリなどのリアルワールドデータ(RWD)を解析することで得られる、現実世界での医薬品の有効性・安全性に関する重要な情報です。米国FDAでは、2019年には承認申請の約75%でRWEが組み込まれていましたが、2021年上半期にはその割合が96%に増加するなど、規制当局からの支援も加速しています。 しかし、この高度な知見を現場のMRが活用するには大きな課題があります。RWEは統計学的に複雑であり、報告書は専門用語に満ちているため、MRがその場で医師のニーズに合わせて情報を抽出・要約することが極めて困難です。日本製薬工業協会(製薬協)の調査では、RWD/RWEを扱う「人材不足」や「社内体制の未整備」が活用を阻む主な理由の一つとされています。 この結果、本部が多大なコストと時間をかけて解析したRWEが、現場では十分に「武器」として機能せず、医師との対話における価値提供の機会を逸失している現状があります。

💡 ポイント

RWEの価値は製品ライフサイクル全体に及びますが、特に営業マーケティング部門においては、RWEから得られるインサイトを製品ライフサイクルにおけるあらゆる意思決定に活用していく必要があります。 このインサイトを現場で活かすには、複雑な解析結果を「医師の専門領域」や「患者のサブグループ」に合わせてパーソナライズする仕組みが不可欠です。

【出典】

リアルワールドデータの活用によるヘルスケア提供価値 – KPMGジャパン

(kpmg.com)

2. 結論:DifyがRWE活用にもたらす「パーソナライズ」の価値

Difyは、RAG(Retrieval-Augmented Generation)とAgent/Workflowの機能を統合したLLMアプリケーション開発プラットフォームであり、RWEの現場活用における最大の課題である「パーソナライズ化」を技術的に解決します。従来のRWE活用は、本部が作成した標準的なスライドやレポートの提供に留まり、パーソナライズ度は極めて低かったと言えます。Difyを導入することで、本部が保有する膨大なRWEレポート(PDF、CSV、内部資料など)をRAGの知識ベースとして一元管理し、MRからの自然言語による質問に対し、関連性の高い情報を瞬時に検索・抽出し、LLMが医師の文脈に合わせて要約・生成することが可能になります。これにより、MRは「〇〇疾患で、かつ△△の併存疾患を持つ患者群における有効性データ」といった、極めてニッチで具体的な質問にも、わずか数秒で裏付けのあるエビデンスを提供できるようになります。この即時性とパーソナライズ性が、MRの医師への価値提供能力を飛躍的に向上させます。

  • RAGによる知識の民主化: 専門知識の壁を取り払い、非専門家であるMRでもRWEを容易に検索・理解可能にします。
  • Agentによる自動文脈化: 医師の属性(専門、所属)や過去の対話履歴を考慮し、RWEの提示方法を自動調整します。
  • Workflowによるタスク自動化: RWE抽出、グラフ生成、メール文作成といった一連のタスクを自動化し、MRの業務時間を年間約20%削減する効果が期待できます。

【出典】

民間事業者による利活用事例 – デジタル庁

(www.digital.go.jp)

3. 課題解決のメカニズム:RAGとAgentによる知識の民主化

DifyにおけるRWEパーソナライズ展開の核心は、その強力なRAGエンジンとAgent機能の連携にあります。まず、RAGエンジンは、製薬企業が保有する数千ページに及ぶRWEレポートや論文、社内解析結果を知識ベースとして取り込みます。DifyはPDFやMarkdownなど20種類以上のドキュメント形式に対応しており、これらの非構造化データをEmbeddingモデルを用いて数値ベクトル化することで、高度なセマンティック検索(意味検索)を可能にします。これにより、従来のキーワード検索では見落とされていた、文脈的に関連性の高いRWEを漏れなく抽出できます。

次に、Agent(インテリジェント・エージェント)がこのRAG検索結果を基に動作します。Agentは、MRが入力した「医師の氏名、専門領域、質問内容」といったコンテキスト情報を受け取り、以下のステップでRWEをパーソナライズします。

1コンテキストの特定とRAG検索

MRの入力に基づき、対象疾患、治療薬、患者属性などのキーワードを生成し、RWE知識ベースに対してハイブリッド検索(ベクトル+キーワード)を実行します。

2LLMによる文脈化と要約

抽出されたRWEの断片を、医師の専門性を考慮したトーンと表現で再構築・要約し、医師が最も関心を持つ「リアルワールドでのアウトカム」を強調します。

3出力形式の生成

対話形式の回答、または提示用スライドの骨子など、MRが現場で使いやすい形式で出力します。

4. Dify Workflowを活用したRWEパーソナライズ展開の設計図

DifyのWorkflow機能は、RWEのパーソナライズ展開を単なるQ&Aツールから、MRの営業活動全体を支援する自動化パイプラインへと進化させます。Workflowデザイナーを使用することで、RAG検索、LLMによる要約、外部ツール(CRM、データ可視化APIなど)との連携といった複数のステップを視覚的に統合し、複雑なビジネスロジックを簡単に構築できます。例えば、「特定医師への訪問準備」という一つのトリガーから、以下のプロセスを自動実行できます。

ステップDifyの機能実行されるアクション
1. 医師プロファイル取得外部Tool連携(CRM)医師の専門領域、過去の関心領域、直近の処方傾向データを取得。
2. RWEの抽出・文脈化RAG & LLM Agentプロファイルに基づき、最適なRWEレポートを検索し、要点を300字で要約。
3. プレゼン資料の骨子生成LLM生成要約されたRWEを基に、訴求力の高いプレゼンテーションの構成案を生成。
4. 最終確認と通知Workflow/通知機能生成された情報をMRのモバイルアプリにプッシュ通知し、訪問直前に確認を促す。

この設計図により、MRはRWEを探す手間から解放され、対話の質を高めることに集中できます。結果として、RWEを製品ライフサイクル全体で活用し、製薬企業が求める収益性向上を実現するための「知の資産」を蓄積することが可能になります。

5. MR現場におけるRWE即時提供のケーススタディ

Difyを用いたRWEパーソナライズ展開は、MRの医師へのアプローチを根本から変えます。従来のMRは、事前に準備した標準的な資料に頼るか、医師の質問に即答できず「後日資料をお持ちします」となることが頻繁にありました。Dify AgentをMRのモバイルツールに組み込むことで、この状況が一変します。

【具体例:特定サブグループへの訴求】

あるMRが、専門性の高い循環器内科医を訪問したとします。医師は、「あなたの薬剤は、透析を必要とする重度の腎機能障害を持つ心不全患者にも、RCT(ランダム化比較試験)と同様の有効性を示すのか」と質問しました。これは、RCTの対象外となることが多く、RWEでしか検証できない典型的な質問です。従来のMRは、本社に戻って解析チームに依頼し、回答に数日を要していました。しかし、Dify Agentを搭載したMRは、モバイルアプリに以下の質問を音声またはテキストで入力します。

  • 「薬剤名X、心不全、腎機能障害(透析患者)、RWEでの有効性」
  • 「対象医師:〇〇病院 鈴木医師、専門:循環器内科」

DifyのAgentは、瞬時にRAG知識ベースから「透析患者のサブグループ解析」に関するRWEレポートを特定し、LLMが「本解析では、透析を必要とする患者(n=1,200)において、主要評価項目である心血管イベントリスクを25%低減(p<0.01)することが示されています」といった、医師が求める具体的な数値と文脈を生成します。この即座の、裏付けのあるパーソナライズされた回答により、MRは医師からの信頼を勝ち取り、対話の質と深さを飛躍的に向上させることができます。

6. 導入・運用における留意点:データガバナンスと信頼性の確保

RWEデータのガバナンスとセキュリティ管理のイメージDifyによるRWEのパーソナライズ展開は強力ですが、医療・製薬分野特有の厳格な「信頼性」と「ガバナンス」の課題をクリアする必要があります。RWEはRWDの解析から得られますが、PMDA(医薬品医療機器総合機構)も指摘するように、解析手法や研究デザインの適切性、そしてRWDそのものの信頼性の確保が極めて重要です。 LLMが生成する情報が、元のRWEデータと乖離していないか(ハルシネーション)、あるいは規制上の問題がないかを確認するプロセスが不可欠です。

具体的な運用上の留意点としては、以下の3点が挙げられます。

  • RAG知識ベースの品質管理: 登録するRWEドキュメントは、必ず社内のメディカル部門(Medical Affairs)が承認した最新版のみに限定し、定期的な監査を実施します。
  • セキュリティとアクセス制御: Difyのアクセス権限管理機能を活用し、機密性の高いRWEデータへのアクセスをMRの役割や担当領域に応じて厳格に制限します。
  • ハルシネーション対策の徹底: LLMの生成結果には必ず出典元となるRWEレポートのページ番号やIDを付記し、MRが医師に提示する際に「裏付け」を示せるようにします。
⚠️ 注意

RWEを活用する製薬企業は、臨床開発、Medical Affairs、市販後安全性、HEOR/HTAといった複数の分野での課題を整理し、優先順位付けを行う必要があります。 Dify Agentの出力が、これらの各部門の承認プロセスを経ているかを確認する「ヒューマン・イン・ザ・ループ」の仕組みをWorkflowに組み込むことが、コンプライアンス遵守の絶対条件となります。

まとめ

Difyを活用したRWEのパーソナライズ展開は、製薬業界の長年の課題であった「本部で生まれた高度な知見と現場での活用ギャップ」を埋める、革新的なソリューションです。DifyのRAGエンジンは、複雑なRWEデータをMRが容易に検索・アクセスできる知識ベースへと変換し、Agent/Workflow機能は、医師の専門性や患者の背景といった文脈に合わせて、必要なエビデンスを瞬時に抽出・要約することを可能にします。これにより、MRは「後日対応」をなくし、医師との対話の場で具体的な数値に基づいたパーソナライズされた情報提供を実現できます。このアプローチは、MRの営業効率を向上させるだけでなく、最終的には医師の治療判断の質を高め、患者のQOL向上という医療本来の目的に貢献します。導入にあたっては、データガバナンスとRWEの信頼性確保が不可欠ですが、Difyの柔軟なWorkflow設計により、コンプライアンスを遵守した「現場の武器」を構築することが可能です。RWE活用を次のステージに進めるため、Difyによるパーソナライズ化の戦略的導入を強く推奨します。

監修者
監修者

株式会社ヘルツレーベン代表 木下 渉

株式会社ヘルツレーベン 代表取締役/医療・製薬・医療機器領域に特化したDXコンサルタント/
横浜市立大学大学院 ヘルスデータサイエンス研究科 修了。
製薬・医療機器企業向けのデータ利活用支援、提案代行、営業戦略支援を中心に、医療従事者向けのデジタルスキル教育にも取り組む。AI・データ活用の専門家として、企業研修、プロジェクトPMO、生成AI導入支援など幅広く活動中。

https://herzleben.co.jp/

SEO-OGP1 (4)

アンケート自由回答をDifyで自動分類:LLMクラスター分析で「薬を使わない理由」を解明

アンケート自由回答をDifyで自動分類:LLMクラスター分析で「薬を使わない理由」を解明

アンケート調査における自由回答(フリーアンサー)は、顧客や患者の「生の声」が詰まった宝の山です。特に医療・医薬分野において、「なぜこの薬を使わないのか」というネガティブな意見は、製品改善やマーケティング戦略の鍵となります。しかし、数千件にも及ぶ自由回答を一つひとつ手作業で分類し、定量化する作業(アフターコーディング)は、膨大な時間と労力、そして担当者による主観性の混入という課題を抱えていました。

本記事では、AIアプリケーション開発プラットフォーム「Dify」を活用し、大規模言語モデル(LLM)のセマンティック(意味的)な理解能力を用いて、自由回答を自動でクラスター分析・分類する革新的な手法を解説します。この手法により、分析時間を最大90%削減し、客観的で深いインサイトを迅速に得る道筋を示します。

手作業でアンケート自由回答を分類する担当者のイラスト
目次

1. アンケート自由回答分析の従来の課題

アンケートの自由回答は、定量的な選択肢では捉えられない、回答者の本音や潜在的なニーズを明らかにする貴重なデータです。しかし、この定性データをビジネス上の意思決定に活用するためには、定量的な指標に変換するプロセスが不可欠です。従来、この変換作業は「アフターコーディング」と呼ばれる手法で行われてきました。アフターコーディングでは、担当者が数千件のコメントを読み込み、類似する内容ごとにコード(分類ラベル)を割り当てて集計します。この作業は、大量のデータを扱うほどに非効率となり、特に専門的な知識を要する医薬分野の自由回答では、分類の難易度がさらに高まります。例えば、1,000件の自由回答を分類するのに、熟練した担当者でも約40時間以上を要することが一般的です。また、担当者によって分類基準にばらつきが生じ、分析結果の一貫性を保つことが難しいという属人性の問題も大きな課題でした。この手間と属人性の問題こそが、自由回答の活用を妨げる最大の壁となっていました。多くの企業が、せっかく集めた貴重な「生の声」を十分に活用しきれていない背景には、この分析工数とスキルの問題があります。

【出典】

アンケートの自由記述の3つの集計方法や分析方法、作成のポイントを解説

(form.run)

2. DifyによるLLM分類:手動アフターコーディングからの脱却

Dify(ディファイ)は、LLM(大規模言語モデル)を活用したAIアプリケーションをノーコードまたはローコードで構築できるプラットフォームです。Difyのワークフロー機能とLLMノードを組み合わせることで、従来の課題であった手動のアフターコーディングを、AIによる自動分類(セマンティック・クラスタリング)に置き換えることができます。これにより、分析工数を劇的に削減し、客観性と再現性の高い結果を迅速に得ることが可能になります。

具体的には、CSVファイルなどで提供された自由回答データを取り込み、Difyのワークフロー内で「LLMノード」に分類タスクを実行させます。分類結果は、後続のデータ処理や可視化のために、JSON形式などの構造化データとして出力されるため、次のステップへの連携もスムーズです。

💡 ポイント

Difyを活用した自動分類の最大のメリットは、単なるキーワードの一致ではなく、LLMの持つ意味(セマンティクス)の理解に基づき、類似した意見を自動でグルーピングできる点です。これにより、手動では見落とされがちな潜在的な共通テーマ(クラスター)を抽出できます。

【出典】

Difyの質問分類器とは?特徴や具体的な使い方を実例を交えて徹底解説!

(myuuu.co.jp)

3. 従来の分類手法:アフターコーディングとテキストマイニングの限界

自由回答の分析手法として、アフターコーディングの他に「テキストマイニング」があります。テキストマイニングは、文章を単語や文節に分解し(形態素解析)、その出現頻度や単語間の関連性を統計的に分析する手法です。このテキストマイニングには、「クラスタ分析」という手法が含まれます。クラスタ分析は、テキストを数値データ(ベクトル)に変換し、その距離(非類似性)に基づいて、性質の似ているテキストを自動的にグループ化する技術です。

しかし、従来のテキストマイニングによるクラスタ分析は、単語の表面的な出現頻度や共起関係に依存する部分が大きく、特に日本語特有の曖昧な表現や文脈、否定表現(例:「副作用の懸念はない」と「副作用が怖い」)の意味的な違いを正確に捉えにくいという限界がありました。例えば、「この薬は値段が高い」と「経済的な負担が大きい」というコメントは、従来のクラスタリングでは異なるグループに分類されるリスクがありました。LLMは、これらの表現を「経済的理由」という一つのセマンティックなクラスターとして統合的に理解できる点で、従来のテキストマイニングの精度を上回ります。

✅ LLM分類の強み
  • 文脈・意味を理解した分類(セマンティック)
  • 分類基準の柔軟なカスタマイズが可能
  • 大量データでも一貫した結果を迅速に出力
❌ 従来手法の限界
  • 手動分類は工数が膨大で属人化しやすい
  • テキストマイニングは単語の表面的な一致に依存
  • 否定や皮肉などの複雑な表現の解釈が困難

4. Dify LLMノードによるセマンティック・クラスタリングの仕組み

LLMにより自動分類された薬の不使用理由のグラフDifyのワークフローにおける「LLMノード」は、アンケートの自由回答を分類する際の中心的な役割を果たします。LLMノードは、大規模言語モデルの持つ分類(Classification)能力を最大限に活用し、事前に定義されたプロンプト(指示)と分類基準に基づいて、各コメントを自動的にカテゴリに割り振ります。この処理は、統計的なクラスタ分析とは異なり、テキストの意味的な類似性(セマンティック・クラスタリング)に基づいて行われるため、より人間に近い解釈が可能です。

例えば、アンケートの自由回答が10,000件あった場合、Difyは以下のプロセスで処理を自動化します。

  • 1. データ取り込み: CSVなどの形式で自由回答データをワークフローの「開始ノード」に取り込みます。
  • 2. 反復処理: 「反復処理(イテレーション)ノード」で、各回答を1件ずつLLMノードに渡します。
  • 3. 分類実行: LLMノード内で、プロンプトに従って「この薬を使わない理由」を分類します。
  • 4. 構造化出力: 結果をJSON形式で出力させ、「分類コード」「分類理由」「センチメント(ポジティブ/ネガティブ)」などの構造化データとして次ノードへ送ります。

この一連の自動化により、従来のテキストマイニングで必要だったベクトル化や距離計算といった煩雑な前処理を意識することなく、わずか数分で分類を完了させることが可能になります。この速度は、特に急を要する市場調査において極めて重要です。

【出典】

Dify【公式】

(dify.ai)

5. 実践ステップ:「この薬を使わない理由」を自動分類するワークフロー

医薬品のアンケートでは、「この薬を使わない理由」として「価格が高い」「副作用が怖い」「既存薬で十分」「情報が少ない」といったカテゴリに分類することが求められます。Difyでこのタスクを実行する具体的なステップは以下の通りです。

1分類カテゴリの定義とプロンプト設計

分析目的に合わせて、分類したいコアなカテゴリ(例:価格、安全性、有効性、利便性)を明確に定義し、LLMノードの「システムプロンプト」にその定義を明確に記述します。例えば、「回答を以下の5つのカテゴリのいずれかに分類し、必ずJSON形式で出力せよ」と指示します。

2ワークフローの構築とデータ投入

Difyで「ワークフロー」を作成し、「開始ノード」でアンケートCSVファイルをアップロードします。次に「テキスト抽出ツールノード」で自由回答の列を抽出し、「反復処理ノード」で各行をLLMノードへ送るパイプラインを構築します。

3LLMノードでの分類と構造化出力

LLMノードの「構造化出力」設定を利用し、出力形式をJSONスキーマで厳密に指定します。例えば、{"category": "string", "sentiment": "string"}のように指定することで、LLMは必ず定義された形式で分類結果を返します。この構造化データは、その後の集計やグラフ化にそのまま利用できるため、手動でのデータ整形(約8時間相当)が不要になります。

💡 ポイント

薬の不使用理由を分析する際、単なる分類だけでなく、「医師の推奨がない」「薬局での在庫がない」といった流通・プロモーション上の要因を分類軸に加えることで、製薬企業の戦略立案に直結するインサイトを得られます。

6. 分析精度を最大化するプロンプト設計と構造化出力の活用

Difyを用いたLLM分類の成否は、プロンプト設計の質に約70%依存すると言われています。分類精度を最大化するために、以下の2点に特に注力する必要があります。

1. 分類基準の具体的かつ網羅的な定義:

  • 分類カテゴリの名称だけでなく、「そのカテゴリに該当する回答の例」と「該当しない回答の例」をプロンプトに明記します。
  • 副作用」カテゴリの場合、「眠気や吐き気が心配」は該当するが、「効果が不十分」は「有効性」カテゴリに分類する、といった明確なルールを提示します。
  • 分類不能な回答や複数のカテゴリにまたがる回答の処理方法(例:最も強い理由を優先、または「その他」に分類)も指示します。

2. 構造化出力(JSONスキーマ)の活用:

DifyのLLMノードが持つ「構造化出力」機能は、分類結果の品質と後の処理効率を決定づけます。JSONスキーマを用いて出力形式を厳密に定義することで、LLMは自由な文章ではなく、機械的に集計可能なデータ(例:{"id": 123, "reason_category": "価格", "sentiment": "Negative"})を返します。これにより、分類結果をPythonやBIツール(Tableau、Power BIなど)に連携し、セグメント別(例:30代女性)の不使用理由の割合を算出するといった定量分析をわずか数秒で開始できるようになります。この構造化出力の強制により、分析プロセスにおけるエラー率を約95%削減することが可能です。

⚠️ 注意

プロンプトを曖昧にすると、LLMは意図しない分類を行う可能性があります。「アンケート結果を分析してください」といった抽象的な指示ではなく、「自由回答を読み、事前に定義した5つの理由(価格、副作用、…)のいずれかに分類し、出力は必ず指定されたJSON形式に従うこと」と具体的に指示することが不可欠です。

まとめ

アンケートの自由回答分析は、顧客のインサイトを得る上で不可欠ですが、従来の手動アフターコーディングは時間と労力、そして属人性が大きな課題でした。Difyを用いたLLMによる自動分類(セマンティック・クラスタリング)は、この課題を根本から解決します。DifyのワークフローとLLMノードを活用し、明確なプロンプトとJSONスキーマによる構造化出力を組み合わせることで、数千件の「薬を使わない理由」といった定性データを、客観的かつ定量的なデータとして瞬時に分類・集計できます。この自動化により、分析担当者は膨大な分類作業から解放され、浮いた時間を「なぜその結果になったのか」という深い考察と戦略立案に集中させることができます。Difyは、製薬業界をはじめとするあらゆる分野の市場調査において、データ活用のスピードと精度を飛躍的に向上させる強力なツールとなるでしょう。

監修者
監修者

株式会社ヘルツレーベン代表 木下 渉

株式会社ヘルツレーベン 代表取締役/医療・製薬・医療機器領域に特化したDXコンサルタント/
横浜市立大学大学院 ヘルスデータサイエンス研究科 修了。
製薬・医療機器企業向けのデータ利活用支援、提案代行、営業戦略支援を中心に、医療従事者向けのデジタルスキル教育にも取り組む。AI・データ活用の専門家として、企業研修、プロジェクトPMO、生成AI導入支援など幅広く活動中。

https://herzleben.co.jp/

SEO-OGP1 (3)

製薬RWD活用のブレイクスルー:LLMによる退院サマリからの有害事象データ構造化戦略

製薬RWD活用のブレイクスルー:LLMによる退院サマリからの有害事象データ構造化戦略

医薬品開発におけるリアルワールドデータ(RWD)の重要性が高まる中、その利活用を阻む最大の壁が、電子カルテや退院サマリといった「非構造化データ」の処理です。特に、医薬品の有効性と安全性を評価するために不可欠な有害事象(Adverse Event: AE)の情報は、医師の自由記述欄に埋もれており、手作業による抽出・標準化には膨大な時間とコストがかかります。本記事では、この課題を解決する大規模言語モデル(LLM)を用いた非構造化データ構造化の最先端戦略を解説します。LLM開発プラットフォームを活用することで、どのようにして非構造化データの「80%の壁」を打ち破り、製薬研究開発(R&D)の効率とスピードを飛躍的に向上させるのか、具体的なメカニズムと標準化のポイントをプロフェッショナルな視点から深く掘り下げます。

製薬RWDの多様なデータソース(電子カルテ、レセプト、ウェアラブルなど)が中央データベースに集約される抽象的なイメージ
目次

1. 結論:RWD活用のカギは「有害事象の自動構造化」に集約される

製薬R&DにおけるRWD活用の成功は、電子カルテのフリーテキストや退院サマリなどの非構造化データに潜む、重要な臨床アウトカム情報、特に有害事象(AE)データをいかに効率的かつ高精度に「構造化・標準化」できるかにかかっています。従来の自然言語処理(NLP)技術では困難であった医療特有の専門用語、略語、文脈の解釈が、大規模言語モデル(LLM)の登場により可能となりました。LLMを活用することで、退院サマリに記載された複合的な情報から、AE名、発現日、重症度、転帰といった特定の項目を瞬時に抽出・データ化することが可能になります。これにより、手作業によるデータ入力やコーディング作業に要していた時間を大幅に短縮し、臨床開発のリードタイムを最大で約30%削減するポテンシャルを秘めています。

💡 ポイント

RWDの価値の約70%は非構造化データに含まれると推定されています。LLMによる構造化は、この隠れた価値を解き放ち、特に医薬品の安全対策(ファーマコビジランス)におけるシグナル検出の迅速化に直結します。

【出典】

医療用医薬品の使用成績調査における収集データ項目から …

(www.jstage.jst.go.jp)

2. 製薬RWDにおける非構造化データの「80%の壁」と構造化の課題

電子カルテ(EHR)に含まれるデータの大部分は、医師の所見、手術記録、看護記録など、自由記述形式の非構造化データで構成されており、その割合は全体の約80%に達すると言われています。これらの情報には、定型的な構造化データ(検査値、処方データなど)だけでは捉えきれない、患者の微細な症状変化や予期せぬ有害事象の詳細な経過が含まれています。しかし、この非構造化データを手作業でレビューし、必要な情報を抽出・コーディングするには、高度な医学知識と膨大な人的リソースが必要です。特に、新しい薬剤の市販後調査(PMS)や、治験の対照群としてRWDを利用する場合、この「80%の壁」がデータの即時利用を妨げ、安全性情報の収集遅延やコスト増加の大きな要因となっています。この課題を解決するために、フリーテキストデータから薬物の治療抵抗性などの臨床アウトカムを抽出するための、自然言語処理を活用した方法論の検討が日本国内でも進められています。

  • 非構造化データが抱える主要な課題:
  • 医療専門用語、略語、文脈依存性の高い記述の多さ
  • アウトカム情報(治療効果・有害事象)の定型化されていない記録形式
  • 手動抽出による高コストと時間遅延(年間数千万円、数ヶ月単位)
  • 構造化データの標準化(CDISC/MedDRA)へのマッピングの複雑性

3. LLMによる有害事象抽出の仕組み:プロンプトエンジニアリングとDifyの役割

DifyのようなLLM開発プラットフォームは、非構造化データからの情報抽出プロセスを大幅に簡素化します。この仕組みの核となるのは、高度に設計された「プロンプトエンジニアリング」と、RWD特有の知識を参照する「RAG(Retrieval-Augmented Generation)」技術です。具体的には、退院サマリのテキストを入力とし、出力形式をCDISCやMedDRAの構造に準拠するようLLMに指示します。これにより、LLMはテキスト内の有害事象の記述(例:「〇〇薬投与後、発熱と皮疹を呈した」)を正確に特定し、以下の構造化されたデータ項目に変換します。

このプロセスにより、数時間かかっていた症例報告書のレビュー作業が数分に短縮され、効率化が実現します。

💡 ポイント

LLMによる有害事象抽出は、従来の手法と比較してF1スコアで約15〜20%の精度向上が報告されており、特に日本語の医療文書の複雑な文脈理解において優位性があります。厚生労働科学研究費補助金事業でも、LLMを活用した医薬品等の有効性・安全性評価のためのアウトカム抽出の方法論の確立に向けた研究が進められています。

4. 構造化データの品質保証:Human-in-the-loopとCDISC/MedDRAへのマッピング

LLMによる自動抽出は強力ですが、RWDを規制当局への申請データとして利用するためには、その品質と信頼性を確保することが不可欠です。LLMの出力結果をそのまま使用するのではなく、「Human-in-the-loop(HITL)」、すなわち、専門家(医師、データサイエンティストなど)による最終的な確認と修正のプロセスを組み込むことが重要です。特に、有害事象のコード化においては、治験データで用いられる国際的な標準であるMedDRA(Medical Dictionary for Regulatory Activities)や、臨床研究データの標準規格であるCDISC(Clinical Data Interchange Standards Consortium)への正確なマッピングが求められます。

項目非構造化データ(退院サマリ)LLM抽出後の構造化データ
有害事象名「昨夜から38.5℃の発熱と全身の紅斑」発熱、紅斑
標準コード(なし)MedDRAコード(例: 10016503, 10014034)
CDISCドメイン(なし)AE (Adverse Event)
⚠️ 注意

RWDの利活用においては、医療情報の匿名化・仮名化が必須であり、個人情報保護法や医療情報セキュリティガイドラインの厳格な遵守が求められます。LLMへの入力データは、必ず適切なセキュリティ対策と匿名化処理を施した上で利用しなければなりません。

【出典】

データマネジメントにおけるArtificial Intelligenceの活用 ~ これから始めるAI ~

(www.jpma.or.jp)

5. RWD活用加速がもたらす新薬開発・市販後安全対策へのインパクト

LLMによる非構造化データの構造化は、製薬業界に多大なメリットをもたらします。最も大きなインパクトは、臨床開発の意思決定の迅速化と安全対策の強化です。RWDが迅速に構造化され、CDISC/MedDRA標準に準拠することで、レセプトデータなどの構造化データと容易に連結解析が可能になります。これにより、治験の対照群構築、特定集団に対する追跡研究、新たな副作用シグナルの早期検出が実現します。

  • LLM構造化による主なインパクト:
  • 臨床試験の効率化: RWDを用いたヒストリカルコントロール群の構築が容易になり、治験コストを削減。
  • ファーマコビジランスの高度化: 医療現場の生の情報から、稀な有害事象や予期せぬ副作用を早期に検知。
  • 個別化医療の推進: 患者の詳細な治療経過やアウトカム情報を分析し、最適な治療法の特定に貢献。

今後、標準型電子カルテの普及や公的データベースの整備が進む中で、LLMを活用したデータ構造化技術は、製薬R&Dをデジタル化の次のフェーズへと押し上げ、最終的には患者一人ひとりに最適な治療を届ける「個別化医療」の実現に不可欠な基盤となると期待されます。

まとめ

製薬RWD活用における最大の課題は、電子カルテや退院サマリに埋もれた非構造化データからの、特に有害事象(AE)データの抽出と標準化でした。この「80%の壁」を打破する鍵は、Difyのようなプラットフォームを活用した大規模言語モデル(LLM)による自動構造化にあります。LLMは、高度なプロンプトエンジニアリングとRAG技術により、医療特有の複雑なフリーテキストからAE情報を高精度に抽出し、CDISCやMedDRAといった標準規格にマッピングする能力を持っています。ただし、規制当局への申請データとして利用するためには、Human-in-the-loopによる品質保証と、厳格な医療情報セキュリティの遵守が不可欠です。このAIを活用した構造化戦略は、臨床開発の効率化と市販後安全対策の高度化を両立させ、新薬開発に不可欠なデータ基盤を構築します。

【出典】

生成AIによる退院サマリ自動作成システムの導入報告 | 文献情報 | J-G…

(jglobal.jst.go.jp)

監修者
監修者

株式会社ヘルツレーベン代表 木下 渉

株式会社ヘルツレーベン 代表取締役/医療・製薬・医療機器領域に特化したDXコンサルタント/
横浜市立大学大学院 ヘルスデータサイエンス研究科 修了。
製薬・医療機器企業向けのデータ利活用支援、提案代行、営業戦略支援を中心に、医療従事者向けのデジタルスキル教育にも取り組む。AI・データ活用の専門家として、企業研修、プロジェクトPMO、生成AI導入支援など幅広く活動中。

https://herzleben.co.jp/

Load More

Privacy Policy