JP2024034528A - モデル生成装置、文書生成装置、モデル生成方法、文書生成方法、及びプログラム - Google Patents

モデル生成装置、文書生成装置、モデル生成方法、文書生成方法、及びプログラム Download PDF

Info

Publication number
JP2024034528A
JP2024034528A JP2022138806A JP2022138806A JP2024034528A JP 2024034528 A JP2024034528 A JP 2024034528A JP 2022138806 A JP2022138806 A JP 2022138806A JP 2022138806 A JP2022138806 A JP 2022138806A JP 2024034528 A JP2024034528 A JP 2024034528A
Authority
JP
Japan
Prior art keywords
learning
data
document
model
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022138806A
Other languages
English (en)
Inventor
翔太郎 三沢
Shotaro Misawa
大和 鑓水
Yamato Yarimizu
竜示 狩野
Ryuji Kano
友紀 谷口
Tomonori Taniguchi
智子 大熊
Tomoko Okuma
浩平 小野田
Kohei Onoda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2022138806A priority Critical patent/JP2024034528A/ja
Priority to US18/458,130 priority patent/US20240070544A1/en
Publication of JP2024034528A publication Critical patent/JP2024034528A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】情報データから、情報データと関連度が高い文書と、情報データと関連度が低い文書とを適切に生成することができるモデル生成装置、文書生成装置、文書生成方法、モデル生成方法、及びプログラムを提供する。
【解決手段】プロセッサが、学習用情報データを取得し、学習用文書データを取得し、前記学習用情報データと、前記学習用文書データの部分毎との一致度に基づいて、前記学習用文書データから、第1部分と、前記第1部分よりも前記学習用情報データとの一致度が低い第2部分とを抽出し、前記学習用情報データに含まれる学習用第1データを入力データとし、かつ前記第1部分を正解データとした第1学習データにより第1機械学習モデルを生成し、前記学習用情報データに含まれる学習用第2データを入力データとし、かつ前記第2部分を正解データとした第2学習データにより第2機械学習モデルを生成する、モデル生成装置。
【選択図】図7

Description

本開示は、モデル生成装置、文書生成装置、モデル生成方法、文書生成方法、及びプログラムに関する。
現在までの情報を表す情報データから、情報データと関連度が低い文書を生成する技術が知られている。関連度が低い文書とは、例えば、未来に係わる文書が挙げられる。例えば、特許文献1には、第1の患者に係る患者情報と、データベースから取得したドナーに係る情報とを用いて生成された適用データを、患者情報と、ドナーに係る情報と、患者とドナーの関係に係る情報と、移植予後の結果と、の関係を学習した学習器に適用して、第1の患者の移植予後の結果を含む移植候補情報を生成する技術が開示されている。
特開2020-119383号公報
ところで、情報データから、情報データと関連度が高い文書と、情報データと関連度が低い文書とを生成する場合、適切な文書が生成されない場合があった。例えば、特許文献1に記載の技術では、学習器を用いて適用データ及び移植予後の結果を生成した場合、生成された適用データ及び移植予後の結果の少なくとも一方が適切な文書とならない場合がある。
本開示は、上記の事情を鑑みてなされたものであり、情報データから、情報データと関連度が高い文書と、情報データと関連度が低い文書とを適切に生成することができるモデル生成装置、文書生成装置、モデル生成方法、文書生成方法、及びプログラムを提供することを目的とする。
上記目的を達成するために本開示の第1の態様のモデル生成装置は、少なくとも1つのプロセッサを備え、プロセッサは、学習用情報データを取得し、学習用文書データを取得し、学習用情報データと、学習用文書データの部分毎との一致度に基づいて、学習用文書データから、第1部分と、第1部分よりも学習用情報データとの一致度が低い第2部分とを抽出し、学習用情報データに含まれる学習用第1データを入力データとし、かつ第1部分を正解データとした第1学習データにより第1機械学習モデルを生成し、学習用情報データに含まれる学習用第2データを入力データとし、かつ第2部分を正解データとした第2学習データにより第2機械学習モデルを生成する。
第2の態様のモデル生成装置は、第1の態様のモデル生成装置において、学習用文書データは、第1日付情報が対応付けられた、特定の個人、特定の事物、及び特定の事象のいずれかである特定物、に係わる固有データであり、学習用情報データは、第1日付情報、または第1日付情報が表す日付よりも前の第2日付情報が対応付けられた特定物に係わる固有データである複数の文書データを含む。
第3の態様のモデル生成装置は、第1の態様のモデル生成装置において、プロセッサは、第1機械学習モデルの性能及び第2機械学習モデルの性能を報酬とした強化学習により、学習用文書データを入力とし、第1部分及び第2部分の少なくとも一方を出力する第3機械学習モデルを生成し、第3機械学習モデルを用い、学習用文書データから第1部分及び第2部分を抽出する。
第4の態様のモデル生成装置は、第1の態様のモデル生成装置において、第2機械学習モデルは、学習用情報データに基づく予測結果を出力する機械学習モデルを含み、予測結果と、テンプレートとを組み合わせて出力する機械学習モデルである。
また、上記目的を達成するために本開示の第5の態様の文書生成装置は、学習用情報データに含まれる学習用第1データを入力データとし、かつ学習用情報データと学習用文書データの部分毎との一致度に基づいて学習用文書データから抽出された第1部分を正解データとした第1学習データにより生成された第1機械学習モデルと、学習用情報データに含まれる学習用第2データを入力データとし、かつ学習用文書データから抽出された、第1部分よりも学習用情報データとの一致度が低い第2部分を正解データとした第2学習データにより生成された第2機械学習モデルと、少なくとも1つのプロセッサと、を備え、プロセッサは、情報データを取得し、第1機械学習モデルに、情報データに含まれる第1データを入力させ、第1文書を取得し、第2機械学習モデルに、情報データに含まれる第2データを入力させ、第2文書を取得し、第1文書及び第2文書から第3文書を生成する。
また、上記目的を達成するために本開示の第6の態様のモデル生成方法は、少なくとも1つのプロセッサを備えるモデル生成装置のプロセッサが実行するモデル生成方法であって、学習用情報データを取得し、学習用文書データを取得し、学習用情報データと、学習用文書データの部分毎との一致度に基づいて、学習用文書データから、第1部分と、第1部分よりも学習用情報データとの一致度が低い第2部分とを抽出し、学習用情報データに含まれる学習用第1データを入力データとし、かつ第1部分を正解データとした第1学習データにより第1機械学習モデルを生成し、学習用情報データに含まれる学習用第2データを入力データとし、かつ第2部分を正解データとした第2学習データにより第2機械学習モデルを生成する。
また、上記目的を達成するために本開示の第7の態様の文書生成方法は、学習用情報データに含まれる学習用第1データを入力データとし、かつ学習用情報データと学習用文書データの部分毎との一致度に基づいて学習用文書データから抽出された第1部分を正解データとした第1学習データにより生成された第1機械学習モデルと、学習用情報データに含まれる学習用第2データを入力データとし、かつ学習用文書データから抽出された、第1部分よりも学習用情報データとの一致度が低い第2部分を正解データとした第2学習データにより生成された第2機械学習モデルと、少なくとも1つのプロセッサと、を備える文書生成装置のプロセッサが実行する文書生成方法であって、情報データを取得し、第1機械学習モデルに、情報データに含まれる第1データを入力させ、第1文書を取得し、第2機械学習モデルに、情報データに含まれる第2データを入力させ、第2文書を取得し、第1文書及び第2文書から第3文書を生成する。
また、上記目的を達成するために本開示の第8の態様のプログラムは、本開示のモデル生成方法、及び本開示の文書生成方法の少なくとも一方を実行するプログラムである。
本開示によれば、情報データから、情報データと関連度が高い文書と、情報データと関連度が低い文書とを適切に生成することができる。
実施形態の診療サマリ生成システムにおける全体の構成の一例を概略的に表した構成図である。 診療サマリ生成装置による診療サマリの生成について説明するための図である。 診療サマリ生成装置の構成の一例を示すブロック図である。 実施形態の診療サマリ生成装置の診療サマリの生成に関する機能の一例を表す機能ブロック図である。 実施形態の診療サマリ生成装置による診療サマリ生成処理の流れの一例を表したフローチャートである。 表示部に関連文書及び診療サマリの表示させた状態の一例を示した図である。 実施形態の診療サマリ生成装置の診療サマリの生成に関する機能の一例を表す機能ブロック図である。 過去文未来文定義機構の作用について説明するための図である。 過去文サマリ生成機構学習部による過去文生成機構用モデルの学習を説明するための図である。 未来文サマリ生成機構学習部による未来文生成機構用モデルの学習を説明するための図である。 実施形態の診療サマリ生成装置による学習処理の流れの一例を表したフローチャートである。 変形例1の過去文未来文定義機構について説明するための図である。
以下、図面を参照して本開示の実施形態を詳細に説明する。なお、本実施形態は本開示の技術を限定するものではない。
まず、本実施形態の診療サマリ生成システムにおける、全体の構成の一例について説明する。図1には、本実施形態の診療サマリ生成システム1における、全体の構成の一例を表す構成図が示されている。図1に示すように、本実施形態の診療サマリ生成システム1は、診療サマリ生成装置10及び関連文書DB(DataBase)14を備える。診療サマリ生成装置10、及び複数の患者の各々に関連する関連文書15を記憶する関連文書DB14は、ネットワーク19を介して有線通信または無線通信により接続されている。
関連文書DB14には、複数の患者に関する関連文書15が記憶される。関連文書DB14は、汎用コンピュータにデータベース管理システム(DataBase Management system:DBMS)の機能を提供するソフトウェアプログラムがインストールされたサーバ装置等に備えられた、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等の記憶媒体によって実現される。
一例として本実施形態の関連文書15は、患者の診療に関連する文書であり、例えば、図2に示すように、その患者に係わる患者のカルテ、患者プロファイル、手術記録、及び検査記録等が挙げられる。なお、本実施形態において「文書」とは、単語及び文の少なくとも一方を構成要素とした情報である。例えば、文書は、1つの単語のみを含んでいてもよいし、また、複数の文を含んでいてもよい。関連文書15は、特定の患者毎に、患者を識別するための識別情報と対応付けられて関連文書DB14に記憶されている。本実施形態の関連文書15が、本開示の情報データの一例である。
一方、図2に示すように、診療サマリ生成装置10は、過去文生成機構用モデル34及び未来文生成機構用モデル36を含み、特定の患者に関連する関連文書15から、診療サマリ16を生成する装置である。診療サマリ16は、特定の患者の診療に関する診療サマリであり、過去文サマリ16P及び未来文サマリ16Fを含む。
診療サマリ生成装置10は、関連文書15から過去文生成機構用モデル34を用いて過去文サマリ16Pを生成する。過去文サマリ16Pは、診療サマリ16を生成する時点よりも過去における特定の患者の診療に関する診療サマリである。いわば、過去文サマリ16Pは、関連文書15の内容をまとめた文書といえ、関連文書15との一致度が高い文書である。一例として図2に示した過去文サマリ16Pは、「患者は50歳男性、糖尿病の持病あり。」及び「入院時に手術を実施し、入院経過は非常に良好。」との2つの文を含む。
一方、診療サマリ生成装置10は、関連文書15から未来文生成機構用モデル36を用いて未来文サマリ16Fを生成する。未来文サマリ16Fは、診療サマリ16を生成する時点よりも未来における特定の患者の診療に関する診療サマリであり、例えば、特定の患者の予後予測や医療計画に関する診療サマリ等である。未来文サマリ16Fは、関連文書15との一致度が低い文書である。一例として図2に示した未来文サマリ16Fは、「今後は通院治療を予定。」との1つの文を含む。本実施形態の診療サマリ生成装置10が、本開示の文書生成装置の一例である。
また、本実施形態の診療サマリ生成装置10は、過去文サマリ16Pの生成に用いる過去文生成機構用モデル34、及び未来文サマリ16Fの生成に用いる未来文生成機構用モデル36の各々を生成する機能を有する。本実施形態の診療サマリ生成装置10が、本開示のモデル生成装置の一例である。なお、過去文生成機構用モデル34及び未来文生成機構用モデル36の生成については詳細を後述する。
図3に示すように、本実施形態の診療サマリ生成装置10は、制御部20、記憶部22、通信I/F(Interface)部24、操作部26、及び表示部28を備えている。制御部20、記憶部22、I/F部24、操作部26、及び表示部28はシステムバスやコントロールバス等のバス29を介して相互に各種情報の授受が可能に接続されている。
本実施形態の制御部20は、診療サマリ生成装置10の全体の動作を制御する。制御部20は、プロセッサであり、CPU(Central Processing Unit)20Aを備える。また、制御部20は、後述する記憶部22と接続される。
操作部26は、診療サマリ16の生成に関する指示や各種情報等をユーザが入力するために用いられる。操作部26は特に限定されるものではなく、例えば、各種スイッチ、タッチパネル、タッチペン、及びマウス等が挙げられる。表示部28は、診療サマリ16、関連文書15、及び各種情報等を表示する。なお、操作部26と表示部28とを一体化してタッチパネルディスプレイとしてもよい。
通信I/F部24は、無線通信または有線通信により、ネットワーク19を介して関連文書DB14等との間で各種情報の通信を行う。診療サマリ生成装置10は、診療サマリ16から特定の患者に関連する関連文書15を、通信I/F部24を介して無線通信または有線通信により受信する。
記憶部22は、ROM(Read Only Memory)22A、RAM(Random Access Memory)22B、ストレージ22Cを備える。ROM22Aには、CPU20Aにより実行される各種のプログラム等が予め記憶されている。RAM22Bは、各種データを一時的に記憶する。ストレージ22Cには、CPU20Aで実行される診療サマリ生成プログラム30及び学習プログラム32が記憶される。また、ストレージ22Cには、過去文生成機構用モデル34、未来文生成機構用モデル36、学習データ50、及びその他の各種情報等が記憶される。ストレージ22Cは不揮発性の記憶部であり、例えば、HDDやSSD等が挙げられる。
(診療サマリ16の生成)
まず、本実施形態の診療サマリ生成装置10における診療サマリ16を生成する機能について説明する。換言すると、過去文生成機構用モデル34及び未来文生成機構用モデル36の運用フェーズについて説明する。図4には、本実施形態の診療サマリ生成装置10における診療サマリ16の生成に関する構成の一例の機能ブロック図を示す。図4に示すように診療サマリ生成装置10は、診療サマリ生成部40、過去文サマリ生成機構44、未来文サマリ生成機構46、及び表示制御部48を備える。一例として本実施形態の診療サマリ生成装置10では、制御部20のCPU20Aがストレージ22Cに記憶されている診療サマリ生成プログラム30を実行することにより、CPU20Aが診療サマリ生成部40、過去文サマリ生成機構44、未来文サマリ生成機構46、及び表示制御部48として機能する。
診療サマリ生成部40は、診療サマリを生成する対象となる特定の患者を表す患者識別情報を受け付けると、受け付けた患者識別情報に応じた関連文書15を、ネットワーク19を介して関連文書DB14から取得する。診療サマリ生成部40は、取得した関連文書15を、過去文サマリ生成機構44及び未来文サマリ生成機構46に出力する。
また、診療サマリ生成部40は、過去文サマリ生成機構44が生成した過去文サマリ16Pと、未来文サマリ生成機構46が生成した未来文サマリ16Fとを取得し、過去文サマリ16P及び未来文サマリ16Fから、診療サマリ16を生成する。本実施形態の診療サマリ生成部40は、過去文サマリ16Pと、未来文サマリ16Fとから所定の書式に基づいて、診療サマリ16を生成する。一例として、本実施形態の診療サマリ生成部40は、過去文サマリ16Pの後に、未来文サマリ16Fを付け加えることで、診療サマリ16を生成する。
過去文サマリ生成機構44は、過去文生成機構用モデル34を含み、過去文生成機構用モデル34を用いて、関連文書15から、特定の患者に関する過去文サマリ16Pを生成する。一例として、本実施形態の過去文サマリ生成機構44は、関連文書15を、関連文書15に含まれる文書毎または単語毎にベクトル化して過去文生成機構用モデル34に入力し、出力された過去文サマリ16Pを取得する。過去文サマリ生成機構44は、生成した過去文サマリ16Pを診療サマリ生成部40に出力する。本実施形態の過去文生成機構用モデル34が、本開示の第1機械学習モデルの一例である。また、本実施形態の特定の患者に関する関連文書15が、本開示の第1データの一例である。また、本実施形態の過去文サマリ16Pが、本開示の第1文書の一例である。
未来文サマリ生成機構46は、未来文生成機構用モデル36を含み、未来文生成機構用モデル36を用いて、関連文書15から、特定の患者に関する未来文サマリ16Fを生成する。一例として、本実施形態の未来文サマリ生成機構46は、関連文書15を、関連文書15に含まれる文書毎または単語毎にベクトル化して未来文サマリ生成機構46に入力し、出力された未来文サマリ16Fを取得する。未来文サマリ生成機構46は、生成した未来文サマリ16Fを診療サマリ生成部40に出力する。本実施形態の未来文生成機構用モデル36が、本開示の第2機械学習モデルの一例である。また、本実施形態の特定の患者に関する関連文書15が、本開示の第2データの一例である。また、本実施形態の未来文サマリ16Fが、本開示の第2文書の一例である。
表示制御部48は、診療サマリ生成部40により生成された診療サマリ16を、表示部28に表示させる制御を行う。また、表示制御部48は、診療サマリ16を生成する元となった、特定の患者の関連文書15も表示部28に表示させる制御を行う。
次に、本実施形態の診療サマリ生成装置10における診療サマリを生成する作用について図面を参照して説明する。図5には、本実施形態の診療サマリ生成装置10において実行される診療サマリ生成処理の流れの一例を表したフローチャートが示されている。本実施形態の診療サマリ生成装置10は、一例として、操作部26により行われた、ユーザの開始指示等に基づいて、制御部20のCPU20Aが、ストレージ22Cに記憶されている診療サマリ生成プログラム30を実行することにより、図5に一例を示した診療サマリ生成処理を実行する。
図5のステップS100で診療サマリ生成部40は、上述したようにユーザが、操作部26を用いて指定した、特定の患者の患者識別情報を受け付ける。次のステップS102で診療サマリ生成部40は、上述したように、患者識別情報に対応付けられている関連文書15を関連文書DB14から、ネットワーク19を介して取得する。取得した関連文書15は、過去文サマリ生成機構44及び未来文サマリ生成機構46に出力される。
次のステップS104で過去文サマリ生成機構44は、上述したように、関連文書15をベクトル化して過去文生成機構用モデル34に入力し、出力された過去文サマリ16Pを取得することで、過去文サマリ16Pを生成する。過去文サマリ生成機構44は、生成した過去文サマリ16Pを診療サマリ生成部40に出力する。
次のステップS106で未来文サマリ生成機構46は、上述したように、関連文書15をベクトル化して未来文生成機構用モデル36に入力し、出力された未来文サマリ16Fを取得することで、未来文サマリ16Fを生成する。未来文サマリ生成機構46は、生成した未来文サマリ16Fを診療サマリ生成部40に出力する。
なお、上記ステップS104及びS106を実行する順序は特に限定されない。例えば、ステップS106の処理を、ステップS104の処理よりも先に実行してもよい。また例えば、ステップS104の処理と、ステップS106の処理とを並行して実行してもよい。
次のステップS108で診療サマリ生成部40は、上述したように、過去文サマリ生成機構44が生成した過去文サマリ16Pと、未来文サマリ生成機構46が生成した未来文サマリ16Fとから、診療サマリ16を生成する。
次のステップS110で表示制御部48は、上述したように、関連文書15及び診療サマリ16を表示部28に表示させる。図6には、関連文書15及び診療サマリ16を表示部28に表示させた状態の一例を示す。これにより、医師等のユーザは、特定の患者に関する診療サマリ16を得ることができる。ステップS110の処理が終了すると、図5に示した診療サマリ生成処理が終了する。
このように、本実施形態の診療サマリ生成装置10によれば、特定の患者の関連文書15から、その特定の患者に係わる過去文サマリ16Pと未来文サマリ16Fとを含む診療サマリ16を生成し、ユーザに提供することができる。
(過去文生成機構用モデル34及び未来文生成機構用モデル36の生成)
次に、本実施形態の診療サマリ生成装置10における過去文生成機構用モデル34及び未来文生成機構用モデル36を生成する機能について説明する。換言すると、過去文生成機構用モデル34及び未来文生成機構用モデル36の学習フェーズについて説明する。
図7には、本実施形態の診療サマリ生成装置10における過去文生成機構用モデル34及び未来文生成機構用モデル36の生成に関する構成の一例の機能ブロック図を示す。図7に示すように診療サマリ生成装置10は過去文未来文定義機構60、過去文サマリ生成機構学習部64、及び未来文サマリ生成機構学習部66を備える。一例として本実施形態の診療サマリ生成装置10では、制御部20のCPU20Aがストレージ22Cに記憶されている学習プログラム32を実行することにより、CPU20Aが過去文未来文定義機構60、過去文サマリ生成機構学習部64、及び未来文サマリ生成機構学習部66として機能する。
一例として図8に示すように、本実施形態の診療サマリ生成装置10では、学習用関連文書52と正解サマリ54との組である学習データ50を用いて、過去文生成機構用モデル34及び未来文生成機構用モデル36の学習が行われる。学習データ50は、訓練データまたは教師データとも呼ばれる。本実施形態の学習用関連文書52が本開示の学習用情報データの一例であり、本実施形態の正解サマリ54が本開示の学習用文書データの一例である。
学習用関連文書52は、関連文書15と同様に、特定の患者のカルテ、患者プロファイル、手術記録、及び検査記録等を含む。正解サマリ54は、特定の患者の診療に関して学習用関連文書52を参照して医師等により実際に生成された診療サマリである。正解サマリ54は、過去文サマリ16Pに対応する正解過去文サマリ54Pと、未来文サマリ16Fに対応する正解未来文サマリ54Fとを含む。本実施形態の正解過去文サマリ54Pが本開示の第1部分の一例であり、本実施形態の正解未来文サマリ54Fが本開示の第2部分の一例である。
過去文未来文定義機構60は、学習用関連文書52と、正解サマリ54の部分毎との一致度に基づいて、正解サマリ54から、正解過去文サマリ54Pと、正解過去文サマリ54Pよりも学習用関連文書52との一致度が低い正解未来文サマリ54Fとを抽出する。一例として、本実施形態の過去文未来文定義機構60は、2つの文字列が相違している度合い(相違度)を示す尺度である編集距離や、要約を評価するための指標であるROUGE (Recall-Oriented Understudy for Gisting Evaluation)等を用いて、正解サマリ54に含まれる各文について、学習用関連文書52との一致度を導出する。また、過去文未来文定義機構60は、学習用関連文書52との一致度が閾値以上の文を、正解過去文サマリ54Pとする。換言すると、過去文未来文定義機構60は、学習用関連文書52との一致度が閾値未満の文を、正解未来文サマリ54Fとする。
例えば、図8に示した正解サマリ54に含まれる3つの文のうち、「患者は50歳男性、糖尿病の持病あり。」との文の学習用関連文書52との一致率が7割、「入院時に手術を実施し、入院経過は非常に良好。」との文の学習用関連文書52との一致率が8割とする。また、正解サマリ54に含まれる3つの文のうち、「今後は通院治療を予定。」との文の学習用関連文書52との一致率が1割とする。ここで、一致しているか否かの判断基準となる閾値が2割である場合、過去文未来文定義機構60は、正解過去文サマリ54Pとして前者の2つの文を、正解未来文サマリ54Fとして後者の1つの文を抽出する。
これにより、学習用関連文書52と正解過去文サマリ54Pとの組であり、過去文生成機構用モデル34の学習に用いる第1学習データ50Pと、学習用関連文書52と正解未来文サマリ54Fとの組であり、未来文生成機構用モデル36の学習に用いる第2学習データ50Fとが得られる。
過去文サマリ生成機構学習部64は、第1学習データ50Pを用いて機械学習モデルの学習を行うことにより、過去文サマリ生成機構44の過去文生成機構用モデル34を生成する。図9には、本実施形態の過去文サマリ生成機構学習部64による過去文生成機構用モデル34の学習を説明するための図が示されている。
本実施形態の過去文サマリ生成機構学習部64は、まず、学習用関連文書52から、予め定められた基準に基づいて、一つの学習用関連文書52Dを抽出する。一例として本実施形態の過去文サマリ生成機構学習部64は、学習用関連文書52に含まれる1つの文を1つの学習用関連文書52Dとして、単文単位で学習用関連文書52Dを抽出する。なお、学習用関連文書52から学習用関連文書52Dを抽出するための上記基準は特に限定されず、例えば、対応付けられている日付が同日であることを基準としてもよい。
過去文サマリ生成機構学習部64は、学習用関連文書52Dの、正解過去文サマリ54Pに対する一致度を導出する。なお、過去文サマリ生成機構学習部64は、ある学習用関連文書52Dの一致度として、正解過去文サマリ54Pを構成する文との一致度のうち、最も高い一致度を、その学習用関連文書52Dの一致度として採用してもよい。例えば、正解過去文サマリ54Pを所定の条件に従って分割し、分割した部分毎に、学習用関連文書52Dとの一致度を導出し、最も高い部分の一致度を学習用関連文書52Dの一致度としても良い。なお、所定の条件とは、例えば、文単位、フレーズ単位等があげられる。また、正解過去文サマリ54Pを分割する方法としては、例えば、1文字ずつシフとしながら一致度を導出し、最も一致度が高くなる場所で分割を行う方法等が挙げられる。また、過去文サマリ生成機構学習部64が、一致度を導出する方法は、得に限定されず、例えば、上述したROUGE等を用いてもよい、また例えば、人手により、一致度を設定してもよい。学習用関連文書52に含まれる個々の学習用関連文書52D毎に、一致度が出される。本実施形態では、一致度は、0以上、1以下の値となり、数値が大きいほど、一致度が高い、すなわち、一致していることを表す。この一致度を正解スコア72と対応する、学習用関連文書52Dとの組である学習データ70を与えられて、過去文生成機構用モデル34の学習を行う。
図9に示すように、本実施形態の過去文生成機構用モデル34は、学習フェーズにおいて、訓練データまたは教師データとも呼ばれる学習データ70を与えられて学習される。
学習フェーズにおいて、過去文生成機構用モデル34には、学習用関連文書52Dが例えば、単語毎にベクトル化されて入力される。過去文生成機構用モデル34は、学習用関連文書52Dに対して学習用スコア73を出力する。正解スコア72及び学習用スコア73に基づいて、損失関数を用いた過去文生成機構用モデル34の損失演算がなされる。そして、損失演算の結果に応じて過去文生成機構用モデル34の各種係数の更新設定がなされ、更新設定にしたがって、過去文生成機構用モデル34が更新される。
なお、このとき、過去文生成機構用モデル34には、学習の対象とする学習用関連文書52Dに加えて、当該患者に関する検査値等の付加情報や、他の候補となる学習用関連文書も入力に用いてもよい。このように学習の対象とする学習用関連文書52D以外の関連情報を利用することにより、予測を行い易くすることができる。
学習フェーズにおいては、学習用関連文書52Dの過去文生成機構用モデル34への入力、過去文生成機構用モデル34からの学習用スコア73の出力、損失演算、更新設定、及び過去文生成機構用モデル34の更新の上記一連の処理が、学習データ70が交換されつつ繰り返し行われる。上記一連の繰り返しは、正解スコア72に対する学習用スコア73の予測精度が、予め定められた設定レベルまで達した場合に終了される。このようにして、関連文書15に含まれる個々の文書である関連文書15Dを入力とし、スコアを出力する過去文生成機構用モデル34が生成される。このスコアが高いほど、入力させた関連文書15Dが、生成すべき過去文サマリ16Pとの一致度合いが高いことを表す。過去文サマリ生成機構学習部64は、生成した過去文生成機構用モデル34を、診療サマリ生成装置10の記憶部22のストレージ22Cに記憶させる。
この場合、例えば、運用フェーズで過去文サマリ生成機構44は、関連文書15に含まれる複数の関連文書15Dを過去文生成機構用モデル34に入力させ、出力される関連文書15D毎のスコアを取得する。そして、過去文サマリ生成機構44は、複数の関連文書15Dのうちから、スコアが高い方から、順に、予め定められた数の関連文書15Dを抽出することで、過去文サマリ16Pとして生成する。
また、未来文サマリ生成機構学習部66は、未来文サマリ生成機構46の未来文生成機構用モデル36を、学習データ50を入力とし、正解サマリ54の正解未来文サマリ54Fを正解データとして機械学習モデルの学習を行うことにより生成する。第2学習データ50Fを用いて機械学習モデルの学習を行うことにより、未来文サマリ生成機構46の未来文生成機構用モデル36を生成する。図10には、本実施形態の未来文サマリ生成機構学習部66による未来文生成機構用モデル36の学習を説明するための図が示されている。
図10に示すように、本実施形態の未来文生成機構用モデル36は、学習フェーズにおいて、訓練データまたは教師データとも呼ばれる第2学習データ50Fを与えられて学習される。未来文生成機構用モデル36は、予測モデル36Fを含む。予測モデル36Fは、例えば、特定の患者の未来の状態に対して予測を行う予測モデルである。学習フェーズにおいて、予測モデル36Fには、学習用関連文書52及び特定の患者に対応付けられた検査値等の学習用関連情報53が入力される。なお、例えば、学習用関連文書52等の文書データは、文書毎にベクトル化されて入力される。予測モデル36Fは、学習用関連文書52に対して学習用予測結果80を出力する。なお、学習用予測結果80は、正解未来文サマリ54Fの集合とテンプレート81とを突き合わせて、上位となる代入候補を抽出し、その中から選択するタスクにする。ここで用いるテンプレート81の例としては、通院・投薬治療・自宅療養・リハビリ等の各々に関するテンプレートが挙げられる。このとき、予測モデル36Fの学習はこの方法に限定されず、語彙集合・フレーズ集合・医療用辞書等から代入する語を選択したり、予め人手で定めた基準(例えば、退院までの日数(『X日後に退院予定』に代入するX)を正解として設定したりしてもよい。なお、予め人手で定めた基準を用いる場合、予測モデル36Fの学習は、別に用意した学習データ(この例で言えば、退院までの日数)を用いることが想定される。未来文生成機構用モデル36は、学習用予測結果80とテンプレート81とを組合せて、学習用未来文82を生成する。なお、予測モデル36Fが出力する学習用予測結果80は、「通院治療」等のコンテンツと、いずれのテンプレート81を用いるかについてテンプレート81の指定を表す情報も含む形態であってもよい。この場合、未来文生成機構用モデル36は、学習用予測結果80に含まれるコンテンツを、指定されたテンプレート81と組み合わせる。学習用未来文82及び正解未来文サマリ54Fに基づいて、損失関数を用いた予測モデル36Fの損失演算がなされる。そして、損失演算の結果に応じて予測モデル36Fの各種係数の更新設定がなされ、更新設定にしたがって、予測モデル36Fが更新される。
学習フェーズにおいては、学習用関連文書52及び学習用関連情報53の予測モデル36Fへの入力、予測モデル36Fからの学習用予測結果80の出力、学習用予測結果80とテンプレート81とを組合せて学習用未来文82の生成、損失演算、更新設定、及び予測モデル36Fの更新の上記一連の処理が、第2学習データ50Fが交換されつつ繰り返し行われる。上記一連の繰り返しは、正解未来文サマリ54Fに対する学習用未来文82の予測精度が、予め定められた設定レベルまで達した場合に終了される。未来文サマリ生成機構学習部66は、生成した未来文生成機構用モデル36を、診療サマリ生成装置10の記憶部22のストレージ22Cに記憶させる。
なお、テンプレート81の設定方法は特に限定されない。例えば、テンプレート81は、人手により設定されてもよい。また例えば、テンプレート81を複数種類用意し、テンプレート81の種類を代えながら上記学習を行い、学習用未来文82が最も正解未来文サマリ54Fと一致するテンプレート81を採用する形態としてもよい。
また、学習用予測結果80とテンプレート81とを組み合わせるのに代えて、学習用予測結果80という制約を加えた文書生成を行う形態としてもよい。
なお、未来文サマリ54Fを生成する方法は、上述の形態に限定されない。例えば、未来文生成機構用モデル36を、未来文を生成するための単一のモデルを含む形態としてもよい。この場合、予測モデル36Fに代わり、学習用関連文書52、若しくは学習用関連文書52及び学習用関連情報53と、正解未来文サマリ54Fとを含む第2学習データ50Fを用いて、学習用未来文82を出力するよう、単一のモデルの学習が行われる。
次に、本実施形態の診療サマリ生成装置10における過去文サマリ生成機構44及び未来文サマリ生成機構46を学習する作用について図面を参照して説明する。図11には、本実施形態の診療サマリ生成装置10において実行される学習処理の流れの一例を表したフローチャートが示されている。本実施形態の診療サマリ生成装置10は、一例として、操作部26により行われた、ユーザの学習開始指示等に基づいて、制御部20のCPU20Aが、ストレージ22Cに記憶されている学習プログラム32を実行することにより、図11に一例を示した学習処理を実行する。
ステップS200で過去文未来文定義機構60は、学習データ50の正解サマリ54における、正解過去文サマリ54Pと、正解未来分サマリ54Fとを定義する。上述したように、本実施形態の過去文未来文定義機構60は、学習用関連文書52と、正解サマリ54の部分毎との一致度に基づいて、正解サマリ54から、正解過去文サマリ54Pと、正解過去文サマリ54Pよりも学習用関連文書52タとの一致度が低い正解未来文サマリ54Fとを抽出する。
次のステップS202で過去文サマリ生成機構学習部64は、第1学習データ50Pを用いて、過去文生成機構用モデル34を生成する。上述したように、本実施形態の過去文サマリ生成機構学習部64は、第1学習データ50Pの学習用関連文書52に含まれる学習用関連文書52Dの各々と、正解過去文サマリ54Pとの一致度を導出する。また、過去文サマリ生成機構学習部64は、導出した一致度に基づいて、各学習用関連文書52Dの正解スコア72を導出し、学習用関連文書52Dと正解スコア72とを含む学習データ70により過去文生成機構用モデル34を学習する。
次のステップS204で未来文サマリ生成機構学習部66は、第2学習データ50Fを用いて、未来文生成機構用モデル36を生成する。上述したように、本実施形態の未来文サマリ生成機構学習部66は、学習用関連文書52を予測モデル36Fに入力する。予測モデル36Fから出力された学習用予測結果80とテンプレート81とを組み合わせた学習用未来文82と正解未来文サマリ54Fとを用いて未来文生成機構用モデル36の更新を行うことにより、未来文生成機構用モデル36を生成する。ステップS204の処理が終了すると図11に示した学習処理が終了する。
このようにして過去文生成機構用モデル34及び未来文生成機構用モデル36を学習することにより、上述のように、診療サマリ生成装置10は、関連文書15から診療サマリ16を生成することができる。
なお、過去文未来文定義機構60は、正解サマリ54から正解過去文サマリ54Pと、正解未来文サマリ54Fとを抽出できればよく、その方法等は上記の形態に限定されず、例えば変形例1のようにしてもよい。
(変形例1)
図12には、本変形例の過去文未来文定義機構60による正解過去文サマリ54Pと、正解未来文サマリ54Fとの抽出について説明するための図が示されている。本変形例では、分離モデル79により、正解サマリ54を正解過去文サマリ54Pと正解未来文サマリ54Fとに分離する。分離モデル79の学習フェーズでは、図12に示すように、分離モデル79が、正解サマリ54を入力とし、仮正解過去文サマリ16PPと、仮正解未来文サマリ16FFとに分離する。複数の正解サマリ54に対して分離モデル79が分離を行い、複数の仮正解過去文サマリ16PPと、仮正解未来文サマリ16FFとを生成する。さらに、学習用関連文書52と、複数の仮正解過去文サマリ16PPとを組合せた学習データ82Aにより、過去文生成機構用モデル34を学習させて、学習された過去文生成機構用モデル34により、仮過去文サマリを生成する。また、学習用関連文書52と、複数の仮正解未来文サマリ16FFとを組合せた学習データ84Aにより、未来文生成機構用モデル36を学習させて、学習された未来文生成機構用モデル36により、仮未来文サマリを生成する。さらに、仮過去文サマリと、仮未来文サマリとを組み合わせて仮診療サマリXを生成する。この仮診療サマリXと、正解サマリ54との一致度を報酬として、分離モデル79の強化学習を行うことにより、分離モデル79が、正解サマリ54から正解過去文サマリ54Pと、正解未来文サマリ54Fとを適切に抽出できるようになる。なお、分離モデル79は、正解過去文サマリ54P及び正解未来文サマリ54Fの一方を出力するモデルであってもよい。本変形例の分離モデル79が、本開示の第3機械学習モデルの一例である。
また、過去文サマリ生成機構学習部64は、過去文生成機構用モデル34を生成できればよく、その方法や生成される過去文生成機構用モデル34の具体的な内容等は上記の形態に限定されない。例えば、過去文サマリ生成機構学習部64は、上述のようにして抽出した関連文書15Dのスコアを、高いものから順に並び替える機械学習モデルをさらに学習させてもよい。
また、未来文サマリ生成機構学習部66は、未来文生成機構用モデル36を生成できればよく、その方法や生成される未来文生成機構用モデル36の具体的な内容等は上記の形態に限定されない。例えば、患者情報に含まれる関連文書15Dから最も未来文サマリ16Fに近い関連文書15Dを抽出し、抽出した関連文書15Dを未来文に書き換える形態としてもよい。また、上記の予測モデル36Fとテンプレート81を生成する機械学習モデルとの一部を共通モデルとして設け、未来文生成機構用モデル36を3つのモデルを備えた形態としてもよい。
以上説明したように、上記形態の診療サマリ生成装置10は、CPU20Aは、学習用関連文書52及び正解サマリ54を含み学習データ50を取得する。
学習用関連文書52と、学習用関連文書52の部分毎との一致度に基づいて、正解サマリ54から、正解過去文サマリ54Pと、正解過去文サマリ54Pよりも学習用関連文書52との一致度が高い正解サマリ54Fとを抽出する。学習用関連文書52を入力データとし、かつ正解過去文サマリ54Pを正解データとした第1学習データにより過去文生成機構用モデル34を生成する。学習用関連文書52に含まれる学習用関連文書52を入力データとし、かつ正解サマリ54Fを正解データとした第2学習データにより未来文生成機構用モデル36を生成する。
このように、本実施形態の診療サマリ生成装置10は、学習用関連文書52との一致度が高く、直接、導き出すことが比較的容易な正解過去文サマリ54Pを正解データとして、過去文生成機構用モデル34を生成する。また、診療サマリ生成装置10は、学習用関連文書52との一致度が低く、直接、導き出すことが比較的困難な正解サマリ54Fを正解データとして、未来文生成機構用モデル36を生成する。
これにより、本実施形態の診療サマリ生成装置10では、関連文書15から、過去文生成機構用モデル34を用いて過去文サマリ16Pを生成し、未来文生成機構用モデル36を用いて未来文サマリ16Fを生成する。また、診療サマリ生成装置10は、過去文サマリ16P及び未来文サマリ16Fから診療サマリ16を生成することができる。関連文書15から、関連文書15と関連度が高い過去文サマリ16Pと、関連文書15と関連度が低い未来文サマリ16Fとを適切に生成することができる。従って、本実施形態の診療サマリ生成装置10によれば、適切な診療サマリ16を生成することができる。
なお、上記形態では、特定の患者に関する患者情報から過去文サマリ16P及び未来文サマリ16Fを含む診療サマリ16を生成する形態について説明したが、生成する対象等は、本形態に限定されない。例えば、特定の購入者に関する購入者プロファイルや、購入品の履歴、及び購入日時等を含む購入者情報から過去文サマリ16P及び未来文サマリ16Fを含む市場レポートを生成する形態に本開示の技術を適用してもよい。
また、上記形態において、例えば、診療サマリ生成部40、過去文サマリ生成機構44、未来文サマリ生成機構46、表示制御部48、過去文未来文定義機構60、過去文サマリ生成機構学習部64、及び未来文サマリ生成機構学習部66といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
また、上記各実施形態では、診療サマリ生成プログラム30、及び学習プログラム32の各々が記憶部22に予め記憶(インストール)されている態様を説明したが、これに限定されない。診療サマリ生成プログラム30、及び学習プログラム32の各々は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、診療サマリ生成プログラム30、及び学習プログラム32の各々は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。つまり、本実施形態で説明したプログラム(プログラム製品)は、記録媒体で提供するほか、外部のコンピュータから配信する形態であっても良い。
以上の上記実施形態に関し、更に以下の付記を開示する。
(付記1)
少なくとも1つのプロセッサを備え、
前記プロセッサは、
学習用情報データを取得し、
学習用文書データを取得し、
前記学習用情報データと、前記学習用文書データの部分毎との一致度に基づいて、前記学習用文書データから、第1部分と、前記第1部分よりも前記学習用情報データとの一致度が低い第2部分とを抽出し、
前記学習用情報データに含まれる学習用第1データを入力データとし、かつ前記第1部分を正解データとした第1学習データにより第1機械学習モデルを生成し、
前記学習用情報データに含まれる学習用第2データを入力データとし、かつ前記第2部分を正解データとした第2学習データにより第2機械学習モデルを生成する、
モデル生成装置。
(付記2)
前記学習用文書データは、第1日付情報が対応付けられた特定の患者に係わる患者データであり、
前記学習用情報データは、前記第1日付情報、または前記第1日付情報が表す日付よりも前の第2日付情報が対応付けられた前記特定の患者に係わる患者データである複数の文書データを含む、
付記1に記載のモデル生成装置。
(付記3)
前記プロセッサは、
前記第1機械学習モデルの性能及び前記第2機械学習モデルの性能を報酬とした強化学習により、前記学習用文書データを入力とし、前記第1部分及び前記第2部分の少なくとも一方を出力する第3機械学習モデルを生成し、
前記第3機械学習モデルを用い、前記学習用文書データから前記第1部分及び前記第2部分を抽出する
付記1または付記2に記載のモデル生成装置。
(付記4)
前記第2機械学習モデルは、
前記学習用情報データに基づく予測結果を出力する機械学習モデルを含み、前記予測結果と、テンプレートとを組み合わせて出力する機械学習モデルである、
付記1から付記3のいずれか1つに記載のモデル生成装置。
(付記5)
学習用情報データに含まれる学習用第1データを入力データとし、かつ前記学習用情報データと学習用文書データの部分毎との一致度に基づいて前記学習用文書データから抽出された第1部分を正解データとした第1学習データにより生成された第1機械学習モデルと、
前記学習用情報データに含まれる学習用第2データを入力データとし、かつ前記学習用文書データから抽出された、前記第1部分よりも前記学習用情報データとの一致度が低い第2部分を正解データとした第2学習データにより生成された第2機械学習モデルと、
少なくとも1つのプロセッサと、を備え、
前記プロセッサは、
情報データを取得し、
第1機械学習モデルに、前記情報データに含まれる第1データを入力させ、第1文書を取得し、
第2機械学習モデルに、前記情報データに含まれる第2データを入力させ、第2文書を取得し、
前記第1文書及び前記第2文書から第3文書を生成する、
文書生成装置。
(付記6)
少なくとも1つのプロセッサを備えるモデル生成装置の前記プロセッサが実行するモデル生成方法であって、
学習用情報データを取得し、
学習用文書データを取得し、
前記学習用情報データと、前記学習用文書データの部分毎との一致度に基づいて、前記学習用文書データから、第1部分と、前記第1部分よりも前記学習用情報データとの一致度が低い第2部分とを抽出し、
前記学習用情報データに含まれる学習用第1データを入力データとし、かつ前記第1部分を正解データとした第1学習データにより第1機械学習モデルを生成し、
前記学習用情報データに含まれる学習用第2データを入力データとし、かつ前記第2部分を正解データとした第2学習データにより第2機械学習モデルを生成する、
モデル生成方法。
(付記7)
学習用情報データに含まれる学習用第1データを入力データとし、かつ前記学習用情報データと学習用文書データの部分毎との一致度に基づいて前記学習用文書データから抽出された第1部分を正解データとした第1学習データにより生成された第1機械学習モデルと、前記学習用情報データに含まれる学習用第2データを入力データとし、かつ前記学習用文書データから抽出された、前記第1部分よりも前記学習用情報データとの一致度が低い第2部分を正解データとした第2学習データにより生成された第2機械学習モデルと、少なくとも1つのプロセッサと、を備える文書生成装置の前記プロセッサが実行する文書生成方法であって、
情報データを取得し、
第1機械学習モデルに、前記情報データに含まれる第1データを入力させ、第1文書を取得し、
第2機械学習モデルに、前記情報データに含まれる第2データを入力させ、第2文書を取得し、
前記第1文書及び前記第2文書から第3文書を生成する、
文書生成方法。
(付記8)
付記6に記載のモデル生成方法、及び付記7に記載の文書生成方法の少なくとも一方を実行するプログラム。
1 診療サマリ生成システム
10 診療サマリ生成装置
15、15D 関連文書
16 診療サマリ、16P、16PP 過去文サマリ、16F、16FF 未来文サマリ
19 ネットワーク
20 制御部、20A CPU
22 記憶部、22A RAM、22B ROM、22C ストレージ
24 通信I/F部
26 操作部
28 表示部
29 バス
30 診療サマリ生成プログラム
32 学習プログラム
34 過去文生成機構用モデル
36 未来文生成機構用モデル、36F 予測モデル
40 診療サマリ生成部
44 過去文サマリ生成機構
46 未来文サマリ生成機構
48 表示制御部
50 学習データ、50P 第1学習データ、50F 第2学習データ
52、52D 学習用関連文書
54 正解サマリ、54P 正解過去文サマリ、54F 正解未来文サマリ
60 過去文未来文定義機構
64 過去文サマリ生成機構学習部
66 未来文サマリ生成機構学習部
70 学習データ
72 正解スコア
73 学習用スコア
79 分離モデル
80 学習用予測結果
81 テンプレート
82 学習用未来文、82A 学習データ
84A 学習データ

Claims (8)

  1. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    学習用情報データを取得し、
    学習用文書データを取得し、
    前記学習用情報データと、前記学習用文書データの部分毎との一致度に基づいて、前記学習用文書データから、第1部分と、前記第1部分よりも前記学習用情報データとの一致度が低い第2部分とを抽出し、
    前記学習用情報データに含まれる学習用第1データを入力データとし、かつ前記第1部分を正解データとした第1学習データにより第1機械学習モデルを生成し、
    前記学習用情報データに含まれる学習用第2データを入力データとし、かつ前記第2部分を正解データとした第2学習データにより第2機械学習モデルを生成する、
    モデル生成装置。
  2. 前記学習用文書データは、第1日付情報が対応付けられた特定の患者に係わる患者データであり、
    前記学習用情報データは、前記第1日付情報、または前記第1日付情報が表す日付よりも前の第2日付情報が対応付けられた前記特定の患者に係わる患者データである複数の文書データを含む、
    請求項1に記載のモデル生成装置。
  3. 前記プロセッサは、
    前記第1機械学習モデルの性能及び前記第2機械学習モデルの性能を報酬とした強化学習により、前記学習用文書データを入力とし、前記第1部分及び前記第2部分の少なくとも一方を出力する第3機械学習モデルを生成し、
    前記第3機械学習モデルを用い、前記学習用文書データから前記第1部分及び前記第2部分を抽出する
    請求項1に記載のモデル生成装置。
  4. 前記第2機械学習モデルは、
    前記学習用情報データに基づく予測結果を出力する機械学習モデルを含み、前記予測結果と、テンプレートとを組み合わせて出力する機械学習モデルである、
    請求項1に記載のモデル生成装置。
  5. 学習用情報データに含まれる学習用第1データを入力データとし、かつ前記学習用情報データと学習用文書データの部分毎との一致度に基づいて前記学習用文書データから抽出された第1部分を正解データとした第1学習データにより生成された第1機械学習モデルと、
    前記学習用情報データに含まれる学習用第2データを入力データとし、かつ前記学習用文書データから抽出された、前記第1部分よりも前記学習用情報データとの一致度が低い第2部分を正解データとした第2学習データにより生成された第2機械学習モデルと、
    少なくとも1つのプロセッサと、を備え、
    前記プロセッサは、
    情報データを取得し、
    第1機械学習モデルに、前記情報データに含まれる第1データを入力させ、第1文書を取得し、
    第2機械学習モデルに、前記情報データに含まれる第2データを入力させ、第2文書を取得し、
    前記第1文書及び前記第2文書から第3文書を生成する、
    文書生成装置。
  6. 少なくとも1つのプロセッサを備えるモデル生成装置の前記プロセッサが実行するモデル生成方法であって、
    学習用情報データを取得し、
    学習用文書データを取得し、
    前記学習用情報データと、前記学習用文書データの部分毎との一致度に基づいて、前記学習用文書データから、第1部分と、前記第1部分よりも前記学習用情報データとの一致度が低い第2部分とを抽出し、
    前記学習用情報データに含まれる学習用第1データを入力データとし、かつ前記第1部分を正解データとした第1学習データにより第1機械学習モデルを生成し、
    前記学習用情報データに含まれる学習用第2データを入力データとし、かつ前記第2部分を正解データとした第2学習データにより第2機械学習モデルを生成する、
    モデル生成方法。
  7. 学習用情報データに含まれる学習用第1データを入力データとし、かつ前記学習用情報データと学習用文書データの部分毎との一致度に基づいて前記学習用文書データから抽出された第1部分を正解データとした第1学習データにより生成された第1機械学習モデルと、前記学習用情報データに含まれる学習用第2データを入力データとし、かつ前記学習用文書データから抽出された、前記第1部分よりも前記学習用情報データとの一致度が低い第2部分を正解データとした第2学習データにより生成された第2機械学習モデルと、少なくとも1つのプロセッサと、を備える文書生成装置の前記プロセッサが実行する文書生成方法であって、
    情報データを取得し、
    第1機械学習モデルに、前記情報データに含まれる第1データを入力させ、第1文書を取得し、
    第2機械学習モデルに、前記情報データに含まれる第2データを入力させ、第2文書を取得し、
    前記第1文書及び前記第2文書から第3文書を生成する、
    文書生成方法。
  8. 請求項6に記載のモデル生成方法、及び請求項7に記載の文書生成方法の少なくとも一方を実行するプログラム。
JP2022138806A 2022-08-31 2022-08-31 モデル生成装置、文書生成装置、モデル生成方法、文書生成方法、及びプログラム Pending JP2024034528A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022138806A JP2024034528A (ja) 2022-08-31 2022-08-31 モデル生成装置、文書生成装置、モデル生成方法、文書生成方法、及びプログラム
US18/458,130 US20240070544A1 (en) 2022-08-31 2023-08-29 Model generation apparatus, document generation apparatus, model generation method, document generation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022138806A JP2024034528A (ja) 2022-08-31 2022-08-31 モデル生成装置、文書生成装置、モデル生成方法、文書生成方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2024034528A true JP2024034528A (ja) 2024-03-13

Family

ID=89996626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022138806A Pending JP2024034528A (ja) 2022-08-31 2022-08-31 モデル生成装置、文書生成装置、モデル生成方法、文書生成方法、及びプログラム

Country Status (2)

Country Link
US (1) US20240070544A1 (ja)
JP (1) JP2024034528A (ja)

Also Published As

Publication number Publication date
US20240070544A1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
CN109670179B (zh) 基于迭代膨胀卷积神经网络的病历文本命名实体识别方法
CN111401066B (zh) 基于人工智能的词分类模型训练方法、词处理方法及装置
CN109215754A (zh) 病历数据处理方法、装置、计算机设备和存储介质
CN110427486B (zh) 身体病况文本的分类方法、装置及设备
JP7433601B2 (ja) エキスパートレポートエディタ
CN112015917A (zh) 基于知识图谱的数据处理方法、装置及计算机设备
CN111461168A (zh) 训练样本扩充方法、装置、电子设备及存储介质
TWI682287B (zh) 知識圖譜產生裝置、方法及其電腦程式產品
WO2023029513A1 (zh) 基于人工智能的搜索意图识别方法、装置、设备及介质
Devarakonda et al. Automated problem list generation from electronic medical records in IBM Watson
CN116994694B (zh) 基于信息提取的患者病历数据筛选方法、装置和介质
CN114913953B (zh) 医学实体关系的识别方法、装置、电子设备及存储介质
JP2019191827A (ja) 質問応答装置、質問応答方法及びプログラム
WO2021174923A1 (zh) 概念词序列生成方法、装置、计算机设备及存储介质
CN111785366A (zh) 患者治疗方案的确定方法、装置及计算机设备
CN113724830A (zh) 基于人工智能的用药风险检测方法及相关设备
CN112328621A (zh) Sql转换方法、装置、计算机设备及计算机可读存储介质
CN112214515A (zh) 数据自动匹配方法、装置、电子设备及存储介质
JP6963535B2 (ja) 分析方法、分析装置及びプログラム
Klochko et al. Data mining of the healthcare system based on the machine learning model developed in the Microsoft azure machine learning studio
CN112395401B (zh) 自适应负样本对采样方法、装置、电子设备及存储介质
JP2024034528A (ja) モデル生成装置、文書生成装置、モデル生成方法、文書生成方法、及びプログラム
CN114581177B (zh) 产品推荐方法、装置、设备及存储介质
JP6210865B2 (ja) データ検索システムおよびデータ検索方法
Amunategui et al. Prediction using note text: Synthetic feature creation with word2vec