JP7828751B2 - Information processing device and program - Google Patents
Information processing device and programInfo
- Publication number
- JP7828751B2 JP7828751B2 JP2021207484A JP2021207484A JP7828751B2 JP 7828751 B2 JP7828751 B2 JP 7828751B2 JP 2021207484 A JP2021207484 A JP 2021207484A JP 2021207484 A JP2021207484 A JP 2021207484A JP 7828751 B2 JP7828751 B2 JP 7828751B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- inference
- inference result
- function
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
Description
本明細書及び図面に開示の実施形態は、情報処理装置及びプログラムに関する。 The embodiments disclosed herein and in the drawings relate to information processing devices and programs.
従来、医用画像診断装置において、機械学習によって作成された学習済みモデルを用いて、位置決め、撮像パラメータの設定、診断等を支援する技術が知られている。例えば、医用画像等の医用情報に基づいて、特定の診断名(疾患名等)である確率を推論し、推論の根拠と共に提示することが行われている。しかしながら、この場合、推論結果が妥当であるか否かは人間が判断することになる。 Conventionally, in medical imaging diagnostic equipment, technologies are known that use trained models created through machine learning to support positioning, setting imaging parameters, and diagnosis. For example, it is possible to infer the probability of a specific diagnosis (disease name, etc.) based on medical information such as medical images, and present the inference along with its rationale. However, in this case, the validity of the inference result is judged by a human.
本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、学習済みモデルによる推論結果の妥当性判断を支援することができる情報処理装置及びプログラムを提供することである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。 One of the problems that the embodiments disclosed in this specification and drawings aim to solve is to provide an information processing device and program that can support the validity judgment of inference results from a trained model. However, the problems that the embodiments disclosed in this specification and drawings aim to solve are not limited to the above problem. Problems corresponding to the effects of each configuration shown in the embodiments described later can also be positioned as other problems.
実施形態の情報処理装置は、取得部と、判断部とを備える。取得部は、1又は複数の入力情報に基づいて推論を行う推論部の推論結果と、当該推論結果の根拠を示す第1根拠情報を取得する。判断部は、第1根拠情報に基づいて推論結果の妥当性を判断する。 The information processing device of this embodiment comprises an acquisition unit and a determination unit. The acquisition unit acquires the inference result of an inference unit that performs inference based on one or more input pieces of information, and first supporting information indicating the basis for the inference result. The determination unit determines the validity of the inference result based on the first supporting information.
以下、図面を参照しながら、情報処理装置及びプログラムの実施形態について詳細に説明する。なお、本願に係る情報処理装置及びプログラムは、以下に示す実施形態によって限定されるものではない。また、実施形態は、処理内容に矛盾が生じない範囲で他の実施形態や従来技術との組み合わせが可能である。 The following describes in detail embodiments of the information processing device and program with reference to the drawings. However, the information processing device and program according to this application are not limited to the embodiments shown below. Furthermore, the embodiments can be combined with other embodiments or prior art to the extent that there is no inconsistency in the processing content.
(第1の実施形態)
図1は、実施形態に係る医用情報処理装置3の構成の一例を示すブロック図である。医用情報処理装置3は、情報処理装置の一例である。例えば、実施形態に係る医用情報処理装置3は、図1に示すように、ネットワーク200を介して医用画像診断装置1及び医用画像保管装置2と通信可能に接続された医用情報処理システム100に含まれる。
(First embodiment)
Figure 1 is a block diagram showing an example of the configuration of a medical information processing device 3 according to an embodiment. The medical information processing device 3 is an example of an information processing device. For example, as shown in Figure 1, the medical information processing device 3 according to the embodiment is included in a medical information processing system 100 that is communicably connected to a medical image diagnostic device 1 and a medical image storage device 2 via a network 200.
ここで、医用情報処理システム100に含まれる各装置は、例えば、病院内に設置された院内LAN(Local Area Network)により、直接的、又は間接的に相互に通信可能な状態となっている。なお、図1に示す医用情報処理システム100には、図示以外の装置が通信可能に接続される場合でもよい。 Here, each device included in the medical information processing system 100 is capable of communicating with each other directly or indirectly via, for example, a hospital LAN (Local Area Network) installed within the hospital. Note that devices other than those shown may also be connected to the medical information processing system 100 shown in Figure 1 in a communication-enabled manner.
例えば、医用情報処理システム100は、病院情報システム(HIS:Hospital Information System)、放射線情報システム(RIS:Radiology Information System)、診断レポートシステム、医用画像処理システム(PACS:Picture Archiving and Communication System)、臨床検査情報システム(LIS:Laboratory Information System)等の種々のシステムが含まれていてもよい。 For example, the medical information processing system 100 may include various systems such as a hospital information system (HIS), a radiology information system (RIS), a diagnostic report system, a picture archiving and communication system (PACS), and a laboratory information system (LIS).
医用画像診断装置1は、被検体を撮像して医用画像を収集する。そして、医用画像診断装置1は、収集した医用画像を医用画像保管装置2、医用情報処理装置3に送信する。例えば、医用画像診断装置1は、MRI(Magnetic Resonance Imaging)装置、X線診断装置、X線CT(Computed Tomography)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置等である。 The medical imaging diagnostic device 1 captures images of the subject and collects medical images. The medical imaging diagnostic device 1 then transmits the collected medical images to the medical image storage device 2 and the medical information processing device 3. For example, the medical imaging diagnostic device 1 may be an MRI (Magnetic Resonance Imaging) device, an X-ray diagnostic device, an X-ray CT (Computed Tomography) device, an ultrasound diagnostic device, a SPECT (Single Photon Emission Computed Tomography) device, a PET (Positron Emission Computed Tomography) device, etc.
医用画像保管装置2は、被検体に関する各種の医用画像を保管する。具体的には、医用画像保管装置2は、ネットワーク200を介して医用画像診断装置1から医用画像を取得し、当該医用画像を自装置内の記憶回路に記憶させて保管する。 The medical image storage device 2 stores various medical images related to the subject. Specifically, the medical image storage device 2 acquires medical images from the medical image diagnostic device 1 via the network 200 and stores these medical images in its internal memory circuit.
例えば、医用画像保管装置2は、サーバやワークステーション等のコンピュータ機器によって実現される。また、例えば、医用画像保管装置2は、PACS(Picture Archiving and Communication System)等によって実現され、DICOM(Digital Imaging and Communications in Medicine)に準拠した形式で医用画像を保管する。 For example, the medical image storage device 2 is implemented using computer equipment such as a server or workstation. Alternatively, for example, the medical image storage device 2 may be implemented using PACS (Picture Archiving and Communication System) and store medical images in a format compliant with DICOM (Digital Imaging and Communications in Medicine).
医用情報処理装置3は、医用画像診断装置1、医用画像保管装置2から各種の情報を取得し、取得した情報を用いて各種の情報処理を行う。例えば、医用情報処理装置3は、サーバやワークステーション、パーソナルコンピュータ、タブレット端末等のコンピュータ機器によって実現される。なお、医用情報処理装置3は、医用画像診断装置1を制御するコンソール装置等であってもよい。 The medical information processing device 3 acquires various types of information from the medical image diagnostic device 1 and the medical image storage device 2, and performs various information processing using the acquired information. For example, the medical information processing device 3 can be implemented using computer equipment such as a server, workstation, personal computer, or tablet terminal. Alternatively, the medical information processing device 3 may be a console device for controlling the medical image diagnostic device 1.
図1に示すように、医用情報処理装置3は、通信インターフェース31と、記憶回路32と、入力インターフェース33と、ディスプレイ34と、処理回路35とを有する。 As shown in Figure 1, the medical information processing device 3 includes a communication interface 31, a storage circuit 32, an input interface 33, a display 34, and a processing circuit 35.
通信インターフェース31は、処理回路35に接続されており、医用情報処理システム100における各装置との間で行われる通信を制御する。具体的には、通信インターフェース31は、各装置から各種の情報を受信し、受信した情報を処理回路35に出力する。例えば、通信インターフェース31は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。 The communication interface 31 is connected to the processing circuit 35 and controls communication between the medical information processing system 100 and each device. Specifically, the communication interface 31 receives various types of information from each device and outputs the received information to the processing circuit 35. For example, the communication interface 31 can be implemented using a network card, network adapter, NIC (Network Interface Controller), etc.
記憶回路32は、処理回路35に接続されており、各種のデータを記憶する。例えば、記憶回路32は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。 The memory circuit 32 is connected to the processing circuit 35 and stores various types of data. For example, the memory circuit 32 can be implemented using semiconductor memory elements such as RAM (Random Access Memory) or flash memory, or by using a hard disk, optical disc, etc.
具体的には、記憶回路32は、処理回路35が読み出して実行することで各種機能を実現するための種々のプログラムを記憶する。 Specifically, the memory circuit 32 stores various programs that the processing circuit 35 reads and executes to realize various functions.
また、記憶回路32は、医用画像診断装置1及び医用画像保管装置2から受信した種々の情報や、入力インターフェース33を介して入力された情報、医用情報処理装置3の処理結果等を記憶する。例えば、記憶回路32は、図1に示すように、学習済みモデル321、ナレッジ(knowledge)DB322、解釈テーブル323、判断テーブル324、及び修正テーブル325を記憶する。 Furthermore, the memory circuit 32 stores various information received from the medical image diagnostic device 1 and the medical image storage device 2, information input via the input interface 33, and processing results from the medical information processing device 3. For example, as shown in Figure 1, the memory circuit 32 stores the learned model 321, the knowledge database 322, the interpretation table 323, the judgment table 324, and the modification table 325.
学習済みモデル321は、医用画像診断装置1や医用画像保管装置2等から取得される情報を学習用データとした機械学習によって生成され学習済みモデルである。医用情報処理装置3は、学習済みモデル321を用いて推論処理を実行する。 The trained model 321 is a model generated and trained through machine learning using information acquired from the medical image diagnostic device 1, the medical image storage device 2, etc., as training data. The medical information processing device 3 performs inference processing using the trained model 321.
なお、学習済みモデル321は、処理回路35によって生成されてもよいし、医用情報処理装置3以外の装置によって生成されてもよい。例えば、学習済みモデル321は、医用情報処理システム100の外部に配置された外部装置によって生成されてもよい。 The trained model 321 may be generated by the processing circuit 35, or by a device other than the medical information processing device 3. For example, the trained model 321 may be generated by an external device located outside the medical information processing system 100.
ナレッジDB322は、臨床研究の研究結果等に基づく知見、各種ガイドライン等の情報、それらに基づくシミュレーション等を含む情報を記憶するデータベースである。ナレッジDB322には、学習済みモデル321による推論結果の妥当性を判断するための判断基準となる知識情報が含まれる。 Knowledge DB322 is a database that stores information including findings based on clinical research results, various guidelines, and simulations based on that information. Knowledge DB322 contains knowledge information that serves as a criterion for judging the validity of inference results from the trained model 321.
解釈テーブル323は、学習済みモデル321による推論結果の根拠を示す根拠情報を解釈するために用いる情報を保持する。例えば、解釈テーブル323は、根拠情報の種別毎に、当該根拠情報を解釈するために行う処理内容を対応付けたデータテーブルである。 The interpretation table 323 holds information used to interpret the rationale information that provides the basis for the inference results of the trained model 321. For example, the interpretation table 323 is a data table that associates the processing content performed to interpret each type of rationale information.
なお、根拠情報を解釈するために用いる情報は、テーブルに限定されるものではない。例えば、機械学習(深層学習を含む)により、根拠情報を入力すると、根拠情報を解釈した解釈情報を出力するように学習された学習済みモデル等であってもよい。 Furthermore, the information used to interpret the supporting information is not limited to tables. For example, a pre-trained model (including deep learning) that takes supporting information as input and outputs interpreted information based on that input may also be used.
判断テーブル324は、学習済みモデル321による推論結果の妥当性の判断するために用いる情報を保持する。例えば、判断テーブル324は、根拠情報又は解釈情報の種別毎に、参照する知識情報を対応付けたデータテーブルである。ここで、対応付けられる知識情報は、推論結果の妥当性を判断する際の指標となる。 The decision table 324 holds information used to judge the validity of the inference results from the trained model 321. For example, the decision table 324 is a data table that associates referenced knowledge information with each type of evidence information or interpretive information. Here, the associated knowledge information serves as an indicator for judging the validity of the inference results.
なお、上述のナレッジDB322が、根拠情報又は解釈情報と対応付けて知識情報を記憶してもよい。この場合は、判断テーブル324は不要としてもよい。 Furthermore, the aforementioned Knowledge DB 322 may store knowledge information in association with supporting information or interpretive information. In this case, the judgment table 324 may be unnecessary.
修正テーブル325は、学習済みモデル321による推論結果を修正するために用いる情報を保持する。例えば、修正テーブル325は、根拠情報、解釈情報、及び知識情報の組と、当該組に係る推論結果を修正するための修正処理とを対応付けたデータテーブルである。 The correction table 325 holds information used to correct the inference results from the trained model 321. For example, the correction table 325 is a data table that associates pairs of evidence information, interpretation information, and knowledge information with correction processes for modifying the inference results related to those pairs.
なお、妥当でない推論結果を修正するために用いる情報は、テーブルに限定されるものではない。例えば、機械学習により、妥当でない推論結果を入力すると、修正された推論結果を出力するように学習された学習済みモデル等であってもよい。 Furthermore, the information used to correct invalid inference results is not limited to tables. For example, a trained model, trained through machine learning to output corrected inference results when given invalid inference results as input, may also be used.
なお、学習済みモデル321、ナレッジDB322、解釈テーブル323、判断テーブル324、及び修正テーブル325の一部又は全ては、医用情報処理装置3がアクセス可能な他の情報処理装置等に記憶されていてもよい。 Furthermore, some or all of the trained model 321, knowledge database 322, interpretation table 323, judgment table 324, and modification table 325 may be stored in other information processing devices accessible by the medical information processing device 3.
入力インターフェース33は、処理回路35に接続されており、操作者から各種の指示及び情報の入力操作を受け付ける。具体的には、入力インターフェース33は、操作者から受け付けた入力操作を電気信号へ変換して処理回路35に出力する。 The input interface 33 is connected to the processing circuit 35 and receives various instructions and information inputs from the operator. Specifically, the input interface 33 converts the input operations received from the operator into electrical signals and outputs them to the processing circuit 35.
例えば、入力インターフェース33は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。 For example, the input interface 33 can be implemented using a trackball, switch buttons, a mouse, a keyboard, a touchpad for input operations by touching the operating surface, a touchscreen integrating a display screen and a touchpad, a non-contact input circuit using an optical sensor, and an audio input circuit, etc.
なお、本明細書において、入力インターフェース33は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インターフェース33の例に含まれる。 Furthermore, in this specification, the input interface 33 is not limited to those equipped with physical operating components such as a mouse or keyboard. For example, an electrical signal processing circuit that receives electrical signals corresponding to input operations from an external input device separate from the device and outputs these electrical signals to a control circuit is also included as an example of the input interface 33.
ディスプレイ34は、処理回路35に接続されており、各種の情報及び画像を表示する。具体的には、ディスプレイ34は、処理回路35から送られる情報及び画像のデータを表示用の電気信号に変換して出力する。例えば、ディスプレイ34は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。 The display 34 is connected to the processing circuit 35 and displays various information and images. Specifically, the display 34 converts the information and image data sent from the processing circuit 35 into electrical signals for display and outputs them. For example, the display 34 can be implemented as an LCD monitor, a CRT (Cathode Ray Tube) monitor, a touch panel, etc.
処理回路35は、入力インターフェース33を介して操作者から受け付けた入力操作に応じて、医用情報処理装置3の動作を制御する。例えば、処理回路35は、プロセッサによって実現される。図1に示すように、処理回路35は、制御機能351、推論機能352、取得機能353、解釈機能354、判断機能355、及び修正機能356を実行する。 The processing circuit 35 controls the operation of the medical information processing device 3 in response to input operations received from the operator via the input interface 33. For example, the processing circuit 35 is implemented by a processor. As shown in Figure 1, the processing circuit 35 performs control functions 351, inference functions 352, acquisition functions 353, interpretation functions 354, judgment functions 355, and correction functions 356.
ここで、制御機能351は、提示部の一例である。推論機能352は、推論部の一例である。取得機能353は、取得部の一例である。生成機能357は、生成部の一例である。解釈機能354及び判断機能355は、判断部の一例である。修正機能356は、修正部の一例である。 Here, the control function 351 is an example of the presentation unit. The inference function 352 is an example of the inference unit. The acquisition function 353 is an example of the acquisition unit. The generation function 357 is an example of the generation unit. The interpretation function 354 and the judgment function 355 are examples of the judgment unit. The modification function 356 is an example of the modification unit.
制御機能351は、入力インターフェース33を介して入力された各種要求に応じた処理を実行するように制御する。例えば、制御機能351は、通信インターフェース31を介した医用画像の送受信、記憶回路32への各種情報の格納、ディスプレイ34への情報(例えば、医用画像や、各機能による処理結果等)の表示等を制御する。 The control function 351 controls the system to execute processing in response to various requests input via the input interface 33. For example, the control function 351 controls the transmission and reception of medical images via the communication interface 31, the storage of various information in the memory circuit 32, and the display of information (e.g., medical images, processing results from various functions, etc.) on the display 34.
例えば、制御機能351は、医用画像診断装置1から、被検体の撮影位置を決定するための位置決め画像データや医用画像データ等のデータを取得して、記憶回路32に格納する。また、例えば、制御機能351は、医用画像診断装置1に対して処理を実行するためのGUIや、各機能による処理結果をディスプレイ34に表示させるように制御する。 For example, the control function 351 acquires data such as positioning image data and medical image data for determining the imaging position of the subject from the medical imaging diagnostic device 1 and stores it in the memory circuit 32. Furthermore, for example, the control function 351 controls the medical imaging diagnostic device 1 to execute processing via a GUI and to display the processing results of each function on the display 34.
推論機能352は、学習済みモデル321を用いて推論を行う。具体的には、推論機能352は、学習済みモデル321に入力データを入力することで、学習済みモデル321に推論処理を実行させる。 The inference function 352 performs inference using the trained model 321. Specifically, the inference function 352 inputs input data into the trained model 321, causing the trained model 321 to perform inference processing.
例えば、推論機能352は、位置決め画像(入力データの一例)を学習済みモデル321に入力する。次いで、学習済みモデル321は、位置決め画像の入力に応じて、MRI装置における被検体の撮影位置を出力する。 For example, the inference function 352 inputs a positioning image (an example of input data) to the trained model 321. The trained model 321 then outputs the imaging position of the subject in the MRI device, based on the input positioning image.
この場合、撮影位置は、学習済みモデル321による推論の推論結果である。このように、推論機能352は、位置決め画像に基づいて、学習済みモデル321に撮影位置を出力させることにより、MRI装置における被検体の撮影位置の決定処理の支援を行うことができる。 In this case, the imaging position is the inference result of the pre-trained model 321. Thus, the inference function 352 can assist in determining the imaging position of the subject in the MRI device by having the pre-trained model 321 output the imaging position based on the positioning image.
また、例えば、推論機能352は、MRI装置で撮影される医用画像について、希望する画質に関する情報や撮影部位に関する情報等のユーザ入力情報(入力データの一例)を学習済みモデル321に入力する。次いで、学習済みモデル321は、ユーザ入力情報の入力に応じて、MRI装置における被検体の撮影条件を決定するための撮影パラメータを出力する。 Furthermore, for example, the inference function 352 inputs user input information (an example of input data), such as information regarding the desired image quality and information regarding the imaging area, for medical images acquired by the MRI device, into the trained model 321. Then, the trained model 321 outputs imaging parameters for determining the imaging conditions of the subject in the MRI device, in response to the user input information.
この場合、撮影パラメータは、学習済みモデル321による推論の推論結果である。このように、推論機能352は、ユーザ入力情報に基づいて、学習済みモデル321に撮影パラメータを出力させることにより、撮影パラメータの決定処理の支援を行うことができる。なお、撮影部位に関する情報については、RIS等から取得したものを用いてもよい。 In this case, the imaging parameters are the inference results from the pre-trained model 321. Thus, the inference function 352 can assist in determining imaging parameters by having the pre-trained model 321 output imaging parameters based on user input information. Information regarding the imaging area may be obtained from sources such as RIS.
また、例えば、推論機能352は、MRI装置で撮影された医用画像データ(入力データの一例)を学習済みモデル321に入力する。次いで、学習済みモデル321は、医用画像データの入力に応じて、被検体に生じている症状等を示す診断名を出力する。 Furthermore, for example, the inference function 352 inputs medical image data (an example of input data) acquired by an MRI device into the trained model 321. The trained model 321 then outputs a diagnostic name indicating the symptoms, etc., present in the subject, in response to the input medical image data.
この場合、診断名は、学習済みモデル321による推論の推論結果である。このように、推論機能352は、医用画像データに基づいて、学習済みモデル321に診断名を出力させることにより、診断支援を行うことができる。なお、上述した、位置決め支援、撮影パラメータ決定支援、診断支援等のMRI装置に関わる処理は、X線CT装置等のMRI装置以外の医用画像診断装置1についても、同様の処理が可能である。 In this case, the diagnostic name is the inference result of the pre-trained model 321. Thus, the inference function 352 can provide diagnostic support by having the pre-trained model 321 output a diagnostic name based on medical image data. Furthermore, the above-described processing related to the MRI device, such as positioning support, imaging parameter determination support, and diagnostic support, can also be performed similarly for other medical imaging diagnostic devices 1, such as X-ray CT scanners.
取得機能353は、推論結果の根拠を示す根拠情報を取得する。具体的には、取得機能353は、学習済みモデル321が出力する推論結果と、当該推論結果の根拠を示す根拠情報とを取得する。 The acquisition function 353 acquires supporting information that shows the basis for the inference result. Specifically, the acquisition function 353 acquires the inference result output by the trained model 321 and supporting information that shows the basis for the said inference result.
ここで、根拠情報とは、例えば、学習済みモデル321による推論結果の候補と、当該候補の確からしさを示す指標とを表す情報である。また、根拠情報は、推論結果の候補の導出に寄与した特徴量と、当該特徴量が推論結果の候補の導出に寄与した度合いを示す指標(以下、寄与度ともいう)とを表す情報であってもよい。また、根拠情報は、前者と後者とを組み合わせた情報であってもよい。なお、推論結果の候補には、最終的な推論結果を含めてもよい。 Here, the supporting information refers to, for example, information representing candidate inference results from the trained model 321 and an index indicating the likelihood of those candidates. The supporting information may also represent information representing features that contributed to the derivation of the candidate inference results and an index (hereinafter also referred to as the contribution level) indicating the degree to which those features contributed to the derivation of the candidate inference results. Furthermore, the supporting information may be a combination of the former and the latter. Note that the candidate inference results may also include the final inference result.
なお、根拠情報を取得する方法は特に限定されない。例えば、学習済みモデル321から推論結果とともに根拠情報が出力される場合、取得機能353は、学習済みモデル321から取得される根拠情報を取得する。また、取得機能353は、学習済みモデル321の出力結果(推論結果)に対し、寄与した特徴量を特定する等の解析を行うことにより根拠情報を取得してもよい。また、取得機能353は、複数の根拠情報を取得してもよい。 The method for obtaining the rationale information is not particularly limited. For example, if the trained model 321 outputs rationale information along with the inference results, the acquisition function 353 will acquire the rationale information obtained from the trained model 321. Alternatively, the acquisition function 353 may acquire the rationale information by performing analysis on the output results (inference results) of the trained model 321, such as identifying the contributing features. Furthermore, the acquisition function 353 may acquire multiple pieces of rationale information.
例えば、学習済みモデル321によりMRI装置における位置決め支援を行うための推論が行われた場合、取得機能353は、推論結果として導出される撮影位置と、この撮影位置が導出された根拠を示す根拠情報とを学習済みモデル321から取得する。 For example, when the trained model 321 performs inference to assist positioning in an MRI device, the acquisition function 353 acquires the imaging position derived as an inference result, along with supporting information indicating the basis for this imaging position, from the trained model 321.
この場合、根拠情報は、例えば、MRI装置における位置決め画像上の注目領域に基づいて特定した撮影位置の候補、及び当該候補が所望の撮影位置である確率(確度の一例)になる。また、この場合の根拠情報は、MRI装置における位置決め画像上における注目した特徴(例えば、形状)に基づいて特定した撮影位置の候補、及び当該候補が所望の撮影位置である確率等であってもよい。 In this case, the supporting information would be, for example, candidate imaging locations identified based on the region of interest on the positioning image in the MRI device, and the probability (an example of accuracy) that these candidates are the desired imaging locations. Alternatively, the supporting information in this case might also be candidate imaging locations identified based on a feature of interest (e.g., shape) on the positioning image in the MRI device, and the probability that these candidates are the desired imaging locations.
また、例えば、学習済みモデル321によりMRI装置における撮影パラメータの決定支援を行うための推論が行われた場合、推論結果として導出される撮影パラメータと、この撮影パラメータが導出された根拠を示す根拠情報とを学習済みモデル321から取得する。この場合、根拠情報は、例えば、撮影パラメータの導出に寄与した条件、及び当該撮影パラメータが、所望の画質の撮影を実行するための撮影パラメータである確率になる。 Furthermore, for example, when inference is performed using the trained model 321 to assist in determining imaging parameters in an MRI device, the imaging parameters derived as a result of the inference, along with supporting information indicating the basis for the derivation of these imaging parameters, are obtained from the trained model 321. In this case, the supporting information would include, for example, the conditions that contributed to the derivation of the imaging parameters, and the probability that these imaging parameters are necessary for achieving the desired image quality.
また、例えば、学習済みモデル321によりMRI装置で撮影された医用画像データに基づいて、診断支援を行うための推論が行われた場合、推論結果として導出される診断名と、この診断名が導出された根拠を示す根拠情報とを学習済みモデル321から取得する。この場合、根拠情報は、例えば、診断名の導出に寄与した画像所見、及び診断対象となる被検体の診断が当該診断名である確率になる。 Furthermore, for example, when inference for diagnostic support is performed based on medical image data acquired by an MRI device using the trained model 321, the diagnostic name derived as an inference result and the supporting information indicating the basis for this diagnostic name are obtained from the trained model 321. In this case, the supporting information would include, for example, the image findings that contributed to the derivation of the diagnostic name, and the probability that the diagnosis of the subject being diagnosed is that particular diagnosis.
解釈機能354は、根拠情報を解釈する解釈処理を行う。ここで、解釈処理とは、取得された根拠情報が、知識情報と直接比較することができない場合に、根拠情報に基づいて、知識情報と直接比較することができる形態に変換する処理である。なお、根拠情報が、知識情報と直接比較することができる情報である場合には解釈処理は不要である。 The interpretation function 354 performs interpretation processing to interpret the underlying information. Here, interpretation processing is the process of converting the acquired underlying information into a form that can be directly compared with the knowledge information, based on the underlying information, when direct comparison with the knowledge information is not possible. Note that interpretation processing is unnecessary if the underlying information can be directly compared with the knowledge information.
例えば、解釈機能354は、解釈テーブル323を参照し、取得機能353が取得した根拠情報に対応付けられた処理を実行する。換言すると、根拠情報を解釈するための処理を実行する。解釈機能354は、当該処理の処理結果を解釈情報として取得する。 For example, the interpretation function 354 refers to the interpretation table 323 and executes processing associated with the underlying information acquired by the acquisition function 353. In other words, it executes processing to interpret the underlying information. The interpretation function 354 acquires the processing result of this process as interpretation information.
判断機能355は、判断テーブル324に基づいて、推論機能352による推論結果が妥当であるか否かを判断する。例えば、判断機能355は、判断テーブル324を参照し、取得機能353が取得した根拠情報又は解釈機能354が取得した解釈情報に対応付けられた知識情報を、ナレッジDB322から特定する。次いで、判断機能355は、根拠情報又は解釈情報と特定した知識情報とに基づいて、推論結果の妥当性を判断する。 The judgment function 355 determines whether the inference result from the inference function 352 is valid, based on the judgment table 324. For example, the judgment function 355 refers to the judgment table 324 and identifies knowledge information from the knowledge database 322 that corresponds to the basis information acquired by the acquisition function 353 or the interpretation information acquired by the interpretation function 354. Then, the judgment function 355 determines the validity of the inference result based on the basis information or interpretation information and the identified knowledge information.
根拠情報又は解釈情報と特定した知識情報とが一致した場合、判断機能355は、推論結果が妥当であると判断する。一方、根拠情報又は解釈情報と特定した知識情報とが一致しない場合、判断機能355は、推論結果が妥当でないと判断する。なお、判断機能355は、更に、後述する修正機能356により修正された推論結果の妥当性を判断してもよい。 If the supporting information or interpretive information matches the identified knowledge information, the judgment function 355 determines that the inference result is valid. Conversely, if the supporting information or interpretive information does not match the identified knowledge information, the judgment function 355 determines that the inference result is invalid. Furthermore, the judgment function 355 may also determine the validity of the inference result after it has been corrected by the correction function 356, which will be described later.
修正機能356は、修正テーブル325に基づいて、判断機能355で妥当でないと判断された推論結果を修正する。例えば、修正機能356は、修正テーブル325を参照し、取得機能353が取得した根拠情報、解釈機能354が取得した解釈情報、及び判断機能355が特定した知識情報の組と対応する処理を実行することで、推論結果を修正する。次いで、修正機能356は、当該処理の処理結果を修正された推論結果として出力する。 The correction function 356 corrects the inference result that the judgment function 355 deemed invalid, based on the correction table 325. For example, the correction function 356 refers to the correction table 325 and corrects the inference result by executing a corresponding process for the set of evidence information acquired by the acquisition function 353, the interpretation information acquired by the interpretation function 354, and the knowledge information identified by the judgment function 355. The correction function 356 then outputs the processing result of this process as the corrected inference result.
生成機能357は、推論機能352、取得機能353、解釈機能354、判断機能355、及び修正機能356が実行する処理を可視化した可視化情報を生成する。例えば、生成機能357は、根拠情報又は解釈情報に基づいて、根拠情報又は解釈情報の可視化情報となる、画像データ、グラフ、テキストデータ等を生成する。例えば、生成された可視化情報は、制御機能351により、ディスプレイ34に出力される等してユーザに提示される。 The generation function 357 generates visualization information that visualizes the processes performed by the inference function 352, acquisition function 353, interpretation function 354, judgment function 355, and correction function 356. For example, the generation function 357 generates image data, graphs, text data, etc., which become visualization information of the underlying information or interpretation information, based on the underlying information or interpretation information. For example, the generated visualization information is presented to the user by outputting it to the display 34 via the control function 351.
これにより、ユーザは、何を根拠に推論結果が導出されたかを理解しやすくなる。例えば、MRI装置における位置決め支援のための推論が行われた場合、根拠情報を可視化した可視化情報は、位置決め画像上の注目領域を表す注目領域マップの画像データになる。 This makes it easier for users to understand the basis on which the inference results were derived. For example, when inference is performed for positioning assistance in an MRI device, the visualized information, which visualizes the underlying information, becomes image data of a focus region map representing the area of interest on the positioning image.
また、例えば、この場合の可視化情報は、注目した特徴の分布を棒グラフ等のグラフで表した注目特徴分布等であってもよい。なお、可視化情報は、「位置決め画像上で最も注目度が高い最注目領域を特定し、当該領域の重心が撮影位置であると推論した。」といった、根拠情報から推論結果を導出するまでの過程等を文章で表したテキストデータ等であってもよい。 Furthermore, the visualization information in this case may include, for example, a feature distribution graph, such as a bar graph, showing the distribution of the features of interest. Alternatively, the visualization information may also be text data describing the process from the supporting information to the inference result, such as, "The most noteworthy region with the highest degree of interest was identified on the positioning image, and it was inferred that the centroid of that region is the shooting location."
例えば、MRI装置における撮影パラメータの決定支援のための推論が行われた場合、根拠情報を可視化した可視化情報は、撮影パラメータの導出に寄与した条件と、導出された撮影パラメータとの関係を説明するテキストデータ等になる。 For example, when inference is performed to assist in determining imaging parameters in an MRI system, the visualized information, which visualizes the underlying information, would be text data explaining the relationship between the conditions that contributed to the derivation of the imaging parameters and the derived imaging parameters.
例えば、MRI装置における診断支援のための推論が行われた場合、根拠情報を可視化した可視化情報は、診断名の導出に寄与した画像所見が、当該診断名の場合に特異的に認められる所見であることを説明するテキストデータ等である。 For example, when reasoning is performed to support a diagnosis using an MRI device, the visualized information, which visualizes the supporting evidence, would include text data explaining that the image findings that contributed to the derivation of the diagnosis are findings specifically observed in that particular diagnosis.
以下、図2乃至図9を参照して、医用画像データの一例である位置決め画像に基づいて、撮影位置の決定処理を行う場合を例に、推論機能352、取得機能353、解釈機能354、判断機能355、修正機能356、及び生成機能357の各機能について説明する。 The following explanation will describe the functions of the inference function 352, acquisition function 353, interpretation function 354, judgment function 355, correction function 356, and generation function 357, using Figures 2 to 9 as an example, where the imaging position is determined based on a positioning image, which is an example of medical image data.
図2は、位置決め画像の一例を示す図である。図2は、被検体の頭部をMRI装置で撮影した位置決め画像である。本例で用いる学習済みモデル321は、この位置決め画像から撮影位置(撮影する頭部の断面)を推論結果として導出する。位置決め画像データには、所望の撮影位置を示す情報が含まれる。例えば、図2の位置決め画像データには、所望の撮影位置が鼻根を含む頭部の断面であることを示す情報が含まれている。 Figure 2 shows an example of a positioning image. Figure 2 is a positioning image of the subject's head taken with an MRI scanner. The trained model 321 used in this example derives the imaging position (cross-section of the head to be imaged) as an inference result from this positioning image. The positioning image data contains information indicating the desired imaging position. For example, the positioning image data in Figure 2 contains information indicating that the desired imaging position is a cross-section of the head including the bridge of the nose.
なお、例えば、所望の撮影位置は、制御機能351が、医用画像診断装置1取得した位置決め画像データを解析することにより決定してもよい。また、例えば、所望の撮影位置は、制御機能351が、ユーザから所望の撮影位置に関する入力を受付け、ユーザの入力に従って決定してもよい。この場合、制御機能351は、医用画像診断装置1から取得した位置決め画像データに、決定した所望の撮影位置を示す情報を付加する制御を行う。 For example, the desired shooting position may be determined by the control function 351 by analyzing the positioning image data acquired by the medical imaging diagnostic device 1. Alternatively, the desired shooting position may be determined by the control function 351 after receiving input regarding the desired shooting position from the user. In this case, the control function 351 performs control to add information indicating the determined desired shooting position to the positioning image data acquired from the medical imaging diagnostic device 1.
ここで、この例で用いる学習済みモデル321について説明する。学習済みモデル321は、位置決め画像や被検体に係る医用情報を入力することで、位置決め画像上での撮影位置を出力するよう機能付けられている。なお、撮影位置は、撮影する断面を特定するための被検体の身体における特定の位置(以下、特徴点ともいう)のことをいう。 Here, we will explain the pre-trained model 321 used in this example. The pre-trained model 321 is designed to output the shooting position on the positioning image by inputting the positioning image and medical information related to the subject. The shooting position refers to a specific location on the subject's body (hereinafter also referred to as a feature point) used to identify the cross-section to be photographed.
具体的には、学習済みモデル321は、位置決め画像等が入力されると、位置決め画像等に含まれる特徴量に基づき、位置決め画像上での撮影位置と、当該撮影位置の確度(推論の確からしさを示す指標)とを、推論結果として出力する。また、例えば、学習済みモデル321は、確度が最大となる位置決め画像上での撮影位置を推論結果として出力する。 Specifically, when a positioning image or similar data is input, the trained model 321 outputs the shooting position on the positioning image and the accuracy (an indicator of the likelihood of inference) of that shooting position as inference results, based on the features contained in the positioning image or similar data. Furthermore, for example, the trained model 321 outputs the shooting position on the positioning image with the highest accuracy as the inference result.
なお、学習済みモデル321の生成方法については特に問わないものとする。例えば、学習済みモデル321は、学習済みモデルを生成する学習装置において、位置決め画像、及び当該位置決め画像上での撮影位置等を学習用データとして機械学習させることで、生成することができる。 The method for generating the pre-trained model 321 is not particularly specified. For example, the pre-trained model 321 can be generated by using a learning device that generates pre-trained models to perform machine learning on positioning images and the shooting positions on those positioning images as training data.
なお、機械学習に用いる機械学習エンジンは特に問わず、公知の技術を用いることが可能である。例えば、機械学習エンジンとしては、公知である非特許文献「クリストファー M. ビショップ(Christopher M. Bishop)著、「パターン認識と機械学習(Pattern recognition and machine learning)」、(米国)、第1版、スプリンガー(Springer)、2006年、P.225-290」に記載のニューラルネットワーク(Neural Network)等を適用することができる。 Furthermore, there are no specific restrictions on the machine learning engine used; publicly known technologies can be employed. For example, a neural network described in the publicly known non-patent document "Pattern Recognition and Machine Learning" by Christopher M. Bishop (USA), 1st edition, Springer, 2006, pp. 225-290, can be applied as a machine learning engine.
また、機械学習エンジンは、上記したニューラルネットワークの他、例えば、ディープラーニングや、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bayes)等の各種のアルゴリズムを用いるものでもよい。 Furthermore, the machine learning engine may utilize various algorithms other than the neural networks mentioned above, such as deep learning, logistic regression analysis, nonlinear discriminant analysis, support vector machines (SVM), random forests, and naive Bayes.
推論機能352は、上述した学習済みモデル321に対し、図2に示した位置決め画像を入力することで、学習済みモデル321に推論処理を実行させる。 The inference function 352 inputs the positioning image shown in Figure 2 to the pre-trained model 321 described above, causing the pre-trained model 321 to perform inference processing.
図3は、学習済みモデル321による推論結果の一例を模式的に示す図である。図3は、図2に示した位置決め画像を学習済みモデル321に入力することで得られた推論結果を示している。図3では、図2の位置決め画像上において、鼻根に対応する位置が推論結果として出力されたことを示している。ここで、推論結果は、確度が最大の撮影位置を意味している。 Figure 3 schematically shows an example of the inference result obtained by the trained model 321. Figure 3 shows the inference result obtained by inputting the positioning image shown in Figure 2 into the trained model 321. Figure 3 shows that the position corresponding to the bridge of the nose on the positioning image in Figure 2 was output as the inference result. Here, the inference result represents the shooting position with the highest accuracy.
図4は、学習済みモデル321を用いた推論処理の一例を模式的に示す図である。図4は、図2の位置決め画像の注目領域マップである。ここで、注目領域マップは、根拠情報となる注目領域を位置決め画像上に表した画像である。図4において、(1)、(2)、(3)は注目領域を表している。学習済みモデル321は、注目領域に基づいて、撮影位置を出力する。例えば、学習済みモデル321は、注目領域の重心の位置を撮影位置として出力する。 Figure 4 schematically illustrates an example of inference processing using the trained model 321. Figure 4 is a map of the region of interest in the positioning image from Figure 2. Here, the region of interest map is an image representing the region of interest that serves as the basis for the inference information on the positioning image. In Figure 4, (1), (2), and (3) represent the region of interest. The trained model 321 outputs the shooting position based on the region of interest. For example, the trained model 321 outputs the position of the centroid of the region of interest as the shooting position.
また、図4は、(1)、(2)、(3)の順で注目度が高いことを表している。注目度は、撮影位置の確度に関係する数値である。例えば、学習済みモデル321は、全注目領域の注目度の合計値に対する、各注目領域の注目度が占める割合に基づいて、撮影位置の確度を出力する。また、図4では、学習済みモデル321は、確度が最大の注目領域(1)の重心位置である鼻の先を推論結果として出力する。 Furthermore, Figure 4 shows that the areas of interest are in the order of (1), (2), and (3). The level of interest is a numerical value related to the accuracy of the shooting location. For example, the trained model 321 outputs the accuracy of the shooting location based on the ratio of the level of interest of each area to the total level of interest of all areas of interest. Also, in Figure 4, the trained model 321 outputs the tip of the nose, which is the centroid position of area (1), the area of interest with the highest accuracy, as the inference result.
解釈機能354は、例えば、位置決め画像上の注目領域に関する情報に基づき解釈処理を実行する。具体的には、解釈機能354は、解釈テーブル323を参照し、位置決め画像上の注目領域に関する情報に対応する処理を実行する。 The interpretation function 354 performs interpretation processing based, for example, on information regarding the area of interest on the positioning image. Specifically, the interpretation function 354 refers to the interpretation table 323 and performs processing corresponding to the information regarding the area of interest on the positioning image.
一例として、解釈テーブル323に「位置決め画像上の注目領域に関する情報」に対し「最注目領域について背景画素が占める割合を計算する」処理を行うことが、対応付けて記憶されて記憶されているものとする。この場合、解釈機能354は、最注目領域について背景画素が占める割合を計算する。この計算結果が解釈情報となる。 As an example, let's assume that the interpretation table 323 stores information about the area of interest on the positioning image, and that the process of "calculating the percentage of background pixels in the area of interest" is performed accordingly. In this case, the interpretation function 354 calculates the percentage of background pixels in the area of interest. This calculation result becomes the interpretation information.
図5は、解釈機能354の動作の一例を説明するための図である。図5の「(1)」は、注目領域マップ上における注目領域を識別する数字である。また、図5の「85%」は、注目領域(1)が、撮影位置を含む確率を表している。図5の「背景画素が注目領域に対して占める割合=7割」は、解釈情報を表している。判断機能355は、この解釈情報に基づいて、撮影位置が鼻の先であるという推論結果の妥当性を判断する。 Figure 5 illustrates an example of the operation of the interpretation function 354. In Figure 5, "(1)" is a number identifying the area of interest on the area of interest map. "85%" in Figure 5 represents the probability that area of interest (1) includes the shooting location. "Percentage of background pixels relative to the area of interest = 70%" in Figure 5 represents interpretation information. Based on this interpretation information, the judgment function 355 determines the validity of the inference result that the shooting location is the tip of the nose.
具体的には、判断機能355は、判断テーブル324を参照し、「背景画素が注目領域に対する割合」に対応するナレッジDB322の参照場所を特定する。この例では、「背景画素が注目領域に対する割合」と、「鼻根に対応する位置を含む注目領域の背景画素が注目領域に対して占める割合=3割という知識情報が記憶されているナレッジDB322上のアドレス」とが対応付けられて記憶されているものとする。 Specifically, the judgment function 355 refers to the judgment table 324 and identifies the reference location in the knowledge database 322 corresponding to the "ratio of background pixels to the area of interest." In this example, it is assumed that the "ratio of background pixels to the area of interest" and the "address in the knowledge database 322 where the knowledge information that the ratio of background pixels in the area of interest, including the position corresponding to the bridge of the nose, occupies 30% of the area of interest is stored" are associated and stored.
これにより、判断機能355は、ナレッジDB322を参照し、妥当性の判断に用いる知識情報が「鼻根に対応する位置を含む注目領域の背景画素が注目領域に対して占める割合=3割」であることを特定することができる。判断機能355は、知識情報「鼻根に対応する位置を含む注目領域の背景画素が注目領域に対して占める割合=3割」に基づいて、推論結果が妥当であるか否かを判断する。 This allows the judgment function 355 to refer to the knowledge database 322 and identify the knowledge information used for determining validity: "The proportion of background pixels in the area of interest that includes the position corresponding to the bridge of the nose to the area of interest = 30%." Based on this knowledge information, the judgment function 355 determines whether the inference result is valid or not.
図6は、判断機能355の動作の一例を説明するための図である。図6に示すように、判断機能355は、知識情報「鼻根に対応する位置を含む注目領域の背景画素が注目領域に対して占める割合=3割」と、解釈情報として取得した「背景画素が注目領域に対して占める割合=7割」とが一致しないことから、推論結果は妥当でないと判断する。この場合、修正機能356は、推論結果の修正処理を行う。 Figure 6 illustrates an example of the operation of the judgment function 355. As shown in Figure 6, the judgment function 355 determines that the inference result is invalid because the knowledge information "the proportion of background pixels in the area of interest that includes the position corresponding to the bridge of the nose = 30%" does not match the interpretation information "the proportion of background pixels in the area of interest = 70%". In this case, the correction function 356 performs a correction process on the inference result.
具体的には、修正機能356は、修正テーブル325を参照し、根拠情報「位置決め画像上の注目領域に関する情報」、解釈情報「背景画素が注目領域に対して占める割合=7割」、知識情報「鼻根に対応する位置を含む注目領域の背景画素が注目領域に対して占める割合=3割」の組に対応する修正処理を実行する。 Specifically, the correction function 356 refers to the correction table 325 and executes a correction process corresponding to the set of information: "Information regarding the area of interest on the positioning image," "Interpretation information: 70% of the area of interest is occupied by background pixels," and "Knowledge information: 30% of the area of interest is occupied by background pixels including the position corresponding to the bridge of the nose."
この例では、根拠情報「位置決め画像上の注目領域に関する情報」、解釈情報「背景画素が注目領域に対する割合=7割」、及び、知識情報「鼻根に対応する位置を含む注目領域の背景画素が注目領域に対して占める割合=3割」の組と、「最注目領域以外の領域の夫々について背景画素が占める割合を計算し、知識情報と一致する、撮影位置を含む確率が最も高い領域の重心の位置を撮影位置とする」という修正処理とが対応付けられて記憶されているものとする。 In this example, it is assumed that the following set of information is stored in association with the following: "Reasoning information: Information about the area of interest on the positioning image," "Interpretation information: Ratio of background pixels to the area of interest = 70%," and "Knowledge information: Ratio of background pixels to the area of interest including the position corresponding to the bridge of the nose = 30%." This is then followed by a correction process: "Calculate the ratio of background pixels for each area other than the most important area of interest, and set the centroid of the area with the highest probability of containing the shooting position, which matches the knowledge information, as the shooting position."
修正機能356は、図2の最注目領域である注目領域(1)以外の注目領域である注目領域(2)及び注目領域(3)について、背景画素が占める割合を計算する。図7は、背景画素が注目領域に対して占める割合の計算結果の一例である。 The correction function 356 calculates the proportion of background pixels in the focus regions (2) and (3) of Figure 2, excluding the focus region (1), which is the region of greatest interest. Figure 7 shows an example of the calculation result of the proportion of background pixels relative to the focus region.
図7は、図2の注目領域マップ上の注目領域(2)が撮影位置を含む確率が80%、背景画素が注目領域に対して占める割合が3割であることを示している。また、図7は、図2の注目領域マップ上の注目領域(3)が撮影位置を含む確率が20%、背景画素が注目領域に対して占める割合が3割であることを示している。 Figure 7 shows that the area of interest (2) on the area of interest map in Figure 2 has an 80% probability of containing the shooting location, and that background pixels occupy 30% of the area of interest. Furthermore, Figure 7 shows that the area of interest (3) on the area of interest map in Figure 2 has a 20% probability of containing the shooting location, and that background pixels occupy 30% of the area of interest.
次いで、修正機能356修正機能356は、判断機能355と協働し、注目領域(2)の「背景画素が注目領域に対して占める割合=3割」、及び、注目領域(3)の「背景画素が注目領域に対して占める割合=3割」が知識情報と一致するか否かを判断する。具体的には、修正機能356修正機能356は、推論結果の妥当性判断処理と同様に、知識情報「鼻根に対応する位置を含む注目領域の背景画素が注目領域に対して占める割合=3割」と一致するか否かを判断する。 Next, the correction function 356, in cooperation with the judgment function 355, determines whether the "percentage of background pixels in the area of interest (2) = 30%" and the "percentage of background pixels in the area of interest (3) = 30%" match the knowledge information. Specifically, the correction function 356, similar to the validity judgment process for the inference result, determines whether it matches the knowledge information "the percentage of background pixels in the area of interest that includes the position corresponding to the bridge of the nose = 30%".
図8は、最注目領域以外の注目領域が知識情報と一致するか否かの判断処理の一例を説明する図である。図8に示すように、注目領域(2)及び注目領域(3)とも、背景画素が注目領域に対して占める割合の計算結果が、知識情報「鼻根に対応する位置を含む注目領域の背景画素が注目領域に対して占める割合=3割」と一致している。 Figure 8 illustrates an example of the process for determining whether a region of interest other than the most important region matches the knowledge information. As shown in Figure 8, for both region (2) and region (3), the calculated percentage of background pixels relative to the region of interest matches the knowledge information: "The percentage of background pixels in the region of interest containing the position corresponding to the bridge of the nose = 30%."
図9は、修正機能356の動作の一例を説明する図である。図9に示すように、修正機能356は、知識情報「鼻根に対応する位置を含む注目領域の背景画素が注目領域に対して占める割合=3割」と一致する注目領域(2)と注目領域(3)のうち、撮影位置を含む可能性が最も高い注目領域(2)の情報を、修正後の撮影位置に関する推論の推論結果として出力する。 Figure 9 illustrates an example of the operation of the correction function 356. As shown in Figure 9, the correction function 356 outputs information from two areas of interest (2) and (3) that match the knowledge information "the ratio of background pixels in the area of interest containing the position corresponding to the bridge of the nose to the area of interest = 30%". The correction function outputs information from area of interest (2), which is most likely to contain the shooting position, as the inference result of the inference regarding the corrected shooting position.
生成機能357は、修正機能356が出力した推論結果に基づいて、図2の位置決め画像上に、注目領域(2)の重心の位置を示した画像を可視化情報として生成する。なお、生成機能357は、図3乃至図9に示した図を可視化情報として生成してもよい。生成された可視化情報は、例えば、制御機能351により、ディスプレイ34に画像として出力される。 The generation function 357 generates an image showing the position of the centroid of the region of interest (2) on the positioning image in Figure 2, based on the inference result output by the correction function 356, as visualization information. The generation function 357 may also generate the diagrams shown in Figures 3 to 9 as visualization information. The generated visualization information is output as an image to the display 34 by, for example, the control function 351.
なお、図9では、妥当でない推論結果の修正を自動的に行っているが、修正機能356は、医師等のユーザの指示に従って、推論結果の修正を行ってもよい。この場合、ユーザは、生成機能357により生成された可視化情報に基づいて、推論結果の修正指示を行ってもよい。このように手動で推論結果の修正を行えるようにすることは、例えば、ユーザが、生成された可視化情報から容易に修正方法を想起できるような場面で有用である。 In Figure 9, incorrect inference results are automatically corrected; however, the correction function 356 may also correct the inference results according to the instructions of a user, such as a physician. In this case, the user may give instructions to correct the inference results based on the visualization information generated by the generation function 357. Allowing manual correction of inference results in this way is useful, for example, in situations where the user can easily recall the correction method from the generated visualization information.
なお、判断機能355は、修正機能356による修正後の推論結果について、妥当性判断を再度行うようにしてもよい。この場合は、修正前の推論結果の妥当性の判断に用いた知識情報以外の知識情報に基づいて、妥当性を判断することが好ましい。例えば、上述の撮影位置の決定を支援するための推論を行う場合、知識情報「鼻根に対応する位置を含む注目領域の背景画素が注目領域に対して占める割合=3割」以外の、撮影位置に関係する知識情報に基づいて、妥当性を判断することが好ましい。 Furthermore, the judgment function 355 may perform a validity judgment again on the inference result after correction by the correction function 356. In this case, it is preferable to judge the validity based on knowledge information other than the knowledge information used to judge the validity of the inference result before correction. For example, when performing inference to support the determination of the shooting position as described above, it is preferable to judge the validity based on knowledge information related to the shooting position other than the knowledge information "the ratio of background pixels in the area of interest including the position corresponding to the bridge of the nose to the area of interest = 30%".
また、この場合、修正後の推論結果が妥当である場合のみ、制御機能351は、最終的な推論結果をディスプレイ34等に出力することとしてもよい。これにより、推論の精度を向上させることができる。 Furthermore, in this case, the control function 351 may output the final inference result to the display 34, etc., only if the corrected inference result is valid. This can improve the accuracy of the inference.
なお、上述した説明では、根拠情報が「位置決め画像上の注目領域に関する情報」である場合について説明したが、根拠情報の形態はこれに限定されない。例えば、根拠情報は、「位置決め画像上の注目した特徴に関する情報」であってもよい。以下、図10乃至図12を用いて、根拠情報が「位置決め画像上の注目した特徴に関する情報」である場合の位置決め画像に基づく、撮影位置の決定処理について説明する。 The above explanation described the case where the supporting information is "information about the area of interest on the positioning image," but the form of the supporting information is not limited to this. For example, the supporting information may be "information about the feature of interest on the positioning image." Below, using Figures 10 to 12, we will explain the process of determining the shooting position based on the positioning image when the supporting information is "information about the feature of interest on the positioning image."
なお、この例でも、学習済みモデル321は、被検体の鼻の先を撮影位置として出力したものとする。また、この例では、学習済みモデル321は、「位置決め画像上の注目領域に関する情報」ではなく、「位置決め画像上の注目した特徴に関する情報」に基づいて、位置決め画像上での撮影位置を出力する。 In this example, the trained model 321 is assumed to output the tip of the subject's nose as the shooting location. Furthermore, in this example, the trained model 321 outputs the shooting location on the positioning image based on "information about the featured area on the positioning image," rather than "information about the region of interest on the positioning image."
図10は、学習済みモデル321を用いた推論処理の一例を模式的に示す図である。図10は、図2の位置決め画像について、注目した特徴の分布を棒グラフで表した注目特徴分布である。また、図10は、図2の位置決め画像においては、最も注目した特徴が「凸状」、次に注目した特徴が「凹状」、その次に注目した特徴が「平坦」であることを表している。 Figure 10 schematically illustrates an example of inference processing using the trained model 321. Figure 10 shows the distribution of notable features in the positioning image from Figure 2, represented as a bar graph. Furthermore, Figure 10 indicates that in the positioning image from Figure 2, the most notable feature is "convex," the next most notable feature is "concave," and the third most notable feature is "flat."
学習済みモデル321は、図10に示すように、図2の位置決め画像において、最も注目した特徴が「凸状」であることを根拠に、撮影位置が被検体の鼻の先であるという推論結果を出力している。この推論結果の妥当性を判断するために、まず、解釈機能354は、「位置決め画像上の注目した特徴に関する情報」について解釈処理を行う。 As shown in Figure 10, the trained model 321 outputs an inference that the shooting location is the tip of the subject's nose, based on the fact that the most noteworthy feature in the positioning image in Figure 2 is "convex." To determine the validity of this inference, the interpretation function 354 first performs an interpretation process on the "information regarding the noteworthy feature on the positioning image."
解釈機能354は、解釈テーブル323を参照し、位置決め画像上の注目した特徴に関する情報に対応する処理を実行する。この例では、「位置決め画像上の注目した特徴に関する情報」と「最も注目した特徴を抽出する」とが対応付けられて記憶されているものとする。解釈機能354は、図2示す位置決め画像における、最も注目した特徴を抽出する。この抽出結果が解釈情報となる。 The interpretation function 354 refers to the interpretation table 323 and performs processing corresponding to the information regarding the focus feature on the positioning image. In this example, it is assumed that "information regarding the focus feature on the positioning image" and "extract the most focus feature" are stored in association. The interpretation function 354 extracts the most focus feature in the positioning image shown in Figure 2. This extraction result becomes the interpretation information.
図11は、解釈機能354の動作の一例を説明する図である。図11は、図2示す位置決め画像における、最も注目した特徴は、「凸状」であることを表している。判断機能355は、この解釈情報に基づいて、撮影位置が鼻の先であるという推論結果の妥当性を判断する。 Figure 11 illustrates an example of the operation of the interpretation function 354. Figure 11 shows that the most notable feature in the positioning image shown in Figure 2 is "convex." Based on this interpretation information, the judgment function 355 determines the validity of the inference that the shooting location is the tip of the nose.
判断機能355は、判断テーブル324を参照し、「最も注目した特徴を抽出=凸状」に対応するナレッジDB322の参照場所を特定する。この例では、「最も注目した特徴を抽出=凸状」と、「鼻根に対応する位置付近は凹状という知識情報が記憶されているナレッジDB322上のアドレス」とが対応付けられて記憶されているものとする。 The judgment function 355 refers to the judgment table 324 and identifies the reference location in the knowledge database 322 corresponding to "extract the most noteworthy feature = convex." In this example, it is assumed that "extract the most noteworthy feature = convex" and "the address in the knowledge database 322 where the knowledge information that the area near the bridge of the nose is concave" are stored are associated and stored.
これにより、判断機能355は、ナレッジDB322を参照し、妥当性の判断に用いる知識情報が「鼻根に対応する位置付近は凹状」であることを特定することができる。判断機能355は、知識情報「鼻根に対応する位置付近は凹状」に基づいて、推論結果が妥当であるか否かを判断する。 This allows the judgment function 355 to refer to the knowledge database 322 and identify the knowledge information used for determining validity as "the area near the nasal root is concave." Based on this knowledge information, the judgment function 355 determines whether the inference result is valid.
図12は、判断機能355の動作の一例を説明する図である。図12に示すように、判断機能355は、知識情報「鼻根に対応する位置付近は凹状」と、解釈情報として取得した「最も注目した特徴を抽出=凸状」とが一致しないことから、推論結果は妥当でないと判断する。推論結果が妥当でないことから、修正機能356は、推論結果の修正処理を行う。なお、推論結果が妥当である場合は、制御機能351により、推論結果を表す情報がディスプレイ34に出力される。 Figure 12 illustrates an example of the operation of the judgment function 355. As shown in Figure 12, the judgment function 355 determines that the inference result is invalid because the knowledge information "the area near the bridge of the nose is concave" does not match the interpretation information "the most noteworthy feature was extracted = convex." Since the inference result is invalid, the correction function 356 performs a correction process on the inference result. If the inference result is valid, the control function 351 outputs information representing the inference result to the display 34.
修正機能356は、修正テーブル325を参照し、根拠情報「位置決め画像上の注目した特徴に関する情報」、解釈情報「最も注目した特徴を抽出=凸状」、及び、知識情報「鼻根に対応する位置付近は凹状」の組に対応する修正処理を実行する。 The correction function 356 refers to the correction table 325 and executes a correction process corresponding to the combination of the following: "Information regarding the notable feature on the positioning image," "Extraction of the most notable feature = convex," and "Knowledge information: The area near the nasal root is concave."
この例では、根拠情報「注目した特徴に関する情報」、解釈情報「最も注目した特徴を抽出=凸状」、及び、知識情報「鼻根に対応する位置付近は凹状」の組と、「位置決め画像に凸状を除くフィルタを適用して、再度同じ処理を実行する」という修正処理とが対応付けられて記憶されているものとする。 In this example, it is assumed that the following pairs of information are stored in association with each other: "Information about the featured feature," "Interpretation information (extracting the most featured feature = convex)," and "Knowledge information (the area near the bridge of the nose is concave)." The correction process, "Apply a filter to remove convex shapes to the positioning image and perform the same process again," is also stored.
修正機能356は、位置決め画像に凸状を除くフィルタを適用し、フィルタ適用後の位置決め画像を学習済みモデル321に入力する。そして、修正機能356は、学習済みモデル321で導出された推論結果を、修正後の推論結果として出力する。 The correction function 356 applies a filter to the positioning image to remove convex shapes, and inputs the filtered positioning image into the trained model 321. The correction function 356 then outputs the inference result derived by the trained model 321 as the corrected inference result.
生成機能357は、修正機能356が出力した推論結果に基づいて、図2の位置決め画像上に、被検体の鼻根の位置を示した画像を可視化情報として生成する。なお、生成機能357は、図10乃至図12に示した図を可視化情報として生成してもよい。生成された可視化情報は、例えば、制御機能351により、ディスプレイ34に画像として出力される。 The generation function 357 generates an image showing the position of the subject's nasal root on the positioning image in Figure 2, based on the inference results output by the correction function 356, as visualization information. The generation function 357 may also generate the images shown in Figures 10 to 12 as visualization information. The generated visualization information is output as an image to the display 34 by, for example, the control function 351.
なお、判断機能355は、修正機能356が出力した修正後の推論結果について、知識情報「鼻根に対応する位置付近は凹状」に基づいて、修正後の推論結果の妥当性を判断してもよい。この場合、修正後の推論結果が妥当である場合のみ、制御機能351は、最終的な推論結果をディスプレイ34等に出力することとしてもよい。これにより、推論の精度を向上させることができる。 Furthermore, the judgment function 355 may judge the validity of the corrected inference result output by the correction function 356 based on the knowledge information "the area near the bridge of the nose is concave." In this case, the control function 351 may output the final inference result to the display 34, etc., only if the corrected inference result is valid. This can improve the accuracy of the inference.
なお、図2乃至図9を用いて説明した根拠情報に基づく処理と、図10乃至図12を用いて説明した根拠情報に基づく処理との両方が実行されてもよい。この場合、2つの処理による推論結果が一致した場合のみ、制御機能351は、当該推論結果を最終的な推論結果として出力することとしてもよい。 Furthermore, both the processing based on the supporting information explained using Figures 2 to 9 and the processing based on the supporting information explained using Figures 10 to 12 may be executed. In this case, the control function 351 may output the inference result as the final inference result only if the inference results from the two processes match.
また、図2乃至図9を用いて説明した根拠情報に基づく処理と、図10乃至図12を用いて説明した根拠情報に基づく処理とに加えて、更に異なる根拠情報に基づく処理を行い、3つの処理による推論結果のうち、2以上の推論結果が一致した場合のみ、制御機能351は、当該推論結果を最終的な推論結果として出力することとしてもよい。 Furthermore, in addition to the processing based on the supporting information explained using Figures 2 to 9 and the processing based on the supporting information explained using Figures 10 to 12, processing based on yet another set of supporting information may be performed. The control function 351 may output the final inference result only if two or more of the inference results from the three processes match.
また、1回目の処理として、図2乃至図9を用いて説明した根拠情報に基づく処理を行い、その後2回目の処理として、図10乃至図12を用いて説明した根拠情報に基づく処理を行ってもよい。なお、このとき、処理を行う順番は、各根拠情報の推論結果に対する寄与率等に基づいて定めてもよい。 Alternatively, the first processing step may involve performing processing based on the supporting information explained using Figures 2 to 9, followed by a second processing step based on the supporting information explained using Figures 10 to 12. The order of processing may be determined based on the contribution rate of each piece of supporting information to the inference result.
この場合、1回目の処理による推論結果と、2回目の処理による修正結果とが一致した場合のみ、制御機能351は、当該推論結果を最終的な推論結果として出力することとしてもよい。これにより、推論結果の妥当性を異なる複数の観点から判断することができる。 In this case, the control function 351 may output the inference result as the final inference result only if the inference result from the first process matches the correction result from the second process. This allows the validity of the inference result to be judged from multiple different perspectives.
なお、生成機能357は、推論結果を可視化すると共に、推論機能352、取得機能353、解釈機能354、判断機能355、及び修正機能356の各機能が実行した処理に関する情報を可視化した可視化情報を生成してもよい。生成された可視化情報は、制御機能351により、ディスプレイ34等に出力される。 Furthermore, the generation function 357 may generate visualization information that visualizes the inference results, as well as information related to the processing performed by each of the inference function 352, acquisition function 353, interpretation function 354, judgment function 355, and correction function 356. The generated visualization information is output to the display 34 or the like by the control function 351.
これにより、ユーザは、どのような根拠に基づいて、推論結果の妥当性を判断したか、推論結果が妥当でなかった場合にどのように推論結果を修正したのか等を容易に把握することができる。 This allows users to easily understand the basis on which they judged the validity of the inference results, and how they modified the inference results if they were not valid.
次に、医用情報処理装置3が実行する処理について説明する。図13は、医用情報処理装置3が実行する処理の一例を示すフローチャートである。 Next, we will explain the processes performed by the medical information processing device 3. Figure 13 is a flowchart showing an example of the processes performed by the medical information processing device 3.
まず、推論機能352は、学習済みモデル321に入力データを入力する(ステップS1)。例えば、撮影位置の決定処理を行う場合、推論機能352は、MRI装置で撮影した位置決め画像の画像データを学習済みモデル321に入力する。次いで、取得機能353は、学習済みモデル321から出力される推論結果を取得する(ステップS2)。 First, the inference function 352 inputs input data to the trained model 321 (step S1). For example, when determining the imaging position, the inference function 352 inputs image data of the positioning image captured by the MRI device to the trained model 321. Next, the acquisition function 353 acquires the inference result output from the trained model 321 (step S2).
例えば、撮影位置の決定処理を行う場合、取得機能353は、学習済みモデル321から出力される、複数の領域の情報のうち、撮影位置を含む可能性が最も高い領域を撮影位置に関する推論の推論結果として取得する。なお、各領域の撮影位置を含む可能性については、各領域の情報と共に学習済みモデル321から出力される、当該領域が撮影位置を含む確率に基づいて判断される。 For example, when determining the shooting location, the acquisition function 353 acquires the region most likely to contain the shooting location from the information of multiple regions output from the trained model 321 as the inference result for the shooting location inference. The likelihood of each region containing the shooting location is determined based on the probability that the region contains the shooting location, which is output from the trained model 321 along with the information of each region.
次いで、取得機能353は、推論結果の根拠となる根拠情報を取得する(ステップS3)。例えば、撮影位置の決定処理を行う場合、取得機能353は、位置決め画像の「位置決め画像上の注目領域に関する情報」を根拠情報として取得する。 Next, the acquisition function 353 acquires the basis information for the inference result (step S3). For example, when determining the shooting position, the acquisition function 353 acquires "information regarding the area of interest on the positioning image" as the basis information.
次いで、解釈機能354は、根拠情報の解釈処理を行い、解釈情報を取得する(ステップS4)。なお、解釈処理が不要な場合、ステップS4は省略される。 Next, the interpretation function 354 performs interpretation processing of the underlying information and obtains the interpretation information (step S4). Note that if interpretation processing is not required, step S4 is omitted.
例えば、取得機能353により、位置決め画像上の注目領域に関する情報が根拠情報として取得された場合、解釈機能354は、解釈テーブル323を参照し、「位置決め画像上の注目領域に関する情報」に対応する解釈処理を行う。解釈テーブル323において、「位置決め画像上の注目領域に関する情報」と、「最注目領域について背景画素が占める割合を計算する」とが対応付けられて記憶されていた場合、解釈機能354は、最注目領域について背景画素が占める割合を計算する。この計算結果が解釈情報となる。 For example, if the acquisition function 353 acquires information about the area of interest on the positioning image as supporting information, the interpretation function 354 refers to the interpretation table 323 and performs interpretation processing corresponding to the "information about the area of interest on the positioning image." If the interpretation table 323 stores the "information about the area of interest on the positioning image" and "calculate the percentage of background pixels occupying the area of interest," the interpretation function 354 calculates the percentage of background pixels occupying the area of interest. This calculation result becomes the interpretation information.
次いで、判断機能355は、取得機能353により取得された根拠情報、又は、解釈機能354により取得された解釈情報に基づいて、推論機能352により取得された推論結果が妥当であるか否かを判断する(ステップS5)。例えば、解釈機能354により、最注目領域について背景画素が占める割合が解釈情報として取得された場合、解釈機能354は、判断テーブル324を参照し、「最注目領域について背景画素が占める割合」に対応する、推論結果の妥当性を判断するための知識情報を特定する。 Next, the judgment function 355 determines whether the inference result obtained by the inference function 352 is valid, based on the evidence information obtained by the acquisition function 353 or the interpretation information obtained by the interpretation function 354 (step S5). For example, if the interpretation function 354 obtains the percentage of background pixels occupying the most important region as interpretation information, the interpretation function 354 refers to the judgment table 324 and identifies the knowledge information for determining the validity of the inference result corresponding to "the percentage of background pixels occupying the most important region."
判断テーブル324において、「最注目領域について背景画素が占める割合」と「撮影位置を含む注目領域について背景画素が占める割合という知識情報が記憶された、ナレッジDB322におけるアドレス」とが対応付けられて記憶されていた場合、判断機能355は、「撮影位置を含む注目領域について背景画素が占める割合」を、推論結果の妥当性を判断するための知識情報として特定する。判断機能355は、当該知識情報と解釈情報とが一致するか否かに基づいて、推論結果の妥当性を判断する。 In the judgment table 324, if the "percentage of background pixels occupying the most important region" and the "address in the knowledge database 322 where knowledge information regarding the percentage of background pixels occupying the region of interest including the shooting location is stored" are associated and stored, the judgment function 355 identifies the "percentage of background pixels occupying the region of interest including the shooting location" as knowledge information for judging the validity of the inference result. The judgment function 355 then determines the validity of the inference result based on whether or not this knowledge information matches the interpretation information.
推論結果が妥当であると判断した場合(ステップS5:Yes)、生成機能357は、学習済みモデル321により出力された推論結果を表す可視化情報を生成する。そして、制御機能351は、生成された可視化情報をディスプレイ34へ出力し、本処理を終了する(ステップS6)。一方、推論結果が妥当でないと判断した場合(ステップS5:No)、修正機能356は、妥当でない推論結果の修正処理を行う(ステップS7)。 If the inference result is deemed valid (Step S5: Yes), the generation function 357 generates visualization information representing the inference result output by the trained model 321. Then, the control function 351 outputs the generated visualization information to the display 34 and terminates this process (Step S6). On the other hand, if the inference result is deemed invalid (Step S5: No), the correction function 356 performs correction processing for the invalid inference result (Step S7).
例えば、判断機能355により、根拠情報「位置決め画像上の注目領域に関する情報」、解釈情報「最注目領域について背景画素が占める割合」、及び、知識情報「撮影位置を含む注目領域について背景画素が占める割合」に基づいて、推論結果が妥当でないと判断された場合、判断機能355は、修正テーブル325を参照し、根拠情報「位置決め画像上の注目領域に関する情報」、解釈情報「最注目領域について背景画素が占める割合」、及び、知識情報「撮影位置を含む注目領域について背景画素が占める割合」に対応する修正処理を行う。 For example, if the judgment function 355 determines that the inference result is not valid based on the rationale information ("information about the area of interest on the positioning image"), the interpretation information ("the proportion of background pixels occupying the area of interest"), and the knowledge information ("the proportion of background pixels occupying the area of interest including the shooting position"), the judgment function 355 refers to the correction table 325 and performs correction processing corresponding to the rationale information ("information about the area of interest on the positioning image"), the interpretation information ("the proportion of background pixels occupying the area of interest including the shooting position"), and the knowledge information ("the proportion of background pixels occupying the area of interest including the shooting position").
修正テーブル325において、根拠情報「位置決め画像上の注目領域に関する情報」、解釈情報「最注目領域について背景画素が占める割合」、及び、知識情報「撮影位置を含む注目領域について背景画素が占める割合」と、「最注目領域以外の領域の夫々について背景画素が占める割合を計算し、知識情報と一致する撮影位置を含む確率が最も高い領域の重心の位置を撮影位置とする」とが対応付けられて記憶されている場合、修正機能356修正機能356は、最注目領域以外の領域の夫々について背景画素が占める割合を計算する。 In the correction table 325, if the following are stored in association: "Information regarding the area of interest on the positioning image," "Interpretation information (the percentage of background pixels in the area of interest)," and "Knowledge information (the percentage of background pixels in the area of interest including the shooting position)," and "Calculate the percentage of background pixels in each area other than the area of interest, and set the shooting position to the centroid of the area with the highest probability of containing the shooting position matching the knowledge information," then the correction function 356 calculates the percentage of background pixels in each area other than the area of interest.
そして、修正機能356は、知識情報「撮影位置を含む注目領域について背景画素が占める割合」と一致する注目領域の中で撮影位置を含む確率が最も高い注目領域の重心の位置を修正後の推論結果として出力する。次いで、生成機能357は、出力された推論結果に基づいて、推論結果を可視化した可視化情報を生成する。 The correction function 356 then outputs the position of the centroid of the region of interest with the highest probability of containing the shooting location, among the regions of interest that match the knowledge information "the proportion of background pixels in the region of interest including the shooting location," as the corrected inference result. Next, the generation function 357 generates visualization information that visualizes the inference result based on the outputted inference result.
次いで、制御機能351は、生成された推論結果を可視化した可視化情報をディスプレイ34へ出力し、本処理を終了する(ステップS8)。 Next, the control function 351 outputs the visualized information, which visualizes the generated inference results, to the display 34, and terminates this process (step S8).
上述したように、本実施形態に係る医用情報処理装置3は、位置決め画像データ等の入力データに基づいて、MRI装置における被検体の撮影位置の決定処理等の医療行為を支援するため、機械学習を用いて生成された学習済みモデル321を用いた推論を行い、当該推論の根拠となる根拠情報を取得し、当該根拠情報と、ナレッジDB322に記憶された推論結果を判断するための知識情報とに基づいて、推論の妥当性を判断する。 As described above, the medical information processing device 3 according to this embodiment performs inference using a trained model 321 generated using machine learning, based on input data such as positioning image data, in order to support medical procedures such as determining the imaging position of a subject in an MRI device. It acquires the basis information for the inference and determines the validity of the inference based on this basis information and knowledge information stored in the knowledge database 322 for judging the inference result.
これにより、自動的に推論の妥当性が判断されるため、ユーザは自ら学習済みモデルによる推論結果の妥当性を判断する必要がなくなる。 This automatically determines the validity of the inference, eliminating the need for users to manually assess the validity of the inference results from the pre-trained model.
また、本実施形態に係る医用情報処理装置3は、複数の根拠情報に基づいて、推論結果の妥当性を判断する。これにより、複数の観点から妥当性を判断できるため、学習済みモデルによる推論の精度の向上が期待できる。 Furthermore, the medical information processing device 3 according to this embodiment determines the validity of the inference result based on multiple pieces of supporting information. This allows for the determination of validity from multiple perspectives, thus improving the accuracy of inference using the trained model.
また、本実施形態に係る医用情報処理装置3は、機械学習を用いた推論の推論結果が妥当でないと判断した場合、根拠情報と、当該根拠情報を解釈した解釈情報と、知識情報とに基づいて、妥当でない推論結果を修正する。これにより、推論結果が妥当でなかった場合でも、ユーザは、推論の根拠となる情報を確認することなく、修正された推論結果を得ることができる。 Furthermore, if the medical information processing device 3 according to this embodiment determines that the inference result of the machine learning-based inference is not valid, it corrects the invalid inference result based on the supporting information, the interpreted information derived from that supporting information, and the knowledge information. This allows the user to obtain the corrected inference result without having to check the information that forms the basis of the inference, even if the initial inference result was invalid.
また、本実施形態に係る医用情報処理装置3は、修正前に妥当性の判断に用いた根拠情報とは異なる根拠情報と、ナレッジDB322に記憶された知識情報とに基づいて、修正された推論結果の妥当性を判断する。修正前に妥当性の判断に用いた根拠情報とは異なる根拠情報を用いることにより、修正前とは異なる観点から、修正後の推論結果の妥当性を判断できるため、学習済みモデルによる推論の精度の向上が期待できる。 Furthermore, the medical information processing device 3 according to this embodiment determines the validity of the corrected inference result based on evidence information different from the evidence information used to determine validity before correction, and knowledge information stored in the knowledge DB 322. By using evidence information different from the evidence information used to determine validity before correction, the validity of the corrected inference result can be determined from a different perspective than before correction, thus improving the accuracy of inference by the trained model.
なお、上述した説明で用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。 Furthermore, the term "processor" used in the above explanation refers to circuits such as CPUs (Central Processing Units), GPUs (Graphics Processing Units), Application Specific Integrated Circuits (ASICs), and programmable logic devices (e.g., Simple Programmable Logic Devices (SPLDs), Complex Programmable Logic Devices (CPLDs), and Field Programmable Gate Arrays (FPGAs)).
プロセッサは、記憶回路32に保存されたプログラムを読み出して実行することで、機能を実現する。なお、記憶回路32にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合は、プロセッサは回路内に組み込まれたプログラムを読み出して実行することで機能を実現する。また、本実施形態のプロセッサは、単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成され、その機能を実現するようにしてもよい。 The processor performs its functions by reading and executing the program stored in the memory circuit 32. Alternatively, instead of storing the program in the memory circuit 32, the program may be directly integrated into the processor's circuitry. In this case, the processor performs its functions by reading and executing the program integrated into the circuitry. Furthermore, the processor in this embodiment is not limited to being configured as a single circuit; it may be configured as a single processor by combining multiple independent circuits, and its functions may be achieved through this combination.
ここで、プロセッサによって実行されるプログラム(医用情報処理プログラム)は、ROM(Read Only Memory)や記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disc)-ROM、FD(Flexible Disk)、CD-R(Recordable)、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。 Here, the program executed by the processor (medical information processing program) is provided pre-installed in ROM (Read Only Memory) or memory circuits. This program may also be provided as a file in an installable or executable format on these devices, recorded on a computer-readable storage medium such as a CD (Compact Disc)-ROM, FD (Flexible Disk), CD-R (Recordable), or DVD (Digital Versatile Disc).
また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に保存され、ネットワーク経由でダウンロードされることにより提供又は配布されてもよい。例えば、このプログラムは、上述した各機能部を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。 Furthermore, this program may be provided or distributed by being stored on a computer connected to a network such as the Internet and downloaded via the network. For example, this program consists of modules containing the functional units described above. In terms of actual hardware, the CPU reads the program from a storage medium such as ROM and executes it, thereby loading each module into main memory and creating it in main memory.
以上説明した少なくとも1つの実施形態によれば、学習済みモデルによる推論結果の妥当性判断を支援することができる。 According to at least one embodiment described above, it is possible to support the validity assessment of inference results from a trained model.
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments have been described, these embodiments are presented as examples only and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, modifications, and combinations of embodiments are possible without departing from the spirit of the invention. These embodiments and their variations are included within the scope and spirit of the invention, as well as within the scope of the claims and its equivalents.
100 医用情報処理システム
200 ネットワーク
1 医用画像診断装置
2 医用画像保管装置
3 医用情報処理装置
31 通信インターフェース
32 記憶回路
33 入力インターフェース
34 ディスプレイ
35 処理回路
351 制御機能
352 推論機能
353 取得機能
354 解釈機能
355 判断機能
356 修正機能
357 生成機能
100 Medical Information Processing System 200 Network 1 Medical Image Diagnostic Device 2 Medical Image Storage Device 3 Medical Information Processing Device 31 Communication Interface 32 Memory Circuit 33 Input Interface 34 Display 35 Processing Circuit 351 Control Function 352 Inference Function 353 Acquisition Function 354 Interpretation Function 355 Judgment Function 356 Correction Function 357 Generation Function
Claims (9)
前記第1根拠情報に基づいて前記推論結果の妥当性を判断する判断部であって、前記第1根拠情報と、前記入力情報又は前記推論結果に関連する知識情報とに基づいて、前記推論結果の妥当性を判断する判断部と、
前記推論結果が妥当でない場合、前記知識情報に基づいて、前記推論結果を修正する修正部と、
を備える情報処理装置。 An acquisition unit that acquires the inference result of an inference unit that performs inference based on one or more input pieces of information, and first supporting information that shows the basis for the inference result,
A determination unit that determines the validity of the inference result based on the first basis information , comprising: a determination unit that determines the validity of the inference result based on the first basis information and the input information or knowledge information related to the inference result ;
If the aforementioned inference result is not valid, a correction unit modifies the inference result based on the knowledge information,
An information processing device equipped with the following features.
請求項1に記載の情報処理装置。 The determination unit determines the validity of the inference result that has been corrected by the correction unit.
The information processing apparatus according to claim 1 .
前記判断部は、前記第2根拠情報と、修正後の前記推論結果に関連する前記知識情報とに基づいて、前記推論結果の妥当性を判断する、
請求項2に記載の情報処理装置。 The acquisition unit acquires a second basis information that is different from the first basis information used by the judgment unit to determine validity before the correction by the modification unit.
The determination unit determines the validity of the inference result based on the second basis information and the knowledge information related to the modified inference result.
The information processing apparatus according to claim 2 .
前記可視化情報をユーザに提示する提示部と、
を更に備える、
請求項1乃至3の何れか1項に記載の情報処理装置。 A generation unit that generates visualization information that visualizes the processing content related to the validity judgment of the judgment unit,
A display unit that presents the aforementioned visualization information to the user,
It also has,
The information processing apparatus according to any one of claims 1 to 3 .
請求項1乃至4の何れか1項に記載の情報処理装置。 The inference unit takes medical information, which includes at least a medical image of the subject, as input information, and infers information to support medical procedures related to the subject.
The information processing apparatus according to any one of claims 1 to 4 .
請求項5に記載の情報処理装置。 The inference unit, in a medical image diagnostic device, uses a positioning image for determining the shooting position as input information and infers information to support the determination of the shooting position.
The information processing apparatus according to claim 5 .
請求項5に記載の情報処理装置。 The inference unit, in a medical imaging diagnostic device, uses information regarding the desired image quality as input information and infers information to assist in determining the imaging parameters for capturing medical images.
The information processing apparatus according to claim 5 .
請求項5に記載の情報処理装置。 The inference unit, in a medical imaging diagnostic device, uses the medical images captured by the medical imaging diagnostic device as input information and infers information to support the diagnostic procedure related to the subject.
The information processing apparatus according to claim 5 .
1又は複数の入力情報に基づいて推論を行う推論部の推論結果と、当該推論結果の根拠を示す第1根拠情報とを取得する取得ステップと、
前記第1根拠情報に基づいて前記推論結果の妥当性を判断する判断ステップであって、前記第1根拠情報と、前記入力情報又は前記推論結果に関連する知識情報とに基づいて、前記推論結果の妥当性を判断する判断ステップと、
前記推論結果が妥当でない場合、前記知識情報に基づいて、前記推論結果を修正する修正ステップと、
を実行させるプログラム。 On the computer,
An acquisition step to acquire the inference result of an inference unit that performs inference based on one or more input pieces of information, and first supporting information that shows the basis for the inference result,
A judgment step for determining the validity of the inference result based on the first basis information , comprising: a judgment step for determining the validity of the inference result based on the first basis information and the input information or knowledge information related to the inference result ;
If the aforementioned inference result is not valid, a correction step is taken to correct the inference result based on the knowledge information.
A program that executes the command.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021207484A JP7828751B2 (en) | 2021-12-21 | 2021-12-21 | Information processing device and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021207484A JP7828751B2 (en) | 2021-12-21 | 2021-12-21 | Information processing device and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023092327A JP2023092327A (en) | 2023-07-03 |
| JP7828751B2 true JP7828751B2 (en) | 2026-03-12 |
Family
ID=86995583
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021207484A Active JP7828751B2 (en) | 2021-12-21 | 2021-12-21 | Information processing device and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7828751B2 (en) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010150783A1 (en) | 2009-06-25 | 2010-12-29 | 株式会社 日立メディコ | Medical imaging apparatus |
-
2021
- 2021-12-21 JP JP2021207484A patent/JP7828751B2/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010150783A1 (en) | 2009-06-25 | 2010-12-29 | 株式会社 日立メディコ | Medical imaging apparatus |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023092327A (en) | 2023-07-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7525248B2 (en) | Medical information processing device and medical information processing program | |
| JP7187244B2 (en) | Medical image processing device, medical image processing system and medical image processing program | |
| US8903147B2 (en) | Medical report generation apparatus, method and program | |
| US20120166211A1 (en) | Method and apparatus for aiding imaging diagnosis using medical image, and image diagnosis aiding system for performing the method | |
| JP7585429B2 (en) | Information processing device, information processing method, and program | |
| JP7223539B2 (en) | Breast cancer diagnosis support device, breast cancer diagnosis support system, and breast cancer diagnosis support method | |
| JP7623120B2 (en) | Medical Support System | |
| JP2013200590A (en) | Similar image retrieval device, method, and program | |
| CN112236832A (en) | Diagnostic aid system, diagnostic aid method, and diagnostic aid program | |
| JP4911029B2 (en) | Abnormal shadow candidate detection method, abnormal shadow candidate detection device | |
| JP2019046057A (en) | Image processing device, image processing method and program | |
| KR20200139491A (en) | Medical image processing method | |
| JP2022068043A (en) | Medical image processing device and medical image processing system | |
| JP7341686B2 (en) | Medical information gathering device | |
| KR20240110047A (en) | Direct medical treatment prediction using artificial intelligence | |
| KR20220136225A (en) | Method and apparatus for providing confidence information on result of artificial intelligence model | |
| JP7828751B2 (en) | Information processing device and program | |
| JP7350595B2 (en) | Image processing device, medical image diagnostic device, and image processing program | |
| WO2022091868A1 (en) | Information processing device, information display device, information processing method, information processing system, and program | |
| CN108984587B (en) | Information processing apparatus, information processing method, information processing system, and storage medium | |
| JP7664592B2 (en) | Method and apparatus for providing confidence information for the results of artificial intelligence models | |
| CN114271837A (en) | Image diagnosis support device and image processing method | |
| JP7433901B2 (en) | Learning device and learning method | |
| US20230386113A1 (en) | Medical image processing apparatus and medical image processing method | |
| EP4356837A1 (en) | Medical image diagnosis system, medical image diagnosis system evaluation method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241101 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20251021 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20251028 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20251201 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20260224 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20260302 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7828751 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |