JP2023106327A - Inspection support device, inspection support method, and inspection support program - Google Patents
Inspection support device, inspection support method, and inspection support program Download PDFInfo
- Publication number
- JP2023106327A JP2023106327A JP2023003160A JP2023003160A JP2023106327A JP 2023106327 A JP2023106327 A JP 2023106327A JP 2023003160 A JP2023003160 A JP 2023003160A JP 2023003160 A JP2023003160 A JP 2023003160A JP 2023106327 A JP2023106327 A JP 2023106327A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- unit
- model
- diagnosis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 title claims description 32
- 238000003745 diagnosis Methods 0.000 claims abstract description 97
- 238000012545 processing Methods 0.000 claims description 53
- 238000003384 imaging method Methods 0.000 claims description 14
- 230000001419 dependent effect Effects 0.000 claims 1
- 230000003902 lesion Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 20
- 238000013528 artificial neural network Methods 0.000 description 16
- 206010028980 Neoplasm Diseases 0.000 description 9
- 201000011510 cancer Diseases 0.000 description 9
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000001727 in vivo Methods 0.000 description 6
- 208000007107 Stomach Ulcer Diseases 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 201000005917 gastric ulcer Diseases 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008029 eradication Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 241000590002 Helicobacter pylori Species 0.000 description 2
- 238000001839 endoscopy Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000002496 gastric effect Effects 0.000 description 2
- 229940037467 helicobacter pylori Drugs 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000002980 postoperative effect Effects 0.000 description 2
- 210000002784 stomach Anatomy 0.000 description 2
- 206010003694 Atrophy Diseases 0.000 description 1
- 206010009944 Colon cancer Diseases 0.000 description 1
- 208000001333 Colorectal Neoplasms Diseases 0.000 description 1
- 206010061523 Lip and/or oral cavity cancer Diseases 0.000 description 1
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 1
- 206010025323 Lymphomas Diseases 0.000 description 1
- 208000003445 Mouth Neoplasms Diseases 0.000 description 1
- 108010047320 Pepsinogen A Proteins 0.000 description 1
- 206010060862 Prostate cancer Diseases 0.000 description 1
- 208000000236 Prostatic Neoplasms Diseases 0.000 description 1
- 206010062129 Tongue neoplasm Diseases 0.000 description 1
- 230000037444 atrophy Effects 0.000 description 1
- 238000002845 discoloration Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 210000003026 hypopharynx Anatomy 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 201000005202 lung cancer Diseases 0.000 description 1
- 208000020816 lung neoplasm Diseases 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 201000011591 microinvasive gastric cancer Diseases 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 210000002966 serum Anatomy 0.000 description 1
- 201000006134 tongue cancer Diseases 0.000 description 1
- 239000000439 tumor marker Substances 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Images
Landscapes
- Endoscopes (AREA)
Abstract
Description
本発明は、検査支援装置、検査支援方法および検査支援プログラムに関する。 The present invention relates to an examination support device, an examination support method, and an examination support program.
内視鏡により被検者の例えば胃内部を撮像してその画像をモニタに表示する内視鏡システムが知られている。最近では、内視鏡システムで撮像された画像を分析して、その結果を医師へ知らせる検査支援装置も普及しつつある(例えば、特許文献1参照)。また、検査支援装置を内視鏡システムに接続して、内視鏡システムが撮像した体内画像をリアルタイムで検査支援装置に分析させる利用態様も実用段階に至りつつある。 2. Description of the Related Art An endoscope system is known that takes an image of, for example, the inside of a subject's stomach using an endoscope and displays the image on a monitor. Recently, an examination support device that analyzes an image captured by an endoscope system and informs a doctor of the result is becoming popular (see, for example, Patent Document 1). In addition, a mode of use in which an examination support device is connected to an endoscope system and an in-vivo image captured by the endoscope system is analyzed in real time by the examination support device is also reaching the stage of practical use.
内視鏡システムに接続して利用される検査支援装置は、複数機種の内視鏡システムに接続できるように設計されることが好ましい。この場合、同一メーカが製造する複数機種の内視鏡システムに接続可能であるばかりではなく、異なるメーカが製造するそれぞれの機種の内視鏡システムにも接続可能なように設計されることもあり得る。 It is preferable that the examination support device used by being connected to the endoscope system is designed so that it can be connected to a plurality of types of endoscope systems. In this case, not only can it be connected to multiple models of endoscope systems manufactured by the same manufacturer, but it may also be designed to be connectable to different models of endoscope systems manufactured by different manufacturers. obtain.
内視鏡システムは、被検者の体内で検査部位を撮像し、その撮像信号を処理して画像データを生成する。したがって、機種が異なれば、それぞれの特性に応じた画像データが生成される。例えば同一被検者の同一検査部位を異なる機種の内視鏡システムで撮像すると、それぞれが生成する画像データの画像は、色味、シャープネス、歪曲、ノイズなどが互いに異なり得る。検査支援装置がこのような画像を受け取ってそのまま従前の学習済みモデルへ入力して体内診断を行うと、同一被検者の同一検査部位であっても、その診断結果が異なってしまう場合があるという課題があった。 An endoscope system takes an image of an inspection site inside a subject's body, processes the imaged signal, and generates image data. Therefore, if the model is different, image data corresponding to each characteristic is generated. For example, when the same inspection site of the same subject is imaged by different models of endoscope systems, the images of the image data generated by each may differ from each other in color tone, sharpness, distortion, noise, and the like. If the examination support device receives such an image and inputs it directly into the previous learned model to perform in-vivo diagnosis, the diagnosis results may differ even for the same examination site of the same subject. There was a problem.
本発明は、このような問題を解決するためになされたものであり、異なる機種の内視鏡システムへ接続する場合であっても、それぞれの内視鏡システムが出力する画像を用いてより精度の高い診断を行い、医師の判断を支援する検査支援装置等を提供するものである。 The present invention has been made to solve such problems, and even when connecting to endoscope systems of different models, the images output by each endoscope system can be used to improve accuracy. The purpose of the present invention is to provide an examination support device or the like that makes a highly accurate diagnosis and supports a doctor's judgment.
本発明の第1の態様における検査支援装置は、被検者の体内に挿通されるカメラユニットを備える内視鏡システムに接続して利用される検査支援装置であって、内視鏡システムの機種情報を取得する情報取得部と、カメラユニットで撮像された撮像画像を取得する画像取得部と、情報取得部が取得した機種情報と画像取得部が取得した撮像画像とに基づいて入力データを生成し、学習済みモデルへ入力することにより体内の診断を行う診断部と、診断部による診断結果を出力する出力部とを備える。 An examination support apparatus according to a first aspect of the present invention is an examination support apparatus that is used by being connected to an endoscope system having a camera unit that is inserted into the body of a subject. An information acquisition unit that acquires information, an image acquisition unit that acquires a captured image captured by the camera unit, and input data is generated based on the model information acquired by the information acquisition unit and the captured image acquired by the image acquisition unit. and a diagnostic unit for diagnosing the inside of the body by inputting it to the trained model, and an output unit for outputting the diagnostic result of the diagnostic unit.
本発明の第2の態様における検査支援方法は、被検者の体内に挿通されるカメラユニットを備える内視鏡システムに接続して利用される検査支援装置を用いた検査支援方法であって、内視鏡システムの機種情報を取得する情報取得ステップと、カメラユニットで撮像された撮像画像を取得する画像取得ステップと、情報取得ステップで取得した機種情報と画像取得ステップで取得した撮像画像とに基づいて入力データを生成し、学習済みモデルへ入力することにより体内の診断を行う診断ステップと、診断ステップによる診断結果を出力する出力ステップとを有する。 An examination support method according to a second aspect of the present invention is an examination support method using an examination support apparatus that is used in connection with an endoscope system having a camera unit that is inserted into the body of a subject, An information acquisition step of acquiring model information of an endoscope system, an image acquisition step of acquiring a captured image captured by a camera unit, and the model information acquired in the information acquisition step and the captured image acquired in the image acquisition step. A diagnosis step for diagnosing the inside of the body by generating input data based on the model and inputting it to the trained model, and an output step for outputting the diagnosis result of the diagnosis step.
本発明の第3の態様における検査支援プログラムは、被検者の体内に挿通されるカメラユニットを備える内視鏡システムに接続して利用される検査支援装置を制御する検査支援プログラムであって、内視鏡システムの機種情報を取得する情報取得ステップと、カメラユニットで撮像された撮像画像を取得する画像取得ステップと、情報取得ステップで取得した機種情報と画像取得ステップで取得した撮像画像とに基づいて入力データを生成し、学習済みモデルへ入力することにより体内の診断を行う診断ステップと、診断ステップによる診断結果を出力する出力ステップとをコンピュータに実行させる。 An examination support program according to a third aspect of the present invention is an examination support program for controlling an examination support apparatus used in connection with an endoscope system having a camera unit inserted into the body of a subject, An information acquisition step of acquiring model information of an endoscope system, an image acquisition step of acquiring a captured image captured by a camera unit, and the model information acquired in the information acquisition step and the captured image acquired in the image acquisition step. The computer is caused to execute a diagnosis step of diagnosing the inside of the body by generating input data based on the generated data and inputting the data to the learned model, and an output step of outputting the diagnosis result of the diagnosis step.
本発明により、異なる機種の内視鏡システムへ接続する場合であっても、それぞれの内視鏡システムが出力する画像を用いてより精度の高い診断を行い、医師の判断を支援する検査支援装置等を提供することができる。 According to the present invention, even when connected to endoscope systems of different models, the examination support apparatus performs more accurate diagnosis using the images output by each endoscope system and assists the doctor's decision. etc. can be provided.
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described through embodiments of the invention, but the invention according to the scope of claims is not limited to the following embodiments. Moreover, not all the configurations described in the embodiments are essential as means for solving the problems.
図1は、内視鏡システム200と本実施形態に係る検査支援装置100を用いた内視鏡検査の様子を示す図である。内視鏡システム200と検査支援装置100は、共に診察スペースに設置されている。内視鏡システム200は、カメラユニット210、システム本体211およびシステムモニタ220を備える。カメラユニット210は、図示するように、横たわる被検者の口腔から胃などの体内の器官へ挿通され、器官の内部を撮像した撮像信号をシステム本体211へ送信する。カメラユニット210の器官への挿通や撮像操作は、医師によって行われる。本実施形態において、カメラユニット210は、システム本体211に対して着脱可能である。
FIG. 1 is a diagram showing an endoscopy using an
システム本体211は、カメラユニット210から送られてきた撮像信号を処理して画像データを生成する。そして、当該画像データを視認可能な表示信号に調整し、例えば液晶パネルによって構成されるシステムモニタ220に撮像画像221として表示する。また、システム本体211は、被検者情報やカメラユニット210のカメラ情報などを含む検査情報222をシステムモニタ220に表示する。
The
検査支援装置100は、接続ケーブル250によって内視鏡システム200に接続されている。内視鏡システム200は、システムモニタ220へ送信する表示信号を、接続ケーブル250を介して検査支援装置100へも送信する。すなわち、本実施形態における表示信号は、内視鏡システム200が外部装置へ提供する画像信号の一例である。検査支援装置100は、装置本体101および表示モニタ120を備える。装置本体101は、内視鏡システム200から送られてきた表示信号から撮像画像221に対応する画像信号を抽出し、例えば液晶パネルによって構成される表示モニタ120に撮像画像121として表示する。
The
検査支援装置100のユーザである医師は、カメラユニット210の操作に応じてほぼリアルタイムで表示される撮像画像121を視認しながら検査を進める。医師は、検査支援装置100に診断させたい対象箇所が撮像画像121として表示されるようにカメラユニット210を操作する。
A doctor who is a user of the
検査支援装置100は、例えば医師による診断トリガーを検出すると、その時点における撮像画像121と内視鏡システム200の機種情報に基づいて入力データを生成し、後述する分析用ニューラルネットワークへ入力する。そして、分析用ニューラルネットワークの出力から生成される診断結果を、コンピュータグラフィックスに変換してCG指標122として表示モニタ120に表示する。
For example, when detecting a diagnosis trigger by a doctor, the
診断トリガーは、様々に設定し得る。検査支援装置100は、例えば、抽出した撮像画像121が一定期間(例えば2秒)に亘って静止画像の連続(フリーズ)であると検知した場合に、当該フリーズを診断トリガーとして検出する。なお、図1は、診断トリガーが検出されていない状況において、表示信号から逐次生成されるほぼリアルタイムの撮像画像121が表示されている様子を示しており、CG指標122は、診断待機状態である旨を示している。
Diagnostic triggers can be set in various ways. For example, when detecting that the extracted captured
図2は、検査支援装置100のハードウェア構成図である。検査支援装置100は、主に、演算処理部110、表示モニタ120、入出力インタフェース130、入力デバイス140、記憶部150によって構成される。演算処理部110は、検査支援装置100の制御とプログラムの実行処理を行うプロセッサ(CPU:Central Processing Unit)である。プロセッサは、ASIC(Application Specific Integrated Circuit)やGPU(Graphics Processing Unit)等の演算処理チップと連携する構成であってもよい。演算処理部110は、記憶部150に記憶された検査支援プログラムを読み出して、検査の支援に関する様々な処理を実行する。
FIG. 2 is a hardware configuration diagram of the
表示モニタ120は、上述のように、例えば液晶パネルを備えるモニタであり、撮像画像121やCG指標122などを表示する。入出力インタフェース130は、接続ケーブル250を接続するためのコネクタを含む、外部機器との間で情報を授受するための接続インタフェースである。入出力インタフェース130は、例えばLANユニットを含み、検査支援プログラムや後述する分析用ニューラルネットワーク151の更新データを外部機器から取り込んで演算処理部110へ引き渡す。
The
入力デバイス140は、例えばキーボードやマウス、表示モニタ120に重畳されたタッチパネルであり、医師や補助者は、これらを操作して検査支援装置100の設定を変更したり、検査に必要な情報を入力したりする。
The
記憶部150は、不揮発性の記憶媒体であり、例えばHDD(Hard Disk Drive)によって構成されている。記憶部150は、検査支援装置100の制御や処理を実行するプログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、表示要素データ、ルックアップテーブル等を記憶し得る。記憶部150は、特に、分析用ニューラルネットワーク151(以下「分析用NN151」と記す)を記憶している。分析用NN151は、具体的には後述するが、入力された診断画像内に病変が存在する領域と確率を出力する学習済みモデルである。なお、記憶部150は、複数のハードウェアで構成されていても良く、例えば、プログラムを記憶する記憶媒体と分析用NN151を記憶する記憶媒体が別々のハードウェアで構成されてもよい。
The
演算処理部110は、検査支援プログラムが指示する処理に応じて様々な演算を実行する機能演算部としての役割も担う。演算処理部110は、情報取得部111、画像取得部112、診断部113、表示制御部114として機能し得る。情報取得部111は、内視鏡システム200の機種情報を取得する。画像取得部112は、内視鏡システム200から送られてくる表示信号を介して、カメラユニット210で撮像された撮像画像を取得する。診断部113は、情報取得部111が取得した機種情報と画像取得部112が取得した撮像画像とに基づいて入力データを生成し、学習済みモデルである分析用NN151へ入力することにより被検者の体内の診断を行う。表示制御部114は、表示モニタ120へ表示する表示画面の表示信号を生成し表示モニタ120へ送信することにより、表示モニタ120の表示を制御する。表示制御部114は、診断部113による診断結果を出力する出力部としての機能を担う。診断結果の出力先は表示モニタ120に限らず、例えば外部機器へ出力する場合には、演算処理部110と入出力インタフェース130が協働して出力部としての機能を担う。それぞれの機能演算部の具体的な処理については、後述する。
The
さて、内視鏡システムに接続して当該内視鏡システムが出力する撮像画像を用いて医師の診断を補助する検査支援装置は、様々な機種の内視鏡システムに接続可能に利用できることが好ましい。したがって、このような検査支援装置は、複数機種の内視鏡システムに接続できるように設計されることがある。この場合、同一メーカが製造する複数機種の内視鏡システムに接続可能であるばかりではなく、異なるメーカが製造するそれぞれの機種の内視鏡システムにも接続可能なように設計されることもあり得る。例えば、A社が製造する内視鏡システムの機種X1、X2、X3のそれぞれと、B社が製造する内視鏡システムの機種Y1、Y2のそれぞれに接続可能なように設計される。 Now, it is preferable that an examination support device that is connected to an endoscope system and assists a doctor's diagnosis using captured images output by the endoscope system can be used so as to be connectable to various types of endoscope systems. . Therefore, such an examination support apparatus is sometimes designed so that it can be connected to a plurality of types of endoscope systems. In this case, not only can it be connected to multiple models of endoscope systems manufactured by the same manufacturer, but it may also be designed to be connectable to different models of endoscope systems manufactured by different manufacturers. obtain. For example, it is designed to be connectable to endoscope system models X1, X2, and X3 manufactured by company A and to endoscope system models Y1 and Y2 manufactured by company B, respectively.
それぞれの内視鏡システムは、少なくともカメラユニットと、当該カメラユニットから出力される撮像信号を処理して画像データを生成するシステム本体とを備える。カメラユニットは、被検者の体内で検査部位を撮像する撮像センサを含み、そこから出力される撮像信号は、当該撮像センサやそれを制御する制御回路の特性に応じたものとなる。すなわち、カメラユニットが異なれば同一の検査部位を撮像しても、それぞれが出力する撮像信号は異なるものとなる。また、カメラユニットからの撮像信号を受け取って画像データに処理するシステム本体は、それぞれに画像処理のパラメータが設定されていたり、画像生成のプログラムが異なっていたりするために、たとえ同一の撮像信号を受け取ったとしても、同一の画像データが生成されるとは限らない。すなわち、内視鏡システムは、その機種の特性に応じた画像データを生成すると言える。それぞれの内視鏡システムが生成する画像データの画像は、具体的には、色味、シャープネス、歪曲、ノイズなどが互いに異なり得る。 Each endoscope system includes at least a camera unit and a system body that processes imaging signals output from the camera unit and generates image data. The camera unit includes an imaging sensor that captures an image of a site to be inspected inside the subject's body, and an imaging signal output therefrom corresponds to the characteristics of the imaging sensor and the control circuit that controls it. That is, if the camera units are different, even if the same inspection site is imaged, the imaging signals output by each are different. In addition, the system body that receives the imaging signal from the camera unit and processes it into image data may have different image processing parameters or different image generation programs. Even if received, the same image data is not necessarily generated. That is, it can be said that the endoscope system generates image data according to the characteristics of the model. Specifically, images of image data generated by the respective endoscope systems may differ from each other in color, sharpness, distortion, noise, and the like.
従前の検査支援装置が、そのような画像データあるいは当該画像データから調整された画像信号を受け取って診断画像を生成し、学習済みモデルを用いて体内診断を行う場合に、同一被検者の同一検査部位を対象としても、接続された内視鏡システムによってその診断結果が異なってしまう場合があった。同一被検者の同一検査部位を対象としているにもかかわらず、接続している内視鏡システムの機種によって診断結果が異なることは、誤診にもつながる可能性があり、好ましくない。そこで、本実施形態における検査支援装置100は、接続している内視鏡システム200の機種情報も取り込むことにより、機種の違いに起因する診断結果の齟齬をできる限り抑制している。
When a conventional examination support apparatus receives such image data or an image signal adjusted from the image data, generates a diagnostic image, and performs in-vivo diagnosis using a trained model, the same Even if the examination site is targeted, the diagnosis result may differ depending on the connected endoscope system. It is not preferable that the diagnosis results differ depending on the model of the connected endoscope system even though the same test site of the same subject is targeted, because it may lead to misdiagnosis. Therefore, the
まず、本実施形態に係る検査支援装置100が、内視鏡システム200から表示信号を取り込んで診断結果を表示するまでの全体の流れについて説明する。図3は、検査支援装置100が診断結果を表示するまでの処理を説明する図である。
First, an explanation will be given of the overall flow from when the
内視鏡システム200から送られてくる表示信号を画像取得部112が取得して展開する信号再生画像225は、内視鏡システム200のシステムモニタ220で表示されている表示画像と同様である。信号再生画像225は、撮像画像221と検査情報222を含む。検査情報222は、例えばテキスト情報である。画像取得部112は、接続当初に逐次展開する信号再生画像225を用いて、信号再生画像225の画像領域のいずれの領域が撮像画像を表す画像領域であるかを確定する。画像領域は他の領域に比べて短時間に変化することが想定されるので、例えば、前後する信号再生画像間の差分量が基準量以上となる変化領域を当該画像領域として確定する。信号再生画像225の画像領域のいずれの領域が撮像画像を表す画像領域であるかが確定されると、画像取得部112は、その確定された画像領域を切り出して撮像画像121とする。撮像画像121は、実質的にはカメラユニット210が撮像しシステム本体211が画像処理した撮像画像を検査支援装置100で再現した画像と言える。
A
画像取得部112は、その時点で診断トリガーを検出しておらず、切出した撮像画像121が診断対象の画像でない場合には、当該撮像画像121を表示制御部114へ引き渡す。表示制御部114は、図1で示した診断待機状態の表示画面を実現するために、撮像画像121を逐次更新して表示モニタ120へ表示する。画像取得部112は、その時点で診断トリガーを検出しており、切出した撮像画像121が診断対象の画像である場合には、当該撮像画像121を表示制御部114へ引き渡すと共に診断部113へ引き渡す。なお、図3は、診断トリガーを検出した場合を表している。
If the
診断部113は、分析用NN151の仕様等に応じて、撮像画像121を調整して診断画像を生成する。ここでの撮像画像121から診断画像への調整は、例えば画像のアスペクト比や画像サイズを対象とし、分析用NN151が入力を受容するデータ形式に整えるものであり、色味等の画像の質を調整するものではない。また、診断部113は、後述するように情報取得部111が取得した内視鏡システム200の機種情報を情報取得部111から受け取る。そして、機種情報と診断画像を一元化して入力データを生成し、記憶部150から読み出した分析用NN151へ入力する。分析用NN151は、画像内に存在する病変の疑いがある領域をその推定確率と共に診断結果として出力する。図3の例では、推定確率90%を示す中央付近の領域を出力している。診断部113は、診断結果を表示制御部114へ引き渡す。
The
表示制御部114は、画像取得部112から受け取った撮像画像121の撮像画像データ、診断部113から受け取った診断結果、および診断に適用した機種情報を、予め設定された表示基準に従って展開、配列して表示モニタ120へ表示する。具体的には、診断画像として用いた撮像画像121が左側に配置され、診断結果を表すCG指標122が右側に配置されている。CG指標122は、病変であると推定される推定確率の数値(図の例では「90%」)を含むコンピュータグラフィックスである。また、病変であると推定した領域を示す診断領域枠121aを撮像画像121に重畳している。また、診断に適用した機種情報をテキストで表し、適用情報123としてCG指標122の下部に配置している。結果表示状態は一定時間(例えば2秒)に亘って継続し、その後診断待機状態の表示に戻る。
The
なお、本実施形態においては、画像取得部112は、内視鏡システム200から受け取った表示信号から撮像画像121を抽出して取得するが、内視鏡システム200がデジタルデータとしての画像データを外部機器に提供する場合は、これを受け取って展開することにより撮像画像を取得してもよい。いずれの形式であっても、画像取得部112は、カメラユニット210で撮像されシステム本体211で処理された撮像画像を取得すればよい。
In this embodiment, the
次に、分析用NN151について説明する。記憶部150から読み出されて利用される分析用NN151は、運用に適するまで教師データを用いて学習を繰り返すことにより生成された学習済みモデルである。このような学習作業は他の装置を用いて実施されてもよく、その場合、検査支援装置100は、学習を終えた分析用NN151を当該他の装置から、入出力インタフェース130を介して取得する。
Next, the
図4は、分析用NN151を生成するための学習作業を説明する図である。分析用NN151の入力データは、上述のように、機種情報と診断画像が一元化されたデータである。本実施形態においては、機種情報は、内視鏡システム200において画像処理を実行するシステム本体211に関する本体情報と、システム本体211へ装着されるカメラユニット210に関するカメラ情報によって構成される。すなわち、機種情報は、対象の診断画像がいずれのシステム本体211といずれのカメラユニット210の組み合わせによって生成されたかを表す。例えば、対象の診断画像が、機種M3のシステム本体211に機種N7のカメラユニット210が組み合わされて構成された内視鏡システム200によって生成されたものであれば、機種情報は本体情報である機種M3とカメラ情報である機種N7を併せたものとなる。この機種情報を符号化して診断画像の画像データに付加させたデータが、分析用NN151の入力データとなる。
FIG. 4 is a diagram for explaining the learning work for generating the
なお、本実施形態においては、機種情報としていずれも診断画像の質に影響を与える本体情報とカメラ情報を組み合わせて採用する。これは、カメラユニット210がシステム本体211に着脱可能であり、それぞれ複数機種の間で組み合わせが変更できることを想定しているからであり、カメラユニット210とシステム本体211の組み合わせが変われば、生成される撮像画像および当該撮像画像から生成される診断画像の質が変わるからである。しかし、機種情報は本体情報とカメラ情報の組み合わせに限らない。内視鏡システム200の要素であって診断画像の質に影響を与えるものであれば、機種情報の対象となり得る。例えば、カメラユニットとは別に検査部位を照らす照明ユニットも任意に組み合わせられるのであれば、いずれの機種の照明ユニットを組み合わせたかの照明情報も機種情報として採用してもよい。逆に、カメラユニットとシステム本体の組み合わせが変更不可能な内視鏡システムにのみ検査支援装置を接続する場合であれば、機種情報は、カメラ情報と本体情報をそれぞれ含む必要はなく、内視鏡システムの機種を表すもので足りる。カメラ情報は、カメラユニット210の機種に関する情報に限られず、仕様(一例として、カメラユニット210のレンズの画角、焦点距離若しくはF値)に関する情報であってもよい。
Note that in the present embodiment, as model information, a combination of main body information and camera information, both of which affect the quality of diagnostic images, is employed. This is because it is assumed that the
教師データは、上記の入力データに対してアノテーションデータが付与されたものである。アノテーションデータは、診断画像中にがんの病変領域が存在するかしないかの正解情報と、存在する場合にはその病変領域の領域情報である。それぞれの診断画像に対する判断は、例えば熟練の医師が診断画像を個々に観察して行うものであり、アノテーションデータは、当該医師あるいは補助者がその判断結果を学習作業装置へ入力することによって作成されるものである。なお、病変領域の領域情報は、例えば、がんと判断される部位を包含する矩形の左上座標Aの座標値と、右下座標Bの座標値によって表現される。 The teacher data is obtained by adding annotation data to the above input data. The annotation data is correct information as to whether or not a cancer lesion area exists in the diagnostic image, and area information of the lesion area if it exists. Judgment on each diagnostic image is made by, for example, a skilled doctor by observing the diagnostic image individually, and the annotation data is created by the doctor or an assistant inputting the judgment result to the learning work device. It is a thing. The area information of the lesion area is represented by, for example, the upper left coordinate A and the lower right coordinate B of a rectangle that includes the site determined to be cancerous.
このように入力データにアノテーションデータが付与された教師データは、診断画像の質に影響を与えた機種情報(ここでは本体情報と+カメラ情報)と、医師の判断による判断結果を含むものとなる。教師データは、学習によって実用に耐える分析用NN151を生成できるだけのデータ数が準備される。実用に耐えるか否かは、例えば、判断の正答率が基準値を超えるか否かによって判定される。このように準備された教師データによって学習された分析用NN151は、入力データが入力されると、入力データの一部である診断画像にがんが存在する確率と、その判断をした領域(例えば左上座標Aの座標値と右下座標Bの座標値)を出力する。このとき、学習済みモデルとしての分析用NN151は、機種に応じた診断画像の質の違いを踏まえたうえの診断結果を出力することができる。すなわち、機種情報の違いを含めて学習された分析用NN151は、例えば同一被検者の同一検査部位を対象とした場合に、接続している内視鏡システムの機種が異なる場合であっても、同一の診断結果を出力することが期待できる。なお、本実施形態においては、上記のような教師データを学習データとする教師あり学習を想定するが、複数の内視鏡システムのいずれかであることを示す機種情報とその内視鏡システムから出力された撮像画像とが対応付けられた学習データに基づいて学習するのであれば、他の機械学習の手法を採用しても構わない。
In this way, the teacher data with annotation data attached to the input data includes the model information (here, the main unit information and the camera information) that influenced the quality of the diagnostic image, and the judgment result by the doctor's judgment. . As for the teacher data, a sufficient number of data is prepared to generate a practical
機種情報は、例えば、検査を開始する前に医師や補助者の入力を受け付けることによって取得することができる。図5は、表示モニタ120に表示される、機種情報に関する設定画面の例を示す図である。
The model information can be obtained, for example, by accepting input from a doctor or an assistant before starting an examination. FIG. 5 is a diagram showing an example of a setting screen regarding model information displayed on the
情報取得部111は、表示制御部114を介して表示モニタ120に機種の設定に関する設定画面を表示する。具体的には、「機種の設定」と示すタイトル124と共に、システム本体211とカメラユニット210のそれぞれに対して選択可能な機種を示す選択項目125を表示する。
The
例えば、表示モニタ120が入力デバイス140としてのタッチパネルを備える場合には、医師や補助者であるユーザがプルダウンボタン127をタップすると、情報取得部111はその操作を検出し、選択可能な機種名を展開する。図5は、カメラユニット210の機種選択に対するプルダウンボタン127がタップされ、選択可能な機種名が列挙されている様子を表している。スクロール指標128は、選択可能な機種名の一部が表示されていることを示し、ユーザは、これを上下に移動させることにより他の機種名を表示させることができる。ユーザが特定の機種名(図においては「X社 X-0B」)をタップすると、当該機種名は反転表示され、選択が受け入れられたことをユーザに知らせる。すなわち、情報取得部111は、このようなユーザインタフェースを通じてユーザから機種情報を取得する。
For example, when the
なお、機種情報は、ユーザによる直接入力に限らず、他の手法によっても実現し得る。例えば、上述のように、信号再生画像225は検査情報222を含むので、もし検査情報222がシステム本体211やカメラユニット210の機種情報を含むのであれば、情報取得部111は、検査情報222をOCR解析して機種情報を取得してもよい。また、例えば内視鏡システム200がデジタルデータとしての画像データと共に機種情報も外部機器に提供しているのであれば、情報取得部111は、より直接的に機種情報を取得することができる。また、画像データと共に機種情報も外部機器に提供されていない場合であっても、画像データを解析することにより、画像データの特徴量、画像データのフォーマット、及び、画像データに含まれる文字列(一例として、機種情報を表す文字画像)の少なくとも1つに基づいて、機種情報を判定してもよい。
It should be noted that the model information is not limited to direct input by the user, and can be realized by other methods. For example, as described above, the signal reproduced
次に、演算処理部110が実行する検査支援の主な処理についての処理手順の一例を、フロー図を用いて説明する。図6は、演算処理部110の処理手順を説明するフロー図である。フローは、検査支援装置100が起動され、検査支援プログラムが実行された時点から開始する。
Next, an example of a processing procedure for main processing of examination support executed by the
情報取得部111は、ステップS101で、ユーザによる入力デバイス140への入力を介して機種情報を取得する。情報取得部111は、取得した機種情報を診断部113へ引き渡す。機種情報の取得が完了したらステップS102へ進む。
The
ステップS102へ進むと、画像取得部112は、内視鏡システム200から表示信号を取得して信号再生画像225を生成し、さらにステップS103で、信号再生画像225から撮像画像121を切り出して表示制御部114へ引き渡す。また、その時点で診断トリガーを検出していれば、診断部113へも引き渡す。診断部113は、画像取得部112から撮像画像121を受け取ると、ステップS104で、撮像画像121から診断画像を生成すると共に、当該診断画像と機種情報を一元化して入力データを生成する。
When proceeding to step S102, the
診断部113は、ステップS105へ進み、記憶部150から読み出した分析用NN151へ生成した入力データを入力して、診断画像内に病変の疑いがある領域とその推定確率を演算させ、出力させる。診断部113は、分析用NN151が出力した診断結果を、診断に適用した機種情報と共に、表示制御部114へ引き渡す。
The
表示制御部114は、ステップS106で、画像取得部112から受け取った撮像画像121の撮像画像データ、診断部113から受け取った診断結果、および診断に適用した機種情報を、図3で示したように表示モニタ120へ表示する。結果表示状態を一定時間に亘って継続したら、ステップS107へ進む。
In step S106, the
演算処理部110は、ステップS107で、カメラユニット210による体内検査が終了したか否かを検出する。終了を検出していなければステップS102へ戻り、検査を継続する。終了を検出したら規定された終了処理を実行して一連の処理を終了する。なお、演算処理部110は、体内検査の終了を、例えば、カメラユニット210が口腔から排出されることにより撮像画像121の輝度が急激に変化することを捉えて検出する。
続いて、いくつかの変形例について説明する。上述の実施形態においては図4を用いて説明したように、機種情報と診断画像を一元化した入力データにアノテーションデータを付与して教師データを準備し、この教師データによって学習を実施することによって分析用NN151を生成した。すなわち、生成された分析用NN151は、機種情報と診断画像を一元化した入力データが入力されると、内視鏡システムの機種に応じた診断画像の質の違いを踏まえたうえの診断結果を出力する。しかし、機種に応じた診断画像の質の違いを事前の標準化処理で相殺すれば、分析用ニューラルネットワークとしては標準化処理された診断画像を受け付ければよく、分析用ニューラルネットワーク自身が機種に応じた診断画像の質の違いを吸収する必要はなくなる。第1の変形例は、このような標準化処理を前提とする分析用ニューラルネットワークを作成し、運用するものである。
Next, some modifications will be described. In the above-described embodiment, as described with reference to FIG. 4, annotation data is added to input data in which model information and diagnostic images are unified to prepare teacher data, and analysis is performed by performing learning using this teacher data. NN151 for That is, when the generated
図7は、第1の変形例における分析用ニューラルネットワーク151’(以下、「分析用NN151’」と記す)を生成するための学習作業を説明する図である。第1の変形例においては、分析用NN151’の学習を始めるにあたり、まず、教師データとなる診断画像を事前に準備する。 FIG. 7 is a diagram for explaining the learning work for generating the analysis neural network 151' (hereinafter referred to as "analysis NN 151'") in the first modified example. In the first modified example, before starting learning of the analysis NN 151', first, diagnostic images that serve as teacher data are prepared in advance.
診断画像は、あるカメラユニット210で撮像され、あるシステム本体211で画像処理された撮像画像に対して、当該カメラユニット210の機種および当該システム本体211の機種に依存する特性を除去する標準化処理を施して標準化画像に変換したものである。標準化処理は、例えば、機種の違いが撮像画像の質の違いとなって生じる機種特有の癖を矯正する画像フィルタを撮像画像に適用するフィルタ処理である。例えば、機種M3のシステム本体211に機種N7のカメラユニット210が組み合わされて生成された撮像画像に対しては、この組み合わせの癖を矯正するために用意されたM3-N7用画像フィルタを適用することにより、標準化画像に変換する。このように標準化処理が施された標準化画像は、内視鏡システムの機種の違いによる質の相違が除去されたものとなる。なお、標準化処理によって変換する標準化画像の質(色味、シャープネス、歪曲、ノイズ等)は、フィルタ処理によって実現可能な範囲で予め設定される。
A diagnostic image is an image captured by a
したがって、分析用NN151’の入力データはこのように標準化された標準化画像としての診断画像となる。教師データは、このような診断画像に対してアノテーションデータが付与されたものである。アノテーションデータは、図4を用いて説明したアノテーションデータと同様に、診断画像中にがんの病変領域が存在するかしないかの正解情報と、存在する場合にはその病変領域の領域情報である。 Therefore, the input data of the analysis NN 151' becomes a diagnostic image as a standardized image thus standardized. The teacher data is obtained by adding annotation data to such a diagnostic image. Similar to the annotation data described with reference to FIG. 4, the annotation data is correct information as to whether or not a cancer lesion area exists in the diagnostic image, and if it exists, area information of the lesion area. .
このように準備された教師データによって学習された分析用NN151’は、標準化処理された診断画像が入力されると、当該診断画像にがんが存在する確率と、その判断をした領域(例えば左上座標Aの座標値と右下座標Bの座標値)を出力する。すなわち、診断部113は、機種情報を用いて標準化処理を施した診断画像を生成し、これを学習済みモデルとしての分析用NN151’へ入力して演算させることにより、内視鏡システムの機種に起因する影響を極力排除した診断結果を得ることができる。
When a standardized diagnostic image is input, the
図8は、第1の変形例における、診断結果を表示するまでの処理を説明する図である。ここでは、図3で説明した処理と相違する点を説明する。 FIG. 8 is a diagram illustrating processing up to display of diagnosis results in the first modification. Here, differences from the processing described with reference to FIG. 3 will be described.
診断部113は、情報取得部111から機種情報を受け取ると、その機種情報に応じた画像フィルタを記憶部150から読み出す。そして、画像取得部112から受け取った撮像画像121に対して当該画像フィルタを適用する標準化処理を施し、診断画像を生成する。このとき、画像のアスペクト比や画像サイズ等を調整して分析用NN151’が入力を受容するデータ形式に整える調整処理も併せて実行する。
Upon receiving the model information from the
診断部113は、このように生成された入力データとしての診断画像を、記憶部150から読み出した分析用NN151’へ入力する。分析用NN151’は、画像内に存在する病変の疑いがある領域をその推定確率と共に診断結果として出力する。診断部113は、診断結果を表示制御部114へ引き渡す。
The
図9は、第1の変形例における、演算処理部110の処理手順を説明するフロー図である。図6に示すフロー図と同様の処理ステップについては、同一のステップ番号を付すことにより、その説明を省略する。
FIG. 9 is a flowchart for explaining the processing procedure of the
診断部113は、画像取得部112から撮像画像121を受け取ると、ステップS204で、受け取った撮像画像121に対して標準化処理を実行する。具体的には、ステップS101で取得された機種情報に対応する画像フィルタを記憶部150から読み出し、受け取った撮像画像121に適用する。診断部113は、このように画像フィルタを適用して得た入力データとしての診断画像を、ステップS205で、分析用NN151’へ入力することにより、当該診断画像に対する診断結果を得る。そして、その診断結果を、診断に適用した機種情報と共に、表示制御部114へ引き渡す。
Upon receiving the captured
次に、第2の変形例を説明するにあたり、その前提となる参考例を説明する。これまで説明した実施形態においては、内視鏡システムによって生成される画像データの画像の質は、内視鏡システムの機種ごとに異なり得ると説明した。しかし、たとえ同一の病変であってもそれを撮像した画像の色味や質感などの違いは、同一機種の内視鏡システムで撮像した画像であっても、他の要因によって生じることがあり得る。その要因の一つとして、被検者の既往歴が挙げられる。 Next, in describing the second modified example, a reference example as a premise thereof will be described. In the embodiments described so far, it has been described that the image quality of the image data generated by the endoscope system can vary from model to model of the endoscope system. However, even if the lesion is the same, differences in color and texture may occur due to other factors, even if the image is captured using the same type of endoscope system. . One of the factors is the medical history of the subject.
被検者の既往歴によっては、その影響が検査部位に現れることがある。例えば、検査部位の変色や萎縮となって現れる。このような検査部位を検査対象とした場合には、被検者の特定の既往歴の有無によって、診断結果が異なってしまうことがあった。同一の病変が同一の状況であるにもかかわらず、被検者の既往歴の違いによって診断結果が異なることは、誤診にもつながる可能性があり、好ましくない。そこで、参考例に係る検査支援装置においては、被検者の既往歴に関する既往歴情報も取り込むことにより、被検者間の既往歴の違いに起因する診断結果の齟齬をできる限り抑制する。 Depending on the medical history of the subject, its effects may appear at the examination site. For example, it appears as discoloration or atrophy of the examination site. When such an inspection site is used as an inspection target, the diagnosis results may differ depending on the presence or absence of a specific medical history of the subject. It is not preferable that the same lesion has the same condition but the diagnosis result differs due to the difference in the medical history of the subject, which may lead to misdiagnosis. Therefore, in the examination support apparatus according to the reference example, by taking in the medical history information regarding the medical history of the subject, discrepancies in the diagnosis results due to differences in the medical history of the subjects are suppressed as much as possible.
図10は、参考例における、分析用ニューラルネットワーク152(以下、「分析用NN152」と記す)を生成するための学習作業を説明する図である。分析用NN152の入力データは、既往歴情報と診断画像が一元化されたデータである。ここでは、内視鏡システムによって撮像される検査部位の撮像画像に画像の質の差異を生じさせ得る既往歴が既往歴情報の対象となる。
FIG. 10 is a diagram for explaining the learning work for generating the analysis neural network 152 (hereinafter referred to as "
既往歴情報としては、例えば図示するように、ピロリ菌の除菌歴(あり/なし)、血清H. pylori抗体(陰性/陽性)、呼気テスト(陰性/陽性)、ペプシノゲン法(陰性/ 陽性)、前立腺癌(術後/なし)、肺癌(術後/なし)、腫瘍マーカー(高値/軽度高値/低値)、胃SMT(疑い/なし)、胃潰瘍既往歴(あり/なし)、胃悪性リンパ腫既往歴(あり/なし)、早期胃癌既往歴(あり/なし)、ESDの施行(あり/なし)、舌癌既往歴(あり/なし)、口腔底癌既往歴(あり/なし)、下咽頭癌既往歴(あり/なし)、大腸癌既往歴(あり/なし)等が対象となり得る。なお、内視鏡システムが特定の検査部位を対象とするものであれば、当該検査部位に影響を与える既往歴に限定してもよい。また、例えば、ピロリ菌の除菌歴がある場合には除菌後の経過年数なども既往歴情報に含めてもよい。この既往歴情報を符号化して診断画像の画像データに付加させたデータが、分析用NN152の入力データとなる。
As shown in the figure, past medical history information includes eradication history of Helicobacter pylori (yes/no), serum H. pylori antibody (negative/positive), breath test (negative/positive), pepsinogen test (negative/positive). , prostate cancer (postoperative/no), lung cancer (postoperative/no), tumor marker (high/mildly high/low), gastric SMT (suspected/no), history of gastric ulcer (yes/no), gastric malignant lymphoma Past history (yes/no), history of early gastric cancer (yes/no), ESD (yes/no), history of tongue cancer (yes/no), history of floor of the mouth cancer (yes/no), hypopharynx A history of cancer (yes/no), a history of colorectal cancer (yes/no), etc. can be targets. If the endoscope system targets a specific examination site, the history may be limited to the past history that affects the examination site. Further, for example, when there is a history of eradication of Helicobacter pylori, the number of years after eradication may be included in the medical history information. The data obtained by encoding the past history information and adding it to the image data of the diagnostic image becomes the input data of the
教師データは、上記の入力データに対してアノテーションデータが付与されたものである。アノテーションデータは、図4を用いて説明したアノテーションデータと同様に、診断画像中にがんの病変領域が存在するかしないかの正解情報と、存在する場合にはその病変領域の領域情報である。このように準備された教師データによって学習された分析用NN152は、入力データが入力されると、入力データの一部である診断画像にがんが存在する確率と、その判断をした領域(例えば左上座標Aの座標値と右下座標Bの座標値)を出力する。このとき、学習済みモデルとしての分析用NN152は、被検者の既往歴に応じた診断画像の質の違いを踏まえたうえの診断結果を出力することができる。すなわち、既往歴情報の違いを含めて学習された分析用NN152は、例えば同一の病変が同一の状況であれば、被検者の既往歴の違いによらず、同一の診断結果を出力することが期待できる。
The teacher data is obtained by adding annotation data to the above input data. Similar to the annotation data described with reference to FIG. 4, the annotation data is correct information as to whether or not a cancer lesion area exists in the diagnostic image, and if it exists, area information of the lesion area. . When the input data is input, the
既往歴情報は、例えば、検査を開始する前に医師や補助者の入力を受け付けることによって取得することができる。図11は、参考例における、既往歴情報に関する設定画面の例を示す図である。 Medical history information can be obtained, for example, by receiving input from a doctor or an assistant before starting an examination. FIG. 11 is a diagram showing an example of a setting screen regarding past history information in the reference example.
情報取得部111は、表示制御部114を介して表示モニタ120に被検者既往歴の設定に関する設定画面を表示する。具体的には、「既往歴の設定」と示すタイトル124と共に、選択可能な既往歴を示す選択項目125を表示する。それぞれの選択項目125の先頭には、ラジオボタン129が配置されており、ユーザは、これをタップすることにより当該選択項目125を選択することができる。情報取得部111は、このようなユーザインタフェースを通じてユーザから被検者の既往歴情報を取得する。なお、情報取得部111は、例えば被検者情報が記録されている電子カルテシステム端末からネットワークを介して既往歴情報を取得してもよい。
The
第2の変形例は、機種情報と診断画像から入力データを生成した上述の実施形態に対し、さらに既往歴情報を入力データへ加えるものである。このような入力データに対応する分析用ニューラルネットワークは、既往歴情報を含めて学習することにより作成される。図12は、第2の変形例における、分析用ニューラルネットワーク151”(以下、「分析用NN151”」と記す)を生成するための学習作業を説明する図である。
In the second modification, past history information is added to the input data in addition to the above-described embodiment in which input data is generated from model information and diagnostic images. A neural network for analysis corresponding to such input data is created by learning including anamnesis information. FIG. 12 is a diagram for explaining the learning work for generating the analysis
分析用NN151”の入力データは、機種情報、既往歴情報および診断画像が一元化されたデータである。本変形例においては、機種情報は、内視鏡システム200において画像処理を実行するシステム本体211に関する本体情報と、システム本体211へ装着されるカメラユニット210に関するカメラ情報によって構成される。また、既往歴情報は、上述のように、内視鏡システムによって撮像される検査部位の撮像画像に画像の質の差異を生じさせ得る既往歴を対象とする。この機種情報と既往歴情報を符号化して診断画像の画像データに付加させたデータが、分析用NN151”の入力データとなる。
The input data of the
教師データは、上記の入力データに対してアノテーションデータが付与されたものである。アノテーションデータは、図4を用いて説明したアノテーションデータと同様に、診断画像中にがんの病変領域が存在するかしないかの正解情報と、存在する場合にはその病変領域の領域情報である。このように準備された教師データによって学習された分析用NN151”は、入力データが入力されると、入力データの一部である診断画像にがんが存在する確率と、その判断をした領域(例えば左上座標Aの座標値と右下座標Bの座標値)を出力する。
このとき、学習済みモデルとしての分析用NN151”は、機種に応じた診断画像の質の違い、および被検者の既往歴に応じた診断画像の質の違いを踏まえたうえの診断結果を出力することができる。すなわち、機種情報および既往歴情報の違いを含めて学習された分析用NN151”は、内視鏡システムの機種の違いや被検者の既往歴の違いによらず、同一の診断結果を出力することが期待できる。
The teacher data is obtained by adding annotation data to the above input data. Similar to the annotation data described with reference to FIG. 4, the annotation data is correct information as to whether or not a cancer lesion area exists in the diagnostic image, and if it exists, area information of the lesion area. . When the input data is input, the analysis NN 151'' learned by the teacher data prepared in this way obtains the probability that cancer exists in the diagnostic image that is a part of the input data, and the region ( For example, the coordinate value of the upper left coordinate A and the coordinate value of the lower right coordinate B) are output.
At this time, the
図13は、第2の変形例における、診断結果を表示するまでの処理を説明する図である。ここでは、図3で説明した処理と相違する点を説明する。 FIG. 13 is a diagram illustrating processing up to display of diagnosis results in the second modification. Here, differences from the processing described with reference to FIG. 3 will be described.
診断部113は、分析用NN151”の仕様等に応じて、撮像画像121を調整して診断画像を生成する。また、診断部113は、情報取得部111が取得した内視鏡システム200の機種情報と被検者の既往歴情報を情報取得部111から受け取る。そして、機種情報、既往歴情報および診断画像を一元化して入力データを生成し、記憶部150から読み出した分析用NN151”へ入力する。分析用NN151”は、画像内に存在する病変の疑いがある領域をその推定確率と共に診断結果として出力する。診断部113は、診断結果を表示制御部114へ引き渡す。
The
表示制御部114は、画像取得部112から受け取った撮像画像121の撮像画像データ、診断部113から受け取った診断結果、および診断に適用した機種情報および既往歴情報を、予め設定された表示基準に従って展開、配列して表示モニタ120へ表示する。診断に適用した既往歴情報は、同じく機種情報と共に適用情報123としてCG指標122の下部に配置して表す。
The
図14は、第2の変形例における、演算処理部の処理手順を説明するフロー図である。図6に示すフロー図と同様の処理ステップについては、同一のステップ番号を付すことにより、その説明を省略する。 FIG. 14 is a flowchart for explaining the processing procedure of the arithmetic processing unit in the second modification. Processing steps similar to those in the flow chart shown in FIG. 6 are given the same step numbers, and descriptions thereof are omitted.
情報取得部111は、ステップS101で機種情報を取得したら、続いてステップS301で既往歴情報を取得する。具体的には、図11を用いて説明したユーザインタフェースを通じてユーザから被検者の既往歴情報を取得する。既往歴情報の取得が完了したらステップS102へ進む。なお、機種情報の取得と既往歴情報の取得の順番は逆であってもよく、並列して取得しても構わない。
After acquiring the model information in step S101, the
診断部113は、ステップS103で画像取得部112から撮像画像121を受け取ると、ステップS304で、撮像画像121から診断画像を生成すると共に、当該診断画像と機種情報および既往歴情報とを一元化して入力データを生成する。
Upon receiving the captured
診断部113は、ステップS305へ進み、記憶部150から読み出した分析用NN151”へ生成した入力データを入力して、診断画像内に病変の疑いがある領域とその推定確率を演算させ、出力させる。診断部113は、分析用NN151”が出力した診断結果を、診断に適用した機種情報および既往歴情報と共に、表示制御部114へ引き渡す。
The
以上説明した参考例および第2の変形例は、第1の変形例のように、既往歴情報に応じた標準化処理を施すことにより標準化された標準化画像としての診断画像を生成し、第1の変形例で用いた分析用NN151’へ入力するように構成することもできる。この場合、例えば、既往歴の有無の違いによって生じる撮像画像の質の違いを矯正する画像フィルタを対象となる既往歴ごとに事前に用意しておく。そして、検査段階において既往歴情報として例えば「胃潰瘍あり」の情報を取得した場合には、診断部113は、胃潰瘍の経験によって生じる画像の特徴を打ち消すための胃潰瘍用画像フィルタを撮像画像121に適用して標準化画像に変換する。
In the reference example and the second modified example described above, as in the first modified example, a diagnostic image is generated as a standardized image standardized by performing standardization processing according to the medical history information, and the first It can also be configured to input to the analysis NN 151' used in the modified example. In this case, for example, an image filter for correcting the difference in the quality of the captured image caused by the presence or absence of a medical history is prepared in advance for each medical history. Then, in the examination stage, when information such as “gastric ulcer present” is acquired as past history information, the
以上説明した本実施形態においては、内視鏡システム200と検査支援装置100が接続ケーブル250を介して接続される場合を想定したが、有線接続でなく無線接続であっても構わない。また、以上説明した本実施形態においては、内視鏡システム200が備えるカメラユニット210が軟性内視鏡であることを想定して説明したが、カメラユニット210が硬性内視鏡であっても、検査支援装置100の構成や処理手順に違いは何ら生じない。なお、本実施形態における診断部による診断は、あくまで医師の診断を補助するものであり、最終的な決定は医師によって行われる。
In the present embodiment described above, it is assumed that the
以上説明した本実施形態においては、検査支援装置100が、内視鏡システム200から機種情報を取得する例を示したが、検査支援装置100は、機種情報に加えて、撮像情報(例えば、撮像時のカメラユニット210のズーム倍率、光源強度、およびシャープネスの少なくとも1つ)を内視鏡システム200から取得してもよい。この場合、分析用NN151は、撮像情報を含む学習用データセットを用いて学習された学習済みモデルである。診断部113は、情報取得部111が取得した機種情報及び撮像情報と画像取得部112が取得した撮像画像とに基づいて入力データを生成し、分析用NN151へ入力することにより被検者の体内の診断を行う。
In the present embodiment described above, an example in which the
また、以上説明した本実施形態において、診断結果を示すCG指標122は、病変であると推定される推定確率の数値を表示したが、診断結果の表示態様はこれに限らない。例えば、閾値以上の推定確率を出力した場合に、診断領域枠121aを強調表示するようにしてもよい。この場合、CG指標122は、その表示を省いてもよく、あるいは、単に閾値以上の結果が出力されたことを示す警告表示でもよい。
Further, in the present embodiment described above, the
100…検査支援装置、101…装置本体、110…演算処理部、111…情報取得部、112…画像取得部、113…診断部、114…表示制御部、120…表示モニタ、121…撮像画像、121a…診断領域枠、122…CG指標、123…適用情報、124…タイトル、125…選択項目、126…選択指標、127…プルダウンボタン、128…スクロール指標、129…ラジオボタン、130…入出力インタフェース、140…入力デバイス、150…記憶部、151、151’、151”、152…分析用ニューラルネットワーク、200…内視鏡システム、210…カメラユニット、211…システム本体、220…システムモニタ、221…撮像画像、222…検査情報、225…信号再生画像、250…接続ケーブル
DESCRIPTION OF
Claims (12)
前記内視鏡システムの機種情報を取得する情報取得部と、
前記カメラユニットで撮像された撮像画像を取得する画像取得部と、
前記情報取得部が取得した前記機種情報と前記画像取得部が取得した前記撮像画像とに基づいて入力データを生成し、学習済みモデルへ入力することにより前記体内の診断を行う診断部と、
前記診断部による診断結果を出力する出力部と
を備える検査支援装置。 An examination support device that is used in connection with an endoscope system that includes a camera unit that is inserted into the body of a subject,
an information acquisition unit that acquires model information of the endoscope system;
an image acquisition unit that acquires an image captured by the camera unit;
a diagnosis unit that generates input data based on the model information acquired by the information acquisition unit and the captured image acquired by the image acquisition unit, and inputs the input data to a trained model to diagnose the interior of the body;
and an output unit for outputting a diagnosis result by the diagnosis unit.
前記診断部は、前記情報取得部が取得した前記機種情報と前記画像取得部が取得した前記撮像画像とを対応付けて前記入力データを生成し、前記学習済みモデルへ入力することにより前記体内の診断を行う請求項1に記載の検査支援装置。 The learned model is learned based on learning data in which model information indicating one of a plurality of endoscope systems and captured images output from the endoscope system are associated with each other. can be,
The diagnosis unit generates the input data by associating the model information acquired by the information acquisition unit with the captured image acquired by the image acquisition unit, and inputs the input data to the trained model, so that the inside of the body The examination support device according to claim 1, which performs diagnosis.
前記診断部は、前記情報取得部が取得した前記機種情報に基づく前記標準化処理を前記画像取得部が取得した前記撮像画像に対して施すことにより前記入力データを生成し、前記学習済みモデルへ入力することにより前記体内の診断を行う請求項1に記載の検査支援装置。 The trained model is learned by using standardized images obtained by standardizing captured images output from each of a plurality of endoscope systems and removing characteristics dependent on the model of the endoscope system as learning data. and
The diagnosis unit generates the input data by applying the standardization processing based on the model information acquired by the information acquisition unit to the captured image acquired by the image acquisition unit, and inputs the input data to the trained model. 2. The examination support apparatus according to claim 1, wherein the inside of the body is diagnosed by performing the examination.
前記診断部は、前記情報取得部が取得した前記機種情報および前記既往歴情報と、前記画像取得部が取得した前記撮像画像とに基づいて前記体内の診断を行う請求項1に記載の検査支援装置。 The information acquisition unit also acquires past history information related to the past history of the subject,
The examination support according to claim 1, wherein the diagnosis unit diagnoses the inside of the body based on the model information and the medical history information acquired by the information acquisition unit and the captured image acquired by the image acquisition unit. Device.
前記診断部は、前記情報取得部が取得した前記機種情報および前記撮像情報の組合せと、前記画像取得部が取得した前記撮像画像とに基づいて前記体内の診断を行う請求項1に記載の検査支援装置。 The information acquisition unit further acquires imaging information of the endoscope system,
The examination according to claim 1, wherein the diagnosis unit diagnoses the interior of the body based on a combination of the model information and the imaging information acquired by the information acquisition unit and the captured image acquired by the image acquisition unit. support equipment.
前記内視鏡システムの機種情報を取得する情報取得ステップと、
前記カメラユニットで撮像された撮像画像を取得する画像取得ステップと、
前記情報取得ステップで取得した前記機種情報と前記画像取得ステップで取得した前記撮像画像とに基づいて入力データを生成し、学習済みモデルへ入力することにより前記体内の診断を行う診断ステップと、
前記診断ステップによる診断結果を出力する出力ステップと
を有する検査支援方法。 An examination support method using an examination support apparatus that is used in connection with an endoscope system having a camera unit that is inserted into the body of a subject,
an information acquisition step of acquiring model information of the endoscope system;
an image acquisition step of acquiring a captured image captured by the camera unit;
a diagnosis step of generating input data based on the model information acquired in the information acquisition step and the captured image acquired in the image acquisition step, and inputting the input data to a trained model to diagnose the interior of the body;
and an output step of outputting a diagnosis result obtained by the diagnosis step.
前記内視鏡システムの機種情報を取得する情報取得ステップと、
前記カメラユニットで撮像された撮像画像を取得する画像取得ステップと、
前記情報取得ステップで取得した前記機種情報と前記画像取得ステップで取得した前記撮像画像とに基づいて入力データを生成し、学習済みモデルへ入力することにより前記体内の診断を行う診断ステップと、
前記診断ステップによる診断結果を出力する出力ステップと
をコンピュータに実行させる検査支援プログラム。 An examination support program for controlling an examination support apparatus used in connection with an endoscope system having a camera unit inserted into the body of a subject,
an information acquisition step of acquiring model information of the endoscope system;
an image acquisition step of acquiring a captured image captured by the camera unit;
a diagnosis step of generating input data based on the model information acquired in the information acquisition step and the captured image acquired in the image acquisition step, and inputting the input data to a trained model to diagnose the interior of the body;
and an output step of outputting a diagnosis result obtained by the diagnosis step.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022007215 | 2022-01-20 | ||
JP2022007215 | 2022-01-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023106327A true JP2023106327A (en) | 2023-08-01 |
Family
ID=87473261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023003160A Pending JP2023106327A (en) | 2022-01-20 | 2023-01-12 | Inspection support device, inspection support method, and inspection support program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023106327A (en) |
-
2023
- 2023-01-12 JP JP2023003160A patent/JP2023106327A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5568196B1 (en) | Image processing apparatus and image processing method | |
JP7420876B2 (en) | Endoscope related business system | |
JP2004337596A (en) | Device, method and program for displaying image | |
KR100751160B1 (en) | Medical image recording system | |
US20220361739A1 (en) | Image processing apparatus, image processing method, and endoscope apparatus | |
JP4554647B2 (en) | Image display device, image display method, and image display program | |
JP4547401B2 (en) | Image display device, image display method, and image display program | |
JP2002336193A (en) | Diagnosis support apparatus | |
JP4616076B2 (en) | Image display device | |
JP4547402B2 (en) | Image display device, image display method, and image display program | |
JP7289241B2 (en) | Filing device, filing method and program | |
CN112969402B (en) | Endoscope system, image processing apparatus for endoscope system, and image processing method | |
JP2005143782A (en) | Medical image filing system | |
JP2023106327A (en) | Inspection support device, inspection support method, and inspection support program | |
WO2022163514A1 (en) | Medical image processing device, method, and program | |
WO2022191058A1 (en) | Endoscopic image processing device, method, and program | |
WO2022230607A1 (en) | Medical image processing device, endoscope system, and operation method for medical image processing device | |
JPWO2020070818A1 (en) | Measuring equipment, measuring methods, and programs | |
JPH119547A (en) | Endoscope system | |
JP7527634B2 (en) | Inspection support device, operation method of inspection support device, and inspection support program | |
WO2023175916A1 (en) | Medical assistance system and image display method | |
JP7546270B2 (en) | Inspection support device, inspection support method, and inspection support program | |
JP7264407B2 (en) | Colonoscopy observation support device for training, operation method, and program | |
WO2022270582A1 (en) | Examination assistance device, examination assistance method, and examination assistance program | |
JP7391113B2 (en) | Learning medical image data creation device, learning medical image data creation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230125 |