JP2023106327A - Inspection support device, inspection support method, and inspection support program - Google Patents

Inspection support device, inspection support method, and inspection support program Download PDF

Info

Publication number
JP2023106327A
JP2023106327A JP2023003160A JP2023003160A JP2023106327A JP 2023106327 A JP2023106327 A JP 2023106327A JP 2023003160 A JP2023003160 A JP 2023003160A JP 2023003160 A JP2023003160 A JP 2023003160A JP 2023106327 A JP2023106327 A JP 2023106327A
Authority
JP
Japan
Prior art keywords
information
image
unit
model
diagnosis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023003160A
Other languages
Japanese (ja)
Inventor
莫東 談
Modong Tan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AI Medical Service Inc
Original Assignee
AI Medical Service Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AI Medical Service Inc filed Critical AI Medical Service Inc
Publication of JP2023106327A publication Critical patent/JP2023106327A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)

Abstract

To provide an inspection support device which even when connected to an endoscope system of a different model, performs accurate diagnosis by using an image output by each endoscope system, and supports a decision made by a medical doctor.SOLUTION: The inspection support device, which is used in connection with an endoscope system provided with a camera unit inserted into the body of a subject, comprises: an information acquisition unit which acquires model information of the endoscope system; an image acquisition unit which acquires a captured image captured by the camera unit; a diagnosis unit which generates input data on the basis of the model information acquired by the information acquisition unit and the captured image acquired by the image acquisition unit and inputs the data to a learned model, thereby diagnosing the inside of the body; and an output unit which outputs a result of the diagnosis by the diagnosis unit.SELECTED DRAWING: Figure 3

Description

本発明は、検査支援装置、検査支援方法および検査支援プログラムに関する。 The present invention relates to an examination support device, an examination support method, and an examination support program.

内視鏡により被検者の例えば胃内部を撮像してその画像をモニタに表示する内視鏡システムが知られている。最近では、内視鏡システムで撮像された画像を分析して、その結果を医師へ知らせる検査支援装置も普及しつつある(例えば、特許文献1参照)。また、検査支援装置を内視鏡システムに接続して、内視鏡システムが撮像した体内画像をリアルタイムで検査支援装置に分析させる利用態様も実用段階に至りつつある。 2. Description of the Related Art An endoscope system is known that takes an image of, for example, the inside of a subject's stomach using an endoscope and displays the image on a monitor. Recently, an examination support device that analyzes an image captured by an endoscope system and informs a doctor of the result is becoming popular (see, for example, Patent Document 1). In addition, a mode of use in which an examination support device is connected to an endoscope system and an in-vivo image captured by the endoscope system is analyzed in real time by the examination support device is also reaching the stage of practical use.

特開2019-42156号公報JP 2019-42156 A

内視鏡システムに接続して利用される検査支援装置は、複数機種の内視鏡システムに接続できるように設計されることが好ましい。この場合、同一メーカが製造する複数機種の内視鏡システムに接続可能であるばかりではなく、異なるメーカが製造するそれぞれの機種の内視鏡システムにも接続可能なように設計されることもあり得る。 It is preferable that the examination support device used by being connected to the endoscope system is designed so that it can be connected to a plurality of types of endoscope systems. In this case, not only can it be connected to multiple models of endoscope systems manufactured by the same manufacturer, but it may also be designed to be connectable to different models of endoscope systems manufactured by different manufacturers. obtain.

内視鏡システムは、被検者の体内で検査部位を撮像し、その撮像信号を処理して画像データを生成する。したがって、機種が異なれば、それぞれの特性に応じた画像データが生成される。例えば同一被検者の同一検査部位を異なる機種の内視鏡システムで撮像すると、それぞれが生成する画像データの画像は、色味、シャープネス、歪曲、ノイズなどが互いに異なり得る。検査支援装置がこのような画像を受け取ってそのまま従前の学習済みモデルへ入力して体内診断を行うと、同一被検者の同一検査部位であっても、その診断結果が異なってしまう場合があるという課題があった。 An endoscope system takes an image of an inspection site inside a subject's body, processes the imaged signal, and generates image data. Therefore, if the model is different, image data corresponding to each characteristic is generated. For example, when the same inspection site of the same subject is imaged by different models of endoscope systems, the images of the image data generated by each may differ from each other in color tone, sharpness, distortion, noise, and the like. If the examination support device receives such an image and inputs it directly into the previous learned model to perform in-vivo diagnosis, the diagnosis results may differ even for the same examination site of the same subject. There was a problem.

本発明は、このような問題を解決するためになされたものであり、異なる機種の内視鏡システムへ接続する場合であっても、それぞれの内視鏡システムが出力する画像を用いてより精度の高い診断を行い、医師の判断を支援する検査支援装置等を提供するものである。 The present invention has been made to solve such problems, and even when connecting to endoscope systems of different models, the images output by each endoscope system can be used to improve accuracy. The purpose of the present invention is to provide an examination support device or the like that makes a highly accurate diagnosis and supports a doctor's judgment.

本発明の第1の態様における検査支援装置は、被検者の体内に挿通されるカメラユニットを備える内視鏡システムに接続して利用される検査支援装置であって、内視鏡システムの機種情報を取得する情報取得部と、カメラユニットで撮像された撮像画像を取得する画像取得部と、情報取得部が取得した機種情報と画像取得部が取得した撮像画像とに基づいて入力データを生成し、学習済みモデルへ入力することにより体内の診断を行う診断部と、診断部による診断結果を出力する出力部とを備える。 An examination support apparatus according to a first aspect of the present invention is an examination support apparatus that is used by being connected to an endoscope system having a camera unit that is inserted into the body of a subject. An information acquisition unit that acquires information, an image acquisition unit that acquires a captured image captured by the camera unit, and input data is generated based on the model information acquired by the information acquisition unit and the captured image acquired by the image acquisition unit. and a diagnostic unit for diagnosing the inside of the body by inputting it to the trained model, and an output unit for outputting the diagnostic result of the diagnostic unit.

本発明の第2の態様における検査支援方法は、被検者の体内に挿通されるカメラユニットを備える内視鏡システムに接続して利用される検査支援装置を用いた検査支援方法であって、内視鏡システムの機種情報を取得する情報取得ステップと、カメラユニットで撮像された撮像画像を取得する画像取得ステップと、情報取得ステップで取得した機種情報と画像取得ステップで取得した撮像画像とに基づいて入力データを生成し、学習済みモデルへ入力することにより体内の診断を行う診断ステップと、診断ステップによる診断結果を出力する出力ステップとを有する。 An examination support method according to a second aspect of the present invention is an examination support method using an examination support apparatus that is used in connection with an endoscope system having a camera unit that is inserted into the body of a subject, An information acquisition step of acquiring model information of an endoscope system, an image acquisition step of acquiring a captured image captured by a camera unit, and the model information acquired in the information acquisition step and the captured image acquired in the image acquisition step. A diagnosis step for diagnosing the inside of the body by generating input data based on the model and inputting it to the trained model, and an output step for outputting the diagnosis result of the diagnosis step.

本発明の第3の態様における検査支援プログラムは、被検者の体内に挿通されるカメラユニットを備える内視鏡システムに接続して利用される検査支援装置を制御する検査支援プログラムであって、内視鏡システムの機種情報を取得する情報取得ステップと、カメラユニットで撮像された撮像画像を取得する画像取得ステップと、情報取得ステップで取得した機種情報と画像取得ステップで取得した撮像画像とに基づいて入力データを生成し、学習済みモデルへ入力することにより体内の診断を行う診断ステップと、診断ステップによる診断結果を出力する出力ステップとをコンピュータに実行させる。 An examination support program according to a third aspect of the present invention is an examination support program for controlling an examination support apparatus used in connection with an endoscope system having a camera unit inserted into the body of a subject, An information acquisition step of acquiring model information of an endoscope system, an image acquisition step of acquiring a captured image captured by a camera unit, and the model information acquired in the information acquisition step and the captured image acquired in the image acquisition step. The computer is caused to execute a diagnosis step of diagnosing the inside of the body by generating input data based on the generated data and inputting the data to the learned model, and an output step of outputting the diagnosis result of the diagnosis step.

本発明により、異なる機種の内視鏡システムへ接続する場合であっても、それぞれの内視鏡システムが出力する画像を用いてより精度の高い診断を行い、医師の判断を支援する検査支援装置等を提供することができる。 According to the present invention, even when connected to endoscope systems of different models, the examination support apparatus performs more accurate diagnosis using the images output by each endoscope system and assists the doctor's decision. etc. can be provided.

内視鏡システムと本実施形態に係る検査支援装置を用いた内視鏡検査の様子を示す図である。It is a figure which shows the state of the endoscopy using an endoscope system and the examination assistance apparatus which concerns on this embodiment. 検査支援装置のハードウェア構成図である。2 is a hardware configuration diagram of an inspection support device; FIG. 診断結果を表示するまでの処理を説明する図である。It is a figure explaining the process until it displays a diagnosis result. 分析用ニューラルネットワークを生成するための学習作業を説明する図である。FIG. 4 is a diagram illustrating learning work for generating a neural network for analysis; 機種情報に関する設定画面の例を示す図である。It is a figure which shows the example of the setting screen regarding model information. 演算処理部の処理手順を説明するフロー図である。FIG. 5 is a flow diagram for explaining the processing procedure of the arithmetic processing unit; 第1の変形例における、分析用ニューラルネットワークを生成するための学習作業を説明する図である。FIG. 10 is a diagram illustrating learning work for generating an analysis neural network in the first modified example; 第1の変形例における、診断結果を表示するまでの処理を説明する図である。It is a figure explaining the process until the diagnosis result is displayed in a 1st modification. 第1の変形例における、演算処理部の処理手順を説明するフロー図である。FIG. 11 is a flow diagram illustrating a processing procedure of an arithmetic processing unit in the first modified example; 参考例における、分析用ニューラルネットワークを生成するための学習作業を説明する図である。FIG. 10 is a diagram illustrating learning work for generating a neural network for analysis in the reference example; 参考例における、既往歴情報に関する設定画面の例を示す図である。FIG. 10 is a diagram showing an example of a setting screen regarding past history information in the reference example; 第2の変形例における、分析用ニューラルネットワークを生成するための学習作業を説明する図である。FIG. 11 is a diagram illustrating learning work for generating an analysis neural network in the second modified example; 第2の変形例における、診断結果を表示するまでの処理を説明する図である。It is a figure explaining the process until the diagnosis result is displayed in a 2nd modification. 第2の変形例における、演算処理部の処理手順を説明するフロー図である。FIG. 11 is a flow diagram illustrating a processing procedure of an arithmetic processing unit in a second modified example;

以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described through embodiments of the invention, but the invention according to the scope of claims is not limited to the following embodiments. Moreover, not all the configurations described in the embodiments are essential as means for solving the problems.

図1は、内視鏡システム200と本実施形態に係る検査支援装置100を用いた内視鏡検査の様子を示す図である。内視鏡システム200と検査支援装置100は、共に診察スペースに設置されている。内視鏡システム200は、カメラユニット210、システム本体211およびシステムモニタ220を備える。カメラユニット210は、図示するように、横たわる被検者の口腔から胃などの体内の器官へ挿通され、器官の内部を撮像した撮像信号をシステム本体211へ送信する。カメラユニット210の器官への挿通や撮像操作は、医師によって行われる。本実施形態において、カメラユニット210は、システム本体211に対して着脱可能である。 FIG. 1 is a diagram showing an endoscopy using an endoscope system 200 and an examination support device 100 according to this embodiment. Both the endoscope system 200 and the examination support apparatus 100 are installed in the examination space. The endoscope system 200 has a camera unit 210 , a system body 211 and a system monitor 220 . As illustrated, the camera unit 210 is inserted through the oral cavity of a lying subject into an internal organ such as the stomach, and transmits an imaging signal obtained by imaging the inside of the organ to the system main body 211 . The insertion of the camera unit 210 into the organ and the imaging operation are performed by a doctor. In this embodiment, the camera unit 210 is detachable from the system body 211 .

システム本体211は、カメラユニット210から送られてきた撮像信号を処理して画像データを生成する。そして、当該画像データを視認可能な表示信号に調整し、例えば液晶パネルによって構成されるシステムモニタ220に撮像画像221として表示する。また、システム本体211は、被検者情報やカメラユニット210のカメラ情報などを含む検査情報222をシステムモニタ220に表示する。 The system body 211 processes the imaging signal sent from the camera unit 210 to generate image data. Then, the image data is adjusted to a visible display signal, and displayed as a captured image 221 on a system monitor 220 configured by, for example, a liquid crystal panel. Further, the system main body 211 displays examination information 222 including subject information, camera information of the camera unit 210 and the like on the system monitor 220 .

検査支援装置100は、接続ケーブル250によって内視鏡システム200に接続されている。内視鏡システム200は、システムモニタ220へ送信する表示信号を、接続ケーブル250を介して検査支援装置100へも送信する。すなわち、本実施形態における表示信号は、内視鏡システム200が外部装置へ提供する画像信号の一例である。検査支援装置100は、装置本体101および表示モニタ120を備える。装置本体101は、内視鏡システム200から送られてきた表示信号から撮像画像221に対応する画像信号を抽出し、例えば液晶パネルによって構成される表示モニタ120に撮像画像121として表示する。 The examination support device 100 is connected to the endoscope system 200 by a connection cable 250 . The endoscope system 200 also transmits the display signal to be transmitted to the system monitor 220 to the examination support apparatus 100 via the connection cable 250 . That is, the display signal in this embodiment is an example of an image signal that the endoscope system 200 provides to an external device. The examination support apparatus 100 has an apparatus main body 101 and a display monitor 120 . The device main body 101 extracts an image signal corresponding to the captured image 221 from the display signal sent from the endoscope system 200, and displays it as the captured image 121 on the display monitor 120 configured by, for example, a liquid crystal panel.

検査支援装置100のユーザである医師は、カメラユニット210の操作に応じてほぼリアルタイムで表示される撮像画像121を視認しながら検査を進める。医師は、検査支援装置100に診断させたい対象箇所が撮像画像121として表示されるようにカメラユニット210を操作する。 A doctor who is a user of the examination support apparatus 100 proceeds with the examination while visually recognizing the captured image 121 displayed almost in real time according to the operation of the camera unit 210 . The doctor operates the camera unit 210 so that the target part to be diagnosed by the examination support apparatus 100 is displayed as the captured image 121 .

検査支援装置100は、例えば医師による診断トリガーを検出すると、その時点における撮像画像121と内視鏡システム200の機種情報に基づいて入力データを生成し、後述する分析用ニューラルネットワークへ入力する。そして、分析用ニューラルネットワークの出力から生成される診断結果を、コンピュータグラフィックスに変換してCG指標122として表示モニタ120に表示する。 For example, when detecting a diagnosis trigger by a doctor, the examination support apparatus 100 generates input data based on the captured image 121 at that time and the model information of the endoscope system 200, and inputs the input data to an analysis neural network, which will be described later. Then, the diagnostic result generated from the output of the neural network for analysis is converted into computer graphics and displayed on the display monitor 120 as the CG index 122 .

診断トリガーは、様々に設定し得る。検査支援装置100は、例えば、抽出した撮像画像121が一定期間(例えば2秒)に亘って静止画像の連続(フリーズ)であると検知した場合に、当該フリーズを診断トリガーとして検出する。なお、図1は、診断トリガーが検出されていない状況において、表示信号から逐次生成されるほぼリアルタイムの撮像画像121が表示されている様子を示しており、CG指標122は、診断待機状態である旨を示している。 Diagnostic triggers can be set in various ways. For example, when detecting that the extracted captured image 121 is a series of still images (freeze) over a certain period of time (for example, two seconds), the examination support apparatus 100 detects the freeze as a diagnostic trigger. Note that FIG. 1 shows a state in which a substantially real-time captured image 121 sequentially generated from a display signal is displayed in a situation where no diagnostic trigger is detected, and the CG index 122 is in a diagnostic standby state. It indicates the purpose.

図2は、検査支援装置100のハードウェア構成図である。検査支援装置100は、主に、演算処理部110、表示モニタ120、入出力インタフェース130、入力デバイス140、記憶部150によって構成される。演算処理部110は、検査支援装置100の制御とプログラムの実行処理を行うプロセッサ(CPU:Central Processing Unit)である。プロセッサは、ASIC(Application Specific Integrated Circuit)やGPU(Graphics Processing Unit)等の演算処理チップと連携する構成であってもよい。演算処理部110は、記憶部150に記憶された検査支援プログラムを読み出して、検査の支援に関する様々な処理を実行する。 FIG. 2 is a hardware configuration diagram of the inspection support apparatus 100. As shown in FIG. The examination support apparatus 100 is mainly composed of an arithmetic processing section 110 , a display monitor 120 , an input/output interface 130 , an input device 140 and a storage section 150 . The arithmetic processing unit 110 is a processor (CPU: Central Processing Unit) that performs control of the examination support apparatus 100 and program execution processing. The processor may be configured to cooperate with an arithmetic processing chip such as an ASIC (Application Specific Integrated Circuit) or a GPU (Graphics Processing Unit). The arithmetic processing unit 110 reads out the examination assistance program stored in the storage unit 150 and executes various processes related to examination assistance.

表示モニタ120は、上述のように、例えば液晶パネルを備えるモニタであり、撮像画像121やCG指標122などを表示する。入出力インタフェース130は、接続ケーブル250を接続するためのコネクタを含む、外部機器との間で情報を授受するための接続インタフェースである。入出力インタフェース130は、例えばLANユニットを含み、検査支援プログラムや後述する分析用ニューラルネットワーク151の更新データを外部機器から取り込んで演算処理部110へ引き渡す。 The display monitor 120 is, for example, a monitor having a liquid crystal panel as described above, and displays the captured image 121, the CG index 122, and the like. Input/output interface 130 is a connection interface for exchanging information with an external device, including a connector for connecting connection cable 250 . The input/output interface 130 includes, for example, a LAN unit, takes in an examination support program and update data of an analysis neural network 151 (to be described later) from an external device, and delivers them to the arithmetic processing unit 110 .

入力デバイス140は、例えばキーボードやマウス、表示モニタ120に重畳されたタッチパネルであり、医師や補助者は、これらを操作して検査支援装置100の設定を変更したり、検査に必要な情報を入力したりする。 The input device 140 is, for example, a keyboard, a mouse, or a touch panel superimposed on the display monitor 120. A doctor or an assistant operates these devices to change the settings of the examination support apparatus 100 or input information necessary for examination. or

記憶部150は、不揮発性の記憶媒体であり、例えばHDD(Hard Disk Drive)によって構成されている。記憶部150は、検査支援装置100の制御や処理を実行するプログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、表示要素データ、ルックアップテーブル等を記憶し得る。記憶部150は、特に、分析用ニューラルネットワーク151(以下「分析用NN151」と記す)を記憶している。分析用NN151は、具体的には後述するが、入力された診断画像内に病変が存在する領域と確率を出力する学習済みモデルである。なお、記憶部150は、複数のハードウェアで構成されていても良く、例えば、プログラムを記憶する記憶媒体と分析用NN151を記憶する記憶媒体が別々のハードウェアで構成されてもよい。 The storage unit 150 is a non-volatile storage medium, and is configured by, for example, an HDD (Hard Disk Drive). The storage unit 150 can store various parameter values, functions, display element data, lookup tables, etc. used for control and calculation, in addition to programs for executing control and processing of the examination support apparatus 100 . The storage unit 150 particularly stores an analysis neural network 151 (hereinafter referred to as "analysis NN 151"). The analysis NN 151 is a trained model that outputs regions and probabilities in which lesions exist in input diagnostic images, although the details will be described later. Note that the storage unit 150 may be composed of a plurality of pieces of hardware. For example, the storage medium storing the program and the storage medium storing the analysis NN 151 may be composed of separate pieces of hardware.

演算処理部110は、検査支援プログラムが指示する処理に応じて様々な演算を実行する機能演算部としての役割も担う。演算処理部110は、情報取得部111、画像取得部112、診断部113、表示制御部114として機能し得る。情報取得部111は、内視鏡システム200の機種情報を取得する。画像取得部112は、内視鏡システム200から送られてくる表示信号を介して、カメラユニット210で撮像された撮像画像を取得する。診断部113は、情報取得部111が取得した機種情報と画像取得部112が取得した撮像画像とに基づいて入力データを生成し、学習済みモデルである分析用NN151へ入力することにより被検者の体内の診断を行う。表示制御部114は、表示モニタ120へ表示する表示画面の表示信号を生成し表示モニタ120へ送信することにより、表示モニタ120の表示を制御する。表示制御部114は、診断部113による診断結果を出力する出力部としての機能を担う。診断結果の出力先は表示モニタ120に限らず、例えば外部機器へ出力する場合には、演算処理部110と入出力インタフェース130が協働して出力部としての機能を担う。それぞれの機能演算部の具体的な処理については、後述する。 The computation processing unit 110 also serves as a functional computation unit that executes various computations according to the processing instructed by the examination support program. The arithmetic processing unit 110 can function as an information acquisition unit 111 , an image acquisition unit 112 , a diagnosis unit 113 and a display control unit 114 . The information acquisition unit 111 acquires model information of the endoscope system 200 . The image acquisition unit 112 acquires an image captured by the camera unit 210 via a display signal sent from the endoscope system 200 . The diagnosis unit 113 generates input data based on the model information acquired by the information acquisition unit 111 and the captured image acquired by the image acquisition unit 112, and inputs the input data to the analysis NN 151, which is a trained model. Make an in-vivo diagnosis. The display control unit 114 controls the display of the display monitor 120 by generating a display signal for a display screen to be displayed on the display monitor 120 and transmitting the signal to the display monitor 120 . The display control unit 114 functions as an output unit that outputs the diagnosis result of the diagnosis unit 113 . The output destination of the diagnosis result is not limited to the display monitor 120. For example, when outputting to an external device, the arithmetic processing unit 110 and the input/output interface 130 work together to function as an output unit. Specific processing of each functional calculation unit will be described later.

さて、内視鏡システムに接続して当該内視鏡システムが出力する撮像画像を用いて医師の診断を補助する検査支援装置は、様々な機種の内視鏡システムに接続可能に利用できることが好ましい。したがって、このような検査支援装置は、複数機種の内視鏡システムに接続できるように設計されることがある。この場合、同一メーカが製造する複数機種の内視鏡システムに接続可能であるばかりではなく、異なるメーカが製造するそれぞれの機種の内視鏡システムにも接続可能なように設計されることもあり得る。例えば、A社が製造する内視鏡システムの機種X1、X2、X3のそれぞれと、B社が製造する内視鏡システムの機種Y1、Y2のそれぞれに接続可能なように設計される。 Now, it is preferable that an examination support device that is connected to an endoscope system and assists a doctor's diagnosis using captured images output by the endoscope system can be used so as to be connectable to various types of endoscope systems. . Therefore, such an examination support apparatus is sometimes designed so that it can be connected to a plurality of types of endoscope systems. In this case, not only can it be connected to multiple models of endoscope systems manufactured by the same manufacturer, but it may also be designed to be connectable to different models of endoscope systems manufactured by different manufacturers. obtain. For example, it is designed to be connectable to endoscope system models X1, X2, and X3 manufactured by company A and to endoscope system models Y1 and Y2 manufactured by company B, respectively.

それぞれの内視鏡システムは、少なくともカメラユニットと、当該カメラユニットから出力される撮像信号を処理して画像データを生成するシステム本体とを備える。カメラユニットは、被検者の体内で検査部位を撮像する撮像センサを含み、そこから出力される撮像信号は、当該撮像センサやそれを制御する制御回路の特性に応じたものとなる。すなわち、カメラユニットが異なれば同一の検査部位を撮像しても、それぞれが出力する撮像信号は異なるものとなる。また、カメラユニットからの撮像信号を受け取って画像データに処理するシステム本体は、それぞれに画像処理のパラメータが設定されていたり、画像生成のプログラムが異なっていたりするために、たとえ同一の撮像信号を受け取ったとしても、同一の画像データが生成されるとは限らない。すなわち、内視鏡システムは、その機種の特性に応じた画像データを生成すると言える。それぞれの内視鏡システムが生成する画像データの画像は、具体的には、色味、シャープネス、歪曲、ノイズなどが互いに異なり得る。 Each endoscope system includes at least a camera unit and a system body that processes imaging signals output from the camera unit and generates image data. The camera unit includes an imaging sensor that captures an image of a site to be inspected inside the subject's body, and an imaging signal output therefrom corresponds to the characteristics of the imaging sensor and the control circuit that controls it. That is, if the camera units are different, even if the same inspection site is imaged, the imaging signals output by each are different. In addition, the system body that receives the imaging signal from the camera unit and processes it into image data may have different image processing parameters or different image generation programs. Even if received, the same image data is not necessarily generated. That is, it can be said that the endoscope system generates image data according to the characteristics of the model. Specifically, images of image data generated by the respective endoscope systems may differ from each other in color, sharpness, distortion, noise, and the like.

従前の検査支援装置が、そのような画像データあるいは当該画像データから調整された画像信号を受け取って診断画像を生成し、学習済みモデルを用いて体内診断を行う場合に、同一被検者の同一検査部位を対象としても、接続された内視鏡システムによってその診断結果が異なってしまう場合があった。同一被検者の同一検査部位を対象としているにもかかわらず、接続している内視鏡システムの機種によって診断結果が異なることは、誤診にもつながる可能性があり、好ましくない。そこで、本実施形態における検査支援装置100は、接続している内視鏡システム200の機種情報も取り込むことにより、機種の違いに起因する診断結果の齟齬をできる限り抑制している。 When a conventional examination support apparatus receives such image data or an image signal adjusted from the image data, generates a diagnostic image, and performs in-vivo diagnosis using a trained model, the same Even if the examination site is targeted, the diagnosis result may differ depending on the connected endoscope system. It is not preferable that the diagnosis results differ depending on the model of the connected endoscope system even though the same test site of the same subject is targeted, because it may lead to misdiagnosis. Therefore, the examination support apparatus 100 according to the present embodiment incorporates the model information of the connected endoscope system 200, thereby minimizing discrepancies in diagnosis results due to model differences.

まず、本実施形態に係る検査支援装置100が、内視鏡システム200から表示信号を取り込んで診断結果を表示するまでの全体の流れについて説明する。図3は、検査支援装置100が診断結果を表示するまでの処理を説明する図である。 First, an explanation will be given of the overall flow from when the examination support apparatus 100 according to the present embodiment acquires a display signal from the endoscope system 200 and displays the diagnosis result. FIG. 3 is a diagram for explaining the process until the examination support apparatus 100 displays the diagnosis result.

内視鏡システム200から送られてくる表示信号を画像取得部112が取得して展開する信号再生画像225は、内視鏡システム200のシステムモニタ220で表示されている表示画像と同様である。信号再生画像225は、撮像画像221と検査情報222を含む。検査情報222は、例えばテキスト情報である。画像取得部112は、接続当初に逐次展開する信号再生画像225を用いて、信号再生画像225の画像領域のいずれの領域が撮像画像を表す画像領域であるかを確定する。画像領域は他の領域に比べて短時間に変化することが想定されるので、例えば、前後する信号再生画像間の差分量が基準量以上となる変化領域を当該画像領域として確定する。信号再生画像225の画像領域のいずれの領域が撮像画像を表す画像領域であるかが確定されると、画像取得部112は、その確定された画像領域を切り出して撮像画像121とする。撮像画像121は、実質的にはカメラユニット210が撮像しシステム本体211が画像処理した撮像画像を検査支援装置100で再現した画像と言える。 A signal reproduction image 225 acquired by the image acquisition unit 112 from the display signal sent from the endoscope system 200 and developed is the same as the display image displayed on the system monitor 220 of the endoscope system 200 . The signal reproduced image 225 includes the captured image 221 and examination information 222 . The examination information 222 is, for example, text information. The image acquisition unit 112 determines which of the image areas of the signal-reproduced image 225 is the image area representing the captured image, using the signal-reproduced image 225 that is successively developed at the beginning of connection. Since it is assumed that the image area changes in a short period of time compared to other areas, for example, a changing area in which the amount of difference between successive signal-reproduced images is equal to or greater than a reference amount is determined as the image area. After determining which of the image areas of the signal reproduction image 225 is the image area representing the captured image, the image acquisition unit 112 cuts out the determined image area to obtain the captured image 121 . It can be said that the captured image 121 is substantially an image obtained by reproducing the captured image captured by the camera unit 210 and image-processed by the system main body 211 by the inspection support apparatus 100 .

画像取得部112は、その時点で診断トリガーを検出しておらず、切出した撮像画像121が診断対象の画像でない場合には、当該撮像画像121を表示制御部114へ引き渡す。表示制御部114は、図1で示した診断待機状態の表示画面を実現するために、撮像画像121を逐次更新して表示モニタ120へ表示する。画像取得部112は、その時点で診断トリガーを検出しており、切出した撮像画像121が診断対象の画像である場合には、当該撮像画像121を表示制御部114へ引き渡すと共に診断部113へ引き渡す。なお、図3は、診断トリガーを検出した場合を表している。 If the image acquisition unit 112 does not detect a diagnostic trigger at that time and the extracted captured image 121 is not an image to be diagnosed, the image acquisition unit 112 passes the captured image 121 to the display control unit 114 . The display control unit 114 sequentially updates the captured image 121 and displays it on the display monitor 120 in order to realize the display screen in the diagnosis standby state shown in FIG. The image acquisition unit 112 detects a diagnosis trigger at that time, and when the cut-out captured image 121 is an image to be diagnosed, the image acquisition unit 112 transfers the captured image 121 to the display control unit 114 and to the diagnosis unit 113 . . Note that FIG. 3 shows a case where a diagnostic trigger is detected.

診断部113は、分析用NN151の仕様等に応じて、撮像画像121を調整して診断画像を生成する。ここでの撮像画像121から診断画像への調整は、例えば画像のアスペクト比や画像サイズを対象とし、分析用NN151が入力を受容するデータ形式に整えるものであり、色味等の画像の質を調整するものではない。また、診断部113は、後述するように情報取得部111が取得した内視鏡システム200の機種情報を情報取得部111から受け取る。そして、機種情報と診断画像を一元化して入力データを生成し、記憶部150から読み出した分析用NN151へ入力する。分析用NN151は、画像内に存在する病変の疑いがある領域をその推定確率と共に診断結果として出力する。図3の例では、推定確率90%を示す中央付近の領域を出力している。診断部113は、診断結果を表示制御部114へ引き渡す。 The diagnosis unit 113 adjusts the captured image 121 according to the specifications of the analysis NN 151 and generates a diagnostic image. The adjustment from the captured image 121 to the diagnostic image here targets, for example, the aspect ratio and image size of the image, and prepares the analysis NN 151 into a data format that accepts input. not for adjustment. Further, the diagnosis unit 113 receives model information of the endoscope system 200 acquired by the information acquisition unit 111 from the information acquisition unit 111 as described later. Then, the model information and the diagnostic image are unified to generate input data, which is input to the analysis NN 151 read from the storage unit 150 . The analysis NN 151 outputs suspected lesion areas in the image together with their estimated probabilities as diagnostic results. In the example of FIG. 3, an area near the center showing an estimated probability of 90% is output. The diagnosis unit 113 hands over the diagnosis result to the display control unit 114 .

表示制御部114は、画像取得部112から受け取った撮像画像121の撮像画像データ、診断部113から受け取った診断結果、および診断に適用した機種情報を、予め設定された表示基準に従って展開、配列して表示モニタ120へ表示する。具体的には、診断画像として用いた撮像画像121が左側に配置され、診断結果を表すCG指標122が右側に配置されている。CG指標122は、病変であると推定される推定確率の数値(図の例では「90%」)を含むコンピュータグラフィックスである。また、病変であると推定した領域を示す診断領域枠121aを撮像画像121に重畳している。また、診断に適用した機種情報をテキストで表し、適用情報123としてCG指標122の下部に配置している。結果表示状態は一定時間(例えば2秒)に亘って継続し、その後診断待機状態の表示に戻る。 The display control unit 114 expands and arranges the captured image data of the captured image 121 received from the image acquisition unit 112, the diagnosis result received from the diagnosis unit 113, and the model information applied to the diagnosis according to preset display standards. is displayed on the display monitor 120. Specifically, a captured image 121 used as a diagnostic image is arranged on the left side, and a CG index 122 representing the diagnosis result is arranged on the right side. The CG index 122 is computer graphics including a numerical value ("90%" in the example shown) of the estimated probability of being a lesion. Also, a diagnostic area frame 121 a indicating an area estimated to be a lesion is superimposed on the captured image 121 . In addition, model information applied to the diagnosis is expressed in text and placed below the CG index 122 as application information 123 . The result display state continues for a certain period of time (for example, 2 seconds), and then the display returns to the diagnosis standby state.

なお、本実施形態においては、画像取得部112は、内視鏡システム200から受け取った表示信号から撮像画像121を抽出して取得するが、内視鏡システム200がデジタルデータとしての画像データを外部機器に提供する場合は、これを受け取って展開することにより撮像画像を取得してもよい。いずれの形式であっても、画像取得部112は、カメラユニット210で撮像されシステム本体211で処理された撮像画像を取得すればよい。 In this embodiment, the image acquisition unit 112 extracts and acquires the captured image 121 from the display signal received from the endoscope system 200, but the endoscope system 200 receives image data as digital data from an external device. When provided to the device, the captured image may be acquired by receiving and developing this. Regardless of the format, the image acquisition unit 112 may acquire a captured image captured by the camera unit 210 and processed by the system main body 211 .

次に、分析用NN151について説明する。記憶部150から読み出されて利用される分析用NN151は、運用に適するまで教師データを用いて学習を繰り返すことにより生成された学習済みモデルである。このような学習作業は他の装置を用いて実施されてもよく、その場合、検査支援装置100は、学習を終えた分析用NN151を当該他の装置から、入出力インタフェース130を介して取得する。 Next, the analysis NN 151 will be explained. The analytical NN 151 read out from the storage unit 150 and used is a trained model generated by repeating learning using teacher data until it is suitable for operation. Such learning work may be performed using another device, in which case the inspection support device 100 acquires the analyzed NN 151 that has completed learning from the other device via the input/output interface 130. .

図4は、分析用NN151を生成するための学習作業を説明する図である。分析用NN151の入力データは、上述のように、機種情報と診断画像が一元化されたデータである。本実施形態においては、機種情報は、内視鏡システム200において画像処理を実行するシステム本体211に関する本体情報と、システム本体211へ装着されるカメラユニット210に関するカメラ情報によって構成される。すなわち、機種情報は、対象の診断画像がいずれのシステム本体211といずれのカメラユニット210の組み合わせによって生成されたかを表す。例えば、対象の診断画像が、機種M3のシステム本体211に機種N7のカメラユニット210が組み合わされて構成された内視鏡システム200によって生成されたものであれば、機種情報は本体情報である機種M3とカメラ情報である機種N7を併せたものとなる。この機種情報を符号化して診断画像の画像データに付加させたデータが、分析用NN151の入力データとなる。 FIG. 4 is a diagram for explaining the learning work for generating the analytical NN 151. As shown in FIG. The input data of the analysis NN 151 is, as described above, data in which the model information and diagnostic images are unified. In this embodiment, the model information is composed of body information about the system body 211 that executes image processing in the endoscope system 200 and camera information about the camera unit 210 attached to the system body 211 . That is, the model information represents the combination of which system main body 211 and which camera unit 210 the diagnostic image of interest was generated. For example, if the target diagnostic image is generated by the endoscope system 200 configured by combining the system main body 211 of the model M3 and the camera unit 210 of the model N7, the model information is the model information which is the main body information. This is a combination of M3 and model N7, which is camera information. The data obtained by encoding the model information and adding it to the image data of the diagnostic image becomes the input data of the NN 151 for analysis.

なお、本実施形態においては、機種情報としていずれも診断画像の質に影響を与える本体情報とカメラ情報を組み合わせて採用する。これは、カメラユニット210がシステム本体211に着脱可能であり、それぞれ複数機種の間で組み合わせが変更できることを想定しているからであり、カメラユニット210とシステム本体211の組み合わせが変われば、生成される撮像画像および当該撮像画像から生成される診断画像の質が変わるからである。しかし、機種情報は本体情報とカメラ情報の組み合わせに限らない。内視鏡システム200の要素であって診断画像の質に影響を与えるものであれば、機種情報の対象となり得る。例えば、カメラユニットとは別に検査部位を照らす照明ユニットも任意に組み合わせられるのであれば、いずれの機種の照明ユニットを組み合わせたかの照明情報も機種情報として採用してもよい。逆に、カメラユニットとシステム本体の組み合わせが変更不可能な内視鏡システムにのみ検査支援装置を接続する場合であれば、機種情報は、カメラ情報と本体情報をそれぞれ含む必要はなく、内視鏡システムの機種を表すもので足りる。カメラ情報は、カメラユニット210の機種に関する情報に限られず、仕様(一例として、カメラユニット210のレンズの画角、焦点距離若しくはF値)に関する情報であってもよい。 Note that in the present embodiment, as model information, a combination of main body information and camera information, both of which affect the quality of diagnostic images, is employed. This is because it is assumed that the camera unit 210 can be attached to and detached from the system main body 211 and that the combination can be changed among a plurality of models. This is because the quality of the captured image and the diagnostic image generated from the captured image change. However, model information is not limited to a combination of main body information and camera information. Any element of the endoscope system 200 that affects the quality of diagnostic images can be a target of model information. For example, if a lighting unit that illuminates the inspection site can be arbitrarily combined with a camera unit, lighting information indicating which model of lighting unit is combined may also be employed as the model information. Conversely, if the examination support device is to be connected only to an endoscope system in which the combination of the camera unit and the system body cannot be changed, the model information does not need to include the camera information and the body information, respectively. It suffices to indicate the model of the mirror system. The camera information is not limited to information about the model of the camera unit 210, and may be information about specifications (for example, the angle of view, focal length, or F value of the lens of the camera unit 210).

教師データは、上記の入力データに対してアノテーションデータが付与されたものである。アノテーションデータは、診断画像中にがんの病変領域が存在するかしないかの正解情報と、存在する場合にはその病変領域の領域情報である。それぞれの診断画像に対する判断は、例えば熟練の医師が診断画像を個々に観察して行うものであり、アノテーションデータは、当該医師あるいは補助者がその判断結果を学習作業装置へ入力することによって作成されるものである。なお、病変領域の領域情報は、例えば、がんと判断される部位を包含する矩形の左上座標Aの座標値と、右下座標Bの座標値によって表現される。 The teacher data is obtained by adding annotation data to the above input data. The annotation data is correct information as to whether or not a cancer lesion area exists in the diagnostic image, and area information of the lesion area if it exists. Judgment on each diagnostic image is made by, for example, a skilled doctor by observing the diagnostic image individually, and the annotation data is created by the doctor or an assistant inputting the judgment result to the learning work device. It is a thing. The area information of the lesion area is represented by, for example, the upper left coordinate A and the lower right coordinate B of a rectangle that includes the site determined to be cancerous.

このように入力データにアノテーションデータが付与された教師データは、診断画像の質に影響を与えた機種情報(ここでは本体情報と+カメラ情報)と、医師の判断による判断結果を含むものとなる。教師データは、学習によって実用に耐える分析用NN151を生成できるだけのデータ数が準備される。実用に耐えるか否かは、例えば、判断の正答率が基準値を超えるか否かによって判定される。このように準備された教師データによって学習された分析用NN151は、入力データが入力されると、入力データの一部である診断画像にがんが存在する確率と、その判断をした領域(例えば左上座標Aの座標値と右下座標Bの座標値)を出力する。このとき、学習済みモデルとしての分析用NN151は、機種に応じた診断画像の質の違いを踏まえたうえの診断結果を出力することができる。すなわち、機種情報の違いを含めて学習された分析用NN151は、例えば同一被検者の同一検査部位を対象とした場合に、接続している内視鏡システムの機種が異なる場合であっても、同一の診断結果を出力することが期待できる。なお、本実施形態においては、上記のような教師データを学習データとする教師あり学習を想定するが、複数の内視鏡システムのいずれかであることを示す機種情報とその内視鏡システムから出力された撮像画像とが対応付けられた学習データに基づいて学習するのであれば、他の機械学習の手法を採用しても構わない。 In this way, the teacher data with annotation data attached to the input data includes the model information (here, the main unit information and the camera information) that influenced the quality of the diagnostic image, and the judgment result by the doctor's judgment. . As for the teacher data, a sufficient number of data is prepared to generate a practical analytical NN 151 through learning. Whether or not it can withstand practical use is determined, for example, by whether or not the percentage of correct answers in judgment exceeds a reference value. When the input data is input, the analysis NN 151 learned by the teacher data prepared in this way has the probability that cancer exists in the diagnostic image that is part of the input data, and the region (for example, The coordinate value of the upper left coordinate A and the coordinate value of the lower right coordinate B) are output. At this time, the analysis NN 151 as a trained model can output a diagnosis result based on differences in the quality of diagnostic images depending on the model. That is, the analysis NN 151 that has been learned including the difference in model information, for example, when the same inspection site of the same subject is targeted, even if the model of the connected endoscope system is different. , can be expected to output the same diagnostic results. In the present embodiment, it is assumed that supervised learning is performed using the above-described teacher data as learning data. Other machine learning methods may be adopted as long as learning is performed based on learning data associated with the output captured image.

機種情報は、例えば、検査を開始する前に医師や補助者の入力を受け付けることによって取得することができる。図5は、表示モニタ120に表示される、機種情報に関する設定画面の例を示す図である。 The model information can be obtained, for example, by accepting input from a doctor or an assistant before starting an examination. FIG. 5 is a diagram showing an example of a setting screen regarding model information displayed on the display monitor 120. As shown in FIG.

情報取得部111は、表示制御部114を介して表示モニタ120に機種の設定に関する設定画面を表示する。具体的には、「機種の設定」と示すタイトル124と共に、システム本体211とカメラユニット210のそれぞれに対して選択可能な機種を示す選択項目125を表示する。 The information acquisition unit 111 displays a setting screen regarding model setting on the display monitor 120 via the display control unit 114 . Specifically, along with a title 124 indicating "model setting", selection items 125 indicating selectable models for each of the system main body 211 and the camera unit 210 are displayed.

例えば、表示モニタ120が入力デバイス140としてのタッチパネルを備える場合には、医師や補助者であるユーザがプルダウンボタン127をタップすると、情報取得部111はその操作を検出し、選択可能な機種名を展開する。図5は、カメラユニット210の機種選択に対するプルダウンボタン127がタップされ、選択可能な機種名が列挙されている様子を表している。スクロール指標128は、選択可能な機種名の一部が表示されていることを示し、ユーザは、これを上下に移動させることにより他の機種名を表示させることができる。ユーザが特定の機種名(図においては「X社 X-0B」)をタップすると、当該機種名は反転表示され、選択が受け入れられたことをユーザに知らせる。すなわち、情報取得部111は、このようなユーザインタフェースを通じてユーザから機種情報を取得する。 For example, when the display monitor 120 has a touch panel as the input device 140, when the user who is a doctor or an assistant taps the pull-down button 127, the information acquisition unit 111 detects the operation and selects a selectable model name. expand. FIG. 5 shows that the pull-down button 127 for model selection of the camera unit 210 is tapped and selectable model names are listed. A scroll indicator 128 indicates that a part of selectable model names is displayed, and the user can move it up and down to display other model names. When the user taps a specific model name (“X Company X-0B” in the figure), the model name is highlighted to inform the user that the selection has been accepted. That is, the information acquisition unit 111 acquires model information from the user through such a user interface.

なお、機種情報は、ユーザによる直接入力に限らず、他の手法によっても実現し得る。例えば、上述のように、信号再生画像225は検査情報222を含むので、もし検査情報222がシステム本体211やカメラユニット210の機種情報を含むのであれば、情報取得部111は、検査情報222をOCR解析して機種情報を取得してもよい。また、例えば内視鏡システム200がデジタルデータとしての画像データと共に機種情報も外部機器に提供しているのであれば、情報取得部111は、より直接的に機種情報を取得することができる。また、画像データと共に機種情報も外部機器に提供されていない場合であっても、画像データを解析することにより、画像データの特徴量、画像データのフォーマット、及び、画像データに含まれる文字列(一例として、機種情報を表す文字画像)の少なくとも1つに基づいて、機種情報を判定してもよい。 It should be noted that the model information is not limited to direct input by the user, and can be realized by other methods. For example, as described above, the signal reproduced image 225 includes the inspection information 222. If the inspection information 222 includes the model information of the system main body 211 and the camera unit 210, the information acquisition unit 111 acquires the inspection information 222. The model information may be obtained by OCR analysis. Also, for example, if the endoscope system 200 provides model information to an external device together with image data as digital data, the information acquisition unit 111 can acquire the model information more directly. Even if the model information is not provided to the external device together with the image data, the feature amount of the image data, the format of the image data, and the character string ( As an example, the model information may be determined based on at least one character image representing the model information.

次に、演算処理部110が実行する検査支援の主な処理についての処理手順の一例を、フロー図を用いて説明する。図6は、演算処理部110の処理手順を説明するフロー図である。フローは、検査支援装置100が起動され、検査支援プログラムが実行された時点から開始する。 Next, an example of a processing procedure for main processing of examination support executed by the arithmetic processing unit 110 will be described using a flow chart. FIG. 6 is a flowchart for explaining the processing procedure of the arithmetic processing unit 110. As shown in FIG. The flow starts when the examination support apparatus 100 is activated and the examination support program is executed.

情報取得部111は、ステップS101で、ユーザによる入力デバイス140への入力を介して機種情報を取得する。情報取得部111は、取得した機種情報を診断部113へ引き渡す。機種情報の取得が完了したらステップS102へ進む。 The information acquisition unit 111 acquires model information through input to the input device 140 by the user in step S101. The information acquisition unit 111 passes the acquired model information to the diagnosis unit 113 . When the acquisition of the model information is completed, the process proceeds to step S102.

ステップS102へ進むと、画像取得部112は、内視鏡システム200から表示信号を取得して信号再生画像225を生成し、さらにステップS103で、信号再生画像225から撮像画像121を切り出して表示制御部114へ引き渡す。また、その時点で診断トリガーを検出していれば、診断部113へも引き渡す。診断部113は、画像取得部112から撮像画像121を受け取ると、ステップS104で、撮像画像121から診断画像を生成すると共に、当該診断画像と機種情報を一元化して入力データを生成する。 When proceeding to step S102, the image acquisition unit 112 acquires a display signal from the endoscope system 200 to generate the signal reproduction image 225, and in step S103, cuts out the captured image 121 from the signal reproduction image 225 and controls display. Hand over to department 114 . Moreover, if a diagnostic trigger is detected at that time, it is also handed over to the diagnostic unit 113 . Upon receiving the captured image 121 from the image acquisition unit 112, the diagnostic unit 113 generates a diagnostic image from the captured image 121 and unifies the diagnostic image and model information to generate input data in step S104.

診断部113は、ステップS105へ進み、記憶部150から読み出した分析用NN151へ生成した入力データを入力して、診断画像内に病変の疑いがある領域とその推定確率を演算させ、出力させる。診断部113は、分析用NN151が出力した診断結果を、診断に適用した機種情報と共に、表示制御部114へ引き渡す。 The diagnosis unit 113 advances to step S105, inputs the generated input data to the analysis NN 151 read from the storage unit 150, and causes the region suspected of having a lesion in the diagnostic image and its estimated probability to be calculated and output. The diagnosis unit 113 passes the diagnosis result output by the analysis NN 151 to the display control unit 114 together with the model information applied to the diagnosis.

表示制御部114は、ステップS106で、画像取得部112から受け取った撮像画像121の撮像画像データ、診断部113から受け取った診断結果、および診断に適用した機種情報を、図3で示したように表示モニタ120へ表示する。結果表示状態を一定時間に亘って継続したら、ステップS107へ進む。 In step S106, the display control unit 114 displays the captured image data of the captured image 121 received from the image acquisition unit 112, the diagnosis result received from the diagnosis unit 113, and the model information applied to the diagnosis as shown in FIG. Displayed on the display monitor 120 . When the result display state continues for a certain period of time, the process proceeds to step S107.

演算処理部110は、ステップS107で、カメラユニット210による体内検査が終了したか否かを検出する。終了を検出していなければステップS102へ戻り、検査を継続する。終了を検出したら規定された終了処理を実行して一連の処理を終了する。なお、演算処理部110は、体内検査の終了を、例えば、カメラユニット210が口腔から排出されることにより撮像画像121の輝度が急激に変化することを捉えて検出する。 Arithmetic processing unit 110 detects whether or not the in-vivo examination by camera unit 210 is completed in step S107. If the end is not detected, the process returns to step S102 to continue the inspection. When the end is detected, the defined end processing is executed to end the series of processing. Note that the arithmetic processing unit 110 detects the end of the in-vivo examination, for example, by catching a sudden change in the brightness of the captured image 121 due to the camera unit 210 being discharged from the oral cavity.

続いて、いくつかの変形例について説明する。上述の実施形態においては図4を用いて説明したように、機種情報と診断画像を一元化した入力データにアノテーションデータを付与して教師データを準備し、この教師データによって学習を実施することによって分析用NN151を生成した。すなわち、生成された分析用NN151は、機種情報と診断画像を一元化した入力データが入力されると、内視鏡システムの機種に応じた診断画像の質の違いを踏まえたうえの診断結果を出力する。しかし、機種に応じた診断画像の質の違いを事前の標準化処理で相殺すれば、分析用ニューラルネットワークとしては標準化処理された診断画像を受け付ければよく、分析用ニューラルネットワーク自身が機種に応じた診断画像の質の違いを吸収する必要はなくなる。第1の変形例は、このような標準化処理を前提とする分析用ニューラルネットワークを作成し、運用するものである。 Next, some modifications will be described. In the above-described embodiment, as described with reference to FIG. 4, annotation data is added to input data in which model information and diagnostic images are unified to prepare teacher data, and analysis is performed by performing learning using this teacher data. NN151 for That is, when the generated analysis NN 151 receives the input data in which the model information and the diagnostic image are unified, it outputs the diagnostic result based on the difference in the quality of the diagnostic image according to the model of the endoscope system. do. However, if differences in the quality of diagnostic images depending on the model are offset by standardization processing in advance, the neural network for analysis only needs to accept standardized diagnostic images, and the neural network for analysis itself can be adjusted according to the model. There is no need to absorb differences in diagnostic image quality. A first modified example creates and operates an analysis neural network that assumes such standardization processing.

図7は、第1の変形例における分析用ニューラルネットワーク151’(以下、「分析用NN151’」と記す)を生成するための学習作業を説明する図である。第1の変形例においては、分析用NN151’の学習を始めるにあたり、まず、教師データとなる診断画像を事前に準備する。 FIG. 7 is a diagram for explaining the learning work for generating the analysis neural network 151' (hereinafter referred to as "analysis NN 151'") in the first modified example. In the first modified example, before starting learning of the analysis NN 151', first, diagnostic images that serve as teacher data are prepared in advance.

診断画像は、あるカメラユニット210で撮像され、あるシステム本体211で画像処理された撮像画像に対して、当該カメラユニット210の機種および当該システム本体211の機種に依存する特性を除去する標準化処理を施して標準化画像に変換したものである。標準化処理は、例えば、機種の違いが撮像画像の質の違いとなって生じる機種特有の癖を矯正する画像フィルタを撮像画像に適用するフィルタ処理である。例えば、機種M3のシステム本体211に機種N7のカメラユニット210が組み合わされて生成された撮像画像に対しては、この組み合わせの癖を矯正するために用意されたM3-N7用画像フィルタを適用することにより、標準化画像に変換する。このように標準化処理が施された標準化画像は、内視鏡システムの機種の違いによる質の相違が除去されたものとなる。なお、標準化処理によって変換する標準化画像の質(色味、シャープネス、歪曲、ノイズ等)は、フィルタ処理によって実現可能な範囲で予め設定される。 A diagnostic image is an image captured by a certain camera unit 210 and image-processed by a certain system main body 211. Standardization processing is performed to remove characteristics that depend on the model of the camera unit 210 and the model of the system main body 211. It is converted into a standardized image by applying The standardization process is, for example, a filtering process that applies an image filter to a captured image to correct model-specific quirks caused by differences in the quality of captured images due to differences in models. For example, an image filter for M3-N7 prepared for correcting the peculiarities of this combination is applied to a captured image generated by combining the camera unit 210 of model N7 with the system main body 211 of model M3. to convert it into a standardized image. A standardized image that has undergone standardization processing in this way has differences in quality due to differences in endoscope system models removed. Note that the quality (color, sharpness, distortion, noise, etc.) of the standardized image converted by the standardization process is set in advance within a range that can be realized by the filter process.

したがって、分析用NN151’の入力データはこのように標準化された標準化画像としての診断画像となる。教師データは、このような診断画像に対してアノテーションデータが付与されたものである。アノテーションデータは、図4を用いて説明したアノテーションデータと同様に、診断画像中にがんの病変領域が存在するかしないかの正解情報と、存在する場合にはその病変領域の領域情報である。 Therefore, the input data of the analysis NN 151' becomes a diagnostic image as a standardized image thus standardized. The teacher data is obtained by adding annotation data to such a diagnostic image. Similar to the annotation data described with reference to FIG. 4, the annotation data is correct information as to whether or not a cancer lesion area exists in the diagnostic image, and if it exists, area information of the lesion area. .

このように準備された教師データによって学習された分析用NN151’は、標準化処理された診断画像が入力されると、当該診断画像にがんが存在する確率と、その判断をした領域(例えば左上座標Aの座標値と右下座標Bの座標値)を出力する。すなわち、診断部113は、機種情報を用いて標準化処理を施した診断画像を生成し、これを学習済みモデルとしての分析用NN151’へ入力して演算させることにより、内視鏡システムの機種に起因する影響を極力排除した診断結果を得ることができる。 When a standardized diagnostic image is input, the analysis NN 151′ learned by the teacher data prepared in this way has the probability that cancer exists in the diagnostic image, and the region (for example, upper left The coordinate value of the coordinate A and the coordinate value of the lower right coordinate B) are output. That is, the diagnosis unit 113 generates a diagnostic image that has undergone standardization processing using the model information, inputs this to the analysis NN 151′ as a learned model, and causes it to perform calculations, so that the model of the endoscope system It is possible to obtain a diagnostic result that eliminates the influence caused by it as much as possible.

図8は、第1の変形例における、診断結果を表示するまでの処理を説明する図である。ここでは、図3で説明した処理と相違する点を説明する。 FIG. 8 is a diagram illustrating processing up to display of diagnosis results in the first modification. Here, differences from the processing described with reference to FIG. 3 will be described.

診断部113は、情報取得部111から機種情報を受け取ると、その機種情報に応じた画像フィルタを記憶部150から読み出す。そして、画像取得部112から受け取った撮像画像121に対して当該画像フィルタを適用する標準化処理を施し、診断画像を生成する。このとき、画像のアスペクト比や画像サイズ等を調整して分析用NN151’が入力を受容するデータ形式に整える調整処理も併せて実行する。 Upon receiving the model information from the information acquisition unit 111 , the diagnosis unit 113 reads an image filter corresponding to the model information from the storage unit 150 . Then, the captured image 121 received from the image acquisition unit 112 is subjected to standardization processing in which the image filter is applied to generate a diagnostic image. At this time, an adjustment process for adjusting the aspect ratio, image size, etc. of the image to prepare the data format for the analysis NN 151' to accept the input is also executed.

診断部113は、このように生成された入力データとしての診断画像を、記憶部150から読み出した分析用NN151’へ入力する。分析用NN151’は、画像内に存在する病変の疑いがある領域をその推定確率と共に診断結果として出力する。診断部113は、診断結果を表示制御部114へ引き渡す。 The diagnostic unit 113 inputs the diagnostic image generated as input data in this way to the analytical NN 151 ′ read from the storage unit 150 . The analysis NN 151' outputs suspected lesion regions present in the image together with their estimated probabilities as diagnostic results. The diagnosis unit 113 hands over the diagnosis result to the display control unit 114 .

図9は、第1の変形例における、演算処理部110の処理手順を説明するフロー図である。図6に示すフロー図と同様の処理ステップについては、同一のステップ番号を付すことにより、その説明を省略する。 FIG. 9 is a flowchart for explaining the processing procedure of the arithmetic processing unit 110 in the first modified example. Processing steps similar to those in the flow chart shown in FIG. 6 are given the same step numbers, and descriptions thereof are omitted.

診断部113は、画像取得部112から撮像画像121を受け取ると、ステップS204で、受け取った撮像画像121に対して標準化処理を実行する。具体的には、ステップS101で取得された機種情報に対応する画像フィルタを記憶部150から読み出し、受け取った撮像画像121に適用する。診断部113は、このように画像フィルタを適用して得た入力データとしての診断画像を、ステップS205で、分析用NN151’へ入力することにより、当該診断画像に対する診断結果を得る。そして、その診断結果を、診断に適用した機種情報と共に、表示制御部114へ引き渡す。 Upon receiving the captured image 121 from the image acquisition unit 112, the diagnosis unit 113 performs standardization processing on the received captured image 121 in step S204. Specifically, the image filter corresponding to the model information acquired in step S101 is read from the storage unit 150 and applied to the received captured image 121 . In step S205, the diagnosis unit 113 inputs the diagnostic image as input data obtained by applying the image filter to the analysis NN 151', thereby obtaining a diagnostic result for the diagnostic image. Then, the diagnosis result is handed over to the display control unit 114 together with the model information applied to the diagnosis.

次に、第2の変形例を説明するにあたり、その前提となる参考例を説明する。これまで説明した実施形態においては、内視鏡システムによって生成される画像データの画像の質は、内視鏡システムの機種ごとに異なり得ると説明した。しかし、たとえ同一の病変であってもそれを撮像した画像の色味や質感などの違いは、同一機種の内視鏡システムで撮像した画像であっても、他の要因によって生じることがあり得る。その要因の一つとして、被検者の既往歴が挙げられる。 Next, in describing the second modified example, a reference example as a premise thereof will be described. In the embodiments described so far, it has been described that the image quality of the image data generated by the endoscope system can vary from model to model of the endoscope system. However, even if the lesion is the same, differences in color and texture may occur due to other factors, even if the image is captured using the same type of endoscope system. . One of the factors is the medical history of the subject.

被検者の既往歴によっては、その影響が検査部位に現れることがある。例えば、検査部位の変色や萎縮となって現れる。このような検査部位を検査対象とした場合には、被検者の特定の既往歴の有無によって、診断結果が異なってしまうことがあった。同一の病変が同一の状況であるにもかかわらず、被検者の既往歴の違いによって診断結果が異なることは、誤診にもつながる可能性があり、好ましくない。そこで、参考例に係る検査支援装置においては、被検者の既往歴に関する既往歴情報も取り込むことにより、被検者間の既往歴の違いに起因する診断結果の齟齬をできる限り抑制する。 Depending on the medical history of the subject, its effects may appear at the examination site. For example, it appears as discoloration or atrophy of the examination site. When such an inspection site is used as an inspection target, the diagnosis results may differ depending on the presence or absence of a specific medical history of the subject. It is not preferable that the same lesion has the same condition but the diagnosis result differs due to the difference in the medical history of the subject, which may lead to misdiagnosis. Therefore, in the examination support apparatus according to the reference example, by taking in the medical history information regarding the medical history of the subject, discrepancies in the diagnosis results due to differences in the medical history of the subjects are suppressed as much as possible.

図10は、参考例における、分析用ニューラルネットワーク152(以下、「分析用NN152」と記す)を生成するための学習作業を説明する図である。分析用NN152の入力データは、既往歴情報と診断画像が一元化されたデータである。ここでは、内視鏡システムによって撮像される検査部位の撮像画像に画像の質の差異を生じさせ得る既往歴が既往歴情報の対象となる。 FIG. 10 is a diagram for explaining the learning work for generating the analysis neural network 152 (hereinafter referred to as "analysis NN 152") in the reference example. The input data of the analysis NN 152 is data in which medical history information and diagnostic images are unified. Here, the past history information is a target of the past history information, which may cause differences in image quality between the captured images of the inspection site captured by the endoscope system.

既往歴情報としては、例えば図示するように、ピロリ菌の除菌歴(あり/なし)、血清H. pylori抗体(陰性/陽性)、呼気テスト(陰性/陽性)、ペプシノゲン法(陰性/ 陽性)、前立腺癌(術後/なし)、肺癌(術後/なし)、腫瘍マーカー(高値/軽度高値/低値)、胃SMT(疑い/なし)、胃潰瘍既往歴(あり/なし)、胃悪性リンパ腫既往歴(あり/なし)、早期胃癌既往歴(あり/なし)、ESDの施行(あり/なし)、舌癌既往歴(あり/なし)、口腔底癌既往歴(あり/なし)、下咽頭癌既往歴(あり/なし)、大腸癌既往歴(あり/なし)等が対象となり得る。なお、内視鏡システムが特定の検査部位を対象とするものであれば、当該検査部位に影響を与える既往歴に限定してもよい。また、例えば、ピロリ菌の除菌歴がある場合には除菌後の経過年数なども既往歴情報に含めてもよい。この既往歴情報を符号化して診断画像の画像データに付加させたデータが、分析用NN152の入力データとなる。 As shown in the figure, past medical history information includes eradication history of Helicobacter pylori (yes/no), serum H. pylori antibody (negative/positive), breath test (negative/positive), pepsinogen test (negative/positive). , prostate cancer (postoperative/no), lung cancer (postoperative/no), tumor marker (high/mildly high/low), gastric SMT (suspected/no), history of gastric ulcer (yes/no), gastric malignant lymphoma Past history (yes/no), history of early gastric cancer (yes/no), ESD (yes/no), history of tongue cancer (yes/no), history of floor of the mouth cancer (yes/no), hypopharynx A history of cancer (yes/no), a history of colorectal cancer (yes/no), etc. can be targets. If the endoscope system targets a specific examination site, the history may be limited to the past history that affects the examination site. Further, for example, when there is a history of eradication of Helicobacter pylori, the number of years after eradication may be included in the medical history information. The data obtained by encoding the past history information and adding it to the image data of the diagnostic image becomes the input data of the analysis NN 152 .

教師データは、上記の入力データに対してアノテーションデータが付与されたものである。アノテーションデータは、図4を用いて説明したアノテーションデータと同様に、診断画像中にがんの病変領域が存在するかしないかの正解情報と、存在する場合にはその病変領域の領域情報である。このように準備された教師データによって学習された分析用NN152は、入力データが入力されると、入力データの一部である診断画像にがんが存在する確率と、その判断をした領域(例えば左上座標Aの座標値と右下座標Bの座標値)を出力する。このとき、学習済みモデルとしての分析用NN152は、被検者の既往歴に応じた診断画像の質の違いを踏まえたうえの診断結果を出力することができる。すなわち、既往歴情報の違いを含めて学習された分析用NN152は、例えば同一の病変が同一の状況であれば、被検者の既往歴の違いによらず、同一の診断結果を出力することが期待できる。 The teacher data is obtained by adding annotation data to the above input data. Similar to the annotation data described with reference to FIG. 4, the annotation data is correct information as to whether or not a cancer lesion area exists in the diagnostic image, and if it exists, area information of the lesion area. . When the input data is input, the analysis NN 152 learned by the teacher data prepared in this way has the probability that cancer exists in the diagnostic image that is a part of the input data, and the region (for example, The coordinate value of the upper left coordinate A and the coordinate value of the lower right coordinate B) are output. At this time, the analysis NN 152 as a learned model can output diagnostic results based on differences in the quality of diagnostic images according to the medical history of the subject. That is, the analysis NN 152 that has been learned including differences in past history information outputs the same diagnostic result regardless of the difference in the past history of the subject if, for example, the same lesion is in the same situation. can be expected.

既往歴情報は、例えば、検査を開始する前に医師や補助者の入力を受け付けることによって取得することができる。図11は、参考例における、既往歴情報に関する設定画面の例を示す図である。 Medical history information can be obtained, for example, by receiving input from a doctor or an assistant before starting an examination. FIG. 11 is a diagram showing an example of a setting screen regarding past history information in the reference example.

情報取得部111は、表示制御部114を介して表示モニタ120に被検者既往歴の設定に関する設定画面を表示する。具体的には、「既往歴の設定」と示すタイトル124と共に、選択可能な既往歴を示す選択項目125を表示する。それぞれの選択項目125の先頭には、ラジオボタン129が配置されており、ユーザは、これをタップすることにより当該選択項目125を選択することができる。情報取得部111は、このようなユーザインタフェースを通じてユーザから被検者の既往歴情報を取得する。なお、情報取得部111は、例えば被検者情報が記録されている電子カルテシステム端末からネットワークを介して既往歴情報を取得してもよい。 The information acquisition unit 111 displays a setting screen for setting the subject's past history on the display monitor 120 via the display control unit 114 . Specifically, along with a title 124 indicating "setting of past history", selection items 125 indicating selectable past histories are displayed. A radio button 129 is arranged at the head of each selection item 125, and the user can select the selection item 125 by tapping this. The information acquisition unit 111 acquires the past history information of the subject from the user through such a user interface. Note that the information acquisition unit 111 may acquire past medical history information via a network, for example, from an electronic medical record system terminal in which subject information is recorded.

第2の変形例は、機種情報と診断画像から入力データを生成した上述の実施形態に対し、さらに既往歴情報を入力データへ加えるものである。このような入力データに対応する分析用ニューラルネットワークは、既往歴情報を含めて学習することにより作成される。図12は、第2の変形例における、分析用ニューラルネットワーク151”(以下、「分析用NN151”」と記す)を生成するための学習作業を説明する図である。 In the second modification, past history information is added to the input data in addition to the above-described embodiment in which input data is generated from model information and diagnostic images. A neural network for analysis corresponding to such input data is created by learning including anamnesis information. FIG. 12 is a diagram for explaining the learning work for generating the analysis neural network 151″ (hereinafter referred to as “analysis NN 151″”) in the second modification.

分析用NN151”の入力データは、機種情報、既往歴情報および診断画像が一元化されたデータである。本変形例においては、機種情報は、内視鏡システム200において画像処理を実行するシステム本体211に関する本体情報と、システム本体211へ装着されるカメラユニット210に関するカメラ情報によって構成される。また、既往歴情報は、上述のように、内視鏡システムによって撮像される検査部位の撮像画像に画像の質の差異を生じさせ得る既往歴を対象とする。この機種情報と既往歴情報を符号化して診断画像の画像データに付加させたデータが、分析用NN151”の入力データとなる。 The input data of the analysis NN 151″ is data in which model information, medical history information, and diagnostic images are unified. and camera information about the camera unit 210 attached to the system main body 211. As described above, the past history information is an image of the inspection site captured by the endoscope system. The model information and the past history information are coded and added to the image data of the diagnostic image to be the input data of the analysis NN 151''.

教師データは、上記の入力データに対してアノテーションデータが付与されたものである。アノテーションデータは、図4を用いて説明したアノテーションデータと同様に、診断画像中にがんの病変領域が存在するかしないかの正解情報と、存在する場合にはその病変領域の領域情報である。このように準備された教師データによって学習された分析用NN151”は、入力データが入力されると、入力データの一部である診断画像にがんが存在する確率と、その判断をした領域(例えば左上座標Aの座標値と右下座標Bの座標値)を出力する。
このとき、学習済みモデルとしての分析用NN151”は、機種に応じた診断画像の質の違い、および被検者の既往歴に応じた診断画像の質の違いを踏まえたうえの診断結果を出力することができる。すなわち、機種情報および既往歴情報の違いを含めて学習された分析用NN151”は、内視鏡システムの機種の違いや被検者の既往歴の違いによらず、同一の診断結果を出力することが期待できる。
The teacher data is obtained by adding annotation data to the above input data. Similar to the annotation data described with reference to FIG. 4, the annotation data is correct information as to whether or not a cancer lesion area exists in the diagnostic image, and if it exists, area information of the lesion area. . When the input data is input, the analysis NN 151'' learned by the teacher data prepared in this way obtains the probability that cancer exists in the diagnostic image that is a part of the input data, and the region ( For example, the coordinate value of the upper left coordinate A and the coordinate value of the lower right coordinate B) are output.
At this time, the analysis NN 151 ″ as a learned model outputs diagnostic results based on the difference in diagnostic image quality depending on the model and the difference in diagnostic image quality depending on the patient's medical history. That is, the analysis NN 151 ″ that has been learned including differences in model information and past history information can be the same regardless of the model of the endoscope system or the patient's past history. It can be expected to output diagnostic results.

図13は、第2の変形例における、診断結果を表示するまでの処理を説明する図である。ここでは、図3で説明した処理と相違する点を説明する。 FIG. 13 is a diagram illustrating processing up to display of diagnosis results in the second modification. Here, differences from the processing described with reference to FIG. 3 will be described.

診断部113は、分析用NN151”の仕様等に応じて、撮像画像121を調整して診断画像を生成する。また、診断部113は、情報取得部111が取得した内視鏡システム200の機種情報と被検者の既往歴情報を情報取得部111から受け取る。そして、機種情報、既往歴情報および診断画像を一元化して入力データを生成し、記憶部150から読み出した分析用NN151”へ入力する。分析用NN151”は、画像内に存在する病変の疑いがある領域をその推定確率と共に診断結果として出力する。診断部113は、診断結果を表示制御部114へ引き渡す。 The diagnostic unit 113 adjusts the captured image 121 according to the specifications of the analysis NN 151″ and generates a diagnostic image. Information and the patient's past history information are received from the information acquisition unit 111. Then, the model information, the past history information, and the diagnostic image are unified to generate input data, which is input to the analysis NN 151'' read out from the storage unit 150. do. The analysis NN 151 ″ outputs regions in the image that are suspected to be lesions, together with their estimated probabilities, as diagnostic results.

表示制御部114は、画像取得部112から受け取った撮像画像121の撮像画像データ、診断部113から受け取った診断結果、および診断に適用した機種情報および既往歴情報を、予め設定された表示基準に従って展開、配列して表示モニタ120へ表示する。診断に適用した既往歴情報は、同じく機種情報と共に適用情報123としてCG指標122の下部に配置して表す。 The display control unit 114 displays the captured image data of the captured image 121 received from the image acquisition unit 112, the diagnosis result received from the diagnosis unit 113, and the model information and medical history information applied to the diagnosis according to preset display standards. It is developed, arranged, and displayed on the display monitor 120 . The anamnesis information applied to the diagnosis is similarly displayed as the application information 123 together with the model information arranged below the CG index 122 .

図14は、第2の変形例における、演算処理部の処理手順を説明するフロー図である。図6に示すフロー図と同様の処理ステップについては、同一のステップ番号を付すことにより、その説明を省略する。 FIG. 14 is a flowchart for explaining the processing procedure of the arithmetic processing unit in the second modification. Processing steps similar to those in the flow chart shown in FIG. 6 are given the same step numbers, and descriptions thereof are omitted.

情報取得部111は、ステップS101で機種情報を取得したら、続いてステップS301で既往歴情報を取得する。具体的には、図11を用いて説明したユーザインタフェースを通じてユーザから被検者の既往歴情報を取得する。既往歴情報の取得が完了したらステップS102へ進む。なお、機種情報の取得と既往歴情報の取得の順番は逆であってもよく、並列して取得しても構わない。 After acquiring the model information in step S101, the information acquiring unit 111 acquires past history information in step S301. Specifically, the medical history information of the subject is obtained from the user through the user interface described with reference to FIG. When acquisition of past history information is completed, the process proceeds to step S102. The order of obtaining the model information and the obtaining of the medical history information may be reversed, or they may be obtained in parallel.

診断部113は、ステップS103で画像取得部112から撮像画像121を受け取ると、ステップS304で、撮像画像121から診断画像を生成すると共に、当該診断画像と機種情報および既往歴情報とを一元化して入力データを生成する。 Upon receiving the captured image 121 from the image acquiring unit 112 in step S103, the diagnostic unit 113 generates a diagnostic image from the captured image 121 in step S304, and unifies the diagnostic image, model information, and past history information. Generate input data.

診断部113は、ステップS305へ進み、記憶部150から読み出した分析用NN151”へ生成した入力データを入力して、診断画像内に病変の疑いがある領域とその推定確率を演算させ、出力させる。診断部113は、分析用NN151”が出力した診断結果を、診断に適用した機種情報および既往歴情報と共に、表示制御部114へ引き渡す。 The diagnosis unit 113 advances to step S305, inputs the generated input data to the analysis NN 151″ read out from the storage unit 150, and causes the area suspected of being a lesion in the diagnostic image and its estimated probability to be calculated and output. The diagnosis unit 113 transfers the diagnosis result output by the analysis NN 151″ to the display control unit 114 together with the model information and the medical history information applied to the diagnosis.

以上説明した参考例および第2の変形例は、第1の変形例のように、既往歴情報に応じた標準化処理を施すことにより標準化された標準化画像としての診断画像を生成し、第1の変形例で用いた分析用NN151’へ入力するように構成することもできる。この場合、例えば、既往歴の有無の違いによって生じる撮像画像の質の違いを矯正する画像フィルタを対象となる既往歴ごとに事前に用意しておく。そして、検査段階において既往歴情報として例えば「胃潰瘍あり」の情報を取得した場合には、診断部113は、胃潰瘍の経験によって生じる画像の特徴を打ち消すための胃潰瘍用画像フィルタを撮像画像121に適用して標準化画像に変換する。 In the reference example and the second modified example described above, as in the first modified example, a diagnostic image is generated as a standardized image standardized by performing standardization processing according to the medical history information, and the first It can also be configured to input to the analysis NN 151' used in the modified example. In this case, for example, an image filter for correcting the difference in the quality of the captured image caused by the presence or absence of a medical history is prepared in advance for each medical history. Then, in the examination stage, when information such as “gastric ulcer present” is acquired as past history information, the diagnostic unit 113 applies an image filter for gastric ulcer to the captured image 121 for canceling the characteristics of the image caused by the experience of gastric ulcer. and convert it to a normalized image.

以上説明した本実施形態においては、内視鏡システム200と検査支援装置100が接続ケーブル250を介して接続される場合を想定したが、有線接続でなく無線接続であっても構わない。また、以上説明した本実施形態においては、内視鏡システム200が備えるカメラユニット210が軟性内視鏡であることを想定して説明したが、カメラユニット210が硬性内視鏡であっても、検査支援装置100の構成や処理手順に違いは何ら生じない。なお、本実施形態における診断部による診断は、あくまで医師の診断を補助するものであり、最終的な決定は医師によって行われる。 In the present embodiment described above, it is assumed that the endoscope system 200 and the examination support apparatus 100 are connected via the connection cable 250, but wireless connection instead of wired connection may be used. In the above-described embodiment, the camera unit 210 included in the endoscope system 200 is assumed to be a flexible endoscope, but even if the camera unit 210 is a rigid endoscope, There is no difference in the configuration or processing procedure of the examination support apparatus 100 . It should be noted that the diagnosis by the diagnosis unit in the present embodiment only assists the doctor's diagnosis, and the final decision is made by the doctor.

以上説明した本実施形態においては、検査支援装置100が、内視鏡システム200から機種情報を取得する例を示したが、検査支援装置100は、機種情報に加えて、撮像情報(例えば、撮像時のカメラユニット210のズーム倍率、光源強度、およびシャープネスの少なくとも1つ)を内視鏡システム200から取得してもよい。この場合、分析用NN151は、撮像情報を含む学習用データセットを用いて学習された学習済みモデルである。診断部113は、情報取得部111が取得した機種情報及び撮像情報と画像取得部112が取得した撮像画像とに基づいて入力データを生成し、分析用NN151へ入力することにより被検者の体内の診断を行う。 In the present embodiment described above, an example in which the examination support apparatus 100 acquires model information from the endoscope system 200 has been shown. At least one of the zoom magnification, light source intensity, and sharpness of the camera unit 210 at the time may be obtained from the endoscope system 200 . In this case, the analysis NN 151 is a trained model that has been trained using a learning data set containing imaging information. The diagnosis unit 113 generates input data based on the model information and imaging information acquired by the information acquisition unit 111 and the captured image acquired by the image acquisition unit 112, and inputs the input data to the analysis NN 151. make a diagnosis.

また、以上説明した本実施形態において、診断結果を示すCG指標122は、病変であると推定される推定確率の数値を表示したが、診断結果の表示態様はこれに限らない。例えば、閾値以上の推定確率を出力した場合に、診断領域枠121aを強調表示するようにしてもよい。この場合、CG指標122は、その表示を省いてもよく、あるいは、単に閾値以上の結果が出力されたことを示す警告表示でもよい。 Further, in the present embodiment described above, the CG index 122 indicating the diagnosis result displays the numerical value of the estimated probability of being a lesion, but the display mode of the diagnosis result is not limited to this. For example, the diagnostic region frame 121a may be highlighted when an estimated probability equal to or greater than a threshold is output. In this case, the display of the CG index 122 may be omitted, or simply a warning display indicating that a result exceeding the threshold has been output.

100…検査支援装置、101…装置本体、110…演算処理部、111…情報取得部、112…画像取得部、113…診断部、114…表示制御部、120…表示モニタ、121…撮像画像、121a…診断領域枠、122…CG指標、123…適用情報、124…タイトル、125…選択項目、126…選択指標、127…プルダウンボタン、128…スクロール指標、129…ラジオボタン、130…入出力インタフェース、140…入力デバイス、150…記憶部、151、151’、151”、152…分析用ニューラルネットワーク、200…内視鏡システム、210…カメラユニット、211…システム本体、220…システムモニタ、221…撮像画像、222…検査情報、225…信号再生画像、250…接続ケーブル DESCRIPTION OF SYMBOLS 100... Examination support apparatus, 101... Apparatus main body, 110... Arithmetic processing part, 111... Information acquisition part, 112... Image acquisition part, 113... Diagnosis part, 114... Display control part, 120... Display monitor, 121... Captured image, 121a... Diagnosis area frame, 122... CG index, 123... Application information, 124... Title, 125... Selection item, 126... Selection index, 127... Pull-down button, 128... Scroll index, 129... Radio button, 130... Input/output interface , 140... Input device 150... Storage unit 151, 151', 151", 152... Analysis neural network 200... Endoscope system 210... Camera unit 211... System body 220... System monitor 221... Captured image 222 Inspection information 225 Signal reproduced image 250 Connection cable

Claims (12)

被検者の体内に挿通されるカメラユニットを備える内視鏡システムに接続して利用される検査支援装置であって、
前記内視鏡システムの機種情報を取得する情報取得部と、
前記カメラユニットで撮像された撮像画像を取得する画像取得部と、
前記情報取得部が取得した前記機種情報と前記画像取得部が取得した前記撮像画像とに基づいて入力データを生成し、学習済みモデルへ入力することにより前記体内の診断を行う診断部と、
前記診断部による診断結果を出力する出力部と
を備える検査支援装置。
An examination support device that is used in connection with an endoscope system that includes a camera unit that is inserted into the body of a subject,
an information acquisition unit that acquires model information of the endoscope system;
an image acquisition unit that acquires an image captured by the camera unit;
a diagnosis unit that generates input data based on the model information acquired by the information acquisition unit and the captured image acquired by the image acquisition unit, and inputs the input data to a trained model to diagnose the interior of the body;
and an output unit for outputting a diagnosis result by the diagnosis unit.
前記学習済みモデルは、複数の内視鏡システムのいずれかであることを示す機種情報とその内視鏡システムから出力された撮像画像とが対応付けられた学習データに基づいて学習されたものであり、
前記診断部は、前記情報取得部が取得した前記機種情報と前記画像取得部が取得した前記撮像画像とを対応付けて前記入力データを生成し、前記学習済みモデルへ入力することにより前記体内の診断を行う請求項1に記載の検査支援装置。
The learned model is learned based on learning data in which model information indicating one of a plurality of endoscope systems and captured images output from the endoscope system are associated with each other. can be,
The diagnosis unit generates the input data by associating the model information acquired by the information acquisition unit with the captured image acquired by the image acquisition unit, and inputs the input data to the trained model, so that the inside of the body The examination support device according to claim 1, which performs diagnosis.
前記学習済みモデルは、複数の内視鏡システムのそれぞれから出力された撮像画像に対してその内視鏡システムの機種に依存する特性を除去する標準化処理を施した標準化画像を学習データとして学習されたものであり、
前記診断部は、前記情報取得部が取得した前記機種情報に基づく前記標準化処理を前記画像取得部が取得した前記撮像画像に対して施すことにより前記入力データを生成し、前記学習済みモデルへ入力することにより前記体内の診断を行う請求項1に記載の検査支援装置。
The trained model is learned by using standardized images obtained by standardizing captured images output from each of a plurality of endoscope systems and removing characteristics dependent on the model of the endoscope system as learning data. and
The diagnosis unit generates the input data by applying the standardization processing based on the model information acquired by the information acquisition unit to the captured image acquired by the image acquisition unit, and inputs the input data to the trained model. 2. The examination support apparatus according to claim 1, wherein the inside of the body is diagnosed by performing the examination.
前記情報取得部が取得する前記機種情報は、前記内視鏡システムにおいて画像処理を実行するシステム本体に関する本体情報と、前記システム本体へ装着される前記カメラユニットに関するカメラ情報を含む請求項1に記載の検査支援装置。 2. The apparatus according to claim 1, wherein the model information acquired by the information acquisition unit includes main body information about a system main body that executes image processing in the endoscope system, and camera information about the camera unit attached to the system main body. inspection support device. 前記カメラ情報は、前記カメラユニットの機種に関する情報、および前記カメラユニットの仕様に関する情報の少なくとも1つを含む請求項4に記載の検査支援装置。 5. The inspection support apparatus according to claim 4, wherein the camera information includes at least one of information regarding a model of the camera unit and information regarding specifications of the camera unit. 前記情報取得部は、ユーザによる指定を受け付けることにより前記機種情報を取得する請求項1に記載の検査支援装置。 2. The examination support apparatus according to claim 1, wherein the information acquisition unit acquires the model information by receiving a designation by a user. 前記情報取得部は、前記被検者の既往歴に関する既往歴情報を併せて取得し、
前記診断部は、前記情報取得部が取得した前記機種情報および前記既往歴情報と、前記画像取得部が取得した前記撮像画像とに基づいて前記体内の診断を行う請求項1に記載の検査支援装置。
The information acquisition unit also acquires past history information related to the past history of the subject,
The examination support according to claim 1, wherein the diagnosis unit diagnoses the inside of the body based on the model information and the medical history information acquired by the information acquisition unit and the captured image acquired by the image acquisition unit. Device.
前記画像取得部は、前記内視鏡システムから連続的に取得した画像信号から生成する複数の再生画像の画像間の差分量に基づいて前記再生画像のうち前記撮像画像に対応する画像領域を決定し、決定した前記画像領域に基づいて前記撮像画像を生成し取得する請求項1に記載の検査支援装置。 The image acquisition unit determines an image region corresponding to the captured image among the reproduced images based on a difference amount between images of a plurality of reproduced images generated from image signals continuously acquired from the endoscope system. 2. The examination support apparatus according to claim 1, wherein the captured image is generated and obtained based on the determined image area. 前記情報取得部は、前記撮像画像から前記機種情報を取得する請求項1に記載の検査支援装置。 The examination support apparatus according to claim 1, wherein the information acquisition unit acquires the model information from the captured image. 前記情報取得部は、前記内視鏡システムの撮像情報を更に取得し、
前記診断部は、前記情報取得部が取得した前記機種情報および前記撮像情報の組合せと、前記画像取得部が取得した前記撮像画像とに基づいて前記体内の診断を行う請求項1に記載の検査支援装置。
The information acquisition unit further acquires imaging information of the endoscope system,
The examination according to claim 1, wherein the diagnosis unit diagnoses the interior of the body based on a combination of the model information and the imaging information acquired by the information acquisition unit and the captured image acquired by the image acquisition unit. support equipment.
被検者の体内に挿通されるカメラユニットを備える内視鏡システムに接続して利用される検査支援装置を用いた検査支援方法であって、
前記内視鏡システムの機種情報を取得する情報取得ステップと、
前記カメラユニットで撮像された撮像画像を取得する画像取得ステップと、
前記情報取得ステップで取得した前記機種情報と前記画像取得ステップで取得した前記撮像画像とに基づいて入力データを生成し、学習済みモデルへ入力することにより前記体内の診断を行う診断ステップと、
前記診断ステップによる診断結果を出力する出力ステップと
を有する検査支援方法。
An examination support method using an examination support apparatus that is used in connection with an endoscope system having a camera unit that is inserted into the body of a subject,
an information acquisition step of acquiring model information of the endoscope system;
an image acquisition step of acquiring a captured image captured by the camera unit;
a diagnosis step of generating input data based on the model information acquired in the information acquisition step and the captured image acquired in the image acquisition step, and inputting the input data to a trained model to diagnose the interior of the body;
and an output step of outputting a diagnosis result obtained by the diagnosis step.
被検者の体内に挿通されるカメラユニットを備える内視鏡システムに接続して利用される検査支援装置を制御する検査支援プログラムであって、
前記内視鏡システムの機種情報を取得する情報取得ステップと、
前記カメラユニットで撮像された撮像画像を取得する画像取得ステップと、
前記情報取得ステップで取得した前記機種情報と前記画像取得ステップで取得した前記撮像画像とに基づいて入力データを生成し、学習済みモデルへ入力することにより前記体内の診断を行う診断ステップと、
前記診断ステップによる診断結果を出力する出力ステップと
をコンピュータに実行させる検査支援プログラム。
An examination support program for controlling an examination support apparatus used in connection with an endoscope system having a camera unit inserted into the body of a subject,
an information acquisition step of acquiring model information of the endoscope system;
an image acquisition step of acquiring a captured image captured by the camera unit;
a diagnosis step of generating input data based on the model information acquired in the information acquisition step and the captured image acquired in the image acquisition step, and inputting the input data to a trained model to diagnose the interior of the body;
and an output step of outputting a diagnosis result obtained by the diagnosis step.
JP2023003160A 2022-01-20 2023-01-12 Inspection support device, inspection support method, and inspection support program Pending JP2023106327A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022007215 2022-01-20
JP2022007215 2022-01-20

Publications (1)

Publication Number Publication Date
JP2023106327A true JP2023106327A (en) 2023-08-01

Family

ID=87473261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023003160A Pending JP2023106327A (en) 2022-01-20 2023-01-12 Inspection support device, inspection support method, and inspection support program

Country Status (1)

Country Link
JP (1) JP2023106327A (en)

Similar Documents

Publication Publication Date Title
JP4493386B2 (en) Image display device, image display method, and image display program
JP7420876B2 (en) Endoscope related business system
JPWO2014061553A1 (en) Image processing apparatus and image processing method
WO2006123455A1 (en) Image display device
JP2009039449A (en) Image processor
KR100751160B1 (en) Medical image recording system
JP4554647B2 (en) Image display device, image display method, and image display program
JP2008119259A (en) Endoscope insertion shape analysis system
JP4547401B2 (en) Image display device, image display method, and image display program
JP4616076B2 (en) Image display device
JP7289241B2 (en) Filing device, filing method and program
US20220361739A1 (en) Image processing apparatus, image processing method, and endoscope apparatus
JP2005143782A (en) Medical image filing system
JP2023106327A (en) Inspection support device, inspection support method, and inspection support program
JP2007307397A (en) Image display device, image display method and image display program
WO2022163514A1 (en) Medical image processing device, method, and program
JPWO2020070818A1 (en) Measuring equipment, measuring methods, and programs
JPWO2019039252A1 (en) Medical image processing apparatus and medical image processing method
CN112969402B (en) Endoscope system, image processing apparatus for endoscope system, and image processing method
JPH119547A (en) Endoscope system
WO2023175916A1 (en) Medical assistance system and image display method
WO2022191058A1 (en) Endoscopic image processing device, method, and program
JP7264407B2 (en) Colonoscopy observation support device for training, operation method, and program
WO2022270582A1 (en) Examination assistance device, examination assistance method, and examination assistance program
JP7391113B2 (en) Learning medical image data creation device, learning medical image data creation method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230125