JP2021048928A - Endoscopic image processing system - Google Patents

Endoscopic image processing system Download PDF

Info

Publication number
JP2021048928A
JP2021048928A JP2019172326A JP2019172326A JP2021048928A JP 2021048928 A JP2021048928 A JP 2021048928A JP 2019172326 A JP2019172326 A JP 2019172326A JP 2019172326 A JP2019172326 A JP 2019172326A JP 2021048928 A JP2021048928 A JP 2021048928A
Authority
JP
Japan
Prior art keywords
image
model
endoscope
endoscopic
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019172326A
Other languages
Japanese (ja)
Inventor
智大 下田
Tomohiro Shimoda
智大 下田
賢 植木
Masaru Ueki
賢 植木
政至 藤井
Masashi Fujii
政至 藤井
敦朗 古賀
Atsuro Koga
敦朗 古賀
上原 一剛
Kazutaka Uehara
一剛 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tottori University NUC
Micoto Technology Inc
Original Assignee
Tottori University NUC
Micoto Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tottori University NUC, Micoto Technology Inc filed Critical Tottori University NUC
Priority to JP2019172326A priority Critical patent/JP2021048928A/en
Publication of JP2021048928A publication Critical patent/JP2021048928A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Image Analysis (AREA)

Abstract

To provide a technique capable of assisting an endoscopic operation using an endoscopic image.SOLUTION: An endoscopic image processing system comprises output processing means which, on the basis of area designation data acquired by giving an acquired endoscopic image to a learned model, outputs a display obtained by adding guide information of an endoscope relating to an image area designated by the area designation data within the endoscopic image to the endoscopic image. The learned model machine-learned by using a plurality of pieces of teacher data obtained by respectively associating a correct answer of the area designation data with each endoscopic image for teachers.SELECTED DRAWING: Figure 3

Description

本発明は、内視鏡で撮像された画像(内視鏡画像と表記する)を処理する技術に関する。 The present invention relates to a technique for processing an image captured by an endoscope (referred to as an endoscopic image).

医療現場において内視鏡は広く普及しており、上部消化管内視鏡、大腸内視鏡、気管支鏡、胸腔鏡、血管内視鏡、カプセル内視鏡など、臓器や使用目的に応じて多くの種類の内視鏡が提供されている。また、臓器内の映像を見ることができるだけでなく、組織採取やポリープ切除等を可能とする内視鏡もある。 Endoscopy is widely used in the medical field, and there are many types of endoscopes such as upper gastrointestinal endoscope, colonoscope, bronchoscope, thoracoscope, vascular endoscope, capsule endoscope, etc., depending on the organ and purpose of use. A type of endoscope is provided. In addition, there are endoscopes that not only allow viewing of images inside organs, but also enable tissue collection, polyp resection, and the like.

内視鏡検査では、臓器内を損傷させることなく内視鏡の挿入部を臓器内に挿入させ、病変を逃さず発見しなければならないところ、そのような内視鏡手技には高度な技能が必要となる。
そこで、下記特許文献1では、各病理タイプに分類された学習用画像群を保存しておき、得られた内視鏡画像の識別対象領域の画像とその学習用画像群との特徴量マッチングによって各病理タイプを識別する内視鏡画像診断支援システムが提案されている。
In endoscopy, the insertion part of the endoscope must be inserted into the organ without damaging the inside of the organ, and the lesion must be detected without missing it. You will need it.
Therefore, in Patent Document 1 below, a learning image group classified into each pathological type is stored, and the feature amount matching between the image of the identification target region of the obtained endoscopic image and the learning image group is performed. An endoscopic diagnostic imaging support system that identifies each pathological type has been proposed.

特開2015−146970号公報Japanese Unexamined Patent Publication No. 2015-146970

上述のシステムによれば、内視鏡画像における病変の発見精度を向上させることができる。
しかしながら、病変が発見可能に写る内視鏡画像を撮像するには、内視鏡を適切に動作させる必要がある。
一方で、研修医が内視鏡を適切に動作させる手技を習得しようとした場合、指導医の下で訓練を受けなければならず、指導医の負担の増加などの問題が生じている。また、医師が自身で操作する内視鏡の動作の良し悪しや自身の内視鏡手技の習熟度を自己判定できないといった問題もある。
According to the above-mentioned system, the accuracy of finding lesions in endoscopic images can be improved.
However, in order to capture an endoscopic image in which a lesion can be detected, it is necessary to operate the endoscope properly.
On the other hand, when a trainee tries to learn a technique for operating an endoscope properly, he / she must receive training under the guidance doctor, which causes problems such as an increase in the burden on the guidance doctor. In addition, there are problems that the operation of the endoscope operated by the doctor by himself / herself is good or bad and that the proficiency level of his / her own endoscopic technique cannot be judged by himself / herself.

本発明は、このような事情に鑑みてなされたものであり、内視鏡画像を用いた内視鏡動作の支援を可能とする技術を提供する。 The present invention has been made in view of such circumstances, and provides a technique capable of supporting endoscopic operation using an endoscopic image.

本発明の一側面に係る内視鏡画像処理システムは、以下の構成を採用する。即ち、当該内視鏡画像処理システムは、管腔臓器内の内視鏡により撮像された内視鏡画像を取得する画像取得手段と、学習済みモデルに対して当該取得された内視鏡画像を与えることで、その内視鏡画像に対応する領域指定データを取得するモデル処理手段と、その取得された領域指定データに基づいて、当該内視鏡画像内のその領域指定データで指定される画像領域に関する内視鏡のガイド情報をその内視鏡画像に付加した表示を出力する出力処理手段とを備えており、当該学習済みモデルは、各教師用内視鏡画像に対して領域指定データの正解をそれぞれ関連付けた複数の教師データを用いて機械学習されている。
当該内視鏡画像処理システムは、一つの装置であってもよいし、複数の装置であってもよい。
また、学習済みモデルは、当該内視鏡画像処理システム内に設けられていてもよいし、外部に設けられていてもよい。
また、当該内視鏡画像処理システムでの処理対象となる内視鏡画像を撮像する内視鏡は、上部消化管内視鏡、大腸内視鏡、気管支鏡、胸腔鏡、血管内視鏡、カプセル内視鏡などであり、限定されない。
内視鏡画像に写る管腔臓器は、人体模型における臓器を模した臓器モデルであってもよいし、生体の実管腔臓器であってもよい。
The endoscopic image processing system according to one aspect of the present invention adopts the following configuration. That is, the endoscopic image processing system obtains an image acquisition means for acquiring an endoscopic image captured by an endoscope in a lumen organ, and the acquired endoscopic image for a trained model. By giving, a model processing means for acquiring the area designation data corresponding to the endoscope image, and an image designated by the area designation data in the endoscope image based on the acquired area designation data. It is equipped with an output processing means that outputs a display in which the guide information of the endoscope regarding the region is added to the endoscope image, and the trained model is the region designation data for each teacher's endoscope image. Machine learning is performed using multiple teacher data in which the correct answers are associated with each other.
The endoscopic image processing system may be one device or a plurality of devices.
Further, the trained model may be provided in the endoscopic image processing system or may be provided outside.
In addition, the endoscopes that capture the endoscopic images to be processed by the endoscopic image processing system are upper gastrointestinal endoscopy, colonoscope, bronchoscope, thoracic endoscope, vascular endoscope, and capsule. It is an endoscope, etc., and is not limited.
The luminal organ shown in the endoscopic image may be an organ model that imitates an organ in a human body model, or may be an actual luminal organ of a living body.

本発明によれば、内視鏡画像を用いた内視鏡動作の支援を可能とする技術を提供することができる。 According to the present invention, it is possible to provide a technique capable of supporting the operation of an endoscope using an endoscopic image.

本実施形態に係る内視鏡手技トレーナーシステムの一部の外観を示す図である。It is a figure which shows the appearance of a part of the endoscopic technique trainer system which concerns on this embodiment. 本実施形態に係る内視鏡手技トレーナーシステムの制御構成を概念的に示す図である。It is a figure which conceptually shows the control structure of the endoscopic technique trainer system which concerns on this embodiment. 制御部により実現されるソフトウェア構成を概念的に示すブロック図である。It is a block diagram which conceptually shows the software structure realized by a control part. ポジショニングAIモデルで用いられる領域位置データを説明するための食道、胃及び十二指腸の模式図である。It is a schematic diagram of the esophagus, stomach and duodenum for explaining the region position data used in the positioning AI model. ポジショニングAIモデルで用いられる領域方向データを説明するための胃の輪切りの断面模式図である。FIG. 5 is a schematic cross-sectional view of a slice of the stomach for explaining the region orientation data used in the positioning AI model. 第一ガイドAIモデルで用いられる第一領域指定データを説明するための図である。It is a figure for demonstrating the 1st region designation data used in the 1st guide AI model. 第二ガイドAIモデルで推論される第二領域指定データを説明するための図である。It is a figure for demonstrating the 2nd region designation data inferred by the 2nd guide AI model. 内視鏡のガイド情報の表示例を示す図である。It is a figure which shows the display example of the guide information of an endoscope. 観察ポイントのガイド表示の例を示す図である。It is a figure which shows the example of the guide display of an observation point. 制御部の動作例を示すフローチャートである。It is a flowchart which shows the operation example of a control part. 他の実施形態に係る内視鏡システムの制御構成を概念的に示す図である。It is a figure which conceptually shows the control structure of the endoscope system which concerns on other embodiment.

以下、本発明の実施形態について図面を用いて説明する。以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments listed below are examples, and the present invention is not limited to the configurations of the following embodiments.

以下、本発明の実施形態としての内視鏡手技トレーナーシステムについて説明する。
図1は、本実施形態に係る内視鏡手技トレーナーシステムの一部の外観を示す図である。
図2は、本実施形態に係る内視鏡手技トレーナーシステムの制御構成を概念的に示す図である。
本実施形態に係る内視鏡手技トレーナーシステム(以降、本システムと表記する)1は、主に、人体模型3、入出力パネル5、制御部10などにより構成されており、内視鏡手技の個人学習及び個人訓練を可能とする。具体的には、本システム1では、訓練を受ける人(以降、トレーニーと表記する)は、人体模型3を用いて内視鏡手技を実際に訓練しながら、入出力パネル5等に出力されるガイド情報を参照することで内視鏡手技を自主学習することができる。
このように、本システム1は、研修医のようなトレーニーに対して内視鏡手技の指導を行うことができるため、指導医の負担を軽減することができる。
以下には、主に、上部消化管内視鏡の手技に関する構成を中心に説明するものとする。但し、本システム1により自主学習及び自主訓練が可能となる医療手技は、大腸内視鏡検査、小腸内視鏡検査、胆・膵内視鏡検査、これらの内視鏡治療の手技も含まれるし、その他の挿管に関する手技も含まれ得る。
Hereinafter, an endoscopic procedure trainer system as an embodiment of the present invention will be described.
FIG. 1 is a diagram showing the appearance of a part of the endoscopic procedure trainer system according to the present embodiment.
FIG. 2 is a diagram conceptually showing a control configuration of the endoscopic procedure trainer system according to the present embodiment.
The endoscopic procedure trainer system (hereinafter referred to as this system) 1 according to the present embodiment is mainly composed of a human body model 3, an input / output panel 5, a control unit 10, and the like. Enables individual learning and individual training. Specifically, in this system 1, a person to be trained (hereinafter referred to as a trainee) is output to an input / output panel 5 or the like while actually training an endoscopic technique using a human body model 3. By referring to the guide information, the endoscopic technique can be self-taught.
In this way, the system 1 can instruct trainees such as residents in endoscopic procedures, so that the burden on the instructor can be reduced.
In the following, we will mainly explain the configuration of the upper gastrointestinal endoscopy procedure. However, the medical procedures that enable self-learning and self-training by this system 1 include colonoscopy, enteroscopy, biliary / pancreatic endoscopy, and these endoscopic treatment techniques. , Other intubation procedures may also be included.

〔人体模型〕
人体模型3は、訓練を受ける人(以降、トレーニーと表記する)により操作される人型モデルであり、人体外形及び内臓を模した形状を有している。本実施形態では、人体模型3は、図1に示されるように、人体全体の外形を模擬していると共に、内臓として、口腔、鼻腔、咽頭、喉頭、気管、食道、気管支、胃、及び十二指腸といった管腔臓器の形状を内部で模擬している。
人体模型3は、訓練目的の手技に対応する姿勢で台座部上に載置される。例えば、気管挿管の訓練時には、人体模型3は仰向け姿勢で台座部上に載置され、内視鏡手技の訓練時には、図1に示されるように、人体模型3は横向き姿勢で台座部上に載置される。
[Human model]
The human body model 3 is a humanoid model operated by a trained person (hereinafter referred to as a trainee), and has a shape imitating the outer shape and internal organs of the human body. In the present embodiment, as shown in FIG. 1, the human body model 3 simulates the outer shape of the entire human body and, as internal organs, the oral cavity, nasal cavity, pharynx, larynx, trachea, esophagus, bronchus, stomach, and duodenum. The shape of the nasal organ is simulated internally.
The human body model 3 is placed on the pedestal portion in a posture corresponding to the procedure for training purposes. For example, during training for tracheal intubation, the mannequin 3 is placed on the pedestal in a lying position, and during training for endoscopic procedures, the mannequin 3 is placed on the pedestal in a sideways position, as shown in FIG. It will be placed.

人体模型3の体外表面は、人体外形を模した皮膚シートに覆われており、頭部にはウィッグが装着されている。
皮膚シートは、シリコーンゴム等の柔軟性を有する素材により形成されている。ここでの柔軟性とは、折り曲げたとしても破断、損傷などを生じ難い特性を意味し、伸縮性及び弾性のいずれか一方又は両方の特性を含んでいてもよい。
The outer surface of the human body model 3 is covered with a skin sheet that imitates the outer shape of the human body, and a wig is attached to the head.
The skin sheet is made of a flexible material such as silicone rubber. The term "flexibility" as used herein means a property that is unlikely to break or be damaged even when bent, and may include one or both of stretchability and elasticity.

人体模型3における皮膚シートの内側の内部構造は、体内器官構造や骨格ベース部などにより構成される。骨格ベース部は、人体模型3の形状の基礎となる骨組みを形成する構成要素群であり、金属や合成樹脂などの被訓練者による操作に耐え得る強度及び硬度を有する材質で形成される。骨格ベース部には、頭蓋骨、頸椎等に相当する骨格部材が含まれる。
体内器官構造は、管腔臓器を模した形状を有する構成要素群であり、任意の位置及び方法で骨格ベース部に連結固定されている。体内器官構造には、体内造形部(図示せず)が含まれる。
The internal structure inside the skin sheet in the human model 3 is composed of an internal organ structure, a skeleton base, and the like. The skeleton base portion is a group of components forming a framework that forms the basis of the shape of the human body model 3, and is formed of a material having strength and hardness that can withstand operations by a trainee, such as metal and synthetic resin. The skeletal base includes skeletal members corresponding to the skull, cervical spine, and the like.
The internal organ structure is a group of components having a shape imitating a luminal organ, and is connected and fixed to a skeletal base portion at an arbitrary position and method. The internal organ structure includes an internal modeling part (not shown).

本実施形態において、体内造形部は、口腔、鼻腔、口腔、咽頭、喉頭、気管、食道、胃、十二指腸を模擬した口腔モデル、鼻腔モデル、咽頭モデル、喉頭モデル、気管モデル、食道モデル、胃モデル、及び十二指腸モデルを含む。
このような体内造形部は、シリコーンゴムのような生体の管腔臓器に近い柔軟性を有する素材により形成される。また、体内造形部は、管腔臓器をリアルに再現するには、可能な限り繋ぎ目をなくすように、柔軟性材料を用いて一体成形されることが好ましい。
In the present embodiment, the in-vivo model includes an oral cavity, a nasal cavity, an oral cavity, a pharynx, a larynx, a trachea, an esophagus, a stomach, and a duodenum. , And the duodenal model.
Such an in-vivo shaped portion is formed of a material having flexibility close to that of a living body's luminal organ, such as silicone rubber. Further, in order to realistically reproduce the luminal organ, the internal molding portion is preferably integrally molded using a flexible material so as to eliminate joints as much as possible.

このように、人体模型3では、骨格ベース部及び体内器官構造が生体を高精度に模擬していることが好ましいが、本実施形態は、人体模型3の具体的な形状や素材、製造方法等を限定するわけではない。本実施形態は、公知の様々な人体模型3を利用することができる。
例えば、訓練対象とする医療手技に応じて、人体模型3は、上半身だけの人体外形を模擬していてもよいし、体内造形部として、大腸、小腸、胆嚢、胆管等の消化管や、尿管、膀胱、尿道等の尿路系などの他の管腔臓器が模擬されていてもよい。
As described above, in the human body model 3, it is preferable that the skeleton base portion and the internal organ structure simulate the living body with high accuracy, but in the present embodiment, the specific shape, material, manufacturing method, etc. of the human body model 3 and the like. Does not limit. In this embodiment, various known human body models 3 can be used.
For example, depending on the medical procedure to be trained, the mannequin 3 may simulate the outer shape of the human body only in the upper body, or the gastrointestinal tract such as the large intestine, small intestine, gallbladder, and bladder, and urethra as the internal modeling part. Other luminal organs, such as the ureteral system such as the canal, bladder, and urethra, may be simulated.

本実施形態では、体内造形部の所定の複数部位に、体内造形部内に挿入される内視鏡の存在を検出するための物体検出センサが設けられている。各物体検出センサは、内視鏡操作者に違和感を与えないように、挿入された内視鏡に接触しない位置(例えば、管腔臓器モデルの管腔を画定する内壁面よりも外側)にそれぞれ設けられる。本実施形態では、当該物体検出センサには、光電センサが利用されており、食道入口部、胃食道接合部、及び十二指腸下降脚部に設けられている。
但し、物体検出センサは、設けられなくてもよいし、本実施形態とは異なる部位に設けられてもよいし、その数も限定されない。また、物体検出センサによる物体検出原理も限定されない。
In the present embodiment, object detection sensors for detecting the presence of an endoscope inserted into the internal modeling portion are provided at a plurality of predetermined portions of the internal modeling portion. Each object detection sensor is located at a position where it does not come into contact with the inserted endoscope (for example, outside the inner wall surface defining the lumen of the tract organ model) so as not to give a sense of discomfort to the endoscope operator. Provided. In the present embodiment, a photoelectric sensor is used as the object detection sensor, and is provided at the esophageal entrance, the gastroesophageal junction, and the duodenal descending leg.
However, the object detection sensor may not be provided, may be provided at a portion different from the present embodiment, and the number thereof is not limited. Further, the object detection principle by the object detection sensor is not limited.

〔制御構成〕
制御部10は、本システム1の制御を司る構成であり、PC(Personal Computer)のようないわゆるコンピュータであってもよいし、組込みシステムであってもよいし、制御基板であってもよい。
制御部10は、入出力パネル5やスピーカ6等と共に、人体模型3が載置される台座部を持つ機器搭載台内に収容される。
制御部10は、図2に示されるように、ハードウェア構成として、プロセッサ11、メモリ12、入出力インタフェース(I/F)ユニット13等を有している。
プロセッサ11は、一般的な一以上のCPU又はMPU(Micro Processing Unit)であってもよいし、それに替え又はそれと共に、特定用途向け集積回路(ASIC)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)等であってもよい。
[Control configuration]
The control unit 10 has a configuration that controls the control of the system 1, and may be a so-called computer such as a PC (Personal Computer), an embedded system, or a control board.
The control unit 10 is housed in a device mounting table having a pedestal on which the human body model 3 is placed, together with the input / output panel 5, the speaker 6, and the like.
As shown in FIG. 2, the control unit 10 has a processor 11, a memory 12, an input / output interface (I / F) unit 13, and the like as a hardware configuration.
The processor 11 may be one or more general CPUs or MPUs (Micro Processing Units), and may be replaced with or together with an integrated circuit (ASIC) for a specific application, a DSP (Digital Signal Processor), and a GPU (Graphics). It may be a Processing Unit), an FPGA (Field Programmable Gate Array), or the like.

メモリ12は、RAM(Random Access Memory)及びROM(Read Only Memory)であり、補助記憶装置(ハードディスク等)を含んでもよい。メモリ12には、本システム1の各種機能を実現する制御プログラムが格納される。制御プログラムには、AI(Artificial Intelligence)モデルも含まれる。
ここで、AIモデルとは、機械学習(Machine Learning(ML))モデル、学習済みモデルとも表記可能であり、コンピュータプログラムとパラメータとの組合せ、或いは複数の関数とパラメータとの組合せとも表記可能である。
本実施形態は、教師有り機械学習のAIモデルであれば、そのAIモデルの構造や学習アルゴリズムを限定しない。例えば、AIモデルは、入力層、中間層(隠れ層)及び出力層の各層において複数のノードがエッジで連結されている構造を持ち、各ノードの値がそのノードに接続される他のノードの値及びエッジの重み(パラ―メータ)から活性化関数で算出されるニューラルネットワーク(NN)又はディープニューラルネットワーク(DNN)と呼ばれるモデルで実現されてもよい。また、本実施形態では、AIモデルは、内視鏡画像を用いるため、畳み込みニューラルネットワーク(CNN)で実現されてもよい。
本明細書における「AIモデル」は、ニューラルネットワークで構築される場合で、かつ、入力層、中間層及び出力層を一つのニューラルネットワークの単位と捉えた場合に、一つのニューラルネットワークを指してもよいし、複数のニューラルネットワークの組合せを指してもよい。
The memory 12 is a RAM (Random Access Memory) and a ROM (Read Only Memory), and may include an auxiliary storage device (hard disk or the like). A control program that realizes various functions of the system 1 is stored in the memory 12. The control program also includes an AI (Artificial Intelligence) model.
Here, the AI model can be described as a machine learning (ML) model or a trained model, and can also be described as a combination of a computer program and parameters, or a combination of a plurality of functions and parameters. ..
This embodiment does not limit the structure and learning algorithm of the AI model as long as it is an AI model of supervised machine learning. For example, the AI model has a structure in which a plurality of nodes are connected by edges in each layer of an input layer, an intermediate layer (hidden layer), and an output layer, and the value of each node is connected to that node of another node. It may be realized by a model called a neural network (NN) or a deep neural network (DNN) calculated by an activation function from values and edge weights (nodes). Further, in the present embodiment, since the AI model uses an endoscopic image, it may be realized by a convolutional neural network (CNN).
The "AI model" in the present specification may refer to one neural network when it is constructed by a neural network and when the input layer, the intermediate layer and the output layer are regarded as one neural network unit. Alternatively, it may refer to a combination of a plurality of neural networks.

入出力I/Fユニット13は、プロセッサ11で処理すべき又は処理された信号の入力又は出力を制御する機器であり、入出力パネル5等のユーザインタフェース装置、スピーカ6、センサ群7、内視鏡8等に接続される。内視鏡8やセンサ群7等と入出力I/Fユニット13との接続形態は、有線のみならず、通信可能に無線で接続されていてもよい。また、入出力I/Fユニット13は、他のコンピュータや機器との通信を行う通信ユニットを含んでもよく、可搬型記録媒体等にも接続され得る。 The input / output I / F unit 13 is a device that controls the input or output of a signal to be processed or processed by the processor 11, and is a user interface device such as an input / output panel 5, a speaker 6, a sensor group 7, and an internal view. It is connected to a mirror 8 or the like. The connection form between the endoscope 8 and the sensor group 7 and the input / output I / F unit 13 may be not only wired but also wirelessly connected so as to be communicable. Further, the input / output I / F unit 13 may include a communication unit that communicates with another computer or device, and may be connected to a portable recording medium or the like.

センサ群7は、人体模型3の内部又は外部に設けられた複数の各種センサであり、上述した物体検出センサを含む。センサ群7は、体内造形部の所定部位に設けられた圧力センサ、体内造形部の管腔内の気圧を検知する気圧センサなどの物体検出センサ以外のセンサを含んでもよい。
入出力パネル5は、機器搭載台の上方に設置されており、訓練メニュー、本システム1の動作モード、実施内容、評価結果などを表示する表示装置、及び表示装置に表示された画面を操作するための入力装置を含む。図1の例では、入出力パネル5は、表示装置と入力装置とが一体化されたタッチパネルとして実現されている。入出力パネル5の表示内容等については後述する。
The sensor group 7 is a plurality of various sensors provided inside or outside the human body model 3, and includes the above-mentioned object detection sensor. The sensor group 7 may include a sensor other than the object detection sensor, such as a pressure sensor provided at a predetermined portion of the internal modeling portion and an atmospheric pressure sensor for detecting the atmospheric pressure in the lumen of the internal modeling portion.
The input / output panel 5 is installed above the equipment mounting base, and operates a training menu, a display device that displays the operation mode of the system 1, implementation details, evaluation results, etc., and a screen displayed on the display device. Includes an input device for. In the example of FIG. 1, the input / output panel 5 is realized as a touch panel in which a display device and an input device are integrated. The display contents of the input / output panel 5 will be described later.

本実施形態において入出力I/Fユニット13に接続される内視鏡8は、上部消化管内視鏡である。上部消化管内視鏡は、先端部及び湾曲部を含む挿入部、先端部及び湾曲部に対して各種操作を行うための操作部、画像処理装置等から構成される。操作部には、アングルノブ(左右アングル及び上下アングル)、吸引ボタン、送気・送水ボタン、鉗子の挿入口等が設けられている。但し、入出力I/Fユニット13に接続される内視鏡8は、上部消化管内視鏡以外の、大腸内視鏡、気管支鏡、胸腔鏡、血管内視鏡等であってもよい。
また、制御部10は、図2に図示されていないハードウェア要素を含んでもよく、制御部10のハードウェア構成は制限されない。
In the present embodiment, the endoscope 8 connected to the input / output I / F unit 13 is an upper gastrointestinal endoscope. The upper gastrointestinal endoscope is composed of an insertion portion including a tip portion and a curved portion, an operation unit for performing various operations on the tip portion and the curved portion, an image processing device, and the like. The operation unit is provided with an angle knob (left / right angle and up / down angle), a suction button, an air supply / water supply button, a forceps insertion port, and the like. However, the endoscope 8 connected to the input / output I / F unit 13 may be a colonoscope, a bronchoscope, a thoracoscope, a blood vessel endoscope, or the like, other than the upper gastrointestinal endoscope.
Further, the control unit 10 may include hardware elements (not shown in FIG. 2), and the hardware configuration of the control unit 10 is not limited.

プロセッサ11によりメモリ12に格納される制御プログラムが実行されることにより、制御部10は、センサ群7及び内視鏡8からの入力信号を受けつつ、入出力パネル5への表示出力、入出力パネル5からの入力情報の取得、スピーカ6からの音声出力制御等を行う。
当該制御プログラムは、出荷時に予め格納されてもいてもよいし、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/Fユニット13を介してインストールされ、メモリ12に格納されてもよい。
When the control program stored in the memory 12 is executed by the processor 11, the control unit 10 receives the input signals from the sensor group 7 and the endoscope 8 and displays, outputs, and outputs to the input / output panel 5. The input information is acquired from the panel 5, the audio output is controlled from the speaker 6, and the like.
The control program may be stored in advance at the time of shipment, or may be stored in advance from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network via the input / output I / F unit 13. It may be installed and stored in the memory 12.

〔ソフトウェア構成〕
図3は、制御部10により実現されるソフトウェア構成を概念的に示すブロック図である。
プロセッサ11によりメモリ12に格納される制御プログラムが実行されることにより、制御部10は、図3に示されるようなソフトウェア構成を実現する。具体的には、制御部10は、ソフトウェア構成として、画像処理モジュール21、AI処理モジュール22、格納処理モジュール23、出力処理モジュール24等を有している。画像処理モジュール21は画像取得手段と表記することができ、AI処理モジュール22は第一、第二又は第三モデル処理手段と表記することができ、格納処理モジュール23は格納手段と表記することができ、出力処理モジュール24は出力処理手段と表記することができる。
但し、図3に示される各ソフトウェア構成要素は、説明の便宜のために概念的にそれぞれ分けて示したものであるため、制御部10で実現されるソフトウェア構成は、図3に示されるような各構成要素に明確に区分けされていなくてもよい。
[Software configuration]
FIG. 3 is a block diagram conceptually showing a software configuration realized by the control unit 10.
By executing the control program stored in the memory 12 by the processor 11, the control unit 10 realizes the software configuration as shown in FIG. Specifically, the control unit 10 has an image processing module 21, an AI processing module 22, a storage processing module 23, an output processing module 24, and the like as software configurations. The image processing module 21 can be described as an image acquisition means, the AI processing module 22 can be described as a first, second or third model processing means, and the storage processing module 23 can be described as a storage means. The output processing module 24 can be described as an output processing means.
However, since each software component shown in FIG. 3 is conceptually shown separately for convenience of explanation, the software configuration realized by the control unit 10 is as shown in FIG. It does not have to be clearly separated into each component.

本システム1は、トレーニーによる内視鏡手技の個人学習及び個人訓練を可能とするべく、上述のようなソフトウェア構成に基づく制御部10の動作により、内視鏡8の位置及び向きの推定、及び内視鏡8のガイドを行う。
ここで「内視鏡の位置及び向き」とは、具体的には、人体模型3の管腔臓器モデル(ここでは主に食道モデル、胃モデル及び十二指腸モデル)内に挿入された内視鏡8の先端部に設けられた撮像素子の位置及び撮像方向を意味する。
内視鏡8のガイドでは、その時々で内視鏡8の先端部が何をすべきかを案内又は指導する情報が出力される。トレーニーは、本システム1で出力される内視鏡8のガイド情報を参照しながら、内視鏡8を操作することで、指導医なく、内視鏡手技を独自に学習及び訓練することができる。
以下、制御部10で実行される「内視鏡の位置及び向きの推定」に係る処理、及び「内視鏡のガイド」に係る処理について詳述する。
This system 1 estimates the position and orientation of the endoscope 8 and estimates the orientation of the endoscope 8 by the operation of the control unit 10 based on the software configuration as described above in order to enable individual learning and individual training of the endoscope procedure by the trainee. Guide the endoscope 8.
Here, the "position and orientation of the endoscope" specifically means the endoscope 8 inserted in the luminal organ model of the human body model 3 (here, mainly the esophageal model, the stomach model and the duodenum model). It means the position and the imaging direction of the imaging element provided at the tip of the image.
The guide of the endoscope 8 outputs information that guides or guides what the tip of the endoscope 8 should do at any given time. By operating the endoscope 8 while referring to the guide information of the endoscope 8 output by the system 1, the trainee can independently learn and train the endoscope technique without an instructor. ..
Hereinafter, the process related to "estimation of the position and orientation of the endoscope" and the process related to "guide of the endoscope" executed by the control unit 10 will be described in detail.

制御部10が当該処理を実行するにあたり、ポジショニングAIモデル31、第一ガイドAIモデル32、及び第二ガイドAIモデル33がメモリ12に格納されている。ポジショニングAIモデル31、第一ガイドAIモデル32、及び第二ガイドAIモデル33は、第一、第二、又は第三の学習済みモデルと表記することができる。
ポジショニングAIモデル31、第一ガイドAIモデル32、及び第二ガイドAIモデル33は、教師有りの機械学習アルゴリズムで学習済みのAIモデルである。以降、ポジショニングAIモデル31は、P−AIモデル31と表記され、第一ガイドAIモデル32は、G1−AIモデル32と表記され、第二ガイドAIモデル33は、G2−AIモデル33と表記される。
制御部10の上記処理を説明する前に、まず、これら各AIモデルについて説明する。
When the control unit 10 executes the process, the positioning AI model 31, the first guide AI model 32, and the second guide AI model 33 are stored in the memory 12. The positioning AI model 31, the first guide AI model 32, and the second guide AI model 33 can be described as the first, second, or third trained model.
The positioning AI model 31, the first guide AI model 32, and the second guide AI model 33 are AI models that have been trained by a supervised machine learning algorithm. Hereinafter, the positioning AI model 31 is referred to as the P-AI model 31, the first guide AI model 32 is referred to as the G1-AI model 32, and the second guide AI model 33 is referred to as the G2-AI model 33. To.
Before explaining the above-mentioned processing of the control unit 10, first, each of these AI models will be described.

P−AIモデル31は、内視鏡で撮像された画像である内視鏡画像を入力して、その内視鏡画像に対応する領域位置データ及び領域方向データを推論する画像分類タイプのAIモデルである。P−AIモデル31は、第一の学習済みモデルに相当する。
「領域位置データ」とは、管腔臓器を長軸方向に仮想的に区分けした複数の臓器領域の中からP−AIモデル31の推論結果に基づいて特定される一以上の各臓器領域を内視鏡8の位置情報としてそれぞれ識別し得るデータであり、管腔臓器内における内視鏡8の先端部の位置を特定するためのデータである。
「領域方向データ」とは、管腔臓器を長軸方向に仮想的に区分けした各臓器領域にそれぞれ仮想的に設定される三次元直交軸で示される複数方向(本実施形態では六方向)の中からP−AIモデル31の推論結果に基づいて特定される一以上の各方向を内視鏡8の方向情報としてそれぞれ識別し得るデータであり、管腔臓器内における内視鏡8の先端部の向きを特定するためのデータである。
The P-AI model 31 is an image classification type AI model in which an endoscope image, which is an image captured by an endoscope, is input and region position data and region direction data corresponding to the endoscope image are inferred. Is. The P-AI model 31 corresponds to the first trained model.
The "region position data" includes one or more organ regions specified based on the inference result of the P-AI model 31 from a plurality of organ regions in which the luminal organs are virtually divided in the long axis direction. It is data that can be identified as the position information of the endoscope 8, and is data for specifying the position of the tip portion of the endoscope 8 in the luminal organ.
The "region direction data" is a plurality of directions (six directions in the present embodiment) indicated by three-dimensional orthogonal axes virtually set for each organ region in which the luminal organ is virtually divided in the long axis direction. It is data that can identify one or more directions specified based on the inference result of the P-AI model 31 as the direction information of the endoscope 8, and is the tip of the endoscope 8 in the luminal organ. It is data for specifying the direction of.

図4は、ポジショニングAIモデル31で用いられる領域位置データを説明するための食道、胃及び十二指腸の模式図であり、図5は、ポジショニングAIモデル31で用いられる領域方向データを説明するための胃の輪切りの断面模式図である。
本実施形態では、食道、胃及び十二指腸からなる管腔臓器が、長軸方向に、口側食道部E0、胃側食道部E1、穹窿部E2、胃体部E3、胃角部E4、前庭部E5、十二指腸球部E6、十二指腸下行脚E7、及び下十二指腸角E8の各臓器領域に仮想的に区分けされる。なお、図4には、口側食道部E0及び下十二指腸角E8は図示されていない。
領域位置データは、これら複数の臓器領域の中からP−AIモデル31の推論結果に基づいて特定される一以上の各臓器領域を内視鏡8の位置情報としてそれぞれ識別し得るデータであり、例えば、E0からE8の数値或いは文字列で示される。
FIG. 4 is a schematic view of the esophagus, stomach and duodenum for explaining the region position data used in the positioning AI model 31, and FIG. 5 is a stomach for explaining the region orientation data used in the positioning AI model 31. It is a cross-sectional schematic diagram of the round slice of.
In the present embodiment, the luminal organs consisting of the esophagus, stomach and duodenum are arranged in the longitudinal direction in the oral esophagus part E0, the gastric side esophagus part E1, the corpus E2, the gastric corpus E3, the angular incisure E4, and the antrum. It is virtually divided into each organ region of E5, duodenal bulb E6, duodenal descending leg E7, and lower duodenal angle E8. Note that FIG. 4 does not show the oral esophageal portion E0 and the lower duodenal angle E8.
The region position data is data that can identify each one or more organ regions specified based on the inference result of the P-AI model 31 from these plurality of organ regions as the position information of the endoscope 8. For example, it is indicated by a numerical value or a character string from E0 to E8.

図5には、胃体部E3に仮想的に設定される三次元直交軸で示される六方向が示されている。具体的には、胃体部E3の輪切り断面における、後壁から前壁へ向かう方向(以降、前壁方向と表記する)D1、前壁から後壁へ向かう方向(以降、後壁方向と表記する)D2、大弯から小弯へ向かう方向(以降、小弯方向と表記する)D3、小弯から大弯へ向かう方向(以降、大弯方向と表記する)D4、食道側から十二指腸側へ向かう方向(以降、挿入方向と表記する)D5、十二指腸側から食道側へ向かう方向(以降、引き抜き方向と表記する)D6が示されている。
領域方向データは、臓器領域ごとの当該三次元直交軸で示される六方向の中からP−AIモデル31の推論結果に基づいて特定される一以上の各方向を識別し得るデータであり、例えば、D1からD6の数値或いは文字列で示される。三次元直交軸は、胃体部E3のみでなく、他の各臓器領域についてもそれぞれ仮想的に設定され、管腔臓器は直線状に延びているわけではないため、臓器領域ごとに設定される各方法はそれぞれ異なる場合もある。
また、領域方向データは、方向指定なしを示すデータを含んでもよい。
FIG. 5 shows six directions indicated by three-dimensional orthogonal axes virtually set in the body of stomach E3. Specifically, in the circular section of the gastric body E3, the direction from the posterior wall to the anterior wall (hereinafter referred to as the anterior wall direction) D1 and the direction from the anterior wall to the posterior wall (hereinafter referred to as the posterior wall direction). D2, the direction from the lesser curvature to the lesser curvature (hereinafter referred to as the lesser curvature direction) D3, the direction from the lesser curvature to the lesser curvature (hereinafter referred to as the greater curvature direction) D4, from the esophageal side to the duodenum side The direction (hereinafter referred to as the insertion direction) D5 and the direction from the duodenum side to the esophagus side (hereinafter referred to as the pull-out direction) D6 are shown.
The region direction data is data that can identify one or more directions specified based on the inference result of the P-AI model 31 from the six directions indicated by the three-dimensional orthogonal axes for each organ region, for example. , D1 to D6, or a character string. The three-dimensional orthogonal axis is virtually set not only for the body of the stomach E3 but also for each other organ region, and since the luminal organ does not extend linearly, it is set for each organ region. Each method may be different.
Further, the area direction data may include data indicating that no direction is specified.

P−AIモデル31は、領域位置データの正解と領域方向データの正解とを教師用内視鏡画像に対して関連付けた複数の教師データに基づいて、機械学習されている。具体的には、複数の教師用内視鏡画像が準備され、各教師用内視鏡画像を撮像した内視鏡の位置及び方向が(例えば人により)上述した領域位置データ及び領域方向データを用いてそれぞれ特定され、特定された領域位置データ及び領域方向データ(正解データ)で各教師用内視鏡画像に対してタグ付けがなされることで、複数の教師データが生成される。P−AIモデル31は、このようにして生成された複数の教師データを用いて所定の機械学習アルゴリズムにより学習される。例えば、P−AIモデル31は、画像分類に適したCNNの公知の学習アルゴリズムで学習される。 The P-AI model 31 is machine-learned based on a plurality of teacher data in which the correct answer of the region position data and the correct answer of the region direction data are associated with the teacher's endoscopic image. Specifically, a plurality of teacher's endoscope images are prepared, and the position and direction of the endoscope that captured each teacher's endoscope image is the above-mentioned region position data and region direction data (for example, by a person). A plurality of teacher data are generated by tagging each teacher's endoscopic image with the specified area position data and area direction data (correct answer data). The P-AI model 31 is trained by a predetermined machine learning algorithm using the plurality of teacher data generated in this way. For example, the P-AI model 31 is trained by CNN's known learning algorithm suitable for image classification.

ここで、教師用内視鏡画像は、内視鏡手技に長けた熟練医師が人体模型3を用いて内視鏡手技を実際に行うことで収集することができる。一人の熟練医師による複数回の内視鏡手技により複数パターンの教師用内視鏡画像群が収集されてもよいし、複数人の熟練医師による複数回の内視鏡手技により複数パターンの教師用内視鏡画像群が収集されてもよい。
本実施形態では、人体模型3の管腔臓器モデルが用いられることで、当該教師用内視鏡画像を容易に収集することができると共に、領域位置データ及び領域方向データの正解データについても容易に特定することができる。
Here, the endoscopic image for the teacher can be collected by actually performing the endoscopic procedure using the human body model 3 by a skilled doctor who is good at the endoscopic procedure. Multiple patterns of endoscopic images for teachers may be collected by multiple endoscopic procedures by one skilled doctor, or multiple patterns of endoscopic images may be collected by multiple endoscopic procedures by multiple skilled doctors. A group of endoscopic images may be collected.
In the present embodiment, by using the luminal organ model of the human body model 3, the endoscopic image for the teacher can be easily collected, and the correct answer data of the region position data and the region direction data can be easily collected. Can be identified.

このように学習済みのP−AIモデル31は、人体模型3内に挿入された内視鏡8で撮像された画像である内視鏡画像が入力されると、管腔臓器の各臓器領域についての確率値及び三次元直交軸で示される六方向の各々の確率値をそれぞれ出力する。具体的には、入力された内視鏡画像が当該各領域(口側食道部E0、胃側食道部E1、穹窿部E2、胃体部E3、胃角部E4、前庭部E5、十二指腸球部E6、十二指腸下行脚E7、及び下十二指腸角E8)に分類される確率値、及び当該内視鏡画像が当該六方向(前壁方向D1、後壁方向D2、小弯方向D3、大弯方向D4、挿入方向D5、及び引き抜き方向D6)に分類される確率値がそれぞれ算出される。言い換えれば、各臓器領域の確率値は、その臓器領域(位置)に内視鏡8が存在している確度を示しており、各方向の確率値は、内視鏡8が向いている方向の確度を示している。 The P-AI model 31 learned in this way is obtained for each organ region of the luminal organ when an endoscopic image, which is an image captured by the endoscope 8 inserted in the human body model 3, is input. The probability value of and the probability value of each of the six directions indicated by the three-dimensional orthogonal axes are output. Specifically, the input endoscopic image shows each region (mouth side esophagus part E0, gastric side esophagus part E1, gastroscopy part E2, gastric corpus E3, angular incisure E4, antrum E5, duodenal bulb Probability values classified into E6, descending duodenum E7, and lower duodenal angle E8), and the endoscopic image is in the six directions (anterior wall direction D1, posterior wall direction D2, small curvature direction D3, greater curvature direction D4). , The insertion direction D5, and the pull-out direction D6) are calculated. In other words, the probability value of each organ region indicates the probability that the endoscope 8 exists in the organ region (position), and the probability value in each direction is the direction in which the endoscope 8 is facing. It shows the probability.

これにより、領域位置データは、P−AIモデル31の推論結果である臓器領域ごとの確率値に基づいて、所定閾値以上の確率値を持つ一以上の臓器領域を識別し得るデータ、或いは、最大確率値を持つ臓器領域を識別し得るデータとして取得される。領域方向データは、P−AIモデル31の推論結果である方向ごとの確率値に基づいて、所定閾値以上の確率値を持つ一以上の方向を識別し得るデータ、或いは、最大確率値を持つ方向を識別し得るデータとして取得される。 As a result, the region position data can identify one or more organ regions having a probability value equal to or higher than a predetermined threshold based on the probability value for each organ region, which is the inference result of the P-AI model 31, or the maximum. It is acquired as data that can identify the organ region having a probability value. The area direction data is data that can identify one or more directions having a probability value equal to or higher than a predetermined threshold based on the probability value for each direction that is the inference result of the P-AI model 31, or a direction having the maximum probability value. Is acquired as data that can identify.

G1−AIモデル32は、内視鏡画像を入力して、その内視鏡画像に対応する第一領域指定データを推論する画像分類タイプのAIモデルである。G1−AIモデル32は、第二の学習済みモデルに相当する。
「第一領域指定データ」とは、G1−AIモデル32に入力される内視鏡画像内の或る画像領域を指定する(指し示す)データである。本実施形態では、第一領域指定データで指定される画像領域は、その内視鏡画像を撮像している内視鏡8が進むべきルートに対応する画像領域とされる。但し、第一領域指定データで指定される画像領域は、このような例に限定されず、内視鏡8で何かをすべき場所(ポイント)に対応する画像領域とされてもよい。例えば、観察すべきポイント(撮像記録すべき部位)に対応する画像領域、何らかの治療を施すべき或いは組織採取を行うべきポイント(部位)に対応する画像領域が第一領域指定データで指定されてもよい。
以降、内視鏡8で観察すべき或いは撮像記録すべき部位を観察ポイントと表記する場合がある。
The G1-AI model 32 is an image classification type AI model that inputs an endoscopic image and infers first region designation data corresponding to the endoscopic image. The G1-AI model 32 corresponds to the second trained model.
The "first region designation data" is data that designates (points to) a certain image region in the endoscopic image input to the G1-AI model 32. In the present embodiment, the image area designated by the first area designation data is an image area corresponding to the route to be taken by the endoscope 8 that is capturing the endoscope image. However, the image area designated by the first area designation data is not limited to such an example, and may be an image area corresponding to a place (point) where something should be done with the endoscope 8. For example, even if the image area corresponding to the point to be observed (the part to be imaged and recorded) and the image area corresponding to the point (site) to be treated or tissue is collected are specified by the first area designation data. Good.
Hereinafter, a portion to be observed with the endoscope 8 or to be imaged and recorded may be referred to as an observation point.

図6は、第一ガイドAIモデル32で用いられる第一領域指定データを説明するための図である。
G1−AIモデル32に入力される内視鏡画像は、予め決められたサイズ及び形状に正規化されており、図6に示されるように、予め決められた格子線で複数の単位画像領域に仮想的に区分けされる。図6の例では、縦5つ及び横5つの25個の単位画像領域に区分けされている。
第一領域指定データでは、いずれか一つの単位画像領域、又は、上下、左右若しくは斜めに隣接するいずれか二つの単位画像領域が、画像領域として指定される。第一領域指定データは、例えば、「縦,横」の座標値で示される。例えば、縦の上から3番目で横の左から4番目の単位画像領域からなる画像領域を示す第一領域指定データは、「3,4」で示され、縦の上から2番目で横の左から3番目及び4番目の二つの単位画像領域からなる画像領域を示す第一領域指定データは、「2,3−2,4」で示される。
本実施形態では、各単位画像領域は、格子線で区切られた四角形状を有しているが、単位画像領域の形状や大きさは限定されず、円形状であっても、三角形状であってもよい。
FIG. 6 is a diagram for explaining the first region designation data used in the first guide AI model 32.
The endoscopic image input to the G1-AI model 32 is normalized to a predetermined size and shape, and as shown in FIG. 6, a predetermined grid line is used for a plurality of unit image regions. It is virtually divided. In the example of FIG. 6, it is divided into 25 unit image areas of 5 in the vertical direction and 5 in the horizontal direction.
In the first area designation data, any one unit image area or any two unit image areas vertically, horizontally, or diagonally adjacent to each other is designated as an image area. The first area designation data is indicated by, for example, "vertical, horizontal" coordinate values. For example, the first area designation data indicating the image area consisting of the third unit image area from the top in the vertical direction and the fourth unit image area from the left in the horizontal direction is indicated by "3, 4", and is the second from the top in the vertical direction and horizontal. The first area designation data indicating the image area consisting of the third and fourth unit image areas from the left is indicated by "2, 3-2, 4".
In the present embodiment, each unit image area has a quadrangular shape separated by grid lines, but the shape and size of the unit image area are not limited, and even if it is a circular shape, it is triangular. You may.

G1−AIモデル32は、各教師用内視鏡画像に対して第一領域指定データの正解をそれぞれ関連付けた複数の教師データを用いて機械学習されている。具体的には、複数の教師用内視鏡画像が準備され、各教師用内視鏡画像に関してその画像を撮像した内視鏡が進むべきルートに対応する画像領域が(例えば人により)それぞれ特定され、特定された画像領域を指定する第一領域指定データの正解で各教師用内視鏡画像に対してタグ付けがなされることで、複数の教師データが生成される。G1−AIモデル32は、このようにして生成された複数の教師データを用いて所定の機械学習アルゴリズムにより学習される。例えば、G1−AIモデル32は、P−AIモデル31と同様の画像分類に適したCNNの公知の学習アルゴリズムで学習される。
教師用内視鏡画像の収集方法については、P−AIモデル31と同様であればよい。
The G1-AI model 32 is machine-learned using a plurality of teacher data in which the correct answers of the first region designation data are associated with each teacher's endoscopic image. Specifically, a plurality of teacher's endoscope images are prepared, and for each teacher's endoscope image, an image area corresponding to a route to be taken by the endoscope that captured the image is specified (for example, by a person). Then, a plurality of teacher data are generated by tagging each teacher's endoscope image with the correct answer of the first area designation data that specifies the specified image area. The G1-AI model 32 is trained by a predetermined machine learning algorithm using the plurality of teacher data generated in this way. For example, the G1-AI model 32 is trained by a known learning algorithm of CNN suitable for image classification similar to the P-AI model 31.
The method of collecting endoscopic images for teachers may be the same as that of the P-AI model 31.

このように学習済みのG1−AIモデル32は、人体模型3内に挿入された内視鏡8で撮像された画像である内視鏡画像が入力されると、その内視鏡画像における各画像領域についての確率値をそれぞれ出力する。例えば、G1−AIモデル32は、図6の格子線で区分けされた一つずつの単位画像領域に加え、左右に隣接する二つの単位画像領域の全組合せ、上下に隣接する二つの単位画像領域の全組合せ、及び斜めに隣接する二つの単位画像領域の全組合せのそれぞれの画像領域について、確率値を出力する。
つまり、各画像領域の確率値は、対象となる内視鏡画像の各画像領域が進むべきルート或いは何かをすべき場所である確度を示している。
これにより、領域指定データは、G1−AIモデル32の推論結果である画像領域ごとの確率値に基づいて、所定閾値以上の確率値を持つ一以上の画像領域を指定するデータ、或いは、最大確率値を持つ画像領域を指定するデータとして取得される。
When an endoscope image, which is an image captured by the endoscope 8 inserted in the human body model 3, is input to the G1-AI model 32 learned in this way, each image in the endoscope image is input. Output the probability value for each area. For example, in the G1-AI model 32, in addition to each unit image area divided by the grid lines in FIG. 6, all combinations of two unit image areas adjacent to the left and right, and two unit image areas adjacent to the top and bottom are used. The probability value is output for each image area of all combinations of the above and all combinations of two diagonally adjacent unit image areas.
That is, the probability value of each image area indicates the certainty that each image area of the target endoscopic image is a route to be taken or a place to do something.
As a result, the region designation data is data that designates one or more image regions having a probability value equal to or higher than a predetermined threshold based on the probability value for each image region that is the inference result of the G1-AI model 32, or the maximum probability. It is acquired as data that specifies the image area that has a value.

G2−AIモデル33は、内視鏡画像を入力して、その内視鏡画像内において、予め決められたジョブ情報でタグ付けされた画像領域を検出する画像検出タイプのAIモデルである。これにより、後述するAI処理モジュール22は、G2−AIモデル33に対して内視鏡画像を与えることで、その内視鏡画像内において検出された画像領域を指定する第二領域指定データと、その第二領域指定データに対応するジョブ情報を取得することができる。G2−AIモデル33もまた第二の学習済みモデルに相当する。
「第二領域指定データ」は、内視鏡画像内の或る画像領域を指定する(指し示す)データである点において上述の第一領域指定データと同意である。しかしながら、AIモデルのタイプが異なること、第二領域指定データにはジョブ情報が対応付けられることなどから、ここでは説明を分かり易くするために、第一領域指定データと区別して第二領域指定データと表記するものとする。第二領域指定データは、BoundingBoxと呼ばれることもある。
但し、後述の説明で「領域指定データ」と表記した場合には、第一領域指定データ又は第二領域指定データのいずれか一方又は両方を意味するものとする。
ここで第二領域指定データの「ジョブ情報」とは、第二領域指定データで指定される画像領域に対応するタグ情報であって、内視鏡8が進むべきルートを示す或いは内視鏡8で何かをすべき場所(ポイント)を示す情報である。例えば、ジョブ情報は、観察ポイントを示してもよいし、何らかの治療を施すべき或いは組織採取を行うべきポイント(部位)を示してもよい。
The G2-AI model 33 is an image detection type AI model that inputs an endoscopic image and detects an image area tagged with predetermined job information in the endoscopic image. As a result, the AI processing module 22, which will be described later, gives an endoscopic image to the G2-AI model 33, thereby providing second area designation data for designating an image area detected in the endoscopic image. Job information corresponding to the second area designation data can be acquired. The G2-AI model 33 also corresponds to the second trained model.
The "second area designation data" is in agreement with the above-mentioned first area designation data in that it is data that specifies (points to) a certain image area in the endoscopic image. However, since the types of AI models are different and job information is associated with the second area designation data, here, in order to make the explanation easier to understand, the second area designation data is distinguished from the first area designation data. It shall be written as. The second area designation data is sometimes called a Bounding Box.
However, when the term "area-designated data" is used in the description below, it means either one or both of the first area-designated data and the second area-designated data.
Here, the "job information" of the second area designation data is tag information corresponding to the image area designated by the second area designation data, and indicates the route that the endoscope 8 should take, or the endoscope 8 This is information that indicates the place (point) where something should be done. For example, the job information may indicate an observation point, or may indicate a point (site) where some treatment should be performed or tissue collection should be performed.

G2−AIモデル33は、各教師用内視鏡画像に対して、ジョブ情報がタグ付けされた第二領域指定データの正解をそれぞれ関連付けた複数の教師データを用いて機械学習されている。具体的には、複数の教師用内視鏡画像が準備され、必要となるタグが準備される。ここでのタグは、上述のジョブ情報であり、内視鏡8が進むべきルートを示すタグ、観察ポイントを示すタグ、組織採取を行うべきポイントを示すタグ等が準備される。そして、各教師用内視鏡画像に関して当該準備されたタグ(ジョブ情報)に対応する画像領域があればその画像領域が(例えば人により)タグごとに指定されることで、複数の教師データが生成される。G2−AIモデル33は、このようにして生成された複数の教師データを用いて所定の機械学習アルゴリズムにより学習される。例えば、G2−AIモデル33は、画像検出に適したCNNの公知の学習アルゴリズムで学習される。
教師用内視鏡画像の収集方法については、P−AIモデル31やG1−AIモデル32と同様であればよい。
The G2-AI model 33 is machine-learned using a plurality of teacher data in which the correct answers of the second region designation data tagged with job information are associated with each teacher's endoscope image. Specifically, a plurality of teacher endoscopic images are prepared, and necessary tags are prepared. The tag here is the above-mentioned job information, and a tag indicating a route to be followed by the endoscope 8, a tag indicating an observation point, a tag indicating a point at which tissue collection should be performed, and the like are prepared. Then, if there is an image area corresponding to the prepared tag (job information) for each teacher's endoscope image, the image area is specified for each tag (for example, by a person), so that a plurality of teacher data can be obtained. Will be generated. The G2-AI model 33 is trained by a predetermined machine learning algorithm using the plurality of teacher data generated in this way. For example, the G2-AI model 33 is trained by CNN's known learning algorithm suitable for image detection.
The method of collecting endoscopic images for teachers may be the same as that of the P-AI model 31 and the G1-AI model 32.

図7は、第二ガイドAIモデル33で推論される第二領域指定データを説明するための図である。
図7の例では、5つの画像領域B1、B2、B3、B4及びB5が検出されており、各画像領域をそれぞれ指定する5つの第二領域指定データが表されている。画像領域B1は、大弯ひだの観察ポイントを示すジョブ情報でタグ付けされており、画像領域B2は、胃角部の観察ポイントを示すジョブ情報でタグ付けされており、画像領域B4は、幽門の観察ポイントを示すジョブ情報でタグ付けされている。画像領域B5は、潰瘍の組織採取を示すジョブ情報でタグ付けされており、画像領域B3は、次に進むべきルートを示すジョブ情報でタグ付けされている。
FIG. 7 is a diagram for explaining the second region designation data inferred by the second guide AI model 33.
In the example of FIG. 7, five image regions B1, B2, B3, B4 and B5 are detected, and five second region designation data for designating each image region are represented. The image area B1 is tagged with job information indicating the observation point of the curvature fold, the image area B2 is tagged with the job information indicating the observation point of the angular incisure, and the image area B4 is the pylorus. It is tagged with job information that indicates the observation point of. The image area B5 is tagged with job information indicating the tissue collection of the ulcer, and the image area B3 is tagged with the job information indicating the route to be followed.

このように学習済みのG2−AIモデル33は、人体模型3内に挿入された内視鏡8で撮像された画像である内視鏡画像が入力されると、その内視鏡画像内における、ジョブ情報で予めタグ付けされている画像領域ごとの検出結果と、検出された画像領域を指定する第二領域指定データとをそれぞれ出力する。画像領域ごとの検出結果は、画像領域ごとの存在確率値であってもよいし、画像領域ごとの検出の有無であってもよい。前者の場合には、所定閾値以上の存在確率値を持つ画像領域が検出された画像領域とされてもよい。
このように学習済みのG2−AIモデル33によれば、入力された内視鏡画像から、予めタグ付けされた複数の特定局所画像のいずれかと同一又は近似する画像領域が検出され、その検出された画像領域を指定する第二領域指定データと、それに対応する特定局所画像のタグ(ジョブ情報)とが取得される。
When an endoscope image, which is an image captured by the endoscope 8 inserted in the human body model 3, is input, the G2-AI model 33 learned in this way is included in the endoscope image. The detection result for each image area tagged in advance with the job information and the second area designation data for designating the detected image area are output respectively. The detection result for each image area may be the existence probability value for each image area, or may be the presence / absence of detection for each image area. In the former case, an image region having an existence probability value equal to or higher than a predetermined threshold value may be the detected image region.
According to the G2-AI model 33 trained in this way, an image region that is the same as or similar to any of a plurality of specific local images tagged in advance is detected from the input endoscopic image, and the detection is detected. The second area designation data for designating the image area and the corresponding specific local image tag (job information) are acquired.

〔内視鏡の位置及び向きの推定〕
上述のような学習済みのP−AIモデル31を用いて、制御部10は、内視鏡8の位置及び向きを推定する。以下、制御部10により実行される内視鏡8の位置及び向きの推定に係る処理について詳述する。
[Estimation of endoscope position and orientation]
Using the trained P-AI model 31 as described above, the control unit 10 estimates the position and orientation of the endoscope 8. Hereinafter, the process related to the estimation of the position and orientation of the endoscope 8 executed by the control unit 10 will be described in detail.

制御部10は、入出力I/Fユニット13を介して接続されている内視鏡8の画像処理装置から、内視鏡8の先端部に設けられている撮像素子で撮像された映像信号を受信している。
画像処理モジュール21は、その映像信号から得られる内視鏡映像の画像フレーム(内視鏡画像)を取得する。画像処理モジュール21は、当該内視鏡映像を所定周期で間引いて内視鏡画像を逐次取得することもできる。
画像処理モジュール21は、取得された内視鏡画像をP−AIモデル31の入力用に正規化する。例えば、画像処理モジュール21は、取得された内視鏡画像に対してトリミングやサイズ調整を行うことができる。
The control unit 10 receives a video signal captured by an image sensor provided at the tip of the endoscope 8 from an image processing device of the endoscope 8 connected via an input / output I / F unit 13. I'm receiving.
The image processing module 21 acquires an image frame (endoscopic image) of an endoscopic image obtained from the image signal. The image processing module 21 can also sequentially acquire endoscopic images by thinning out the endoscopic images at predetermined intervals.
The image processing module 21 normalizes the acquired endoscopic image for input of the P-AI model 31. For example, the image processing module 21 can perform trimming and size adjustment on the acquired endoscopic image.

AI処理モジュール22は、画像処理モジュール21で取得されかつ正規化された内視鏡画像をP−AIモデル31に入力することで、その内視鏡画像に対応する領域位置データ及び領域方向データを取得する。具体的には、P−AIモデル31は、入力された内視鏡画像に関して、管腔臓器の各臓器領域についての確率値、及び三次元直交軸で示される各方向についての確率値をそれぞれ算出する。例えば、口側食道部E0、胃側食道部E1、穹窿部E2、胃体部E3、胃角部E4、前庭部E5、十二指腸球部E6、十二指腸下行脚E7、及び下十二指腸角E8の各臓器領域についての確率値、並びに、前壁方向D1、後壁方向D2、小弯方向D3、大弯方向D4、挿入方向D5、及び引き抜き方向D6の各方向についての確率値がそれぞれ算出される。 By inputting the endoscopic image acquired and normalized by the image processing module 21 into the P-AI model 31, the AI processing module 22 inputs the region position data and the region direction data corresponding to the endoscopic image. get. Specifically, the P-AI model 31 calculates the probability value for each organ region of the luminal organ and the probability value for each direction indicated by the three-dimensional orthogonal axis with respect to the input endoscopic image. To do. For example, the organs of the oral esophagus E0, the gastroesophageal E1, the lesser curvature E2, the body of the stomach E3, the angular incisure E4, the vestibule E5, the duodenal bulb E6, the descending duodenum E7, and the lower duodenal angle E8. The probability values for the region and the probability values for each of the front wall direction D1, the rear wall direction D2, the lesser curvature direction D3, the greater curvature direction D4, the insertion direction D5, and the pull-out direction D6 are calculated.

AI処理モジュール22は、P−AIモデル31の算出結果である臓器領域ごとの確率値に基づいて、最大確率値を持つ臓器領域を識別し得るデータを領域位置データとして取得し、更に、P−AIモデル31の算出結果である三次元直交軸で示される方向ごとの確率値に基づいて、最大確率値を持つ方向を識別し得るデータを領域方向データとして取得する。ここで、AI処理モジュール22は、所定閾値以上の確率値を持つ一以上の臓器領域を識別し得るデータを領域位置データとして取得し、所定閾値以上の確率値を持つ一以上の方向を識別し得るデータを領域方向データとして取得することもできる。
本実施形態では、AI処理モジュール22は、その領域位置データ及び領域方向データに関してそれぞれ算出された確率値も合わせて取得しておく。
The AI processing module 22 acquires data capable of identifying the organ region having the maximum probability value as region position data based on the probability value for each organ region, which is the calculation result of the P-AI model 31, and further, P- Based on the probability value for each direction indicated by the three-dimensional orthogonal axis, which is the calculation result of the AI model 31, data capable of identifying the direction having the maximum probability value is acquired as region direction data. Here, the AI processing module 22 acquires data capable of identifying one or more organ regions having a probability value equal to or higher than a predetermined threshold value as region position data, and identifies one or more directions having a probability value equal to or higher than a predetermined threshold value. The data to be obtained can also be acquired as area direction data.
In the present embodiment, the AI processing module 22 also acquires the probability values calculated for the area position data and the area direction data.

格納処理モジュール23は、AI処理モジュール22により取得された領域位置データ及び領域方向データと、それらデータに対応する内視鏡画像とを関連付けてメモリ12に格納する。格納処理モジュール23は、後で再生可能となるように、領域位置データ及び領域方向データと内視鏡画像とを関連付けてメモリ12に格納することもできるし、内視鏡画像の表示と共に、領域位置データ及び領域方向データで示される内視鏡8の位置情報及び向き情報を表示するために、双方を関連付けて一時的にメモリ12に格納し、すぐに削除するようにしてもよい。 The storage processing module 23 stores the area position data and the area direction data acquired by the AI processing module 22 in association with the endoscopic image corresponding to the data in the memory 12. The storage processing module 23 can store the area position data and the area direction data in association with the endoscopic image in the memory 12 so that the data can be reproduced later, or the area can be stored together with the display of the endoscopic image. In order to display the position information and the orientation information of the endoscope 8 indicated by the position data and the area direction data, both may be associated with each other and temporarily stored in the memory 12 and deleted immediately.

出力処理モジュール24は、内視鏡8の画像処理装置から受信される映像信号に基づいて、入出力パネル5の表示装置に内視鏡映像を表示しながら、或る画像フレーム(内視鏡画像)が表示されるタイミングで、その内視鏡画像に関して取得された領域位置データ及び領域方向データで示される内視鏡8の位置情報及び向き情報を入出力パネル5の表示装置に表示する。
内視鏡8の位置情報及び向き情報は、文字で表示されてもよいし、管腔臓器の模式図に対して内視鏡8の位置及び向きを把握可能な表示を付すことで表示されてもよい。
The output processing module 24 displays a certain image frame (endoscope image) while displaying the endoscope image on the display device of the input / output panel 5 based on the image signal received from the image processing device of the endoscope 8. ) Is displayed, the position information and orientation information of the endoscope 8 indicated by the area position data and the area direction data acquired for the endoscope image are displayed on the display device of the input / output panel 5.
The position information and orientation information of the endoscope 8 may be displayed in characters, or may be displayed by adding a display capable of grasping the position and orientation of the endoscope 8 to the schematic diagram of the luminal organ. May be good.

〔内視鏡のガイド〕
上述のような学習済みのG1−AIモデル32及びG2−AIモデル33を用いて、制御部10は、内視鏡8のガイドを行う。以下、制御部10により実行される内視鏡8のガイドに係る処理について詳述する。
内視鏡8のガイドに係る処理は、上述の内視鏡8の位置及び向きの推定に係る処理と並列に実行される。なお、画像処理モジュール21による内視鏡画像の取得方法については上述のとおりである。
[Endoscope guide]
Using the trained G1-AI model 32 and G2-AI model 33 as described above, the control unit 10 guides the endoscope 8. Hereinafter, the processing related to the guide of the endoscope 8 executed by the control unit 10 will be described in detail.
The process related to the guide of the endoscope 8 is executed in parallel with the process related to the estimation of the position and orientation of the endoscope 8 described above. The method of acquiring the endoscopic image by the image processing module 21 is as described above.

本実施形態では、AI処理モジュール22は、画像処理モジュール21で取得されかつ正規化された内視鏡画像をG1−AIモデル32及びG2−AIモデル33の両方に入力する。これにより、G1−AIモデル32及び第二ガイドAIモデル33が並列に実行される。
G1−AIモデル32は、入力された内視鏡画像における各画像領域についての確率値をそれぞれ算出する。例えば、G1−AIモデル32は、図6の格子線で区分けされた一つずつの単位画像領域に加え、左右に隣接する二つの単位画像領域の全組合せ、上下に隣接する二つの単位画像領域の全組合せ、及び斜めに隣接する二つの単位画像領域の全組合せのそれぞれの画像領域について、確率値を出力する。
G2−AIモデル33は、入力された内視鏡画像内における、ジョブ情報で予めタグ付けされている画像領域ごとの検出結果と、検出された画像領域を指定する第二領域指定データとをそれぞれ算出する。例えば、画像領域ごとの検出結果は、所定閾値以上の存在確率値を持つか否かに基づいて、各画像領域の検出の有無を示す。
In the present embodiment, the AI processing module 22 inputs the endoscopic image acquired and normalized by the image processing module 21 into both the G1-AI model 32 and the G2-AI model 33. As a result, the G1-AI model 32 and the second guide AI model 33 are executed in parallel.
The G1-AI model 32 calculates the probability value for each image area in the input endoscopic image. For example, in the G1-AI model 32, in addition to each unit image area divided by the grid lines in FIG. 6, all combinations of two unit image areas adjacent to the left and right, and two unit image areas adjacent to the top and bottom are used. The probability value is output for each image area of all combinations of the above and all combinations of two diagonally adjacent unit image areas.
The G2-AI model 33 sets the detection result for each image area tagged in advance with the job information in the input endoscopic image and the second area designation data for designating the detected image area, respectively. calculate. For example, the detection result for each image region indicates the presence / absence of detection of each image region based on whether or not it has an existence probability value equal to or higher than a predetermined threshold value.

ここで、G1−AIモデル32及びG2−AIモデル33の推論精度は、入力される内視鏡画像によって相互に異なる場合がある。例えば、内視鏡画像の特定の画像領域を検出するG2−AIモデル33は、画像特徴となる全輪郭を含む内視鏡画像に対しては検出精度が高いが、輪郭を部分的にのみ含む内視鏡画像では検出精度が劣化する傾向にある。一方で、入力される内視鏡画像を画像領域で分類するG1−AIモデル32においても、入力される内視鏡画像によって分類精度が劣化する場合がある。
そこで、本実施形態では、G1−AIモデル32及びG2−AIモデル33の両方を並列に実行して、いずれか一方の出力を用いることで、高い推論精度を維持する。例えば、G1−AIモデル32により算出された画像領域ごとの確率値の最大値が所定閾値よりも低い場合には、G2−AIモデル33の出力を用い、当該最大値が所定閾値以上となる場合には、G1−AIモデル32の出力を用いるようにする。
Here, the inference accuracy of the G1-AI model 32 and the G2-AI model 33 may differ from each other depending on the input endoscopic image. For example, the G2-AI model 33 that detects a specific image region of an endoscopic image has high detection accuracy for an endoscopic image including the entire contour that is an image feature, but includes only a partial contour. Detection accuracy tends to deteriorate in endoscopic images. On the other hand, even in the G1-AI model 32 that classifies the input endoscopic image in the image area, the classification accuracy may deteriorate depending on the input endoscopic image.
Therefore, in the present embodiment, both the G1-AI model 32 and the G2-AI model 33 are executed in parallel, and one of the outputs is used to maintain high inference accuracy. For example, when the maximum value of the probability value for each image region calculated by the G1-AI model 32 is lower than the predetermined threshold value, the output of the G2-AI model 33 is used and the maximum value is equal to or higher than the predetermined threshold value. The output of the G1-AI model 32 is used for this.

このように、AI処理モジュール22は、G1−AIモデル32及びG2−AIモデル33のいずれか一方から領域指定データを取得する。具体的には、G1−AIモデル32の出力を用いる場合には、AI処理モジュール22は、G1−AIモデル32により算出された画像領域ごとの確率値に基づいて、最大確率値を持つ画像領域を指定する第一領域指定データを取得する。ここで、AI処理モジュール22は、所定閾値以上の確率値を持つ一以上の画像領域を指定する第一領域指定データを取得することもできる。
本実施形態では、AI処理モジュール22は、その第一領域指定データに関して算出された確率値も合わせて取得しておく。
G2−AIモデル33の出力を用いる場合には、AI処理モジュール22は、G2−AIモデル33により出力される、当該内視鏡画像内における、ジョブ情報で予めタグ付けされている画像領域ごとの検出結果と、検出された画像領域を指定する第二領域指定データとをそれぞれ取得する。更に、AI処理モジュール22は、検出された画像領域を指定する第二領域指定データに付与されているタグ(ジョブ情報)も取得する。
In this way, the AI processing module 22 acquires the area designation data from either the G1-AI model 32 or the G2-AI model 33. Specifically, when the output of the G1-AI model 32 is used, the AI processing module 22 has an image region having a maximum probability value based on the probability value for each image region calculated by the G1-AI model 32. Acquires the first area specification data that specifies. Here, the AI processing module 22 can also acquire first region designation data that designates one or more image regions having a probability value equal to or higher than a predetermined threshold value.
In the present embodiment, the AI processing module 22 also acquires the probability value calculated for the first area designation data.
When using the output of the G2-AI model 33, the AI processing module 22 outputs each image region in the endoscopic image output by the G2-AI model 33, which is tagged with job information in advance. The detection result and the second area designation data for designating the detected image area are acquired respectively. Further, the AI processing module 22 also acquires the tag (job information) attached to the second area designation data that designates the detected image area.

ところで、G1−AIモデル32から取得される第一領域指定データが内視鏡8が進むべきルートに対応する画像領域を指定している場合で、G2−AIモデル33で各画像領域にタグ付けされているジョブ情報が当該ルートに加えて内視鏡8で何かすべき場所(ポイント)等のようなルート以外の情報を示す場合がある。この場合には、内視鏡8が進むべきルートについては、上述のようにG1−AIモデル32又はG2−AIモデル33のいずれか一方の出力を用い、それ以外のジョブ情報についてはG2−AIモデル33の出力を固定的に用いるようにしてもよい。 By the way, when the first region designation data acquired from the G1-AI model 32 specifies an image region corresponding to the route to be followed by the endoscope 8, each image region is tagged with the G2-AI model 33. In addition to the route, the job information being performed may indicate information other than the route such as a place (point) to be something to be done by the endoscope 8. In this case, the output of either the G1-AI model 32 or the G2-AI model 33 is used for the route that the endoscope 8 should take, and the G2-AI for the other job information. The output of the model 33 may be used fixedly.

また、本実施形態では、上述のとおり、G1−AIモデル32及びG2−AIモデル33が共に利用されたが、内視鏡画像が写す管腔臓器内の位置に応じて、G1−AIモデル32とG2−AIモデル33とが切り替えて用いられるようにしてもよい。この場合、AI処理モジュール22は、P−AIモデル31の推論結果を用いて推定された内視鏡8の位置に応じて、G1−AIモデル32とG2−AIモデル33とを切り替えて用いればよい。例えば、内視鏡8の位置が胃である場合には、G1−AIモデル32及び第二ガイドAIモデル33の両方が利用され、内視鏡8の位置が食道又は十二指腸である場合には、G2−AIモデル33が利用されるようにしてもよい。 Further, in the present embodiment, as described above, both the G1-AI model 32 and the G2-AI model 33 are used, but the G1-AI model 32 depends on the position in the luminal organ to be captured by the endoscopic image. And the G2-AI model 33 may be switched and used. In this case, if the AI processing module 22 is used by switching between the G1-AI model 32 and the G2-AI model 33 according to the position of the endoscope 8 estimated using the inference result of the P-AI model 31. Good. For example, when the position of the endoscope 8 is the stomach, both the G1-AI model 32 and the second guide AI model 33 are used, and when the position of the endoscope 8 is the esophagus or the duodenum, the position is the esophagus or the duodenum. The G2-AI model 33 may be utilized.

出力処理モジュール24は、上述したとおり入出力パネル5の表示装置に内視鏡映像を表示しながら、対象となる画像フレーム(内視鏡画像)が表示されるタイミングで、AI処理モジュール22により取得された領域指定データに基づいてその内視鏡画像に内視鏡8のガイド情報を付加した表示を当該表示装置に表示する。
本実施形態において表示されるガイド情報には、内視鏡8が進むべきルート又は方向をガイドする情報、観察や、組織採取や治療等のように内視鏡8で何かをすべき場所(ポイント)をガイドする情報等がある。
The output processing module 24 is acquired by the AI processing module 22 at the timing when the target image frame (endoscopic image) is displayed while displaying the endoscopic image on the display device of the input / output panel 5 as described above. A display in which the guide information of the endoscope 8 is added to the endoscope image based on the area designation data is displayed on the display device.
The guide information displayed in the present embodiment includes information that guides the route or direction in which the endoscope 8 should go, a place where something should be done by the endoscope 8 such as observation, tissue collection, treatment, etc. ( There is information to guide the point).

具体的には、出力処理モジュール24は、画像処理モジュール21より取得された内視鏡画像内におけるAI処理モジュール22により取得された領域指定データで示される画像領域に向かう方向表示をその内視鏡画像に重畳表示させる。
この方向表示は、明確に特定画像領域を指し示すように表示されてもよいし、上方、下方、左方、右方といった程度の方向を指し示す表示であってもよい。
Specifically, the output processing module 24 displays a direction display toward the image area indicated by the area designation data acquired by the AI processing module 22 in the endoscope image acquired from the image processing module 21. Overlay on the image.
This direction display may be displayed so as to clearly point to a specific image area, or may be a display pointing to a direction such as upward, downward, left, or right.

また、出力処理モジュール24は、G2−AIモデル33から第二領域指定データを取得すると共に、その第二領域指定データに対応するジョブ情報を更に取得する場合には、そのジョブ情報に対応する表示形態で、その第二領域指定データで指定される画像領域を示す表示を内視鏡8のガイド情報として内視鏡画像に付加することもできる。
例えば、ジョブ情報が内視鏡8の進むべきルートを示している場合には、第二領域指定データで示される画像領域に向かう方向表示(例えば矢印表示等)が内視鏡画像に付加される。また、ジョブ情報が観察ポイントを示している場合には、第二領域指定データで示される画像領域上にマーカ表示が付されてもよい。
Further, when the output processing module 24 acquires the second area designation data from the G2-AI model 33 and further acquires the job information corresponding to the second area designation data, the display corresponding to the job information is obtained. In the form, a display indicating an image region designated by the second region designation data can be added to the endoscope image as guide information of the endoscope 8.
For example, when the job information indicates the route to be taken by the endoscope 8, a direction display (for example, an arrow display) toward the image area indicated by the second area designation data is added to the endoscope image. .. Further, when the job information indicates an observation point, a marker display may be added on the image area indicated by the second area designation data.

図8は、内視鏡のガイド情報の表示例を示す図である。
図8の例では、内視鏡8の進むべきルートに対応する画像領域に向かう矢印表示G1が内視鏡画像に重畳されている。加えて、観察ポイントに対応する画像領域にマーカG2が付されると共に、より把握し易いようにそのマーカG2の周囲に環状破線G3が表示されている。
但し、本実施形態におけるガイド情報の表示は、図8の例に限定されない。
FIG. 8 is a diagram showing a display example of guide information of the endoscope.
In the example of FIG. 8, the arrow display G1 toward the image region corresponding to the route to be taken by the endoscope 8 is superimposed on the endoscope image. In addition, a marker G2 is attached to the image area corresponding to the observation point, and an annular broken line G3 is displayed around the marker G2 for easier understanding.
However, the display of the guide information in this embodiment is not limited to the example of FIG.

ここで内視鏡検査のマニュアルでは、病変の看過を防ぐべく、観察ポイントが多数決められている。観察ポイントは、少し離れた位置からの観察だけでなく、接近して細部の観察も必要となる。そこで、本実施形態では、観察ポイントのような画像領域が第一領域指定データ又は第二領域指定データで指定されている場合には、その画像領域が内視鏡画像内で或る程度の大きさでかつ中央の位置に配置されるようにガイドする。
例えば、出力処理モジュール24は、当該取得された内視鏡画像内における当該取得された領域指定データで示される画像領域が、その内視鏡画像における所定位置又は所定の大きさとなったことを報知する報知表示を出力する。これは、取得された内視鏡画像に関して、観察ポイントに相当する画像領域を指定する領域指定データが取得された時点、即ち、当該内視鏡画像に観察ポイントが現れた時点で、報知表示を出力することも含む。
この報知表示は、観察ポイントに相当する画像領域が内視鏡画像内に現れた、或い内視鏡画像内で所定位置又は所定の大きさになったことを見る者が把握できれば、どのような表示内容及び表示形態であってもよい。
Here, in the endoscopy manual, many observation points are determined in order to prevent the lesion from being overlooked. The observation point requires not only observation from a slightly distant position but also close observation of details. Therefore, in the present embodiment, when an image area such as an observation point is designated by the first area designation data or the second area designation data, the image area is of a certain size in the endoscopic image. Guide it so that it is placed in the center position.
For example, the output processing module 24 notifies that the image area indicated by the acquired area designation data in the acquired endoscopic image has reached a predetermined position or a predetermined size in the endoscopic image. Output the notification display. This is a notification display when the area designation data for designating the image area corresponding to the observation point is acquired for the acquired endoscopic image, that is, when the observation point appears in the endoscopic image. Including output.
This notification display will be displayed if the viewer can grasp that the image area corresponding to the observation point has appeared in the endoscopic image or has reached a predetermined position or a predetermined size in the endoscopic image. Display contents and display forms may be used.

図9は、観察ポイントのガイド表示の例を示す図である。
図9の例では、出力処理モジュール24は、AI処理モジュール22により取得された領域指定データにより指定される画像領域B10が観察ポイントに相当する場合に、次のようにガイド表示を行う。即ち、出力処理モジュール24は、照準表示F1、F2及びF3を内視鏡映像に重畳表示し、所定位置に示される照準表示F2の枠内で当該画像領域B10が所定の大きさになったタイミングでその内視鏡画像を静止画像G4とし、その静止画像G4を回転及び縮小させながらフレームアウトする演出を行う。
この表示におけるフレームアウト演出は、領域指定データで示される画像領域が内視鏡画像における所定位置又は所定の大きさとなったことを報知する報知表示に相当すると捉えることもできるし、当該表示における照準表示F1、F2及びF3の表示が、当該報知表示に相当すると捉えることもできる。後者の場合、出力処理モジュール24は、観察ポイントに対応する領域指定データがAI処理モジュール22により取得された時点で、照準F1、F2及びF3を表示させてもよいし、その領域指定データにより指定される画像領域B10が所定位置又は所定大きさとなった場合に、照準F1、F2及びF3を表示させてもよい。
但し、当該報知表示の内容及び表示形態はこのような例に限定されない。
FIG. 9 is a diagram showing an example of guide display of observation points.
In the example of FIG. 9, when the image area B10 designated by the area designation data acquired by the AI processing module 22 corresponds to the observation point, the output processing module 24 performs the guide display as follows. That is, the output processing module 24 superimposes and displays the aiming displays F1, F2, and F3 on the endoscopic image, and the timing at which the image area B10 reaches a predetermined size within the frame of the aiming display F2 shown at a predetermined position. The endoscopic image is set as a still image G4, and the still image G4 is rotated and reduced to frame out.
The frame-out effect in this display can be regarded as corresponding to a notification display for notifying that the image area indicated by the area designation data has reached a predetermined position or a predetermined size in the endoscopic image, and can be regarded as an aim in the display. It can also be considered that the displays F1, F2 and F3 correspond to the notification display. In the latter case, the output processing module 24 may display the aiming points F1, F2 and F3 when the area designation data corresponding to the observation point is acquired by the AI processing module 22, or may be designated by the area designation data. Aims F1, F2 and F3 may be displayed when the image area B10 to be formed has a predetermined position or a predetermined size.
However, the content and display form of the notification display are not limited to such an example.

上述のようなガイド情報は、画像処理モジュール21により領域指定データが取得された場合に、常に表示されてもよい。しかしながら、ガイド情報が頻繁に表示された場合、トレーニーの熟練度が或る程度上がると、ガイド情報が邪魔になりトレーニーに不快感を与える可能性がある。
そこで、出力処理モジュール24は、画像処理モジュール21により逐次取得される内視鏡画像に基づいて、内視鏡8が管腔臓器内で所定時間停滞していることを検出することを契機に、当該ガイド情報を付加した表示を出力するようにしてもよい。
この場合には、例えば、内視鏡画像の内容が所定時間ほとんど変わらないことを検出することで、内視鏡8が管腔臓器内で所定時間停滞していることを検出することができる。内視鏡8が或る程度の時間停滞しているということは、トレーニーが内視鏡手技に戸惑っている可能性がある。
上述のように内視鏡8が管腔臓器内で所定時間停滞していることを検出することを契機に、当該ガイド情報を付加した表示を出力することで、トレーニーが戸惑っている場合にのみ当該ガイド情報を表示することができるため、ガイド情報が邪魔になりトレーニーに不快感を与えることを防ぐことができる。
The guide information as described above may be always displayed when the area designation data is acquired by the image processing module 21. However, when the guide information is displayed frequently, if the trainee's skill level increases to some extent, the guide information may become an obstacle and cause discomfort to the trainee.
Therefore, the output processing module 24 takes the opportunity of detecting that the endoscope 8 is stagnant in the luminal organ for a predetermined time based on the endoscopic images sequentially acquired by the image processing module 21. A display to which the guide information is added may be output.
In this case, for example, by detecting that the contents of the endoscopic image are almost unchanged for a predetermined time, it is possible to detect that the endoscope 8 is stagnant in the luminal organ for a predetermined time. The fact that the endoscope 8 is stagnant for some time may mean that the trainee is confused by the endoscopic procedure.
Only when the trainee is confused by outputting a display with the guide information added when the endoscope 8 detects that it is stagnant in the luminal organ for a predetermined time as described above. Since the guide information can be displayed, it is possible to prevent the guide information from becoming an obstacle and causing discomfort to the trainee.

内視鏡手技のマニュアルでは、上述したように多数の観察ポイントが決められていると共に、各観察ポイントを撮像記録して静止画を残すことが推奨されている。
そこで、制御部10(格納処理モジュール23)は、内視鏡8で撮像記録されたと推定される臓器部位の履歴情報である撮像記録情報を保持するようにしてもよい。この場合、出力処理モジュール24は、撮像記録すべき臓器部位群の情報を用いて、撮像記録情報で示される臓器部位の履歴情報に基づいて、撮像記録すべき臓器部位群の中から撮像記録がなされていない臓器部位を特定することができる。更に、出力処理モジュール24は、撮像記録がなされていない臓器部位を特定した場合、その旨或いは特定された臓器部位を示す情報を入出力パネル5の表示装置に表示することもできる。
このようにすれば、トレーニーに対して、撮像記録漏れを指摘することができる。
In the manual of endoscopic procedure, a large number of observation points are determined as described above, and it is recommended to capture and record each observation point to leave a still image.
Therefore, the control unit 10 (storage processing module 23) may hold the image pickup record information which is the history information of the organ part estimated to have been imaged and recorded by the endoscope 8. In this case, the output processing module 24 uses the information of the organ part group to be imaged and recorded, and based on the history information of the organ part indicated by the image recording information, the image recording is performed from the organ part group to be imaged and recorded. It is possible to identify the part of the organ that has not been made. Further, when the output processing module 24 identifies an organ part for which imaging recording has not been made, the output processing module 24 can also display information indicating that fact or the specified organ part on the display device of the input / output panel 5.
In this way, it is possible to point out the omission of imaging recording to the trainee.

内視鏡8で撮像記録されたと推定される臓器部位は、次のように特定することができる。
内視鏡8の操作部に設けられている静止画像の記録を指示するスイッチの操作を示す信号が入出力I/Fユニット13で受信できる場合には、その信号が受信されたタイミングに対応する内視鏡画像に関して取得された領域位置データ、若しくは、第一領域指定データ、又は第二領域指定データ及びジョブ情報により、当該臓器部位の特定が可能である。
また、G2−AIモデル33の出力により観察ポイント(撮像記録すべき臓器部位)を示すジョブ情報でタグ付けされた画像領域が検出されかつその画像領域を指定する第二領域指定データが取得された場合には、その第二領域指定データで示される画像領域が内視鏡画像における所定位置又は所定大きさとなったことを検出することで、その観察ポイントに対応する臓器部位が撮像記録されたと推定することができる。
更に言えば、各観察ポイントに相当する特定臓器部位が所定位置及び所定大きさで写る内視鏡画像を教師用内視鏡画像とし、その教師用内視鏡画像に対して特定臓器部位ごとの撮像記録を示す撮像記録データでタグ付けした教師データで機械学習されているAIモデルを用いることで、内視鏡8で撮像記録されたと推定される臓器部位を特定することもできる。この場合、内視鏡画像をそのAIモデルに与えることで撮像記録データが取得された場合に、その撮像記録データに基づいて、内視鏡8で撮像記録されたと推定される臓器部位の履歴情報である撮像記録情報を保持することができる。
The organ site presumed to have been imaged and recorded by the endoscope 8 can be specified as follows.
When the input / output I / F unit 13 can receive a signal indicating the operation of the switch instructing the recording of the still image provided in the operation unit of the endoscope 8, it corresponds to the timing at which the signal is received. The organ site can be specified by the area position data acquired for the endoscopic image, the first area designation data, the second area designation data, and the job information.
In addition, an image region tagged with job information indicating an observation point (organ site to be imaged and recorded) was detected by the output of the G2-AI model 33, and second region designation data for designating the image region was acquired. In the case, it is presumed that the organ part corresponding to the observation point was imaged and recorded by detecting that the image area indicated by the second area designation data has reached a predetermined position or a predetermined size in the endoscopic image. can do.
Furthermore, an endoscopic image in which a specific organ part corresponding to each observation point is captured at a predetermined position and a predetermined size is used as a teacher's endoscope image, and each specific organ part is compared with respect to the teacher's endoscope image. By using an AI model that is machine-learned with teacher data tagged with imaging record data indicating imaging records, it is also possible to identify an organ site that is presumed to have been imaged and recorded by the endoscope 8. In this case, when the imaging record data is acquired by giving the endoscope image to the AI model, the history information of the organ part estimated to have been captured and recorded by the endoscope 8 based on the imaging recording data. It is possible to retain the imaging record information.

〔制御部の動作例〕
図10は、制御部10の動作例を示すフローチャートである。図10で示される各工程の詳しい動作内容については上述したとおりであるため、ここでは、制御部10の動作の流れを中心に説明するものとする。
制御部10は、入出力I/Fユニット13を介して接続されている内視鏡8の画像処理装置から、内視鏡の映像信号を受信しており、この映像信号から得られる内視鏡映像を入出力パネル5の表示装置に表示している。
制御部10は、当該内視鏡映像の画像フレーム(内視鏡画像)を所定周期で間引いて逐次取得し(S101)、内視鏡画像を取得する度に、図10に示される動作フローを実行する。工程(S101)では、制御部10は、その内視鏡画像を各種AIモデルの入力用に正規化することもできる。
[Operation example of control unit]
FIG. 10 is a flowchart showing an operation example of the control unit 10. Since the detailed operation contents of each process shown in FIG. 10 are as described above, the operation flow of the control unit 10 will be mainly described here.
The control unit 10 receives the image signal of the endoscope from the image processing device of the endoscope 8 connected via the input / output I / F unit 13, and the endoscope obtained from this image signal. The image is displayed on the display device of the input / output panel 5.
The control unit 10 thins out the image frames (endoscopic images) of the endoscopic image at a predetermined cycle and sequentially acquires them (S101), and each time the endoscopic image is acquired, the operation flow shown in FIG. 10 is performed. Run. In step (S101), the control unit 10 can also normalize the endoscopic image for input of various AI models.

制御部10は、(S101)で取得された内視鏡画像をP−AIモデル31、G1−AIモデル32及びG2−AIモデル33へそれぞれ入力する(S110)、(S121)及び(S122)。ここでは、P−AIモデル31、G1−AIモデル32及びG2−AIモデル33には同一の内視鏡画像を入力する例を示すが、各AIモデルには、内視鏡映像の画像フレームからそれぞれ異なる周期で間引いて取得される相互に異なる内視鏡画像が入力されてもよい。
これにより、P−AIモデル31、G1−AIモデル32及びG2−AIモデル33は、略並列に実行される。
The control unit 10 inputs the endoscopic images acquired in (S101) to the P-AI model 31, G1-AI model 32, and G2-AI model 33, respectively (S110), (S121), and (S122). Here, an example in which the same endoscopic image is input to the P-AI model 31, G1-AI model 32, and G2-AI model 33 is shown, but each AI model is input from the image frame of the endoscopic image. Different endoscopic images obtained by thinning out at different cycles may be input.
As a result, the P-AI model 31, the G1-AI model 32, and the G2-AI model 33 are executed in substantially parallel.

制御部10は、P−AIモデル31の算出結果に基づいて領域位置データ及び領域方向データを取得する(S111)。このとき、P−AIモデル31により出力される臓器領域ごとの確率値の最大値又は方向ごとの確率値の最大値が所定閾値よりも低い場合には、制御部10は、(S101)で取得された内視鏡画像に関しては、領域位置データ又は領域方向データを取得しないようにしてもよい。
制御部10は、内視鏡映像に加えて、(S111)で取得された領域位置データ及び領域方向データで示される内視鏡8の位置情報及び向き情報を入出力パネル5の表示装置に表示する(S112)。
The control unit 10 acquires the area position data and the area direction data based on the calculation result of the P-AI model 31 (S111). At this time, if the maximum value of the probability value for each organ region or the maximum value of the probability value for each direction output by the P-AI model 31 is lower than the predetermined threshold value, the control unit 10 acquires the data in (S101). With respect to the endoscopic image obtained, the region position data or the region direction data may not be acquired.
In addition to the endoscope image, the control unit 10 displays the position information and orientation information of the endoscope 8 indicated by the area position data and the area direction data acquired in (S111) on the display device of the input / output panel 5. (S112).

上述のような動作に並行して、制御部10は、G1−AIモデル32及びG2−AIモデル33の出力を参照して次のように動作する。
制御部10は、G2−AIモデル33の出力に基づいて、ジョブ情報で予めタグ付けされている画像領域ごとの検出結果を判定し(S123)、更に、G1−AIモデル32の出力に基づいて、第一領域指定データの取得の可否を判定する(S124)及び(S131)。第一領域指定データの取得の可否は、各画像領域についての確率値の最大値が所定閾値以上か否かで判定することができる。当該最大値が所定閾値以上であれば、第一領域指定データの取得可能と判定し、そうでなければ、第一領域指定データの取得不可と判定することができる。
In parallel with the above-mentioned operation, the control unit 10 operates as follows with reference to the outputs of the G1-AI model 32 and the G2-AI model 33.
The control unit 10 determines the detection result for each image area tagged in advance with the job information based on the output of the G2-AI model 33 (S123), and further, based on the output of the G1-AI model 32. , (S124) and (S131) determine whether or not the first area designation data can be acquired. Whether or not the first region designation data can be acquired can be determined by whether or not the maximum value of the probability value for each image region is equal to or greater than a predetermined threshold value. If the maximum value is equal to or greater than a predetermined threshold value, it can be determined that the first area designated data can be acquired, and if not, it can be determined that the first area designated data cannot be acquired.

制御部10は、検出された画像領域が有り、かつ第一領域指定データが取得可能である場合には(S123;YES)(S124;YES)、G1−AIモデル32又はG2−AIモデル33の出力を選択する必要があるか否かを判定する(S125)。例えば、G2−AIモデル33で検出された画像領域に対応するジョブ情報(タグ)がG1−AIモデル32で分類される画像領域の意味情報(例えば、内視鏡8を進めるべきルート或いは観察ポイント)と一致する場合には、選択する必要有りと判定され(S125;YES)、異なる場合には、選択する必要無しと判定されればよい(S125;NO)。
選択する必要があると判定された場合(S125;YES)、制御部10は、G1−AIモデル32の出力又はG2−AIモデル33の出力のいずれか一方を選択する(S126)。これにより、第一領域指定データ又は第二領域指定データのいずれか一方が選択される。例えば、第一領域指定データで指定される画像領域の確率値が所定閾値以上であれば、G1−AIモデル32の出力である第一領域指定データが取得され、そうでなければ、G2−AIモデル33の出力である第二領域指定データ及びそれに対応するジョブ情報が取得されてもよい。
When the control unit 10 has the detected image area and the first area designation data can be acquired (S123; YES) (S124; YES), the control unit 10 of the G1-AI model 32 or the G2-AI model 33. It is determined whether or not the output needs to be selected (S125). For example, the job information (tag) corresponding to the image area detected by the G2-AI model 33 is the semantic information of the image area classified by the G1-AI model 32 (for example, the route or observation point where the endoscope 8 should be advanced). ), It may be determined that selection is necessary (S125; YES), and if it is different, it may be determined that selection is not necessary (S125; NO).
When it is determined that it is necessary to select (S125; YES), the control unit 10 selects either the output of the G1-AI model 32 or the output of the G2-AI model 33 (S126). As a result, either the first area designated data or the second area designated data is selected. For example, if the probability value of the image region specified by the first region designation data is equal to or greater than a predetermined threshold value, the first region designation data that is the output of the G1-AI model 32 is acquired, and if not, the G2-AI The second area designation data which is the output of the model 33 and the job information corresponding thereto may be acquired.

選択する必要無しと判定された場合には(S125;NO)、制御部10は、G1−AIモデル32の出力である第一領域指定データ及びG2−AIモデル33の出力である第二領域指定データ及びそれに対応するジョブ情報を取得する(S128)。
また、検出された画像領域が有り、かつ第一領域指定データが取得不可である場合には(S123;YES)(S124;NO)、制御部10は、G2−AIモデル33の出力である第二領域指定データ及びそれに対応するジョブ情報を取得する(S127)。
また、検出された画像領域がなく、かつ一領域指定データが取得可能である場合には(S123;NO)(S131;YES)、制御部10は、G1−AIモデル32の出力である第一領域指定データを取得する(S132)。なお、検出された画像領域がなく、かつ第一領域指定データが取得不可である場合には(S123;NO)(S124;NO)、制御部10は、ガイド情報を表示することなく処理を終える。
When it is determined that there is no need to select (S125; NO), the control unit 10 specifies the first area designation data which is the output of the G1-AI model 32 and the second area designation which is the output of the G2-AI model 33. Acquire the data and the corresponding job information (S128).
If there is a detected image area and the first area designation data cannot be acquired (S123; YES) (S124; NO), the control unit 10 is the output of the G2-AI model 33. (2) Acquire the area designation data and the job information corresponding thereto (S127).
Further, when there is no detected image area and one area designation data can be acquired (S123; NO) (S131; YES), the control unit 10 is the output of the G1-AI model 32. Acquire area designation data (S132). If there is no detected image area and the first area designation data cannot be acquired (S123; NO) (S124; NO), the control unit 10 ends the process without displaying the guide information. ..

制御部10は、第一領域指定データ若しくは第二領域指定データのいずれか一方又は両方を取得すると、内視鏡映像に加えて、取得された領域指定データに基づいてガイド情報を入出力パネル5の表示装置に表示する(S129)。ガイド情報の表示については、上述したとおりである。 When the control unit 10 acquires either one or both of the first area designation data and the second area designation data, the input / output panel 5 inputs guide information based on the acquired area designation data in addition to the endoscopic image. Is displayed on the display device of (S129). The display of the guide information is as described above.

但し、制御部10の動作フローは図10に示される例に限定されない。図10に示されるフローチャートでは、複数の工程(処理)が順番に記載されているが、各工程の実行順序は、その記載の順番に制限されない。また、G1−AIモデル32及びG2−AIモデル33の出力結果の利用方法も図10に示される例に限定されない。更に、P−AIモデル31、G1−AIモデル32及びG2−AIモデル33のいずれか一つ又はいずれか複数は、他のAIモデルと並列に実行されず、前後して実行されてもよい。図示される工程の順番は内容的に支障のない範囲で変更することができる。 However, the operation flow of the control unit 10 is not limited to the example shown in FIG. In the flowchart shown in FIG. 10, a plurality of processes (processes) are described in order, but the execution order of each process is not limited to the order of description. Further, the method of using the output results of the G1-AI model 32 and the G2-AI model 33 is not limited to the example shown in FIG. Further, any one or more of the P-AI model 31, the G1-AI model 32 and the G2-AI model 33 may not be executed in parallel with the other AI models, but may be executed before and after. The order of the illustrated steps can be changed within a range that does not hinder the contents.

[変形例]
上述した本システム1の内容は、あくまで一例であり、部分的に適宜変更可能である。
例えば、上述した本システム1では、内視鏡8が入出力I/Fユニット13に接続されていたが、内視鏡8は接続されていなくてもよい。例えば、内視鏡8で撮像された内視鏡映像の動画データが可搬型記憶媒体又は外部の装置(PC等)に保存された後、その可搬型記録媒体又は通信を介して制御部10のメモリ12に格納され、その動画データから得られる内視鏡画像が上述のように処理されてもよい。
[Modification example]
The contents of the system 1 described above are merely examples, and can be partially changed as appropriate.
For example, in the above-mentioned system 1, the endoscope 8 is connected to the input / output I / F unit 13, but the endoscope 8 may not be connected. For example, after the moving image data of the endoscope image captured by the endoscope 8 is stored in a portable storage medium or an external device (PC or the like), the control unit 10 of the control unit 10 via the portable recording medium or communication. The endoscopic image stored in the memory 12 and obtained from the moving image data may be processed as described above.

また、上述した本システム1では、内視鏡画像のみを用いて、内視鏡8の位置情報及び向き情報、並びにガイド情報が取得されたが、内視鏡画像に加えて他の情報を更に用いるようにしてもよい。
例えば、制御部10は、人体模型3の体内造形部の所定部位(例えば食道入口部、胃食道接合部、及び十二指腸下降脚部)に設けられた物体検出センサの検出情報を更に用いるようにしてもよい。これによれば、当該所定部位を内視鏡8の先端部が通過したことは、正確な情報として捉えることができる。即ち、制御部10は、管腔臓器モデルの複数の所定部位に設けられた各センサからの内視鏡の存在検出情報を取得する検出情報取得手段をソフトウェア要素として備えていてもよい。
この場合、人体模型3の物体検出センサによる内視鏡8の検出情報を用いることで、P−AIモデル31の推論結果として得られる領域位置データが正しいか否かが確認可能である。そのため、AI処理モジュール22は、その検出情報に基づいてP−AIモデル31の出力から得られる領域位置データの正誤を判定し、補正することもできる。例えば、AI処理モジュール22は、検出情報と合致する位置を示し最大の確率値を持つ領域位置データを取得するようにしてもよい。
また、物体検出センサが設けられた部位間の臓器領域ごとにAIモデルを設け、制御部10は、物体検出センサの検出情報を用いて利用するAIモデルを切り替えることもできる。例えば、食道入口部から胃食道接合部までの間のAIモデル、及び胃食道接合部から十二指腸下降脚部までの間のAIモデルが設けられる。これは、P−AIモデル31のみならず、G1−AIモデル32及びG2−AIモデル33についても臓器領域ごとのAIモデルに分割されてもよい。
また、P−AIモデル31が、内視鏡画像と物体検出センサの検出情報を入力とし、臓器領域ごとの確率値及び方向ごとの確率値を出力するように形成することもできる。
このようにより正確な物体検出センサの検出情報を更に用いることで、各種AIモデルの推論精度を向上させることができる。
Further, in the above-mentioned system 1, the position information, the orientation information, and the guide information of the endoscope 8 are acquired by using only the endoscope image, but other information is further added in addition to the endoscope image. You may use it.
For example, the control unit 10 further uses the detection information of the object detection sensor provided at a predetermined portion (for example, the esophageal entrance portion, the gastroesophageal junction, and the duodenal descending leg portion) of the internal modeling portion of the human model 3. May be good. According to this, the fact that the tip portion of the endoscope 8 has passed through the predetermined portion can be grasped as accurate information. That is, the control unit 10 may include as a software element detection information acquisition means for acquiring the presence detection information of the endoscope from each sensor provided at a plurality of predetermined parts of the luminal organ model.
In this case, by using the detection information of the endoscope 8 by the object detection sensor of the human body model 3, it is possible to confirm whether or not the region position data obtained as the inference result of the P-AI model 31 is correct. Therefore, the AI processing module 22 can also determine and correct the correctness of the region position data obtained from the output of the P-AI model 31 based on the detection information. For example, the AI processing module 22 may acquire region position data that indicates a position that matches the detection information and has the maximum probability value.
Further, an AI model may be provided for each organ region between the sites where the object detection sensor is provided, and the control unit 10 can switch the AI model to be used by using the detection information of the object detection sensor. For example, an AI model from the esophageal entrance to the gastroesophageal junction and an AI model from the gastroesophageal junction to the duodenal descending leg are provided. This may be divided into AI models for each organ region not only for the P-AI model 31 but also for the G1-AI model 32 and the G2-AI model 33.
Further, the P-AI model 31 can be formed so as to input the endoscopic image and the detection information of the object detection sensor and output the probability value for each organ region and the probability value for each direction.
By further using the more accurate detection information of the object detection sensor in this way, the inference accuracy of various AI models can be improved.

また、上述の実施形態では特に触れなかったが、制御部10は、P−AIモデル31、G1−AIモデル32及びG2−AIモデル33の推論結果の誤りを自動判定することもできる。
例えば、順次処理対象とされる時系列に隣接する3つの内視鏡画像に関するAIモデルの各出力を比較して、中間の内視鏡画像に関する出力がその前後の内視鏡画像に関する出力と著しく異なる場合に、当該中間の内視鏡画像に関する出力は誤りと判定することができる。時系列で隣接する内視鏡画像の時間間隔は1秒未満となるため、中間の内視鏡画像に関してAIモデルが或る程度の信頼度を持つ出力をしているにも関わらず、その出力が前後の内視鏡画像に関する出力と著しく異なることは、誤判定の可能性が高い。仮に高速に内視鏡8を移動させた場合、内視鏡画像はブレにより鮮明な画像とはならず、そのような内視鏡画像をAIモデルに入力した場合には推論不可能となるはずである。
Further, although not particularly mentioned in the above-described embodiment, the control unit 10 can automatically determine an error in the inference result of the P-AI model 31, the G1-AI model 32, and the G2-AI model 33.
For example, comparing each output of the AI model for three endoscopic images adjacent to the time series to be processed sequentially, the output for the intermediate endoscopic image is significantly different from the output for the endoscopic images before and after it. If they are different, the output for the intermediate endoscopic image can be determined to be erroneous. Since the time interval between adjacent endoscopic images in chronological order is less than 1 second, the output is that the AI model outputs with a certain degree of reliability for the intermediate endoscopic image. Is significantly different from the output related to the front and rear endoscopic images, there is a high possibility of erroneous judgment. If the endoscope 8 is moved at high speed, the endoscope image will not be a clear image due to blurring, and if such an endoscope image is input to the AI model, it should be impossible to infer. Is.

このため、具体的には、制御部10は、中間の内視鏡画像に対してP−AIモデル31の出力から得られる領域位置データ又は領域方向データが前後の内視鏡画像に対して得られる領域位置データ又は領域方向データと著しく異なる場合には、中間の内視鏡画像に関する出力は誤りと判定する。同様に、制御部10は、中間の内視鏡画像に対してG1−AIモデル32又はG2−AIモデル33の出力から得られる領域指定データが前後の内視鏡画像に対して得られる領域指定データと著しく異なる画像領域を指定している場合には、中間の内視鏡画像に関する出力は誤りと判定する。
このように各AIモデルは或る程度の信頼度で出力しているにも関わらず、誤りと判定された場合、制御部10は、その出力を利用しないようにすればよい。
Therefore, specifically, the control unit 10 obtains the region position data or the region direction data obtained from the output of the P-AI model 31 for the intermediate endoscopic image with respect to the front and rear endoscopic images. If it is significantly different from the region position data or region direction data to be obtained, the output related to the intermediate endoscopic image is determined to be incorrect. Similarly, the control unit 10 specifies the area in which the area designation data obtained from the output of the G1-AI model 32 or the G2-AI model 33 for the intermediate endoscope image is obtained for the front and rear endoscope images. If an image area significantly different from the data is specified, the output related to the intermediate endoscopic image is determined to be incorrect.
In this way, even though each AI model outputs with a certain degree of reliability, if it is determined to be an error, the control unit 10 may not use the output.

更に言えば、制御部10は、誤りと判定されたAIモデルの出力を、前後の内視鏡画像に関するAIモデルの出力から自動で生成することもできる。例えば、前後の内視鏡画像に関するP−AIモデル31の出力に基づいて取得された領域位置データ又は領域方向データから、内視鏡は高速に移動しないことを前提に、その中間の内視鏡画像に関する領域位置データ及び領域方向データは予測することができる。G1−AIモデル32又はG2−AIモデル33の出力に基づいて取得される領域指定データについても同様である。例えば、前後の内視鏡画像に関して取得された領域指定データで指定される画像領域間の中間位置の画像領域を指定する領域指定データが当該中間の内視鏡画像に対応するデータとして生成されてもよい。 Furthermore, the control unit 10 can automatically generate the output of the AI model determined to be an error from the output of the AI model related to the front and rear endoscopic images. For example, from the region position data or region direction data acquired based on the output of the P-AI model 31 for the front and rear endoscope images, it is assumed that the endoscope does not move at high speed, and an endoscope in between. The area position data and the area direction data related to the image can be predicted. The same applies to the area designation data acquired based on the output of the G1-AI model 32 or the G2-AI model 33. For example, the area designation data that specifies the image area at the intermediate position between the image areas specified by the area designation data acquired for the front and rear endoscopic images is generated as the data corresponding to the intermediate endoscopic image. May be good.

また、制御部10は、誤りと判定された際の当該中間の内視鏡画像と、上述のように前後の内視鏡画像に関するAIモデルの出力から自動で生成された当該中間の内視鏡画像に関するAIモデルの出力とを関連付けて保持しておく。これにより、このように保持しておいた内視鏡画像と自動生成されたAIモデルの出力とをAIモデルの再学習時の教師データとして用いることもできる。
このようなAIモデルの再学習は、本システム1がトレーニーにより利用されない時間帯に自動で実行されてもよい。
Further, the control unit 10 automatically generates the intermediate endoscope that is automatically generated from the output of the AI model regarding the intermediate endoscope image when it is determined to be an error and the front and rear endoscope images as described above. The output of the AI model related to the image is associated and retained. As a result, the endoscopic image held in this way and the output of the automatically generated AI model can be used as teacher data at the time of re-learning of the AI model.
Such re-learning of the AI model may be automatically executed at a time when the system 1 is not used by the trainee.

また、上述した内視鏡手技トレーナ―システム(本システム1)は、本発明の実施形態の一例である。
本システム1は、人体模型3の臓器モデルを備えており、その臓器モデルを用いた内視鏡手技の自主学習及び自主訓練を可能としていたが、本発明の実施形態としては、内視鏡手技の学習又は訓練を目的とするものに限らず、内視鏡8そのものであってもよい。
図11は、他の実施形態に係る内視鏡システム80(内視鏡8)の制御構成を概念的に示す図である。
内視鏡システム80は、先端部及び湾曲部を含む挿入部、先端部及び湾曲部に対して各種操作を行うための操作部、画像処理装置82、表示装置83等から構成されている。先端部には内視鏡撮像部81が設けられており、内視鏡撮像部81及び表示装置83は、ケーブル等により画像処理装置82に接続されている。
画像処理装置82は、プロセッサ85、メモリ86、入出力インタフェース(I/F)ユニット87等を有しており、メモリ86に格納されている制御プログラム及びAIモデルがプロセッサ85で実行されることで、上述の制御部10と同様の処理が実現されればよい。
画像処理装置82のソフトウェア構成は、図3に示される制御部10のソフトウェア構成と同様であればよい。画像処理装置82は、内視鏡画像処理装置或いは内視鏡画像処理システムと表記することもできる。
The endoscopic procedure trainer system (system 1) described above is an example of an embodiment of the present invention.
The present system 1 includes an organ model of the human body model 3, and enables self-learning and self-training of endoscopic techniques using the organ model. However, as an embodiment of the present invention, the endoscopic technique is performed. The endoscope 8 itself may be used, not limited to those for the purpose of learning or training.
FIG. 11 is a diagram conceptually showing a control configuration of the endoscope system 80 (endoscope 8) according to another embodiment.
The endoscope system 80 includes an insertion portion including a tip portion and a curved portion, an operation unit for performing various operations on the tip portion and the curved portion, an image processing device 82, a display device 83, and the like. An endoscope imaging unit 81 is provided at the tip portion, and the endoscope imaging unit 81 and the display device 83 are connected to the image processing device 82 by a cable or the like.
The image processing device 82 has a processor 85, a memory 86, an input / output interface (I / F) unit 87, and the like, and the control program and the AI model stored in the memory 86 are executed by the processor 85. , The same processing as that of the control unit 10 described above may be realized.
The software configuration of the image processing device 82 may be the same as the software configuration of the control unit 10 shown in FIG. The image processing device 82 may also be referred to as an endoscopic image processing device or an endoscopic image processing system.

内視鏡システム80において、画像処理装置82で取得される内視鏡画像は、人体模型3の管腔臓器モデルを撮像した画像であってもよいし、生体の管腔臓器を撮像した画像であってもよいし、それら両方であってもよい。但し、生体の管腔臓器を内視鏡撮像部81で撮像した内視鏡画像を処理対象とする場合には、P−AIモデル31、G1−AIモデル32及びG2−AIモデル33は、生体の管腔臓器を撮像した教師用内視鏡画像を用いて機械学習されていることが望ましい。その教師用内視鏡画像に対応する領域位置データの正解及び領域方向データの正解、並びに教師用内視鏡画像に対応する領域指定データの正解やそれに対する内視鏡のジョブ情報は、その教師用内視鏡画像を複数の熟練医師で確認することで生成することができる。
また、P−AIモデル31、G1−AIモデル32及びG2−AIモデル33は、上述の本システム1と同様に、人体模型3の管腔臓器モデルを撮像した教師用内視鏡画像を用いて機械学習させた上で、生体の管腔臓器を撮像した教師用内視鏡画像を用いて更に機械学習させるようにしてもよい。更に言えば、様々な形状、大きさ及び態様の管腔臓器を模した複数タイプの管腔臓器モデルを準備し、それら複数タイプの管腔臓器モデルを切り替えながら撮像した教師用内視鏡画像を用いて機械学習させることも可能である。
このようにすれば、P−AIモデル31などの各種AIモデルの推定精度を向上することができる。
In the endoscope system 80, the endoscope image acquired by the image processing device 82 may be an image obtained by capturing the lumen organ model of the human body model 3, or an image obtained by capturing the lumen organ of a living body. There may be, or both. However, when the endoscopic image obtained by the endoscopic imaging unit 81 of the luminal organ of the living body is to be processed, the P-AI model 31, G1-AI model 32 and G2-AI model 33 are living bodies. It is desirable that machine learning is performed using a teacher's endoscopic image that images the luminal organs of. The correct answer of the area position data and the area direction data corresponding to the teacher's endoscope image, the correct answer of the area designation data corresponding to the teacher's endoscope image, and the job information of the endoscope for it are the teachers. It can be generated by confirming the endoscopic image for use with a plurality of skilled doctors.
Further, the P-AI model 31, the G1-AI model 32, and the G2-AI model 33 use the endoscopic images for teachers that image the lumen organ model of the human body model 3 in the same manner as the above-mentioned system 1. After machine learning, further machine learning may be performed using an endoscopic image for a teacher that images a luminal organ of a living body. Furthermore, we prepared multiple types of tract organ models that imitated tract organs of various shapes, sizes, and modes, and captured endoscopic images for teachers while switching between these multiple types of tract organ models. It is also possible to use it for machine learning.
By doing so, it is possible to improve the estimation accuracy of various AI models such as the P-AI model 31.

また、磁気センサと連携して内視鏡先端部の位置及び向きを取得可能な内視鏡システムを用いて教師用内視鏡画像を収集すると共に、その内視鏡システムで取得された内視鏡先端部の位置情報及び向き情報を収集し、それらを関連付けた複数の教師用データを用いて、P−AIモデル31を機械学習させることもできる。この場合は、上述した「領域位置データ」及び「領域方向データ」よりも細分化された位置情報及び向き情報でP−AIモデル31を学習させることができ、そのように細分化された位置情報及び向き情報が取得可能となる。 In addition, a teacher's endoscope image is collected using an endoscope system that can acquire the position and orientation of the tip of the endoscope in cooperation with a magnetic sensor, and the endoscope acquired by the endoscope system is used. It is also possible to machine-learn the P-AI model 31 by collecting the position information and the orientation information of the tip of the mirror and using a plurality of teacher data associated with them. In this case, the P-AI model 31 can be trained with the position information and the orientation information that are more subdivided than the above-mentioned "region position data" and "region direction data", and the position information is subdivided as such. And direction information can be acquired.

また、内視鏡システム80は、カプセル内視鏡のシステムであってもよい。この場合、内視鏡撮像部81は、内視鏡先端部に設けられるわけではなく、カプセル内視鏡自体に設けられ、画像処理装置82と無線通信により接続されればよい。
また、内視鏡システム80は、表示装置83を備える必要もない。P−AIモデル31から取得される領域位置データ及び領域方向データは、対象の内視鏡画像と関連付けられて、メモリ86に格納されればよい。同様に、G1−AIモデル32及びG2−AIモデル33から取得される領域指定データについても、対象の内視鏡画像と関連付けられて、メモリ86に格納されればよい。
また、生成されたガイド情報は、内視鏡における先端部及び湾曲部を含む挿入部、又はカプセル内視鏡自体を自動で動作させるための情報として利用されてもよい。
Further, the endoscope system 80 may be a capsule endoscopy system. In this case, the endoscope imaging unit 81 may not be provided at the tip of the endoscope, but may be provided at the capsule endoscope itself and connected to the image processing device 82 by wireless communication.
Further, the endoscope system 80 does not need to include a display device 83. The area position data and the area direction data acquired from the P-AI model 31 may be associated with the target endoscopic image and stored in the memory 86. Similarly, the area designation data acquired from the G1-AI model 32 and the G2-AI model 33 may also be associated with the target endoscopic image and stored in the memory 86.
Further, the generated guide information may be used as information for automatically operating the insertion portion including the tip portion and the curved portion of the endoscope, or the capsule endoscope itself.

上述した各実施形態の内容は、次のように特定することもできる。
(付記1)管腔臓器内の内視鏡により撮像された内視鏡画像を取得する画像取得手段と、
第一の学習済みモデルに対して前記取得された内視鏡画像を与えることで、該内視鏡画像を撮像した内視鏡の位置及び方向を示す位置情報及び向き情報を取得する第一モデル処理手段と、
前記取得された位置情報及び向き情報と前記取得された内視鏡画像とを関連付けて格納する格納手段と、
を備え、
前記第一の学習済みモデルは、教師用内視鏡画像を撮像した内視鏡の位置及び向きの正解を該教師用内視鏡画像に対して関連付けた複数の教師データに基づいて、機械学習されている、
内視鏡画像処理システム。
(付記2)前記複数の教師データにおける内視鏡の位置及び向きの正解は、管腔臓器を長軸方向に仮想的に区分けした複数領域の各々を位置情報として識別し得る領域位置データの正解、及び各領域にそれぞれ仮想的に設定される三次元直交軸で示される各方向を識別し得る領域方向データの正解であり、
前記第一モデル処理手段は、前記取得された内視鏡画像に対応する領域位置データ及び領域方向データを前記位置情報及び前記向き情報として取得する、
(付記1)に記載の内視鏡画像処理システム。
(付記3)前記画像取得手段により取得される内視鏡画像は、生体の管腔臓器内又は生体の管腔臓器を模した管腔臓器モデル内の内視鏡により撮像された画像であり、
前記複数の教師データは、前記管腔臓器モデル内で内視鏡により撮像された複数の教師用内視鏡画像を含む、
付記1又は2に記載の内視鏡画像処理システム。
(付記4)生体の管腔臓器を模した管腔臓器モデルの複数の所定部位に設けられた各センサからの内視鏡の存在検出情報を取得する検出情報取得手段、
を更に備え、
前記画像取得手段により取得される内視鏡画像は、前記管腔臓器モデル内の内視鏡により撮像された画像であり、
前記複数の教師データの教師用内視鏡画像は、前記管腔臓器モデル内で内視鏡により撮像された画像であり、
前記第一モデル処理手段は、前記取得された存在検出情報を更に用いて、前記位置情報及び前記向き情報を取得する、
(付記1)又は(付記2)に記載の内視鏡画像処理システム。
(付記5)第二の学習済みモデルに対して前記取得された内視鏡画像を与えることで、該内視鏡画像に対応する領域指定データを取得する第二モデル処理手段と、
前記取得された領域指定データに基づいて、前記取得された内視鏡画像内の該領域指定データで指定される画像領域に関する内視鏡のガイド情報を生成する出力処理手段と、
を更に備え、
前記第二の学習済みモデルは、各教師用内視鏡画像に対して領域指定データの正解をそれぞれ関連付けた複数の教師データを用いて機械学習されている、
(付記1)から(付記4)のいずれか一つに記載の内視鏡画像処理システム。
(付記6)前記第二の学習済みモデルは、各教師用内視鏡画像に対して内視鏡のジョブ情報でタグ付けされた特定画像領域を指定する第二領域指定データの正解をそれぞれ関連付けた複数の教師データを用いて機械学習されており、
前記第二モデル処理手段は、前記領域指定データと共に、前記領域指定データに対応するジョブ情報を更に取得し、
前記出力処理手段は、前記ジョブ情報を更に用いて、該ジョブ情報に対応する表示形態で、前記取得された領域指定データで指定される画像領域を示す表示を前記ガイド情報として前記取得された内視鏡画像に付加する、
(付記5)に記載の内視鏡画像処理システム。
(付記7)前記出力処理手段は、前記取得された内視鏡画像内における前記取得された領域指定データで示される画像領域に向かう方向表示を該内視鏡画像に重畳表示させる、
(付記5)又は(付記6)に記載の内視鏡画像処理システム。
(付記8)前記出力処理手段は、前記取得された内視鏡画像内における前記取得された領域指定データで示される画像領域が、該内視鏡画像における所定位置又は所定大きさとなったことを報知する報知表示を出力する、
(付記5)から(付記7)のいずれか一つに記載の内視鏡画像処理システム。
(付記9)前記格納手段は、前記取得された領域指定データに基づいて、内視鏡で撮像記録されたと推定される臓器部位の履歴情報である撮像記録情報を保持し、
前記出力処理手段は、前記撮像記録情報で示される臓器部位の履歴情報に基づいて、撮像記録すべき臓器部位群の中から撮像記録がなされていない臓器部位を特定する、
(付記5)から(付記8)のいずれか一つに記載の内視鏡画像処理システム。
(付記10)前記出力処理手段は、前記画像取得手段により逐次取得される内視鏡画像に基づいて、内視鏡が管腔臓器内で所定時間停滞していることを検出することを契機に、前記ガイド情報を付加した表示を出力する、
(付記5)から(付記9)のいずれか一つに記載の内視鏡画像処理システム。
(付記11)第二の学習済みモデルに対して前記取得された内視鏡画像を与えることで、該内視鏡画像に対応する第一領域指定データを取得する第二モデル処理手段と、
第三の学習済みモデルに対して前記取得された内視鏡画像を与えることで、該内視鏡画像に対応する第二領域指定データ及び該第二領域指定データに対応するジョブ情報を取得する第三モデル処理手段と、
前記第二の学習済みモデル及び前記第三の学習済みモデルの各出力に基づいて、前記取得された第一領域指定データか、前記取得された第二領域指定データ及びジョブ情報かのいずれか一方を選択し、前記取得された内視鏡画像内の該選択された該第一領域指定データ又は該第二領域指定データで指定される画像領域に関する内視鏡のガイド情報を生成する出力処理手段と、
を更に備え、
前記第二の学習済みモデルは、各教師用内視鏡画像に対して第一領域指定データの正解をそれぞれ関連付けた複数の教師データを用いて機械学習されており、
前記第三の学習済みモデルでは、各教師用内視鏡画像に対して内視鏡のジョブ情報でタグ付けされた特定画像領域を指定する第二領域指定データの正解をそれぞれ関連付けた複数の教師データを用いて機械学習されている、
(付記1)から(付記4)のいずれか一つに記載の内視鏡画像処理システム。
The contents of each of the above-described embodiments can also be specified as follows.
(Appendix 1) An image acquisition means for acquiring an endoscopic image taken by an endoscope in a luminal organ, and
By giving the acquired endoscope image to the first trained model, the first model that acquires the position information and the orientation information indicating the position and direction of the endoscope that captured the endoscope image. Processing means and
A storage means for associating and storing the acquired position information and orientation information with the acquired endoscopic image, and
With
The first trained model is machine-learned based on a plurality of teacher data in which the correct answer of the position and orientation of the endoscope that captured the teacher's endoscope image is associated with the teacher's endoscope image. Has been
Endoscopic image processing system.
(Appendix 2) The correct answer of the position and orientation of the endoscope in the plurality of teacher data is the correct answer of the area position data in which each of the plurality of regions in which the luminal organ is virtually divided in the long axis direction can be identified as position information. , And the correct answer of the area direction data that can identify each direction indicated by the three-dimensional orthogonal axis virtually set in each area.
The first model processing means acquires region position data and region direction data corresponding to the acquired endoscopic image as the position information and the orientation information.
The endoscopic image processing system according to (Appendix 1).
(Appendix 3) The endoscopic image acquired by the image acquisition means is an image taken by an endoscope in a tract organ of a living body or in a tract organ model imitating a tract organ of a living body.
The plurality of teacher data includes a plurality of teacher endoscopic images captured by an endoscope in the luminal organ model.
The endoscopic image processing system according to Appendix 1 or 2.
(Appendix 4) Detection information acquisition means for acquiring the presence detection information of an endoscope from each sensor provided at a plurality of predetermined parts of a tract organ model imitating a tract organ of a living body.
Further prepare
The endoscopic image acquired by the image acquisition means is an image captured by the endoscope in the luminal organ model.
The teacher endoscopic image of the plurality of teacher data is an image taken by the endoscope in the tract organ model.
The first model processing means further uses the acquired existence detection information to acquire the position information and the orientation information.
The endoscopic image processing system according to (Appendix 1) or (Appendix 2).
(Appendix 5) A second model processing means for acquiring region designation data corresponding to the endoscopic image by giving the acquired endoscopic image to the second trained model.
An output processing means for generating endoscope guide information regarding an image region designated by the region designation data in the acquired endoscope image based on the acquired region designation data.
Further prepare
The second trained model is machine-learned using a plurality of teacher data in which the correct answers of the region designation data are associated with each teacher's endoscopic image.
The endoscopic image processing system according to any one of (Appendix 1) to (Appendix 4).
(Appendix 6) The second trained model associates the correct answer of the second area designation data that specifies the specific image area tagged with the job information of the endoscope with each teacher's endoscope image. It is machine-learned using multiple teacher data.
The second model processing means further acquires the job information corresponding to the area designation data together with the area designation data, and further acquires the job information.
The output processing means further uses the job information, and in a display form corresponding to the job information, the display indicating the image area designated by the acquired area designation data is used as the guide information. Add to the endoscopic image,
The endoscopic image processing system according to (Appendix 5).
(Appendix 7) The output processing means superimposes and displays a direction display toward an image area indicated by the acquired area designation data in the acquired endoscopic image on the endoscopic image.
The endoscopic image processing system according to (Appendix 5) or (Appendix 6).
(Appendix 8) The output processing means indicates that the image area indicated by the acquired area designation data in the acquired endoscopic image has become a predetermined position or a predetermined size in the endoscopic image. Output the notification display to notify,
The endoscopic image processing system according to any one of (Appendix 5) to (Appendix 7).
(Appendix 9) The storage means holds image recording information which is historical information of an organ part estimated to have been imaged and recorded by an endoscope based on the acquired area designation data.
The output processing means identifies an organ part for which imaging recording has not been made from the organ part group to be imaged and recorded based on the history information of the organ part indicated by the imaging recording information.
The endoscopic image processing system according to any one of (Appendix 5) to (Appendix 8).
(Appendix 10) The output processing means triggers the detection that the endoscope is stagnant in the luminal organ for a predetermined time based on the endoscopic images sequentially acquired by the image acquisition means. , Output the display with the guide information added,
The endoscopic image processing system according to any one of (Appendix 5) to (Appendix 9).
(Appendix 11) A second model processing means for acquiring the first region designation data corresponding to the endoscopic image by giving the acquired endoscopic image to the second trained model.
By giving the acquired endoscopic image to the third trained model, the second region designation data corresponding to the endoscopic image and the job information corresponding to the second region designation data are acquired. Third model processing means and
Either the acquired first region designation data or the acquired second region designation data and job information based on the outputs of the second trained model and the third trained model. Is selected, and output processing means for generating the guide information of the endoscope regarding the selected first region designation data or the image region designated by the second region designation data in the acquired endoscope image. When,
Further prepare
The second trained model is machine-learned using a plurality of teacher data in which the correct answers of the first region designation data are associated with each teacher's endoscopic image.
In the third trained model, a plurality of teachers are associated with the correct answers of the second area designation data that specifies the specific image area tagged with the job information of the endoscope for each teacher's endoscope image. Machine learning using data,
The endoscopic image processing system according to any one of (Appendix 1) to (Appendix 4).

1 内視鏡手技トレーナ―システム(本システム)、3 人体模型、5 入出力パネル、6 スピーカ、7 センサ群、8 内視鏡、10 制御部、11 プロセッサ、12 メモリ、13 入出力I/Fユニット、21 画像処理モジュール、22 AI処理モジュール、23 格納処理モジュール、24 出力処理モジュール、31 ポジショニングAIモデル(P−AIモデル)、32 第一ガイドAIモデル(G1−AIモデル)、33 第二ガイドAIモデル(G2−AIモデル)、80 内視鏡システム、81 内視鏡撮像部、82 画像処理装置、83 表示装置、85 プロセッサ、86 メモリ、87 入出力I/Fユニット
1 Endoscope procedure trainer system (this system), 3 human body model, 5 input / output panel, 6 speakers, 7 sensor group, 8 endoscope, 10 control unit, 11 processor, 12 memory, 13 input / output I / F Unit, 21 Image processing module, 22 AI processing module, 23 Storage processing module, 24 Output processing module, 31 Positioning AI model (P-AI model), 32 First guide AI model (G1-AI model), 33 Second guide AI model (G2-AI model), 80 endoscopic system, 81 endoscopic imaging unit, 82 image processing device, 83 display device, 85 processor, 86 memory, 87 input / output I / F unit

Claims (1)

管腔臓器内の内視鏡により撮像された内視鏡画像を取得する画像取得手段と、
学習済みモデルに対して前記取得された内視鏡画像を与えることで、該内視鏡画像に対応する領域指定データを取得するモデル処理手段と、
前記取得された領域指定データに基づいて、前記取得された内視鏡画像内の該領域指定データで指定される画像領域に関する内視鏡のガイド情報を該内視鏡画像に付加した表示を出力する出力処理手段と、
を備え、
前記学習済みモデルは、各教師用内視鏡画像に対して領域指定データの正解をそれぞれ関連付けた複数の教師データを用いて機械学習されている、
内視鏡画像処理システム。
An image acquisition means for acquiring an endoscopic image taken by an endoscope in a luminal organ,
By giving the acquired endoscopic image to the trained model, a model processing means for acquiring the area designation data corresponding to the endoscopic image, and
Based on the acquired region designation data, a display in which the guide information of the endoscope regarding the image region designated by the region designation data in the acquired endoscope image is added to the endoscope image is output. Output processing means to be
With
The trained model is machine-learned using a plurality of teacher data in which the correct answers of the region designation data are associated with each teacher's endoscopic image.
Endoscopic image processing system.
JP2019172326A 2019-09-20 2019-09-20 Endoscopic image processing system Pending JP2021048928A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019172326A JP2021048928A (en) 2019-09-20 2019-09-20 Endoscopic image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019172326A JP2021048928A (en) 2019-09-20 2019-09-20 Endoscopic image processing system

Publications (1)

Publication Number Publication Date
JP2021048928A true JP2021048928A (en) 2021-04-01

Family

ID=75154867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019172326A Pending JP2021048928A (en) 2019-09-20 2019-09-20 Endoscopic image processing system

Country Status (1)

Country Link
JP (1) JP2021048928A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281738A1 (en) * 2021-07-09 2023-01-12 オリンパス株式会社 Information processing device and information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281738A1 (en) * 2021-07-09 2023-01-12 オリンパス株式会社 Information processing device and information processing method

Similar Documents

Publication Publication Date Title
WO2021054419A1 (en) Endoscopic image processing system and endoscopic image processing method
US11935429B2 (en) Endoscope simulator
US10360814B2 (en) Motion learning support apparatus
US9053641B2 (en) Real-time X-ray vision for healthcare simulation
WO2020090945A1 (en) Medical simulator
JP6521511B2 (en) Surgical training device
WO2021176664A1 (en) Inspection support system, inspection support method, and program
JP4681242B2 (en) Catheter examination simulation system
JP7457415B2 (en) Computer program, learning model generation method, and support device
JP6014450B2 (en) Motion learning support device
JP2021049314A (en) Endoscopic image processing system
JP2021048928A (en) Endoscopic image processing system
JP2016539767A (en) Endoscopy equipment
WO2017126313A1 (en) Surgery training and simulation system employing bio-texture modeling organ
JP7378837B2 (en) Medical simulator and procedure evaluation method using the medical simulator
US10810907B2 (en) Medical training and performance assessment instruments, methods, and systems
Manfredi Endorobotics: Design, R&D and future trends
Wytyczak-Partyka et al. A novel interaction method for laparoscopic surgery training
López et al. Work-in-Progress—Towards a Virtual Training Environment for Lower Gastrointestinal Endoscopy

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220131