JP6749020B2 - Endoscope navigation device - Google Patents

Endoscope navigation device Download PDF

Info

Publication number
JP6749020B2
JP6749020B2 JP2017229065A JP2017229065A JP6749020B2 JP 6749020 B2 JP6749020 B2 JP 6749020B2 JP 2017229065 A JP2017229065 A JP 2017229065A JP 2017229065 A JP2017229065 A JP 2017229065A JP 6749020 B2 JP6749020 B2 JP 6749020B2
Authority
JP
Japan
Prior art keywords
endoscope
data
endoscopic
image
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017229065A
Other languages
Japanese (ja)
Other versions
JP2019097661A5 (en
JP2019097661A (en
Inventor
水野 均
均 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MIZUNO, YUKO
Original Assignee
MIZUNO, YUKO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MIZUNO, YUKO filed Critical MIZUNO, YUKO
Priority to JP2017229065A priority Critical patent/JP6749020B2/en
Priority to PCT/JP2018/042874 priority patent/WO2019107226A1/en
Publication of JP2019097661A publication Critical patent/JP2019097661A/en
Publication of JP2019097661A5 publication Critical patent/JP2019097661A5/ja
Application granted granted Critical
Publication of JP6749020B2 publication Critical patent/JP6749020B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、医療分野においては診断および治療を行う内視鏡装置に関するものである。 TECHNICAL FIELD The present invention relates to an endoscopic device that performs diagnosis and treatment in the medical field.

内視鏡装置は、従来から医療分野および工業用分野で広く用いられている。内視鏡装置は、挿入部と、挿入部の先端に設けられた撮像素子と照明装置により、挿入部の先にある対象物の画像を取得し、画像化装置および画像表示装置により画像を表示し、操作者は検査を行うことができる。また、内視鏡の先端に湾曲機構を有し、例えば、上下、左右の2自由度の湾曲動作を行うことができる。この湾曲動作により、例えば医療分野において、内視鏡を消化管に挿入する際のステアリングを行ったり、組織を観察あるいは診断をする際の視野をコントロールしたり、さらには、腫瘍などを切除する際の処置具の位置や方向をコントロールすることができる。 Endoscope devices have been widely used in the medical field and industrial field from the past. The endoscope apparatus acquires an image of a target object at the tip of the insertion section by using the insertion section, an imaging element provided at the tip of the insertion section, and a lighting device, and displays the image by an imaging apparatus and an image display apparatus. However, the operator can perform the inspection. Further, a bending mechanism is provided at the tip of the endoscope, and for example, it is possible to perform a bending operation with two degrees of freedom in up and down and left and right. Due to this bending operation, for example, in the medical field, steering when inserting an endoscope into the digestive tract, controlling the visual field when observing or diagnosing tissue, and further when excising a tumor etc. The position and direction of the treatment tool can be controlled.

従来、内視鏡を消化管に挿入する際に、操作者は内視鏡の湾曲状態や挿入部の状態を把握しながら、内視鏡が通過する管腔の部位毎に応じた、湾曲操作や挿入部の進退・回転の操作の手順を踏んでいく必要がある。こうした手順を身に付けるためには、非常に多くの経験が必要であった。 Conventionally, when inserting an endoscope into the digestive tract, the operator grasps the bending state of the endoscope and the state of the insertion portion while performing a bending operation according to each region of the lumen through which the endoscope passes. It is necessary to follow the procedure for moving the insert part back and forth and rotating it. It took a great deal of experience to acquire these procedures.

例えば、特許第2710384は、内視鏡像の暗い領域を抽出することによって内視鏡の挿入方向を検出し、内視鏡操作者が検出された内視鏡の挿入方向を見て湾曲操作及び挿入操作を行い内視鏡を挿入する、あるいは、検出された挿入方向に対し自動的に先端部を向け内視鏡を挿入することが考案されている。 For example, Japanese Patent No. 2710384 detects the insertion direction of the endoscope by extracting a dark region of the endoscope image, and the endoscope operator sees the detected insertion direction of the endoscope and performs bending operation and insertion. It has been devised to perform an operation to insert the endoscope, or to insert the endoscope by automatically pointing the distal end portion in the detected insertion direction.

特許第2710384Patent No. 2710384

特許第2710384による内視鏡像の暗い領域を抽出することによって内視鏡の挿入方向を検出し、自動的に先端部を向ける場合についての記載があるが、先端部をどちらの方向にどのような入力操作で向けるかについては、先端部を暗い領域の方向に向ける以外の記載はなかった。実際の内視鏡の挿入においては、暗部を内視鏡画像の中央に持ってくることもあれば、内視鏡画像の下方に持ってくる場合もあり、こうした動作目標の認識は操作者が行い、その認識の元で簡便に操作する手段が必要であった。 According to Japanese Patent No. 2710384, the insertion direction of the endoscope is detected by extracting the dark area of the endoscope image, and the tip portion is automatically oriented. However, what direction is the tip portion in which direction? As to whether to direct the input operation, there was no description other than to direct the tip toward the dark area. In the actual insertion of the endoscope, the dark part may be brought to the center of the endoscopic image or may be brought to the lower part of the endoscopic image. It was necessary to have a means for performing the operation easily based on the recognition.

また、暗部は、内視鏡操作における一つの指標でしかなく、その他にも内視鏡画像に現れる気泡の位置や、内視鏡の湾曲状態や挿入部の状態も指標としながら、内視鏡が通過する管腔の部位毎に、湾曲操作や挿入部の進退・回転の操作の手順を踏んでいく必要がある。こうした手順を身に付けるためには、非常に多くの経験が必要であった。 Further, the dark part is only one index in the operation of the endoscope, and the position of the bubble appearing in the endoscopic image, the curved state of the endoscope, and the state of the insertion part are also used as indices in addition to the index. It is necessary to go through the procedure of the bending operation and the operation of advancing/retreating/rotating the insertion portion for each part of the lumen through which is passed. It took a great deal of experience to acquire these procedures.

内視鏡が通過する管腔の部位毎に応じた、湾曲操作や挿入部の進退・回転の操作の手順をコンピュータによりナビゲーションする。さらに、ナビゲーションによる内視鏡挿入にかかる情報をデータベースに蓄積し、データベースをもとに機械学習することによりナビゲーションのプログラムを更新させ、精度を高めるものであり、具体的には、以下の構成を特徴とする。 The computer navigates the procedure of the bending operation and the operation of advancing/retreating/rotating the insertion portion according to the region of the lumen through which the endoscope passes. Furthermore, the information on the insertion of the endoscope by navigation is stored in a database, and the machine learning is performed based on the database to update the navigation program and improve the accuracy. Specifically, the following configuration is used. Characterize.

第1発明の内視鏡ナビゲーション装置は、
内視鏡ナビゲーション装置において、
内視鏡画像の画像化装置と、
前記内視鏡画像の内視鏡画像における内視鏡画像に表示される内視鏡操作の指標となる対象物の特徴量に関する画像情報データを解析・検出する画像処理装置と、
内視鏡の湾曲状態、挿入部の回転、挿入長のいずれか一つ以上からなる挿入状態データを検出する機能と、
前記特徴量に関する画像情報データおよび前記挿入状態データをパラメータとして、消化管管腔への内視鏡の挿入操作における該内視鏡の湾曲操作および挿入部の回転および進退の操作のタイミングや操作量に関する手順を予めデータ化したナビゲーションプログラムと、
内視鏡の挿入操作の際に前記特徴量に関する画像情報データおよび前記挿入状態データのパラメータを元に前記ナビゲーションプログラムを参照して導かれる該内視鏡の湾曲操作および挿入部の回転および進退の操作のタイミングや操作量に関する手順を少なくとも2つ以上を、同時または連続して画像または音声で提示するナビゲーション機能と
を具備することを特徴とする。
The endoscope navigation device of the first invention is
In the endoscopic navigation device,
An imaging device for endoscopic images,
An image processing device that analyzes and detects image information data relating to a feature amount of a target object that is an index of endoscopic operation displayed in the endoscopic image in the endoscopic image of the endoscopic image ,
A function to detect insertion state data consisting of one or more of the bending state of the endoscope, rotation of the insertion portion, and insertion length,
Timing and operation amount of the bending operation of the endoscope and the operation of rotating and advancing and retracting the insertion portion in the operation of inserting the endoscope into the gastrointestinal lumen using the image information data and the insertion state data regarding the characteristic amount as parameters. A navigation program in which the procedures regarding
The endoscope rotation and retreat of the bending operation and the insertion portion of the said endoscope derived by referring to the navigation program the parameters of the image information data and the insertion status data relating to the feature amount based upon insertion operations The present invention is characterized by having a navigation function of presenting at least two or more procedures relating to operation timing and operation amount simultaneously or continuously with images or sounds.

発明の内視鏡ナビゲーション装置は、
内視鏡ナビゲーション装置において、
前記挿入手順をナビゲーションデータとして記録する機能と、
前記ナビゲーションデータを元に内視鏡操作を行った内容を操作データとして記録する機能と、
内視鏡操作を行った結果を計測・評価する効果判定結果データを算出する機能と、
前記画像情報データ、前記挿入状態データ、前記ナビゲーションデータ、前記操作データおよび前記効果判定結果データを、それぞれ関連付けてデータベースに蓄積する機能と、
前記データベースに蓄積されたデータ間との関係を機械学習する機能と、
前記機械学習による結果を利用して、前記ナビゲーションプログラムを変更する機能と
を備えたことを特徴とする。
The endoscope navigation device of the second invention is
In the endoscopic navigation device,
A function of recording the insertion procedure as navigation data,
A function of recording the contents of the operation of the endoscope as operation data based on the navigation data,
A function to calculate effect evaluation result data that measures and evaluates the result of endoscope operation,
A function of associating the image information data, the insertion state data, the navigation data, the operation data, and the effect determination result data with each other in a database,
A function for machine learning the relationship between the data accumulated in the database,
And a function of changing the navigation program by using a result of the machine learning.

発明の内視鏡ナビゲーション装置は、
内視鏡ナビゲーション装置において、
前記内視鏡画像の内視鏡画像における内視鏡画像に表示される内視鏡操作の指標となる対象物の特徴量に関する画像情報データを解析・検出するステップと、
内視鏡の湾曲状態、挿入部の回転、挿入長のいずれか一つ以上からなる挿入状態データを検出するステップと、
前記特徴量に関する画像情報データおよび前記挿入状態データをパラメータとして、消化管管腔への内視鏡の挿入操作における該内視鏡の湾曲操作および挿入部の回転および進退の操作のタイミングや操作量に関する手順を予めナビゲーションプログラムとしてデータ化するステップと、
内視鏡の挿入操作の際に前記特徴量に関する前記画像情報データおよび前記挿入状態データのパラメータを元に前記ナビゲーションプログラムを参照して消化管管腔への内視鏡の挿入操作における該内視鏡の操作量に関する手順を導くステップと、
消化管管腔への内視鏡の挿入操作における該内視鏡の操作量に関する手順を少なくとも2つ以上を、同時または連続して画像または音声で提示するステップと
を実行することを特徴とする。
The endoscope navigation device of the third invention is
In the endoscopic navigation device,
A step of analyzing and detecting image information data relating to the feature amount of the target object which is an index of the endoscopic operation displayed on the endoscopic image in the endoscopic image of the endoscopic image;
Bending state of the endoscope, rotation of the insertion portion, a step of detecting insertion state data consisting of any one or more of the insertion length ,
Timing and operation amount of the bending operation of the endoscope and the operation of rotating and advancing and retracting the insertion portion in the operation of inserting the endoscope into the gastrointestinal tract, using the image information data and the insertion state data regarding the characteristic amount as parameters. A step of converting the procedure related to data into a navigation program in advance,
In the operation of inserting the endoscope, the endoscope in the operation of inserting the endoscope into the gastrointestinal lumen is referred to by referring to the navigation program based on the parameters of the image information data and the insertion state data regarding the feature amount. A step for guiding the procedure regarding the operation amount of the mirror,
A step of presenting at least two or more procedures relating to the operation amount of the endoscope in the operation of inserting the endoscope into the lumen of the digestive tract simultaneously or continuously with an image or a sound. ..

内視鏡の操作を容易にし、操作者に高い技能や熟練を求めることなく、内視鏡による診断および治療の正確さ向上させ、時間の短縮を行う。 The operation of the endoscope is facilitated, and the accuracy of diagnosis and treatment by the endoscope is improved and the time is shortened without requiring the operator to have high skill or skill.

内視鏡ナビゲーション装置のシステムの構成を示す図である。It is a figure which shows the structure of the system of an endoscope navigation apparatus. 内視鏡挿入位置センサーの構造を示す図である。It is a figure which shows the structure of an endoscope insertion position sensor. 内視鏡画像における暗部をタッチして湾曲動作を行う操作インターフェースを示す図である。It is a figure which shows the operation interface which touches the dark part in an endoscopic image, and performs a bending operation. 実施例1の大腸内視鏡の挿入操作におけるナビゲーションのメニューを示す図である。FIG. 5 is a diagram showing a navigation menu in the insertion operation of the colonoscope of the first embodiment. 実施例1の大腸内視鏡の挿入操作における手順を示す図である。FIG. 6 is a diagram showing a procedure in an insertion operation of the colonoscope of the first embodiment. 実施例2の大腸内視鏡の挿入操作におけるナビゲーションの機械学習において行われるフローチャートを示す図である。FIG. 10 is a diagram showing a flowchart performed in machine learning of navigation in the insertion operation of the colonoscope of the second embodiment.

(実施例1)
本実施例は、内視鏡の挿入におけるナビゲーションに関するものである。本実施例の構成を図1示す。内視鏡装置1は、挿入部10と、挿入部10の先端に設けられた撮像素子2と、照明装置3と、挿入部10の先端に照明光を導光する照明ファイバー4を備え、挿入部10の先にある対象物の画像信号を取得し、画像化装置5により画像を構成し表示モニター17により画像を表示する。これにより操作者は内視鏡画像を見て内視鏡診断・治療を行うことができる。また、内視鏡の先端には湾曲機構7を有し、例えば、上下、左右の2自由度の湾曲動作を行うことができる。この湾曲動作により、例えば医療分野において、内視鏡を消化管に挿入する際のステアリングを行ったり、組織を観察あるいは診断をする際の視野をコントロールしたり、さらには、腫瘍などを切除する際の処置具の位置や方向をコントロールすることができる。
(Example 1)
This embodiment relates to navigation in inserting an endoscope. The configuration of this embodiment is shown in FIG. The endoscope device 1 includes an insertion portion 10, an image sensor 2 provided at the tip of the insertion portion 10, an illumination device 3, and an illumination fiber 4 that guides illumination light to the tip of the insertion portion 10. The image signal of the object at the end of the unit 10 is acquired, the image is formed by the imaging device 5, and the image is displayed by the display monitor 17. As a result, the operator can perform endoscopic diagnosis/treatment by viewing the endoscopic image. Further, a bending mechanism 7 is provided at the tip of the endoscope, and for example, it is possible to perform a bending operation with two degrees of freedom of up, down, left and right. Due to this bending operation, for example, in the medical field, steering when inserting an endoscope into the digestive tract, controlling the visual field when observing or diagnosing tissue, and further when excising a tumor etc. The position and direction of the treatment tool can be controlled.

湾曲動作のために、内視鏡の先端に設けられた連結された湾曲管8からなる湾曲機構7と、手元の操作部11に設けられたプーリー12と、両者を挿入部10に沿わせて配備されたワイヤー9によって結合し、駆動伝達されるようになっている。プーリー12は歯車大13に連結され、歯車大13は歯車小14と噛み合い、さらに、歯車小14はモーター15に連結されている。また、モーター15には、回転位置を検出するエンコーダー16が設けられる。 For the bending operation, the bending mechanism 7 including the connected bending tube 8 provided at the distal end of the endoscope, the pulley 12 provided on the operating portion 11 at hand, and the both along the insertion portion 10. It is adapted to be coupled by a deployed wire 9 and to be transmitted by drive. The pulley 12 is connected to a large gear 13, the large gear 13 meshes with a small gear 14, and the small gear 14 is connected to a motor 15. Further, the motor 15 is provided with an encoder 16 that detects a rotational position.

操作部11の近くに内視鏡画像の表示モニター17を設けられており、この表示モニター17には、タッチパネル18が一体化されている。なお、この表示モニター17とは別に、内視鏡画像を表示するモニターを設けても構わない。
エンコーダー16とモーター15は、モーター制御回路19に電気的に接続されている。モーター制御回路19は、CPU20に接続されている。 表示モニター17は、画像処理装置21に接続され、タッチパネル18は、CPU20に接続されている。画像化装置の信号は画像処理装置21に接続される。画像処理装置21はCPU20に接続されている。
A display monitor 17 for endoscopic images is provided near the operation unit 11, and a touch panel 18 is integrated with the display monitor 17. A monitor for displaying an endoscopic image may be provided separately from the display monitor 17.
The encoder 16 and the motor 15 are electrically connected to the motor control circuit 19. The motor control circuit 19 is connected to the CPU 20. The display monitor 17 is connected to the image processing device 21, and the touch panel 18 is connected to the CPU 20. The signals of the imaging device are connected to the image processing device 21. The image processing device 21 is connected to the CPU 20.

また、挿入部位置センサー30により挿入部10の進退位置および回転位置を検出することができる。前記挿入部位置センサー30は、CPU20に接続されている。 Further, the insertion portion position sensor 30 can detect the advance/retreat position and the rotation position of the insertion portion 10. The insertion portion position sensor 30 is connected to the CPU 20.

図2は、挿入部10の進退位置および回転位置を検出する挿入部位置センサー30の構造を示す。内視鏡の挿入部10が緩く挿入可能な円筒部の内面に、照明31および画像センサー32が設けられており、内視鏡の挿入部10の外周に記された目盛線33および挿入長を表す数字34を画像センサー32で読み取り、目盛線33と数字34の長手方向の位置Xから挿入部10の挿入位置を、数字34の円周方向の位置Yから挿入部10の回転位置を検出することができる。図2には、画像センサー32で数字“30”の中心の回転方向の位置Yと、長手方向の位置Xを求め、図中の式にて挿入長および回転位置を計算することを例示している。 FIG. 2 shows the structure of the insertion portion position sensor 30 which detects the advance/retreat position and the rotation position of the insertion portion 10. The illumination 31 and the image sensor 32 are provided on the inner surface of the cylindrical portion into which the insertion portion 10 of the endoscope can be loosely inserted, and the graduation line 33 and the insertion length marked on the outer periphery of the insertion portion 10 of the endoscope are set. The numeral 34 shown is read by the image sensor 32, and the insertion position of the insertion portion 10 is detected from the scale line 33 and the longitudinal position X of the numeral 34, and the rotational position of the insertion portion 10 is detected from the circumferential position Y of the numeral 34. be able to. FIG. 2 exemplifies that the position Y in the rotational direction of the center of the numeral “30” and the position X in the longitudinal direction are obtained by the image sensor 32, and the insertion length and the rotational position are calculated by the formulas in the figure. There is.

この挿入部位置センサー30は、内視鏡を挿入する管腔の入口との位置関係がずれないように設置される。例えば、上部内視鏡であれば口に加えるマウスピースに内蔵する、もしくは、マウスピースに固定されるようになっており、大腸内視鏡であれば肛門の近くに患者に直接、あるいは、別途を介して固定される。挿入部位置センサー30が、口または肛門から離れて設置される場合は、離れた距離をCPU20に入力することで、後述する表示モニター17に表示される挿入長のオフセット分を補正することができる。 The insertion portion position sensor 30 is installed so that the positional relationship with the entrance of the lumen into which the endoscope is inserted does not shift. For example, in the case of an upper endoscope, it is built into the mouthpiece that is added to the mouth, or is fixed to the mouthpiece. Fixed through. When the insertion portion position sensor 30 is installed away from the mouth or anus, the offset distance of the insertion length displayed on the display monitor 17 described later can be corrected by inputting the distance to the CPU 20. ..

また、ここでは、従来の内視鏡の挿入部10に印字された目盛線33および挿入長を示す数字34を用いて、挿入部10の進退位置と回転を検出する例を示しているが、内視鏡の挿入部10に記される内容はこの限りではない。挿入部10の進退位置と回転位置44を検出できるようにするために、例えば、数字の変わりに挿入長さを識別できる記号であっても構わないし、回転方向を示す線であっても構わない。さらに、挿入部10の表面の印字の代わりにホール素子を埋め込み、画像センサー32に代わって磁気センサーで挿入部10の進退位置と回転位置を検出しても構わない。実際に、従来からの内視鏡の挿入部10に印字された数字は10cm毎に印字されているため、数字を常に画像として認識するためには、挿入部位置センサー30の長さが少なくとも10cm以上となるため、短いピッチでの数字の印字や、目盛線毎に長さを認識させるための記号を設けることは挿入部位置センサー30の長さを短縮させ、上部内視鏡用のマウスピースの長さを伸ばさない、あるいは、下部内視鏡での肛門の近くでの作業空間の制限しないことに貢献する。 Further, here, an example is shown in which the advance/retreat position and rotation of the insertion portion 10 are detected using the scale line 33 and the numeral 34 indicating the insertion length printed on the insertion portion 10 of the conventional endoscope. The contents described in the insertion portion 10 of the endoscope are not limited to this. In order to detect the advance/retreat position and the rotation position 44 of the insertion portion 10, for example, a symbol that can identify the insertion length instead of a number or a line that indicates the rotation direction may be used. .. Further, instead of printing on the surface of the insertion section 10, a Hall element may be embedded, and instead of the image sensor 32, a magnetic sensor may detect the advance/retreat position and the rotation position of the insertion section 10. Actually, since the numbers printed on the insertion section 10 of the conventional endoscope are printed every 10 cm, in order to always recognize the numbers as images, the length of the insertion section position sensor 30 is at least 10 cm. Because of the above, printing the numbers at a short pitch and providing a symbol for recognizing the length for each scale line shortens the length of the insertion portion position sensor 30, and the mouthpiece for the upper endoscope. Contributes to not extending the length of, or limiting the working space near the anus with a lower endoscope.

なお、挿入部位置センサー30の内視鏡を挿入する孔には、透明なスリーブ状の滅菌カバー35が着脱可能に設けられ、挿入部位置センサー30から内視鏡の挿入部10に汚染することを防止している。 A transparent sleeve-shaped sterilization cover 35 is detachably provided in the insertion hole of the insertion portion position sensor 30 for inserting the endoscope, so that the insertion portion position sensor 30 may contaminate the insertion portion 10 of the endoscope. Is being prevented.

タッチパネル18を指でタッチしたしドラッグさせたときの移動ベクトル(入力移動ベクトルと呼ぶ)をCPU20で演算する。この入力移動ベクトルと、上下および左右のモーター15の移動ベクトルとの対応関係のテーブルがCPU20の内部メモリーに記憶されており、このテーブルを参照してCPU20からモーター制御回路19に位置およびまたは速度の指令を送る。これによりモーター15が回転し、駆動伝達機構を介して、湾曲機構7が動作し、内視鏡画像が移動する。 The CPU 20 calculates a movement vector (called an input movement vector) when the touch panel 18 is touched with a finger and dragged. A table of the correspondence between this input movement vector and the movement vectors of the vertical and horizontal motors 15 is stored in the internal memory of the CPU 20, and the CPU 20 refers to this table to indicate the position and/or speed of the motor control circuit 19. Send a command. As a result, the motor 15 rotates, the bending mechanism 7 operates via the drive transmission mechanism, and the endoscopic image moves.

一方、画像処理装置21とCPU20は、タッチパネル18をタッチした部分とその周囲を含む内視鏡画像の特徴量を抽出し、その特徴量から画像上の移動ベクトル(出力移動ベクトルと呼ぶ)を求める。さらに、CPU20が入力移動ベクトルと出力移動ベクトルの差分を求め、その差分がゼロに近づくように、モーター制御回路19に位置およびまたは速度の指令を送る、フィードバック制御を行う。 On the other hand, the image processing device 21 and the CPU 20 extract the feature amount of the endoscopic image including the touched portion of the touch panel 18 and its surroundings, and obtain a movement vector (called an output movement vector) on the image from the feature amount. .. Further, the CPU 20 obtains a difference between the input movement vector and the output movement vector, and performs feedback control by sending a position and/or speed command to the motor control circuit 19 so that the difference approaches zero.

以下には、前述の、「画像処理装置21とCPU20は、タッチパネル18をタッチした部分とその周囲を含む内視鏡画像の特徴量を抽出し、その特徴量を持つ対象物の画像上の移動ベクトル(出力移動ベクトル)を求める」手段の例を示す。 In the following, as described above, “the image processing device 21 and the CPU 20 extract the feature amount of the endoscopic image including the touched portion of the touch panel 18 and its periphery, and move the object having the feature amount on the image. An example of a means for "obtaining a vector (output movement vector)" will be described.

例えば、ビデオの電子式手振れ補正にも使われるブロックマッチング法を用いる。タッチパネル18を指でタッチした部分とその周囲を含む部分の画像をCPU20に記憶させ、湾曲動作により移動、回転、拡大・縮小を含む変化をした画像に対して、重ね合わせ位置をずらしながら、対応する画素の差分絶対値の総和(SAD: Sum of Absolute Difference)を計算し、SADが最小となる位置をマッチング位置として検出する。このマッチング位置への移動ベクトルを前述の出力移動ベクトルとして求める。 For example, the block matching method, which is also used for electronic image stabilization of video, is used. The CPU 20 stores the images of the part where the touch panel 18 is touched with a finger and the part including the surroundings, and responds to the changed image including the movement, rotation and enlargement/reduction by the bending operation while shifting the overlapping position. The sum of absolute differences (SAD: Sum of Absolute Difference) of the pixels to be calculated is calculated, and the position where SAD is minimized is detected as the matching position. The movement vector to this matching position is obtained as the output movement vector described above.

この際、内視鏡画像で抽出した特徴量を持つ画素を代表点としてサンプリングし、代表点の画像の重ね合わせ位置ずらしによりマッチングを行う、つまり代表点マッチング法を用いると、スピードを上げ必要メモリーを削減できる。 At this time, pixels with the feature amount extracted from the endoscopic image are sampled as representative points, and matching is performed by shifting the overlapping positions of the images of the representative points, that is, using the representative point matching method, the speed is increased Can be reduced.

あるいは、主に移動物体の検出や、その動作の解析などに用いられるオプティカルフローを用いることができる。これは、画像上の代表点のフレーム間の移動ベクトルの分布を表すもので、これを用いてタッチパネル18を指でタッチした部分とその周囲を含む部分の移動方向や速度、さらには、奥行きに関する情報を得ることができる。つまり、オプティカルフローにより、対象物の奥行きに関する情報をも内視鏡の湾曲操作として用いることができる。 Alternatively, it is possible to use an optical flow mainly used for detection of a moving object or analysis of its motion. This represents the distribution of the movement vector between frames of the representative points on the image. Using this, the movement direction and speed of the portion touching the touch panel 18 with a finger and the surrounding area, and further the depth are related. You can get information. That is, with the optical flow, information about the depth of the object can also be used as the bending operation of the endoscope.

続いて、図3により、内視鏡画像6の暗部53をタッチパネル18でタッチし、タッチパネル18を所望の方向にドラッグさせることによって、湾曲動作を行い、内視鏡の挿入を補助を行う操作インターフェースについて説明する。 Subsequently, referring to FIG. 3, an operation interface for performing a bending operation by touching the dark portion 53 of the endoscopic image 6 with the touch panel 18 and dragging the touch panel 18 in a desired direction to assist the insertion of the endoscope. Will be described.

例えば、大腸内視鏡を肛門から挿入し、便の移動に逆行するように、直腸、S状結腸、下降結腸、横行結腸、上降結腸を経て、先端部が大腸盲腸に到達させるために、内視鏡の操作における一つの目安になるのが、管腔の遠方にある暗部53の位置である。管腔の遠方には、内視鏡先端からの照明光が届きにくくなるため、その結果、遠方ほど暗い画像となる。このことを利用して、暗部53を目標とした内視鏡挿入が実際の臨床において従来より行われている。本実施例では、図3(a)および(b)に示すように、この暗部53の画像をタッチパネル18でタッチし、タッチパネル18を所望の方向にドラッグさせることによって、湾曲動作を行い、内視鏡の挿入を補助する。 For example, in order to insert a colonoscope through the anus and go through the rectum, sigmoid colon, descending colon, transverse colon, and ascending colon so that the tip reaches the large intestine cecum, as opposed to stool migration. One guideline for operating the endoscope is the position of the dark portion 53, which is distant from the lumen. The illumination light from the distal end of the endoscope is less likely to reach the distant portion of the lumen, and as a result, the darker the image is, the farther away. Utilizing this fact, insertion of an endoscope aiming at the dark portion 53 has been conventionally performed in actual clinical practice. In this embodiment, as shown in FIGS. 3A and 3B, the image of the dark portion 53 is touched on the touch panel 18, and the touch panel 18 is dragged in a desired direction to perform a bending operation, and the internal view is performed. Assist in inserting the mirror.

図4は、大腸内視鏡の挿入に際して、表示モニター17に表示されるナビゲーションのメニュー56を例示すものである。大腸を体の右側から見た大腸透視モデル像40、および、大腸を体の前から見た大腸透視モデル像41、および、大腸透視画像に重ねた内視鏡の挿入部モデル像42、および、湾曲状態43、および、内視鏡画像の回転位置44および上方向マーカー45、および、湾曲操作を指示する湾曲矢印46、および、挿入部10の進退を示す前進矢印47・後退矢印48、挿入部10の回転の操作を指示する回転矢印49、挿入部10が挿入されている長さを示す挿入長50、挿入方法選択51が、内視鏡画像6とともに表示される。これらは、挿入部位置センター30によって検出された挿入部10の回転位置44・挿入長50と、モーター15と駆動伝達機構を介してエンコーダー16で検出される湾曲部の上下・左右の位置、すなわち湾曲状態43と、内視鏡画像6の目標として指示された暗部53およびまたは気泡54の位置と、からCPU20によって計算され表示される。 FIG. 4 shows an example of a navigation menu 56 displayed on the display monitor 17 when the colonoscope is inserted. Large intestine model image 40 in which the large intestine is seen from the right side of the body, Large intestine model image 41 in which the large intestine is seen in front of the body, and Endoscope model image 42 of the endoscope superposed on the large intestine image, and The curved state 43, the rotation position 44 and the upward marker 45 of the endoscopic image, the curved arrow 46 for instructing the bending operation, the forward arrow 47 and the backward arrow 48 indicating the forward/backward movement of the insertion portion 10, and the insertion portion. A rotation arrow 49 for instructing a rotation operation of 10, insertion length 50 indicating the length of insertion of the insertion portion 10, and insertion method selection 51 are displayed together with the endoscopic image 6. These are the rotational position 44/insertion length 50 of the insertion part 10 detected by the insertion part position center 30 and the vertical and horizontal positions of the bending part detected by the encoder 16 via the motor 15 and the drive transmission mechanism, that is, It is calculated and displayed by the CPU 20 from the curved state 43 and the position of the dark portion 53 and/or the bubble 54 designated as the target of the endoscopic image 6.

図5は、大腸内視鏡の挿入のステップにおいて、図4のナビゲーションのメニュー56として表示される内容の一部を示す。最初に大腸内視鏡の挿入方法の選択を行う。大腸内視鏡の挿入方法として、ループ挿入法と軸保持短縮挿入法などがある。これらの挿入方法に応じたナビゲーションプログラムが予め用意されており、最初に大腸内視鏡の挿入方法のいずれかを選択する。以降のステップは、軸保持短縮挿入法を選択した場合のナビゲーションの実施例である。 FIG. 5 shows a part of the contents displayed as the navigation menu 56 of FIG. 4 in the step of inserting the colonoscope. First, select the insertion method of the colonoscope. As a method of inserting a colonoscope, there are a loop insertion method, a shaft holding shortening insertion method, and the like. A navigation program corresponding to these insertion methods is prepared in advance, and one of the insertion methods of the colonoscope is first selected. The following steps are examples of navigation when the axis-holding shortening insertion method is selected.

大腸内視鏡検査では、挿入を開始する際に患者は左側臥位(左側を下にする体位)を取る。内視鏡の先端をまず挿入部位置センサー30の孔を通し、肛門から挿入を開始する。この際に表示モニターには回転位置44が9時の方向を向くように矢印が表示される。例えば、図5(1)に示すように、挿入部位置センサー30によって検出された挿入部10の回転位置44が12時であった場合に9時に向かうように回転矢印49が表示される。操作者は、挿入部10を把持し回転矢印49が示す方向に回転をさせると、回転位置44が9時になった時点で図5(2)に示すとおり「STOP」が表示される。このとき、図5(3)に示すように内視鏡画像6には12時に暗部53が、3時の方向に気泡54が表示されている。 For colonoscopies, the patient is placed in the left lateral decubitus position (left side down) at the beginning of insertion. First, the tip of the endoscope is passed through the hole of the insertion portion position sensor 30, and insertion is started from the anus. At this time, an arrow is displayed on the display monitor so that the rotation position 44 faces the direction of 9 o'clock. For example, as shown in FIG. 5A, when the rotational position 44 of the insertion portion 10 detected by the insertion portion position sensor 30 is 12:00, the rotation arrow 49 is displayed so as to point to 9 o'clock. When the operator grips the insertion portion 10 and rotates it in the direction indicated by the rotation arrow 49, “STOP” is displayed as shown in FIG. 5B at the time when the rotation position 44 is 9:00. At this time, as shown in FIG. 5C, the dark portion 53 is displayed at 12:00 and the bubble 54 is displayed at 3 o'clock in the endoscopic image 6.

この暗部53と気泡54の位置を画像処理装置21とCPU20によって計測し、それぞれ12時、3時の方向にあることを確認したところで、図5(4)に示すよう挿入部10を進めるように前進矢印47が表示される。これに従い操作者が挿入部10を把持して前進を開始する。気泡54が3時の方向を保ちながら、図5(5)に示すように暗部53が内視鏡画像6の上部から下方に移動していくのを見ながら、前進を進めていき挿入長50が13cmになったところで図5(6)に示すように前進矢印47の先に「STOP」が表示される。このとき、内視鏡画像6は、図5(7)に示すように7時の方向に強い管腔の屈曲と暗部53が現れる。 The positions of the dark portion 53 and the bubble 54 are measured by the image processing device 21 and the CPU 20, and when it is confirmed that they are in the 12 o'clock and 3 o'clock directions respectively, the insertion portion 10 is advanced as shown in FIG. 5(4). A forward arrow 47 is displayed. According to this, the operator grips the insertion portion 10 and starts moving forward. While the bubble 54 keeps the direction at 3 o'clock, as the dark portion 53 moves downward from the upper portion of the endoscopic image 6 as shown in FIG. When the distance becomes 13 cm, "STOP" is displayed at the tip of the forward arrow 47 as shown in Fig. 5(6). At this time, in the endoscopic image 6, as shown in FIG. 5(7), strong lumen bending and the dark portion 53 appear in the 7 o'clock direction.

ここで暗部53が下方、気泡54が3時方向にあることを画像処理装置21の画像処理により確認がなされ、さらに内視鏡の挿入部10の肛門から挿入されている長さ、つまり挿入長50が13cmであることを確認したところで、表示モニターに図5(8)に示すように回転位置44が左周りに3時の方向を向くように矢印が表示される。操作者は、挿入部10を把持し矢印が示す方向に回転をさせると、回転位置44が3時になった時点で図5(9)に示すとおり「STOP」が表示される。そのときの内視鏡画像6は、図5(10)に示すように暗部53が12時、気泡54が9時の方向に表示される。 Here, it is confirmed by the image processing of the image processing device 21 that the dark portion 53 is at the bottom and the bubble 54 is at the 3 o'clock direction, and further, the length inserted from the anus of the insertion portion 10 of the endoscope, that is, the insertion length. When it is confirmed that 50 is 13 cm, an arrow is displayed on the display monitor so that the rotation position 44 turns counterclockwise to the direction of 3 o'clock, as shown in FIG. 5(8). When the operator holds the insertion portion 10 and rotates the insertion portion 10 in the direction indicated by the arrow, "STOP" is displayed at the time when the rotational position 44 is 3 o'clock, as shown in FIG. The endoscopic image 6 at that time is displayed in the direction of 12 o'clock in the dark portion 53 and 9 o'clock in the bubble 54, as shown in FIG. 5(10).

この暗部53と気泡54の位置を画像処理装置21とCPU20によって計測し、それぞれ12時、9時の方向にあることを確認したところで、図5(11)に示すように湾曲操作の湾曲矢印46が上方向が提示される。これを見て操作者はタッチパネル18の内視鏡画像6の上方にある暗部53をタッチして下方向にドラッグさせる。タッチしては下方向にドラッグする操作を繰り返し、上方の湾曲が120°になると上方向の湾曲矢印46が消え、図5(12)に示すように「STOP」が表示される。これにより図5(13)の体の右側から見た大腸透視モデル像40に示すように湾曲部55がS状結腸のスタート部位にある屈曲にひっかかった状態となる。 The positions of the dark portion 53 and the bubble 54 are measured by the image processing device 21 and the CPU 20, and when it is confirmed that they are in the directions of 12 o'clock and 9 o'clock respectively, as shown in FIG. Is presented in the upward direction. Looking at this, the operator touches the dark portion 53 above the endoscopic image 6 on the touch panel 18 and drags it downward. The operation of touching and dragging downward is repeated, and when the upper curve becomes 120°, the upward curve arrow 46 disappears and “STOP” is displayed as shown in FIG. 5(12). As a result, as shown in the large intestine perspective model image 40 when viewed from the right side of the body in FIG. 5(13), the curved portion 55 is in a state of being caught by the bend at the start portion of the sigmoid colon.

続いて、図5(14)に示すよう挿入部10を後退させるよう指示する後退矢印48が表示される。これに従い操作者が挿入部10を把持してゆっくりと後退させていくと、図5(15)の体の右側から見た大腸透視モデル像40に示すように大腸S状結腸が肛門側に徐々に引き付けられるため、内視鏡画像6の上方の右側または左側に暗部53が現れる。 Then, as shown in FIG. 5(14), a backward arrow 48 for instructing the backward movement of the insertion portion 10 is displayed. According to this, when the operator grasps the insertion part 10 and slowly retracts it, the large intestine sigmoid colon gradually moves to the anus side as shown in the large intestine perspective model image 40 viewed from the right side of the body in FIG. 5(15). As a result, the dark portion 53 appears on the right side or the left side above the endoscopic image 6.

この暗部53の位置を画像処理装置21とCPU20で計測し、暗部53の位置が上方の左側の場合には左の回転矢印49が表示され、暗部53の位置が上方の右側の場合は右の回転矢印49が表示される。図5(16)には暗部53が上方の右側に現れた場合の右の回転矢印49が表示された例を示す。操作者は挿入部10をゆっくりと後退を続けながら、図5(17)に示すように挿入部10の回転矢印49の方向にしたがって右ひねりを加える。この結果、図5(18)の体の右側から見た大腸透視モデル像40に示すように大腸のS状結腸が引き付けられS状結腸の下りの部分の管腔が開いてくる。 The position of the dark portion 53 is measured by the image processing device 21 and the CPU 20, and a left rotation arrow 49 is displayed when the position of the dark portion 53 is the upper left side, and a right rotation arrow 49 is displayed when the dark portion 53 is the upper right side. A rotation arrow 49 is displayed. FIG. 5 (16) shows an example in which the right rotation arrow 49 is displayed when the dark portion 53 appears on the upper right side. The operator applies a right twist according to the direction of the rotation arrow 49 of the insertion portion 10 as shown in FIG. As a result, the sigmoid colon of the large intestine is attracted, and the lumen of the descending portion of the sigmoid colon is opened, as shown in the colon perspective model image 40 viewed from the right side of the body in FIG.

最終的、図5(19)のように内視鏡画像6では暗部53が大きく開いて中央に移動してくるように映る。この状態、すなわち暗部53が約中央にあること、気泡54が9時の方向にあることを、画像処理装置21とCPU20が計測すると、図5(20)に示すように挿入部10の回転矢印49および後退矢印48が消え、「STOP」が表示される。 Finally, as shown in FIG. 5(19), in the endoscopic image 6, the dark portion 53 appears wide open and moves toward the center. When the image processing device 21 and the CPU 20 measure this state, that is, that the dark portion 53 is at the center and the bubble 54 is in the 9 o'clock direction, as shown in FIG. 49 and the backward arrow 48 disappear and "STOP" is displayed.

以上のステップは、大腸内視鏡の挿入で最も難易度の高いとされるS状結腸の挿入の場合の本発明のナビゲーションの例を示すものである。さらに挿入を進めていき、最終的に盲腸に到達するまで、前述と同様に操作の的確なナビゲーションを行う。これにより、従来、操作者が、暗部53の位置や気泡54の位置、挿入部10の回転や長さの情報を経験に照らして、湾曲動作や、挿入部10の回転や進退の操作の判断を行っていたが、図5に示すとおり判断や操作の手順をナビゲーションすることで、内視鏡の挿入操作をサポートすることができる。 The above steps show an example of the navigation of the present invention in the case of inserting the sigmoid colon, which is considered to be the most difficult to insert a colonoscope. Proceed with the insertion further, and perform appropriate navigation in the same manner as described above until it finally reaches the cecum. Thereby, conventionally, the operator judges the bending operation, the rotation of the insertion part 10 and the operation of advancing and retreating based on the experience of the position of the dark part 53, the position of the bubble 54, and the rotation and length of the insertion part 10. However, the operation of inserting the endoscope can be supported by navigating the procedure of the determination and the operation as shown in FIG.

画面に表示された挿入長50、回転位置44は、病変の内視鏡画像6とともに、同時に記録できるため、例えば、後日、経過観察のために再度、大腸内視鏡検査をする際に、病変の場所が精確かつ効率良く確認できるので有用である。 Since the insertion length 50 and the rotation position 44 displayed on the screen can be recorded simultaneously with the endoscopic image 6 of the lesion, for example, when performing colonoscopy again at a later date for follow-up observation, the lesion can be recorded. It is useful because the location of can be confirmed accurately and efficiently.

図4に表示される体の右側から見た大腸透視モデル像40、体の前から見た大腸透視モデル像41、および、大腸透視画像に重ねた内視鏡の挿入部モデル像42は、大腸の解剖学を考慮したコンピュータグラッフィックスを用いた画像である。現在の挿入部10の挿入長50、回転位置44、および湾曲状態43と、挿入開始から現在位置に至るまでのこれらのプロセスのデータを用いて、大腸の伸長や変形などの解剖学的な情報を参照して作成された画像である。 The colon perspective model image 40 viewed from the right side of the body displayed in FIG. 4, the colon perspective model image 41 viewed from the front of the body, and the endoscope insertion part model image 42 superimposed on the colon perspective image are the colon It is an image using a computer graphics considering the anatomy of. Anatomical information such as extension and deformation of the large intestine using the current insertion length 50 of the insertion section 10, the rotational position 44, the curved state 43, and the data of these processes from the start of insertion to the current position. Is an image created by referring to.

本実施例は、湾曲動作を、モーター15による電動駆動にて行う例を示しているが、手動による湾曲動作を行っても構わない。また、湾曲状態を検出する手段として、湾曲部に直接、センサーを直接設けても構わない。 In the present embodiment, an example in which the bending operation is electrically driven by the motor 15 is shown, but a manual bending operation may be performed. Further, as a means for detecting the bending state, a sensor may be provided directly on the bending portion.

(実施例2)
本実施例は、実施例1における大腸内視鏡の挿入操作におけるナビゲーションの機械学習に関するものである。図6に示すとおり、ナビゲーションプログラム60は、大腸内視鏡挿入に熟練した医師が蓄積した経験則をプログラムに落としたもので、具体的には画像に現れる暗部、気泡、管腔特徴の画像情報や、内視鏡の挿入部および湾曲形状や、さらには、患者情報、挿入方法、体位、操作者情報、前処置状態、などの状態データ61から、所定のパラメータ66を用いて、内視鏡の挿入部の進退や回転、湾曲操作さらには送気・送水・吸引操作、腹部押圧、体位変換などの操作出力情報であるナビゲーションデータ62を導出し、操作者に提示することで、挿入の補助を行うものである。
(Example 2)
The present embodiment relates to machine learning for navigation in the insertion operation of the colonoscope in the first embodiment. As shown in FIG. 6, the navigation program 60 is a program that incorporates the rules of thumb accumulated by a doctor who is experienced in colonoscopic insertion. Specifically, the image information of dark areas, bubbles, and lumen characteristics appearing in an image In addition, the endoscope is inserted using a predetermined parameter 66 from the state data 61 such as the insertion portion and the curved shape of the endoscope, and further, patient information, insertion method, body position, operator information, pretreatment state, and the like. Assistance of insertion by deriving navigation data 62, which is operation output information such as forward/backward movement, rotation, bending operation, air supply/water supply/suction operation, abdominal pressing, body position change, etc. Is to do.

ナビゲーションプログラム60では、ナビゲーションデータ62に従って実際に内視鏡操作を行った内容を操作データ67として記録するとともに、操作の結果として、挿入の過程で患者苦痛、挿入時間、患者モニターなどを計測し、これらを分析して挿入方法のパフォーマスンを評価する効果判定結果データ63を算出する機能を有する。また、前述の状態データ61、ナビゲーションデータ62、操作データ67および、効果判定結果データ63をそれぞれ関連付けながら随時データベース64に蓄積していくことができる。このデータベース64は、クラウド上に設置され、ネットワークで接続され複数の内視鏡装置とデータベース64を共有している。 In the navigation program 60, the contents of the actual endoscope operation according to the navigation data 62 are recorded as operation data 67, and as a result of the operation, patient pain, insertion time, patient monitor, etc. are measured in the insertion process, It has a function of analyzing these and calculating the effect determination result data 63 for evaluating the performance of the insertion method. Further, the above-mentioned state data 61, navigation data 62, operation data 67, and effect determination result data 63 can be accumulated in the database 64 at any time while being associated with each other. The database 64 is installed on the cloud, is connected by a network, and shares the database 64 with a plurality of endoscope devices.

このデータベースに対して、例えばConvolutional Neural Network(CNN)69などのAIアルゴリズム68を用いた機械学習65を行い、効果判定結果データ63と、所定のパラメータ66、ナビゲーションデータ62、操作データ67との関係を導出する。この効果判定結果データ63が高くなるように、所定のパラメータ66を変更してナビゲーションプログラム60の性能を向上させていく。なお、機械学習65の手段は、上述のCNNに限らない。 Machine learning 65 using an AI algorithm 68 such as a Convolutional Neural Network (CNN) 69 is performed on this database, and the relationship between the effect determination result data 63 and predetermined parameters 66, navigation data 62, and operation data 67. Derive. The predetermined parameter 66 is changed to improve the performance of the navigation program 60 so that the effect determination result data 63 becomes higher. The means for machine learning 65 is not limited to the CNN described above.

なお、上記実施例において、以下のように構成してもよい。
1.内視鏡画像データが気泡およびまたは暗部であることを特徴とする第2発明に記載の内視鏡ナビテーション装置。
2.挿入部位置センサーに内視鏡挿入部の汚染を防止する滅菌スリーブを具備することを特徴とする第1発明、および、第2発明に記載の内視鏡ナビゲーション装置。
3.挿入長、回転位置を、内視鏡画像ともに表示・記録することで、病変の位置を記録できることを特徴とする第1発明、および、第2発明に記載の内視鏡ナビゲーション装置。
4.挿入開始から現在に至るまでの挿入状態データと操作手順データを用いて、コンピュータグラッフィックで作成した大腸透視モデル像と、これに重ねた内視鏡の挿入部モデル像とを、具備することを特徴とする第1発明、および、第2発明に記載の内視鏡ナビテーション装置。
5.挿入操作データが挿入部進退・回転操作、湾曲操作、送気・送水・吸引操作、腹部押圧、体位変換からなることを特徴とする第1発明、および、第2発明に記載の内視鏡ナビテーション装置。
6.効果判定結果データが、患者苦痛、部分および全体の挿入時間、患者モニターからなることを特徴とする第2発明に記載の内視鏡ナビテーション装置。
The above embodiment may be configured as follows.
1. The endoscopic navigation device according to the second invention, wherein the endoscopic image data is a bubble and/or a dark part.
2. The endoscope navigation device according to the first invention or the second invention, characterized in that the insertion portion position sensor is provided with a sterilization sleeve for preventing contamination of the insertion portion of the endoscope.
3. The endoscopic navigation device according to the first invention or the second invention, wherein the position of the lesion can be recorded by displaying and recording the insertion length and the rotational position together with the endoscopic image.
4. Characterized by including a colon fluoroscopic model image created by computer graphics using the insertion state data and operation procedure data from the start of insertion to the present, and an endoscope insertion part model image superposed on the model image The endoscope navigation device according to the first invention and the second invention.
5. The endoscope navigation system according to the first and second inventions, characterized in that the insertion operation data includes insertion section advancing/retreating/rotating operation, bending operation, air supply/water supply/suction operation, abdominal pressure, and postural change Stationation device.
6. The endoscopic navigation device according to the second aspect of the invention, wherein the effect determination result data includes patient pain, partial and total insertion time, and patient monitor.

1 内視鏡装置
2 撮像素子
3 照明装置
4 照明ファイバー
5 画像化装置
6 内視鏡画像
7 湾曲機構
8 湾曲管
9 ワイヤー
10 挿入部
11 操作部
12 プーリー
13 歯車大
14 歯車小
15 モーター
16 エンコーダー
17 表示モニター
18 タッチパネル
19 モーター制御回路
20 CPU
21 画像処理装置
30 挿入部位置センサー
31 照明
32 画像センサー
33 目盛線
34 数字
35 滅菌カバー
40 体の右側から見た大腸透視モデル像
41 体の前から見た大腸透視モデル像
42 挿入部モデル像
43 湾曲状態
44 回転位置
45 上方向マーカー
46 湾曲矢印
47 前進矢印
48 後退矢印
49 回転矢印
50 挿入長
51 挿入方法選択
53 暗部
54 気泡
55 湾曲部
56 ナビゲーションのメニュー
60 ナビゲーションプログラム
61 状態データ
62 ナビゲーションデータ
63 効果判定結果データ
64 データベース
65 機械学習
66 所定のパラメータ
67 操作データ
68 AIアルゴリズム
69 Convolutional Neural Network
DESCRIPTION OF SYMBOLS 1 Endoscope device 2 Image pick-up element 3 Illumination device 4 Illumination fiber 5 Imaging device 6 Endoscopic image 7 Bending mechanism 8 Bending tube 9 Wire 10 Insertion part 11 Operation part 12 Pulley 13 Large gear 14 Small gear 15 Motor 16 Encoder 17 Display monitor 18 Touch panel 19 Motor control circuit 20 CPU
21 Image Processing Device 30 Insertion Position Sensor 31 Illumination 32 Image Sensor 33 Scale Line 34 Number 35 Sterilization Cover 40 Colon Fluoroscopy Model Image Seen from Right Side of Body 41 Colon Fluoroscopy Model Image 42 Seen From Front of Body 42 Insertion Model Image 43 Curved state 44 Rotation position 45 Upward marker 46 Curved arrow 47 Forward arrow 48 Backward arrow 49 Rotation arrow 50 Insertion length 51 Insertion method selection 53 Dark section 54 Bubble 55 Curved section 56 Navigation menu 60 Navigation program 61 State data 62 Navigation data 63 Effect Judgment result data 64 Database 65 Machine learning 66 Predetermined parameters 67 Operation data 68 AI algorithm 69 Convolutional Neural Network

Claims (3)

内視鏡ナビゲーション装置において、
内視鏡画像の画像化装置と、
前記内視鏡画像の内視鏡画像における内視鏡画像に表示される内視鏡操作の指標となる対象物の特徴量に関する画像情報データを解析・検出する画像処理装置と、
内視鏡の湾曲状態、挿入部の回転、挿入長のいずれか一つ以上からなる挿入状態データを検出する機能と、
前記特徴量に関する画像情報データおよび前記挿入状態データをパラメータとして、消化管管腔への内視鏡の挿入操作における該内視鏡の湾曲操作および挿入部の回転および進退の操作のタイミングや操作量に関する手順を予めデータ化したナビゲーションプログラムと、
内視鏡の挿入操作の際に前記特徴量に関する画像情報データおよび前記挿入状態データのパラメータを元に前記ナビゲーションプログラムを参照して導かれる該内視鏡の湾曲操作および挿入部の回転および進退の操作のタイミングや操作量に関する手順を少なくとも2つ以上を、同時または連続して画像または音声で提示するナビゲーション機能と
を具備することを特徴とする内視鏡ナビゲーション装置。
In the endoscopic navigation device,
An imaging device for endoscopic images,
An image processing device that analyzes and detects image information data relating to a feature amount of a target object that is an index of endoscopic operation displayed in the endoscopic image in the endoscopic image of the endoscopic image ,
A function to detect insertion state data consisting of one or more of the bending state of the endoscope, rotation of the insertion portion, and insertion length,
Timing and operation amount of the bending operation of the endoscope and the operation of rotating and advancing and retracting the insertion portion in the operation of inserting the endoscope into the gastrointestinal lumen using the image information data and the insertion state data regarding the characteristic amount as parameters. A navigation program in which the procedures regarding
The endoscope rotation and retreat of the bending operation and the insertion portion of the said endoscope derived by referring to the navigation program the parameters of the image information data and the insertion status data relating to the feature amount based upon insertion operations An endoscopic navigation device, comprising: a navigation function of presenting at least two or more procedures related to operation timing and operation amount with images or sounds simultaneously or successively.
内視鏡ナビゲーション装置において、
前記挿入手順をナビゲーションデータとして記録する機能と、
前記ナビゲーションデータを元に内視鏡操作を行った内容を操作データとして記録する機能と、
内視鏡操作を行った結果を計測・評価する効果判定結果データを算出する機能と、
前記画像情報データ、前記挿入状態データ、前記ナビゲーションデータ、前記操作データおよび前記効果判定結果データを、それぞれ関連付けてデータベースに蓄積する機能と、
前記データベースに蓄積されたデータ間との関係を機械学習する機能と、
前記機械学習による結果を利用して、前記ナビゲーションプログラムを変更する機能と
を備えたことを特徴とする請求項に記載の内視鏡ナビゲーション装置。
In the endoscopic navigation device,
A function of recording the insertion procedure as navigation data,
A function of recording the contents of the operation of the endoscope as operation data based on the navigation data,
A function to calculate effect evaluation result data that measures and evaluates the result of endoscope operation,
A function of associating the image information data, the insertion state data, the navigation data, the operation data, and the effect determination result data with each other in a database,
A function for machine learning the relationship between the data accumulated in the database,
Using the result of the machine learning, an endoscope navigation system according to claim 1, characterized in that a function of changing the navigation program.
内視鏡ナビゲーション装置において、
前記内視鏡画像の内視鏡画像における内視鏡画像に表示される内視鏡操作の指標となる対象物の特徴量に関する画像情報データを解析・検出するステップと、
内視鏡の湾曲状態、挿入部の回転、挿入長のいずれか一つ以上からなる挿入状態データを検出するステップと、
前記特徴量に関する画像情報データおよび前記挿入状態データをパラメータとして、消化管管腔への内視鏡の挿入操作における該内視鏡の湾曲操作および挿入部の回転および進退の操作のタイミングや操作量に関する手順を予めナビゲーションプログラムとしてデータ化するステップと、
内視鏡の挿入操作の際に前記特徴量に関する前記画像情報データおよび前記挿入状態データのパラメータを元に前記ナビゲーションプログラムを参照して消化管管腔への内視鏡の挿入操作における該内視鏡の操作量に関する手順を導くステップと、
消化管管腔への内視鏡の挿入操作における該内視鏡の操作量に関する手順を少なくとも2つ以上を、同時または連続して画像または音声で提示するステップと
を実行することを特徴とする内視鏡ナビゲーション装置。
In the endoscopic navigation device,
A step of analyzing and detecting image information data relating to the feature amount of the target object which is an index of the endoscopic operation displayed on the endoscopic image in the endoscopic image of the endoscopic image;
Bending state of the endoscope, rotation of the insertion portion, a step of detecting insertion state data consisting of any one or more of the insertion length ,
Timing and operation amount of the bending operation of the endoscope and the operation of rotating and advancing and retracting the insertion portion in the operation of inserting the endoscope into the gastrointestinal lumen using the image information data and the insertion state data regarding the characteristic amount as parameters. A step of converting the procedure related to data into a navigation program in advance,
The endoscope in the operation of inserting the endoscope into the gastrointestinal lumen by referring to the navigation program based on the parameters of the image information data and the insertion state data relating to the feature amount at the time of the operation of inserting the endoscope A step for guiding the procedure regarding the operation amount of the mirror,
A step of presenting at least two or more procedures relating to the operation amount of the endoscope in the operation of inserting the endoscope into the lumen of the digestive tract simultaneously or continuously with an image or a sound. Endoscope navigation device.
JP2017229065A 2017-11-29 2017-11-29 Endoscope navigation device Active JP6749020B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017229065A JP6749020B2 (en) 2017-11-29 2017-11-29 Endoscope navigation device
PCT/JP2018/042874 WO2019107226A1 (en) 2017-11-29 2018-11-20 Endoscopic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017229065A JP6749020B2 (en) 2017-11-29 2017-11-29 Endoscope navigation device

Publications (3)

Publication Number Publication Date
JP2019097661A JP2019097661A (en) 2019-06-24
JP2019097661A5 JP2019097661A5 (en) 2019-11-28
JP6749020B2 true JP6749020B2 (en) 2020-09-02

Family

ID=66974518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017229065A Active JP6749020B2 (en) 2017-11-29 2017-11-29 Endoscope navigation device

Country Status (1)

Country Link
JP (1) JP6749020B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021048925A1 (en) * 2019-09-10 2021-03-18 オリンパス株式会社 Endoscope control device, method for operating endoscope control device, and program
JP2021049314A (en) * 2019-12-04 2021-04-01 株式会社Micotoテクノロジー Endoscopic image processing system
WO2021152784A1 (en) * 2020-01-30 2021-08-05 株式会社インキュビット Surgery assistance system
JP7463507B2 (en) 2020-05-27 2024-04-08 富士フイルム株式会社 Endoscope image processing device
US20230363619A1 (en) 2020-10-21 2023-11-16 Nec Corporation Endoscope operation support apparatus, control method, computer readable medium, and program
JP2022163562A (en) * 2021-04-14 2022-10-26 i-PRO株式会社 endoscope system
WO2023095208A1 (en) * 2021-11-24 2023-06-01 オリンパス株式会社 Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0642644Y2 (en) * 1988-10-15 1994-11-09 オリンパス光学工業株式会社 Endoscopic bending device
JPH06277178A (en) * 1993-03-30 1994-10-04 Toshiba Corp Electronic endoscope apparatus
JP3878270B2 (en) * 1997-02-27 2007-02-07 株式会社東芝 Image processing device
JP4022114B2 (en) * 2002-08-30 2007-12-12 オリンパス株式会社 Endoscope device
JP5028191B2 (en) * 2007-09-03 2012-09-19 オリンパスメディカルシステムズ株式会社 Endoscope device
EP2377457B1 (en) * 2010-02-22 2016-07-27 Olympus Corporation Medical apparatus
JP2014109630A (en) * 2012-11-30 2014-06-12 Olympus Corp Endoscope device
EP3153090A1 (en) * 2014-07-15 2017-04-12 Olympus Corporation Navigation system and navigation system operation method
WO2016207973A1 (en) * 2015-06-23 2016-12-29 オリンパス株式会社 Endoscope system, endoscope information processing device, and endoscope information processing method
EP3395225A4 (en) * 2015-12-25 2019-08-28 Olympus Corporation Flexible tube insertion device

Also Published As

Publication number Publication date
JP2019097661A (en) 2019-06-24

Similar Documents

Publication Publication Date Title
JP6749020B2 (en) Endoscope navigation device
WO2019107226A1 (en) Endoscopic apparatus
US20150313445A1 (en) System and Method of Scanning a Body Cavity Using a Multiple Viewing Elements Endoscope
JP5028191B2 (en) Endoscope device
US20080086051A1 (en) System, storage medium for a computer program, and method for displaying medical images
WO2014065336A1 (en) Insertion system, insertion support device, insertion support method and program
JP7292376B2 (en) Control device, trained model, and method of operation of endoscope movement support system
JP5788623B2 (en) Endoscope system
WO2018235185A1 (en) Insertion assistance device, insertion assistance method, and endoscope apparatus including insertion assistance device
JP7150997B2 (en) Information processing device, endoscope control device, method of operating information processing device, method of operating endoscope control device, and program
US20220361733A1 (en) Endoscopic examination supporting apparatus, endoscopic examination supporting method, and non-transitory recording medium recording program
US20220218180A1 (en) Endoscope insertion control device, endoscope insertion control method, and non-transitory recording medium in which endoscope insertion control program is recorded
JP6001217B1 (en) Endoscope insertion shape observation device
US20190231167A1 (en) System and method for guiding and tracking a region of interest using an endoscope
US8795157B1 (en) Method and system for navigating within a colon
US20230148847A1 (en) Information processing system, medical system and cannulation method
JP7368074B2 (en) intubation device
EP4170675A1 (en) Automatic positioning and force adjustment in endoscopy
US20230255461A1 (en) Endoscope image processing device
JP2021194268A (en) Blood vessel observation system and blood vessel observation method
WO2024029502A1 (en) Endoscopic examination assistance device, endoscopic examination assistance method, and recording medium
JP7221787B2 (en) Blood vessel diameter measurement system
WO2020230389A1 (en) Blood vessel diameter measurement system and blood vessel diameter measurement method
JP2019097665A (en) Endoscope apparatus
CN117241718A (en) Endoscope system, lumen structure calculation system, and method for producing lumen structure information

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191016

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191016

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191016

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20200218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200804

R150 Certificate of patent or registration of utility model

Ref document number: 6749020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250