JP2019097661A - 内視鏡ナビゲーション装置 - Google Patents

内視鏡ナビゲーション装置 Download PDF

Info

Publication number
JP2019097661A
JP2019097661A JP2017229065A JP2017229065A JP2019097661A JP 2019097661 A JP2019097661 A JP 2019097661A JP 2017229065 A JP2017229065 A JP 2017229065A JP 2017229065 A JP2017229065 A JP 2017229065A JP 2019097661 A JP2019097661 A JP 2019097661A
Authority
JP
Japan
Prior art keywords
endoscope
data
image
navigation
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017229065A
Other languages
English (en)
Other versions
JP6749020B2 (ja
JP2019097661A5 (ja
Inventor
水野 均
Hitoshi Mizuno
均 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MIZUNO, YUKO
Original Assignee
MIZUNO, YUKO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MIZUNO, YUKO filed Critical MIZUNO, YUKO
Priority to JP2017229065A priority Critical patent/JP6749020B2/ja
Priority to PCT/JP2018/042874 priority patent/WO2019107226A1/ja
Publication of JP2019097661A publication Critical patent/JP2019097661A/ja
Publication of JP2019097661A5 publication Critical patent/JP2019097661A5/ja
Application granted granted Critical
Publication of JP6749020B2 publication Critical patent/JP6749020B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Abstract

【課題】内視鏡が通過する管腔の部位毎に応じた、湾曲操作や挿入部の進退・回転の操作の手順をコンピュータによりナビゲーションする。さらに、ナビゲーションによる内視鏡挿入にかかる情報をデータベースに蓄積し、データベースをもとに機械学習することによりナビゲーションのプログラムを更新させ、精度を高めることができる内視鏡ナビゲーション装置を提供する。【解決手段】内視鏡ナビゲーション装置は、内視鏡装置において、内視鏡画像の画像化装置と、身体の管腔への内視鏡の挿入手順を少なくとも2つ以上を、同時または並行して、画像または音声で提示するナビゲーション機能とを具備する。【選択図】 図4

Description

本発明は、医療分野においては診断および治療を行う内視鏡装置に関するものである。
内視鏡装置は、従来から医療分野および工業用分野で広く用いられている。内視鏡装置は、挿入部と、挿入部の先端に設けられた撮像素子と照明装置により、挿入部の先にある対象物の画像を取得し、画像化装置および画像表示装置により画像を表示し、操作者は検査を行うことができる。また、内視鏡の先端に湾曲機構を有し、例えば、上下、左右の2自由度の湾曲動作を行うことができる。この湾曲動作により、例えば医療分野において、内視鏡を消化管に挿入する際のステアリングを行ったり、組織を観察あるいは診断をする際の視野をコントロールしたり、さらには、腫瘍などを切除する際の処置具の位置や方向をコントロールすることができる。
従来、内視鏡を消化管に挿入する際に、操作者は内視鏡の湾曲状態や挿入部の状態を把握しながら、内視鏡が通過する管腔の部位毎に応じた、湾曲操作や挿入部の進退・回転の操作の手順を踏んでいく必要がある。こうした手順を身に付けるためには、非常に多くの経験が必要であった。
例えば、特許第2710384は、内視鏡像の暗い領域を抽出することによって内視鏡の挿入方向を検出し、内視鏡操作者が検出された内視鏡の挿入方向を見て湾曲操作及び挿入操作を行い内視鏡を挿入する、あるいは、検出された挿入方向に対し自動的に先端部を向け内視鏡を挿入することが考案されている。
特許第2710384
特許第2710384による内視鏡像の暗い領域を抽出することによって内視鏡の挿入方向を検出し、自動的に先端部を向ける場合についての記載があるが、先端部をどちらの方向にどのような入力操作で向けるかについては、先端部を暗い領域の方向に向ける以外の記載はなかった。実際の内視鏡の挿入においては、暗部を内視鏡画像の中央に持ってくることもあれば、内視鏡画像の下方に持ってくる場合もあり、こうした動作目標の認識は操作者が行い、その認識の元で簡便に操作する手段が必要であった。
また、暗部は、内視鏡操作における一つの指標でしかなく、その他にも内視鏡画像に現れる気泡の位置や、内視鏡の湾曲状態や挿入部の状態も指標としながら、内視鏡が通過する管腔の部位毎に、湾曲操作や挿入部の進退・回転の操作の手順を踏んでいく必要がある。こうした手順を身に付けるためには、非常に多くの経験が必要であった。
内視鏡が通過する管腔の部位毎に応じた、湾曲操作や挿入部の進退・回転の操作の手順をコンピュータによりナビゲーションする。さらに、ナビゲーションによる内視鏡挿入にかかる情報をデータベースに蓄積し、データベースをもとに機械学習することによりナビゲーションのプログラムを更新させ、精度を高めるものであり、具体的には、以下の構成を特徴とする。
第1発明の内視鏡ナビゲーション装置は、
内視鏡装置において、
内視鏡画像の画像化装置と、
身体の管腔への内視鏡の挿入手順を少なくとも2つ以上を、同時または並行して、画像または音声で提示するナビゲーション機能と
を具備することを特徴とする。
第2発明の内視鏡ナビゲーション装置は、第1発明において、
内視鏡装置において、
内視鏡画像の画像化装置と、
内視鏡画像の画像情報データを検出する画像処理装置と、
内視鏡の湾曲状態、挿入部の回転、挿入長のいずれか一つ以上からなる挿入状態データを検出する機能と、
前記画像情報データおよびまたは前記挿入状態データに応じて、所定のパラメータを元に予め定めた内視鏡の挿入手順データを参照し、画像または音声で挿入手順を伝えるナビゲーション機能と
を具備したことを特徴とする。
第3発明の内視鏡ナビゲーション装置は、
内視鏡装置において、
内視鏡の挿入状態を検出するステップと、
内視鏡の挿入状態を元に予め定めた挿入操作の挿入手順データを参照するステップと、
内視鏡の挿入手順を画像または音声で提示するステップと
を具備したことを特徴とする。
第4発明の内視鏡ナビゲーション装置は、
内視鏡装置において、
内視鏡画像の画像化装置と、
前記内視鏡画像の画像情報データを検出する画像処理装置と、
内視鏡の湾曲状態、挿入部の回転、挿入長のいずれか一つ以上からなる挿入状態データを検出する機能と、
前記画像情報データおよびまたは前記挿入状態データに応じて、所定のパラメータを元に予め定めた内視鏡の挿入手順データを参照し、画像または音声で挿入手順を伝えるナビゲーション機能と、
前記挿入手順データを元に内視鏡操作を行った内容を操作データとして記録する機能と、
内視鏡操作を行った結果を計測・評価する効果判定結果データを算出する機能と、
前記画像情報データ、前記挿入状態データ、前記所定のパラメータ、前記挿入手順データ、前記操作データおよび前記効果判定結果データを、それぞれ関連付けてデータベースに蓄積する機能と、
前記データベースに蓄積されたデータ間との関係を機械学習する機能と、
前記機械学習による結果を利用して、前記、前記所定のパラメータおよびまたは前記挿入手順データを変更する機能と
を備えたことを特徴とする内視鏡ナビゲーション装置。
内視鏡の操作を容易にし、操作者に高い技能や熟練を求めることなく、内視鏡による診断および治療の正確さ向上させ、時間の短縮を行う。
内視鏡ナビゲーション装置のシステムの構成を示す図である。 内視鏡挿入位置センサーの構造を示す図である。 内視鏡画像における暗部をタッチして湾曲動作を行う操作インターフェースを示す図である。 実施例1の大腸内視鏡の挿入操作におけるナビゲーションのメニューを示す図である。 実施例1の大腸内視鏡の挿入操作における手順を示す図である。 実施例2の大腸内視鏡の挿入操作におけるナビゲーションの機械学習において行われるフローチャートを示す図である。
(実施例1)
本実施例は、内視鏡の挿入におけるナビゲーションに関するものである。本実施例の構成を図1示す。内視鏡装置1は、挿入部10と、挿入部10の先端に設けられた撮像素子2と、照明装置3と、挿入部10の先端に照明光を導光する照明ファイバー4を備え、挿入部10の先にある対象物の画像信号を取得し、画像化装置5により画像を構成し表示モニター17により画像を表示する。これにより操作者は内視鏡画像を見て内視鏡診断・治療を行うことができる。また、内視鏡の先端には湾曲機構7を有し、例えば、上下、左右の2自由度の湾曲動作を行うことができる。この湾曲動作により、例えば医療分野において、内視鏡を消化管に挿入する際のステアリングを行ったり、組織を観察あるいは診断をする際の視野をコントロールしたり、さらには、腫瘍などを切除する際の処置具の位置や方向をコントロールすることができる。
湾曲動作のために、内視鏡の先端に設けられた連結された湾曲管8からなる湾曲機構7と、手元の操作部11に設けられたプーリー12と、両者を挿入部10に沿わせて配備されたワイヤー9によって結合し、駆動伝達されるようになっている。プーリー12は歯車大13に連結され、歯車大13は歯車小14と噛み合い、さらに、歯車小14はモーター15に連結されている。また、モーター15には、回転位置を検出するエンコーダー16が設けられる。
操作部11の近くに内視鏡画像の表示モニター17を設けられており、この表示モニター17には、タッチパネル18が一体化されている。なお、この表示モニター17とは別に、内視鏡画像を表示するモニターを設けても構わない。
エンコーダー16とモーター15は、モーター制御回路19に電気的に接続されている。モーター制御回路19は、CPU20に接続されている。 表示モニター17は、画像処理装置21に接続され、タッチパネル18は、CPU20に接続されている。画像化装置の信号は画像処理装置21に接続される。画像処理装置21はCPU20に接続されている。
また、挿入部位置センサー30により挿入部10の進退位置および回転位置を検出することができる。前記挿入部位置センサー30は、CPU20に接続されている。
図2は、挿入部10の進退位置および回転位置を検出する挿入部位置センサー30の構造を示す。内視鏡の挿入部10が緩く挿入可能な円筒部の内面に、照明31および画像センサー32が設けられており、内視鏡の挿入部10の外周に記された目盛線33および挿入長を表す数字34を画像センサー32で読み取り、目盛線33と数字34の長手方向の位置Xから挿入部10の挿入位置を、数字34の円周方向の位置Yから挿入部10の回転位置を検出することができる。図2には、画像センサー32で数字“30”の中心の回転方向の位置Yと、長手方向の位置Xを求め、図中の式にて挿入長および回転位置を計算することを例示している。
この挿入部位置センサー30は、内視鏡を挿入する管腔の入口との位置関係がずれないように設置される。例えば、上部内視鏡であれば口に加えるマウスピースに内蔵する、もしくは、マウスピースに固定されるようになっており、大腸内視鏡であれば肛門の近くに患者に直接、あるいは、別途を介して固定される。挿入部位置センサー30が、口または肛門から離れて設置される場合は、離れた距離をCPU20に入力することで、後述する表示モニター17に表示される挿入長のオフセット分を補正することができる。
また、ここでは、従来の内視鏡の挿入部10に印字された目盛線33および挿入長を示す数字34を用いて、挿入部10の進退位置と回転を検出する例を示しているが、内視鏡の挿入部10に記される内容はこの限りではない。挿入部10の進退位置と回転位置44を検出できるようにするために、例えば、数字の変わりに挿入長さを識別できる記号であっても構わないし、回転方向を示す線であっても構わない。さらに、挿入部10の表面の印字の代わりにホール素子を埋め込み、画像センサー32に代わって磁気センサーで挿入部10の進退位置と回転位置を検出しても構わない。実際に、従来からの内視鏡の挿入部10に印字された数字は10cm毎に印字されているため、数字を常に画像として認識するためには、挿入部位置センサー30の長さが少なくとも10cm以上となるため、短いピッチでの数字の印字や、目盛線毎に長さを認識させるための記号を設けることは挿入部位置センサー30の長さを短縮させ、上部内視鏡用のマウスピースの長さを伸ばさない、あるいは、下部内視鏡での肛門の近くでの作業空間の制限しないことに貢献する。
なお、挿入部位置センサー30の内視鏡を挿入する孔には、透明なスリーブ状の滅菌カバー35が着脱可能に設けられ、挿入部位置センサー30から内視鏡の挿入部10に汚染することを防止している。
タッチパネル18を指でタッチしたしドラッグさせたときの移動ベクトル(入力移動ベクトルと呼ぶ)をCPU20で演算する。この入力移動ベクトルと、上下および左右のモーター15の移動ベクトルとの対応関係のテーブルがCPU20の内部メモリーに記憶されており、このテーブルを参照してCPU20からモーター制御回路19に位置およびまたは速度の指令を送る。これによりモーター15が回転し、駆動伝達機構を介して、湾曲機構7が動作し、内視鏡画像が移動する。
一方、画像処理装置21とCPU20は、タッチパネル18をタッチした部分とその周囲を含む内視鏡画像の特徴量を抽出し、その特徴量から画像上の移動ベクトル(出力移動ベクトルと呼ぶ)を求める。さらに、CPU20が入力移動ベクトルと出力移動ベクトルの差分を求め、その差分がゼロに近づくように、モーター制御回路19に位置およびまたは速度の指令を送る、フィードバック制御を行う。
以下には、前述の、「画像処理装置21とCPU20は、タッチパネル18をタッチした部分とその周囲を含む内視鏡画像の特徴量を抽出し、その特徴量を持つ対象物の画像上の移動ベクトル(出力移動ベクトル)を求める」手段の例を示す。
例えば、ビデオの電子式手振れ補正にも使われるブロックマッチング法を用いる。タッチパネル18を指でタッチした部分とその周囲を含む部分の画像をCPU20に記憶させ、湾曲動作により移動、回転、拡大・縮小を含む変化をした画像に対して、重ね合わせ位置をずらしながら、対応する画素の差分絶対値の総和(SAD: Sum of Absolute Difference)を計算し、SADが最小となる位置をマッチング位置として検出する。このマッチング位置への移動ベクトルを前述の出力移動ベクトルとして求める。
この際、内視鏡画像で抽出した特徴量を持つ画素を代表点としてサンプリングし、代表点の画像の重ね合わせ位置ずらしによりマッチングを行う、つまり代表点マッチング法を用いると、スピードを上げ必要メモリーを削減できる。
あるいは、主に移動物体の検出や、その動作の解析などに用いられるオプティカルフローを用いることができる。これは、画像上の代表点のフレーム間の移動ベクトルの分布を表すもので、これを用いてタッチパネル18を指でタッチした部分とその周囲を含む部分の移動方向や速度、さらには、奥行きに関する情報を得ることができる。つまり、オプティカルフローにより、対象物の奥行きに関する情報をも内視鏡の湾曲操作として用いることができる。
続いて、図3により、内視鏡画像6の暗部53をタッチパネル18でタッチし、タッチパネル18を所望の方向にドラッグさせることによって、湾曲動作を行い、内視鏡の挿入を補助を行う操作インターフェースについて説明する。
例えば、大腸内視鏡を肛門から挿入し、便の移動に逆行するように、直腸、S状結腸、下降結腸、横行結腸、上降結腸を経て、先端部が大腸盲腸に到達させるために、内視鏡の操作における一つの目安になるのが、管腔の遠方にある暗部53の位置である。管腔の遠方には、内視鏡先端からの照明光が届きにくくなるため、その結果、遠方ほど暗い画像となる。このことを利用して、暗部53を目標とした内視鏡挿入が実際の臨床において従来より行われている。本実施例では、図3(a)および(b)に示すように、この暗部53の画像をタッチパネル18でタッチし、タッチパネル18を所望の方向にドラッグさせることによって、湾曲動作を行い、内視鏡の挿入を補助する。
図4は、大腸内視鏡の挿入に際して、表示モニター17に表示されるナビゲーションのメニュー56を例示すものである。大腸を体の右側から見た大腸透視モデル像40、および、大腸を体の前から見た大腸透視モデル像41、および、大腸透視画像に重ねた内視鏡の挿入部モデル像42、および、湾曲状態43、および、内視鏡画像の回転位置44および上方向マーカー45、および、湾曲操作を指示する湾曲矢印46、および、挿入部10の進退を示す前進矢印47・後退矢印48、挿入部10の回転の操作を指示する回転矢印49、挿入部10が挿入されている長さを示す挿入長50、挿入方法選択51が、内視鏡画像6とともに表示される。これらは、挿入部位置センター30によって検出された挿入部10の回転位置44・挿入長50と、モーター15と駆動伝達機構を介してエンコーダー16で検出される湾曲部の上下・左右の位置、すなわち湾曲状態43と、内視鏡画像6の目標として指示された暗部53およびまたは気泡54の位置と、からCPU20によって計算され表示される。
図5は、大腸内視鏡の挿入のステップにおいて、図4のナビゲーションのメニュー56として表示される内容の一部を示す。最初に大腸内視鏡の挿入方法の選択を行う。大腸内視鏡の挿入方法として、ループ挿入法と軸保持短縮挿入法などがある。これらの挿入方法に応じたナビゲーションプログラムが予め用意されており、最初に大腸内視鏡の挿入方法のいずれかを選択する。以降のステップは、軸保持短縮挿入法を選択した場合のナビゲーションの実施例である。
大腸内視鏡検査では、挿入を開始する際に患者は左側臥位(左側を下にする体位)を取る。内視鏡の先端をまず挿入部位置センサー30の孔を通し、肛門から挿入を開始する。この際に表示モニターには回転位置44が9時の方向を向くように矢印が表示される。例えば、図5(1)に示すように、挿入部位置センサー30によって検出された挿入部10の回転位置44が12時であった場合に9時に向かうように回転矢印49が表示される。操作者は、挿入部10を把持し回転矢印49が示す方向に回転をさせると、回転位置44が9時になった時点で図5(2)に示すとおり「STOP」が表示される。このとき、図5(3)に示すように内視鏡画像6には12時に暗部53が、3時の方向に気泡54が表示されている。
この暗部53と気泡54の位置を画像処理装置21とCPU20によって計測し、それぞれ12時、3時の方向にあることを確認したところで、図5(4)に示すよう挿入部10を進めるように前進矢印47が表示される。これに従い操作者が挿入部10を把持して前進を開始する。気泡54が3時の方向を保ちながら、図5(5)に示すように暗部53が内視鏡画像6の上部から下方に移動していくのを見ながら、前進を進めていき挿入長50が13cmになったところで図5(6)に示すように前進矢印47の先に「STOP」が表示される。このとき、内視鏡画像6は、図5(7)に示すように7時の方向に強い管腔の屈曲と暗部53が現れる。
ここで暗部53が下方、気泡54が3時方向にあることを画像処理装置21の画像処理により確認がなされ、さらに内視鏡の挿入部10の肛門から挿入されている長さ、つまり挿入長50が13cmであることを確認したところで、表示モニターに図5(8)に示すように回転位置44が左周りに3時の方向を向くように矢印が表示される。操作者は、挿入部10を把持し矢印が示す方向に回転をさせると、回転位置44が3時になった時点で図5(9)に示すとおり「STOP」が表示される。そのときの内視鏡画像6は、図5(10)に示すように暗部53が12時、気泡54が9時の方向に表示される。
この暗部53と気泡54の位置を画像処理装置21とCPU20によって計測し、それぞれ12時、9時の方向にあることを確認したところで、図5(11)に示すように湾曲操作の湾曲矢印46が上方向が提示される。これを見て操作者はタッチパネル18の内視鏡画像6の上方にある暗部53をタッチして下方向にドラッグさせる。タッチしては下方向にドラッグする操作を繰り返し、上方の湾曲が120°になると上方向の湾曲矢印46が消え、図5(12)に示すように「STOP」が表示される。これにより図5(13)の体の右側から見た大腸透視モデル像40に示すように湾曲部55がS状結腸のスタート部位にある屈曲にひっかかった状態となる。
続いて、図5(14)に示すよう挿入部10を後退させるよう指示する後退矢印48が表示される。これに従い操作者が挿入部10を把持してゆっくりと後退させていくと、図5(15)の体の右側から見た大腸透視モデル像40に示すように大腸S状結腸が肛門側に徐々に引き付けられるため、内視鏡画像6の上方の右側または左側に暗部53が現れる。
この暗部53の位置を画像処理装置21とCPU20で計測し、暗部53の位置が上方の左側の場合には左の回転矢印49が表示され、暗部53の位置が上方の右側の場合は右の回転矢印49が表示される。図5(16)には暗部53が上方の右側に現れた場合の右の回転矢印49が表示された例を示す。操作者は挿入部10をゆっくりと後退を続けながら、図5(17)に示すように挿入部10の回転矢印49の方向にしたがって右ひねりを加える。この結果、図5(18)の体の右側から見た大腸透視モデル像40に示すように大腸のS状結腸が引き付けられS状結腸の下りの部分の管腔が開いてくる。
最終的、図5(19)のように内視鏡画像6では暗部53が大きく開いて中央に移動してくるように映る。この状態、すなわち暗部53が約中央にあること、気泡54が9時の方向にあることを、画像処理装置21とCPU20が計測すると、図5(20)に示すように挿入部10の回転矢印49および後退矢印48が消え、「STOP」が表示される。
以上のステップは、大腸内視鏡の挿入で最も難易度の高いとされるS状結腸の挿入の場合の本発明のナビゲーションの例を示すものである。さらに挿入を進めていき、最終的に盲腸に到達するまで、前述と同様に操作の的確なナビゲーションを行う。これにより、従来、操作者が、暗部53の位置や気泡54の位置、挿入部10の回転や長さの情報を経験に照らして、湾曲動作や、挿入部10の回転や進退の操作の判断を行っていたが、図5に示すとおり判断や操作の手順をナビゲーションすることで、内視鏡の挿入操作をサポートすることができる。
画面に表示された挿入長50、回転位置44は、病変の内視鏡画像6とともに、同時に記録できるため、例えば、後日、経過観察のために再度、大腸内視鏡検査をする際に、病変の場所が精確かつ効率良く確認できるので有用である。
図4に表示される体の右側から見た大腸透視モデル像40、体の前から見た大腸透視モデル像41、および、大腸透視画像に重ねた内視鏡の挿入部モデル像42は、大腸の解剖学を考慮したコンピュータグラッフィックスを用いた画像である。現在の挿入部10の挿入長50、回転位置44、および湾曲状態43と、挿入開始から現在位置に至るまでのこれらのプロセスのデータを用いて、大腸の伸長や変形などの解剖学的な情報を参照して作成された画像である。
本実施例は、湾曲動作を、モーター15による電動駆動にて行う例を示しているが、手動による湾曲動作を行っても構わない。また、湾曲状態を検出する手段として、湾曲部に直接、センサーを直接設けても構わない。
(実施例2)
本実施例は、実施例1における大腸内視鏡の挿入操作におけるナビゲーションの機械学習に関するものである。図6に示すとおり、ナビゲーションプログラム60は、大腸内視鏡挿入に熟練した医師が蓄積した経験則をプログラムに落としたもので、具体的には画像に現れる暗部、気泡、管腔特徴の画像情報や、内視鏡の挿入部および湾曲形状や、さらには、患者情報、挿入方法、体位、操作者情報、前処置状態、などの状態データ61から、所定のパラメータ66を用いて、内視鏡の挿入部の進退や回転、湾曲操作さらには送気・送水・吸引操作、腹部押圧、体位変換などの操作出力情報であるナビゲーションデータ62を導出し、操作者に提示することで、挿入の補助を行うものである。
ナビゲーションプログラム60では、ナビゲーションデータ62に従って実際に内視鏡操作を行った内容を操作データ67として記録するとともに、操作の結果として、挿入の過程で患者苦痛、挿入時間、患者モニターなどを計測し、これらを分析して挿入方法のパフォーマスンを評価する効果判定結果データ63を算出する機能を有する。また、前述の状態データ61、ナビゲーションデータ62、操作データ67および、効果判定結果データ63をそれぞれ関連付けながら随時データベース64に蓄積していくことができる。このデータベース64は、クラウド上に設置され、ネットワークで接続され複数の内視鏡装置とデータベース64を共有している。
このデータベースに対して、例えばConvolutional Neural Network(CNN)69などのAIアルゴリズム68を用いた機械学習65を行い、効果判定結果データ63と、所定のパラメータ66、ナビゲーションデータ62、操作データ67との関係を導出する。この効果判定結果データ63が高くなるように、所定のパラメータ66を変更してナビゲーションプログラム60の性能を向上させていく。なお、機械学習65の手段は、上述のCNNに限らない。
なお、上記実施例において、以下のように構成してもよい。
1.内視鏡画像データが気泡およびまたは暗部であることを特徴とする第2発明に記載の内視鏡ナビテーション装置。
2.挿入部位置センサーに内視鏡挿入部の汚染を防止する滅菌スリーブを具備することを特徴とする第1発明、および、第2発明に記載の内視鏡ナビゲーション装置。
3.挿入長、回転位置を、内視鏡画像ともに表示・記録することで、病変の位置を記録できることを特徴とする第1発明、および、第2発明に記載の内視鏡ナビゲーション装置。
4.挿入開始から現在に至るまでの挿入状態データと操作手順データを用いて、コンピュータグラッフィックで作成した大腸透視モデル像と、これに重ねた内視鏡の挿入部モデル像とを、具備することを特徴とする第1発明、および、第2発明に記載の内視鏡ナビテーション装置。
5.挿入操作データが挿入部進退・回転操作、湾曲操作、送気・送水・吸引操作、腹部押圧、体位変換からなることを特徴とする第1発明、および、第2発明に記載の内視鏡ナビテーション装置。
6.効果判定結果データが、患者苦痛、部分および全体の挿入時間、患者モニターからなることを特徴とする第2発明に記載の内視鏡ナビテーション装置。
1 内視鏡装置
2 撮像素子
3 照明装置
4 照明ファイバー
5 画像化装置
6 内視鏡画像
7 湾曲機構
8 湾曲管
9 ワイヤー
10 挿入部
11 操作部
12 プーリー
13 歯車大
14 歯車小
15 モーター
16 エンコーダー
17 表示モニター
18 タッチパネル
19 モーター制御回路
20 CPU
21 画像処理装置
30 挿入部位置センサー
31 照明
32 画像センサー
33 目盛線
34 数字
35 滅菌カバー
40 体の右側から見た大腸透視モデル像
41 体の前から見た大腸透視モデル像
42 挿入部モデル像
43 湾曲状態
44 回転位置
45 上方向マーカー
46 湾曲矢印
47 前進矢印
48 後退矢印
49 回転矢印
50 挿入長
51 挿入方法選択
53 暗部
54 気泡
55 湾曲部
56 ナビゲーションのメニュー
60 ナビゲーションプログラム
61 状態データ
62 ナビゲーションデータ
63 効果判定結果データ
64 データベース
65 機械学習
66 所定のパラメータ
67 操作データ
68 AIアルゴリズム
69 Convolutional Neural Network

Claims (4)

  1. 内視鏡装置において、
    内視鏡画像の画像化装置と、
    身体の管腔への内視鏡の挿入手順を少なくとも2つ以上を、同時または並行して、画像または音声で提示するナビゲーション機能と
    を具備することを特徴とする内視鏡ナビゲーション装置。
  2. 内視鏡装置において、
    内視鏡画像の画像化装置と、
    前記内視鏡画像の画像情報データを検出する画像処理装置と、
    内視鏡の湾曲状態、挿入部の回転、挿入長のいずれか一つ以上からなる挿入状態データを検出する機能と、
    前記画像情報データおよびまたは前記挿入状態データに応じて、所定のパラメータを元に予め定めた内視鏡の挿入手順データを参照し、画像または音声で挿入手順を伝えるナビゲーション機能と
    を具備したことを特徴とする請求項1に記載の内視鏡ナビゲーション装置。
  3. 内視鏡装置において、
    内視鏡の挿入状態を検出するステップと、
    内視鏡の挿入状態を元に予め定めた挿入操作の挿入手順データを参照するステップと、
    内視鏡の挿入手順を画像または音声で提示するステップと
    を具備したことを特徴とする内視鏡ナビゲーション装置。
  4. 内視鏡装置において、
    内視鏡画像の画像化装置と、
    前記内視鏡画像の画像情報データを検出する画像処理装置と、
    内視鏡の湾曲状態、挿入部の回転、挿入長のいずれか一つ以上からなる挿入状態データを検出する機能と、
    前記画像情報データおよびまたは前記挿入状態データに応じて、所定のパラメータを元に予め定めた内視鏡の挿入手順データを参照し、画像または音声で挿入手順を伝えるナビゲーション機能と、
    前記挿入手順データを元に内視鏡操作を行った内容を操作データとして記録する機能と、
    内視鏡操作を行った結果を計測・評価する効果判定結果データを算出する機能と、
    前記画像情報データ、前記挿入状態データ、前記所定のパラメータ、前記挿入手順データ、前記操作データおよび前記効果判定結果データを、それぞれ関連付けてデータベースに蓄積する機能と、
    前記データベースに蓄積されたデータ間との関係を機械学習する機能と、
    前記機械学習による結果を利用して、前記、前記所定のパラメータおよびまたは前記挿入手順データを変更する機能と
    を備えたことを特徴とする内視鏡ナビゲーション装置。
JP2017229065A 2017-11-29 2017-11-29 内視鏡ナビゲーション装置 Active JP6749020B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017229065A JP6749020B2 (ja) 2017-11-29 2017-11-29 内視鏡ナビゲーション装置
PCT/JP2018/042874 WO2019107226A1 (ja) 2017-11-29 2018-11-20 内視鏡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017229065A JP6749020B2 (ja) 2017-11-29 2017-11-29 内視鏡ナビゲーション装置

Publications (3)

Publication Number Publication Date
JP2019097661A true JP2019097661A (ja) 2019-06-24
JP2019097661A5 JP2019097661A5 (ja) 2019-11-28
JP6749020B2 JP6749020B2 (ja) 2020-09-02

Family

ID=66974518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017229065A Active JP6749020B2 (ja) 2017-11-29 2017-11-29 内視鏡ナビゲーション装置

Country Status (1)

Country Link
JP (1) JP6749020B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021048925A1 (ja) * 2019-09-10 2021-03-18 オリンパス株式会社 内視鏡制御装置、内視鏡制御装置の作動方法及びプログラム
JP2021049314A (ja) * 2019-12-04 2021-04-01 株式会社Micotoテクノロジー 内視鏡画像処理システム
WO2021153797A1 (ja) * 2020-01-30 2021-08-05 アナウト株式会社 コンピュータプログラム、学習モデルの生成方法、画像処理装置、及び手術支援システム
WO2021241695A1 (ja) * 2020-05-27 2021-12-02 富士フイルム株式会社 内視鏡画像処理装置
WO2022085104A1 (ja) 2020-10-21 2022-04-28 日本電気株式会社 内視鏡操作支援装置、制御方法、コンピュータ可読媒体、及びプログラム
EP4074241A1 (en) * 2021-04-14 2022-10-19 Panasonic i-PRO Sensing Solutions Co., Ltd. Endoscope system
WO2023095208A1 (ja) * 2021-11-24 2023-06-01 オリンパス株式会社 内視鏡挿入ガイド装置、内視鏡挿入ガイド方法、内視鏡情報取得方法、ガイドサーバ装置、および画像推論モデル学習方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06277178A (ja) * 1993-03-30 1994-10-04 Toshiba Corp 電子内視鏡装置
JPH0642644Y2 (ja) * 1988-10-15 1994-11-09 オリンパス光学工業株式会社 内視鏡湾曲装置
JPH10234662A (ja) * 1997-02-27 1998-09-08 Toshiba Corp 画像処理装置
JP2004089484A (ja) * 2002-08-30 2004-03-25 Olympus Corp 内視鏡装置
JP2009056238A (ja) * 2007-09-03 2009-03-19 Olympus Medical Systems Corp 内視鏡装置
WO2011102012A1 (ja) * 2010-02-22 2011-08-25 オリンパスメディカルシステムズ株式会社 医療機器
JP2014109630A (ja) * 2012-11-30 2014-06-12 Olympus Corp 内視鏡装置
WO2016009701A1 (ja) * 2014-07-15 2016-01-21 オリンパス株式会社 ナビゲーションシステム、ナビゲーションシステムの作動方法
WO2016207973A1 (ja) * 2015-06-23 2016-12-29 オリンパス株式会社 内視鏡システム、内視鏡情報処理装置および内視鏡情報処理方法
WO2017109988A1 (ja) * 2015-12-25 2017-06-29 オリンパス株式会社 可撓管挿入装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0642644Y2 (ja) * 1988-10-15 1994-11-09 オリンパス光学工業株式会社 内視鏡湾曲装置
JPH06277178A (ja) * 1993-03-30 1994-10-04 Toshiba Corp 電子内視鏡装置
JPH10234662A (ja) * 1997-02-27 1998-09-08 Toshiba Corp 画像処理装置
JP2004089484A (ja) * 2002-08-30 2004-03-25 Olympus Corp 内視鏡装置
JP2009056238A (ja) * 2007-09-03 2009-03-19 Olympus Medical Systems Corp 内視鏡装置
WO2011102012A1 (ja) * 2010-02-22 2011-08-25 オリンパスメディカルシステムズ株式会社 医療機器
JP2014109630A (ja) * 2012-11-30 2014-06-12 Olympus Corp 内視鏡装置
WO2016009701A1 (ja) * 2014-07-15 2016-01-21 オリンパス株式会社 ナビゲーションシステム、ナビゲーションシステムの作動方法
WO2016207973A1 (ja) * 2015-06-23 2016-12-29 オリンパス株式会社 内視鏡システム、内視鏡情報処理装置および内視鏡情報処理方法
WO2017109988A1 (ja) * 2015-12-25 2017-06-29 オリンパス株式会社 可撓管挿入装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021048925A1 (ja) * 2019-09-10 2021-03-18 オリンパス株式会社 内視鏡制御装置、内視鏡制御装置の作動方法及びプログラム
JP2021049314A (ja) * 2019-12-04 2021-04-01 株式会社Micotoテクノロジー 内視鏡画像処理システム
WO2021153797A1 (ja) * 2020-01-30 2021-08-05 アナウト株式会社 コンピュータプログラム、学習モデルの生成方法、画像処理装置、及び手術支援システム
WO2021241695A1 (ja) * 2020-05-27 2021-12-02 富士フイルム株式会社 内視鏡画像処理装置
JP7463507B2 (ja) 2020-05-27 2024-04-08 富士フイルム株式会社 内視鏡画像処理装置
WO2022085104A1 (ja) 2020-10-21 2022-04-28 日本電気株式会社 内視鏡操作支援装置、制御方法、コンピュータ可読媒体、及びプログラム
EP4074241A1 (en) * 2021-04-14 2022-10-19 Panasonic i-PRO Sensing Solutions Co., Ltd. Endoscope system
WO2023095208A1 (ja) * 2021-11-24 2023-06-01 オリンパス株式会社 内視鏡挿入ガイド装置、内視鏡挿入ガイド方法、内視鏡情報取得方法、ガイドサーバ装置、および画像推論モデル学習方法

Also Published As

Publication number Publication date
JP6749020B2 (ja) 2020-09-02

Similar Documents

Publication Publication Date Title
JP6749020B2 (ja) 内視鏡ナビゲーション装置
JP4009639B2 (ja) 内視鏡装置、内視鏡装置のナビゲーション方法、内視鏡画像の表示方法、及び内視鏡用画像表示プログラム
WO2019107226A1 (ja) 内視鏡装置
US8102416B2 (en) Medical apparatus
JP6128796B2 (ja) 挿入システム、挿入支援装置、挿入支援装置の作動方法及びプログラム
JP5028191B2 (ja) 内視鏡装置
JP6132585B2 (ja) 被検体挿入システム
US20080086051A1 (en) System, storage medium for a computer program, and method for displaying medical images
JP7292376B2 (ja) 制御装置、学習済みモデル、および内視鏡の移動支援システムの作動方法
WO2004023986A1 (ja) 医療処置システム、内視鏡システム、内視鏡挿入動作プログラム及び内視鏡装置
US20190231167A1 (en) System and method for guiding and tracking a region of interest using an endoscope
CN114980793A (zh) 内窥镜检查辅助装置、内窥镜检查辅助装置的工作方法以及程序
JP4728456B1 (ja) 医療機器
US20230148847A1 (en) Information processing system, medical system and cannulation method
JP5996279B2 (ja) 内視鏡を用いた物体計測装置及び物体計測方法並びに内視鏡先端フード
JP7368074B2 (ja) 挿管装置
CN116075902A (zh) 用于识别医疗程序期间未检查区域的设备、系统和方法
EP4170675A1 (en) Automatic positioning and force adjustment in endoscopy
US20230255461A1 (en) Endoscope image processing device
JP2021194268A (ja) 血管観察システムおよび血管観察方法
WO2024028934A1 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体
WO2020230389A1 (ja) 血管径測定システムおよび血管径測定方法
JP7221787B2 (ja) 血管径測定システム
JP2019097665A (ja) 内視鏡装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191016

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191016

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191016

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200804

R150 Certificate of patent or registration of utility model

Ref document number: 6749020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250