JP6600690B2 - 挿入体支援システム - Google Patents

挿入体支援システム Download PDF

Info

Publication number
JP6600690B2
JP6600690B2 JP2017546316A JP2017546316A JP6600690B2 JP 6600690 B2 JP6600690 B2 JP 6600690B2 JP 2017546316 A JP2017546316 A JP 2017546316A JP 2017546316 A JP2017546316 A JP 2017546316A JP 6600690 B2 JP6600690 B2 JP 6600690B2
Authority
JP
Japan
Prior art keywords
information
insert
shape
tube
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017546316A
Other languages
English (en)
Other versions
JPWO2017068650A1 (ja
Inventor
潤 羽根
浩正 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2017068650A1 publication Critical patent/JPWO2017068650A1/ja
Application granted granted Critical
Publication of JP6600690B2 publication Critical patent/JP6600690B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00059Operational features of endoscopes provided with identification means for the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0048Detecting, measuring or recording by applying mechanical forces or stimuli
    • A61B5/0055Detecting, measuring or recording by applying mechanical forces or stimuli by applying suction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/022Stereoscopic imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/027Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis characterised by the use of a particular data acquisition trajectory, e.g. helical or spiral
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display

Description

本発明は、軟性内視鏡鏡、カテーテル等に代表される、管空内に挿入して観察及び修理・治療・採取等の処置を行うための管状挿入システムを操作を支援する挿入体支援システムに関する。
一般に、任意の管空内又は体腔内に挿入して、観察等を行う管状挿入システムの一例として、内視鏡が知られている。内視鏡の挿入部(又は、挿入体)は、管空内に挿入してしまうと、直視による挿入部の位置や湾曲形状を確認することができない。そのため、被観察者(患者)に挿入された内視鏡で撮像された観察画像を見て、臓器(体腔)に対する天地方向と位置関係の判断は、熟練度や経験が必要とされている。
さらに、観察対象が大腸であった場合に、大腸は患者毎に形状や配置が異なり、挿入部の形状に従い変形しうる臓器である。そのため、撮像された画面を見ながら、大腸の形状や配置を考慮して、挿入部の挿入状況(大腸における位置と湾曲形状等)を判断する場合、操作者の知識や経験に基づく推測に依存する割合が大きい。そのため、経験が浅い操作者においては、熟練者の助言や何らかの補助がない場合、挿入部を挿抜する手際が悪かったり、必要以上に時間を要したりすることが懸念される。また、熟練した操作者であっても常に推測が正しいものとは限らず、試行錯誤する可能性もある。
特開2014−204904号公報
前述したように、内視鏡等の挿入部は、体腔内に挿入されると、挿入部の形状を直接的に視認することができない。そこで、挿入部に位置情報を検出するためのセンサを配置して、そのセンサから得られた光強度や光量の変化に関する情報から湾曲形状を検出するシステムが提案されている。更には、診断に用いられるレントゲン撮影による二次元画像だけではなく、CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置等の外部画像機器から観察対象の三次元断層画像を予め入手して利用するシステムとして、例えば、特開2014−204904号公報(特許文献1)が提案されている。この特許文献1には、CT画像を利用した超音波内視鏡システムが提案されている。超音波内視鏡システムは、CT画像と体軸方向データを利用して被検者モデル画像データを生成し、挿入形状データと、超音波断層像マーカと、スコープ先端部マーカと、3次元生体組織モデルデータと、被検者モデル画像データと、誘導画像情報とを組み合わせることにより、各種ガイド画像を生成して表示している。
このように内視鏡等の挿入部に位置センサや形状センサを組み込んで、挿入部の位置・形状・配置等を検出し、操作者へ情報提供することで挿入性を向上させようとする試みがなされている。
しかしながら、大腸のように患者の個人差により形状及び配置が異なり、また挿入体の挿入状態に従い形状が変化する観察対象に対して、CT画像や超音波画像等で取得される二次元以上で特に三次元画像(又は、三次元断層画像)を実用的に内視鏡の診断に利用した具体的な実施方法の提案はなされていない。
そこで本発明は、予め取得した観察対象となる管空の二次元以上の画像又は断層画像から管空の形状情報を含む管空情報を作成し、内視鏡等の挿入部を管空に挿入するための支援情報として利用する挿入体支援システムを提供することを目的とする。
上記目的を達成するために、本発明に従う実施形態の挿入体支援システムは、被検体の管に挿入される挿入体と、前記挿入体に設けられ、現在の前記挿入体の形状情報を含むセンサ情報を検出する形状センサと、前記挿入体が前記被検体に挿入される前に画像機器によって撮影された、事前撮影の前記被検体の管の形状情報を含む被検体情報を取得する画像機器情報取得部と、現在の前記挿入体の形状情報と、事前撮影の前記被検体の管の形状情報と、を重畳させることで、前記被検体の前記管に対する前記挿入体の挿入経路を示す挿入経路画像を作成する管情報統合処理部と、現在の前記挿入体の形状情報と、事前撮影の前記被検体の管の形状情報と、の間に差異があることを検出し、前記差異に基づき、前記挿入体の挿入経路に係る操作支援情報を作成する操作支援情報生成部と、を有する。
本発明によれば、予め取得した観察対象となる管空の二次元以上の画像又は断層画像から管空の形状情報を含む管空情報を作成し、内視鏡等の挿入部を管空に挿入するための支援情報として利用する挿入体支援システムを提供することができる。
図1は、本発明の一実施形態に係る管状挿入システムに備えられる挿入体支援システムの構成例を示す図である。 図2は、挿入体支援システムを搭載する内視鏡の外観構成を示す図である。 図3は、内視鏡の挿入部先端の湾曲部の湾曲方向について示す図である。 図4は、CT装置の外観構成を示す図である。 図5は、特定視点からの被検体に対する概念的な撮像画像を示す図である。 図6は、CT装置におけるヘリカルスキャンによる撮像の概念を示す図である。 図7は、MRI装置の外観構成を示す図である。 図8は、超音波診断装置による診断状況を示す図である。 図9は、超音波診断装置及び使用されるプローブの外観構成を示す図である。 図10は、挿入体の湾曲形状を検出する湾曲形状検出装置の構成例を示す図である。 図11Aは、ファイバセンサが取り付けられた側に湾曲した光ファイバ内を導光する検出用光を示す図である。 図11Bは、真っ直ぐな状態の光ファイバ内を導光する検出用光を示す図である。 図11Cは、ファイバセンサが取り付けられた側とは反対側に湾曲した光ファイバ内を導光する検出用光を示す図である。 図12は、被検体の管腔の開口部に挿入体センサを配置する例を示す図である。 図13Aは、被検体情報抽出部内に設けられる管空情報統合処理部を示す図である。 図13Bは、管空情報統合処理部内に設けられる位置情報統合処理部を示す図である。 図13Cは、管空情報統合処理部内に設けられる管空関連情報推定生成部を示す図である。 図13Dは、位置情報統合処理部内に設けられる管空位置関連情報推定生成部を示す図である。 図14は、診察台に横たわる被検体の臥位状態を示す図である。 図15は、挿入体支援システムにおける操作支援情報の生成及び出力について説明するためのフローチャートである。 図16は、被検体の管空状態に関する情報の修正又は更新の処理について説明するためのフローチャートである。 図17は、推測した被検体の管空状態と実測した被検体の管空状態とを提示する支援情報処理について説明するためのフローチャートである。 図18は、表示部に表示される操作支援情報の一例を示す図である。 図19は、第1の表示例として、挿入状態検出を表示している画面を示す図である。 図20は、第2の表示例として挿入状態検出を表示している画面を示す図である。 図21Aは、第3の表示例となる挿入体の先端部と特定部位との近接関係から操作支援情報の呈示の有無を切り替えている例を示す図である。 図21Bは、第3の表示例として、挿入体の先端部と特定部位との近接関係から操作支援情報の呈示の有無を切り替えている例を示す図である。 図22は、画面上に撮像画像と再構成画像を横並びに表示した例を示す図である。 図23は、挿入された挿入体により大腸の形状に変形が生じた例を示す図である。 図24は、支援情報や支援情報の生成の仕方の例を示す図である。
以下、図面を参照して本発明の実施形態について詳細に説明する。
[第1実施形態]
図1には、本発明の一実施形態に係る管状挿入システムに備えられる挿入体支援システムの構成例を示している。図2は、挿入体支援システムを搭載する内視鏡の外観構成を示し、図3は内視鏡の挿入部先端の湾曲部の湾曲方向について示す図である。以下、本実施形態の管状挿入システムとして、医療用軟性内視鏡(上部消化管・大腸・超音波・膀胱鏡・腎盂鏡等)を例にとって詳細に説明する。勿論、本実施形態は、医療用軟性内視鏡に限定されるものではなく、挿入体を操作して、挿入・処置を行う管状挿入システムであれば、他にも工業用内視鏡、一部湾曲機構を有する硬性鏡、マニピュレータ(ロボットアーム)、カテーテル等の長手方向の
とも一部の形状が湾曲変化しうる管状挿入システムに汎用的に適用可能である。
以下に説明する本実施形態において、内視鏡の観察対象物とする管空(体腔又は管腔)は、消化器や気管支や泌尿器等として、ここでは、大腸を一例として説明する。前述したように、大腸は、被検体毎に形状や配置が異なり、時間の経過や機器の挿入等によって形状が変化しうる臓器である。この被検体は、診断や治療をする患者を想定しているが、患者に代わってシミュレーション用の患者モデルや臓器モデルであってもよい。尚、医療に特化せずとも、内部に管空や空洞部を有する機器等であってもよい。
まず、図2及び図3を参照して、挿入体支援システム1を搭載する内視鏡システム100について概略的に説明する。図2は、内視鏡システムの概略的な構成例を示す図である。図3は、挿入体における、操作による動作方向を概念的に示す図である。
本実施形態における内視鏡システム(管状挿入システム)100は、観察対象の体腔内に挿入する管状挿入装置である。
内視鏡システム100は、被検体内に挿入され、挿入体(所謂、挿入部)の先端に設けられた撮像部により撮像する内視鏡13と、撮像された観察画像を画像処理する画像処理部14(所謂、ビデオプロセッサ)と、画像処理部14からの観察画像を表示するモニタ(表示部)16と、内視鏡13に照明光を出射する光源装置18と、形状センサ(センタ本体部)15と、内視鏡システム全体を制御する制御装置19とを有している。尚、本実施形態の内視鏡には、一般的に使用される機能や機器等は備えているものとする。
内視鏡13は、操作者(operator)が把持する把持部31が設けられた操作部30と、操作部30の基端側に接続される細長い管状で可撓性を有する挿入体20と、操作部30を光源装置18及び画像処理部14の双方に接続し、画像送信を行う信号線及び照明光を導光する光ファイバからなる所謂、ライトガイドを含むユニバーサルケーブル27と、を有している。操作部30においては、内視鏡13を操作する操作者(医師らの作業者)によって把持部31が把持され、その上部に配置される湾曲操作部36及び操作ボタン34の操作が行われる。
さらに、操作部30の上部近傍には、IDタグ37が設けられており、識別のための固有の型番や製造番号等が記録されている。このIDタグ37は、内視鏡13を挿入体支援システム1に接続した時に、支援可能か否かの判断と固有のパラメータの設定に利用される。この固有のパラメータは、後述する記憶部6に予め記憶されており、初期化に際して適宜、読み出されて制御装置19に設定される。尚、挿入体支援システム1が支援不可を判断した内視鏡であっても、支援無しの通常の使用は可能である。また、支援可能な場合においても、IDタグ37の内容に応じて、提供可能な支援情報や提供できる支援情報の正確さやレベルの範囲が固有のパラメータとして設定される。
このようなIDタグに書き込まれた情報の例を表1に示す。表1に記載の情報全てをIDタグに書き込む必要は必ずしも無く、支援システムを起動して支援情報を生成するのに必要な情報が少なくとも書き込まれていればよい。
Figure 0006600690
このようなIDタグに書き込まれた情報に基づいて、挿入体支援システムは提供可能な支援情報を判別する。判別した提供可能な支援情報は、例えば、操作者にプルダウンメニュー等で表示し、必要に応じて選択してもらってもよい。これによって、操作者は、どの様な支援情報が入手可能か分かり、更に、欲しい支援情報を選択的に出力するよう、設定が可能となる。
さらに、提供可能な支援情報、または、提供することが決まった支援情報を生成するための設定を必要に応じて行う。これは、必要な情報を生成・取得するためのセンサや画像機器の設定であったり、情報を受け取るための手順を決めたり、受け取った情報から支援情報を生成するための処理を選択したり、といった設定などがある。また、こうした設定は、支援情報を生成しようと思った際に行ってもよいが、起動時に行うと最初の1回で処理が完了するため、処理が簡便で途中で手間取らない。
さらに、支援システムの構成要素が起動中に着脱可能な場合には、システム構成の変化を検出して設定を更新するようにすると同様に便利である。挿入体20は、基端部側から先端部側に向かい、可撓管部25と、湾曲部23と、先端硬質部21とが連結するように一体的に形成されている。
この挿入体20内には、長い方向に沿って、少なくとも照明光を導光する不図示の光ファイバであるライトガイドと、後述する挿入体20の湾曲状態を検出するための形状センサ15の検出光用の光導通部材、例えば、光ファイバとが並設されるように設けられている。尚、検出光用の光ファイバは、挿入体20の湾曲状態を検出できるように、挿入体20と一体的に固定されている。検出光用の光ファイバは、挿入体20の長手軸方向に沿った中心軸上に配置されるのが好ましいが、特には限定されていない。尚、以下の説明において、区別を行うために、照明光を導光する光ファイバをライトガイドと称している。さらに、挿入体20の基端側で操作部30との間には、先端側のチャンネル開口まで挿入体20内部を貫通し、各種鉗子を挿通させる鉗子チャンネルの挿入口部35が配設されている。また、照明窓は、光学レンズで構成され、光源装置18からライトガイドを通じて導光された照明光を観察対象エリアに照射する。
先端硬質部21は、硬質部材により概ね円筒形状に形成され、その先端面には、図示していないが、少なくとも照明光を照射する照明窓と、観察対象エリアを撮像するための観察窓及び光学系を含む撮像部39と、洗浄液等や気体を含む流体を噴出するノズルと、チャンネル開口とが設けられている。操作部30には、湾曲部23を挿入方向に対して互いに直交する、例えば、上下及び左右方向に湾曲させるための湾曲操作部36(UDノブ、LRノブ等)と、撮像や送気送水及び吸引等を行うための種々の操作ボタン34が設けられている。湾曲部23は、不図示の複数の節輪により構成され、節輪間を繋ぐ回動軸を交互に90°ずれて直交させて挿入体20の長手軸方向に連結されている。先端の節輪は、操作部30に配置された湾曲操作部36と複数のワイヤで接続されて、湾曲操作部36の操作に応じてワイヤが牽引され、それぞれの回動軸を中心にそれぞれの節輪が適宜回動し、全体的には円弧の状態となり、結果、湾曲部を湾曲させた状態となる。尚、湾曲操作部36は、手動ノブに限定されず、ワイヤ牽引にモータの駆動力を利用した電動タイプであってもよい。
可撓管部25は、可撓性を有しており、外力によって湾曲可能である。操作者は、湾曲操作部36を操作し、湾曲部23を所望の方向に湾曲させ、さらに可撓管部25の可撓性を利用して押し引きや捻りを入れることで、被検体である患者の消化器や気管支や泌尿器等の管空へ自在に挿入していくことが可能となる。さらに、湾曲部23を湾曲させることで、先端硬質部21の向きを変えて、観察対象物を観察視野内に捉えて、照明光を観察対象物に照明する。
本実施形態では、形状センサ15は、挿入体20内に配置される光ファイバの所定位置に少なくとも1つの湾曲状態を検出するための被検出部38を配置している。形状センサ15の後述する光源は、ユニバーサルケーブル27(光ファイバ)を通じて、照明光とは異なる波長の検出用光を出射する。形状センサ15は、挿入体20の光ファイバ内に検出用光を出射して、被検出部38により影響を受けた検出用光を検出して、その時の挿入体20の形状を検出する。
内視鏡13は、センサ部28として、形状センサ15に加えて、さらに、後述する挿入体センサ86及び操作量センサが設けられている。操作量センサは、前述した操作部30内に設けられ、湾曲操作部36と接続されている複数のワイヤの移動量を検出する。これらのワイヤの移動量は、湾曲操作部36の操作量に応じて変化し、ワイヤの移動量から湾曲部23の湾曲方向と湾曲状態を検知することができる。
センサ部28は、挿入体20の形状及び姿勢を含む配置情報、又は先端部に関する情報(位置・向き・姿勢)、の少なくとも1つを検出/推定して、センサ部28から得られたセンサ情報に基づく挿入体情報と、画像機器情報に基づく被検体情報から操作支援情報を生成することができる。挿入体20の形状及び姿勢を含む配置又は、先端部に関する情報(位置・向き・姿勢)、の少なくとも1つを挿入体情報及び、操作支援情報の一部とする。よって、操作者が挿入体20の位置関連情報を知ることができ、管空のどこまで挿入したか又は、これからの挿入体20の挿入の進め方を、この情報が無い場合に比べて、より正確に知ることができ、被検体情報と組み合わせることで挿入体の挿入性・操作性が向上する。
これらのセンサを用いて、図3の矢印に示すように、管空内に挿入された挿入体20における挿抜方向の進退移動量A1と、操作部30の回動を伴う捻り(回転)量A2と、湾曲操作部36の操作による湾曲部23の上下方向A3及び左右方向A4とに湾曲方向及びその移動量に関するセンサ情報を生成する。
なお、内視鏡13には、記載されたセンサ以外のセンサやアクチュエータが搭載されていてもよい。センサ情報は、1つ以上の搭載されたセンサから検出、または、生成されるものとし、得られるセンサ情報は複数の種類の情報から成っていても良い。
図1を参照して、挿入体支援システム1の構成について説明する。
本実施形態の挿入体支援システム1は、内視鏡システム100に備えられて、被検体5である患者に挿抜する際に操作者である医師らに支援情報を与え、さらに診断や治療等のための観察や処置を支援する。具体的には、挿入体支援システム1は、内視鏡13の挿抜や処置のための操作を行う際に、内視鏡の撮像部で撮像された画像情報を含み、後述する各センサから検出したセンサ情報と、画像機器によって取得された画像や画像を基に生成された情報や情報に加えられた判断など、事前の画像関連情報とを取り込み、操作支援情報を生成し、操作者に提供する。
挿入体支援システム1は、主として、被検体情報抽出部2と、挿入体情報抽出部3と、支援情報生成部4と、記憶部6と、出力部(例えば、表示部)16と、後述する複数の情報取得部と、で構成される。尚、挿入体支援システムの出力部16は、内視鏡システム100の表示部と兼用している。但し、出力部16からの出力は、表示部に表示される画像情報(操作支援情報)のみに限定されるものではなく、他の機器等に各種情報を出力する機能も有している。勿論、別個に設けてもよい。
複数の情報取得部は、観察対象の被検体5に関する各種の被検体情報を外部から取得する。本実施形態の情報取得部としては、撮像情報取得部7と、センサ情報取得部8と、外部情報取得部9と、画像機器情報取得部10とを有している。勿論、これらの情報取得部は、被検体情報抽出部2や挿入体情報抽出部3の一部として組み込まれてもよい。また、これらの情報取得部以外でも利用可能な情報を提供するものを追加してもよい。
具体的には、撮像情報取得部7は、挿入体20の先端側に設けられた撮像部39が撮像した被検体5の画像を含む撮像画像情報を取り込み、被検体情報抽出部2へ送出する。尚、撮像画像情報は、被検体5の管空に関する画像情報である。
センサ情報取得部8は、形状センサ15、後述する挿入体センサ86及び操作量センサが検出した挿入体情報からなるセンサ情報を取得し、挿入体情報抽出部3へ送出する。
さらに、外部情報取得部9は、外部機器やLANを経由して得られる被検体5に関する外部情報を内視鏡観察又は内視鏡診断に先立って取得し、挿入体情報抽出部3へ送出する。画像機器情報取得部10は、被検体5の三次元断面画像等の画像機器情報を後述する画像機器11より内視鏡観察に先立って取得し、被検体情報抽出部2へ送出する。また、各情報取得部は、被検体情報や挿入体情報以外の操作支援に関わる情報等を併せて取得してもよい。
さらに、撮像情報取得部7、センサ情報取得部8、外部情報取得部9及び画像機器情報取得部10等が取得する外部情報に対して、挿入体支援システム1内、又は、挿入体支援システム1からのリクエストにより外部機器を利用して適宜、抽出・加工等の処理を行う。挿入体支援システム1が外部から取り込む情報を1次情報とし、挿入体支援システム1内で生成された、又は該システム1の指示によって生成された情報を2次情報と称する。また、これらの1次情報と2次情報を合わせて単に情報と称している。例えば、画像機器11上で事前に得られる情報は、挿入体支援システム1向けに事前に加工されていても、1次情報とする。一方、画像機器情報を提供した画像機器11に対して、既に取り込んだ被検体5の情報を基に、特定の情報を新たに生成するように挿入体支援システム1が指示した場合に得られる情報は2次情報とする。
これらの情報取得部のうちで、画像機器情報取得部10及び画像機器11は、必須である。それ以外は、少なくとも1つ以上の機器等があり、それらの機器からの情報と、画像機器情報取得部10からの情報と、を組み合わせて、挿入体情報抽出部3にて挿入体情報が抽出・生成できればよい。
被検体情報抽出部2は、取得したセンサ情報及び画像機器情報から被検体5の形状等の被検体情報を抽出・生成する。挿入体情報抽出部3は、取得したセンサ情報及び外部情報から被検体5における挿入状況・形状等を示す挿入体情報を抽出・生成する。支援情報生成部4は、被検体情報抽出部2及び挿入体情報抽出部3からの挿入体情報に対して、取捨選択及び各種加工することによって、後述する操作支援情報を生成する。
記憶部6は、被検体、および、操作者についての情報、複数の情報取得部から得られる情報、被検体情報抽出部2、挿入体情報抽出部3及び支援情報生成部4における中間生成情報や支援情報や、様々な内視鏡やセンサ類についての固有のパラメータ等を記憶する。また、記憶部6は、目的に応じて複数配置してもよいし、外部に配置して、LANやインターネット等で接続しても良い。前述したように、出力部16は、出力の一形態として支援情報生成部4からの操作支援情報を表示する表示部を含んでいる。なお、支援情報の表示は、出力の一形態であり、その他の種々の出力形態があり、例えば、情報呈示の仕方においても、音声・振動・光等様々な形態を含んでいる。操作支援情報は、その出力形態に合わせて、変換や変更が実施される。尚、支援情報に基づいてアクチュエータを制御するといったことも可能である。
以下に、挿入体支援システム1の各構成部位について詳細に説明する。
図4は、CT装置の外観構成を示す図、図5は、特定視点からの被検体に対する概念的な撮像画像を示す図、図6は、CT装置におけるヘリカルスキャンによる撮像の概念を示す図である。図7は、MRI装置の外観構成を示す図である。図8は、超音波診断装置による診断状況を示す図、図9は、超音波診断装置及び使用されるプローブの外観構成を示す図である。
本実施形態に用いられる画像機器11は、公知な機器であり、例えば、CT装置51、MRI装置61及び超音波診断装置65等が利用できる。これらの画像機器11からは、観察対象となる被検体5の管空に関する二次元以上の画像情報が内視鏡観察の直前に取得される。又は、内視鏡観察の直前で、診断等、他の目的に利用した画像情報を再利用してもよい。本実施形態に利用可能な画像情報としては、以下の表2に示す情報がある。但し、画像機器11によっては取得できない情報もあり、それらの情報は除くものとする。
Figure 0006600690
特に、CT装置51では、図5に示すように被検体5の外部の特定方向、又は、撮像部55の視点からコリメータ56を経て観察対象範囲全体の観察ができ、被検体5の広い範囲、又は、全体についての1つの方向、又は、視点からの画像情報57を取得できる。また、図5及び図6に示すように、撮影時に視点(被検体)を移動するヘリカルスキャン58により、立体像や任意断面形状を再構成可能となる。
ここで、超音波診断装置について説明する。内視鏡観察においては、前述したように、被検体5に観察を行うため挿入体20を挿入しつつ、挿入されている状態において、逐次、現況の情報を取得できることが最も好ましい。
図8及び図9に示すように、超音波診断装置65は、装置本体66と、プローブ67(67a,67b)と、モニタ部68とで構成され、移動可能にキャスタ架台69に搭載されている。装置本体66は、図示していないが、超音波の生成と送信受信を行う送受信部と、制御部と、ドップラー信号等を処理する信号処理部と、画像処理部と、記録部と、キーボード等による入力部等で構成される。また、プローブの代表的なものとして、放射状に超音波を放出するコンベックス型プローブ67a、直線的に超音波を放出するリニア型プローブ67bを示している。他にも、コンベックス型プローブ67aよりも狭域なセクタ型プローブがある。超音波診断装置65を使用する場合には、図8に示すように、被検体5を診察台に寝かせて、医者70が観察を所望する箇所にプローブ67を宛がい、三次元画像を取得する。
尚、通常の内視鏡観察時には、被検体5の患者は、寝かせられている場合が多い。そのため、画像機器11での体内画像観察時と似たような体位となる。寝ている体の向きが異なる場合、臓器の配置が重力によって若干異なる可能性があるため、必要に応じて可能であれば、画像機器情報を内視鏡観察時に対応した画像となるよう、適宜、修正を行う。
また、被検体が物や装置などである場合には、被検体に対応した画像機器を用いるものとする。例えば、被検体の素材によっては、赤外線撮像装置を用いて透視画像を得ることができる。
次に、図10乃至図12を参照して、センサ情報取得部8が取得するセンサ情報について説明する。図10は、挿入体20の湾曲形状を検出する形状センサ15の構成例を示す図である。図11A,11B,11Cは、光ファイバに取り付けられたファイバセンサにおける湾曲した際の光伝達量について説明するための概念図である。図12は、被検体5の管腔の開口部(例えば、口腔部)85に挿入体センサ86を配置する例を示す図である。
本実施形態におけるセンサ情報は、形状センサ15、挿入体センサ86と操作量センサにより検出された情報を加工した挿入体20の形状及び挿入距離(挿入量)等からなる情報である。
図10に示す形状センサ15は、図2に示したように、内視鏡13の挿入体20の長手軸方向に沿って設けられた光ファイバ72に少なくとも1つの被検出部38を配置し、検出した曲率(湾曲量)から挿入体20の湾曲形状を検出する。
形状センサ15は、センサ部本体71、被検出部38及び制御部75とで構成される。制御部75は、形状演算部74を含みセンサ部本体71内の各構成部位を統括的に制御する。前述したように光ファイバ72は、照明光を導光するライトガイド(光ファイバ)と並設されている。
センサ部本体71は、光軸上で出射する側から、光源76と、投光レンズ77と、アイソレータ78と、反射ミラー79と、第1集光レンズ80とが配置される。反射ミラー79で分岐された光軸上に第2集光レンズ81と光検出部82が配置されている。
光源76は、例えば、LEDにより構成され、内視鏡で使用される照明光とは異なる少なくとも1つの波長の検出用光を出射する。複数の被検出部38を用いた場合には、異なる複数の波長の検出用光を用いる構成が好ましい。アイソレータ78は、光源76から出射された検出用光を通過させて、反射ミラー79の反射により戻ってきた検出光の通過を阻止して、光源76に光が戻らないようにしている。
センサ部本体71の集光レンズ80から出射された検出用光は、光ファイバ72の基端側から入射されて導光される。その導光された検出用光は、光ファイバ72の先端側に設けられた反射部73で反射し、検出光として、再度、光ファイバ72内を通過して、センサ部本体71に戻る。その検出光は、反射ミラー79で屈曲されて分岐され、光検出部82に受光される。光検出部82は、光電変換素子等で構成され、湾曲により変化する検出光の光強度に基づく形状信号を出力する。形状演算部74は、光検出部82からの形状信号に基づき、実際に湾曲部23の湾曲形状の曲率(円弧の大きさ)を演算出力する。
挿入体20の湾曲と検出用光の光伝達量の関係について説明する。
図11Aは、被検出部38が取り付けられた側に湾曲した光ファイバ72内を導光する検出用光を矢印で示し、図11Bは、真っ直ぐな状態の光ファイバ72内を導光する検出用光を矢印で示し、図11Cは、被検出部38が取り付けられた側とは反対側に湾曲した光ファイバ72内を導光する検出用光を矢印で示している。
前述したように被検出部38は、光ファイバ72の特定箇所の外周面に取り付けられて、導光される検出用光を吸収して光強度を減少させる、即ち、光伝達量を減少させている。従って、被検出部38に照射される光量が多いほど、光伝達量が小さくなる。つまり、光ファイバ72が、図11Bに示す真っ直ぐな状態から、図11A又は図11Cに示す何れかの湾曲状態に変化すると、同期するように検出用光の光伝達量にも増減の変化が発生する。この検出用光の光伝達量の変化は、光検出部82が受光する光強度の変化となり、形状演算部74は、被検出部38の湾曲方向と、この光量の変化に基づく検出信号から光ファイバ72の曲率を算出する。これらの例では、図11Aに示す多くの光が光ファイバ側面に反射される湾曲状態が最も光伝達量が大きくなり、図11Bに示す一部の光が被検出部38に入射される真っ直ぐの状態、図11Cに示す多くの光が被検出部38に入射される湾曲状態の順に、光伝達量が減少していく。
このように形状センサ15は、光ファイバ72の湾曲形状によって、光ファイバ72内を通過する光量が変化する光量変化検出方式のファイバセンサである。特徴として、細径で内視鏡に組み込みやすい点と、他の構成の影響を受けにくい点がある。この方式は、検出部が安価に構成できるので、量産製品に向いたセンサとなっている。この他にも、FBG方式と言われる光ファイバにグレーティングを形成した方式がある。この方式は、検出部が複雑で高価になりがちだが、1本の光ファイバに複数の被検出部38を設けて、複数の検出点を取得して高精度に所望の範囲の湾曲形状を検出することが可能である。
図12は、挿入体センサ86の構成例を示している。挿入体センサ86は、挿入体20の外周面に設けた位置を示すマーク(図示せず)を光センサ等で光学的に読み取り、体腔(管腔)に対する挿入体20の挿入量及び回転量を検出する。
本実施形態に用いられるセンサ部28は、形状センサ15と挿入体センサ86と操作量センサであり、これらのセンサを搭載することで以下のセンサ情報を得ることができる。
1)挿入体湾曲形状、
2)挿入体の挿入量、
3)回転(ねじり)量、
4)挿入体先端にある湾曲部の湾曲の操作量、
5)管腔を有する被検体に対する挿入体の湾曲形状、
6)挿入体先端に掛かる力。
これらのうち、2)乃至4)のセンサ情報は、各センサから直接得られる情報であり、1)、5)、6)のセンサ情報は、信号処理により得られる情報である。詳しくは、1)のセンサ情報は、形状センサによる湾曲情報を組み合わせていくことで、所定の範囲の湾曲形状を算出できる。5)のセンサ情報は、1)乃至3)の各センサ情報を用いて算出でき、6)のセンサ情報は、1)と4)のセンサ情報を用いて算出することができる。
また、使用するセンサは、形状センサと挿入体センサと操作量センサに限定されるものではなく、同等な情報を取得可能であれば、特に限定されるものではなく、異なるタイプのセンサであってもよい。勿論、センサ情報を得るためのセンサは、同じタイプのセンサを複数個を配置してもよい。さらに、挿入体支援システム1に利用可能な情報であれば、前述した情報に限定されず、異なった種類の情報を得るための別種のセンサを用いてもよい。
次に、外部情報取得部9が取得する外部情報について説明する。
外部情報取得部9を通して、外部機器から得られる外部情報として、表3に記載される外部情報が挙げられる。これらの外部情報は、本実施形態の挿入体支援システム1にとって必ずしも必須ではないが、有用なことも多く、目的に応じて選択し、適宜、利用してもよい。なお、これらの外部情報の内、予め取得しておくことが可能な情報は、記憶部6に記憶しておき、適宜、更新した上で、必要な時に取り出してもよい。
Figure 0006600690
次に、被検体情報抽出部2及び挿入体情報抽出部3について説明する。
被検体情報抽出部2では、内視鏡観察に対して、事前に画像機器11から得られた被検体5に関わる画像機器情報(事前の画像機器情報)を主として、操作支援情報の生成に必要な被検体情報を抽出・生成する。また、外部情報取得部9から得られた情報を併せて用いて抽出・生成してもよい。以下の説明において、画像機器11から得られた画像機器情報を基に、画像機器2次情報生成部12により生成された2次情報を「画像機器2次情報」と称する。
画像機器情報は操作支援にそのまま使える情報とは限らない。特に、特定の視点からの画像情報や病変などの情報は有用であるが、画像機器情報に含まれない場合、これらを画像機器2次情報生成部によって画像機器2次情報として生成することで、狙いとする操作支援情報を生成可能となる。
この画像機器2次情報には、以下のようなものがある。但し、画像機器情報として既に取得されているものは除くものとする。
1)画像2次情報:管状の挿入体20に撮像部が設けられている場合に、撮像部に撮像された撮像部位の画像に対応するように再構築した画像 … 画像機器11に撮像部位の位置・向きを指定して再構築する、
2)形状・配置2次情報、
3)特定部位2次情報。
この画像機器2次情報は、特定の視点/断面における管空の形状又は、配置を示す管空形状・配置2次情報を含んでいる。尚、画像機器2次情報生成部12は、挿入体情報抽出部3からの生成情報の指定を受けて、その指定に基づき2次情報を生成してもよい。例えば、撮像部39による撮像画像や各センサによる挿入体先端の位置・向きに基づいて、撮像画像に対応した画像を画像機器情報から再構築するようにしてもよい。また、画像機器2次情報の生成は、必ずしも被検体情報抽出部2で行わなくてもよく、画像機器11を含む外部装置に生成を任せてもよい。
画像機器2次情報が管空形状、配置2次情報を含むことから、画像を再構成する画像2次情報の特定の視点を操作者の視点や挿入体に設けた撮像部の視点に合わせることで挿入体の挿入性・操作性が向上する。また、特定部位の状況が分かりやすい視点とすることで、特定部位を通過するための仕方や特定部位での観察/診断・治療といった作業に好適する挿入体の配置の仕方がより改善され、挿入体の挿入性・操作性が向上することとなる。
また、観察対象となる管空の形状及び配置は、被検体の外部からは、直接観察できないため、管空の形状及び配置2次情報を提示する可能性ができることによって、挿入体の進行方向や進入位置の情報が無い場合に比べて、より正確に知り得ることができる。
また、画像機器2次情報に特定部位2次情報が無い場合に比べて、特定部位の見落としを防止し、探索に掛かる時間の短縮を実現することができる。また、特定部位2次情報を操作者が事前に知っていたとしても、必要に応じて、操作支援情報として操作者が受け取れるように設定すれば、特に特定部位の数や種類が多いときに、見落とす可能性を減らすことができ、挿入体の挿入性及び操作性が向上する。
挿入体20の形状・配置情報又は先端情報と画像機器情報から撮像画像に対応する画像機器2次情報を生成される。また、挿入体支援システム1は、画像機器2次情報は、特定の視点/断面での管空の形状・配置を示す管空形状・配置2次情報を含み、挿入体情報は、特定の視点/断面での前記挿入体の形状・配置情報を含み、操作支援情報は、管空形状・配置2次情報と挿入体の形状・配置情報とを合わせた画像情報を含んでいる。この操作支援情報が、管空形状・配置2次情報と挿入体の形状・配置情報とを合わせた画像情報を含むことで、管空に対する挿入体の相対位置関係が一目瞭然で確認でき、挿入体の挿入性・操作性が向上する。
前述した被検体情報及び操作支援情報は、挿入体20の挿抜の要注意部位、即ち、挿抜の際に注意を払わなければならない注目部位や観察/診断・治療などの作業対象部位である特定部位に対応した特定部位2次情報を含んでいる。これは、内視鏡画像に対応した管空の画像と共に、特定部位の範囲/形状/サイズの表示、内容/作業/注意点といった情報を操作支援情報として併せて提示することで、内視鏡の撮像画像上での特定部位の特定や作業が容易となり、挿入体の挿入性・操作性が向上する。
挿入体情報抽出部3は、センサ情報取得部8から入力された挿入体20に関係するセンサ情報を用いて、操作支援情報の生成に必要な挿入体情報を抽出・生成する。このセンサ情報は、前述したように、形状センサ15、挿入体センサ86及び操作量センサから検出された情報である。さらに、外部情報取得部9から得られた挿入体20に関わる外部情報を用いたり、この外部情報とセンサ情報と併せたりして抽出・生成してもよい。
また、観察領域又は処置等の作業対象領域を挿入体20で確認した際に、その位置が異なったり、無かったり、他の部位にもあったり、病変が想定とは異なるタイプのものであったりした場合には、挿入体情報抽出部3は、画像機器情報(撮像画像情報)又は、センサ情報の少なくとも1つに基づき、被検体情報の修正又は、更新をリアルタイムに行う。これにより、管空に挿入体20を挿入した際に、事前情報である画像機器情報と異なる管空の情報が得られたり、挿入や作業に応じて時々刻々と得られる管空の情報が変化する。このように被検体情報を修正/更新をリアルタイムに行うことで、次の挿入体挿入時の挿入や診断・治療に役立つ。
図13A乃至13Dを参照して被検体情報抽出部2について説明する。
図13Aは、被検体情報抽出部2内に設けられる管空情報統合処理部91を示す図、図13Bは、さらに管空情報統合処理部91内に設けられる位置情報統合処理部92を示す図、図13Cは、また管空情報統合処理部91内に設けられる管空関連情報推定生成部93を示す図、図13Dは、位置情報統合処理部92内に設けられる管空位置関連情報推定生成部94を示す図である。
図13Aに示すように、被検体情報抽出部2内に、画像機器情報とセンサ情報に含まれている被検体5の管空に関する情報を統合するための管空情報統合処理部91を設ける。この管空情報統合処理部91は、被検体情報抽出部2と並列的に配置してもよい。統合する情報は、管空に関する情報であれば、特に限定されない。例えば、同じ状態が異なる表記であったり、情報の重複や欠落があったり、状態と表記の食い違いあったりする場合に、これらを整合し、予め定めた表現方法に合わせるように統合することで、情報が簡潔で扱いやすいものとなる。
さらに、統合する情報の例として、特に、特定部位の位置に関連した位置関連情報が挙げられる。この位置関連情報には、特定部位の形状・大きさ・位置・向きなどが挙げられる。図13Bに示すように、管空情報統合処理部91内に設けられた位置情報統合処理部92は、これらの位置関連情報の座標系を共通化し、位置情報を統合する。これは、位置関連情報の座標系を1つに統合することで、共通の座標系を用いて双方の位置情報を処理したり表示したりすることが可能となる。
一方、上述のような座標系の統合を行うと、支援情報の生成又は、提示に必要な配置間隔における位置情報が抜け落ちたり、特定の処理を施さないと、支援情報の生成には不十分な位置情報であったりする場合がある。このような場合には、図13Cに示すように、管空情報統合処理部91内に、管空関連情報推定生成部93を設けて、支援情報の生成、又は、提示に必要な位置情報を補間又は、推定により追加生成を行う。
この管空関連情報推定生成部93は、画像機器11からの事前情報とセンサ情報に含まれる管空情報に、差異や欠落がある場合、例えば、特定部位の形状・大きさ・位置・向きなどが異なる場合や、支援情報の生成に必要な情報が欠落している場合には、複数セットの情報から現状の管空情報を推定したり、必要であるが欠落している情報を可能な限り推定して追加生成して管空情報を統合する。また、位置に関する推定により情報生成する場合には、図13Dに示すように、図13Bに示した位置情報統合処理部92内に、管空位置関連情報推定生成部94を設けて、位置関連情報の推定を行う。
尚、画像機器11から取得した事前情報となる画像機器情報に対して、センサ情報は、最新の情報である。この最新の情報を正しいものとして推定した現状の管空情報に対して、必要であるが欠落している情報があれば、補うように可能な限り推定して、統合する際に追加することで、より正確な支援情報の生成又は提示が可能となる。
ここで、CT装置51と内視鏡13の組合せを例にした情報の統合について説明する。具体的には、CT装置51から取得された画像情報(三次元断層画像等)とセンサ情報を統合することを前提にして、画像機器11と挿入体支援システム1における座標系の取り方や被検体の方向の決め方について説明する。
図14は、診察台に横たわる被検体5の4つの臥位(左側臥位A、右側臥位B、仰臥位C、仰臥位D)状態を示している。この時、CT装置51に使用した診察台を診察台M、内視鏡13を使用する診察台を診察台Nとする。
まず、2つの座標系を統合できるように設定する。
被検体5が診察台Mに横たわることを想定して、被検体5のXYZ座標の各座標軸の方向を以下の様に決める。図14に示すように、被検体5のXYZ座標は、X:診察台長手方向、Y:診察台幅方向、Z:診察台上方に設定している。
この座標設定に対して、より適正に被検体5に合わせた座標系の設定方法として、次の様な方法も適宜選択して適用できる。
1)(腹部付近の)背骨や骨盤の向きからXY方向を設定する、
2)頭部と股間/足先を結ぶ線からXY方向を設定する、
3)被検体5にCT画像に映り込むマーカを複数付けてCT画像を撮り、マーカの位置からXY方向を設定する、
4)医師らの操作者がXY方向を任意に決めて入力設定する。同様に、Z方向も同様にCT画像の情報から決めるものとする。
次に、挿入体支援システム1におけるXY座標系の設定例として、以下のような方法が挙げられる。
1)診察台Nに、X/Y方向に延びるライン等のマーキングを設けて、被検体5の体の向きを診察台Mに時に付けたマーカを、そのマーキングに合わせる。
2)被検体5の背中や腹部等の両脇に押し当てる又は挟み込む冶具で固定する。さらに、センシング系の座標系を診察台Nの座標系に合わせる。
なお、診察台N上で被検体の体位を変える可能性がある場合には、被検体にマーカを付けたり、被検体を撮像カメラで撮影して画像処理したりして、直接、被検体の座標系を設定してもよい。また、本例における座標系の取り方は一例であり、一意的に決まる座標系であれば、原点や方向の異なる座標系や極座標系などを含め、任意の座標系を用いてもよい。
続いて、CT等の画像情報からの被検体5の管空形状・配置情報の抽出と座標系変換を次の手順で行う。
1)挿入体20を挿入する被検体5の管空(臓器等)の形状・配置情報を抽出する。
2)被検体5の管空の形状・配置を、センサの座標系で表現可能にする。
また、特定方向(視点)からの管空画像の再構築は以下の様に行う。
3)CT情報を生成したCT装置に、挿入体支援システム1からCT情報座標系における方向/視点情報を送り、再構築させる。さらに、他の装置又は挿入体支援システム1内に、CT情報の生データとCT情報座標系での方向/視点情報を送って、再構築する。
その後に、病変・治療箇所などの特定箇所の必要な情報抽出と座標変換は、次の手順で行う。
1)被検体5の臓器の形状情報でいびつな構造部分をパターン抽出や作業者の目視確認で抽出する。
2)CT情報で、特定の組織(がん等)に対応する色やパターン情報を持つ、臓器、又は、臓器に隣接する組織を有する部分を抽出する。
CT撮影時と挿入体20の挿入時において、管空情報が異なることへの対応について、ずれの内容と対応方法を以下のa)乃至e)に示す。
a)被検体5の管空(臓器)と挿入体20先端の位置/向きのずれに対して、管空への挿入体挿入ルートの再設定を行う。再設定を行う際に、基準として次のものが挙げられる。管空の形状変化率最小/管空(臓器)長さ一定/従来の管空ルートに最短接続する。
b)ガス注入/吸引・挿入操作、傷病等による被検体5の特定部位の大きさのずれに対しては、管空の断面積の増減比に応じて特定部位又は、その周囲の形状を変化させる。
b1)このずれ補正において、襞の大きさは、管空の断面積が小さくなれば、襞が大きくなるように補正し、反対に管空の断面積が大きくなれば、襞が小さくなるように補正する。
b2)第1の長さ変化として、挿入体20の挿入位置までの管空の長さに対しては、管空は挿入体20に沿った形状・配置とし、挿入体20の挿入位置先端近傍の管空の部位と挿入体の挿入量(挿入した長さ)の変化に応じて管空の長さを伸縮させる。3)第2の長さ変化として、挿入体20の挿入位置より先の部分の長さに対しては、1つの方法として、そのまま補正を行わない。
さらに、他の方法として、特に大腸の襞の伸縮について、更に挿入された先見の形状・配置変化を予想する。
c)被検体5の管空(臓器)の新規項目発生。
挿入体20の挿入時に病変・治療痕・癒着等の新規項目が確認され、次第、管空情報に追加可能とする。
追加方法としては、以下の2つが挙げられる。
c1)自動で抽出及び追加する。
c2)作業者が確認・判断して抽出し、追加入力する。
d)被検体5の臥位の違いによる、被検体5の内部(臓器)配置の偏り。
図14に示した左側臥位、右側臥位、仰臥位1、仰臥位2等の被検体5の横たわる向きによる変化が、画像情報取得時と挿入体挿入時にあれば、その臥位の変化に基づいて、特定の管空や周囲の内蔵物(臓器等)の移動をCT画像情報から推測する。
e)経時変化等による体型/特定部位の形状変化による形状、配置のずれの発生。
画像情報取得時からの経時変化など変化が生じた場合、体重、腹囲、体脂肪率及び、内臓脂肪つき具合等の情報から、特定部位や被検体全体の形状、配置の変化を推測する。
次に、支援情報生成部4について説明する。
上述した被検体情報抽出部2から出力された被検体情報と、挿入体情報抽出部3から出力された挿入体情報とを取捨選択して取り込み、又は、情報に適宜、加工を施すことにより操作支援情報を生成する。この操作支援情報としては、被検体情報と挿入体情報との組合せ、被検体情報と挿入体情報との組合せから導かれる被検体/挿入体の情報、挿入体の操作に関わる情報(推奨動作・指示・警告)等がある。これらの操作支援情報を次の表4に示す。
Figure 0006600690
これらの操作支援情報は、操作者である医師らに、瞬時で応答し且つ、理解しやすく伝える必要がある。そのため、情報の内容はもちろん、伝達の仕方も重要であり、情報を分かりやすい形に加工/変換したり、出力の仕方を工夫したりする必要がある。
なお、操作関連情報の推奨動作については、図3に示したような挿入体の挿跋や湾曲操作に加え、送水や送気・吸気などの挿入体に関わる操作全てが対象となり、確実性や安全性を含めて挿入性や操作性が向上する支援情報であれば、どのようなものでも構わない。
次に、記憶部6について説明する。
記憶部6では、取得・抽出・生成した各種情報の記憶及び読み出し、さらに各処理に必要な情報を予め記憶しておき、必要に応じて適宜読み出される。
本実施形態においては、以下の情報を記憶対象としている。
1)各情報の取得部から取得した情報、
2)支援情報生成部で抽出・生成した情報とその中間情報、
3)支援情報を生成するためのプログラム、どのような支援情報を生成可能とするか等の設定、特定の状態と判断するための判断基準等。
次に、表示部16について説明する。
挿入体支援システム1の表示部は、内視鏡システム(管状挿入システム)100が備える表示部16と兼用され、内視鏡画像と併せたり、又は単独で操作支援情報が表示出力される。出力形態は、表示部16による画面表示のみでもよいが、医師らの操作者へ迅速かつ分かりやすく伝達するため、音声や振動等で告知してもよい。さらに、画面表示と、音声や振動等とを組み合わせてもよい。表示部16も固定モニタだけではなく、ヘッドマウントディスプレイ等の装着携帯型の表示機器の利用も可能である。この場合には、音声は、イヤホンを利用して通告してもよい。
操作支援情報の表示方式としては、常時に表示される情報と、特定の条件を満たしたときのみ表示される情報とに区分される。これらは、支援情報の出力の設定によって、所望する情報の出力様式を操作者が決定したり、挿入体支援システム1側で操作者の技量等に応じて設定してもよい。操作者の要望(設定)により、操作支援情報の出力が特定の状態になるまで全く出力されない設定も可能である。
以上説明した本実施形態の挿入体支援システム1によれば、以下の作用効果を奏することができる。
操作支援情報を生成するために、事前に得た画像機器情報に基づく被検体情報とセンサによる挿入体情報を用いることで、被検体情報だけ又は、挿入体情報だけの場合に比べて、被検体5と挿入体の両方の情報が挿入体の挿入・操作時に得られ、挿入体の操作性の向上、ひいては、挿入性や観察/診断等の作業性の向上につながる。
さらに、被検体5の外部の特定の方向又は、視点から内部を透視するCT装置、MRI装置等の三次元画像に基づけば、被検体内部の管空の形状・配置や病変部などの状況を正確に読み取ることができ、高い精度及び、多い情報量の被検体情報を得ることができる。
また、挿入体20の挿入時に、CT装置51やMRI装置61等の大型の画像機器11とセンサを組み合わせて、同じ機能を実現しようとすると、挿入体20の挿入操作が大掛かりになることで利用できる施設が限定されたり、画像機器11によっては、X線や強力な電磁界などを長時間にわたり被検体の患者が浴びたり又は、リアルタイムに被検体情報が得られなかったりする可能性がある。そこで、内視鏡観察の事前に画像機器情報を取得しておくことで、画像機器情報を最適な環境で取得でき、かつ、必要な処理を極力事前に済ませることできるため、画像機器情報の精度を高めたり、挿入体の挿入時の情報処理の負荷が低減して高速な処理や安価な処理システムの採用が可能となったりする。
また、前述したように、大腸のように観察対象が形状を変え得る被検体5の管空においては、被検体5の外部から内部が目視では直接観察できないため、形状を想定して挿入体を狙いの部位まで挿入したり、操作したりすることが容易ではない。これに対して、被検体情報とセンサ情報を用いることで、例えば、管空や挿入体5の形状・配置や特定部位の位置・分布・タイプ等の特徴を知ることができ、挿入体5の挿入や操作時に、管空や挿入体5の確認すべき状態情報を減らしたり、状態情報の確度を向上させたりすることができ、挿入体5の挿入性・操作性が向上する。形状を変え得る管空と同様に、個体差又は個人差の大きい管空についても同様な効果を奏する。
前述した被検体情報及び操作支援情報は、被検体5の管空の形状又は、その配置に関わる管空形状・配置情報又は管空形状・配置2次情報を含んでいる。この管空形状・配置情報には、外部から得られた管空形状・配置情報とこれらの2次情報、及び、センサ情報を基に構築される管空形状・配置情報がある。さらには、外部から得られた管空形状・配置情報又は、これらの2次情報を、センサ情報を基に構築される管空形状・配置情報により修正・追加した情報も含まれる。画像機器11から得られる、このような管空形状・配置情報を操作支援情報とすることで、挿入体の挿入の仕方やどこまで挿入したかを、情報が無い場合に比べて、より正確に知ることができる。また、2次情報やセンサ情報による修正・追加情報を用いることで、よりシステムに合った又は、より正確な被検体の管空情報を得ることができる。このことで挿入体の挿入性・操作性が向上する。
挿入体20に関する操作支援情報の生成に関わる情報としては、事前の画像機器情報、撮像画像情報、センサ情報、外部情報、被検体や操作者の情報、挿入体やシステム構成の情報、システムの設定や操作者の指示・判断等が挙げられる。これらの情報を基に、挿入体情報・被検体情報、さらには、操作支援情報を抽出・生成させる。
また構成に記憶部6を備えることで、これらの情報の内、適宜望ましいもの又は、全てを記憶し、必要なものを必要なタイミングで読み出すことが可能となる。記憶部6を用いて、情報をデータベース化しておくことで、過去の支援情報を任意のタイミングで提示することが可能となる。それによって、被検体・管空の状態が概ねどうであるか、どう変化してきたか、次の挿入ではどうなっている可能性があるか、どのように挿入して、どう作業を行うとよいか、といったことを挿入体の挿入前に確認することができる。また、ビッグデータとして記憶しておくことで、後から有益な情報を抽出できる可能性もある。
支援情報が、管空形状・配置2次情報と特定部位2次情報と挿入体の形状・配置に基づく、作業に関する作業関連情報、例えば、作業指示、管空情報と挿抜の操作指示、狭窄部通過注意、経路逸脱注意、危険警告/回避指示、を含むことで、挿入性の作業性が格段に向上する。
次に、図15に示すフローチャートを参照して、本実施形態の挿入体支援システム1における操作支援情報の生成及び出力について説明する。
まず、予備段階として、内視鏡13と挿入体支援システム1との接続が行われて、IDタグ37を利用して操作支援の可否が判断され、支援可能であれば、操作支援のための設定及び初期化が行われる。その後、画像機器11からCT画像情報、MRI画像情報又は超音波画像情報の何れかからなる事前の画像機器情報が画像機器情報取得部10を通じて、被検体情報抽出部2に取り込まれる(ステップS1)。
引き続き、必要に応じて不図示の外部機器等から外部情報取得部9を経て挿入体情報抽出部3に外部情報が取り込まれる(ステップS2)。尚、外部情報は設定により必要なだけ取得されるものであり、特に外部情報が不要であった場合には、このステップS2は、スキップされる。さらに、内視鏡13に搭載する形状センサ15と、挿入体センサ86と操作量センサにより検出された前述したセンサ情報がセンサ情報取得部8を通じて、挿入体情報抽出部3に取り込まれる(ステップS3)。
次に、挿入体情報抽出部3は、取り込まれた情報のうちで、少なくともセンサ情報を用いて挿入体情報を抽出・生成し、被検体情報抽出部2及び、必要に応じて支援情報生成部4に送出される(ステップS4)。被検体情報抽出部2は、入力された挿入体情報の指定により、画像機器情報から画像機器2次情報を生成し(ステップS5)、さらに、画像機器情報又は、画像機器2次情報の少なくとも一方の情報を用いて、被検体情報を抽出・生成して支援情報生成部4に送出する(ステップS6)。
さらに、支援情報生成部4は、被検体情報抽出部2からの被検体情報と挿入体情報抽出部3からの挿入体情報を用いて操作支援情報を生成する(ステップS7)。生成された操作支援情報は、表示部16等を通じて、画面表示、音声又は振動等を用いて操作者に出力される(ステップS8)。その後、設定された操作支援が終了したか否かを判断し(ステップS9)、支援が終了でなければ(NO)、ステップS2へ戻り、再度、外部機器から情報取得を行い、支援が終了であれば(YES)、挿入体支援のルーチンを終了する。
次に図16に示すフローチャートを参照して、被検体の管空状態に関する情報の修正又は更新の処理について説明する。
まず、画像機器情報取得部10を通じて、画像機器11から三次元画像又は三次元断層画像からなる画像機器情報を被検体情報抽出部2に取り込む(ステップS11)。前述した図15のルーチンにより、被検体5の管空状態(形状や位置)を予測する(ステップS12)。操作者は、内視鏡13を把持し、挿入体20を被検体5の管空に挿入する(ステップS13)。この時、内視鏡13に搭載したセンサ部28からセンサ情報を取得して実際の被検体5の管空状態を生成し、予測された管空状態と実際の被検体5の管空状態とを比較して修正が必要か否かを確認する(ステップS14)。次に、予測された管空状態が適正であり修正が不要で終了するか否かを判断する(ステップS15)。予測された管空状態に修正が必要でなければ(YES)、予測された管空状態が支援情報生成部4に送出されて終了する。一方、予測された管空状態と実際の被検体5の管空状態とに差異があり、予測された管空状態に補正が必要であれば(NO)、センサ情報に基づき、予測された管空情報を修正し(ステップS16)、再度、ステップS13に戻り、挿入体の被検体5の管空への挿入を続ける。
次に図17に示すフローチャートを参照して、推測した被検体の管空状態と、実測した被検体の管空状態とを提示する支援情報処理について説明する。
まず、画像機器情報取得部10を通じて、画像機器11から三次元画像又は三次元断層画像からなる画像機器情報が被検体情報抽出部2に取り込まれる(ステップS21)。前述した図15に示したルーチンにより、被検体5の管空状態(形状や位置)を予測し(ステップS22)、その予測された管空状態に基づく操作支援情報を生成し表示部16に画像表示させる(ステップS23)。
次に、操作者は、内視鏡13を把持し、挿入体20を被検体5の管空に挿入する(ステップS24)。この時、内視鏡13に搭載したセンサ部28の更新されたセンサ情報を取得し、そのセンサ情報に基づき、実際の被検体5の管空状態を確認する(ステップS25)。その確認の後、支援情報生成部4は、実際の被検体5の管空状態に基づく操作支援情報を生成し表示部16に画像表示させる(ステップS26)。次に、予測された管空状態による操作支援情報と実際の被検体5の管空状態による操作支援情報とを比較して、修正が不要で終了するか否かを判断する(ステップS27)。ここで、修正が必要でなければ(YES)、終了する。一方、予測された管空状態と実際の被検体5の管空状態とに差異があり、予測された管空状態に補正が必要であれば(NO)、センサ情報に基づき、予測された管空情報を修正し(ステップS28)、再度、ステップS24に戻り、挿入体の被検体5の管空への挿入を続ける。
図18には、表示部16に表示される操作支援情報の一例を示している。
この操作支援情報は、内視鏡13を被検体5の大腸へ挿入している状況である。通常、操作者からは、被検体内の挿入状況は、内視鏡13で撮像された撮像画像以外に直接は分からない。本実施形態では、以下の情報が内視鏡13の挿入体5を挿入する際の操作支援情報となる。
1)被検体5における大腸111の配置及び形状の情報:画像機器11からの画像機器情報の一部を利用して生成する。
2)内視鏡の挿入体20の湾曲形状の情報:複数のセンサ112から取得したセンサ情報から生成する。
3)大腸111内の内視鏡の挿入体20の配置及び形状の情報:1)と2)の組合せから生成する。
4)内視鏡の照明光113が照明される範囲内(観察視野又は、撮像視野)の大腸111の病変部114の情報:1)と2)の組合せから生成する。
次に、表示部16の画面上に表示される操作支援情報による挿入状態の検出例について説明する。
図19は、第1の表示例として、挿入状態検出を表示している画面であり、内視鏡13の挿入体20の先端部の向きと、特定部位である病変部の配置関係を示している。
この表示例の操作支援情報としては、1)大腸111の配置及び形状の情報、2)挿入体20の配置及び形状の情報、3)挿入体20の先端部の位置と撮像する向きの情報が表示されている。
図20は、第2の表示例として挿入状態検出を表示している画面であり、内視鏡13の挿入体20の先端部の向きと、特定部位である病変部114の位置関係を示している。
この表示例の操作支援情報としては、大腸111と挿入体20との配置関係に加え、挿入体20の先端部から病変部までの進行方向と距離及び、先端部が到達するための内視鏡の挿入操作の指示を時々刻々と表示を更新することで、病変への到達が極めて容易になる。
図21A,21Bは、第3の表示例として、挿入体20の先端部と、特定部位との近接関係から操作支援情報の表示の有無を切り替えている例を示している。
図21Aは、挿入体20の先端部と、特定部位との距離が遠いため、大腸111内における先端部の位置表示だけであり、特定部位に関する情報は表示していない。挿入体20の大腸111への挿入が進行して、図21Bに示す距離が一定距離以下の位置に挿入体20の先端部が到達した以降は、病変情報115として、病変部のタイプ(病変:線種)とサイズ(サイズ:15mm)を表示している。また、大腸111内に、複数の特定部位が存在し、個々に確認が必要な場合には、それらの病変部の位置を全て表示し、一定距離以下の位置に先端部が到達した以降の病変又は、先端部と最も近い位置の病変のみの病変情報を表示するように設定することで、操作者の作業効率が向上する。
さらに、挿入体20の先端部からの向き及び距離等の操作支援情報の出力状況/出力内容を挿入体20の先端部と特定部位との関係に基づいて変更する。例えば、一定の距離に接近した際に、表示を開始し、一定の距離以上に離れたら、表示を終了する。ここでは、挿入体20の先端部の方向が特定部位への方向と概ね合致したときのみ表示する。その特定部位の内容によって表示内容を切り替えることによって、近接する特定部位に応じた操作支援状況の提供ができ且つ、不必要な情報を提供せずに済む。
次に、図22は、表示部16の画面上に内視鏡の撮像画像(スコープ画像121)と画像機器情報から生成した画像機器2次情報からなる再構成画像を横並びに表示した例を示している。この表示においては、内視鏡13で撮像したスコープ画像121に対して、視点及び画面サイズが概ね一致するように、機器2次情報となる再構成画像122を挿入体情報による指定により画像機器情報から生成している。再構成画像122には、画像機器情報(又は、外部情報)に含まれる病変と疑われる部位123が観察又は治療の対象領域に重ねて表示されている。再構成画像122では、病変と疑われる部位123をマーキングしているが、このような画像処理により、観察又は治療の対象領域、若しくは該対象領域を含むエリアとして、周囲に比べて明るい色で表示する等、目立つ表示手法をとることで、挿入体20の操作者に対して、支援情報が一目で注視できるように、区分して表示している。
挿入体情報である大腸に対する挿入体20の先端部の位置や、その撮像部の視点の向きは、スコープ画像121又はセンサ情報から推定して求めることができる。このように内視鏡の撮影画像と共に、画像上に観察/治療対象領域を明示することで見落としなく、観察対象部位へ挿入体20の先端部を誘導させることができる。
また、観察/治療対象領域を実際に内視鏡で確認した際に、その所在すべき位置が異なったり、発見できなかったり、他に新たな部位の存在を確認したり、病変状態が想定とは異なるタイプであったりした場合には、被検体情報を修正/更新することで、次の内視鏡の挿入時の診断や治療に役立てることが可能である。この様な修正や更新を行うことになる理由は、表5に示す原因が挙げられる。
Figure 0006600690
図23は、挿入された挿入体20により大腸111の形状に変形が生じた例を示す図である。内視鏡13の挿入体20が挿入された際に、移動可能な大腸111の形状に変形が生じた及び、大腸111の形状が事前に得た画像機器情報に基づき生成した形状とは異なってしまう場合がある。
そのため、挿入体20の挿入によって大腸111の形が大きく変形してしまった情報を取得した場合には、挿入体20が本来の挿入経路から逸脱していることを警告する。さらに、大腸111に負荷が掛かっている場合には、警告音を出して、適宜、挿入体20の挿入動作を直ちに停止したり、挿入体20を引き戻す操作を行ったりするように指示を行う。この様な警告指示を出すことで、誤った方向への挿入を抑制することができ、観察対象部位までの挿入が容易になったり、挿入時間が短縮されたり、管空である大腸や他の臓器を含めた患者への負荷を抑制することができる。
また、センサ情報で取得した大腸111の形状が、事前に得た画像機器情報によるものとは異なっていた場合には、現状の大腸の形状及び配置となるように、被検体情報を修正する。又は、現状の大腸の形状及び配置に応じた新たな挿入体20の挿入経路を設定することで挿入経路を修正する。このように、大腸111の形状及び配置や挿入経路を修正/更新することで、次の挿入体20の挿入操作が容易になる。
次に、図24を参照して、支援情報や支援情報の生成の仕方の例について説明する。
前述した図2に示すように、内視鏡13の挿入体20の操作部30の上部には、IDタグ37が装着されている。このIDタグ37によるIDタグ情報は、内視鏡の型式・搭載オプションなどが挙げられる。搭載オプションには、例えば、センサが組み込まれている場合は、センサタイプや構成が含まれる。更には、内視鏡13が利用可能な機能、正常/異常といった製品状態やメンテナンス履歴などを併せ持つようにすることができる。また、こうした情報以外にも、IDタグ37には、型番等の判別情報だけでなく、内視鏡の仕様や搭載されたオプション機器やセンサ類の情報が記載されていてもよい。
このようなIDタグ情報の中に、挿入体支援システム1を利用可か否かの情報や支援可能な機能情報を加えている。内視鏡13が挿入体支援システム1に電気的等に接続された際に、このIDタグ37を読み取り、設定されているIDタグ情報からシステムにあった支援内容の設定が可能となる。例えば、内視鏡13には、古い機種・新しい機種、及び挿入体が細い機種又は太い機種、挿入体の先端の曲げやすい機種、挿入体の固さ調整が可能な機種などがあり、それぞれの機種にあった操作支援が設定できる。
このような支援情報の提供内容や提供方法の切替には、図24に示すように、支援情報切替設定部132を挿入体支援システム1の支援情報生成部131に搭載させることで可能となる。この例では、支援情報切替設定部132が支援情報生成部131内にあるが、挿入体支援システム1内に設けられるのであれば、配置箇所は限定されない。このように内視鏡13の特性や仕様に応じた、挿入操作のポイントや挿入困難時の対処の仕方を、機種ごとに最適な支援情報として示すことができ、操作者の負担や不安が大きく改善される。
1…挿入体支援システム、2…被検体情報抽出部、3…挿入体情報抽出部、4…支援情報生成部、5…被検体、6…記憶部、7…撮像情報取得部、8…センサ情報取得部、9…外部情報取得部、10…画像機器情報取得部、11…画像機器、12…次情報生成部、13…内視鏡、14…画像処理部、15…形状センサ、16…表示部(モニタ)、18…光源装置、19…制御装置、20…挿入体、21…先端硬質部、23…湾曲部、25…可撓管部、27…ユニバーサルケーブル、28…センサ部、30…操作部、33…把持部、34…操作ボタン、35…挿入口部、36…湾曲操作部、37…IDタグ、38…被検出体、39…撮像部、51…CT装置、55…撮像部、56…コリメータ、57…画像情報、58…ヘリカルスキャン、61…MRI装置、65…超音波診断装置、66…装置本体、67…プローブ、67a…コンベックス型プローブ、67b…リニア型プローブ、68…モニタ部、69…キャスタ架台、70…医者、71…センサ部本体、72…光ファイバ、73…反射部、74…形状演算部、75…制御部、76…光源、77…投光レンズ、8…アイソレータ、79…反射ミラー、80…集光レンズ、81…集光レンズ、82…光検出部、85…口腔部)、86…挿入体センサ、91…管空情報統合処理部、92…位置情報統合処理部、93…管空関連情報推定生成部、94…管空位置関連情報推定生成部、100…内視鏡システム、111…大腸、112…センサ、113…照明光、114…病変部、115…病変情報、121…スコープ画像、122…再構成画像、123…部位、131…支援情報生成部、132…支援情報切替設定部、A1…進退移動量、A2…捻り量、A3…上下方向、A4…左右方向

Claims (32)

  1. 被検体の管に挿入される挿入体と、
    前記挿入体に設けられ、現在の前記挿入体の形状情報を含むセンサ情報を検出する形状センサと、
    前記挿入体が前記被検体に挿入される前に画像機器によって撮影された、事前撮影の前記被検体の管の形状情報を含む被検体情報を取得する画像機器情報取得部と、
    現在の前記挿入体の形状情報と、事前撮影の前記被検体の管の形状情報と、を重畳させることで、前記被検体の前記管に対する前記挿入体の挿入経路を示す挿入経路画像を作成する管情報統合処理部と、
    現在の前記挿入体の形状情報と、事前撮影の前記被検体の管の形状情報と、の間に差異があることを検出可能で、前記差異がある場合、少なくとも前記差異に基づいて、前記挿入体の挿入経路に係る操作支援情報を作成する操作支援情報生成部と、を有する挿入体支援システム。
  2. 前記操作支援情報生成部は、現在の前記挿入体の形状情報と、事前撮影の前記被検体の前記管の形状情報と、の間に差異がある場合に、現在の前記挿入体の形状情報に合致するように前記被検体の管の形状情報を修正してから、現在の前記挿入体の形状情報に重畳させることで、修正挿入経路画像を作成することを特徴とする請求項1に記載の挿入体支援システム。
  3. 前記操作支援情報生成部は、現在の前記挿入体の形状情報と、事前撮影の前記被検体の管の形状情報と、の間に差異がある場合に、挿入経路逸脱に係る警告を作成することを特徴とする請求項1に記載の挿入体支援システム。
  4. 前記被検体の所定の管は、前記挿入体の挿入に伴って、形状を変えうることを特徴とする請求項1に記載の挿入体支援システム。
  5. 前記被検体情報は、前記被検体の外部の特定の方向又は、視点から内部を透視する三次元画像を撮像する画像機器から得られる画像機器情報の一部又は、前記画像機器情報を基に得られた画像機器2次情報を含むことを特徴とする請求項2に記載の挿入体支援システム。
  6. 前記画像機器2次情報は、特定の視点/断面によって再構成された画像情報である画像2次情報を含むことを特徴とする請求項5に記載の挿入体支援システム。
  7. 前記画像機器2次情報は、特定の視点/断面における管の形状又は、配置を示す管形状・配置2次情報を含むことを特徴とする請求項5に記載の挿入体支援システム。
  8. 前記画像機器情報又は、前記画像機器2次情報は、挿入体の挿抜の際の注目部位や観察/診断・治療の作業対象部位である特定部位に関する特定部位情報を更に含むことを特徴とする請求項5乃至7の何れか1項に記載の挿入体支援システム。
  9. 前記画像機器情報取得部は、前記画像機器2次情報を生成する画像機器2次情報生成部を有することを特徴とする請求項5乃至8の何れか1項に記載の挿入体支援システム。
  10. 前記挿入体は、前記管内の画像を撮像可能な撮像部を、更に有し、
    前記被検体情報及び、前記操作支援情報は、前記撮像部から得られる管の画像に対応する、前記画像機器情報又は、前記画像機器2次情報を含むことを特徴とする請求項5に記載の挿入体支援システム。
  11. 前記被検体情報及び、前記操作支援情報は、更に、挿入体の挿抜の注目部位や観察/診断・治療の作業対象部位である特定部位に対応した特定部位2次情報を含むことを特徴とする請求項10に記載の挿入体支援システム。
  12. 前記被検体情報及び、前記操作支援情報は、前記管の形状、又は、配置に関わる管形状・配置情報又は、管形状・配置2次情報を含むことを特徴とする請求項5に記載の挿入体支援システム。
  13. 前記被検体情報及び前記操作支援情報は、更に、挿入体の挿抜の際の注目部位や観察/診断・治療の作業対象部位である特定部位に対応した特定部位情報を含むことを特徴とする請求項12に記載の挿入体支援システム。
  14. 前記管情報統合処理部は、前記被検体情報を含む画像機器情報と前記センサ情報に含まれる管に関する情報を統合する、請求項2に記載の挿入体支援システム。
  15. 前記管情報統合処理部は、前記画像機器情報と前記センサ情報に含まれる位置情報を統合するための、位置情報統合処理部を更に含む、請求項14に記載の挿入体支援システム。
  16. 位置情報統合処理部は、支援情報を生成又は、提示するために必要となる前記管に関する位置座標を補間又は、推定により生成する、請求項15に記載の挿入体支援システム。
  17. 前記位置情報統合処理部は、前記画像機器情報に基づく管情報と前記センサ情報に基づく管の位置関連情報に、形状、大きさ、位置及び向きの何れかが同一の部分的箇所に差異のある部分又は、欠落のある部分が存在する場合に、支援情報の生成又は、提示に必要となる現状の管の位置関連情報を推定を含めて生成することが可能な管位置関連情報推定生成部を有する、請求項15に記載の挿入体支援システム。
  18. 前記管位置関連情報推定生成部は、前記センサ情報に含まれる位置情報を正しいものとして、現状の管の位置関連情報を生成する、請求項17に記載の挿入体支援システム。
  19. 前記挿入体の先端近傍には、前記被検体の管を撮像し、撮像画像情報を得る撮像部を更に有し、前記画像機器情報取得部は、前記撮像画像情報又は、前記センサ情報の少なくとも一方を基に、前記被検体情報の修正又は更新のいずれかを行うことを特徴とする請求項5に記載の挿入体支援システム。
  20. 前記形状センサは、前記挿入体の形状、配置及び姿勢又は、先端部の位置、向き及び姿勢を含む先端情報の少なくとも一つを検出/推定可能であり、
    前記被検体情報は、前記管の形状又は、配置に関わる管形状・配置情報を含み、
    前記画像機器情報取得部は、前記形状センサから得られるセンサ情報を基に、前記挿入体の形状又は、配置に関する挿入体形状・配置情報を挿入体情報の少なくとも一部として生成し、
    前記管形状・配置情報と前記挿入体形状・配置情報に基づいて、前記被検体情報の修正又は、更新を行うことを特徴とする請求項19に記載の挿入体支援システム。
  21. 前記被検体情報の修正又は更新は、いずれもリアルタイムに行うことを特徴とする請求項19に記載の挿入体支援システム。
  22. 前記形状センサは、前記挿入体の形状及び姿勢を含む配置情報又は、前記挿入体の先端部の位置、向き及び姿勢を含む先端情報の少なくとも1つを検出/推定可能であり、
    前記形状センサから得られた前記センサ情報に基づく前記挿入体の形状情報と前記画像機器情報に基づく前記被検体情報から前記操作支援情報を生成することを特徴とする請求項5に記載の挿入体支援システム。
  23. 前記挿入体の先端近傍には、前記被検体の管を撮像し、撮像画像情報を得る撮像部を更に有し、前記挿入体の形状・配置情報又は、先端情報と前記画像機器情報から、前記撮像画像情報に対応する画像機器2次情報を生成することを特徴とする請求項22の挿入体支援システム。
  24. 前記画像機器2次情報は、特定の視点/断面における管の形状及び配置を示す管形状・配置2次情報を含み、
    前記挿入体の形状情報は、前記特定の視点/断面における前記挿入体の形状及び配置情報を含み、
    前記操作支援情報は、前記管形状・配置2次情報と前記挿入体の形状及び配置情報とを合わせこんだ画像情報を含むことを特徴とする請求項22の挿入体支援システム。
  25. 前記操作支援情報は、
    挿入体の挿抜の際の注目部位や観察/診断・治療の作業対象部位である特定部位と前記挿入体との配置関係に基づく、前記挿入体の先端からの向き及び距離を含む支援情報を有することを特徴とする請求項22の挿入体支援システム。
  26. 前記挿入体の挿抜の際の注目部位や観察/診断・治療の作業対象部位である特定部位と、
    前記挿入体との距離、観察/作業可能範囲内外の配置関係に基づいて、前記挿入体の先端部からの向き及び距離を含む操作支援情報の出力状況/出力内容を変更することを特徴とする請求項22の挿入体支援システム。
  27. 前記画像機器2次情報は、特定の視点/断面における管の形状/配置を示す管形状・配置2次情報を含み、
    前記操作支援情報は、前記管形状・配置2次情報と前記挿入体の形状及び配置に基づく、前記挿入体の挿抜操作に関する挿抜操作関連情報を含むことを特徴とする請求項22の挿入体支援システム。
  28. 前記画像機器2次情報は、
    特定の視点/断面における管の形状/配置を示す管形状・配置2次情報と、
    前記挿入体の挿抜の際の注目部位や観察/診断及び治療の作業対象部位である特定部位についての情報である特定部位2次情報を含み、
    前記操作支援情報は、前記管形状・配置2次情報と前記特定部位2次情報と前記挿入体の形状及び配置に基づく、作業に関する作業関連情報を含むことを特徴とする請求項22の挿入体支援システム。
  29. 取得又は、抽出・生成した情報の少なくとも一部を記憶・読み出しする、又は/および、前記操作支援情報の生成に必要な情報を予め記憶し、必要な時に読み出す記憶部を更に有する、請求項2に記載の挿入体支援システム。
  30. 前記挿入体は、挿入体の識別情報、仕様情報、状態情報の内、少なくとも1つの情報を含むIDタグを有し、
    前記少なくとも1つの情報に基づいて、前記挿入体支援システムが提供可能な前記操作支援情報を判別することを特徴とする請求項1に記載の挿入体支援システム。
  31. 前記IDタグからの前記少なくとも1つの情報に基づいて、
    提供可能な前記操作支援情報を生成するための設定を行うことを特徴とする請求項30に記載の挿入体支援システム。
  32. 挿入体支援システムの起動時、または、システム構成要素を接続、または、取り外しした際に、前記挿入体支援システムが提供可能な前記操作支援情報を判別することを特徴とする請求項30に記載の挿入体支援システム。
JP2017546316A 2015-10-20 2015-10-20 挿入体支援システム Active JP6600690B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/079575 WO2017068650A1 (ja) 2015-10-20 2015-10-20 挿入体支援システム

Publications (2)

Publication Number Publication Date
JPWO2017068650A1 JPWO2017068650A1 (ja) 2018-08-09
JP6600690B2 true JP6600690B2 (ja) 2019-10-30

Family

ID=58557059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017546316A Active JP6600690B2 (ja) 2015-10-20 2015-10-20 挿入体支援システム

Country Status (4)

Country Link
US (1) US20180235716A1 (ja)
EP (1) EP3366188A4 (ja)
JP (1) JP6600690B2 (ja)
WO (1) WO2017068650A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6704255B2 (ja) * 2016-01-19 2020-06-03 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置、医療用観察システム及び画揺れ補正方法
JP6949959B2 (ja) * 2017-07-06 2021-10-13 オリンパス株式会社 管状挿入装置及び、その管状挿入装置による操作支援方法
WO2020017212A1 (ja) * 2018-07-20 2020-01-23 富士フイルム株式会社 内視鏡システム
WO2021071724A1 (en) * 2019-10-07 2021-04-15 Boston Scientific Scimed, Inc. Devices, systems, and methods for positioning a medical device within a body lumen
CN114554937A (zh) * 2019-12-02 2022-05-27 富士胶片株式会社 内窥镜系统、控制程序及显示方法
US20230346479A1 (en) * 2020-08-13 2023-11-02 Intuitive Surgical Operations, Inc. Alerting and mitigating divergence of anatomical feature locations from prior images to real-time interrogation
CN113729859B (zh) * 2021-10-08 2023-03-24 重庆市急救医疗中心 血肿抽取系统、导航系统及血肿边界判断方法
CN113729942B (zh) * 2021-10-08 2023-03-24 重庆市急救医疗中心 基于混合现实技术的血肿清除设备智能定位装置及导航系统
WO2023195103A1 (ja) * 2022-04-06 2023-10-12 オリンパスメディカルシステムズ株式会社 検査支援システムおよび検査支援方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL181470A (en) * 2006-02-24 2012-04-30 Visionsense Ltd Method and system for navigation within a flexible organ in the human body
US20080117210A1 (en) * 2006-11-22 2008-05-22 Barco N.V. Virtual endoscopy
EP2247236B1 (en) * 2008-02-12 2014-07-30 Covidien LP Controlled perspective guidance system
US8337397B2 (en) * 2009-03-26 2012-12-25 Intuitive Surgical Operations, Inc. Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient
JP2012165838A (ja) * 2011-02-10 2012-09-06 Nagoya Univ 内視鏡挿入支援装置
EP2837326A4 (en) * 2012-09-07 2016-02-24 Olympus Corp MEDICAL APPARATUS
JP6206869B2 (ja) * 2013-05-28 2017-10-04 国立大学法人名古屋大学 内視鏡観察支援装置

Also Published As

Publication number Publication date
JPWO2017068650A1 (ja) 2018-08-09
EP3366188A1 (en) 2018-08-29
US20180235716A1 (en) 2018-08-23
EP3366188A4 (en) 2019-11-13
WO2017068650A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6600690B2 (ja) 挿入体支援システム
KR102558061B1 (ko) 생리적 노이즈를 보상하는 관강내 조직망 항행을 위한 로봇 시스템
JP6200152B2 (ja) 医療処置におけるトラッキング方法及び装置
JP4733243B2 (ja) 生検支援システム
JP5159995B2 (ja) 内視鏡システム
KR20200007896A (ko) 생검 장치 및 시스템
JP2021505270A (ja) コマンド指示されていない器具の回動を修正するシステムおよび方法
JP4709946B2 (ja) 医療機器システムおよび医療器具のキャリブレーション方法
WO2004023986A1 (ja) 医療処置システム、内視鏡システム、内視鏡挿入動作プログラム及び内視鏡装置
JP6270026B2 (ja) 内視鏡観察支援装置
JPWO2009084345A1 (ja) 医療機器システム
EP2957212A1 (en) Relative position detection system for tube-like device, and endoscope device
JP4436638B2 (ja) 内視鏡装置及び内視鏡挿入動作プログラム
WO2013011733A1 (ja) 内視鏡誘導システム及び内視鏡誘導方法
CN112292062A (zh) 具有一体式导航传感器的内窥镜
US20190142523A1 (en) Endoscope-like devices comprising sensors that provide positional information
CN106659365B (zh) 导航系统、导航系统的工作方法
JP2014204904A (ja) 医用ガイドシステム
US20220202500A1 (en) Intraluminal navigation using ghost instrument information
JP5317874B2 (ja) 内視鏡及び内視鏡システム
JP2005058378A (ja) 手術用観察システム
JP5854399B2 (ja) 医用システム
JP2005021355A (ja) 手術支援装置
JP2006149482A (ja) 超音波診断装置
CN116940298A (zh) 来自单个感应拾取线圈传感器的六个自由度

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191007

R151 Written notification of patent or utility model registration

Ref document number: 6600690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250