JP6215963B2 - 事前取得画像を利用したナビゲーション - Google Patents

事前取得画像を利用したナビゲーション Download PDF

Info

Publication number
JP6215963B2
JP6215963B2 JP2015555220A JP2015555220A JP6215963B2 JP 6215963 B2 JP6215963 B2 JP 6215963B2 JP 2015555220 A JP2015555220 A JP 2015555220A JP 2015555220 A JP2015555220 A JP 2015555220A JP 6215963 B2 JP6215963 B2 JP 6215963B2
Authority
JP
Japan
Prior art keywords
image
initial
region
subsequent
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015555220A
Other languages
English (en)
Other versions
JP2016509510A (ja
Inventor
シャイ・フィンクマン
タリ・ポートノイ
Original Assignee
ジャイラス・エーシーエムアイ・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジャイラス・エーシーエムアイ・インコーポレーテッド filed Critical ジャイラス・エーシーエムアイ・インコーポレーテッド
Publication of JP2016509510A publication Critical patent/JP2016509510A/ja
Application granted granted Critical
Publication of JP6215963B2 publication Critical patent/JP6215963B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00059Operational features of endoscopes provided with identification means for the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Description

本発明は、一般に撮像に関し、具体的には繰返し使用できる内視鏡撮像システムに関する。
医療手技の効果を追跡する際など、所与の実体(entity)、通常は体腔を複数回撮像するために内視鏡が使用される場合が多い。複数の画像を比較する能力を改善するシステムがあれば有利となる。
本発明の一実施形態は、
第1の内視鏡を用いて、調査中の表面の初期画像を取得するステップと、
初期画像内で、初期画像周辺領域によって取り囲まれ、初期画像周辺領域に対して画定された位置を有する目標関心領域を描出する(delineate)ステップと、
第2の内視鏡を用いて、調査中の表面の後続の画像を取得するステップと、
後続の画像内で、初期画像周辺領域の特徴と比較することによって、初期画像周辺領域に対応する後続の画像周辺領域を識別するステップと、
識別された後続の画像周辺領域に応答して、後続の画像内での目標関心領域の位置を計算するステップと
を含む、撮像方法を提供する。
典型的には、本方法は、初期画像周辺領域を特徴付けて、初期画像周辺領域の特徴を生成するステップを含む。
開示の実施形態では、第1の内視鏡と、第2の内視鏡とは、共通の内視鏡である。
さらに開示の実施形態では、本方法は、初期画像周辺領域によって取り囲まれた目標関心領域の目標特徴を生成するステップを含み、後続の画像内での目標関心領域の位置を計算するステップは、目標特徴と、後続の画像周辺領域によって取り囲まれた後続の画像目標領域の特徴との共通性を検証するステップを含む。一実施形態では、本方法は、初期画像の取得後、目標関心領域に対して医療手技を実施せずに、後続の画像目標領域の特徴を判定するステップをさらに含む。
代替実施形態では、本方法は、初期画像周辺領域によって取り囲まれた目標関心領域の目標特徴を生成するステップを含み、後続の画像内での目標関心領域の位置を計算するステップは、目標特徴と、後続の画像周辺領域によって取り囲まれた後続の画像目標領域の特徴との差を検証するステップを含む。典型的には、本方法はまた、初期画像の取得後、目標関心領域に対して医療手技を実施した後に、後続の画像目標領域の特徴を判定するステップを含む。
本発明の一実施形態によれば、
調査中の表面の初期画像を取得するように構成された第1の内視鏡と、
調査中の表面の後続の画像を取得するように構成された第2の内視鏡と、
プロセッサと
を含み、このプロセッサは、
初期画像内で、初期画像周辺領域によって取り囲まれ、初期画像周辺領域に対して画定された位置を有する目標関心領域を描出し、
後続の画像内で、初期画像周辺領域の特徴と比較することによって、初期画像周辺領域に対応する後続の画像周辺領域を識別し、
識別された後続の画像周辺領域に応答して、後続の画像内での目標関心領域の位置を計算する
ように構成される、撮像装置がさらに提供される。
本発明の一実施形態によれば、
第1の画像内の目標関心領域を指し示すステップと、
目標関心領域を取り囲む周辺領域の画像データを記憶するステップと、
第2の画像内で、周辺領域の記憶された画像データの特徴と比較することによって、第1の画像の周辺領域に対応する領域を識別するステップと、
第2の画像内で識別された領域に応答して、第2の画像内での目標関心領域の位置をマーキングするステップと
を含む、撮像方法がさらに提供される。
本発明の一実施形態によれば、
第1の内視鏡を用いて、調査中の表面の第1の画像を取得するステップと、
第1の画像内の目標関心領域を指し示すステップと、
目標領域を取り囲む周辺領域の画像データを記憶するステップと、
第2の内視鏡を用いて、調査中の表面の第2の画像を取得するステップと、
第2の画像内で、周辺領域の記憶された画像データの特徴と比較することによって、周辺領域に対応する領域を識別するステップと、
第2の画像内で識別された領域に応答して、第2の画像内での目標関心領域の位置の指示をマーキングするステップと、
第2の内視鏡を指示の方にナビゲートするステップと
を含む、内視鏡をナビゲートするための方法がさらに提供される。
本発明は、その実施形態の以下の詳細な説明を、図面とともに参照すればより完全に理解されよう。
本発明の一実施形態による内視鏡ナビゲーションシステムの概略図である。 本発明の一実施形態によるシステムを用いて実施されるプロセスの流れ図である。 本発明の一実施形態によるシステムによって取得された初期画像の概略図である。 本発明の一実施形態に従って目標関心領域がマーキングされた初期画像の概略図である。 本発明の一実施形態による図4Aの拡大図である。 本発明の一実施形態によるシステムによって取得された後続の画像の概略図である。 本発明の一実施形態によるシステムによって取得された後続の画像の概略図である。 本発明の一実施形態によるシステムによって取得された後続の画像の概略図である。 本発明の一実施形態に従って後続の画像の1つに付されたマーカの概略図である。 本発明の代替実施形態による内視鏡ナビゲーションシステムの概略図である。 本発明の一実施形態によるシステムによって取得された代替の初期画像の概略図である。 本発明の一実施形態によるシステムによって取得された代替の後続の画像の概略図である。
概要
本発明の一実施形態は、異なる時間に取得された表面の画像内で共通する領域の位置を求める方法を提供する。本方法は、患者の腹部または膀胱などの体腔の内部表面の内視鏡検査に使用することができる。典型的には、本方法は、初期検査と、次の後続の検査とで共通する体腔表面の領域の方に内視鏡をナビゲートするために使用される。
第1の内視鏡が体腔に挿入され、その表面の初期画像が取得される。初期画像内で、目標関心領域が、典型的にはカーソルで目標領域の外側境界をマーキングすることによって描出される。目標関心領域を取り囲んでいるのが初期画像周辺領域であり、取得された初期画像に含まれている。これら2つの領域は、目標関心領域が、初期画像周辺領域によって画定された位置を有するものとみなすことができるように、幾何的に関連している。
第2の内視鏡が体腔に挿入され、その表面の後続の画像を取得するために使用される。2つの画像の特徴を比較し、それらの特徴を用いて、後続の画像の、初期画像周辺領域に対応する周辺領域を識別する。後続の画像の識別された周辺領域を用いて、後続の画像内での目標関心領域の位置を計算する。
後続の画像内の、計算された位置に、目標関心領域までナビゲートする助けとして、また、目標関心領域を識別する助けとして、マーカを配置することができる。
いくつかの実施形態では、第1の内視鏡と、第2の内視鏡とは、同じ内視鏡である。
詳細な説明
次に、図1を参照すると、この図は、本発明の一実施形態による内視鏡ナビゲーションシステム10の概略図である。システム10は、ヒト患者の体腔12に対する侵襲性医療手技、典型的には低侵襲性手技において、体腔内の実体を撮像するために使用することができる。例として、本説明では、別段の指示がある場合を除き、体腔は患者の膀胱であるとし、体腔12もやはり、本明細書では膀胱12と称する。しかし、システム10は、胃腸器官、気管支、胸部など、ヒトのいかなる体腔にも、またはヒト以外の体腔にも実質的に使用できることが理解されよう。
システム10は、メモリ18と通信しているプロセッサ16を備える内視鏡モジュール14によって制御される。内視鏡モジュール14はまた、ソフトウェア、ハードウェア、またはソフトウェアとハードウェアとの組合せとして実装することができる画像解析モジュール20を備え、その機能については後述する。内視鏡モジュール14はまた、通常は、内視鏡モジュールの動作時にプロセッサによって使用することができる、キャビティ照明モジュールなどの他のモジュールを備えるが、図を簡単にするために、これらのモジュールは図示していない。
このプロセッサは、通常はメモリ18に記憶されたソフトウェアを用いてシステム10を制御する。プロセッサ16によって実施された行為の結果は、システム10の画面22上でオペレータ、通常は医師に提示することができる。この画面は、通常は手技を受けている体腔12の画像、および/またはグラフィックユーザインターフェースをオペレータに表示する。オペレーティングシステム10用のソフトウェアは、たとえば電子的な形でネットワークを介してプロセッサ16にダウンロードすることができ、あるいはその代わりに、またはそれに加えて、磁気メモリ、光学メモリ、または電子メモリなどの非一時的有形媒体に供給および/または記憶してもよい。
手技を実施するために、内視鏡24を尿道管26から膀胱12に通すことができる。内視鏡モジュール14は、この内視鏡を照明し、内視鏡が取得した画像を画面22上に表示する。オペレータは、通常は内視鏡を用いて膀胱12の内部を見る。対話型モジュール制御部28がモジュール14に結合され、システム10のオペレータがモジュールの機能を制御することが可能になっている。モジュール制御部28は、ポインティングデバイス、タッチスクリーン、および/またはキーパッドなど、当技術分野で既知の便宜的ないかなるシステムも備えることができる。例として、制御部28は、図示のようにマウスを備えるものとする。
内視鏡24は、内視鏡制御部30を用いて動作させ、この制御部30は、例として内視鏡のハンドル32に位置するものとする。制御部30の例示的な機能については後述する。
システム10によって実施される典型的な手技として、オペレータが内視鏡を用いて体腔12の壁40の初期検査を実施することが含まれる。検査中、体腔の領域44にある疑わしい実体42を識別することができ、この識別については以下でより詳細に説明する。
次に、図2、図3、図4A、図4B、図5A、図5B、図5C、および図6を参照する。
図2は、本発明の一実施形態によるシステム10を用いて実施されるプロセスの流れ図である。図3は、本発明の一実施形態によるシステムによって取得された膀胱12の初期画像の概略図である。図4Aは、本発明の一実施形態に従って目標関心領域がマーキングされた初期画像の概略図であり、図4Bは、本発明の一実施形態による図4Aの拡大図である。図5A、図5B、および図5Cは、本発明の諸実施形態によるシステムによって取得された膀胱の様々な後続の画像の概略図であり、図6は、本発明の一実施形態に従って後続の画像の1つに付されたマーカの概略図である。
流れ図によって示されるプロセスは、プロセッサ16によって画像解析モジュール20を用いて実装される。別段の言及がある場合を除き、このプロセスは、内視鏡24を用いて実施されるものとする。
プロセスの初期ステップ150で、システム10のオペレータは、内視鏡24を膀胱12に挿入する。内視鏡は、領域44などの調査中の領域を指し示し、初期画像を取得するように動作させ、また、取得画像を画面22上でオペレータに表示するように動作させる。表示された画像を用いて、システムオペレータは、取得画像が、図3に概略的に示す、調査中の領域の初期画像100となるように、内視鏡24を操作する。
マーキングステップ152で、システムオペレータは、図4Aおよび図4Bに概略的に示すように、画像100内で初期目標関心領域102を描出する。この描出は、典型的にはオペレータが制御部28を用いてカーソル104を画像100内で、カーソルが目標領域を取り囲むまで動かすことによって実施し、このカーソルは目標領域の外側境界として働くことになる。描出後、プロセッサ16は、ステップ150で取得した画像内で、初期目標関心領域の位置を記録する。本明細書に示す例では、初期目標関心領域102は、たとえば、3つの生物学的関心要素103によって取り囲まれている。図4Aおよび図4Bでは、カーソル104は円として描かれているが、カーソルは便宜的ないかなる形状でもよい。
第1の特徴付けステップ154で、プロセッサ16は、カーソル104の境界内の初期目標領域を特徴付ける。このプロセッサはまた、初期目標領域102を取り囲む初期周辺領域106も特徴付け、このプロセッサは次いで、両領域の特徴を記憶する。初期周辺領域は、その内側境界としてカーソル104を有し、通常は画像100内で便宜的ないかなる境界形状も備えることができる外側境界108を有する。一実施形態では、外側境界108は、その中心が目標領域102の中心に合わせられた円であるとし、目標領域102の面積の10倍など、予め設定された倍数の面積の領域を有するものとする。ただし、システム10のオペレータは、画像100の範囲内であれば外側境界108を便宜的ないかなる境界形状として画定してもよい。プロセッサ16は、初期周辺領域の境界を設定した後、ステップ150で取得した画像内で、その周辺領域の位置を記録する。その記録位置は、典型的には周辺領域の中心である。
初期目標領域と初期周辺領域とは、それらの位置と同様に幾何的に関連していることが理解されよう。したがって、初期目標領域の位置は、周辺領域に対して画定されるとみなすことができ、周辺領域の位置は、初期目標領域に対して画定されるとみなすことができる。
目標領域と周辺領域のどちらの場合も、特徴付けは、プロセッサが、特徴付けで識別された画像の要素を用いて、将来の画像の一区画を目標領域または周辺領域のいずれかにマッチングさせることが可能となるような種類のものである。典型的には、特徴付けによって識別される諸要素には、毛細管、より大型の血管、上皮小窩、疑わしい腫瘍、および撮像されている粘膜表面の面積など、その領域内の顕著な生物学的要素が含まれる。識別された要素は、典型的には一覧にされる。さらに、識別された要素は、通常は色によって、また、それらの要素の寸法および形状などの幾何的要因によって特徴付けられる。いくつかの実施形態では、特徴付けられる面積が、その特徴付けの前に、蛍光イメージングなどによって視覚的に強調される。応用できる適切な視覚強調技法として、日本、東京のオリンパスメディカルシステムズ株式会社から販売されているNarrow Band Imaging技術がある。
したがって、図3、図4A、および図4Bによって示される例では、プロセッサ16は、通常はモジュール20を用いて、目標領域102の1つまたは複数の要素を一覧にし、寸法、形状、および/または色によって形態的に特色化する(qualify)。周辺領域106について、要素103を一覧にし、寸法、形状、および/または色によって形態的に特色化することに加えて、このプロセッサはまた、例として、2本の血管105および107(図4B)を、周辺領域を特徴付ける際の要素として一覧にし、特色化することができる。プロセッサ16はまた、典型的には、目標領域102および周辺領域106の他の要素を一覧にし、形態的に特色化する。形状による特色化には、典型的には、一覧にされた要素の凹部、凸部、屈曲部、および/またはその他の形状を画定している特徴の定量化が含まれる。
任意選択の手技実施ステップ156で、オペレータは、目標領域102に対して医療手技を実行する。この手技は、ステップ154で測定された目標領域の特徴を変化させるいかなる手技も含むことができる。この手技は、典型的には生検であるが、ステップ156では、目標領域に対する製剤または化学剤の塗布など、目標領域の特徴を変化させる他のいかなる手技も実施することができる。さらに、ステップ156で、オペレータは、制御部28を用いて、目標領域102に対する医療手技が実施されたことをプロセッサ16に知らせる。プロセッサは、この情報をステップ170で使用し、このステップについては以下で説明する。
後続の撮像ステップ158で、調査中の領域の第2の画像を取得する。以下でより詳細に説明するように、第2の画像は、いくつかのカテゴリに分割することができる。第2の画像の様々なカテゴリを集合的に第2の画像110と称し、例示的な様々な画像カテゴリを図5A、図5B、および図5Cに示す。図5A、図5B、および図5Cに示すように、様々な第2の画像110を、符号110に英文字を添えることにより、第2の画像110A、110B、および110Cとして区別している。
内視鏡24を用いて第2の画像を取得することができ、あるいは別の内視鏡を用いて第2の画像を取得してもよい。第2の画像を取得するために使用する内視鏡を、膀胱12に挿入することができる。第2の画像110は、調査中の領域の初期画像100の取得後のある時点で取得されるが、2つの画像の取得間の時間間隔には実質的に制限はない。たとえば、調査中の領域の経過検査の場合、第2の画像110は、初期画像の3ヶ月後に取得すればよい。しかし、本発明の実施形態では、時間間隔は3ヶ月未満でも、3ヶ月超でもよい。
ステップ156が実施されたかに依存して、また、初期画像の取得と第2の画像の取得との間の時間間隔中に目標関心領域に変化があったかに依存して、目標関心領域の特徴に変化があることも、ないこともある。画像110A(図5A)は、2つの画像間で実質的に変化がない場合を例示している。画像110B(図5B)は、ステップ156が実施されなかったのに、すなわち調査中の領域に対して介在手技が実施されなかったのに、2つの画像間で変化があった場合を例示している。画像110C(図5C)は、初期画像の取得後、ステップ156が実施された場合、したがって介在手技が実施された場合の、2つの画像間で変化があった場合を例示している。
第2の特徴付けステップ160で、プロセッサ16は、画像110を特徴付ける。この特徴付けは、第1の特徴付けステップ154と概ね同様であり、第1の特徴付けステップについて上記で説明したものと同様の、画像内の要素の識別を行う。識別要素を用いて、プロセッサは、(第1の特徴付けステップ154で求められた)初期周辺領域の要素に対応する要素を含む、後続の周辺領域116の外側境界112および内側境界114を描出する。外側境界112および内側境界114を描出する際、プロセッサは、初期周辺領域の識別要素の特徴だけを関連させ、マッチングを試みる。言い換えれば、後続の周辺領域116を画定する際、プロセッサは初期目標領域の識別要素については考慮に入れない。
図5A、図5B、および図5Cは、後続の周辺領域116について、3つの画像110A、110B、および110Cについてそれぞれ、例示的な外側境界112および例示的な内側境界114を示している。
比較162で、プロセッサは、(ステップ154で判明した)初期周辺領域106の要素が、後続の周辺領域116の要素と十分に良好なマッチングを有するかを確かめる。通常は、時間の経過に伴い、初期周辺領域の要素と、後続の周辺領域の要素との間で何らかの変化がある。これらの変化を考慮に入れるために、血管などの所与の要素が、2つの周辺領域においてマッチングするかを判定する際に、プロセッサは、予め設定された、典型的には90%程度の第1の変動係数を適用して、所与の要素のパラメータが対応しているかを判定することができる。さらに、このプロセッサは、予め設定された、典型的には90%程度の第2の係数を用いて、2つの領域内の要素の数がマッチングしているかを判定することができる。
比較162が有効でない場合、戻りステップ164で、プロセッサ16は、典型的には、システムが初期周辺領域と、後続の周辺領域とをマッチングさせることができなかったことの警告を画面22上でオペレータに示すことができ、流れ図はステップ158に戻る。警告により、オペレータは、内視鏡の向きを変え、ステップ158で後続の画像を新たに取得するよう促されてもよい。
比較162が有効である場合、登録ステップ166で、プロセッサは、ステップ158で取得した画像内で、後続の周辺領域の位置を記録する。次いで、プロセッサは、後続の周辺領域の位置を初期周辺領域の位置とともに登録し、初期周辺領域の位置とは、ステップ154で記録されていた取得画像上の位置である。次いで、流れ図は、最終ステップ168まで直接進むことができ、最終ステップ168については後述する。いくつかの実施形態では、流れ図は、任意選択でまず比較170に進む(流れ図では破線を使用することによって任意選択であることを示している)。
任意選択による比較170で、プロセッサは、初期目標領域102の要素を後続の目標領域118の要素、すなわち内側境界114内の要素と比較する。プロセッサは、ステップ154で行われた初期目標領域に対する測定を定量化(一覧化および形態による特色化)し、後続の目標領域の同様の測定を定量化することによって、比較を実施する。次いで、プロセッサは、これら2つの量の割合(fraction)を計算する。初期目標領域と後続の目標領域との間で変化がほとんどないまたは全くない場合、その割合は1に近くなる。逆に、比較的大きい変化がある場合、その割合はゼロに近くなる。予想される割合の値は、とりわけ、以下で説明するように、ステップ156の手技が実施されたか否かに依存する。(ステップ156の手技が実施された場合、プロセッサは上述のように通知される。)
典型的には領域102の生検を行うことを含むステップ156が実施された場合(図4Aおよび図4B)、プロセッサは、この実施を記録し、予想される割合の値を低く設定する。本発明の一実施形態では、ステップ156が実施された場合では、比較170を評価する際に、予想される割合の値を典型的には10%程度か、さらにはそれよりも低くなるように設定する。2つの領域について測定した割合が、予想される割合以下の場合、その比較は有効であるとみなされ、というのは、マッチングの割合が低いことにより、後続の目標領域118が初期目標領域102とは形態が異なることが確認されるからである。そのような形態上の差、およびそれに対応する、2つの目標領域の比較の割合の低さは、初期目標領域画像を取得した時点と、後続の目標領域画像を取得した時点との間で、生検または他の手技が目標領域の位置で実施されていた場合に予想される。比較170が有効である場合、流れ図は最終ステップ168に続く。
比較170が有効でない場合、流れ図は、比較172に続き、ここでプロセッサはステップ156が実施されたかを確かめる。ステップ156が実施されていた場合、流れ図は、(上述の)戻りステップ164を経てステップ158に戻る。
画像110C(図5C)は、ステップ156が実施された場合を例示している。図示のように、目標領域102の要素は存在せず、その場所には瘢痕組織109がある。第2の比較を評価する際に、目標領域102の要素と、瘢痕組織109の要素とのみを考慮する場合、測定した割合はゼロに等しく、上述の実施形態では、割合が10%未満となるため、この比較は有効となることが理解されよう。
比較170で、ステップ156が実施されていなかった場合、初期目標領域の特徴と後続の目標領域の特徴には、通常は共通性があり、2つの領域の比較で予想される割合の値は通常は高くなる。一実施形態では、プロセッサは、(ステップ156が実施されなかった場合)、比較170に使用される予想割合は約50%に設定され、比較は、測定した割合が予想割合よりも大きい場合に有効であるとみなされる。
画像110A(図5A)は、後続の目標領域118の要素が、初期目標領域102の要素と実質的に同じである場合を例示している。このような場合は、典型的には2つの画像を取得した時点間で目標関心領域に形態的な変化がなかった場合に生じる。この場合、2つの領域を比較した測定割合は約1となり、これは50%よりも大きく、したがって比較170は有効であり、流れ図は最終ステップ168に続く。
画像110B(図5B)は、後続の目標領域118の要素120が、初期目標領域102の要素と比較して変化した場合を例示している。図示の例では、は2つの画像を取得した時点間で目標関心領域に形態的な変化があった。この場合、2つの領域を比較した測定割合は50%未満になると考えられ、したがって比較170は無効であり、流れ図は比較172に続く。
この場合、ステップ156が実施されていなかったため、比較172は無効となり、したがって流れ図は、通知ステップ174の後、最終ステップ168に続く。通知ステップ174では、プロセッサは、目標関心領域に形態的な変化などの変化があった可能性があることの通知を画面22上でオペレータに表示する。
最終ステップ168で、プロセッサは、後続の周辺領域116を用いて、後続の画像110内で、(初期画像内でカーソル104によって描出された)初期目標領域102に対応する領域を識別する。この識別は、プロセッサが初期目標領域と周辺領域との間の関係を理解しているため、また、(ステップ166で)初期周辺領域の位置と、後続の周辺領域の位置とが登録されているため可能となる。プロセッサは、後続の画像110内の対応する領域をマーカ122でマーキングし、このマーカによって、オペレータに後続の画像内での初期目標領域の部位を示す。図6は、画像110Cに付されたマーカ122を例示している。(マーカ122は正方形として描かれているが、便宜的ないかなる形状でもよい。)典型的には、システム10のオペレータは、マーカ122を用いて、初期目標領域102の位置を確認することができ、かつ/または目標領域により近くナビゲートすることができる。
図7は、本発明の代替実施形態による内視鏡ナビゲーションシステム10の概略図である。以下の説明では、本システムによって調査する体腔は患者の腹部とし、以下では腹部を腹部12と称する。図8および図9もやはり参照する。図8は、本発明の実施形態によるシステム10によって取得された腹部12の初期画像の概略図であり、図9は、このシステムによって取得された腹部の後続の画像の概略図である。
以下で説明する相違は別として、腹部12を調査する際のシステム10の動作は、膀胱の調査に関して上記で説明したシステムの動作と概ね同様であり、両説明で同じ参照番号によって示す要素は、構造および動作において概ね同様である。分かりやすいように、腹部調査の以下の説明では、いくつかの類似した要素は、参照符号にアポストロフィ「'」を添えることによって区別している。
図2の流れ図は、腹部12を調査する際のシステム10の動作にもあてはまる。
流れ図のステップ150、152、および154、ならびに図7を参照すると、内視鏡24は、套管針200を介して腹部12に挿入され、套管針200は、腹部の壁40'を穿通するために使用される。内視鏡は、壁の領域44'にある疑わしい実体42'を検査するように、ハンドル32によって操作される。
図8は、内視鏡によって取得された腹部12の初期画像210を概略的に示す。図4Aおよびステップ154を参照しながら上記で説明したように、制御部28を用いてカーソル104'を動かして、初期目標領域102'を取り囲む。プロセッサ16は、外側境界108'を設定し、カーソル104'および外側境界108'を初期周辺領域106'の境界として使用する。やはり上記で説明したように、プロセッサによって、初期目標領域と、初期周辺領域とを特徴付ける。
例として、初期目標領域102'は、3つの生物学的関心要素220を含むものとし、ステップ154の初期目標領域102'の特徴付けにおいて、上記で説明したように、プロセッサ16はこの数を使用する。
腹部12の調査では、初期目標領域102'に対して生検または他の手技は実施されず、したがって流れ図のステップ156は実装されないため、流れ図はステップ158、160、および162に続く。図9は、ステップ158で取得された後続の画像230を例示している。ステップ160および162に関して上記で説明したように、プロセッサは、後続の周辺領域116'の外側境界112'および内側境界114'を描出し、初期周辺領域と後続の周辺領域とを比較する。この比較が有効であるとみなされると、流れ図はステップ166に続く。
システム10は、任意選択による比較170を適用するものとし、流れ図はステップ166から比較170に続き、ここで初期目標領域102'と後続の目標領域118'とを内側境界114'内で比較する。ステップ156が実施されていなかったため、比較170では、比較に使用される予想割合の値は高く設定され、例として50%とする。
図9に示すように、3つの要素220が1つの要素240に癒合し、比較170で、初期目標領域の形態と後続の目標領域の形態とを比較した測定割合の値は、予想される割合の値未満となる。次いで、流れ図は、比較172に進み、ステップ156は実施されなかったので、通知ステップ174、および最終ステップ168へと進む。ステップ174で、プロセッサは、目標関心領域に形態的な変化があったことの通知を画面22上に表示することができる。ステップ168で、プロセッサは、(ステップ166で求められた)周辺領域116'の位置を利用して後続の画像230にマーカ122'を配置し、それによって後続の画像内での初期目標領域の部位をオペレータに指示する。
上述の実施形態は、例として引用したものであり、本発明は、上記で具体的に示し、説明してきたものに限定されるものではないことが理解されよう。そうではなく、本発明の範囲は、上述の様々な特徴の組合せ、および下位組合せのどちらをも含むものであり、また、それらの変形形態および改変形態を含むものであり、こうした諸形態は、前述の説明を読めば当業者には想到されるものであるが、従来技術では開示されていないものである。
10 内視鏡ナビゲーションシステム
12 体腔(膀胱、腹部)
14 内視鏡モジュール
16 プロセッサ
18 メモリ
20 画像解析モジュール
22 画面
24 内視鏡
26 尿道管
28 対話型モジュール制御部
30 内視鏡制御部
32 ハンドル
40、40' 壁
42、42' 疑わしい実体
44、44' 領域
100、210 初期画像
102、102' 初期目標関心領域
103、120、220、240 生物学的関心要素
104、104' カーソル
105、107 血管
106、106' 初期周辺領域
108、108' 外側境界
109 瘢痕組織
110 第2の画像
112、112' 外側境界
114、114' 内側境界
116、116' 後続の周辺領域
118、118' 後続の目標領域
122、122' マーカ
200 套管針
230 後続の画像

Claims (7)

  1. 調査中の表面の初期画像を取得するように構成された第1の内視鏡と、
    調査中の前記表面の後続の画像を取得するように構成された第2の内視鏡と、
    プロセッサと
    を備え、前記プロセッサが、
    前記初期画像内で、初期画像周辺領域によって取り囲まれ、前記初期画像周辺領域に対して画定された位置を有する目標関心領域を描出し、
    後続の画像内で、前記初期画像周辺領域の特徴と比較することによって、前記初期画像周辺領域に対応する後続の画像周辺領域を識別し、
    前記識別された後続の画像周辺領域に応答して、前記後続の画像内での前記目標関心領域の前記位置を計算する
    ように構成される、撮像装置。
  2. 前記プロセッサが、前記初期画像周辺領域の特徴を生成するように構成される、請求項1に記載の装置。
  3. 前記第1の内視鏡と、前記第2の内視鏡とが、共通の内視鏡を備える、請求項1に記載の装置。
  4. 前記プロセッサが、前記初期画像周辺領域によって取り囲まれた前記目標関心領域の目標特徴を生成するように構成され、前記後続の画像内での前記目標関心領域の前記位置を計算するステップが、前記目標特徴と、前記後続の画像周辺領域によって取り囲まれた後続の画像目標領域の特徴との共通性を検証するステップを含む、請求項1に記載の装置。
  5. 前記プロセッサが、前記初期画像の取得後、前記目標関心領域に対して医療手技が実施されずに、前記後続の画像目標領域の前記特徴を判定するように構成される、請求項4に記載の装置。
  6. 前記プロセッサが、前記初期画像周辺領域によって取り囲まれた前記目標関心領域の目標特徴を生成するように構成され、前記後続の画像内での前記目標関心領域の前記位置を計算するステップが、前記目標特徴と、前記後続の画像周辺領域によって取り囲まれた後続の画像目標領域の特徴との差を検証するステップを含む、請求項1に記載の装置。
  7. 前記プロセッサが、前記初期画像の取得後、および前記目標関心領域に対して医療手技を実施した後に、前記後続の画像目標領域の前記特徴を判定するように構成される、請求項6に記載の装置。
JP2015555220A 2013-01-29 2014-01-22 事前取得画像を利用したナビゲーション Expired - Fee Related JP6215963B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/752,407 US9386908B2 (en) 2013-01-29 2013-01-29 Navigation using a pre-acquired image
US13/752,407 2013-01-29
PCT/US2014/012414 WO2014120520A1 (en) 2013-01-29 2014-01-22 Navigation using a pre-acquired image

Publications (2)

Publication Number Publication Date
JP2016509510A JP2016509510A (ja) 2016-03-31
JP6215963B2 true JP6215963B2 (ja) 2017-10-18

Family

ID=50071775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015555220A Expired - Fee Related JP6215963B2 (ja) 2013-01-29 2014-01-22 事前取得画像を利用したナビゲーション

Country Status (5)

Country Link
US (1) US9386908B2 (ja)
EP (1) EP2950699A1 (ja)
JP (1) JP6215963B2 (ja)
CN (1) CN104936505B (ja)
WO (1) WO2014120520A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057330A1 (ja) * 2015-09-28 2017-04-06 オリンパス株式会社 内視鏡システム及び画像処理方法
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
CN111067468B (zh) * 2019-12-30 2023-03-24 北京双翼麒电子有限公司 用于控制内窥镜系统的方法、设备及存储介质
CN113012162A (zh) * 2021-03-08 2021-06-22 重庆金山医疗器械有限公司 一种内窥镜检查区域的清洁度检测方法、装置及相关设备

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5550582A (en) 1993-03-19 1996-08-27 Olympus Optical Co., Ltd. Endoscope-image processing apparatus for performing image processing of emphasis in endoscope image by pigment concentration distribution
JP2003334163A (ja) 2002-03-14 2003-11-25 Olympus Optical Co Ltd 内視鏡画像処理装置
US7179221B2 (en) 2002-03-28 2007-02-20 Fuji Photo Film Co., Ltd. Endoscope utilizing fiduciary alignment to process image data
JP4190917B2 (ja) * 2002-03-28 2008-12-03 富士フイルム株式会社 内視鏡装置
US7356172B2 (en) * 2002-09-26 2008-04-08 Siemens Medical Solutions Usa, Inc. Methods and systems for motion tracking
JP4334234B2 (ja) 2003-01-06 2009-09-30 富士通株式会社 類似画像の判定方法および類似画像判定機能を備えた画像処理装置
EP2316328B1 (en) 2003-09-15 2012-05-09 Super Dimension Ltd. Wrap-around holding device for use with bronchoscopes
US7319781B2 (en) * 2003-10-06 2008-01-15 Carestream Health, Inc. Method and system for multiple passes diagnostic alignment for in vivo images
EP1715788B1 (en) 2004-02-17 2011-09-07 Philips Electronics LTD Method and apparatus for registration, verification, and referencing of internal organs
US20060009452A1 (en) * 2004-06-03 2006-01-12 Atamas Sergei P Therapeutic targeting of PARC/CCL18 and its signaling in pulmonary fibrosis
US7657101B2 (en) * 2005-01-19 2010-02-02 Dermaspect, Llc Devices and methods for identifying and monitoring changes of a suspect area on a patient
US20060293557A1 (en) * 2005-03-11 2006-12-28 Bracco Imaging, S.P.A. Methods and apparati for surgical navigation and visualization with microscope ("Micro Dex-Ray")
JP4418400B2 (ja) * 2005-05-20 2010-02-17 オリンパスメディカルシステムズ株式会社 画像表示装置
EP1931237A2 (en) 2005-09-14 2008-06-18 Neoguide Systems, Inc. Methods and apparatus for performing transluminal and other procedures
US20080033240A1 (en) * 2005-10-20 2008-02-07 Intuitive Surgical Inc. Auxiliary image display and manipulation on a computer display in a medical robotic system
IL181470A (en) 2006-02-24 2012-04-30 Visionsense Ltd Method and system for navigation within a flexible organ in the human body
JP4891637B2 (ja) 2006-03-14 2012-03-07 オリンパスメディカルシステムズ株式会社 画像解析装置
CN100594840C (zh) * 2007-05-18 2010-03-24 深圳先进技术研究院 一种跟踪体内微型装置的方法
US20100260392A1 (en) * 2007-12-18 2010-10-14 Koninklijke Philips Electronics N.V. Consistency metric based image registration
US8830224B2 (en) * 2008-12-31 2014-09-09 Intuitive Surgical Operations, Inc. Efficient 3-D telestration for local robotic proctoring
US8337397B2 (en) 2009-03-26 2012-12-25 Intuitive Surgical Operations, Inc. Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient
WO2010140441A1 (ja) 2009-06-01 2010-12-09 オリンパスメディカルシステムズ株式会社 医療機器システムおよび医療器具のキャリブレーション方法
JP5395725B2 (ja) 2010-04-05 2014-01-22 富士フイルム株式会社 電子内視鏡システム
JP5675187B2 (ja) 2010-06-30 2015-02-25 オリンパス株式会社 蛍光観察装置
US8885898B2 (en) * 2010-10-07 2014-11-11 Siemens Medical Solutions Usa, Inc. Matching of regions of interest across multiple views
US20120130171A1 (en) * 2010-11-18 2012-05-24 C2Cure Inc. Endoscope guidance based on image matching
US8908941B2 (en) * 2011-09-16 2014-12-09 The Invention Science Fund I, Llc Guidance information indicating an operational proximity of a body-insertable device to a region of interest
US9171222B2 (en) * 2011-11-17 2015-10-27 Panasonic Intellectual Property Corporation Of America Image processing device, image capturing device, and image processing method for tracking a subject in images
US9107570B2 (en) * 2012-06-19 2015-08-18 Covidien Lp System and method for mapping anatomical structures and marking them on a substrate
US9076062B2 (en) * 2012-09-17 2015-07-07 Gravity Jack, Inc. Feature searching along a path of increasing similarity
KR101993384B1 (ko) * 2012-10-24 2019-06-26 삼성전자주식회사 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템

Also Published As

Publication number Publication date
CN104936505B (zh) 2017-03-08
US20140210971A1 (en) 2014-07-31
US9386908B2 (en) 2016-07-12
EP2950699A1 (en) 2015-12-09
JP2016509510A (ja) 2016-03-31
WO2014120520A1 (en) 2014-08-07
CN104936505A (zh) 2015-09-23

Similar Documents

Publication Publication Date Title
US11883118B2 (en) Using augmented reality in surgical navigation
CN110010249B (zh) 基于视频叠加的增强现实手术导航方法、系统及电子设备
EP2637593B1 (en) Visualization of anatomical data by augmented reality
EP2131326B1 (en) Registration of CT image onto ultrasound images
US8731264B2 (en) System and method for fusing real-time ultrasound images with pre-acquired medical images
US8290225B2 (en) Method and device for relating medical 3D data image viewing planes to each other
US20130169624A1 (en) Method for visualizing the quality of an ablation process
JP2003265408A (ja) 内視鏡誘導装置および方法
KR20130015146A (ko) 의료 영상 처리 방법 및 장치, 영상 유도를 이용한 로봇 수술 시스템
JP6215963B2 (ja) 事前取得画像を利用したナビゲーション
JP2015083040A (ja) 画像処理装置、方法、及びプログラム
JP5961504B2 (ja) 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
US10672510B1 (en) Medical user interface
CN116370077A (zh) 超声内镜探头的导航方法、装置、计算机设备和存储介质
Gruionu et al. A novel fusion imaging system for endoscopic ultrasound
de Almeida et al. A neuronavigation system using a mobile augmented reality solution
US20150085092A1 (en) Surgery assistance device and surgery assistance program
CN106028943A (zh) 超声虚拟内窥成像系统和方法及其装置
US9934569B2 (en) Image processing method and apparatus for tracking a site in a series of images
WO2018002347A1 (en) Registering tomographic imaging and endoscopic imaging
RU2735068C1 (ru) Система и способ для визуализации на дисплее изображения частично уплощенной поверхности внутренней поверхности полости, а также постоянный машиночитаемый носитель
US20050119570A1 (en) Ultrasonic image and visualization aid
Dubrovin et al. Preoperative planning and intraoperative navigation, based on 3D modeling for retroperitoneal procedures
CA2595657A1 (en) Ultrasonic image and visualization aid
JP2008110155A (ja) 画像表示装置および画像表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170921

R150 Certificate of patent or registration of utility model

Ref document number: 6215963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees