JP7206438B2 - 内視鏡ビデオの強化、定量化及び外科的誘導のためのシステム及び方法 - Google Patents

内視鏡ビデオの強化、定量化及び外科的誘導のためのシステム及び方法 Download PDF

Info

Publication number
JP7206438B2
JP7206438B2 JP2022515013A JP2022515013A JP7206438B2 JP 7206438 B2 JP7206438 B2 JP 7206438B2 JP 2022515013 A JP2022515013 A JP 2022515013A JP 2022515013 A JP2022515013 A JP 2022515013A JP 7206438 B2 JP7206438 B2 JP 7206438B2
Authority
JP
Japan
Prior art keywords
image
endoscopic
map
image frame
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022515013A
Other languages
English (en)
Other versions
JP2022546610A (ja
Inventor
ニラジ プラサド ラウニヤール
ロバート ジェイ ライカー
ティモシー ポール ハラー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boston Scientific Scimed Inc
Original Assignee
Boston Scientific Scimed Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boston Scientific Scimed Inc filed Critical Boston Scientific Scimed Inc
Publication of JP2022546610A publication Critical patent/JP2022546610A/ja
Priority to JP2023000266A priority Critical patent/JP2023038233A/ja
Application granted granted Critical
Publication of JP7206438B2 publication Critical patent/JP7206438B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • G06T3/04
    • G06T3/12
    • G06T3/14
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00292Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery mounted on or guided by flexible, e.g. catheter-like, means
    • A61B2017/00296Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery mounted on or guided by flexible, e.g. catheter-like, means mounted on an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30081Prostate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30084Kidney; Renal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Description

〔優先権の主張〕
本開示は、2019年9月23日に出願された米国仮特許出願第62/904,408号の優先権を主張するものであり、この文献の開示は引用により本明細書に組み入れられる。
本開示は、内視鏡ビデオの強化、定量化及び外科的誘導のためのシステム及び方法に関する。
様々な医学的介入中に内視鏡イメージャを使用することがある。イメージャによって提供される患者生体構造のビューは、スコープの解像度又は分解能及び視野によって制限される。生体構造のビューがこのように制限されると、介入が長引くとともに、介入を行う上で望ましい情報が手術中の医師に全て提供されなくなるおそれがある。
本開示は、生体内の標的部位の画像フレームを取り込むように構成された内視鏡イメージャと、予備セットの画像フレームに、画像フレームを円筒座標に変換する空間変換を適用し、空間的に変換された画像フレームから、各画素位置が固定次元のベクトルで定められたマップ画像を計算し、現在の画像フレームをマップ画像と整列させて、現在の画像フレームに空間変換を適用し、空間的に変換された現在の画像フレームをマップ画像に融合して融合画像を生成し、融合画像に逆空間変換を適用して、現在の画像フレームよりも高い空間解像度を有する強化された現在の画像フレームを生成するように構成されたプロセッサと、を含む内視鏡システムに関する。システムは、強化された現在の画像フレームを表示するディスプレイも含む。
ある実施形態では、空間変換が、内視鏡イメージャの光学的形状に基づいて生成される。
ある実施形態では、マップ画像が、内視鏡イメージャの解像度よりも整数倍高い解像度を有する。
ある実施形態では、現在の画像フレームが、現在の画像フレームとマップ画像との間の類似度が測定される相互相関に基づいてマップ画像と整列される。
ある実施形態では、プロセッサが、空間的に変換された現在の画像フレームを取り囲むマップ画像の領域に基づいて、強化された現在の画像フレームの視野を現在の画像フレームと比べて拡大するようにさらに構成される。
ある実施形態では、プロセッサが、空間的に変換された現在の画像フレームをマップ画像に追加するようにさらに構成される。
ある実施形態では、マップ画像内の所与の画素位置が一杯になった場合、新たなサンプルが追加される際に最も古いサンプルが削除される。
本開示は、生体内の標的部位の画像フレームを取り込むように構成された内視鏡イメージャと、プロセッサとを含む内視鏡システムにも関する。プロセッサは、予備セットの画像フレームに、画像フレームを円筒座標に変換する空間変換を適用し、空間的に変換された画像フレームから、各画素位置が固定次元のベクトルで定められたマップ画像を計算し、マップ画像のスケール空間表現を計算し、複数の独立領域を含むさらなる画像を取り込み、独立領域の各々の所定量の画像データが取得された時に、独立領域の各々の独立空間変換を含む非線形空間変換を展開し、非線形空間変換からストラクチャ・フロム・モーション(SFM)深度マップを導出するように構成される。
ある実施形態では、SFM深度マップが内視鏡イメージャの追跡情報にさらに基づき、追跡情報が、取り込み画像間で変化する内視鏡イメージャの姿勢を含む。
ある実施形態では、プロセッサが、予備セットの画像フレーム内でスコープ関連オブジェクト及び関心オブジェクトを識別してセグメント化し、予備セット画像に空間変換を適用する際に、識別されたスコープ関連オブジェクトを除外するように構成される。
ある実施形態では、プロセッサが、現在の画像フレーム内の深度情報及び角度範囲に基づいて関心オブジェクトのサイズを推定するようにさらに構成される。
ある実施形態では、内視鏡システムが、関心オブジェクトが注釈付けされた現在の画像フレームを表示するように構成されたディスプレイをさらに含む。
ある実施形態では、関心オブジェクトが腎臓結石である。
ある実施形態では、内視鏡システムが、内視鏡イメージャの6自由度位置を含む追跡データを提供するように構成された、内視鏡イメージャに取り付けられた電磁(EM)トラッカーをさらに含む。プロセッサは、以前に取得された標的部位の3D画像ボリュームをセグメント化するようにさらに構成される。追跡データは、セグメント化された画像ボリューム及びSFM深度マップと組み合わせられて内視鏡イメージャの位置推定値を提供する。
ある実施形態では、プロセッサが、追跡データがセグメント化された画像ボリュームの表面を突破するように示された時に、セグメント化された画像ボリュームを変形させるようにさらに構成される。
また、本発明は、生体内の標的部位の予備セットの画像フレームに、画像フレームを円筒座標に変換する空間変換を適用する段階と、空間変換された画像フレームから、各画素位置が固定寸法のベクトルで定められるマップ画像を計算する段階と、現在の画像フレームをマップ画像と整列させて、現在の画像フレームに空間変換を適用する段階と、空間的に変換された現在の画像フレームをマップ画像に融合して融合画像を生成する段階と、融合画像に逆空間変換を適用して、現在の画像フレームよりも高い空間解像度を有する強化された現在の画像フレームを生成する段階と、を含む方法に関する。
ある実施形態では、空間変換が、内視鏡イメージャの光学的形状に基づいて生成される。
ある実施形態では、マップ画像が、内視鏡イメージャの解像度よりも整数倍高い解像度を有する。
ある実施形態では、現在の画像フレームが、現在の画像フレームとマップ画像との間の類似度が測定される相互相関に基づいてマップ画像と整列される。
ある実施形態では、方法が、空間的に変換された現在の画像フレームを取り囲むマップ画像の領域に基づいて、強化された現在の画像フレームの視野を現在の画像フレームに比べて拡大することをさらに含む。
本開示の様々な例示的な実施形態による、泌尿器科的処置を実行するシステムを示す図である。 第1の例示的な実施形態による、内視鏡ビデオの細部及び/又は視野を改善する方法を示す図である。 画像座標から円筒座標への空間変換の図である。 第2の例示的な実施形態による、内視鏡ビデオを改善する方法を示す図である。 内視鏡ビデオにオブジェクトサイズ情報を注釈付けする方法を示す図である。 腎臓結石を括弧で囲んだ例示的な内視鏡ビデオ表示を示す図である。 第1の例示的な実施形態による、連続的に変形する生体構造に対する内視鏡位置を追跡する方法を示す図である。 第2の例示的な実施形態による、管状構造の内視鏡ビデオにおける動き追跡法を示す図である。 追跡用注釈が示された例示的な内視鏡ビデオ表示を示す図である。 第3の例示的な実施形態による、管状構造の内視鏡ビデオにおける動き追跡法を示す図である。 膀胱鏡ビデオフィードを解析して、レーザー治療手順を知らせる注釈を提供する方法を示す図である。 前立腺レーザー注釈が示された例示的な内視鏡ビデオ表示を示す図である。
本開示は、以下の説明、及び同様の要素を同じ参照数字で参照する添付図面を参照することでさらに理解することができる。例示的な実施形態は、内視鏡手術のための内視鏡表示の改善について説明する。これらの改善は、特に泌尿器科的処置のための、例えば内視鏡ビューの向上、及びビデオオブジェクト特性に関する定量的フィードバックを含む。いくつかの一般的な泌尿器科的処置としては、腎結石対策(例えば、砕石術)、BPH(前立腺肥大症)治療(例えば、GreenLight(商標)レーザー手術)、前立腺切除術、膀胱腫瘍切除術、子宮筋腫対策、診断などが挙げられる。これらの処置の多くは、「診断と治療(see and treat)」と表現することができる。
典型的な処置は、画像媒体(例えば、LithoVue(商標)又はその他の内視鏡イメージャ)、(視野をクリアにするため及び/又は空洞を広げるための)流体供給機構、及び治療機構(例えば、レーザー、RFエネルギー)を有する。例示的な実施形態は、物理的サイズ推定、考えられる石組成の相関性、様々なタイプの組織の区別などを含む、ビデオオブジェクト特性に関する定量的フィードバックを通じて医師の意思決定を改善することができる。また、例えばレーザー手術中のスワイプ速度、気泡サイズ及び密度、腎臓検査中のランダルプラーク(Randall’s plaque)決定、水蒸気療法(例えば、Rezum(商標))中の挿入ポイント決定、BPH処置中の被膜深さに関する外科的指針を通じて手順の認知的負荷及び効率を改善することもできる。
1つの例示的な実施形態では、例えば尿管鏡画像又は膀胱鏡画像などの一連の低解像度内視鏡画像からさらに高解像度のマップ画像を作成し、結合画像がマップ画像の解像度を有するように、現在の画像をマップ画像に融合させる超解像技術が実装される。これらの例示的な技術は泌尿器科的処置に特に適しているが、いくつかの実施形態は、周囲組織が連続していて、後述するように組織上の固有の位置を長手方向及び半径方向座標に基づいてマッピングできるように配置されている限り、他の概ね管状の患者生体構造(例えば、静脈、食道など)、又は非管状の患者生体構造(例えば、胃)の内視鏡観察を改善することもできる。「超解像」は、一般に低解像度画像を融合することによって生成される改善された解像度又は分解能の画像として定義することができる。
本明細書では、「超解像」という用語は、一般に内視鏡介入中のビデオ表示を改善するために生体構造をマッピングする画像空間の形成を意味する。関連する実施形態は、ストラクチャ・フロム・モーション(SFM)深度マップの導出について説明する。他の例示的な技術は、他の方法で表示を改善することができる。例えば、適切に設計された深層畳み込みニューラルネットワーク(CNN)を直接画素データに適用して、画像のノイズ抑制及び/又は組織灌流の相違の強調を行うことができる。以下で詳細に説明するように、これらの技術は単独で又は組み合わせて使用することができる。
図1に、本開示の様々な例示的実施形態による、泌尿器科的処置を実行するシステム100を示す。システム100は、泌尿器科的処置中に患者生体構造の画像フレームを取得するイメージャ104を有する内視鏡102と、イメージャ104の視界を損なうおそれがある血液及びデブリを除去するために生体構造に流体(例えば、生理食塩水)を供給する流体機構106とを含む。以下でさらに詳細に説明するように、この実施形態の内視鏡102は、連続的に変形する患者生体構造に対する内視鏡102の位置の決定を知らせる任意の電磁(EM)トラッカー108を含む。
システム100は、泌尿器科的処置の性質に応じて選択された治療装置110をさらに含むことができる。治療装置110は、内視鏡102を通じて動作することも、又は内視鏡102の外部に存在することもできる。例えば、治療装置110は、例えば腎臓結石を砕くためのレーザー又は衝撃波発生器、又は前立腺組織を除去するためのレゼクトスコープ(resectoscope)とすることができる。泌尿器科的処置が診断(すなわち、症状を治療することではなく生体構造を検査すること)を目的とする場合には、治療装置が使用されない場合もある。例示的な実施形態は、泌尿器科的イメージングに関して説明しているが、これに限定されるものではない。いくつかの実施形態は、流体機構が使用されないもの(例えば、食道イメージング)にも適用可能である。
システム100は、イメージャ104から提供された画像フレームを処理し、処理された画像をディスプレイ114に提供するコンピュータ112を含む。コンピュータ112及びディスプレイ114は、内視鏡タワーなどの統合ステーションに設けることができる。内視鏡タワーには、例えば流体機構106を通じて供給される流体の流量を制御するアクチュエータを含む、泌尿器科的処置を実行するための他の機能を実装することもできる。例示的な実施形態は、表示画像を一般に連続的に又は他のいずれかの所望の形で変更して強化又は向上するためのアルゴリズム的プロセスについて説明する。
図2に、第1の例示的な実施形態による、内視鏡ビデオ表示の細部及び/又は視野の改善方法200を示す。方法200は、例えば尿道などの管状構造の近接内視鏡イメージング(close-quarters endoscopic imaging)に特に適した超解像技術とみなすことができる。205において、図3に示すような画像座標から円筒座標に画像を変換する空間変換を生成する。空間変換は、イメージャ104の光学的形状に基づいて生成される。図3の最も内側の円は、小さな半径ではビデオ表示において利用可能なデータ点の数が少なすぎて役に立たない可能性があると予想して、マッピングすることも又はしないこともできる。当業者であれば理解できるように、左側の黒い円の数は、右側の黒い横線の数に対応する。
210において、円筒空間上にイメージャ104の解像度の整数倍の解像度でマップ画像を作成する変換セットを生成する。例えば、マップ画像は、解像度又は分解能、すなわちマップ画像を構築するために使用される画素数を有することができ、この解像度は、イメージャ104の解像度の3倍の解像度である。マップ内の各画素位置は、固定次元のベクトルによって表される。例えば、所与の位置におけるベクトルは、その位置から複数の画像フレームにわたって蓄積された、例えば8つのサンプルを表す8つの要素を有することができる。
215において、イメージャ104によって取り込まれた予備セット画像を円筒座標系において整列するように相関付ける。220において、複数の画像サンプルに空間変換を適用して画像を円筒座標に変換し、サンプルからマップ画像を計算する。マップ画像は、外れ値棄却(outlier rejection)を適用されたベクトルから定められる各画像位置を有する。例えば、外れ値棄却はメジアンフィルタとすることができる。
225において、イメージャによって現在の画像を取り込み、空間変換の適用時に円筒空間内の画像の整列を最適化するようにマップ画像に相関付ける。例えば、この相関は、画像間の類似度を測定して類似度を最大化するように画像を整列させる、画像間の相互相関とすることができる。230において、相関に基づいて画像に空間変換を適用する。235において、円筒座標系において現在の変換画像及びマップ画像を結合させ、例えば融合させる。マップ画像が現在の画像の視野を取り囲む領域内に十分なデータを有している場合には、結合画像の視野を拡大することができる。
240において、結合画像に逆空間変換を適用して、スコープ座標系(scope coordinate system)における空間解像度が強化又は向上された画像を生成する。245において、最初に取り込まれたスコープ解像度の画像と比べて改善された細部及び/又は改善された視野で内視鏡手術を誘導するために、強化された解像度の画像をディスプレイ114上に表示する。
250において、対応するマップベクトルに画素値を追加することによって、画像フレームの円筒座標変換をマップ画像に追加する。ベクトルは、ベクトルが一杯になった時に最も古いサンプルが削除されて空の場所に新たな画素値が追加されるように、サンプルが追加された時点に基づいて連続的に順序付けることができる。
上述した画像処理ステップは、イメージャ104によって新たな画像フレームが取り込まれた時に連続して実行されるが、当業者であれば理解するように、他の画像処理スケジュールを採用することもできる。従って、各新たな画像フレームは、新たなフレームとマップ画像との融合に基づいて、改善された解像度又は分解能で視覚的に強化される。
図4に、第2の例示的な実施形態による内視鏡ビデオの改善方法300を示す。方法300は方法200に類似するが、方法300では、光学的歪み、組織運動及び視点(POV)変化をよりよく補償する非剛体レジストレーションプロセス(non-rigid registration process)について説明する。非剛体レジストレーションは、一般に画像に複数の局所的変換を適用して参照画像(この場合はマップ画像)との相関を改善することを意味する。本実施形態では、画像の異なるエリアを独立して変換してエリア間の位置の変化をより良好に取り込むことができる。
305において、方法200のステップ205~220に従ってマップ画像を計算する。310において、マップ画像のスケール空間表現を計算する。スケール空間表現は、一般に異なるスケールで徐々に平滑化された画像セットとしての画像データの表現を意味する。例えば、マップ画像内の大規模構造は強調され、微細構造は抑制される。
315において、現在の画像を取り込み、最初は低い空間周波数でマップ画像に相関付ける。320において、現在の画像をマップ画像と融合させ、方法200のステップ230~250に従って強化する。画像処理ステップは、新たな画像が取得された時に繰り返される。しかしながら、画像データはマップ画像を生成するために収集され続けるので、325において、次第に小さくなる領域を次第に高くなる空間周波数スケールで最適化することによって複数の独立領域変換を展開する。生体構造関連運動(Anatomy-relative motion)を推定することができる。
330において、非線形変換に基づいてストラクチャ・フロム・モーション(SFM)深度マップを導出する。SFMは、一般に移動するPOVによって取り込まれた一連の画像から3次元構造をマッピングすることを意味し、ここではイメージャの変化する位置及び向き(姿勢)が追跡される。深度マップは、新たな画像が収集された時に連続して作成される。
上述した画像処理法200、300の要素を使用して、以下の手順固有の方法でさらに表示を強化又は向上することができる。
レーザー結石破砕術などの腎臓結石治療では、結石を様々なサイズの多数の破片に断片化することができ、これらの断片のいくつかはさらに縮小する必要があり、いくつかは自然に回収又は排出されるほど十分に小さい場合もある。尿管鏡ビデオ内で結石粒子を追跡し、そのサイズを推測し、医師に適切な注釈を与えることで、これらの介入の速度、信頼性及び精度を向上させることができる。以下では、腎臓結石に関するオブジェクトサイジングについて説明するが、例えば病変、成長及びその他の組織特徴などの他の画像特徴を内視鏡表示内でサイジングして注釈付けすることもできる。
図5に、内視鏡ビデオに物体サイズ情報を注釈付けする方法400を示す。405において、方法200のステップ205~215に従って、空間変換及び画像マップを生成し、予備セット画像を取り込んで相関付ける。
410において、予備セット画像内でスコープ関連オブジェクトを識別してセグメント化する。スコープ関連オブジェクトは、例えばレーザー結石破砕術を実行するためのレーザーファイバを含むことができる。スコープ関連オブジェクトのセグメンテーションは、予め定められた特徴マップと制約された登録幾何形状とを使用して実行される。
415において、予備セット画像内で関心オブジェクトを識別してセグメント化する。関心オブジェクトは、例えば腎臓結石を含むことができる。当業者であれば認識するように、関心オブジェクトのセグメンテーションは、画像特徴及び小塊発見アルゴリズム(blob-finding algorithms)を使用して実行される。
420において、予備セット画像に空間変換を適用し、識別されたスコープ関連オブジェクトを除外して超解像シーンマップを計算する。
425において、方法300のステップ310~330に従って確率的深度マップを導出する。この深度マップは、超解像マップ整合(super-resolution map alignment)からの独立した領域変換及び暗黙のカメラ姿勢変換に基づく。ステップ310~330は、シーンマップの解像度を連続的に向上させるために、連続的に画像を取得してシーンマップに相関付け/追加することを含む。
430において、現在取り込まれている画像内の深度情報及び角度範囲(angular extent)に基づいて、以前に識別された関心オブジェクトのサイズを推定する。
435において、現在取り込まれている画像の表示上で腎臓結石などの関心オブジェクトに注釈付けする。1つの実施形態では、表示上にオブジェクトの寸法を直接レンダリングすることができる。別の実施形態では、オブジェクトの境界を示すようにオブジェクトに括弧付きで注釈付けすることができる。この括弧は、オブジェクトのサイズ推定値を所定の治療閾値と比較することによって、オブジェクトのサイズ分類を示すように色分けすることができる。例えば、オブジェクトにさらなる縮小が必要であることがサイズ推定値によって示される場合には括弧を赤色に着色し、オブジェクトが回収できるほど十分に小さいが自然に排出されるには大きすぎることがサイズ推定値によって示される場合には括弧を黄色に着色し、オブジェクトが自然に通過できることがサイズ推定値によって示される場合には括弧を緑色に着色することができる。換言すれば、腎臓結石には、腎臓結石が通過できる最小管サイズを示すように注釈付けすることができる。図6に、腎臓結石を括弧で囲んだ例示的な内視鏡ビデオ表示を示す。
別の実施形態では、上述したフレーム間相関又は超解像マップを使用して、セグメント化された各画素における複数のサンプルから色及び反射率(アルベド)の統計的記述を構築する。クラスタリングアルゴリズム及びインビボ訓練データを使用する機械学習を使用して、識別されたサイズグループ内のメンバーシップの確率を投影する組成マップを作成する。
SFM技術は、内視鏡手術中に内視鏡の位置を追跡するプロセスに情報を提供するために採用することができる。内視鏡ビデオから決定される内視鏡のSFM姿勢推定(SFM pose estimation)を、EMトラッカー108からの位置情報、及び以前に取得された画像から導出される患者生体構造のセグメント化された3D再構成と組み合わせて使用して、連続的に変形する患者生体構造に対する内視鏡の位置決定を改善することができる。
図7に、第1の例示的な実施形態による、連続的に変形する生体構造に対する内視鏡の位置を追跡する方法500を示す。505において、以前に取得された生体構造の標的部位の3D画像ボリューム(3D image volume)を受け取ってセグメント化する。3Dボリュームは、以前に取り込まれたCT画像又は同様の画像媒体から取り込まれた画像によって生成することができる。510において、方法300のステップ305~330に従ってSFM深度マップを導出する。深度マップは、生体構造関連運動、位置推定、及び位置推定の信頼度を提供する。
515において、内視鏡102の先端付近に配置されたEMトラッカー108を使用して内視鏡102の6自由度(6DOF)位置を決定する。515からの6DOF位置、及び510からのSFM深度マップを追加する画像は、実質的に同時に受け取られ、相関することができる。
520において、EMトラッカー108からの位置データと、SFMマップからの位置データと、生体構造の固定ボリュームとを組み合わせて、内視鏡102を生体構造の表面境界内に維持するのに十分な生体構造の最小変形を推定する。結果として得られるモデルは、セグメント化された表面モデルにスコープ102が接触したことを位置データが示すまで、スコープ102が空洞内で自由に動くことを想定する。位置データが固定モデルの表面を突破するように示されると、スコープ102の位置を表面内に維持するように生体構造を変形させる。例えば、生体構造は、表面の向きに対して垂直に変位する。
525において、組み合わせモデル及び6DOF内視鏡位置が、SFM深度マップからの位置推定を知らせて改善する。改善された推定値は、ノイズの暴走統合(runaway integration)を防ぐ。
530において、処理された画像をライブ注釈ナビゲーションフィードバック(live annotation navigation feedback)と共にディスプレイ114上に表示する。ある実施形態では、注釈が、以前のイメージングからの石又は粒子の位置を反映することができる。また、磁気共鳴(MR)追跡又は光学追跡を組み込むことによって、注釈が既にナビゲートされている経路を反映することもできる。この方法は、画像が取得された時に連続して繰り返される。
別の実施形態では、方法300で導出されるSFM深度マップではなく、当業で周知のSFM技術を使用することもできる。方法300からのSFM深度マップは、既知の技術と比べて、例えばカメラ動作から生じる変換などの典型的な変換を表すために必要な非線形性の少ない単純な形状を有する。従来のSFMアルゴリズムはカメラ光学系の幾何学的補正も必要とするが、これらの補正は、表面の連続性又は向きに関する仮定にまでは及ばない。これらの仮定は、有効である場合には解決策の数値的複雑性を大幅に抑えることによって、性能を改善して誤差を低減する。
BPH(前立腺肥大症)は、様々な低侵襲性の経尿道的内視鏡手術を通じて治療できる疾患である。解剖学的ランドマークに対する内視鏡の位置の認識は、内視鏡ビデオの注釈付けを可能にし、医師が距離を測定して進行中の多段階介入を追跡する支援を行う。
図8に、第2の例示的な実施形態による、尿道などの管状構造の内視鏡ビデオにおける動き追跡法600を示す。方法600は、解剖学的ランドマークに対する現在の位置、目的とする介入に関連する所望の位置、及びその介入に関連する進捗インジケータを含む注釈を提供することができる。
605において、カメラの回転中心及び移動方向をマッピングする。610において、光学系をマッピングして、スコープのPOVから各画像画素とスコープの移動方向との間の物理的角度を導出する。光学系をマッピングすると、画像の各画素について緯度と同様に、カメラ軸からの角度距離を指定するスカラー(緯度の例えで言えば、むしろ逆に0°が極になって90°が赤道になる点を除いて北極)が効果的に定められる。画像内の0°における「極」位置は、正確にカメラ軸に沿ってカメラを前進又は後退させた時に同じ位置を向いたままの点である。
615において、マッピングステップ605~610に基づいて、各画像について各解剖学的画素までの距離を決定する。この距離は、スコープ102に垂直な基準面から画素において撮像されたオブジェクトまで測定される。
620において、決定された距離、及びスコープの自軸に対する回転角に基づいて、円筒空間内で変形画像を計算する。変形画像は、スコープの回転点からスコープビデオ内の基準方位特徴(reference orientation feature)へのベクトルに対して計算される。基準方位を定める(例えば、図3の0°の角度を設定する)任意の特徴が選択され、従ってその後の全てのマッピングは直接的又は間接的に基準方位に関連する。
625において、画像特徴を識別する。画像特徴を識別するために、変形円筒画像からのスケール空間内で、例えばヘッセ行列(Hessian determinants)などの顕著性又はサリエンシーメトリクス(Saliency metrics)が計算される。
630において、イメージャ104の視野内の介入器具のいずれかの部分に関連する画像特徴を無視して特徴記述子を構築する。特徴記述子は、円筒形画像内の特徴エリア画素値に基づく。635において、記述子に基づいて特徴を照合する。ある実施形態では、本アルゴリズムが画像を別の画像と照合する傾向にあるが、別の実施形態では、グローバルマップが可能であって潜在的に有利である。先行方法とは異なり、スケール及び回転不変計算(scale and rotation invariant calculations)を実行する必要はない。シーンマップの形状に関する推測を行うことにより、特徴の形状は、1つの画像から次の画像まで一貫したスケール及び向きを保つはずである。例えば、特徴の向きは、外挿された円筒の消滅点への特徴のベクトルに関連し、従ってその後にスコープを実質的にその軸に沿って回転させた状態で近くの画像が取得された場合、この画像はこの方位角に影響を与えず、これによって特徴をより直接的に照合できるようになる。
640において、範囲から外れた照合を除外し、画像フレーム間で相対的カメラ姿勢変換を推測する。注釈は、基準特徴及び基準面との関係に関して表され、従ってカメラ姿勢変換が分かると画像空間内に位置を戻すことができる。
図9に、解剖学的ランドマークに対する現在位置、介入に関連する所望の位置、及びその介入に関連する進捗インジケータが示された、例示的な内視鏡ビデオ表示を示す。
図10には、第2の例示的な実施形態による、管状構造の内視鏡ビデオ内の動き追跡法700を示す。方法700は、方法600に類似する。705において、方法600のステップ605~620に従って円筒空間内で変形画像を計算する。
710において、器具オブジェクトに対応する画素を無視したマスク画像を生成する。現在の画像が最初の画像である場合、715においてマスク画像をマップ画像として記憶する。現在の画像が後続の画像である場合、720において、好適な整列基準に基づいてマップ画像との最適な整列を計算する。例えば、最適な整列は、ヘッセ行列加重相関(Hessian-determinant weighted correlation)又はエントロピー加重相関(entropy-weighted correlation)などの相関に基づいて計算することができる。725において、最適な整列に基づいて画像にマップをオーバーレイ表示する。
730において、マップ位置サンプルの統計的組み合わせを使用して最新のマップ画像を計算する。例えば、マップ画像は、各画素が定められた全ての画像にわたる各色チャネルの中央強度(median intensity)を使用して計算することができる。735において、マップとの整列からカメラの相対的位置を推測する。
BPHを治療する1つの手順は、前立腺組織にレーザーを通過させることによって前立腺組織を収縮又は除去するレーザー前立腺切除術である。この手順は、レーザーの掃引範囲(レーザーが通過する角度範囲)及び掃引速度(単位時間当たりの角度変化)を特徴とする。掃引範囲、掃引速度及び掃引角度は、レーザーの出力密度、組織からレーザーまでの距離、組織のタイプ、レーザー周波数及びファイバサイズによって決定される。内視鏡ビデオに注釈を組み込むことで、医師の意識及び精度を高めることを通じてレーザー治療手順を容易にすることができる。
図11に、膀胱鏡ビデオフィードを解析し、例えばGreenLight(商標)レーザーなどのレーザー治療手順を知らせる注釈を提供する方法800を示す。805において、レーザー装置のために画像特徴を記憶する。810において画像を取り込む。815において、イメージャが画像にレーザー装置の少なくとも一部を取り込んでいた場合、レーザー装置の向き及びカメラに対する距離を計算する。
820において、カラーフィルタリングを使用してレーザビームの散乱分布を決定する。825において、画像内に散乱ピークが取り込まれている場合、散乱ピークに基づいてレーザーの向きを推定する。散乱ピークとは、レーザー光の経路内に直接存在する生体構造の位置を推測するための反射レーザー光の強度、すなわちレーザーパルスと共に明滅する輝点のことである。レーザーファイバの端部の直接的な視覚化と組み合わせて、(カメラセンサ上に投影された)レーザーの向きの推定を決定することができる。
830において、レーザー装置から散乱ピークまでの距離の事前校正マップを使用してアブレーション距離を推定する。距離推定は、ステップ815の距離計算が利用可能である場合には、この距離計算を使用して精緻化することができる。
835において、距離推定及びレーザー出力設定に基づいて最適なレーザー掃引速度を計算する。840において、最適な掃引レート、及び最適な掃引レートと検出された掃引レートとの間の関係を示す第1の注釈をディスプレイ114上に提供する。
845において、アブレーション深さを示す第2の注釈をディスプレイ114上に提供する。表示されるアブレーション深さは、前立腺被膜までの距離に関連することができる。
850において、適切なレート、及び最適な測定レートと掃引角度との間の関係を示す視覚的手掛かりを提供する。
図12は、推測される最適範囲に対する出力レベル、レーザー標的組織に対する見掛けの平均深さ、推測される掃引角、並びに出力及び平均深さから計算される最適掃引角/掃引ペースを含む前立腺レーザー注釈が表示された例示的な内視鏡ビデオ表示である。
別の実施形態では、各掃引角度での見掛けのアブレーション深さと、以前に取得された3D画像ボリュームにおいて測定された尿道から被膜までの投影距離とを比較するビデオ注釈が提供される。レーザー位置は(以前の)尿道位置に存在するので、以前の画像で測定された被膜までの距離はアブレーション手順の限界深さを示す。ユーザは、被膜又はそれを越えてアブレーションを継続しないことを選択することもできる。
さらに別の代替実施形態では、角度及び深さの推定を3D器具追跡システムから計算されたレーザー角度及び挿入深さ測定値と組み合わせる。
内視鏡ビュー内で異なるタイプの組織を区別することで、様々な内視鏡手術をさらに容易にすることができる。また、整列した画像フレームの非常にわずかな変動を増幅させることで、心拍位相測定(cardiac phase measurements)との相関を可能にして組織灌流の差異を強調することができる。
ある実施形態では、適切に設計された畳み込みニューラルネットワーク(CNN)が、フィルタリング及び増幅パラメータのアドホックチューニングを可能にして以前の方法よりも柔軟な実装をもたらすことができる。第1の畳み込み層に供給されるCNNの入力ボリュームは、約数秒分のビデオフレームを赤色、緑色及び青色チャンネルについて3倍した深さを有する。出力層は、同じ長さ及び幅のビデオフレーム、並びに1の深さを有し、心臓相関の度合いを表す。このネットワークは、指定心拍間隔に一致するようにスケーリングされた一連の所定のウェーブレットのいずれかに対する画素の最大時間相関をコスト関数が測定する未圧縮インビボ内視鏡ビデオ上で訓練される。結果として得られる値及び最大ウェーブレットは、信号の増幅を促して組織灌流の相違を導出し、これに関連して組織構成の相違を強調することができる。CNNの使用は教師なしの方法での導出を可能にするのに対し、以前の方法は、未加工画像フレームを適切にフィルタリングするためにユーザが繰り返し介入することを伴う。
CNNは、ノイズが少なく細部が強調された画像を生成するためにも使用される。深層畳み込みニューラルネットワーク(CNN)は、内視鏡からの画素データに直接適用することができる。この非典型的なCNNでは、出力ボリュームが入力ボリュームと同じ深さ(推定上は赤色、緑色及び青色チャンネルについて3)を有するが、幅及び高さは入力幅及び高さの同じ整数倍(超解像倍率)であり、畳み込み層のストライディング(striding)は部分的である。ネットワークを訓練するための誤差項は、入力データの最も高い空間周波数成分が出力データ変換において表現可能な最も高い空間周波数に対応するようにナイキスト限界を超えてシフトしている場合を除き、元々の画素及び出力値に対して離散ハートレー変換(discrete Hartley transforms)を実行して二乗差を最小化することによって計算される。別の実施形態では、ノイズ抑制に役立つように、入力データの空間周波数変換が、相関ベースのレジストレーション変換を使用して計算されたマルチフレーム平均画像に対して実行される。
様々な既存の超解像法又はSFM法は、開示した方法の要素と組み合わせて既存の技術を改善することができる。例えば、方法200に関して説明したような内視鏡の既知/校正可能な光学的形状を利用して既存の超解像技術を改善することができる。内視鏡の光学的形状に基づいて生成されるイメージマップは、各フレームの画素当たりに1つのサンプルを有することができ、スコープ画像は、「シフト及び融合(shift and fusion)」などの既知の超解像技術を使用して変換することができる。
他の画像強化技術としては、バンドフィルタ、メジアンフィルタ又は高周波フィルタなどの様々なフィルタを画素データに適用すること、及び曇った又は濁った環境(cloudy or turbid environment)を通じて関心オブジェクトのためのエッジ検出を使用することが挙げられる。これらのさらなる技術は、単独で又は上述した実施形態と組み合わせて使用することができる。
205 空間変換を生成
210 マップ画像変換を生成
215 予備セット画像を取り込んで相関付け
220 空間変換を適用してマップ画像を計算
225 現在の画像を取り込んで相関付け
230 現在の画像に空間変換を適用
235 現在の画像の変換及びマップ画像を融合
240 結合画像に逆空間変換を適用
245 現在の画像の強化された解像度表現を表示
250 現在の画像の変換をマップ画像に追加

Claims (15)

  1. 内視鏡システムであって、
    生体内の標的部位の画像フレームを取り込むように構成された内視鏡イメージャと、
    プロセッサであって、
    予備セットの画像フレームに空間変換を適用する段階であって、前記空間変換が前記画像フレームを円筒座標に変換する、前記空間変換を適用する段階と、
    空間変換された前記画像フレームからマップ画像を計算する段階であって、前記マップ画像の各画素位置が固定次元のベクトルで定められる、前記マップ画像を計算する段階と、
    現在の画像フレームを前記マップ画像と整列させ、前記現在の画像フレームに前記空間変換を適用する段階と、
    空間変換された前記現在の画像フレームを前記マップ画像に融合して融合画像を生成する段階と、
    前記融合画像に逆空間変換を適用して、前記現在の画像フレームよりも高い空間解像度を有する強化された現在の画像フレームを生成する段階と、
    を行うように構成された前記プロセッサと、
    前記強化された現在の画像フレームを表示するように構成されたディスプレイと、
    を備えることを特徴とする内視鏡システム。
  2. 前記空間変換は、前記内視鏡イメージャの光学的形状に基づいて生成される、請求項1に記載の内視鏡システム。
  3. 前記マップ画像は、前記内視鏡イメージャの解像度よりも整数倍高い解像度を有する、請求項1又は2に記載の内視鏡システム。
  4. 前記現在の画像フレームは、前記現在の画像フレームと前記マップ画像との間の類似度を測定する相互相関に基づいて、前記マップ画像と整列される、請求項1~3のいずれか1項に記載の内視鏡システム。
  5. 前記プロセッサは、前記空間変換された現在の画像フレームを取り囲む前記マップ画像の領域に基づいて、前記強化された現在の画像フレームの視野を、前記現在の画像フレームと比べて拡大するようにさらに構成される、請求項1~4のいずれか1項に記載の内視鏡システム。
  6. 前記プロセッサは、前記空間変換された現在の画像フレームを前記マップ画像に追加するようにさらに構成される、請求項1~5のいずれか1項に記載の内視鏡システム。
  7. 前記マップ画像内の所与の画素位置が一杯になった場合、新たなサンプルが追加される際に最も古いサンプルが削除される、請求項1~6のいずれか1項に記載の内視鏡システム。
  8. 内視鏡システムであって、
    生体内の標的部位の画像フレームを取り込むように構成された内視鏡イメージャと、
    プロセッサと、を備え、
    前記プロセッサは、
    予備セットの画像フレームに空間変換を適用する段階であって、前記空間変換が前記画像フレームを円筒座標に変換する、前記空間変換を適用する段階と、
    空間変換された前記画像フレームからマップ画像を計算する段階であって、前記マップ画像の各画素位置が固定次元のベクトルで定められる、前記マップ画像を計算する段階と、
    前記マップ画像のスケール空間表現を計算する段階と、
    複数の独立領域を含むさらなる画像を取り込む段階と、
    前記独立領域の各々について所定量の画像データが取得された時に、前記独立領域の各々について独立の空間変換を含む非線形空間変換を展開する段階と、
    前記非線形空間変換からストラクチャ・フロム・モーション(SFM)深度マップを導出する段階と、
    を行うように構成されたことを特徴とする内視鏡システム。
  9. 前記SFM深度マップは、前記内視鏡イメージャの追跡情報にさらに基づいており、前記追跡情報は、取り込み画像間で変化する前記内視鏡イメージャの姿勢を含む、請求項8に記載の内視鏡システム。
  10. 前記プロセッサは、
    前記予備セットの画像フレーム内のスコープ関連オブジェクト及び関心オブジェクトを識別してセグメント化し、
    前記予備セットの画像フレームに前記空間変換を適用する際に、識別された前記スコープ関連オブジェクトを除外する、ように構成されている、請求項8又は9に記載の内視鏡システム。
  11. 前記プロセッサは、現在の画像フレーム内の深度情報及び角度範囲に基づいて前記関心オブジェクトのサイズを推定するようにさらに構成されている、請求項10に記載の内視鏡システム。
  12. 前記関心オブジェクトが注釈付けされた前記現在の画像フレームを表示するように構成されたディスプレイをさらに備える、請求項11に記載の内視鏡システム。
  13. 前記関心オブジェクトは腎臓結石である、請求項12に記載の内視鏡システム。
  14. 前記内視鏡イメージャに取り付けられ、前記内視鏡イメージャの6自由度位置を含む追跡データを提供するように構成された電磁(EM)トラッカーをさらに備え、
    前記プロセッサは、前記標的部位の以前に取得された3D画像ボリュームをセグメント化するようにさらに構成され、
    前記追跡データは、セグメント化された前記画像ボリューム及び前記SFM深度マップと組み合わせられて前記内視鏡イメージャの位置推定を提供する、請求項8~13のいずれか1項に記載の内視鏡システム。
  15. 前記プロセッサは、前記追跡データが前記セグメント化された画像ボリュームの表面を突破するように示された時に、前記セグメント化された画像ボリュームを変形させるようにさらに構成されている、請求項14に記載の内視鏡システム。
JP2022515013A 2019-09-23 2020-08-27 内視鏡ビデオの強化、定量化及び外科的誘導のためのシステム及び方法 Active JP7206438B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023000266A JP2023038233A (ja) 2019-09-23 2023-01-04 内視鏡ビデオの強化、定量化及び外科的誘導のためのシステム及び方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962904408P 2019-09-23 2019-09-23
US62/904,408 2019-09-23
PCT/US2020/048202 WO2021061335A1 (en) 2019-09-23 2020-08-27 System and method for endoscopic video enhancement, quantitation and surgical guidance

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023000266A Division JP2023038233A (ja) 2019-09-23 2023-01-04 内視鏡ビデオの強化、定量化及び外科的誘導のためのシステム及び方法

Publications (2)

Publication Number Publication Date
JP2022546610A JP2022546610A (ja) 2022-11-04
JP7206438B2 true JP7206438B2 (ja) 2023-01-17

Family

ID=72433040

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022515013A Active JP7206438B2 (ja) 2019-09-23 2020-08-27 内視鏡ビデオの強化、定量化及び外科的誘導のためのシステム及び方法
JP2023000266A Pending JP2023038233A (ja) 2019-09-23 2023-01-04 内視鏡ビデオの強化、定量化及び外科的誘導のためのシステム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023000266A Pending JP2023038233A (ja) 2019-09-23 2023-01-04 内視鏡ビデオの強化、定量化及び外科的誘導のためのシステム及び方法

Country Status (9)

Country Link
US (2) US11430097B2 (ja)
EP (2) EP4345733A2 (ja)
JP (2) JP7206438B2 (ja)
KR (2) KR102630074B1 (ja)
CN (1) CN114423355A (ja)
AU (2) AU2020352836B2 (ja)
CA (2) CA3232181A1 (ja)
NZ (1) NZ785155A (ja)
WO (1) WO2021061335A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021061335A1 (en) * 2019-09-23 2021-04-01 Boston Scientific Scimed, Inc. System and method for endoscopic video enhancement, quantitation and surgical guidance
US11918178B2 (en) * 2020-03-06 2024-03-05 Verily Life Sciences Llc Detecting deficient coverage in gastroenterological procedures
US11288771B2 (en) * 2020-04-29 2022-03-29 Adobe Inc. Texture hallucination for large-scale image super-resolution
TWI792381B (zh) * 2021-03-25 2023-02-11 鈺立微電子股份有限公司 影像擷取裝置及其深度資訊計算方法
US20220319031A1 (en) * 2021-03-31 2022-10-06 Auris Health, Inc. Vision-based 6dof camera pose estimation in bronchoscopy
CN113538522B (zh) * 2021-08-12 2022-08-12 广东工业大学 一种用于腹腔镜微创手术的器械视觉跟踪方法
CN115988151A (zh) * 2022-12-29 2023-04-18 南京图格医疗科技有限公司 一种使用低像素时钟实时处理视频的方法及系统
CN116211260B (zh) * 2023-05-09 2023-07-21 西南医科大学附属医院 一种基于变焦扫描的肾结石形态三维成像系统及方法
CN116958147B (zh) * 2023-09-21 2023-12-22 青岛美迪康数字工程有限公司 基于深度图像特征的目标区域确定方法、装置和设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7813538B2 (en) 2007-04-17 2010-10-12 University Of Washington Shadowing pipe mosaicing algorithms with application to esophageal endoscopy
TW201225001A (en) 2010-12-02 2012-06-16 Chung Shan Inst Of Science Construction method for three-dimensional image

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7381183B2 (en) * 2003-04-21 2008-06-03 Karl Storz Development Corp. Method for capturing and displaying endoscopic maps
US7420675B2 (en) * 2003-06-25 2008-09-02 The University Of Akron Multi-wavelength imaging system
JP4018679B2 (ja) 2004-08-24 2007-12-05 ザイオソフト株式会社 レンダリング処理方法、レンダリング処理プログラム、レンダリング処理装置
US8248414B2 (en) * 2006-09-18 2012-08-21 Stryker Corporation Multi-dimensional navigation of endoscopic video
JP4563421B2 (ja) 2007-05-28 2010-10-13 ザイオソフト株式会社 画像処理方法及び画像処理プログラム
JP2011139734A (ja) 2010-01-05 2011-07-21 Hoya Corp 内視鏡装置
US10231626B2 (en) * 2013-03-15 2019-03-19 The Regents Of The University Of California Imaging system and method for fluorescence guided surgery
JP6235921B2 (ja) * 2014-02-07 2017-11-22 国立大学法人広島大学 内視鏡画像診断支援システム
US9259231B2 (en) 2014-05-11 2016-02-16 Gyrus Acmi, Inc. Computer aided image-based enhanced intracorporeal lithotripsy
EP3304423A1 (en) * 2015-06-05 2018-04-11 Siemens Aktiengesellschaft Method and system for simultaneous scene parsing and model fusion for endoscopic and laparoscopic navigation
EP3103396B1 (en) * 2015-06-10 2018-10-24 Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt GmbH Device and method for hybrid optoacoustic tomography and ultrasonography
WO2017006708A1 (ja) 2015-07-06 2017-01-12 オリンパス株式会社 医療装置、医療画像生成方法及び医療画像生成プログラム
US20170281102A1 (en) * 2016-03-31 2017-10-05 Weng-Dah Ken Non-contact angle measuring apparatus, mission critical inspection apparatus, non-invasive diagnosis/treatment apparatus, method for filtering matter wave from a composite particle beam, non-invasive measuring apparatus, apparatus for generating a virtual space-time lattice, and fine atomic clock
EP3468668B1 (en) * 2017-05-30 2020-01-01 Brainlab AG Soft tissue tracking using physiologic volume rendering
JP7236689B2 (ja) 2018-03-05 2023-03-10 リオン株式会社 3次元形状データ作成システムの作動方法、及び3次元形状データ作成システム
DE112019003022T5 (de) * 2018-06-15 2021-03-18 Canon Kabushiki Kaisha Medizinische Bildverarbeitungsvorrichtung, medizinisches Bildverarbeitungsverfahren und Programm
CN109342861B (zh) * 2018-12-10 2020-12-22 哈尔滨工业大学 一种霍尔推力器周向辐条特性测量方法及系统
WO2021061335A1 (en) * 2019-09-23 2021-04-01 Boston Scientific Scimed, Inc. System and method for endoscopic video enhancement, quantitation and surgical guidance

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7813538B2 (en) 2007-04-17 2010-10-12 University Of Washington Shadowing pipe mosaicing algorithms with application to esophageal endoscopy
TW201225001A (en) 2010-12-02 2012-06-16 Chung Shan Inst Of Science Construction method for three-dimensional image

Also Published As

Publication number Publication date
US11954834B2 (en) 2024-04-09
US11430097B2 (en) 2022-08-30
US20210090226A1 (en) 2021-03-25
US20220366553A1 (en) 2022-11-17
JP2022546610A (ja) 2022-11-04
EP4035120B1 (en) 2024-03-27
CA3232181A1 (en) 2021-04-01
EP4345733A2 (en) 2024-04-03
AU2020352836B2 (en) 2023-05-25
CA3147447A1 (en) 2021-04-01
AU2020352836A1 (en) 2022-03-10
JP2023038233A (ja) 2023-03-16
CN114423355A (zh) 2022-04-29
AU2023214320A1 (en) 2023-08-31
KR20240017960A (ko) 2024-02-08
KR102630074B1 (ko) 2024-01-29
NZ785155A (en) 2024-03-22
KR20220051234A (ko) 2022-04-26
WO2021061335A1 (en) 2021-04-01
EP4035120A1 (en) 2022-08-03

Similar Documents

Publication Publication Date Title
JP7206438B2 (ja) 内視鏡ビデオの強化、定量化及び外科的誘導のためのシステム及び方法
Münzer et al. Content-based processing and analysis of endoscopic images and videos: A survey
JP5795599B2 (ja) 内視鏡手術のための画像統合ベースレジストレーション及びナビゲーション
US9750399B2 (en) Real-time depth estimation from monocular endoscope images
US11730562B2 (en) Systems and methods for imaging a patient
KR102196291B1 (ko) 분지형 해부학적 구조물 내에서의 의료 장치의 위치 결정
EP3463032B1 (en) Image-based fusion of endoscopic image and ultrasound images
Zhang et al. A markerless automatic deformable registration framework for augmented reality navigation of laparoscopy partial nephrectomy
JP2013517031A5 (ja)
AU2014201478A1 (en) Real time image guidance system
Pullens et al. A real-time target tracking algorithm for a robotic flexible endoscopy platform
WO2023146902A1 (en) Two-phase instrument guidance for accurate endoscopic surgical procedures
de Andrade et al. CHAPTER OUTLINE Introduction, 299 Endoscopic Visualization: Historical Context, 299 Defining Optimal Imaging Characteristics, 299 Illumination, 299
ten Brink Automatic segmentation using the DoubleU-net and 3D visualisation of non-rigid Da Vinci surgical instruments
Bergeles et al. Multi-view stereo and advanced navigation for transanal endoscopic microsurgery
Zenbutsu et al. Verification of ultrasonic image fusion technique for laparoscopic surgery
CN117100393A (zh) 一种用于视频辅助外科手术靶标定位的方法、系统和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230104

R150 Certificate of patent or registration of utility model

Ref document number: 7206438

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150