JP7301573B2 - 静的仮想カメラの配置方法 - Google Patents

静的仮想カメラの配置方法 Download PDF

Info

Publication number
JP7301573B2
JP7301573B2 JP2019062665A JP2019062665A JP7301573B2 JP 7301573 B2 JP7301573 B2 JP 7301573B2 JP 2019062665 A JP2019062665 A JP 2019062665A JP 2019062665 A JP2019062665 A JP 2019062665A JP 7301573 B2 JP7301573 B2 JP 7301573B2
Authority
JP
Japan
Prior art keywords
body cavity
image data
ray
receiving
seed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019062665A
Other languages
English (en)
Other versions
JP2019171070A (ja
Inventor
バディム・グリナー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Biosense Webster Israel Ltd
Original Assignee
Biosense Webster Israel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Biosense Webster Israel Ltd filed Critical Biosense Webster Israel Ltd
Publication of JP2019171070A publication Critical patent/JP2019171070A/ja
Application granted granted Critical
Publication of JP7301573B2 publication Critical patent/JP7301573B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)
  • Image Generation (AREA)

Description

(関連出願の相互参照)
本出願は、本出願と同日に出願された発明の名称が「Locating an Opening of a Body Cavity」である米国特許出願に関し、当該出願を本明細書に参照により援用するものである。
(発明の分野)
本発明は、一般的には画像表示に関し、具体的には、画像内の選択された視点から3次元画像を表示するための静止仮想カメラの自動配置に関する。
医療手技の中には、患者の3次元(3D)画像を用いて行われるものがある。医療手技に使用される3D画像の1つの例として、異なる角度から撮影された複数のX線測定値を合成して患者の特定の領域の断面の仮想「スライス」を生成することにより、医師が手術を行う必要なく患者の体内を見ることを可能とするコンピュータ断層撮影(CT)スキャンがある。
ガイガー(Geiger)に付与された米国特許出願第2003/0152897号は、構造体の内腔内の仮想内視鏡の視点をナビゲートすることによる、仮想内視鏡手術中の自動ナビゲーションの方法について記載している。この方法は、仮想内視鏡の初期視点を判定することと、初期視点から内腔までの最長の光線を判定することと、を含む。
ゴールディー(Gauldie)らに付与された米国特許出願第2008/0118117号は、生体構造内の内腔の仮想内視鏡画像をレンダリングするための仮想カメラを方向付けるための方法について記載している。この方法は、レイキャスティングを用いてカメラ位置から壁までの最長光線を見つけることにより内腔内の壁を回避する適当な経路を計算することを含む。
グラハム(Graham)らに付与された米国特許出願第2007/0052724号は、3次元体積データ群により表現された内腔を有する生物学的物体に沿ってナビゲートするための方法について記載している。この方法は、シーケンス内で接続可能な複数のナビゲーションセグメントを生成することと、セグメントの開始点から物体の壁まで外側に向けて光線群をキャスティングすることで各セグメントのそれぞれの方向を判定することと、各群について平均光線長を計算することと、を含む。
上記説明は、当該分野における関連技術の一般的概論として記載したものであって、この説明に含まれる何らの情報が本特許出願に対する先行技術を構成することを容認するものと解釈するべきではない。
参照により本特許出願に援用される文献は、これらの援用文献において、いずれかの用語が本明細書において明示的又は暗示的になされた定義と矛盾して定義されている場合には、本明細書における定義のみを考慮するものとする点を除き、本出願の一部とみなすものとする。
本発明の一実施形態によれば、画像をレンダリングするための方法であって、第2の体腔に通じる開口部を有する第1の体腔を含む、生体内の3次元(3D)領域に関する3D画像データを受信することと、第1の体腔内の、第2の体腔に通じる開口部に近接するシード位置の座標を受信することと、3D画像データを処理して、シード位置から異なるそれぞれの角度で放射される複数の光線の各光線について、シード位置から、光線が第2の体腔内の表面組織と交差するそれぞれの交点までの、それぞれの距離を特定することと、複数の光線のうち、シード位置からそれぞれの交点までの距離が最大である光線を選択することと、3D画像データに基づいて、選択された光線上の位置から見た開口部を含む画像を、ディスプレイ画面上にレンダリングすることと、を含む、方法が提供される。
一部の実施形態では、3D画像データを受信することは、コンピュータ断層撮影スキャンを受信することを含む。更なる実施形態では、シード位置の座標を受信することは、入力装置から1つ以上の信号を受信することを含む。更なる実施形態では、シード位置の座標を受信することは、3D画像データを分析してシード位置の座標を判定することを含む。
更なる実施形態では、3D画像データを処理することは、第2の体腔に向けて光線を生成することを含む。一部の実施形態では、画像をレンダリングすることは、3D画像データの二次元スライスを表示することを含む。更なる実施形態では、第1の体腔は副鼻腔通路を含んでよく、第2の体腔は副鼻腔を含んでよく、開口部は副鼻腔開口部を含んでよい。更なる実施形態では、選択された光線上の位置は、選択された光線の交点を含む。
本発明の一実施形態によれば、画像をレンダリングするための装置であって、ディスプレイ画面と、プロセッサであって、第2の体腔に通じる開口部を有する第1の体腔を含む、生体内の3次元(3D)領域に関する3D画像データを受信し、第1の体腔内の、第2の体腔に通じる開口部に近接するシード位置の座標を受信し、3D画像データを処理して、シード位置から異なるそれぞれの角度で放射される複数の光線の各光線について、シード位置から、光線が第2の体腔内の表面組織と交差するそれぞれの交点までの、それぞれの距離を特定し、複数の光線のうち、シード位置からそれぞれの交点までの距離が最大である光線を選択し、3D画像データに基づいて、選択された光線上の位置から見た開口部を含む画像を、ディスプレイ画面上にレンダリングするように構成された、プロセッサと、を備える、装置が提供される。
本発明の一実施形態によれば、プログラム命令が格納された非一時的なコンピュータ可読媒体を含むコンピュータソフトウェア製品であって、命令は、コンピュータによって読み込まれると、コンピュータに、第2の体腔に通じる開口部を有する第1の体腔を含む、生体内の3次元(3D)領域に関する3D画像データを受信させ、第1の体腔内の、第2の体腔に通じる開口部に近接するシード位置の座標を受信させ、3D画像データを処理して、シード位置から異なるそれぞれの角度で放射される複数の光線の各光線について、シード位置から、光線が第2の体腔内の表面組織と交差するそれぞれの交点までの、それぞれの距離を特定させ、複数の光線のうち、シード位置からそれぞれの交点までの距離が最大である光線を選択させ、3D画像データに基づいて、選択された光線上の位置から見た開口部を含む画像を、ディスプレイ画面上にレンダリングさせる、コンピュータソフトウェア製品が提供される。
本明細書で、本開示をあくまで一例として添付図面を参照しつつ説明する。
本発明の一実施形態に係る、患者の体内に静的仮想カメラを自動的に配置するように構成された3次元(3D)医療用イメージングシステムの概略描図である。 本発明の一実施形態に係る、患者の体腔内に静的仮想カメラを配置する方法を概略的に示すフロー図である。 本発明の一実施形態に係る、患者の副鼻腔及び副鼻腔通路の2次元画像を示す概略描図である。 本発明の一実施形態に係る、副鼻腔内に配置された静的仮想カメラを含む画像の概略描図である。
概説
コンピュータ断層撮影(CT)画像などの3次元(3D)画像を用いることで、医師が医療手技の前又はその間に患者の体内の1つ以上の体腔を見る助けとすることができる。かかる3D画像は、体腔を異なる視点から見ることを可能にする。これらの視点はまた、患者の体内の異なる位置に配置することが可能な「仮想カメラ」と呼ばれる場合もある。
一部の耳鼻咽喉(ENT)処置では、ガイドワイヤをナビゲートして狭い副鼻腔開口部に通すことを伴う。これらの処置の前又はその間に、狭い開口部を観察することができる位置に医師が仮想カメラを正確に配置することは困難をともない得る(すなわち、ガイドワイヤを開口部内に進める間に医師に視覚的ガイドを与えるため)。この困難さの理由としては、以下が挙げられる。すなわち、
・副鼻腔開口部は、通常、小さく、かつ/又は狭い。
・使用されるCT画像が2次元(2D)のスライス/投影であるのに対して、仮想カメラは3D座標系内に配置される必要がある。
・医師は、通常、カメラの位置及び向きを調整するための時間がほとんどない。
本発明の実施形態は、患者の体内に仮想カメラを自動的に配置するための方法及びシステムを提供することにより、仮想カメラの位置の視点から画像をレンダリングすることを可能とする。以下に述べるように、第2の体腔に通じる開口部を有する第1の体腔を有する生体内の3次元(3D)領域に関する3D画像データを受信する。3D画像データを受信した後、第1の体腔内の、第2の体腔に通じる開口部に近接するシード位置の座標を受信し、3D画像データを処理して、シード位置から異なるそれぞれの角度で放射される複数の光線の各光線について、シード位置から、光線が第2の体腔内の表面組織と交差するそれぞれの交点までの、それぞれの距離を特定する。複数の光線のうち、シード位置からそれぞれの交点までの距離が最大である光線を選択し、3D画像データに基づいて、選択された光線上の位置から見た開口部を含む画像がディスプレイ画面上にレンダリングされる。
システムの説明
図1は、本発明の一実施形態に係る、自動静止カメラ配置を可能とするように構成された医療用イメージングシステム20の概略描図を示している。医療用イメージングシステム20は、コンピュータ断層撮影(CT)スキャナ22及び制御コンソール24を備えている。本明細書に述べられる実施形態では、医療用イメージングシステム20は診断又は治療処置の目的で使用されるものと想定される。
患者26に対して侵襲性医療処置を行うのに先立って、コンピュータ断層撮影スキャナ22は患者の内腔(例えば、鼻腔又は副鼻腔)の画像データを含む電気信号を生成し、生成された画像データを制御コンソール24に送信する。コンピュータ断層撮影スキャナ22は、X軸30、Y軸32、及びZ軸34を含む画像座標系28内で画像データを生成する。X軸、Y軸、及びZ軸は一般的には、患者26の正中面、冠状面、及び横断面の交線に平行である。
制御コンソール24は、プロセッサ36、メモリ38、及び入出力(I/O)通信インターフェース40を備えている。動作中、プロセッサ36は、受信した画像データを使用して、ディスプレイ画面44に画像42を表示する。メモリ38は画像データを格納し、I/O通信インターフェース40は、制御コンソールが有線接続46を介してCTスキャナ22から信号を転送し、かつ/又はCTスキャナ22に信号を転送することを可能にする。
ディスプレイ44は、例として、液晶ディスプレイ、発光ダイオードディスプレイ、有機発光ダイオードディスプレイ又はプラズマディスプレイなどのフラットパネルディスプレイを含むものと想定される。しかしながら、他のディスプレイ装置もまた、本発明の実施形態を実施するうえで使用することができる。一部の実施形態では、ディスプレイ44は、画像42を表示するのに加えて、操作者(図示せず)からの入力を受け付けるように構成することができるタッチスクリーンを備えてもよい。
一部の実施形態では、操作者(本明細書では医療専門家とも呼ばれる)は、典型的には、1つ以上の入力装置48を使用して、ディスプレイ44上のX軸、Y軸、又はZ軸に直交するスライスとして画像を表示することによって、画像データを操作することができる。ディスプレイ44がタッチスクリーンディスプレイを含む実施形態では、操作者は、タッチスクリーンディスプレイを介して画像データ及び特定の画像スライスを操作することができる。
プロセッサ36は、典型的には、CTスキャナ22から信号を受信し、制御コンソール24のその他の構成要素を制御するのに適したフロントエンド回路及び追加のインターフェース回路を備えた汎用コンピュータを備えている。プロセッサ36は、本明細書に述べられる機能を実施するために、ソフトウェアにプログラムされていてもよい。このソフトウェアは、例えばネットワークを介して電子的形態で制御コンソール24にダウンロードされてもよく、又は光学的、磁気的、若しくは電子的記録媒体などの非一時的な有形媒体上に与えられてもよい。あるいは、プロセッサ44の機能の一部又は全てを、専用の、又はプログラム可能なデジタルハードウェア要素によって実行してもよい。
静的仮想カメラ配置
図2は、患者26の体腔内に仮想カメラを配置する方法を概略的に示すフロー図であり、図3は、本発明の一実施形態に係る、副鼻腔通路70(本明細書では患者の第1の体腔とも呼ばれる)及び副鼻腔72(本明細書では患者の第2の体腔とも呼ばれる)を含む特定の画像スライスの概略描図である。第1の受信ステップ50において、プロセッサ36は、患者26の3D領域74から3D画像データを受信する。この3D領域は、副鼻腔72に通じる開口部76(本明細書では、副鼻腔と副鼻腔通路との間の副鼻腔開口部とも呼ばれる)を有する副鼻腔通路70を含んでいる。一部の実施形態では、プロセッサ36は、CTスキャナ22から3D画像データを受信する。
第2の受信ステップ52において、プロセッサ36は、開口部76に近接する副鼻腔通路70内のシード位置78を示す入力を受信する。一実施形態では、医療専門家は、入力装置48を操作してシード位置を選択し、プロセッサ36は入力装置からの入力を受信する。別の実施形態では、プロセッサは、3D画像データを分析してシード位置78を特定する。例えば、プロセッサ36は、本明細書で上述した米国特許出願、「Locating an Opening of a Body Cavity」に記載の成長球アルゴリズム(growing spheres algorithm)を使用することができる。
生成ステップ54において、プロセッサ36は、副鼻腔72に向かって、異なるそれぞれの角度82(すなわち光線間の)のシード位置から放射される複数の光線80を生成し、処理ステップ56において、プロセッサは3D画像データを処理し、光線80が、副鼻腔72内の表面組織88と交差するそれぞれの交点86までの、それぞれの距離84を特定する。図3では、光線80、角度82及び交点86は、光線が光線80A~80Eを含み、角度が角度82A~82Dを含み、交点86が交点86A~86Eを含むように、識別番号に文字を付与することによって区別することができる。図3は、視覚的に単純化する目的で、シード位置78と交点86Aとの間の距離84A、及びシード位置と交点86Eとの間の距離84Eを示しているが、交点のそれぞれはシード位置までの対応する距離84を有している。
選択ステップ58において、プロセッサ36は最大の長さを有する光線を選択する。図3に示す例では、光線80Cが最大の長さを有している。
配置ステップ60において、プロセッサ36は、最大の長さ(すなわち交点86C)を有する光線上の位置に仮想カメラを配置する。いくつかの実施形態では、この位置は、最大の長さを有する選択された光線の交点を含む。仮想カメラの配置の仕方を、図4を参照して以下に説明する。
最後に、レンダリングステップ62において、プロセッサ36は、ステップ50で受信した3D画像データから生成された画像42を表示画面44上にレンダリングする。画像42は、選択された光線の交点(すなわち交点86C)から見た開口部76を含み、方法は終了する。画像42は、典型的には2次元(2D)画像、あるいは複数の2D画像から形成された3D画像である。
図4は、本発明の一実施形態に係る、交点86Cに配置された仮想カメラ90の概略描図である。仮想カメラ90を交点86Cに配置することにより、プロセッサ36は3D画像データを処理して、交点86Cを含む視点から見た開口部76のビューを与える画像をディスプレイ画面44上に表示することができる。
特定の医療手技では、医療専門家は、ガイドワイヤ92の遠位端94を、開口部76から副鼻腔72内に挿入する。ガイドワイヤ92を配置するには、医療専門家は、最初に遠位端94を副鼻腔通路70内の開口部76付近に挿入し、次いで開口部76のビューを(すなわち画像42内の仮想カメラ90から見た)、遠位端を、開口部を介して副鼻腔72内に通すためのリアルタイムの視覚ガイドとして利用することができる。
上に述べた実施形態は例として挙げたものであり、本発明は上記に具体的に示し、説明したものに限定されない点は理解されよう。むしろ、本発明の範囲は、本明細書の上文に記載された様々な特徴の組み合わせ及び部分的組み合わせの両方、並びに前述の説明を一読すると当業者が想起すると思われる、先行技術に開示されていないそれらの変形及び改変を含む。
〔実施の態様〕
(1) 画像をレンダリングするための方法であって、
第2の体腔に通じる開口部を有する第1の体腔を含む、生体内の3次元(3D)領域に関する3D画像データを受信することと、
前記第1の体腔内の、前記第2の体腔に通じる前記開口部に近接するシード位置の座標を受信することと、
前記3D画像データを処理して、前記シード位置から異なるそれぞれの角度で放射される複数の光線の各光線について、前記シード位置から、前記光線が前記第2の体腔内の表面組織と交差するそれぞれの交点までの、それぞれの距離を特定することと、
前記複数の光線のうち、前記シード位置から前記それぞれの交点までの距離が最大である前記光線を選択することと、
前記3D画像データに基づいて、前記選択された光線上の位置から見た前記開口部を含む画像を、ディスプレイ画面上にレンダリングすることと、を含む、方法。
(2) 前記3D画像データを受信することは、コンピュータ断層撮影スキャンを受信することを含む、実施態様1に記載の方法。
(3) 前記シード位置の前記座標を受信することは、入力装置から1つ以上の信号を受信することを含む、実施態様1に記載の方法。
(4) 前記シード位置の前記座標を受信することは、前記3D画像データを分析して前記シード位置の前記座標を判定することを含む、実施態様1に記載の方法。
(5) 前記3D画像データを処理することは、前記第2の体腔に向けて前記光線を生成することを含む、実施態様1に記載の方法。
(6) 前記画像をレンダリングすることは、前記3D画像データの二次元スライスを表示することを含む、実施態様1に記載の方法。
(7) 前記第1の体腔は副鼻腔通路を含み、前記第2の体腔は副鼻腔を含み、前記開口部は、前記副鼻腔通路と前記副鼻腔開口部との間の副鼻腔開口部を含む、実施態様1に記載の方法。
(8) 前記選択された光線上の前記位置は、前記選択された光線の前記交点を含む、実施態様1に記載の方法。
(9) 画像をレンダリングするための装置であって、
ディスプレイ画面と、
プロセッサであって、
第2の体腔に通じる開口部を有する第1の体腔を含む、生体内の3次元(3D)領域に関する3D画像データを受信し、
前記第1の体腔内の、前記第2の体腔に通じる前記開口部に近接するシード位置の座標を受信し、
前記3D画像データを処理して、前記シード位置から異なるそれぞれの角度で放射される複数の光線の各光線について、前記シード位置から、前記光線が前記第2の体腔内の表面組織と交差するそれぞれの交点までの、それぞれの距離を特定し、
前記複数の光線のうち、前記シード位置から前記それぞれの交点までの距離が最大である前記光線を選択し、
前記3D画像データに基づいて、前記選択された光線上の位置から見た前記開口部を含む画像を、前記ディスプレイ画面上にレンダリングするように構成された、プロセッサと、を備える、装置。
(10) 前記プロセッサは、コンピュータ断層撮影スキャンを受信することにより、前記3D画像データを受信するように構成されている、実施態様9に記載の装置。
(11) 前記プロセッサは、入力装置から1つ以上の信号を受信することにより、前記シード位置の前記座標を受信するように構成されている、実施態様9に記載の装置。
(12) 前記プロセッサは、前記3D画像データを分析して前記シード位置の前記座標を判定することにより、前記シード位置の前記座標を受信するように構成されている、実施態様9に記載の装置。
(13) 前記プロセッサは、前記第2の体腔に向けて前記光線を生成することにより、前記3D画像データを処理するように構成されている、実施態様9に記載の装置。
(14) 前記プロセッサは、前記3D画像データの二次元スライスを表示することにより、前記画像をレンダリングするように構成されている、実施態様9に記載の装置。
(15) 前記第1の体腔は副鼻腔通路を含み、前記第2の体腔は副鼻腔を含み、前記開口部は、前記副鼻腔通路と前記副鼻腔開口部との間の副鼻腔開口部を含む、実施態様9に記載の装置。
(16) 前記選択された光線上の前記位置は、前記選択された光線の前記交点を含む、実施態様9に記載の装置。
(17) プログラム命令が格納された非一時的なコンピュータ可読媒体を含むコンピュータソフトウェア製品であって、前記命令は、コンピュータによって読み込まれると、前記コンピュータに、
第2の体腔に通じる開口部を有する第1の体腔を含む、生体内の3次元(3D)領域に関する3D画像データを受信させ、
前記第1の体腔内の、前記第2の体腔に通じる前記開口部に近接するシード位置の座標を受信させ、
前記3D画像データを処理して、前記シード位置から異なるそれぞれの角度で放射される複数の光線の各光線について、前記シード位置から、前記光線が前記第2の体腔内の表面組織と交差するそれぞれの交点までの、それぞれの距離を特定させ、
前記複数の光線のうち、前記シード位置から前記それぞれの交点までの距離が最大である前記光線を選択させ、
前記3D画像データに基づいて、前記選択された光線上の位置から見た前記開口部を含む画像を、ディスプレイ画面上にレンダリングさせる、コンピュータソフトウェア製品。

Claims (17)

  1. 画像をレンダリングするための方法であって、
    第2の体腔に通じる開口部を有する第1の体腔を含む、生体内の3次元(3D)領域に関する3D画像データを受信することと、
    前記第1の体腔内の、前記第2の体腔に通じる前記開口部に近接するシード位置の座標を受信することと、
    前記3D画像データを処理して、前記シード位置から異なるそれぞれの角度で放射される複数の光線の各光線について、前記シード位置から、前記光線が前記第2の体腔内の表面組織と交差するそれぞれの交点までの、それぞれの距離を特定することと、
    前記複数の光線のうち、前記シード位置から前記それぞれの交点までの距離が最大である前記光線を選択することと、
    前記3D画像データに基づいて、選択された前記光線上の位置から見た前記開口部を含む画像を、ディスプレイ画面上にレンダリングすることと、を含む、方法。
  2. 前記3D画像データを受信することは、コンピュータ断層撮影スキャンを受信することを含む、請求項1に記載の方法。
  3. 前記シード位置の前記座標を受信することは、入力装置から1つ以上の信号を受信することを含む、請求項1に記載の方法。
  4. 前記シード位置の前記座標を受信することは、前記3D画像データを分析して前記シード位置の前記座標を判定することを含む、請求項1に記載の方法。
  5. 前記3D画像データを処理することは、前記第2の体腔に向けて前記光線を生成することを含む、請求項1に記載の方法。
  6. 前記画像をレンダリングすることは、前記3D画像データの二次元スライスを表示することを含む、請求項1に記載の方法。
  7. 前記第1の体腔は副鼻腔通路を含み、前記第2の体腔は副鼻腔を含み、前記開口部は、前記副鼻腔通路と前記副鼻腔との間の副鼻腔開口部を含む、請求項1に記載の方法。
  8. 選択された前記光線上の前記位置は、選択された前記光線の前記交点を含む、請求項1に記載の方法。
  9. 画像をレンダリングするための装置であって、
    ディスプレイ画面と、
    プロセッサであって、
    第2の体腔に通じる開口部を有する第1の体腔を含む、生体内の3次元(3D)領域に関する3D画像データを受信し、
    前記第1の体腔内の、前記第2の体腔に通じる前記開口部に近接するシード位置の座標を受信し、
    前記3D画像データを処理して、前記シード位置から異なるそれぞれの角度で放射される複数の光線の各光線について、前記シード位置から、前記光線が前記第2の体腔内の表面組織と交差するそれぞれの交点までの、それぞれの距離を特定し、
    前記複数の光線のうち、前記シード位置から前記それぞれの交点までの距離が最大である前記光線を選択し、
    前記3D画像データに基づいて、選択された前記光線上の位置から見た前記開口部を含む画像を、前記ディスプレイ画面上にレンダリングするように構成された、プロセッサと、を備える、装置。
  10. 前記プロセッサは、コンピュータ断層撮影スキャンを受信することにより、前記3D画像データを受信するように構成されている、請求項9に記載の装置。
  11. 前記プロセッサは、入力装置から1つ以上の信号を受信することにより、前記シード位置の前記座標を受信するように構成されている、請求項9に記載の装置。
  12. 前記プロセッサは、前記3D画像データを分析して前記シード位置の前記座標を判定することにより、前記シード位置の前記座標を受信するように構成されている、請求項9に記載の装置。
  13. 前記プロセッサは、前記第2の体腔に向けて前記光線を生成することにより、前記3D画像データを処理するように構成されている、請求項9に記載の装置。
  14. 前記プロセッサは、前記3D画像データの二次元スライスを表示することにより、前記画像をレンダリングするように構成されている、請求項9に記載の装置。
  15. 前記第1の体腔は副鼻腔通路を含み、前記第2の体腔は副鼻腔を含み、前記開口部は、前記副鼻腔通路と前記副鼻腔との間の副鼻腔開口部を含む、請求項9に記載の装置。
  16. 選択された前記光線上の前記位置は、選択された前記光線の前記交点を含む、請求項9に記載の装置。
  17. プログラム命令が格納された非一時的なコンピュータ可読媒体を含むコンピュータソフトウェア製品であって、前記命令は、コンピュータによって読み込まれると、前記コンピュータに、
    第2の体腔に通じる開口部を有する第1の体腔を含む、生体内の3次元(3D)領域に関する3D画像データを受信させ、
    前記第1の体腔内の、前記第2の体腔に通じる前記開口部に近接するシード位置の座標を受信させ、
    前記3D画像データを処理して、前記シード位置から異なるそれぞれの角度で放射される複数の光線の各光線について、前記シード位置から、前記光線が前記第2の体腔内の表面組織と交差するそれぞれの交点までの、それぞれの距離を特定させ、
    前記複数の光線のうち、前記シード位置から前記それぞれの交点までの距離が最大である前記光線を選択させ、
    前記3D画像データに基づいて、選択された前記光線上の位置から見た前記開口部を含む画像を、ディスプレイ画面上にレンダリングさせる、コンピュータソフトウェア製品。
JP2019062665A 2018-03-29 2019-03-28 静的仮想カメラの配置方法 Active JP7301573B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/940,593 US11132830B2 (en) 2018-03-29 2018-03-29 Static virtual camera positioning
US15/940,593 2018-03-29

Publications (2)

Publication Number Publication Date
JP2019171070A JP2019171070A (ja) 2019-10-10
JP7301573B2 true JP7301573B2 (ja) 2023-07-03

Family

ID=66001041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019062665A Active JP7301573B2 (ja) 2018-03-29 2019-03-28 静的仮想カメラの配置方法

Country Status (7)

Country Link
US (1) US11132830B2 (ja)
EP (1) EP3547263A1 (ja)
JP (1) JP7301573B2 (ja)
CN (1) CN110313991B (ja)
AU (1) AU2019201973A1 (ja)
CA (1) CA3037634A1 (ja)
IL (1) IL265500B (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050107695A1 (en) 2003-06-25 2005-05-19 Kiraly Atilla P. System and method for polyp visualization
JP2005514086A (ja) 2001-12-20 2005-05-19 シーメンス コーポレイト リサーチ インコーポレイテツド 仮想内視鏡検査のための自動ナビゲーション
US20070052724A1 (en) 2005-09-02 2007-03-08 Alan Graham Method for navigating a virtual camera along a biological object with a lumen
JP2010264232A (ja) 2009-04-16 2010-11-25 Fujifilm Corp 診断支援装置、診断支援プログラムおよび診断支援方法
US20140330115A1 (en) 2011-07-21 2014-11-06 Carrestream Health, Inc. System for paranasal sinus and nasal cavity analysis
JP2017113390A (ja) 2015-12-25 2017-06-29 キヤノンマーケティングジャパン株式会社 医用画像処理装置、その制御方法、及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5611025A (en) * 1994-11-23 1997-03-11 General Electric Company Virtual internal cavity inspection system
US7304644B2 (en) * 2003-03-12 2007-12-04 Siemens Medical Solutions Usa, Inc. System and method for performing a virtual endoscopy
US20050197558A1 (en) * 2004-03-04 2005-09-08 Williams James P. System and method for performing a virtual endoscopy in a branching structure
ATE484811T1 (de) * 2004-06-23 2010-10-15 Koninkl Philips Electronics Nv Virtuelle endoskopie
US7853058B2 (en) 2006-11-22 2010-12-14 Toshiba Medical Visualization Systems Europe, Limited Determining a viewpoint for navigating a virtual camera through a biological object with a lumen
JP5576739B2 (ja) * 2010-08-04 2014-08-20 オリンパス株式会社 画像処理装置、画像処理方法、撮像装置及びプログラム
WO2012090197A1 (en) * 2010-12-30 2012-07-05 Given Imaging Ltd. System and method for automatic navigation of a capsule based on image stream captured in-vivo
US9256940B2 (en) * 2011-09-13 2016-02-09 Koninklijke Philips N.V. Vascular outlining with ostia visualization
ITMI20121156A1 (it) * 2012-06-29 2013-12-30 Consiglio Nazionale Ricerche Metodo di elaborazione di immagini di tomografia a coerenza ottica
US9775578B2 (en) * 2013-08-12 2017-10-03 Biosense Webster (Israel) Ltd. Unmapped region visualization
US10569060B2 (en) * 2014-07-09 2020-02-25 Acclarent, Inc. Guide catheters with guidewire deflection features
GB201501157D0 (en) * 2015-01-23 2015-03-11 Scopis Gmbh Instrument guidance system for sinus surgery
CN112716521B (zh) * 2014-11-18 2024-03-01 C·R·巴德公司 具有自动图像呈现的超声成像系统
US9824290B2 (en) * 2015-02-10 2017-11-21 nearmap australia pty ltd. Corridor capture
US10163204B2 (en) * 2015-02-13 2018-12-25 St. Jude Medical International Holding S.À R.L. Tracking-based 3D model enhancement

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005514086A (ja) 2001-12-20 2005-05-19 シーメンス コーポレイト リサーチ インコーポレイテツド 仮想内視鏡検査のための自動ナビゲーション
US20050107695A1 (en) 2003-06-25 2005-05-19 Kiraly Atilla P. System and method for polyp visualization
US20070052724A1 (en) 2005-09-02 2007-03-08 Alan Graham Method for navigating a virtual camera along a biological object with a lumen
JP2010264232A (ja) 2009-04-16 2010-11-25 Fujifilm Corp 診断支援装置、診断支援プログラムおよび診断支援方法
US20140330115A1 (en) 2011-07-21 2014-11-06 Carrestream Health, Inc. System for paranasal sinus and nasal cavity analysis
JP2017113390A (ja) 2015-12-25 2017-06-29 キヤノンマーケティングジャパン株式会社 医用画像処理装置、その制御方法、及びプログラム

Also Published As

Publication number Publication date
CA3037634A1 (en) 2019-09-29
EP3547263A1 (en) 2019-10-02
US11132830B2 (en) 2021-09-28
JP2019171070A (ja) 2019-10-10
IL265500B (en) 2022-02-01
CN110313991A (zh) 2019-10-11
US20190304167A1 (en) 2019-10-03
CN110313991B (zh) 2024-04-16
IL265500A (en) 2019-05-30
AU2019201973A1 (en) 2019-10-17

Similar Documents

Publication Publication Date Title
CN108836478B (zh) 侵入式手术在狭窄通道中的内窥镜视图
JP5837261B2 (ja) マルチカメラ装置追跡
US20140142426A1 (en) Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
EP3173023B1 (en) Locally applied transparency for a ct image
KR20170026163A (ko) 역추적 미로 문제 해법을 사용한 자동 ent 수술 사전계획
US20230039532A1 (en) 2d pathfinder visualization
US20230113035A1 (en) 3d pathfinder visualization
JP7301573B2 (ja) 静的仮想カメラの配置方法
JP7172086B2 (ja) 手術シミュレーション装置及び手術シミュレーションプログラム
JP7289691B2 (ja) 身体の空洞の開口部の位置の特定
US10438368B2 (en) Apparatus, method, and system for calculating diameters of three-dimensional medical imaging subject

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230621

R150 Certificate of patent or registration of utility model

Ref document number: 7301573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150