JP2022506708A - 光学追跡のためのシステムおよび方法 - Google Patents
光学追跡のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2022506708A JP2022506708A JP2021524264A JP2021524264A JP2022506708A JP 2022506708 A JP2022506708 A JP 2022506708A JP 2021524264 A JP2021524264 A JP 2021524264A JP 2021524264 A JP2021524264 A JP 2021524264A JP 2022506708 A JP2022506708 A JP 2022506708A
- Authority
- JP
- Japan
- Prior art keywords
- biological
- image
- particular patient
- computer system
- tissue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/031—Recognition of patterns in medical or anatomical images of internal organs
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radiology & Medical Imaging (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Gynecology & Obstetrics (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Urology & Nephrology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Processing Or Creating Images (AREA)
Abstract
特定の患者の生体組織の撮影された医用画像を使用して生成された動的3D医用モデルからの生体組織画像を、特定の患者の生体組織のライブビデオフィードと整合し、マッチングさせる複数の方法、およびそのような方法を実施するためのコンピュータシステム。【選択図】図1
Description
関連出願の相互参照
本出願は、参照により本明細書に組み込まれる、2018年11月8日に出願された米国仮特許出願第62/757,339号の利益を主張する。
本出願は、参照により本明細書に組み込まれる、2018年11月8日に出願された米国仮特許出願第62/757,339号の利益を主張する。
動脈瘤の治療などの複雑な手術を行うとき、処置の効率は非常に重要であり、所望の結果を達成するために、患者固有の解剖学的構造に基づく詳細な計画が基本である。手術前の準備を容易にするために、CT、超音波、MRI、およびX線などの医用イメージングを一般的に使用して、患者の解剖学的構造のモデルが開発される。これらのモデルは、医師または他のユーザが外科的処置の準備のために使用することができる。
さらに、精度および効率を向上させるために、医師は、手術室内での実際の外科的処置中に使用するために、医用イメージングを活用することを望む場合がある。外科的処置中に医師を支援するために、医用画像またはモデルは、一般的に、患者の身体的解剖学的構造に整合され、または相関付けられる。その後、患者の解剖学的構造に対する動き(すなわち、医師によって制御されるツールによる)は、モデルのビューまたはモデル内の位置が解剖学的構造のビューまたは解剖学的構造内の位置と位置合わせされるように、モデルによってシミュレートまたは追跡される。そのような追跡は、一般的に、手術室内の外部追跡システムまたは機構によって提供されるデータによって可能にされる。しかしながら、そのような外部追跡システムは、常に利用可能であるとは限らない。例えば、外部追跡システムは、高価であり、時間がかかり、実施するのが実用的でない場合がある。
限定はしないが、特定の患者の生体組織の画像を追跡するための方法を含む、複数の例示的な実施形態が提供され、この方法は、
特定の患者の生体組織の1つ以上の3D医用画像を生成するステップと、
特定の患者の生体組織の3D医用画像をコンピュータシステムに記憶するステップと、
特定の患者の生体組織のライブ画像を撮るステップと、
(1)特定の患者の生体組織の記憶された医用画像、または(2)特定の患者の生体組織のライブ画像における少なくとも1つの生物学的構造を識別するステップと、
識別された少なくとも1つの生物学的構造を、(1)特定の患者の生体組織のライブ画像の対応する構造、または(2)特定の患者の生体組織の記憶された医用画像の対応する構造とそれぞれマッチングさせるステップと、
前記マッチングに応答して、コンピュータシステムが、記憶された医用画像のうちの1つ以上を、特定の患者の同じ生体組織を表すものとしてライブビデオ画像に整合および/または位置合わせするステップと、を含む。
特定の患者の生体組織の画像を追跡するための方法も提供され、この方法は、
特定の患者の生体組織の1つ以上の3D医用画像を生成するステップと、
特定の患者の生体組織の3D医用画像をコンピュータシステムに記憶するステップと、
コンピュータシステムが、特定の患者の生体組織の記憶された医用画像内の複数の第1の生物学的構造を識別するステップと、
特定の患者の生体組織のライブ画像を撮るステップと、
コンピュータシステムが、特定の患者の生体組織のライブ画像内の複数の第2の生物学的構造を識別するステップと、
コンピュータシステムが、識別された第1の生物学的構造のうちの1つ以上を、第2の生物学的構造のうちの1つ以上と自動的にマッチングさせるステップと、
前記マッチングに応答して、コンピュータシステムが、記憶された医用画像のうちの1つ以上を、特定の患者の同じ生体組織を表すものとしてライブビデオ画像に整合および/または位置合わせするステップと、を含む。
またさらに、特定の患者の生体組織の画像を追跡するための方法が提供され、この方法は、
1つ以上の撮像デバイスを使用して特定の患者の生体組織の組織画像を生成するステップと、
コンピュータシステムが、特定の患者の生体組織の組織画像から1つ以上の3D医用画像を生成するステップと、
特定の患者の生体組織の3D医用画像をコンピュータシステムに記憶するステップと、
コンピュータシステムが、特定の患者の生体組織の記憶された医用画像内の複数の第1の生物学的構造を識別するステップと、
特定の患者の生体組織のライブ画像を撮るステップと、
コンピュータシステムが、特定の患者の生体組織のライブ画像内の複数の第2の生物学的構造を識別するステップと、
コンピュータシステムが、識別された第1の生物学的構造のうちの1つ以上を、第2の生物学的構造のうちの1つ以上と自動的にマッチングさせるステップと、
前記マッチングに応答して、コンピュータシステムが、記憶された医用画像のうちの1つ以上を、特定の患者の同じ生体組織を表すものとしてライブビデオ画像に整合および/または位置合わせするステップと、
整合および/または位置合わせされた記憶された画像とライブ画像とを含む、表示のための合成されたビデオフィードを生成するステップと、を含む。
さらに、上記の方法のいずれかを実施するように構成されたコンピュータシステムが提供される。
また、追加の例示的な実施形態も提供され、全部ではないが、その一部は、以下でより詳細に説明される。
添付の図面において、以下に提供される詳細な説明とともに、特許請求される本発明の例示的な実施形態を説明する構造が示される。同様の要素は、同じ参照番号で識別される。単一の構成要素として示される要素は、複数の構成要素で置き換えられてもよく、複数の構成要素として示される要素は、単一の構成要素で置き換えられてもよいことを理解されたい。図面は縮尺通りではなく、特定の要素の比率は、例示の目的のために誇張されている場合がある。
以下の頭字語および定義は、詳細な説明の理解を助けるであろう。
AR-拡張現実(Augmented Reality)-サウンド、ビデオ、またはグラフィックスなどコンピュータで生成された感覚的な要素によって要素が拡張された、物理的な現実世界環境のライブビュー。
VR-仮想現実(Virtual Reality)-様々な程度で探索され、対話され得る、3次元のコンピュータで生成された環境。
HMD-ヘッドマウントディスプレイ(Head Mounted Display)は、ARまたはVR環境で使用することができるヘッドセットを指す。これは、有線でも無線でもよい。また、ヘッドホン、マイクロホン、HDカメラ、赤外線カメラ、ハンドトラッカ、位置トラッカなど1つ以上のアドオンを含むこともできる。
SNAP Model-SNAPケースは、DICOMファイル形式で患者の1つ以上のスキャン(CT、MR、fMR、DTIなど)を使用して作成された3Dテクスチャまたは3Dオブジェクトを指す。これはまた、特定の範囲をフィルタリングし、3Dテクスチャ内の他の範囲を着色するための異なるプリセットのセグメンテーションを含む。また、特定の点または関係する解剖学的構造をマークするための3D形状、3Dラベル、3D測定マーカ、ガイダンス用の3D矢印、および3D手術用ツールを含む、シーン内に配置された3Dオブジェクトも含み得る。外科用ツールおよびデバイスは、教育および患者固有のリハーサルのために、特に動脈瘤クリップを適切にサイジングするためにモデル化されてきた。
MD6DM-多次元完全球形仮想現実、6自由度モデル(Multi Dimension full spherical virtual reality,6 Degrees of Freedom Model)。これは、医師が完全球形仮想現実環境において介入を経験し、計画し、実行し、ナビゲートすることを可能にするグラフィカルシミュレーション環境を提供する。
参照により本出願に組み込まれる、米国特許出願第8,311,791号に以前に記載された手術リハーサルおよび準備ツールは、静的CTおよびMRI医用画像を、医師が医学的処置をリアルタイムでシミュレートするために使用することができる、あらかじめ構築されたSNAPモデルに基づいて、動的な対話型の多次元完全球形仮想現実、6自由度モデル(「MD6DM」)に変換するために開発された。MD6DMは、医師が完全球形仮想現実環境において介入を経験し、計画し、実行し、ナビゲートすることを可能にするグラフィカルシミュレーション環境を提供する。特に、MD6DMは、外科医に、従来の2次元患者医療スキャンから構築された一意の多次元モデルを使用してナビゲートする能力を与え、これは、体積球形仮想現実モデル全体において、6自由度(すなわち、線形、x、y、z、および角度、ヨー、ピッチ、ロール)の球形仮想現実を与える。
MD6DMは、CT、MRI、DTIなどを含む医用画像の患者自身のデータセットから構築されたSNAPモデルを使用してリアルタイムでレンダリングされ、患者固有である。Atlasデータなどの代表的な脳モデルを統合して、外科医がそのように望む場合、部分的に患者固有のモデルを作成することができる。このモデルは、MD6DM上の任意の点から360°の球形ビューを与える。MD6DMを使用して、視聴者は、解剖学的構造の実質的に内側に位置し、あたかも患者の体内に立っているかのように、解剖学的構造と病理学的構造の両方を見て観察することができる。視聴者は、上、下、肩越しなどを見ることができ、患者に見られるのとまったく同じように、互いに対して本来の構造を見ることになる。内部構造間の空間関係が維持され、MD6DMを使用して認識することができる。
MD6DMのアルゴリズムは、医用画像情報を取得し、それを球形モデルに構築し、これは、解剖学的構造内を「飛行」しながら任意の角度から見ることができる完全な連続的リアルタイムモデルである。具体的には、CT、MRIなどが実際の生体を撮影し、数千ポイントから構築される数百枚のスライスに分解した後、MD6DMは、内側と外側の両方からこれらの各ポイントの360°ビューを表現することによって、それを3Dモデルに戻す。
本明細書に記載される光学追跡システムは、あらかじめ構築されたMD6DMモデルを活用し、患者の解剖学的構造とのモデルの整合を可能にし、外部追跡システムに依存することなく、患者に対する動きを追跡することによって、患者に対する動きに対応するモデル内の動きをシミュレートすることができる。特に、本明細書に記載される光学追跡システムは、モデルを患者に整合し、その後、患者のビデオフィードを連続的に分析することによって、患者に対する動きを追跡する。したがって、光学追跡システムは、外部追跡システムに依存する必要性を排除し、それによって、医師が、外部追跡システムが利用可能でない場合であっても、手術室内での実際の外科的処置中に使用するためにモデルを活用することを可能にする。
本明細書ではMD6DMモデルに対して特定の参照が行われ得るが、本明細書に記載される光学追跡システムは、患者の解剖学的構造の任意の適切な医用画像またはモデルと組み合わせて使用することができることを理解されたい。本明細書では、医師が例示的な光学追跡システムを使用することについて具体的に言及しているが、光学追跡システムは、外科的ナビゲーション整合および追跡のために任意の適切なユーザによって使用することができることをさらに理解されたい。さらに、本明細書では、特に患者の解剖学的構造の医用画像およびモデルについて言及しているが、本明細書に記載される光学追跡システムを使用して、任意の適切な画像または仮想モデルを物理的モデルまたは検体と整合し、画像または仮想モデルに対応する物理的モデルの動きを追跡することができる。
図1は、手術ナビゲーションの整合および追跡のための例示的な光学追跡システム100を示す。光学追跡システム100は、患者104の3Dモデルを、患者104の受信されたライブリアルタイムビデオフィード(または単一画像)に基づいて、患者104の身体的解剖学的構造に整合するための光学追跡コンピュータ102を含む。3Dモデルは、MD6DM、またはデータストア106から取り出された任意の適切な3Dモデルもしくは仮想モデルとすることができる。光学追跡コンピュータ102は、任意の適切なビデオソースから患者104のリアルタイムビデオフィードを受信することができる。例えば、外科的処置中に医師110によって使用される内視鏡108は、ライブビデオフィードを光学追跡コンピュータ102に提供し得る。別の例では、ライブビデオフィードは、VRまたはARヘッドマウントディスプレイなどのヘッドマウントデバイス112上に搭載されるか、またはヘッドマウントデバイス112内に統合されるカメラによって提供され得る。
光学追跡コンピュータ102はまた、患者104から受信されたライブリアルタイムビデオフィードに基づいて患者104に対する動きを追跡し、追跡された動きに基づいて3Dモデルを物理的解剖学的構造と連続的に同期させる。光学追跡コンピュータ102は、3Dモデルのオーバーレイと位置合わせされたライブリアルタイムビデオを含むビデオの出力をさらに生成する。光学追跡コンピュータ102は、医師110、または手術室もしくはディスプレイ114の近くにいる任意の他の適切なユーザが見るために、出力ビデオをディスプレイ114に通信することができる。一例では、出力ビデオは、将来の参照のためにデータストア106に保存され、記憶され得る。一例では、光学追跡コンピュータ102は、出力ビデオをリモートディスプレイ(図示せず)に通信することができる。
一例では、光学追跡コンピュータ102は、出力ビデオをヘッドマウントデバイス112に通信することができる。例えば、ヘッドマウントデバイス112は、拡張現実ヘッドマウントディスプレイと、ヘッドマウントデバイス112の視点から患者104のリアルタイムビデオフィードを提供するためのカメラとを含み得る。そのような例では、光学追跡コンピュータ102は、ライブビデオフィードに基づいてARヘッドセット112を介して観察されているビューと同期したモデルの画像をヘッドマウントデバイス112に通信することができる。
図2は、例示的な光学追跡コンピュータ200(すなわち、図1の光学追跡コンピュータ102)のブロック図を示す。光学追跡コンピュータ200は、2つの異なるタイプのデータ入力を受信するためのデータ入力モジュール202を含む。第1に、データ入力モジュール202は、患者のライブビデオフィードを受信するように構成される。ライブビデオフィードは、適切なデータソースから有線または無線接続を介して受信され得る。例えば、データ入力モジュール202は、ライブビデオをキャプチャするためのカメラとともに構成された内視鏡または他の外科用器具からライブビデオフィードを受信するように構成され得る。データ入力モジュール202は、データストア208から患者の3Dモデルを受信するようにさらに構成される。一例では、光学追跡コンピュータ200は、データストア208を含むが、別の例では、データストア208は、光学追跡コンピュータ200から離れているか、または外部にある。一例では、データ入力モジュール202は、前に説明した手術リハーサルおよび準備ツールなど、3Dモデルを生成するように構成されたシステム(図示せず)から3Dモデルを直接受信するように構成される。
図3は、データ入力モジュール202によって受信され得る患者の解剖学的構造の例示的なライブビデオフィード300を示す。図4は、データ入力モジュール202によって受信され得る患者の解剖学的構造の対応する3Dモデル400を示す。例示的なライブビデオフィード300および対応する3Dモデル400は、患者の頭蓋骨の内側に向けられているが、患者の解剖学的構造の任意の適切な部分のライブビデオおよび3Dモデルを使用することができる。
再び図2を参照すると、光学追跡コンピュータ200は、ライブビデオフィー(すなわち、図3のライブビデオフィード300)と3Dモデル(すなわち、図4の3Dモデル400)の初期位置合わせまたは整合を実行するための整合モジュール204をさらに含む。一例では、整合モジュール204は、手動位置合わせを可能にするように構成される。例えば、整合モジュール204は、ライブビデオの上に3Dモデルをオーバーレイし、ユーザがライブビデオフィード上の3Dモデルの位置合わせに満足するまで、医師などのユーザが3Dモデルを手動で操作することを可能にするユーザインターフェースを提供するように構成されてもよい。図5は、ライブビデオフィード504にオーバーレイする3Dモデル502を含む例示的な位置合わせされたビデオ500を示す。
再び図2を参照すると、整合モジュール204は、整合または初期化プロセスを完了するために、ライブビデオフィードに対する3Dモデルの初期位置をロックインまたは記憶するように構成される。例えば、整合モジュール204は、初期位置合わせをデータストア208に記憶することができる。
光学追跡コンピュータ200は、3Dモデルに対するライブビデオの動きを連続的に監視し、検出するための追跡モジュール206をさらに含む。例えば、患者の解剖学的構造に対するライブビデオストリームの視野が調整されるように、ライブビデオストリームのソースが異なる位置に移動される場合、追跡モジュール206は、位置のそのような変化を検出するように構成される。追跡モジュール206は、例えば、ライブビデオの現在の視野をライブビデオの以前の視野と比較し、機会が生じたかどうかを判定することによって、位置のそのような変化を検出するように構成され得る。追跡モジュール206は、例えば、毎秒など所定の時間間隔で、変化または動きをチェックするように構成されてもよい。別の例では、追跡モジュール206は、ライブビデオフィードの視野の任意の変化をリアルタイムで検出するように構成され得る。
ライブビデオフィード内の視野がシフトすると、ライブビデオフィードとオーバーレイされた3Dモデルは、その元の位置合わせまたは初期化からずれるようになる。したがって、追跡モジュール206は、ライブビデオフィードおよびオーバーレイされた3Dモデルが同期を維持し続けるように、ライブビデオフィードの視野のシフトに一致するようにオーバーレイされた3Dモデルを自動的にシフトすることによって、リアルタイムで、またはあらかじめ構成された時間間隔で、3Dモデルをライブビデオフィードと再度位置合わせするようにさらに構成される。追跡モジュール206は、短手および長手方向のシフト、ならびにベースドンの回転および深さの変化に基づいて、変化を追跡し、再度位置合わせするように構成される。
光学追跡コンピュータ200は、ライブビデオフィードの現在のビューを3Dモデルの対応する部分とマッチングするように構成されたマッチングモジュール210を含み、それによって、追跡モジュール206に、適切な調整を行うためのデータ(すなわち、大きさおよび方向)を提供する。例えば、マッチングモジュール210は、ライブビデオフィードの態様に対応する3Dモデルの態様を識別するように構成される。識別に基づいて、マッチングモジュールは、さらに、対応する態様間のオフセットを決定することができる。追跡モジュール206は、3Dモデルをライブビデオフィードと再度位置合わせするために、必要に応じて3Dモデルをシフトするために、決定されたオフセットを使用するように構成される。
第1の例では、マッチングモジュール210は、図6に示すように、生物学的構造604上に物理的に配置されたマーカまたは基準602を識別することによって、ライブビデオフィードを3Dモデルとマッチングするように構成される。特に、基準602が解剖学的構造604上に物理的に配置されると、基準の表現は、3Dモデル内の正確な位置上に仮想的にコピーされる。一例では、ユーザは、基準602を3Dモデルに手動でコピーする。別の例では、整合モジュール204は、初期位置合わせ後に、ライブビデオフィードから3Dモデル上の対応する位置に基準602を自動的に仮想的にコピーする。したがって、マッチングモジュール210は、ライブビデオフィード内の基準602を3Dモデル上の基準とマッチングさせることによって、ライブビデオフィードを3Dモデルとマッチングさせることができる。
一例では、3Dモデル上の仮想基準は、視界から隠されてもよく、代わりに、マッチングモジュール210による解釈のためのデータマーカとしてのみ存在してもよい。一例では、ユーザに、3Dモデル上の基準を表示すべきか隠すべきかに関するオプションを与えてもよい。一例では、整合モジュール204は、ライブビデオから最初に仮想的にコピーされた後に、ユーザが3Dモデル上の基準の位置を手動で調整することを可能にし得る。一例では、3Dモデル上の仮想基準の位置は、データストア208に記憶されてもよい。
第2の例では、マッチングモジュール210は、図7に示すように、ライブビデオ内の解剖学的構造704上のランドマーク702を識別し、ランドマーク702を3Dモデル内の対応するランドマークと比較/マッチングすることによって、ライブビデオフィードを3Dモデルとマッチングするように構成される。ランドマーク702は、物理的基準の配置が必要でないように、識別可能な物理的に別個の性質または特性を含む。ランドマーク702は、例えば、顕著な鋭いエッジまたは明確な丸いコーナーであってもよい。
一例では、ランドマーク702は、ライブビデオ上と3Dモデル上の両方で、ユーザによって手動で選択されるか、または識別され得る。例えば、ユーザは、まず、ライブビデオ上でランドマーク702を識別し、次いで、3Dモデル内の対応するランドマークを識別することができる。マッチングまたは関連付けは、データストア208に保存されてもよい。別の例では、マッチングモジュール210は、ライブビデオフィードベースでランドマーク702を自動的に識別するように構成され得る。例えば、マッチングモジュール210は、例えば、別個の幾何学的形状および色を有する領域など、識別可能に別個の特徴または特性を有するライブビデオフィードのセクションを探すように構成されてもよい。そのような領域を識別すると、次いで、マッチングモジュール210は、3Dモデル内の対応する領域を識別するように構成され得る。
第3の例では、マッチングモジュール210は、人工知能を使用することによってライブビデオフィードを3Dモデルとマッチングさせて、図8に示すように、ライブビデオ内の例えば脳または心臓(または解剖学的3D構造804の識別可能な部分)などの解剖学的3D構造802を識別し、3Dモデル内の対応する構造を識別するように構成される。マッチングモジュール210は、解剖学的3D構造を識別する方法を学習するために、解剖学的構造の画像化および3Dモデルなどの様々なデータ入力を使用してトレーニングされるように構成され得る。トレーニングされると、マッチングモジュール210は、ライブビデオフィード内のそのような解剖学的3D構造を自動的に識別するように構成されてもよく、同様に3Dモデル内にある。
マッチングモジュール210は、ライブビデオフィードを3Dモデルとマッチングさせるために、任意の適切な機械学習アルゴリズムを使用してもよい。例えば、マッチングモジュール210は、決定木アルゴリズム、ニューラルネットワーク、最近傍アルゴリズム、およびベイジアンネットワークを使用することができる。一例では、トレーニングデータは、マッチングプロセス中の追加の参照のためにデータストア208に記憶されてもよい。例えば、マッチングモジュール210は、マッチングプロセス中にデータストア208にアクセスして、基準解剖学的3D構造データをライブビデオフィード内で識別された解剖学的3D構造と比較するように構成されてもよい。
一例では、整合モジュール204は、3Dモデルの初期位置合わせまたは整合を実行するために、マッチングモジュール210と協働するように構成される。特に、ユーザがライブビデオフィードの3Dモデルとの初期位置合わせを手動で実行することを可能にする代わりに、整合モジュールは、論じられたマッチングのための第2の(すなわち、ランドマーク)技法または第3の(すなわち、人工知能)技法のいずれかを使用して、いかなる手動のユーザ支援もなしに、3Dモデルをライブビデオフィードと自動的に位置合わせし、整合するために、マッチングモジュールの機能を活用し得る。
一例では、マッチングモジュール210は、ライブビデオフィードとの3Dモデルの合成されたオーバーレイで見るには望ましくない可能性があるか、またはマッチングプロセスに関して気を散らすか、または「ノイズが多い」可能性があるライブビデオフィードアイテム、形状、特徴などからフィルタリングするように構成され得る。例えば、マッチングモジュール210は、ライブビデオフィードに現れ得る外科的処置中に使用されるツールまたは他のデバイスをフィルタリングし得る。
光学追跡コンピュータ200は、ライブビデオフィードおよびオーバーレイされた3Dモデルを含む合成されたビデオを生成し、合成されたビデフィーを、図1のディスプレイ114または図1のヘッドマウントディスプレイ112などの適切なディスプレイデバイスに通信するための出力モジュール212をさらに含む。一例では、出力モジュール212は、ユーザが合成された出力ビデオをカスタマイズすることを可能にするために、特定の機能またはオプションを備えるユーザインターフェースを提供することができる。例えば、出力モジュール212は、ユーザが、不透明度を調整すること、または組織および骨など、ビューから特定の層を完全に除去することを可能にし得る。
光学追跡コンピュータ200は、他のナビゲーションおよび追跡システムの代わりに使用されるものとして本明細書に記載されているが、光学追跡コンピュータ200は、光学追跡コンピュータ200によって提供されるのと同じ追跡能力を提供しない可能性がある他のナビゲーションおよび追跡システムを補完するために使用することもできることを理解されたい。例えば、別のナビゲーションおよび追跡システムは、奥行きおよび回転運動を検出することができない場合がある。したがって、光学追跡コンピュータ200は、深さおよび回転に関する追跡を提供するために使用されてもよく、別のナビゲーションおよび追跡システム(図示せず)は、短手および長手方向の動きに関する追跡を提供するために使用されてもよい。
本明細書に記載されるシステムは、図9に示す光学追跡900のための方法を参照してさらに理解されるであろう。説明を簡単にするために、この方法は、連続的に実行されるものとして示され、説明されるが、この方法の一部は、本明細書に示され、記載されるものとは異なる順序で、および/または同時に起こり得るので、この方法は、図示される順序によって限定されないことを理解および認識されたい。
902において、図2の光学コンピュータ200などの光学コンピュータは、患者の解剖学的構造のライブビデオストリームを入力として受信する。904において、光学コンピュータはまた、解剖学的構造の3Dモデルを入力として受信する。906において、光学コンピュータは、ライブビデオストリームとの3Dモデルの初期整合または位置合わせを実行する。908において、光学コンピュータは、ライブビデオストリームに対する動きを追跡し、それに応じて3Dモデルの位置合わせを連続的に更新する。910において、光学コンピュータは、ライブビデオストリームと、ライブビデオストリームと同期した3Dモデルのオーバーレイとを含む合成されたビデオを出力する。
図10は、図1の例示的な光学追跡コンピュータ102および図2の例示的な光学追跡コンピュータ200を実装するための例示的なコンピュータの概略図である。例示的なコンピュータ1000は、ラップトップ、デスクトップ、ハンドヘルドコンピュータ、タブレットコンピュータ、スマートフォン、サーバ、および他の同様のタイプのコンピューティングデバイスを含む、様々な形態のデジタルコンピュータを表すことを意図している。コンピュータ1000は、プロセッサ1002と、メモリ1004と、記憶デバイス1006と、通信ポート1008とを含み、これらは、バス1012を介してインターフェース1010によって動作可能に接続されている。
プロセッサ1002は、コンピュータ1000内で実行するために、メモリ1004を介して命令を処理する。例示的な実施形態では、複数のメモリとともに複数のプロセッサが使用され得る。
メモリ1004は、揮発性メモリまたは不揮発性メモリとすることができる。メモリ1004は、磁気ディスクまたは光ディスクなどのコンピュータ可読媒体とすることができる。記憶デバイス1006は、フロッピーディスクデバイス、ハードディスクデバイス、光ディスクデバイス、テープデバイス、フラッシュメモリ、相変化メモリ、または他の類似のソリッドステートメモリデバイスなどのコンピュータ可読媒体、または他の構成の記憶エリアネットワーク内のデバイスを含むデバイスのアレイとすることができる。コンピュータプログラム製品は、メモリ804または記憶デバイス1006などのコンピュータ可読媒体で有形に実施することができる。
コンピュータ1000は、ディスプレイ1014、プリンタ1016、スキャナ1018、マウス1020、およびヘッドマウントディスプレイ1022などの1つ以上の入出力デバイスに結合することができる。
当業者によって理解されるように、例示的な実施形態は、方法、システム、コンピュータプログラム製品、または上記の組み合わせとして実現されてもよく、または一般にそれらを利用し得る。したがって、実施形態のいずれも、コンピュータハードウェア上で実行するために記憶デバイスに記憶された実行可能命令を含む専用ソフトウェアの形態をとることができ、ソフトウェアは、媒体内に具現化されたコンピュータ使用可能プログラムコードを有するコンピュータ使用可能記憶媒体上に記憶することができる。
データベースは、MySQLなどのオープンソースソリューション、または開示されたサーバ上もしくは追加のコンピュータサーバ上で動作することができるMicrosoft SQLなどのクローズドソリューションなど、市販のコンピュータアプリケーションを使用して実装され得る。データベースは、上記で開示された例示的な実施形態のために使用されるデータ、モデル、およびモデルパラメータを記憶するために、リレーショナルまたはオブジェクト指向パラダイムを利用することができる。そのようなデータベースは、本明細書に開示されるような特殊化された適用可能性のために、既知のデータベースプログラミング技術を使用してカスタマイズされてもよい。
実行可能命令を含むソフトウェアを記憶するために、任意の適切なコンピュータ使用可能(コンピュータ可読)媒体を利用することができる。コンピュータ使用可能媒体またはコンピュータ可読媒体は、限定はしないが、例えば、電子、磁気、光学、電磁気、赤外線、または半導体システム、装置、デバイス、または伝播媒体であってもよい。コンピュータ可読媒体のより具体的な例(非網羅的なリスト)には、1つ以上のワイヤを有する電気接続、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROMまたはフラッシュメモリ)、コンパクトディスク読取り専用メモリ(CDROM)、または他の有形の光学または磁気記憶デバイスなどの有形の媒体、あるいはインターネットまたはイントラネットをサポートするものなどの伝送媒体がある。
本明細書の文脈では、コンピュータ使用可能媒体またはコンピュータ可読媒体は、1つ以上のプログラマブルまたは専用プロセッサ/コントローラを含む任意の適切なコンピュータ(またはコンピュータシステム)を含むことができる、命令実行システム、プラットフォーム、装置、またはデバイスによって、またはそれらに関連して使用するためのプログラム命令を含み、記憶し、通信し、伝播し、または移送することができる任意の媒体とすることができる。コンピュータ使用可能媒体は、ベースバンドで、または搬送波の一部として、コンピュータ使用可能プログラムコードを具現化した伝搬データ信号を含み得る。コンピュータ使用可能プログラムコードは、限定はしないが、インターネット、有線、光ファイバケーブル、ローカル通信バス、無線周波数(RF)、または他の手段を含む、任意の適切な媒体を使用して送信され得る。
例示的な実施形態の動作を実行するための実行可能命令を有するコンピュータプログラムコードは、限定しないが、BASIC、Lisp、VBA、またはVBScriptなどのインタプリタまたはイベント駆動型言語、またはビジュアルベーシックなどのGUI実施形態、FORTRAN、COBOL、またはPascalなどのコンパイル済みプログラミング言語、Java、JavaScript、Perl、Smalltalk、C++、Object Pascalなどのオブジェクト指向、スクリプト型、非スクリプト型のプログラミング言語、Prologなどの人工知能言語、Adaなどのリアルタイム組み込み言語、またはラダーロジックを使用するさらにより直接的または簡略化されたプログラミング、アセンブラ言語、または適切な機械言語を使用する直接プログラミングを含む、任意のコンピュータ言語を使用する従来の手段によって書かれ得る。
「含む(includes)」または「含む(including)」という用語が明細書または特許請求の範囲で使用される限り、その用語が特許請求の範囲の遷移語として使用されるときに解釈されるように、「含む(comprising)」という用語と同様に包括的であることが意図される。さらに、「または」という用語(例えば、AまたはB)が使用される限り、それは「AまたはBまたはその両方」を意味することが意図される。出願人が「AまたはBのみであって、両方ではない」を示すことを意図する場合、「AまたはBのみであって、両方ではない」という用語が使用される。したがって、本明細書における用語「または」の使用は、包括的であり、排他的使用ではない。Bryan A. Garner, A Dictionary of Modern Legal Usage 624(2d.Ed.1995)を参照されたい。また、用語「in」または「into」が明細書または特許請求の範囲で使用される限り、それはさらに「on」または「onto」を意味することが意図される。さらに、「接続する」という用語が明細書または特許請求の範囲で使用される限り、それは、「直接接続される」だけでなく、別の構成要素を介して接続されるような「間接的に接続される」ことも意味することが意図される。
本出願は、その実施形態の説明によって示されており、実施形態は、かなり詳細に説明されているが、添付の特許請求の範囲をそのような詳細に限定したり、いかなる方法でも制限したりすることは、出願人の意図ではない。追加の利点および修正は、当業者には容易に明らかになるであろう。したがって、本出願は、そのより広い態様では、特定の詳細、代表的な装置および方法、ならびに示され、説明された例示的な例に限定されない。したがって、出願人の一般的な発明概念の趣旨または範囲から逸脱することなく、そのような詳細から逸脱することができる。
Claims (20)
- 特定の患者の生体組織の画像を追跡するための方法であって、
前記特定の患者の前記生体組織の1つ以上の3D医用画像を生成するステップと、
前記特定の患者の前記生体組織の前記3D医用画像をコンピュータシステムに記憶するステップと、
前記特定の患者の前記生体組織のライブ画像を撮るステップと、
(1)前記特定の患者の前記生体組織の前記記憶された医用画像、または(2)前記特定の患者の前記生体組織の前記ライブ画像における少なくとも1つの生物学的構造を識別するステップと、
前記識別された少なくとも1つの生物学的構造を、(1)前記特定の患者の前記生体組織の前記ライブ画像の対応する構造、または(2)前記特定の患者の前記生体組織の前記記憶された医用画像の対応する構造とそれぞれマッチングさせるステップと、
前記マッチングに応答して、前記コンピュータシステムが、前記記憶された医用画像のうちの1つ以上を、前記特定の患者の同じ生体組織を表すものとして前記ライブビデオ画像に整合および/または位置合わせするステップと
を含む方法。 - 各生物学的構造は、前記生体組織において異なる識別可能なランドマークである、請求項1に記載の方法。
- 各生物学的構造は、前記コンピュータシステムによって自動的に識別される器官または他の組織である、請求項1に記載の方法。
- 前記マッチングに応答して、前記記憶された医用画像のうちの前記1つ以上が、前記ライブビデオ画像と位置合わせされて、前記特定の患者の前記生体組織の合成された画像を生成する、請求項1に記載の方法。
- 前記生物学的構造が、前記特定の患者の前記生体組織の前記記憶された医用画像と、前記特定の患者の前記生体組織の前記ライブ画像の両方において識別され、前記識別された少なくとも1つの生物学的構造をマッチングさせる前記ステップが、前記記憶された医用画像において識別された前記生物学的構造を、前記生体組織の前記ライブ画像において識別された前記生物学的構造とマッチングさせることによって実行される、請求項1に記載の方法。
- 少なくとも1つの生物学的構造を識別する前記ステップが、前記コンピュータシステムによって自動的に実行される、請求項1に記載の方法。
- 前記識別された少なくとも1つの生物学的構造をマッチングさせる前記ステップが、前記コンピュータシステムによって自動的に実行される、請求項1に記載の方法。
- 少なくとも1つの生物学的構造を識別する前記ステップが、前記コンピュータシステムによって自動的に実行され、さらに、前記識別された少なくとも1つの生物学的構造をマッチングさせる前記ステップが、前記コンピュータシステムによって自動的に実行される、請求項1に記載の方法。
- 少なくとも1つの生物学的構造を識別する前記ステップ、および前記識別された少なくとも1つの生物学的構造をマッチングさせる前記ステップが、人工知能を使用して前記コンピュータシステムによって自動的に実行される、請求項8に記載の方法。
- 整合および/または位置合わせされた前記記憶された画像と前記ライブ画像とを含む、表示のための合成されたビデオフィードを生成する前記ステップをさらに含む、請求項1に記載の方法。
- 特定の患者の生体組織の画像を追跡するための方法であって、
前記特定の患者の前記生体組織の1つ以上の3D医用画像を生成するステップと、
前記特定の患者の前記生体組織の前記3D医用画像をコンピュータシステムに記憶するステップと、
前記コンピュータシステムが、前記特定の患者の前記生体組織の前記記憶された医用画像内の複数の第1の生物学的構造を識別するステップと、
前記特定の患者の前記生体組織のライブ画像を撮るステップと、
前記コンピュータシステムが、前記特定の患者の前記生体組織の前記ライブ画像内の複数の第2の生物学的構造を識別するステップと、
前記コンピュータシステムが、前記識別された第1の生物学的構造のうちの1つ以上を、前記第2の生物学的構造のうちの1つ以上と自動的にマッチングさせるステップと、
前記マッチングに応答して、前記コンピュータシステムが、前記記憶された医用画像のうちの1つ以上を、前記特定の患者の同じ生体組織を表すものとして前記ライブビデオ画像に整合および/または位置合わせするステップと
を含む方法。 - 各生物学的構造は、前記生体組織において異なる識別可能なランドマークである、請求項11に記載の方法。
- 各生物学的構造は、前記コンピュータシステムによって自動的に識別される器官または他の組織である、請求項11に記載の方法。
- 前記マッチングに応答して、前記記憶された医用画像のうちの前記1つ以上が、前記ライブビデオ画像と位置合わせされて、前記特定の患者の前記生体組織の合成された画像を生成する、請求項11に記載の方法。
- 少なくとも1つの生物学的構造を識別する前記ステップ、および前記識別された少なくとも1つの生物学的構造をマッチングさせる前記ステップが、人工知能を使用して前記コンピュータシステムによって自動的に実行される、請求項11に記載の方法。
- 整合および/または位置合わせされた前記記憶された画像と前記ライブ画像とを含む、表示のための合成されたビデオフィードを生成する前記ステップをさらに含む、請求項11に記載の方法。
- 特定の患者の生体組織の画像を追跡するための方法であって、
1つ以上の撮像デバイスを使用して前記特定の患者の前記生体組織の組織画像を生成するステップと、
前記コンピュータシステムが、前記特定の患者の前記生体組織の前記組織画像から1つ以上の3D医用画像を生成するステップと、
前記特定の患者の前記生体組織の前記3D医用画像をコンピュータシステムに記憶するステップと、
前記コンピュータシステムが、前記特定の患者の前記生体組織の前記記憶された医用画像内の複数の第1の生物学的構造を識別するステップと、
前記特定の患者の前記生体組織のライブ画像を撮るステップと、
前記コンピュータシステムが、前記特定の患者の前記生体組織の前記ライブ画像内の複数の第2の生物学的構造を識別するステップと、
前記コンピュータシステムが、前記識別された第1の生物学的構造のうちの1つ以上を、前記第2の生物学的構造のうちの1つ以上と自動的にマッチングさせるステップと、
前記マッチングに応答して、前記コンピュータシステムが、前記記憶された医用画像のうちの1つ以上を、前記特定の患者の同じ生体組織を表すものとして前記ライブビデオ画像に整合および/または位置合わせするステップと、
整合および/または位置合わせされた前記記憶された画像と前記ライブ画像とを含む、表示のための合成されたビデオフィードを生成するステップと
を含む方法。 - 各生物学的構造は、前記生体組織において異なる識別可能なランドマークである、請求項17に記載の方法。
- 各生物学的構造は、前記コンピュータシステムによって自動的に識別される器官または他の組織である、請求項17に記載の方法。
- 少なくとも1つの生物学的構造を識別する前記ステップ、および前記識別された少なくとも1つの生物学的構造をマッチングさせる前記ステップが、人工知能を使用して前記コンピュータシステムによって自動的に実行される、請求項17に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862757339P | 2018-11-08 | 2018-11-08 | |
US62/757,339 | 2018-11-08 | ||
PCT/US2019/060545 WO2020097510A1 (en) | 2018-11-08 | 2019-11-08 | System and method for optical tracking |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022506708A true JP2022506708A (ja) | 2022-01-17 |
Family
ID=70612257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021524264A Pending JP2022506708A (ja) | 2018-11-08 | 2019-11-08 | 光学追跡のためのシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11393111B2 (ja) |
EP (1) | EP3877988A4 (ja) |
JP (1) | JP2022506708A (ja) |
CN (1) | CN113544792A (ja) |
IL (1) | IL282991A (ja) |
TW (1) | TW202023489A (ja) |
WO (1) | WO2020097510A1 (ja) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1741469A1 (en) * | 2005-07-08 | 2007-01-10 | Engineers & Doctors Wallstén Medical A/S | Method of guiding an irradiation equipment |
CA2727585C (en) * | 2008-03-21 | 2018-09-25 | Atsushi Takahashi | Three-dimensional digital magnifier operation supporting system |
KR102028780B1 (ko) * | 2012-02-23 | 2019-10-04 | 스미스 앤드 네퓨, 인크. | 영상 내시경 시스템 |
BR112014029792A2 (pt) * | 2012-06-01 | 2017-06-27 | Koninklijke Philips Nv | método, sistema, e meio de armazenamento não transitório legível por computador |
US10426345B2 (en) * | 2013-04-04 | 2019-10-01 | Children's National Medical Center | System for generating composite images for endoscopic surgery of moving and deformable anatomy |
DE102015211714B4 (de) * | 2015-06-24 | 2020-10-22 | Siemens Healthcare Gmbh | Medizinisches Bildverarbeitungsverfahren und Bildverarbeitungssystem |
EP3509696A1 (en) * | 2016-09-06 | 2019-07-17 | Elekta, Inc. | Neural network for generating synthetic medical images |
US10314658B2 (en) * | 2017-04-21 | 2019-06-11 | Biosense Webster (Israel) Ltd. | Registration of an anatomical image with a position-tracking coordinate system based on visual proximity to bone tissue |
-
2019
- 2019-11-07 TW TW108140508A patent/TW202023489A/zh unknown
- 2019-11-08 EP EP19881367.7A patent/EP3877988A4/en not_active Withdrawn
- 2019-11-08 JP JP2021524264A patent/JP2022506708A/ja active Pending
- 2019-11-08 WO PCT/US2019/060545 patent/WO2020097510A1/en unknown
- 2019-11-08 US US17/278,303 patent/US11393111B2/en active Active
- 2019-11-08 CN CN201980087772.4A patent/CN113544792A/zh active Pending
-
2021
- 2021-05-06 IL IL282991A patent/IL282991A/en unknown
Also Published As
Publication number | Publication date |
---|---|
CN113544792A (zh) | 2021-10-22 |
TW202023489A (zh) | 2020-07-01 |
US20210358143A1 (en) | 2021-11-18 |
IL282991A (en) | 2021-06-30 |
EP3877988A1 (en) | 2021-09-15 |
US11393111B2 (en) | 2022-07-19 |
WO2020097510A1 (en) | 2020-05-14 |
EP3877988A4 (en) | 2022-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11532135B2 (en) | Dual mode augmented reality surgical system and method | |
US20210022812A1 (en) | Surgical Navigation Inside A Body | |
US20210015583A1 (en) | Augmented reality system and method for tele-proctoring a surgical procedure | |
Gsaxner et al. | The HoloLens in medicine: A systematic review and taxonomy | |
TW201835878A (zh) | 用於在虛擬環境中進行訓練和協作的系統和方法 | |
US20210401501A1 (en) | System and method for recommending parameters for a surgical procedure | |
US11983824B2 (en) | System and method for augmenting and synchronizing a virtual model with a physical model | |
KR20200056855A (ko) | 기복모델 생성방법, 장치 및 프로그램 | |
TW202207242A (zh) | 用於增強現實脊柱手術之系統及方法 | |
JP2022506708A (ja) | 光学追跡のためのシステムおよび方法 | |
US20220249170A1 (en) | System and method for processing black bone mri data | |
TW202228598A (zh) | 用於腫瘤追踪之系統及方法 | |
TW202131875A (zh) | 用於擴增實體模型及使虛擬模型與實體模型同步之系統及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221108 |