JP2016527996A - 外科ナビゲーションのための座標変換を決定するコンピュータ実施技術 - Google Patents

外科ナビゲーションのための座標変換を決定するコンピュータ実施技術 Download PDF

Info

Publication number
JP2016527996A
JP2016527996A JP2016535350A JP2016535350A JP2016527996A JP 2016527996 A JP2016527996 A JP 2016527996A JP 2016535350 A JP2016535350 A JP 2016535350A JP 2016535350 A JP2016535350 A JP 2016535350A JP 2016527996 A JP2016527996 A JP 2016527996A
Authority
JP
Japan
Prior art keywords
patient
image data
coordinate system
feature
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016535350A
Other languages
English (en)
Other versions
JP6159030B2 (ja
Inventor
ブライザッハ,ヨッヘン
スタビアスキ,ジャン
ライフ,トビアス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stryker European Holdings I LLC
Original Assignee
Stryker European Holdings I LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stryker European Holdings I LLC filed Critical Stryker European Holdings I LLC
Publication of JP2016527996A publication Critical patent/JP2016527996A/ja
Application granted granted Critical
Publication of JP6159030B2 publication Critical patent/JP6159030B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Robotics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

患者画像データに対して外科装置(150)をナビゲーションするためのナビゲーション参照座標系(302)と、患者画像データにより患者の表面の形状が定められる画像座標系(304)との間の変換を決定する技術が提供される。この技術のコンピュータ実施方法は、患者の表面の異なる透視図から得られた複数のデータセットを受け取る工程を含む。画像データセットにおいて識別可能な複数の特徴(170)の特徴座標は、画像データセットからナビゲーション参照座標系(302)において決定される。これらの特徴座標から、ナビゲーション参照座標系(302)における患者の表面の形状モデルが決定される。次に、患者画像データによって定められた患者の表面の形状及び形状モデル間の表面マッチングを行い、ナビゲーション参照座標系(302)と画像座標系(304)との間の変換(T1)を決定する。【選択図】 図3

Description

本発明は、コンピュータ支援手術に関する。具体的には、ナビゲーション参照座標系と画像座標系との間の変換を決定する技術が提示される。本技術は、方法、コンピュータプログラム、装置、及びシステムとして実施することができる。
外科ナビゲーションシステムの支援下で行われる外科手術の件数は、ここ十年で非常に増加している。この増加は、外科ナビゲーションシステムの利用及び構築が簡易化してきているという事実に一部起因する。
外科ナビゲーションは、典型的に、手術前又は手術中に得られる患者画像データ(コンピュータ断層撮影(CTスキャン)等)に基づいて行われる。画像ガイド手術のため、患者に対する外科装置の現在位置は、患者画像に重ねられて視覚化される。この重ね合わせは、画像座標系(患者画像データが与えられる座標)に対するナビゲーション参照座標系(外科装置と患者との間の相対的な動きが追跡される座標)の位置合わせ(registering)を必要とする。位置合わせは、数学的な透視図から、ナビゲーション参照座標系と画像座標系との間の変換を算出することを含む。
位置合わせの完了後、ナビゲーションされる外科装置と患者との間の相対的な動きを追跡し、視覚化することができる。追跡は、一つ以上の追跡装置をその視野内に検出するように構成された追跡カメラを用いて行われる。従来、患者と外科装置の両方は、それぞれ専用の追跡装置と関連付けられる。このようなナビゲーション方法は、例えば、シュトリュケル社に付与された米国特許第8,457,719号から公知である。
米国特許第8,457,719号には、発光ダイオード(LED)の形態をした、間隔を置いた複数の追跡点をそれぞれ含むツール追跡装置及び患者追跡装置が開示されている。患者追跡装置は、患者に貼られる側に接着層を有する可撓性パッチを含み、パッチの反対側に備えられた追跡点は、患者の表面と一致する。
患者追跡装置上の追跡点とツール追跡装置上の追跡点は、3板式荷結合素子(CCD)カメラアレイからなる追跡カメラによって検出可能である。追跡カメラは、カート、手術室の壁、又は手術室の照明に取り付けられる。
位置合わせのため、患者追跡装置が付けられる患者表面のモデルが構築される。表面モデルの構築には、追跡カメラにより患者追跡装置上の追跡点をローカライズすることが必要とされる。これに関して、位置合わせルーチンは、十分な追跡点が追跡カメラの視野内に入るまで患者を動かすように外科医に指示する。容易に理解されるように、表面モデルの質は、正確に検出された追跡点の数に強く依存する。
検出された追跡点から信頼性のある表面モデルが構築されると、この表面モデルはCTスキャンの患者画像と位置合わせされる。この位置合わせは、表面マッチング技術を用いて行われる。スキャンされた患者画像及び形状モデルが予め設定された誤差範囲内で位置合わせできた場合、位置合わせルーチンは位置合わせ手続きの完了を確認する。位置合わせ手続きの完了は、表面モデルの質に強く影響される。表面モデルの質は、追跡カメラによって正確に検出された追跡点の数に依存する。
また、患者のみを追跡し、追跡カメラと外科装置に関する先験的知識を用いて患者追跡装置に対する外科装置の位置を計算するというナビゲーション方法も存在する。これに関して、アクティビューズ社に付与された米国特許出願公開第2008/0208041号は、患者に貼られるように構成された実質的に平面状のパッチの形態をした患者追跡装置を備えた外科ナビゲーションシステムを開示している。このパッチは、光学的に識別可能な追跡点配列と、追跡点配列に対して既知の空間関係を有する、X線を通さない付加的な基準点配列とを含む。
手術前に撮影されたCTスキャン画像と患者間の位置合わせは、CTスキャン画像において識別可能なX線を通さない基準点配列を、外科装置に取り付けられた追跡カメラによって検出された追跡点配列と照合することによって行われる。外科ナビゲーションの間、上記装置に取り付けられた追跡カメラは、追跡点配列を追跡し、外科装置の形状、追跡点配列の形状、及び追跡カメラの画像処理性能に関する知識に基づいて、追跡点配列に対する外科装置の位置を計算する。このため、別個のツール追跡装置は必要ない。
本発明は、位置合わせ性能の向上を目的とする。
一態様によると、患者画像データに対して外科装置をナビゲーションするためのナビゲーション参照座標系と、患者画像データにより患者の表面の形状が定められる画像座標系との間の変換を決定するコンピュータ実施方法が提供される。本方法は、患者の表面の異なる透視図から得られた複数の画像データセットを受け取る工程を含む。本方法は、画像データセットから、画像データセット中で識別可能な複数の特徴の特徴座標を、ナビゲーション参照座標系において決定する工程と、上記特徴座標から、患者の表面の形状モデルを、ナビゲーション参照座標系において決定する工程と、患者画像データによって定められた患者の表面の形状と形状モデルとの表面マッチングを用いて、ナビゲーション参照座標系と画像座標系との間の変換を決定する工程を更に含む。
本方法は、実際のナビゲーション手続きに先行する位置合わせ手続きの間に行うことができる。容易に理解されるように、位置合わせの結果は、アップデート又は検証され得るため、本明細書で提示される方法は、ナビゲーション手続きと並行して実行することもできる。
本明細書で提示される方法の工程は、コンピュータ装置によって実行されてもよい。コンピュータ装置は、コンピュータ支援手術用のシステムに含まれていてもよい。特に、本方法の工程は、ハードウェアコンポーネント及びソフトウェアコンポーネントのうち少なくとも一つによって実行されてもよい。一例として、上記の受け取り工程は、ハードウェアインターフェース及びソフトウェアインターフェースのうち少なくとも一つによって実行されてもよく、上記の決定工程は、(例えば、ソフトウェアの制御下で)インターフェースと連結された一つ以上のプロセッサによって実行されてもよい。
画像データセットは、第1のカメラから受け取ることができる。第1のカメラは、画像データセットを撮影する際に患者に対して可動的であってもよい。一つの変更例として、第1のカメラは、ビデオカメラであってもよい。この場合、画像データセットは、ビデオデータストリームの形式で(例えば、ビデオフレームとして)第1のカメラから受け取られてもよい。第1のカメラは、非立体カメラ(例えば、任意の時点で一つの透視図から一つの画像データセットを与えるもの)であってもよい。
第1のカメラは、手持ちカメラであってもよい。これに代わって、又はこれに加えて、第1のカメラは外科装置に取り付け可能なものであってもよい。外科装置は、手に持って操作可能な装置であってもよい。例えば、外科装置は、外科用ポインタ、外科用針(生体針等)、又は外科用電動工具等の手術器具とすることができる。
画像データセットにおいて識別可能な特徴をグループ化し、一つ以上の特徴グループを形成してもよい。各特徴グループに、位置及び方位のうち少なくとも一つが帰属してもよい。グループ化に関する先験的知識が存在してもよい(例えば、既知の特徴符号化方式によって特徴グループを規定してもよい)。尚、特徴グループは、それ自身が特定の特徴座標(例えば、特徴グループの中心の特徴座標)を有する一つの特徴として見なされ得る。
一実施例によると、特徴座標及び形状モデルのうち少なくとも一つは、3次元復元法(Structure−from−Motion;SfM)、自己位置推定と地図作製を同時に行う方法(Simultaneous Localization and Mapping technique;SLAM)、及び姿勢推定法のうち一つ以上を用いて決定されてもよい。例えば、SLAMを特徴グループに適用してもよい。別の例として、異なる透視図から得られる画像データセットにおいて識別可能な個別の特徴(特徴グループでなくてもよい)に関する特徴追跡をSfMによって構築してもよい。異なる(カメラ)透視図に基づく三角測量を個別の特徴追跡に適用してもよい。三角測量は、特徴座標を3次元で(例えば、ナビゲーション参照座標系に)復元し、任意に最適化するのに役立つ。
形状モデルは、表面上に位置する、あるいは表面を画定する点群として決定されてもよい。点群は、20以上(例えば30以上)の点を含んでいてもよい。各点は、(特徴キーポイント又は特徴グループの中心等の)特徴の座標によって表すことができる。
ナビゲーション参照座標系は、通常、手術中に(例えば、画像座標系に対する位置合わせの完了後に)外科装置をナビゲーションするために使用される座標系である。例えば、ナビゲーション参照座標系は、外科装置のナビゲーションのために患者追跡装置を追跡する際に用いられる座標系であってもよい。一実施例では、外科装置は、更に専用のツール追跡装置によって、ナビゲーション参照座標系において追跡されてもよい。別の実施例では、ツール追跡装置を使用せずに、ナビゲーション参照座標系において外科装置又はその一部の位置を算出してもよい。
ナビゲーション参照座標系は、画像データセットにおいて識別された特徴のうちの少なくともいくつかの特徴に基づいて決定されてもよい。一つの変更例では、識別された特徴のうちのいくつかが(例えば、実行時間中に)選択され、ナビゲーション参照座標系を定める。別の変更例では、先験的知識が利用可能であり、画像データセットにおいて識別された特徴のうちのいくつかが、ナビゲーション参照座標系を定めるように、又ナビゲーション参照座標系に広がるように配列される。どちらの変更例においても、識別された特徴は、(例えば、適切な符号化により)互いに区別可能であってもよく、区別可能でなくてもよい。このようにして、決定の頑健性を増すことができる。
特徴座標は、外科ナビゲーション中に使用される患者追跡装置の一つ以上の追跡装置特徴に関して決定されてもよく、上記患者追跡装置は、画像データセットにおいて少なくとも部分的に識別可能であり、患者に対して一定の位置を有していてもよい。患者追跡装置は、ヘッドセット、患者の表面に貼り付け可能な剛性又は可撓性パッチ、骨に取り付け可能な装置等、様々な形態をとり得る。患者追跡装置は、追跡装置特徴配列を含んでいてもよい。本明細書に提示される方法を実行する際には、この追跡装置特徴配列の幾何学的特徴(個別の追跡装置特徴間の相対位置等)に関する先験的知識及び/又は上記配列内の個別の追跡装置特徴の特性(符号化特性等)に関する先験的知識を使用することができる。
追跡装置特徴は、ナビゲーション参照座標系を少なくとも部分的に定めてもよい。これに関して、追跡装置特徴によってナビゲーション参照座標系をどのように定めるかについての先験的知識を利用することができる。この先験的知識によって、識別された追跡装置特徴の空間的位置及び/又はそれらの特性(符号化特性等)からナビゲーション参照座標系を決定(例えば、構築)することが可能となり得る。ある実施例では、一つ以上の追跡装置特徴の代わりに、又はこれに加えて、画像データセットにおいて認識可能な一つ以上の別の特徴をナビゲーション参照座標系を定めるために用いることもできる。
これに加えて、又はこれに代わって、特徴座標は、画像データセットにおいて識別可能な一つ以上の患者の解剖学的特徴(肌の特徴を含む)に関して決定されてもよい。容易に理解されるように、一つ以上の患者の解剖学的特徴の特徴座標は、追跡装置特徴に加えて、又はこれに代わって識別されてもよい。画像データセットにおける一つ以上の患者の解剖学的特徴の識別は、解剖学的特徴に関する一般知識(例えば予想される広がり、位置、及び/又は形状等)を用いて行うことができる。
ナビゲーション参照座標系は、患者の解剖学的特徴から、少なくとも部分的に決定されてもよい。これに関して、識別された患者の解剖学的特徴のうち一つ以上は、ナビゲーション参照座標系に展開されるように用いられてもよい。ナビゲーション参照座標系は、患者の解剖学的特徴によってのみ展開されてもよく、患者の解剖学的特徴と画像データセットにおいて識別された別の特徴(例えば、一つ以上の識別装置特徴等)との組み合わせによって展開されてもよい。
一つの変更例において、形状モデルは、患者の解剖学的特徴から、少なくとも部分的に決定されてもよい。この場合、上記表面マッチングは、患者の画像データによって定められた患者の表面と、識別された患者の解剖学的特徴の相対位置によって定められた表面とのマッチングを含んでいてもよい。勿論、形状モデルは、画像データセットにおいて識別可能な別の特徴から、又はその特徴との組み合わせから決定されてもよい。
一つの実施例において、特徴座標は、画像データセットにおいて少なくとも部分的に識別可能な、患者に貼られる特徴パッチの一つ以上のパッチ特徴に関して決定される。この特徴パッチは、本質的に平面な外観を有する基材を含んでいてもよく、あるいは患者の表面に一致するように可撓性を有していてもよい。これに代わって、特徴パッチは、単に患者の肌に描かれたものでもよく、これによって患者の表面に一致させることもできる。形状モデルは、パッチ特徴から少なくとも部分的に決定されてもよい。また、形状モデルは、一つ以上のパッチ特徴と一つ以上の患者の解剖学的特徴との組み合わせから決定することもできる。
通常、特徴パッチは患者に付けられる肌マスクの形態をとる。肌マスクは、肌マスクが付けられる患者の解剖学的特徴の領域(額又は頬骨の領域等)に合うような形状(外輪郭)を有していてもよい。このようにして、表面マッチングに特に適した(例えば、特徴的な表面を有する)解剖学的領域に特徴を選択的に付けることができる。
また、ナビゲーション参照座標系は、パッチ特徴から、少なくとも部分的に決定することができる。例えば、ナビゲーション参照座標系は、パッチ特徴のみから決定することも可能であるし、一つ以上のパッチ特徴と、画像データセットにおいて識別可能な一つ以上の別の特徴(一つ以上の追跡装置特徴及び/又は一つ以上の患者の解剖学的特徴等)との組み合わせから決定することもできる。ナビゲーション参照座標系を決定するため、パッチ特徴の相対位置及び/又は(符号化)特性に関する先験的知識が存在してもよい。
ナビゲーション参照座標系の決定は倍率に基づいて行われてもよい。一つの実施例では、この倍率は表面マッチングから導き出される。例えば、表面マッチングで患者画像に与えられた縮尺情報を用いることで、ナビゲーション参照座標系の倍率を導き出すことができる。これに加えて、又はこれに代わって、ナビゲーション参照座標系の倍率を決定するために、画像データセットにおいて識別可能な縮尺基準の縮尺特徴を利用することができる。
本明細書で提示される技術は、ナビゲーション中に、ナビゲーション参照座標系を決定する際に用いた一つ以上の特徴に対する外科装置又はその一部の位置を追跡又は算出することを更に含んでいてもよい。これに関して、外科装置は、追跡カメラによって検出可能なツール追跡装置と関連付けられてもよい。これに代わって、外科装置に追跡カメラを取り付け、外科装置又はその一部の位置を(例えば、外科装置又はその部分とカメラとの幾何学的関係についての先験的知識に基づいて)算出してもよい。
追跡又は算出は、一つ以上の患者の解剖学的特徴及び患者追跡装置の一つ以上の(人工的な)追跡装置特徴のうち少なくとも一つに基づいて行ってもよい。即ち、この目的のため、少なくとも4つの特徴を用いることができる。追跡装置特徴に関して、患者追跡装置は、患者に貼られる特徴パッチ、特に可撓性の基材を有する特徴パッチとは異なるものであってもよい。
外科装置、又はその一部を、患者画像に対して視覚化してもよい。このような視覚化は、ナビゲーション参照座標系を決定する際に用いた一つ以上の特徴に対する外科装置の位置の追跡又は算出(推定を含む)に従って調整することができる。これらの特徴の座標は、ナビゲーション参照座標系において既知である。
通常、画像データセットは第1のカメラから受け取られてもよく、追跡又は算出は、ナビゲーション中に第1のカメラとは異なる第2のカメラによって提供される画像情報に基づいて行われてもよい。第1のカメラは、画像データセットを撮影する際に、手術室内で患者に対して(例えば、自由に)動かすことができるように構成されてもよい。第2のカメラは、手術の間、手術室内の一定の位置に本質的に固定されてもよい。例えば、第2のカメラは、手術室の壁、手術室の照明、又は本質的に固定されたカートに取り付けられてもよい。
代替の実施例では、ナビゲーション参照座標系と画像座標系との間の変換を決定する画像データセットは、第1のカメラから受け取られ、追跡及び算出も、ナビゲーション中に第1のカメラから受け取られる画像データセットに基づいて行われる。
画像データセットにおいて識別可能な特徴は、様々な形態をとり得る。例えば、これらの特徴は、3次元体であってもよく、2次元体であってもよい。識別された特徴は、互いに区別可能であってもよく、区別できなくてもよい。前者の場合、画像データセットにおいて識別可能な2つ以上の特徴は、予め定義された符号化方式に従って、画像データセットにおいて互いに異なるものとなるように符号化されてもよく、あるいは特徴付けられてもよい。符号化方式としては、配色や、QR(Quick Response)コード方式等のより高度な方式を挙げることができる。後者の場合は、特に、複数の特徴が重なり合っていてもよい。
これらの特徴は、画像データセットが得られた透視図から独立して、(例えば、ナビゲーション参照座標系内の座標として)ある空間の一点に関連付けられるように、又は一点に帰するように構成されることが好ましい。この目的のため、キーポイントの推定が行われてもよい。特徴座標は、特徴キーポイントの座標として表されてもよく、あるいは(例えば、特徴グループの場合には)複数の特徴キーポイントから導き出されてもよい。
(例えば、先験的知識に基づいて)画像データセット中の一つ以上の特徴を識別(位置決め等)するために、パターン認識技術を用いることができる。パターン認識技術によって、識別された複数の特徴を互いに区別することが可能となる。ここでも先験的知識を用いてもよい。
一つの実施例において、本明細書で提示される方法は、画像化された患者の画像データを受け取ることを更に含む。患者画像データは2次元又は3次元で提供されてもよい。3次元の患者画像は、画像ボリュームとも呼ばれる。画像データは、画像座標系に与えられることが好ましい。
本方法は、画像データから患者の表面の形状を抽出する工程を更に含んでいてもよい。これに関して、画像データに含まれる予め決められた又は任意の患者の部分を形状抽出に用いてもよい。形状抽出により、患者の表面を定める点群を得てもよい。
画像データは、様々な形態をとり得る。例えば、画像データは、超音波データあるいは核磁気共鳴断層法(MRT)やポジトロン断層法(PET)等のCTスキャンのデータとして与えられてもよい。画像データは、画像座標系を定めることもできる。
患者画像データは、(X線を通さない基準点等の)位置合わせマーカーを表示しなくてもよい。すなわち、いくつかの変更例では、データ取得前に位置合わせマーカーと患者とを関連付ける必要性を除外するために、表面マッチングが用いられる。患者画像データは、手術前に生成されてもよい。これに代わって、又はこれに加えて、手術中に得られた画像データを用いることもできる。
位置合わせの変換は、ナビゲーション前に決定されてもよい。これに加えて、上記変換は、ナビゲーション中に一回以上、(ナビゲーション前に決定された変換を検証又は修正するために)新たに決定又は調整されてもよい。このようにして、位置合わせを一回以上繰り返すことによって、ナビゲーションの精度を上げることができる。一つの実施例において、変換は、ナビゲーション中に受け取られた各画像データセットに基づいて新たに決定されてもよい。これに関して、フィルタリングを実施してもよい。例えば、変換は、ナビゲーション中に受け取られた新たな画像データセットを常に含む予め決められた数の画像データセットから決定されてもよい。
更に、コンピューター装置で実施されたときに、本明細書に記載された方法及び方法の態様のいずれかの工程を実行するプログラムコードの部分を含むコンピュータプログラム製品が提供される。本コンピュータプログラム製品は、ハードディスク、CD−ROM、DVD、又は半導体メモリ等のコンピューター可読記録媒体に保存されてもよい。また、本コンピュータプログラム製品は、ネットワーク接続を介してダウンロードすることで提供されてもよい。
更なる態様によると、患者画像データに対して外科装置をナビゲーションするためのナビゲーション参照座標系と患者画像データにより患者の表面の形状が定められる画像座標系との間の変換を決定するための装置が提供される。本装置は、患者の表面の異なる透視図から得られた複数の画像データセットを受け取るように適合されたインターフェースを備える。本装置は、画像データセットから、画像データセット中で識別可能な複数の特徴の特徴座標を、ナビゲーション参照座標系において決定し、上記特徴座標から、患者の表面の形状モデルを、ナビゲーション参照座標系において決定し、患者画像データによって定められた患者の表面の形状と形状モデルとの表面マッチングを用いて、ナビゲーション参照座標系と画像座標系との間の変換を決定するように適合されたプロセッサを更に備える。
更に、コンピュータ支援手術用のシステムが提供される。このシステムは、本明細書で提示された装置とカメラを含む。上記カメラは、患者に対して可動的であり、画像データセットを提供するように構成され得る。
本発明の更なる態様、詳細及び利点は、添付された図面と共に、例示的な実施態様の以下の記述から明らかになる。
ナビゲーション参照座標系と画像座標系との間の変換を決定することができるコンピュータ支援手術用のシステムの実施態様の概略図である。 図1Aのシステムの実施態様で使用可能な様々な特徴の実施態様を説明する樹形図である。 本明細書で提示される方法の実施態様を説明するフロー図である。 図1Aのシステムの実施態様を利用した位置合わせ及びナビゲーションシナリオを説明する概略図である。 図3のシナリオと関連して用いられる患者追跡装置の表面及び特徴パッチを説明する概略図である。 特徴キーポイントと追跡可能な特徴グループの概念を説明する概略図である。 図1Aのシステムの実施態様を利用した位置合わせ及びナビゲーションシナリオを更に説明する概略図である。
以下の例示的な実施態様の記述において、限定ではなく説明を目的として、本明細書で提示される技術の完全な理解を提供するために、特定の方法、機能、及び手順等の具体的詳細が説明される。本技術が、それらの具体的詳細とは別の実施態様で実行され得ることは当業者にとって明らかである。例えば、下記の実施態様は、主にENT(耳、鼻、喉)外科及び神経外科と関連する位置合わせ及びナビゲーションシナリオに基づいて説明されるが、本明細書で提示される技術を、脊髄外科等、患者の体の別の部位に対しても実施できることは容易に分かるであろう。
また、当業者であれば、本明細書で説明される方法、機能、及び工程が、プログラムされたマイクロプロセッサ、特定用途集積回路(Application Specific Integrated Circuit,ASIC)、デジタル信号プロセッサ(Digital Signal Processor,DSP)又は汎用目的のコンピューターと組み合わせて動作するソフトウェアを用いて実行されることを理解するであろう。以下の実施態様が主に方法、システム、及び装置に関して記述される一方で、本発明が、コンピュータ装置、又は、一つ以上のプロセッサ及び記憶装置として機能する一つ以上のメモリ(この一つ以上のメモリには、一つ以上のプロセッサが本明細書で開示される方法、機能、及び工程を実行するように制御するための一つ以上のコンピュータプログラムが記憶されている)を含む分散型コンピューターシステム上で動作するように読み込ませることができるコンピュータープログラム製品に具現化されることもまた理解されよう。
図1Aは、コンピュータ支援手術用のシステム100の実施態様を説明している。図1Aに示されるように、システム100は、(パーソナルコンピュータ、タブレット、ノートパソコン等の)コンピュータ装置110と、(タッチスクリーン、コンピュータモニタ等の)ディスプレイ装置120と、(データベースやデータシステムを備えたハードディスク又は半導体メモリ等の)外部記憶装置130とを含む。システム100は、2次元又は3次元で患者領域の画像データを得るように構成された画像取得装置140を更に含む。通常、画像取得装置140は、器具を用いずに操作可能な装置、機械ガイド付きの装置、又は完全に固定された装置とすることができる。例えば、画像取得装置140は、CT装置、MRT装置、PET装置、又は超音波装置であってもよい。画像取得装置140は、Digital Imaging and Communications in Medicine(DICOM)、又は別の患者画像の書式に従って、患者画像を(CD−ROMや無線、又は有線接続等を介して)コンピュータ装置110に提供するように構成される。これに代わって、コンピュータ装置110又は上記とは異なるコンピュータ装置が、任意の患者画像の書式に従って、画像取得装置140によって得られた患者画像データをフォーマットするように構成されてもよい。
システム100は、ユーザーインタラクション信号を生成するため(又は生成を誘発するため)、一つ以上のボタン、キーボード、マウス、又はトラックボール等のうち少なくとも一つのユーザー操作可能な入力装置(不図示)を更に含んでいてもよい。ユーザーインタラクション信号は、システム100の操作を制御してもよい。入力装置及びディスプレイ装置120は、タッチスクリーンに統合されてもよい。タッチスクリーンは、タブレットコンピュータの一部であってもよい。
システム100は、外科処置で用いられる(外科用具等の)外科装置150を更に含んでいてもよい。本明細書において理解されるように、患者の診断や治療等も外科処置に含まれると見なされる。外科装置150は、(例えば、一つ以上のボタンの形態をした)入力装置を含んでいてもよい。
外科装置150は、器具を用いずに操作可能な装置又は機械ガイド付きの装置であってもよい。後者の場合、外科装置150は、(例えば、完全自動型又は半自動型)外科ロボットによって操作されてもよい。別の変更例では、外科医による外科装置150の動きを制御する機械ガイドが存在してもよい。以下の実施態様のうちのいくつかでは、外科装置150は、生体針又は内視鏡として構成される。
ディスプレイ装置120は、患者画像データを視覚化するように構成される。患者画像データは、外科処置の前、又は外科処置の間に画像取得装置140によって取得される。ディスプレイ装置120は、患者に対して外科装置150をナビゲーションするためのコンピュータ支援ガイドを視覚化するように更に構成される。このような視覚化は、外科装置150又はその一部の現在位置(方位を任意に含む)を画像データから得られた患者画像に重ね合わせることを含んでもよい。これに加えて、又はこれに代わって、上記ガイドは、聴覚又は触覚的なフィードバックを介して与えられてもよい。
図1Aに示されるように、システム100は、更に、少なくとも一つのカメラ160と、特徴セット170を定める複数の特徴を含む。カメラ160は、特徴セット170の特徴のうち少なくともいくつかをそれぞれ含む2つ以上の異なる透視図から患者の画像データセットを取得するように構成される。カメラ160は、画像データセットを撮影する際に患者に対して自由に動くことができるように構成された手持ちカメラであってもよい。例えば、カメラ160は、連続的なビデオデータストリーム(例えば、ビデオフレーム)の形式で画像データセットを提供することが可能なビデオカメラとして実現されてもよい。
一つの変更例において、カメラ160は、カメラ160が外科装置150と一緒に動くことができるように、外科装置150に装着されてもよい。別の変更例では、カメラ160は、外科装置150と別々に操作可能であってもよい。このような変更例では、カメラ160は、スマートフォン、タブレットコンピュータ、又は別の任意のユーザー携帯機器に組み込まれていてもよい。
少なくとも一つの別のカメラ160Aが任意に設けられてもよい。一つの実施例では、別のカメラ160Aは外科装置150に装着され、外科ナビゲーション中の追跡に用いられ、もう一方のカメラ160は、本明細書で説明されたように、座標系変換が決定される位置合わせ手続きに関連して、外科装置150から独立して操作される(米国特許出願公開第2008/0208041号参照)。別の実施例では、カメラ160が外科装置150に装着され、位置合わせ及びナビゲーション(即ち、追跡)の両方の目的に使用される。更に別の実施例では、カメラ160、160Aの両方が、外科装置150に取り付けられ、カメラ160は位置合わせのために使用され、カメラ160Aはナビゲーションをガイドするために用いられる。また、更に別の実施例では、カメラ160Aは外科ナビゲーション中の追跡に用いられ、手術室の壁、手術室の照明、又はカート(図1Aには不図示)に取り付けられる。カートは少なくともコンピュータ装置110とディスプレイ装置120を移動するように構成されてもよい。
外科装置150に取り付けた場合、カメラ160、160Aは、外科装置150の対象となる患者表面を含む視野を有し得る。例えば、外科装置150が、使用中に患者に向けられる長手軸を有する場合、上記の視野は外科装置150の長手軸に沿って延び得る。
特徴セット170は、カメラ160(また、任意にカメラ160A)によって取得された画像データセットにおいて少なくとも識別可能な複数の特徴を含む。このような識別のために、コンピュータ装置110によりパターン認識機能が提供されてもよい。これに関して、システム100は、検出される特徴の配列、符号、又はその他の特性に関する先験的知識を有していてもよく、有していなくてもよい。一つ以上の特徴は、(カメラ160によって検出される放射線等の)能動的標識であってもよい。これに加えて、又はこれに代わって、一つ以上の特徴は、受動的標識であってもよい。受動的標識は、反射又は非反射特性を有していてもよい。受動的標識は、本明細書で提示された患者追跡装置及びツール追跡装置等の任意の剛性基材(平面基材等)又は可撓性基材上に(例えば印刷によって)実現されてもよく、あるいは患者の肌に描かれてもよい。一つ以上の特徴は、付加的な標識を含む患者特有の解剖学的特徴として実現されてもよく、また付加的な標識を含まなくてもよい。
図1Bには、実現され得る特徴の例が樹形図で示される。図に示されるように、これらの特徴は、人工的特徴又は解剖学的特徴のいずれであってもよい。システム100は、人工的特徴の先験的知識(いわゆる校正情報等)を有していてもよく、有していなくてもよい。先験的知識は、特徴符号化方式及び特徴間の相対位置のうち一つ以上に関するものであってもよい。先験的に既知である人工的特徴は、例えば、基材上に捺された又は印刷された受動的標識であってもよく、あるいは能動的標識であってもよい(図1Bには不図示)。先験的に既知でない人工的特徴は、患者の肌にランダムに描かれたものであってもよい。
解剖学的特徴については、システム100は、通常、専用の先験的知識を有さないが、この特徴を識別するための汎用モデルを使用することができる。解剖学的特徴の例としては、そばかす、痣、毛穴等の(典型的に2次元の)肌の特徴を挙げることができる。別の(典型的に3次元の)解剖学的特徴の例としては、患者の目、鼻頭等を挙げることができる。
図1Aを再度参照すると、コンピュータ装置110は、少なくとも一つのデータインターフェース112、中央演算装置(CPU)等の少なくとも一つのプロセッサ114、並びにデータ及びプログラムコードを保存するための半導体メモリやハードディスク等の内部記憶装置116を含む。データインターフェース112は、一つの変更例において、入力/出力インターフェースとして構成される。通常、データインターフェース112は、コンピュータ装置110と、ディスプレイ装置120、外部記憶装置130、画像取得装置140、カメラ160、160A、及び(Local Area Network(LAN)及び/又はインターネット等の)コンピュータネットワーク180のうち一つ以上との間の有線又は無線通信を確立するために使用される。データインターフェース112は、一つ以上のハードウェアコンポーネント、一つ以上のソフトウェアコンポーネント、又はそれらの組み合わせとして実現される。例えば、データインターフェースは、一つ以上のUSB(Universal Serial Bus)インターフェースを含むように実現されてもよい。これに代わって、又はこれに加えて、データインターフェース112は、(CD−ROMやSDカード等の)データ担体を読み取る装置として実現されてもよい。
内部記憶装置116、外部記憶装置130、又はその両方は、画像取得装置140によって取得された患者画像の画像データを記憶するように構成されてもよい。これに代わって、又はこれに加えて、このような画像データはコンピュータネットワーク180を介して(例えばダウンロードによって)受け取られてもよい。外部記憶装置130は、例えば、画像取得装置140内に少なくとも部分的に実現されて、コンピュータ装置110によって読み取られてもよい。
また、内部記憶装置116、外部記憶装置130、又はその両方は、校正データの様々な項目を記憶するように構成されてもよい。このような校正データは、システム100の先験的知識を構成する。校正データの例は、後でより詳細に説明される。容易に理解されるように、システム100の先験的知識は、これに代わって、又はこれに加えて、別の情報の項目を含んでいてもよい。
更に、内部記憶装置116、外部記憶装置130、又はその両方は、カメラ160から、またカメラ160Aが存在する場合にはカメラ160Aからも、受け取られた画像データセットを記憶するように構成され得る。上述のように、これらの画像データセットは、ビデオデータストリームの形式で受け取られてもよく、このビデオデータストリームは、プロセッサ114によって処理されるため、少なくとも一時的に記憶される。このような処理は、例えば、受け取られた画像データセット中の一つ以上の特徴を識別(例えば、位置決め、また任意にデコード)するためのパターン認識を含む。
以下、図1Aに示されるようなシステム100の操作の例示的様式について、残りの図を参照してより詳細に説明する。尚、本明細書に記載される操作様式は、図1Aに示されるシステムと異なる構成を有するものにおいても実行可能である。同様の参照番号は、同様又は類似の構成要素を示すために用いられる。
図1Aのシステム100は、通常、外科処置の間、コンピュータ補助を提供するように動作する。コンピュータ補助は、画像取得装置140によって得られディスプレイ装置120上に視覚化された患者画像データに対して、外科装置150又はその一部をナビゲーションするためのコンピュータ補助ガイドを含んでもよい。上述のように、このようなナビゲーションは、典型的に、先行する位置合わせ工程を必要とし、この位置合わせ工程では、ナビゲーション参照座標系と画像座標系との間の変換が決定される。ナビゲーション参照座標系は、通常、患者の体の座標系又は患者に対して一定の位置を有する患者追跡装置の追跡装置座標系である。患者追跡装置は、例えば、患者に装着される追跡装置配列の形態をとる。画像座標系は、典型的に、画像取得装置140によって与えられる画像データセット中に固有に定められる。
図2には、外科装置150をナビゲーションするための参照座標系と画像取得装置140によって得られた患者画像データが与えられる画像座標系との間の変換を決定するコンピュータ実施方法の実施態様を表すフロー図200が示される。
フロー図200に示されるように、本方法の実施態様は、図1Aに示されるコンピュータ装置110が、インターフェース112を介して、カメラ160及びカメラ160Aのうちの一つから得られた複数の画像データセットを受け取る第1の工程202を含む。このようにして受け取られた画像データセットは、プロセッサ114によって処理されるため、少なくとも一時的に内部記憶装置116に記憶される。上述したように、画像データセットは、連続的又は非連続的なビデオデータストリームの形式で受け取られてもよく、このときカメラ160、160Aのいずれか又は両方は、対象の患者の表面に対して動かされる。即ち、記憶装置116に記憶される画像データセットは、患者表面の2つ以上の異なる透視図から取得されたものである。
次の工程204において、プロセッサ114は、記憶装置116内の画像データセットを処理する。プロセッサ114は、パターン認識技術を用いて、画像データセット内の複数の特徴をまず識別(例えば、位置決め)し、それらの座標を(例えば、キーポイント座標として)ナビゲーション参照座標系において決定する。これに関して、プロセッサ114は、複数の識別された特徴に基づいて、ナビゲーション参照座標系を決定してもよい。プロセッサ114は、ナビゲーション参照座標系に展開される画像データセット内の特定の特徴に関する先験的知識を有していてもよく、あるいは、ナビゲーション参照座標系に展開されるように、識別された特徴のうち適切なものを単に指定又は選択してもよい。
次の工程206において、プロセッサ114は、特徴座標から、患者の表面の形状モデルをナビゲーション参照座標系において決定する。形状モデルは、患者の肌上に存在すると仮定される特徴の特徴座標によって規定された点群によって表されてもよい。形状モデルを規定する点群は、典型的には30を越える点を含み、ある実施例においては、数百の点を含む。
次に、工程208において、プロセッサ114は、ナビゲーション参照座標系と画像座標系との間の変換(即ち、変換パラメータのセット)を決定する。この変換は、工程206で決定された形状モデル(例えば表面点群)と、画像取得装置140によって得られた患者画像データによって定められた患者の表面形状との表面マッチング法を用いて決定される。この目的のため、プロセッサ114は、図2に示されない先行する又は並行する工程において、例えば、内部記憶装置116及び外部記憶装置130のいずれかから患者画像データを検索した後、その患者画像データから患者の表面形状を抽出してもよい。工程208で座標系変換が決定されると、この変換によって、ナビゲーション参照座標系に対する患者画像データの適切な位置合わせがなされ、ナビゲーション参照座標系において患者及び外科装置150のいずれか又は両方が追跡され、外科装置150をナビゲーションするための画像ガイド補助が外科医に提供される。
図3には、工程208で得られた変換T1が図示される。図3に示されるように、変換T1は、ナビゲーション参照座標系302(患者座標系又は追跡装置座標系とも称される)と画像座標系304との間のリンクを確立する。画像座標系304は、この場合、手術前に得られた患者の頭部の画像データ又は画像ボリュームが与えられる3次元座標系である。
また、図3には、関連付けられたカメラ座標系306を有する、完全可動式の位置合わせ用手持ちカメラ160と、関連付けられた装置座標系308を有する、完全可動式の外科装置150が示される。図3に示されるように、関連付けられたカメラ座標系310を有する追跡カメラ160Aは、外科装置150に装着されている。代替の実施態様において、追跡カメラ160Aは、手術室内に本質的に固定されるように取り付けられてもよい。このような実施態様では、別個のツール追跡装置(不図示)が外科装置150に装着されてもよい。
図2を参照して上述した位置合わせ工程202〜208は、位置合わせカメラ160によって得られる画像データセットに基づいて行われる。一方、(最初の)位置合わせ手続き後のナビゲーション手続きは、追跡カメラ160Aから受け取られた画像データセットに基づいて行われる。上述したように、代替の実施態様では、位置合わせカメラ160を、追跡カメラ160Aと一緒に、又はその代わりに外科装置150に取り付けることもできる。後者の場合、位置合わせカメラ160はナビゲーション(即ち追跡)のために用いられてもよい。
更に、図3に示されるように、追跡カメラ106A(代替の実施態様ではカメラ160)と外科装置150(例えばその先端)の位置関係は、装置座標系308とカメラ座標系310との間の第2の変換T2の変換パラメータによって決められる。この変換パラメータは、生産時の校正工程で(例えば、外科装置150及びカメラ160/160Aのいずれか又は両方の工場校正工程で)既に求められたものであってもよいし、外科処置の直前に(例えば、任意の外科装置150に対する一般的適合のための現地校正によって)得られてもよい。
第2の変換T2の変換パラメータは、ナビゲーション中に用いられる校正データとして、(例えば、図1Aに示されるコンピュータ装置110の内部記憶装置116又はカメラ160、160Aそれぞれの内部記憶装置に)記憶されてもよい。このような校正データは、カメラ160とその関連付けられた座標系との間の変換、及びカメラ160Aとその関連付けられた座標系との間の変換の変換パラメータを更に含んでいてもよい。この変換パラメータは、上記と同様に内部記憶装置116に記憶されてもよく、カメラ160、160Aそれぞれの投影モデルを規定してもよい。投影モデルは、カメラ160、160Aによって提供された画像データセットにおいて認識された一つ以上の特徴に対するカメラ160、160Aそれぞれの位置を決定するために使用することができる(これに関しては米国特許出願公開第2008/0208041号参照)。この投影モデルは、例えば、位置合わせのため、図2に示される工程204と組み合わせて、また、追跡カメラ160Aによって提供された画像データセットに基づく外科装置150のナビゲーションと任意に組み合わせて使用することができる。
特定の投影モデルの変換パラメータは、それぞれのカメラの製造業者によって又はシステム100の販売業者によって提供されてもよい。また、これらのパラメータは、現地校正備品によって計算されてもよく、特定のカメラの型に規格化されてもよい。ある実施例では、変換パラメータは、適切なインターフェースを介して、(例えば、現在選択されているズームレベルで、リアルタイム依存で)それぞれのカメラ160、160A自身によって提供される。
また、例えば、図3に示される特徴セット170に関する情報が、校正データとして図1Aのコンピュータ装置110の内部記憶装置116に提供される。このような情報としては、特徴の相対位置及び/又は適用された特徴符号化方式等が挙げられる。既知の特徴の相対位置と、カメラ160、160Aのうちのいずれかによって撮影された画像中の(即ち、関連付けられたカメラ座標系における)(投影された)特徴の相対位置に基づき、対応する画像座標系から、ナビゲーション参照座標系302等の特徴座標が与えられる任意の参照座標系への透視図の背景映写によって、更なる変換の変換パラメータを(例えば、リアルタイムで)決定することができる。これは、図3において、カメラ160及び160Aそれぞれに関する第3の変換T3及びT3Aによって表される。
カメラ160に関する第3の変換T3の変換パラメータは、個別の特徴jに対して、以下の計算式によって算出される。
j,160=T4・T3−1・Mj,cal
(式中、Mj,160は、カメラ160の画像データセット(例えばビデオフレーム)の画像中の、画像座標系に対する座標を有する特徴jを表す。Mj,calは、校正データとして与えられ、ナビゲーション参照座標系302に対する座標を有する特徴j(のキーポイント等)を示す。第4の変換T4は、カメラ160とそれに関連付けられた画像座標系との間の変換パラメータを示す。)
同様に、追跡カメラ160Aに関する変換T3Aの変換パラメータも算出することができる。尚、上述の透視図の背景映写は、しばしばカメラ姿勢推定(pose estimation)にも適用され、あるいはカメラ姿勢推定と組み合わせて行われる。
図3に示される例示的なシナリオにおいて、特徴セット170は2つの特徴サブセットとして与えられ、このうち第1の特徴サブセットは、患者追跡装置320と関連付けられ、第2の特徴サブセットは、特徴パッチ330と関連付けられる。第2の特徴サブセットは、これに加えて、又はこれに代わって、患者の解剖学的特徴として与えられてもよい。図3において、個別の特徴は、黒い点によって記号化されている。勿論、特徴パッチ330は、患者の肌に任意の又は明確なパターンを描くことで一般化することもできる。
図4Aには、複数の符号化された特徴をその表面に含む、複数部品からなる肌マスクの形態をした図3の特徴パッチ330の実施態様が示される。図4Bには、図3の患者追跡装置320の2次元表面(即ち、平面)が示される。
図4Aを参照すると、特徴パッチ330である肌マスクは、患者に面する側に接着剤を有し、頑健で光学的に可視な特徴を印刷面に有する可撓性基材を含む。各特徴は、2次元的な広がりを有する。本実施態様では、この特徴は、広がりを持つ固有のQR型コードを含む(QR型コードは個別の特徴に重なってもよい)。
図4Aにおいて、広がりを持つ個別の特徴は、白い円の中に位置するよう図示される。この円の中心は、特徴キーポイントを示す。通常、広がりを持つ各特徴は、その特徴の位置又は座標を示す特定のキーポイント又は中心を定めることができる。コンピュータビジョンでは、特徴は、キーポイントを囲む部分(即ち、特徴の外延)とも称される。
図4Cは、円の例示的な形態をした広がりを持つ特徴のキーポイントの概念を概略的に示す。図4Aの特徴にもこのキーポイントの概念が適用されることは容易に理解される。
尚、図4Aの白い円は、図示のために用いられているだけであり、実際の特徴パッチ330に存在するわけではない。代替的な実施態様では、個別の特徴は、別の方法で定義され、符号化されることは容易に理解されるであろう。例えば、色分けされた円又はドットを用いることができる。
上述のように、図4Aに示される特徴パッチ330の基材は、接着層を介して特徴パッチ330が貼られた患者の表面に一致するように曲げることができてもよい。ある実施例において、特徴パッチ330上の個別の特徴は、曲げても影響を受けず、平らな表面(即ち平面)を形成すると仮定される小さな領域内でグループ化される。
個別の特徴の相対位置及び(個別の特徴を区別することを可能とする)その符号化方式は、校正データとして記憶されていてもよい(即ち、先験的に既知であってもよい)。また、患者の肌に対する個別の特徴(又は特徴キーポイント)の距離(即ち、特徴パッチ330の厚さ)が、校正データとして記憶されていてもよい。
図4Bは、図3の患者追跡装置320の2次元表面(即ち、平面)を示す。本実施態様において、患者追跡装置320は、患者の鼻に付けられるヘッドセットとして構成される。患者追跡装置320は、患者と一緒に移動するように、患者に装着される。これにより、患者追跡装置320は、患者の動きを検出することができる。これは、特に、ナビゲーション中に、患者に対する外科装置150又は位置合わせカメラ160の位置をナビゲーション参照座標系302において追跡又は算出(推定を含む)するために必要とされる。
本実施態様において、ナビゲーション参照座標系302は、図4Bの患者追跡装置の2次元表面に与えられた(黒い領域と白い領域の組み合わせの形態をとる)特徴によって定められる、又は展開される。これは、患者追跡装置320の表面上に定められた追跡装置特徴がカメラ160、160Aのいずれか一つから受け取られた画像データセットにおいて一旦識別され、また任意にデコードされると、ナビゲーション参照座標系302を、座標系302内のこれらの特徴の座標と共に決定することができることを意味する。特徴パッチ330の特徴がナビゲーション参照座標系302において既知のものであった場合、それらの特徴もまたこの算出のために用いることができる。
通常、図4Aに示される特徴パッチ330の特徴に関する上記の記載は、図4Bの患者追跡装置320の特徴にも同様に適用される。例えば、図1Aのシステム100は、典型的に、患者追跡装置320上に与えられた特徴の相対位置及び符号に関する先験的知識(校正データ)を有する。
以下、ナビゲーション参照座標系302と画像座標系304との間の変換を決定するための更なる実施態様について説明する。これらの実施態様は、図3に示される一般的なシナリオに、以下で述べられる修正を加えたものである。以下で示されるように、画像取得装置140によって画像データを取得する際、患者に付けられるX線を通さない基準点又はその他任意の標識がなくても、座標系変換T1を決定することができる。
以下の実施態様に備えて、特徴グループ(本明細書では「ミニトラッカー」とも呼ばれる)の概念、並びに姿勢推定、SLAM、SfMなどのコンピュータビジョンの概念について説明する。
図4Dは、ミニトラッカーの概念を概略的に説明する。ミニトラッカーは、典型的に、4つ又は実質的にそれ以上の特徴のグループによって定義され、それ自身が個別の特徴を構成するとみなされ得る(即ち、3次元の特徴座標の固有のセットと関連付けることができる)。図4Dには、4つの特徴が描かれている。各特徴は一定の(円で示される)広がりと、(特定の線の種類で示される)符号を有する。この符号により、4つの特徴を互いに区別することが可能となる。図4Dに示される概略的なミニトラッカーの概念が、図4AのQR型コード又は図4Bのエリアコードを用いて実施されることは容易に理解されよう。
ミニトラッカーを定める特徴グループにより、位置(また、任意に方位)が規定された点とミニトラッカーを関連付けることが可能となる。これは、図4Dの座標系によって示される。この座標系(ミニトラッカー座標系)の起点は、上記の規定された点を示し、軸は方位を示す。特徴グループが既知の形状を有する表面上に配列される場合、座標系の起点は、その表面上の既知の点と関連付けることができる。特徴グループの特徴(即ち、それらの特徴キーポイント)は、ミニトラッカー座標系内に表される。また別の方法では、特徴グループを構成する特徴のキーポイント座標から、ミニトラッカー座標系を導き出すことができる。これらのキーポイント座標は、図3を参照して説明したように、姿勢推定法(透視図背景映写)を用いて決定してもよい。尚、ミニトラッカーの方位及びミニトラッカー座標系は、全ての実施態様で決定する必要はない。多くの実施態様では、ミニトラッカーを空間的に定義された点と関連付けるだけで十分である。
図4Aに示される特徴パッチの例に関して、各特徴グループは、特徴パッチ330が患者の表面に一致した際に、局所的な平面に配列されると考えられる(このとき、各特徴は互いに密接して配列される必要があると考えられる)。このため、各ミニトラッカーは、既知の表面点(例えば、ミニトラッカー座標系の起点)を示すと解釈でき、また、図4Eに示されるように、複数のミニトラッカー又は表面点の変換を決定することができる。通常、複数の表面点の間での変換は、その表面点の相対位置又は座標を規定し(図2の工程204参照)、これにより所望する表面モデルを描く点群を規定する(図2の工程206参照)。
図4Eにおいて、2つの例示的な表面点の間の3次元変換は、T11−1・T10によって示される。構成要素である変換T10及びT11は、それぞれのミニトラッカー座標系とカメラ座標系(図3における参照番号306)を関連付ける。一つの実現例では、複数のミニトラッカーに関するこのような変換を、一つの透視図から位置合わせカメラ160によって得られた一つの画像データセット(例えば、ビデオフレーム)から算出することができる。実際は、表面点間の変換(T11−1・T10等)は、(複数の透視図から得られた)複数の画像データセットから複数回導き出され、算出の頑健性を上げるために平均化される。
カメラ座標系306(図3参照)に対する表面点の変換T11及びT10は、一つの実施態様では、姿勢推定を含むSLAM技術を用いて算出される。上述のように、姿勢推定は、(図3を参照して説明したように)背景映写法を用いて2次元画像から位置及び(任意に)方位を決定するものである。SLAMによって自己位置推定(即ち、カメラ位置の決定)と地図作製(即ち、患者表面を表面モデルとして再現すること)を同時に行うことができる。
この実現例では、SLAMによって患者表面の形状がモデル化され、(ミニトラッカーによって定められた)局所的な平面領域で再現される。このため、平面姿勢推定を用いて患者表面を局所的に再現することができる。姿勢は、ある実施態様では、図4Bの患者追跡装置320等の患者追跡装置に対して(即ち、図3のナビゲーション参照座標系302において)算出、例えば推定される。得られた形状モデルは、点群として表される。容易に理解されるように、点群の各点は、個別のミニトラッカーの特徴座標(例えば、関連付けられたミニトラッカー座標系の起点)を示す。
形状モデルに関する特徴座標を得るために、SLAMに代わって、姿勢推定とSfM技術の組み合わせを用いてもよい(図2の工程204及び206)。これに関して、個別の特徴(例えば、特徴キーポイント。ミニトラッカー等の特徴グループである必要はない)は、異なる透視図から位置合わせカメラ160によって得られた複数の画像データセットそれぞれにおいて、二次元で識別される。特徴は、ある実施態様では、図4Aの特徴パッチ330によって与えられてもよい。各画像データセットに関して、それぞれのカメラの姿勢が、例えば図4Bの患者追跡装置320に対して算出される。このため、患者追跡装置320上の特徴と特徴パッチ330上の特徴を区別する必要がある。
次に、3次元特徴座標を導くために(即ち、患者の表面を再現して形状モデルを生成するために)SfMが適用される。SfMは、位置合わせカメラ160が患者に対して動く際に、個別の特徴に関する2次元の特徴追跡を構築する。この特徴追跡から、ナビゲーション参照座標系における(例えば、患者追跡装置320の座標系302における)特徴座標が導かれる。これに関して、患者追跡装置320に対する位置合わせカメラ160の姿勢を、特徴追跡が構築される画像データセットに利用してもよい。これにより、特徴追跡は、3次元特徴座標の再現に使用される。
三角測量、また任意にバンドル法を3次元特徴座標再現及び形状モデル生成に適用することができる。一つの変更例において、三角測量は、各特徴追跡に関して、(例えば、患者追跡装置320に対する)カメラ姿勢において最大の角距離を有する2つのデータセット(ビデオフレーム等)を決定する。これらの2つのデータセットから2次元での特徴情報が導かれ、ナビゲーション参照座標系における特徴座標の初期の3次元再現が得られる。その後、特徴追跡のための初期再現は、多く又は全ての関連付けられた画像データセット(と関連付けられたカメラ姿勢)と一緒に、バンドル法を行うために用いられる。バンドル法は、再投影誤差を減らすための最適化手順である。またこの場合、得られた形状モデルは3次元特徴座標の点群によって表される。
患者追跡装置に対する明確なカメラ姿勢推定がなくても、SfMを実行できることは容易に理解されよう。このような場合、それぞれのカメラ姿勢は推定され、繰り返し最適化される。これに関連する手順はKlein et al.,2007年12月,Parallel Tracking and Mapping for Small AR Workspaces, Proceedings of the 2007 6th IEEE and ACM International Symposium on Mixed and Augmented Realityの1〜10、13〜16頁に記載されている。
トラッカーの概念、姿勢推定、SLAM、及びSfMに関する上記の説明に基づき、図5A〜8Bに図示されるような、より詳細な実施態様について説明する。
図5A〜5Cに示される実施態様では、図3に示されるものと同様の構成が用いられる。これは、位置合わせのために、患者表面の異なる透視図から画像データセットを提供するように、手持ちカメラ160が患者に対して動かされることを意味する。また、図4Aの(複数部品からなる)特徴パッチ330と、図4Bに示される特徴パターンを有する患者追跡装置320の両方が患者に使用される。このため、患者追跡装置320の特徴と特徴パッチ330の特徴の両方を、位置合わせカメラ160によって提供された画像データセットにおいて識別することができる。
図5Bは、図5Aの構成に基づいた方法の実施態様のフロー図500を示す。この方法の実施態様は、図4C〜4Dに示される特徴グループ(又はミニトラッカー)の概念、姿勢推定を用いるが、SLAMを適用する必要はない。
最初の工程502では、手術前又は手術中に、対象となる患者の領域(即ち、外科処置の対象)をスキャンする。上述のように、患者体に特定の基準点やその他任意の標識を付ける必要はない。得られた患者画像データ(一般にボリュームデータセット)は、図1Aのコンピュータ装置110にインポートされる。このインポートは、DICOM等の標準プロトコルによって実行することができる。
次の工程504では、対象となる患者表面の形状を画像データから抽出する。抽出された形状表現は、対象となる患者の解剖学的領域の肌の表面を表していてもよい。図5Aに示される例示的な実施態様では、前額部及び顔の表面が抽出される。この抽出は、光線追跡法又は3次元画像分割などの任意の他の技術を用いて、コンピュータ装置110又は代替的なコンピュータ装置によって実行することができる。
工程502及び504は、手術の数日前又は数週間前に行うことができることが理解されよう。ある場合においては、両工程は、外科処置中に(即ち、外科処置に並行して)行うこともできる。
外科処置の直前に、符号化された特徴を有する肌マスク型の特徴パッチ330が患者の肌表面に取り付けられる(工程506)。上述のように、符号化された特徴はグループ化され、(同様に符号化された)ミニトラッカーが形成される。特徴パッチ330の患者に面する側に存在する接着剤により、取り付けられた特徴パッチ330は患者表面に一致する。
同時に、患者追跡装置320が患者に取り付けられる(工程508)。患者追跡装置は、位置合わせ及びナビゲーションの間、患者体から動かされないように装着される。図5Aに示される実施態様では、表面に追跡装置特徴が印刷された平面基材を備えるヘッドセット(図4B参照)が用いられる。別の実施態様では、ヘッドバンドやヘッドフレームを用いてもよく、患者の肌に貼り付けられる患者追跡装置を用いることもできる。
実際の位置合わせ手続きは、位置合わせカメラ160を患者に対して動かしながら、当該カメラから受け取られたビデオデータストリームを図1Aのコンピュータ装置110の内部記憶装置116に記録する工程510から開始される。このビデオデータストリームは、患者表面の異なる透視図から得られた連続した画像データセットを含む。この画像データセットにより、位置合わせカメラ160の視野内にある追跡装置320上の特徴及び特徴パッチ330上の特徴の両方を識別することが可能となる。
次に、工程512において、患者追跡装置320の少なくとも4つの頑健な特徴が識別(例えば検出)可能な各画像データセットに関して、その画像データセットにおいて同様に識別可能な特徴パッチ330上の各ミニトラッカーの位置を、患者追跡装置320に対して、(例えば、図3を参照して説明した姿勢推定を用いて)ナビゲーション参照座標系302中で3次元的に決定する。この場合、ナビゲーション参照座標系302は、患者追跡装置320上で認識された特徴配列によって先験的に定められ、工程512において決定される。
このため、工程512は、(図3を参照して説明したのと同様の方法で)位置合わせカメラの座標系306に対して、患者追跡装置320の位置及び方位(即ち、姿勢)、並びに、ミニトラッカーの位置を推定することを含む。座標変換によって、ナビゲーション参照座標系302におけるミニトラッカーの位置が算出される。
結果として、位置合わせカメラ160から受け取られたビデオデータストリームを処理することで、患者追跡装置320に対する(即ち、ナビゲーション参照座標系302における)複数のミニトラッカーの(即ち、図4Eに示されるような関連付けられた表面点の)特徴座標を収集し、また任意にフィルタリングすることができる。フィルタリングは、複数の画像データセットから導かれた(即ち、異なる透視図から得られた)一つのミニトラッカーについて算出された複数の位置の平均値を算出することを含んでもよい。結果として、ナビゲーション参照座標系320において、特徴パッチ330上のミニトラッカーの位置を表す点群(即ち、特徴座標)が得られる。この点群は、特徴パッチが付けられた患者表面の形状モデルを表す。
上記の算出のうち一回以上は、ビデオデータストリームを記録しながら、また、視覚的な又はその他のフィードバックを位置合わせカメラ160を操作するユーザーに提供しながら行うことができる。このようなフィードバックは、位置合わせカメラ160より得られたビデオデータストリームのディスプレイ装置120上でのレンダリング、画像データセットにおいて患者追跡装置320を識別可能か否かに関する情報、及び特徴パッチ330の個別の特徴の状態に関する情報(例えば、検出状況、特徴の推定位置に関する品質情報のうち一つ以上)のうち一つ以上を含み得る。
工程512で特徴パッチ330に関する特徴座標を表す点群を決定した後、本方法は工程514に進む。工程514では、工程512で得られたナビゲーション参照座標系302における特徴座標の点群を、工程504で画像データから抽出された画像座標系304における患者表面と照合させるための表面マッチングが行われる。表面マッチングは、ICP(Iterative Closest Points)又はその他任意の技術を用いて行うことができる。工程514におけるマッチングの結果、ナビゲーション参照座標系302(本実施態様では、患者追跡装置の座標系と一致)から画像座標系304への、又はその逆の変換T1のための位置合わせ変換マトリクス(即ち、変換パラメータ)が得られる(図3参照)。
次の工程516では、位置合わせ変換マトリクスに基づき、ナビゲーションカメラ160Aがナビゲーション参照座標系302において既知の少なくとも4つの特徴(例えば、患者追跡装置320の特徴)を識別可能である場合に、追跡カメラ160Aが取り付けられた外科装置150を患者画像データボリュームデータセットにおいてナビゲーションすることができ、また、姿勢推定法を用いて患者追跡装置320に対する追跡カメラ160Aの姿勢を算出することができる。
図5Cは、図5Aに示される構成に基づき、図3の座標系変換T1を決定する別の方法のフロー図550を示す。工程552〜566は、本質的に、図5Bを参照して説明した工程502〜516に相当するため、工程562に関する大きな違いについてのみ、詳しく説明する。この違いは、ミニトラッカーの概念が実施されないという事実に関係する。代わりに、姿勢推定を伴うSfM技術が用いられる。従って、特徴パッチ330上の(符号化された)個別の特徴のみが、識別及び処理される必要がある。
工程562において、SfM技術は、特徴パッチ330の特徴の特徴座標を決定するために用いられる。上述のように、SfMは、一連の2次元画像データセットから3次元構造を推定する方法である。これにより、位置合わせカメラによって撮影された動画映像の(投影された)2次元モーションフィールドから3次元表面を復元することができる。これに関して、特徴パッチ330の個別の特徴は、一連の画像データセットにおいて、(例えば、オプティカルフローアルゴリズムによって)画像データセットから画像データセットへと追跡される。各画像データセットに関して、患者追跡装置320に対する(例えば、推定された)カメラ姿勢を知り、SfMを適用することによって、ナビゲーション参照座標系302(即ち、患者追跡装置の座標系)において識別された特徴の3次元座標を算出することができる。これらの算出の結果、ナビゲーション参照座標系302における特徴パッチ330の特徴の座標の点群が得られる。
図6Aには、専用の患者追跡装置が省略された代替的な構成が示される。患者に予め取り付けられる専用の患者追跡装置(図5Bの工程508、図5Cの工程558参照)の代わりに、コンピュータシステム110が、位置合わせ手続きの間のみ、特徴パッチ330の識別された特徴から患者追跡装置を生成する。
対応する工程は、図6Bのフロー図600に示される。工程602、604、606、616、及び618は、大部分が、図5Bを参照して説明した工程502、504、506、514、及び516にそれぞれ相当するため、詳しくは説明しない。即ち、図6Bの方法の実施態様もまた、ミニトラッカーの概念を利用している。
専用の患者追跡装置が患者に取り付けられないため、工程608で記録されるビデオデータストリームは、特徴パッチ330の特徴のみを示す。
工程610では、各画像データセットに関して、特徴パッチ330の識別された各ミニトラッカーの姿勢(即ち、位置及び方位)がカメラ座標系306(図3参照)に対して推定される。図4Dを参照して説明したように、特定のミニトラッカーの既知の位置及び方位は、局所的なミニトラッカーの座標系を定める。このため、一つの識別されたミニトラッカーの座標系から別の識別されたミニトラッカーの座標系への変換を(例えば、任意のミニトラッカーの座標系において)算出することができる。この方法については、図4Eを参照して説明した通りである。
工程612では、多様な特徴の組み合わせに関して工程610で算出された変換を(例えば、異なる透視図から算出された各ミニトラッカーに関する変換の平均値をとることで)収集、また任意にフィルタリングする。
次に、工程614では、識別されたミニトラッカーに関して導き出された位置(即ち、座標)及び/又は変換から任意の座標系を構築する。任意の「特徴パッチ」の座標系において識別された個別のミニトラッカーの特徴座標は、(その座標系において)特徴パッチ330が付けられた患者表面の表面モデルを表す点群を再び生成する。これに加えて、外科ナビゲーションの間、後の追跡のために(追跡カメラ160Aを介して)集合的な一つの識別されたミニトラッカーを指定することができる。このため、任意の特徴パッチ座標系は、図5A〜5Cに示される方法の実施態様と同じ目的のために利用される患者追跡装置座標系と置換されるナビゲーション参照座標系302を構成するように定められる。
従って、ミニトラッカーは、工程618において、患者(及び外科装置)に対するナビゲーションカメラの位置を決定するために、ナビゲーション中の追跡にも用いられる。これが、ミニ「トラッカー」と呼ばれる所以である。専用の患者追跡装置を用いる別の実施態様(図5B等参照)では、ミニトラッカーをナビゲーション中に実際の追跡目的で用いる必要がないことは容易に理解されよう。
図7Aは、図6Aに示される構成と類似しているが、SfM技術を利用する更なる構成を示す。従って、ナビゲーション参照座標系は、ミニトラッカーからは決定されない。また、図7Aには補足的な縮尺基準190が示される。ミニトラッカーが用いられる別の実施態様では、縮尺のためにミニトラッカーの位置に関する先験的知識を用いてもよい。
図7Aの縮尺基準190は、既知の相対距離を有する縮尺特徴を含む。例えば、縮尺基準190は、縮尺特徴を定める規則的又は不規則なパターンを有する平面基材の形態をとってもよい。縮尺特徴もまた、位置合わせカメラ160によって提供された画像データセットにおいて識別可能であり、患者表面の形状モデルに関する倍率を決定することを可能とする。代替的な実施態様では、このような倍率は、マッチング装置140によって得られた患者画像データに関連付けられた既知の倍率から、表面マッチング手続きの間に求めることができる。
これに関連する、図7Bのフロー図700に示される方法の実施態様は、図6Bを参照して説明された方法の実施態様に大部分相当する。一つの違いとして、視覚的に検出可能かつ区別可能な少なくとも2つの剛健な光学的縮尺特徴を有する(剛性)縮尺基準190(及び先験的に既知な互いに対する相対位置)が、工程708で記録されるビデオデータストリームに含まれる。尚、必要であれば、特徴パッチ330に縮尺基準190を含めることもできる。また、縮尺基準190は患者に付けられる必要はないが、位置合わせのため、ビデオデータストリームを取得する間、患者に対して一定の位置を有するべきである。
主に姿勢推定に基づいて行われる工程610とは対照的に、工程710では、識別された(即ち、検出、また任意にデコードされた)個別の特徴(特徴グループでなくてもよい)の点群を算出するためにSfMが用いられる。点群は、工程712において、縮尺特徴の相対的空間位置に関する先験的知識に従って、画像データセット中で識別された縮尺基準特徴の拡大・縮小をすることから決定された倍率によって拡大・縮小される。容易に理解されるように、このような拡大・縮小は、工程610で利用される姿勢推定技術には必要ない。工程714では、患者追跡装置及び関連付けられた座標系が、特徴パッチ330の少なくとも4つの(個別の)特徴から構築される。その後、これらの少なくとも4つの特徴は、工程718におけるナビゲーション目的で、カメラ姿勢を推定するために用いられる。
図8Aは、図3の患者追跡装置320と特徴パッチ330を省略した更なる構成を示す。一方で、任意の縮尺基準190が再度設けられる。これに対応する、図8Bのフロー図に示される方法の実施態様は、図7Bの方法の実施態様に一部相当する。従って、工程702、704、712、714、716、及び718にそれぞれ対応する工程802、804、814、816、818、及び820の説明は省略する。
工程806において、縮尺基準190は、位置合わせカメラ160の視点方向(即ち視野)に配置される。次に、工程808において、対象とする患者領域(ここでは患者の顔)のビデオデータストリームを位置合わせカメラ160によって複数の透視図又は視点角度から、縮尺基準190も視認されるように記録する。次の工程810では、患者の解剖学的特徴が識別、また任意に分類され、検出された特徴に基づきビデオデータストリーム内で追跡される。3次元点群の算出には、上述のように、SfMを適用する。
工程810と関連して(即ち、並行して)、工程812でパターン認識を行い、患者の解剖学的特徴があると予想される画像領域を定めるために用いられる付加的な患者の解剖学的特徴(いわゆる目印)を識別する。この工程は、患者表面上にない特徴が検出されるのを防ぐために役立つ。容易に理解されるように、上記の患者の解剖学的特徴は、工程820における外科ナビゲーションのため、患者追跡装置を定めるためにも利用される。このため、専用の特徴パッチと専用の患者追跡装置のどちらも図8A及び図8Bに示される実施態様には必要ない。
図8Aの実施例において、工程810で用いられる患者の解剖学的特徴は、個人の肌の特徴である。このような肌の特徴は、位置合わせカメラ160によって得られた画像データセットにおいて(パターン認識を介して)検出可能な毛穴、そばかす、及び痣のうち一つ以上を含む。別の実施例では、患者の肌に描かれたパターンが同様の目的で肌特徴として用いられることは容易に理解されよう。通常、上記の実施態様のいずれにおいても、このような描かれたパターンを基材付き特徴パッチ330の代わりに使用することができる。
尚、図8Aに示される構成において、縮尺基準190は省略可能である。代替案として、患者画像データに初めから含まれる縮尺情報に基づき、表面マッチングを用いて、拡大・縮小を行うこともできる。
上記の実施態様から明らかになったように、本発明は、革新的な位置合わせ方法を伴う外科ナビゲーション技術を提供する。最も簡素な変更例では一つのカメラ(例えば、インターフェースを介してコンピュータ装置と連結されたウェブカメラ)で十分であるため、ナビゲーションシステムを低コストで提供することができる。位置合わせ手続きは、容易かつ直観的であり、外科ナビゲーションのための患者画像データの獲得には患者への特別な処置は必要ない。
上記の原理、実施態様及び本明細書で提示される技術を実施する多様な様式は例として記述されている。本発明は、本明細書で述べられた特定の原理、実施態様及び様式に限定されないものとして解釈されるべきである。むしろ、当業者によって多様な変更及び修正が後述の請求項において定義されるような本発明から逸脱しない範囲でなされ得ることが理解されよう。
更に、図3に示されるように、追跡カメラ160A(代替の実施態様ではカメラ160)と外科装置150(例えばその先端)の位置関係は、装置座標系308とカメラ座標系310との間の第2の変換T2の変換パラメータによって決められる。この変換パラメータは、生産時の校正工程で(例えば、外科装置150及びカメラ160/160Aのいずれか又は両方の工場校正工程で)既に求められたものであってもよいし、外科処置の直前に(例えば、任意の外科装置150に対する一般的適合のための現地校正によって)得られてもよい。
結果として、位置合わせカメラ160から受け取られたビデオデータストリームを処理することで、患者追跡装置320に対する(即ち、ナビゲーション参照座標系302における)複数のミニトラッカーの(即ち、図4Eに示されるような関連付けられた表面点の)特徴座標を収集し、また任意にフィルタリングすることができる。フィルタリングは、複数の画像データセットから導かれた(即ち、異なる透視図から得られた)一つのミニトラッカーについて算出された複数の位置の平均値を算出することを含んでもよい。結果として、ナビゲーション参照座標系302において、特徴パッチ330上のミニトラッカーの位置を表す点群(即ち、特徴座標)が得られる。この点群は、特徴パッチが付けられた患者表面の形状モデルを表す。

Claims (37)

  1. コンピュータによって実施される、患者画像データに対して外科装置(150)をナビゲーションするためのナビゲーション参照座標系(302)と画像座標系(304)との間の変換(T1)を決定する方法であって、前記患者画像データは患者の表面の形状を前記画像座標系において定め、前記方法は、
    前記患者の表面の異なる透視図から得られた複数の画像データセットを受け取る工程(202)と、
    前記画像データセットから、前記画像データセット中で識別可能な複数の特徴(170)の特徴座標を、前記ナビゲーション参照座標系(302)において決定する工程(204)と、
    前記特徴座標から、前記患者の表面の形状モデルを、前記ナビゲーション参照座標系(302)において決定する工程(206)と、
    前記患者画像データによって定められた前記患者の表面の前記形状と前記形状モデルとの表面マッチングを用いて、前記ナビゲーション参照座標系(302)と前記画像座標系(304)との間の変換(T1)を決定する工程(208)を含むことを特徴とする方法。
  2. 前記画像データセットは、前記画像データセットを撮影する際に前記患者に対して可動的な第1のカメラ(160)から受け取られることを特徴とする請求項1に記載の方法。
  3. 前記第1のカメラ(160)は、ビデオカメラであり、前記画像データセットは、ビデオデータストリームの形式で前記第1のカメラ(160)から受け取られることを特徴とする請求項2に記載の方法。
  4. 前記第1のカメラ(160)は、手持ちカメラか、前記外科装置(150)に取り付け可能なカメラのうち少なくとも一つであることを特徴とする請求項2又は請求項3に記載の方法。
  5. 少なくとも一つの画像データセットにおいて識別可能な前記特徴のうちのいくつかは、特徴グループとしてグループ化され、位置及び方位のうち少なくとも一つは各特徴グループに帰属することを特徴とする請求項1から請求項4のいずれか1項に記載の方法。
  6. 前記特徴座標及び前記形状モデルのうち少なくとも一つは、3次元復元法(Structure−from−Motion;SfM)、自己位置推定と地図作製を同時に行う方法(Simultaneous Localization and Mapping technique;SLAM)、及び姿勢推定法のうち一つ以上を用いて決定されることを特徴とする請求項1から請求項5のいずれか1項に記載の方法。
  7. SLAMを前記特徴グループに適用することを特徴とする請求項5又は請求項6に記載の方法。
  8. 異なる透視図からの前記画像データセットにおいて識別可能な個別の特徴に関して、SfMが特徴追跡を構築し、異なる透視図に基づく三角測量が個別の特徴追跡に適用されることを特徴とする請求項6に記載の方法。
  9. 前記形状モデルは、点群によって表されることを特徴とする請求項1から請求項8のいずれか1項に記載の方法。
  10. 更に、前記画像データセットにおいて識別された前記特徴(170)のうちの少なくともいくつかの特徴に基づいて、前記ナビゲーション参照座標系(302)を決定することを含む請求項1から請求項9のいずれか1項に記載の方法。
  11. 前記特徴座標は、外科ナビゲーション中に使用される患者追跡装置(320)の一つ以上の追跡装置特徴に関して決定され、前記患者追跡装置(320)は、前記画像データセットにおいて少なくとも部分的に識別可能であり、前記患者に対して一定の位置を有することを特徴とする請求項1から請求項10のいずれか1項に記載の方法。
  12. 前記追跡装置特徴は、前記ナビゲーション参照座標系(302)を少なくとも部分的に定めることを特徴とする請求項10又は請求項11に記載の方法。
  13. 前記特徴座標は、前記画像データセットにおいて識別可能な一つ以上の患者の解剖学的特徴に関して決定されることを特徴とする請求項1から請求項12のいずれか1項に記載の方法。
  14. 更に、解剖学的特徴に関する一般知識を用いて、前記画像データセットにおける前記一つ以上の患者の解剖学的特徴を識別することを含む請求項13に記載の方法。
  15. 前記ナビゲーション参照座標系(302)は、前記患者の解剖学的特徴から、少なくとも部分的に決定されることを特徴とする請求項7と請求項13又は請求項14の組み合わせの方法。
  16. 前記形状モデルは、前記患者の解剖学的特徴から、少なくとも部分的に決定されることを特徴とする請求項13から請求項15のいずれか1項に記載の方法。
  17. 前記特徴座標は、前記画像データセットにおいて少なくとも部分的に識別可能な、前記患者に貼られる特徴パッチ(330)の一つ以上のパッチ特徴に関して決定されることを特徴とする請求項1から請求項16のいずれか1項に記載の方法。
  18. 前記ナビゲーション参照座標系(302)は、前記パッチ特徴から、少なくとも部分的に決定されることを特徴とする請求項10と請求項17の組み合わせの方法。
  19. 前記特徴パッチ(330)は、前記患者の表面に一致しており、前記形状モデルは、前記パッチ特徴から、少なくとも部分的に決定されることを特徴とする請求項17又は請求項18に記載の方法。
  20. 更に、前記表面マッチングから倍率を導きだし、前記倍率からも、前記ナビゲーション参照座標系(302)を決定することを含む請求項1から請求項19のいずれか1項に記載の方法。
  21. 前記画像データセットにおいて、縮尺基準(190)の縮尺特徴が識別可能であり、前記ナビゲーション参照座標系(302)は、前記縮尺特徴から導き出される倍率からも決定されることを特徴とする請求項1から請求項20のいずれか1項に記載の方法。
  22. 更に、ナビゲーション中に、前記特徴のうち一つ以上から決定された前記ナビゲーション参照座標系(302)に対する前記外科装置(150)又はその一部の位置を追跡又は算出することを含む請求項1から請求項21のいずれか1項に記載の方法。
  23. 前記追跡又は算出は、一つ以上の患者の特徴及び前記患者追跡装置(320)の一つ以上の追跡装置特徴に基づいて行われ、前記患者追跡装置(320)は、前記患者に貼られる特徴パッチ(330)とは異なることを特徴とする請求項22に記載の方法。
  24. 更に、前記追跡又は算出に従って、前記外科装置(150)又はその一部を、前記患者画像に対して視覚化することを含む請求項22又は請求項23に記載の方法。
  25. 前記画像データセットは、第1のカメラ(160)から受け取られ、前記追跡又は算出は、前記第1のカメラ(160)とは異なる第2のカメラ(160A)によって提供される画像情報に基づいて行われることを特徴とする請求項22から請求項24のいずれか1項に記載の方法。
  26. 前記第2のカメラ(160A)は、手術の間、手術室内の一定の位置に本質的に固定されることを特徴とする請求項25に記載の方法。
  27. 前記画像データセットは、第1のカメラ(160)から受け取られ、前記追跡又は算出は、前記第1のカメラ(160)から受け取られた前記画像データセットにも基づいて行われることを特徴とする請求項22から請求項24のいずれか1項に記載の方法。
  28. 前記画像データセットにおいて識別可能な前記特徴のうち2つ以上は、予め定義された符号化方式に従って、前記画像データセットにおいて互いに異なるものとなるように符号化されることを特徴とする請求項1から請求項27のいずれか1項に記載の方法。
  29. 更に、前記画像データセットにおける前記特徴のうち一つ以上をパターン認識に基づいて識別することを含む請求項1から請求項28のいずれか1項に記載の方法。
  30. 更に、前記画像座標系(304)に与えられる前記患者画像データを受け取ることと、前記患者画像データから前記患者の表面の形状を抽出することを含む請求項1から請求項29のいずれか1項に記載の方法。
  31. 前記患者画像データは、位置合わせマーカーを表示しないことを特徴とする請求項30に記載の方法。
  32. 前記患者画像データは、手術前に生成されることを特徴とする請求項30又は請求項31に記載の方法。
  33. 前記変換(T1)は、ナビゲーション前に加えて、ナビゲーション中に1回以上決定され、前記ナビゲーション前に決定された変換を検証又は修正することを特徴とする請求項1から請求項32のいずれか1項に記載の方法。
  34. 前記変換(T1)は、ナビゲーション中に受け取られた各画像データセットに基づいて新たに決定されることを特徴とする請求項33に記載の方法。
  35. コンピューター装置で実施されたときに、請求項1から請求項34のいずれか1項に記載の工程を実行するプログラムコードの部分を含むコンピュータプログラム製品。
  36. 患者画像データに対して外科装置(150)をナビゲーションするためのナビゲーション参照座標系(302)と画像座標系(304)との間の変換(T1)を決定するための装置(110)であって、前記患者画像データは患者の表面の形状を前記画像座標系において定め、前記装置(110)は、
    前記患者の表面の異なる透視図から得られた複数の画像データセットを受け取るように適合されたインターフェース(112)と、
    前記画像データセットから、前記画像データセット中で識別可能な複数の特徴(170)の特徴座標を、前記ナビゲーション参照座標系(302)において決定し、前記特徴座標から、前記患者の表面の形状モデルを、前記ナビゲーション参照座標系(302)において決定し、前記患者画像データによって定められた前記患者の表面の前記形状と前記形状モデルとの表面マッチングを用いて、前記ナビゲーション参照座標系(302)と前記画像座標系(304)との間の変換(T1)を決定するように適合されたプロセッサ(114)とを備えるものであることを特徴とする装置。
  37. 請求項36に記載の装置(110)と、前記患者に対して可動的であり、前記画像データセットを提供するように構成されたカメラ(160)とを含むシステム(100)。
JP2016535350A 2013-08-23 2013-08-23 外科ナビゲーションのための座標変換を決定するコンピュータ実施技術 Active JP6159030B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2013/067529 WO2015024600A1 (en) 2013-08-23 2013-08-23 Computer-implemented technique for determining a coordinate transformation for surgical navigation

Publications (2)

Publication Number Publication Date
JP2016527996A true JP2016527996A (ja) 2016-09-15
JP6159030B2 JP6159030B2 (ja) 2017-07-05

Family

ID=49035586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016535350A Active JP6159030B2 (ja) 2013-08-23 2013-08-23 外科ナビゲーションのための座標変換を決定するコンピュータ実施技術

Country Status (5)

Country Link
US (1) US9901407B2 (ja)
EP (1) EP3007635B1 (ja)
JP (1) JP6159030B2 (ja)
CN (1) CN105658167B (ja)
WO (1) WO2015024600A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7330677B2 (ja) 2017-09-13 2023-08-22 バイオセンス・ウエブスター・(イスラエル)・リミテッド タッチパッドユーザインタフェースとしての患者の顔

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2883079B1 (en) * 2012-08-10 2017-09-27 Maui Imaging, Inc. Calibration of multiple aperture ultrasound probes
US9883848B2 (en) 2013-09-13 2018-02-06 Maui Imaging, Inc. Ultrasound imaging using apparent point-source transmit transducer
EP2884364B1 (en) * 2013-12-12 2018-09-26 Hexagon Technology Center GmbH Autonomous gardening vehicle with camera
DE102014104800A1 (de) 2014-04-03 2015-10-08 Aesculap Ag Medizinische Befestigungseinrichtung sowie Referenzierungsvorrichtung und medizinisches Instrumentarium
DE102014104802A1 (de) * 2014-04-03 2015-10-08 Aesculap Ag Medizinische Referenzierungsvorrichtung, medizinisches Navigationssystem und Verfahren
US20170135655A1 (en) * 2014-08-08 2017-05-18 Carestream Health, Inc. Facial texture mapping to volume image
US10091418B2 (en) * 2014-10-24 2018-10-02 Bounce Imaging, Inc. Imaging systems and methods
US9436993B1 (en) * 2015-04-17 2016-09-06 Clear Guide Medical, Inc System and method for fused image based navigation with late marker placement
US10082384B1 (en) 2015-09-10 2018-09-25 Stryker European Holdings I, Llc Systems and methods for detecting fixation frame parameters
US9665936B2 (en) * 2015-09-25 2017-05-30 Siemens Healthcare Gmbh Systems and methods for see-through views of patients
CN113729764A (zh) 2016-01-27 2021-12-03 毛伊图像公司 具有稀疏阵列探测器的超声成像
CA3005502C (en) 2016-03-17 2021-03-30 Brainlab Ag Optical tracking
EP4238526A3 (en) 2016-03-24 2023-11-22 Stryker European Operations Holdings LLC Cutting assembly for a surgical instrument
EP4186458A1 (en) 2016-05-23 2023-05-31 MAKO Surgical Corp. System for tracking a physical object
US10578880B2 (en) * 2016-06-21 2020-03-03 Intel Corporation Augmenting reality via antenna and interaction profile
DE102016213663A1 (de) 2016-07-26 2018-02-01 Siemens Aktiengesellschaft Verfahren zum Steuern eines Endelementes einer Werkzeugmaschine und eine Werkzeugmaschine
KR101848027B1 (ko) 2016-08-16 2018-04-12 주식회사 고영테크놀러지 정위수술용 수술로봇 시스템 및 정위수술용 로봇의 제어방법
US10993771B2 (en) * 2016-09-12 2021-05-04 Synaptive Medical Inc. Trackable apparatuses and methods
EP3328305B1 (en) * 2016-09-27 2019-03-06 Brainlab AG Microscope tracking based on video analysis
US10643330B2 (en) 2017-04-21 2020-05-05 Biosense Webster (Israel) Ltd. Registration of an anatomical image with a position-tracking coordinate system based on proximity to bone tissue
US20200405397A1 (en) * 2018-02-26 2020-12-31 Cornell University Augmented reality guidance system for cardiac interventional surgery
EP3773305A4 (en) * 2018-04-09 2021-12-15 7D Surgical ULC SYSTEMS AND PROCEDURES FOR INTRAOPERATIVE LEADERSHIP
CN111971005B (zh) 2018-04-13 2023-06-30 史赛克欧洲运营有限责任公司 实施经外耳道耳部手术的系统和方法
CN108682048B (zh) * 2018-05-15 2022-05-17 杭州三坛医疗科技有限公司 导向通道的姿态显示方法、装置和系统、可读存储介质
CN110584775A (zh) * 2018-06-13 2019-12-20 凯勋国际股份有限公司 气道模型生成系统及插管辅助系统
US11007031B2 (en) * 2018-08-14 2021-05-18 Verb Surgical Inc. Setup of surgical robots using an augmented mirror display
US20210321999A1 (en) 2018-10-29 2021-10-21 Stryker Corporation Systems And Methods Of Performing Spine Surgery And Maintaining A Volume Of Fluid At A Surgical Site
TWI766253B (zh) * 2019-03-19 2022-06-01 鈦隼生物科技股份有限公司 基於影像匹配決定手術路徑之方法與系統
EP3712900A1 (en) 2019-03-20 2020-09-23 Stryker European Holdings I, LLC Technique for processing patient-specific image data for computer-assisted surgical navigation
EP3711699B1 (en) * 2019-03-21 2024-01-03 Stryker European Operations Limited Technique for transferring a registration of image data of a surgical object from one surgical navigation system to another surgical navigation system
US11024096B2 (en) 2019-04-29 2021-06-01 The Board Of Trustees Of The Leland Stanford Junior University 3D-perceptually accurate manual alignment of virtual content with the real world with an augmented reality device
CN110123453B (zh) * 2019-05-31 2021-07-23 东北大学 一种基于无标记增强现实的手术导航系统
US10881353B2 (en) * 2019-06-03 2021-01-05 General Electric Company Machine-guided imaging techniques
CN110680470B (zh) * 2019-10-08 2021-04-23 山东大学 一种肿瘤自动穿刺机的激光引导定位装置
CN110755156A (zh) * 2019-11-14 2020-02-07 苏州铸正机器人有限公司 一种用于人工耳蜗导航手术的钛钉配准装置及方法
US11430564B2 (en) * 2019-11-27 2022-08-30 Shanghai United Imaging Intelligence Co., Ltd. Personalized patient positioning, verification and treatment
CN112420143A (zh) * 2019-11-27 2021-02-26 上海联影智能医疗科技有限公司 提供个性化健康护理的系统,方法和装置
US11461929B2 (en) 2019-11-28 2022-10-04 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for automated calibration
JP7392555B2 (ja) 2020-04-01 2023-12-06 マツダ株式会社 エンジンのオイルクーラの振動低減構造
US11540887B2 (en) 2020-06-05 2023-01-03 Stryker European Operations Limited Technique for providing user guidance in surgical navigation
CN111821025B (zh) * 2020-07-21 2022-05-13 腾讯科技(深圳)有限公司 空间定位方法、装置、设备、存储介质以及导航棒
CN115137481A (zh) * 2021-02-02 2022-10-04 武汉联影智融医疗科技有限公司 手术导航的配准方法、装置、计算机设备和存储介质
CN114176779B (zh) * 2021-12-31 2023-12-26 杭州三坛医疗科技有限公司 一种手术机器人导航定位方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002524192A (ja) * 1998-09-14 2002-08-06 インテグレイテッド サージカル システムズ 信頼基準システムを利用しない画像指図式ロボット整形外科処置手順を実施するシステムおよび方法
US20080269588A1 (en) * 2007-04-24 2008-10-30 Medtronic, Inc. Intraoperative Image Registration
EP2452649A1 (en) * 2010-11-12 2012-05-16 Deutsches Krebsforschungszentrum Stiftung des Öffentlichen Rechts Visualization of anatomical data by augmented reality

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6381485B1 (en) * 1999-10-28 2002-04-30 Surgical Navigation Technologies, Inc. Registration of human anatomy integrated for electromagnetic localization
US8038602B2 (en) * 2001-10-19 2011-10-18 Visionscope Llc Portable imaging system employing a miniature endoscope
US6978167B2 (en) 2002-07-01 2005-12-20 Claron Technology Inc. Video pose tracking system and method
US7869861B2 (en) 2002-10-25 2011-01-11 Howmedica Leibinger Inc. Flexible tracking article and method of using the same
JP4195991B2 (ja) * 2003-06-18 2008-12-17 パナソニック株式会社 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
WO2007011306A2 (en) * 2005-07-20 2007-01-25 Bracco Imaging S.P.A. A method of and apparatus for mapping a virtual model of an object to the object
US20070238981A1 (en) * 2006-03-13 2007-10-11 Bracco Imaging Spa Methods and apparatuses for recording and reviewing surgical navigation processes
WO2007113815A2 (en) * 2006-03-30 2007-10-11 Activiews Ltd System and method for optical position measurement and guidance of a rigid or semi flexible tool to a target
US8494608B2 (en) * 2008-04-18 2013-07-23 Medtronic, Inc. Method and apparatus for mapping a structure
US9248000B2 (en) * 2008-08-15 2016-02-02 Stryker European Holdings I, Llc System for and method of visualizing an interior of body
KR100961661B1 (ko) * 2009-02-12 2010-06-09 주식회사 래보 수술용 항법 장치 및 그 방법
US20130016185A1 (en) 2009-11-19 2013-01-17 The John Hopkins University Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors
AU2011239570A1 (en) 2010-04-14 2012-11-01 Smith & Nephew, Inc. Systems and methods for patient- based computer assisted surgical procedures
WO2011134083A1 (en) * 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
US8781186B2 (en) * 2010-05-04 2014-07-15 Pathfinder Therapeutics, Inc. System and method for abdominal surface matching using pseudo-features
KR20130108320A (ko) * 2010-09-10 2013-10-02 더 존스 홉킨스 유니버시티 관련 애플리케이션들에 대한 일치화된 피하 해부구조 참조의 시각화
FR2976107B1 (fr) * 2011-05-30 2014-01-03 Commissariat Energie Atomique Procede de localisation d'une camera et de reconstruction 3d dans un environnement partiellement connu
US20140275763A1 (en) * 2013-03-15 2014-09-18 Lucent Medical Systems, Inc. Partially disposable endoscopic device
CA2906414C (en) * 2013-03-15 2016-07-26 Synaptive Medical (Barbados) Inc. Systems and methods for navigation and simulation of minimally invasive therapy

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002524192A (ja) * 1998-09-14 2002-08-06 インテグレイテッド サージカル システムズ 信頼基準システムを利用しない画像指図式ロボット整形外科処置手順を実施するシステムおよび方法
US20080269588A1 (en) * 2007-04-24 2008-10-30 Medtronic, Inc. Intraoperative Image Registration
EP2452649A1 (en) * 2010-11-12 2012-05-16 Deutsches Krebsforschungszentrum Stiftung des Öffentlichen Rechts Visualization of anatomical data by augmented reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7330677B2 (ja) 2017-09-13 2023-08-22 バイオセンス・ウエブスター・(イスラエル)・リミテッド タッチパッドユーザインタフェースとしての患者の顔

Also Published As

Publication number Publication date
JP6159030B2 (ja) 2017-07-05
CN105658167A (zh) 2016-06-08
WO2015024600A1 (en) 2015-02-26
CN105658167B (zh) 2018-05-04
EP3007635B1 (en) 2016-12-21
US9901407B2 (en) 2018-02-27
EP3007635A1 (en) 2016-04-20
US20160157938A1 (en) 2016-06-09

Similar Documents

Publication Publication Date Title
JP6159030B2 (ja) 外科ナビゲーションのための座標変換を決定するコンピュータ実施技術
US20200405433A1 (en) System and method for dynamic validation, correction of registration for surgical navigation
Wang et al. Video see‐through augmented reality for oral and maxillofacial surgery
US9665936B2 (en) Systems and methods for see-through views of patients
JP6334052B2 (ja) 術中追跡方法
Mountney et al. Three-dimensional tissue deformation recovery and tracking
JP2023175709A (ja) 空間トラッキングシステムと拡張現実ディスプレイとのレジストレーション
US20070018975A1 (en) Methods and systems for mapping a virtual model of an object to the object
JP2022518764A (ja) 基準フレームの位置合わせ
JP2016512973A (ja) 身体に対して対象を追跡するための追跡装置
JP2008126075A (ja) Ctレジストレーション及びフィードバックの視覚的検証のためのシステム及び方法
KR102056436B1 (ko) 의료용 네비게이션 시스템 및 그 방법
KR102233585B1 (ko) 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법
JP2023504703A (ja) 追跡システムとの画像の位置合わせ
Megali et al. EndoCAS navigator platform: a common platform for computer and robotic assistance in minimally invasive surgery
Hsieh et al. Markerless Augmented Reality via Stereo Video See‐Through Head‐Mounted Display Device
KR102084256B1 (ko) 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법
US20220370147A1 (en) Technique of Providing User Guidance For Obtaining A Registration Between Patient Image Data And A Surgical Tracking System
EP3944254A1 (en) System for displaying an augmented reality and method for generating an augmented reality
TWI766253B (zh) 基於影像匹配決定手術路徑之方法與系統
TW202023489A (zh) 用於光學追蹤之系統及方法
Rong Projection-Based Spatial Augmented Reality for Interactive Visual Guidance in Surgery
Nicolau et al. Augmented Reality
CN113648073A (zh) 对增强现实和/或虚拟现实的调整
Mountney et al. Recovering tissue deformation and laparoscope motion for minimally invasive surgery

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170608

R150 Certificate of patent or registration of utility model

Ref document number: 6159030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250