JP2019113393A - オプティカルトラッキングシステム及びオプティカルトラッキング方法 - Google Patents

オプティカルトラッキングシステム及びオプティカルトラッキング方法 Download PDF

Info

Publication number
JP2019113393A
JP2019113393A JP2017246445A JP2017246445A JP2019113393A JP 2019113393 A JP2019113393 A JP 2019113393A JP 2017246445 A JP2017246445 A JP 2017246445A JP 2017246445 A JP2017246445 A JP 2017246445A JP 2019113393 A JP2019113393 A JP 2019113393A
Authority
JP
Japan
Prior art keywords
image
marker
imaged
pattern
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017246445A
Other languages
English (en)
Other versions
JP6475311B1 (ja
Inventor
洪徳和
Deok Hwa Hong
李仁元
In Won Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koh Young Technology Inc
Original Assignee
Koh Young Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koh Young Technology Inc filed Critical Koh Young Technology Inc
Application granted granted Critical
Publication of JP6475311B1 publication Critical patent/JP6475311B1/ja
Publication of JP2019113393A publication Critical patent/JP2019113393A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Abstract

【課題】マーカーの位置及び姿勢をトラッキングするオプティカルトラッキングシステムを提供する。【解決手段】マーカー10は目的物に付着され得、内部に形成されているパターン面15及びパターン面が無限大の焦点距離を有する第1結像部110により結像されるように開口13に形成された光学系12を含む。プロセッサ140は開口を通じて見えるパターン面の一部が第1結像部により結像された第1イメージに基づいてマーカーの姿勢を決定し、互いに異なる方向で開口を通じて放出された出射光が無限大の焦点距離よりも近い焦点距離を有する第2及び第3結像部120、130により結像された第2イメージ及び第3イメージに基づいてマーカーの位置を決定するプロセッサを含む。【選択図】図2

Description

本開示は、オプティカルトラッキングシステム及びオプティカルトラッキング方法に関するものである。
本開示は中小企業庁のWC300プロジェクト技術開発支援の一環として実行された研究から導出されたものである。[課題固有番号:S2482672、研究課題名:整合精度1mm以下の手術用ナビゲーション融合頭鏡部手術ロボットシステム開発]
目的物をトラッキングするための方法として、オプティカルトラッキングシステムが用いられる。最近は手術の誤り発生の危険を最小化しながら精密な手術を行うために、手術ロボットまたは手術道具の位置(locationまたはcoordinate)及び姿勢(postureまたはorientation)をトラッキングし、そのトラッキング結果を手術に活用する方法が用いられている。目的物の位置は、例えば、直交座標系のX、Y、Z軸上における座標のような空間座標で定義され得る。目的物の姿勢は、ロール(roll)、ピッチ(pitch)、ヨー(yaw)で定義され得る。目的物の正確なトラッキングのために、上記で説明したような目的物の6自由度(Degree of Freedom)に該当する位置及び姿勢を正確に把握することが重要である。
オプティカルトラッキングシステムでは、例えば、マーカー(marker)という基準体を目的物に付着した後、このマーカーをトラッキングすることにより、目的物の位置及び姿勢が測定され得る。オプティカルトラッキングシステムでは、例えば、カメラのような結像装置を用いてマーカーの一部を撮影し、これを読み出す過程を経る。この過程で、多様な要因により、撮影されたイメージの一部(例えば、境界部分)がぼけたり不明確に示され得る。このようなイメージに基づいてマーカーをトラッキングする場合、推定された目的物の位置及び姿勢と実際の目的物の位置及び姿勢との間に差が発生し得る。
本開示が解決しようとする課題は、目的物の位置及び姿勢をさらに正確に測定できるオプティカルトラッキングシステム及び方法を提供する。例えば、本開示による一実施例は、マーカーに対して3つのイメージを撮影し、撮影された3つのイメージを基に目的物の位置及び姿勢を測定するオプティカルトラッキングシステム及び方法を提供することができる。
本開示の一実施例によるマーカーの位置及び姿勢をトラッキングするオプティカルトラッキングシステムであって、マーカーは目的物に付着され得、開口に形成されている光学系を通じて内部に形成されているパターン面が見えるように構成され、開口を通じて見えるパターン面の一部が無限大の焦点距離で結像された第1イメージに基づいてマーカーの姿勢を決定し、互いに異なる方向で開口を通じて放出された出射光が無限大の焦点距離よりも近い焦点距離でそれぞれ結像された第2イメージ及び第3イメージに基づいてマーカーの位置を決定するプロセッサを含むことができる。
一実施例によれば、プロセッサは、開口を通じて見えるパターン面の一部が無限大の焦点距離で結像された第1イメージに基づいてマーカーの姿勢を決定する姿勢トラッキング部と、互いに異なる方向で開口を通じて放出された出射光が無限大の焦点距離よりも近い焦点距離でそれぞれ結像された第2及び第3イメージに基づいてマーカーの位置を決定する位置トラッキング部を含むことができる。
一実施例によれば、第1イメージは無限大の焦点距離で結像されてパターン面の一部が識別可能に結像されたパターンイメージを含み、第2及び第3イメージは目的物の位置を含む所定の範囲の焦点距離で結像されて互いに異なる方向に向かう出射光が結像された出射光イメージを含むことができる。
一実施例によれば、姿勢トラッキング部はパターン面の全領域内でパターンイメージの位置を決定し、決定された位置に基づいて目的物の姿勢を決定することができる。
一実施例によれば、位置トラッキング部は第2及び第3イメージ内に結像された出射光イメージの基準座標をそれぞれ決定し、それぞれ決定された基準座標に基づいて目的物の位置を決定することができる。
一実施例によれば、位置トラッキング部は第2及び第3イメージに結像された出射光イメージの基準座標の間の差(disparity)に基づいてマーカーの3次元空間上の位置を決定することができる。
一実施例によれば、ライトフィールドイメージを生成するライトフィールドカメラで構成された第1結像部をさらに含み、第1結像部はパターンイメージを含むようにライトフィールドイメージから無限大の焦点距離で結像された第1イメージを抽出するように構成され得る。
一実施例によれば、第1結像部はライトフィールドイメージから出射光イメージを含むように無限大の焦点距離よりも近い焦点距離で結像された第4イメージを抽出するように構成され、プロセッサは第2イメージ、第3イメージ及び第4イメージに基づいてマーカーの位置を決定することができる。
本開示の他の実施例によるマーカーの位置及び姿勢をトラッキングするオプティカルトラッキングシステムであって、マーカーは目的物に付着され得、開口に形成されている光学系を通じて内部に形成されているパターン面が見えるように構成され、無限大の焦点距離でパターン面の一部を含む第1イメージを結像する第1結像部と、無限大の焦点距離よりも近い焦点距離で開口を通じて第1方向に放出された出射光が結像された出射光イメージを含む第2イメージを結像する第2結像部と、無限大の焦点距離よりも近い焦点距離で開口を通じて第1方向と異なる第2方向に放出された出射光が結像された出射光イメージを含む第3イメージを結像する第3結像部と、第1イメージに基づいてマーカーの姿勢を決定し、第2イメージ及び第3イメージに基づいてマーカーの位置を決定するプロセッサとを含むことができる。
一実施例によれば、第1結像部及び第2結像部それぞれはライトフィールドイメージを生成するライトフィールドカメラで構成され、第1結像部はライトフィールドイメージから無限大の焦点距離よりも近い焦点距離で結像された第4イメージを抽出するように構成され、第2結像部はライトフィールドイメージから無限大の焦点距離よりも近い焦点距離で結像された第2イメージを抽出するように構成され、プロセッサは第2イメージ、第3イメージ及び第4イメージに基づいてマーカーの位置を決定することができる。
一実施例によれば、第1結像部は、第2及び第3結像部の地面からの高さと異なる高さを有するように配置され、地面に向かう方向を基準に第2及び第3結像部の間に配置され得る。
本開示のまた他の実施例によるマーカーの位置及び姿勢をトラッキングするオプティカルトラッキング方法であって、マーカーは目的物に付着され得、開口に形成された光学系を通じて内部に形成されているパターン面が見えるように構成され、無限大の焦点距離で開口を通じて見えるパターン面の一部がパターンイメージとして結像された第1イメージに基づいてマーカーの姿勢を決定する段階と、無限大の焦点距離よりも近い焦点距離で開口を通じて互いに異なる方向に放出された出射光がそれぞれ出射光イメージとして結像された第2イメージ及び第3イメージに基づいてマーカーの位置を決定する段階とを含むことができる。
一実施例によれば、マーカーの姿勢を決定する段階は、パターン面の全領域内で第1イメージに含まれたパターンイメージの位置を決定する段階と、決定された位置に基づいて目的物の姿勢を決定する段階とを含むことができる。
一実施例によれば、マーカーの位置を決定する段階は、第2及び第3イメージ内に結像された出射光イメージの基準座標をそれぞれ決定する段階と、それぞれ決定された基準座標及び出射光が指向する方向の間の幾何学的関係を用いて目的物の位置を決定する段階とを含むことができる。
一実施例によれば、開口を通じて見えるパターン面の一部を含むライトフィールドイメージを生成する段階と、ライトフィールドイメージからパターンイメージを含むように無限大の焦点距離で結像された第1イメージを抽出し、出射光イメージを含むように無限大の焦点距離よりも近い焦点距離で結像された第4イメージを抽出する段階と、第2イメージ、第3イメージ及び第4イメージに基づいてマーカーの位置を決定する段階とをさらに含むことができる。
本開示の実施例によれば、目的物に付着されたマーカーの姿勢及び位置を同時にトラッキングすることができる。また、マーカーの姿勢及び位置に対するトラッキングの正確度を向上させることができ、オプティカルトラッキングシステムの精度を向上させることができる。
本開示の一実施例によるオプティカルトラッキングシステムが手術に用いられている例を示す図である。 本開示の一実施例によるオプティカルトラッキングシステムのブロック図である。 本開示の一実施例により結像部がマーカーの開口部から放出される反射光をそれぞれの方向から撮影する例を示す図である。 本開示の一実施例により結像部で結像されたイメージを説明するための図である。 本開示の一実施例によりオプティカルトラッキングシステムの3つの結像部で結像された3つのイメージに基づいてマーカーの姿勢及び位置を決定する方法を説明するための図である。 図5に示す第1結像部で結像された第1イメージの例示的な様子を説明するための図である。 図5に示す第2結像部で結像された第2イメージの例示的な様子を説明するための図である。 図5に示す第3結像部で結像された第3イメージの例示的な様子を説明するための図である。 本開示の一実施例によるオプティカルトラッキングシステムの1つの結像部がライトフィールドカメラで構成される例を示す図である。 図9に示すオプティカルトラッキングシステムの3つの結像部で結像されたイメージに基づいてマーカーの姿勢及び位置を決定する方法を説明するための図である。 本開示の一実施例によるオプティカルトラッキングシステムの2つの結像部がライトフィールドカメラで構成される例を示す図である。 図11に示すオプティカルトラッキングシステムの3つの結像部で結像されたイメージに基づいてマーカーの姿勢及び位置を決定する方法を説明するための図である。 本開示の他の実施例によるオプティカルトラッキング方法を示すフローチャートである。 図13に示すオプティカルトラッキング方法において、マーカーの姿勢を決定する段階を示すフローチャートである。 図13に示すオプティカルトラッキング方法において、マーカーの位置を決定する段階を示すフローチャートである。 図13に示すオプティカルトラッキング方法において、ライトフィールドイメージを用いる例を示すフローチャートである。
本開示の実施例は、本開示を説明するための目的で例示されたものである。本開示の実施例は、多様な形態で実施されることができ、本開示が下記に提示された実施例やこれらの実施例に関する具体的な説明に限定されるものと解釈してはならない。
本開示で用いられる用語「部」は、ソフトウェア、FPGA(field-programmable gate array)、ASIC(application specific integrated circuit)及び独立的に作動する装置のようなハードウェア構成要素を意味する。しかし、「部」は、ハードウェア及びソフトウェアに限定されるものではなく、「部」は、アドレッシングできる格納媒体にあるように構成されてもよく、1つまたはそれ以上のプロセッサを再生させるように構成されてもよい。よって、一例として「部」はソフトウェア構成要素、客体指向ソフトウェア構成要素、クラス構成要素及びタスク構成要素のような構成要素と、プロセッサ、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ及び変数を含む。構成要素と「部」内で提供される機能はさらに小さい数の構成要素及び「部」に結合したり追加の構成要素と「部」にさらに分離され得る。
本開示で用いられる全ての技術的用語及び科学的用語は、別途に定義されていない限り、本開示の属する技術分野で通常の知識を有する者に一般に理解される意味を有する。本開示で用いられる全ての用語は本開示をより明確に説明するための目的で選択されたものであり、本開示の範囲を制限するために選択されたものではない。
本開示で記述された単数形の表現は、異なって言及しない以上、複数形の表現もともに含むことができ、これは請求項に記載された単数形の表現にも同様に適用される。
本開示の多様な実施例で用いられた「第1」、「第2」などの表現は、複数の構成要素を相互に区分するために用いるものに過ぎず、当該構成要素の順序または重要度を限定するものではない。
本開示で用いられる「含む」及び「有する」という表現は、当該表現が含まれる文句または文章において特に異なって言及されない限り、他の実施例を含む可能性を内包する開放型用語(open-ended terms)と理解されなければならない。
本開示で「〜に基づいて」という表現は、当該表現が含まれる文句で記述される決定または判断の行為または動作に影響を与える1つ以上の因子を記述するのに用いられ、この表現は決定または判断の行為または動作に影響を与える追加の因子を排除しない。
本開示において、ある構成要素が他の構成要素に「連結されて」いるとか、「接続されて」いると言及されたときには、前記ある構成要素が前記他の構成要素に直接的に連結されているか、または接続されていてもよいが、前記ある構成要素と前記他の構成要素の間に新たな他の構成要素が存在してもよいと理解されるべきである。
以下、添付した図面を参照して、本開示の実施例を詳細に説明する。図面上の同一の構成要素に対しては同一の参照符号を用い、同一の構成要素について重複する説明は省略する。
<オプティカルトラッキングシステム>
図1は、本開示の一実施例によるオプティカルトラッキングシステム1が手術に用いられている例を示す。図示のように、医師D(doctor)は、手術道具20と、結像装置100とを含むオプティカルトラッキングシステム1を活用して患者P(patient)に対する手術を行うことができる。医師Dが用いている手術道具20にはマーカー10が付着され得、患者Pの患部のような目的物にも他のマーカー30が付着され得る。オプティカルトラッキングシステム1の結像装置100は、マーカー10及び/又は30に形成されたパターンの全部または一部に対するパターンイメージを結像(capture)及び取得することができる。パターンイメージは、結像装置100の結像部に含まれたイメージセンサが出力するイメージのフレーム内の一部領域に結像され得る。
パターンイメージが取得されると、パターンイメージからマーカーのパターンを構成する基本単位として、サブパターンのうちの少なくとも1つが抽出され得る。一実施例において、抽出された少なくとも1つのサブパターンの全パターン内における位置が決定され、決定されたサブパターンの全パターン内の位置に基づいてマーカー10及び/又は30の姿勢が決定され得る。ここで、マーカー10及び/又は30の姿勢は、マーカー10及び/又は30の結像装置100に対する相対的な3次元的方向ないし方位を意味することができる。
一実施例では、結像装置100は、3つの結像部を含むことができ、結像部それぞれは、例えば、マーカー10及び/又は30の少なくとも一部に対するイメージの形成が可能なカメラになり得る。さらに詳しくは、結像部それぞれは、例えば、マーカー10及び/又は30の開口(aperture)から各結像部に向かう光からイメージをそれぞれ形成することができる。
いずれか1つのマーカー10及び/又は30の位置は、3つのカメラにより結像された3つのイメージのうち、ステレオスコピック関係を有する2つのイメージに基づいた三角法(triangulation)を用いて決定され得る。
このようにマーカー10及び/又は30の位置及び姿勢が取得されれば、マーカー10及び/又は30とこのマーカー10及び/又は30が付着された目的物との間の幾何学的関係に基づいて、マーカー10及び/又は30が付着された目的物の位置及び姿勢が決定され得る。
以下で詳細に説明するように、本開示の一実施例によるオプティカルトラッキングシステム1によれば、少なくとも1つのマーカーを用いて目的物の6自由度に該当する位置及び姿勢が決定され得る。
本開示のオプティカルトラッキングシステム1によれば、1つのマーカー10が目的物である手術道具20に付着された場合にも、マーカー10に形成されたパターンに基づいて目的物の位置及び姿勢がトラッキングされ得る。よって、手術道具20には軽量または小型のマーカー10が付着され得、医者Dはマーカー10の大きさ及び重さに対する負担なしでマーカーが付着された手術道具20を用いて手術を行うことができる。
以上で説明した一実施例では、本開示によるマーカー及びオプティカルトラッキングシステム1は、医師が患者に対して手術を行う例に適用されたが、マーカーを用いて目的物の位置及び姿勢を決定する他の多様な例にも適用され得る。例えば、本開示によるマーカー及びオプティカルトラッキングシステムは、手術ロボットを活用して患者に対して手術を行う場合に、手術ロボットに付着された手術道具の位置及び姿勢を決定するのに用いられ得る。他の例において、本開示によるマーカー及びオプティカルトラッキングシステムは、作業者または作業ロボットが特定の道具を活用して特定の目的物に対して特定の作業を行う場合に、その道具及び/又は目的物の位置及び姿勢を決定するのに用いられ得る。以下では、図1及び図2の例を通じて概略的に説明した本開示のマーカー及びオプティカルトラッキングシステムの多様な実施例についてさらに具体的に説明する。
図2は本開示の一実施例によるオプティカルトラッキングシステム1のブロック図である。
オプティカルトラッキングシステム1において、結像装置100は、マーカー10の少なくとも一部を含む複数のイメージを撮影し、プロセッサ140は結像装置100から前記複数のイメージを受信してこれに基づいてマーカー10の位置及び姿勢をトラッキングすることができる。
一実施例において、マーカー10は、パターンが形成されているパターン面15及びマーカー10の外部から見た方向に沿って固有に示されるパターンの少なくとも一部がマーカー10の外部から識別(または視覚的に認知)できるように構成された、レンズのような、光学系12を含むことができる。
マーカー10の外形11は、パターン面15及びレンズのような光学系12の設置が容易な形状を有することができる。例えば、マーカー10の外形11は、全体的に曲面状を有することができる。この場合、パターンが形成されているパターン面15は曲面状の内部面または外部面の少なくとも一部に実現され得る。光学系12は、曲面状の内部面のうちパターン面15と対向する開口13に実現され得、例えば、曲面状を有し得る。他の実施例において、マーカー10の外形11は、六面体またはシリンダ状であり得る。マーカー10の外形11がシリンダ状である場合、シリンダ状の一端部に形成された開口13には光学系12が設けられ得、対向する他端部にはパターン面15が設けられ得る。このような構成でパターン面15に形成されたパターンは、光学系12を通じて外部から視覚的に識別され得る。
一実施例において、マーカー10が結像装置100の視野角FOV内に位置しており、光学系12が結像装置100に向かって配列される時、結像装置100は、開口13に位置した光学系12を通じて識別されるパターン面15の少なくとも一部を結像することができる。
一実施例において、結像装置100は互いに並列的に作動する第1〜第3結像部110、120、130を含むことができる。第1〜第3結像部110、120、130のうち1つの結像部(例えば、第1結像部110はマーカー10のパターン面15の少なくとも一部を撮像することができ、残りの2つの結像部(例えば、第2及び第3結像部120、130))はそれぞれマーカー10の開口13から出る出射光を撮像することができる。また、第1〜第3結像部110、120、130は同軸照明カメラの構成を有することができる。
第1結像部110の光学系はマーカー10の開口13に形成された光学系12と無限光学系を形成することができる。また、第1結像部110の光学系は、焦点を無限大の焦点距離に形成することができる。よって、第1結像部110はマーカー10の開口13を通じて見えるパターン面15の一部を含むイメージを結像することができる。第2及び第3結像部120、130の光学系は、焦点を無限大の焦点距離よりも近い焦点距離に形成することができる。よって、第2及び第3結像部120、130は、マーカー10の開口13から放出される出射光が撮像されたイメージを結像することができる。
無限大の焦点距離は、例えば、結像装置100を基準としてマーカー10より非常に遠い位置に対応する距離を意味することができる。また、無限大の焦点距離よりも近い焦点距離(以下、「近い焦点距離」という)は、目的物の位置を含む所定の範囲の焦点距離になり得る。即ち、マーカー10は目的物に付着されるので、無限大の焦点距離よりも近い焦点距離は、マーカー10の位置を含む所定の範囲の焦点距離になり得る。
一実施例において、それぞれの第1〜第3結像部110、120、130は、マーカー10に向かって互いに異なる方向に指向され得る。第1結像部110は、地面に向かう方向を基準に第2及び第3結像部120、130の間に配置され得る。また、第2及び第3結像部120、130はステレオスコピック関係を有するように、水平式(平行)または交差式(収束)で配置され得る。
一実施例において、それぞれの第1〜第3結像部110、120、130は、1つのイメージを撮影することができ、例えば、デジタルカメラと同じ構造を有することができる。第1〜第3結像部110、120、130はそれぞれレンズ111、121、131及びイメージセンサ112、122、132を含むことができる。それぞれのイメージセンサ112、122、132は、対応するレンズ111、121、131から入ってくる光を1つのイメージとして結像することができる。
一実施例において、レンズ111、121、131はマーカーから入ってくる光を集光することができる。レンズ111、121、131は、マーカーから入ってくる光が1つのポイントに集光されるように1つの焦点距離を有する凸レンズになり得る。レンズ111、121、131が複数のレンズなどを用いて実現された場合には、公知された薄レンズ理論(thin lens theory)により複数のレンズを1つの薄いレンズで定義することができる。これにより、レンズ111、121、131の直径、焦点距離及び中心は、このように定義された1つの薄いレンズの直径、焦点距離及び中心としてそれぞれ示すことができる。
一実施例において、それぞれのイメージセンサ112、122、132はレンズを通過した光をセンシングして、1つのイメージを取得することができる。それぞれのイメージセンサ112、122、132は、任意の物体の結像イメージを取得するように構成された任意の種類の少なくとも1つの結像素子を含むことができ、例えば、CCD(charge-coupled device)センサまたはCMOS(complementary metal-oxide semiconductor)センサを含むことができる。また、イメージセンサ112、122、132は複数の画素(fixel)で構成され得る。
一実施例において、それぞれの第1〜第3結像部110、120、130は、パターン面15がマーカー10の外部からよく識別されるように光学系12を通じて結像装置100に入射される光を補強するために、マーカー10またはパターンに向かって光を照射する少なくとも1つの光源114、124、134を含むことができる。この場合、マーカー10はパッシブマーカー(passive marker)として動作することができる。また、第1〜第3結像部110、120、130それぞれは、光源114、124、134から発生した光をレンズ111、121、131を通じてマーカー10に照射するビームスプリッタ113、123、133を含むことができる。
図2では光源114、124、134が第1〜第3結像部110、120、130それぞれの内部に配置されるように示されているが、これに限定されるのではなく、結像装置100の外部に配置されることも可能である。他の実施例によれば、光源はマーカー10の内部からパターン面15の前面または後面に対して光を照射するように設置され得る。この場合、マーカー10はアクティブマーカー(active marker)として動作することができる。
一実施例において、オプティカルトラッキングシステム1が手術ナビゲーションシステム(surgical navigation system)のような手術システム内で動作する場合に、マーカー10は、手術道具、手術ロボットの一部または患者の患部を含む少なくとも1つの目的物に付着され得る。また、複数のマーカーが用いられる場合には、マーカーの位置及び姿勢が順次または同時にトラッキングされ得る。
一実施例において、プロセッサ140は、開口13を通じて見えるパターン面15の一部と無限大の焦点距離で結像した第1イメージに基づいてマーカー10の姿勢を決定する姿勢トラッキング部142と、互いに異なる方向で開口13を通じて放出された出射光を近い焦点距離でそれぞれ結像した第2及び第3イメージに基づいてマーカー10の位置を決定する位置トラッキング部141と、複数のマーカーの位置及び姿勢をトラッキングするためにそれぞれの目的物に付着されたマーカーをマーカーのIDを通じて区別するID識別部143を含むことができる。ID識別部143は、第1イメージに含まれたパターンイメージからマーカー10のIDを識別できる。
さらに他の実施例によれば、オプティカルトラッキングシステム1は、予め決定された幾何学的関係を有する2つのマーカーの位置及び姿勢をトラッキングできる。例えば、オプティカルトラッキングシステム1は、図1に示す手術道具20に付着されたマーカー10及び患者の頭に付着されたマーカー30の位置及び姿勢を同時にトラッキングできる。オプティカルトラッキングシステムは、結像装置を通じて2つのマーカーにそれぞれ形成されたパターンのパターンイメージを取得することができる。2つのマーカーの位置は、予め決定された幾何学的関係、及びパターンイメージ上におけるパターンの少なくとも一部の位置と、各マーカー上におけるパターンの少なくとも一部の位置との間の関係に基づいて決定され得る。マーカーの姿勢は先に説明した方式と同一の方式で決定され得る。
一実施例において、マーカー10は、オプティカルトラッキングシステム1によりその位置及び姿勢が測定される、目的物に付着されたり、その目的物の全体または一部として実現され得る。マーカー10の位置及び姿勢を測定することにより、マーカー10が付着された目的物の位置及び姿勢が測定され得る。また、マーカー10と目的物は予め定められた幾何学的関係を有することができる。
図3は、本開示の一実施例により結像部がマーカーの開口部から放出される反射光をそれぞれの方向で撮影する例を示す図である。
一実施例において、第1結像部270は、マーカー210と無限光学系を形成することができる。パターン255が形成されているパターン面250は、パターンイメージが光学系220を通じて平行出射光L1の形で第1結像部270に伝達されるようにマーカー210内部に配置され得る。第1結像部270に含まれたイメージセンサの被写体深度はマーカー210の光学系220によりパターンイメージが形成されるように、マーカー210の位置よりも遠い地点または無限大地点で所定の有限な範囲を包括するように設定され得る。この場合、第1結像部270に含まれたイメージセンサは、マーカー210の動きに応じてマーカー210からの距離が変化することとは関係なく、マーカー210に形成されたパターンの一部に関するパターンイメージを結像することができる。また、第1結像部270は、マーカーが遠くなったり近くなる場合にも、深度または倍率の調整なしでパターンイメージを結像することができる。よって、以上のように無限光学系が構成された場合には、マーカー210が結像装置からどれほど離れて位置しても、第1結像部270により結像されたパターンイメージからパターンの少なくとも一部が識別され得る。他の実施例において、パターン面250がマーカー210内に配置される場合、マーカー210の光学系220が第1及び第2結像部270、280それぞれの光学系レンズ275、285とともに無限光学系を構成することができる。
一実施例において、第2及び第3結像部280、290は互いに異なる方向でそれぞれマーカー210の開口230を通じて放出された出射光が撮像された第2イメージ及び第3イメージを結像することができる。即ち、マーカー210から反射された光L2、L3は第2及び第3結像部280、290のレンズ285、295を通過して第2及び第3結像部280、290に含まれたイメージセンサで結像され得る。また、第2及び第3結像部280、290のレンズ285、295とマーカー210の光学系220は無限光学系を形成せず、この場合、第2及び第3イメージ内でパターンは読み出し可能な形で結像されないこともある。また、第2及び第3結像部280、290のレンズ285、295は、開口230から放出された出射光を結像するために、マーカー210の第2及び第3結像部280、290の前に焦点を形成でき、第2及び第3イメージ内で撮像された出射光の位置が明確に識別され得る。
一実施例において、パターン255はパターン全体に対して各サブパターンの位置が固有に決定されるように形成されるので、そのパターンのパターンイメージからパターン全体に対する各サブパターンの位置に関する情報を抽出することができる。具体的には、パターン255は繰り返し的に配列された非周期的シーケンス(aperiodic sequences)を含むことができる。例えば、各非周期的シーケンスはPRBS(Pseudo-Random Binary Sequence)であってもよく、さらに詳しくは、デブルーインシーケンス(De Bruijn Sequence)であってもよい。ここで、「非周期的シーケンス」とは、上述したように最大化された自己相関性を有したり、該当シーケンスに含まれた複数のサブシーケンスが周期的な方式で配列されないことを意味し得る。また、パターン255は、マーカーのIDを提供できるように形成され得る。
図4は、本開示の一実施例により結像部で結像されたイメージ300を説明するための図である。
一実施例において、結像部はマーカーが付着された目的物(例えば、手術道具)の位置及び姿勢を決定するためにマーカーに形成されたパターンの少なくとも一部を結像できる。マーカーと目的物との間には、予め定められた幾何学的関係が存在し得、マーカーの姿勢がトラッキングされた場合、目的物との予め定められた幾何学的関係を用いて目的物の姿勢をトラッキングできる。
マーカーと無限光学系を形成する結像部は、イメージセンサが実際に結像されたイメージ300から所定のイメージ処理(image process)された補正イメージ(correction image)を取得できる。結像されたイメージ300は、パターン部分の周辺が完全に暗く結像されずに結像装置の視野角に位置した物がぼやけて見える程度である。イメージ処理は、例えば、結像されたイメージで明るい部分と暗い部分の差をさらに強化する作業になり得る。
一実施例において、結像されたイメージ300は、所定の位置に形成されるパターンイメージ320を含むことができる。パターンイメージ320を囲む仮想の(imaginary)境界部分330は、マーカーの開口の位置と対応することができ、パターンイメージ320及び周辺部分310を区分することができる。パターンイメージ320に含まれたサブパターン350は、プロセッサの姿勢決定部でパターンウィンドウ340を通じて読み出すことができる。また、原本イメージ(図示せず)からイメージ処理を行なった後には、図4に示す結像されたイメージ300よりパターンイメージ320が目立ち、周辺部分310は黒くなり、境界部分330はぼやけて結像される。
結像されたイメージ300でパターンイメージ320を除いた周辺部分310は、パターンイメージ320に対応するマーカーのパターン面より相対的に暗い部分であって、イメージがない形態(例えば、ブラックアウト(black out)された状態)で結像され得る。即ち、結像部のイメージセンサは、被写体深度が形成されていない領域及び相対的に光量が少ない部分を暗く結像し、暗く結像した部分が周辺部分310になり得る。また、マーカーの光学系と無限光学系を形成する結像部のイメージセンサは、被写体深度が遠距離ないし無限大に合わせられているので、マーカーが運用される範囲内の近距離の物体は全て甚だしくブラー(blur)となり得る。また、マーカーの開口から出る出射光が周辺光に比べて相対的に非常に明るいので、結像されたイメージ300内でパターンイメージ320は著しく目立ち得る。もし、マーカーの撮像に用いられる光を照明とフィルタリングを通じて統制したのであれば、結像されたイメージ300内でパターンイメージ320と周辺部分310の明るさの差がさらに大きくなり得る。
一実施例において、オプティカルトラッキングシステムの結像部がマーカーに形成されているパターン面から反射された出射光をパターンイメージ320として結像すれば、プロセッサの姿勢決定部はパターンイメージ320に含まれた各サブパターン350の全体パターン内における位置に基づいてマーカーの姿勢を決定できる。例えば、結像されたパターンイメージ320に図3に示すパターン255の一部が含まれ得、プロセッサは結像部から結像されたイメージ300を受信してイメージ補正を行った後、読み出されたパターンイメージ320内でパターンウィンドウ340を通じてサブパターン350を識別できる。パターンウィンドウ340の大きさは、サブパターン350の大きさと同じであるか、さらに大きいこともある。即ち、プロセッサの姿勢トラッキング部は、全体パターン内で該当サブパターンの位置を決定でき、このように決定されたサブパターンの位置に基づいて、マーカーの姿勢を決定できる。
図5は、本開示の一実施例によりオプティカルトラッキングシステムの3つの結像部410、420、430で結像された3つのイメージ450、460、470に基づいてマーカー405の姿勢及び位置を決定する方法を説明するための図である。
一実施例において、マーカー405は、パターン面及び開口を含むことができる。パターン面は、パターンが形成されて少なくとも一部が曲面に形成され得る。光学系が形成された開口は、マーカー405の外部から見た方向に沿って固有に示されるパターンの少なくとも一部がマーカー405の外部から識別されるように構成され得る。
一実施例において、マーカー405は第1〜第3結像部410、420、430の視野角内に位置し、それぞれの第1〜第3結像部410、420、430はマーカー405の開口から互いに異なる方向に出る出射光を撮像して第1〜第3イメージ450、460、470を結像できる。また、第1結像部410の光学系はマーカー405の光学系と無限光学系を形成でき、第1結像部410は無限大の焦点距離で結像された第1イメージ450を結像できる。また、第2及び第3結像部420、430の光学系は近距離に焦点を形成でき、第2及び第3結像部420、430はそれぞれ近い焦点距離で結像された第2及び第3イメージ460、470を結像できる。
第1イメージ450の深度は、無限大の焦点距離に該当する位置を中心に所定の有限の範囲に形成され得る。また、第2及び第3イメージ460、470の深度は、近い焦点距離に該当する位置を中心に所定の有限の範囲に形成され得る。即ち、2及び第3イメージ460、470の深度は、マーカー405の位置を中心に所定の有限の範囲に形成され得る。
一実施例において、第1〜第3結像部410、420、430は互いに異なる位置に配置され得る。また、第1〜第3結像部410、420、430は、光学系がマーカーを指向するように予め定められた位置に配置され得る。例えば、第1結像部410は、図5に示すX軸方向を基準に第2及び第3結像部420、430の間に配置され得る。また、第1〜第3結像部410、420、430のうち少なくとも2つの結像部は、X軸方向に互いに同一の間隔で離隔され得る。例えば、第1結像部410と第2結像部420との間隔は、第1結像部410と第3結像部430との間の間隔と同一であり得る。また、第2及び第3結像部420、430はX軸方向に一定の間隔Dを置いて離隔され得、Y軸方向に地面から同一の高さを有するように予め定められた位置に配置され得る。
一実施例において、マーカー405と無限光学系を形成する第1結像部410は、第2及び第3結像部420、430とは異なる高さを有するように予め定められた位置に配置され得る。例えば、第1結像部410は、第2及び第3結像部420、430より一定の高さDだけ高い位置に配置され得る。オプティカルトラッキングシステムにおいて、例えば、マーカーが複数提供される場合、それぞれのマーカーを正確に区別しなければ精度を向上させることができない。上述のように、第1結像部410を第2及び第3結像部420、430をX軸方向に連結する基準線(base line)よりY軸方向に高い位置に配置させる場合、マーカーそれぞれを区分するためのアルゴリズムがさらに簡潔になり得る。即ち、ステレオ相関性(stereo correspondence)の比較領域を減らすことができ、これにより相関性の一致(correspondence matching)の強健性(robustness)が向上し得る。
一実施例において、第1結像部410は、マーカー405と無限光学系を形成した状態でパターン面の一部を含む第1イメージ450を結像でき、第2及び第3結像部420、430のそれぞれは、マーカー405の開口から出た出射光を撮像してそれぞれ第2及び第3イメージ460、470を結像できる。よって、第1イメージ450ではパターンイメージ465が読み出し可能に結像でき、第2及び第3イメージ460、470においてマーカーの開口を通じて放出された出射光が結像された開口領域465、475は鮮明に結像され得る。
一実施例において、プロセッサ440の姿勢トラッキング部は、第1イメージ450に基づいて目的物の姿勢をトラッキングできる。具体的には、姿勢トラッキング部は、パターンの全領域内で第1イメージ450に含まれたパターンの一部の位置を決定し、決定された位置に基づいて目的物の姿勢を決定できる。一実施例において、姿勢トラッキング部はパターンの一部に含まれたサブパターンを読み出してパターンの一部の位置を決定できる。まず、第1イメージ450に結像されたパターンイメージからマーカーのトラッキングのための情報を抽出するために、姿勢トラッキング部はパターンイメージからサブパターンを読み出すことができる。その後、姿勢トラッキング部は、読み出された各サブパターンの全体パターン内における位置(座標)を計算することができる。
一実施例において、プロセッサ440の位置トラッキング部は、第2及び第3イメージ460、470に基づいて目的物の位置をトラッキングできる。具体的には、位置トラッキング部は、第2及び第3イメージ460、470に含まれた開口領域465、475の基準座標をそれぞれ決定し、それぞれ決定された基準座標及び第2及び第3結像部420、430がマーカーで指向した方向

間の幾何学的関係を用いて目的物の位置を決定できる。開口領域465、475の基準座標は、例えば、開口領域465、475の中心座標になり得る。
一実施例において、位置トラッキング部は三角法を用いてマーカーの位置を決定することができる。例えば、位置トラッキング部は、第2及び第3結像部420、430それぞれにより結像された第2及び第3イメージ460、470から開口領域465、475の基準座標を抽出した後、この基準座標に基づいた三角法を用いてマーカーの位置を計算することができる。さらに詳しくは、位置トラッキング部は、各パターンイメージ上で結像された開口領域の基準座標と、第2及び第3結像部420、430の間の予め定められた間隔D、互いに異なる位置にある第2及び第3結像部420、430がマーカーに向かう方向

間の幾何学的関係を用いてマーカーの位置を計算することができる。
図6は、図5に示す第1結像部410で結像された第1イメージ450の様子を例示的に示す図である。
第1イメージ450は、マーカー405と無限光学系を形成した第1結像部410により結像されたイメージとなり得る。第1イメージ450は、図3に示すパターン255の一部を含み、その部分に焦点が形成されたパターンイメージ455を含むことができる。また、図5に示すX軸方向に第1結像部410が第2及び第3結像部420、430の間に配置される場合、パターンイメージ455は第1イメージ450内で第2及び第3イメージ460、470の開口領域465、475が形成される位置の間に配置され得る。
第1イメージ450内でパターンイメージ455の位置は横方向の距離X1及び縦方向の距離Y1で定義され得る。横方向の距離X1は、第1イメージ450の左側端部及びパターンイメージ455の間の最短距離を意味し、縦方向の距離Y1は、第1イメージ450の上端及びパターンイメージ455の間の最短距離を意味し得る。また、第1結像部410が第2及び第3結像部420、430とは地面から異なる高さに配置される場合、パターンイメージ455の縦方向の距離Y1は開口領域465、475の縦方向の距離とは相異し得る。
第1イメージ450において、パターンイメージ455を囲む境界部分456は、マーカーの開口に対応し得る。マーカーの開口の縁部を通過して放出される出射光は、出射光が開口を通る時、回折、内部反射、開口のビネッティング、または、焦点深度などの理由で、カメラに撮られる時にはぼうっとぼやけた(blurred)形態で結像され得る。よって、境界部分456がぼやけて形成されるので、周辺部分457と区別があまりつかなくなり得る。また、周辺部分457は、パターンイメージ455に比べて相対的に非常に暗い部分としてイメージ処理過程でイメージがない形態(例えば、ブラックアウト(black out)された状態)に補正され得る。よって、プロセッサ440の位置トラッキング部がパターンイメージ455の基準座標を測定する場合、境界部分456がぼやけて結像される現象のため、誤差を発生させ得るので、位置トラッキング部は第2及び第3イメージ460、470内で明確に結像された開口領域465、475の基準座標に基づいてマーカーの位置をトラッキングできる。
一実施例において、図5に示すプロセッサ440の姿勢トラッキング部は、第1イメージ450からパターンイメージ455の読み出しが可能なので、パターンイメージ455を用いてマーカーの姿勢を判断し、マーカーと目的物との相対的な関係を用いて目的物の姿勢をトラッキングできる。一実施例において、プロセッサ440は、パターンウィンドウを通じてパターンイメージ455から少なくとも1つのサブパターンを抽出し、サブパターンの全体パターン内における位置を計算し、これに基づいてマーカーの姿勢を決定することができる。例えば、プロセッサ440は、1つのサブパターンに基づいてマーカーの姿勢を計算することができる。
図7は、図5に示す第2結像部420で結像された第2イメージ460の様子を例示的に示す図であり、図8は、図5に示す第3結像部430で結像された第3イメージ470の様子を例示的に示す図である。
第2及び第3イメージ460、470は、マーカーと無限光学系を形成せずに近い焦点距離でイメージを結像するので、パターン面が識別可能ではない形態で出射光が結像され得る。即ち、マーカーの開口領域465、475は円形のディスク(disk)状を有し得、周辺部分467、477よりも明るく結像され得る。他の実施例において、マーカーの入口の形状が円形ではなく他の形状(例えば、多角形の形状)を有する場合、マーカーの開口領域465、475は上記他の形状に対応する形状を有し得る。
第2及び第3イメージ460、470において、マーカーの開口領域465、475は、周辺部分467、477と明確に区別可能に結像され得る。よって、第2及び第3イメージ460、470内でマーカーの開口領域465、475の位置が識別され得る。一実施例において、プロセッサ440の位置トラッキング部は、マーカーの開口領域465、475を囲む周辺部分467、477と区分される境界(boundary)を判断し、これに基づいて第2及び第3イメージ460、470内におけるマーカーの開口領域465、475の基準座標466、476を決定することができる。例えば、基準座標466、476はマーカーの開口領域465、475の中心座標に該当し得る。
第2及び第3イメージ460、470内でそれぞれのマーカーの開口領域465、475の位置は、横方向の距離X2、X3及び縦方向の距離Y2、Y3で定義され得る。横方向の距離X2、X3は、第2及び第3イメージ460、470の左側端部及びマーカーの開口領域465、475の間の最短距離を意味し、縦方向の距離Y2、Y3は、第2及び第3イメージ460、470の上端及びマーカーの開口領域465、475の間の最短距離を意味し得る。
図5を参考すると、第2結像部420は、第1結像部410に比べてX軸(−)方向に偏った位置に配置され得るので、第2イメージ460の開口領域465の横方向の距離X2は、第1イメージ450のパターンイメージ455の横方向の距離X1よりも小さくなり得る。また、第2結像部420は、第1結像部410に比べて地面から低いか、高い位置に配置され得るので、第2イメージ460の開口領域465の縦方向の距離H2は、第1イメージ450のパターンイメージ455の縦方向の距離H1とは異なることもある。
第3結像部430は、第1結像部410に比べてX軸(+)方向に偏った位置に配置され得るので、第3イメージ470の開口領域455の横方向の距離X3は、第1イメージ450のパターンイメージ455の横方向の距離X1よりも大きくなり得る。また、第3結像部430は、第1結像部410に比べて地面から低いか、高い位置に配置され得るので、第3イメージ470の開口領域455の縦方向の距離Y3は、第1イメージ450のパターンイメージ455の縦方向の距離Y1とは異なる。また、第2及び第3結像部420、430が地面から同一の高さに配置される場合、第2及び第3イメージ460、470内で開口領域465、475の縦方向の長さY2、Y3は互いに同一であり得る。
第2及び第3結像部420、430及びマーカーは、実質的に三角形の形態を形成するので、第2及び第3イメージ460、470の開口領域465、475の横方向の距離X2、X3は互いに大きさが異なり、前記横方向の距離X2、X3は、常時的に差(disparity)を示し得る。例えば、図7及び8を参考にすると、横方向の距離X2と横方向の距離X3との差はプラス値を示し得る。また、前記差から第2及び第3結像部420、430は、ステレオスコピックを構成することができる。図5を参考にすると、第2及び第3結像部420、430は予め定められた距離Dで離隔され得、プロセッサ440の位置トラッキング部は、三角測定法を用いる過程で、上記差及び予め定められた距離Dを用いてマーカーの位置を決定することができる。
一実施例において、図5を参考にして、プロセッサ440の位置トラッキング部は、第2及び第3イメージ460、470に含まれたマーカーの開口領域465、475の基準座標466、476をそれぞれ決定し、それぞれ決定された基準座標466、476及び第2及び第3結像部420、430がマーカーで指向した方向

間の幾何学的関係を用いて目的物の位置を決定することができる。
図9は、本開示の一実施例によるオプティカルトラッキングシステムの1つの結像部がライトフィールドカメラで構成される例を示す図であり、図10は、図9に示すオプティカルトラッキングシステムの3つの結像部で結像されたイメージに基づいてマーカーの姿勢及び位置を決定する方法を説明するための図である。上述した実施例で説明された内容と重複する説明は省略する。
一実施例において、オプティカルトラッキングシステムは、パターン面507及びパターン面507が見えるように構成された光学系506が形成されたマーカー505、第1結像部510、第2結像部520及び第3結像部530を含む結像装置500と、位置トラッキング部521、姿勢トラッキング部542及びID識別部543を含むプロセッサ540とを含むことができる。第1結像部510は、ライトフィールドカメラの構造を有し得る。ライトフィールドカメラは、被写体を撮影した後に被写体深度を事後的に決定し、互いに異なる被写体深度を有するイメージを組み合わせるように構成され得る。よって、ライトフィールドカメラのイメージセンサは、事後的であると共に可変的な被写体深度を有することができる。また、ライトフィールドカメラで生成するライトフィールドイメージは、光の色情報及び方向情報を共に保存する複数の単位イメージを含むことができる。
ライトフィールドカメラの構造を有する第1結像部510は、レンズ511とイメージセンサ512との間に配置されて複数のマイクロレンズが配列されたレンズアレイ515を含むことができる。また、イメージセンサ512は、それぞれのマイクロレンズに対応する領域に区分され得る。第1結像部510が実現するライトフィールドカメラは、無限大位置に置かれたパターン面507の一部を明確に撮像できるように、被写体深度が遠距離ないし無限大のイメージを合成した第1イメージ550をプロセッサ540に伝送することができる。
他の実施例において、第1結像部270は、複数の単位イメージを用いて再焦点(refocusing)過程を進めることができる。再焦点過程でライトフィールドイメージのピクセルのうち所望の被写体深度及びそれにより逆算される光経路ないし方向に相応するピクセルの色情報を組み合わせて所望の深度のイメージを新たに抽出することができる。これによりパターンイメージが鮮明に識別可能な第1イメージ550を生成することができる。
第2及び第3結像部520、530のそれぞれは、マーカー505の開口506から互いに異なる方向に放出された出射光が結像された第2イメージ560及び第3イメージ570を結像できる。マーカー505から反射された光は、第2及び第3結像部520、530のレンズ521、532を通過してイメージセンサ522、532で結像され得る。また、第2及び第3結像部520、530のレンズ521、531及びマーカー505の光学系506は、無限光学系を形成せず、この場合、第2及び第3イメージ560、570内でパターン面507の一部は、読み出し可能な形で結像されないこともある。よって、第2及び第3イメージ560、570内で開口領域565、575の位置が明確に識別され得る。
一実施例において、プロセッサ540の姿勢トラッキング部542は、第1イメージ550に基づいて目的物の姿勢をトラッキングできる。具体的には、姿勢トラッキング部542は、パターンの全領域内で第1イメージ450に含まれたパターンの一部の位置を決定し、決定された位置に基づいて目的物の姿勢を決定することができる。
プロセッサ540の位置トラッキング部541は、三角測定法を用いてマーカーの位置を決定することができる。ライトフィールドカメラの構造を有する第1結像部510は、撮像したライトフィールドイメージから出射光イメージを含むように近い焦点距離で結像された第4イメージ580を抽出するように構成され得る。第4イメージ580内には開口領域585の位置が明確に識別されるように鮮明に結像され得る。
一実施例において、位置トラッキング部541は、第1〜第3結像部510、520、530のそれぞれにより結像された第2〜第4イメージ560、570、580から開口領域565、575、585の基準座標を抽出した後、3つの基準座標に基づいた三角測定法を用いてマーカーの位置を計算することができる。さらに詳しくは、位置トラッキング部541は、3つの基準座標と、第1〜第3結像部510、520、530の間の予め定められた間隔、互いに異なる位置にある第1〜第3結像部510、520、530がマーカーに向かう方向

間の幾何学的関係を用いてマーカーの位置を計算することができる。
図11は、本開示の一実施例によるオプティカルトラッキングシステムの2つの結像部がライトフィールドカメラで構成される例を示す図であり、図12は、図11に示すオプティカルトラッキングシステムの3つの結像部で結像されたイメージに基づいてマーカーの姿勢及び位置を決定する方法を説明するための図である。上述した実施例で説明された内容と重複する説明は省略する。
一実施例において、オプティカルトラッキングシステムは、パターン面607及びパターン面607が見えるように構成された光学系606が形成されたマーカー605と、第1結像部610、第2結像部620及び第3結像部630を含む結像装置600と、位置トラッキング部641、姿勢トラッキング部642及びID識別部643を含むプロセッサ640とを含むことができる。それぞれの第1及び第2結像部610、620は、ライトフィールドカメラの構造を有することができる。
それぞれライトフィールドカメラの構造を有する第1及び第2結像部610、620は、レンズ611、621とイメージセンサ612、622との間に配置されて複数のマイクロレンズが配列されたレンズアレイ615、625を含むことができる。また、イメージセンサ612、622は、それぞれのマイクロレンズに対応する領域に区分され得る。第1及び第2結像部610、620は、無限大位置に置かれたパターン面607の一部を明確に撮像できるように、被写体深度が遠距離ないし無限大のイメージを合成した第1イメージ650及び/又は第5イメージ690をプロセッサ640に伝送することができる。
第2及び第3結像部620、630のそれぞれは、マーカー605の開口606から互いに異なる方向に放出される出射光が結像された第2イメージ660及び第3イメージ670を結像できる。一実施例において、第2結像部620は、撮像するライトフィールドイメージから近い焦点距離で結像されるように抽出された第2イメージ660をプロセッサ640に伝送することができる。マーカー605から反射された光は、第2及び第3結像部620、630のレンズ621、632を通過してイメージセンサ622、632で結像され得る。第2及び第3イメージ660、670内で開口領域665、675の位置は、明確に識別され得る。
一実施例において、プロセッサ640の姿勢トラッキング部642は、第1イメージ650に結像されたパターンイメージ655に基づいて目的物の姿勢をトラッキングできる。他の実施例において、姿勢トラッキング部642は、第5イメージ690に結像されたパターンイメージ695に基づいて目的物の姿勢をトラッキングできる。具体的には、姿勢トラッキング部542は、パターンの全領域内で第1イメージ650または第5イメージ690に含まれたパターンの一部の位置を決定し、決定された位置に基づいて目的物の姿勢を決定することができる。他の実施例において、姿勢トラッキング部642は、第1イメージ650に基づいて決定した目的物の姿勢及び第5イメージ690に基づいて決定した目的物の姿勢の平均値に基づいて、目的物の姿勢をトラッキングできる。
一実施例において、プロセッサ640の位置トラッキング部641は、三角測定法を用いてマーカーの位置を決定することができる。ライトフィールドカメラの構造を有する第1結像部610は、撮像したライトフィールドイメージから出射光イメージを含むように近い焦点距離で結像された第4イメージ680を抽出するように構成され得る。第4イメージ680内には、開口領域685の位置が明確に識別されるように鮮明に結像され得る。例えば、位置トラッキング部641は、第1〜第3結像部610、620、630のそれぞれにより結像された第2〜第4イメージ660、670、680から開口領域665、675、685の基準座標を抽出した後、3つの基準座標に基づいた三角測定法を用いてマーカーの位置を計算することができる。さらに詳しくは、位置トラッキング部641は、3つの基準座標と、第1〜第3結像部610、620、630の間の予め定められた間隔、互いに異なる位置にある第1〜第3結像部610、620、630がマーカーに向かう方向

間の幾何学的関係を用いてマーカーの位置を計算することができる。
<マーカーをトラッキングする方法>
図13は本開示の他の実施例によるオプティカルトラッキング方法(S1200)を示すフローチャートである。以下、各段階について図面を参照してさらに詳しくマーカーをトラッキングする方法が説明される。
パターン面及び開口を含むマーカーを目的物に付着することができる。図1及び2を参照すると、マーカー10は手術道具20の端部に付着され得る。また、マーカー10の開口13は常時的に結像装置100に向かうように配置され得る。
まず、段階S1210において、図5を参考にすると、無限大の焦点距離で開口を通じて見えるパターン面の一部がパターンイメージとして結像された第1イメージ450に基づいてマーカーの姿勢を決定することができる。次の段階S1220では、無限大の焦点距離よりも近い焦点距離で開口を通じて互いに異なる方向から放出された出射光がそれぞれ出射光イメージとして結像された第2イメージ及び第3イメージ460、470に基づいてマーカーの位置を決定することができる。
オプティカルトラッキング方法(S1200)において、プロセッサ440は、マーカーの姿勢及びマーカーの位置を同時に決定することができる。他の実施例において、プロセッサ440は、マーカーの姿勢を決定する前にマーカーの位置を決定したり、マーカーの姿勢を決定してマーカーの位置を決定することができる。
図14は、図13に示すオプティカルトラッキング方法において、マーカーの姿勢を決定する段階S1210を示すフローチャートであり、図15は、図13に示すオプティカルトラッキング方法において、マーカーの位置を決定する段階S1220を示すフローチャートである。
一実施例において、段階S1210は、次のように進められ得る。図5を参考にすると、まず、パターン面の全領域内で第1イメージ450に含まれたパターンイメージ455の位置を決定する(S1211)。次に、決定された位置に基づいて目的物の姿勢を決定することができる(S1212)。
一実施例において、段階S1220は、次のように進められ得る。まず、第2及び第3イメージ460、470内に結像された出射光イメージの基準座標をそれぞれ決定し(S1221)、それぞれ決定された基準座標及び出射光が指向する方向間の幾何学的関係を用いて目的物の位置を決定することができる(S1222)。
一実施例において、プロセッサ440は、マーカーの位置及び姿勢を並列的に処理して決定することができる。即ち、第1〜第3イメージ450、460、470が同時に結像されるので、プロセッサ440はこれを一時に処理して目的物の姿勢及び位置は同時に決定され得る。
図16は、図13に示すオプティカルトラッキング方法において、ライトフィールドイメージを用いる例を示すフローチャートである。
図10を参考にすると、まず、開口を通じて見えるパターン面の一部を含むライトフィールドイメージを生成することができる(S1230)。次に、ライトフィールドイメージから無限大の焦点距離で結像されてパターンイメージを含む第1イメージ550を抽出し、近い焦点距離で結像されて出射光イメージを含む第4イメージ580を抽出することができる(S1240)。次に、第2イメージ、第3イメージ及び第4イメージ560、570、580に基づいてマーカーの位置を決定することができる(S1250)。
段階S1250において、プロセッサは、3つイメージに含まれた出射光イメージの基準芯座標と、結像部がマーカーに向かう方向の間の幾何学的関係を用いた三角法に基づいてマーカーの位置を決定することができる。以上、実施例では、三角法を用いてマーカーの位置が決定されたが、これに限定されるのではなく、三角法ではなく他の位置決め方法が用いられ得る。
前記方法は特定の実施例を通じて説明されたが、前記方法はまたコンピュータで読み出すことができる記録媒体にコンピュータが読み出すことができるコードとして実現することが可能である。コンピュータが読み出すことができる記録媒体はコンピュータシステムにより読まれることができるデータが格納される全ての種類の記録装置を含む。コンピュータが読み出すことができる記録媒体の例としてはCD−ROM、USBなどの格納装置があり、また、コンピュータが読み出すことができる記録媒体はネットワークで連結されたコンピュータシステムに分散し、分散方式でコンピュータが読み出すことができるコードが格納されて実行され得る。そして、前記実施例を実現するための機能的な(functional)プログラム、コード及びコードセグメントは本開示の属する技術分野のプログラマにより容易に推論され得る。
本開示では本開示が一部実施例と関連して説明されたが、本開示の属する技術分野の当業者が理解することができる本開示の思想及び範囲を逸脱しない範囲で多様な変形及び変更がなされるという点を理解すべきである。また、そのような変形及び変更は本開示に添付の請求の範囲内に属すると考えられるべきである。
1:オプティカルトラッキングシステム
10:マーカー
100:結像装置
110、270、410、510:第1結像部
120、280、420、520:第2結像部
130、290、430、530:第3結像部
140、440:プロセッサ
450、550、650:第1イメージ
460、560、660:第2イメージ
470、570、670:第3イメージ
580、680:第4イメージ
690:第5イメージ

Claims (15)

  1. マーカーの位置及び姿勢をトラッキングするオプティカルトラッキングシステムであって、
    前記マーカーは目的物に付着され得、開口に形成された光学系を通じて内部に形成されているパターン面が見えるように構成され、
    前記開口を通じて見える前記パターン面の一部が無限大の焦点距離で結像された第1イメージに基づいて前記マーカーの姿勢を決定し、互いに異なる方向で前記開口を通じて放出された出射光が前記無限大の焦点距離よりも近い焦点距離でそれぞれ結像された第2イメージ及び第3イメージに基づいて前記マーカーの位置を決定するプロセッサを含む、オプティカルトラッキングシステム。
  2. 前記プロセッサは、
    前記開口を通じて見える前記パターン面の一部が前記無限大の焦点距離で結像された前記第1イメージに基づいて前記マーカーの姿勢を決定する姿勢トラッキング部と、
    互いに異なる方向で前記開口を通じて放出された出射光が前記無限大の焦点距離よりも近い焦点距離でそれぞれ結像された前記第2イメージ及び前記第3イメージに基づいて前記マーカーの位置を決定する位置トラッキング部とを含む、請求項1に記載のオプティカルトラッキングシステム。
  3. 前記第1イメージは、前記無限大の焦点距離で結像されて前記パターン面の一部が識別可能に結像されたパターンイメージを含み、
    前記第2イメージ及び前記第3イメージは、前記目的物の位置を含む所定の範囲の焦点距離で結像されて互いに異なる方向に向かう出射光が結像された出射光イメージを含む、
    請求項1に記載のオプティカルトラッキングシステム。
  4. 前記姿勢トラッキング部は、前記パターン面の全領域内で前記パターンイメージの位置を決定し、前記決定された位置に基づいて前記目的物の姿勢を決定する、請求項3に記載のオプティカルトラッキングシステム。
  5. 前記位置トラッキング部は、前記第2イメージ及び前記第3イメージ内に結像された前記出射光イメージの基準座標をそれぞれ決定し、前記それぞれ決定された基準座標に基づいて前記目的物の位置を決定する、請求項3に記載のオプティカルトラッキングシステム。
  6. 前記位置トラッキング部は、前記第2イメージ及び前記第3イメージに結像された前記出射光イメージの基準座標の間の差に基づいて、前記マーカーの3次元空間上の位置を決定する、請求項5に記載のオプティカルトラッキングシステム。
  7. ライトフィールドイメージを生成するライトフィールドカメラで構成された第1結像部をさらに含み、
    前記第1結像部は、パターンイメージを含むように前記ライトフィールドイメージから無限大の焦点距離で結像された前記第1イメージを抽出するように構成される、請求項1に記載のオプティカルトラッキングシステム。
  8. 前記第1結像部は、前記ライトフィールドイメージから出射光イメージを含むように前記無限大の焦点距離よりも近い焦点距離で結像された第4イメージを抽出するように構成され、
    前記プロセッサは、前記第2イメージ、前記第3イメージ及び前記第4イメージに基づいて前記マーカーの位置を決定する、請求項7に記載のオプティカルトラッキングシステム。
  9. マーカーの位置及び姿勢をトラッキングするオプティカルトラッキングシステムであって、
    前記マーカーは目的物に付着され得、開口に形成された光学系を通じて内部に形成されているパターン面が見えるように構成され、
    無限大の焦点距離で前記パターン面の一部を含む第1イメージを結像する第1結像部と、
    前記無限大の焦点距離よりも近い焦点距離で前記開口を通じて第1方向に放出された出射光が結像された出射光イメージを含む第2イメージを結像する第2結像部と、
    前記無限大の焦点距離よりも近い焦点距離で前記開口を通じて前記第1方向と異なる第2方向に放出された出射光が結像された出射光イメージを含む第3イメージを結像する第3結像部と、
    前記第1イメージに基づいて前記マーカーの姿勢を決定し、前記第2イメージ及び第3イメージに基づいて前記マーカーの位置を決定するプロセッサとを含むオプティカルトラッキングシステム。
  10. 前記第1結像部及び前記第2結像部のそれぞれはライトフィールドイメージを生成するライトフィールドカメラで構成され、
    前記第1結像部は前記ライトフィールドイメージから前記無限大の焦点距離よりも近い焦点距離で結像された第4イメージを抽出するように構成され、前記第2結像部は前記ライトフィールドイメージから無限大の焦点距離よりも近い焦点距離で結像された前記第2イメージを抽出するように構成され、
    前記プロセッサは、前記第2イメージ、前記第3イメージ及び前記第4イメージに基づいて前記マーカーの位置を決定する、請求項9に記載のオプティカルトラッキングシステム。
  11. 前記第1結像部は、前記第2結像部及び前記第3結像部の地面からの高さとは異なる高さを有するように配置され、前記地面に向かう方向を基準に前記第2結像部及び前記第3結像部の間に配置される、請求項9に記載のオプティカルトラッキングシステム。
  12. マーカーの位置及び姿勢をトラッキングするオプティカルトラッキング方法であって、
    前記マーカーは目的物に付着され得、開口に形成された光学系を通じて内部に形成されているパターン面が見えるように構成され、
    無限大の焦点距離で前記開口を通じて見える前記パターン面の一部がパターンイメージとして結像された第1イメージに基づいて前記マーカーの姿勢を決定する段階と、
    前記無限大の焦点距離よりも近い焦点距離で前記開口を通じて互いに異なる方向に放出された出射光がそれぞれ出射光イメージとして結像された第2イメージ及び第3イメージに基づいて前記マーカーの位置を決定する段階とを含む、オプティカルトラッキング方法。
  13. 前記マーカーの姿勢を決定する段階は、
    前記パターン面の全領域内で前記第1イメージに含まれた前記パターンイメージの位置を決定する段階と、
    前記決定された位置に基づいて前記目的物の姿勢を決定する段階とを含む、請求項12に記載のオプティカルトラッキング方法。
  14. 前記マーカーの位置を決定する段階は、
    前記第2イメージ及び前記第3イメージ内に結像された前記出射光イメージの基準座標をそれぞれ決定する段階と、
    前記それぞれ決定された基準座標及び前記出射光が指向する方向の間の幾何学的関係を用いて前記目的物の位置を決定する段階とを含む、請求項12に記載のオプティカルトラッキング方法。
  15. 前記開口を通じて見える前記パターン面の一部を含むライトフィールドイメージを生成する段階と、
    前記ライトフィールドイメージから前記パターンイメージを含むように前記無限大の焦点距離で結像された前記第1イメージを抽出し、出射光イメージを含むように前記無限大の焦点距離よりも近い焦点距離で結像された第4イメージを抽出する段階と、
    前記第2イメージ、前記第3イメージ及び前記第4イメージに基づいて前記マーカーの位置を決定する段階とをさらに含む、請求項12に記載のオプティカルトラッキング方法。
JP2017246445A 2017-12-20 2017-12-22 オプティカルトラッキングシステム及びオプティカルトラッキング方法 Active JP6475311B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0176503 2017-12-20
KR1020170176503A KR102166372B1 (ko) 2017-12-20 2017-12-20 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법

Publications (2)

Publication Number Publication Date
JP6475311B1 JP6475311B1 (ja) 2019-02-27
JP2019113393A true JP2019113393A (ja) 2019-07-11

Family

ID=60953602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017246445A Active JP6475311B1 (ja) 2017-12-20 2017-12-22 オプティカルトラッキングシステム及びオプティカルトラッキング方法

Country Status (5)

Country Link
US (2) US10692239B2 (ja)
EP (2) EP3503033B1 (ja)
JP (1) JP6475311B1 (ja)
KR (1) KR102166372B1 (ja)
CN (2) CN113813046A (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102166372B1 (ko) * 2017-12-20 2020-10-15 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법
GB2586601B (en) * 2019-08-27 2022-10-12 Zeta Motion Ltd Determining object pose from image data
US11382699B2 (en) * 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11844583B2 (en) 2021-03-31 2023-12-19 Moon Surgical Sas Co-manipulation surgical system having an instrument centering mode for automatic scope movements
US11819302B2 (en) 2021-03-31 2023-11-21 Moon Surgical Sas Co-manipulation surgical system having user guided stage control
AU2022247392A1 (en) 2021-03-31 2023-09-28 Moon Surgical Sas Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery
WO2023281372A2 (en) * 2021-07-05 2023-01-12 Moon Surgical Sas Co-manipulation surgical system having optical scanners for use with surgical instruments for performing laparoscopic surgery
US11812938B2 (en) 2021-03-31 2023-11-14 Moon Surgical Sas Co-manipulation surgical system having a coupling mechanism removeably attachable to surgical instruments
US11832909B2 (en) 2021-03-31 2023-12-05 Moon Surgical Sas Co-manipulation surgical system having actuatable setup joints
US11839442B1 (en) 2023-01-09 2023-12-12 Moon Surgical Sas Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery while estimating hold force

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008026236A (ja) * 2006-07-24 2008-02-07 Olympus Corp 位置姿勢測定装置および位置姿勢測定方法
JP2008216089A (ja) * 2007-03-06 2008-09-18 Natl Inst Of Radiological Sciences 被験体の3次元的位置及び向き測定装置
JP2016516526A (ja) * 2013-04-30 2016-06-09 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びこれを用いたトラッキング方法
JP2016184956A (ja) * 2016-06-02 2016-10-20 キヤノン株式会社 画像処理装置及び画像処理方法
JP2017522674A (ja) * 2014-05-29 2017-08-10 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢算出方法
JP2017525937A (ja) * 2014-05-29 2017-09-07 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢並びに位置算出方法
JP2018025531A (ja) * 2016-08-09 2018-02-15 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキング用のマーカー、オプティカルトラッキングシステム及びオプティカルトラッキング方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
JP6443934B2 (ja) * 2012-07-01 2018-12-26 ルミト・アーベー 散乱媒体中の改善された拡散ルミネセンスイメージングまたは断層撮影法のためのシステム
KR101406220B1 (ko) * 2013-04-30 2014-06-12 경북대학교 산학협력단 옵티컬 트랙킹 시스템 및 이를 이용한 트랙킹 방법
KR101487251B1 (ko) * 2013-05-28 2015-01-28 주식회사 고영테크놀러지 옵티컬 트랙킹 시스템 및 이를 이용한 트랙킹 방법
KR101487248B1 (ko) * 2013-05-28 2015-01-29 주식회사 고영테크놀러지 옵티컬 트랙킹 시스템
KR101627835B1 (ko) * 2015-07-24 2016-06-08 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 방법
WO2017091479A1 (en) * 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
KR20160039588A (ko) * 2016-03-22 2016-04-11 주식회사 우리옵토 일정 곡률을 가지는 광학 렌즈상에 마이크로 패턴을 형성하는 방법
KR102166372B1 (ko) * 2017-12-20 2020-10-15 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법
KR102102291B1 (ko) * 2017-12-20 2020-04-21 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008026236A (ja) * 2006-07-24 2008-02-07 Olympus Corp 位置姿勢測定装置および位置姿勢測定方法
JP2008216089A (ja) * 2007-03-06 2008-09-18 Natl Inst Of Radiological Sciences 被験体の3次元的位置及び向き測定装置
JP2016516526A (ja) * 2013-04-30 2016-06-09 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びこれを用いたトラッキング方法
JP2017522674A (ja) * 2014-05-29 2017-08-10 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢算出方法
JP2017525937A (ja) * 2014-05-29 2017-09-07 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢並びに位置算出方法
JP2016184956A (ja) * 2016-06-02 2016-10-20 キヤノン株式会社 画像処理装置及び画像処理方法
JP2018025531A (ja) * 2016-08-09 2018-02-15 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキング用のマーカー、オプティカルトラッキングシステム及びオプティカルトラッキング方法

Also Published As

Publication number Publication date
EP3503033C0 (en) 2023-10-04
CN109938837A (zh) 2019-06-28
KR102166372B1 (ko) 2020-10-15
KR20190074841A (ko) 2019-06-28
US20190188877A1 (en) 2019-06-20
US11436750B2 (en) 2022-09-06
US10692239B2 (en) 2020-06-23
US20200279394A1 (en) 2020-09-03
JP6475311B1 (ja) 2019-02-27
CN113813046A (zh) 2021-12-21
CN109938837B (zh) 2021-10-15
EP3503033B1 (en) 2023-10-04
EP4273805A3 (en) 2024-02-28
EP3503033A1 (en) 2019-06-26
EP4273805A2 (en) 2023-11-08

Similar Documents

Publication Publication Date Title
KR102166372B1 (ko) 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법
JP6475312B1 (ja) オプティカルトラッキングシステム及びオプティカルトラッキング方法
EP3281600B1 (en) Marker for optical tracking, optical tracking system, and optical tracking method
JP6360260B2 (ja) 受動マーカーに基づく光学追跡方法およびシステム
CN103649674B (zh) 测量设备以及信息处理设备
JP5631025B2 (ja) 情報処理装置、その処理方法及びプログラム
CN101821580B (zh) 用于实物形状的三维测量的系统和方法
JP5070435B1 (ja) 3次元相対座標計測装置およびその方法
KR101371376B1 (ko) 3차원 형상 측정장치
JP2008241643A (ja) 3次元形状測定装置
CN105306922A (zh) 一种深度相机参考图的获取方法和装置
JP2007093412A (ja) 3次元形状測定装置
JP2019045299A (ja) 3次元情報取得装置
WO2021163406A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
JP5648159B2 (ja) 3次元相対座標計測装置およびその方法
CN108693538A (zh) 基于双目结构光的准确置信度深度摄像机测距装置及方法
KR102253350B1 (ko) 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법
Tushev et al. Robust coded target recognition in adverse light conditions
JP2002318344A (ja) 光学機器のオートフォーカシング方法および装置
Abbaspour Tehrani et al. A practical method for fully automatic intrinsic camera calibration using directionally encoded light
JP2012026816A (ja) 寸法測定方法および装置
JP5581612B2 (ja) 位置計測システム及び位置計測方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190131

R150 Certificate of patent or registration of utility model

Ref document number: 6475311

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250