JP2019113394A - オプティカルトラッキングシステム及びオプティカルトラッキング方法 - Google Patents

オプティカルトラッキングシステム及びオプティカルトラッキング方法 Download PDF

Info

Publication number
JP2019113394A
JP2019113394A JP2017246446A JP2017246446A JP2019113394A JP 2019113394 A JP2019113394 A JP 2019113394A JP 2017246446 A JP2017246446 A JP 2017246446A JP 2017246446 A JP2017246446 A JP 2017246446A JP 2019113394 A JP2019113394 A JP 2019113394A
Authority
JP
Japan
Prior art keywords
image
marker
imaged
pattern
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017246446A
Other languages
English (en)
Other versions
JP6475312B1 (ja
Inventor
洪徳和
Deok Hwa Hong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koh Young Technology Inc
Original Assignee
Koh Young Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koh Young Technology Inc filed Critical Koh Young Technology Inc
Application granted granted Critical
Publication of JP6475312B1 publication Critical patent/JP6475312B1/ja
Publication of JP2019113394A publication Critical patent/JP2019113394A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Human Computer Interaction (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

【課題】マーカーの位置及び姿勢をトラッキングするオプティカルトラッキングシステムを提供する。【解決手段】オプティカルトラッキングシステム1はマーカー10の少なくとも一部を結像してライトフィールドイメージを生成する第1結像部110及び開口13から放出された出射光を結像する第2結像部120を含む結像装置100と、ライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出され、パターン面の一部が結像された第1イメージに基づいてマーカーの姿勢を決定し、ライトフィールドイメージから無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出された第2イメージ及び第1結像部へ向かう出射光と異なる方向で開口を通じて放出された出射光が第2結像部により結像された第3イメージに基づいてマーカーの位置を決定するプロセッサ130とを含む。【選択図】図2

Description

本開示は、オプティカルトラッキングシステム及びオプティカルトラッキング方法に関するものである。
本開示は、中小企業庁のWC300プロジェクト技術開発支援の一環として行った研究から導き出されたものである[課題固有番号:S2482672、研究課題名:整合精密度1mm以下の手術用ナビゲーション融合頭頸部手術ロボットシステムの開発]。
対象体をトラッキングするための方法として、オプティカルトラッキングシステムが用いられ得る。最近は手術の誤り発生の危険を最小化しながら精密な手術を行うために、手術ロボットまたは手術道具の位置(locationまたはcoordinate)及び姿勢(postureまたはorientation)をトラッキングし、そのトラッキング結果を手術に活用する方法が用いられている。対象体の位置は、例えば、直交座標系のX、Y、Z軸上での座標のような空間座標で定義され得る。対象体の姿勢は、ロール(roll)、ピッチ(pitch)、ヨー(yaw)で定義され得る。対象体の正確なトラッキングのために、前記で説明したような、対象体の6自由度(Degree of Freedom)に該当する位置及び姿勢を正確に把握することが重要である。
オプティカルトラッキングシステムでは、例えば、マーカー(marker)という基準体を対象体に付着した後、このマーカーをトラッキングすることにより、対象体の位置及び姿勢が測定され得る。オプティカルトラッキングシステムでは、例えば、カメラのような結像装置を用いてマーカーの一部を撮影し、これを読み出す過程を経るようになる。この過程で、多様な要因により、撮影されたイメージの一部(例えば、境界部分)がぼやけたり不明確に示され得る。このようなイメージに基づいてマーカーをトラッキングする場合、推定された対象体の位置及び姿勢と実際の対象体の位置及び姿勢との間に差が発生し得る。
本開示による一実施例は、対象体の位置及び姿勢をさらに正確に測定できるオプティカルトラッキングシステム及び方法を提供する。
本開示の一実施例による、マーカーの位置及び姿勢をトラッキングするオプティカルトラッキングシステムであって、マーカーは、対象体に付着され得、開口に形成された光学系を通じて内部に形成されたパターン面が見えるように構成され、マーカーの少なくとも一部を結像してライトフィールドイメージを生成する第1結像部及び開口から放出された出射光を結像する第2結像部を含む結像装置;およびライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出され、パターン面の一部が結像された第1イメージに基づいてマーカーの姿勢を決定し、ライトフィールドイメージから無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出された第2イメージ及び第1結像部へ向かう出射光と異なる方向で開口を通じて放出された出射光が第2結像部により結像された第3イメージに基づいてマーカーの位置を決定するプロセッサを含み得る。
一実施例によれば、プロセッサは、開口を通じて見えるパターン面の無限大の焦点距離で結像された第1イメージに基づいてマーカーの姿勢を決定する姿勢トラッキング部;および互いに異なる方向で開口を通じて放出された出射光が無限大の焦点距離よりも近い焦点距離でそれぞれ結像された第2及び第3イメージに基づいてマーカーの位置を決定する位置トラッキング部を含み得る。
一実施例によれば、第1イメージは、ライトフィールドイメージから無限大の焦点距離で結像されるように抽出されたイメージであって、パターン面の一部が識別可能に結像されたパターンイメージを含み、第2イメージは、ライトフィールドイメージから対象体の位置を含む所定範囲の焦点距離で結像されるように抽出されたイメージであって、第1結像部へ向かう出射光が結像された出射光イメージを含み、第3イメージは、第2結像部へ向かう出射光が結像された出射光イメージを含み得る。
一実施例によれば、姿勢トラッキング部は、パターン面の全体領域内でパターンイメージの位置を決定し、決定された位置に基づいて対象体の姿勢を決定できる。
一実施例によれば、位置トラッキング部は、第2及び第3イメージ内に結像された出射光イメージの基準座標をそれぞれ決定し、それぞれ決定された基準座標及びマーカーと第1及び第2結像部との間の幾何学的関係に基づいて対象体の位置を決定できる。
一実施例によれば、位置トラッキング部は、第2及び第3イメージに結像された出射光イメージの基準座標間の差(disparity)に基づいてマーカーの3次元空間上の位置を決定できる。
一実施例によれば、位置トラッキング部は、第2及び第3イメージに基づいてステレオスコピックイメージを構成してマーカーの3次元空間上の位置を決定できる。
本開示の他の実施例によるマーカーの位置及び姿勢をトラッキングするオプティカルトラッキングシステムであって、マーカーは、対象体に付着され得、開口に形成された光学系を通じて内部に形成されたパターン面が見えるように構成され、マーカーの少なくとも一部を結像してそれぞれライトフィールドイメージを生成する第1結像部及び第2結像部を含む結像装置;および第1結像部により結像されたライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出され、パターン面の一部が結像された第1イメージに基づいてマーカーの姿勢を決定し、第1結像部により生成されたライトフィールドイメージから無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出された第2イメージ及び第2結像部により生成されたライトフィールドイメージから無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出された第3イメージに基づいてマーカーの位置を決定するプロセッサを含み得る。
一実施例によれば、第1イメージは、第1結像部により結像されたライトフィールドイメージから無限大の焦点距離で結像されるように抽出されたイメージであって、パターン面の一部が識別可能に結像されたパターンイメージを含み、第2イメージは、第1結像部により結像されたライトフィールドイメージから対象体の位置を含む所定範囲の焦点距離で結像されるように抽出されたイメージであって、第1結像部へ向かう出射光が結像された出射光イメージを含み、第3イメージは、第2結像部により結像されたライトフィールドイメージから所定範囲の焦点距離で結像されるように抽出されたイメージであって、第2結像部へ向かう出射光が結像された出射光イメージを含み得る。
一実施例によれば、プロセッサはパターン面の全体領域内でパターンイメージの位置を決定し、決定された位置に基づいて対象体の姿勢を決定し、プロセッサは第2及び第3イメージ内に結像された出射光イメージの基準座標をそれぞれ決定し、それぞれ決定された基準座標及びマーカーと第1及び第2結像部との間の幾何学的関係に基づいて対象体の位置を決定できる。
一実施例によれば、第2結像部は、第2結像部により生成されたライトフィールドイメージから無限大焦点距離で結像されるように抽出されたイメージとしてパターン面の一部が識別可能に結像されたパターンイメージを含む第4イメージをプロセッサへ伝送し、プロセッサはパターン面の全体領域内で第4イメージ内に結像されたパターンイメージの位置を決定し、決定された位置に基づいて対象体の姿勢を決定し、プロセッサは、第1イメージから決定された対象体の姿勢及び第4イメージから決定された対象体の姿勢の平均値に基づいて対象体の姿勢を決定できる。
一実施例によれば、プロセッサは、第1イメージ内に結像されたパターンイメージから対象体の位置及び姿勢を決定できる。
本開示の更に他の実施例によるマーカーの位置及び姿勢をトラッキングするオプティカルトラッキング方法であって、マーカーは、対象体に付着され得、開口に形成された光学系を通じて内部に形成されたパターン面が見えるように構成され、第1結像部により結像されたライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出され、パターン面の一部が識別可能に結像されたパターンイメージを含む第1イメージ、ライトフィールドイメージから無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出されて開口を通じて第1方向に放出された出射光が結像された第2イメージ、第2結像部により開口を通じて第1方向と異なる第2方向に放出された出射光が結像された第3イメージを結像する段階;第1イメージに基づいてマーカーの姿勢を決定する段階;および第2イメージ及び第3イメージに基づいてマーカーの位置を決定する段階を含み得る。
一実施例によれば、マーカーの姿勢を決定する段階は、パターン面の全体領域内で第1イメージに含まれたパターンイメージの位置を決定する段階;および決定された位置に基づいて対象体の姿勢を決定する段階を含み得る。
一実施例によれば、マーカーの位置を決定する段階は、第2及び第3イメージ内に結像された出射光イメージの基準座標をそれぞれ決定する段階、およびそれぞれ決定された基準座標及び出射光が指向する方向の間の幾何学的関係を用いて対象体の位置を決定する段階を含み得る。
本開示の実施例によれば、ライトフィールドイメージからパターンイメージが識別可能に結像されたイメージ及び開口領域の位置が識別可能に結像されたイメージのそれぞれを同時に取得できる。
また、撮影されたイメージ内で出射光イメージの基準位置の精度を向上させることができ、オプティカルトラッキングシステムの精度を向上させることができる。
本開示の一実施例によるオプティカルトラッキングシステムが手術に用いられている例を示す図である。 本開示の一実施例によるオプティカルトラッキングシステムのブロック図である。 本開示の一実施例により結像部がマーカーの開口から放出される出射光をそれぞれの方向で撮影する例を示す図である。 本開示の一実施例により結像部で結像されたイメージを説明するための図である。 ライトフィールドカメラの構造を有する結像部を説明するための図である。 図5に示したレンズアレイを説明するための図である。 結像部で取得されたライトフィールドイメージに含まれた複数の単位イメージの被写体深度が異なって形成される過程を示す図である。 互いに異なる被写体深度を有する複数の単位イメージを含むライトフィールドイメージを説明するための図である。 本開示の一実施例によるオプティカルトラッキングシステムの結像部で結像されたイメージに基づいてマーカーの姿勢及び位置を決定する方法を説明するための図である。 図9に示したオプティカルトラッキングシステムで結像されたイメージを示す図である。 本開示の他の実施例によるオプティカルトラッキングシステムのブロック図である。 本開示の他の実施例によるオプティカルトラッキングシステムの結像部で結像されたイメージに基づいてマーカーの姿勢及び位置を決定する方法を説明するための図である。 本開示の他の実施例によるオプティカルトラッキングシステムで結像されたイメージを示す図である。 本開示の更に他の実施例によるオプティカルトラッキング方法を示すフローチャートである。 図14に示したオプティカルトラッキング方法において、マーカーの姿勢を決定する段階を示すフローチャートである。 図15に示したオプティカルトラッキング方法において、マーカーの位置を決定する段階を示すフローチャートである。
本開示の実施例は、本開示を説明するための目的で例示されたものである。本開示の実施例は、多様な形態で実施されることができ、本開示が下記に提示された実施例やこれらの実施例に関する具体的説明に限定されるものと解釈してはならない。
本開示で用いられる用語「部」は、ソフトウェア、FPGA(field-programmable gate array)、ASIC(application specific integrated circuit)のようなハードウェア構成要素を意味する。しかし、「部」は、ハードウェア及びソフトウェアに限定されるものではない。「部」は、アドレッシングできる格納媒体にあるように構成されてもよく、1つまたはそれ以上のプロセッサを再生させるように構成されてもよい。従って、一例として、「部」は、ソフトウェア構成要素、客体指向ソフトウェア構成要素、クラス構成要素及びタスク構成要素のような構成要素と、プロセッサ、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ及び変数を含む。構成要素と「部」内で提供される機能は、さらに小さい数の構成要素及び「部」に結合したり追加の構成要素と「部」にさらに分離され得る。
本開示で用いられる全ての技術的用語及び科学的用語は、別途に定義されていない限り、本開示の属する技術分野で通常の知識を有する者に一般に理解される意味を有する。本開示で用いられる全ての用語は本開示をより明確に説明するための目的で選択されたものであり、本開示の範囲を制限するために選択されたものではない。
本開示で記述された単数形の表現は、異なって言及しない以上、複数形の表現もともに含むことができ、これは請求項に記載された単数形の表現にも同様に適用される。
本開示の多様な実施例で用いられた「第1」、「第2」などの表現は、複数の構成要素を相互に区分するために用いるものに過ぎず、当該構成要素の順序または重要度を限定するものではない。
本開示で用いられる「含む」及び「有する」という表現は、当該表現が含まれる文句または文章において特に異なって言及されない限り、他の実施例を含む可能性を内包する開放型用語(open-ended terms)と理解されなければならない。
本開示で「〜に基づいて」という表現は、当該表現が含まれる文句で記述される決定または判断の行為または動作に影響を与える1つ以上の因子を記述するのに用いられ、この表現は決定または判断の行為または動作に影響を与える追加の因子を排除はしない。
本開示において、ある構成要素が他の構成要素に「連結されて」いるとか、「接続されて」いると言及されたときには、前記ある構成要素が前記他の構成要素に直接的に連結されているか、または接続されていてもよいが、前記ある構成要素と前記他の構成要素の間に新たな他の構成要素が存在してもよいと理解されるべきである。
以下、添付した図面を参照して、本開示の実施例を詳細に説明する。図面上の同一の構成要素に対しては同一の参照符号を用い、同一の構成要素について重複する説明は省略する。
<オプティカルトラッキングシステム>
図1は、本開示の一実施例によるオプティカルトラッキングシステム1が手術に用いられている例を示す。
図示した通り、医師D(doctor)は、手術道具20と、結像装置100を含むオプティカルトラッキングシステム1を活用して患者P(patient)に対する手術を行うことができる。医師Dが用いている手術道具20にはマーカー10が付着され得、患者Pの患部のような対象体にも他のマーカー30が付着され得る。オプティカルトラッキングシステム1の結像装置100は、マーカー10及び/又は30に形成されたパターンの全部または一部に対するパターンイメージを結像(Capture)及び取得できる。パターンイメージは、結像装置100の結像部に含まれたイメージセンサが出力する結像イメージのフレーム内の一部領域に結像され得る。
パターンイメージが取得されると、パターンイメージからマーカーのパターンを構成する基本単位として、サブパターンのうちの少なくとも1つが抽出され得る。一実施例によれば、抽出された少なくとも1つのサブパターンの全体パターン内での位置が決定され、決定されたサブパターンの全体パターン内の位置に基づいてマーカー10及び/又は30の姿勢が決定され得る。ここで、マーカー10及び/又は30の姿勢は、マーカー10及び/又は30の結像装置100に対する相対的な3次元的方向ないし方位を意味し得る。
一実施例により、結像装置100は、2つ以上の結像部を含み得、結像部は、例えば、マーカーの少なくとも一部に対するイメージ結像が可能なカメラとなり得る。より具体的に、結像部のそれぞれは、例えば、マーカー10及び/又は30の開口(aperture)から各結像部へ向かう光からイメージをそれぞれ形成することができる。ある1つのマーカー10及び/又は30の位置は、2つ以上のカメラにより結像されたイメージのうちステレオスコピック関係を有する2つのイメージに基づいた三角法(triangulation)を用いて決定され得る。
このようにマーカー10及び/又は30の位置及び姿勢が取得されると、マーカー10及び/又は30とこのマーカー10及び/又は30が付着された対象体間の幾何学的関係に基づいて、マーカー10及び/又は30が付着された対象体の位置及び姿勢が決定され得る。
以下で詳細に説明するように、本開示の一実施例によるオプティカルトラッキングシステム1によれば、少なくとも1つのマーカーを用いて対象体の6自由度に該当する位置及び姿勢が決定され得る。
本開示のオプティカルトラッキングシステム1によれば、1つのマーカー10が対象体である手術道具20に付着された場合にも、マーカー10に形成されたパターンに基づいて対象体の位置及び姿勢がトラッキングされ得る。従って、手術道具20には軽量または小型のマーカー10が付着され得、医師Dはマーカー10の大きさ及び重さに対する負担なしにマーカーが付着された手術道具20を用いて手術を行うことができる。
以上で説明した実施例では、本開示によるマーカー及びオプティカルトラッキングシステム1が、医師が患者に対して手術を行う例に適用されたが、マーカーを用いて対象体の位置及び姿勢を決定する他の多様な例にも適用され得る。例えば、本開示によるマーカー及びオプティカルトラッキングシステムは、手術ロボットを活用して患者に対して手術を行う場合に、手術ロボットに付着された手術道具の位置及び姿勢を決定するのに用いられ得る。他の例において、本開示によるマーカー及びオプティカルトラッキングシステムは、作業者または作業ロボットが特定の道具を活用して特定の対象体に対して特定の作業を行う場合に、その道具及び/又は対象体の位置及び姿勢を決定するのに用いられ得る。以下では、図1及び2の例を通じて概略的に説明した本開示のマーカー及びオプティカルトラッキングシステムの多様な実施例についてさらに具体的に説明する。
図2は、本開示の一実施例によるオプティカルトラッキングシステム1のブロック図である。
オプティカルトラッキングシステム1は、マーカー10、結像装置100及びプロセッサ130を含み得る。マーカー10は、パターンが形成されたパターン面15及びマーカー10の外部から見た方向に沿って固有に示されるパターンの少なくとも一部がマーカー10の外部から識別(または視覚的に認知)されるように構成された、レンズのような、光学系12を含み得る。一実施例によれば、マーカー10は、オプティカルトラッキングシステム1によりその位置及び姿勢が測定される、対象体に付着されたりその対象体の全体または一部として実現され得る。マーカー10の位置及び姿勢を測定することにより、マーカー10が付着された対象体の位置及び姿勢が測定され得る。
マーカー10の外形はパターン面15及びレンズのような光学系12の設置が容易な形状を有し得る。一実施例において、マーカー10の外形11は曲面形状を有し得る。このように、マーカー10が曲面形状を有する場合、パターンが形成されたパターン面15は球形状の内部面または外部面の少なくとも一部に実現され得、光学系12は球形状の内部面のうちパターン面15と対向する開口13に実現され得る。他の実施例において、マーカー10の外形11は、例えば、六面体またはシリンダ形状を有し得る。外形11がシリンダ形状を有する場合、シリンダ形状の一側面に形成された開口13には光学系12が設けられ得、対向する他側面にはパターン面15が設けられ得る。このような構成でパターン面15に形成されたパターンは、シリンダの胴体を経過して光学系12を通じて外部から視覚的に識別され得る。
一実施例において、結像装置100はマーカー10の少なくとも一部を含む複数のイメージを撮影し、プロセッサ130は結像装置100から前記複数のイメージを受信してこれに基づいてマーカー10の位置及び姿勢をトラッキングできる。結像装置100は、それぞれ別個のイメージを結像するように構成された第1及び第2結像部110、120を含み得る。第1及び第2結像部110、120は、マーカー10から反射されて互いに異なる方向に放出される出射光を結像できる。
第1結像部110は、レンズ111、レンズアレイ112、およびイメージセンサ113を含み得る。即ち、第1結像部110はライトフィールドイメージを結像するように構成されたライトフィールドカメラ(light field camera)の構造を有し得る。従って、第1結像部110はパターン面15に反射されてレンズ111に入ってくる出射光を結像してライトフィールドイメージを生成できる。また、第2結像部120は、レンズ121及びイメージセンサ123を含み得る。従って、第2結像部120はマーカー10のパターン面15に反射された後に第1結像部110に向かう光と異なる方向でレンズ121に入ってくる出射光が結像されたイメージを取得できる。
一実施例において、第1及び第2結像部110、120は、パターンがマーカー10の外部から十分に識別されるように光学系12を通じて結像装置100に入射される光を補強するために、マーカー10またはパターンに向かって光を照射する少なくとも1つの光源116、126を含み得る。この場合、マーカー10はパッシブマーカー(passive marker)として動作できる。また、第1及び第2結像部110、120は、光源116、126から発生した光をレンズ111、121を通じてマーカー10に照射するビームスプリッタ115、125を含み得る。
図2では、光源116、126が結像部110、120内部に配置されるように示されているが、これに限定されるわけではなく、結像装置100の外部に配置されることも可能である。他の実施例によれば、光源はマーカー10の内部でパターン面15の前面または後面に対して光を照射するように設けられ得る。この場合、マーカー10は、アクティブマーカー(active marker)として動作できる。
一実施例において、オプティカルトラッキングシステム1が手術ナビゲーションシステム(surgical navigation system)のような手術システム内で動作する場合に、マーカー10は手術道具、手術ロボットの一部または患者の患部を含む少なくとも1つの対象体に付着され得る。また、複数のマーカーが用いられる場合には、マーカーの位置及び姿勢が順次または同時にトラッキングされ得る。この場合、プロセッサ130は複数のマーカーの位置及び姿勢をトラッキングするために、それぞれの対象体に付着されたマーカーをマーカーのIDを通じて区別できる。
更に他の実施例によれば、オプティカルトラッキングシステム1は、予め決定された幾何学的関係を有する2つのマーカーの位置及び姿勢をトラッキングできる。例えば、オプティカルトラッキングシステム1は、図1に示した手術道具20に付着されたマーカー10及び患者の頭に付着されたマーカー30の位置及び姿勢を同時にトラッキングできる。オプティカルトラッキングシステムは、結像装置を通じて2つのマーカーにそれぞれ形成されたパターンのパターンイメージを取得できる。2つのマーカーの位置は、予め決定された幾何学的関係、およびパターンイメージ上でのパターンの少なくとも一部の位置と、各マーカー上でのパターンの少なくとも一部の位置間の関係に基づいて決定され得る。マーカーの姿勢は先に説明した方式と同一の方式で決定され得る。
一実施例において、プロセッサ130は、開口13を通じて見えるパターン面15の一部を無限大の焦点距離で結像した第1イメージに基づいてマーカー10の姿勢を決定する姿勢トラッキング部132、および互いに異なる方向で開口13を通じて放出された出射光を無限大の焦点距離よりも近い焦点距離でそれぞれ結像した第2及び第3イメージに基づいてマーカー10の位置を決定する位置トラッキング部131、および複数のマーカーの位置及び姿勢をトラッキングするためにそれぞれの対象体に付着されたマーカーをマーカーのIDを通じて区別するID識別部133を含み得る。ID識別部133は第1イメージに含まれたパターンイメージからマーカー10のIDを識別できる。
無限大の焦点距離は、例えば、結像装置100を基準としてマーカー10より相当遠い位置に対応する距離を意味し得る。また、無限大の焦点距離よりも近い焦点距離(以下、「近い焦点距離」)は対象体の位置を含む所定範囲の焦点距離となり得る。即ち、マーカー10は対象体に付着されるので、無限大の焦点距離よりも近い焦点距離はマーカー10の位置を含む所定範囲の焦点距離となり得る。
図3は、本開示の一実施例により結像部270、280がマーカー210の開口230から放出される出射光L1、L2をそれぞれの方向で撮影する例を示す図である。
図2を参考にすると、第1結像部270はライトフィールドカメラの構造を有し得る。第2結像部280は近い焦点距離でイメージを形成するためのカメラの構造を有し得る。また、第1結像部270は無限大の焦点距離でパターン面250の一部を結像してパターンイメージを結像でき、第2結像部280は近い焦点距離でマーカー210のパターン面250に反射されて光学系220に入ってくる出射光を結像できる。
一実施例によれば、マーカー210は第1及び第2結像部270、280それぞれの視野角(FOV)内に位置しており、開口230に形成された光学系220は第1及び第2結像部270、280に向けて配置され得る。ここで、パターン面250に反射した光は光学系220を通じて平行出射光L1として出ることができ、第1結像部270のレンズ275に到達してパターンイメージとして結像され得る。また、マーカー210の光学系220から第1結像部270に向かう出射光と異なる方向に出る出射光L2は、第2結像部280のレンズ285に到達して出射光イメージとして結像され得る。
一実施例において、第1結像部270はマーカー210と無限光学系を形成することができる。パターン255が形成されたパターン面250は、パターンイメージが光学系220を通じて平行出射光L1の形態で第1結像部270に伝達されるようにマーカー210内部に配置され得る。第1結像部270に含まれたイメージセンサの被写体深度は、マーカー210の位置より遠い地点から、マーカー210の光学系220によりパターンイメージが形成される無限大地点まで包括するように設定され得る。この場合、第1結像部270に含まれたイメージセンサは、マーカー210の動きに応じてマーカー210からの距離が変化することと関係なく、マーカー210に形成されたパターンの一部に関するパターンイメージを結像できる。また、第1結像部270はマーカーが遠くなったり近くなる場合にも深度または倍率の調整なしにパターンイメージを結像できる。従って、以上の通り無限光学系が構成された場合には、マーカー210が結像装置からどれほど離れて位置しても、第1結像部270により結像されたパターンイメージからパターンの少なくとも一部が識別され得る。他の実施例において、パターン面250がマーカー210内に配置される場合、マーカー210の光学系220が第1及び第2結像部270、280それぞれの光学系レンズ275、285とともに無限光学系を構成することができる。
一実施例において、パターン255はパターン全体に対して各サブパターンの位置が固有に決定されるように形成されるので、そのパターンのパターンイメージからパターン全体に対する各サブパターンの位置に関する情報を抽出できる。具体的には、パターン255は繰り返し的に配列された非周期的シーケンス(aperiodic sequences)を含み得る。例えば、各非周期的シーケンスはPRBS(Pseudo-Random Binary Sequence)であってもよく、より具体的にドゥブリュエインシーケンス(De Bruijn Sequence)であってもよい。ここで「非周期的シーケンス」とは、上述した通り、最大化された自己相関性を有したり、当該シーケンスに含まれた複数のサブシーケンスが周期的な方式で配列されないことを意味し得る。また、パターン255はマーカーのIDを提供できるように形成され得る。
図4は、本開示の一実施例により結像部で結像されたイメージを説明するための図である。
一実施例において、結像部はマーカーが付着された対象体(例えば、手術道具)の位置及び姿勢を決定するためにマーカーに形成されたパターンの少なくとも一部を結像できる。マーカーと対象体との間には既設定された幾何学的関係が存在し得、マーカーの姿勢がトラッキングされた場合、対象体との既設定された幾何学的関係を用いて対象体の姿勢をトラッキングできる。
マーカーと無限光学系を形成する結像部は、イメージセンサが実際に結像されたイメージ(300)から所定のイメージ処理(image process)された補正イメージ(correction image)を取得できる。結像されたイメージ300はパターン部分の周辺部分が完全に暗く結像されずに結像装置の視野角に位置した事物がぼやけて見える程度である。イメージ処理は、例えば、結像されたイメージにおいて明るい部分と暗い部分の差をさらに強化する作業になり得る。
一実施例において、結像されたイメージ300は所定の位置に形成されるパターンイメージ320を含み得る。パターンイメージ320を囲む仮想の(imaginary)境界部分330はマーカーの開口の位置に対応し得、パターンイメージ320及び周辺部分310を区分することができる。パターンイメージ320に含まれたサブパターン350はプロセッサの姿勢決定部でパターンウィンドウ340を通じて読み出され得る。また、原本イメージ(図示せず)からイメージ処理を行った後には、図4に示した結像されたイメージ300よりパターンイメージ320が目立ち、周辺部分310は黒くなり、境界部分330はぼやけて結像される。
結像されたイメージ300においてパターンイメージ320を除いた周辺部分310は、パターンイメージ320に対応するマーカーのパターン面より相対的に暗い部分であって、イメージがない形態(例えば、ブラックアウト(black out)された状態)で結像され得る。即ち、結像部のイメージセンサは被写体深度が形成されていない領域及び相対的に光量が少ない部分を暗く結像し、暗く結像した部分が周辺部分310となり得る。また、マーカーの光学系と無限光学系を形成する結像部のイメージセンサは、焦点距離が遠距離ないし無限大に合わせられているので、マーカーが運用される範囲内の近距離の物体は全てひどくブラー(blur)となり得る。また、マーカーの開口から出る出射光が周辺光に比べて相対的に相当明るいので、結像されたイメージ300内でパターンイメージ320は強く目立ち得る。万一、マーカーの撮像に用いられる光を照明とフィルタリングを通じて統制したのであれば、結像されたイメージ300内でパターンイメージ320と周辺部分310の明るさの差がより一層大きくなり得る。
一実施例において、オプティカルトラッキングシステムの結像部がマーカーに形成されたパターン面から反射された出射光をパターンイメージ320として結像すれば、プロセッサの姿勢決定部はパターンイメージ320に含まれた各サブパターン350の全体パターン内での位置に基づいてマーカーの姿勢を決定できる。例えば、結像されたパターンイメージ320に図3に示したパターン255の一部が含まれ得、プロセッサは結像部から結像されたイメージ300を受信してイメージ補正を行った後、読み出されたパターンイメージ320内でパターンウィンドウ340を通じてサブパターン350を識別できる。パターンウィンドウ340の大きさはサブパターン350の大きさと同一であるかさらに大きくてもよい。即ち、プロセッサの姿勢トラッキング部は全体パターン内で当該サブパターンの位置を決定でき、このように決定されたサブパターンの位置に基づいて、マーカーの姿勢を決定できる。
図5は、ライトフィールドカメラの構造を有する結像部400を説明するための図である。
一実施例において、結像部400は被写体410から順に配置される、レンズ420、レンズアレイ430、およびイメージセンサ440を含み得る。被写体410はマーカーの開口ないしマーカーに形成されたパターンの一部になり得る。図5に示した結像部400は、ライトフィールドイメージを取得するための1つの配置構造であって、例示的なものであり、ライトフィールドイメージを取得するために図5に示した構造と異なる構造が適用され得る。
一実施例において、レンズ420は被写体410から入ってくる光を集光することができる。レンズ420は被写体410から入ってくる光が1つのポイントに集光されるように1つの焦点距離を有する凸レンズになり得る。レンズ420が複数のレンズなどを用いて実現された場合には、公知となった薄いレンズ理論(thin lens theory)により複数のレンズを1つの薄いレンズとして定義することができる。これにより、レンズ420の直径、焦点距離及び中心は、このように定義された1つの薄いレンズの直径、焦点距離及び中心でそれぞれ示すことができる。
一実施例において、レンズアレイ430はレンズ420を通過して入ってくる光を分散させ、互いに異なる位置に形成される複数のポイントに集光させることができる。レンズアレイ430は複数のサブレンズ431で構成され得る。一実施例において、レンズアレイ430はレンズ420の焦点距離よりレンズ420に近く配置され得る。他の実施例において、レンズアレイ430は、レンズ420から、レンズ420の焦点距離より遠く配置され得る。
一実施例において、レンズアレイ430はレンズ420の焦点距離に対応する位置に配置され得る。この場合、レンズ420から入ってくる光の焦点はサブレンズ431のうち1つに形成され得る。また、イメージセンサ440はレンズアレイ430に含まれたそれぞれのサブレンズ431の焦点距離に対応する位置に固定されて設けられ得る。
一実施例において、イメージセンサ440はレンズアレイ430を通過した光をセンシングできる。また、イメージセンサ440は複数のポイントに対応する複数の単位イメージを含むライトフィールドイメージ(light field image)を取得できる。イメージセンサ440は任意の物体の結像イメージを取得するように構成された任意の種類の少なくとも1つの結像素子を含み得、例えば、CCD(charge-coupled device)センサまたはCMOS(complementary metal-oxide semiconductor)センサを含み得る。イメージセンサ440は複数の画素441(fixel)で構成され得る。
一実施例において、イメージセンサ440は1回の撮影時に、例えば、写真集合体ファイルのフォーマット(format)を有する、ライトフィールドイメージを出力できる。写真集合体ファイルは複数のサブレンズの焦点に対応する位置に被写体の焦点が形成されて互いに異なる被写体深度を有する複数の単位イメージを含み得る。それぞれの単位イメージにはX、Y座標によって光の色情報と方向情報がともに保存され得る。
一実施例において、それぞれの単位イメージは、互いに異なる被写体深度を有するが、同一の対象体を撮影できる。それぞれの単位イメージから見える対象体の姿は実質的に同一であり得、互いに鮮明に見える部分及びぼやけて見える部分の位置で差が発生し得る。鮮明に見える部分は対応するサブレンズ431の焦点が形成されて被写体深度を有する部分であり、ぼやけて見える部分はこれを除いた部分になり得る。
ライトフィールドカメラは被写体を撮影した後に被写体深度を事後的に決定し、互いに異なる被写体深度を有するイメージを組み合わせるように構成され得る。従って、ライトフィールドカメラのイメージセンサは事後的かつ可変的な被写体深度を有し得る。また、ライトフィールドカメラで生成するライトフィールドイメージは、光の色情報と方向情報をともに保存する複数の単位イメージを含み得る。
一実施例において、結像部400が実現するライトフィールドカメラは無限大位置に置かれた被写体410、即ち、マーカーのパターン面の一部を明確に撮像できるように、被写体深度が遠距離ないし無限大であるイメージを合成した第1イメージをプロセッサへ伝送できる。
他の実施例において、第1結像部400は複数の単位イメージを用いて再焦点(refocusing)過程を行うことができる。再焦点過程でライトフィールドイメージのピクセルのうち所望の被写体深度及びそれにより逆算される光経路ないし方向に相応するピクセルの色情報を組み合わせて所望の深度のイメージを新たに抽出できる。これを通じてパターンイメージが鮮明に識別可能な第1イメージを生成できる。
図6は、図5に示したレンズアレイ430を説明するための図である。
一実施例において、レンズアレイ430に含まれた複数のサブレンズ431はN個(N>1、Nは自然数)のマイクロレンズで提供され得る。即ち、N個は複数を意味し得る。例えば、レンズアレイ430には各行に対してi個のサブレンズ431が配置され、各列に対してj個のサブレンズが配置され得る。従って、N個のマイクロレンズはi×j個の行列として構成され得る。例示的に、より稠密なライトフィールドを形成するために、レンズアレイ430は略1000×1000個のマイクロレンズが配列される形態を有し得る。マイクロレンズの配列及び個数は、レンズ及びマイクロレンズの物性、撮影環境、単位イメージの要求される解像度、または、イメージセンサの画素数など多様な条件に応じて変わり得る。
一実施例において、サブレンズ431に対応するN個のマイクロレンズは、レンズを通過して入ってくる光をN個のポイントに分散させることができる。一実施例において、図5に示したイメージセンサはN個のマイクロレンズが形成するN個のポイントに対応するN個の区域に区分され得る。即ち、それぞれのN個のマイクロレンズの焦点はイメージセンサのN個の区域に分散するように形成され得る。
一実施例において、N個の区域でN個の単位イメージを結像する場合、ライトフィールドイメージは互いに異なる被写体深度を有するN個の単位イメージを含み得る。また、プロセッサは、N個のイメージのうち所定位置に被写体深度が形成されたイメージを選択することができる。プロセッサはN個のイメージのうち無限大の焦点距離ないし近い焦点距離を有する少なくとも1つのイメージを選択することができる。例えば、結像部はマーカーのパターン面が結像されたイメージを結像するためにライトフィールドイメージから無限大の焦点距離を有するイメージを抽出でき、出射光イメージを結像するために近い焦点距離を有するイメージを抽出できる。
図7は、結像部500で取得されたライトフィールドイメージに含まれた複数の単位イメージの被写体深度が異なって形成される過程を示す図である。
結像部500は、レンズ530、レンズアレイ540、およびイメージセンサ550を含み得る。第1被写体510は第2被写体520に比べてレンズ530に対して距離が近く配置され得る。一実施例において、第1被写体510は、図3に示したマーカーの開口230に対応し得、第2被写体520は、図3に示したパターン面250に対応し得る。
第1被写体510の上端から出た光はレンズ530を通じて集光されてレンズアレイ540の下側に配置されたサブレンズ542に焦点が形成され得る。サブレンズ542から出た光はイメージセンサ550の下側に配置された区域A1に到達できる。これにより、第1被写体510の上端から出た光の光量は主に下側区域A1に分布するようになり、残りの区域に光量が少なく分布し得る。即ち、下側区域A1に含まれた画素551、552、553には第1被写体510の上端の姿が鮮明に結像され得る。
第2被写体520の上端から出た光はレンズ530を通じて集光されてレンズアレイ540の中間部分のサブレンズ541に焦点が形成され得る。サブレンズ541から出た光はイメージセンサ550の中間部分に配置された区域A2に到達できる。これにより、第2被写体520の上端から出た光の光量は主に中間区域A2に分布するようになり、残りの区域に光量が少なく分布し得る。即ち、中間区域A2に含まれた画素554、555、556には第2被写体520の上端の姿が鮮明に結像され得る。
下側区域A1には第2被写体520から出る光の光量が少なく分布するので、第2被写体520に対する姿はぼやけた状態で結像され得る。また、中間区域A2には第1被写体510から出る光の光量が少なく分布するので、第1被写体510に対する姿はぼやけた状態で結像され得る。従って、下側区域A1は第1被写体510に対して被写体深度が形成された単位イメージを出力し、中間区域A2は第2被写体520に対して被写体深度が形成された単位イメージを出力できる。
上述したことによれば、一実施例による結像部を通じて被写体を撮影すれば、互いに異なる被写体深度を有する複数の単位イメージを含むライトフィールドイメージを取得できる。
図8は、互いに異なる被写体深度を有する複数の単位イメージを含むライトフィールドイメージ600を説明するための図である。
一実施例において、ライトフィールドイメージ600はイメージセンサで互いに異なる位置の区域C1、C2、C3、C4に被写体深度が形成された複数の単位イメージを含む写真集合体ファイルで出力され得る。複数の区域C1、C2、C3、C4は単位イメージ内で互いに異なる位置になり得、状況によって少なくとも2つの区域が互いに同一の位置になり得る。写真集合体ファイルは、図9に図示した通り互いに物理的に分離された複数の単位イメージを単に集めた集合体フォーマットになり得る。これとは異なり、写真集合体ファイルは新たな拡張子方式で複数の単位イメージが互いに一体に結合されたフォーマットになり得る。一実施例において、それぞれの単位イメージは互いに異なる被写体深度を有するように光の色情報と方向情報を含み得る。図9に示した矢印の方向は被写体深度が形成される距離が増加する方向を示すことができる。
一実施例によれば、プロセッサは、ライトフィールドイメージ600に含まれた複数のイメージをイメージが形成された被写体深度DOFによって分類し、使用者の入力によりレファレンスイメージREFよりも近い被写体深度を有したりまたは遠い被写体深度を有する単位イメージを出力できる。例えば、レファレンスイメージの被写体深度はマーカーの位置を含む領域の深度に該当し得る。
一実施例において、結像装置で撮影されたライトフィールドイメージは被写体深度によって分類可能なN個の単位イメージを含み得る。一実施例において、プロセッサは、N個のイメージをN個のイメージそれぞれが形成された被写体深度によって分類し、使用者の入力によりN個のイメージのうちいずれか1つのイメージを選択することができる。また、プロセッサは、ライトフィールドイメージから鮮明なパターンイメージを取得するために、N個のイメージのうち、無限大の焦点距離で被写体深度が形成されたイメージを出力できる。
図9は、本開示の一実施例によるオプティカルトラッキングシステムの結像部710、720で結像されたイメージ730、740、750に基づいてマーカーの姿勢及び位置を決定する方法を説明するための図である。
一実施例において、マーカー70は第1及び第2結像部710、720の視野角内に位置し得る。また、第1結像部710はライトフィールドカメラの構造を有し得、第2結像部720は近い焦点距離で出射光イメージを結像するためのカメラの構造を有し得る。第1結像部710はライトフィールドイメージから無限大の焦点距離を有するイメージとして抽出されてパターンイメージ735を含む第1イメージ730及びライトフィールドイメージから近い焦点距離を有するイメージとして抽出された第2イメージ740を結像できる。また、第2結像部720は近い焦点距離で第2結像部720に向かう出射光イメージを含む第3イメージ750を結像できる。
第1イメージ730の深度は無限大の焦点距離に該当する位置を中心に所定の有限な範囲に形成され得る。また、第2及び第3イメージ740、750の深度は近い焦点距離に該当する位置を中心に所定の有限な範囲に形成され得る。即ち、第2及び第3イメージ740、750の深度はマーカー70の位置を中心に所定の有限な範囲に形成され得る。
一実施例において、第1結像部710は、第1結像部710によって結像されたライトフィールドイメージから無限大の焦点距離で結像された第1イメージ730及び近い焦点距離で結像された第2イメージ740を抽出してプロセッサ760へ伝送できる。プロセッサ760の姿勢トラッキング部は第1イメージ730のパターンイメージ735上に含まれたパターンの少なくとも一部(または領域)の大きさ及び開口領域745の基準座標に基づいてマーカーの姿勢をトラッキングできる。
一実施例において、プロセッサ760の姿勢トラッキング部は、開口を通じて見えるパターン面の一部が第1結像部710により結像されたライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出された第1イメージ730に基づいてマーカーの姿勢を決定できる。また、姿勢トラッキング部は第1イメージ730に含まれたパターンイメージ735に基づいて、パターンを形成する各サブパターンの全体パターン内での位置を決定し、その結果に基づいてマーカーの姿勢を決定できる。
パターンイメージ735は第1イメージ730内で識別可能に結像され、開口領域745の位置は第2イメージ740内で識別可能に結像され得る。一実施例において、第1結像部710及び第2結像部720は地面から同一の高さ(例えば、Y軸方向への高さ)に配置され得る。従って、第2イメージ740に結像された開口領域745及び第3イメージ750に結像された開口領域755は、それぞれ第2及び第3イメージ740、750内で同一の高さを有し得る。
一実施例において、プロセッサ760の位置トラッキング部は、第2及び第3イメージ740、750に結像された出射光イメージの基準座標間の差(disparity)に基づいてマーカーの3次元空間上の位置を決定できる。開口領域745が第2イメージ740内で地面と平行な方向(例えば、X軸方向)に位置した距離X1は、開口領域755が第3イメージ750内で地面と平行な方向に位置した距離X2と異なり得る。例えば、距離X2は距離X1より大きく形成され得る。また、第1及び第2結像部710、720は予め定められた距離dを介して離隔され得、プロセッサ760の位置トラッキング部は三角法を用いてマーカーの位置を決定する過程で予め定められた距離d情報を用いることができる。
一方、第1イメージ730内でパターンイメージ735が形成する領域の大きさは、パターンイメージ730が結像された位置(例えば、結像部の位置)からマーカーまでの距離及びマーカーの位置のうち少なくとも1つにより変更され得る。
一実施例によれば、プロセッサ760の位置トラッキング部は、結像された第2及び第3イメージ740、750上で開口領域745、755の基準座標を抽出し、これらに基づいてマーカーの位置を決定できる。例えば、マーカーの開口が円形を有する場合、パターンイメージ735及び開口領域745は、図10に示した通り略円形に示され得る。
一実施例において、プロセッサ760の位置トラッキング部は、三角法を用いてマーカーの位置を決定できる。第1結像部710によって結像されたライトフィールドイメージから近い焦点距離で結像されたイメージとして抽出された第2イメージ740及び第1結像部710に向かう出射光と異なる方向で開口を通じて放出された出射光が第2結像部720によって近い焦点距離で結像された第3イメージ750に基づいてマーカーの位置を決定できる。
プロセッサ760の位置トラッキング部は、第1及び第2結像部710、720それぞれによって結像された第2及び第3イメージ740、750から、開口領域745、755の基準座標を抽出した後、この基準座標に基づいた三角法を用いてマーカーの位置を計算することができる。より具体的には、位置トラッキング部は及び開口領域745、755の基準座標と、第1及び第2結像部710、720それぞれがマーカーを見る方向、

間の幾何学的関係を用いてマーカーの位置を計算することができる。
一実施例により、姿勢トラッキング部はパターンイメージ735から各サブパターンの位置を決定できる。パターンイメージからマーカーのトラッキングのための情報を抽出するために、先ずプロセッサ760はパターンイメージ735でサブパターンを読み出すことができる。以後プロセッサ760は読み出された各サブパターンの全体パターン内での位置(座標)を計算することができる。
図10は、図9に示したオプティカルトラッキングシステムで結像されたイメージを示す図である。
図9に示したオプティカルトラッキングシステムで、第1結像部710はライトフィールドイメージを取得できる。ライトフィールドイメージは互いに被写体深度を有する複数の単位イメージを含み得る。第1結像部710は第1イメージから無限大の焦点距離で結像された第1イメージ730及び近い焦点距離で結像された第2イメージ740を抽出できる。無限大の焦点距離で結像された第1イメージ730内のパターンイメージ735の領域の大きさは、近い焦点距離で結像された第2イメージ740内の開口領域745の大きさより大きくてもよい。
第1イメージ730において、パターンイメージ735を囲む境界部分736はマーカー70の開口の位置に対応し得る。マーカー70の開口の縁部を通過して放出される出射光は、出射光が開口を通る時、回折、内部反射、開口のビネッティング、または、焦点深度などの理由で、カメラに撮られる時にはぼやけた(blurred)形態で結像され得る。従って、境界部分736がぼやけて形成されるので、周辺の部分737と区別があまりつかなくなり得る。また、周辺の部分737は、パターンイメージ735に比べて相対的に相当暗い部分にイメージ処理過程でイメージがない形態(例えば、ブラックアウト(black out)された状態)に補正され得る。従って、プロセッサ760の位置トラッキング部がパターンイメージ735の基準座標を測定する場合、境界部分736がぼやけて結像される現象のため誤差を発生させ得るので、位置トラッキング部は、第2及び第3イメージ740、750内で明確に結像された開口領域745、755の基準座標に基づいてマーカーの位置をトラッキングできる。
一実施例において、姿勢トラッキング部は第1イメージ730内に結像されたパターンイメージ735を読み出してマーカーの姿勢を決定できる。また、位置トラッキング部は、第2イメージ740内に結像された開口領域745の基準座標746及び第3イメージ750内に結像された開口領域755の基準座標756を決定し、2つの基準座標746、756に基づいてマーカーの位置を決定できる。
パターンイメージ735及び開口領域745はそれぞれ第1及び第2イメージ730、740の左側端部から距離X1を置いて結像され得る。これとは異なり、開口領域755は第3イメージ750内で左側端部から距離X2を置いて結像され得る。従って、このような距離X1及び距離X2の差はマーカーの位置を決定するために用いられ得る。
図11は、本開示の他の実施例によるオプティカルトラッキングシステム2のブロック図である。上述した実施例において説明された構成と重複する説明については省略する。
他の実施例によるオプティカルトラッキングシステム2は、マーカー80、結像装置800及びプロセッサ830を含み得る。結像装置800は第1結像部810及び第2結像部820を含み得る。また、第1及び第2結像部810、820それぞれはライトフィールドカメラの構造を有し得る。プロセッサ830は第1及び第2結像部810、820それぞれからパターンの互いに異なる部分が結像されたライトフィールドイメージを受信し、これに基づいてマーカー10の位置及び姿勢をトラッキングできる。
一実施例において、第1結像部810はレンズ811、レンズアレイ812及びイメージセンサ813を含み得る。第2結像部820はレンズ821、レンズアレイ822及びイメージセンサ823を含み得る。従って、第1及び第2結像部810、820はそれぞれ1回の撮影時に1つのライトフィールドイメージを生成できる。また、第1及び第2結像部810、820はステレオスコピックを構成でき、同軸照明カメラの構成を有し得る。
一実施例において、第1及び第2結像部810、820はパターンがマーカー80の外部から十分に識別されるように光学系82を通じて結像装置800に入射される光を補強するために、マーカー80またはパターン面85に向かって光を照射する少なくとも1つの光源816、826を含み得る。また、第1及び第2結像部810、820は、光源816、826から発生した光をレンズ811、821を通じてマーカー80に照射するビームスプリッタ815、825を含み得る。
一実施例において、プロセッサ830は開口83を通じて見えるパターン面85の一部を無限大の焦点距離で結像された第1イメージに基づいてマーカー80の姿勢を決定する姿勢トラッキング部832、および互いに異なる方向で開口83を通じて放出された出射光を近い焦点距離でそれぞれ結像された第2及び第3イメージに基づいてマーカー80の位置を決定する位置トラッキング部831、および複数のマーカーの位置及び姿勢をトラッキングするためにそれぞれの対象体に付着されたマーカーをマーカーのIDを通じて区別するID識別部833を含み得る。ID識別部833は第1イメージに含まれたパターンイメージからマーカー80のIDを識別できる。
図12は、本開示の他の実施例によるオプティカルトラッキングシステム2の結像部で結像されたイメージに基づいてマーカーの姿勢及び位置を決定する方法を説明するための図面であり、図13は、本開示の他の実施例によるオプティカルトラッキングシステム2で結像されたイメージを示す図である。
図3を参考にすると、オプティカルトラッキングシステム2の第1結像部810はパターンの第1部分を含む第1ライトフィールドイメージを生成でき、第2結像部820は前記第1部分と相違するパターンの第2部分を含む第2ライトフィールドイメージを生成できる。第1及び第2ライトフィールドイメージそれぞれは互いに異なる被写体深度を有する複数の単位イメージを含み得る。
一実施例において、プロセッサ830の姿勢トラッキング部は、開口を通じて見えるパターン面の一部が第1結像部810により結像されたライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出された第1イメージ930に基づいてマーカーの姿勢を決定できる。また、プロセッサ830の位置トラッキング部は、第1結像部810により生成されたライトフィールドイメージから近い焦点距離で結像されたイメージとして抽出された第2イメージ940及び第2結像部820により生成されたライトフィールドイメージから近い焦点距離で結像されたイメージとして抽出された第3イメージ950に基づいてマーカーの位置を決定できる。従って、プロセッサ830はマーカー80の位置及び姿勢を時間差なしで、同時に、リアルタイムでトラッキングできる。
一実施例によれば、第1イメージ930は、第1結像部810によって結像されたライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出されたイメージであって、パターン面の一部が識別可能に結像されたパターンイメージ935を含み得る。また、第2イメージ940は、第1結像部910によって結像されたライトフィールドイメージからマーカー80の位置を含む領域に形成される近い焦点距離で結像されたイメージとして抽出されたイメージであって、第1結像部810に向かう出射光が結像された出射光イメージ(例、開口領域945)を含み得る。また、第3イメージ950は、第2結像部820によって結像されたライトフィールドイメージからマーカー80の位置を含む領域に形成される近い焦点距離で結像されたイメージとして抽出されたイメージであって、第2結像部820に向かう出射光が結像された出射光イメージ(例、開口領域955)を含み得る。
一実施例において、プロセッサの姿勢トラッキング部は、第2結像部で結像した第2ライトフィールドイメージから抽出された第4イメージ960に基づいてマーカー80の姿勢をトラッキングできる。具体的には、第2結像部820は、第2結像部820により生成された第2ライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出されたイメージとして、パターン面の一部が識別可能に結像されたパターンイメージ965を含む第4イメージ960をプロセッサ830へ伝送し、プロセッサ830の位置トラッキング部はマーカーのパターン面の全体領域内で第4イメージ960内に結像されたパターンイメージ965の位置を決定し、決定された位置に基づいて対象体の姿勢を決定できる。
第1イメージ930で、パターンイメージ935を囲む境界部分936はマーカー80の開口の位置に対応し得る。また、第4イメージ960で、パターンイメージ965を囲む境界部分966はマーカー80の開口の位置に対応し得る。また、このような境界部分936、966はぼやけて結像され得るので、マーカーの姿勢は開口領域945、955が鮮明に結像された第1及び第3イメージ940、950に基づいて決定され得る。
一実施例において、プロセッサ830の位置トラッキング部は、第1イメージ930から決定された対象体の姿勢及び第4イメージ960から決定された対象体の姿勢の平均値に基づいて対象体の姿勢を決定でき、これによりトラッキングされたマーカー80の位置の精度を向上させることができる。
一実施例において、プロセッサ830の位置トラッキング部は、第2及び第3イメージ940、950からマーカーの位置を決定できる。即ち、プロセッサは、第2イメージ940内に結像された開口領域945を囲む枠の基準座標946及び第3イメージ950内に結像された開口領域955を囲む枠の基準座標956を決定し、2つの基準座標946、956に基づいてマーカーの姿勢を決定できる。
第1及び第2イメージ930、940内で、パターンイメージ935及び開口領域945は左側端部から距離X1を置いて結像され得る。また、第3及び第4イメージ950、960内で、開口領域955及びパターンイメージ965は左側端部から距離X2を置いて結像され得る。従って、プロセッサ830の位置トラッキング部はこのような距離X1及び距離X2の差に基づいてマーカーの3次元空間上の位置を決定できる。また、位置トラッキング部は、第2及び第3イメージ940、950に基づいてステレオスコピックイメージを構成してマーカー80の3次元空間上の位置を決定できる。
<マーカーをトラッキングする方法>
図14は、本開示の更に他の実施例によるオプティカルトラッキング方法S1220を示したフローチャートである。以下の各段階に対して図面を参照してより具体的にマーカーをトラッキングする方法が説明される。上述した実施例で説明した内容と重複した説明は省略する。
先ず図2を参考にすると、段階S1210で、第1結像部110により結像されたライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出されてパターン面15の一部が識別可能に結像されたパターンイメージを含む第1イメージ、ライトフィールドイメージから近い焦点距離で結像されたイメージとして抽出されて開口13を通じて第1方向に放出された出射光が結像された第2イメージ、近い焦点距離で結像する第2結像部120により開口13を通じて第1方向と異なる第2方向に放出された出射光が結像された第3イメージを結像できる。次に、段階S1220で、第1イメージに基づいてマーカーの姿勢を決定できる。次に、段階S1230で第2イメージ及び第3イメージに基づいてマーカーの位置を決定できる。
図15は、図14に示したオプティカルトラッキング方法S1200でマーカーの姿勢を決定する段階S1220を示したフローチャートである。
図5を参考にすると、マーカーの姿勢を決定する段階S1220は、パターン面の全体領域内で第1イメージ730に含まれたパターンイメージ735の位置を決定し(S1221)、決定された位置に基づいて対象体の姿勢を決定できる(S1222)。
段階S1221で、プロセッサはパターンイメージから少なくとも1つのサブパターンを抽出できる。例えば、図4を参考にすると、プロセッサは結像装置によって取得されたパターンイメージから予め決定された大きさのパターンウィンドウ340を通じて少なくとも1つのサブパターン350を抽出できる。
このように少なくとも1つのサブパターンが抽出されれば、段階S1222で、プロセッサは、抽出された少なくとも1つのサブパターンに基づいてマーカーの姿勢を決定できる。具体的には、プロセッサはサブパターンのパターン内での位置を決定でき、以後、プロセッサは決定されたサブパターンのパターン内での位置に基づいてマーカーの姿勢を決定できる。即ち、プロセッサは決定されたサブパターンの全体パターン内での位置に基づいてマーカーの姿勢を決定できる。
図16は、図15に示したオプティカルトラッキング方法S1200で、マーカーの位置を決定する段階S1230を示すフローチャートである。
マーカーの位置を決定する段階S1230は、図5を参考にすると、第2及び第3イメージ740、750内に結像された出射光イメージ745、755の基準座標をそれぞれ決定(S1231)し、それぞれ決定された基準座標及び出射光が指向する方向の間の幾何学的関係を用いて対象体の位置を決定(S1232)できる。
プロセッサは各出射光イメージ745、755の基準座標(例えば、開口領域の中心座標)と、第1及び第2結像部710、720がマーカー70を見る方向

間の幾何学的関係を用いた三角法に基づいてマーカー70の位置を決定できる。以上の実施例では、三角法を用いてマーカーの位置が決定されたが、これに限定されるわけではなく、三角法ではない他の位置決め方法が用いられ得る。
図14を参照して説明された実施例で、プロセッサは、マーカーの位置を決定した後にマーカーの姿勢を決定する。他の実施例において、プロセッサはマーカーの位置を決定する前にマーカーの姿勢を決定することもできる。更に他の実施例において、プロセッサはマーカーの位置及び姿勢を並列的に処理して決定することもできる。
上記方法は特定の実施例を通じて説明されたが、上記方法はまた、コンピュータで読み出せる記録媒体にコンピュータが読み出せるコードとして実現することが可能である。コンピュータが読み出せる記録媒体はコンピュータシステムにより読まれることができるデータが格納される全ての種類の記録装置を含む。コンピュータが読み出せる記録媒体の例としてはCD‐ROM、USBメモリ装置などがある。また、コンピュータが読み出せる記録媒体はネットワークで連結されたコンピュータシステムに分散し、分散方式でコンピュータが読み出せるコードが保存されて実行され得る。そして、上記実施例を実現するための機能的な(functional)プログラム、コード及びコードセグメントは、本開示の属する技術分野のプログラマーによって容易に推論されることができる。
本開示では本開示が一部実施例と関連して説明されたが、本開示の属する技術分野の当業者が理解することができる本開示の思想及び範囲を逸脱しない範囲で多様な変形及び変更がなされるという点を理解すべきである。また、そのような変形及び変更は本開示に添付の請求の範囲内に属すると考えられるべきである。
1、2:オプティカルトラッキングシステム
10、30:マーカー
100、800:結像装置
110、120、270、280、710、720、810、820:結像部
111、121、131:レンズ
112、142:レンズアレイ
113、123、813、823:イメージセンサ
130、760、830:プロセッサ
600:ライトフィールドイメージ
730、930:第1イメージ
740、940:第2イメージ
750、950:第3イメージ
960:第4イメージ

Claims (15)

  1. マーカーの位置及び姿勢をトラッキングするオプティカルトラッキングシステムであって、
    前記マーカーは、対象体に付着され得、開口に形成された光学系を通じて内部に形成されたパターン面が見えるように構成され、
    前記マーカーの少なくとも一部を結像してライトフィールドイメージを生成する第1結像部及び前記開口から放出された出射光を結像する第2結像部を含む結像装置と、
    前記ライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出されて前記パターン面の一部が結像された第1イメージに基づいて前記マーカーの姿勢を決定し、前記ライトフィールドイメージから前記無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出された第2イメージ及び前記第1結像部へ向かう出射光と異なる方向で前記開口を通じて放出された出射光が前記第2結像部により結像された第3イメージに基づいて前記マーカーの位置を決定するプロセッサと、
    を含むオプティカルトラッキングシステム。
  2. 前記プロセッサは、
    前記開口を通じて見える前記パターン面の一部が前記無限大の焦点距離で結像された前記第1イメージに基づいて前記マーカーの姿勢を決定する姿勢トラッキング部と、
    互いに異なる方向で前記開口を通じて放出された出射光がそれぞれ結像された前記第2イメージ及び前記第3イメージに基づいて前記マーカーの位置を決定する位置トラッキング部と
    を含む、請求項1に記載のオプティカルトラッキングシステム。
  3. 前記第1イメージは、前記ライトフィールドイメージから前記無限大の焦点距離で結像されるように抽出されたイメージであって、前記パターン面の一部が識別可能に結像されたパターンイメージを含み、
    前記第2イメージは、前記ライトフィールドイメージから前記対象体の位置を含む所定範囲の焦点距離で結像されるように抽出されたイメージであって、前記第1結像部へ向かう出射光が結像された出射光イメージを含み、
    前記第3イメージは、前記第2結像部へ向かう出射光が結像された出射光イメージを含む、請求項2に記載のオプティカルトラッキングシステム。
  4. 前記姿勢トラッキング部は、前記パターン面の全体領域内で前記パターンイメージの位置を決定し、前記決定された位置に基づいて前記対象体の姿勢を決定する、請求項3に記載のオプティカルトラッキングシステム。
  5. 前記位置トラッキング部は、前記第2イメージ及び前記第3イメージ内に結像された前記出射光イメージの基準座標をそれぞれ決定し、前記それぞれ決定された基準座標及び前記マーカーと前記第1結像部及び前記第2結像部との間の幾何学的関係に基づいて前記対象体の位置を決定する、請求項3に記載のオプティカルトラッキングシステム。
  6. 前記位置トラッキング部は、前記第2イメージ及び前記第3イメージに結像された前記出射光イメージの基準座標間の差に基づいて、前記マーカーの3次元空間上の位置を決定する、請求項5に記載のオプティカルトラッキングシステム。
  7. 前記位置トラッキング部は前記第2イメージ及び前記第3イメージに基づいてステレオスコピックイメージを構成して前記マーカーの3次元空間上の位置を決定する、請求項3に記載のオプティカルトラッキングシステム。
  8. マーカーの位置及び姿勢をトラッキングするオプティカルトラッキングシステムであって、
    前記マーカーは、対象体に付着され得、開口に形成された光学系を通じて内部に形成されたパターン面が見えるように構成され、
    前記マーカーの少なくとも一部を結像してそれぞれライトフィールドイメージを生成する第1結像部及び第2結像部を含む結像装置と、
    前記第1結像部により結像されたライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出されて前記パターン面の一部が結像された第1イメージに基づいて前記マーカーの姿勢を決定し、前記第1結像部により生成されたライトフィールドイメージから前記無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出された第2イメージ及び前記第2結像部により生成されたライトフィールドイメージから前記無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出された第3イメージに基づいて前記マーカーの位置を決定するプロセッサと
    を含む、オプティカルトラッキングシステム。
  9. 前記第1イメージは、前記第1結像部により結像されたライトフィールドイメージから前記無限大の焦点距離で結像されるように抽出されたイメージであって、前記パターン面の一部が識別可能に結像されたパターンイメージを含み、
    前記第2イメージは、前記第1結像部により結像されたライトフィールドイメージから前記対象体の位置を含む所定範囲の焦点距離で結像されるように抽出されたイメージであって、前記第1結像部へ向かう出射光が結像された出射光イメージを含み、
    前記第3イメージは、前記第2結像部により結像されたライトフィールドイメージから前記所定範囲の焦点距離で結像されるように抽出されたイメージであって、前記第2結像部へ向かう出射光が結像された出射光イメージを含む、請求項8に記載のオプティカルトラッキングシステム。
  10. 前記プロセッサは、前記パターン面の全体領域内でパターンイメージの位置を決定し、前記決定された位置に基づいて前記対象体の姿勢を決定し、
    前記プロセッサは、前記第2イメージ及び前記第3イメージ内に結像された出射光イメージの基準座標をそれぞれ決定し、前記それぞれ決定された基準座標及び前記マーカーと前記第1結像部及び前記第2結像部との間の幾何学的関係に基づいて前記対象体の位置を決定する、請求項8に記載のオプティカルトラッキングシステム。
  11. 前記第2結像部は、前記第2結像部により生成されたライトフィールドイメージから前記無限大の焦点距離で結像されるように抽出されたイメージとして前記パターン面の一部が識別可能に結像されたパターンイメージを含む第4イメージを前記プロセッサへ伝送し、
    前記プロセッサは、前記パターン面の全体領域内で前記第4イメージ内に結像された前記パターンイメージの位置を決定し、前記決定された位置に基づいて前記対象体の姿勢を決定し、
    前記プロセッサは、前記第1イメージから決定された前記対象体の姿勢及び前記第4イメージから決定された前記対象体の姿勢の平均値に基づいて前記対象体の姿勢を決定する、請求項10に記載のオプティカルトラッキングシステム。
  12. 前記プロセッサは、前記第1イメージ内に結像されたパターンイメージから前記対象体の位置及び姿勢を決定する、請求項8に記載のオプティカルトラッキングシステム。
  13. マーカーの位置及び姿勢をトラッキングするオプティカルトラッキング方法であって、
    前記マーカーは、対象体に付着され得、開口に形成された光学系を通じて内部に形成されたパターン面が見えるように構成され、
    第1結像部により結像されたライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出されて前記パターン面の一部が識別可能に結像されたパターンイメージを含む第1イメージ、前記ライトフィールドイメージから前記無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出されて前記開口を通じて第1方向に放出された出射光が結像された第2イメージ、第2結像部により前記開口を通じて前記第1方向と異なる第2方向に放出された出射光が結像された第3イメージを結像する段階と、
    前記第1イメージに基づいて前記マーカーの姿勢を決定する段階と、
    前記第2イメージ及び第3イメージに基づいて前記マーカーの位置を決定する段階と
    を含むオプティカルトラッキング方法。
  14. 前記マーカーの姿勢を決定する段階は、
    前記パターン面の全体領域内で前記第1イメージに含まれた前記パターンイメージの位置を決定する段階と、
    前記決定された位置に基づいて前記対象体の姿勢を決定する段階と
    を含む、請求項13に記載のオプティカルトラッキング方法。
  15. 前記マーカーの位置を決定する段階は、
    前記第2イメージ及び前記第3イメージ内に結像された出射光イメージの基準座標をそれぞれ決定する段階及び
    前記それぞれ決定された基準座標及び前記出射光が指向する方向の間の幾何学的関係を用いて前記対象体の位置を決定する段階と
    を含む、請求項13に記載のオプティカルトラッキング方法。
JP2017246446A 2017-12-20 2017-12-22 オプティカルトラッキングシステム及びオプティカルトラッキング方法 Active JP6475312B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170176495A KR102102291B1 (ko) 2017-12-20 2017-12-20 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법
KR10-2017-0176495 2017-12-20

Publications (2)

Publication Number Publication Date
JP6475312B1 JP6475312B1 (ja) 2019-02-27
JP2019113394A true JP2019113394A (ja) 2019-07-11

Family

ID=60953600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017246446A Active JP6475312B1 (ja) 2017-12-20 2017-12-22 オプティカルトラッキングシステム及びオプティカルトラッキング方法

Country Status (5)

Country Link
US (1) US11033337B2 (ja)
EP (1) EP3503032B1 (ja)
JP (1) JP6475312B1 (ja)
KR (1) KR102102291B1 (ja)
CN (1) CN109938843B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102102291B1 (ko) * 2017-12-20 2020-04-21 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법
KR102166372B1 (ko) * 2017-12-20 2020-10-15 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법
GB2586601B (en) * 2019-08-27 2022-10-12 Zeta Motion Ltd Determining object pose from image data
CN113116525B (zh) * 2021-04-28 2021-12-03 北京长木谷医疗科技有限公司 用于导航手术动力系统的光学跟踪结构
CN114903507B (zh) * 2022-05-16 2023-06-09 张海光 一种医学图像数据处理系统及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008026236A (ja) * 2006-07-24 2008-02-07 Olympus Corp 位置姿勢測定装置および位置姿勢測定方法
JP2008216089A (ja) * 2007-03-06 2008-09-18 Natl Inst Of Radiological Sciences 被験体の3次元的位置及び向き測定装置
JP2016516526A (ja) * 2013-04-30 2016-06-09 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びこれを用いたトラッキング方法
JP2016184956A (ja) * 2016-06-02 2016-10-20 キヤノン株式会社 画像処理装置及び画像処理方法
JP2017522674A (ja) * 2014-05-29 2017-08-10 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢算出方法
JP2017525937A (ja) * 2014-05-29 2017-09-07 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢並びに位置算出方法
JP2018025531A (ja) * 2016-08-09 2018-02-15 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキング用のマーカー、オプティカルトラッキングシステム及びオプティカルトラッキング方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54155683A (en) * 1978-05-30 1979-12-07 Matsushita Electric Ind Co Ltd Electronic scanning system ultrasoniccwave tomooinspection device
JPS5740212A (en) * 1980-08-22 1982-03-05 Canon Inc Automatic focusing apparatus
US4818886A (en) * 1986-11-12 1989-04-04 Quential, Inc. Method and apparatus for self-referencing and self-focusing a bar-code reader
US4978860A (en) * 1988-09-21 1990-12-18 Hewlett-Packard Company Optical system for a large depth-of-field bar code scanner
US5478997A (en) * 1988-10-21 1995-12-26 Symbol Technologies, Inc. Symbol scanning system and method having adaptive pattern generation
JP2788152B2 (ja) * 1992-06-22 1998-08-20 松下電器産業株式会社 バーコードリーダ
US5474548A (en) * 1993-07-14 1995-12-12 Knopp; Carl F. Method of establishing a unique machine independent reference frame for the eye
US5770850A (en) * 1997-04-30 1998-06-23 At&T Corp Sensor array tracking and detection system having an alignment positioner
US7006132B2 (en) * 1998-02-25 2006-02-28 California Institute Of Technology Aperture coded camera for three dimensional imaging
US7406214B2 (en) * 1999-05-19 2008-07-29 Digimarc Corporation Methods and devices employing optical sensors and/or steganography
US7084910B2 (en) * 2002-02-08 2006-08-01 Hewlett-Packard Development Company, L.P. System and method for using multiple images in a digital image capture device
IL148664A0 (en) * 2002-03-13 2002-09-12 Yeda Res & Dev Auto-focusing method and device
US6824059B2 (en) * 2002-04-30 2004-11-30 Hewlett-Packard Development Company, L.P. Apparatus for capturing images and barcodes
US7671321B2 (en) * 2005-01-18 2010-03-02 Rearden, Llc Apparatus and method for capturing still images and video using coded lens imaging techniques
US9867669B2 (en) * 2008-12-31 2018-01-16 Intuitive Surgical Operations, Inc. Configuration marker design and detection for instrument tracking
TWI343207B (en) * 2007-09-07 2011-06-01 Lite On Technology Corp Device and method for obtain a clear image
WO2009041918A1 (en) * 2007-09-26 2009-04-02 Agency For Science, Technology And Research A method and system for generating an entirely well-focused image of a large three-dimensional scene
WO2009107981A2 (ko) * 2008-02-26 2009-09-03 주식회사 고영테크놀러지 3차원형상 측정장치 및 측정방법
US20090302116A1 (en) * 2008-06-04 2009-12-10 Symbol Technologies, Inc. Semi-zoom imaging optical system
CN102282855B (zh) * 2009-01-19 2014-08-06 稻叶稔 立体影像摄像显示系统
US8366003B2 (en) * 2009-07-23 2013-02-05 Massachusetts Institute Of Technology Methods and apparatus for bokeh codes
US8910870B2 (en) * 2010-08-06 2014-12-16 Hand Held Products, Inc. System and method for document processing
WO2012107041A1 (de) * 2011-02-11 2012-08-16 Olaf Christiansen Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen
JP5197785B2 (ja) * 2011-03-30 2013-05-15 キヤノン株式会社 画像処理装置、撮像システム、画像処理システム
US20130027538A1 (en) * 2011-07-29 2013-01-31 Mitutoyo Corporation Multi-region focus navigation interface
US9230325B2 (en) * 2011-08-19 2016-01-05 University Of Rochester Three-dimensional model acquisition using planar mirrors
JP5848561B2 (ja) * 2011-09-20 2016-01-27 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
KR101614061B1 (ko) * 2012-03-29 2016-04-20 주식회사 고영테크놀러지 조인트 검사 장치
TW201351959A (zh) * 2012-06-13 2013-12-16 Wistron Corp 立體全景影像合成方法及其相關之立體攝影機
KR101487248B1 (ko) * 2013-05-28 2015-01-29 주식회사 고영테크놀러지 옵티컬 트랙킹 시스템
KR101406220B1 (ko) * 2013-04-30 2014-06-12 경북대학교 산학협력단 옵티컬 트랙킹 시스템 및 이를 이용한 트랙킹 방법
US20140327793A1 (en) * 2013-05-01 2014-11-06 Itzhak Sapir Imaging Apparatus and Method Comprising Imager and Optics Actuator Means
US9723300B2 (en) * 2014-03-17 2017-08-01 Spatial Intelligence Llc Stereoscopic display
KR101627835B1 (ko) * 2015-07-24 2016-06-08 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 방법
KR102102291B1 (ko) * 2017-12-20 2020-04-21 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008026236A (ja) * 2006-07-24 2008-02-07 Olympus Corp 位置姿勢測定装置および位置姿勢測定方法
JP2008216089A (ja) * 2007-03-06 2008-09-18 Natl Inst Of Radiological Sciences 被験体の3次元的位置及び向き測定装置
JP2016516526A (ja) * 2013-04-30 2016-06-09 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びこれを用いたトラッキング方法
JP2017522674A (ja) * 2014-05-29 2017-08-10 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢算出方法
JP2017525937A (ja) * 2014-05-29 2017-09-07 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢並びに位置算出方法
JP2016184956A (ja) * 2016-06-02 2016-10-20 キヤノン株式会社 画像処理装置及び画像処理方法
JP2018025531A (ja) * 2016-08-09 2018-02-15 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキング用のマーカー、オプティカルトラッキングシステム及びオプティカルトラッキング方法

Also Published As

Publication number Publication date
CN109938843B (zh) 2022-01-04
US11033337B2 (en) 2021-06-15
JP6475312B1 (ja) 2019-02-27
EP3503032A1 (en) 2019-06-26
KR102102291B1 (ko) 2020-04-21
CN109938843A (zh) 2019-06-28
KR20190074835A (ko) 2019-06-28
EP3503032B1 (en) 2020-07-15
US20190183583A1 (en) 2019-06-20

Similar Documents

Publication Publication Date Title
JP6475311B1 (ja) オプティカルトラッキングシステム及びオプティカルトラッキング方法
JP6475312B1 (ja) オプティカルトラッキングシステム及びオプティカルトラッキング方法
KR101331543B1 (ko) 스페클 패턴을 이용한 3차원 센싱
CN103649674B (zh) 测量设备以及信息处理设备
CN103636201B (zh) 用于确定摄影机的成像偏差的装置和方法
JP6223169B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2009238205A (ja) 個人認証装置及び電子機器
CN113034612B (zh) 一种标定装置、方法及深度相机
JPWO2013005244A1 (ja) 3次元相対座標計測装置およびその方法
CN105306922A (zh) 一种深度相机参考图的获取方法和装置
JP7180608B2 (ja) 情報処理装置、情報処理方法、及び、プログラム、並びに、交換レンズ
JP5648159B2 (ja) 3次元相対座標計測装置およびその方法
US20230284933A1 (en) Portable three-dimensional image measuring device, three-dimensional image measuring method using same, and medical image matching system
KR102253350B1 (ko) 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법
EP3988895B1 (en) Compensation of three-dimensional measuring instrument having an autofocus camera
JP2002318344A (ja) 光学機器のオートフォーカシング方法および装置
CN113813046B (zh) 光学跟踪系统及光学跟踪方法
JP2012026816A (ja) 寸法測定方法および装置
Abbaspour Tehrani et al. A Practical Method for Fully Automatic Intrinsic Camera Calibration Using Directionally Encoded Light
JP2022024553A (ja) 画像データ学習装置、目標類別装置及びセンサ装置
JP2010281684A (ja) 位置計測システム及び位置計測方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190131

R150 Certificate of patent or registration of utility model

Ref document number: 6475312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250