JP6475312B1 - オプティカルトラッキングシステム及びオプティカルトラッキング方法 - Google Patents
オプティカルトラッキングシステム及びオプティカルトラッキング方法 Download PDFInfo
- Publication number
- JP6475312B1 JP6475312B1 JP2017246446A JP2017246446A JP6475312B1 JP 6475312 B1 JP6475312 B1 JP 6475312B1 JP 2017246446 A JP2017246446 A JP 2017246446A JP 2017246446 A JP2017246446 A JP 2017246446A JP 6475312 B1 JP6475312 B1 JP 6475312B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- marker
- pattern
- focal length
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 98
- 238000000034 method Methods 0.000 title claims description 37
- 239000003550 marker Substances 0.000 claims abstract description 219
- 238000003384 imaging method Methods 0.000 claims abstract description 149
- 230000036544 posture Effects 0.000 description 64
- 238000010586 diagram Methods 0.000 description 14
- 239000000284 extract Substances 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 8
- 238000001356 surgical procedure Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/064—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Pathology (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- Oral & Maxillofacial Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- Pulmonology (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
Abstract
【解決手段】オプティカルトラッキングシステム1はマーカー10の少なくとも一部を結像してライトフィールドイメージを生成する第1結像部110及び開口13から放出された出射光を結像する第2結像部120を含む結像装置100と、ライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出され、パターン面の一部が結像された第1イメージに基づいてマーカーの姿勢を決定し、ライトフィールドイメージから無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出された第2イメージ及び第1結像部へ向かう出射光と異なる方向で開口を通じて放出された出射光が第2結像部により結像された第3イメージに基づいてマーカーの位置を決定するプロセッサ130とを含む。
【選択図】図2
Description
図1は、本開示の一実施例によるオプティカルトラッキングシステム1が手術に用いられている例を示す。
間の幾何学的関係を用いてマーカーの位置を計算することができる。
図14は、本開示の更に他の実施例によるオプティカルトラッキング方法S1220を示したフローチャートである。以下の各段階に対して図面を参照してより具体的にマーカーをトラッキングする方法が説明される。上述した実施例で説明した内容と重複した説明は省略する。
間の幾何学的関係を用いた三角法に基づいてマーカー70の位置を決定できる。以上の実施例では、三角法を用いてマーカーの位置が決定されたが、これに限定されるわけではなく、三角法ではない他の位置決め方法が用いられ得る。
10、30:マーカー
100、800:結像装置
110、120、270、280、710、720、810、820:結像部
111、121、131:レンズ
112、142:レンズアレイ
113、123、813、823:イメージセンサ
130、760、830:プロセッサ
600:ライトフィールドイメージ
730、930:第1イメージ
740、940:第2イメージ
750、950:第3イメージ
960:第4イメージ
Claims (15)
- マーカーの位置及び姿勢をトラッキングするオプティカルトラッキングシステムであって、
前記マーカーは、対象体に付着され得、開口に形成された光学系を通じて内部に形成されたパターン面が見えるように構成され、
前記マーカーの少なくとも一部を結像してライトフィールドイメージを生成する第1結像部及び前記開口から放出された出射光を結像する第2結像部を含む結像装置と、
前記ライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出されて前記パターン面の一部が結像された第1イメージに基づいて前記マーカーの姿勢を決定し、前記ライトフィールドイメージから前記無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出された第2イメージ及び前記第1結像部へ向かう出射光と異なる方向で前記開口を通じて放出された出射光が前記第2結像部により結像された第3イメージに基づいて前記マーカーの位置を決定するプロセッサと、
を含むオプティカルトラッキングシステム。 - 前記プロセッサは、
前記開口を通じて見える前記パターン面の一部が前記無限大の焦点距離で結像された前記第1イメージに基づいて前記マーカーの姿勢を決定する姿勢トラッキング部と、
互いに異なる方向で前記開口を通じて放出された出射光がそれぞれ結像された前記第2イメージ及び前記第3イメージに基づいて前記マーカーの位置を決定する位置トラッキング部と
を含む、請求項1に記載のオプティカルトラッキングシステム。 - 前記第1イメージは、前記ライトフィールドイメージから前記無限大の焦点距離で結像されるように抽出されたイメージであって、前記パターン面の一部が識別可能に結像されたパターンイメージを含み、
前記第2イメージは、前記ライトフィールドイメージから前記対象体の位置を含む所定範囲の焦点距離で結像されるように抽出されたイメージであって、前記第1結像部へ向かう出射光が結像された出射光イメージを含み、
前記第3イメージは、前記第2結像部へ向かう出射光が結像された出射光イメージを含む、請求項2に記載のオプティカルトラッキングシステム。 - 前記姿勢トラッキング部は、前記パターン面の全体領域内で前記パターンイメージの位置を決定し、前記決定された位置に基づいて前記対象体の姿勢を決定する、請求項3に記載のオプティカルトラッキングシステム。
- 前記位置トラッキング部は、前記第2イメージ及び前記第3イメージ内に結像された前記出射光イメージの基準座標をそれぞれ決定し、前記それぞれ決定された基準座標及び前記マーカーと前記第1結像部及び前記第2結像部との間の幾何学的関係に基づいて前記対象体の位置を決定する、請求項3に記載のオプティカルトラッキングシステム。
- 前記位置トラッキング部は、前記第2イメージ及び前記第3イメージに結像された前記出射光イメージの基準座標間の差に基づいて、前記マーカーの3次元空間上の位置を決定する、請求項5に記載のオプティカルトラッキングシステム。
- 前記位置トラッキング部は前記第2イメージ及び前記第3イメージに基づいてステレオスコピックイメージを構成して前記マーカーの3次元空間上の位置を決定する、請求項3に記載のオプティカルトラッキングシステム。
- マーカーの位置及び姿勢をトラッキングするオプティカルトラッキングシステムであって、
前記マーカーは、対象体に付着され得、開口に形成された光学系を通じて内部に形成されたパターン面が見えるように構成され、
前記マーカーの少なくとも一部を結像してそれぞれライトフィールドイメージを生成する第1結像部及び第2結像部を含む結像装置と、
前記第1結像部により結像されたライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出されて前記パターン面の一部が結像された第1イメージに基づいて前記マーカーの姿勢を決定し、前記第1結像部により生成されたライトフィールドイメージから前記無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出された第2イメージ及び前記第2結像部により生成されたライトフィールドイメージから前記無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出された第3イメージに基づいて前記マーカーの位置を決定するプロセッサと
を含む、オプティカルトラッキングシステム。 - 前記第1イメージは、前記第1結像部により結像されたライトフィールドイメージから前記無限大の焦点距離で結像されるように抽出されたイメージであって、前記パターン面の一部が識別可能に結像されたパターンイメージを含み、
前記第2イメージは、前記第1結像部により結像されたライトフィールドイメージから前記対象体の位置を含む所定範囲の焦点距離で結像されるように抽出されたイメージであって、前記第1結像部へ向かう出射光が結像された出射光イメージを含み、
前記第3イメージは、前記第2結像部により結像されたライトフィールドイメージから前記所定範囲の焦点距離で結像されるように抽出されたイメージであって、前記第2結像部へ向かう出射光が結像された出射光イメージを含む、請求項8に記載のオプティカルトラッキングシステム。 - 前記プロセッサは、前記パターン面の全体領域内でパターンイメージの位置を決定し、前記決定された位置に基づいて前記対象体の姿勢を決定し、
前記プロセッサは、前記第2イメージ及び前記第3イメージ内に結像された出射光イメージの基準座標をそれぞれ決定し、前記それぞれ決定された基準座標及び前記マーカーと前記第1結像部及び前記第2結像部との間の幾何学的関係に基づいて前記対象体の位置を決定する、請求項8に記載のオプティカルトラッキングシステム。 - 前記第2結像部は、前記第2結像部により生成されたライトフィールドイメージから前記無限大の焦点距離で結像されるように抽出されたイメージとして前記パターン面の一部が識別可能に結像されたパターンイメージを含む第4イメージを前記プロセッサへ伝送し、
前記プロセッサは、前記パターン面の全体領域内で前記第4イメージ内に結像された前記パターンイメージの位置を決定し、前記決定された位置に基づいて前記対象体の姿勢を決定し、
前記プロセッサは、前記第1イメージから決定された前記対象体の姿勢及び前記第4イメージから決定された前記対象体の姿勢の平均値に基づいて前記対象体の姿勢を決定する、請求項10に記載のオプティカルトラッキングシステム。 - 前記プロセッサは、前記第1イメージ内に結像されたパターンイメージから前記対象体の位置及び姿勢を決定する、請求項8に記載のオプティカルトラッキングシステム。
- マーカーの位置及び姿勢をトラッキングするオプティカルトラッキング方法であって、
前記マーカーは、対象体に付着され得、開口に形成された光学系を通じて内部に形成されたパターン面が見えるように構成され、
第1結像部により結像されたライトフィールドイメージから無限大の焦点距離で結像されたイメージとして抽出されて前記パターン面の一部が識別可能に結像されたパターンイメージを含む第1イメージ、前記ライトフィールドイメージから前記無限大の焦点距離よりも近い焦点距離で結像されたイメージとして抽出されて前記開口を通じて第1方向に放出された出射光が結像された第2イメージ、第2結像部により前記開口を通じて前記第1方向と異なる第2方向に放出された出射光が結像された第3イメージを結像する段階と、
前記第1イメージに基づいて前記マーカーの姿勢を決定する段階と、
前記第2イメージ及び第3イメージに基づいて前記マーカーの位置を決定する段階と
を含むオプティカルトラッキング方法。 - 前記マーカーの姿勢を決定する段階は、
前記パターン面の全体領域内で前記第1イメージに含まれた前記パターンイメージの位置を決定する段階と、
前記決定された位置に基づいて前記対象体の姿勢を決定する段階と
を含む、請求項13に記載のオプティカルトラッキング方法。 - 前記マーカーの位置を決定する段階は、
前記第2イメージ及び前記第3イメージ内に結像された出射光イメージの基準座標をそれぞれ決定する段階及び
前記それぞれ決定された基準座標及び前記出射光が指向する方向の間の幾何学的関係を用いて前記対象体の位置を決定する段階と
を含む、請求項13に記載のオプティカルトラッキング方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170176495A KR102102291B1 (ko) | 2017-12-20 | 2017-12-20 | 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법 |
KR10-2017-0176495 | 2017-12-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6475312B1 true JP6475312B1 (ja) | 2019-02-27 |
JP2019113394A JP2019113394A (ja) | 2019-07-11 |
Family
ID=60953600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017246446A Active JP6475312B1 (ja) | 2017-12-20 | 2017-12-22 | オプティカルトラッキングシステム及びオプティカルトラッキング方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11033337B2 (ja) |
EP (1) | EP3503032B1 (ja) |
JP (1) | JP6475312B1 (ja) |
KR (1) | KR102102291B1 (ja) |
CN (1) | CN109938843B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102102291B1 (ko) * | 2017-12-20 | 2020-04-21 | 주식회사 고영테크놀러지 | 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법 |
KR102166372B1 (ko) * | 2017-12-20 | 2020-10-15 | 주식회사 고영테크놀러지 | 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법 |
GB2586601B (en) * | 2019-08-27 | 2022-10-12 | Zeta Motion Ltd | Determining object pose from image data |
CN113116525B (zh) * | 2021-04-28 | 2021-12-03 | 北京长木谷医疗科技有限公司 | 用于导航手术动力系统的光学跟踪结构 |
CN114903507B (zh) * | 2022-05-16 | 2023-06-09 | 张海光 | 一种医学图像数据处理系统及方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008026236A (ja) * | 2006-07-24 | 2008-02-07 | Olympus Corp | 位置姿勢測定装置および位置姿勢測定方法 |
JP2008216089A (ja) * | 2007-03-06 | 2008-09-18 | Natl Inst Of Radiological Sciences | 被験体の3次元的位置及び向き測定装置 |
JP2016516526A (ja) * | 2013-04-30 | 2016-06-09 | コー・ヤング・テクノロジー・インコーポレーテッド | オプティカルトラッキングシステム及びこれを用いたトラッキング方法 |
JP2016184956A (ja) * | 2016-06-02 | 2016-10-20 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP2017522674A (ja) * | 2014-05-29 | 2017-08-10 | コー・ヤング・テクノロジー・インコーポレーテッド | オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢算出方法 |
JP2017525937A (ja) * | 2014-05-29 | 2017-09-07 | コー・ヤング・テクノロジー・インコーポレーテッド | オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢並びに位置算出方法 |
JP2018025531A (ja) * | 2016-08-09 | 2018-02-15 | コー・ヤング・テクノロジー・インコーポレーテッド | オプティカルトラッキング用のマーカー、オプティカルトラッキングシステム及びオプティカルトラッキング方法 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS54155683A (en) * | 1978-05-30 | 1979-12-07 | Matsushita Electric Ind Co Ltd | Electronic scanning system ultrasoniccwave tomooinspection device |
JPS5740212A (en) * | 1980-08-22 | 1982-03-05 | Canon Inc | Automatic focusing apparatus |
US4818886A (en) * | 1986-11-12 | 1989-04-04 | Quential, Inc. | Method and apparatus for self-referencing and self-focusing a bar-code reader |
US4978860A (en) * | 1988-09-21 | 1990-12-18 | Hewlett-Packard Company | Optical system for a large depth-of-field bar code scanner |
US5478997A (en) * | 1988-10-21 | 1995-12-26 | Symbol Technologies, Inc. | Symbol scanning system and method having adaptive pattern generation |
JP2788152B2 (ja) * | 1992-06-22 | 1998-08-20 | 松下電器産業株式会社 | バーコードリーダ |
US5474548A (en) * | 1993-07-14 | 1995-12-12 | Knopp; Carl F. | Method of establishing a unique machine independent reference frame for the eye |
US5770850A (en) * | 1997-04-30 | 1998-06-23 | At&T Corp | Sensor array tracking and detection system having an alignment positioner |
US7006132B2 (en) * | 1998-02-25 | 2006-02-28 | California Institute Of Technology | Aperture coded camera for three dimensional imaging |
US7406214B2 (en) * | 1999-05-19 | 2008-07-29 | Digimarc Corporation | Methods and devices employing optical sensors and/or steganography |
US7084910B2 (en) * | 2002-02-08 | 2006-08-01 | Hewlett-Packard Development Company, L.P. | System and method for using multiple images in a digital image capture device |
IL148664A0 (en) * | 2002-03-13 | 2002-09-12 | Yeda Res & Dev | Auto-focusing method and device |
US6824059B2 (en) * | 2002-04-30 | 2004-11-30 | Hewlett-Packard Development Company, L.P. | Apparatus for capturing images and barcodes |
US7671321B2 (en) * | 2005-01-18 | 2010-03-02 | Rearden, Llc | Apparatus and method for capturing still images and video using coded lens imaging techniques |
US9867669B2 (en) * | 2008-12-31 | 2018-01-16 | Intuitive Surgical Operations, Inc. | Configuration marker design and detection for instrument tracking |
TWI343207B (en) * | 2007-09-07 | 2011-06-01 | Lite On Technology Corp | Device and method for obtain a clear image |
WO2009041918A1 (en) * | 2007-09-26 | 2009-04-02 | Agency For Science, Technology And Research | A method and system for generating an entirely well-focused image of a large three-dimensional scene |
CN101960253B (zh) * | 2008-02-26 | 2013-05-01 | 株式会社高永科技 | 三维形状测量装置及测量方法 |
US20090302116A1 (en) * | 2008-06-04 | 2009-12-10 | Symbol Technologies, Inc. | Semi-zoom imaging optical system |
GB2480193B (en) * | 2009-01-19 | 2015-01-21 | Minoru Inaba | Stereoscopic video imaging display system |
US8366003B2 (en) * | 2009-07-23 | 2013-02-05 | Massachusetts Institute Of Technology | Methods and apparatus for bokeh codes |
US8910870B2 (en) * | 2010-08-06 | 2014-12-16 | Hand Held Products, Inc. | System and method for document processing |
EP2672915A1 (de) * | 2011-02-11 | 2013-12-18 | Olaf Christiansen | Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen |
JP5197785B2 (ja) * | 2011-03-30 | 2013-05-15 | キヤノン株式会社 | 画像処理装置、撮像システム、画像処理システム |
US20130027538A1 (en) * | 2011-07-29 | 2013-01-31 | Mitutoyo Corporation | Multi-region focus navigation interface |
US9230325B2 (en) * | 2011-08-19 | 2016-01-05 | University Of Rochester | Three-dimensional model acquisition using planar mirrors |
JP5848561B2 (ja) * | 2011-09-20 | 2016-01-27 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム、並びに記憶媒体 |
KR101614061B1 (ko) * | 2012-03-29 | 2016-04-20 | 주식회사 고영테크놀러지 | 조인트 검사 장치 |
TW201351959A (zh) * | 2012-06-13 | 2013-12-16 | Wistron Corp | 立體全景影像合成方法及其相關之立體攝影機 |
KR101487248B1 (ko) * | 2013-05-28 | 2015-01-29 | 주식회사 고영테크놀러지 | 옵티컬 트랙킹 시스템 |
KR101406220B1 (ko) * | 2013-04-30 | 2014-06-12 | 경북대학교 산학협력단 | 옵티컬 트랙킹 시스템 및 이를 이용한 트랙킹 방법 |
US20140327793A1 (en) * | 2013-05-01 | 2014-11-06 | Itzhak Sapir | Imaging Apparatus and Method Comprising Imager and Optics Actuator Means |
US9723300B2 (en) * | 2014-03-17 | 2017-08-01 | Spatial Intelligence Llc | Stereoscopic display |
KR101627835B1 (ko) * | 2015-07-24 | 2016-06-08 | 주식회사 고영테크놀러지 | 옵티컬 트래킹 시스템 및 방법 |
KR102102291B1 (ko) * | 2017-12-20 | 2020-04-21 | 주식회사 고영테크놀러지 | 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법 |
-
2017
- 2017-12-20 KR KR1020170176495A patent/KR102102291B1/ko active IP Right Grant
- 2017-12-22 JP JP2017246446A patent/JP6475312B1/ja active Active
- 2017-12-22 EP EP17210401.0A patent/EP3503032B1/en active Active
- 2017-12-22 CN CN201711403280.0A patent/CN109938843B/zh active Active
- 2017-12-22 US US15/852,573 patent/US11033337B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008026236A (ja) * | 2006-07-24 | 2008-02-07 | Olympus Corp | 位置姿勢測定装置および位置姿勢測定方法 |
JP2008216089A (ja) * | 2007-03-06 | 2008-09-18 | Natl Inst Of Radiological Sciences | 被験体の3次元的位置及び向き測定装置 |
JP2016516526A (ja) * | 2013-04-30 | 2016-06-09 | コー・ヤング・テクノロジー・インコーポレーテッド | オプティカルトラッキングシステム及びこれを用いたトラッキング方法 |
JP2017522674A (ja) * | 2014-05-29 | 2017-08-10 | コー・ヤング・テクノロジー・インコーポレーテッド | オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢算出方法 |
JP2017525937A (ja) * | 2014-05-29 | 2017-09-07 | コー・ヤング・テクノロジー・インコーポレーテッド | オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢並びに位置算出方法 |
JP2016184956A (ja) * | 2016-06-02 | 2016-10-20 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP2018025531A (ja) * | 2016-08-09 | 2018-02-15 | コー・ヤング・テクノロジー・インコーポレーテッド | オプティカルトラッキング用のマーカー、オプティカルトラッキングシステム及びオプティカルトラッキング方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109938843B (zh) | 2022-01-04 |
US20190183583A1 (en) | 2019-06-20 |
KR102102291B1 (ko) | 2020-04-21 |
US11033337B2 (en) | 2021-06-15 |
KR20190074835A (ko) | 2019-06-28 |
EP3503032B1 (en) | 2020-07-15 |
JP2019113394A (ja) | 2019-07-11 |
CN109938843A (zh) | 2019-06-28 |
EP3503032A1 (en) | 2019-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6475311B1 (ja) | オプティカルトラッキングシステム及びオプティカルトラッキング方法 | |
JP6475312B1 (ja) | オプティカルトラッキングシステム及びオプティカルトラッキング方法 | |
CN106643699B (zh) | 一种虚拟现实系统中的空间定位装置和定位方法 | |
JP6360260B2 (ja) | 受動マーカーに基づく光学追跡方法およびシステム | |
KR101331543B1 (ko) | 스페클 패턴을 이용한 3차원 센싱 | |
CN103649674B (zh) | 测量设备以及信息处理设备 | |
JP6223169B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN103636201B (zh) | 用于确定摄影机的成像偏差的装置和方法 | |
CN113034612B (zh) | 一种标定装置、方法及深度相机 | |
CN105306922A (zh) | 一种深度相机参考图的获取方法和装置 | |
JP6969739B2 (ja) | 位置情報取得システム、位置情報取得方法及びプログラム | |
JP2016102755A (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20230284933A1 (en) | Portable three-dimensional image measuring device, three-dimensional image measuring method using same, and medical image matching system | |
WO2023034150A1 (en) | Methods and systems of generating camera models for camera calibration | |
KR102253350B1 (ko) | 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법 | |
JP2002318344A (ja) | 光学機器のオートフォーカシング方法および装置 | |
Tehrani et al. | A practical method for fully automatic intrinsic camera calibration using directionally encoded light | |
Abbaspour Tehrani et al. | A Practical Method for Fully Automatic Intrinsic Camera Calibration Using Directionally Encoded Light | |
JP2010281684A (ja) | 位置計測システム及び位置計測方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6475312 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |