JP6357251B2 - オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢並びに位置算出方法 - Google Patents
オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢並びに位置算出方法 Download PDFInfo
- Publication number
- JP6357251B2 JP6357251B2 JP2016569681A JP2016569681A JP6357251B2 JP 6357251 B2 JP6357251 B2 JP 6357251B2 JP 2016569681 A JP2016569681 A JP 2016569681A JP 2016569681 A JP2016569681 A JP 2016569681A JP 6357251 B2 JP6357251 B2 JP 6357251B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinate
- matrix
- pattern
- lens
- marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000003550 marker Substances 0.000 title claims description 151
- 238000000034 method Methods 0.000 title claims description 133
- 230000003287 optical effect Effects 0.000 title claims description 87
- 239000011159 matrix material Substances 0.000 claims description 299
- 230000009466 transformation Effects 0.000 claims description 143
- 238000006243 chemical reaction Methods 0.000 claims description 120
- 238000003384 imaging method Methods 0.000 claims description 109
- 230000001131 transforming effect Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 description 96
- 238000005094 computer simulation Methods 0.000 description 27
- 230000014509 gene expression Effects 0.000 description 24
- 238000000354 decomposition reaction Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000000926 separation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
((lu,lv)は前記第1座標、(lu',lv')は前記第4座標、[C]は前記第1変換行列、[Al]は前記第2変換行列、[RL]は前記第1姿勢定義行列、sは比例定数)
前記第2座標変換式は下記の数式により定義され得る。
((ru,rv)は前記第5座標、(ru',rv')は前記第8座標、[C]は前記第1変換行列と同一の前記第3変換行列、[Ar]は前記第4変換行列、[RR]は前記第2結像部に対する前記マーカー部の姿勢を定義する第2姿勢定義行列、[RLR]は前記第2結像部に対する前記第1結像部の姿勢を定義する第3姿勢定義行列、sは比例定数)
((uc,vc)は前記パターンの中心の座標、fbは前記第1焦点距離)
前記第2及び第4変換行列は下記の数式により定義され得る。
((u'c,v'c)は前記パターンの中心に対応する前記パターンのイメージ上のピクセル座標、fcは、前記第2変換行列の場合には前記第2焦点距離であり、前記第4変換行列の場合には前記第3焦点距離、pwは、前記第2変換行列の場合には前記パターンの第1イメージのピクセルの幅であり、前記第4変換行列の場合には前記パターンの第2イメージのピクセルの幅、phは、前記第2変換行列の場合には前記パターンの第1イメージのピクセルの高さであり、前記第4変換行列の場合には前記パターンの第2イメージのピクセルの高さ)
((lu1,lv1), …, (lun,lvn)は前記第1座標のデータ、(lu'1,lv'1), …, (lu'n,lv'n)は前記第4座標のデータ、(lu'c,lv'c)は前記パターンの中心に対応する前記パターンの第1イメージ上のピクセル座標、((ru1,rv1), …, (run,rvn)は前記第5座標のデータ、(ru'1,rv'1), …, (ru'n,rv'n)は前記第8座標のデータ、(ru'c,rv'c)は前記パターンの中心に対応する前記パターンの第2イメージ上のピクセル座標)
((u'1,v'1)は前記第4座標、(X,Y,Z)は前記第2座標、[AL]は前記第2変換行列、[I]は3x3形態の恒等行列(identity matrix)、[0]は3x1形態の零行列、sは比例定数)
前記第4座標変換式は下記の数式により定義され得る。
((u'2,v'2)は前記第8座標、(X,Y,Z)は前記第6座標、[AR]は前記第4変換行列、[RLR]は3x3形態の前記第3姿勢定義行列、[T]は3x1形態の位置変換行列、sは比例定数)
ここで、(u,v)は前記第1座標、(u',v')は前記第4座標、[C]は前記第1変換行列、[A]は前記第2変換行列、そして[R]は前記姿勢定義行列を意味する。また、(uc,vc)は前記パターンの中心のパターン面上の座標、fbは前記第1焦点距離、fcは前記第2焦点距離、pwは前記パターンのイメージのピクセルの幅、phは前記パターンのイメージのピクセルの高さである。また、(ui,vi)、(u'i,v'i)においてiは所定のi番目のパターンであることを意味する。
ここで、各行列[A]、[B]、[C]、[H]、[R]は全て3*3形態を有し、[H]=[h1, h2, h3]、[R]=[r1, r2, r3]で示すことができる。
ここで、α=-fc/pw、β=-fc/phであり、fcは前記結像部120の第2レンズ122の焦点距離、pwとphはそれぞれピクセルの幅と高さを意味する。
ここで、(lu,lv)は前記第1座標、(lu',lv')は前記第4座標、[C]は前記第1変換行列、[Al]は前記第2変換行列、[RL]は前記第1姿勢定義行列を意味し、(ru,rv)は前記第5座標、(ru',rv')は前記第6座標、[C]は前記第1変換行列と同一の前記第3変換行列、[Ar]は前記第4変換行列、[RR]は前記第2姿勢定義行列を意味する。また、図10を参照すると、行列[RR]は行列[RLR][RL]で表すことができる。ここで、[RLR]は、前記第1結像部1120aに対する3次元的ローカル座標を前記第2結像部1120bに対する3次元的ローカル座標に変換する行列を意味し、前記第2結像部1120bに対する前記第1結像部1120aの姿勢を定義する行列と見ることができる。
ここで、(u',v')は前記第4座標P4、(X,Y,Z)は前記第2座標P2、[AL]は前記第2変換行列、[I]は3x3形態の恒等行列(identity matrix)、[0]は3x1形態の零行列である。図16に示すように、前記第1結像部1120aの第2レンズ1122aが原点であるため、これを基準とする前記第4座標P4の場合、回転変換の部分は恒等行列、そして位置変換の部分は零行列と示されて、[I|0]のように示され得る。
ここで、(u'2,v'2)は前記第8座標P8、(X,Y,Z)は第6座標P6(前記第2座標P2と同一)、ARは前記第4変換行列、[RLR]は3x3形態を有し、図11などで説明された前記第2結像部1120bに対する前記第1結像部1120aの姿勢を定義する行列、[T]は3x1形態を有し前記第1結像部1120aの位置を前記第2結像部1120bの位置に変換する位置変換行列を意味する。図16に示すように、前記第1結像部1120aの第1レンズ1122aが原点であるため、これを基準として前記第2結像部1120bの前記第8座標P8の場合、回転変換の部分は行列[RLR]、そして位置変換の部分は[T]と示されて、[RLR|T]のように示され得る。
112、1112:パターン 114、1114:第1レンズ
120、1120:結像部 122、1122:第2レンズ
124、1124:結像ユニット 130、1130:処理部
Claims (13)
- 特定情報を有するパターン(pattern)及び前記パターンから離隔されて配置され、第1焦点距離を有する第1レンズを含むマーカー(marker)部と、
第2焦点距離を有する第2レンズ及び前記第2レンズから離隔されて配置され、前記第1レンズと前記第2レンズによって前記パターンの第1イメージが結像される第1結像ユニットを含む第1結像部と、
第3焦点距離を有する第3レンズ及び前記第3レンズから離隔されて配置され、前記第1レンズと前記第3レンズによって前記パターンの第2イメージが結像される第2結像ユニットを含む第2結像部と、
前記パターンのパターン面上の座標と前記パターンの第1イメージ上の第1ピクセル座標との間の第1座標変換式及び前記第1ピクセル座標と前記パターンの第2イメージ上の第2ピクセル座標との間の回転変換を含む前記パターンのパターン面上の座標と前記パターンの第2イメージ上の第2ピクセル座標との間の第2座標変換式からマーカー部の姿勢を決定し、前記マーカー部をトラッキングする処理部と
を含むオプティカルトラッキングシステム。 - 前記処理部は、前記パターンのパターン面上の座標に該当する第1座標を前記マーカー部の前記第1レンズに対する3次元的座標に該当する第2座標に変換する第1変換行列、前記第2座標の前記第2レンズに対する3次元的座標に該当する第3座標を前記第1結像部の前記パターンの第1イメージ上の第1ピクセル座標に該当する第4座標に変換する第2変換行列、前記パターンのパターン面上の座標に該当する第5座標を前記マーカー部の前記第1レンズに対する3次元的座標に該当する第6座標に変換する前記第1変換行列と同一の第3変換行列、及び前記第6座標の前記第3レンズに対する3次元的座標に該当する第7座標を前記第2結像部の前記パターンの第2イメージ上の第2ピクセル座標に該当する第8座標に変換する第4変換行列を取得し、
前記第1座標変換式は、前記第1変換行列及び前記第2変換行列を含んで前記第1座標を前記第4座標に変換するように定義され、前記第2座標変換式は、前記第3変換行列及び前記第4変換行列を含んで前記第5座標を前記第8座標に変換するように定義され、
前記処理部は、前記第1及び第2座標変換式から前記第1結像部に対する前記マーカー部の姿勢を定義する第1姿勢定義行列を取得することを特徴とする、請求項1に記載のオプティカルトラッキングシステム。 - 前記第1座標変換式は下記の数式により定義され、
((lu,lv)は前記第1座標、(lu',lv')は前記第4座標、[C]は前記第1変換行列、[Al]は前記第2変換行列、[RL]は前記第1姿勢定義行列、sは比例定数)
前記第2座標変換式は、下記の数式により定義されることを特徴とする、請求項2に記載のオプティカルトラッキングシステム。
((ru,rv)は前記第5座標、(ru',rv')は前記第8座標、[C]は前記第1変換行列と同一の前記第3変換行列、[Ar]は前記第4変換行列、[RR]は前記第2結像部に対する前記マーカー部の姿勢を定義する第2姿勢定義行列、[RLR]は前記第2結像部に対する前記第1結像部の姿勢を定義する第3姿勢定義行列、sは比例定数) - 前記第1変換行列及び前記第3変換行列は下記の数式により定義され、
((uc,vc)は前記パターンの中心の座標、fbは前記第1焦点距離)
前記第2及び第4変換行列は下記の数式により定義されることを特徴とする、請求項3に記載のオプティカルトラッキングシステム。
((u'c,v'c)は前記パターンの中心に対応する前記パターンのイメージ上のピクセル座標、fcは、前記第2変換行列の場合には前記第2焦点距離であり、前記第4変換行列の場合には前記第3焦点距離、pwは、前記第2変換行列の場合には前記パターンの第1イメージのピクセルの幅であり、前記第4変換行列の場合には前記パターンの第2イメージのピクセルの幅、phは、前記第2変換行列の場合には前記パターンの第1イメージのピクセルの高さ、前記第4変換行列の場合には前記パターンの第2イメージのピクセルの高さ) - 前記処理部は、少なくとも3つ以上の撮影イメージからuc, vc及びfbのキャリブレーション値を取得することにより前記第1変換行列及び前記第3変換行列を取得し、前記取得されたデータを用いてfc, pw, phのキャリブレーション値を取得することにより前記第2変換行列及び前記第4変換行列を取得することを特徴とする、請求項4に記載のオプティカルトラッキングシステム。
- 前記処理部は、前記第1座標と前記第4座標に対する複数のデータ及び前記第5座標と前記第8座標に対する複数のデータを取得し、前記取得された複数のデータが適用された下記の数式によって前記第1姿勢定義行列を取得することを特徴とする、請求項3に記載のオプティカルトラッキングシステム。
((lu1,lv1), …, (lun,lvn)は前記第1座標のデータ、(lu'1,lv'1), …, (lu',lv')は前記第4座標のデータ、(lu'c,lv'c)は前記パターンの中心に対応する前記パターンの第1イメージ上のピクセル座標、((ru1,rv1), …, (run,rvn)は前記第5座標のデータ、(ru'1,rv'1), …, (ru'n,rv'n)は前記第8座標のデータ、(ru'c,rv'c)は前記パターンの中心に対応する前記パターンの第2イメージ上のピクセル座標) - 前記処理部は、前記第2座標と前記第4座標に関する第3座標変換式及び前記第6座標と前記第8座標に関する第4座標変換式から前記マーカー部の位置を決定し、決定された前記マーカー部の位置を用いて前記マーカー部をトラッキングすることを特徴とする、請求項3に記載のオプティカルトラッキングシステム。
- 前記第3座標変換式は下記の数式により定義され、
((u'1,v'1)は前記第4座標、(X,Y,Z)は前記第2座標、[AL]は前記第2変換行列、[I]は3x3形態の恒等行列(identity matrix)、[0]は3x1形態の零行列、sは比例定数)
前記第4座標変換式は下記の数式により定義されることを特徴とする、請求項7に記載のオプティカルトラッキングシステム。
((u'2,v'2)は前記第8座標、(X,Y,Z)は前記第6座標、[AR]は前記第4変換行列、[RLR]は3x3形態の前記第3姿勢定義行列、[T]は3x1形態の位置変換行列、sは比例定数) - 前記処理部は、前記第1及び第2結像ユニットでそれぞれ撮影された前記パターンの視野範囲の中心である第1中心座標及び第2中心座標を取得し、前記取得された中心座標を用いて前記第1結像部及び前記第2結像部の間の位置変換行列をキャリブレーションし、前記キャリブレーションされた位置変換行列を用いて前記マーカー部の位置を取得することを特徴とする、請求項8に記載のオプティカルトラッキングシステム。
- 前記処理部は、前記マーカー部を少なくとも2つ以上の位置で測定して換算係数を取得し、前記取得された換算係数を前記取得された中心座標と共に用いて前記第1結像部及び前記第2結像部の間の前記位置変換行列をキャリブレーションすることを特徴とする、請求項9に記載のオプティカルトラッキングシステム。
- 特定情報を有するパターン(pattern)及び前記パターンから離隔されて配置され第1焦点距離を有する第1レンズを含むマーカー(marker)部と、第2焦点距離を有する第2レンズ及び前記第2レンズから離隔されて配置され前記第1レンズと前記第2レンズによって前記パターンの第1イメージが結像される第1結像ユニットを含む第1結像部と、第3焦点距離を有する第3レンズ及び前記第3レンズから離隔されて配置され前記第1レンズと前記第3レンズによって前記パターンの第2イメージが結像される第2結像ユニットとを含み、マーカー部をトラッキングするように前記マーカー部の姿勢を算出するためのオプティカルトラッキングシステムのマーカー部の姿勢及び位置算出方法において、
前記パターンのパターン面上の座標に該当する第1座標を前記マーカー部の前記第1レンズに対する3次元的座標に該当する第2座標に変換する第1変換行列、前記第2座標の前記第2レンズに対する3次元的座標に該当する第3座標を前記第1結像部の前記パターンの第1イメージ上の第1ピクセル座標に該当する第4座標に変換する第2変換行列、前記パターンの前記パターン面上の座標に該当する第5座標を前記マーカー部の前記第1レンズに対する3次元的座標に該当する第6座標に変換する前記第1変換行列と同一の第3変換行列、及び前記第6座標の前記第3レンズに対する3次元的座標に該当する第7座標を第2結像部の前記パターンの第2イメージ上の第2ピクセル座標に該当する第8座標に変換する第4変換行列を取得する段階と、
前記第1変換行列及び前記第2変換行列を含み、前記第1座標を前記第4座標に変換する第1座標変換式、及び前記第3変換行列及び前記第4変換行列を含み、前記第5座標を前記第8座標に変換する第2座標変換式から前記マーカー部の姿勢を定義する姿勢定義行列を取得する段階と
を含むオプティカルトラッキングシステムのマーカー部の姿勢及び位置算出方法。 - 前記第1及び第2結像ユニットでそれぞれ撮影された前記パターンの視野範囲の中心である第1中心座標及び第2中心座標を取得する段階と、
前記取得された中心座標を用いて前記第1結像部及び前記第2結像部の間の位置変換行列をキャリブレーションする段階と、
前記キャリブレーションされた位置変換行列を用いて前記マーカー部の位置を取得する段階と
をさらに含むことを特徴とする、請求項11に記載のオプティカルトラッキングシステムのマーカー部の姿勢及び位置算出方法。 - 前記位置変換行列をキャリブレーションする段階の前に、前記マーカー部を少なくとも2つ以上の位置で測定して換算係数を取得する段階をさらに含み、
位置変換行列をキャリブレーションする段階で、前記取得された換算係数を前記取得された中心座標と共に用いて前記第1結像部及び前記第2結像部の間の前記位置変換行列をキャリブレーションすることを特徴とする、請求項12に記載のオプティカルトラッキングシステムのマーカー部姿勢及び位置算出方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2014-0065178 | 2014-05-29 | ||
KR1020140065178A KR101613418B1 (ko) | 2014-05-29 | 2014-05-29 | 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 마커부 자세 및 위치 산출방법 |
PCT/KR2015/005444 WO2015183050A1 (ko) | 2014-05-29 | 2015-05-29 | 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 마커부 자세 및 위치 산출방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017525937A JP2017525937A (ja) | 2017-09-07 |
JP6357251B2 true JP6357251B2 (ja) | 2018-07-11 |
Family
ID=54699308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016569681A Active JP6357251B2 (ja) | 2014-05-29 | 2015-05-29 | オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢並びに位置算出方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10109066B2 (ja) |
EP (2) | EP3576051B1 (ja) |
JP (1) | JP6357251B2 (ja) |
KR (1) | KR101613418B1 (ja) |
CN (2) | CN106415663B (ja) |
WO (1) | WO2015183050A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101820682B1 (ko) | 2016-08-09 | 2018-01-23 | 주식회사 고영테크놀러지 | 옵티컬 트래킹용 마커, 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법 |
CN107194968B (zh) * | 2017-05-18 | 2024-01-16 | 腾讯科技(上海)有限公司 | 图像的识别跟踪方法、装置、智能终端和可读存储介质 |
KR102102291B1 (ko) | 2017-12-20 | 2020-04-21 | 주식회사 고영테크놀러지 | 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법 |
KR102166372B1 (ko) * | 2017-12-20 | 2020-10-15 | 주식회사 고영테크놀러지 | 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법 |
US11673567B2 (en) | 2020-04-14 | 2023-06-13 | Plusai, Inc. | Integrated fiducial marker for simultaneously calibrating sensors of different types |
US11635313B2 (en) * | 2020-04-14 | 2023-04-25 | Plusai, Inc. | System and method for simultaneously multiple sensor calibration and transformation matrix computation |
US11366233B2 (en) | 2020-04-14 | 2022-06-21 | Plusai, Inc. | System and method for GPS based automatic initiation of sensor calibration |
CN114486292B (zh) * | 2022-04-18 | 2022-07-12 | 中国汽车技术研究中心有限公司 | 碰撞测试中假人运动响应的测量方法、设备和存储介质 |
CN115631362A (zh) * | 2022-09-26 | 2023-01-20 | 北京霍里思特科技有限公司 | 一种铁器的识别方法及装置 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3144400B2 (ja) * | 1998-11-13 | 2001-03-12 | 日本電気株式会社 | ジェスチャ認識装置及び方法 |
KR100374346B1 (ko) * | 2000-12-06 | 2003-03-04 | 한국과학기술원 | 영상을 이용한 머리의 위치 및 방향을 추적하는 방법 |
EP1349114A3 (en) * | 2002-03-19 | 2011-06-15 | Canon Kabushiki Kaisha | Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus |
US7632004B2 (en) * | 2004-07-06 | 2009-12-15 | Tseng-Lu Chien | LED night light with more than 1 optics means |
KR20070122271A (ko) * | 2006-06-26 | 2007-12-31 | 한국산업기술대학교산학협력단 | 로봇 자세 제어 시스템 및 로봇 자세 제어 방법 |
US7643893B2 (en) * | 2006-07-24 | 2010-01-05 | The Boeing Company | Closed-loop feedback control using motion capture systems |
CN101308012B (zh) * | 2008-05-29 | 2010-06-23 | 上海交通大学 | 双单目白光三维测量系统标定方法 |
US7671318B1 (en) * | 2008-11-14 | 2010-03-02 | Lockheed Martin Corporation | Sensor apparatus and method for low-frequency scene suppression and fixed pattern noise suppression |
CN101766476B (zh) * | 2009-07-08 | 2011-05-11 | 中国科学院自动化研究所 | 自发荧光分子影像系统 |
US8366003B2 (en) * | 2009-07-23 | 2013-02-05 | Massachusetts Institute Of Technology | Methods and apparatus for bokeh codes |
DE102009049849B4 (de) * | 2009-10-19 | 2020-09-24 | Apple Inc. | Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells |
US8848977B2 (en) * | 2010-01-04 | 2014-09-30 | The Board Of Trustees Of The Leland Stanford Junior University | Method for optical pose detection |
KR101262181B1 (ko) | 2010-05-03 | 2013-05-14 | 한국과학기술원 | 수족관 내의 로봇 물고기 위치 탐지 방법 및 장치 |
US9832441B2 (en) * | 2010-07-13 | 2017-11-28 | Sony Interactive Entertainment Inc. | Supplemental content on a mobile device |
JP4869430B1 (ja) * | 2010-09-24 | 2012-02-08 | 任天堂株式会社 | 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法 |
US8441626B2 (en) * | 2010-12-17 | 2013-05-14 | Teledyne Scientific & Imaging, Llc | Optical angle-of-arrival measurement system and method for multiple light sources |
WO2012083982A1 (en) * | 2010-12-21 | 2012-06-28 | Metaio Gmbh | Method for determining a parameter set designed for determining the pose of a camera and/or for determining a three-dimensional structure of the at least one real object |
US9393641B2 (en) * | 2010-12-29 | 2016-07-19 | Orthodyne Electronics Corporation | Methods and systems for aligning tooling elements of ultrasonic bonding systems |
US9235894B2 (en) * | 2011-01-27 | 2016-01-12 | Metaio Gmbh | Method for determining correspondences between a first and a second image, and method for determining the pose of a camera |
CN102890785A (zh) * | 2011-07-19 | 2013-01-23 | 上海上大海润信息系统有限公司 | 一种服务机器人目标识别与定位的方法 |
US20130063558A1 (en) * | 2011-09-14 | 2013-03-14 | Motion Analysis Corporation | Systems and Methods for Incorporating Two Dimensional Images Captured by a Moving Studio Camera with Actively Controlled Optics into a Virtual Three Dimensional Coordinate System |
JP5602702B2 (ja) * | 2011-10-13 | 2014-10-08 | 任天堂株式会社 | 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法 |
CN103236054B (zh) * | 2013-04-10 | 2015-07-15 | 博奥生物集团有限公司 | 一种拍照装置的定位方法及定位系统 |
CN103315739B (zh) * | 2013-05-22 | 2015-08-19 | 华东师范大学 | 基于动态跟踪技术免除运动伪影的磁共振影像方法和系统 |
US9478030B1 (en) * | 2014-03-19 | 2016-10-25 | Amazon Technologies, Inc. | Automatic visual fact extraction |
-
2014
- 2014-05-29 KR KR1020140065178A patent/KR101613418B1/ko active IP Right Grant
-
2015
- 2015-05-29 WO PCT/KR2015/005444 patent/WO2015183050A1/ko active Application Filing
- 2015-05-29 US US15/314,672 patent/US10109066B2/en active Active
- 2015-05-29 CN CN201580027892.7A patent/CN106415663B/zh active Active
- 2015-05-29 EP EP19182768.2A patent/EP3576051B1/en active Active
- 2015-05-29 CN CN202011125744.8A patent/CN113240732B/zh active Active
- 2015-05-29 JP JP2016569681A patent/JP6357251B2/ja active Active
- 2015-05-29 EP EP15800560.3A patent/EP3151196B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3151196B1 (en) | 2019-08-14 |
EP3576051A1 (en) | 2019-12-04 |
EP3151196A4 (en) | 2017-11-22 |
CN113240732B (zh) | 2024-04-19 |
KR20150138501A (ko) | 2015-12-10 |
EP3151196A1 (en) | 2017-04-05 |
WO2015183050A1 (ko) | 2015-12-03 |
US20170200278A1 (en) | 2017-07-13 |
CN113240732A (zh) | 2021-08-10 |
EP3576051B1 (en) | 2021-03-24 |
CN106415663A (zh) | 2017-02-15 |
JP2017525937A (ja) | 2017-09-07 |
KR101613418B1 (ko) | 2016-04-21 |
US10109066B2 (en) | 2018-10-23 |
CN106415663B (zh) | 2020-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6357251B2 (ja) | オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢並びに位置算出方法 | |
JP6370478B2 (ja) | オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢算出方法 | |
JP6465789B2 (ja) | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 | |
JP5378374B2 (ja) | リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム | |
JP6415066B2 (ja) | 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム | |
WO2014100950A1 (en) | Three-dimensional imaging system and handheld scanning device for three-dimensional imaging | |
JP2015090298A (ja) | 情報処理装置、情報処理方法 | |
Xu et al. | 3-D reconstruction of binocular vision using distance objective generated from two pairs of skew projection lines | |
CN113658270A (zh) | 基于工件孔心的多目视觉标定的方法、装置、介质及系统 | |
JP5764189B2 (ja) | 精密角度位置決め装置 | |
JP2009014501A (ja) | 製品の3次元形状モデルデータ作成方法 | |
KR101438514B1 (ko) | 다중 영상을 이용한 원자로 내부 로봇 위치 측정 시스템 및 위치 측정방법 | |
JP2016066995A (ja) | 像ズレ量算出装置、撮像装置、および像ズレ量算出方法 | |
CN118119972A (zh) | 生成用于相机校准的相机模型的方法和系统 | |
JP7344283B2 (ja) | モーションエンコーダ | |
JP3849030B2 (ja) | カメラキャリブレーション装置及び方法 | |
Zeng et al. | A novel reconstruction model of multi-camera positioning system based on neural network | |
JP2015137897A (ja) | 距離計測装置及び距離計測方法 | |
Kalvodova et al. | Accuracy Evaluation Method of Multispectral Data Fusion for Robotic Systems | |
JP2007299219A (ja) | 撮影画像におけるゆがみの較正方法 | |
Horikawa et al. | Stereo Camera System with Digital Image Correlation Method for Accurate Measurement of Position and Orientation of Positioning Stage | |
Müller et al. | Determination of steering wheel angles during car alignment by image analysis methods | |
Kalvodova et al. | Medical Optical Scanning System-Data Fusion Evaluation Method | |
Tilneac et al. | Extrinsic Camera Calibration and Camera-Matching for Plant Phenotyping Using CAD (Computer-Aided Design) Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170829 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20171129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6357251 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |