JP2015513143A - 追跡システムを最適化するためのシステムおよび方法 - Google Patents
追跡システムを最適化するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2015513143A JP2015513143A JP2014558220A JP2014558220A JP2015513143A JP 2015513143 A JP2015513143 A JP 2015513143A JP 2014558220 A JP2014558220 A JP 2014558220A JP 2014558220 A JP2014558220 A JP 2014558220A JP 2015513143 A JP2015513143 A JP 2015513143A
- Authority
- JP
- Japan
- Prior art keywords
- pose
- tracking
- camera
- data
- optimizing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 239000003550 marker Substances 0.000 claims abstract description 46
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 33
- 238000005457 optimization Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims description 18
- 230000003287 optical effect Effects 0.000 claims description 8
- 230000001629 suppression Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 4
- 239000002131 composite material Substances 0.000 claims description 2
- 238000004088 simulation Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
追跡目標上で可能な能動的マーカの位置及び向きを表すメッシュのデータと、動作条件下で追跡目標の可能なポーズを表すポーズのデータと、少なくとも一つのカメラの位置及び向きを取得するステップ(101)と、
あらゆるポーズに対して全てのカメラからメッシュ上の各ノードの可視性をコンピュータ計算して、ポーズ毎にあらゆるカメラからの可視性が一回カウントされて、何回ノードが可視であるかをカウントする、可視性の値のリストを生成するステップ(102)と、
能動的マーカの配置ノードとして、最高の可視性のカウントに伴って従前に選択されなかったノードを選択するステップ(103)と、
非最大の抑制しきい値よりも上記選択されたノードに近接したノードを除去するステップ(104)と、
所定数の選択されたノードを有するポーズを除去するステップ(105)と、
全てのポーズの内の所定のポーズが所定数の選択されたノードを有するかのステップ(106)と、
最後の選択されたノードの位置を、ポーズ毎に各カメラのビューポートの画像平面上に射影して、上記システムが最適化される追跡アルゴリズムを用いて、カメラのビューポートに関するメッシュのポーズを計算するステップ(107)と、
グラウンドトルースデータとアルゴリズムの結果を比較することにより、ポーズのエラー及びポーズの範囲を計算するステップ(108)と、
配置された能動的マーカのそれぞれの数及び位置とともに、ポーズの精度及び範囲の結果を記録して出力するステップ(109)と、
新規の最適化パラメータのセット、ポーズの見積もりパラメータのセット、カメラの場所のセットまたは3D目標のメッシュが存在するのかのステップ(110)と、
上記結果の間で、カメラの場所のセット、3Dメッシュのデータ、マーカツリー、最適化パラメータのセット、及びポーズの見積もりアルゴリズムのパラメータのセットを、少なくとも一つの制約を満たして選択するステップ(111)と
を含む。
1.カメラの場所
2.メッシュのデータを介した目標の3Dモデル
3.マーカツリーと最適化パラメータのセット
4.ポーズの見積もりパラメータ
ポーズ、メッシュ、及びカメラの位置データを受信するとともに、上記データを用いて追跡システムを最適化するための方法(100)を実行して、
上記システムが最適化されるための追跡アルゴリズムを実行するとともに、方法(100)によって見つけ出される結果を出力するように構成される少なくとも一つの処理部(2)と、
ユーザのような外部ソースからポーズ、メッシュ、及びカメラの位置データを受信するように構成される処理部(2)に接続されるとともに、処理部(2)によって見つけ出される結果を出力する少なくとも一つの入力/出力装置(3)と、
処理部(2)に接続されて、必要なときに、処理部(2)によって見つけ出される最適化の結果、並びにどんなポーズ、メッシュ、及びカメラの位置データをも格納するように構成されるメモリ部(4)と
を基本的に含む。
2…処理部
3…入力/出力装置
4…メモリ部
100…追跡システムを最適化するための方法
追跡目標上で有り得る能動的マーカの位置及び向きを表すデータと、動作条件下で上記追跡目標の有り得るポーズを表すポーズのデータと、少なくとも一つのカメラの位置及び向きを取得するステップ(101)と、
上記ポーズのデータのあらゆるポーズに対して少なくとも一つのカメラから有り得る能動的マーカの位置を表すメッシュ上の各ノードの可視性をコンピュータ計算して、ポーズ毎にあらゆるカメラからの可視性が一回カウントされるにおいて、何回ノードが可視であるかをカウントする可視性の値を含む、全てのノードを表す可視性の値のリストを生成するステップ(102)と、
最高の可視性のカウントを伴い、従前に選択されなかったノードを、能動的マーカの配置ノードとして選択するステップ(103)と、
非最大の抑制しきい値よりも上記選択されたノードに近接したノードを除去するステップ(104)と、
少なくとも一つの所定数の選択されたノードを有するポーズを除去するステップ(105)と、
全てのポーズの内の所定のパーセンテージが所定数の選択されたノードを有するか否かテストするステップ(106)と、
上記テストが否定的ならば、上記コンピュータ計算するステップと、選択するステップと、ノードを除去するステップと、除去するステップと、テストするステップを繰り返すステップ(106a)と、
最後の選択されたノードの位置をポーズ毎に各カメラのビューポートの画像平面上に射影して、上記システムが最適化される追跡アルゴリズムを用いてカメラのビューポートに関するメッシュのポーズを計算するステップ(107)と、
グラウンドトルースデータと追跡アルゴリズムの結果を比較することにより、ポーズのエラー、及び追跡アルゴリズムに見積もられ得るポーズのパーセンテージであるポーズの範囲を計算するステップ(108)と、
能動的マーカの配置ノードの数及び位置とともに、ポーズのエラー及び範囲の結果を記録して出力するステップ(109)と、
新規の最適化パラメータのセット、ポーズの見積もりパラメータのセット、カメラの場所のセットまたは3D目標のメッシュが存在するのか否かテストするステップ(110)と、
上記テストが肯定的ならば、上記新規のデータを用いてメッシュのデータを取得するステップからやり直すステップ(110a)と、
上記結果の間で、カメラの場所のセット、3Dメッシュのデータ、選択されたノードの3D座標であるマーカツリー、最適化パラメータのセット、及びポーズの見積もりアルゴリズムのパラメータのセットを、最小のポーズのエラーに伴うパラメータのセット、最小の隠れたポーズに伴うシステム、又は最小のマーカの数に伴うシステムを選択することの一つである、少なくとも一つの制約を満たして選択するステップであって、隠れたポーズはポーズの見積もりアルゴリズムがコンピュータ計算できないポーズである、ステップ(111)と
を含む。
Claims (18)
- 追跡目標上で可能な能動的マーカの位置及び向きを表すデータと、動作条件下で追跡目標の可能なポーズを表すポーズのデータと、少なくとも一つのカメラの位置及び向きを取得するステップ(101)と、
あらゆるポーズに対して全てのカメラからメッシュ上の各ノードの可視性をコンピュータ計算して、ポーズ毎にあらゆるカメラからの可視性が一回カウントされるにおいて、何回ノードが可視であるかをカウントする、可視性の値のリストを生成するステップ(102)と、
最高の可視性のカウントを伴い、従前に選択されなかったノードを、能動的マーカの配置ノードとして選択するステップ(103)と、
非最大の抑制しきい値よりも上記選択されたノードに近接したノードを除去するステップ(104)と、
所定数の選択されたノードを有するポーズを除去するステップ(105)と、
全てのポーズの内の所定のパーセンテージが所定数の選択されたノードを有するかのステップ(106)と、
最後の選択されたノードの位置をポーズ毎に各カメラのビューポートの画像平面上に射影して、上記システムが最適化される追跡アルゴリズムを用いてカメラのビューポートに関するメッシュのポーズを計算するステップ(107)と、
グラウンドトルースデータとアルゴリズムの結果を比較することにより、ポーズのエラー及びポーズの範囲を計算するステップ(108)と、
配置された能動的マーカのそれぞれの数及び位置とともに、ポーズの精度及び範囲の結果を記録して出力するステップ(109)と、
新規の最適化パラメータのセット、ポーズの見積もりパラメータのセット、カメラの場所のセットまたは3D目標のメッシュが存在するのかのステップ(110)と、
上記結果の間で、カメラの場所のセット、3Dメッシュのデータ、マーカツリー、最適化パラメータのセット、及びポーズの見積もりアルゴリズムのパラメータのセットを、少なくとも一つの制約を満たして選択するステップ(111)と
を含むことを特徴とする追跡システムを最適化するための方法(100)。 - ポーズのデータは、現実の動作条件下の現実の目標上に配置される慣性計測装置(IMU)を用いて取得されるとともに、
目標の運動はステップ(101)において記録される
ことを特徴とする請求項1に記載の追跡システムを最適化するための方法(100)。 - ポーズのデータは、追跡目標に搭載される能動的マーカと、ステップ(101)において精密で完全なポーズのデータを生成できる多重の高分解能カメラとを備える光学に基づくポーズのデータ取得システムを用いて取得される
ことを特徴とする請求項1に記載の追跡システムを最適化するための方法(100)。 - 目標の座標系に対するマーカの法線に基づく閉塞モデルと、能動的マーカの発光の円錐角と、既知の目標のポーズは、ステップ(102)において3Dモデルの点の可視性を見積もるために用いられる
ことを特徴とする請求項1乃至3のいずれか一つに記載の追跡システムを最適化するための方法(100)。 - ステップ(107)において、合成画像は、ノードの位置を射影した後に一定量のノイズを画像上に加えることによって生成される
ことを特徴とする請求項1乃至4のいずれか一つに記載の追跡システムを最適化するための方法(100)。 - 上記制約は、ステップ(111)において最小のポーズのエラーを伴うシステムを選択することである
ことを特徴とする請求項1乃至5のいずれか一つに記載の追跡システムを最適化するための方法(100)。 - 上記制約は、ステップ(111)において最小の隠れたポーズを伴うシステムを選択することである
ことを特徴とする請求項1乃至6のいずれか一つに記載の追跡システムを最適化するための方法(100)。 - 上記制約は、ステップ(111)において最小のマーカの数を伴うシステムを選択することである
ことを特徴とする請求項1乃至7のいずれか一つに記載の追跡システムを最適化するための方法(100)。 - ステップ(105)は、所定数のマーカを初期のメッシュに配置する前に実行されないことを特徴とする請求項1乃至8のいずれか一つに記載の追跡システムを最適化するための方法(100)。
- ステップ(103)において、能動的マーカの配置ノードとして選択するのに空で利用可能なノードが全くない場合、処理はステップ(110)に送られる
ことを特徴とする請求項1乃至9のいずれか一つに記載の追跡システムを最適化するための方法(100)。 - ポーズ、メッシュ、及びカメラの位置データを受信するとともに、上記データを用いて追跡システムを最適化するための方法(100)を実行して、
上記システムが最適化されるための追跡アルゴリズムを実行するとともに、方法(100)によって見つけ出される結果を出力するように構成される少なくとも一つの処理部(2)と、
ユーザのような外部ソースからポーズ、メッシュ、及びカメラの位置データを受信するように構成される処理部(2)に接続されるとともに、処理部(2)によって見つけ出される結果を出力する少なくとも一つの入力/出力装置(3)と、
処理部(2)に接続されて、必要なときに、処理部(2)によって見つけ出される最適化の結果、並びにどんなポーズ、メッシュ、及びカメラの位置データをも格納するように構成されるメモリ部(4)と
を含むことを特徴とする追跡システムを最適化するためのシステム(1)。 - 処理部(2)は、入力/出力装置(3)からポーズ、メッシュ、及びカメラの位置データを受信するように構成される
ことを特徴とする請求項11に記載の追跡システムを最適化するためのシステム(1)。 - 処理部(2)は、メモリ部(4)からポーズ、メッシュ、及びカメラの位置データを受信するように構成される
ことを特徴とする請求項11又は12に記載の追跡システムを最適化するためのシステム(1)。 - 入力/出力装置(3)は、慣性計測装置(IMU)を用いて、対象の追跡目標の少なくとも一つのポーズのデータを受信するように構成される
ことを特徴とする請求項11乃至13のいずれか一つに記載の追跡システムを最適化するためのシステム(1)。 - 入力/出力装置(3)は、精密で完全なポーズのデータを生成できる、多重の高分解能のカメラを備えた光学に基づくポーズのデータ取得システムを用いて、対象の追跡目標の少なくとも一つのポーズのデータを受信するように構成される
ことを特徴とする請求項11乃至13のいずれか一つに記載の追跡システムを最適化するためのシステム(1)。 - 入力/出力装置(3)は、ユーザの生成されたカメラの位置データ及びメッシュのデータを受信するように構成される
ことを特徴とする請求項11乃至15のいずれか一つに記載の追跡システムを最適化するためのシステム(1)。 - メモリ部(4)は、揮発性メモリ装置である
ことを特徴とする請求項11乃至16のいずれか一つに記載の追跡システムを最適化するためのシステム(1)。 - メモリ部(4)は、不揮発性メモリ装置である
ことを特徴とする請求項11乃至17のいずれか一つに記載の追跡システムを最適化するためのシステム(1)。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IB2012/050801 WO2013124706A1 (en) | 2012-02-22 | 2012-02-22 | System and method for optimizing tracker system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015513143A true JP2015513143A (ja) | 2015-04-30 |
JP5912191B2 JP5912191B2 (ja) | 2016-04-27 |
Family
ID=45894602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014558220A Active JP5912191B2 (ja) | 2012-02-22 | 2012-02-22 | 追跡システムを最適化するためのシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9430700B2 (ja) |
EP (1) | EP2734977B1 (ja) |
JP (1) | JP5912191B2 (ja) |
KR (1) | KR101850048B1 (ja) |
ES (1) | ES2547321T3 (ja) |
PL (1) | PL2734977T3 (ja) |
WO (1) | WO2013124706A1 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016517982A (ja) * | 2013-04-12 | 2016-06-20 | アセルサン・エレクトロニク・サナイ・ヴェ・ティジャレット・アノニム・シルケティAselsan Elektronik Sanayi ve Ticaret Anonim Sirketi | 基準マーカーとカメラの位置/方向を最適化するためのシステム及び方法 |
WO2019017300A1 (ja) * | 2017-07-20 | 2019-01-24 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および位置情報取得方法 |
US10963055B2 (en) | 2016-12-15 | 2021-03-30 | Sony Interactive Entertainment Inc. | Vibration device and control system for presenting corrected vibration data |
US10963054B2 (en) | 2016-12-15 | 2021-03-30 | Sony Interactive Entertainment Inc. | Information processing system, vibration control method and program |
US10969867B2 (en) | 2016-12-15 | 2021-04-06 | Sony Interactive Entertainment Inc. | Information processing system, controller device, controller device control method and program |
US10981053B2 (en) | 2017-04-18 | 2021-04-20 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
US11013990B2 (en) | 2017-04-19 | 2021-05-25 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
US11145172B2 (en) | 2017-04-18 | 2021-10-12 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
US11458389B2 (en) | 2017-04-26 | 2022-10-04 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10110881B2 (en) * | 2014-10-30 | 2018-10-23 | Microsoft Technology Licensing, Llc | Model fitting from raw time-of-flight images |
SG11202104325UA (en) * | 2018-10-30 | 2021-05-28 | Alt Llc | System and method for the reverese optical tracking of a moving object |
US10909715B1 (en) * | 2019-01-31 | 2021-02-02 | Rockwell Collins, Inc. | High-integrity optical pose estimation using coded features |
KR102634916B1 (ko) * | 2019-08-29 | 2024-02-06 | 주식회사 엘지에너지솔루션 | 온도 추정 모델 결정 방법 및 장치, 온도 추정 모델이 적용된 배터리 관리 시스템 |
US11275453B1 (en) | 2019-09-30 | 2022-03-15 | Snap Inc. | Smart ring for manipulating virtual objects displayed by a wearable device |
US11423573B2 (en) * | 2020-01-22 | 2022-08-23 | Uatc, Llc | System and methods for calibrating cameras with a fixed focal point |
US11277597B1 (en) | 2020-03-31 | 2022-03-15 | Snap Inc. | Marker-based guided AR experience |
US11798429B1 (en) | 2020-05-04 | 2023-10-24 | Snap Inc. | Virtual tutorials for musical instruments with finger tracking in augmented reality |
US11520399B2 (en) | 2020-05-26 | 2022-12-06 | Snap Inc. | Interactive augmented reality experiences using positional tracking |
KR102298098B1 (ko) * | 2020-05-29 | 2021-09-03 | 이화여자대학교 산학협력단 | Rgb-d 카메라의 트래킹을 통한 3d 모델의 생성 방법 및 장치 |
US11925863B2 (en) | 2020-09-18 | 2024-03-12 | Snap Inc. | Tracking hand gestures for interactive game control in augmented reality |
US20220160291A1 (en) * | 2020-11-23 | 2022-05-26 | Mocxa Health Private Limited | System for recording of seizures |
US12086324B2 (en) | 2020-12-29 | 2024-09-10 | Snap Inc. | Micro hand gestures for controlling virtual and graphical elements |
WO2022146673A1 (en) | 2020-12-30 | 2022-07-07 | Snap Inc. | Augmented reality precision tracking and display |
US11740313B2 (en) * | 2020-12-30 | 2023-08-29 | Snap Inc. | Augmented reality precision tracking and display |
EP4327185A1 (en) | 2021-04-19 | 2024-02-28 | Snap, Inc. | Hand gestures for animating and controlling virtual and graphical elements |
US11995228B2 (en) | 2022-01-11 | 2024-05-28 | Rockwell Collins, Inc. | Head tracking system with extended kalman filter combining absolute and relative navigation |
CN114563203B (zh) * | 2022-03-11 | 2023-08-15 | 中国煤炭科工集团太原研究院有限公司 | 一种模拟井下低能见度环境的方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040239756A1 (en) * | 2003-05-30 | 2004-12-02 | Aliaga Daniel G. | Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments |
JP2010038707A (ja) * | 2008-08-05 | 2010-02-18 | Shimadzu Corp | モーショントラッカ装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6757068B2 (en) * | 2000-01-28 | 2004-06-29 | Intersense, Inc. | Self-referenced tracking |
US9804252B2 (en) * | 2012-01-17 | 2017-10-31 | Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi | System and method for measuring tracker system accuracy |
KR101734746B1 (ko) * | 2013-04-12 | 2017-05-11 | 아셀산 엘렉트로닉 사나이 베 티카렛 아노님 시르케티 | 기준 마커 및 카메라 위치/배향의 최적화 시스템 및 방법 |
-
2012
- 2012-02-22 ES ES12711001.3T patent/ES2547321T3/es active Active
- 2012-02-22 JP JP2014558220A patent/JP5912191B2/ja active Active
- 2012-02-22 KR KR1020147007367A patent/KR101850048B1/ko active IP Right Grant
- 2012-02-22 EP EP12711001.3A patent/EP2734977B1/en active Active
- 2012-02-22 US US14/342,526 patent/US9430700B2/en not_active Expired - Fee Related
- 2012-02-22 PL PL12711001T patent/PL2734977T3/pl unknown
- 2012-02-22 WO PCT/IB2012/050801 patent/WO2013124706A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040239756A1 (en) * | 2003-05-30 | 2004-12-02 | Aliaga Daniel G. | Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments |
JP2010038707A (ja) * | 2008-08-05 | 2010-02-18 | Shimadzu Corp | モーショントラッカ装置 |
Non-Patent Citations (2)
Title |
---|
JPN6015047618; 友納 正裕: '不正確さを許すマップと単眼ビジョンによる物体認識に基づく移動ロボットの屋内ナビゲーション' 日本ロボット学会誌 第22巻 第1号 第22巻 第1号, 20040115, P.83-92, 社団法人日本ロボット学会 * |
JPN7015003331; Larry Davis: 'A Method for Designing Marker-Based Tracking Probes' Proceedings of the Third IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR2 , 20041104, P.1-10, IEEE * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016517982A (ja) * | 2013-04-12 | 2016-06-20 | アセルサン・エレクトロニク・サナイ・ヴェ・ティジャレット・アノニム・シルケティAselsan Elektronik Sanayi ve Ticaret Anonim Sirketi | 基準マーカーとカメラの位置/方向を最適化するためのシステム及び方法 |
US10963055B2 (en) | 2016-12-15 | 2021-03-30 | Sony Interactive Entertainment Inc. | Vibration device and control system for presenting corrected vibration data |
US10963054B2 (en) | 2016-12-15 | 2021-03-30 | Sony Interactive Entertainment Inc. | Information processing system, vibration control method and program |
US10969867B2 (en) | 2016-12-15 | 2021-04-06 | Sony Interactive Entertainment Inc. | Information processing system, controller device, controller device control method and program |
US10981053B2 (en) | 2017-04-18 | 2021-04-20 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
US11145172B2 (en) | 2017-04-18 | 2021-10-12 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
US11013990B2 (en) | 2017-04-19 | 2021-05-25 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
US11458389B2 (en) | 2017-04-26 | 2022-10-04 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
WO2019017300A1 (ja) * | 2017-07-20 | 2019-01-24 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および位置情報取得方法 |
JP2019020333A (ja) * | 2017-07-20 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および位置情報取得方法 |
US11195293B2 (en) | 2017-07-20 | 2021-12-07 | Sony Interactive Entertainment Inc. | Information processing device and positional information obtaining method |
Also Published As
Publication number | Publication date |
---|---|
ES2547321T3 (es) | 2015-10-05 |
KR101850048B1 (ko) | 2018-05-30 |
PL2734977T3 (pl) | 2016-02-29 |
EP2734977A1 (en) | 2014-05-28 |
US9430700B2 (en) | 2016-08-30 |
JP5912191B2 (ja) | 2016-04-27 |
EP2734977B1 (en) | 2015-06-24 |
US20140212000A1 (en) | 2014-07-31 |
KR20140130096A (ko) | 2014-11-07 |
WO2013124706A1 (en) | 2013-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5912191B2 (ja) | 追跡システムを最適化するためのシステムおよび方法 | |
KR101734746B1 (ko) | 기준 마커 및 카메라 위치/배향의 최적화 시스템 및 방법 | |
US9317735B2 (en) | Information processing apparatus, information processing method, and program to calculate position and posture of an object having a three-dimensional shape | |
US20200057831A1 (en) | Real-time generation of synthetic data from multi-shot structured light sensors for three-dimensional object pose estimation | |
EP4141793A1 (en) | Using intensity variations in a light pattern for depth mapping of objects in a volume | |
US11490062B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP7164045B2 (ja) | 骨格認識方法、骨格認識プログラムおよび骨格認識システム | |
CN106524922A (zh) | 测距校准方法、装置和电子设备 | |
KR101896301B1 (ko) | 깊이 영상 처리 장치 및 방법 | |
US10186051B2 (en) | Method and system for calibrating a velocimetry system | |
Bauer et al. | Predicting and estimating the accuracy of n-occular optical tracking systems | |
JP6027121B2 (ja) | 測定位置指示装置、測定位置指示方法 | |
JP2019117120A (ja) | 画像処理システム、画像処理方法、及びそのプログラム | |
JP2010187130A (ja) | カメラ校正装置、カメラ校正方法、カメラ校正プログラムおよびそのプログラムを記録した記録媒体。 | |
JP4631606B2 (ja) | 画像の奥行分布推定方法及び装置及びプログラム | |
JP2014228879A (ja) | 3次元情報取得方法及び3次元情報取得装置 | |
JP6306903B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
KR20180107916A (ko) | 고정된 패턴 마스크를 이용하여 블랙, 화이트를 프로젝션을 수행하는 방법 및 시스템 | |
KR20170053509A (ko) | 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템 | |
KR20180107917A (ko) | 서로 다른 편광에 대응하는 패턴 및 인버스 패턴을 이용하는 방법 및 장치 | |
Butail | Motion reconstruction of animal groups: From schooling fish to swarming mosquitoes | |
KR20170138377A (ko) | 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템 | |
Kühn et al. | Benchmarking the pose accuracy of different SLAM approaches for rescue robotics | |
KR101845253B1 (ko) | 깊이 영상을 이용한 동작 추정 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160229 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5912191 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |