JP6144828B2 - 動的に構築された環境地図データに基づくオブジェクト追跡 - Google Patents
動的に構築された環境地図データに基づくオブジェクト追跡 Download PDFInfo
- Publication number
- JP6144828B2 JP6144828B2 JP2016520066A JP2016520066A JP6144828B2 JP 6144828 B2 JP6144828 B2 JP 6144828B2 JP 2016520066 A JP2016520066 A JP 2016520066A JP 2016520066 A JP2016520066 A JP 2016520066A JP 6144828 B2 JP6144828 B2 JP 6144828B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- pose
- map data
- target
- environmental map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000007613 environmental effect Effects 0.000 title claims description 52
- 238000000034 method Methods 0.000 claims description 45
- 238000012545 processing Methods 0.000 claims description 43
- 230000015654 memory Effects 0.000 claims description 11
- 230000004807 localization Effects 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 description 27
- 230000003190 augmentative effect Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000003416 augmentation Effects 0.000 description 7
- 230000001413 cellular effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 208000034188 Stiff person spectrum disease Diseases 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 208000012112 ischiocoxopodopatellar syndrome Diseases 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 229920010524 Syndiotactic polystyrene Polymers 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000002490 spark plasma sintering Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Description
本出願は、2013年10月4日に出願された米国仮出願第61/887,211号の利益を主張する。
ち、モバイルプラットフォーム)側のメモリ要件とともに減少される。しかしながら、必要に応じて、オブジェクト検出および追跡は、サーバ608(または、他のサーバ)によって実行され得、クエリ画像自体、またはクエリ画像から抽出されたフィーチャは、モバイルプラットフォーム602によってサーバ608に提供される。一実施形態では、オンライン地図データは、モバイルプラットフォーム602によってローカルに記憶され、オフライン地図データは、データベース612内のクラウドに記憶される。
100B 画像
102 場面
104 ターゲットオブジェクト
106 フィーチャ
200 プロセス
300 プロセス
400 処理ユニット
402 画像
404 地図データ生成器
406 オブジェクト検出器
408 オブジェクトトラッカ
410 拡張現実(AR)エンジン
412 ポーズ計算機
414 環境地図データ
416 ターゲット地図データ
500 モバイルプラットフォーム
502 カメラ
504 制御ユニット
506 ユーザインターフェース
508 処理ユニット
510 ハードウェア
512 ファームウェア
514 関連メモリ
515 ソフトウェア
516 ネットワークアダプタ
520 グラフィックスエンジン
522 ディスプレイ
524 キーパッド
526 マイクロフォン
528 スピーカ
600 オブジェクト認識システム
602 モバイルプラットフォーム
604 セルラータワー
605 ワイヤレス通信アクセスポイント
606 地球周回衛星ビークル
608 サーバ
610 ネットワーク
612 フィーチャデータベース
614 オブジェクト
Claims (30)
- オブジェクト認識システムにおけるターゲットオブジェクトの追跡のコンピュータ実装方法であって、
カメラで複数の画像を取得するステップと、
同時に前記ターゲットオブジェクトを追跡して、前記複数の画像から環境地図データを動的に構築するステップであって、前記ターゲットオブジェクトを追跡するステップが、前記複数の画像のうちの少なくとも1つに基づいて、およびターゲット地図データに基づいて、前記カメラに対する前記ターゲットオブジェクトのターゲットポーズを推定しようとするステップを含む、ステップと、
前記カメラに対する前記ターゲットオブジェクトの前記追跡が成功したかどうかを決定するステップと、失敗した場合、
前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測するステップと
を備える、コンピュータ実装方法。 - 前記カメラに対する前記ターゲットオブジェクトの追跡が成功したと決定されると、前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測するステップと、
前記推定されたターゲットポーズと前記推測されたターゲットポーズとを融合するステップと
をさらに備える、請求項1に記載のコンピュータ実装方法。 - 前記推定されたターゲットポーズと前記推測されたターゲットポーズとを融合するステップが、カルマンフィルタを適用するステップを含む、請求項2に記載のコンピュータ実装方法。
- 前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測するステップが、
前記カメラに対する前記環境の環境ポーズを推定するステップと、
前記環境に対する前記ターゲットオブジェクトのターゲットポーズを推定するステップと、
前記環境に対する前記推定されたターゲットポーズに基づいて、前記カメラに対する前記ターゲットポーズを推測するステップと
を含む、請求項1に記載のコンピュータ実装方法。 - 前記環境地図データが、前記カメラで取得された1つまたは複数の画像に対応する1つまたは複数のキーフレームに基づく、請求項1に記載のコンピュータ実装方法。
- 前記環境地図データを構築するステップが、キーフレームSLAM(Simultaneous Localization And Mapping)を含む、請求項5に記載のコンピュータ実装方法。
- 前記環境地図データを構築するステップが、候補キーフレームと、前記カメラによって取得された画像に対応する他のオンラインキーフレームとの間のポーズ差を計算することによって、前記1つまたは複数のキーフレームに前記候補キーフレームを追加するステップを含む、請求項5に記載のコンピュータ実装方法。
- 前記候補キーフレームと他のオンラインキーフレームとの間の前記ポーズ差を計算するステップが、前記ポーズ差を計算する際にオフラインキーフレームをスキップするステップを含む、請求項7に記載のコンピュータ実装方法。
- 前記ポーズ差が、前記候補キーフレームと他のオンラインキーフレームとの間の最小ポーズ差であり、前記ポーズ差がポーズしきい値を上回る場合、前記候補キーフレームを前記他のオンラインキーフレームに追加するステップをさらに備える、請求項7に記載のコンピュータ実装方法。
- オブジェクト認識システムにおけるターゲットオブジェクトを追跡するためのプログラムコードを記憶した非一時的コンピュータ可読記憶媒体であって、前記プログラムコードが、
カメラで複数の画像を取得する命令と、
同時に前記ターゲットオブジェクトを追跡して、前記複数の画像から環境地図データを動的に構築する命令であって、前記ターゲットオブジェクトを追跡する命令が、前記複数の画像のうちの少なくとも1つに基づいて、およびターゲット地図データに基づいて、前記カメラに対する前記ターゲットオブジェクトのターゲットポーズを推定しようとする命令を含む、命令と、
前記カメラに対する前記ターゲットオブジェクトの追跡が成功したかを決定する命令と、失敗した場合、
前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測する命令と
を備える、非一時的コンピュータ可読記憶媒体。 - 前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測する前記命令が、
前記カメラに対する前記環境の環境ポーズを推定する命令と、
前記環境に対する前記ターゲットオブジェクトのターゲットポーズを推定する命令と、
前記環境に対する前記推定されたターゲットポーズに基づいて、前記カメラに対する前記ターゲットポーズを推測する命令と
を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。 - 前記環境地図データが、前記カメラで取得された1つまたは複数の画像に対応する1つまたは複数のキーフレームに基づく、請求項10に記載の非一時的コンピュータ可読記憶媒体。
- 前記環境地図データを構築する前記命令が、キーフレームSLAM(Simultaneous Localization And Mapping)を含む、請求項12に記載の非一時的コンピュータ可読記憶媒体。
- 前記環境地図データを構築する前記命令が、前記1つまたは複数のキーフレームに候補キーフレームを追加して、前記候補キーフレームと、前記カメラによって取得された画像に対応する他のオンラインキーフレームとの間のポーズ差を計算する命令を含む、請求項12に記載の非一時的コンピュータ可読記憶媒体。
- 前記候補キーフレームと他のオンラインキーフレームとの間の前記ポーズ差を計算する前記命令が、前記ポーズ差を計算する際にオフラインキーフレームをスキップする命令を含む、請求項14に記載の非一時的コンピュータ可読記憶媒体。
- 前記ポーズ差が、前記候補キーフレームと他のオンラインキーフレームとの間の最小ポーズ差であり、前記ポーズ差がポーズしきい値を上回る場合、前記候補キーフレームを前記他のオンラインキーフレームに追加する命令をさらに備える、請求項14に記載の非一時的コンピュータ可読記憶媒体。
- 装置であって、
オブジェクト認識システムにおけるターゲットオブジェクトを追跡するためのプログラムコードを記憶するように適合されたメモリと、
前記プログラムコード内に含まれる命令にアクセスして実行するように適合された処理ユニットと
を備え、前記命令が前記処理ユニットによって実行されると、前記処理ユニットが前記装置に、
カメラで複数の画像を取得することと、
同時に前記ターゲットオブジェクトを追跡して、前記複数の画像から環境地図データを動的に構築することであって、前記ターゲットオブジェクトを追跡することが、前記複数の画像のうちの少なくとも1つに基づいて、およびターゲット地図データに基づいて、前記カメラに対する前記ターゲットオブジェクトのターゲットポーズを推定しようとすることを含むことと、
前記カメラに対する前記ターゲットオブジェクトの追跡が成功したかを決定することと、失敗した場合、
前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測することと
を行わせるように指示する、装置。 - 前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測する前記命令が、
前記カメラに対する前記環境の環境ポーズを推定する命令と、
前記環境に対する前記ターゲットオブジェクトのターゲットポーズを推定する命令と、
前記環境に対する前記推定されたターゲットポーズに基づいて、前記カメラに対する前記ターゲットポーズを推測する命令と
を含む、請求項17に記載の装置。 - 前記環境地図データが、前記カメラで取得された1つまたは複数の画像に対応する1つまたは複数のキーフレームに基づく、請求項17に記載の装置。
- 前記環境地図データを構築する前記命令が、キーフレームSLAM(Simultaneous Localization And Mapping)を含む、請求項19に記載の装置。
- 前記環境地図データを構築する前記命令が、前記1つまたは複数のキーフレームに候補キーフレームを追加して、前記候補キーフレームと、前記カメラによって取得された画像に対応する他のオンラインキーフレームとの間のポーズ差を計算する命令を含む、請求項19に記載の装置。
- 前記候補キーフレームと他のオンラインキーフレームとの間の前記ポーズ差を計算する前記命令が、前記ポーズ差を計算する際にオフラインキーフレームをスキップする命令を含む、請求項21に記載の装置。
- 前記ポーズ差が、前記候補キーフレームと他のオンラインキーフレームとの間の最小ポーズ差であり、前記ポーズ差がポーズしきい値を上回る場合、前記候補キーフレームを前記他のオンラインキーフレームに追加する命令をさらに備える、請求項21に記載の装置。
- 前記複数の画像を取得するための前記カメラをさらに備える、請求項17に記載の装置。
- カメラで複数の画像を取得するための手段と、
同時に、ターゲットオブジェクトを追跡し、かつ、前記複数の画像から環境地図データを動的に構築するための手段であって、前記ターゲットオブジェクトを追跡するための前記手段が、前記複数の画像のうちの少なくとも1つに基づいて、およびターゲット地図データに基づいて、前記カメラに対する前記ターゲットオブジェクトのターゲットポーズを推定しようとするための手段を含む、手段と、
前記カメラに対する前記ターゲットオブジェクトの前記追跡が成功したかどうかを決定するための手段と、
前記カメラに対する前記ターゲットオブジェクトの前記追跡が失敗した場合、前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測するための手段と
を備える、装置。 - 前記カメラに対する前記ターゲットオブジェクトの追跡が成功したと決定されると、前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測するための手段と、
前記推定されたターゲットポーズと前記推測されたターゲットポーズとを融合するための手段と
をさらに備える、請求項25に記載の装置。 - 前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測するための前記手段が、
前記カメラに対する前記環境の環境ポーズを推定するための手段と、
前記環境に対する前記ターゲットオブジェクトのターゲットポーズを推定するための手段と、
前記環境に対する前記推定されたターゲットポーズに基づいて、前記カメラに対する前記ターゲットポーズを推測するための手段と
を含む、請求項25に記載の装置。 - 前記環境地図データが、前記カメラで取得された1つまたは複数の画像に対応する1つまたは複数のキーフレームに基づき、前記環境地図データを構築するための前記手段が、キーフレームSLAM(Simultaneous Localization And Mapping)を含む、請求項25に記載の装置。
- 前記環境地図データが、前記カメラで取得された1つまたは複数の画像に対応する1つまたは複数のキーフレームに基づき、前記環境地図データを構築するための前記手段が、候補キーフレームと、前記カメラによって取得された画像に対応する他のオンラインキーフレームとの間のポーズ差を計算することによって、前記1つまたは複数のキーフレームに前記候補キーフレームを追加するための手段を含む、請求項25に記載の装置。
- 前記ポーズ差が、前記候補キーフレームと他のオンラインキーフレームとの間の最小ポーズ差であり、前記装置が、前記ポーズ差がポーズしきい値を上回る場合、前記候補キーフレームを前記他のオンラインキーフレームに追加するための手段をさらに備える、請求項29に記載の装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361887211P | 2013-10-04 | 2013-10-04 | |
US61/887,211 | 2013-10-04 | ||
US14/494,947 | 2014-09-24 | ||
US14/494,947 US9524434B2 (en) | 2013-10-04 | 2014-09-24 | Object tracking based on dynamically built environment map data |
PCT/US2014/057522 WO2015050773A1 (en) | 2013-10-04 | 2014-09-25 | Object tracking based on dynamically built environment map data |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016536668A JP2016536668A (ja) | 2016-11-24 |
JP2016536668A5 JP2016536668A5 (ja) | 2017-03-23 |
JP6144828B2 true JP6144828B2 (ja) | 2017-06-07 |
Family
ID=52776984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016520066A Active JP6144828B2 (ja) | 2013-10-04 | 2014-09-25 | 動的に構築された環境地図データに基づくオブジェクト追跡 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9524434B2 (ja) |
EP (1) | EP3053099A1 (ja) |
JP (1) | JP6144828B2 (ja) |
KR (1) | KR101812158B1 (ja) |
CN (1) | CN105593877B (ja) |
WO (1) | WO2015050773A1 (ja) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9811731B2 (en) * | 2013-10-04 | 2017-11-07 | Qualcomm Incorporated | Dynamic extension of map data for object detection and tracking |
US9928656B2 (en) * | 2015-09-11 | 2018-03-27 | Futurewei Technologies, Inc. | Markerless multi-user, multi-object augmented reality on mobile devices |
US10073531B2 (en) | 2015-10-07 | 2018-09-11 | Google Llc | Electronic device pose identification based on imagery and non-image sensor data |
JP6775969B2 (ja) * | 2016-02-29 | 2020-10-28 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10890600B2 (en) | 2016-05-18 | 2021-01-12 | Google Llc | Real-time visual-inertial motion tracking fault detection |
US10802147B2 (en) | 2016-05-18 | 2020-10-13 | Google Llc | System and method for concurrent odometry and mapping |
US11017610B2 (en) * | 2016-05-18 | 2021-05-25 | Google Llc | System and method for fault detection and recovery for concurrent odometry and mapping |
US10025984B2 (en) | 2016-07-18 | 2018-07-17 | X Development Llc | Delegation of object and pose detection |
US10593116B2 (en) | 2016-10-24 | 2020-03-17 | Snap Inc. | Augmented reality object manipulation |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
US10843068B2 (en) * | 2017-01-18 | 2020-11-24 | Xvisio Technology Corp. | 6DoF inside-out tracking game controller |
US11432879B2 (en) | 2017-08-18 | 2022-09-06 | Siemens Healthcare Gmbh | Method and apparatus for wide area multi-body 6D pose tracking system |
CN111033425A (zh) * | 2017-09-04 | 2020-04-17 | 日本电产株式会社 | 移动体、位置推断装置以及计算机程序 |
CN111247390B (zh) * | 2017-10-06 | 2023-09-01 | 高通股份有限公司 | Vslam的并发的重新定位和重新初始化 |
CA3031276A1 (en) | 2018-02-08 | 2019-08-08 | Ascension Technology Corporation | Compensating for distortion in an electromagnetic tracking system |
KR102557049B1 (ko) * | 2018-03-30 | 2023-07-19 | 한국전자통신연구원 | Slam 기반 카메라 추적에서 라벨된 키프레임을 이용한 이미지 특징 매칭 방법 및 장치 |
US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
KR20200029785A (ko) | 2018-09-11 | 2020-03-19 | 삼성전자주식회사 | 증강 현실에서 가상 객체를 표시하기 위한 측위 방법 및 장치 |
KR20200046437A (ko) | 2018-10-24 | 2020-05-07 | 삼성전자주식회사 | 영상 및 맵 데이터 기반 측위 방법 및 장치 |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
US10909692B2 (en) * | 2018-12-14 | 2021-02-02 | Andrew Bennett | System and method of detecting and acting upon moving objects |
US11164326B2 (en) | 2018-12-18 | 2021-11-02 | Samsung Electronics Co., Ltd. | Method and apparatus for calculating depth map |
CN113330484A (zh) | 2018-12-20 | 2021-08-31 | 斯纳普公司 | 虚拟表面修改 |
US10984575B2 (en) | 2019-02-06 | 2021-04-20 | Snap Inc. | Body pose estimation |
US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
JP7438684B2 (ja) * | 2019-07-30 | 2024-02-27 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
WO2021035471A1 (en) * | 2019-08-26 | 2021-03-04 | Beijing Voyager Technology Co., Ltd. | Systems and methods for positioning a target subject |
US11232646B2 (en) | 2019-09-06 | 2022-01-25 | Snap Inc. | Context-based virtual object rendering |
US11514594B2 (en) | 2019-10-30 | 2022-11-29 | Vergence Automation, Inc. | Composite imaging systems using a focal plane array with in-pixel analog storage elements |
US11263817B1 (en) | 2019-12-19 | 2022-03-01 | Snap Inc. | 3D captions with face tracking |
US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
WO2021256103A1 (ja) * | 2020-06-19 | 2021-12-23 | 日本電気株式会社 | 測位装置、推定方法、及び非一時的なコンピュータ可読媒体 |
US11660022B2 (en) | 2020-10-27 | 2023-05-30 | Snap Inc. | Adaptive skeletal joint smoothing |
US11615592B2 (en) | 2020-10-27 | 2023-03-28 | Snap Inc. | Side-by-side character animation from realtime 3D body motion capture |
WO2022092511A1 (ko) * | 2020-10-30 | 2022-05-05 | 에스케이텔레콤 주식회사 | 3차원 맵을 생성하는 방법 및 생성된 3차원 맵을 이용하여 사용자 단말의 포즈를 결정하는 방법 |
US11734894B2 (en) | 2020-11-18 | 2023-08-22 | Snap Inc. | Real-time motion transfer for prosthetic limbs |
US11450051B2 (en) | 2020-11-18 | 2022-09-20 | Snap Inc. | Personalized avatar real-time motion capture |
US11748931B2 (en) | 2020-11-18 | 2023-09-05 | Snap Inc. | Body animation sharing and remixing |
CN112887793B (zh) * | 2021-01-25 | 2023-06-13 | 脸萌有限公司 | 视频处理方法、显示设备和存储介质 |
CN112926514A (zh) * | 2021-03-26 | 2021-06-08 | 哈尔滨工业大学(威海) | 一种多目标检测及跟踪方法、系统、存储介质及应用 |
US11880947B2 (en) | 2021-12-21 | 2024-01-23 | Snap Inc. | Real-time upper-body garment exchange |
US11847259B1 (en) | 2022-11-23 | 2023-12-19 | Google Llc | Map-aided inertial odometry with neural network for augmented reality devices |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100533033B1 (ko) * | 2003-07-28 | 2005-12-02 | 엘지전자 주식회사 | 디지털 영상 처리 기술을 이용한 위치 추적 시스템 및 방법 |
KR100548418B1 (ko) * | 2003-10-31 | 2006-02-02 | 엘지전자 주식회사 | 카메라 일체형 휴대 단말기의 촬영 제한 방법 및 시스템 |
US8649565B1 (en) | 2009-06-18 | 2014-02-11 | Hrl Laboratories, Llc | System for automatic object localization based on visual simultaneous localization and mapping (SLAM) and cognitive swarm recognition |
US9135514B2 (en) | 2010-05-21 | 2015-09-15 | Qualcomm Incorporated | Real time tracking/detection of multiple targets |
US8638986B2 (en) | 2011-04-20 | 2014-01-28 | Qualcomm Incorporated | Online reference patch generation and pose estimation for augmented reality |
US8913055B2 (en) | 2011-05-31 | 2014-12-16 | Honda Motor Co., Ltd. | Online environment mapping |
US20120306850A1 (en) * | 2011-06-02 | 2012-12-06 | Microsoft Corporation | Distributed asynchronous localization and mapping for augmented reality |
US9578226B2 (en) | 2012-04-12 | 2017-02-21 | Qualcomm Incorporated | Photometric registration from arbitrary geometry for augmented reality |
US9147122B2 (en) | 2012-05-31 | 2015-09-29 | Qualcomm Incorporated | Pose estimation based on peripheral information |
US9811731B2 (en) * | 2013-10-04 | 2017-11-07 | Qualcomm Incorporated | Dynamic extension of map data for object detection and tracking |
-
2014
- 2014-09-24 US US14/494,947 patent/US9524434B2/en active Active
- 2014-09-25 CN CN201480054276.6A patent/CN105593877B/zh active Active
- 2014-09-25 JP JP2016520066A patent/JP6144828B2/ja active Active
- 2014-09-25 EP EP14782043.5A patent/EP3053099A1/en active Pending
- 2014-09-25 WO PCT/US2014/057522 patent/WO2015050773A1/en active Application Filing
- 2014-09-25 KR KR1020167011051A patent/KR101812158B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
US9524434B2 (en) | 2016-12-20 |
CN105593877B (zh) | 2018-12-18 |
CN105593877A (zh) | 2016-05-18 |
KR20160068815A (ko) | 2016-06-15 |
WO2015050773A1 (en) | 2015-04-09 |
KR101812158B1 (ko) | 2017-12-26 |
US20150098614A1 (en) | 2015-04-09 |
JP2016536668A (ja) | 2016-11-24 |
EP3053099A1 (en) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6144828B2 (ja) | 動的に構築された環境地図データに基づくオブジェクト追跡 | |
US9811731B2 (en) | Dynamic extension of map data for object detection and tracking | |
CN106133795B (zh) | 用于对3d渲染应用中地理定位的媒体内容进行视觉化的方法和装置 | |
CN105917361B (zh) | 动态地更新含有对应于已知目标对象的特征的特征数据库 | |
US9996936B2 (en) | Predictor-corrector based pose detection | |
US9077890B2 (en) | Auto-focus tracking | |
US20150371440A1 (en) | Zero-baseline 3d map initialization | |
US20140323148A1 (en) | Wide area localization from slam maps | |
KR20160003066A (ko) | 일반적인 카메라 움직임 및 파노라마 카메라 움직임을 갖는 단안 시각 slam | |
WO2014011346A1 (en) | Sensor-aided wide-area localization on mobile devices | |
JP2013541096A (ja) | クラウド支援型拡張現実のための適応可能なフレームワーク | |
US20150262380A1 (en) | Adaptive resolution in optical flow computations for an image processing system | |
JP2018513493A (ja) | ポーズ決定のための非マッチング特徴に基づく視覚動き推定 | |
JP6393000B2 (ja) | 3dマップに関する仮説的ラインマッピングおよび検証 | |
JP6306274B1 (ja) | オブジェクト検出中の適応的なエッジ状の特徴の選択 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170213 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170213 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170405 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170417 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6144828 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |