JP2016536668A5 - - Google Patents

Download PDF

Info

Publication number
JP2016536668A5
JP2016536668A5 JP2016520066A JP2016520066A JP2016536668A5 JP 2016536668 A5 JP2016536668 A5 JP 2016536668A5 JP 2016520066 A JP2016520066 A JP 2016520066A JP 2016520066 A JP2016520066 A JP 2016520066A JP 2016536668 A5 JP2016536668 A5 JP 2016536668A5
Authority
JP
Japan
Prior art keywords
camera
pose
map data
target
environmental map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016520066A
Other languages
English (en)
Other versions
JP6144828B2 (ja
JP2016536668A (ja
Filing date
Publication date
Priority claimed from US14/494,947 external-priority patent/US9524434B2/en
Application filed filed Critical
Publication of JP2016536668A publication Critical patent/JP2016536668A/ja
Publication of JP2016536668A5 publication Critical patent/JP2016536668A5/ja
Application granted granted Critical
Publication of JP6144828B2 publication Critical patent/JP6144828B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (30)

  1. オブジェクト認識システムにおけるターゲットオブジェクトの追跡のコンピュータ実装方法であって、
    カメラで複数の画像を取得するステップと、
    同時に前記ターゲットオブジェクトを追跡して、前記複数の画像から環境地図データを動的に構築するステップであって、前記ターゲットオブジェクトを追跡するステップが、前記複数の画像のうちの少なくとも1つに基づいて、およびターゲット地図データに基づいて、前記カメラに対する前記ターゲットオブジェクトのターゲットポーズを推定しようとするステップを含む、ステップと、
    前記カメラに対する前記ターゲットオブジェクトの前記追跡が成功したかどうかを決定するステップと、失敗した場合、
    前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測するステップと
    を備える、コンピュータ実装方法。
  2. 前記カメラに対する前記ターゲットオブジェクトの追跡が成功したと決定されると、前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測するステップと、
    前記推定されたターゲットポーズと前記推測されたターゲットポーズとを融合するステップと
    をさらに備える、請求項1に記載のコンピュータ実装方法。
  3. 前記推定されたターゲットポーズと前記推測されたターゲットポーズとを融合するステップが、カルマンフィルタを適用するステップを含む、請求項2に記載のコンピュータ実装方法。
  4. 前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測するステップが、
    前記カメラに対する前記環境の環境ポーズを推定するステップと、
    前記環境に対する前記ターゲットオブジェクトのターゲットポーズを推定するステップと、
    前記環境に対する前記推定されたターゲットポーズに基づいて、前記カメラに対する前記ターゲットポーズを推測するステップと
    を含む、請求項1に記載のコンピュータ実装方法。
  5. 前記環境地図データが、前記カメラで取得された1つまたは複数の画像に対応する1つまたは複数のキーフレームに基づく、請求項1に記載のコンピュータ実装方法。
  6. 前記環境地図データを構築するステップが、キーフレームSLAM(Simultaneous Localization And Mapping)を含む、請求項5に記載のコンピュータ実装方法。
  7. 前記環境地図データを構築するステップが、候補キーフレームと、前記カメラによって取得された画像に対応する他のオンラインキーフレームとの間のポーズ差を計算することによって、前記1つまたは複数のキーフレームに前記候補キーフレームを追加するステップを含む、請求項5に記載のコンピュータ実装方法。
  8. 前記候補キーフレームと他のオンラインキーフレームとの間の前記ポーズ差を計算するステップが、前記ポーズ差を計算する際にオフラインキーフレームをスキップするステップを含む、請求項7に記載のコンピュータ実装方法。
  9. 前記ポーズ差が、前記候補キーフレームと他のオンラインキーフレームとの間の最小ポーズ差であり、前記ポーズ差がポーズしきい値を上回る場合、前記候補キーフレームを前記他のオンラインキーフレームに追加するステップをさらに備える、請求項7に記載のコンピュータ実装方法。
  10. オブジェクト認識システムにおけるターゲットオブジェクトを追跡するためのプログラムコードを記憶した非一時的コンピュータ可読記憶媒体であって、前記プログラムコードが、
    カメラで複数の画像を取得する命令と、
    同時に前記ターゲットオブジェクトを追跡して、前記複数の画像から環境地図データを動的に構築する命令であって、前記ターゲットオブジェクトを追跡する命令が、前記複数の画像のうちの少なくとも1つに基づいて、およびターゲット地図データに基づいて、前記カメラに対する前記ターゲットオブジェクトのターゲットポーズを推定しようとする命令を含む、命令と、
    前記カメラに対する前記ターゲットオブジェクトの追跡が成功したかを決定する命令と、失敗した場合、
    前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測する命令と
    を備える、非一時的コンピュータ可読記憶媒体。
  11. 前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測する前記命令が、
    前記カメラに対する前記環境の環境ポーズを推定する命令と、
    前記環境に対する前記ターゲットオブジェクトのターゲットポーズを推定する命令と、
    前記環境に対する前記推定されたターゲットポーズに基づいて、前記カメラに対する前記ターゲットポーズを推測する命令と
    を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  12. 前記環境地図データが、前記カメラで取得された1つまたは複数の画像に対応する1つまたは複数のキーフレームに基づく、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  13. 前記環境地図データを構築する前記命令が、キーフレームSLAM(Simultaneous Localization And Mapping)を含む、請求項12に記載の非一時的コンピュータ可読記憶媒体。
  14. 前記環境地図データを構築する前記命令が、前記1つまたは複数のキーフレームに候補キーフレームを追加して、前記候補キーフレームと、前記カメラによって取得された画像に対応する他のオンラインキーフレームとの間のポーズ差を計算する命令を含む、請求項12に記載の非一時的コンピュータ可読記憶媒体。
  15. 前記候補キーフレームと他のオンラインキーフレームとの間の前記ポーズ差を計算する前記命令が、前記ポーズ差を計算する際にオフラインキーフレームをスキップする命令を含む、請求項14に記載の非一時的コンピュータ可読記憶媒体。
  16. 前記ポーズ差が、前記候補キーフレームと他のオンラインキーフレームとの間の最小ポーズ差であり、前記ポーズ差がポーズしきい値を上回る場合、前記候補キーフレームを前記他のオンラインキーフレームに追加する命令をさらに備える、請求項14に記載の非一時的コンピュータ可読記憶媒体。
  17. 装置であって、
    オブジェクト認識システムにおけるターゲットオブジェクトを追跡するためのプログラムコードを記憶するように適合されたメモリと、
    前記プログラムコード内に含まれる命令にアクセスして実行するように適合された処理ユニットと
    を備え、前記命令が前記処理ユニットによって実行されると、前記処理ユニットが前記装置に、
    カメラで複数の画像を取得することと、
    同時に前記ターゲットオブジェクトを追跡して、前記複数の画像から環境地図データを動的に構築することであって、前記ターゲットオブジェクトを追跡することが、前記複数の画像のうちの少なくとも1つに基づいて、およびターゲット地図データに基づいて、前記カメラに対する前記ターゲットオブジェクトのターゲットポーズを推定しようとすることを含むことと、
    前記カメラに対する前記ターゲットオブジェクトの追跡が成功したかを決定することと、失敗した場合、
    前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測することと
    を行わせるように指示する、装置。
  18. 前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測する前記命令が、
    前記カメラに対する前記環境の環境ポーズを推定する命令と、
    前記環境に対する前記ターゲットオブジェクトのターゲットポーズを推定する命令と、
    前記環境に対する前記推定されたターゲットポーズに基づいて、前記カメラに対する前記ターゲットポーズを推測する命令と
    含む、請求項17に記載の装置。
  19. 前記環境地図データが、前記カメラで取得された1つまたは複数の画像に対応する1つまたは複数のキーフレームに基づく、請求項17に記載の装置。
  20. 前記環境地図データを構築する前記命令が、キーフレームSLAM(Simultaneous Localization And Mapping)を含む、請求項19に記載の装置。
  21. 前記環境地図データを構築する前記命令が、前記1つまたは複数のキーフレームに候補キーフレームを追加して、前記候補キーフレームと、前記カメラによって取得された画像に対応する他のオンラインキーフレームとの間のポーズ差を計算する命令を含む、請求項19に記載の装置。
  22. 前記候補キーフレームと他のオンラインキーフレームとの間の前記ポーズ差を計算する前記命令が、前記ポーズ差を計算する際にオフラインキーフレームをスキップする命令を含む、請求項21に記載の装置。
  23. 前記ポーズ差が、前記候補キーフレームと他のオンラインキーフレームとの間の最小ポーズ差であり、前記ポーズ差がポーズしきい値を上回る場合、前記候補キーフレームを前記他のオンラインキーフレームに追加する命令をさらに備える、請求項21に記載の装置。
  24. 前記複数の画像を取得するための前記カメラをさらに備える、請求項17に記載の装置。
  25. カメラで複数の画像を取得するための手段と、
    同時に、ターゲットオブジェクトを追跡し、かつ、前記複数の画像から環境地図データを動的に構築するための手段であって、前記ターゲットオブジェクトを追跡するための前記手段が、前記複数の画像のうちの少なくとも1つに基づいて、およびターゲット地図データに基づいて、前記カメラに対する前記ターゲットオブジェクトのターゲットポーズを推定しようとするための手段を含む、手段と、
    前記カメラに対する前記ターゲットオブジェクトの前記追跡が成功したかどうかを決定するための手段と、
    前記カメラに対する前記ターゲットオブジェクトの前記追跡が失敗した場合、前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測するための手段と
    を備える、装置。
  26. 前記カメラに対する前記ターゲットオブジェクトの追跡が成功したと決定されると、前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測するための手段と、
    前記推定されたターゲットポーズと前記推測されたターゲットポーズとを融合するための手段と
    をさらに備える、請求項25に記載の装置。
  27. 前記環境地図データに基づいて、前記カメラに対する前記ターゲットポーズを推測するための前記手段が、
    前記カメラに対する前記環境の環境ポーズを推定するための手段と、
    前記環境に対する前記ターゲットオブジェクトのターゲットポーズを推定するための手段と、
    前記環境に対する前記推定されたターゲットポーズに基づいて、前記カメラに対する前記ターゲットポーズを推測するための手段と
    を含む、請求項25に記載の装置。
  28. 前記環境地図データが、前記カメラで取得された1つまたは複数の画像に対応する1つまたは複数のキーフレームに基づき、前記環境地図データを構築するための前記手段が、キーフレームSLAM(Simultaneous Localization And Mapping)を含む、請求項25に記載の装置。
  29. 前記環境地図データが、前記カメラで取得された1つまたは複数の画像に対応する1つまたは複数のキーフレームに基づき、前記環境地図データを構築するための前記手段が、候補キーフレームと、前記カメラによって取得された画像に対応する他のオンラインキーフレームとの間のポーズ差を計算することによって、前記1つまたは複数のキーフレームに前記候補キーフレームを追加するための手段を含む、請求項25に記載の装置。
  30. 前記ポーズ差が、前記候補キーフレームと他のオンラインキーフレームとの間の最小ポーズ差であり、前記装置が、前記ポーズ差がポーズしきい値を上回る場合、前記候補キーフレームを前記他のオンラインキーフレームに追加するための手段をさらに備える、請求項29に記載の装置。
JP2016520066A 2013-10-04 2014-09-25 動的に構築された環境地図データに基づくオブジェクト追跡 Active JP6144828B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361887211P 2013-10-04 2013-10-04
US61/887,211 2013-10-04
US14/494,947 2014-09-24
US14/494,947 US9524434B2 (en) 2013-10-04 2014-09-24 Object tracking based on dynamically built environment map data
PCT/US2014/057522 WO2015050773A1 (en) 2013-10-04 2014-09-25 Object tracking based on dynamically built environment map data

Publications (3)

Publication Number Publication Date
JP2016536668A JP2016536668A (ja) 2016-11-24
JP2016536668A5 true JP2016536668A5 (ja) 2017-03-23
JP6144828B2 JP6144828B2 (ja) 2017-06-07

Family

ID=52776984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016520066A Active JP6144828B2 (ja) 2013-10-04 2014-09-25 動的に構築された環境地図データに基づくオブジェクト追跡

Country Status (6)

Country Link
US (1) US9524434B2 (ja)
EP (1) EP3053099A1 (ja)
JP (1) JP6144828B2 (ja)
KR (1) KR101812158B1 (ja)
CN (1) CN105593877B (ja)
WO (1) WO2015050773A1 (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9811731B2 (en) * 2013-10-04 2017-11-07 Qualcomm Incorporated Dynamic extension of map data for object detection and tracking
US9928656B2 (en) * 2015-09-11 2018-03-27 Futurewei Technologies, Inc. Markerless multi-user, multi-object augmented reality on mobile devices
US10073531B2 (en) 2015-10-07 2018-09-11 Google Llc Electronic device pose identification based on imagery and non-image sensor data
JP6775969B2 (ja) * 2016-02-29 2020-10-28 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US11017610B2 (en) * 2016-05-18 2021-05-25 Google Llc System and method for fault detection and recovery for concurrent odometry and mapping
US10802147B2 (en) 2016-05-18 2020-10-13 Google Llc System and method for concurrent odometry and mapping
US10890600B2 (en) 2016-05-18 2021-01-12 Google Llc Real-time visual-inertial motion tracking fault detection
US10025984B2 (en) * 2016-07-18 2018-07-17 X Development Llc Delegation of object and pose detection
US10593116B2 (en) 2016-10-24 2020-03-17 Snap Inc. Augmented reality object manipulation
US10242503B2 (en) 2017-01-09 2019-03-26 Snap Inc. Surface aware lens
US10843068B2 (en) * 2017-01-18 2020-11-24 Xvisio Technology Corp. 6DoF inside-out tracking game controller
US11432879B2 (en) 2017-08-18 2022-09-06 Siemens Healthcare Gmbh Method and apparatus for wide area multi-body 6D pose tracking system
CN111033425A (zh) * 2017-09-04 2020-04-17 日本电产株式会社 移动体、位置推断装置以及计算机程序
EP3692336B1 (en) * 2017-10-06 2022-05-18 Qualcomm Incorporated Simultaneous relocation and reinitialization of vslam
CA3031276A1 (en) 2018-02-08 2019-08-08 Ascension Technology Corporation Compensating for distortion in an electromagnetic tracking system
KR102557049B1 (ko) * 2018-03-30 2023-07-19 한국전자통신연구원 Slam 기반 카메라 추적에서 라벨된 키프레임을 이용한 이미지 특징 매칭 방법 및 장치
US11030813B2 (en) 2018-08-30 2021-06-08 Snap Inc. Video clip object tracking
US11037368B2 (en) 2018-09-11 2021-06-15 Samsung Electronics Co., Ltd. Localization method and apparatus of displaying virtual object in augmented reality
KR20200046437A (ko) 2018-10-24 2020-05-07 삼성전자주식회사 영상 및 맵 데이터 기반 측위 방법 및 장치
US11176737B2 (en) 2018-11-27 2021-11-16 Snap Inc. Textured mesh building
US10909692B2 (en) * 2018-12-14 2021-02-02 Andrew Bennett System and method of detecting and acting upon moving objects
US11164326B2 (en) 2018-12-18 2021-11-02 Samsung Electronics Co., Ltd. Method and apparatus for calculating depth map
EP3899865A1 (en) 2018-12-20 2021-10-27 Snap Inc. Virtual surface modification
US10984575B2 (en) 2019-02-06 2021-04-20 Snap Inc. Body pose estimation
US11189098B2 (en) 2019-06-28 2021-11-30 Snap Inc. 3D object camera customization system
JP7438684B2 (ja) * 2019-07-30 2024-02-27 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US11232646B2 (en) 2019-09-06 2022-01-25 Snap Inc. Context-based virtual object rendering
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
US11263817B1 (en) 2019-12-19 2022-03-01 Snap Inc. 3D captions with face tracking
US11227442B1 (en) 2019-12-19 2022-01-18 Snap Inc. 3D captions with semantic graphical elements
WO2021256103A1 (ja) * 2020-06-19 2021-12-23 日本電気株式会社 測位装置、推定方法、及び非一時的なコンピュータ可読媒体
US11615592B2 (en) 2020-10-27 2023-03-28 Snap Inc. Side-by-side character animation from realtime 3D body motion capture
US11660022B2 (en) 2020-10-27 2023-05-30 Snap Inc. Adaptive skeletal joint smoothing
WO2022092511A1 (ko) * 2020-10-30 2022-05-05 에스케이텔레콤 주식회사 3차원 맵을 생성하는 방법 및 생성된 3차원 맵을 이용하여 사용자 단말의 포즈를 결정하는 방법
US11748931B2 (en) 2020-11-18 2023-09-05 Snap Inc. Body animation sharing and remixing
US11450051B2 (en) 2020-11-18 2022-09-20 Snap Inc. Personalized avatar real-time motion capture
US11734894B2 (en) 2020-11-18 2023-08-22 Snap Inc. Real-time motion transfer for prosthetic limbs
CN112887793B (zh) * 2021-01-25 2023-06-13 脸萌有限公司 视频处理方法、显示设备和存储介质
CN112926514A (zh) * 2021-03-26 2021-06-08 哈尔滨工业大学(威海) 一种多目标检测及跟踪方法、系统、存储介质及应用
US11880947B2 (en) 2021-12-21 2024-01-23 Snap Inc. Real-time upper-body garment exchange
US11847259B1 (en) 2022-11-23 2023-12-19 Google Llc Map-aided inertial odometry with neural network for augmented reality devices

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100533033B1 (ko) * 2003-07-28 2005-12-02 엘지전자 주식회사 디지털 영상 처리 기술을 이용한 위치 추적 시스템 및 방법
KR100548418B1 (ko) * 2003-10-31 2006-02-02 엘지전자 주식회사 카메라 일체형 휴대 단말기의 촬영 제한 방법 및 시스템
US8649565B1 (en) 2009-06-18 2014-02-11 Hrl Laboratories, Llc System for automatic object localization based on visual simultaneous localization and mapping (SLAM) and cognitive swarm recognition
US9135514B2 (en) 2010-05-21 2015-09-15 Qualcomm Incorporated Real time tracking/detection of multiple targets
US8638986B2 (en) 2011-04-20 2014-01-28 Qualcomm Incorporated Online reference patch generation and pose estimation for augmented reality
WO2012166814A1 (en) 2011-05-31 2012-12-06 Honda Motor Co., Ltd. Online environment mapping
US20120306850A1 (en) * 2011-06-02 2012-12-06 Microsoft Corporation Distributed asynchronous localization and mapping for augmented reality
US9578226B2 (en) 2012-04-12 2017-02-21 Qualcomm Incorporated Photometric registration from arbitrary geometry for augmented reality
US9147122B2 (en) 2012-05-31 2015-09-29 Qualcomm Incorporated Pose estimation based on peripheral information
US9811731B2 (en) * 2013-10-04 2017-11-07 Qualcomm Incorporated Dynamic extension of map data for object detection and tracking

Similar Documents

Publication Publication Date Title
JP2016536668A5 (ja)
JP2016533557A5 (ja)
JP2017529620A5 (ja)
JP6939111B2 (ja) 画像認識装置および画像認識方法
JP2016522485A5 (ja)
MX2019006588A (es) Sistema y metodo de busqueda por apariencia.
JP2017508197A5 (ja)
JP2020517015A5 (ja)
GB2549618A (en) System and method for image registration in medical imaging system
RU2016144028A (ru) Человекоподобный робот со способностью автономного функцинирования
JP2017531240A5 (ja)
RU2016148407A (ru) Основанный на правилах анализ важности видео
JP2016504611A5 (ja)
JP2017528731A5 (ja)
JP2014137756A5 (ja)
JP2016535335A5 (ja)
JP2016514865A5 (ja)
JP2014241578A5 (ja)
GB2594657A (en) Damage detection from multi-view visual data
JP2012252507A5 (ja)
JP2019036167A5 (ja)
JP2015520581A5 (ja)
JP2013161405A5 (ja) 被写体判定装置、被写体判定方法及びプログラム
JP2017529029A5 (ja)
JP2018536550A5 (ja)