JP6609640B2 - 電子デバイス上における環境マッピング用のフィーチャ・データの管理 - Google Patents
電子デバイス上における環境マッピング用のフィーチャ・データの管理 Download PDFInfo
- Publication number
- JP6609640B2 JP6609640B2 JP2017556874A JP2017556874A JP6609640B2 JP 6609640 B2 JP6609640 B2 JP 6609640B2 JP 2017556874 A JP2017556874 A JP 2017556874A JP 2017556874 A JP2017556874 A JP 2017556874A JP 6609640 B2 JP6609640 B2 JP 6609640B2
- Authority
- JP
- Japan
- Prior art keywords
- features
- electronic device
- feature
- data
- localization data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013507 mapping Methods 0.000 title claims description 27
- 230000004807 localization Effects 0.000 claims description 102
- 230000000007 visual effect Effects 0.000 claims description 80
- 238000003384 imaging method Methods 0.000 claims description 43
- 238000000034 method Methods 0.000 claims description 33
- 230000009467 reduction Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 11
- 238000011946 reduction process Methods 0.000 claims 1
- 230000036544 posture Effects 0.000 description 21
- 230000006835 compression Effects 0.000 description 16
- 238000007906 compression Methods 0.000 description 16
- 238000004458 analytical method Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000008901 benefit Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 239000000872 buffer Substances 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- Optics & Photonics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Image Generation (AREA)
- Complex Calculations (AREA)
Description
Claims (18)
- 電子デバイス[100]において、前記電子デバイスのローカライゼーション・データ[230]を、前記電子デバイスにおいてキャプチャされた視像[220]に基づいて、および、非視覚センサから取得された受信された非視覚姿勢情報[142]に基づいて生成する工程と、
キャプチャされた前記視像に基づいて前記電子デバイスの環境の複数のフィーチャを識別し[225]、前記ローカライゼーション・データ[230]において識別される複数のフィーチャの特徴に基づいて、識別されたフィーチャの各々に対し対応する品質値を割り当てる割り当て工程と、
品質値閾値を識別する工程であって、前記品質値閾値は、前記品質値の平均値と、前記品質値の中央値と、前記品質値閾値を超える品質値の数に基づく値と、のうちの1つ以上に基づいている、工程と、
前記品質値閾値未満の品質値を有するフィーチャに関連付けられているデータを除去することによって、前記複数のフィーチャの特徴に基づいて前記ローカライゼーション・データを削減する削減工程[232]と、
削減された前記ローカライゼーション・データに基づいて前記電子デバイスの前記環境をマッピングする工程[235]と、を備える、
方法。 - 前記複数のフィーチャの前記特徴は、キャプチャされた前記視像の互いに異なる画像における前記複数のフィーチャのそれぞれの観察数[454]を含む、
請求項1に記載の方法。 - 前記複数のフィーチャの前記特徴は、キャプチャされた前記視像の互いに異なる画像における前記複数のフィーチャのそれぞれの位置の一貫性[456]を含む、
請求項1に記載の方法。 - 電子デバイス[100]において、前記電子デバイスのローカライゼーション・データ[230]を、前記電子デバイスにおいてキャプチャされた視像[220]に基づいて、および、非視覚センサから取得された受信された非視覚姿勢情報[142]に基づいて生成する工程と、
キャプチャされた前記視像に基づいて前記電子デバイスの環境の複数のフィーチャを識別する工程[225]と、
前記複数のフィーチャの特徴に基づいて前記ローカライゼーション・データを削減する削減工程[232]と、
削減された前記ローカライゼーション・データに基づいて前記電子デバイスの前記環境をマッピングする工程[235]と、を備え、
前記複数のフィーチャの前記特徴は、キャプチャされた前記視像の互いに異なる画像における前記複数のフィーチャのそれぞれの前記電子デバイスからの距離[455]を含む、
方法。 - 前記複数のフィーチャの前記特徴は、キャプチャされた前記視像の互いに異なる画像における前記複数のフィーチャの変動性[458]を含む、
請求項1に記載の方法。 - 電子デバイス[100]において、前記電子デバイスのローカライゼーション・データ[230]を、前記電子デバイスにおいてキャプチャされた視像[220]に基づいて、および、非視覚センサから取得された受信された非視覚姿勢情報[142]に基づいて生成する工程と、
キャプチャされた前記視像に基づいて前記電子デバイスの環境の複数のフィーチャを識別する工程[225]と、
前記複数のフィーチャの特徴に基づいて前記ローカライゼーション・データを削減する削減工程[232]と、
削減された前記ローカライゼーション・データに基づいて前記電子デバイスの前記環境をマッピングする工程[235]と、を備え、
前記削減工程は、前記データから前記非視覚姿勢情報を除去する工程[340]を含む、
方法。 - 前記削減工程は、前記ローカライゼーション・データを幾何学的に圧縮する工程[344]を含む、
請求項1に記載の方法。 - 前記削減工程は、
前記ローカライゼーション・データのキーフレームを識別する工程[342]と、
前記ローカライゼーション・データのキーフレームに対応しないデータを除去する工程と、を含む、
請求項1に記載の方法。 - 前記割り当て工程は、前記品質値を、複数の画像でのフィーチャの位置の一貫性[456]と、フィーチャの観察数[454]と、前記フィーチャの距離[455]と、複数の画像でのフィーチャの互いに異なる位置の数[458]とのうち1以上に基づいて識別する工程を含む、
請求項1に記載の方法。 - 前記マッピングする工程は、
削減された前記ローカライゼーション・データからのフィーチャをフィーチャ記述子のデータベース[638,640]のフィーチャ記述子[450]と一致させる一致工程と、
前記一致工程に基づいてローカルの前記環境をマッピングする工程と、を含む、
請求項1に記載の方法。 - 視像をキャプチャする撮像センサ[114,118]と、
複数の非視覚センサと、
プロセッサ[602,604]と、を備える電子デバイスであって、前記プロセッサは、
電子デバイスにおいて、前記電子デバイスのローカライゼーション・データ[230]を、前記電子デバイスにおいてキャプチャされた視像[220]に基づいて、および、非視覚センサから取得された受信された非視覚姿勢情報[142]に基づいて生成し、
キャプチャされた前記視像に基づいて前記電子デバイスの環境の複数のフィーチャを識別し[225]、前記ローカライゼーション・データ[230]において識別される複数のフィーチャの特徴に基づいて、識別されたフィーチャの各々に対し対応する品質値を割り当て、
品質値閾値を識別することであって、前記品質値閾値は、前記品質値の平均値と、前記品質値の中央値と、前記品質値閾値を超える品質値の数に基づく値と、のうちの1つ以上に基づいている、識別することを行い、
前記品質値閾値未満の品質値を有するフィーチャに関連付けられているデータを除去することによって、前記複数のフィーチャの特徴に基づいて前記ローカライゼーション・データを削減し[232]、
削減された前記ローカライゼーション・データに基づいて前記電子デバイスの前記環境をマッピングする[235]、
電子デバイス。 - 前記複数のフィーチャの前記特徴は、キャプチャされた前記視像の互いに異なる画像における前記複数のフィーチャのそれぞれの観察数[454]を含む、
請求項11に記載の電子デバイス。 - 前記複数のフィーチャの前記特徴は、キャプチャされた前記視像の互いに異なる画像における前記複数のフィーチャのそれぞれの位置の一貫性[456]を含む、
請求項11に記載の電子デバイス。 - 視像をキャプチャする撮像センサ[114,118]と、
複数の非視覚センサと、
プロセッサ[602,604]と、を備える電子デバイスであって、前記プロセッサは、
電子デバイスにおいて、前記電子デバイスのローカライゼーション・データ[230]を、前記電子デバイスにおいてキャプチャされた視像[220]に基づいて、および、非視覚センサから取得された受信された非視覚姿勢情報[142]に基づいて生成し、
キャプチャされた前記視像に基づいて前記電子デバイスの環境の複数のフィーチャを識別し[225]、
前記複数のフィーチャの特徴に基づいて前記ローカライゼーション・データを削減し[232]、
削減された前記ローカライゼーション・データに基づいて前記電子デバイスの前記環境をマッピングし[235]、
前記複数のフィーチャの前記特徴は、キャプチャされた前記視像の互いに異なる画像における前記複数のフィーチャのそれぞれの前記電子デバイスからの距離[455]を含む、
電子デバイス。 - 前記複数のフィーチャの前記特徴は、キャプチャされた前記視像の互いに異なる画像における前記複数のフィーチャの変動性[458]を含む、
請求項11に記載の電子デバイス。 - 視像をキャプチャする撮像センサ[114,118]と、
複数の非視覚センサと、
プロセッサ[602,604]と、を備える電子デバイスであって、前記プロセッサは、
電子デバイスにおいて、前記電子デバイスのローカライゼーション・データ[230]を、前記電子デバイスにおいてキャプチャされた視像[220]に基づいて、および、非視覚センサから取得された受信された非視覚姿勢情報[142]に基づいて生成し、
キャプチャされた前記視像に基づいて前記電子デバイスの環境の複数のフィーチャを識別し[225]、
前記複数のフィーチャの特徴に基づいて前記ローカライゼーション・データを削減し[232]、
削減された前記ローカライゼーション・データに基づいて前記電子デバイスの前記環境をマッピングし[235]、
前記プロセッサは、前記データから前記非視覚姿勢情報を除去すること[340]によって前記ローカライゼーション・データを削減する、
電子デバイス。 - 前記プロセッサは、さらに前記ローカライゼーション・データを幾何学的に圧縮すること[344]によって前記ローカライゼーション・データを削減する、
請求項11に記載の電子デバイス。 - 前記プロセッサは、
前記ローカライゼーション・データのキーフレームを識別すること[342]と、
前記ローカライゼーション・データのキーフレームに対応しないデータを除去することと、によって前記ローカライゼーション・データを削減する、
請求項11に記載の電子デバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/823,283 | 2015-08-11 | ||
US14/823,283 US9940542B2 (en) | 2015-08-11 | 2015-08-11 | Managing feature data for environment mapping on an electronic device |
PCT/US2016/046294 WO2017027562A1 (en) | 2015-08-11 | 2016-08-10 | Managing feature data for environment mapping on an electronic device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018524657A JP2018524657A (ja) | 2018-08-30 |
JP6609640B2 true JP6609640B2 (ja) | 2019-11-20 |
Family
ID=56801795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017556874A Expired - Fee Related JP6609640B2 (ja) | 2015-08-11 | 2016-08-10 | 電子デバイス上における環境マッピング用のフィーチャ・データの管理 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9940542B2 (ja) |
EP (1) | EP3335153B1 (ja) |
JP (1) | JP6609640B2 (ja) |
KR (1) | KR102398478B1 (ja) |
CN (1) | CN107646109B (ja) |
DE (1) | DE112016002022T5 (ja) |
GB (1) | GB2553965B (ja) |
WO (1) | WO2017027562A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10572441B2 (en) * | 2015-08-19 | 2020-02-25 | Global Engineering Research and Technologies, LLC | Applications of peridynamic differential operator |
US11017610B2 (en) | 2016-05-18 | 2021-05-25 | Google Llc | System and method for fault detection and recovery for concurrent odometry and mapping |
US10890600B2 (en) | 2016-05-18 | 2021-01-12 | Google Llc | Real-time visual-inertial motion tracking fault detection |
US10802147B2 (en) | 2016-05-18 | 2020-10-13 | Google Llc | System and method for concurrent odometry and mapping |
US10339708B2 (en) * | 2016-11-01 | 2019-07-02 | Google Inc. | Map summarization and localization |
US10375374B2 (en) | 2017-03-29 | 2019-08-06 | Plethron Inc. | Dimension extractable object comprising spatial metadata for a captured image or video |
US10921825B2 (en) * | 2017-11-04 | 2021-02-16 | Automodality, Inc. | System and method for perceptive navigation of automated vehicles |
US11189054B2 (en) * | 2018-09-28 | 2021-11-30 | Apple Inc. | Localization and mapping using images from multiple devices |
TWI736188B (zh) * | 2019-03-22 | 2021-08-11 | 宏達國際電子股份有限公司 | 擴增實境資訊傳遞系統及方法 |
US11769258B2 (en) * | 2021-02-03 | 2023-09-26 | Qualcomm Incorporated | Feature processing in extended reality systems |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69712481T2 (de) | 1996-06-28 | 2002-12-19 | T. Eric Hopkins | Bilderfassungssystem und verfahren |
US7145478B2 (en) * | 2002-12-17 | 2006-12-05 | Evolution Robotics, Inc. | Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system |
US6871409B2 (en) | 2002-12-18 | 2005-03-29 | Snap-On Incorporated | Gradient calculating camera board |
US7557935B2 (en) | 2003-05-19 | 2009-07-07 | Itzhak Baruch | Optical coordinate input device comprising few elements |
KR100843085B1 (ko) * | 2006-06-20 | 2008-07-02 | 삼성전자주식회사 | 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치 |
KR100816269B1 (ko) * | 2006-09-22 | 2008-03-25 | 학교법인 포항공과대학교 | 언센티드 필터를 적용한 강인한 동시 위치 추정 및 지도작성 방법 |
JP5324240B2 (ja) * | 2009-01-29 | 2013-10-23 | 株式会社ゼンリン | 路面標示地図生成方法及び路面標示地図生成装置 |
JP2011043419A (ja) * | 2009-08-21 | 2011-03-03 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
WO2011052826A1 (ko) * | 2009-10-30 | 2011-05-05 | 주식회사 유진로봇 | 이동 로봇의 위치 인식을 위한 지도 생성 및 갱신 방법 |
KR20120070291A (ko) * | 2010-12-21 | 2012-06-29 | 삼성전자주식회사 | 보행 로봇 및 그의 동시 위치 인식 및 지도 작성 방법 |
US8798840B2 (en) * | 2011-09-30 | 2014-08-05 | Irobot Corporation | Adaptive mapping with spatial summaries of sensor data |
CN103247225B (zh) * | 2012-02-13 | 2015-04-29 | 联想(北京)有限公司 | 即时定位与地图构建方法和设备 |
EP4140414A1 (en) | 2012-03-07 | 2023-03-01 | Ziteo, Inc. | Methods and systems for tracking and guiding sensors and instruments |
US9177404B2 (en) * | 2012-10-31 | 2015-11-03 | Qualcomm Incorporated | Systems and methods of merging multiple maps for computer vision based tracking |
US20140341465A1 (en) | 2013-05-16 | 2014-11-20 | The Regents Of The University Of California | Real-time pose estimation system using inertial and feature measurements |
WO2015023634A2 (en) | 2013-08-12 | 2015-02-19 | Flyby Media, Inc. | Visual-based inertial navigation |
US9384402B1 (en) * | 2014-04-10 | 2016-07-05 | Google Inc. | Image and video compression for remote vehicle assistance |
CN103926927A (zh) * | 2014-05-05 | 2014-07-16 | 重庆大学 | 一种室内移动机器人双目视觉定位与三维建图方法 |
US9483879B2 (en) * | 2014-09-18 | 2016-11-01 | Microsoft Technology Licensing, Llc | Using free-form deformations in surface reconstruction |
-
2015
- 2015-08-11 US US14/823,283 patent/US9940542B2/en active Active
-
2016
- 2016-08-10 CN CN201680027380.5A patent/CN107646109B/zh not_active Expired - Fee Related
- 2016-08-10 JP JP2017556874A patent/JP6609640B2/ja not_active Expired - Fee Related
- 2016-08-10 DE DE112016002022.8T patent/DE112016002022T5/de not_active Ceased
- 2016-08-10 WO PCT/US2016/046294 patent/WO2017027562A1/en active Application Filing
- 2016-08-10 KR KR1020177031656A patent/KR102398478B1/ko active IP Right Grant
- 2016-08-10 EP EP16757407.8A patent/EP3335153B1/en active Active
- 2016-08-10 GB GB1716681.0A patent/GB2553965B/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
GB201716681D0 (en) | 2017-11-29 |
CN107646109A (zh) | 2018-01-30 |
EP3335153B1 (en) | 2022-10-05 |
US20170046594A1 (en) | 2017-02-16 |
GB2553965B (en) | 2021-11-24 |
WO2017027562A1 (en) | 2017-02-16 |
CN107646109B (zh) | 2021-10-01 |
JP2018524657A (ja) | 2018-08-30 |
DE112016002022T5 (de) | 2018-01-18 |
KR102398478B1 (ko) | 2022-05-13 |
EP3335153A1 (en) | 2018-06-20 |
KR20180039013A (ko) | 2018-04-17 |
GB2553965A (en) | 2018-03-21 |
US9940542B2 (en) | 2018-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6609640B2 (ja) | 電子デバイス上における環境マッピング用のフィーチャ・データの管理 | |
CN108028871B (zh) | 移动设备上的无标记的多用户多对象增强现实 | |
CN109791608B (zh) | 映射摘要和本地化 | |
CN108283018B (zh) | 电子设备和用于电子设备的姿态识别的方法 | |
EP3134870B1 (en) | Electronic device localization based on imagery | |
WO2019205851A1 (zh) | 位姿确定方法、装置、智能设备及存储介质 | |
EP2915140B1 (en) | Fast initialization for monocular visual slam | |
EP2880627B1 (en) | Localisation and mapping | |
US9646384B2 (en) | 3D feature descriptors with camera pose information | |
US10154190B2 (en) | Balancing exposure and gain at an electronic device based on device motion and scene distance | |
Yeh et al. | 3D reconstruction and visual SLAM of indoor scenes for augmented reality application | |
US11758100B2 (en) | Portable projection mapping device and projection mapping system | |
US11935286B2 (en) | Method and device for detecting a vertical planar surface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171211 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6609640 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |