JP2021181977A - モバイル・エッジ・コンピューティングに基づく視覚測位方法及び装置 - Google Patents
モバイル・エッジ・コンピューティングに基づく視覚測位方法及び装置 Download PDFInfo
- Publication number
- JP2021181977A JP2021181977A JP2021048382A JP2021048382A JP2021181977A JP 2021181977 A JP2021181977 A JP 2021181977A JP 2021048382 A JP2021048382 A JP 2021048382A JP 2021048382 A JP2021048382 A JP 2021048382A JP 2021181977 A JP2021181977 A JP 2021181977A
- Authority
- JP
- Japan
- Prior art keywords
- mobile edge
- edge computing
- image
- target image
- computing node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 74
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000007613 environmental effect Effects 0.000 claims description 39
- 230000015654 memory Effects 0.000 claims description 20
- 238000005516 engineering process Methods 0.000 claims description 9
- 238000010845 search algorithm Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 238000010295 mobile communication Methods 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 7
- 238000013519 translation Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
Description
モバイル・エッジ・コンピューティングノードは、前記モバイル・エッジ・コンピューティングノードのカバー領域内の被測位デバイスによって撮影された環境画像を受信することと、
前記モバイル・エッジ・コンピューティングノードは、複数の候補画像から、前記環境画像とマッチングする目標画像を決定し、前記目標画像を撮影しているデバイスのポーズ情報に基づいて、前記被測位デバイスのポーズ情報をコンピューティングすることと、
前記モバイル・エッジ・コンピューティングノードは、前記被測位デバイスが前記ポーズ情報から電子地図における測位情報を決定するために、前記被測位装置のポーズ情報を前記被測位デバイスに送信することと、
を含むモバイル・エッジ・コンピューティングに基づく視覚測位方法を提供する。
モバイル・エッジ・コンピューティングノードのカバー領域内の被測位装置によって撮影された環境画像を受信するための受信モジュールと、
複数の候補画像から、前記環境画像とマッチングする目標画像を決定し、前記目標画像を撮影しているデバイスのポーズ情報に基づいて、前記被測位デバイスのポーズ情報をコンピューティングするためのコンピューティングモジュールと、
前記被測位デバイスが前記ポーズ情報から電子地図における測位情報を決定するために、前記被測位デバイスのポーズ情報を前記被測位デバイスに送信するための送信モジュールと、
を含むモバイル・エッジ・コンピューティングに基づく視覚測位装置を提供する。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサがいずれかの実施形態に提供されるモバイル・エッジ・コンピューティングに基づく視覚測位方法を実行できるように前記少なくとも1つのプロセッサに実行され、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記少なくとも1つのプロセッサに通信可能に接続されているメモリと、
を含む電子デバイスを提供する。
S110:モバイル・エッジ・コンピューティングノードは、モバイル・エッジ・コンピューティングノードのカバー領域内の被測位デバイスによって撮影された環境画像を受信することを含む。
S210:モバイル・エッジ・コンピューティングノードは、モバイル・エッジ・コンピューティングノードのカバー領域内の被測位デバイスによって撮影された環境画像を受信することと、
S220:モバイル・エッジ・コンピューティングノードは、複数の候補画像から、環境画像とマッチングする目標画像を決定することと、
を含む。
O1とO2は、それぞれ目標画像と環境画像を撮影しているカメラの光心である。以下のような式(1)となり、
S310:モバイル・エッジ・コンピューティングノードは、更新後の複数の候補画像と、更新後の複数の候補画像を撮影したデバイスのポーズ情報、及び更新後の視覚測位モデルをサーバから取得することを含む。
S410:モバイル・エッジ・コンピューティングノードは、第5世代の移動通信技術により、モバイル・エッジ・コンピューティングノードのカバー領域内の被測位デバイスによって撮影された環境画像を受信することを含む。
モバイル・エッジ・コンピューティングノードのカバー領域内の被測位装置によって撮影された環境画像を受信するための受信モジュール501と、
複数の候補画像から、環境画像とマッチングする目標画像を決定し、目標画像を撮影しているデバイスのポーズ情報に基づいて、被測位デバイスのポーズ情報をコンピューティングするためのコンピューティングモジュール502と、
被測位デバイスがポーズ情報から電子地図における測位情報を決定するために、被測位デバイスのポーズ情報を被測位デバイスに送信するための送信モジュール503と、を含む。
Claims (17)
- モバイル・エッジ・コンピューティングノードは、前記モバイル・エッジ・コンピューティングノードのカバー領域内の被測位デバイスによって撮影された環境画像を受信することと、
前記モバイル・エッジ・コンピューティングノードは、複数の候補画像から、前記環境画像とマッチングする目標画像を決定し、前記目標画像を撮影しているデバイスのポーズ情報に基づいて、前記被測位デバイスのポーズ情報をコンピューティングすることと、
前記モバイル・エッジ・コンピューティングノードは、前記被測位デバイスが前記ポーズ情報から電子地図における測位情報を決定するために、前記被測位装置のポーズ情報を前記被測位デバイスに送信することと、
を含むモバイル・エッジ・コンピューティングに基づく視覚測位方法。 - 前記複数の候補画像は、前記モバイル・エッジ・コンピューティングノードのカバー領域内で撮影されたものである、請求項1に記載の方法。
- 前記モバイル・エッジ・コンピューティングノードは、複数の候補画像から、前記環境画像とマッチングする目標画像を決定し、前記目標画像を撮影しているデバイスのポーズ情報に基づいて、前記被測位デバイスのポーズ情報をコンピューティングすることは、
前記モバイル・エッジ・コンピューティングノードは、前記環境画像とマッチングする目標画像を決定することと、
前記モバイル・エッジ・コンピューティングノードは、前記環境画像と前記目標画像とがマッチングした特徴点ペアセットをコンピューティングすることと、
前記モバイル・エッジ・コンピューティングノードは、前記目標画像を撮影しているデバイスのポーズ情報と前記特徴点ペアセットに基づいて、前記被測位デバイスのポーズ情報をコンピューティングすることと、を含む請求項1に記載の方法。 - 前記モバイル・エッジ・コンピューティングノードは、複数の候補画像から、前記環境画像とマッチングする目標画像を決定することは、
前記モバイル・エッジ・コンピューティングノードは、前記目標画像に対して特徴抽出を行い、前記目標画像の画像特徴を得ることと、
前記モバイル・エッジ・コンピューティングノードは、複数の候補画像から、前記環境画像の画像特徴とマッチングする目標画像を、近似最近傍探索アルゴリズムを用いて探索することと、を含む請求項3に記載の方法。 - 前記モバイル・エッジ・コンピューティングノードは、複数の候補画像から、前記環境画像とマッチングする目標画像を決定し、前記目標画像を撮影しているデバイスのポーズ情報に基づいて、前記被測位デバイスのポーズ情報をコンピューティングすることは、
前記モバイル・エッジ・コンピューティングノードは、視覚測位モデルによって、前記環境画像とマッチングする目標画像を決定し、前記目標画像を撮影しているデバイスのポーズ情報に基づいて、前記被測位デバイスのポーズ情報をコンピューティングすること、を含む請求項1に記載の方法。 - 前記モバイル・エッジ・コンピューティングノードは、前記モバイル・エッジ・コンピューティングノードのカバー領域内の被測位デバイスによって撮影された環境画像を受信することの前に、
前記モバイル・エッジ・コンピューティングノードは、更新後の複数の候補画像と、更新後の複数の候補画像を撮影したデバイスのポーズ情報、及び更新後の前記視覚測位モデルをサーバから取得すること、をさらに含む請求項5に記載の方法。 - 前記モバイル・エッジ・コンピューティングノードは、前記モバイル・エッジ・コンピューティングノードのカバー領域内の被測位デバイスによって撮影された環境画像を受信することは、
前記モバイル・エッジ・コンピューティングノードは、第5世代の移動通信技術により、前記モバイル・エッジ・コンピューティングノードのカバー領域内の被測位デバイスによって撮影された環境画像を受信すること、を含む請求項1〜6の何れか一項に記載の方法。 - モバイル・エッジ・コンピューティングノードに配置されているモバイル・エッジ・コンピューティングに基づく視覚測位装置であって、
前記モバイル・エッジ・コンピューティングノードのカバー領域内の被測位装置によって撮影された環境画像を受信するための受信モジュールと、
複数の候補画像から、前記環境画像とマッチングする目標画像を決定し、前記目標画像を撮影しているデバイスのポーズ情報に基づいて、前記被測位デバイスのポーズ情報をコンピューティングするためのコンピューティングモジュールと、
前記被測位デバイスが前記ポーズ情報から電子地図における測位情報を決定するために、前記被測位デバイスのポーズ情報を前記被測位デバイスに送信するための送信モジュールと、
を含むモバイル・エッジ・コンピューティングに基づく視覚測位装置。 - 前記複数の候補画像は、前記モバイル・エッジ・コンピューティングノードのカバー領域内で撮影されたものである、請求項8に記載の装置。
- 前記コンピューティングモジュールは、
複数の候補画像から、前記環境画像とマッチングする目標画像を決定するための決定ユニットと、
前記環境画像と前記目標画像とがマッチングした特徴点ペアセットをコンピューティングするための特徴点ペアセットコンピューティングユニットと、
前記目標画像を撮影しているデバイスのポーズ情報と前記特徴点ペアセットに基づいて、前記被測位デバイスのポーズ情報をコンピューティングするためのポーズ情報コンピューティングユニットと、を含む請求項8に記載の装置。 - 前記決定ユニットは、具体的に、前記目標画像に対して特徴抽出を行って、前記目標画像の画像特徴が得られ、複数の候補画像から、前記環境画像の画像特徴とマッチングする目標画像を、近似最近傍探索アルゴリズムを用いて探索する、請求項10に記載の装置。
- 前記コンピューティングユニットは、視覚測位モデルによって、前記環境画像とマッチングする目標画像を決定し、前記目標画像を撮影しているデバイスのポーズ情報に基づいて、前記被測位デバイスのポーズ情報をコンピューティングする、請求項8に記載の装置。
- 前記モバイル・エッジ・コンピューティングノードのカバー領域内の被測位デバイスによって撮影された環境画像を受信する前に、更新後の複数の候補画像と、更新後の複数の候補画像を撮影したデバイスのポーズ情報、及び更新後の前記視覚測位モデルをサーバから取得するための更新モジュールをさらに含む請求項12に記載の装置。
- 前記受信モジュールは、具体的に、第5世代の移動通信技術により、前記モバイル・エッジ・コンピューティングノードのカバー領域内の被測位デバイスによって撮影された環境画像を受信する、請求項8〜13の何れか一項に記載の装置。
- 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサが請求項1〜7の何れか一項に記載のモバイル・エッジ・コンピューティングに基づく視覚測位方法を実行できるように前記少なくとも1つのプロセッサに実行され、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記少なくとも1つのプロセッサに通信可能に接続されているメモリと、
を含むモバイル・エッジ・コンピューティングノード。 - コンピュータに、請求項1〜7の何れか一項に記載のモバイル・エッジ・コンピューティングに基づく視覚測位方法を実行させるためのコンピュータ命令を記憶する非一時的コンピュータ可読記憶媒体。
- コンピュータプログラムであって、
プロセッサにより実行されると、請求項1〜7の何れか一項に記載のモバイル・エッジ・コンピューティングに基づく視覚測位方法を実行させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010501319.8A CN111649724B (zh) | 2020-06-04 | 2020-06-04 | 基于移动边缘计算的视觉定位方法和装置 |
CN202010501319.8 | 2020-06-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021181977A true JP2021181977A (ja) | 2021-11-25 |
Family
ID=72344781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021048382A Pending JP2021181977A (ja) | 2020-06-04 | 2021-03-23 | モバイル・エッジ・コンピューティングに基づく視覚測位方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11380012B2 (ja) |
EP (1) | EP3842748A3 (ja) |
JP (1) | JP2021181977A (ja) |
KR (1) | KR20210036317A (ja) |
CN (1) | CN111649724B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112150507B (zh) * | 2020-09-29 | 2024-02-02 | 厦门汇利伟业科技有限公司 | 一种物体姿态和位移的3d模型同步重现方法及系统 |
US20220201256A1 (en) * | 2020-12-22 | 2022-06-23 | Here Global B.V. | Method, apparatus, and system for capturing an image sequence for a visual positioning service request |
CN112954269B (zh) * | 2021-01-08 | 2023-06-06 | 鹏城实验室 | 一种用于大规模视觉计算系统的节点协同选择方法 |
JP2022143412A (ja) * | 2021-03-17 | 2022-10-03 | 株式会社東芝 | 画像処理装置および画像処理方法 |
CN113379803B (zh) * | 2021-07-07 | 2024-02-02 | 上海谦尊升网络科技有限公司 | 一种基于视觉图像的定位方法 |
CN113938816B (zh) * | 2021-09-10 | 2023-04-28 | 中国联合网络通信集团有限公司 | 算力资源调度方法及其装置 |
CN113888635B (zh) * | 2021-09-29 | 2023-04-18 | 北京百度网讯科技有限公司 | 视觉定位方法、相关装置 |
CN114051264B (zh) * | 2021-10-15 | 2023-12-01 | 鹏城实验室 | 一种基于用户体验的边缘自适应视频加速方法及相关装置 |
CN114526739B (zh) * | 2022-01-25 | 2024-05-07 | 中南大学 | 移动机器人室内重定位方法、计算机装置及产品 |
CN114821273B (zh) * | 2022-03-10 | 2023-06-30 | 慧之安信息技术股份有限公司 | 基于边缘计算的天文望远镜设备智能化方法和装置 |
CN115019167B (zh) * | 2022-05-26 | 2023-11-07 | 中国电信股份有限公司 | 基于移动终端的融合定位方法、系统、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015529911A (ja) * | 2012-09-28 | 2015-10-08 | インテル コーポレイション | 拡張現実情報の決定 |
JP2016066270A (ja) * | 2014-09-25 | 2016-04-28 | Kddi株式会社 | 作業類似度算出方法、装置およびプログラム |
JP2019068429A (ja) * | 2018-11-08 | 2019-04-25 | パイオニア株式会社 | 撮影条件推定装置及び方法、端末装置、コンピュータプログラム並びに記録媒体 |
WO2019187816A1 (ja) * | 2018-03-30 | 2019-10-03 | 日本電産シンポ株式会社 | 移動体および移動体システム |
JP2020080147A (ja) * | 2018-11-13 | 2020-05-28 | 株式会社東芝 | 保全活動サポートシステムおよび保全活動サポート方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105844696B (zh) * | 2015-12-31 | 2019-02-05 | 清华大学 | 基于射线模型三维重构的图像定位方法以及装置 |
US9964955B2 (en) * | 2016-08-04 | 2018-05-08 | Canvas Technology, Inc. | System and methods of determining a geometric pose of a camera based on spatial and visual mapping |
CN107063189A (zh) * | 2017-01-19 | 2017-08-18 | 上海勤融信息科技有限公司 | 基于视觉的定位系统及方法 |
CN106813672B (zh) * | 2017-01-22 | 2020-02-14 | 深圳悉罗机器人有限公司 | 移动机器人的导航方法及移动机器人 |
US10282860B2 (en) * | 2017-05-22 | 2019-05-07 | Honda Motor Co., Ltd. | Monocular localization in urban environments using road markings |
CN108225348B (zh) * | 2017-12-29 | 2021-08-24 | 百度在线网络技术(北京)有限公司 | 地图创建以及运动实体定位的方法和装置 |
CN110631554B (zh) * | 2018-06-22 | 2021-11-30 | 北京京东乾石科技有限公司 | 机器人位姿的确定方法、装置、机器人和可读存储介质 |
CN109141396B (zh) * | 2018-07-16 | 2022-04-26 | 南京航空航天大学 | 辅助信息与随机抽样一致算法融合的无人机位姿估计方法 |
CN110164135B (zh) * | 2019-01-14 | 2022-08-02 | 腾讯科技(深圳)有限公司 | 一种定位方法、定位装置及定位系统 |
CN109978755B (zh) * | 2019-03-11 | 2023-03-17 | 广州杰赛科技股份有限公司 | 全景图像合成方法、装置、设备与存储介质 |
CN110322500B (zh) * | 2019-06-28 | 2023-08-15 | Oppo广东移动通信有限公司 | 即时定位与地图构建的优化方法及装置、介质和电子设备 |
CN110415297B (zh) * | 2019-07-12 | 2021-11-05 | 北京三快在线科技有限公司 | 定位方法、装置及无人驾驶设备 |
CN110609311B (zh) * | 2019-10-10 | 2022-12-23 | 武汉理工大学 | 基于车载环视图像与毫米波雷达融合的智能车定位方法 |
-
2020
- 2020-06-04 CN CN202010501319.8A patent/CN111649724B/zh active Active
- 2020-12-04 US US17/112,221 patent/US11380012B2/en active Active
-
2021
- 2021-03-15 KR KR1020210033438A patent/KR20210036317A/ko not_active Application Discontinuation
- 2021-03-23 JP JP2021048382A patent/JP2021181977A/ja active Pending
- 2021-03-31 EP EP21166144.2A patent/EP3842748A3/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015529911A (ja) * | 2012-09-28 | 2015-10-08 | インテル コーポレイション | 拡張現実情報の決定 |
JP2016066270A (ja) * | 2014-09-25 | 2016-04-28 | Kddi株式会社 | 作業類似度算出方法、装置およびプログラム |
WO2019187816A1 (ja) * | 2018-03-30 | 2019-10-03 | 日本電産シンポ株式会社 | 移動体および移動体システム |
JP2019068429A (ja) * | 2018-11-08 | 2019-04-25 | パイオニア株式会社 | 撮影条件推定装置及び方法、端末装置、コンピュータプログラム並びに記録媒体 |
JP2020080147A (ja) * | 2018-11-13 | 2020-05-28 | 株式会社東芝 | 保全活動サポートシステムおよび保全活動サポート方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3842748A3 (en) | 2021-10-06 |
US20210383568A1 (en) | 2021-12-09 |
KR20210036317A (ko) | 2021-04-02 |
CN111649724B (zh) | 2022-09-06 |
EP3842748A2 (en) | 2021-06-30 |
US11380012B2 (en) | 2022-07-05 |
CN111649724A (zh) | 2020-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021181977A (ja) | モバイル・エッジ・コンピューティングに基づく視覚測位方法及び装置 | |
US10217231B2 (en) | Systems and methods for utilizing anchor graphs in mixed reality environments | |
US9361729B2 (en) | Techniques to present location information for social networks using augmented reality | |
JP7258066B2 (ja) | 測位方法、測位装置及び電子機器 | |
US20120242842A1 (en) | Terminal device, information processing device, object identifying method, program, and object identifying system | |
US11828606B2 (en) | Method and apparatus for updating point cloud | |
US20240118083A1 (en) | Localisation of mobile device using image and non-image sensor data in server processing | |
WO2021088498A1 (zh) | 虚拟物体显示方法以及电子设备 | |
CN111462029B (zh) | 视觉点云与高精地图融合方法、装置和电子设备 | |
CN112333491B (zh) | 视频处理方法、显示装置和存储介质 | |
CN112101209B (zh) | 用于路侧计算设备的确定世界坐标点云的方法和装置 | |
JP7487321B2 (ja) | 測位方法及びその装置、電子機器、記憶媒体、コンピュータプログラム製品、コンピュータプログラム | |
JP7164589B2 (ja) | 室内測位方法、装置、機器および記憶媒体 | |
US20220020216A1 (en) | Method for displaying annotation information, electronic device and storage medium | |
JP2021197157A (ja) | キーポイントの特定方法及び装置、機器、記憶媒体 | |
WO2021088497A1 (zh) | 虚拟物体显示方法、全局地图更新方法以及设备 | |
CN112102417A (zh) | 确定世界坐标的方法和装置及用于车路协同路侧相机的外参标定方法 | |
CN112632181B (zh) | 地图显示方法、装置、设备、存储介质和终端设备 | |
US20150109508A1 (en) | Method and apparatus for generating a media capture request using camera pose information | |
JP7269979B2 (ja) | 歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
US20240095265A1 (en) | Method and apparatus for retrieving 3d map | |
Komianos et al. | Design of a Computational Offloading Platform for Immersive Experiences in Digital Culture | |
WO2022252236A1 (zh) | 3d地图的编解码方法及装置 | |
CN117635697A (zh) | 位姿确定方法、装置、设备、存储介质和程序产品 | |
JP2024521375A (ja) | 3dマップを取り出すための方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231121 |