JP2021190083A - 室内測位方法、装置、機器および記憶媒体 - Google Patents
室内測位方法、装置、機器および記憶媒体 Download PDFInfo
- Publication number
- JP2021190083A JP2021190083A JP2020215110A JP2020215110A JP2021190083A JP 2021190083 A JP2021190083 A JP 2021190083A JP 2020215110 A JP2020215110 A JP 2020215110A JP 2020215110 A JP2020215110 A JP 2020215110A JP 2021190083 A JP2021190083 A JP 2021190083A
- Authority
- JP
- Japan
- Prior art keywords
- image
- indoor
- feature point
- target
- target feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000001514 detection method Methods 0.000 claims description 37
- 238000012549 training Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 10
- 230000005484 gravity Effects 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/36—Indoor scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
第5態様では、本出願の実施例はコンピュータプログラムをさらに提供し、前記コンピュータプログラムにおける命令が実行された場合に、本出願の実施例のモデルパラメータ更新方法が実行される。
n×X+d=0 (1)
X=R−1(μ×x−t) (2)
という公式に従って目標特徴点の三次元空間位置の座標を求めることができる。
抽出して得られた特徴点と点群データの各データポイントの前記第1の室内画像における特徴点をマッチングし、マッチングして一致する特徴点を補助特徴点とし、前記第1の室内画像を予めトレーニングされた情報検出モデルに入力して、目標オブジェクトにおける目標特徴点の識別子および前記目標特徴点の第1の画像位置を出力し、前記目標特徴点の識別子に基づいて、予め記憶されたデータから前記目標特徴点に対応する三次元空間位置に索引を付け、前記補助特徴点の画像位置と前記補助特徴点の三次元空間位置、および前記目標特徴点の第1の画像位置と前記目標特徴点の三次元空間位置に基づいて、前記第1の室内画像のカメラ位置姿勢を決定して、ユーザの室内測位を実現する、ように説明することができる。
前記室内サンプル画像のカメラ姿勢、および前記室内サンプル画像内のピクセルの三次元空間における法線ベクトルに基づいて、前記室内サンプル画像における壁マスクを決定するためのマスク決定サブユニットと、前記室内サンプル画像における目標形状のオブジェクトを検出するためのオブジェクト検出サブユニットと、前記壁マスクを用いて、検出して得られた目標形状のオブジェクトから壁に位置する前記目標オブジェクトを決定するためのオブジェクト決定サブユニットと、を備える。
本出願の実施例によれば、コンピュータプログラムが提供される。当該コンピュータプログラムにおける命令が実行された場合に、本出願の実施例の室内測位方法が実行される。
Claims (21)
- ユーザが収集した第1の室内画像に基づいて、目標オブジェクトにおける目標特徴点の第1の画像位置および前記目標特徴点の識別子を取得するステップと、
前記目標特徴点の識別子に基づいて前記目標特徴点の三次元空間位置に索引を付けるステップであって、前記目標特徴点の三次元空間位置が、前記目標特徴点の第2の室内画像における第2の画像位置、前記第2の室内画像のカメラ姿勢、および前記目標オブジェクトの前記第2の室内画像における姿勢によって決定されるステップと、
前記目標特徴点の第1の画像位置および前記目標特徴点の三次元空間位置に基づいて、ユーザの室内位置を決定するステップと、
を含む室内測位方法。 - 前記目標特徴点の識別子に基づいて前記目標特徴点の三次元空間位置に索引を付ける前記ステップの前に、
前記目標オブジェクトの前記第2の室内画像における姿勢に基づいて、前記目標オブジェクトの三次元空間における姿勢を決定するステップと、
前記目標オブジェクトの三次元空間における姿勢、前記第2の室内画像のカメラ姿勢、および前記第2の画像位置に基づいて、前記目標特徴点の三次元空間位置を決定するステップと、
を含む請求項1に記載の方法。 - 前記目標オブジェクトの三次元空間における姿勢、前記第2の室内画像のカメラ姿勢、および前記第2の画像位置に基づいて、前記目標特徴点の三次元空間位置を決定するステップが、
前記目標オブジェクトの関連する平面方程式における空間特性パラメータを、前記目標オブジェクトの三次元空間における姿勢情報とするステップと、
前記目標オブジェクトの三次元空間における姿勢情報、前記第2の室内画像のカメラ姿勢、および前記第2の画像位置に基づいて、前記目標特徴点の三次元空間位置を決定するステップと、
を含む請求項2に記載の方法。 - 前記目標オブジェクトの前記第2の室内画像における姿勢に基づいて、前記目標オブジェクトの三次元空間における姿勢を決定するステップが、
前記第2の室内画像のカメラ姿勢、および前記目標オブジェクトの前記第2の室内画像における少なくとも1つの姿勢に基づいて、前記目標オブジェクトの三次元空間における姿勢を決定するステップを含む請求項2に記載の方法。 - ユーザが収集した第1の室内画像に基づいて、目標オブジェクトにおける目標特徴点の第1の画像位置を取得するステップが、
前記第1の室内画像を予めトレーニングされた情報検出モデルに入力して、前記目標特徴点の第1の画像位置を出力するステップを含み、
前記情報検出モデルが、
室内サンプル画像における前記目標オブジェクト、および前記目標オブジェクトにおける前記目標特徴点の第1の画像位置を検出し、
前記室内サンプル画像、および前記目標特徴点の第1の画像位置を用いて、初期モデルをトレーニングして前記情報検出モデルを得るという方式によって構築される請求項1から4のいずれか一項に記載の方法。 - 前記目標オブジェクトが壁に位置する目標形状のオブジェクトである場合、前記室内サンプル画像における前記目標オブジェクトを検出するステップが、
前記室内サンプル画像内のピクセルの三次元空間における法線ベクトルを決定するステップと、
前記室内サンプル画像のカメラ姿勢、および前記室内サンプル画像内のピクセルの三次元空間における法線ベクトルに基づいて、前記室内サンプル画像における壁マスクを決定するステップと、
前記室内サンプル画像における目標形状のオブジェクトを検出するステップと、
前記壁マスクを用いて、検出して得られた目標形状のオブジェクトから壁に位置する前記目標オブジェクトを決定するステップと、
を含む請求項5に記載の方法。 - 前記室内サンプル画像のカメラ姿勢、および前記室内サンプル画像内のピクセルの三次元空間における法線ベクトルに基づいて、前記室内サンプル画像における壁マスクを決定するステップが、
前記室内サンプル画像のカメラ姿勢、および前記室内サンプル画像内のピクセルの三次元空間における法線ベクトルに基づいて、法線ベクトルが重力方向と垂直である目標ピクセルを決定するステップと、
前記目標ピクセルに基づいて前記室内サンプル画像における壁マスクを決定するステップと、
を含む請求項6に記載の方法。 - 前記目標オブジェクトが平面オブジェクトである場合、前記壁マスクを用いて、検出して得られた目標形状のオブジェクトから壁に位置する前記目標オブジェクトを決定するステップが、
検出して得られた目標形状のオブジェクトから、壁に位置する候補オブジェクトを決定するステップと、
隣接する2フレームの室内サンプル画像に基づいて前記候補オブジェクトが平面オブジェクトであるか否かを決定するステップと、
前記候補オブジェクトが平面オブジェクトである場合、前記候補オブジェクトを前記目標オブジェクトとするステップと、
を含む請求項6に記載の方法。 - 隣接する2フレームの室内サンプル画像に基づいて前記候補オブジェクトが平面オブジェクトであるか否かを決定するステップが、
隣接する2フレームの室内サンプル画像に対して三角測量を行うステップと、
測定結果を用いて平面方程式フィッティングを行うステップと、
フィッティング結果に基づいて前記候補オブジェクトが平面オブジェクトであるか否かを決定するステップと、
を含む請求項8に記載の方法。 - 前記目標オブジェクトが平面オブジェクトである場合、前記室内サンプル画像および前記目標特徴点の第1の画像位置を用いて、初期モデルをトレーニングして前記情報検出モデルを得るステップが、
前記目標オブジェクトを前景として、前記前景を変換するステップと、
ランダム写真を背景とし、変換された後の前記前景および前記背景を合成して、少なくとも1つの新しいサンプル画像を得るステップと、
前記室内サンプル画像、前記少なくとも1つの新しいサンプル画像、および前記目標特徴点の第1の画像位置に基づいて、トレーニングサンプルセットを構築するステップと、
構築されたトレーニングサンプルセットを用いて前記初期モデルをトレーニングして、前記情報検出モデルを得るステップと、
を含む請求項5に記載の方法。 - 前記目標特徴点の第1の画像位置および前記目標特徴点の三次元空間位置に基づいて、ユーザの室内位置を決定するステップが、
前記第1の室内画像に基づいて補助特徴点を決定するステップと、
前記目標特徴点の第1の画像位置と前記目標特徴点の三次元空間位置、および前記補助特徴点の画像位置と前記補助特徴点の三次元空間位置に基づいて、ユーザの室内位置を決定するステップと、
を含む請求項1から4のいずれか一項に記載の方法。 - 前記第1の室内画像に基づいて補助特徴点を決定するステップが、
前記第1の室内画像に基づいて、室内環境の点群データを確立して、データポイントの前記第1の室内画像における第1の特徴点を決定するステップと、
前記第1の室内画像の第2の特徴点を抽出するステップと、
前記第1の特徴点と前記第2の特徴点とをマッチングするステップと、
マッチングして一致する特徴点を前記補助特徴点とするステップと、
を含む請求項11に記載の方法。 - 前記目標特徴点の第1の画像位置および前記目標特徴点の三次元空間位置に基づいて、ユーザの室内位置を決定するステップが、
前記目標特徴点の第1の画像位置および前記目標特徴点の三次元空間位置に基づいて、前記第1の室内画像のカメラ位置姿勢を決定するステップと、
前記カメラ位置姿勢に基づいてユーザの室内位置を決定するステップと、
を含む請求項1から4のいずれか一項に記載の方法。 - ユーザが収集した第1の室内画像に基づいて、目標オブジェクトにおける目標特徴点の第1の画像位置および前記目標特徴点の識別子を取得するための識別子取得モジュールと、
前記目標特徴点の識別子に基づいて前記目標特徴点の三次元空間位置に索引を付けるための位置取得モジュールであって、
前記目標特徴点の三次元空間位置が、前記目標特徴点の第2の室内画像における第2の画像位置、前記第2の室内画像のカメラ姿勢、および前記目標オブジェクトの前記第2の室内画像における姿勢によって決定される位置取得モジュールと、
前記目標特徴点の第1の画像位置および前記目標特徴点の三次元空間位置に基づいて、ユーザの室内位置を決定するための測位モジュールと、
を備える室内測位装置。 - 前記目標特徴点の識別子に基づいて前記目標特徴点の三次元空間位置に索引を付ける前に、前記目標オブジェクトの前記第2の室内画像における姿勢に基づいて、前記目標オブジェクトの三次元空間における姿勢を決定するための姿勢決定モジュールと、
前記目標オブジェクトの三次元空間における姿勢、前記第2の室内画像のカメラ姿勢、および前記第2の画像位置に基づいて、前記目標特徴点の三次元空間位置を決定するための位置決定モジュールと、
を備える請求項14に記載の装置。 - 前記位置決定モジュールが、
前記目標オブジェクトの関連する平面方程式における空間特性パラメータを、前記目標オブジェクトの三次元空間における姿勢情報とするための情報決定ユニットと、
前記目標オブジェクトの三次元空間における姿勢情報、前記第2の室内画像のカメラ姿勢、および前記第2の画像位置に基づいて、前記目標特徴点の三次元空間位置を決定するための位置決定ユニットと、
を備える請求項15に記載の装置。 - 前記姿勢決定モジュールが、
前記第2の室内画像のカメラ姿勢、および前記目標オブジェクトの前記第2の室内画像における少なくとも1つの姿勢に基づいて、前記目標オブジェクトの三次元空間における姿勢を決定するための姿勢決定ユニットを備える請求項15に記載の装置。 - 前記識別子取得モジュールが、
前記第1の室内画像を予めトレーニングされた情報検出モデルに入力して、前記目標特徴点の第1の画像位置を出力するための位置取得ユニットを備え、
前記情報検出モデルが、
室内サンプル画像における前記目標オブジェクト、および前記目標オブジェクトにおける前記目標特徴点の第1の画像位置を検出し、
前記室内サンプル画像、および前記目標特徴点の第1の画像位置を用いて、初期モデルをトレーニングして前記情報検出モデルを得るという方式によって構築される請求項14から17のいずれか一項に記載の装置。 - 少なくとも1つのプロセッサと、
該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
を備え、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が実行される場合、前記少なくとも1つのプロセッサが請求項1から13のいずれか一項に記載の方法を実行する電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令が実行される場合、コンピュータに請求項1から13のいずれか一項に記載の方法が実行させる非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムにおける命令が実行された場合に、請求項1から13のいずれか一項に記載の方法が実行されるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010463444.4 | 2020-05-27 | ||
CN202010463444.4A CN111652103B (zh) | 2020-05-27 | 2020-05-27 | 室内定位方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021190083A true JP2021190083A (ja) | 2021-12-13 |
JP7164589B2 JP7164589B2 (ja) | 2022-11-01 |
Family
ID=72349718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020215110A Active JP7164589B2 (ja) | 2020-05-27 | 2020-12-24 | 室内測位方法、装置、機器および記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210374977A1 (ja) |
EP (1) | EP3916355A1 (ja) |
JP (1) | JP7164589B2 (ja) |
KR (1) | KR102566300B1 (ja) |
CN (1) | CN111652103B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112634366B (zh) * | 2020-12-23 | 2023-10-17 | 北京百度网讯科技有限公司 | 位置信息的生成方法、相关装置及计算机程序产品 |
CN114581525A (zh) * | 2022-03-11 | 2022-06-03 | 浙江商汤科技开发有限公司 | 姿态确定方法及装置、电子设备和存储介质 |
CN114332232B (zh) * | 2022-03-11 | 2022-05-31 | 中国人民解放军国防科技大学 | 基于空间点线面特征混合建模的智能手机室内定位方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180066945A1 (en) * | 2016-09-02 | 2018-03-08 | Apple Inc. | System For Determining Position Both Indoor and Outdoor |
JP2018081008A (ja) * | 2016-11-16 | 2018-05-24 | 株式会社岩根研究所 | 基準映像地図を用いた自己位置姿勢標定装置 |
US20190206078A1 (en) * | 2018-01-03 | 2019-07-04 | Baidu Online Network Technology (Beijing) Co., Ltd . | Method and device for determining pose of camera |
WO2019189661A1 (ja) * | 2018-03-29 | 2019-10-03 | 国立大学法人奈良先端科学技術大学院大学 | 学習データセット作製方法及び装置 |
JP2019215647A (ja) * | 2018-06-12 | 2019-12-19 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、その制御方法及びプログラム。 |
CN111199564A (zh) * | 2019-12-23 | 2020-05-26 | 中国科学院光电研究院 | 智能移动终端的室内定位方法、装置与电子设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10169914B2 (en) * | 2016-08-26 | 2019-01-01 | Osense Technology Co., Ltd. | Method and system for indoor positioning and device for creating indoor maps thereof |
JP6893607B2 (ja) * | 2017-04-21 | 2021-06-23 | 達闥机器人有限公司 | ロボット制御方法、ロボット装置及びロボット機器 |
CA3092038A1 (en) * | 2018-02-23 | 2019-08-29 | Crown Equipment Corporation | Systems and methods for optical target based indoor vehicle navigation |
CN108717710B (zh) * | 2018-05-18 | 2022-04-22 | 京东方科技集团股份有限公司 | 室内环境下的定位方法、装置及系统 |
WO2020075252A1 (ja) * | 2018-10-11 | 2020-04-16 | 三菱電機株式会社 | 情報処理装置、プログラム及び情報処理方法 |
KR20190121275A (ko) * | 2019-10-07 | 2019-10-25 | 엘지전자 주식회사 | 실내 측위 시스템, 장치 및 방법 |
-
2020
- 2020-05-27 CN CN202010463444.4A patent/CN111652103B/zh active Active
- 2020-12-11 US US17/118,901 patent/US20210374977A1/en not_active Abandoned
- 2020-12-21 KR KR1020200179236A patent/KR102566300B1/ko active IP Right Grant
- 2020-12-24 JP JP2020215110A patent/JP7164589B2/ja active Active
- 2020-12-28 EP EP20217451.2A patent/EP3916355A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180066945A1 (en) * | 2016-09-02 | 2018-03-08 | Apple Inc. | System For Determining Position Both Indoor and Outdoor |
JP2018081008A (ja) * | 2016-11-16 | 2018-05-24 | 株式会社岩根研究所 | 基準映像地図を用いた自己位置姿勢標定装置 |
US20190206078A1 (en) * | 2018-01-03 | 2019-07-04 | Baidu Online Network Technology (Beijing) Co., Ltd . | Method and device for determining pose of camera |
WO2019189661A1 (ja) * | 2018-03-29 | 2019-10-03 | 国立大学法人奈良先端科学技術大学院大学 | 学習データセット作製方法及び装置 |
JP2019215647A (ja) * | 2018-06-12 | 2019-12-19 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、その制御方法及びプログラム。 |
CN111199564A (zh) * | 2019-12-23 | 2020-05-26 | 中国科学院光电研究院 | 智能移动终端的室内定位方法、装置与电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111652103A (zh) | 2020-09-11 |
KR20210146770A (ko) | 2021-12-06 |
US20210374977A1 (en) | 2021-12-02 |
JP7164589B2 (ja) | 2022-11-01 |
EP3916355A1 (en) | 2021-12-01 |
CN111652103B (zh) | 2023-09-19 |
KR102566300B1 (ko) | 2023-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6824433B2 (ja) | カメラ姿勢情報の決定方法、決定装置、モバイル端末及びコンピュータプログラム | |
CN112150551B (zh) | 物体位姿的获取方法、装置和电子设备 | |
CN111523468B (zh) | 人体关键点识别方法和装置 | |
JP2021190083A (ja) | 室内測位方法、装置、機器および記憶媒体 | |
CN110648397B (zh) | 场景地图生成方法、装置、存储介质及电子设备 | |
CN111612852B (zh) | 用于验证相机参数的方法和装置 | |
KR20210036317A (ko) | 모바일 에지 컴퓨팅 기반의 시각적 위치 확정 방법 및 장치 | |
JP2021103555A (ja) | 画像検出方法、装置、電子設備、記憶媒体、及びプログラム | |
CN111722245B (zh) | 定位方法、定位装置和电子设备 | |
CN111767853B (zh) | 车道线检测方法和装置 | |
CN103914876A (zh) | 用于在3d地图上显示视频的方法和设备 | |
US11694405B2 (en) | Method for displaying annotation information, electronic device and storage medium | |
US11423650B2 (en) | Visual positioning method and apparatus, and computer-readable storage medium | |
US20210390732A1 (en) | Indoor positioning method and apparatus, electronic device and storage medium | |
CN111462179B (zh) | 三维物体跟踪方法、装置及电子设备 | |
CN112509058B (zh) | 外参的计算方法、装置、电子设备和存储介质 | |
KR20120061696A (ko) | 증강현실 기반 건물 네비게이션 시스템 | |
JP6304815B2 (ja) | 画像処理装置ならびにその画像特徴検出方法、プログラムおよび装置 | |
CN113628284B (zh) | 位姿标定数据集生成方法、装置、系统、电子设备及介质 | |
CN112200190B (zh) | 兴趣点的位置确定方法、装置、电子设备和存储介质 | |
CN109145681B (zh) | 用于判断目标旋转方向的方法及装置 | |
CN112381877B (zh) | 定位融合、室内定位方法、装置、设备及介质 | |
JP7293362B2 (ja) | 撮影方法、装置、電子機器及び記憶媒体 | |
US11202000B2 (en) | Learning apparatus, image generation apparatus, learning method, image generation method, and program | |
CN113390413B (zh) | 一种定位方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220601 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221020 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7164589 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |