JP2023509099A - INDOOR VISUAL NAVIGATION METHOD, APPARATUS, SYSTEM AND ELECTRONIC DEVICE - Google Patents
INDOOR VISUAL NAVIGATION METHOD, APPARATUS, SYSTEM AND ELECTRONIC DEVICE Download PDFInfo
- Publication number
- JP2023509099A JP2023509099A JP2022566506A JP2022566506A JP2023509099A JP 2023509099 A JP2023509099 A JP 2023509099A JP 2022566506 A JP2022566506 A JP 2022566506A JP 2022566506 A JP2022566506 A JP 2022566506A JP 2023509099 A JP2023509099 A JP 2023509099A
- Authority
- JP
- Japan
- Prior art keywords
- indoor
- mobile device
- image
- coordinate system
- camera pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 117
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
- G06Q10/047—Optimisation of routes or paths, e.g. travelling salesman problem
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Computer Graphics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Operations Research (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Game Theory and Decision Science (AREA)
- Automation & Control Theory (AREA)
- Development Economics (AREA)
- Data Mining & Analysis (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
Abstract
本開示は、収集した測位対象の室内画像を移動機器でサーバにアップロードし、移動機器が室内画像を収集するときのカメラポーズをサーバで決定し、室内画像に対応するカメラポーズが移動機器に送信された後、移動機器が室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成し、ユーザによって設定された目的地情報に基づいて、予めインポートされた室内トポロジーマップにおいて最短経路を計画し、最後に移動機器によって収集された現在のプレビュー画像を画面に表示し、AR座標系及び最短経路に基づいて経路進行方向を示す3次元マークを現在のプレビュー画像上に重ね合わせる室内視覚ナビゲーション方法、装置、システム及び電子機器を提供する。本開示は、室内ナビゲーションサービスをユーザに提供して、ユーザが目的地に便利に到達するように案内することができる。【選択図】図2In the present disclosure, a mobile device uploads a collected indoor image of a positioning target to a server, the server determines a camera pose when the mobile device collects the indoor image, and the camera pose corresponding to the indoor image is transmitted to the mobile device. After that, the mobile device creates an AR coordinate system that matches the world coordinate system based on the camera pose corresponding to the indoor image, and based on the destination information set by the user, the pre-imported indoor topology map. plan the shortest route in , and finally display the current preview image collected by the mobile device on the screen, and superimpose the 3D mark indicating the route traveling direction on the current preview image based on the AR coordinate system and the shortest route. A matching indoor visual navigation method, apparatus, system and electronic equipment are provided. The present disclosure can provide users with indoor navigation services to guide them to reach their destinations conveniently. [Selection drawing] Fig. 2
Description
本開示は画像処理の技術分野に関し、特に室内視覚ナビゲーション方法、装置、システム及び電子機器に関する。 The present disclosure relates to the technical field of image processing, and more particularly to indoor visual navigation methods, devices, systems and electronic devices.
<関連出願の相互参照>
本開示は、2020年04月14日に中国特許庁に提出された、出願番号が202010292954X、名称が「室内視覚ナビゲーション方法、装置、システム及び電子機器」である中国特許出願の優先権を主張しており、その全内容は引用によって本開示に組み込まれている。
<Cross reference to related applications>
This disclosure claims priority to a Chinese patent application entitled “Indoor visual navigation method, device, system and electronic device” filed with the Chinese Patent Office on April 14, 2020, application number 202010292954X. , the entire contents of which are incorporated by reference into this disclosure.
電子マップによるナビゲーションは、人々が外出時に主に頼りにする経路探索方法になっており、しかし、従来のナビゲーション技術は主として、GPS技術を組み合わせた室外ナビゲーションであり、ユーザがショッピングモールなどの室内にいる場合、目的の店舗(目的地)の位置を知るには、ショッピングモールの入り口にあるに係る間取り図を頼りにするしかないが、目的地に向かう過程で、自分の位置が変化すると、現在位置から目的地に至るまでの案内経路を明確に知ることができないことが多く、このため、目的地に至るまでには、経路探索に多くの時間と労力を要することが多い。 Electronic map navigation has become a route search method that people mainly rely on when going out. In order to know the location of the desired store (destination), the only way is to rely on the floor plan at the entrance of the shopping mall. In many cases, it is not possible to clearly know the guidance route from the position to the destination, and therefore it often takes a lot of time and effort to search for the route to reach the destination.
以上に鑑み、本開示の目的は、室内ナビゲーションサービスをユーザに提供して、ユーザが目的地に便利に到達するように案内することができる室内視覚ナビゲーション方法、装置、システム及び電子機器を提供することである。 In view of the above, an object of the present disclosure is to provide an indoor visual navigation method, apparatus, system and electronic equipment that can provide indoor navigation services to users and guide them to reach their destinations conveniently. That is.
上記目的を達成させるために、本開示の実施例に使用される技術的解決手段は以下のとおりである。 To achieve the above objectives, the technical solutions used in the embodiments of the present disclosure are as follows.
第1態様では、本開示の実施例は、移動機器によって実行される室内視覚ナビゲーション方法であって、測位対象の室内画像を収集したら、前記移動機器が前記室内画像を収集するときのカメラポーズをサーバによって決定されるために前記室内画像を前記サーバにアップロードするステップと、前記サーバから返信された前記室内画像に対応するカメラポーズを受信し、前記室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成するステップと、ユーザによって設定された目的地情報に基づいて、予めインポートされた室内トポロジーマップにおいて最短経路を計画するステップと、前記移動機器によって収集された現在のプレビュー画像を前記移動機器の画面に表示し、前記AR座標系及び前記最短経路に基づいて、経路進行方向を示す3次元マークを前記現在のプレビュー画像上に重ね合わせるステップとを含む、室内視覚ナビゲーション方法を提供する。 In a first aspect, an embodiment of the present disclosure is a method of indoor visual navigation performed by a mobile device, wherein, after acquiring an indoor image to be positioned, the mobile device sets a camera pose when acquiring the indoor image. uploading the indoor image to the server for determination by the server; receiving a camera pose corresponding to the indoor image returned from the server; creating an AR coordinate system that matches the coordinate system; planning the shortest path in a pre-imported indoor topology map based on the destination information set by the user; displaying a preview image of on the screen of the mobile device, and superimposing a three-dimensional mark indicating a route traveling direction on the current preview image based on the AR coordinate system and the shortest path Provide a navigation method.
1つの可能な実施形態では、前記室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成するステップは、初期のAR座標系を作成するステップと、前記AR座標系が世界座標系に合わせるように、前記室内画像に対応するカメラポーズに基づいて前記初期のAR座標系を調整するステップとを含む。 In one possible embodiment, the step of creating an AR coordinate system aligned with the world coordinate system based on the camera pose corresponding to the indoor image comprises: creating an initial AR coordinate system; adjusting the initial AR coordinate system based on the camera pose corresponding to the indoor image so that the coordinate system is aligned with the world coordinate system.
1つの可能な実施形態では、ユーザによって設定された目的地情報に基づいて、予めインポートされた室内トポロジーマップにおいて最短経路を計画するステップは、ユーザによって設定された目的地情報に基づいて、経路計画アルゴリズムを利用して、予めインポートされた室内トポロジーマップにおいて最短経路を計画するステップを含む。 In one possible embodiment, the step of planning the shortest route in the pre-imported indoor topology map based on the destination information set by the user includes performing route planning based on the destination information set by the user. It involves using an algorithm to plan the shortest path in a pre-imported room topology map.
1つの可能な実施形態では、経路進行方向を示す3次元マークを前記現在のプレビュー画像上に重ね合わせるステップは、前記現在のプレビュー画像における地平面を検出するステップと、前記AR座標系での前記最短経路の3次元座標を決定し、決定した前記3次元座標に基づいて経路進行方向を示す3次元マークを生成するステップと、前記現在のプレビュー画像における地平面に前記3次元マークを描画するステップとを含む。 In one possible embodiment, the step of superimposing a three-dimensional mark indicating the direction of travel on the current preview image comprises detecting a ground plane in the current preview image; Determining the three-dimensional coordinates of the shortest route, generating a three-dimensional mark indicating the traveling direction of the route based on the determined three-dimensional coordinates, and drawing the three-dimensional mark on a ground plane in the current preview image. including.
1つの可能な実施形態では、前記方法は、ナビゲーションにおいて前記サーバによって送信された現在のカメラポーズを受信したら、補正した前記AR座標系が前記世界座標系に合わせたままであるように前記現在のカメラポーズに基づいて前記AR座標系を補正するステップをさらに含む。 In one possible embodiment, the method, upon receiving a current camera pose sent by the server in navigation, adjusts the current camera pose such that the corrected AR coordinate system remains aligned with the world coordinate system. Further comprising correcting the AR coordinate system based on the pose.
第2態様では、本開示の実施例は、サーバによって実行される室内視覚ナビゲーション方法であって、移動機器によってアップロードされた測位対象の室内画像を受信したら、前記移動機器が前記室内画像を収集するときのカメラポーズを決定するステップと、前記移動機器が前記室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成し、前記AR座標系及び最短経路に基づいて経路進行方向を示す3次元マークを前記移動機器によって収集された現在のプレビュー画像上に重ね合わせるように、前記室内画像に対応するカメラポーズを前記移動機器に送信するステップであって、前記最短経路は前記移動機器がユーザによって設定された目的地情報に基づいて室内トポロジーマップにおいて計画したものであるステップとを含む、室内視覚ナビゲーション方法を提供する。 In a second aspect, an embodiment of the present disclosure is an indoor visual navigation method performed by a server, wherein upon receiving an indoor image of a positioning target uploaded by a mobile device, the mobile device collects the indoor image. determining a camera pose at a time, wherein the mobile device creates an AR coordinate system adapted to the world coordinate system based on the camera pose corresponding to the indoor image, and determines a route based on the AR coordinate system and the shortest path sending a camera pose corresponding to the indoor image to the mobile device such that a three-dimensional mark indicating the direction of travel is superimposed on a current preview image collected by the mobile device, wherein the shortest path is wherein the mobile device is planned in an indoor topology map based on the destination information set by the user.
1つの可能な実施形態では、前記移動機器が前記室内画像を収集するときのカメラポーズを決定するステップは、前記室内画像と予め作成された視覚マップライブラリ内の視覚マップについて特徴マッチングを行い、前記移動機器が前記室内画像を収集するときのカメラポーズを得るステップであって、前記視覚マップは室内シーンのスパースポイントクラウドモデルによって表されるステップを含む。 In one possible embodiment, the step of determining a camera pose when the mobile device acquires the indoor image includes performing feature matching between the indoor image and a visual map in a pre-created visual map library, wherein the Obtaining a camera pose as the mobile device collects the indoor image, wherein the visual map is represented by a sparse point cloud model of the indoor scene.
1つの可能な実施形態では、前記室内画像と予め作成された視覚マップライブラリ内の視覚マップについて特徴マッチングを行い、前記移動機器が前記室内画像を収集するときのカメラポーズを得るステップは、ディープハッシュアルゴリズムを利用して前記室内画像のグローバル画像記述子を計算するステップと、前記視覚マップライブラリにおいて前記グローバル画像記述子に類似している複数のキーフレーム画像を検索するステップと、前記キーフレーム画像のそれぞれのキーフレーム情報を取得するステップと、前記キーフレーム情報に従って前記複数のキーフレーム画像を複数のクラスタに分けるステップと、前記クラスタのそれぞれをトラバースして、前記室内画像のローカル特徴点を取得するステップと、ローカル記述子を計算して、前記クラスタ内のローカル特徴点とマッチングさせるステップと、マッチングに成功するローカル特徴点に対応する3Dマップポイントを得るステップと、前記3Dマップポイントの個数が予め設定された個数よりも大きいと、前記室内画像に対応するカメラポーズを得るステップとを含む。 In one possible embodiment, the step of performing feature matching between the room image and a visual map in a pre-created visual map library to obtain a camera pose when the mobile device collects the room image is deep hashed. calculating a global image descriptor for the indoor image using an algorithm; searching the visual map library for a plurality of keyframe images similar to the global image descriptor; obtaining respective keyframe information; dividing the plurality of keyframe images into a plurality of clusters according to the keyframe information; and traversing each of the clusters to obtain local feature points of the indoor image. computing local descriptors to match local feature points in the cluster; obtaining 3D map points corresponding to local feature points that are successfully matched; obtaining a camera pose corresponding to the indoor image if greater than a set number.
1つの可能な実施形態では、前記視覚マップライブラリの作成は、移動機器が室内シーンにおいて収集した複数枚のシーン画像を取得するステップと、SFMアルゴリズムに基づいて前記複数枚のシーン画像に対して3次元再構成を行い、前記複数枚のシーン画像に対応するスパースポイントクラウドモデルを含む視覚マップライブラリを得るステップとを含む。 In one possible embodiment, the creation of the visual map library comprises the steps of acquiring a plurality of scene images acquired by a mobile device in an indoor scene; performing dimensional reconstruction to obtain a visual map library containing sparse point cloud models corresponding to the plurality of scene images.
1つの可能な実施形態では、前記方法は、予めインポートされた室内間取り図に前記視覚マップを合わせるステップをさらに含む。 In one possible embodiment, the method further comprises fitting the visual map to a previously imported interior floor plan.
1つの可能な実施形態では、前記方法は、前記視覚マップライブラリ内の視覚マップを圧縮させるステップをさらに含む。 In one possible embodiment, the method further comprises compressing the visual maps in the visual map library.
1つの可能な実施形態では、前記視覚マップライブラリ内の視覚マップを圧縮させるステップは、前記視覚マップ内の原特徴を符号化するステップと、符号化した原特徴を保存して、符号化する前の原特徴を除去するステップとを含む。 In one possible embodiment, compressing the visual maps in the visual map library includes encoding original features in the visual map; and removing the original features of .
1つの可能な実施形態では、前記方法は、前記移動機器がナビゲーションにおいて収集した現在のプレビュー画像を定時的に取得し、前記移動機器が前記現在のプレビュー画像を収集するときの現在のカメラポーズを決定するステップと、前記移動機器が前記現在のカメラポーズに基づいて前記AR座標系を補正するように前記現在のカメラポーズを前記移動機器に送信するステップとをさらに含む。 In one possible embodiment, the method periodically acquires a current preview image acquired by the mobile device in navigation, and calculates a current camera pose when the mobile device acquires the current preview image. and transmitting the current camera pose to the mobile device such that the mobile device corrects the AR coordinate system based on the current camera pose.
第3態様では、本開示の実施例は、移動機器側に配置される室内視覚ナビゲーション装置であって、測位対象の室内画像を収集したら、前記移動機器が前記室内画像を収集するときのカメラポーズをサーバによって決定されるために前記室内画像を前記サーバにアップロードするように構成される画像アップロードモジュールと、前記サーバから返信された前記室内画像に対応するカメラポーズを受信し、前記室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成するように構成される座標系作成モジュールと、ユーザによって設定された目的地情報に基づいて、予めインポートされた室内トポロジーマップにおいて最短経路を計画するように構成される経路計画モジュールと、前記移動機器によって収集された現在のプレビュー画像を前記移動機器の画面(interface)に表示し、前記AR座標系及び前記最短経路に基づいて、経路進行方向を示す3次元マークを前記現在のプレビュー画像上に重ね合わせるように構成されるナビゲーション表示モジュールとを含む、室内視覚ナビゲーション装置を提供する。 In a third aspect, an embodiment of the present disclosure is an indoor visual navigation device disposed on a mobile device, wherein, after acquiring an indoor image to be positioned, a camera pose when the mobile device acquires the indoor image an image upload module configured to upload the indoor image to the server for determination by a server; and receiving a camera pose corresponding to the indoor image returned from the server and corresponding to the indoor image A coordinate system creation module configured to create an AR coordinate system that is aligned with the world coordinate system based on the camera pose and in the pre-imported indoor topology map based on the destination information set by the user a path planning module configured to plan a shortest path; and displaying a current preview image collected by the mobile device on an interface of the mobile device, based on the AR coordinate system and the shortest path. and a navigation display module configured to overlay a three-dimensional mark indicating a route travel direction on the current preview image.
第4態様では、本開示の実施例は、サーバ側に配置される室内視覚ナビゲーション装置であって、移動機器によってアップロードされた測位対象の室内画像を受信したら、前記移動機器が前記室内画像を収集するときのカメラポーズを決定するように構成されるポーズ決定モジュールと、前記移動機器が前記室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成し、前記AR座標系及び最短経路に基づいて経路進行方向を示す3次元マークを前記移動機器によって収集された現在のプレビュー画像上に重ね合わせるように、前記室内画像に対応するカメラポーズを前記移動機器に送信するように構成される機器ナビゲーションモジュールであって、前記最短経路は前記移動機器がユーザによって設定された目的地情報に基づいて室内トポロジーマップにおいて計画したものである機器ナビゲーションモジュールとを含む、室内視覚ナビゲーション装置を提供する。 In a fourth aspect, an embodiment of the present disclosure is an indoor visual navigation device located on a server, wherein upon receiving an indoor image of a positioning target uploaded by a mobile device, the mobile device collects the indoor image. a pose determination module configured to determine a camera pose when the mobile device creates an AR coordinate system adapted to a world coordinate system based on the camera pose corresponding to the indoor image; transmitting a camera pose corresponding to the room image to the mobile device such that a three-dimensional mark indicating the direction of travel based on the system and the shortest path is superimposed on a current preview image collected by the mobile device. wherein the shortest route is the one planned by the mobile device in an indoor topology map based on the destination information set by the user. I will provide a.
第5態様では、本開示の実施例は、通信可能に接続された移動機器とサーバを含み、前記移動機器は、第1態様のいずれか1項に記載の方法を実行するように構成され、前記サーバは、第2態様のいずれか1項に記載の方法を実行するように構成される、室内視覚ナビゲーションシステムを提供する。 In a fifth aspect, an embodiment of the present disclosure includes a mobile device and a server communicatively coupled, the mobile device configured to perform the method of any one of the first aspects, The server provides an indoor visual navigation system configured to perform the method of any one of the second aspects.
第6態様では、本開示の実施例は、プロセッサと記憶装置を含み、前記記憶装置には、前記プロセッサによって運行されると第1態様のいずれか1項に記載の方法、又は第2態様のいずれか1項に記載の方法を実行するコンピュータプログラムが記憶されている電子機器を提供する。 In a sixth aspect, an embodiment of the present disclosure includes a processor and a storage device, wherein the storage device comprises the method of any one of the first aspect or the second aspect when run by the processor. An electronic device storing a computer program for performing the method of any one of claims 1 to 3 is provided.
第7態様では、本開示の実施例は、プロセッサによって運行されると上記第1態様のいずれか1項に記載の方法のステップ又は上記第2態様のいずれか1項に記載の方法のステップを実行するコンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体を提供する。 In a seventh aspect, an embodiment of the present disclosure, when operated by a processor, performs the method steps of any one of the first aspect above or the method steps of any one of the second aspect above. A computer readable storage medium is provided that stores a computer program for execution.
本開示の実施例は、室内視覚ナビゲーション方法、装置、システム及び電子機器を提供し、収集した測位対象の室内画像を移動機器でサーバにアップロードし、移動機器が室内画像を収集するときのカメラポーズをサーバで決定し、室内画像に対応するカメラポーズが移動機器に送信された後、移動機器が室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成し、ユーザによって設定された目的地情報に基づいて、予めインポートされた室内トポロジーマップにおいて最短経路を計画し、最後に移動機器によって収集された現在のプレビュー画像を画面に表示し、AR座標系及び最短経路に基づいて経路進行方向を示す3次元マークを現在のプレビュー画像上に重ね合わせることによって、室内視覚ナビゲーションを実現する。本実施例に係る上記形態は、室内でARの方式によって、最短経路に従って目的地に行くようにユーザを案内し、ユーザエクスペリエンスをより向上させることができる。 The embodiments of the present disclosure provide an indoor visual navigation method, apparatus, system and electronic device, uploading the collected indoor images of the positioning target to the server by the mobile device, and posing the camera when the mobile device collects the indoor images. is determined by the server, and the camera pose corresponding to the indoor image is transmitted to the mobile device. Then, the mobile device creates an AR coordinate system that matches the world coordinate system based on the camera pose corresponding to the indoor image, and the user Based on the destination information set by , the shortest route is planned in the pre-imported indoor topology map, and finally the current preview image collected by the mobile device is displayed on the screen, and the AR coordinate system and the shortest route are plotted. By superimposing a three-dimensional mark indicating the direction of travel on the current preview image, indoor visual navigation is realized. The above embodiment according to the present embodiment guides the user to go to the destination by following the shortest route indoors using the AR method, thereby further improving the user experience.
本開示の実施例の他の特徴及び利点は、後の明細書で説明され、又は、特徴及び利点の一部は、明細書から推定されるか又は疑いなく決定され、又は、本開示の実施例の上記の技術を実施することによって把握できる。 Other features and advantages of embodiments of the disclosure may be set forth in the subsequent specification, or some of the features and advantages may be inferred or undoubtedly determined from the specification, or may be determined by practice of the disclosure. It can be ascertained by implementing the above techniques for examples.
本開示の上記目的、特徴及び利点をより理解しやすくするために、以下、好適な実施例を挙げて、添付の図面と組み合わせて、以下のように詳細に説明する。 In order to make the above objects, features and advantages of the present disclosure more comprehensible, preferred embodiments are described in detail below in conjunction with the accompanying drawings.
本開示の特定の実施形態又は従来技術の技術的解決手段をより明確に説明するために、以下、特定の実施形態又は従来技術の説明に必要な図面を簡単に説明するが、明らかに、以下の説明における図面は本開示のいくつかの実施形態であり、当業者であれば、創造的な努力を必要とせずにこれらの図面に基づいて他の図面を取得することができる。
本開示の実施例の目的、技術的解決手段及び利点をより明確にするために、以下、図面を参照しながら本開示の技術的解決手段を説明するが、明らかに、説明する本実施例に記載の各実施形態は可能な実施形態の一部に過ぎず、全ての実施形態ではない。 In order to make the objectives, technical solutions and advantages of the embodiments of the present disclosure clearer, the following describes the technical solutions of the present disclosure with reference to the drawings. Each described embodiment is only a part of the possible embodiments, but not all of them.
ユーザが例えば携帯電話などの移動端末を利用して室内ナビゲーションを行うことができないという問題に対して、本開示の実施例は室内視覚ナビゲーション方法、装置、システム及び電子機器を提供し、この技術は室内ナビゲーションを必要とする任意の場合に適用でき、以下、本開示の実施例を詳細に説明する。 For the problem that users cannot use mobile terminals such as mobile phones for indoor navigation, the embodiments of the present disclosure provide an indoor visual navigation method, apparatus, system and electronic equipment, which are The embodiments of the present disclosure, which can be applied to any case requiring indoor navigation, are described in detail below.
まず、図1を参照して本開示の実施例の室内視覚ナビゲーション方法、装置、システム及び電子機器を実現する電子機器100の一例を示す。
First, referring to FIG. 1, an example of an
図1に示す電子機器の構造概略図のように、電子機器100は1つ又は複数のプロセッサ102、1つ又は複数の記憶装置104、入力装置106、出力装置108及び画像収集装置110を含み、これらの構成要素はバスシステム112及び/又は他の形態の接続機構(未図示)を介して相互接続される。なお、図1に示す電子機器100の構成要素及び構造は例示的なものであり、限定的なものではなく、必要に応じて、前記電子機器は他の構成要素及び構造を有してもよい。
As a structural schematic diagram of an electronic device shown in FIG. 1, an
前記プロセッサ102は、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)のうちの少なくとも1種のハードウェアの形態によって実装されてもよく、前記プロセッサ102は、中央処理ユニット(CPU)、フィギュアプロセッシングユニット(GPU)又はデータ処理能力及び/又は命令実行能力を有するほかの形態の処理ユニットのうちの1種又は複数種の組み合わせであってもよく、所望の機能を実行するように前記電子機器100の他の構成要素を制御することができる。
The processor 102 may be implemented in the form of hardware of at least one of a digital signal processor (DSP), a field programmable gate array (FPGA), and a programmable logic array (PLA), and the processor 102 is a central It may be one or more combinations of a processing unit (CPU), a figure processing unit (GPU), or other form of processing unit having data processing capability and/or instruction execution capability to perform the desired functions. Other components of the
前記記憶装置104は、1つ又は複数のコンピュータプログラム製品を含んでもよく、前記コンピュータプログラム製品は、各種の形態のコンピュータ読み取り可能な記憶媒体、例えば揮発性メモリ及び/又は不揮発性メモリを含んでもよい。前記揮発性メモリは例えばランダムアクセスメモリ(RAM)及び/又はキャッシュメモリ(cache)などを含んでもよい。前記不揮発性メモリは例えば読み取り専用メモリ(ROM)、ハードディスク、フラッシュメモリなどを含んでもよい。前記コンピュータ読み取り可能な記憶媒体には1つ又は複数のコンピュータプログラム命令が記憶されてもよく、プロセッサ102は、前記プログラム命令を運行することで、下記した本開示の実施例(プロセッサによって実現される)におけるクライアント機能及び/又は他の所望の機能を実現することができる。前記コンピュータ読み取り可能な記憶媒体において、各種のアプリケーションプログラムやデータ、例えば前記アプリケーションプログラムが使用する及び/又は生成する各種データなどが記憶されていてもよい。 The storage device 104 may include one or more computer program products, which may include various forms of computer-readable storage media, such as volatile and/or non-volatile memory. . The volatile memory may include, for example, random access memory (RAM) and/or cache. The non-volatile memory may include, for example, read-only memory (ROM), hard disk, flash memory, and the like. One or more computer program instructions may be stored on the computer-readable storage medium, and the processor 102 executes the program instructions to cause the processor-implemented embodiments of the present disclosure described below. ) and/or other desired functionality. Various application programs and data, such as various data used and/or generated by the application programs, may be stored in the computer-readable storage medium.
前記入力装置106は、ユーザが命令を入力するための装置であってもよく、キーボード、マウス、マイクロフォンやタッチスクリーンなどの1つ又は複数を含む。
The
前記出力装置108は、外部(例えば、ユーザ)に各種情報(例えば、画像又は音声)を出力してもよく、かつモニター、スピーカーなどのうちの1つ又は複数を含んでもよい。
The
前記画像収集装置110は、ユーザが所望する画像(例えば写真、ビデオなど)を撮影し、他の構成要素で使用するために、撮影した画像を前記記憶装置104に記憶してもよい。
The
例示的には、本開示の実施例を実現するための室内視覚ナビゲーション方法、装置、システム及び電子機器の例示的な電子機器は、例えばスマートフォン、タブレット、ウェアラブル電子機器、コンピュータ、サーバなどのスマート端末として実装されてもよい。 Illustratively, exemplary electronic devices of the indoor visual navigation methods, devices, systems and electronic devices for implementing embodiments of the present disclosure are smart terminals such as smart phones, tablets, wearable electronic devices, computers, servers, etc. may be implemented as
本開示の実施例は、移動機器側による室内視覚ナビゲーション方法を提供してもよく、該方法は、例えばスマートフォン、タブレット、ウェアラブル電子機器などの移動機器によって実行されてもよく、図2に示す室内視覚ナビゲーション方法フローチャートを参照すると、該方法は主として、以下のステップS202~ステップS208を含む。 Embodiments of the present disclosure may provide a mobile device-side indoor visual navigation method, which may be performed by a mobile device, such as a smartphone, tablet, or wearable electronic device, such as an indoor navigation device illustrated in FIG. Referring to the visual navigation method flowchart, the method mainly includes steps S202 to S208 as follows.
ステップS202、測位対象の室内画像を収集したら、移動機器が室内画像を収集するときのカメラポーズをサーバによって決定されるために室内画像をサーバにアップロードする。 Step S202, after collecting the indoor image to be positioned, upload the indoor image to the server so that the camera pose when the mobile device collects the indoor image is determined by the server.
以下、携帯電話として移動機器を例示して説明し、ユーザは、室内シーンにいるときに、自分の現在の位置を知らず、さらに現在の位置から目的地までの行き方を知らないことがあるので、まず携帯電話で現在のシーンの室内画像を先に撮影し、その後、室内画像をサーバにアップロードし、サーバによって室内画像に基づいて視覚測位を行うことができる。 In the following, a mobile device will be exemplified as a mobile phone, and the user may not know his/her current position when in an indoor scene, and may not know how to get to the destination from the current position. First, the mobile phone captures the indoor image of the current scene, and then the indoor image is uploaded to the server, and the server can perform visual positioning based on the indoor image.
ステップS204、サーバによって返信された室内画像に対応するカメラポーズを受信し、室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成する。 Step S204: Receive the camera pose corresponding to the indoor image returned by the server, and create an AR coordinate system adapted to the world coordinate system based on the camera pose corresponding to the indoor image.
AR(Augmented Reality、拡張現実)技術は、仮想情報と実世界とを融合する技術であり、仮想情報を実世界に適用し、仮想情報(例えば仮想図形)とリアルシーンとを重ね合わせることで、仮想図形及びリアルシーン画像が同一画面又は同一空間にあるような効果を表示し、ユーザが仮想と現実を組み合わせたシーンを体験するようにすることができる。1つの可能な実施形態では、ARナビゲーション方式によって実現され、仮想図形をリアルシーンに表示する必要があるため、AR座標系を作成し、AR座標系が世界座標系に合わせるように室内画像に対応するカメラポーズに基づいてAR座標系を調整する必要がある。ここで、AR座標系の作成は、従来のSLAMアルゴリズム(Simultaneous Localization and Mapping、自己位置推定と環境マップ作成の同時実行)を利用して実現することができ、ここでは詳しく説明しない。 AR (Augmented Reality) technology is a technology that fuses virtual information and the real world. The virtual graphics and real scene images can be displayed with the effect of being on the same screen or in the same space, allowing the user to experience a scene that combines virtual and reality. In one possible embodiment, realized by an AR navigation scheme, the virtual figures need to be displayed in a real scene, so an AR coordinate system is created and adapted to the room image so that the AR coordinate system aligns with the world coordinate system. We need to adjust the AR coordinate system based on the desired camera pose. Here, creation of the AR coordinate system can be realized using a conventional SLAM algorithm (Simultaneous Localization and Mapping, simultaneous execution of self-location estimation and environment map creation), and will not be described in detail here.
ステップS206、ユーザによって設定された目的地情報に基づいて、予めインポートされた室内トポロジーマップにおいて最短経路を計画する。 Step S206: Plan the shortest route in the pre-imported indoor topology map according to the destination information set by the user.
ユーザは、携帯電話APPに目的地の名称を入力したり、携帯電話APPに表示される室内間取り図上で目的地をクリックする操作を実行したりすることができ、ここでは限定しない。携帯電話はユーザによって設定された目的地情報を取得すると、予めインポートされた室内トポロジーマップにおいて経路計画を行うことができる。室内トポロジーマップにおいて、各店舗がマップ内のノード、室内経路がマップ内のエッジとされてもよい。1つの可能な実施形態では、例えばショッピングモール、図書館、美術館など室内ナビゲーションサービスを提供する必要がある区域の場合、サーバに室内トポロジーマップを予め提供してもよいし、サーバが室内間取り図に基づいて直接転換してもよい。 The user can input the name of the destination to the mobile phone APP, or click the destination on the interior floor plan displayed on the mobile phone APP, and is not limited here. When the mobile phone acquires the destination information set by the user, it can plan the route in the pre-imported indoor topology map. In the indoor topology map, each store may be a node in the map, and the indoor route may be an edge in the map. In one possible embodiment, for areas that need to provide indoor navigation services, such as shopping malls, libraries, museums, etc., the server may be pre-provided with an indoor topology map, or the server may generate a map based on the indoor floor plan. can be converted directly.
ステップS208、移動機器によって収集された現在のプレビュー画像を移動機器の画面に表示し、AR座標系及び最短経路に基づいて、経路進行方向を示す3次元マークを現在のプレビュー画像上に重ね合わせる。 Step S208, display the current preview image collected by the mobile device on the screen of the mobile device, and superimpose the 3D mark indicating the route traveling direction on the current preview image according to the AR coordinate system and the shortest path.
移動機器のカメラは、最初に、撮影状態であり、画像を持続的に収集し、収集した画像を移動端末の画面上に表示し、これは、該移動機器のカメラが画像プレビューモードであると考えられてもよい。ユーザが携帯電話を持ってナビゲーションを行う際に、携帯電話のカメラがプレビューモードであり、ユーザは、携帯電話画面を介して、現在、経路進行方向を示す3次元マークが室内シーン内(例えば地面に矢印がマーキングされている)に重ね合わせてマーキングされていることを視認できる。 The camera of the mobile device is first in a shooting state, collects images continuously, and displays the collected images on the screen of the mobile terminal, which means that the camera of the mobile device is in image preview mode. may be considered. When a user carries out navigation with a mobile phone, the camera of the mobile phone is in preview mode, and the user can see, through the mobile phone screen, that the 3D mark indicating the direction of travel is currently in the indoor scene (for example, the ground). (marked with an arrow) can be visually recognized.
本実施例に係る上記室内視覚ナビゲーション方法によれば、移動機器は室内でARの方式によって、最短経路に従って目的地に行くようにユーザを案内し、ユーザエクスペリエンスをより向上させることができる。 According to the indoor visual navigation method according to the present embodiment, the mobile device can guide the user to follow the shortest route to the destination indoors by the method of AR, so as to improve the user experience.
室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成する際には、まず、初期のAR座標系を作成し、次に、AR座標系が世界座標系に合わせるように、室内画像に対応するカメラポーズに基づいて初期のAR座標系を調整してもよい。 When creating an AR coordinate system that matches the world coordinate system based on the camera pose corresponding to the indoor image, first create the initial AR coordinate system, and then adjust the AR coordinate system to the world coordinate system. , the initial AR coordinate system may be adjusted based on the camera pose corresponding to the indoor image.
携帯電話にはARシステムが設けられてもよく、ARシステムは通常ループバック検出機能を有する視覚-慣性オドメトリー(Visual-Inertial Odometry、VIO)であってもよく、ここで、AR座標系はVIO座標系と呼ばれてもよい。ARシステムはiOSシステムに付属のAR Kit、又はAndroidに付属のAR Coreであってもよいし、移動機器ナビゲーション機能を実現し得る任意のサードパーティシステムであってもよく、ここでは制限しない。 The mobile phone may be provided with an AR system, and the AR system may be Visual-Inertial Odometry (VIO), usually with loopback detection function, where the AR coordinate system is the VIO coordinate may be called a system. The AR system can be AR Kit attached to iOS system, or AR Core attached to Android, or any third-party system capable of realizing mobile device navigation function, and is not limited here.
初期に作成されたAR座標系は通常、収集した1フレーム目の画像を座標原点とする。AR座標系に基づいて描画された仮想画像を世界座標系でのリアルシーン画像とよく融合できるようにするために、室内画像に対応するカメラポーズを利用して初期のAR座標系を調整する必要がある。これにより、携帯電話は計画した経路を世界座標系にスムーズに変換し、仮想図形とリアルシーン画像とをよく結合させることができる。 The initially created AR coordinate system usually has the first frame image acquired as the coordinate origin. It is necessary to adjust the initial AR coordinate system using the camera pose corresponding to the indoor image so that the virtual image drawn based on the AR coordinate system can be well blended with the real scene image in the world coordinate system. There is This allows the mobile phone to smoothly transform the planned route into the world coordinate system and well combine the virtual graphics with the real scene image.
1つの可能な実施形態では、本開示の実施例において、ユーザによって設定された目的地情報に基づいて、予めインポートされた室内トポロジーマップにおいて最短経路を計画する特定の実施形態が提供されている。すなわち、ユーザによって設定された目的地情報に基づいて、経路計画アルゴリズムを利用して、予めインポートされた室内トポロジーマップにおいて最短経路を計画する。経路計画アルゴリズムは、A*アルゴリズムであってもよいが、もちろん、他の経路計画アルゴリズムであってもよく、ここでは限定しない。 In one possible embodiment, the examples of the present disclosure provide a specific embodiment of planning the shortest route in a pre-imported indoor topology map based on the destination information set by the user. That is, based on the destination information set by the user, a route planning algorithm is used to plan the shortest route in the pre-imported indoor topology map. The path planning algorithm may be the A* algorithm, but of course other path planning algorithms are not limiting here.
ユーザにナビゲーション方向を明確に提供するために、本実施例では、上記ステップS208を実行する際には、以下のステップを参照して実現してもよい。(1)現在のプレビュー画像における地平面を検出する。(2)AR座標系での最短経路の3次元座標を決定し、決定した3次元座標に基づいて経路進行方向を示す3次元マークを生成する。(3)現在のプレビュー画像における地平面に3次元マークを描画する。例えば、3次元マークは仮想矢印、点線経路マークなどとしてもよい。ユーザは3次元マークによって示される方向に従って行くと、最終に最短経路で目的地に到達することができる。 In order to provide the user with a clear navigation direction, in this embodiment, when performing the above step S208, the following steps may be referred to for implementation. (1) Detect the ground plane in the current preview image. (2) Determine the three-dimensional coordinates of the shortest route in the AR coordinate system, and generate a three-dimensional mark indicating the traveling direction of the route based on the determined three-dimensional coordinates. (3) Draw a 3D mark on the ground plane in the current preview image. For example, the three-dimensional mark may be a virtual arrow, a dotted line path mark, or the like. The user can finally reach the destination by the shortest route by following the direction indicated by the three-dimensional mark.
ARナビゲーションにおいて、初期の視覚測位ポーズの誤差やARシステム自体のドリフトなどの原因を考慮して、例えばナビゲーション経路が建物と交差したりするなど、ナビゲーション経路の正確性は経時的に低下する可能性がある。このため、全行程にわたって正確なナビゲーションを確保するために、本実施例における移動機器は、ナビゲーションにおいてサーバによって送信された現在のカメラポーズを受信したら、補正したAR座標系が世界座標系に合わせたままであるように、現在のカメラポーズに基づいてAR座標系を補正する。つまり、サーバは、ナビゲーションにおいて移動機器が収集した現在のプレビュー画像を定時的に取得し、移動機器が現在のプレビュー画像を収集するときの現在のカメラポーズを決定し、現在のカメラポーズを移動機器に送信し、次に、移動機器は、現在のカメラポーズに基づいてAR座標系を補正し、これにより、ナビゲーションの正確性が向上する。 In AR navigation, considering factors such as initial visual positioning pose errors and drift of the AR system itself, the accuracy of the navigation path may degrade over time, for example, when the navigation path crosses buildings. There is Therefore, in order to ensure accurate navigation throughout the journey, the mobile device in this embodiment, upon receiving the current camera pose sent by the server in navigation, will keep the corrected AR coordinate system aligned with the world coordinate system. Correct the AR coordinate system based on the current camera pose, such as That is, the server periodically obtains the current preview image collected by the mobile device in navigation, determines the current camera pose when the mobile device collects the current preview image, and sets the current camera pose to the mobile device. , and then the mobile device corrects the AR coordinate system based on the current camera pose, which improves navigation accuracy.
本実施例では、また、サーバ側による室内視覚ナビゲーション方法が提供されており、該方法は例えばクラウドサーバによって実行されてもよく、図3に示す室内視覚ナビゲーション方法のフローチャートを参照すると、該方法は主として、以下のステップS302~ステップS304を含む。 In this embodiment, a server-side indoor visual navigation method is also provided, which may be performed by, for example, a cloud server. Referring to the indoor visual navigation method flowchart shown in FIG. It mainly includes the following steps S302 to S304.
ステップS302、移動機器によってアップロードされた測位対象の室内画像を受信したら、移動機器が室内画像を収集するときのカメラポーズを決定する。ここで、カメラポーズは、XY座標とカメラの向きを含んでもよい。 Step S302, upon receiving the indoor image for positioning uploaded by the mobile device, determining a camera pose when the mobile device collects the indoor image. Here, the camera pose may include XY coordinates and camera orientation.
ステップS304、移動機器が室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成し、AR座標系及び最短経路に基づいて経路進行方向を示す3次元マークを移動機器によって収集された現在のプレビュー画像上に重ね合わせるように、室内画像に対応するカメラポーズを移動機器に送信し、ここで、最短経路は移動機器がユーザによって設定された目的地情報に基づいて室内トポロジーマップにおいて計画したものである。 Step S304, the mobile device creates an AR coordinate system according to the world coordinate system according to the camera pose corresponding to the indoor image, and creates a three-dimensional mark indicating the traveling direction of the route on the mobile device based on the AR coordinate system and the shortest route. to the mobile device, where the shortest path is the camera pose corresponding to the indoor image to be superimposed on the current preview image collected by the mobile device based on the destination information set by the user. It is planned in the topology map.
本実施例に係る上記室内視覚ナビゲーション方法によれば、サーバは、ナビゲーション中に必要な、例えばカメラポーズの計算など計算量が大きいステップを担当し、次に、移動機器は室内でARの方式によって、最短経路に従って目的地に行くようにユーザを簡便且つ効率よく案内し、ユーザエクスペリエンスをより向上させることができる。 According to the above indoor visual navigation method according to the present embodiment, the server is in charge of the computationally intensive steps required during navigation, such as camera pose calculation, and then the mobile device is indoors by means of AR. , the user can be easily and efficiently guided to the destination along the shortest route, and the user experience can be further improved.
本実施例では、時間や空間がかかる計算は全てサーバ側で実行され、例えば、移動機器が室内画像を収集するときのカメラポーズはサーバによって決定され、1つの可能な実施形態では、サーバは、室内画像と予め作成された視覚マップライブラリ内の視覚マップについて特徴マッチングを行い、移動機器が室内画像を収集するときのカメラポーズを得るようにしてもよく、ここで、視覚マップは室内シーンのスパースポイントクラウドモデルによって表されるものであり、シーンの大量の視覚特徴として理解されてもよい。1つの可能な実施形態では、3D-2Dマッチング関係に従ってPNP(Perspective-n-Point)問題を解き、すなわち、3Dから2Dへの点ペアの動き方法を解き、これにより、特徴点ペアの動きに基づいてカメラポーズを解くことができる。 In this example, all time and space consuming computations are performed on the server side, e.g. camera poses are determined by the server when the mobile device collects room images, and in one possible embodiment the server: Feature matching may be performed between the room image and a visual map in a pre-created visual map library to obtain a camera pose when the mobile device collects the room image, where the visual map is a sparse interior scene. It is represented by a point cloud model and may be understood as a mass of visual features of the scene. In one possible embodiment, we solve the Perspective-n-Point (PNP) problem according to the 3D-2D matching relation, i.e., how to move point pairs from 3D to 2D, which allows us to solve the motion of feature point pairs. The camera pose can be solved based on
本実施例では、室内画像と予め作成された視覚マップライブラリ内の視覚マップについて特徴マッチングを行い、移動機器が室内画像を収集するときのカメラポーズを得る1つの可能な実施形態が提供されており、主に粗測位と精測位の2つの段階を含み、それぞれについて以下のように説明する。 This example provides one possible embodiment of performing feature matching between an indoor image and a visual map in a pre-created visual map library to obtain camera poses as the mobile device collects the indoor image. , mainly includes two stages of coarse positioning and fine positioning, each of which is described as follows.
粗測位段階においては、ディープハッシュアルゴリズムを利用して室内画像のグローバル画像記述子を計算し、視覚マップライブラリにおいてグローバル画像記述子に最も類似しているk個のキーフレーム画像を検索し、キーフレームIDを得て、次に、キーフレームIDに基づき、キーフレームのポーズ、ローカル特徴点、ローカル記述子及び対応するマップポイントの世界座標系での座標を含む記憶されたキーフレーム情報を検索する。キーフレームのポーズに応じて、このk個のキーフレームをクラスタし、位置が似ているキーフレームを同一クラスタにする。クラスタごとに、クラスタの中心は後続の精測位のために初期の粗測位結果を提供する。 In the coarse positioning stage, a deep hash algorithm is used to compute the global image descriptor of the indoor image, search the visual map library for the k keyframe images that are most similar to the global image descriptor, and extract the keyframe Having obtained the ID, then based on the keyframe ID, retrieve the stored keyframe information including the pose of the keyframe, the local feature points, the local descriptors and the coordinates in the world coordinate system of the corresponding map points. These k keyframes are clustered according to the poses of the keyframes, and keyframes with similar positions are put into the same cluster. For each cluster, the center of the cluster provides initial coarse positioning results for subsequent fine positioning.
精測位段階においては、まず、クラスタのそれぞれをトラバースし、室内画像からローカル特徴点を抽出し、ローカル記述子を計算してクラスタ内の全てのキーフレームのローカル特徴とマッチングさせ、次に、マッチングに成功する特徴点に対応する3Dマップポイントを取り出し、マッチングに成功する3D-2D点ペアの数が予め設定された個数よりも大きい(例えば5よりも大きい)と、PNPの問題を解いて、室内画像に対応するカメラポーズを得ることができる。PNPにより求められるポーズを初期値として、さらにBundle Adjustmentグラフ最適化の問題を構築することができ、これにより、室内画像に対応するポーズを最適化させ、再投影誤差を最小にすることができる。ポーズが最適化された後に、再投影誤差がまだ大きなエッジを削除し、残りのエッジを用いてBundle Adjustmentグラフ最適化の問題を再び構築し、最後に、室内画像に対応する正確なポーズを得る。このプロセスにおいて3D-2D点ペアの数が少なすぎたり、最適化後に再投影誤差が大きすぎたりするような現象が生じた場合、現在のクラスタ内のキーフレームがエラーマッチングであると考えられ、このクラスタが放棄される。最適化後に再投影誤差が少ない場合、ポーズの解が正しいと考えられ、結果を直接出力し、次のクラスタのサイクルに入らないようにする。 In the fine positioning stage, first, each of the clusters is traversed, local feature points are extracted from the room image, local descriptors are computed and matched with the local features of all keyframes in the cluster, and then matching and if the number of 3D-2D point pairs with successful matching is greater than a preset number (e.g., greater than 5), solve the PNP problem, A camera pose corresponding to the indoor image can be obtained. Using the pose obtained by PNP as an initial value, we can further construct a Bundle Adjustment graph optimization problem, which optimizes the pose corresponding to the room image and minimizes the reprojection error. After the pose is optimized, we remove the edges with still large reprojection errors, use the remaining edges to reconstruct the Bundle Adjustment graph optimization problem, and finally get the correct pose corresponding to the room image. . In this process, if the number of 3D-2D point pairs is too small or the reprojection error is too large after optimization, the keyframes in the current cluster are considered to be error matching, This cluster is abandoned. If the reprojection error is small after optimization, we consider the pose solution to be correct and output the result directly, avoiding entering the cycle for the next cluster.
サーバは、上記の粗測位と精測位の2つの段階をこの順で行うことで、室内画像に対応する正確なカメラポーズを得ることができる。もちろん、以上は本実施例に係るポーズ決定方法の1つに過ぎず、カメラポーズを決定するための任意の他の方式で実現されてもよく、ここでは制限しない。 The server can obtain an accurate camera pose corresponding to the indoor image by performing the above two stages of coarse positioning and fine positioning in this order. Of course, the above is just one pose determination method according to this embodiment, and may be implemented in any other manner for determining a camera pose, and is not limited here.
1つの可能な実施形態では、サーバはまた、室内ナビゲーション用の移動機器が計画した経路を世界座標系に順調に変換できるように、視覚マップと予めインポートされた室内間取り図とを合わせる。ここで、室内間取り図は建築物構造図として理解してもよく、例えば室内間取り図はショッピングモール等によりサーバに予めアップロードされてもよい。 In one possible embodiment, the server also aligns the visual map with the pre-imported room floor plan so that the indoor navigation mobile device can successfully transform the planned route into the world coordinate system. Here, the interior floor plan may be understood as a building structure diagram, and for example, the interior floor plan may be uploaded in advance to a server by a shopping mall or the like.
サーバは、視覚マップライブラリを予め構築してもよく、視覚マップライブラリの作成は、下記のステップを含む。(1)移動機器が室内シーンにおいて収集した複数枚のシーン画像を取得する。1つの可能な実施形態では、正確なスパースポイントクラウドモデルを構築するために、室内の各シーンでの大量の画像は予め収集されておいてもよい。(2)SFM(Structure From Motion)アルゴリズムに基づいて複数枚のシーン画像に対して3次元再構成を行い、複数枚のシーン画像に対応するスパースポイントクラウドモデルを含む視覚マップライブラリを得る。SFMマッピングは例えばCOLMAP、Theia、VisualSfM、OpenMVGなどのオープンソースアルゴリズムによって実現されてもよく、ここでは制限しない。 The server may pre-build a visual map library, and creating a visual map library includes the following steps. (1) Acquire a plurality of scene images collected by a mobile device in an indoor scene. In one possible embodiment, a large number of images of each scene in the room may be pre-collected in order to build an accurate sparse point cloud model. (2) 3D reconstruction is performed on multiple scene images based on the SFM (Structure From Motion) algorithm to obtain a visual map library containing sparse point cloud models corresponding to the multiple scene images. SFM mapping may be implemented by open source algorithms such as COLMAP, Theia, VisualSfM, OpenMVG, etc., and is not limited here.
1つの可能な実施形態では、サーバの磁気ディスクの記憶空間を節約するために、視覚マップライブラリ内の視覚マップを圧縮してもよく、例えば、直積量子化などの方法で視覚マップ内の原特徴を符号化し、視覚マップにおいて符号化した結果だけを保存し、原特徴を保存しないことで、マップのサイズを大幅に圧縮させることができる。サーバは、視覚データベースを用いて視覚測位を行う際に、符号化した視覚特徴を復号し、復号した特徴を用いてマッチング及びポーズ推定を行ってもよい。 In one possible embodiment, in order to save storage space on the server's magnetic disk, the visual maps in the visual map library may be compressed, e.g. , and storing only the encoded result in the visual map and not the original features, the size of the map can be greatly reduced. The server may decode the encoded visual features and perform matching and pose estimation using the decoded features in performing visual positioning using the visual database.
上記方式によって、サーバは計算量の大きな視覚マップライブラリ構築及びカメラポーズ決定を担当することができ、これにより、移動機器のハードウェアへの要件が低下し、また、移動機器がサーバの計算結果に基づいてユーザにナビゲーションサービスをより効率よく提供することが可能になる。 The above scheme allows the server to take charge of the computationally intensive visual map library construction and camera pose determination, which reduces the hardware requirements of the mobile device and allows the mobile device to follow the calculation results of the server. Based on this, navigation services can be provided to users more efficiently.
1つの可能な実施形態では、ARナビゲーションにおいて、初期の視覚測位ポーズの誤差やARシステム自体のドラフトなどの原因を考慮して、ナビゲーション経路の正確性は経時的に低下する可能性があり、サーバはまた、移動機器がナビゲーションにおいて収集した現在のプレビュー画像を定時的に取得し、移動機器が現在のプレビュー画像を収集するときの現在のカメラポーズを決定し、移動機器が現在のカメラポーズに基づいてAR座標系を補正できるように現在のカメラポーズを移動機器に送信してもよい。 In one possible embodiment, in AR navigation, the accuracy of the navigation path may degrade over time, considering factors such as initial visual positioning pose errors and drafts of the AR system itself, and the server also periodically obtains the current preview image acquired by the mobile device in navigation, determines the current camera pose when the mobile device acquires the current preview image, and determines the current camera pose when the mobile device acquires the current preview image. The current camera pose may be sent to the mobile device so that it can correct the AR coordinate system.
本開示の実施例では、また、移動機器側及びサーバ側による室内視覚ナビゲーション方法の1つの可能な実施形態が提供されており、具体的には、図4に示す室内視覚ナビゲーション方法のフローチャートを参照すればよく、以下のステップを含む。
ステップS410:複数枚の室内画像を収集する。
ステップS412:室内画像に基づいてSFMマッピングを行い、視覚マップデータベースを生成する。
ステップS414:視覚マップデータベースにおける視覚マップと室内間取り図とを合わせる。ここでは、室内間取り図は構築物構造図と呼ばれてもよい。
ステップS420:携帯電話がアップロードした測位対象の室内画像を受信する。
ステップS422:測位対象の室内画像の画像特徴を抽出して、抽出した画像特徴を視覚マップとマッチングさせ、携帯電話が室内画像を収集するときのカメラポーズを推定する。
ステップS424:推定したカメラポーズを携帯電話に返す。
ステップS430:AR座標系を作成する。
ステップS432:AR座標系と携帯電話が室内画像を収集するときのカメラポーズとを合わせる。
ステップS434:ユーザによって設定された目的地情報を受信し、室内トポロジーマップにおいて最短経路を計画する。
ステップS436:地平面を検出する。
ステップS438:最短経路をAR座標系内の3次元座標に変換し、経路を矢印で地平面に描画する。
The embodiments of the present disclosure also provide one possible embodiment of the mobile device-side and server-side room visual navigation method, specifically refer to the flowchart of the room visual navigation method shown in FIG. and includes the following steps:
Step S410: Collect a plurality of indoor images.
Step S412: Perform SFM mapping based on the indoor image to generate a visual map database.
Step S414: Align the visual map in the visual map database with the interior floor plan. Here, the interior floor plan may be referred to as a building structure drawing.
Step S420: Receive the indoor image for positioning uploaded by the mobile phone.
Step S422: Extract the image features of the indoor image to be positioned, match the extracted image features with the visual map, and estimate the camera pose when the mobile phone collects the indoor image.
Step S424: Return the estimated camera pose to the mobile phone.
Step S430: Create an AR coordinate system.
Step S432: Align the AR coordinate system with the camera pose when the mobile phone collects the indoor image.
Step S434: Receive the destination information set by the user and plan the shortest route in the indoor topology map.
Step S436: Detect the ground plane.
Step S438: Transform the shortest path into three-dimensional coordinates in the AR coordinate system, and draw the path on the ground plane with arrows.
上記ステップの具体的な実施の操作は、移動機器側による室内視覚ナビゲーション方法及びサーバ側による室内視覚ナビゲーション方法の内容を参照すればよく、ここでは詳しく説明しない。 For the detailed operation of the above steps, please refer to the contents of the indoor visual navigation method by the mobile device side and the indoor visual navigation method by the server side, and will not be described in detail herein.
ここで、ステップS410~ステップS414は、視覚マップ構築操作として総称してもよく、ステップS420~ステップS424は、クラウド側視覚測位操作として総称してもよく、視覚マップ構築操作及びクラウド側視覚測位操作は全てサーバで実行されてもよく、ステップS430~ステップS438は移動側ARナビゲーション操作として総称してもよく、携帯電話などの移動機器で実行されてもよい。 Here, steps S410 to S414 may be collectively referred to as a visual map construction operation, and steps S420 to S424 may be collectively referred to as a cloud side visual positioning operation. may all be performed by a server, and steps S430 to S438 may be collectively referred to as a mobile-side AR navigation operation, and may be performed by a mobile device such as a mobile phone.
本実施例に係る上記室内視覚ナビゲーション方法によって、ユーザがいつでもどこでも携帯電話を使用して周囲の環境を撮影することにより自分の位置を特定することができ、目的地を選択した後、携帯電話が経路選択アルゴリズムにより計画した最適な経路を携帯電話の画面から確認し、その経路に沿って行くと目的地に到達することができる。また、上記室内視覚ナビゲーション方法では、時間や空間がかかる計算はサーバ側で行われ、これにより、移動機器でのリアルタイムな測位及びナビゲーションが可能になる。 With the above indoor visual navigation method according to the present embodiment, the user can use the mobile phone to locate himself/herself by photographing the surrounding environment anytime and anywhere, and after selecting the destination, the mobile phone will The optimal route planned by the route selection algorithm can be confirmed on the screen of the mobile phone, and the destination can be reached by following the route. In addition, in the above indoor visual navigation method, time- and space-consuming computations are performed on the server side, thereby enabling real-time positioning and navigation on mobile devices.
本開示の実施例は、移動機器側に配置された室内視覚ナビゲーション装置を更に提供し、図5に示す室内視覚ナビゲーション装置の構造ブロック図に示すように、この室内視覚ナビゲーション装置は、
測位対象の室内画像を収集したら、移動機器が室内画像を収集するときのカメラポーズをサーバによって決定されるために室内画像をサーバにアップロードするように構成される画像アップロードモジュール502と、
サーバによって返信された室内画像に対応するカメラポーズを受信し、室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成するように構成される座標系作成モジュール504と、
ユーザによって設定された目的地情報に基づいて、予めインポートされた室内トポロジーマップにおいて最短経路を計画するように構成される経路計画モジュール506と、
移動機器によって収集された現在のプレビュー画像を移動機器の画面に表示し、AR座標系及び最短経路に基づいて、経路進行方向を示す3次元マークを現在のプレビュー画像上に重ね合わせるように構成されるナビゲーション表示モジュール508とを含む。
An embodiment of the present disclosure further provides an indoor visual navigation device located on the mobile device side, as shown in the structural block diagram of the indoor visual navigation device shown in FIG. 5, the indoor visual navigation device includes:
an image uploading module 502 configured to, upon acquiring the indoor images to be positioned, upload the indoor images to the server for the server to determine the camera pose when the mobile device acquires the indoor images;
a coordinate system creation module 504 configured to receive the camera pose corresponding to the indoor image returned by the server and create an AR coordinate system aligned with the world coordinate system based on the camera pose corresponding to the indoor image; ,
a route planning module 506 configured to plan the shortest route in the pre-imported indoor topology map based on the destination information set by the user;
configured to display a current preview image collected by the mobile device on a screen of the mobile device, and superimpose a three-dimensional mark indicating a route traveling direction on the current preview image based on the AR coordinate system and the shortest path; and a navigation display module 508 .
本実施例に係る上記室内視覚ナビゲーション装置によれば、移動機器は、室内でARの方式によって、最短経路に従って目的地に行くようにユーザを簡便且つ効率よく案内し、ユーザエクスペリエンスをより向上させることができる。 According to the indoor visual navigation device according to the present embodiment, the mobile device can guide the user to the destination by simply and efficiently following the shortest route indoors using the AR method, thereby further improving the user experience. can be done.
1つの可能な実施形態では、座標系作成モジュール504は、初期のAR座標系を作成し、AR座標系が世界座標系に合わせるように、室内画像に対応するカメラポーズに基づいて初期のAR座標系を調整するように構成される。 In one possible embodiment, the coordinate system creation module 504 creates an initial AR coordinate system and calculates the initial AR coordinates based on the camera pose corresponding to the indoor image so that the AR coordinate system aligns with the world coordinate system. configured to regulate the system.
1つの可能な実施形態では、経路計画モジュール506は、目的地情報に基づいて、経路計画アルゴリズムを利用して、予めインポートされた室内トポロジーマップにおいて最短経路を計画するように構成される。 In one possible embodiment, the route planning module 506 is configured to utilize a route planning algorithm to plan the shortest route in a pre-imported indoor topology map based on the destination information.
1つの可能な実施形態では、ナビゲーション表示モジュール508は、現在のプレビュー画像における地平面を検出し、AR座標系での最短経路の3次元座標を決定し、決定した3次元座標に基づいて経路進行方向を示す3次元マークを生成し、現在のプレビュー画像における地平面に3次元マークを描画するように構成される。 In one possible embodiment, the navigation display module 508 detects the ground plane in the current preview image, determines the 3D coordinates of the shortest route in the AR coordinate system, and performs route progression based on the determined 3D coordinates. It is configured to generate a 3D mark indicating direction and to draw the 3D mark on the ground plane in the current preview image.
1つの可能な実施形態では、上記装置は、ナビゲーションにおいてサーバによって送信された現在のカメラポーズを受信したら、補正したAR座標系が世界座標系に合わせたままであるように、現在のカメラポーズに基づいてAR座標系を補正するように構成される座標系補正モジュールをさらに含む。 In one possible embodiment, once the device receives the current camera pose sent by the server in navigation, the device adjusts based on the current camera pose so that the corrected AR coordinate system remains aligned with the world coordinate system. further including a coordinate system correction module configured to correct the AR coordinate system using the coordinate system.
本実施例に係る装置、その実現原理及び発生させた技術的効果は、前述実施例と同様であり、説明を簡素化するために、装置の実施例の部分に記載されていないものに関しては、前述方法の実施例における対応する内容を参照すればよい。 The apparatus according to this embodiment, its implementation principle and the technical effects produced are the same as those of the previous embodiments, and for the sake of simplicity of explanation, those not described in the embodiment of the apparatus are: Please refer to the corresponding content in the foregoing method embodiments.
本開示の実施例は、サーバ側に配置された室内視覚ナビゲーション装置を更に提供し、図6に示す室内視覚ナビゲーション装置の構造ブロック図に示すように、室内視覚ナビゲーション装置は、
移動機器によってアップロードされた測位対象の室内画像を受信したら、移動機器が室内画像を収集するときのカメラポーズを決定するように構成されるポーズ決定モジュール602と、
移動機器が室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成し、AR座標系及び最短経路に基づいて経路進行方向を示す3次元マークを、移動機器によって収集された現在のプレビュー画像上に重ね合わせるように、室内画像に対応するカメラポーズを移動機器に送信するように構成される機器ナビゲーションモジュール604であって、最短経路は移動機器がユーザによって設定された目的地情報に基づいて室内トポロジーマップにおいて計画したものである機器ナビゲーションモジュール604とを含む。
An embodiment of the present disclosure further provides a server-side indoor visual navigation device, as shown in the structural block diagram of the indoor visual navigation device shown in FIG. 6, the indoor visual navigation device includes:
a pose determination module 602 configured to determine a camera pose when the mobile device collects the indoor image upon receiving the indoor image of the positioning target uploaded by the mobile device;
Based on the camera pose corresponding to the indoor image, the mobile device creates an AR coordinate system that matches the world coordinate system, and the mobile device collects 3D marks indicating the direction of travel based on the AR coordinate system and the shortest route. a device navigation module 604 configured to transmit a camera pose corresponding to the room image to the mobile device to overlay the displayed current preview image, wherein the shortest path to the mobile device is set by the user. and an equipment navigation module 604, which is planned in the indoor topology map based on the destination information.
本実施例に係る上記室内視覚ナビゲーション装置では、サーバはナビゲーションに必要な例えばカメラポーズ計算など計算量が大きなステップを担当し、次に、移動機器は、室内でARの方式によって、最短経路に従って目的地に行くようにユーザを簡便且つ効率よく案内し、ユーザエクスペリエンスをより向上させることができる。 In the above indoor visual navigation device according to the present embodiment, the server takes charge of the steps necessary for navigation, such as camera pose calculation, which require a large amount of calculation. It is possible to simply and efficiently guide the user to go to the ground and further improve the user experience.
1つの実施形態では、ポーズ決定モジュール602は、室内画像と予め作成された視覚マップライブラリ内の視覚マップについて特徴マッチングを行い、移動機器が室内画像を収集するときのカメラポーズを得るように構成され、視覚マップは室内シーンのスパースポイントクラウドモデルによって表される。 In one embodiment, the pose determination module 602 is configured to perform feature matching between the room image and a visual map in a pre-created visual map library to obtain the camera pose when the mobile device collects the room image. , the visual map is represented by a sparse point cloud model of the indoor scene.
1つの実施形態では、上記装置は、移動機器が室内シーンにおいて収集した複数枚のシーン画像を取得し、SFMアルゴリズムに基づいて複数枚のシーン画像に対して3次元再構成を行い、複数枚のシーン画像に対応するスパースポイントクラウドモデルを含む視覚マップライブラリを得るように構成されるマップ作成モジュールをさらに含む。 In one embodiment, the above apparatus obtains a plurality of scene images collected in an indoor scene by a mobile device, performs 3D reconstruction on the plurality of scene images based on an SFM algorithm, and obtains a plurality of scene images. Further includes a map creation module configured to obtain a visual map library containing sparse point cloud models corresponding to the scene image.
1つの実施形態では、上記装置は、視覚マップと予めインポートされた室内間取り図とを合わせるように構成される合わせモジュールをさらに含む。 In one embodiment, the apparatus further includes a matching module configured to match the visual map with the previously imported interior floor plan.
1つの実施形態では、上記装置は、移動機器がナビゲーションにおいて収集した現在のプレビュー画像を定時的に取得し、移動機器が現在のプレビュー画像を収集するときの現在のカメラポーズを決定するように構成される現在ポーズ決定モジュールと、移動機器が現在のカメラポーズに基づいてAR座標系を補正するように現在のカメラポーズを移動機器に送信するように構成される補正モジュールとをさらに含む。 In one embodiment, the apparatus is configured to periodically acquire a current preview image acquired by the mobile device in navigation and to determine a current camera pose when the mobile device acquires the current preview image. and a correction module configured to transmit the current camera pose to the mobile device such that the mobile device corrects the AR coordinate system based on the current camera pose.
本開示の実施例に係る装置、その実現原理及び発生させる技術効果は前述実施例と同様であり、説明を簡素化するために、装置の実施例の部分に記載されていないものに関しては、移動機器側による室内視覚ナビゲーション方法の実施例における対応する内容を参照すればよい。 The apparatus according to the embodiment of the present disclosure, its implementation principle, and the technical effects generated are the same as those of the above-described embodiments. Please refer to the corresponding content in the embodiment of the indoor visual navigation method by the device side.
本開示の実施例は、移動機器とサーバを含む室内視覚ナビゲーションシステムを更に提供する。 Embodiments of the present disclosure further provide an indoor visual navigation system including a mobile device and a server.
本開示の実施例は、プロセッサと記憶装置を含み、記憶装置には、プロセッサによって運行されると移動機器側による室内視覚ナビゲーション方法又はサーバ側による室内視覚ナビゲーション方法を実行するコンピュータプログラムが記憶されている電子機器を更に提供する。 An embodiment of the present disclosure includes a processor and a storage device, and the storage device stores a computer program for executing a mobile device-side indoor visual navigation method or a server-side indoor visual navigation method when run by the processor. It further provides an electronic device with a
本開示の実施例は、プロセッサによって運行されると移動機器側による室内視覚ナビゲーション方法又はサーバ側による室内視覚ナビゲーション方法を実行するコンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体を更に提供する。 Embodiments of the present disclosure further provide a computer-readable storage medium storing a computer program that, when run by a processor, performs a mobile-side indoor visual navigation method or a server-side indoor visual navigation method.
当業者にとって自明なように、説明の簡便さや簡素さのために、上記で説明したシステムの作動過程については、具体的には、前述実施例における対応する過程を参照すればよく、ここでは詳しく説明しない。 As will be apparent to those skilled in the art, for the convenience and simplicity of explanation, the operating steps of the above-described system can be specifically referred to the corresponding steps in the preceding embodiments, and will not be described in detail herein. No explanation.
本開示の実施例に係る室内視覚ナビゲーション方法、装置、システム及び電子機器のコンピュータプログラム製品は、プログラムコードが記憶されているコンピュータ読み取り可能な記憶媒体を含み、前記プログラムコードに含まれる命令は前記方法の実施例に記載の方法を実行することに用いられてもよく、具体的な実現は、本開示の実施例の前述内容を参照すればよく、ここでは詳しく説明しない。 An indoor visual navigation method, apparatus, system, and computer program product for an electronic device according to embodiments of the present disclosure include a computer readable storage medium having program code stored thereon, instructions contained in the program code for executing the method. , the specific implementation can refer to the foregoing content of the embodiments of the present disclosure, which will not be described in detail herein.
また、本開示の実施例の説明において、特に明確な規定や限定がない限り、「取り付ける」、「連結」、「接続」という用語は広義に理解すべきであり、例えば、固定接続、取り外し可能な接続、又は一体接続であってもよいし、機械的接続、電気的接続であってもよいし、直接連結、中間部材を介した間接連結、2つの素子の内部の連通であってもよい。当業者であれば、具体的な状況に応じて上記用語の本開示での具体的な意味を理解することができる。 Also, in the description of the embodiments of the present disclosure, the terms “attach”, “connect”, and “connect” should be understood broadly, unless otherwise clearly defined or limited. connection, integral connection, mechanical connection, electrical connection, direct connection, indirect connection via an intermediate member, and internal communication between the two elements. . A person of ordinary skill in the art can understand the specific meaning of the above terms in this disclosure depending on the specific situation.
前記機能は、ソフトウェア機能ユニットの形態として実装され、独立した製品として販売又は使用される場合、コンピュータ読み取り可能な記憶媒体に記憶され得る。このような知見に基づいて、本開示の技術的解決手段の主旨又は従来技術に貢献する部分又は該技術的解決手段の一部はソフトウェア製品の形態として具現化してもよく、該コンピュータソフトウェア製品は記憶媒体に記憶されており、一台のコンピュータ機器(パソコン、サーバ、又はネットワーク機器などであってもよい)に本開示の各実施形態に記載の方法の全部又は一部のステップを実行させ得る若干の命令を含む。前述の記憶媒体は、USBメモリ、リムーバブルハードディスク、読み取り専用メモリ(ROM、Read-Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、磁気ディスクやコンパクトディスクなど、プログラムコードを記憶し得る各種の媒体であってもよい。 The functionality may be implemented in the form of software functional units and stored on a computer-readable storage medium when sold or used as an independent product. Based on such knowledge, the gist of the technical solution of the present disclosure, the part contributing to the prior art, or part of the technical solution may be embodied in the form of a software product, and the computer software product is stored in a storage medium, and can cause a single computer device (which may be a personal computer, a server, or a network device) to execute all or part of the steps of the method described in each embodiment of the present disclosure; Contains some instructions. The aforementioned storage media include USB memory, removable hard disk, read-only memory (ROM), random access memory (RAM), magnetic disk, compact disk, etc., which can store program code. It may be a medium.
なお、本開示の説明において、「中心」、「上」、「下」、「左」、「右」、「垂直」、「水平」、「内」、「外」などの用語により示される方位又は位置関係は図面に示される方位又は位置関係に基づくものであり、本開示の説明を簡単かつ簡略にするためのものに過ぎず、かかる装置又は素子が必ずしも特定の方位を有したり、特定の方位で構成、操作されたりすることを指示又は示唆するものではなく、このため、本開示を制限するものとして理解すべきではない。さらに、「第1」、「第2」、「第3」という用語は説明するためのものに過ぎず、相対重要性を指示又は示唆するものとして理解すべきではない。 In the description of the present disclosure, directions indicated by terms such as "center", "upper", "lower", "left", "right", "vertical", "horizontal", "inside", and "outside" or are based on the orientation or positional relationships shown in the drawings, and are merely for simplicity and simplicity of description of the present disclosure, and such devices or elements do not necessarily have a particular orientation or have a particular orientation. It is not intended or implied to be configured or operated in any orientation, and as such should not be construed as limiting the present disclosure. Furthermore, the terms "first," "second," and "third" are for descriptive purposes only and should not be understood as indicating or implying relative importance.
なお、以上の実施例は、本開示の好適な実施形態に過ぎず、本開示の技術的解決手段を説明するものであり、限定することを意図しておらず、本開示の特許範囲はこれらに限定されるものではなく、本開示は前述実施例を参照して詳細に説明されたが、当業者が理解できるように、当業者であれば、本開示で開示された技術的範囲を逸脱することなく、前述実施例に記載の技術的解決手段を修正したり、変化を容易に想到したり、その技術的特徴の一部に同等置換を行ったりすることができ、これらの修正、変化又は置換により、対応する技術的解決手段の主旨は本開示の実施例の技術的解決手段の精神や範囲を逸脱することはなく、これらは全て本開示の保護範囲に含まれるものとする。このため、本開示の保護範囲は特許請求の範囲の保護範囲に準じるべきである。 It should be noted that the above examples are only preferred embodiments of the present disclosure, and are intended to describe the technical solutions of the present disclosure and are not intended to be limiting, and the patent scope of the present disclosure is limited to these Although the present disclosure has been described in detail with reference to the foregoing examples, without being limited to You can modify the technical solutions described in the above-described embodiments, easily conceive of changes, or make equivalent substitutions for part of the technical features, and these modifications and changes or replacement, the gist of the corresponding technical solutions does not depart from the spirit and scope of the technical solutions in the embodiments of the present disclosure, and they are all covered by the protection scope of the present disclosure. Therefore, the protection scope of the present disclosure should conform to the protection scope of the claims.
<産業上の利用可能性>
本開示の実施例は、収集した測位対象の室内画像を移動機器でサーバにアップロードし、移動機器が室内画像を収集するときのカメラポーズをサーバで決定し、室内画像に対応するカメラポーズが移動機器に送信された後、移動機器が室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成し、ユーザによって設定された目的地情報に基づいて、予めインポートされた室内トポロジーマップにおいて最短経路を計画し、最後に移動機器によって収集された現在のプレビュー画像を画面に表示し、AR座標系及び最短経路に基づいて経路進行方向を示す3次元マークを現在のプレビュー画像上に重ね合わせることによって、室内視覚ナビゲーションを実現する室内視覚ナビゲーション方法、装置、システム及び電子機器を提供する。このようにして、室内でARの方式によって、最短経路に従って目的地に行くようにユーザを案内し、ユーザエクスペリエンスをより向上させることができる。
<Industrial applicability>
In the embodiment of the present disclosure, the mobile device uploads the collected indoor image of the positioning target to the server, the server determines the camera pose when the mobile device collects the indoor image, and the camera pose corresponding to the indoor image is moved. After being sent to the device, the mobile device creates an AR coordinate system aligned with the world coordinate system based on the camera pose corresponding to the indoor image, and based on the destination information set by the user, the pre-imported The shortest path is planned in the indoor topology map, and finally the current preview image collected by the mobile device is displayed on the screen, and the 3D mark indicating the path traveling direction is displayed on the current preview image based on the AR coordinate system and the shortest path. Provide an indoor visual navigation method, apparatus, system and electronic equipment for realizing indoor visual navigation by overlaying. In this way, the user can be guided to the destination by following the shortest route indoors using the AR method, and the user experience can be further improved.
Claims (18)
測位対象の室内画像を収集したら、前記移動機器が前記室内画像を収集するときのカメラポーズをサーバによって決定されるために前記室内画像を前記サーバにアップロードするステップと、
前記サーバから返信された前記室内画像に対応するカメラポーズを受信し、前記室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成するステップと、
ユーザによって設定された目的地情報に基づいて、予めインポートされた室内トポロジーマップにおいて最短経路を計画するステップと、
前記移動機器によって収集された現在のプレビュー画像を前記移動機器の画面に表示し、前記AR座標系及び前記最短経路に基づいて、経路進行方向を示す3次元マークを前記現在のプレビュー画像上に重ね合わせるステップと、を含む、室内視覚ナビゲーション方法。 An indoor visual navigation method performed by a mobile device, comprising:
After collecting the indoor images to be positioned, uploading the indoor images to the server for determination by the server of a camera pose when the mobile device collects the indoor images;
a step of receiving a camera pose corresponding to the indoor image returned from the server and creating an AR coordinate system adapted to the world coordinate system based on the camera pose corresponding to the indoor image;
planning the shortest path in the pre-imported indoor topology map based on the destination information set by the user;
displaying a current preview image collected by the mobile device on a screen of the mobile device, and superimposing a three-dimensional mark indicating a route traveling direction on the current preview image based on the AR coordinate system and the shortest path; A room visual navigation method, comprising:
初期のAR座標系を作成するステップと、
前記AR座標系が世界座標系に合わせるように、前記室内画像に対応するカメラポーズに基づいて前記初期のAR座標系を調整するステップと、を含む、請求項1に記載の方法。 The step of creating an AR coordinate system adapted to the world coordinate system based on the camera pose corresponding to the indoor image,
creating an initial AR coordinate system;
adjusting the initial AR coordinate system based on a camera pose corresponding to the indoor image so that the AR coordinate system aligns with the world coordinate system.
ユーザによって設定された目的地情報に基づいて、経路計画アルゴリズムを利用して、予めインポートされた室内トポロジーマップにおいて最短経路を計画するステップを含む、請求項1又は2に記載の方法。 planning the shortest path in the pre-imported indoor topology map based on the destination information set by the user;
3. A method according to claim 1 or 2, comprising using a route planning algorithm to plan the shortest route in a pre-imported indoor topology map based on the destination information set by the user.
前記現在のプレビュー画像における地平面を検出するステップと、
前記AR座標系での前記最短経路の3次元座標を決定し、決定した前記3次元座標に基づいて経路進行方向を示す3次元マークを生成するステップと、
前記現在のプレビュー画像における地平面に前記3次元マークを描画するステップと、を含む、請求項1~3のいずれか1項に記載の方法。 The step of superimposing a three-dimensional mark indicating the traveling direction of the route on the current preview image,
detecting a ground plane in the current preview image;
determining the three-dimensional coordinates of the shortest route in the AR coordinate system, and generating a three-dimensional mark indicating the traveling direction of the route based on the determined three-dimensional coordinates;
and drawing the three-dimensional mark on the ground plane in the current preview image.
移動機器によってアップロードされた測位対象の室内画像を受信したら、前記移動機器が前記室内画像を収集するときのカメラポーズを決定するステップと、
前記移動機器が前記室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成し、前記AR座標系及び最短経路に基づいて経路進行方向を示す3次元マークを前記移動機器によって収集された現在のプレビュー画像上に重ね合わせるように、前記室内画像に対応するカメラポーズを前記移動機器に送信するステップであって、前記最短経路は前記移動機器がユーザによって設定された目的地情報に基づいて室内トポロジーマップにおいて計画したものであるステップと、を含む、室内視覚ナビゲーション方法。 An indoor visual navigation method executed by a server, comprising:
Upon receiving an indoor image of a positioning target uploaded by a mobile device, determining a camera pose when the mobile device collects the indoor image;
The mobile device creates an AR coordinate system that matches the world coordinate system based on the camera pose corresponding to the indoor image, and moves the three-dimensional mark indicating the traveling direction of the route based on the AR coordinate system and the shortest route. sending a camera pose corresponding to the room image to the mobile device so as to be overlaid on a current preview image collected by the device, wherein the shortest path is a destination for which the mobile device has been set by a user; planning in an indoor topology map based on ground information.
前記室内画像と予め作成された視覚マップライブラリ内の視覚マップについて特徴マッチングを行い、前記移動機器が前記室内画像を収集するときのカメラポーズを得るステップであって、前記視覚マップは室内シーンのスパースポイントクラウドモデルによって表されるステップを含む、請求項6に記載の方法。 Determining a camera pose when the mobile device acquires the room image comprises:
performing feature matching between the indoor image and a visual map in a pre-created visual map library to obtain a camera pose when the mobile device collects the indoor image, wherein the visual map is a sparse indoor scene; 7. The method of claim 6, comprising steps represented by a point cloud model.
ディープハッシュアルゴリズムを利用して前記室内画像のグローバル画像記述子を計算するステップと、
前記視覚マップライブラリにおいて前記グローバル画像記述子に類似している複数のキーフレーム画像を検索するステップと、
前記キーフレーム画像のそれぞれのキーフレーム情報を取得するステップと、
前記キーフレーム情報に従って前記複数のキーフレーム画像を複数のクラスタに分けるステップと、
前記クラスタのそれぞれをトラバースして、前記室内画像のローカル特徴点を取得するステップと、
ローカル記述子を計算して、前記クラスタ内のローカル特徴点とマッチングさせるステップと、
マッチングに成功するローカル特徴点に対応する3Dマップポイントを得るステップと、
前記3Dマップポイントの個数が予め設定された個数よりも大きいと、前記室内画像に対応するカメラポーズを得るステップとを含む、請求項7に記載の方法。 performing feature matching between the room image and a visual map in a pre-created visual map library to obtain a camera pose when the mobile device collects the room image,
calculating a global image descriptor for the indoor image using a deep hashing algorithm;
searching the visual map library for a plurality of keyframe images that are similar to the global image descriptor;
obtaining keyframe information for each of the keyframe images;
dividing the plurality of keyframe images into a plurality of clusters according to the keyframe information;
traversing each of the clusters to obtain local feature points of the room image;
computing local descriptors to match local feature points within the cluster;
obtaining 3D map points corresponding to successfully matched local feature points;
and obtaining a camera pose corresponding to the room image if the number of 3D map points is greater than a preset number.
移動機器が室内シーンにおいて収集した複数枚のシーン画像を取得するステップと、
SFMアルゴリズムに基づいて前記複数枚のシーン画像に対して3次元再構成を行い、前記複数枚のシーン画像に対応するスパースポイントクラウドモデルを含む視覚マップライブラリを得るステップと、を含む、請求項7又は8に記載の方法。 The creation of the visual map library includes:
acquiring a plurality of scene images acquired by a mobile device in an indoor scene;
performing 3D reconstruction on the plurality of scene images based on an SFM algorithm to obtain a visual map library containing sparse point cloud models corresponding to the plurality of scene images. Or the method according to 8.
前記視覚マップ内の原特徴を符号化するステップと、
符号化した原特徴を保存して、符号化する前の原特徴を除去するステップと、を含む、請求項11に記載の方法。 Compressing the visual maps in the visual map library comprises:
encoding original features in the visual map;
preserving the encoded original features and removing the original features before encoding.
前記移動機器が前記現在のカメラポーズに基づいて前記AR座標系を補正するように、前記現在のカメラポーズを前記移動機器に送信するステップと、をさらに含む、請求項6~12のいずれか1項に記載の方法。 periodically acquiring a current preview image acquired by the mobile device in navigation and determining a current camera pose when the mobile device acquires the current preview image;
transmitting the current camera pose to the mobile device such that the mobile device corrects the AR coordinate system based on the current camera pose. The method described in section.
測位対象の室内画像を収集したら、前記移動機器が前記室内画像を収集するときのカメラポーズをサーバによって決定されるために前記室内画像を前記サーバにアップロードするように構成される画像アップロードモジュールと、
前記サーバから返信された前記室内画像に対応するカメラポーズを受信し、前記室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成するように構成される座標系作成モジュールと、
ユーザによって設定された目的地情報に基づいて、予めインポートされた室内トポロジーマップにおいて最短経路を計画するように構成される経路計画モジュールと、
前記移動機器によって収集された現在のプレビュー画像を前記移動機器の画面に表示し、前記AR座標系及び前記最短経路に基づいて、経路進行方向を示す3次元マークを前記現在のプレビュー画像上に重ね合わせるように構成されるナビゲーション表示モジュールと、を含む、室内視覚ナビゲーション装置。 An indoor visual navigation device arranged on a mobile device side,
an image upload module configured to, upon acquiring an indoor image to be positioned, upload the indoor image to the server for determination by the server of a camera pose when the mobile device acquires the indoor image;
Coordinate system creation configured to receive a camera pose corresponding to the indoor image returned from the server and create an AR coordinate system adapted to the world coordinate system based on the camera pose corresponding to the indoor image a module;
a route planning module configured to plan the shortest route in the pre-imported indoor topology map based on the destination information set by the user;
displaying a current preview image collected by the mobile device on a screen of the mobile device, and superimposing a three-dimensional mark indicating a route traveling direction on the current preview image based on the AR coordinate system and the shortest path; a navigation display module configured to mate with the indoor visual navigation device.
移動機器によってアップロードされた測位対象の室内画像を受信したら、前記移動機器が前記室内画像を収集するときのカメラポーズを決定するように構成されるポーズ決定モジュールと、
前記移動機器が前記室内画像に対応するカメラポーズに基づいて、世界座標系に合わせたAR座標系を作成し、前記AR座標系及び最短経路に基づいて経路進行方向を示す3次元マークを前記移動機器によって収集された現在のプレビュー画像上に重ね合わせるように、前記室内画像に対応するカメラポーズを前記移動機器に送信するように構成される機器ナビゲーションモジュールであって、前記最短経路は前記移動機器がユーザによって設定された目的地情報に基づいて室内トポロジーマップにおいて計画したものである機器ナビゲーションモジュールと、を含む、室内視覚ナビゲーション装置。 An indoor visual navigation device located on the server side,
a pose determination module configured to, upon receiving an indoor image of a positioning target uploaded by a mobile device, determine a camera pose when the mobile device collects the indoor image;
The mobile device creates an AR coordinate system that matches the world coordinate system based on the camera pose corresponding to the indoor image, and moves the three-dimensional mark indicating the traveling direction of the route based on the AR coordinate system and the shortest route. a device navigation module configured to transmit a camera pose corresponding to the room image to the mobile device overlaid on a current preview image collected by the device, wherein the shortest path is the mobile device is planned in the indoor topology map based on the destination information set by the user.
前記移動機器は、請求項1~5のいずれか1項に記載の方法を実行するように構成され、前記サーバは、請求項6~13のいずれか1項に記載の方法を実行するように構成される室内視覚ナビゲーションシステム。 An indoor visual navigation system including a mobile device and a server communicatively connected, comprising:
The mobile device is configured to perform the method according to any one of claims 1-5 and the server is adapted to perform the method according to any one of claims 6-13. indoor visual navigation system.
前記記憶装置には、前記プロセッサによって運行されると請求項1~5のいずれか1項に記載の方法、又は請求項6~13のいずれか1項に記載の方法を実行するコンピュータプログラムが記憶されている、電子機器。 including a processor and storage device;
The storage device stores a computer program that, when run by the processor, executes the method according to any one of claims 1 to 5 or the method according to any one of claims 6 to 13. electronic equipment.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010292954.X | 2020-04-14 | ||
CN202010292954.XA CN111627114A (en) | 2020-04-14 | 2020-04-14 | Indoor visual navigation method, device and system and electronic equipment |
PCT/CN2020/119479 WO2021208372A1 (en) | 2020-04-14 | 2020-09-30 | Indoor visual navigation method, apparatus, and system, and electronic device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023509099A true JP2023509099A (en) | 2023-03-06 |
Family
ID=72273170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022566506A Pending JP2023509099A (en) | 2020-04-14 | 2020-09-30 | INDOOR VISUAL NAVIGATION METHOD, APPARATUS, SYSTEM AND ELECTRONIC DEVICE |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2023509099A (en) |
CN (1) | CN111627114A (en) |
WO (1) | WO2021208372A1 (en) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111627114A (en) * | 2020-04-14 | 2020-09-04 | 北京迈格威科技有限公司 | Indoor visual navigation method, device and system and electronic equipment |
WO2022087916A1 (en) * | 2020-10-28 | 2022-05-05 | 华为技术有限公司 | Positioning method and apparatus, and electronic device and storage medium |
CN112577492B (en) * | 2020-12-15 | 2023-06-13 | 国科易讯(北京)科技有限公司 | Path planning method and system |
CN112729327B (en) * | 2020-12-24 | 2024-06-07 | 浙江商汤科技开发有限公司 | Navigation method, navigation device, computer equipment and storage medium |
CN113240816B (en) * | 2021-03-29 | 2022-01-25 | 泰瑞数创科技(北京)有限公司 | AR and semantic model based city accurate navigation method and device |
CN113063424B (en) * | 2021-03-29 | 2023-03-24 | 湖南国科微电子股份有限公司 | Method, device, equipment and storage medium for intra-market navigation |
CN113159433B (en) * | 2021-04-28 | 2022-02-22 | 中国科学院沈阳应用生态研究所 | Dynamic navigation path searching method for integrated indoor mixed three-dimensional road network |
CN113587928B (en) * | 2021-07-28 | 2022-12-16 | 北京百度网讯科技有限公司 | Navigation method, navigation device, electronic equipment, storage medium and computer program product |
CN113865593A (en) * | 2021-09-14 | 2021-12-31 | 山东新一代信息产业技术研究院有限公司 | Indoor navigation method, equipment and medium |
CN114295133A (en) * | 2021-12-06 | 2022-04-08 | 浪潮软件股份有限公司 | Indoor street view roaming method and system based on image recognition |
CN114071392B (en) * | 2021-12-28 | 2023-07-25 | 智小途(上海)数字科技有限公司 | UWB indoor high-precision three-dimensional live-action data construction method and system |
CN114111803B (en) * | 2022-01-26 | 2022-04-19 | 中国人民解放军战略支援部队航天工程大学 | Visual navigation method of indoor satellite platform |
CN117308939A (en) * | 2022-06-20 | 2023-12-29 | 中兴通讯股份有限公司 | AR navigation method, terminal and storage medium |
CN115454055B (en) * | 2022-08-22 | 2023-09-19 | 中国电子科技南湖研究院 | Multi-layer fusion map representation method for indoor autonomous navigation and operation |
CN115290110A (en) * | 2022-08-25 | 2022-11-04 | 广东车卫士信息科技有限公司 | AR navigation method, system and computer readable storage medium |
CN115683117A (en) * | 2022-11-07 | 2023-02-03 | 上海齐感电子信息科技有限公司 | Indoor navigation method, device and system |
CN115578539B (en) * | 2022-12-07 | 2023-09-19 | 深圳大学 | Indoor space high-precision visual position positioning method, terminal and storage medium |
CN117152245B (en) * | 2023-01-31 | 2024-09-03 | 荣耀终端有限公司 | Pose calculation method and device |
CN117128959A (en) * | 2023-04-18 | 2023-11-28 | 荣耀终端有限公司 | Car searching navigation method, electronic equipment, server and system |
CN116313020B (en) * | 2023-05-22 | 2023-08-18 | 合肥工业大学 | Intelligent processing method and system for medical service |
CN117705109A (en) * | 2023-05-26 | 2024-03-15 | 荣耀终端有限公司 | Path planning method, equipment and storage medium |
CN116402826B (en) * | 2023-06-09 | 2023-09-26 | 深圳市天趣星空科技有限公司 | Visual coordinate system correction method, device, equipment and storage medium |
CN116858215B (en) * | 2023-09-05 | 2023-12-05 | 武汉大学 | AR navigation map generation method and device |
CN117837360B (en) * | 2024-01-09 | 2024-09-17 | 四川省农业机械科学研究院 | Seeding method based on visual positioning |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014524577A (en) * | 2011-08-19 | 2014-09-22 | クゥアルコム・インコーポレイテッド | Logo detection for indoor positioning |
JP2020046254A (en) * | 2018-09-18 | 2020-03-26 | 株式会社Screenホールディングス | Route guidance program, route guidance device, and route guidance system |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110288763A1 (en) * | 2010-05-18 | 2011-11-24 | Alpine Electronics, Inc. | Method and apparatus for displaying three-dimensional route guidance |
CN106791784B (en) * | 2016-12-26 | 2019-06-25 | 深圳增强现实技术有限公司 | A kind of the augmented reality display methods and device of actual situation coincidence |
CN106679668B (en) * | 2016-12-30 | 2018-08-03 | 百度在线网络技术(北京)有限公司 | Air navigation aid and device |
US10331244B2 (en) * | 2017-06-23 | 2019-06-25 | Pixart Imaging Inc. | Navagation device with fast frame rate upshift and operating method thereof |
CN110019580B (en) * | 2017-08-25 | 2022-07-12 | 腾讯科技(深圳)有限公司 | Map display method, map display device, storage medium and terminal |
CN107782314B (en) * | 2017-10-24 | 2020-02-11 | 张志奇 | Code scanning-based augmented reality technology indoor positioning navigation method |
CN109272454B (en) * | 2018-07-27 | 2020-07-03 | 阿里巴巴集团控股有限公司 | Coordinate system calibration method and device of augmented reality equipment |
CN110017841A (en) * | 2019-05-13 | 2019-07-16 | 大有智能科技(嘉兴)有限公司 | Vision positioning method and its air navigation aid |
CN110260867B (en) * | 2019-07-29 | 2021-06-15 | 浙江华睿科技有限公司 | Method, equipment and device for determining and correcting neutral position in robot navigation |
CN111627114A (en) * | 2020-04-14 | 2020-09-04 | 北京迈格威科技有限公司 | Indoor visual navigation method, device and system and electronic equipment |
-
2020
- 2020-04-14 CN CN202010292954.XA patent/CN111627114A/en active Pending
- 2020-09-30 WO PCT/CN2020/119479 patent/WO2021208372A1/en active Application Filing
- 2020-09-30 JP JP2022566506A patent/JP2023509099A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014524577A (en) * | 2011-08-19 | 2014-09-22 | クゥアルコム・インコーポレイテッド | Logo detection for indoor positioning |
JP2020046254A (en) * | 2018-09-18 | 2020-03-26 | 株式会社Screenホールディングス | Route guidance program, route guidance device, and route guidance system |
Also Published As
Publication number | Publication date |
---|---|
WO2021208372A1 (en) | 2021-10-21 |
CN111627114A (en) | 2020-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023509099A (en) | INDOOR VISUAL NAVIGATION METHOD, APPARATUS, SYSTEM AND ELECTRONIC DEVICE | |
WO2020259248A1 (en) | Depth information-based pose determination method and device, medium, and electronic apparatus | |
US11928800B2 (en) | Image coordinate system transformation method and apparatus, device, and storage medium | |
CN110457414B (en) | Offline map processing and virtual object display method, device, medium and equipment | |
WO2019242262A1 (en) | Augmented reality-based remote guidance method and device, terminal, and storage medium | |
CN109891189B (en) | Planned photogrammetry | |
US9558559B2 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
JP6348574B2 (en) | Monocular visual SLAM using global camera movement and panoramic camera movement | |
US20170076482A1 (en) | Position searching method and apparatus based on electronic map | |
WO2018059034A1 (en) | Method and device for playing 360-degree video | |
WO2021082801A1 (en) | Augmented reality processing method and apparatus, system, storage medium and electronic device | |
EP3746869A1 (en) | Systems and methods for anchoring virtual objects to physical locations | |
JP6182607B2 (en) | Video surveillance system, surveillance device | |
US9392248B2 (en) | Dynamic POV composite 3D video system | |
WO2019109828A1 (en) | Ar service processing method, device, server, mobile terminal, and storage medium | |
CN112270736B (en) | Augmented reality processing method and device, storage medium and electronic equipment | |
WO2023051289A1 (en) | Navigation method and apparatus for unmanned device, medium, and unmanned device | |
CN104360729A (en) | Multi-interactive method and device based on Kinect and Unity 3D | |
EP3422145B1 (en) | Provision of virtual reality content | |
US20170277196A1 (en) | Method for specifying position, terminal device, autonomous device, and program | |
WO2023088127A1 (en) | Indoor navigation method, server, apparatus and terminal | |
CN117152393A (en) | Augmented reality presentation method, system, device, equipment and medium | |
US11776157B2 (en) | Panoramic image based jump position determination method and apparatus and non-transitory computer-readable medium | |
JP2017183816A (en) | Moving image distribution server, moving image output device, moving image distribution system, and moving image distribution method | |
WO2023149118A1 (en) | Program, information processing device, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220706 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20221111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20221111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230705 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240208 |