JP7075090B1 - Information processing system and information processing method - Google Patents
Information processing system and information processing method Download PDFInfo
- Publication number
- JP7075090B1 JP7075090B1 JP2021153179A JP2021153179A JP7075090B1 JP 7075090 B1 JP7075090 B1 JP 7075090B1 JP 2021153179 A JP2021153179 A JP 2021153179A JP 2021153179 A JP2021153179 A JP 2021153179A JP 7075090 B1 JP7075090 B1 JP 7075090B1
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- data
- server
- model data
- real space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 38
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000005259 measurement Methods 0.000 claims abstract description 11
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000000034 method Methods 0.000 abstract description 60
- 238000010586 diagram Methods 0.000 abstract description 11
- 238000000605 extraction Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 15
- 239000000284 extract Substances 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 239000011521 glass Substances 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】端末が現実空間をスキャンして得たデータと現実空間を模したデータとのマッチングによって端末の位置を推定する処理にかかる時間を短縮する。
【解決手段】情報処理システムにおいて、端末は、現実空間における端末の位置を測定し、現実空間を3Dスキャンし、端末の位置の測定結果を含む端末位置姿勢情報と現実空間の3Dスキャンの結果を含む3Dスキャンデータとをサーバへ送信し、サーバは、端末から端末位置姿勢情報及び前記3Dスキャンデータを受信し、端末位置姿勢情報に基づいて、現実空間を3Dモデル化したデータである空間モデルデータの一部を部分空間モデルデータとして抽出し、部分空間モデルデータから3Dスキャンデータとマッチングする部分を検出することにより、空間モデルデータ内における端末の位置を特定し、空間モデルデータ内における端末の位置を示すモデル内端末位置姿勢情報を端末に送信する。
【選択図】図1
PROBLEM TO BE SOLVED: To shorten the time required for a process of estimating the position of a terminal by matching the data obtained by scanning the real space with the data imitating the real space.
In an information processing system, a terminal measures the position of the terminal in the real space, scans the real space in 3D, and displays the terminal position / orientation information including the measurement result of the position of the terminal and the result of the 3D scan in the real space. The including 3D scan data is transmitted to the server, and the server receives the terminal position / orientation information and the 3D scan data from the terminal, and based on the terminal position / orientation information, the spatial model data which is the data obtained by modeling the real space in 3D. By extracting a part of the above as subspace model data and detecting the part that matches the 3D scan data from the subspace model data, the position of the terminal in the space model data is specified, and the position of the terminal in the space model data. In-model terminal position / orientation information indicating is transmitted to the terminal.
[Selection diagram] Fig. 1
Description
本開示は、情報処理システム、及び、情報処理方法に関する。 The present disclosure relates to an information processing system and an information processing method.
現実空間に仮想オブジェクトがあたかも存在しているかのようにユーザに視認させるAR(拡張現実:Augmented Reality)又はMR(複合現実:Mixed Reality)の技術が知られている。仮想オブジェクトを現実空間にずれなく視認させるためには、AR又はMRの体験をユーザに提供する端末の現実空間での位置及び姿勢を高精度に推定することが求められる。 AR (Augmented Reality) or MR (Mixed Reality) technologies that make users visually recognize virtual objects as if they exist in real space are known. In order to visually recognize the virtual object without shifting to the real space, it is required to estimate the position and posture of the terminal that provides the user with the experience of AR or MR with high accuracy.
特許文献1には、次の端末が開示される。すなわち、端末は、周辺の実画像を撮影するカメラによって撮影された現在の実画像とサーバから取得した3D点群データとを基にし、それぞれの特徴点をマッチングすることにより当該端末の現実空間での位置を推定し、カメラによって撮影された設備の実画像上にサーバから取得した設備情報の3次元画像をAR技術を用いて重畳表示する。
しかしながら、端末が現実空間を撮像又はスキャンして得たデータと、現実空間を模したデータとのマッチングによって現実空間での端末の位置を推定する処理は、マッチング対象のデータ量が大きくなると、処理時間が長くなる傾向にある。 However, the process of estimating the position of the terminal in the real space by matching the data obtained by imaging or scanning the real space with the data imitating the real space is processed when the amount of data to be matched becomes large. The time tends to be longer.
本開示の目的は、端末が現実空間をスキャンして得たデータと現実空間を模したデータとのマッチングによって端末の位置を推定する処理にかかる時間を短縮することにある。 An object of the present disclosure is to reduce the time required for the process of estimating the position of the terminal by matching the data obtained by scanning the real space with the data imitating the real space.
本開示の一態様は、端末及びサーバを備える情報処理システムであって、前記端末は、現実空間における前記端末の位置を測定し、前記現実空間を3Dスキャンし、前記端末の位置の測定結果を含む端末位置姿勢情報と前記現実空間の3Dスキャンの結果を含む3Dスキャンデータとを前記サーバへ送信し、前記サーバは、前記端末から前記端末位置姿勢情報及び前記3Dスキャンデータを受信し、前記端末位置姿勢情報に基づいて、前記現実空間を3Dモデル化したデータである空間モデルデータの一部を部分空間モデルデータとして抽出し、前記部分空間モデルデータから前記3Dスキャンデータとマッチングする部分を検出することにより、前記空間モデルデータ内における前記端末の位置を特定し、前記空間モデルデータ内における前記端末の位置を示すモデル内端末位置姿勢情報を前記端末に送信する、情報処理システムを提供する。 One aspect of the present disclosure is an information processing system including a terminal and a server, in which the terminal measures the position of the terminal in the real space, scans the real space in 3D, and obtains the measurement result of the position of the terminal. The terminal position / orientation information including the terminal position / orientation information and the 3D scan data including the result of the 3D scan in the real space are transmitted to the server, and the server receives the terminal position / orientation information and the 3D scan data from the terminal, and the terminal. Based on the position / orientation information, a part of the spatial model data which is the data obtained by modeling the real space in 3D is extracted as the partial spatial model data, and the portion matching with the 3D scan data is detected from the partial spatial model data. This provides an information processing system that identifies the position of the terminal in the spatial model data and transmits the terminal position / orientation information in the model indicating the position of the terminal in the spatial model data to the terminal.
本開示の一態様は、端末及びサーバによる情報処理方法であって、前記端末は、現実空間における前記端末の位置を測定し、前記現実空間を3Dスキャンし、前記端末の位置の測定結果を含む端末位置姿勢情報と、前記現実空間の3Dスキャンの結果を含む3Dスキャンデータとを前記サーバへ送信し、前記サーバは、前記端末から前記端末位置姿勢情報及び前記3Dスキャンデータを受信し、前記端末位置姿勢情報に基づいて、前記現実空間を3Dモデル化したデータである空間モデルデータの一部を部分空間モデルデータとして抽出し、前記部分空間モデルデータから前記3Dスキャンデータとマッチングする部分を特定することにより、前記空間モデルデータ内における前記端末の位置を特定し、特定した前記空間モデルデータ内における前記端末の位置を示すモデル内端末位置姿勢情報を前記端末に送信する、情報処理方法を提供する。 One aspect of the present disclosure is an information processing method using a terminal and a server, wherein the terminal measures the position of the terminal in a real space, scans the real space in 3D, and includes a measurement result of the position of the terminal. The terminal position / orientation information and 3D scan data including the result of the 3D scan in the real space are transmitted to the server, and the server receives the terminal position / attitude information and the 3D scan data from the terminal, and the terminal. Based on the position / orientation information, a part of the spatial model data which is the data obtained by modeling the real space in 3D is extracted as the partial spatial model data, and the portion matching with the 3D scan data is specified from the partial spatial model data. This provides an information processing method for specifying the position of the terminal in the spatial model data and transmitting the terminal position / orientation information in the model indicating the position of the terminal in the specified spatial model data to the terminal. ..
なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又は記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 It should be noted that these comprehensive or specific embodiments may be realized by a system, an apparatus, a method, an integrated circuit, a computer program or a recording medium, and any of the system, an apparatus, a method, an integrated circuit, a computer program and a recording medium. It may be realized by various combinations.
本開示によれば、端末が現実空間をスキャンして得たデータと現実空間を模したデータとのマッチングによって端末の位置を推定する処理にかかる時間を短縮することができる。 According to the present disclosure, it is possible to shorten the time required for the process of estimating the position of the terminal by matching the data obtained by scanning the real space with the data imitating the real space.
以下、図面を参照して、本開示の実施の形態について詳細に説明する。ただし、公知の事項又は重複する事項については説明を省略する場合がある。また、図面及び以下の記載は一例に過ぎず、特許請求の範囲の記載の主題を限定することは意図されていない。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. However, explanations may be omitted for publicly known matters or overlapping matters. In addition, the drawings and the following description are merely examples, and are not intended to limit the subject matter of the description of the claims.
(本実施の形態)
<情報処理システムの構成>
図1は、本実施の形態に係る情報処理システムの構成例を示すブロック図である。図2は、本実施の形態に係る空間モデルデータの一例を示す模式図である。図3は、本実施の形態に係る3Dスキャンデータの一例を示す模式図である。
(Implementation)
<Information processing system configuration>
FIG. 1 is a block diagram showing a configuration example of an information processing system according to the present embodiment. FIG. 2 is a schematic diagram showing an example of spatial model data according to the present embodiment. FIG. 3 is a schematic diagram showing an example of 3D scan data according to the present embodiment.
本実施の形態に係る情報処理システム1は、端末100及びサーバ200を含んで構成される。サーバ200は、情報処理装置と読み替えられてもよい。端末100とサーバ200は、所定の通信ネットワーク3を介して、データを送受信できる。通信ネットワーク3の例として、移動体通信網(例えばLTE(Long Term Evolution)、4G、5G、Wi-Fi(登録商標)等)、又は、インターネット網等が挙げられる。端末100の例として、スマートフォン、タブレット端末、VR(仮想現実:Virtual Reality)装置、AR眼鏡等が挙げられる。
The
情報処理システム1は、端末100が現実空間を3Dスキャンして3Dスキャンデータ120(図3参照)を生成し、サーバ200がその3Dスキャンデータ120と空間モデルデータ220(図2参照)とのマッチング処理を行って空間モデルデータ220内での端末100の位置、高度及び姿勢を算出することにより、現実空間における端末100の位置、高度及び姿勢を高精度に特定する。以下、このように高精度に特定された端末100の位置、高度及び姿勢を示す情報を、高精度端末位置姿勢情報122と称する。これにより、例えば、端末100は、現実空間の所定の位置にあたかも所定の仮想オブジェクトが存在するようにユーザに視認させる場合、高精度端末位置姿勢情報122を用いて、現実空間に対する仮想オブジェクトの位置合わせを精度良く行うことができる。
In the
3Dスキャンデータ120は、図3に示すように、LiDAR(Light Detection And Ranging)又はステレオカメラ等によって現実空間を3Dスキャンして得られた3D点群データであってよい。
As shown in FIG. 3, the
空間モデルデータ220は、図2に示すように、現実空間における物体を3Dモデル化したデータであってよい。現実空間は、屋外及び屋内の両方を含んでよい。屋外の現実空間において3Dモデル化される物体の例として、建造物、道路、地形、道路標識等が含まれる。屋内の現実空間において3Dモデル化される物体の例として、部屋の床、天井、壁、ドア、家具、調度品等が含まれる。空間モデルデータ220は、デジタルツインデータと読み替えられてもよい。空間モデルデータ220は、3D点群データであってもよいし、テクスチャマッピングされた3Dデータであってもよいし、他の3Dデータであってもよい。3D点群データは、物体表面の1点の3次元座標を示す3D点の集合体(つまり3D点群)として構成されるデータであってよい。
As shown in FIG. 2, the
空間モデルデータ220は、国土全体、地域全体、街全体、道路全体、又は、建物全体等を3Dモデル化したデータであってよく、データ量が非常に大きい。そのため、3Dスキャンデータ120と空間モデルデータ220とのマッチング処理にかかる時間は長くなる傾向にある。マッチング処理にかかる時間が長くなると、端末100において、現実空間に対して仮想オブジェクトをリアルタイムに重畳させることが難しくなる。そこで、本実施の形態では、3Dスキャンデータ120と空間モデルデータ220とのマッチング処理にかかる時間を短縮する方法について説明する。
The
<端末の構成>
図4は、本実施の形態に係る端末100のハードウェア構成例を示すブロック図である。
<Terminal configuration>
FIG. 4 is a block diagram showing a hardware configuration example of the
端末100は、位置計測部101、姿勢計測部102、3Dスキャン部103、撮像部104、入力部105、表示部106、メモリ107、ストレージ108、通信部109、及び、プロセッサ110を備える。
The
位置計測部101は、GNSS(Global Navigation Satellite System)信号及び/又はRTK(Real Time Kinematic)信号等を受信し、現実空間における端末100の位置を計測する。端末100の位置は、経度及び緯度によって表現されてよい。
The
姿勢計測部102は、電子コンパス、ジャイロセンサ、及び、加速センサ等の少なくとも1つによって、現実空間における端末100の姿勢を計測する。端末100の姿勢は、方位角及び仰俯角によって表現されてよい。本実施の形態では、現実空間において計測された端末100の位置及び姿勢を含む情報を、端末位置姿勢情報121と称する。
The posture measuring unit 102 measures the posture of the terminal 100 in the real space by at least one of an electronic compass, a gyro sensor, an acceleration sensor, and the like. The posture of the terminal 100 may be represented by an azimuth angle and an elevation / depression angle. In the present embodiment, the information including the position and posture of the terminal 100 measured in the real space is referred to as the terminal position /
3Dスキャン部103は、LiDAR又はステレオカメラ等によって構成される。3Dスキャン部103は、現実空間を3Dスキャンし、現実空間の3Dスキャンデータ120(図3参照)を生成する。3Dスキャンデータ120は、3D点群データによって構成されてよい。
The
撮像部104は、レンズ及びイメージセンサを含んで構成される。撮像部104は、カメラと読み替えられてもよい。撮像部104は、現実空間における端末100の姿勢の方向を撮像し、撮像画像を生成する。
The
入力部105は、例えば、タッチパネル、ボタン、及び/又は、マイク等によって構成される。入力部105は、ユーザからの入力操作を受け付ける。
The
表示部106は、例えば、ディスプレイ装置によって構成される。端末100がAR眼鏡の場合、ディスプレイ装置は、AR眼鏡をかけたユーザが現実空間を視認できる透明ディスプレイ装置であってよい、表示部106は、例えば、撮像画像及び仮想オブジェクト画像等を表示する。
The
メモリ107は、揮発性記憶媒体及び/又は不揮発性記憶媒体を含んで構成される。メモリ107は、ROM(Read Only Memory)及びRAM(Random Access Memory)を含んで構成されてよい。メモリ107は、端末100が有する機能を実現するコンピュータプログラム及びデータが格納されてよい。
The
ストレージ108は、不揮発性記憶媒体を含んで構成される。ストレージ108は、例えば、フラッシュメモリ、SSD(Solid State Drive)及びHDD(Hard Disk Drive)の少なくとも1つによって構成されてよい。ストレージ108は、端末100が有する機能を実現するコンピュータプログラム及びデータが格納されてよい。
The
通信部109は、通信ネットワーク3を介するデータの送受信を制御する。通信部109は、通信インタフェース、通信回路、又は、通信モジュールといった他の用語に読み替えられてもよい。
The
プロセッサ110は、各構成要素101~109と協働して、端末100が有する機能を実現する。例えば、プロセッサ110は、メモリ107又はストレージ108からコンピュータプログラムを読み出して実行することにより、端末100が有する機能を実現する。したがって、本実施の形態において、端末100を主体として説明される処理は、端末100のプロセッサ110を主体とする処理に読み替えられてよい。なお、プロセッサ110は、CPU(Central Processing Unit)、LSI(Large Scale Integrated Circuit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、コントローラ、制御回路とった他の用語に読み替えられてもよい。
The
<サーバの構成>
図5は、本実施の形態に係るサーバ200のハードウェア構成例を示すブロック図である。
<Server configuration>
FIG. 5 is a block diagram showing a hardware configuration example of the
サーバ200は、入力部201、表示部202、メモリ203、ストレージ204、通信部205、及び、プロセッサ206を備える。
The
入力部201は、例えば、キーボード、マウス、及び、マイク等によって構成される。入力部201は、サーバ200の管理者からの入力操作を受け付ける。
The
表示部202は、例えばディスプレイ装置によって構成される。表示部202は、管理者向けに各種情報を表示する。
The
メモリ203は、揮発性記憶媒体及び/又は不揮発性記憶媒体を含んで構成される。メモリは、ROM及びRAMを含んで構成されてよい。メモリ203は、サーバ200が有する機能を実現するコンピュータプログラム及びデータが格納されてよい。
The
ストレージ204は、不揮発性記憶媒体を含んで構成される。ストレージ204は、例えば、フラッシュメモリ、SSD及びHDDの少なくとも1つによって構成されてよい。ストレージ204は、サーバ200が有する機能を実現するコンピュータプログラム及びデータが格納されてよい。
The
通信部205は、通信ネットワーク3を介するデータの送受信を制御する。
The
プロセッサ206は、各構成要素201~205と協働して、サーバ200が有する機能を実現する。例えば、プロセッサ206は、メモリ203又はストレージ204からコンピュータプログラムを読み出して実行することにより、サーバ200が有する機能を実現する。したがって、本実施の形態において、サーバ200を主体として説明される処理は、サーバ200のプロセッサ206を主体とする処理に読み替えられてよい。
The
<情報処理システムの動作>
図6は、本実施の形態に係る情報処理システム1の動作例を示すフローチャートである。
<Operation of information processing system>
FIG. 6 is a flowchart showing an operation example of the
端末100は、位置計測部101によって現実空間における当該端末100の位置(経度及び緯度)を計測し、姿勢計測部102によって現実空間における当該端末100の姿勢(方位角及び仰俯角)を計測する(ステップS101)。
The terminal 100 measures the position (longitude and latitude) of the terminal 100 in the real space by the
端末100は、ステップS101で計測した端末100の位置及び姿勢を含む端末位置姿勢情報121を生成し、サーバ200へ送信する(ステップS102)。
The terminal 100 generates terminal position /
サーバ200は、端末100から端末位置姿勢情報121を受信する(ステップS103)。
The
サーバ200は、端末位置姿勢情報121に基づいて空間モデルデータ220に抽出領域230を設定し、その抽出領域230(図2参照)から部分空間モデルデータ221を抽出する(ステップS104)。このステップS104の処理を部分空間モデル抽出処理と称する。なお、部分空間モデル抽出処理の詳細については後述する。
The
また、端末100は、撮像部104によって現実空間の当該端末100の姿勢の方向を撮像し、撮像画像を生成する(ステップS105)。
Further, the terminal 100 captures the direction of the posture of the terminal 100 in the real space by the
端末100は、3Dスキャン部103によって現実空間の当該端末100の姿勢の方向を3Dスキャンし、3Dスキャンデータ120(3D点群データ)を生成する(ステップS106)。
The terminal 100 3D scans the direction of the posture of the terminal 100 in the real space by the
端末100は、3Dスキャンデータ120をサーバ200へ送信する(ステップS107)。
The terminal 100 transmits the
サーバ200は、端末100から3Dスキャンデータ120を受信する(ステップS108)。
The
サーバ200は、3Dスキャンデータ120から移動体240を除去し、移動体240を除去した3Dスキャンデータ120(以下、移動体除去後の3Dスキャンデータと称する)を生成する(ステップS109)。このステップS109の処理を移動体除去処理と称する。なお、移動体除去処理の詳細については後述する。
The
サーバ200は、部分空間モデルデータ221から移動体除去後の3Dスキャンデータ120にマッチングする部分(以下、マッチング部分と称する)を検出する(ステップS110)。このステップS110の処理をマッチング処理と称する。なお、マッチング処理の詳細については後述する。
The
サーバ200は、検出したマッチング部分に基づいて、空間モデルデータ220内での端末100の位置、高度及び姿勢を特定する(ステップS111)。このステップS111の処理をモデル内端末位置姿勢算出処理と称する。なお、モデル内端末位置姿勢算出処理の詳細については後述する。
The
サーバ200は、ステップS111で特定した空間モデルデータ220内での端末100の位置、高度及び姿勢を含むモデル内端末位置姿勢情報222を生成し、端末100へ送信する(ステップS112)。
The
端末100は、サーバ200からモデル内端末位置姿勢情報222を受信する(ステップS113)。
The terminal 100 receives the terminal position /
端末100は、モデル内端末位置姿勢情報222に基づいて、現実空間における高精度な端末100の位置、高度及び姿勢を特定する(ステップS114)。つまり、端末100は、現実空間における高精度な端末100の位置、高度及び姿勢を示す情報を含む高精度端末位置姿勢情報122を生成する。
The terminal 100 specifies the position, altitude, and attitude of the terminal 100 with high accuracy in the real space based on the terminal position /
端末100は、高精度端末位置姿勢情報122に基づいて、撮像画像に対する仮想オブジェクト画像の重畳位置を特定し、その特定した重畳位置に仮想オブジェクト画像を重畳して表示部に表示する(ステップS115)。
The terminal 100 specifies a superposed position of the virtual object image on the captured image based on the high-precision terminal position /
これにより、端末100は、現実空間を撮像した撮像画像の所定の位置にあたかも仮想オブジェクトが存在しているような画像を、表示部106に表示することができる。また、高精度端末位置姿勢情報122を用いて仮想オブジェクト画像の重畳位置を特定しているため、ステップS101での計測精度が不十分な場合であっても、端末100は、現実空間に対する仮想オブジェクト画像の位置合わせを高精度に行うことができる。例えば、屋内のようにGNSS信号を精度良く受信できない場所であっても、端末100は、その屋内の空間モデルデータ220を用いて、仮想オブジェクト画像の位置合わせを高精度に行うことができる。
As a result, the terminal 100 can display an image on the
なお、端末100がAR眼鏡である場合、端末100は、ステップS115として、次のステップS115aの処理を行ってよい。 When the terminal 100 is AR glasses, the terminal 100 may perform the next step S115a as step S115.
端末100は、高精度端末位置姿勢情報122に基づいて、表示部106を透視して見える現実空間に対する仮想オブジェクト画像の表示位置を特定し、表示部106の当該特定した表示位置に仮想オブジェクト画像を表示する(ステップS115a)。
The terminal 100 specifies the display position of the virtual object image with respect to the real space that can be seen through the
これにより、端末100は、AR眼鏡を装着しているユーザに対して、表示部106を透視して見えている現実空間の所定の位置にあたかも仮想オブジェクトが存在しているように視認させることができる。
As a result, the terminal 100 allows the user wearing the AR glasses to visually recognize the virtual object as if it exists at a predetermined position in the real space seen through the
なお、図6では、説明をわかり易くするために、端末100の処理及びサーバ200の処理を直列処理として示したが、端末100の処理及びサーバ200の処理の少なくとも一部は、並列処理であってもよい。例えば、端末100は、ステップS101及びステップS102の処理と、ステップS105の処理と、ステップS106の処理とを、並列に行ってもよい。この場合、サーバ200は、ステップS103及びステップS104の処理と、ステップS108~ステップS112の処理とを、並列に行ってもよい。
In FIG. 6, for the sake of clarity, the processing of the terminal 100 and the processing of the
<部分空間モデル抽出処理の詳細>
図7は、部分空間モデル抽出処理の詳細例を示すフローチャートである。次に、図7を参照して、図6に示すステップS104の部分空間モデル抽出処理について詳細に説明する。
<Details of subspace model extraction process>
FIG. 7 is a flowchart showing a detailed example of the subspace model extraction process. Next, with reference to FIG. 7, the subspace model extraction process of step S104 shown in FIG. 6 will be described in detail.
(ステップS201)サーバ200は、端末100から受信した端末位置姿勢情報121に基づいて、空間モデルデータ220に抽出領域230(図2参照)を設定する。
(Step S201) The
例えば、サーバ200は、空間モデルデータ220における端末位置姿勢情報121が示す端末100の位置(以下、モデル内端末位置131と称する)を特定し、その特定したモデル内端末位置131を含む所定サイズの抽出領域230を空間モデルデータ220に対して設定する。
For example, the
抽出領域230は水平に設定されてよい。その場合、抽出領域230の形状は、正方形、長方形、円形、又は、楕円形等であってよい。抽出領域230が正方形の場合において、抽出領域230の一辺の長さは100m程度であってよい。ただし、抽出領域230の一辺の長さは、どのような長さであってもよいし、抽出領域230が設定される空間モデルデータ220が屋外又は屋内の何れであるかによって変化してもよい。
The
また、図2に示すように、サーバ200は、モデル内端末位置131から端末位置姿勢情報121が示す端末100の方位角の方向(つまり端末100の前方。以下、モデル内端末の方位角方向と称する)の境界までの距離d1の方が、モデル内端末位置からモデル内端末の方位角方向と反対の方向(つまり端末100の後方)の境界までの距離d2よりも長くなるように、抽出領域230を設定してよい。端末100の前方を3Dスキャンするマッチング処理では、端末100の前方の空間モデルデータ220が主に使用され、端末100の後方の空間モデルデータ220はほぼ使用されないためである。これにより、サーバ200は、空間モデルデータ220における、主に端末100の前方に延びる抽出領域230から部分空間モデルデータ221を抽出できるので、例えば端末100を中心とする抽出領域230から部分空間モデルデータ221を抽出する場合と比較して、部分空間モデルデータ221のデータ量を抑制できる。
Further, as shown in FIG. 2, the
(ステップS202)サーバ200は、ステップS201にて設定した抽出領域230に含まれる空間モデルデータ220を、部分空間モデルデータ221として抽出する。なお、サーバ200は、抽出領域230の高さ方向の空間モデルデータ220についてはすべて部分空間モデルデータ221として抽出してよい。あるいは、サーバ200は、抽出領域230の所定の高さまでの空間モデルデータ220を部分空間モデルデータ221として抽出してもよい。
(Step S202) The
このように、サーバ200は、端末100から送信された端末位置姿勢情報121に基づいて、空間モデルデータ220から部分空間モデルデータ221を抽出し、ステップS110のマッチング処理において、その部分空間モデルデータ221を3Dスキャンデータ120のマッチング対象とする。これにより、空間モデルデータ200をそのまま3Dスキャンデータ120のマッチング対象とする場合と比較して、マッチング対象のデータ量が小さくなるので、サーバ200は、マッチング処理にかかる時間を短縮できる。よって、サーバ200は、端末100の位置を推定する処理にかかる時間を短縮できる。
As described above, the
<移動体除去処理の詳細>
図8は、移動体除去処理の詳細例を示すフローチャートである。次に、図8を参照して、図6に示すステップS109の移動体除去処理について詳細に説明する。
<Details of moving body removal processing>
FIG. 8 is a flowchart showing a detailed example of the moving body removal process. Next, with reference to FIG. 8, the moving body removing process in step S109 shown in FIG. 6 will be described in detail.
(ステップS301)サーバ200は、端末100から受信した3Dスキャンデータ120から移動体240のオブジェクトデータを除去し、移動体除去後の3Dスキャンデータ120を生成する。移動体240の例として、自動車、バイク、自転車、電車、歩行者、動物等が挙げられる。
(Step S301) The
サーバ200は、例えば、次の(A1)、(A2)、又は、(A3)の何れかの方法によって、3Dスキャンデータ120から移動体240のオブジェクトデータを除去する。
The
(A1)サーバ200は、様々な移動体240の3Dデータを予め保持しておく。そして、サーバ200は、移動体240の3Dデータとのパターンマッチングにより、3Dスキャンデータ120から移動体240と推定されるセグメントデータ(つまり、移動体240のオブジェクトデータ)を検出する。そして、サーバ200は、その検出した移動体240のオブジェクトデータを3Dスキャンデータ120から除去する。
(A1) The
(A2)サーバ200は、3Dスキャンデータ120から移動体240のオブジェクトデータを検出する所定の移動体検出用AI(Artificial Intelligence)を予め保持しておく。そして、サーバ200は、移動体検出用AIを用いて、3Dスキャンデータ120から移動体のオブジェクトデータを検出する。そして、サーバ200は、その検出した移動体240のオブジェクトデータを3Dスキャンデータ120から除去する。移動体検出用AIは、機械学習、ニューラルネットワーク、又は、ディープラーニング等によって移動体240のオブジェクトデータの特徴等を予め学習させたものであってよい。
(A2) The
(A3)サーバ200は、時刻t1に3Dスキャンされた第1の3Dスキャンデータ120と、時刻t2(>t1)に3Dスキャンされた第2の3Dスキャンデータ120とを取得する。そして、サーバ200は、第1の3Dスキャンデータ120から第2の3Dスキャンデータ120への変化に基づいて、移動体240のオブジェクトデータを検出する。典型的に、移動体240の時間変化量は大きく、建築物、道路、標識のような静止体の時間変化量は小さいため、上記の処理により、サーバ200は、移動体240のオブジェクトデータを検出できる。そして、サーバ200は、その検出した移動体240のオブジェクトデータを第1又は第2の3Dスキャンデータ120から除去する。
(A3) The
典型的には、空間モデルデータ220は、移動体240を含まない。そのため、このように、3Dスキャンデータ120から移動体240のオブジェクトデータを除去しておくことにより、マッチング処理において、移動体除去後の3Dスキャンデータ120と部分空間モデルデータ221とのマッチング精度が向上すると共に、マッチングのロバスト性が向上する。
Typically, the
なお、空間モデルデータ220が移動体240を含む場合、サーバ200は、当該移動体除去処理において、ステップS104にて抽出した部分空間モデルデータ221から移動体240を除去し、その移動体を除去した部分空間モデルデータ221を、ステップS110のマッチング処理に用いてもよい。
When the
<マッチング処理の詳細>
図9は、マッチング処理の詳細例を示すフローチャートである。次に、図9を参照して、図6に示すステップS110のマッチング処理について詳細に説明する。
<Details of matching process>
FIG. 9 is a flowchart showing a detailed example of the matching process. Next, with reference to FIG. 9, the matching process of step S110 shown in FIG. 6 will be described in detail.
(ステップS401)サーバ200は、部分空間モデルデータ221の各特徴点の特徴量を算出する。なお、サーバ200は、部分空間モデルデータ221の各特徴点の特徴量を予め算出し、メモリ203又はストレージ204に保持しておいてもよい。
(Step S401) The
(ステップS402)サーバ200は、移動体除去後の3Dスキャンデータ120の各特徴点の特徴量を算出する。
(Step S402) The
(ステップS403)サーバ200は、移動体除去後の3Dスキャンデータ120の特徴点とマッチングする部分空間モデルデータ221の特徴点をマッチング部分として検出する。例えば、サーバ200は、移動体除去後の3Dスキャンデータ120の特徴点の特徴量と類似する特徴量を有する部分空間モデルデータ221の特徴点を検出することにより、マッチング部分の検出を行う。特徴量は、多元ベクトルにて表現されてよい。この場合、2つの特徴量が類似するとは、2つの多元ベクトルの内積が所定の閾値未満であること、あるいは、2つの多元ベクトルの各要素の差の絶対値が所定の閾値未満であることであってよい。
(Step S403) The
このように、空間モデルデータ220全体よりもデータ量の小さな部分空間モデルデータ221と移動体除去後の3Dスキャンデータ120とをマッチングすることにより、空間モデルデータ220全体と移動体除去後の3Dスキャンデータ120とをマッチングする場合と比較して、マッチング処理に要する時間を短縮することができる。
In this way, by matching the partial
また、典型的には空間モデルデータ220は移動体を含まないので、移動体除去後の3Dスキャンデータ120と部分空間モデルデータ221とをマッチングすることにより、移動体除去を行わない3Dスキャンデータ120と部分空間モデルデータ221とをマッチングする場合と比較して、マッチングのミスが発生する確率が低下する。つまり、マッチングのロバスト性が向上する。
Further, since the
なお、上記の移動体除去処理において、部分空間モデルデータ221から移動体240を除去した場合、サーバ200は、その移動体240を除去した部分空間モデルデータ221を用いてマッチング処理を行ってもよい。
When the moving
<モデル内端末位置姿勢算出処理の詳細>
図10は、モデル内端末位置姿勢算出処理の詳細例を示すフローチャートである。次に、図10を参照して、図6に示すステップS111のモデル内端末位置姿勢算出処理について詳細に説明する。
<Details of terminal position / orientation calculation processing in the model>
FIG. 10 is a flowchart showing a detailed example of the terminal position / orientation calculation process in the model. Next, with reference to FIG. 10, the terminal position / orientation calculation process in the model in step S111 shown in FIG. 6 will be described in detail.
(ステップS501)サーバ200は、空間モデルデータ220内に仮想的な端末130を配置して仮想的な3Dスキャンを行った場合に、空間モデルデータ220からマッチング処理にて検出されたマッチング部分を得ることができる空間モデルデータ220内における当該仮想的な端末130の位置、高度及び姿勢を算出する。
(Step S501) When the
これにより、サーバ200は、高精度な端末100の位置、高度及び姿勢を示す高精度端末位置姿勢情報122を生成することができる。
As a result, the
<変形例>
サーバ200は、ステップS109において、3Dスキャンデータ120から移動体240を除去する処理に代えて、3Dスキャンデータ120から移動体240を検出し、その検出した移動体240に対して移動体情報を付与してもよい。この場合、サーバ200は、ステップS110において、3Dスキャンデータ120の移動体情報が付与されている部分をマッチング処理の対象外として、マッチング処理を行う。これによっても、上述同様、マッチングのロバスト性が向上する。
<Modification example>
In step S109, the
また、上述においてサーバ200が行っている処理の少なくとも一部を端末100が行ってもよい。例えば、端末100は、ステップS109の移動体除去処理を行い、移動体除去後の3Dスキャンデータ120をサーバ200に送信してもよい。例えば、端末100は、部分空間モデルデータ221をサーバ200から受信し、その部分空間モデルデータ221を用いてステップS110のマッチング処理及びステップS111のモデル内端末位置姿勢算出処理を行ってもよい。
Further, the terminal 100 may perform at least a part of the processing performed by the
(本開示のまとめ)
本開示は以下のように表現できる。
(Summary of this disclosure)
The present disclosure can be expressed as follows.
<項目1>
本開示に係る情報処理システム1は、端末100及びサーバ200を備える。端末100は、現実空間における端末100の位置を測定し、現実空間を3Dスキャンし、端末100の位置の測定結果を含む端末位置姿勢情報121と現実空間の3Dスキャンの結果を含む3Dスキャンデータ120とをサーバ200へ送信する。サーバ200は、端末100から端末位置姿勢情報121及び3Dスキャンデータ120を受信し、端末位置姿勢情報121に基づいて、現実空間を3Dモデル化したデータである空間モデルデータ220の一部を部分空間モデルデータ221として抽出し、部分空間モデルデータ221から3Dスキャンデータとマッチングする部分を検出することにより、空間モデルデータ220内における端末100の位置を特定し、空間モデルデータ220内における端末100の位置を示すモデル内端末位置姿勢情報222を端末100に送信する。
このように、サーバ200は、端末100から送信された端末位置姿勢情報121に基づいて、空間モデルデータ200から部分空間モデルデータ221を抽出し、その部分空間モデルデータ221を3Dスキャンデータ120のマッチング対象とする。これにより、空間モデルデータ200をそのまま3Dスキャンデータ120のマッチング対象とする場合と比較して、マッチング対象のデータ量が小さくなるので、サーバ200は、マッチング処理にかかる時間を短縮できる。よって、サーバ200は、端末100の位置を推定する処理にかかる時間を短縮できる。
<
The
In this way, the
<項目2>
項目1に記載の情報処理システム1において、端末100は、現実空間における端末100の姿勢を測定し、端末100の姿勢の測定結果を端末位置姿勢情報121に含めてよい。
これにより、サーバ200は、端末100から送信された端末位置姿勢情報121に基づいて、端末100の姿勢を認識できるので、端末100の姿勢に応じた部分空間モデルデータ221を抽出できる。
<Item 2>
In the
As a result, the
<項目3>
項目2に記載の情報処理システム1において、サーバ200は、空間モデルデータ220における、端末位置姿勢情報121が示す端末100の位置を含み、かつ、端末位置姿勢情報121が示す端末100の姿勢の方向に延びる所定の領域から、部分空間モデルデータ221を抽出してよい。
これにより、サーバ200は、空間モデルデータ220における、主に端末100の前方に延びる領域から部分空間モデルデータ221を抽出できるので、端末100を中心とする領域から部分空間モデルデータ221を抽出する場合と比較して、部分空間モデルデータ221のデータ量を抑制できる。
<
In the
As a result, the
<項目4>
項目2又は3に記載の情報処理システム1において、端末位置姿勢情報121は、現実空間における端末100の位置を示す緯度及び経度と、端末100の姿勢を示す方位角及び仰俯角とを含み、モデル内端末位置姿勢情報222は、空間モデルデータ220内における端末100の位置を示す経度、緯度及び高度と、端末100の姿勢を示す方位角及び仰俯角とを含んでよい。
これにより、サーバ200は、端末100から送信された端末位置姿勢情報121に基づいて、現実空間における端末100が位置する経度及び緯度と、端末100が向いている方位角及び仰俯角とを認識できる。また、端末100は、サーバ200から送信されたモデル内端末位置姿勢情報222に基づいて、現実空間において端末100が位置する経度、緯度及び高度と、端末が向いている方位角及び仰俯角とを精度良く認識できる。
<Item 4>
In the
As a result, the
<項目5>
項目1から4のいずれか1項に記載の情報処理システム1において、3Dスキャンデータ120、及び、空間モデルデータ220は、3D点群データによって構成されてよい。
これにより、サーバ200は、3D点群データ同士のマッチング処理により、部分空間モデルデータ221と3Dスキャンデータ120とのマッチングを行うことができる。
<Item 5>
In the
As a result, the
<項目6>
項目5に記載の情報処理システム1において、サーバ200は、部分空間モデルデータ221に含まれる3D点群データの特徴点と、3Dスキャンデータ120に含まれる3D点群データの特徴点とのマッチングを行うことにより、空間モデルデータ220における端末100の位置を特定してよい。
これにより、サーバ200は、3D点群データの特徴点のマッチング処理により、空間モデルデータ220における端末100の位置を特定することができる。
<Item 6>
In the
As a result, the
<項目7>
項目1から6のいずれか1項に記載の情報処理システム1において、サーバ200は、部分空間モデルデータ221における、3Dスキャンデータ120の移動体を除くデータにマッチングする部分を特定することにより、空間モデルデータ220における端末100の位置を特定してよい。
これにより、マッチング処理おける、移動体除去後の3Dスキャンデータ120と部分空間モデルデータ221とのマッチング精度が向上すると共に、マッチングのロバスト性が向上する。
<Item 7>
In the
As a result, in the matching process, the matching accuracy between the
<項目8>
項目1から7のいずれか1項に記載の情報処理システム1において、端末100は、3Dスキャンと共通の方向を撮像する撮像部104をさらに備え、モデル内端末位置姿勢情報222に基づいて、撮像部104によって撮像された撮像画像に対する所定の仮想オブジェクト画像の重畳位置を特定し、撮像画像の当該重畳位置に仮想オブジェクト画像を重畳した画像を所定の表示部106に表示してよい。
これにより、端末100は、モデル内端末位置姿勢情報222に基づいて、仮想オブジェクト画像を精度良く撮像画像に重畳することができる。
<Item 8>
In the
As a result, the terminal 100 can accurately superimpose the virtual object image on the captured image based on the terminal position /
<項目9>
項目1から7のいずれか1項に記載の情報処理システム1において、端末100は、3Dスキャンと共通の方向を透視可能な表示部106を備え、モデル内端末位置姿勢情報222に基づいて、表示部106における所定の仮想オブジェクト画像の表示位置を特定し、表示部106の表示位置に仮想オブジェクト画像を表示してよい。
これにより、端末100は、モデル内端末位置姿勢情報222に基づいて、表示部106から透視して視認される現実空間に、仮想オブジェクト画像を精度良く重畳表示することができる。
<Item 9>
In the
As a result, the terminal 100 can accurately superimpose and display the virtual object image in the real space that can be seen through from the
<項目10>
端末100及びサーバ200による情報処理方法は次の通りである。端末100は、現実空間における端末100の位置を測定し、現実空間を3Dスキャンし、端末100の位置の測定結果を含む端末位置姿勢情報121と、現実空間の3Dスキャンの結果を含む3Dスキャンデータ120とをサーバ200へ送信する。、サーバ200は、端末100から端末位置姿勢情報121及び3Dスキャンデータ120を受信し、端末位置姿勢情報121に基づいて、現実空間を3Dモデル化したデータである空間モデルデータ220の一部を部分空間モデルデータ221として抽出し、部分空間モデルデータ221から前記3Dスキャンデータとマッチングする部分を特定することにより、空間モデルデータ220内における端末100の位置を特定し、特定した空間モデルデータ220内における端末100の位置を示すモデル内端末位置姿勢情報222を端末100に送信する。
このように、サーバ200は、端末100から送信された端末位置姿勢情報121に基づいて、空間モデルデータ200から部分空間モデルデータ221を抽出し、その部分空間モデルデータ221を3Dスキャンデータ120のマッチング対象とする。これにより、空間モデルデータ200をそのまま3Dスキャンデータのマッチング対象とする場合と比較して、マッチング対象のデータ量が小さくなるので、サーバ200は、マッチング処理にかかる時間を短縮できる。よって、サーバ200は、端末100の位置を推定する処理にかかる時間を短縮できる。
<Item 10>
The information processing method by the terminal 100 and the
In this way, the
上述した実施の形態の各構成要素は、発明の趣旨を逸脱しない範囲において、変更、修正、置換、付加、削除、均等等が可能である。加えて、上述した実施の形態の各構成要素は、発明の趣旨を逸脱しない範囲において、任意に組み合わせが可能である。 Each component of the above-described embodiment can be changed, modified, replaced, added, deleted, equalized, or the like without departing from the spirit of the invention. In addition, each component of the above-described embodiment can be arbitrarily combined as long as it does not deviate from the gist of the invention.
本開示の技術は、現実空間をスキャンして得たデータと現実空間を模したデータとのマッチングに有用であり、例えば、現実空間における端末の位置及び姿勢の高精度な特定に利用可能である。 The technique of the present disclosure is useful for matching the data obtained by scanning the real space with the data imitating the real space, and can be used, for example, for highly accurate identification of the position and posture of the terminal in the real space. ..
1 情報処理システム
3 通信ネットワーク
100 端末
101 位置計測部
102 姿勢計測部
103 3Dスキャン部
104 撮像部
105 入力部
106 表示部
107 メモリ
108 ストレージ
109 通信部
110 プロセッサ
120 3Dスキャンデータ
121 端末位置姿勢情報
122 高精度端末位置姿勢情報
131 モデル内端末位置
200 サーバ
201 入力部
202 表示部
203 メモリ
204 ストレージ
205 通信部
206 プロセッサ
220 空間モデルデータ
221 部分空間モデルデータ
222 モデル内端末位置姿勢情報
230 抽出領域
240 移動体
1
Claims (7)
前記端末は、
GNSS信号に基づいて現実空間における前記端末の第1の位置を測定し、
電子コンパスを用いて前記現実空間における前記端末の第1の姿勢を測定し、
LiDARを用いて前記現実空間を3D点群データとして3Dスキャンし、前記現実空間の3Dスキャンデータを生成し、
前記端末の第1の位置及び第1の姿勢の測定結果を含む端末位置姿勢情報と前記3Dスキャンデータとを前記サーバへ送信し、
前記サーバは、
前記端末から前記端末位置姿勢情報及び前記3Dスキャンデータを受信し、
前記現実空間を3D点群データによって3Dモデル化したデータである空間モデルデータにおける、前記端末位置姿勢情報が示す前記端末の第1の位置を含み、かつ、前記端末位置姿勢情報が示す前記端末の第1の姿勢の方向に所定の距離だけ延びた領域を、部分空間モデルデータとして抽出し、
前記部分空間モデルデータから前記3Dスキャンデータとマッチングする部分を検出することにより、前記空間モデルデータ内における前記端末の第2の位置及び第2の姿勢を特定し、
前記空間モデルデータ内における前記端末の第2の位置及び第2の姿勢を示すモデル内端末位置姿勢情報を前記端末に送信する、
情報処理システム。 An information processing system equipped with a terminal and a server.
The terminal is
The first position of the terminal in the real space is measured based on the GNSS signal .
Using an electronic compass, the first posture of the terminal in the real space is measured.
Using LiDAR, the real space is 3D-scanned as 3D point cloud data, and 3D scan data of the real space is generated .
The terminal position / orientation information including the measurement results of the first position and the first attitude of the terminal and the 3D scan data are transmitted to the server.
The server
The terminal position / orientation information and the 3D scan data are received from the terminal, and the terminal is received.
In the space model data which is the data obtained by 3D modeling the real space with 3D point group data, the terminal includes the first position of the terminal indicated by the terminal position / orientation information and the terminal position / orientation information indicates. A region extending by a predetermined distance in the direction of the first posture is extracted as subspace model data, and is extracted.
By detecting the portion matching with the 3D scan data from the subspace model data, the second position and the second posture of the terminal in the spatial model data are specified.
In-model terminal position / posture information indicating the second position and the second posture of the terminal in the spatial model data is transmitted to the terminal.
Information processing system.
前記第1の姿勢は、前記電子コンパスを用いて測定された前記端末の方位角及び仰俯角であり、
前記第2の位置は、前記部分空間モデルデータと前記3Dスキャンデータとのマッチングによって特定された前記端末の経度、緯度及び高度であり、
前記第2の姿勢は、前記部分空間モデルデータと前記3Dスキャンデータとのマッチングによって特定された前記端末の方位角及び仰俯角である、
請求項1に記載の情報処理システム。 The first position is the latitude and longitude of the terminal measured based on the GNSS signal .
The first posture is the azimuth and elevation / depression angle of the terminal measured using the electronic compass .
The second position is the longitude, latitude and altitude of the terminal identified by matching the subspace model data with the 3D scan data .
The second posture is the azimuth and elevation / depression angles of the terminal specified by matching the subspace model data with the 3D scan data .
The information processing system according to claim 1 .
前記部分空間モデルデータに含まれる3D点群データの特徴点と、前記3Dスキャンデータに含まれる3D点群データの特徴点とのマッチングを行うことにより、前記空間モデルデータにおける前記端末の位置を特定する、
請求項1又は2に記載の情報処理システム。 The server
By matching the feature points of the 3D point cloud data included in the subspatial model data with the feature points of the 3D point cloud data included in the 3D scan data, the position of the terminal in the spatial model data is specified. do,
The information processing system according to claim 1 or 2 .
前記部分空間モデルデータにおける、前記3Dスキャンデータの移動体を除くデータにマッチングする部分を特定することにより、前記空間モデルデータにおける前記端末の位置を特定する、
請求項1から3のいずれか1項に記載の情報処理システム。 The server
By specifying a portion of the subspace model data that matches the data excluding the moving body of the 3D scan data, the position of the terminal in the spatial model data is specified.
The information processing system according to any one of claims 1 to 3 .
前記3Dスキャンと共通の方向を撮像する撮像部をさらに備え、
前記モデル内端末位置姿勢情報に基づいて、前記撮像部によって撮像された撮像画像に対する所定の仮想オブジェクト画像の重畳位置を特定し、
前記撮像画像の前記重畳位置に前記仮想オブジェクト画像を重畳した画像を所定の表示部に表示する、
請求項1から4のいずれか1項に記載の情報処理システム。 The terminal is
Further provided with an image pickup unit that captures images in the same direction as the 3D scan.
Based on the terminal position / orientation information in the model, the superimposed position of the predetermined virtual object image with respect to the captured image captured by the imaging unit is specified.
An image in which the virtual object image is superimposed on the superimposed position of the captured image is displayed on a predetermined display unit.
The information processing system according to any one of claims 1 to 4 .
前記3Dスキャンと共通の方向を透視可能な表示部を備え、
前記モデル内端末位置姿勢情報に基づいて、前記表示部における所定の仮想オブジェクト画像の表示位置を特定し、
前記表示部の前記表示位置に前記仮想オブジェクト画像を表示する、
請求項1から5のいずれか1項に記載の情報処理システム。 The terminal is
It is equipped with a display unit that can see through the same direction as the 3D scan.
Based on the terminal position / orientation information in the model, the display position of a predetermined virtual object image in the display unit is specified.
The virtual object image is displayed at the display position of the display unit.
The information processing system according to any one of claims 1 to 5 .
前記端末は、
GNSS信号に基づいて現実空間における前記端末の第1の位置を測定し、
電子コンパスを用いて前記現実空間における前記端末の第1の姿勢を測定し、
LiDARを用いて前記現実空間を3D点群データとして3Dスキャンし、前記現実空間の3Dスキャンデータを生成し、
前記端末の第1の位置及び第1の姿勢の測定結果を含む端末位置姿勢情報と前記3Dスキャンデータとを前記サーバへ送信し、
前記サーバは、
前記端末から前記端末位置姿勢情報及び前記3Dスキャンデータを受信し、
前記現実空間を3D点群データによって3Dモデル化したデータである空間モデルデータにおける、前記端末位置姿勢情報が示す前記端末の第1の位置を含み、かつ、前記端末位置姿勢情報が示す前記端末の第1の姿勢の方向に所定の距離だけ延びた領域を、部分空間モデルデータとして抽出し、
前記部分空間モデルデータから前記3Dスキャンデータとマッチングする部分を特定することにより、前記空間モデルデータ内における前記端末の第2の位置及び第2の姿勢を特定し、
特定した前記空間モデルデータ内における前記端末の第2の位置及び第2の姿勢を示すモデル内端末位置姿勢情報を前記端末に送信する、
情報処理方法。 Information processing method using terminals and servers
The terminal is
The first position of the terminal in the real space is measured based on the GNSS signal .
Using an electronic compass, the first posture of the terminal in the real space is measured.
Using LiDAR, the real space is 3D-scanned as 3D point cloud data, and 3D scan data of the real space is generated .
The terminal position / orientation information including the measurement results of the first position and the first attitude of the terminal and the 3D scan data are transmitted to the server.
The server
The terminal position / orientation information and the 3D scan data are received from the terminal, and the terminal is received.
In the space model data which is the data obtained by 3D modeling the real space with 3D point group data, the terminal includes the first position of the terminal indicated by the terminal position / orientation information and the terminal position / orientation information indicates. A region extending by a predetermined distance in the direction of the first posture is extracted as subspace model data, and is extracted.
By specifying the portion that matches the 3D scan data from the subspace model data, the second position and the second posture of the terminal in the spatial model data are specified.
In-model terminal position / posture information indicating the second position and the second posture of the terminal in the specified spatial model data is transmitted to the terminal.
Information processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021153179A JP7075090B1 (en) | 2021-09-21 | 2021-09-21 | Information processing system and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021153179A JP7075090B1 (en) | 2021-09-21 | 2021-09-21 | Information processing system and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7075090B1 true JP7075090B1 (en) | 2022-05-25 |
JP2023045010A JP2023045010A (en) | 2023-04-03 |
Family
ID=81746635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021153179A Active JP7075090B1 (en) | 2021-09-21 | 2021-09-21 | Information processing system and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7075090B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015228050A (en) | 2014-05-30 | 2015-12-17 | ソニー株式会社 | Information processing device and information processing method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018014579A (en) * | 2016-07-20 | 2018-01-25 | 株式会社日立製作所 | Camera tracking device and method |
JP6997057B2 (en) * | 2018-09-07 | 2022-01-17 | Kddi株式会社 | Devices, programs and methods for estimating terminal position from non-animal body information |
-
2021
- 2021-09-21 JP JP2021153179A patent/JP7075090B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015228050A (en) | 2014-05-30 | 2015-12-17 | ソニー株式会社 | Information processing device and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2023045010A (en) | 2023-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6812404B2 (en) | Methods, devices, computer-readable storage media, and computer programs for fusing point cloud data | |
JP7190842B2 (en) | Information processing device, control method and program for information processing device | |
US10134196B2 (en) | Mobile augmented reality system | |
CN110568447B (en) | Visual positioning method, device and computer readable medium | |
CN111199564B (en) | Indoor positioning method and device of intelligent mobile terminal and electronic equipment | |
KR101629042B1 (en) | Registration of street-level imagery to 3d building models | |
TWI483215B (en) | Augmenting image data based on related 3d point cloud data | |
CN110617821B (en) | Positioning method, positioning device and storage medium | |
JP6950832B2 (en) | Position coordinate estimation device, position coordinate estimation method and program | |
WO2017200662A1 (en) | Predictor-corrector based pose detection | |
KR20130051501A (en) | Online reference generation and tracking for multi-user augmented reality | |
WO2014011346A1 (en) | Sensor-aided wide-area localization on mobile devices | |
JP6180647B2 (en) | Indoor map construction apparatus and method using cloud points | |
JP6589636B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
KR20200110120A (en) | A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof | |
KR20150095365A (en) | Distance measuring method using vision sensor database | |
KR102475790B1 (en) | Map making Platform apparatus and map making method using the platform | |
WO2021193672A1 (en) | Three-dimensional model generation method and three-dimensional model generation device | |
KR101474521B1 (en) | Method and apparatus for building image database | |
JP7075090B1 (en) | Information processing system and information processing method | |
CN111862146A (en) | Target object positioning method and device | |
CN115731304A (en) | Road data generation method, device and equipment | |
KR20200032776A (en) | System for information fusion among multiple sensor platforms | |
KR101863647B1 (en) | Hypothetical line mapping and verification for 3D maps | |
JP7140710B2 (en) | Information terminal device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210921 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220419 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7075090 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |