JP7075090B1 - Information processing system and information processing method - Google Patents

Information processing system and information processing method Download PDF

Info

Publication number
JP7075090B1
JP7075090B1 JP2021153179A JP2021153179A JP7075090B1 JP 7075090 B1 JP7075090 B1 JP 7075090B1 JP 2021153179 A JP2021153179 A JP 2021153179A JP 2021153179 A JP2021153179 A JP 2021153179A JP 7075090 B1 JP7075090 B1 JP 7075090B1
Authority
JP
Japan
Prior art keywords
terminal
data
server
model data
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021153179A
Other languages
Japanese (ja)
Other versions
JP2023045010A (en
Inventor
トンミ ケラネン
保次 瀬古
正吾 沼倉
Original Assignee
シンメトリー・ディメンションズ・インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シンメトリー・ディメンションズ・インク filed Critical シンメトリー・ディメンションズ・インク
Priority to JP2021153179A priority Critical patent/JP7075090B1/en
Application granted granted Critical
Publication of JP7075090B1 publication Critical patent/JP7075090B1/en
Publication of JP2023045010A publication Critical patent/JP2023045010A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

Figure 0007075090000001

【課題】端末が現実空間をスキャンして得たデータと現実空間を模したデータとのマッチングによって端末の位置を推定する処理にかかる時間を短縮する。
【解決手段】情報処理システムにおいて、端末は、現実空間における端末の位置を測定し、現実空間を3Dスキャンし、端末の位置の測定結果を含む端末位置姿勢情報と現実空間の3Dスキャンの結果を含む3Dスキャンデータとをサーバへ送信し、サーバは、端末から端末位置姿勢情報及び前記3Dスキャンデータを受信し、端末位置姿勢情報に基づいて、現実空間を3Dモデル化したデータである空間モデルデータの一部を部分空間モデルデータとして抽出し、部分空間モデルデータから3Dスキャンデータとマッチングする部分を検出することにより、空間モデルデータ内における端末の位置を特定し、空間モデルデータ内における端末の位置を示すモデル内端末位置姿勢情報を端末に送信する。
【選択図】図1

Figure 0007075090000001

PROBLEM TO BE SOLVED: To shorten the time required for a process of estimating the position of a terminal by matching the data obtained by scanning the real space with the data imitating the real space.
In an information processing system, a terminal measures the position of the terminal in the real space, scans the real space in 3D, and displays the terminal position / orientation information including the measurement result of the position of the terminal and the result of the 3D scan in the real space. The including 3D scan data is transmitted to the server, and the server receives the terminal position / orientation information and the 3D scan data from the terminal, and based on the terminal position / orientation information, the spatial model data which is the data obtained by modeling the real space in 3D. By extracting a part of the above as subspace model data and detecting the part that matches the 3D scan data from the subspace model data, the position of the terminal in the space model data is specified, and the position of the terminal in the space model data. In-model terminal position / orientation information indicating is transmitted to the terminal.
[Selection diagram] Fig. 1

Description

本開示は、情報処理システム、及び、情報処理方法に関する。 The present disclosure relates to an information processing system and an information processing method.

現実空間に仮想オブジェクトがあたかも存在しているかのようにユーザに視認させるAR(拡張現実:Augmented Reality)又はMR(複合現実:Mixed Reality)の技術が知られている。仮想オブジェクトを現実空間にずれなく視認させるためには、AR又はMRの体験をユーザに提供する端末の現実空間での位置及び姿勢を高精度に推定することが求められる。 AR (Augmented Reality) or MR (Mixed Reality) technologies that make users visually recognize virtual objects as if they exist in real space are known. In order to visually recognize the virtual object without shifting to the real space, it is required to estimate the position and posture of the terminal that provides the user with the experience of AR or MR with high accuracy.

特許文献1には、次の端末が開示される。すなわち、端末は、周辺の実画像を撮影するカメラによって撮影された現在の実画像とサーバから取得した3D点群データとを基にし、それぞれの特徴点をマッチングすることにより当該端末の現実空間での位置を推定し、カメラによって撮影された設備の実画像上にサーバから取得した設備情報の3次元画像をAR技術を用いて重畳表示する。 Patent Document 1 discloses the following terminals. That is, the terminal is in the real space of the terminal by matching each feature point based on the current real image taken by the camera that takes the surrounding real image and the 3D point group data acquired from the server. The position of is estimated, and the three-dimensional image of the equipment information acquired from the server is superimposed and displayed on the actual image of the equipment taken by the camera using AR technology.

特開2016-170060号公報Japanese Unexamined Patent Publication No. 2016-170060

しかしながら、端末が現実空間を撮像又はスキャンして得たデータと、現実空間を模したデータとのマッチングによって現実空間での端末の位置を推定する処理は、マッチング対象のデータ量が大きくなると、処理時間が長くなる傾向にある。 However, the process of estimating the position of the terminal in the real space by matching the data obtained by imaging or scanning the real space with the data imitating the real space is processed when the amount of data to be matched becomes large. The time tends to be longer.

本開示の目的は、端末が現実空間をスキャンして得たデータと現実空間を模したデータとのマッチングによって端末の位置を推定する処理にかかる時間を短縮することにある。 An object of the present disclosure is to reduce the time required for the process of estimating the position of the terminal by matching the data obtained by scanning the real space with the data imitating the real space.

本開示の一態様は、端末及びサーバを備える情報処理システムであって、前記端末は、現実空間における前記端末の位置を測定し、前記現実空間を3Dスキャンし、前記端末の位置の測定結果を含む端末位置姿勢情報と前記現実空間の3Dスキャンの結果を含む3Dスキャンデータとを前記サーバへ送信し、前記サーバは、前記端末から前記端末位置姿勢情報及び前記3Dスキャンデータを受信し、前記端末位置姿勢情報に基づいて、前記現実空間を3Dモデル化したデータである空間モデルデータの一部を部分空間モデルデータとして抽出し、前記部分空間モデルデータから前記3Dスキャンデータとマッチングする部分を検出することにより、前記空間モデルデータ内における前記端末の位置を特定し、前記空間モデルデータ内における前記端末の位置を示すモデル内端末位置姿勢情報を前記端末に送信する、情報処理システムを提供する。 One aspect of the present disclosure is an information processing system including a terminal and a server, in which the terminal measures the position of the terminal in the real space, scans the real space in 3D, and obtains the measurement result of the position of the terminal. The terminal position / orientation information including the terminal position / orientation information and the 3D scan data including the result of the 3D scan in the real space are transmitted to the server, and the server receives the terminal position / orientation information and the 3D scan data from the terminal, and the terminal. Based on the position / orientation information, a part of the spatial model data which is the data obtained by modeling the real space in 3D is extracted as the partial spatial model data, and the portion matching with the 3D scan data is detected from the partial spatial model data. This provides an information processing system that identifies the position of the terminal in the spatial model data and transmits the terminal position / orientation information in the model indicating the position of the terminal in the spatial model data to the terminal.

本開示の一態様は、端末及びサーバによる情報処理方法であって、前記端末は、現実空間における前記端末の位置を測定し、前記現実空間を3Dスキャンし、前記端末の位置の測定結果を含む端末位置姿勢情報と、前記現実空間の3Dスキャンの結果を含む3Dスキャンデータとを前記サーバへ送信し、前記サーバは、前記端末から前記端末位置姿勢情報及び前記3Dスキャンデータを受信し、前記端末位置姿勢情報に基づいて、前記現実空間を3Dモデル化したデータである空間モデルデータの一部を部分空間モデルデータとして抽出し、前記部分空間モデルデータから前記3Dスキャンデータとマッチングする部分を特定することにより、前記空間モデルデータ内における前記端末の位置を特定し、特定した前記空間モデルデータ内における前記端末の位置を示すモデル内端末位置姿勢情報を前記端末に送信する、情報処理方法を提供する。 One aspect of the present disclosure is an information processing method using a terminal and a server, wherein the terminal measures the position of the terminal in a real space, scans the real space in 3D, and includes a measurement result of the position of the terminal. The terminal position / orientation information and 3D scan data including the result of the 3D scan in the real space are transmitted to the server, and the server receives the terminal position / attitude information and the 3D scan data from the terminal, and the terminal. Based on the position / orientation information, a part of the spatial model data which is the data obtained by modeling the real space in 3D is extracted as the partial spatial model data, and the portion matching with the 3D scan data is specified from the partial spatial model data. This provides an information processing method for specifying the position of the terminal in the spatial model data and transmitting the terminal position / orientation information in the model indicating the position of the terminal in the specified spatial model data to the terminal. ..

なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又は記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 It should be noted that these comprehensive or specific embodiments may be realized by a system, an apparatus, a method, an integrated circuit, a computer program or a recording medium, and any of the system, an apparatus, a method, an integrated circuit, a computer program and a recording medium. It may be realized by various combinations.

本開示によれば、端末が現実空間をスキャンして得たデータと現実空間を模したデータとのマッチングによって端末の位置を推定する処理にかかる時間を短縮することができる。 According to the present disclosure, it is possible to shorten the time required for the process of estimating the position of the terminal by matching the data obtained by scanning the real space with the data imitating the real space.

本実施の形態に係る情報処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the information processing system which concerns on this embodiment. 本実施の形態に係る空間モデルデータの一例を示す模式図である。It is a schematic diagram which shows an example of the spatial model data which concerns on this embodiment. 本実施の形態に係る3D(three Dimensions)スキャンデータの一例を示す模式図である。It is a schematic diagram which shows an example of 3D (three dimensions) scan data which concerns on this embodiment. 本実施の形態に係る端末のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware configuration example of the terminal which concerns on this embodiment. 本実施の形態に係るサーバのハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware configuration example of the server which concerns on this embodiment. 本実施の形態に係る情報処理システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the information processing system which concerns on this embodiment. 部分空間モデル抽出処理の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of the subspace model extraction process. 移動体除去処理の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of the moving body removal process. マッチング処理の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of a matching process. モデル内端末位置姿勢算出処理の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of the terminal position attitude calculation process in a model.

以下、図面を参照して、本開示の実施の形態について詳細に説明する。ただし、公知の事項又は重複する事項については説明を省略する場合がある。また、図面及び以下の記載は一例に過ぎず、特許請求の範囲の記載の主題を限定することは意図されていない。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. However, explanations may be omitted for publicly known matters or overlapping matters. In addition, the drawings and the following description are merely examples, and are not intended to limit the subject matter of the description of the claims.

(本実施の形態)
<情報処理システムの構成>
図1は、本実施の形態に係る情報処理システムの構成例を示すブロック図である。図2は、本実施の形態に係る空間モデルデータの一例を示す模式図である。図3は、本実施の形態に係る3Dスキャンデータの一例を示す模式図である。
(Implementation)
<Information processing system configuration>
FIG. 1 is a block diagram showing a configuration example of an information processing system according to the present embodiment. FIG. 2 is a schematic diagram showing an example of spatial model data according to the present embodiment. FIG. 3 is a schematic diagram showing an example of 3D scan data according to the present embodiment.

本実施の形態に係る情報処理システム1は、端末100及びサーバ200を含んで構成される。サーバ200は、情報処理装置と読み替えられてもよい。端末100とサーバ200は、所定の通信ネットワーク3を介して、データを送受信できる。通信ネットワーク3の例として、移動体通信網(例えばLTE(Long Term Evolution)、4G、5G、Wi-Fi(登録商標)等)、又は、インターネット網等が挙げられる。端末100の例として、スマートフォン、タブレット端末、VR(仮想現実:Virtual Reality)装置、AR眼鏡等が挙げられる。 The information processing system 1 according to the present embodiment includes a terminal 100 and a server 200. The server 200 may be read as an information processing device. The terminal 100 and the server 200 can send and receive data via a predetermined communication network 3. Examples of the communication network 3 include a mobile communication network (for example, LTE (Long Term Evolution), 4G, 5G, Wi-Fi (registered trademark), etc.), an Internet network, and the like. Examples of the terminal 100 include smartphones, tablet terminals, VR (Virtual Reality) devices, AR glasses, and the like.

情報処理システム1は、端末100が現実空間を3Dスキャンして3Dスキャンデータ120(図3参照)を生成し、サーバ200がその3Dスキャンデータ120と空間モデルデータ220(図2参照)とのマッチング処理を行って空間モデルデータ220内での端末100の位置、高度及び姿勢を算出することにより、現実空間における端末100の位置、高度及び姿勢を高精度に特定する。以下、このように高精度に特定された端末100の位置、高度及び姿勢を示す情報を、高精度端末位置姿勢情報122と称する。これにより、例えば、端末100は、現実空間の所定の位置にあたかも所定の仮想オブジェクトが存在するようにユーザに視認させる場合、高精度端末位置姿勢情報122を用いて、現実空間に対する仮想オブジェクトの位置合わせを精度良く行うことができる。 In the information processing system 1, the terminal 100 scans the real space in 3D to generate 3D scan data 120 (see FIG. 3), and the server 200 matches the 3D scan data 120 with the spatial model data 220 (see FIG. 2). By performing processing and calculating the position, altitude, and posture of the terminal 100 in the spatial model data 220, the position, altitude, and posture of the terminal 100 in the real space are specified with high accuracy. Hereinafter, the information indicating the position, altitude, and attitude of the terminal 100 specified with high accuracy is referred to as high-precision terminal position / attitude information 122. Thereby, for example, when the terminal 100 makes the user visually recognize that a predetermined virtual object exists at a predetermined position in the real space, the position of the virtual object with respect to the real space is used by using the high-precision terminal position / orientation information 122. Matching can be done with high accuracy.

3Dスキャンデータ120は、図3に示すように、LiDAR(Light Detection And Ranging)又はステレオカメラ等によって現実空間を3Dスキャンして得られた3D点群データであってよい。 As shown in FIG. 3, the 3D scan data 120 may be 3D point cloud data obtained by 3D scanning a real space with a LiDAR (Light Detection And Ranging), a stereo camera, or the like.

空間モデルデータ220は、図2に示すように、現実空間における物体を3Dモデル化したデータであってよい。現実空間は、屋外及び屋内の両方を含んでよい。屋外の現実空間において3Dモデル化される物体の例として、建造物、道路、地形、道路標識等が含まれる。屋内の現実空間において3Dモデル化される物体の例として、部屋の床、天井、壁、ドア、家具、調度品等が含まれる。空間モデルデータ220は、デジタルツインデータと読み替えられてもよい。空間モデルデータ220は、3D点群データであってもよいし、テクスチャマッピングされた3Dデータであってもよいし、他の3Dデータであってもよい。3D点群データは、物体表面の1点の3次元座標を示す3D点の集合体(つまり3D点群)として構成されるデータであってよい。 As shown in FIG. 2, the space model data 220 may be data obtained by modeling an object in the real space in 3D. The real space may include both outdoor and indoor. Examples of objects that are 3D modeled in outdoor real space include buildings, roads, terrain, road signs, and the like. Examples of objects that are 3D modeled in an indoor real space include room floors, ceilings, walls, doors, furniture, furnishings, and the like. The spatial model data 220 may be read as digital twin data. The spatial model data 220 may be 3D point cloud data, texture-mapped 3D data, or other 3D data. The 3D point cloud data may be data configured as a collection of 3D points (that is, a 3D point cloud) indicating the three-dimensional coordinates of one point on the surface of the object.

空間モデルデータ220は、国土全体、地域全体、街全体、道路全体、又は、建物全体等を3Dモデル化したデータであってよく、データ量が非常に大きい。そのため、3Dスキャンデータ120と空間モデルデータ220とのマッチング処理にかかる時間は長くなる傾向にある。マッチング処理にかかる時間が長くなると、端末100において、現実空間に対して仮想オブジェクトをリアルタイムに重畳させることが難しくなる。そこで、本実施の形態では、3Dスキャンデータ120と空間モデルデータ220とのマッチング処理にかかる時間を短縮する方法について説明する。 The spatial model data 220 may be data obtained by modeling the entire country, the entire region, the entire city, the entire road, the entire building, or the like in 3D, and the amount of data is very large. Therefore, the time required for the matching process between the 3D scan data 120 and the spatial model data 220 tends to be long. If the time required for the matching process becomes long, it becomes difficult for the terminal 100 to superimpose the virtual object on the real space in real time. Therefore, in the present embodiment, a method of shortening the time required for the matching process between the 3D scan data 120 and the spatial model data 220 will be described.

<端末の構成>
図4は、本実施の形態に係る端末100のハードウェア構成例を示すブロック図である。
<Terminal configuration>
FIG. 4 is a block diagram showing a hardware configuration example of the terminal 100 according to the present embodiment.

端末100は、位置計測部101、姿勢計測部102、3Dスキャン部103、撮像部104、入力部105、表示部106、メモリ107、ストレージ108、通信部109、及び、プロセッサ110を備える。 The terminal 100 includes a position measuring unit 101, a posture measuring unit 102, a 3D scanning unit 103, an imaging unit 104, an input unit 105, a display unit 106, a memory 107, a storage 108, a communication unit 109, and a processor 110.

位置計測部101は、GNSS(Global Navigation Satellite System)信号及び/又はRTK(Real Time Kinematic)信号等を受信し、現実空間における端末100の位置を計測する。端末100の位置は、経度及び緯度によって表現されてよい。 The position measuring unit 101 receives a GNSS (Global Navigation Satellite System) signal and / or an RTK (Real Time Kinematic) signal, and measures the position of the terminal 100 in the real space. The position of the terminal 100 may be represented by longitude and latitude.

姿勢計測部102は、電子コンパス、ジャイロセンサ、及び、加速センサ等の少なくとも1つによって、現実空間における端末100の姿勢を計測する。端末100の姿勢は、方位角及び仰俯角によって表現されてよい。本実施の形態では、現実空間において計測された端末100の位置及び姿勢を含む情報を、端末位置姿勢情報121と称する。 The posture measuring unit 102 measures the posture of the terminal 100 in the real space by at least one of an electronic compass, a gyro sensor, an acceleration sensor, and the like. The posture of the terminal 100 may be represented by an azimuth angle and an elevation / depression angle. In the present embodiment, the information including the position and posture of the terminal 100 measured in the real space is referred to as the terminal position / posture information 121.

3Dスキャン部103は、LiDAR又はステレオカメラ等によって構成される。3Dスキャン部103は、現実空間を3Dスキャンし、現実空間の3Dスキャンデータ120(図3参照)を生成する。3Dスキャンデータ120は、3D点群データによって構成されてよい。 The 3D scanning unit 103 is composed of a LiDAR, a stereo camera, or the like. The 3D scanning unit 103 scans the real space in 3D and generates 3D scan data 120 (see FIG. 3) in the real space. The 3D scan data 120 may be composed of 3D point cloud data.

撮像部104は、レンズ及びイメージセンサを含んで構成される。撮像部104は、カメラと読み替えられてもよい。撮像部104は、現実空間における端末100の姿勢の方向を撮像し、撮像画像を生成する。 The image pickup unit 104 includes a lens and an image sensor. The image pickup unit 104 may be read as a camera. The imaging unit 104 captures the direction of the posture of the terminal 100 in the real space and generates an captured image.

入力部105は、例えば、タッチパネル、ボタン、及び/又は、マイク等によって構成される。入力部105は、ユーザからの入力操作を受け付ける。 The input unit 105 is composed of, for example, a touch panel, buttons, and / or a microphone. The input unit 105 receives an input operation from the user.

表示部106は、例えば、ディスプレイ装置によって構成される。端末100がAR眼鏡の場合、ディスプレイ装置は、AR眼鏡をかけたユーザが現実空間を視認できる透明ディスプレイ装置であってよい、表示部106は、例えば、撮像画像及び仮想オブジェクト画像等を表示する。 The display unit 106 is composed of, for example, a display device. When the terminal 100 is AR glasses, the display device may be a transparent display device that allows the user wearing AR glasses to visually recognize the real space. The display unit 106 displays, for example, a captured image, a virtual object image, or the like.

メモリ107は、揮発性記憶媒体及び/又は不揮発性記憶媒体を含んで構成される。メモリ107は、ROM(Read Only Memory)及びRAM(Random Access Memory)を含んで構成されてよい。メモリ107は、端末100が有する機能を実現するコンピュータプログラム及びデータが格納されてよい。 The memory 107 includes a volatile storage medium and / or a non-volatile storage medium. The memory 107 may be configured to include a ROM (Read Only Memory) and a RAM (Random Access Memory). The memory 107 may store computer programs and data that realize the functions of the terminal 100.

ストレージ108は、不揮発性記憶媒体を含んで構成される。ストレージ108は、例えば、フラッシュメモリ、SSD(Solid State Drive)及びHDD(Hard Disk Drive)の少なくとも1つによって構成されてよい。ストレージ108は、端末100が有する機能を実現するコンピュータプログラム及びデータが格納されてよい。 The storage 108 is configured to include a non-volatile storage medium. The storage 108 may be composed of, for example, at least one of a flash memory, an SSD (Solid State Drive), and an HDD (Hard Disk Drive). The storage 108 may store computer programs and data that realize the functions of the terminal 100.

通信部109は、通信ネットワーク3を介するデータの送受信を制御する。通信部109は、通信インタフェース、通信回路、又は、通信モジュールといった他の用語に読み替えられてもよい。 The communication unit 109 controls the transmission and reception of data via the communication network 3. The communication unit 109 may be read as another term such as a communication interface, a communication circuit, or a communication module.

プロセッサ110は、各構成要素101~109と協働して、端末100が有する機能を実現する。例えば、プロセッサ110は、メモリ107又はストレージ108からコンピュータプログラムを読み出して実行することにより、端末100が有する機能を実現する。したがって、本実施の形態において、端末100を主体として説明される処理は、端末100のプロセッサ110を主体とする処理に読み替えられてよい。なお、プロセッサ110は、CPU(Central Processing Unit)、LSI(Large Scale Integrated Circuit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、コントローラ、制御回路とった他の用語に読み替えられてもよい。 The processor 110 cooperates with each component 101 to 109 to realize the function of the terminal 100. For example, the processor 110 realizes the function of the terminal 100 by reading a computer program from the memory 107 or the storage 108 and executing the program. Therefore, in the present embodiment, the process described mainly by the terminal 100 may be read as the process mainly by the processor 110 of the terminal 100. The processor 110 is read as another term such as CPU (Central Processing Unit), LSI (Large Scale Integrated Circuit), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), controller, and control circuit. May be good.

<サーバの構成>
図5は、本実施の形態に係るサーバ200のハードウェア構成例を示すブロック図である。
<Server configuration>
FIG. 5 is a block diagram showing a hardware configuration example of the server 200 according to the present embodiment.

サーバ200は、入力部201、表示部202、メモリ203、ストレージ204、通信部205、及び、プロセッサ206を備える。 The server 200 includes an input unit 201, a display unit 202, a memory 203, a storage 204, a communication unit 205, and a processor 206.

入力部201は、例えば、キーボード、マウス、及び、マイク等によって構成される。入力部201は、サーバ200の管理者からの入力操作を受け付ける。 The input unit 201 is composed of, for example, a keyboard, a mouse, a microphone, and the like. The input unit 201 receives an input operation from the administrator of the server 200.

表示部202は、例えばディスプレイ装置によって構成される。表示部202は、管理者向けに各種情報を表示する。 The display unit 202 is configured by, for example, a display device. The display unit 202 displays various information for the administrator.

メモリ203は、揮発性記憶媒体及び/又は不揮発性記憶媒体を含んで構成される。メモリは、ROM及びRAMを含んで構成されてよい。メモリ203は、サーバ200が有する機能を実現するコンピュータプログラム及びデータが格納されてよい。 The memory 203 includes a volatile storage medium and / or a non-volatile storage medium. The memory may be configured to include a ROM and a RAM. The memory 203 may store a computer program and data that realize the functions of the server 200.

ストレージ204は、不揮発性記憶媒体を含んで構成される。ストレージ204は、例えば、フラッシュメモリ、SSD及びHDDの少なくとも1つによって構成されてよい。ストレージ204は、サーバ200が有する機能を実現するコンピュータプログラム及びデータが格納されてよい。 The storage 204 is configured to include a non-volatile storage medium. The storage 204 may be composed of, for example, at least one of a flash memory, an SSD and an HDD. The storage 204 may store computer programs and data that realize the functions of the server 200.

通信部205は、通信ネットワーク3を介するデータの送受信を制御する。 The communication unit 205 controls the transmission / reception of data via the communication network 3.

プロセッサ206は、各構成要素201~205と協働して、サーバ200が有する機能を実現する。例えば、プロセッサ206は、メモリ203又はストレージ204からコンピュータプログラムを読み出して実行することにより、サーバ200が有する機能を実現する。したがって、本実施の形態において、サーバ200を主体として説明される処理は、サーバ200のプロセッサ206を主体とする処理に読み替えられてよい。 The processor 206 cooperates with each component 201 to 205 to realize the function of the server 200. For example, the processor 206 realizes the function of the server 200 by reading a computer program from the memory 203 or the storage 204 and executing the program. Therefore, in the present embodiment, the process described mainly by the server 200 may be read as the process mainly by the processor 206 of the server 200.

<情報処理システムの動作>
図6は、本実施の形態に係る情報処理システム1の動作例を示すフローチャートである。
<Operation of information processing system>
FIG. 6 is a flowchart showing an operation example of the information processing system 1 according to the present embodiment.

端末100は、位置計測部101によって現実空間における当該端末100の位置(経度及び緯度)を計測し、姿勢計測部102によって現実空間における当該端末100の姿勢(方位角及び仰俯角)を計測する(ステップS101)。 The terminal 100 measures the position (longitude and latitude) of the terminal 100 in the real space by the position measuring unit 101, and measures the posture (azimuth and elevation / depression angle) of the terminal 100 in the real space by the posture measuring unit 102 (the attitude measuring unit 102). Step S101).

端末100は、ステップS101で計測した端末100の位置及び姿勢を含む端末位置姿勢情報121を生成し、サーバ200へ送信する(ステップS102)。 The terminal 100 generates terminal position / posture information 121 including the position and posture of the terminal 100 measured in step S101, and transmits the terminal position / posture information 121 to the server 200 (step S102).

サーバ200は、端末100から端末位置姿勢情報121を受信する(ステップS103)。 The server 200 receives the terminal position / orientation information 121 from the terminal 100 (step S103).

サーバ200は、端末位置姿勢情報121に基づいて空間モデルデータ220に抽出領域230を設定し、その抽出領域230(図2参照)から部分空間モデルデータ221を抽出する(ステップS104)。このステップS104の処理を部分空間モデル抽出処理と称する。なお、部分空間モデル抽出処理の詳細については後述する。 The server 200 sets the extraction area 230 in the space model data 220 based on the terminal position / orientation information 121, and extracts the subspace model data 221 from the extraction area 230 (see FIG. 2) (step S104). The process of step S104 is referred to as a subspace model extraction process. The details of the subspace model extraction process will be described later.

また、端末100は、撮像部104によって現実空間の当該端末100の姿勢の方向を撮像し、撮像画像を生成する(ステップS105)。 Further, the terminal 100 captures the direction of the posture of the terminal 100 in the real space by the imaging unit 104, and generates an captured image (step S105).

端末100は、3Dスキャン部103によって現実空間の当該端末100の姿勢の方向を3Dスキャンし、3Dスキャンデータ120(3D点群データ)を生成する(ステップS106)。 The terminal 100 3D scans the direction of the posture of the terminal 100 in the real space by the 3D scanning unit 103, and generates 3D scan data 120 (3D point cloud data) (step S106).

端末100は、3Dスキャンデータ120をサーバ200へ送信する(ステップS107)。 The terminal 100 transmits the 3D scan data 120 to the server 200 (step S107).

サーバ200は、端末100から3Dスキャンデータ120を受信する(ステップS108)。 The server 200 receives the 3D scan data 120 from the terminal 100 (step S108).

サーバ200は、3Dスキャンデータ120から移動体240を除去し、移動体240を除去した3Dスキャンデータ120(以下、移動体除去後の3Dスキャンデータと称する)を生成する(ステップS109)。このステップS109の処理を移動体除去処理と称する。なお、移動体除去処理の詳細については後述する。 The server 200 removes the moving body 240 from the 3D scan data 120, and generates 3D scan data 120 (hereinafter, referred to as 3D scan data after removing the moving body) from which the moving body 240 is removed (step S109). The process of step S109 is referred to as a moving body removal process. The details of the moving body removal process will be described later.

サーバ200は、部分空間モデルデータ221から移動体除去後の3Dスキャンデータ120にマッチングする部分(以下、マッチング部分と称する)を検出する(ステップS110)。このステップS110の処理をマッチング処理と称する。なお、マッチング処理の詳細については後述する。 The server 200 detects a portion (hereinafter referred to as a matching portion) that matches the 3D scan data 120 after removing the moving object from the subspace model data 221 (step S110). The process of step S110 is referred to as a matching process. The details of the matching process will be described later.

サーバ200は、検出したマッチング部分に基づいて、空間モデルデータ220内での端末100の位置、高度及び姿勢を特定する(ステップS111)。このステップS111の処理をモデル内端末位置姿勢算出処理と称する。なお、モデル内端末位置姿勢算出処理の詳細については後述する。 The server 200 specifies the position, altitude, and attitude of the terminal 100 in the spatial model data 220 based on the detected matching portion (step S111). The process of step S111 is referred to as a terminal position / orientation calculation process in the model. The details of the terminal position / orientation calculation process in the model will be described later.

サーバ200は、ステップS111で特定した空間モデルデータ220内での端末100の位置、高度及び姿勢を含むモデル内端末位置姿勢情報222を生成し、端末100へ送信する(ステップS112)。 The server 200 generates the terminal position / attitude information 222 in the model including the position, altitude, and attitude of the terminal 100 in the spatial model data 220 specified in step S111, and transmits it to the terminal 100 (step S112).

端末100は、サーバ200からモデル内端末位置姿勢情報222を受信する(ステップS113)。 The terminal 100 receives the terminal position / attitude information 222 in the model from the server 200 (step S113).

端末100は、モデル内端末位置姿勢情報222に基づいて、現実空間における高精度な端末100の位置、高度及び姿勢を特定する(ステップS114)。つまり、端末100は、現実空間における高精度な端末100の位置、高度及び姿勢を示す情報を含む高精度端末位置姿勢情報122を生成する。 The terminal 100 specifies the position, altitude, and attitude of the terminal 100 with high accuracy in the real space based on the terminal position / attitude information 222 in the model (step S114). That is, the terminal 100 generates high-precision terminal position / orientation information 122 including information indicating the position, altitude, and attitude of the high-precision terminal 100 in the real space.

端末100は、高精度端末位置姿勢情報122に基づいて、撮像画像に対する仮想オブジェクト画像の重畳位置を特定し、その特定した重畳位置に仮想オブジェクト画像を重畳して表示部に表示する(ステップS115)。 The terminal 100 specifies a superposed position of the virtual object image on the captured image based on the high-precision terminal position / orientation information 122, superimposes the virtual object image on the specified superposed position, and displays the virtual object image on the display unit (step S115). ..

これにより、端末100は、現実空間を撮像した撮像画像の所定の位置にあたかも仮想オブジェクトが存在しているような画像を、表示部106に表示することができる。また、高精度端末位置姿勢情報122を用いて仮想オブジェクト画像の重畳位置を特定しているため、ステップS101での計測精度が不十分な場合であっても、端末100は、現実空間に対する仮想オブジェクト画像の位置合わせを高精度に行うことができる。例えば、屋内のようにGNSS信号を精度良く受信できない場所であっても、端末100は、その屋内の空間モデルデータ220を用いて、仮想オブジェクト画像の位置合わせを高精度に行うことができる。 As a result, the terminal 100 can display an image on the display unit 106 as if a virtual object exists at a predetermined position of the captured image captured in the real space. Further, since the superposed position of the virtual object image is specified by using the high-precision terminal position / orientation information 122, the terminal 100 is a virtual object with respect to the real space even when the measurement accuracy in step S101 is insufficient. Image alignment can be performed with high accuracy. For example, even in a place where the GNSS signal cannot be received accurately, such as indoors, the terminal 100 can perform the alignment of the virtual object image with high accuracy by using the spatial model data 220 in the room.

なお、端末100がAR眼鏡である場合、端末100は、ステップS115として、次のステップS115aの処理を行ってよい。 When the terminal 100 is AR glasses, the terminal 100 may perform the next step S115a as step S115.

端末100は、高精度端末位置姿勢情報122に基づいて、表示部106を透視して見える現実空間に対する仮想オブジェクト画像の表示位置を特定し、表示部106の当該特定した表示位置に仮想オブジェクト画像を表示する(ステップS115a)。 The terminal 100 specifies the display position of the virtual object image with respect to the real space that can be seen through the display unit 106 based on the high-precision terminal position / orientation information 122, and displays the virtual object image at the specified display position of the display unit 106. Display (step S115a).

これにより、端末100は、AR眼鏡を装着しているユーザに対して、表示部106を透視して見えている現実空間の所定の位置にあたかも仮想オブジェクトが存在しているように視認させることができる。 As a result, the terminal 100 allows the user wearing the AR glasses to visually recognize the virtual object as if it exists at a predetermined position in the real space seen through the display unit 106. can.

なお、図6では、説明をわかり易くするために、端末100の処理及びサーバ200の処理を直列処理として示したが、端末100の処理及びサーバ200の処理の少なくとも一部は、並列処理であってもよい。例えば、端末100は、ステップS101及びステップS102の処理と、ステップS105の処理と、ステップS106の処理とを、並列に行ってもよい。この場合、サーバ200は、ステップS103及びステップS104の処理と、ステップS108~ステップS112の処理とを、並列に行ってもよい。 In FIG. 6, for the sake of clarity, the processing of the terminal 100 and the processing of the server 200 are shown as serial processing, but at least a part of the processing of the terminal 100 and the processing of the server 200 is parallel processing. May be good. For example, the terminal 100 may perform the processing of steps S101 and S102, the processing of step S105, and the processing of step S106 in parallel. In this case, the server 200 may perform the processing of steps S103 and S104 and the processing of steps S108 to S112 in parallel.

<部分空間モデル抽出処理の詳細>
図7は、部分空間モデル抽出処理の詳細例を示すフローチャートである。次に、図7を参照して、図6に示すステップS104の部分空間モデル抽出処理について詳細に説明する。
<Details of subspace model extraction process>
FIG. 7 is a flowchart showing a detailed example of the subspace model extraction process. Next, with reference to FIG. 7, the subspace model extraction process of step S104 shown in FIG. 6 will be described in detail.

(ステップS201)サーバ200は、端末100から受信した端末位置姿勢情報121に基づいて、空間モデルデータ220に抽出領域230(図2参照)を設定する。 (Step S201) The server 200 sets the extraction area 230 (see FIG. 2) in the spatial model data 220 based on the terminal position / orientation information 121 received from the terminal 100.

例えば、サーバ200は、空間モデルデータ220における端末位置姿勢情報121が示す端末100の位置(以下、モデル内端末位置131と称する)を特定し、その特定したモデル内端末位置131を含む所定サイズの抽出領域230を空間モデルデータ220に対して設定する。 For example, the server 200 specifies the position of the terminal 100 (hereinafter referred to as the terminal position 131 in the model) indicated by the terminal position / orientation information 121 in the spatial model data 220, and has a predetermined size including the specified terminal position 131 in the model. The extraction area 230 is set for the spatial model data 220.

抽出領域230は水平に設定されてよい。その場合、抽出領域230の形状は、正方形、長方形、円形、又は、楕円形等であってよい。抽出領域230が正方形の場合において、抽出領域230の一辺の長さは100m程度であってよい。ただし、抽出領域230の一辺の長さは、どのような長さであってもよいし、抽出領域230が設定される空間モデルデータ220が屋外又は屋内の何れであるかによって変化してもよい。 The extraction area 230 may be set horizontally. In that case, the shape of the extraction region 230 may be a square, a rectangle, a circle, an ellipse, or the like. When the extraction area 230 is square, the length of one side of the extraction area 230 may be about 100 m. However, the length of one side of the extraction region 230 may be any length, and may change depending on whether the spatial model data 220 in which the extraction region 230 is set is outdoor or indoor. ..

また、図2に示すように、サーバ200は、モデル内端末位置131から端末位置姿勢情報121が示す端末100の方位角の方向(つまり端末100の前方。以下、モデル内端末の方位角方向と称する)の境界までの距離d1の方が、モデル内端末位置からモデル内端末の方位角方向と反対の方向(つまり端末100の後方)の境界までの距離d2よりも長くなるように、抽出領域230を設定してよい。端末100の前方を3Dスキャンするマッチング処理では、端末100の前方の空間モデルデータ220が主に使用され、端末100の後方の空間モデルデータ220はほぼ使用されないためである。これにより、サーバ200は、空間モデルデータ220における、主に端末100の前方に延びる抽出領域230から部分空間モデルデータ221を抽出できるので、例えば端末100を中心とする抽出領域230から部分空間モデルデータ221を抽出する場合と比較して、部分空間モデルデータ221のデータ量を抑制できる。 Further, as shown in FIG. 2, the server 200 has a direction of the azimuth angle of the terminal 100 indicated by the terminal position / orientation information 121 from the terminal position 131 in the model (that is, in front of the terminal 100; hereinafter, the azimuth angle direction of the terminal in the model). The extraction area is such that the distance d1 to the boundary of (referred to as) is longer than the distance d2 from the terminal position in the model to the boundary in the direction opposite to the azimuth direction of the terminal in the model (that is, behind the terminal 100). 230 may be set. This is because in the matching process for 3D scanning the front of the terminal 100, the spatial model data 220 in front of the terminal 100 is mainly used, and the spatial model data 220 behind the terminal 100 is hardly used. As a result, the server 200 can extract the subspace model data 221 from the extraction area 230 mainly extending in front of the terminal 100 in the space model data 220. Therefore, for example, the subspace model data from the extraction area 230 centered on the terminal 100. Compared with the case of extracting 221, the amount of data of the subspace model data 221 can be suppressed.

(ステップS202)サーバ200は、ステップS201にて設定した抽出領域230に含まれる空間モデルデータ220を、部分空間モデルデータ221として抽出する。なお、サーバ200は、抽出領域230の高さ方向の空間モデルデータ220についてはすべて部分空間モデルデータ221として抽出してよい。あるいは、サーバ200は、抽出領域230の所定の高さまでの空間モデルデータ220を部分空間モデルデータ221として抽出してもよい。 (Step S202) The server 200 extracts the spatial model data 220 included in the extraction area 230 set in step S201 as the subspace model data 221. The server 200 may extract all the spatial model data 220 in the height direction of the extraction region 230 as subspace model data 221. Alternatively, the server 200 may extract the spatial model data 220 up to a predetermined height of the extraction region 230 as the partial spatial model data 221.

このように、サーバ200は、端末100から送信された端末位置姿勢情報121に基づいて、空間モデルデータ220から部分空間モデルデータ221を抽出し、ステップS110のマッチング処理において、その部分空間モデルデータ221を3Dスキャンデータ120のマッチング対象とする。これにより、空間モデルデータ200をそのまま3Dスキャンデータ120のマッチング対象とする場合と比較して、マッチング対象のデータ量が小さくなるので、サーバ200は、マッチング処理にかかる時間を短縮できる。よって、サーバ200は、端末100の位置を推定する処理にかかる時間を短縮できる。 As described above, the server 200 extracts the subspace model data 221 from the space model data 220 based on the terminal position / attitude information 121 transmitted from the terminal 100, and in the matching process of step S110, the subspace model data 221 is used. Is the matching target of the 3D scan data 120. As a result, the amount of data to be matched is smaller than when the spatial model data 200 is directly used as the matching target of the 3D scan data 120, so that the server 200 can shorten the time required for the matching process. Therefore, the server 200 can shorten the time required for the process of estimating the position of the terminal 100.

<移動体除去処理の詳細>
図8は、移動体除去処理の詳細例を示すフローチャートである。次に、図8を参照して、図6に示すステップS109の移動体除去処理について詳細に説明する。
<Details of moving body removal processing>
FIG. 8 is a flowchart showing a detailed example of the moving body removal process. Next, with reference to FIG. 8, the moving body removing process in step S109 shown in FIG. 6 will be described in detail.

(ステップS301)サーバ200は、端末100から受信した3Dスキャンデータ120から移動体240のオブジェクトデータを除去し、移動体除去後の3Dスキャンデータ120を生成する。移動体240の例として、自動車、バイク、自転車、電車、歩行者、動物等が挙げられる。 (Step S301) The server 200 removes the object data of the moving body 240 from the 3D scan data 120 received from the terminal 100, and generates the 3D scan data 120 after the moving body is removed. Examples of the moving body 240 include automobiles, motorcycles, bicycles, trains, pedestrians, animals and the like.

サーバ200は、例えば、次の(A1)、(A2)、又は、(A3)の何れかの方法によって、3Dスキャンデータ120から移動体240のオブジェクトデータを除去する。 The server 200 removes the object data of the moving body 240 from the 3D scan data 120 by, for example, any of the following methods (A1), (A2), or (A3).

(A1)サーバ200は、様々な移動体240の3Dデータを予め保持しておく。そして、サーバ200は、移動体240の3Dデータとのパターンマッチングにより、3Dスキャンデータ120から移動体240と推定されるセグメントデータ(つまり、移動体240のオブジェクトデータ)を検出する。そして、サーバ200は、その検出した移動体240のオブジェクトデータを3Dスキャンデータ120から除去する。 (A1) The server 200 holds 3D data of various mobile bodies 240 in advance. Then, the server 200 detects the segment data estimated to be the moving body 240 from the 3D scan data 120 (that is, the object data of the moving body 240) by pattern matching with the 3D data of the moving body 240. Then, the server 200 removes the detected object data of the moving body 240 from the 3D scan data 120.

(A2)サーバ200は、3Dスキャンデータ120から移動体240のオブジェクトデータを検出する所定の移動体検出用AI(Artificial Intelligence)を予め保持しておく。そして、サーバ200は、移動体検出用AIを用いて、3Dスキャンデータ120から移動体のオブジェクトデータを検出する。そして、サーバ200は、その検出した移動体240のオブジェクトデータを3Dスキャンデータ120から除去する。移動体検出用AIは、機械学習、ニューラルネットワーク、又は、ディープラーニング等によって移動体240のオブジェクトデータの特徴等を予め学習させたものであってよい。 (A2) The server 200 holds in advance a predetermined moving object detection AI (Artificial Intelligence) that detects the object data of the moving body 240 from the 3D scan data 120. Then, the server 200 detects the object data of the moving object from the 3D scan data 120 by using the moving object detecting AI. Then, the server 200 removes the detected object data of the moving body 240 from the 3D scan data 120. The moving object detection AI may be one in which the features of the object data of the moving object 240 are learned in advance by machine learning, neural network, deep learning, or the like.

(A3)サーバ200は、時刻t1に3Dスキャンされた第1の3Dスキャンデータ120と、時刻t2(>t1)に3Dスキャンされた第2の3Dスキャンデータ120とを取得する。そして、サーバ200は、第1の3Dスキャンデータ120から第2の3Dスキャンデータ120への変化に基づいて、移動体240のオブジェクトデータを検出する。典型的に、移動体240の時間変化量は大きく、建築物、道路、標識のような静止体の時間変化量は小さいため、上記の処理により、サーバ200は、移動体240のオブジェクトデータを検出できる。そして、サーバ200は、その検出した移動体240のオブジェクトデータを第1又は第2の3Dスキャンデータ120から除去する。 (A3) The server 200 acquires the first 3D scan data 120 3D-scanned at time t1 and the second 3D scan data 120 3D-scanned at time t2 (> t1). Then, the server 200 detects the object data of the moving body 240 based on the change from the first 3D scan data 120 to the second 3D scan data 120. Typically, the amount of time change of the moving body 240 is large, and the amount of time change of a stationary body such as a building, a road, or a sign is small. Therefore, by the above processing, the server 200 detects the object data of the moving body 240. can. Then, the server 200 removes the detected object data of the moving body 240 from the first or second 3D scan data 120.

典型的には、空間モデルデータ220は、移動体240を含まない。そのため、このように、3Dスキャンデータ120から移動体240のオブジェクトデータを除去しておくことにより、マッチング処理において、移動体除去後の3Dスキャンデータ120と部分空間モデルデータ221とのマッチング精度が向上すると共に、マッチングのロバスト性が向上する。 Typically, the spatial model data 220 does not include the moving body 240. Therefore, by removing the object data of the moving body 240 from the 3D scan data 120 in this way, the matching accuracy between the 3D scan data 120 after removing the moving body and the subspace model data 221 is improved in the matching process. At the same time, the robustness of matching is improved.

なお、空間モデルデータ220が移動体240を含む場合、サーバ200は、当該移動体除去処理において、ステップS104にて抽出した部分空間モデルデータ221から移動体240を除去し、その移動体を除去した部分空間モデルデータ221を、ステップS110のマッチング処理に用いてもよい。 When the space model data 220 includes the moving body 240, the server 200 removes the moving body 240 from the subspace model data 221 extracted in step S104 in the moving body removing process, and removes the moving body. The subspace model data 221 may be used for the matching process in step S110.

<マッチング処理の詳細>
図9は、マッチング処理の詳細例を示すフローチャートである。次に、図9を参照して、図6に示すステップS110のマッチング処理について詳細に説明する。
<Details of matching process>
FIG. 9 is a flowchart showing a detailed example of the matching process. Next, with reference to FIG. 9, the matching process of step S110 shown in FIG. 6 will be described in detail.

(ステップS401)サーバ200は、部分空間モデルデータ221の各特徴点の特徴量を算出する。なお、サーバ200は、部分空間モデルデータ221の各特徴点の特徴量を予め算出し、メモリ203又はストレージ204に保持しておいてもよい。 (Step S401) The server 200 calculates the feature amount of each feature point of the subspace model data 221. The server 200 may calculate in advance the feature amount of each feature point of the subspace model data 221 and hold it in the memory 203 or the storage 204.

(ステップS402)サーバ200は、移動体除去後の3Dスキャンデータ120の各特徴点の特徴量を算出する。 (Step S402) The server 200 calculates the feature amount of each feature point of the 3D scan data 120 after removing the moving object.

(ステップS403)サーバ200は、移動体除去後の3Dスキャンデータ120の特徴点とマッチングする部分空間モデルデータ221の特徴点をマッチング部分として検出する。例えば、サーバ200は、移動体除去後の3Dスキャンデータ120の特徴点の特徴量と類似する特徴量を有する部分空間モデルデータ221の特徴点を検出することにより、マッチング部分の検出を行う。特徴量は、多元ベクトルにて表現されてよい。この場合、2つの特徴量が類似するとは、2つの多元ベクトルの内積が所定の閾値未満であること、あるいは、2つの多元ベクトルの各要素の差の絶対値が所定の閾値未満であることであってよい。 (Step S403) The server 200 detects the feature points of the subspace model data 221 that match the feature points of the 3D scan data 120 after the moving object is removed as the matching portion. For example, the server 200 detects the matching portion by detecting the feature points of the subspace model data 221 having the feature amounts similar to the feature amounts of the feature points of the 3D scan data 120 after the moving object is removed. The feature quantity may be expressed by a multidimensional vector. In this case, the fact that the two features are similar means that the inner product of the two multidimensional vectors is less than the predetermined threshold value, or the absolute value of the difference between the elements of the two multidimensional vectors is less than the predetermined threshold value. It may be there.

このように、空間モデルデータ220全体よりもデータ量の小さな部分空間モデルデータ221と移動体除去後の3Dスキャンデータ120とをマッチングすることにより、空間モデルデータ220全体と移動体除去後の3Dスキャンデータ120とをマッチングする場合と比較して、マッチング処理に要する時間を短縮することができる。 In this way, by matching the partial spatial model data 221 with a smaller amount of data than the entire spatial model data 220 and the 3D scan data 120 after removing the moving object, the entire spatial model data 220 and the 3D scan after removing the moving object are scanned. Compared with the case of matching with the data 120, the time required for the matching process can be shortened.

また、典型的には空間モデルデータ220は移動体を含まないので、移動体除去後の3Dスキャンデータ120と部分空間モデルデータ221とをマッチングすることにより、移動体除去を行わない3Dスキャンデータ120と部分空間モデルデータ221とをマッチングする場合と比較して、マッチングのミスが発生する確率が低下する。つまり、マッチングのロバスト性が向上する。 Further, since the spatial model data 220 typically does not include a moving object, the 3D scan data 120 that does not remove the moving object is matched by matching the 3D scan data 120 after the moving object is removed with the subspace model data 221. Compared with the case of matching the subspace model data 221 with the subspace model data 221, the probability that a matching error occurs is reduced. That is, the robustness of matching is improved.

なお、上記の移動体除去処理において、部分空間モデルデータ221から移動体240を除去した場合、サーバ200は、その移動体240を除去した部分空間モデルデータ221を用いてマッチング処理を行ってもよい。 When the moving body 240 is removed from the subspace model data 221 in the above moving body removing process, the server 200 may perform the matching process using the subspace model data 221 from which the moving body 240 is removed. ..

<モデル内端末位置姿勢算出処理の詳細>
図10は、モデル内端末位置姿勢算出処理の詳細例を示すフローチャートである。次に、図10を参照して、図6に示すステップS111のモデル内端末位置姿勢算出処理について詳細に説明する。
<Details of terminal position / orientation calculation processing in the model>
FIG. 10 is a flowchart showing a detailed example of the terminal position / orientation calculation process in the model. Next, with reference to FIG. 10, the terminal position / orientation calculation process in the model in step S111 shown in FIG. 6 will be described in detail.

(ステップS501)サーバ200は、空間モデルデータ220内に仮想的な端末130を配置して仮想的な3Dスキャンを行った場合に、空間モデルデータ220からマッチング処理にて検出されたマッチング部分を得ることができる空間モデルデータ220内における当該仮想的な端末130の位置、高度及び姿勢を算出する。 (Step S501) When the server 200 arranges a virtual terminal 130 in the spatial model data 220 and performs a virtual 3D scan, the server 200 obtains a matching portion detected by the matching process from the spatial model data 220. The position, altitude, and attitude of the virtual terminal 130 in the spatial model data 220 that can be calculated are calculated.

これにより、サーバ200は、高精度な端末100の位置、高度及び姿勢を示す高精度端末位置姿勢情報122を生成することができる。 As a result, the server 200 can generate high-precision terminal position / orientation information 122 indicating the position, altitude, and attitude of the high-precision terminal 100.

<変形例>
サーバ200は、ステップS109において、3Dスキャンデータ120から移動体240を除去する処理に代えて、3Dスキャンデータ120から移動体240を検出し、その検出した移動体240に対して移動体情報を付与してもよい。この場合、サーバ200は、ステップS110において、3Dスキャンデータ120の移動体情報が付与されている部分をマッチング処理の対象外として、マッチング処理を行う。これによっても、上述同様、マッチングのロバスト性が向上する。
<Modification example>
In step S109, the server 200 detects the moving body 240 from the 3D scan data 120 instead of the process of removing the moving body 240 from the 3D scan data 120, and imparts moving body information to the detected moving body 240. You may. In this case, in step S110, the server 200 performs the matching process by excluding the portion to which the moving body information of the 3D scan data 120 is added from the matching process. This also improves the robustness of matching, as described above.

また、上述においてサーバ200が行っている処理の少なくとも一部を端末100が行ってもよい。例えば、端末100は、ステップS109の移動体除去処理を行い、移動体除去後の3Dスキャンデータ120をサーバ200に送信してもよい。例えば、端末100は、部分空間モデルデータ221をサーバ200から受信し、その部分空間モデルデータ221を用いてステップS110のマッチング処理及びステップS111のモデル内端末位置姿勢算出処理を行ってもよい。 Further, the terminal 100 may perform at least a part of the processing performed by the server 200 in the above description. For example, the terminal 100 may perform the moving object removal process in step S109 and transmit the 3D scan data 120 after the moving object removal to the server 200. For example, the terminal 100 may receive the subspace model data 221 from the server 200 and use the subspace model data 221 to perform the matching process of step S110 and the terminal position / attitude calculation process in the model of step S111.

(本開示のまとめ)
本開示は以下のように表現できる。
(Summary of this disclosure)
The present disclosure can be expressed as follows.

<項目1>
本開示に係る情報処理システム1は、端末100及びサーバ200を備える。端末100は、現実空間における端末100の位置を測定し、現実空間を3Dスキャンし、端末100の位置の測定結果を含む端末位置姿勢情報121と現実空間の3Dスキャンの結果を含む3Dスキャンデータ120とをサーバ200へ送信する。サーバ200は、端末100から端末位置姿勢情報121及び3Dスキャンデータ120を受信し、端末位置姿勢情報121に基づいて、現実空間を3Dモデル化したデータである空間モデルデータ220の一部を部分空間モデルデータ221として抽出し、部分空間モデルデータ221から3Dスキャンデータとマッチングする部分を検出することにより、空間モデルデータ220内における端末100の位置を特定し、空間モデルデータ220内における端末100の位置を示すモデル内端末位置姿勢情報222を端末100に送信する。
このように、サーバ200は、端末100から送信された端末位置姿勢情報121に基づいて、空間モデルデータ200から部分空間モデルデータ221を抽出し、その部分空間モデルデータ221を3Dスキャンデータ120のマッチング対象とする。これにより、空間モデルデータ200をそのまま3Dスキャンデータ120のマッチング対象とする場合と比較して、マッチング対象のデータ量が小さくなるので、サーバ200は、マッチング処理にかかる時間を短縮できる。よって、サーバ200は、端末100の位置を推定する処理にかかる時間を短縮できる。
<Item 1>
The information processing system 1 according to the present disclosure includes a terminal 100 and a server 200. The terminal 100 measures the position of the terminal 100 in the real space, scans the real space in 3D, and includes the terminal position / orientation information 121 including the measurement result of the position of the terminal 100 and the 3D scan data 120 including the result of the 3D scan in the real space. To the server 200. The server 200 receives the terminal position / orientation information 121 and the 3D scan data 120 from the terminal 100, and based on the terminal position / orientation information 121, a part of the spatial model data 220 which is the data obtained by modeling the real space in 3D is a partial space. By extracting as model data 221 and detecting a portion matching with 3D scan data from the subspatial model data 221, the position of the terminal 100 in the spatial model data 220 is specified, and the position of the terminal 100 in the spatial model data 220. In-model terminal position / orientation information 222 indicating the above is transmitted to the terminal 100.
In this way, the server 200 extracts the subspace model data 221 from the space model data 200 based on the terminal position / attitude information 121 transmitted from the terminal 100, and matches the subspace model data 221 with the 3D scan data 120. set to target. As a result, the amount of data to be matched is smaller than when the spatial model data 200 is directly used as the matching target of the 3D scan data 120, so that the server 200 can shorten the time required for the matching process. Therefore, the server 200 can shorten the time required for the process of estimating the position of the terminal 100.

<項目2>
項目1に記載の情報処理システム1において、端末100は、現実空間における端末100の姿勢を測定し、端末100の姿勢の測定結果を端末位置姿勢情報121に含めてよい。
これにより、サーバ200は、端末100から送信された端末位置姿勢情報121に基づいて、端末100の姿勢を認識できるので、端末100の姿勢に応じた部分空間モデルデータ221を抽出できる。
<Item 2>
In the information processing system 1 according to item 1, the terminal 100 may measure the posture of the terminal 100 in the real space, and the measurement result of the posture of the terminal 100 may be included in the terminal position / posture information 121.
As a result, the server 200 can recognize the posture of the terminal 100 based on the terminal position / posture information 121 transmitted from the terminal 100, so that the partial space model data 221 corresponding to the posture of the terminal 100 can be extracted.

<項目3>
項目2に記載の情報処理システム1において、サーバ200は、空間モデルデータ220における、端末位置姿勢情報121が示す端末100の位置を含み、かつ、端末位置姿勢情報121が示す端末100の姿勢の方向に延びる所定の領域から、部分空間モデルデータ221を抽出してよい。
これにより、サーバ200は、空間モデルデータ220における、主に端末100の前方に延びる領域から部分空間モデルデータ221を抽出できるので、端末100を中心とする領域から部分空間モデルデータ221を抽出する場合と比較して、部分空間モデルデータ221のデータ量を抑制できる。
<Item 3>
In the information processing system 1 according to item 2, the server 200 includes the position of the terminal 100 indicated by the terminal position / orientation information 121 in the spatial model data 220, and the direction of the attitude of the terminal 100 indicated by the terminal position / orientation information 121. The subspace model data 221 may be extracted from a predetermined area extending to.
As a result, the server 200 can extract the subspace model data 221 mainly from the area extending in front of the terminal 100 in the space model data 220, so that the subspace model data 221 can be extracted from the area centered on the terminal 100. The amount of data of the subspace model data 221 can be suppressed as compared with the above.

<項目4>
項目2又は3に記載の情報処理システム1において、端末位置姿勢情報121は、現実空間における端末100の位置を示す緯度及び経度と、端末100の姿勢を示す方位角及び仰俯角とを含み、モデル内端末位置姿勢情報222は、空間モデルデータ220内における端末100の位置を示す経度、緯度及び高度と、端末100の姿勢を示す方位角及び仰俯角とを含んでよい。
これにより、サーバ200は、端末100から送信された端末位置姿勢情報121に基づいて、現実空間における端末100が位置する経度及び緯度と、端末100が向いている方位角及び仰俯角とを認識できる。また、端末100は、サーバ200から送信されたモデル内端末位置姿勢情報222に基づいて、現実空間において端末100が位置する経度、緯度及び高度と、端末が向いている方位角及び仰俯角とを精度良く認識できる。
<Item 4>
In the information processing system 1 according to item 2 or 3, the terminal position / orientation information 121 includes a latitude and longitude indicating the position of the terminal 100 in the real space, and an azimuth angle and an elevation / depression angle indicating the attitude of the terminal 100, and is a model. The inner terminal position / orientation information 222 may include a longitude, latitude, and altitude indicating the position of the terminal 100 in the spatial model data 220, and an azimuth angle and an elevation / depression angle indicating the attitude of the terminal 100.
As a result, the server 200 can recognize the longitude and latitude at which the terminal 100 is located in the real space, and the azimuth and elevation / depression angles at which the terminal 100 is facing, based on the terminal position / attitude information 121 transmitted from the terminal 100. .. Further, the terminal 100 determines the longitude, latitude, and altitude at which the terminal 100 is located in the real space, and the azimuth and elevation / depression angles at which the terminal is facing, based on the terminal position / attitude information 222 in the model transmitted from the server 200. Can be recognized with high accuracy.

<項目5>
項目1から4のいずれか1項に記載の情報処理システム1において、3Dスキャンデータ120、及び、空間モデルデータ220は、3D点群データによって構成されてよい。
これにより、サーバ200は、3D点群データ同士のマッチング処理により、部分空間モデルデータ221と3Dスキャンデータ120とのマッチングを行うことができる。
<Item 5>
In the information processing system 1 according to any one of items 1 to 4, the 3D scan data 120 and the spatial model data 220 may be composed of 3D point cloud data.
As a result, the server 200 can perform matching between the subspace model data 221 and the 3D scan data 120 by the matching process between the 3D point cloud data.

<項目6>
項目5に記載の情報処理システム1において、サーバ200は、部分空間モデルデータ221に含まれる3D点群データの特徴点と、3Dスキャンデータ120に含まれる3D点群データの特徴点とのマッチングを行うことにより、空間モデルデータ220における端末100の位置を特定してよい。
これにより、サーバ200は、3D点群データの特徴点のマッチング処理により、空間モデルデータ220における端末100の位置を特定することができる。
<Item 6>
In the information processing system 1 according to item 5, the server 200 matches the feature points of the 3D point cloud data included in the subspace model data 221 with the feature points of the 3D point cloud data included in the 3D scan data 120. By doing so, the position of the terminal 100 in the spatial model data 220 may be specified.
As a result, the server 200 can specify the position of the terminal 100 in the spatial model data 220 by the matching process of the feature points of the 3D point cloud data.

<項目7>
項目1から6のいずれか1項に記載の情報処理システム1において、サーバ200は、部分空間モデルデータ221における、3Dスキャンデータ120の移動体を除くデータにマッチングする部分を特定することにより、空間モデルデータ220における端末100の位置を特定してよい。
これにより、マッチング処理おける、移動体除去後の3Dスキャンデータ120と部分空間モデルデータ221とのマッチング精度が向上すると共に、マッチングのロバスト性が向上する。
<Item 7>
In the information processing system 1 according to any one of items 1 to 6, the server 200 specifies a portion of the partial space model data 221 that matches the data excluding the moving body of the 3D scan data 120, thereby providing space. The position of the terminal 100 in the model data 220 may be specified.
As a result, in the matching process, the matching accuracy between the 3D scan data 120 after the moving object is removed and the subspace model data 221 is improved, and the robustness of the matching is improved.

<項目8>
項目1から7のいずれか1項に記載の情報処理システム1において、端末100は、3Dスキャンと共通の方向を撮像する撮像部104をさらに備え、モデル内端末位置姿勢情報222に基づいて、撮像部104によって撮像された撮像画像に対する所定の仮想オブジェクト画像の重畳位置を特定し、撮像画像の当該重畳位置に仮想オブジェクト画像を重畳した画像を所定の表示部106に表示してよい。
これにより、端末100は、モデル内端末位置姿勢情報222に基づいて、仮想オブジェクト画像を精度良く撮像画像に重畳することができる。
<Item 8>
In the information processing system 1 according to any one of items 1 to 7, the terminal 100 further includes an image pickup unit 104 that captures an image in a direction common to 3D scanning, and images are captured based on the terminal position / orientation information 222 in the model. A predetermined virtual object image superimposition position on the captured image captured by the unit 104 may be specified, and an image in which the virtual object image is superimposed on the superimposition position of the captured image may be displayed on the predetermined display unit 106.
As a result, the terminal 100 can accurately superimpose the virtual object image on the captured image based on the terminal position / orientation information 222 in the model.

<項目9>
項目1から7のいずれか1項に記載の情報処理システム1において、端末100は、3Dスキャンと共通の方向を透視可能な表示部106を備え、モデル内端末位置姿勢情報222に基づいて、表示部106における所定の仮想オブジェクト画像の表示位置を特定し、表示部106の表示位置に仮想オブジェクト画像を表示してよい。
これにより、端末100は、モデル内端末位置姿勢情報222に基づいて、表示部106から透視して視認される現実空間に、仮想オブジェクト画像を精度良く重畳表示することができる。
<Item 9>
In the information processing system 1 according to any one of items 1 to 7, the terminal 100 includes a display unit 106 capable of seeing through a direction common to 3D scanning, and displays based on the terminal position / orientation information 222 in the model. The display position of a predetermined virtual object image in the unit 106 may be specified, and the virtual object image may be displayed at the display position of the display unit 106.
As a result, the terminal 100 can accurately superimpose and display the virtual object image in the real space that can be seen through from the display unit 106 based on the terminal position / orientation information 222 in the model.

<項目10>
端末100及びサーバ200による情報処理方法は次の通りである。端末100は、現実空間における端末100の位置を測定し、現実空間を3Dスキャンし、端末100の位置の測定結果を含む端末位置姿勢情報121と、現実空間の3Dスキャンの結果を含む3Dスキャンデータ120とをサーバ200へ送信する。、サーバ200は、端末100から端末位置姿勢情報121及び3Dスキャンデータ120を受信し、端末位置姿勢情報121に基づいて、現実空間を3Dモデル化したデータである空間モデルデータ220の一部を部分空間モデルデータ221として抽出し、部分空間モデルデータ221から前記3Dスキャンデータとマッチングする部分を特定することにより、空間モデルデータ220内における端末100の位置を特定し、特定した空間モデルデータ220内における端末100の位置を示すモデル内端末位置姿勢情報222を端末100に送信する。
このように、サーバ200は、端末100から送信された端末位置姿勢情報121に基づいて、空間モデルデータ200から部分空間モデルデータ221を抽出し、その部分空間モデルデータ221を3Dスキャンデータ120のマッチング対象とする。これにより、空間モデルデータ200をそのまま3Dスキャンデータのマッチング対象とする場合と比較して、マッチング対象のデータ量が小さくなるので、サーバ200は、マッチング処理にかかる時間を短縮できる。よって、サーバ200は、端末100の位置を推定する処理にかかる時間を短縮できる。
<Item 10>
The information processing method by the terminal 100 and the server 200 is as follows. The terminal 100 measures the position of the terminal 100 in the real space, scans the real space in 3D, and contains the terminal position / orientation information 121 including the measurement result of the position of the terminal 100 and the 3D scan data including the result of the 3D scan in the real space. 120 and 120 are transmitted to the server 200. , The server 200 receives the terminal position / orientation information 121 and the 3D scan data 120 from the terminal 100, and a part of the spatial model data 220 which is the data obtained by modeling the real space in 3D based on the terminal position / attitude information 121. By extracting as the spatial model data 221 and specifying the portion matching the 3D scan data from the partial spatial model data 221, the position of the terminal 100 in the spatial model data 220 is specified, and the position in the specified spatial model data 220 is specified. The terminal position / attitude information 222 in the model indicating the position of the terminal 100 is transmitted to the terminal 100.
In this way, the server 200 extracts the subspace model data 221 from the space model data 200 based on the terminal position / attitude information 121 transmitted from the terminal 100, and matches the subspace model data 221 with the 3D scan data 120. set to target. As a result, the amount of data to be matched is smaller than in the case where the spatial model data 200 is directly used as the matching target for the 3D scan data, so that the server 200 can shorten the time required for the matching process. Therefore, the server 200 can shorten the time required for the process of estimating the position of the terminal 100.

上述した実施の形態の各構成要素は、発明の趣旨を逸脱しない範囲において、変更、修正、置換、付加、削除、均等等が可能である。加えて、上述した実施の形態の各構成要素は、発明の趣旨を逸脱しない範囲において、任意に組み合わせが可能である。 Each component of the above-described embodiment can be changed, modified, replaced, added, deleted, equalized, or the like without departing from the spirit of the invention. In addition, each component of the above-described embodiment can be arbitrarily combined as long as it does not deviate from the gist of the invention.

本開示の技術は、現実空間をスキャンして得たデータと現実空間を模したデータとのマッチングに有用であり、例えば、現実空間における端末の位置及び姿勢の高精度な特定に利用可能である。 The technique of the present disclosure is useful for matching the data obtained by scanning the real space with the data imitating the real space, and can be used, for example, for highly accurate identification of the position and posture of the terminal in the real space. ..

1 情報処理システム
3 通信ネットワーク
100 端末
101 位置計測部
102 姿勢計測部
103 3Dスキャン部
104 撮像部
105 入力部
106 表示部
107 メモリ
108 ストレージ
109 通信部
110 プロセッサ
120 3Dスキャンデータ
121 端末位置姿勢情報
122 高精度端末位置姿勢情報
131 モデル内端末位置
200 サーバ
201 入力部
202 表示部
203 メモリ
204 ストレージ
205 通信部
206 プロセッサ
220 空間モデルデータ
221 部分空間モデルデータ
222 モデル内端末位置姿勢情報
230 抽出領域
240 移動体
1 Information processing system 3 Communication network 100 Terminal 101 Position measurement unit 102 Attitude measurement unit 103 3D scan unit 104 Imaging unit 105 Input unit 106 Display unit 107 Memory 108 Storage 109 Communication unit 110 Processor 120 3D scan data 121 Terminal position Attitude information 122 High Accuracy Terminal position Attitude information 131 In-model terminal position 200 Server 201 Input unit 202 Display unit 203 Memory 204 Storage 205 Communication unit 206 Processor 220 Spatial model data 221 Partial space model data 222 In-model terminal position / attitude information 230 Extraction area 240 Moving object

Claims (7)

端末及びサーバを備える情報処理システムであって、
前記端末は、
GNSS信号に基づいて現実空間における前記端末の第1の位置を測定し、
電子コンパスを用いて前記現実空間における前記端末の第1の姿勢を測定し、
LiDARを用いて前記現実空間を3D点群データとして3Dスキャンし、前記現実空間の3Dスキャンデータを生成し
前記端末の第1の位置及び第1の姿勢の測定結果を含む端末位置姿勢情報と前記3Dスキャンデータとを前記サーバへ送信し、
前記サーバは、
前記端末から前記端末位置姿勢情報及び前記3Dスキャンデータを受信し、
前記現実空間を3D点群データによって3Dモデル化したデータである空間モデルデータにおける、前記端末位置姿勢情報が示す前記端末の第1の位置を含み、かつ、前記端末位置姿勢情報が示す前記端末の第1の姿勢の方向に所定の距離だけ延びた領域を、部分空間モデルデータとして抽出し、
前記部分空間モデルデータから前記3Dスキャンデータとマッチングする部分を検出することにより、前記空間モデルデータ内における前記端末の第2の位置及び第2の姿勢を特定し、
前記空間モデルデータ内における前記端末の第2の位置及び第2の姿勢を示すモデル内端末位置姿勢情報を前記端末に送信する、
情報処理システム。
An information processing system equipped with a terminal and a server.
The terminal is
The first position of the terminal in the real space is measured based on the GNSS signal .
Using an electronic compass, the first posture of the terminal in the real space is measured.
Using LiDAR, the real space is 3D-scanned as 3D point cloud data, and 3D scan data of the real space is generated .
The terminal position / orientation information including the measurement results of the first position and the first attitude of the terminal and the 3D scan data are transmitted to the server.
The server
The terminal position / orientation information and the 3D scan data are received from the terminal, and the terminal is received.
In the space model data which is the data obtained by 3D modeling the real space with 3D point group data, the terminal includes the first position of the terminal indicated by the terminal position / orientation information and the terminal position / orientation information indicates. A region extending by a predetermined distance in the direction of the first posture is extracted as subspace model data, and is extracted.
By detecting the portion matching with the 3D scan data from the subspace model data, the second position and the second posture of the terminal in the spatial model data are specified.
In-model terminal position / posture information indicating the second position and the second posture of the terminal in the spatial model data is transmitted to the terminal.
Information processing system.
前記第1の位置は、前記GNSS信号に基づいて測定された前記端末の緯度及び経度であり
前記第1の姿勢は、前記電子コンパスを用いて測定された前記端末の方位角及び仰俯角であり、
前記第2の位置は、前記部分空間モデルデータと前記3Dスキャンデータとのマッチングによって特定された前記端末の経度、緯度及び高度であり
前記第2の姿勢は、前記部分空間モデルデータと前記3Dスキャンデータとのマッチングによって特定された前記端末の方位角及び仰俯角である
請求項に記載の情報処理システム。
The first position is the latitude and longitude of the terminal measured based on the GNSS signal .
The first posture is the azimuth and elevation / depression angle of the terminal measured using the electronic compass .
The second position is the longitude, latitude and altitude of the terminal identified by matching the subspace model data with the 3D scan data .
The second posture is the azimuth and elevation / depression angles of the terminal specified by matching the subspace model data with the 3D scan data .
The information processing system according to claim 1 .
前記サーバは、
前記部分空間モデルデータに含まれる3D点群データの特徴点と、前記3Dスキャンデータに含まれる3D点群データの特徴点とのマッチングを行うことにより、前記空間モデルデータにおける前記端末の位置を特定する、
請求項1又は2に記載の情報処理システム。
The server
By matching the feature points of the 3D point cloud data included in the subspatial model data with the feature points of the 3D point cloud data included in the 3D scan data, the position of the terminal in the spatial model data is specified. do,
The information processing system according to claim 1 or 2 .
前記サーバは、
前記部分空間モデルデータにおける、前記3Dスキャンデータの移動体を除くデータにマッチングする部分を特定することにより、前記空間モデルデータにおける前記端末の位置を特定する、
請求項1からのいずれか1項に記載の情報処理システム。
The server
By specifying a portion of the subspace model data that matches the data excluding the moving body of the 3D scan data, the position of the terminal in the spatial model data is specified.
The information processing system according to any one of claims 1 to 3 .
前記端末は、
前記3Dスキャンと共通の方向を撮像する撮像部をさらに備え、
前記モデル内端末位置姿勢情報に基づいて、前記撮像部によって撮像された撮像画像に対する所定の仮想オブジェクト画像の重畳位置を特定し、
前記撮像画像の前記重畳位置に前記仮想オブジェクト画像を重畳した画像を所定の表示部に表示する、
請求項1からのいずれか1項に記載の情報処理システム。
The terminal is
Further provided with an image pickup unit that captures images in the same direction as the 3D scan.
Based on the terminal position / orientation information in the model, the superimposed position of the predetermined virtual object image with respect to the captured image captured by the imaging unit is specified.
An image in which the virtual object image is superimposed on the superimposed position of the captured image is displayed on a predetermined display unit.
The information processing system according to any one of claims 1 to 4 .
前記端末は、
前記3Dスキャンと共通の方向を透視可能な表示部を備え、
前記モデル内端末位置姿勢情報に基づいて、前記表示部における所定の仮想オブジェクト画像の表示位置を特定し、
前記表示部の前記表示位置に前記仮想オブジェクト画像を表示する、
請求項1からのいずれか1項に記載の情報処理システム。
The terminal is
It is equipped with a display unit that can see through the same direction as the 3D scan.
Based on the terminal position / orientation information in the model, the display position of a predetermined virtual object image in the display unit is specified.
The virtual object image is displayed at the display position of the display unit.
The information processing system according to any one of claims 1 to 5 .
端末及びサーバによる情報処理方法であって、
前記端末は、
GNSS信号に基づいて現実空間における前記端末の第1の位置を測定し、
電子コンパスを用いて前記現実空間における前記端末の第1の姿勢を測定し、
LiDARを用いて前記現実空間を3D点群データとして3Dスキャンし、前記現実空間の3Dスキャンデータを生成し
前記端末の第1の位置及び第1の姿勢の測定結果を含む端末位置姿勢情報と前記3Dスキャンデータとを前記サーバへ送信し、
前記サーバは、
前記端末から前記端末位置姿勢情報及び前記3Dスキャンデータを受信し、
前記現実空間を3D点群データによって3Dモデル化したデータである空間モデルデータにおける、前記端末位置姿勢情報が示す前記端末の第1の位置を含み、かつ、前記端末位置姿勢情報が示す前記端末の第1の姿勢の方向に所定の距離だけ延びた領域を、部分空間モデルデータとして抽出し、
前記部分空間モデルデータから前記3Dスキャンデータとマッチングする部分を特定することにより、前記空間モデルデータ内における前記端末の第2の位置及び第2の姿勢を特定し、
特定した前記空間モデルデータ内における前記端末の第2の位置及び第2の姿勢を示すモデル内端末位置姿勢情報を前記端末に送信する、
情報処理方法。
Information processing method using terminals and servers
The terminal is
The first position of the terminal in the real space is measured based on the GNSS signal .
Using an electronic compass, the first posture of the terminal in the real space is measured.
Using LiDAR, the real space is 3D-scanned as 3D point cloud data, and 3D scan data of the real space is generated .
The terminal position / orientation information including the measurement results of the first position and the first attitude of the terminal and the 3D scan data are transmitted to the server.
The server
The terminal position / orientation information and the 3D scan data are received from the terminal, and the terminal is received.
In the space model data which is the data obtained by 3D modeling the real space with 3D point group data, the terminal includes the first position of the terminal indicated by the terminal position / orientation information and the terminal position / orientation information indicates. A region extending by a predetermined distance in the direction of the first posture is extracted as subspace model data, and is extracted.
By specifying the portion that matches the 3D scan data from the subspace model data, the second position and the second posture of the terminal in the spatial model data are specified.
In-model terminal position / posture information indicating the second position and the second posture of the terminal in the specified spatial model data is transmitted to the terminal.
Information processing method.
JP2021153179A 2021-09-21 2021-09-21 Information processing system and information processing method Active JP7075090B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021153179A JP7075090B1 (en) 2021-09-21 2021-09-21 Information processing system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021153179A JP7075090B1 (en) 2021-09-21 2021-09-21 Information processing system and information processing method

Publications (2)

Publication Number Publication Date
JP7075090B1 true JP7075090B1 (en) 2022-05-25
JP2023045010A JP2023045010A (en) 2023-04-03

Family

ID=81746635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021153179A Active JP7075090B1 (en) 2021-09-21 2021-09-21 Information processing system and information processing method

Country Status (1)

Country Link
JP (1) JP7075090B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015228050A (en) 2014-05-30 2015-12-17 ソニー株式会社 Information processing device and information processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018014579A (en) * 2016-07-20 2018-01-25 株式会社日立製作所 Camera tracking device and method
JP6997057B2 (en) * 2018-09-07 2022-01-17 Kddi株式会社 Devices, programs and methods for estimating terminal position from non-animal body information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015228050A (en) 2014-05-30 2015-12-17 ソニー株式会社 Information processing device and information processing method

Also Published As

Publication number Publication date
JP2023045010A (en) 2023-04-03

Similar Documents

Publication Publication Date Title
JP6812404B2 (en) Methods, devices, computer-readable storage media, and computer programs for fusing point cloud data
JP7190842B2 (en) Information processing device, control method and program for information processing device
US10134196B2 (en) Mobile augmented reality system
CN110568447B (en) Visual positioning method, device and computer readable medium
CN111199564B (en) Indoor positioning method and device of intelligent mobile terminal and electronic equipment
KR101629042B1 (en) Registration of street-level imagery to 3d building models
TWI483215B (en) Augmenting image data based on related 3d point cloud data
CN110617821B (en) Positioning method, positioning device and storage medium
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
WO2017200662A1 (en) Predictor-corrector based pose detection
KR20130051501A (en) Online reference generation and tracking for multi-user augmented reality
WO2014011346A1 (en) Sensor-aided wide-area localization on mobile devices
JP6180647B2 (en) Indoor map construction apparatus and method using cloud points
JP6589636B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
KR20200110120A (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
KR20150095365A (en) Distance measuring method using vision sensor database
KR102475790B1 (en) Map making Platform apparatus and map making method using the platform
WO2021193672A1 (en) Three-dimensional model generation method and three-dimensional model generation device
KR101474521B1 (en) Method and apparatus for building image database
JP7075090B1 (en) Information processing system and information processing method
CN111862146A (en) Target object positioning method and device
CN115731304A (en) Road data generation method, device and equipment
KR20200032776A (en) System for information fusion among multiple sensor platforms
KR101863647B1 (en) Hypothetical line mapping and verification for 3D maps
JP7140710B2 (en) Information terminal device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210921

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220428

R150 Certificate of patent or registration of utility model

Ref document number: 7075090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350