JP2022140891A - Terminal device, information processing system, information processing method, and computer program - Google Patents

Terminal device, information processing system, information processing method, and computer program Download PDF

Info

Publication number
JP2022140891A
JP2022140891A JP2021040937A JP2021040937A JP2022140891A JP 2022140891 A JP2022140891 A JP 2022140891A JP 2021040937 A JP2021040937 A JP 2021040937A JP 2021040937 A JP2021040937 A JP 2021040937A JP 2022140891 A JP2022140891 A JP 2022140891A
Authority
JP
Japan
Prior art keywords
terminal device
orientation
marker
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021040937A
Other languages
Japanese (ja)
Inventor
祥生 石黒
Yoshio Ishiguro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai National Higher Education and Research System NUC
Original Assignee
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai National Higher Education and Research System NUC filed Critical Tokai National Higher Education and Research System NUC
Priority to JP2021040937A priority Critical patent/JP2022140891A/en
Publication of JP2022140891A publication Critical patent/JP2022140891A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To estimate a position and attitude of a terminal device with high accuracy.SOLUTION: A terminal device that is held by a user and moves with the user includes an imaging unit, a marker information acquisition unit, an image association information acquisition unit, a relative relation determination unit, and a terminal position and attitude estimation unit. The marker information acquisition unit obtains marker position and attitude information indicating a position and attitude of a marker portion of a moving body on a three-dimensional point group map. The image association information acquisition unit obtains image association information for associating an image in which the marker portion is captured with the relative position and relative attitude with respect to the marker portion. The relative relation determination unit determines relative relation information indicating the relative position and relative attitude of the terminal device with respect to the marker portion, on the basis of, both the image of the marker portion which is captured by the imaging unit and the image association information. The terminal position and attitude estimation unit estimates the position and attitude of the terminal device on the three-dimensional point group map, on the basis of, the marker position and attitude information and the relative relation information.SELECTED DRAWING: Figure 6

Description

本明細書に開示される技術は、端末装置、情報処理システム、情報処理方法、および、コンピュータプログラムに関する。 The technology disclosed in this specification relates to a terminal device, an information processing system, an information processing method, and a computer program.

近年、人間が知覚する現実環境をコンピュータにより拡張する拡張現実(Augmented Reality、AR)の技術が普及しつつある。例えば、ユーザに保持されてユーザと共に移動する端末装置(スマートフォン等)において、撮像部により生成された現実環境の画像に仮想画像(コンピュータグラフィックス)を重畳させて表示部に表示するAR型情報提示が、例えば歩行ナビゲーション、観光案内、保守点検のガイド、位置ゲーム等の形態で利用されている。 In recent years, augmented reality (AR) technology, in which a computer augments a real environment perceived by humans, is becoming widespread. For example, in a terminal device (smartphone, etc.) that is held by a user and moves with the user, an AR-type information presentation in which a virtual image (computer graphics) is superimposed on the image of the real environment generated by the imaging unit and displayed on the display unit. are used, for example, in the form of walking navigation, tourist information, maintenance and inspection guides, location games, and the like.

AR型情報提示では、端末装置の位置および姿勢に基づき、端末装置の撮像部が何処をどの距離および角度から見ているかの情報が特定され、該情報に基づき、表示部に表示する仮想画像の種類、大きさ、位置等が決定される。そのため、AR型情報提示において、現実環境にマッチした仮想画像の表示を行うためには、端末装置(より詳細には端末装置の撮像部、以下同様)の位置および姿勢を高精度に推定することが求められる。 In the AR-type information presentation, based on the position and orientation of the terminal device, information about where and from what distance and angle the imaging unit of the terminal device is viewed is specified, and based on the information, a virtual image to be displayed on the display unit is displayed. The type, size, position, etc. are determined. Therefore, in order to display a virtual image that matches the real environment in AR-type information presentation, it is necessary to estimate the position and orientation of the terminal device (more specifically, the imaging unit of the terminal device; the same shall apply hereinafter) with high accuracy. is required.

従来、GPS、GLONASS、Galileo、QZSS等のGNSS(Global Navigation Satelite System、全球測位衛星システム)からの信号を端末装置によって受信することにより、端末装置の位置および姿勢を推定する方法が知られている。また、現実環境における位置および姿勢が既知のマーカを設置し、端末装置の撮像部によりマーカを撮像することによってマーカに対する端末装置の相対的な位置および姿勢の情報を特定し、該情報に基づき、現実環境における端末装置の位置および姿勢を推定する方法が知られている(例えば、特許文献1参照)。 Conventionally, there is known a method of estimating the position and attitude of a terminal device by receiving signals from a GNSS (Global Navigation Satellite System) such as GPS, GLONASS, Galileo, and QZSS. . Further, by setting a marker whose position and orientation in the real environment are known and capturing an image of the marker with an imaging unit of the terminal device, information on the relative position and orientation of the terminal device with respect to the marker is specified, and based on the information, A method of estimating the position and orientation of a terminal device in a real environment is known (see Patent Document 1, for example).

特開2021-4894号公報Japanese Patent Application Laid-Open No. 2021-4894

GNSSを利用して端末装置の位置および姿勢を推定する方法では、推定誤差が比較的大きい上に(例えば、誤差数m程度)、屋内では信号を良好に受信することができないために屋内での利用が困難であるという課題がある。また、マーカを利用して端末装置の位置および姿勢を推定する方法では、位置および姿勢が既知であるマーカを事前に大量に設置する必要がある、という課題がある。 In the method of estimating the position and attitude of the terminal device using GNSS, the estimation error is relatively large (for example, the error is about several meters), and the signal cannot be received well indoors. There is a problem that it is difficult to use. Moreover, the method of estimating the position and orientation of a terminal device using markers has the problem that it is necessary to install a large number of markers whose positions and orientations are known in advance.

なお、端末装置に、自律走行移動体による自己位置姿勢推定に用いられるセンサ(例えば、LiDAR)および3次元点群地図データベースを搭載し、それらを用いて端末装置の位置および姿勢を推定することも可能である。しかしながら、ユーザに保持されてユーザと共に移動する端末装置にそのようなセンサやデータベースを搭載すると、端末装置が大型化・重量化したり、端末装置の記憶容量が不足したりする、という課題がある。 In addition, the terminal device may be equipped with a sensor (e.g., LiDAR) and a 3D point cloud map database used for self-position and orientation estimation by an autonomous mobile body, and use them to estimate the position and orientation of the terminal device. It is possible. However, when such a sensor or database is installed in a terminal device that is held by a user and moves with the user, there is a problem that the terminal device becomes large and heavy, and the storage capacity of the terminal device becomes insufficient.

このように、従来は、端末装置の大型化・重量化や記憶容量の不足を抑制しつつ、また、マーカを事前に大量に設置することを要することなく、屋内外において高い精度で端末装置の位置および姿勢を推定することが困難である、という課題がある。 In this way, conventionally, while suppressing the increase in size and weight of the terminal device and the lack of storage capacity, and without the need to install a large number of markers in advance, the terminal device can be operated with high accuracy indoors and outdoors. There is a problem that it is difficult to estimate the position and orientation.

なお、このような課題は、AR型情報提示のための端末装置の位置および姿勢の推定に限らず、他の用途のための端末装置の位置および姿勢の推定にも共通の課題である。 Such a problem is not limited to estimating the position and orientation of a terminal device for AR-type information presentation, but is common to estimating the position and orientation of a terminal device for other uses.

本明細書では、上述した課題を解決することが可能な技術を開示する。 This specification discloses a technology capable of solving the above-described problems.

本明細書に開示される技術は、例えば、以下の形態として実現することが可能である。 The technology disclosed in this specification can be implemented, for example, in the following forms.

(1)本明細書に開示される端末装置は、ユーザに保持されて前記ユーザと共に移動する装置である。端末装置は、撮像部と、マーカ情報取得部と、画像対応情報取得部と、相対関係特定部と、端末位置姿勢推定部とを備える。マーカ情報取得部は、3次元絶対位置を示す情報が付与された点群から構成された3次元点群地図上における自己の位置および姿勢を特定しつつ移動する移動体であって、マーカとして機能するマーカ部を有する前記移動体について、前記3次元点群地図上における前記マーカ部の位置および姿勢を示すマーカ位置姿勢情報を取得する。画像対応情報取得部は、前記マーカ部が撮像された画像と、前記マーカ部に対する相対位置および相対姿勢と、を対応付ける画像対応情報を取得する。相対関係特定部は、前記撮像部により撮像された前記マーカ部の画像と前記画像対応情報とに基づき、前記マーカ部に対する前記端末装置の相対位置および相対姿勢を示す相対関係情報を特定する。端末位置姿勢推定部は、前記マーカ位置姿勢情報と前記相対関係情報とに基づき、前記3次元点群地図上における前記端末装置の位置および姿勢を推定する。 (1) A terminal device disclosed in this specification is a device that is held by a user and moves with the user. The terminal device includes an imaging unit, a marker information acquisition unit, an image correspondence information acquisition unit, a relative relationship identification unit, and a terminal position/orientation estimation unit. The marker information acquisition unit is a moving object that moves while specifying its own position and orientation on a 3D point cloud map composed of a point cloud to which information indicating a 3D absolute position is assigned, and functions as a marker. Marker position and orientation information indicating the position and orientation of the marker section on the three-dimensional point cloud map is acquired for the moving object having the marker section. The image correspondence information acquisition unit acquires image correspondence information that associates an image obtained by capturing the marker portion with a relative position and a relative orientation with respect to the marker portion. A relative relationship specifying unit specifies relative relationship information indicating a relative position and a relative attitude of the terminal device with respect to the marker unit, based on the image of the marker unit captured by the imaging unit and the image correspondence information. A terminal position/orientation estimation unit estimates the position and orientation of the terminal device on the three-dimensional point cloud map based on the marker position/orientation information and the relative relationship information.

このように、本端末装置では、3次元点群地図上における移動体のマーカ部の位置および姿勢を示すマーカ位置姿勢情報と、マーカ部に対する端末装置の相対位置および相対姿勢を示す相対関係情報とに基づき、3次元点群地図上における端末装置の位置および姿勢を推定することができる。そのため、本端末装置によれば、移動体のマーカ部が撮像部によって撮像可能な位置であれば屋内外を問わずシームレスに、また、位置および姿勢が既知であるマーカを事前に大量に設置する必要もなく、さらに、端末装置に撮像部以外のセンサ(例えば、LiDAR)や3次元点群地図データベースを搭載することなく、高い精度で端末装置の位置および姿勢を推定することができる。 As described above, the present terminal device has marker position and orientation information indicating the position and orientation of the marker section of the moving object on the three-dimensional point cloud map, and relative relationship information indicating the relative position and relative orientation of the terminal device with respect to the marker section. , the position and orientation of the terminal device on the 3D point cloud map can be estimated. Therefore, according to the present terminal device, a large number of markers whose positions and orientations are known are installed in advance seamlessly regardless of indoors or outdoors as long as the marker unit of the moving body can be imaged by the imaging unit. Furthermore, the position and orientation of the terminal device can be estimated with high accuracy without installing a sensor (for example, LiDAR) or a 3D point cloud map database other than the imaging unit in the terminal device.

(2)上記端末装置において、さらに、前記端末装置の位置および姿勢が推定された時点からの前記端末装置の位置および姿勢の変化を追跡するトラッキング部と、前記変化に基づき、前記端末装置の位置および姿勢の推定結果を更新する推定結果更新部と、を備える構成としてもよい。本端末装置によれば、一旦、マーカ位置姿勢情報と相対関係情報とに基づき3次元点群地図上における端末装置の位置および姿勢(初期位置および初期姿勢)を推定した後は、移動体のマーカ部が撮像部によって撮像可能であるか否かにかかわらず、端末装置単独で、端末装置の位置および姿勢の推定結果を更新することができる。このとき、初期位置および初期姿勢の推定精度が高いため、その後の更新によっても、端末装置の位置および姿勢の推定精度は一定以上に保たれる。従って、本端末装置によれば、移動体とは独立して移動する端末装置について、継続的に、高い精度で端末装置の位置および姿勢を推定することができる。 (2) The terminal device further includes a tracking unit that tracks changes in the position and orientation of the terminal device from the point in time when the position and orientation of the terminal device are estimated; and an estimation result updating unit that updates the posture estimation result. According to this terminal device, after once estimating the position and orientation (initial position and initial orientation) of the terminal device on the three-dimensional point cloud map based on the marker position and orientation information and the relative relationship information, the mobile body marker The position and orientation estimation result of the terminal device can be updated by the terminal device alone, regardless of whether or not the unit can be imaged by the imaging unit. At this time, since the estimation accuracy of the initial position and initial orientation is high, the accuracy of estimating the position and orientation of the terminal device is maintained at a certain level or higher even with subsequent updates. Therefore, according to this terminal device, it is possible to continuously and highly accurately estimate the position and attitude of a terminal device that moves independently of a moving body.

(3)上記端末装置において、前記トラッキング部は、前記撮像部により撮像された画像を用いて、前記端末装置の位置および姿勢の変化を追跡する構成としてもよい。本端末装置によれば、撮像部以外のセンサを必要とすることなく、継続的に、高い精度で端末装置の位置および姿勢を推定することができる。 (3) In the above terminal device, the tracking unit may be configured to track changes in the position and posture of the terminal device using the image captured by the imaging unit. According to this terminal device, it is possible to continuously estimate the position and orientation of the terminal device with high accuracy without requiring a sensor other than the imaging unit.

(4)上記端末装置において、さらに、表示部と、前記端末装置の位置および姿勢の推定結果に応じて変化する仮想画像を、前記撮像部により撮像された現実画像に重畳して、前記表示部に表示させる拡張現実処理部と、を備える構成としてもよい。本端末装置によれば、高い精度で推定された端末装置の位置および姿勢に基づき、仮想画像を表示させることができ、高精度なAR型情報提示を実現することができる。 (4) In the above terminal device, the display unit further superimposes a virtual image that changes according to the estimation result of the position and orientation of the terminal device on the real image captured by the imaging unit, and the display unit It may be configured to include an augmented reality processing unit for displaying. According to this terminal device, a virtual image can be displayed based on the position and orientation of the terminal device estimated with high accuracy, and highly accurate AR information presentation can be realized.

(5)本明細書に開示される情報処理システムは、上記端末装置と、前記移動体と、を備える。前記端末装置は、さらに、前記端末装置の位置および姿勢の推定結果を、直接または他の装置を介して、前記移動体に送信する推定結果送信部を備え、前記移動体は、前記端末装置の位置および姿勢の推定結果を用いて、特定の処理を実行する特定処理実行部を備える構成としてもよい。本情報処理システムによれば、高い精度で推定された3次元点群地図上における端末装置の位置および姿勢を利用して、特定の処理を実行することができ、該特定の処理の精度を向上させることができる。 (5) An information processing system disclosed in this specification includes the terminal device and the moving body. The terminal device further includes an estimation result transmission unit that transmits the estimation result of the position and orientation of the terminal device to the moving body directly or via another device, and the moving body receives the terminal device A configuration including a specific processing execution unit that executes specific processing using the position and orientation estimation results may be provided. According to this information processing system, the position and orientation of the terminal device on the three-dimensional point cloud map estimated with high accuracy can be used to execute specific processing, thereby improving the accuracy of the specific processing. can be made

(6)上記情報処理システムにおいて、前記特定の処理は、前記端末装置に近接するハザードの存在を前記端末装置に通知するハザード通知処理を含む構成としてもよい。本情報処理システムによれば、高い精度で推定された3次元点群地図上における端末装置の位置および姿勢を利用して、移動体から端末装置へハザードの存在を通知することができ、高精度なハザード通知を実現することができる。 (6) In the above information processing system, the specific processing may include hazard notification processing for notifying the terminal device of the presence of a hazard in proximity to the terminal device. According to this information processing system, the position and orientation of the terminal device on the three-dimensional point cloud map estimated with high accuracy can be used to notify the terminal device of the presence of a hazard from the mobile object, thereby achieving high accuracy. hazard notification can be realized.

(7)上記情報処理システムにおいて、前記移動体は、センサによる周辺検知情報と前記3次元点群地図とを用いて自律移動する自律移動体である構成としてもよい。本情報処理システムによれば、人間の運転操作を要さずにマーカ部を移動させることによって、広い範囲において、移動するマーカ部を利用した高い精度での端末装置の位置および姿勢の推定を実現することができる。 (7) In the above information processing system, the mobile object may be an autonomous mobile object that autonomously moves using surrounding detection information from a sensor and the three-dimensional point cloud map. According to this information processing system, it is possible to estimate the position and orientation of the terminal device with high accuracy over a wide range by using the moving marker unit by moving the marker unit without human driving operation. can do.

(8)上記情報処理システムにおいて、さらに、サーバ装置を備え、前記移動体は、前記マーカ位置姿勢情報を前記サーバ装置に送信し、前記端末装置の前記マーカ情報取得部は、前記サーバ装置を介して、前記マーカ位置姿勢情報を取得する構成としてもよい。本情報処理システムによれば、移動体と直接的に通信ができない端末装置においても、移動体のマーカ部を利用した高い精度での端末装置の位置および姿勢の推定を実現することができる。 (8) The information processing system further includes a server device, wherein the moving body transmits the marker position/orientation information to the server device, and the marker information acquisition unit of the terminal device transmits the marker position and orientation information to the server device. The marker position/orientation information may be obtained by According to this information processing system, even in a terminal device that cannot directly communicate with a mobile object, it is possible to estimate the position and orientation of the terminal device with high accuracy using the marker portion of the mobile object.

なお、本明細書に開示される技術は、種々の形態で実現することが可能であり、例えば、端末装置、情報処理システム、情報処理方法、それらの方法を実現するコンピュータプログラム、そのコンピュータプログラムを記録した一時的でない記録媒体等の形態で実現することができる。 The technology disclosed in this specification can be implemented in various forms. For example, terminal devices, information processing systems, information processing methods, computer programs for realizing these methods, It can be realized in the form of a recorded non-transitory recording medium or the like.

第1実施形態における情報処理システム10の構成を概略的に示す説明図1 is an explanatory diagram schematically showing the configuration of an information processing system 10 according to a first embodiment; FIG. 第1実施形態における端末装置100の構成を概略的に示すブロック図1 is a block diagram schematically showing the configuration of a terminal device 100 according to the first embodiment; FIG. 第1実施形態における自律移動体200の構成を概略的に示すブロック図Block diagram schematically showing the configuration of the autonomous mobile body 200 in the first embodiment 第1実施形態におけるサーバ装置300の構成を概略的に示すブロック図1 is a block diagram schematically showing the configuration of a server device 300 according to the first embodiment; FIG. 第1実施形態の情報処理システム10において実行されるAR型情報提示処理の流れを示す説明図Explanatory diagram showing the flow of AR-type information presentation processing executed in the information processing system 10 of the first embodiment. 第1実施形態の情報処理システム10において実行されるAR型情報提示処理を概念的に示す説明図FIG. 2 is an explanatory diagram conceptually showing AR-type information presentation processing executed in the information processing system 10 of the first embodiment; 第1実施形態の情報処理システム10において実行されるAR型情報提示処理を概念的に示す説明図FIG. 2 is an explanatory diagram conceptually showing AR-type information presentation processing executed in the information processing system 10 of the first embodiment; ユーザ座標系から世界座標系への変換方法を示す説明図Explanatory diagram showing how to convert from the user coordinate system to the world coordinate system 第2実施形態における情報処理システム10aの構成を概略的に示す説明図Explanatory diagram schematically showing the configuration of an information processing system 10a according to the second embodiment. 第2実施形態における端末装置100aの構成を概略的に示すブロック図A block diagram schematically showing the configuration of a terminal device 100a according to the second embodiment. 第2実施形態における自律移動体200aの構成を概略的に示すブロック図Block diagram schematically showing the configuration of an autonomous mobile body 200a in the second embodiment 第2実施形態におけるサーバ装置300aの構成を概略的に示すブロック図A block diagram schematically showing the configuration of a server device 300a according to the second embodiment. 第2実施形態の情報処理システム10aにおいて実行されるハザード通知処理の流れを示す説明図Explanatory diagram showing the flow of hazard notification processing executed in the information processing system 10a of the second embodiment. 第2実施形態の情報処理システム10aにおいて実行されるハザード通知処理を概念的に示す説明図Explanatory diagram conceptually showing the hazard notification process executed in the information processing system 10a of the second embodiment.

A.第1実施形態:
A-1.情報処理システム10の構成:
図1は、第1実施形態における情報処理システム10の構成を概略的に示す説明図である。本実施形態の情報処理システム10は、3次元点群地図上における端末装置100(より詳細には後述する撮像部154、以下同様)の位置および姿勢(向き)を高精度に推定し、推定された端末装置100の位置および姿勢に基づき、端末装置100においてAR型情報提示を実行するためのシステムである。本実施形態では、ショッピングモールの屋内および屋外において案内表示を行うAR型情報提示を例に挙げて説明する。
A. First embodiment:
A-1. Configuration of information processing system 10:
FIG. 1 is an explanatory diagram schematically showing the configuration of an information processing system 10 according to the first embodiment. The information processing system 10 of the present embodiment highly accurately estimates the position and orientation (orientation) of the terminal device 100 (more specifically, the imaging unit 154, which will be described later; the same applies hereinafter) on the three-dimensional point cloud map. This is a system for executing AR-type information presentation in a terminal device 100 based on the position and orientation of the terminal device 100. In the present embodiment, an example of AR type information presentation in which guidance is displayed indoors and outdoors in a shopping mall will be described.

情報処理システム10は、複数のユーザUのそれぞれが使用する端末装置100と、複数の自律移動体200と、サーバ装置300とを備える。情報処理システム10を構成する各装置は、通信ネットワークNETを介して互いに通信可能に接続されている。 The information processing system 10 includes a terminal device 100 used by each of a plurality of users U, a plurality of autonomous mobile bodies 200 and a server device 300 . Each device that configures the information processing system 10 is communicably connected to each other via a communication network NET.

端末装置100は、ユーザUに保持されてユーザUと共に移動する装置であり、例えば、スマートフォンやタブレット型端末といったハンドヘルドデバイスや、頭部装着型画像表示装置(Head Mounted Display、HMD)等である。以下では、端末装置100として、スマートフォンを用いた例について説明する。 The terminal device 100 is a device that is held by the user U and moves with the user U, and is, for example, a handheld device such as a smart phone or a tablet terminal, or a head mounted display (HMD). An example using a smart phone as the terminal device 100 will be described below.

図2は、第1実施形態における端末装置100の構成を概略的に示すブロック図である。端末装置100は、制御部110と、記憶部120と、表示部151と、操作入力部152と、音声出力部153と、撮像部154と、通信部155とを備える。これらの各部は、バス190を介して互いに通信可能に接続されている。 FIG. 2 is a block diagram schematically showing the configuration of the terminal device 100 according to the first embodiment. The terminal device 100 includes a control unit 110 , a storage unit 120 , a display unit 151 , an operation input unit 152 , an audio output unit 153 , an imaging unit 154 and a communication unit 155 . These units are communicably connected to each other via a bus 190 .

端末装置100の表示部151は、例えば液晶ディスプレイや有機ELディスプレイ等により構成され、各種の画像や情報を表示する。操作入力部152は、例えばボタンやマイク等により構成され、ユーザUの操作や指示を受け付ける。なお、表示部151がタッチパネルを備えることにより、操作入力部152として機能するとしてもよい。音声出力部153は、例えばスピーカにより構成され、音声を出力(再生)する。撮像部154は、例えばカメラにより構成され、被写体を撮像して該被写体を表す静止画像や動画像を生成する。本実施形態では、撮像部154は、端末装置100における表示部151の表示面とは反対側の面(背面)にレンズが配置されたカメラ(背面カメラ)である。通信部155は、通信ネットワークNETを介して、所定の通信方式で他の装置との通信を行う通信インターフェースである。 The display unit 151 of the terminal device 100 is configured by, for example, a liquid crystal display or an organic EL display, and displays various images and information. The operation input unit 152 is composed of, for example, buttons, a microphone, and the like, and receives user U's operations and instructions. Note that the display unit 151 may function as the operation input unit 152 by including a touch panel. The audio output unit 153 is configured by, for example, a speaker, and outputs (plays back) audio. The imaging unit 154 is configured by, for example, a camera, and images a subject to generate a still image or a moving image representing the subject. In this embodiment, the imaging unit 154 is a camera (rear camera) having a lens on the surface (rear surface) opposite to the display surface of the display unit 151 in the terminal device 100 . The communication unit 155 is a communication interface that communicates with other devices using a predetermined communication method via the communication network NET.

端末装置100の記憶部120は、例えばROMやRAM等により構成され、各種のプログラムやデータを記憶したり、各種のプログラムを実行する際の作業領域やデータの一時的な記憶領域として利用されたりする。例えば、記憶部120には、後述するAR型情報提示処理を行うための拡張現実処理プログラムCP11が格納されている。拡張現実処理プログラムCP11は、例えば、CD-ROMやDVD-ROM、USBメモリ等のコンピュータ読み取り可能な記録媒体(不図示)に格納された状態で提供され、あるいは外部装置から通信ネットワークNETを介してダウンロードされ、端末装置100にインストールすることにより記憶部120に格納される。 The storage unit 120 of the terminal device 100 is configured by, for example, ROM, RAM, etc., stores various programs and data, and is used as a work area when executing various programs and a temporary storage area for data. do. For example, the storage unit 120 stores an augmented reality processing program CP11 for performing AR-type information presentation processing, which will be described later. The augmented reality processing program CP11 is, for example, provided in a state stored in a computer-readable recording medium (not shown) such as a CD-ROM, DVD-ROM, or USB memory, or transmitted from an external device via the communication network NET. It is stored in the storage unit 120 by being downloaded and installed in the terminal device 100 .

また、記憶部120には、拡張現実処理プログラムCP11のインストールの際に、または、後述するAR型情報提示処理の際に、マーカ画像情報MIと、マーカ位置姿勢情報LIと、画像対応情報IIと、相対関係情報CIとが格納される。これらの情報の内容については、後述のAR型情報提示処理の説明に合わせて説明する。 Further, the storage unit 120 stores marker image information MI, marker position/orientation information LI, and image correspondence information II when installing the augmented reality processing program CP11 or when performing an AR-type information presentation process, which will be described later. , relative relationship information CI are stored. The contents of these pieces of information will be described in conjunction with the description of the AR-type information presentation process that will be described later.

端末装置100の制御部110は、例えばCPU等により構成され、記憶部120から読み出したコンピュータプログラムを実行することにより、端末装置100の動作を制御する。例えば、制御部110は、記憶部120から拡張現実処理プログラムCP11を読み出して実行することにより、AR型情報提示処理を行う拡張現実処理部111として機能する。拡張現実処理部111は、端末位置姿勢推定部112を含み、端末位置姿勢推定部112は、マーカ情報取得部113と、画像対応情報取得部114と、相対関係特定部115と、トラッキング部116と、推定結果更新部117とを含む。これら各部の機能については、後述のAR型情報提示処理の説明に合わせて説明する。 The control unit 110 of the terminal device 100 is configured by, for example, a CPU, etc., and controls the operation of the terminal device 100 by executing a computer program read from the storage unit 120 . For example, the control unit 110 reads the augmented reality processing program CP11 from the storage unit 120 and executes it, thereby functioning as the augmented reality processing unit 111 that performs AR information presentation processing. Augmented reality processing unit 111 includes terminal position/orientation estimation unit 112, and terminal position/orientation estimation unit 112 includes marker information acquisition unit 113, image correspondence information acquisition unit 114, relative relationship identification unit 115, and tracking unit 116. , and an estimation result updating unit 117 . The functions of these units will be described together with the description of the AR information presentation process described later.

自律移動体200は、人による運転操作を必要とせずに自律的に走行する移動体である。自律移動体200は、例えば、自律走行車両や自律移動ロボットである。本実施形態では、自律移動体200として、ショッピングモール内で荷物を搬送する自律移動ロボットを用いた例について説明する。自律移動体200は、特許請求の範囲における移動体の一例である。 The autonomous mobile body 200 is a mobile body that autonomously travels without the need for human operation. The autonomous mobile body 200 is, for example, an autonomous vehicle or an autonomous mobile robot. In this embodiment, as the autonomous mobile body 200, an example using an autonomous mobile robot that carries packages in a shopping mall will be described. The autonomous mobile body 200 is an example of a mobile body in the scope of claims.

図3は、第1実施形態における自律移動体200の構成を概略的に示すブロック図である。自律移動体200は、制御部210と、記憶部220と、センサ230と、駆動部250と、通信部255と、マーカ部260とを備える。 FIG. 3 is a block diagram schematically showing the configuration of the autonomous mobile body 200 in the first embodiment. The autonomous mobile body 200 includes a control section 210 , a storage section 220 , a sensor 230 , a drive section 250 , a communication section 255 and a marker section 260 .

自律移動体200のセンサ230は、例えば、LiDAR、RADAR、可視光カメラ、遠赤外線カメラ、超音波センサ等により構成され、自律移動体200の周辺環境(他の車両、歩行者、自転車、路面障害物、街路樹、道路の段差等)の状態(位置、姿勢、形状、移動速度等)や自律移動体200自身の状態を認識する。駆動部250は、例えば、モータ、エンジン、ステアリング、ブレーキ等により構成され、自律移動体200の走行動作(加速、操舵、制動等)を行う。通信部255は、通信ネットワークNETを介して、所定の通信方式で他の装置との通信を行う通信インターフェースである。また、マーカ部260は、マーカとして機能する部分である。本実施形態では、マーカ部260は、自律移動体200の側面に付された所定の平面画像である。 The sensor 230 of the autonomous mobile body 200 is composed of, for example, LiDAR, RADAR, a visible light camera, a far infrared camera, an ultrasonic sensor, etc., and detects the surrounding environment of the autonomous mobile body 200 (other vehicles, pedestrians, bicycles, road obstacles objects, roadside trees, road steps, etc.) and the state of the autonomous mobile body 200 itself (position, posture, shape, movement speed, etc.). The driving unit 250 is configured by, for example, a motor, an engine, a steering wheel, a brake, etc., and performs running operations (acceleration, steering, braking, etc.) of the autonomous mobile body 200 . The communication unit 255 is a communication interface that communicates with other devices using a predetermined communication method via the communication network NET. Also, the marker part 260 is a part that functions as a marker. In this embodiment, the marker part 260 is a predetermined planar image attached to the side surface of the autonomous mobile body 200 .

自律移動体200の記憶部220は、例えばROMやRAM、ハードディスクドライブ(HDD)等により構成され、各種のプログラムやデータを記憶したり、各種のプログラムを実行する際の作業領域やデータの一時的な記憶領域として利用されたりする。例えば、記憶部220には、自律移動制御プログラムCP21と、位置姿勢情報提供プログラムCP22と、3次元点群地図データベースMDとが格納されている。3次元点群地図データベースMDには、道路や通路、街路樹、ガードレール、建物等についての3次元絶対位置(緯度、経度、高度)を示す情報が付与された点群から構成された高精度な3次元点群地図が含まれている。3次元点群地図データベースMDに含まれた3次元点群地図は、自律移動体200の移動可能範囲の全体をカバーしている。なお以下では、3次元点群地図の座標系を「世界座標系」ともいい、3次元点群地図上における位置および姿勢を「絶対位置」および「絶対姿勢」ともいう。 The storage unit 220 of the autonomous mobile body 200 is configured by, for example, a ROM, a RAM, a hard disk drive (HDD), etc., and stores various programs and data, and temporarily stores work areas and data when executing various programs. used as a storage area. For example, the storage unit 220 stores an autonomous movement control program CP21, a position and orientation information providing program CP22, and a 3D point cloud map database MD. The 3D point cloud map database MD contains high-precision point clouds that are assigned information indicating the 3D absolute positions (latitude, longitude, altitude) of roads, passages, roadside trees, guardrails, buildings, etc. A 3D point cloud map is included. The 3D point cloud map contained in the 3D point cloud map database MD covers the entire movable range of the autonomous mobile body 200 . In the following description, the coordinate system of the 3D point cloud map is also referred to as "world coordinate system", and the position and orientation on the 3D point cloud map are also referred to as "absolute position" and "absolute orientation".

自律移動体200の制御部210は、例えばCPU等により構成され、記憶部220から読み出したコンピュータプログラムを実行することにより、自律移動体200の動作を制御する。例えば、制御部210は、記憶部220から自律移動制御プログラムCP21を読み出して実行することにより、自律移動体200の自律的な走行を制御する自律移動制御部212として機能する。自律移動制御部212は、管理者から発せられた指令に基づき、移動経路を設定する。また、自律移動制御部212は、センサ230から出力される各種信号と3次元点群地図データベースMDに含まれる3次元点群地図とのマッチングを行うことによって、3次元点群地図上における自律移動体200(より詳細には、自律移動体200のセンサ230、以下同様)の位置(絶対位置)および姿勢(絶対姿勢)を推定する。さらに、自律移動制御部212は、センサ230から出力される各種信号に基づき、周辺環境の状態を検知・認識する。自律移動制御部212は、これらの情報に基づき駆動部250による走行動作を制御することにより、周辺物体との衝突を回避しつつ、設定された移動経路に沿って自律移動体200を走行させる。 The control unit 210 of the autonomous mobile body 200 is configured by, for example, a CPU, etc., and controls the operation of the autonomous mobile body 200 by executing a computer program read from the storage unit 220 . For example, the control unit 210 functions as an autonomous movement control unit 212 that controls autonomous movement of the autonomous mobile body 200 by reading the autonomous movement control program CP21 from the storage unit 220 and executing it. The autonomous movement control unit 212 sets a movement route based on a command issued by the administrator. Further, the autonomous movement control unit 212 performs matching between various signals output from the sensor 230 and the 3D point cloud map included in the 3D point cloud map database MD, thereby enabling autonomous movement on the 3D point cloud map. The position (absolute position) and orientation (absolute orientation) of the body 200 (more specifically, the sensor 230 of the autonomous mobile body 200, hereinafter the same) are estimated. Furthermore, the autonomous movement control unit 212 detects and recognizes the state of the surrounding environment based on various signals output from the sensor 230 . The autonomous movement control unit 212 controls the traveling operation of the drive unit 250 based on these pieces of information, thereby causing the autonomous mobile body 200 to travel along the set movement route while avoiding collisions with surrounding objects.

また、自律移動体200の制御部210は、記憶部220から位置姿勢情報提供プログラムCP22を読み出して実行することにより、位置姿勢情報提供部214として機能する。位置姿勢情報提供部214の機能については、後述のAR型情報提示処理の説明に合わせて説明する。 Also, the control unit 210 of the autonomous mobile body 200 functions as a position/attitude information providing unit 214 by reading out the position/attitude information providing program CP22 from the storage unit 220 and executing it. The function of the position/orientation information providing unit 214 will be described together with the description of the AR-type information presentation process described later.

サーバ装置300は、端末装置100および自律移動体200から情報を取得すると共に、端末装置100および自律移動体200に情報を提供するための装置である。図4は、第1実施形態におけるサーバ装置300の構成を概略的に示すブロック図である。サーバ装置300は、制御部310と、記憶部320と、表示部351と、操作入力部352と、通信部355とを備える。これらの各部は、バス390を介して互いに通信可能に接続されている。 The server device 300 is a device for acquiring information from the terminal device 100 and the autonomous mobile body 200 and for providing information to the terminal device 100 and the autonomous mobile body 200 . FIG. 4 is a block diagram schematically showing the configuration of the server device 300 according to the first embodiment. The server device 300 includes a control unit 310 , a storage unit 320 , a display unit 351 , an operation input unit 352 and a communication unit 355 . These units are communicatively connected to each other via a bus 390 .

サーバ装置300の表示部351は、例えば液晶ディスプレイや有機ELディスプレイ等により構成され、各種の画像や情報を表示する。操作入力部352は、例えばキーボードやマウス、ボタン、マイク等により構成され、管理者の操作や指示を受け付ける。通信部355は、通信ネットワークNETを介して、所定の通信方式で他の装置との通信を行う通信インターフェースである。 A display unit 351 of the server device 300 is configured by, for example, a liquid crystal display or an organic EL display, and displays various images and information. The operation input unit 352 is composed of, for example, a keyboard, mouse, buttons, microphone, etc., and receives operations and instructions from the administrator. The communication unit 355 is a communication interface that communicates with other devices using a predetermined communication method via the communication network NET.

サーバ装置300の記憶部320は、例えばROMやRAM、ハードディスクドライブ(HDD)等により構成され、各種のプログラムやデータを記憶したり、各種のプログラムを実行する際の作業領域やデータの一時的な記憶領域として利用されたりする。例えば、記憶部320には、後述するAR型情報提示処理を行うための拡張現実サーバプログラムCP31が格納されている。拡張現実サーバプログラムCP31は、例えば、CD-ROMやDVD-ROM、USBメモリ等のコンピュータ読み取り可能な記録媒体(不図示)に格納された状態で提供され、あるいは外部装置から通信ネットワークNETを介してダウンロードされ、サーバ装置300にインストールすることにより記憶部320に格納される。 The storage unit 320 of the server device 300 is composed of, for example, a ROM, a RAM, a hard disk drive (HDD), etc., and stores various programs and data, and temporarily stores work areas and data when executing various programs. It is also used as a storage area. For example, the storage unit 320 stores an augmented reality server program CP31 for performing AR-type information presentation processing, which will be described later. The augmented reality server program CP31 is provided, for example, in a state stored in a computer-readable recording medium (not shown) such as a CD-ROM, DVD-ROM, or USB memory, or received from an external device via the communication network NET. It is stored in the storage unit 320 by being downloaded and installed in the server device 300 .

また、サーバ装置300の記憶部320には、拡張現実サーバプログラムCP31のインストールの際に、または、後述するAR型情報提示処理の際に、仮想画像データベースIDと、マーカ位置姿勢情報LIとが格納される。仮想画像データベースIDでは、後述するAR型情報提示処理において端末装置100に提供する複数の仮想画像が、端末装置100の位置および姿勢に対応付けて設定されている。本実施形態では、仮想画像は、ショッピングモール内の案内表示を行うための画像である(後述する図6および図7参照)。また、マーカ位置姿勢情報LIの内容については、後述するAR型情報提示処理の説明に合わせて説明する。 In addition, the storage unit 320 of the server device 300 stores the virtual image database ID and the marker position/orientation information LI when the augmented reality server program CP31 is installed or when the AR type information presentation process described later is performed. be done. In the virtual image database ID, a plurality of virtual images to be provided to the terminal device 100 in AR-type information presentation processing, which will be described later, are set in association with the position and orientation of the terminal device 100 . In this embodiment, the virtual image is an image for displaying guidance in the shopping mall (see FIGS. 6 and 7, which will be described later). Further, the contents of the marker position/orientation information LI will be described together with the description of the AR-type information presentation process that will be described later.

サーバ装置300の制御部310は、例えばCPU等により構成され、記憶部320から読み出したコンピュータプログラムを実行することにより、サーバ装置300の動作を制御する。例えば、制御部310は、記憶部320から拡張現実サーバプログラムCP31を読み出して実行することにより、AR型情報提示処理を行う拡張現実サーバ処理部312として機能する。拡張現実サーバ処理部312は、位置姿勢サーバ処理部314を含む。これら各部の機能については、後述のAR型情報提示処理の説明に合わせて説明する。 The control unit 310 of the server device 300 is configured by, for example, a CPU, etc., and controls the operation of the server device 300 by executing a computer program read from the storage unit 320 . For example, the control unit 310 reads the augmented reality server program CP31 from the storage unit 320 and executes it, thereby functioning as an augmented reality server processing unit 312 that performs AR information presentation processing. The augmented reality server processing unit 312 includes a position and orientation server processing unit 314 . The functions of these units will be described together with the description of the AR information presentation process described later.

A-2.AR型情報提示処理:
次に、第1実施形態の情報処理システム10において実行されるAR型情報提示処理について説明する。本実施形態のAR型情報提示処理は、端末装置100において、撮像部154により撮像された現実環境の画像に仮想画像を重畳して表示部151に表示させる処理である。本実施形態では、ショッピングモールの屋内および屋外において案内表示を行うAR型情報提示を例に挙げて説明する。
A-2. AR-type information presentation processing:
Next, AR type information presentation processing executed in the information processing system 10 of the first embodiment will be described. The AR-type information presentation process of the present embodiment is a process of superimposing a virtual image on the image of the real environment captured by the imaging unit 154 and displaying it on the display unit 151 in the terminal device 100 . In the present embodiment, an example of AR type information presentation in which guidance is displayed indoors and outdoors in a shopping mall will be described.

図5は、第1実施形態の情報処理システム10において実行されるAR型情報提示処理の流れを示す説明図である。また、図6および図7は、第1実施形態の情報処理システム10において実行されるAR型情報提示処理を概念的に示す説明図である。図6には、ショッピングモールの屋外においてAR型情報提示がなされている場面が示されており、図7には、ショッピングモールの屋内においてAR型情報提示がなされている場面が示されている。 FIG. 5 is an explanatory diagram showing the flow of AR-type information presentation processing executed in the information processing system 10 of the first embodiment. 6 and 7 are explanatory diagrams conceptually showing the AR-type information presentation processing executed in the information processing system 10 of the first embodiment. FIG. 6 shows a scene in which AR information is presented outdoors in a shopping mall, and FIG. 7 shows a scene in which AR information is presented indoors in a shopping mall.

図5に示すように、処理が開始されると、自律移動体200は、ショッピングモールの屋外および屋内における自律移動を開始する(S210)。すなわち、自律移動体200の自律移動制御部212(図3)が、3次元点群地図データベースMDに含まれる3次元点群地図上における自律移動体200の位置(絶対位置)および姿勢(絶対姿勢)を推定しつつ、自律移動体200を自律的に走行させる。なお、自律移動制御部212は、センサ230から出力される各種信号と3次元点群地図とのマッチングを行うことによって、3次元点群地図上における自律移動体200の位置および姿勢を推定しており、その推定精度は、例えば誤差数cm程度の非常に高い精度である。 As shown in FIG. 5, when the process is started, the autonomous mobile body 200 starts autonomous movement outdoors and indoors of the shopping mall (S210). That is, the autonomous movement control unit 212 (FIG. 3) of the autonomous mobile body 200 controls the position (absolute position) and attitude (absolute attitude) of the autonomous mobile body 200 on the three-dimensional point cloud map included in the three-dimensional point cloud map database MD. ), the autonomous mobile body 200 is made to run autonomously. The autonomous movement control unit 212 estimates the position and orientation of the autonomous moving body 200 on the 3D point cloud map by matching various signals output from the sensor 230 with the 3D point cloud map. , and the estimation accuracy is very high, for example, with an error of about several centimeters.

自律移動体200が自律移動を開始すると、自律移動体200の位置姿勢情報提供部214(図3)は、3次元点群地図上におけるマーカ部260の位置および姿勢を示すマーカ位置姿勢情報LIを、サーバ装置300に向けて送信する(S220)。自律移動体200においては、自律移動制御部212が把握する自律移動体200(のセンサ230)の位置および姿勢と、マーカ部260の位置および姿勢との対応関係を示す情報が、予め記憶部220に格納されている。位置姿勢情報提供部214は、該対応関係を参照して、自律移動制御部212により把握された自律移動体200の位置および姿勢を、マーカ部260の位置および姿勢に変換することによってマーカ位置姿勢情報LIを生成し、該マーカ位置姿勢情報LIをサーバ装置300に送信する。マーカ位置姿勢情報LIは、自律移動体200を識別するための移動体IDと、位置および姿勢の推定時刻を示すタイムスタンプと、位置および姿勢を特定する情報とを含んでいる(図4参照)。 When the autonomous mobile body 200 starts to move autonomously, the position and orientation information providing unit 214 (FIG. 3) of the autonomous mobile body 200 provides marker position and orientation information LI indicating the position and orientation of the marker unit 260 on the three-dimensional point cloud map. , to the server device 300 (S220). In the autonomous mobile body 200, information indicating the correspondence relationship between the position and orientation of (the sensor 230 of) the autonomous mobile body 200 grasped by the autonomous movement control unit 212 and the position and orientation of the marker unit 260 is stored in the storage unit 220 in advance. stored in The position and orientation information providing unit 214 refers to the correspondence relationship and converts the position and orientation of the autonomous mobile body 200 ascertained by the autonomous movement control unit 212 into the position and orientation of the marker unit 260 to obtain the marker position and orientation. Information LI is generated, and the marker position/orientation information LI is transmitted to the server device 300 . The marker position/orientation information LI includes a mobile ID for identifying the autonomous mobile body 200, a time stamp indicating the estimated time of the position and orientation, and information specifying the position and orientation (see FIG. 4). .

また、自律移動体200の位置姿勢情報提供部214は、自律移動体200の自律移動が終了されたか否かを判定し(S230)、自律移動体200の自律移動が終了されていないと判定された場合には(S230:NO)、再度、マーカ位置姿勢情報LIの送信処理(S220)を実行する。すなわち、位置姿勢情報提供部214は、自律移動体200による自律移動の実行中、周期的に(例えば、1Hz~100Hz程度で)、マーカ位置姿勢情報LIの送信処理(S220)を繰り返し実行する。本実施形態では、多数の自律移動体200が、ショッピングモールの屋内および屋外において、このような処理を実行している。自律移動体200の自律移動が終了されたと判定された場合には(S230:YES)、自律移動体200は動作を終了する。 In addition, the position and orientation information providing unit 214 of the autonomous mobile body 200 determines whether or not the autonomous movement of the autonomous mobile body 200 has ended (S230), and it is determined that the autonomous movement of the autonomous mobile body 200 has not ended. If so (S230: NO), the process of transmitting the marker position/orientation information LI (S220) is executed again. That is, the position/posture information providing unit 214 repeatedly performs the process of transmitting the marker position/posture information LI (S220) periodically (for example, at about 1 Hz to 100 Hz) while the autonomous mobile body 200 is moving autonomously. In this embodiment, many autonomous mobile bodies 200 are performing such processing indoors and outdoors in a shopping mall. When it is determined that the autonomous movement of the autonomous mobile body 200 has ended (S230: YES), the autonomous mobile body 200 ends its operation.

また、サーバ装置300の位置姿勢サーバ処理部314(図4)は、S220において自律移動体200から送信されたマーカ位置姿勢情報LIを受信し、受信したマーカ位置姿勢情報LIを記憶部320に格納する(S310)。位置姿勢サーバ処理部314は、複数の自律移動体200から時々刻々と送信されてくるマーカ位置姿勢情報LIを、記憶部320に蓄積する。 Also, the position/orientation server processing unit 314 ( FIG. 4 ) of the server device 300 receives the marker position/orientation information LI transmitted from the autonomous mobile body 200 in S 220 and stores the received marker position/orientation information LI in the storage unit 320 . (S310). The position/orientation server processing unit 314 accumulates in the storage unit 320 the marker position/orientation information LI that is constantly transmitted from the plurality of autonomous mobile bodies 200 .

また、端末装置100のユーザUは、ショッピングモールの屋内外において、AR型情報提示のためのアプリケーションプログラム(拡張現実処理プログラムCP11)の実行を指示すると共に、近くの自律移動体200を探し、撮像部154が自律移動体200のマーカ部260の方向を向くように、端末装置100を構える(図6および図7参照)。ユーザUによるこのような動作を契機として、端末装置100の端末位置姿勢推定部112(図2)は、撮像部154により生成された画像から、マーカ部260の画像を検出する(S110)。上述したように、制御部110の記憶部120には、マーカ画像情報MIが格納されている。マーカ画像情報MIは、マーカ部260として使用される画像を特定する情報である。端末位置姿勢推定部112は、マーカ画像情報MIを参照して、パターンマッチング等の公知の手法により、撮像画像からマーカ部260の画像の検出を行う。図6に示す例では、ショッピングモール屋外のエントランス付近を移動する自律移動体200のマーカ部260が、ユーザUが保持する端末装置100の撮像部154により撮像され、表示部151に表示されている。また、図7に示す例では、ショッピングモールの屋内を移動する自律移動体200のマーカ部260が、ユーザUが保持する端末装置100の撮像部154により撮像され、表示部151に表示されている。 In addition, the user U of the terminal device 100 instructs the execution of an application program (augmented reality processing program CP11) for presenting AR information indoors and outdoors in a shopping mall, searches for a nearby autonomous mobile body 200, and takes an image. The terminal device 100 is set so that the section 154 faces the direction of the marker section 260 of the autonomous mobile body 200 (see FIGS. 6 and 7). Triggered by such an operation by the user U, the terminal position/orientation estimation unit 112 (FIG. 2) of the terminal device 100 detects the image of the marker unit 260 from the image generated by the imaging unit 154 (S110). As described above, the storage section 120 of the control section 110 stores the marker image information MI. The marker image information MI is information specifying an image used as the marker section 260 . The terminal position/orientation estimation unit 112 refers to the marker image information MI and detects the image of the marker unit 260 from the captured image by a known method such as pattern matching. In the example shown in FIG. 6, the marker unit 260 of the autonomous mobile body 200 moving near the entrance of the outdoor shopping mall is imaged by the imaging unit 154 of the terminal device 100 held by the user U and displayed on the display unit 151. . Also, in the example shown in FIG. 7, the marker unit 260 of the autonomous mobile body 200 moving inside the shopping mall is imaged by the imaging unit 154 of the terminal device 100 held by the user U and displayed on the display unit 151. .

また、端末装置100の画像対応情報取得部114は、記憶部120から画像対応情報IIを取得し、端末装置100の相対関係特定部115は、撮像部154により撮像されたマーカ部260の画像と、画像対応情報IIとに基づき、マーカ部260に対する端末装置100(の撮像部154)の相対位置および相対姿勢を示す相対関係情報CIを特定する(S120)。 Further, the image correspondence information acquisition unit 114 of the terminal device 100 acquires the image correspondence information II from the storage unit 120, and the relative relationship identification unit 115 of the terminal device 100 acquires the image of the marker unit 260 captured by the imaging unit 154. , and the image correspondence information II, relative relationship information CI indicating the relative position and relative orientation of (the imaging unit 154 of) the terminal device 100 with respect to the marker unit 260 is specified (S120).

より詳細には、画像対応情報IIは、マーカ部260が撮像された画像と、マーカ部260に対する相対位置および相対姿勢と、を対応付ける情報である。マーカ部260に対する端末装置100の撮像部154の相対位置および相対姿勢に応じて、撮像部154により撮像された画像におけるマーカ部260の表れ方は変化する。例えば、撮像部154とマーカ部260との間の距離が比較的近ければ、撮像画像においてマーカ部260は比較的大きく表れ、反対に、撮像部154とマーカ部260との間の距離が比較的遠ければ、撮像画像においてマーカ部260は比較的小さく表れる。また、撮像部154がマーカ部260に正対した状態と、撮像部154がマーカ部260に対して斜め方向に位置する状態とでは、撮像画像におけるマーカ部260の表れ方は異なる。画像対応情報IIは、このようなマーカ部260に対する端末装置100の撮像部154の相対位置および相対姿勢と、撮像画像におけるマーカ部260の表れ方と、を対応付ける情報である。そのため、相対関係特定部115は、マーカ部260の画像と画像対応情報IIとに基づき、マーカ部260に対する端末装置100(の撮像部154)の相対位置および相対姿勢を特定することができる。なお、本実施形態では、マーカ部260に対する端末装置100の相対位置および相対姿勢は、端末装置100によって用いられる座標系(以下、「ユーザ座標系」という。)におけるマーカ部260の位置および姿勢として表現される。特性された相対関係情報CIは、記憶部120に格納される。 More specifically, the image correspondence information II is information that associates an image captured by the marker unit 260 with a relative position and a relative orientation with respect to the marker unit 260 . The appearance of the marker section 260 in the image captured by the imaging section 154 changes depending on the relative position and orientation of the imaging section 154 of the terminal device 100 with respect to the marker section 260 . For example, if the distance between the imaging unit 154 and the marker unit 260 is relatively short, the marker unit 260 appears relatively large in the captured image. If it is far away, the marker portion 260 appears relatively small in the captured image. The appearance of the marker section 260 in the captured image differs between the state in which the imaging section 154 faces the marker section 260 and the state in which the imaging section 154 is positioned obliquely to the marker section 260 . The image correspondence information II is information that associates the relative position and orientation of the imaging unit 154 of the terminal device 100 with respect to the marker unit 260 and how the marker unit 260 appears in the captured image. Therefore, the relative relationship identifying section 115 can identify the relative position and orientation of (the imaging section 154 of) the terminal device 100 with respect to the marker section 260 based on the image of the marker section 260 and the image correspondence information II. Note that in the present embodiment, the relative position and orientation of the terminal device 100 with respect to the marker unit 260 are defined as the position and orientation of the marker unit 260 in the coordinate system used by the terminal device 100 (hereinafter referred to as the “user coordinate system”). expressed. The characterized relative relationship information CI is stored in the storage unit 120 .

また、端末装置100のマーカ情報取得部113(図1)は、サーバ装置300に対してマーカ位置姿勢情報LIを要求し、サーバ装置300からマーカ位置姿勢情報LIを取得する(S130)。本実施形態では、自律移動体200のマーカ部260に、自律移動体200を識別する情報(移動体ID)が含まれている。そのため、マーカ情報取得部113は、S120において相対位置および相対姿勢が特定された自律移動体200の移動体IDを指定し、かつ、相対位置および相対姿勢の特定時刻を指定して、サーバ装置300に対してマーカ位置姿勢情報LIを要求する。サーバ装置300の位置姿勢サーバ処理部314(図4)は、端末装置100からの要求に含まれる移動体IDの指定および時刻の指定に対応するマーカ位置姿勢情報LIを選択し、端末装置100に向けて送信する(S320)。端末装置100により取得されたマーカ位置姿勢情報LIは、記憶部120に格納される。 Further, the marker information acquisition unit 113 (FIG. 1) of the terminal device 100 requests the server device 300 for the marker position and orientation information LI, and acquires the marker position and orientation information LI from the server device 300 (S130). In this embodiment, the information (mobile body ID) for identifying the autonomous mobile body 200 is included in the marker section 260 of the autonomous mobile body 200 . Therefore, the marker information acquisition unit 113 designates the moving body ID of the autonomous moving body 200 whose relative position and relative orientation have been identified in S120, and also designates the specific time of the relative position and relative orientation, and the server device 300 is requested for marker position and orientation information LI. The position/orientation server processing unit 314 (FIG. 4) of the server device 300 selects the marker position/orientation information LI corresponding to the specification of the mobile ID and the specification of the time included in the request from the terminal device 100, and sends the marker position/orientation information LI to the terminal device 100. (S320). The marker position/orientation information LI acquired by the terminal device 100 is stored in the storage unit 120 .

次に、端末装置100の端末位置姿勢推定部112(図2)は、S130において取得されたマーカ位置姿勢情報LIと、S120において取得された相対関係情報CIとに基づき、3次元点群地図上における端末装置100(の撮像部154)の位置(絶対位置)および姿勢(絶対姿勢)を推定する(S140)。上述したように、マーカ位置姿勢情報LIは、3次元点群地図上におけるマーカ部260の位置(絶対位置)および姿勢(絶対姿勢)を示す情報であり、相対関係情報CIは、マーカ部260に対する端末装置100の相対位置および相対姿勢を示す情報である。そのため、端末位置姿勢推定部112は、両情報を用いて座標変換(ユーザ座標系から世界座標系への変換)を行うことにより、3次元点群地図上における端末装置100の位置および姿勢を推定することができる。このとき用いられる座標変換については、後に詳述する。以下では、S140における推定が実行された時点を「トラッキング開始点」といい、S140において推定された端末装置100の位置および姿勢を「初期位置」および「初期姿勢」という。 Next, the terminal position/orientation estimation unit 112 (FIG. 2) of the terminal device 100 performs The position (absolute position) and orientation (absolute orientation) of (the imaging unit 154 of) the terminal device 100 are estimated (S140). As described above, the marker position/orientation information LI is information indicating the position (absolute position) and orientation (absolute orientation) of the marker section 260 on the three-dimensional point cloud map. It is information indicating the relative position and relative attitude of the terminal device 100 . Therefore, terminal position/orientation estimation section 112 performs coordinate conversion (conversion from the user coordinate system to the world coordinate system) using both pieces of information, thereby estimating the position and orientation of terminal device 100 on the three-dimensional point cloud map. can do. The coordinate transformation used at this time will be described in detail later. Hereinafter, the time point at which the estimation in S140 is performed will be referred to as a "tracking start point", and the position and orientation of the terminal device 100 estimated in S140 will be referred to as an "initial position" and an "initial orientation".

その後、端末装置100のトラッキング部116(図2)は、トラッキング開始点における初期位置および初期姿勢からの端末装置100の位置および姿勢の変化を追跡し、推定結果更新部117は、該変化に基づき、端末装置100の位置および姿勢の推定結果を更新する(S150)。トラッキング部116による端末装置100の位置および姿勢の変化の追跡(以下、「トラッキング」ともいう。)は、公知の手法により実現される。例えば、トラッキング部116は、移動体の自己位置推定と環境地図作成とを同時に行う技術であるSLAM(Simultaneous Localization and Mapping)の1つであるVisual-SLAMを利用して、端末装置100の位置および姿勢の変化を追跡する。すなわち、トラッキング部116は、撮像部154により撮像された画像に基づき、周辺環境の地図(ユーザ座標系の地図)を作成すると共に、撮像部154により撮像された画像における特徴量の推移に基づき、ユーザ座標系における端末装置100の移動量および姿勢変化量を推定し、該周辺環境地図上における撮像部154の位置および姿勢を追跡する。このように、トラッキング部116によるトラッキングは、自律移動体200のマーカ部260が撮像部154の撮像範囲に存在しなくても、継続的に実行することができる。また、推定結果更新部117は、該周辺環境地図上における撮像部154の位置および姿勢に対して座標変換(ユーザ座標系から世界座標系への変換)を行うことにより、3次元点群地図上における端末装置100の撮像部154の位置および姿勢の推定結果を更新する。 After that, tracking section 116 ( FIG. 2 ) of terminal device 100 tracks changes in the position and orientation of terminal device 100 from the initial position and initial orientation at the tracking start point, and estimation result updating section 117 updates based on the changes. , update the estimation result of the position and orientation of the terminal device 100 (S150). Tracking of changes in the position and orientation of the terminal device 100 by the tracking unit 116 (hereinafter also referred to as “tracking”) is realized by a known technique. For example, the tracking unit 116 uses Visual-SLAM, which is one of SLAM (Simultaneous Localization and Mapping) techniques for simultaneously estimating the position of a mobile object and creating an environment map, to determine the position of the terminal device 100 and Track posture changes. That is, the tracking unit 116 creates a map of the surrounding environment (map of the user coordinate system) based on the image captured by the imaging unit 154, and based on the transition of the feature amount in the image captured by the imaging unit 154, The movement amount and attitude change amount of the terminal device 100 in the user coordinate system are estimated, and the position and attitude of the imaging unit 154 are tracked on the surrounding environment map. Thus, tracking by the tracking unit 116 can be continuously performed even if the marker unit 260 of the autonomous mobile body 200 does not exist within the imaging range of the imaging unit 154 . In addition, the estimation result update unit 117 performs coordinate transformation (conversion from the user coordinate system to the world coordinate system) with respect to the position and orientation of the imaging unit 154 on the surrounding environment map, so that update the estimation result of the position and orientation of the imaging unit 154 of the terminal device 100 in .

ここで、ユーザ座標系から世界座標系への変換について説明する。図8は、ユーザ座標系から世界座標系への変換方法を示す説明図である。上述したように、世界座標系は、3次元点群地図の座標系であり、ユーザ座標系は、端末装置100によって用いられる座標系である。また、以下では、自律移動体200の位置を原点とする座標系を「移動体座標系」といい、端末装置100の撮像部154の位置を原点とする座標系を「撮像部座標系」という。 Transformation from the user coordinate system to the world coordinate system will now be described. FIG. 8 is an explanatory diagram showing a conversion method from the user coordinate system to the world coordinate system. As described above, the world coordinate system is the coordinate system of the 3D point cloud map, and the user coordinate system is the coordinate system used by the terminal device 100 . Further, hereinafter, the coordinate system whose origin is the position of the autonomous mobile body 200 is referred to as the "moving body coordinate system", and the coordinate system whose origin is the position of the imaging unit 154 of the terminal device 100 is referred to as the "imaging unit coordinate system". .

図8のA欄には、世界座標系(原点:O)における移動体座標系の原点O の位置および移動体座標系の向きが示されており、図8のB欄には、ユーザ座標系(原点:O)における撮像部座標系の原点O の位置および撮像部座標系の向きと、移動体座標系の原点O の位置および移動体座標系の向きとが示されており、図8のC欄には、世界座標系におけるユーザ座標系の原点O の位置およびユーザ座標系の向きと、撮像部座標系の原点O の位置および撮像部座標系の向きと、移動体座標系の原点O の位置および移動体座標系の向きとが示されている。ユーザ座標系の原点Oは、S140における推定が実行されたトラッキング開始点における撮像部154の位置である。そのため、トラッキング開始点においては、撮像部座標系はユーザ座標系に一致する。トラッキング開始点以降、端末装置100の撮像部154の位置および姿勢の変化(図8において細い破線で示す)に伴い、撮像部座標系の原点位置および撮像部座標系の向きは、ユーザ座標系の原点の位置およびユーザ座標系の向きから変化する。 Column A in FIG. 8 shows the position of the origin O V W of the mobile body coordinate system in the world coordinate system (origin: O w ) and the orientation of the mobile body coordinate system, and column B in FIG. The position of the origin OCU of the imaging unit coordinate system and the direction of the imaging unit coordinate system in the user coordinate system (origin: O U ) and the position of the origin OvU of the moving body coordinate system and the direction of the moving body coordinate system are 8, column C in FIG. 8 shows the position of the origin O U W of the user coordinate system in the world coordinate system and the direction of the user coordinate system, the position of the origin O C W of the imaging unit coordinate system and the imaging unit coordinates. The orientation of the system, the position of the origin O V W of the mover coordinate system and the orientation of the mover coordinate system are indicated. The origin OU of the user coordinate system is the position of the imaging unit 154 at the tracking start point estimated in S140. Therefore, at the tracking start point, the imaging unit coordinate system matches the user coordinate system. After the tracking start point, as the position and orientation of the imaging unit 154 of the terminal device 100 change (indicated by thin dashed lines in FIG. 8), the origin position of the imaging unit coordinate system and the orientation of the imaging unit coordinate system change from those of the user coordinate system. It varies from the position of the origin and the orientation of the user coordinate system.

下記の式(1)に示すように、ユーザ座標系の点の世界座標系への直線変換行列TOU は、世界座標系の原点Oから移動体座標系の原点O へのベクトルTOV から、世界座標系におけるユーザ座標系の原点O から移動体座標系の原点O へのベクトルT を引くことにより求めることができる。

Figure 2022140891000002
As shown in the following formula (1), the linear transformation matrix T OU w of a point in the user coordinate system to the world coordinate system is a vector from the origin O w of the world coordinate system to the origin O V W of the mobile body coordinate system It can be obtained by subtracting from T OV W a vector T O V from the origin O U W of the user coordinate system in the world coordinate system to the origin O V W of the mobile body coordinate system.
Figure 2022140891000002

また、下記の式(2)に示すように、ユーザ座標系の点の世界座標系への回転変換行列ROU は、世界座標系の原点Oから見た、移動体座標系の原点O の回転量とユーザ座標系から見た移動体座標系の回転量の逆クオータニオンとのクオータニオン積により求めることができる。

Figure 2022140891000003
Further, as shown in the following formula (2), the rotation transformation matrix R OU w of the point in the user coordinate system to the world coordinate system is the origin O It can be obtained from the quaternion product of the amount of rotation of VW and the inverse quaternion of the amount of rotation of the moving body coordinate system viewed from the user coordinate system.
Figure 2022140891000003

これらの変換行列を用いることにより、トラッキング開始点において、端末位置姿勢推定部112は、3次元点群地図上における端末装置100の位置および姿勢を推定することができ(S140)、また、トラッキング開始点の後において、推定結果更新部117は、3次元点群地図上における端末装置100の位置および姿勢の推定結果を更新することができる(S150)。これにより、端末装置100は、トラッキング開始点以降において、3次元点群地図上における端末装置100の位置および姿勢(すなわち、世界座標系における絶対位置および絶対姿勢)を継続的に把握することができる。 By using these transformation matrices, the terminal position/orientation estimation unit 112 can estimate the position and orientation of the terminal device 100 on the 3D point cloud map at the tracking start point (S140). After the point, the estimation result updating unit 117 can update the estimation result of the position and orientation of the terminal device 100 on the 3D point cloud map (S150). As a result, the terminal device 100 can continuously grasp the position and orientation of the terminal device 100 on the three-dimensional point cloud map (that is, the absolute position and absolute orientation in the world coordinate system) after the tracking start point. .

図5に示すように、トラッキング開始点以降、端末装置100の拡張現実処理部111(図2)は、サーバ装置300に対して、3次元点群地図上における端末装置100の位置および姿勢に応じた仮想画像VIを要求し、サーバ装置300から仮想画像VIを取得する(S160)。すなわち、拡張現実処理部111は、3次元点群地図上における端末装置100の位置および姿勢を指定して、サーバ装置300に対して仮想画像VIを要求する。上述したように、サーバ装置300においては、複数の仮想画像VIが端末装置100の位置および姿勢に対応付けて設定された仮想画像データベースID(図4)が構築されている。サーバ装置300の拡張現実サーバ処理部312は、仮想画像データベースIDから、端末装置100からの要求に含まれる端末装置100の位置および姿勢に対応する仮想画像VIを選択し、該仮想画像VIを端末装置100に向けて送信する(S330)。 As shown in FIG. 5, after the tracking start point, the augmented reality processing unit 111 (FIG. 2) of the terminal device 100 instructs the server device 300 to A request is made for the virtual image VI, and the virtual image VI is obtained from the server device 300 (S160). That is, the augmented reality processing unit 111 specifies the position and orientation of the terminal device 100 on the three-dimensional point cloud map, and requests the server device 300 for the virtual image VI. As described above, in the server device 300, a virtual image database ID (FIG. 4) is constructed in which a plurality of virtual images VI are set in association with the position and orientation of the terminal device 100. FIG. The augmented reality server processing unit 312 of the server device 300 selects a virtual image VI corresponding to the position and orientation of the terminal device 100 included in the request from the terminal device 100 from the virtual image database ID, and sends the virtual image VI to the terminal device 100. It transmits to the device 100 (S330).

端末装置100の拡張現実処理部111は、S160において取得された仮想画像VIを、撮像部154により撮像された現実画像RIに重畳して、表示部151に表示させる(S170)。例えば、図6に示す例では、ユーザUが保持する端末装置100の表示部151に、ショッピングモールのエントランス付近の外観を表す現実画像RIに重畳して、案内表示のための仮想画像VI(「Main Entrance(メインエントランス」、「Parking(駐車場)」、「Cafe(カフェ)」等)が表示されている。また、図7に示す例では、ユーザUが保持する端末装置100の表示部151に、ショッピングモールの建物内を表す現実画像RIに重畳して、案内表示のための仮想画像VI(「Downstair(下階へ)」、「Ivent Space(イベントスペース)」、「Food Court(フードコート)」等)が表示されている。ユーザUは、表示部151に表示された仮想画像VIを参照することにより、ショッピングモール内の各施設の位置を把握することができる。 The augmented reality processing unit 111 of the terminal device 100 superimposes the virtual image VI acquired in S160 on the real image RI captured by the imaging unit 154, and causes the display unit 151 to display the superimposed image (S170). For example, in the example shown in FIG. 6, a virtual image VI (“ Main Entrance (main entrance," "Parking," "Cafe," etc.) are displayed.In addition, in the example shown in Fig. 7, the display unit 151 of the terminal device 100 held by the user U is displayed. Then, a virtual image VI for guidance display ("Downstair", "Event Space", "Food Court") is superimposed on the real image RI representing the inside of the building of the shopping mall. )" etc.) are displayed. The user U can grasp the position of each facility in the shopping mall by referring to the virtual image VI displayed on the display unit 151 .

トラッキング開始点以降、端末装置100の拡張現実処理部111(図2)は、撮像部154により生成された画像からマーカ部260の画像が検出されたか否かを監視すると共に(S180)、AR型情報提示処理の終了指示があったか否かを監視する(S190)。マーカ部260の画像が検出されず(S180:NO)、かつ、終了指示もないと判定された場合には(S190:NO)、端末装置100は、上述したS150からS170の処理を繰り返し実行する。すなわち、ユーザUの移動や姿勢変化に伴い端末装置100の位置および姿勢は時々刻々と変化するため、端末装置100の位置および姿勢の推定結果が更新され(S150)、更新結果に応じて仮想画像VIの要求・取得処理(S160)が再度実行され、表示される仮想画像VIが更新される(S170)。これにより、ユーザUの移動や姿勢変化があっても、端末装置100の表示部151に、現実画像RIにマッチした適切な仮想画像VIが表示される。 After the tracking start point, the augmented reality processing unit 111 (FIG. 2) of the terminal device 100 monitors whether or not the image of the marker unit 260 is detected from the image generated by the imaging unit 154 (S180). It is monitored whether or not there is an instruction to end the information presentation process (S190). When it is determined that the image of the marker unit 260 is not detected (S180: NO) and that there is no end instruction (S190: NO), the terminal device 100 repeats the processing from S150 to S170 described above. . That is, the position and orientation of the terminal device 100 change from moment to moment as the user U moves and orientation changes. The VI request/acquisition process (S160) is executed again, and the displayed virtual image VI is updated (S170). As a result, even if the user U moves or changes posture, the appropriate virtual image VI that matches the real image RI is displayed on the display unit 151 of the terminal device 100 .

また、撮像部154による撮像画像においてマーカ部260の画像が検出されたと判定された場合には(S180:YES)、端末装置100は、上述したS120以降の処理を再度実行する。すなわち、マーカ部260の画像と画像対応情報IIとに基づき、マーカ部260に対する端末装置100の相対位置および相対姿勢が特定され(S120)、3次元点群地図上におけるマーカ部260の位置および姿勢を示すマーカ位置姿勢情報LIが取得され(S130)、3次元点群地図上における端末装置100の位置および姿勢が推定される(S140)。すなわち、端末装置100の初期位置および初期姿勢が更新される。トラッキング開始点の後の端末装置100によるトラッキングでは、端末装置100の位置および姿勢の推定誤差が蓄積されるおそれがあるが、端末装置100の初期位置および初期姿勢が更新されることによって該誤差が解消されるため、継続的な端末装置100の位置および姿勢の高精度な推定が実現される。なお、自律移動体200の自律移動が終了された後(S230:YES)であっても、自律移動の終了の直前にサーバ装置300に送信されたマーカ位置姿勢情報LIを利用することができるため、マーカ位置姿勢情報LIを用いた端末装置100の初期位置および初期姿勢の推定または更新は実行可能である。また、端末装置100がトラッキングに失敗したり、途中でトラッキングができなくなったりした場合に、サーバ装置300が、端末装置100の近くにいる自律移動体200の位置を提示したり、自律移動体200の経路を変更して端末装置100の近くに移動させたりしてもよい。その後、S150以降の処理(トラッキング等)が同様に実行される。 Further, when it is determined that the image of the marker unit 260 has been detected in the image captured by the imaging unit 154 (S180: YES), the terminal device 100 executes the above-described processing from S120 onwards again. That is, based on the image of the marker section 260 and the image correspondence information II, the relative position and orientation of the terminal device 100 with respect to the marker section 260 are specified (S120), and the position and orientation of the marker section 260 on the three-dimensional point cloud map are identified. is obtained (S130), and the position and orientation of the terminal device 100 on the three-dimensional point cloud map are estimated (S140). That is, the initial position and initial attitude of the terminal device 100 are updated. Tracking by the terminal device 100 after the tracking start point may accumulate estimation errors in the position and orientation of the terminal device 100, but updating the initial position and initial orientation of the terminal device 100 reduces the errors. Since it is eliminated, continuous highly accurate estimation of the position and orientation of the terminal device 100 is realized. Note that even after the autonomous movement of the autonomous mobile body 200 has ended (S230: YES), the marker position/orientation information LI transmitted to the server device 300 immediately before the end of the autonomous movement can be used. , the initial position and initial orientation of the terminal device 100 can be estimated or updated using the marker position and orientation information LI. In addition, when the terminal device 100 fails in tracking or becomes unable to track on the way, the server device 300 presents the position of the autonomous mobile body 200 near the terminal device 100, or the position of the autonomous mobile body 200 may be changed to move closer to the terminal device 100 . After that, the processing (tracking, etc.) after S150 is similarly executed.

端末装置100による上述のような処理の実行中、AR型情報提示処理の終了指示があったと判定された場合には(S190:YES)、端末装置100の拡張現実処理部111は、AR型情報提示処理を終了する。なお、同様に、サーバ装置300においても、AR型情報提示処理の終了指示があったと判定された場合には(S340:YES)、サーバ装置300の拡張現実サーバ処理部312は、AR型情報提示処理を終了する。 If it is determined that there is an instruction to end the AR information presentation process while the terminal device 100 is executing the above-described processing (S190: YES), the augmented reality processing unit 111 of the terminal device 100 displays the AR information. End the presentation process. Similarly, in the server device 300, when it is determined that there is an instruction to end the AR-type information presentation process (S340: YES), the augmented reality server processing unit 312 of the server device 300 performs the AR-type information presentation process. End the process.

A-3.第1実施形態の効果:
以上説明したように、第1実施形態の情報処理システム10を構成する端末装置100は、ユーザUに保持されてユーザUと共に移動する装置であり、撮像部154と、マーカ情報取得部113と、画像対応情報取得部114と、相対関係特定部115と、端末位置姿勢推定部112とを備える。マーカ情報取得部113は、3次元絶対位置を示す情報が付与された点群から構成された3次元点群地図上における自己の位置および姿勢を特定しつつ移動する自律移動体200であって、マーカとして機能するマーカ部260を有する自律移動体200について、3次元点群地図上におけるマーカ部260の位置および姿勢を示すマーカ位置姿勢情報LIを取得する。画像対応情報取得部114は、マーカ部260が撮像された画像と、マーカ部260に対する相対位置および相対姿勢と、を対応付ける画像対応情報IIを取得する。相対関係特定部115は、撮像部154により撮像されたマーカ部260の画像と画像対応情報IIとに基づき、マーカ部260に対する端末装置100の相対位置および相対姿勢を示す相対関係情報CIを特定する。端末位置姿勢推定部112は、マーカ位置姿勢情報LIと相対関係情報CIとに基づき、3次元点群地図上における端末装置100の位置および姿勢を推定する。
A-3. Effect of the first embodiment:
As described above, the terminal device 100 that constitutes the information processing system 10 of the first embodiment is a device that is held by the user U and moves with the user U, and includes the imaging unit 154, the marker information acquisition unit 113, It includes an image correspondence information acquisition unit 114 , a relative relationship identification unit 115 , and a terminal position/orientation estimation unit 112 . The marker information acquisition unit 113 is an autonomous mobile body 200 that moves while specifying its own position and orientation on a three-dimensional point cloud map configured from a point cloud to which information indicating a three-dimensional absolute position is assigned, For the autonomous mobile body 200 having the marker section 260 functioning as a marker, the marker position/orientation information LI indicating the position and orientation of the marker section 260 on the three-dimensional point cloud map is acquired. The image correspondence information acquisition unit 114 acquires image correspondence information II that associates the image obtained by capturing the marker unit 260 with the relative position and relative orientation with respect to the marker unit 260 . The relative relationship specifying unit 115 specifies relative relationship information CI indicating the relative position and orientation of the terminal device 100 with respect to the marker unit 260 based on the image of the marker unit 260 captured by the imaging unit 154 and the image correspondence information II. . The terminal position/orientation estimation unit 112 estimates the position and orientation of the terminal device 100 on the three-dimensional point cloud map based on the marker position/orientation information LI and the relative relationship information CI.

このように、本実施形態の端末装置100では、3次元点群地図上における自律移動体200のマーカ部260の位置および姿勢を示すマーカ位置姿勢情報LIと、マーカ部260に対する端末装置100の相対位置および相対姿勢を示す相対関係情報CIとに基づき、3次元点群地図上における端末装置100の位置および姿勢を推定することができる。そのため、本実施形態の端末装置100によれば、自律移動体200のマーカ部260が撮像部154によって撮像可能な位置であれば屋内外を問わずシームレスに、また、位置および姿勢が既知であるマーカを事前に大量に設置する必要もなく、さらに、端末装置100に撮像部154以外のセンサ(例えば、LiDAR)や3次元点群地図データベースを搭載することなく、高い精度で端末装置100の位置および姿勢を推定することができる。 Thus, in the terminal device 100 of the present embodiment, the marker position/orientation information LI indicating the position and orientation of the marker unit 260 of the autonomous mobile body 200 on the three-dimensional point cloud map, and the relative position of the terminal device 100 to the marker unit 260 Based on the relative relationship information CI indicating the position and relative orientation, the position and orientation of the terminal device 100 on the three-dimensional point cloud map can be estimated. Therefore, according to the terminal device 100 of the present embodiment, as long as the marker unit 260 of the autonomous mobile body 200 can be imaged by the imaging unit 154, it can be performed seamlessly regardless of whether it is indoors or outdoors, and the position and orientation are known. It is not necessary to install a large number of markers in advance, and the position of the terminal device 100 can be determined with high accuracy without installing a sensor (for example, LiDAR) other than the imaging unit 154 or a 3D point cloud map database in the terminal device 100. and pose can be estimated.

また、本実施形態の端末装置100は、さらに、トラッキング部116と、推定結果更新部117とを備える。トラッキング部116は、端末装置100の位置および姿勢が推定された時点(トラッキング開始点)からの端末装置100の位置および姿勢の変化を追跡する。推定結果更新部117は、該変化に基づき、端末装置100の位置および姿勢の推定結果を更新する。そのため、本実施形態の端末装置100によれば、一旦、マーカ位置姿勢情報LIと相対関係情報CIとに基づき3次元点群地図上における端末装置100の位置および姿勢(初期位置および初期姿勢)を推定した後は、自律移動体200のマーカ部260が撮像部154によって撮像可能であるか否かにかかわらず、端末装置100単独で、端末装置100の位置および姿勢の推定結果を更新することができる。このとき、初期位置および初期姿勢の推定精度が高いため、その後の更新によっても、端末装置100の位置および姿勢の推定精度は一定以上に保たれる。従って、本実施形態の端末装置100によれば、自律移動体200とは独立して移動する端末装置100について、継続的に、高い精度で端末装置100の位置および姿勢を推定することができる。 Moreover, the terminal device 100 of the present embodiment further includes a tracking section 116 and an estimation result updating section 117 . The tracking unit 116 tracks changes in the position and orientation of the terminal device 100 from when the position and orientation of the terminal device 100 are estimated (tracking start point). The estimation result update unit 117 updates the estimation result of the position and orientation of the terminal device 100 based on the change. Therefore, according to the terminal device 100 of the present embodiment, the position and orientation (initial position and initial orientation) of the terminal device 100 on the three-dimensional point cloud map are once determined based on the marker position and orientation information LI and the relative relationship information CI. After the estimation, regardless of whether or not the marker unit 260 of the autonomous mobile body 200 can be imaged by the imaging unit 154, the terminal device 100 alone can update the estimation result of the position and orientation of the terminal device 100. can. At this time, since the estimation accuracy of the initial position and initial orientation is high, the estimation accuracy of the position and orientation of the terminal device 100 is maintained at a certain level or higher even after subsequent updates. Therefore, according to the terminal device 100 of the present embodiment, the position and orientation of the terminal device 100 that moves independently of the autonomous mobile body 200 can be continuously estimated with high accuracy.

なお、本実施形態の端末装置100では、トラッキング部116は、撮像部154により撮像された画像を用いて、端末装置100の位置および姿勢の変化を追跡する。そのため、本実施形態の端末装置100では、撮像部154以外のセンサを必要とすることなく、継続的に、高い精度で端末装置100の位置および姿勢を推定することができる。 In addition, in the terminal device 100 of the present embodiment, the tracking unit 116 tracks changes in the position and orientation of the terminal device 100 using the image captured by the imaging unit 154 . Therefore, in the terminal device 100 of this embodiment, the position and orientation of the terminal device 100 can be continuously estimated with high accuracy without requiring a sensor other than the imaging unit 154 .

また、本実施形態の端末装置100は、さらに、表示部151と、拡張現実処理部111とを備える。拡張現実処理部111は、端末装置100の位置および姿勢の推定結果に応じて変化する仮想画像VIを、撮像部154により撮像された現実画像RIに重畳して、表示部151に表示させる。そのため、本実施形態の端末装置100によれば、高い精度で推定された端末装置100の位置および姿勢に基づき、仮想画像VIを表示させることができ、高精度なAR型情報提示を実現することができる。 Moreover, the terminal device 100 of the present embodiment further includes a display unit 151 and an augmented reality processing unit 111 . The augmented reality processing unit 111 causes the display unit 151 to display the virtual image VI, which changes according to the estimation result of the position and orientation of the terminal device 100 , superimposed on the real image RI captured by the imaging unit 154 . Therefore, according to the terminal device 100 of the present embodiment, it is possible to display the virtual image VI based on the position and orientation of the terminal device 100 estimated with high accuracy, thereby realizing highly accurate AR information presentation. can be done.

また、本実施形態の情報処理システム10は、端末装置100と、自律移動体200とを備える。自律移動体200は、センサ230による周辺検知情報と3次元点群地図とを用いて自律移動する移動体である。そのため、本実施形態の情報処理システム10によれば、人間の運転操作を要さずにマーカ部260を移動させることによって、広い範囲において、移動するマーカ部260を利用した高い精度での端末装置100の位置および姿勢の推定を実現することができる。 Also, the information processing system 10 of the present embodiment includes a terminal device 100 and an autonomous mobile body 200 . The autonomous mobile body 200 is a mobile body that autonomously moves using peripheral detection information from the sensor 230 and a three-dimensional point cloud map. Therefore, according to the information processing system 10 of the present embodiment, by moving the marker unit 260 without requiring a human driving operation, the terminal device can be operated in a wide range with high accuracy using the moving marker unit 260. 100 position and pose estimates can be implemented.

また、本実施形態の情報処理システム10は、さらに、サーバ装置300を備える。自律移動体200は、マーカ位置姿勢情報LIをサーバ装置300に送信し、端末装置100のマーカ情報取得部113は、サーバ装置300を介して、マーカ位置姿勢情報LIを取得する。そのため、本実施形態の情報処理システム10によれば、自律移動体200と直接的に通信ができない端末装置100においても、自律移動体200のマーカ部260を利用した高い精度での端末装置100の位置および姿勢の推定を実現することができる。 Moreover, the information processing system 10 of the present embodiment further includes a server device 300 . The autonomous mobile body 200 transmits the marker position/posture information LI to the server device 300 , and the marker information acquisition unit 113 of the terminal device 100 acquires the marker position/posture information LI via the server device 300 . Therefore, according to the information processing system 10 of the present embodiment, even in the terminal device 100 that cannot directly communicate with the autonomous mobile body 200, the terminal device 100 can be detected with high accuracy using the marker unit 260 of the autonomous mobile body 200. Position and pose estimation can be implemented.

B.第2実施形態:
図9は、第2実施形態における情報処理システム10aの構成を概略的に示す説明図であり、図10は、第2実施形態における端末装置100aの構成を概略的に示すブロック図であり、図11は、第2実施形態における自律移動体200aの構成を概略的に示すブロック図であり、図12は、第2実施形態におけるサーバ装置300aの構成を概略的に示すブロック図である。以下では、第2実施形態の情報処理システム10a、端末装置100a、自律移動体200aおよびサーバ装置300aの構成や各装置による処理内容のうち、上述した第1実施形態と同一の構成および処理内容については、同一の符号を付すことによってその説明を適宜省略する。
B. Second embodiment:
FIG. 9 is an explanatory diagram schematically showing the configuration of an information processing system 10a according to the second embodiment, and FIG. 10 is a block diagram schematically showing the configuration of a terminal device 100a according to the second embodiment. 11 is a block diagram schematically showing the configuration of an autonomous mobile body 200a in the second embodiment, and FIG. 12 is a block diagram schematically showing the configuration of a server device 300a in the second embodiment. Below, among the configurations of the information processing system 10a, the terminal device 100a, the autonomous mobile body 200a, and the server device 300a of the second embodiment and the processing content of each device, the same configuration and processing content as in the first embodiment described above will be described. are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

第2実施形態の情報処理システム10aは、第1実施形態の情報処理システム10と同様に、3次元点群地図上における端末装置100aの位置および姿勢を高精度に推定するシステムであるが、該推定された位置および姿勢を用いて、AR型情報提示を実行するのではなく、ハザード通知を実行するためのシステムである。本実施形態では、公道上の見通しの悪い交差点等において、端末装置100aに近接するハザードの存在を通知するハザード通知を例に挙げて説明する。 The information processing system 10a of the second embodiment, like the information processing system 10 of the first embodiment, is a system that highly accurately estimates the position and orientation of the terminal device 100a on the three-dimensional point cloud map. A system for performing hazard notification, rather than performing AR-type information presentation, using estimated position and attitude. In this embodiment, a hazard notification that notifies the presence of a hazard approaching the terminal device 100a at an intersection or the like on a public road with poor visibility will be described as an example.

図9に示すように、情報処理システム10aは、複数の端末装置100aと、複数の自律移動体200aと、サーバ装置300aとを備える。第2実施形態では、自律移動体200aは、乗員を乗せて公道上を自律的に走行する自律走行車両である。 As shown in FIG. 9, the information processing system 10a includes a plurality of terminal devices 100a, a plurality of autonomous mobile bodies 200a, and a server device 300a. In the second embodiment, the autonomous mobile body 200a is an autonomous vehicle that carries a passenger and autonomously travels on public roads.

図10に示すように、第2実施形態における端末装置100aの記憶部120には、後述するハザード通知処理を行うためのハザード通知プログラムCP12が格納されている。端末装置100aの制御部110は、記憶部120からハザード通知プログラムCP12を読み出して実行することにより、後述するハザード通知処理を行うハザード通知部119として機能する。ハザード通知部119は、第1実施形態と同様の端末位置姿勢推定部112aを含んでいる。ただし、第2実施形態の端末位置姿勢推定部112aは、推定結果送信部118を含んでいる。また、端末装置100aの記憶部120には、後述するハザード通知処理の際に、ハザード情報HIが格納される。 As shown in FIG. 10, the storage unit 120 of the terminal device 100a in the second embodiment stores a hazard notification program CP12 for performing hazard notification processing, which will be described later. The control unit 110 of the terminal device 100a reads out the hazard notification program CP12 from the storage unit 120 and executes it, thereby functioning as a hazard notification unit 119 that performs hazard notification processing, which will be described later. The hazard notification unit 119 includes the terminal position/orientation estimation unit 112a similar to that of the first embodiment. However, the terminal position/orientation estimator 112 a of the second embodiment includes an estimation result transmitter 118 . Further, the storage unit 120 of the terminal device 100a stores hazard information HI during hazard notification processing, which will be described later.

図11に示すように、第2実施形態における自律移動体200aの記憶部220には、後述するハザード通知処理を行うためのハザード通知プログラムCP23が格納されている。自律移動体200aの制御部210は、記憶部220からハザード通知プログラムCP23を読み出して実行することにより、後述するハザード通知処理を行うハザード通知部216として機能する。また、自律移動体200aの記憶部220には、後述するハザード通知処理の際に、端末位置姿勢情報TIが格納される。なお、ハザード通知処理は、特許請求の範囲における特定処理の一例であり、ハザード通知部216は、特許請求の範囲における特定処理実行部の一例である。 As shown in FIG. 11, the storage unit 220 of the autonomous mobile body 200a in the second embodiment stores a hazard notification program CP23 for performing hazard notification processing, which will be described later. The control unit 210 of the autonomous mobile body 200a reads out the hazard notification program CP23 from the storage unit 220 and executes it, thereby functioning as a hazard notification unit 216 that performs hazard notification processing, which will be described later. In addition, terminal position and orientation information TI is stored in the storage unit 220 of the autonomous mobile body 200a at the time of hazard notification processing, which will be described later. The hazard notification process is an example of a specific process in the scope of claims, and the hazard notification unit 216 is an example of a specific process execution unit in the scope of claims.

図12に示すように、第2実施形態におけるサーバ装置300aの記憶部320には、後述するハザード通知処理を行うためのハザード通知サーバプログラムCP32が格納されている。サーバ装置300aの制御部310は、記憶部320からハザード通知サーバプログラムCP32を読み出して実行することにより、後述するハザード通知処理を行うハザード通知サーバ処理部318として機能する。ハザード通知サーバ処理部318は、第1実施形態と同様の位置姿勢サーバ処理部314を含む。また、サーバ装置300aの記憶部320には、後述するハザード通知処理の際に、端末位置姿勢情報TIと、ハザード情報HIとが格納される。 As shown in FIG. 12, the storage unit 320 of the server device 300a in the second embodiment stores a hazard notification server program CP32 for performing hazard notification processing, which will be described later. The control unit 310 of the server device 300a reads out the hazard notification server program CP32 from the storage unit 320 and executes it, thereby functioning as a hazard notification server processing unit 318 that performs hazard notification processing, which will be described later. A hazard notification server processing unit 318 includes a position/orientation server processing unit 314 similar to that of the first embodiment. Further, the storage unit 320 of the server device 300a stores the terminal position/orientation information TI and the hazard information HI at the time of the hazard notification process, which will be described later.

次に、第2実施形態の情報処理システム10aにおいて実行されるハザード通知処理について説明する。本実施形態のハザード通知処理は、自律移動体200aが認識した端末装置100aに近接するハザードの存在を、端末装置100aに通知し、端末装置100aの音声出力部153により報知する処理である。本実施形態では、公道上の見通しの悪い交差点等において、端末装置100aに近接するハザードの存在を通知するハザード通知処理を例に挙げて説明する。 Next, hazard notification processing executed in the information processing system 10a of the second embodiment will be described. The hazard notification process of the present embodiment is a process of notifying the terminal device 100a of the existence of a hazard approaching the terminal device 100a recognized by the autonomous mobile body 200a and notifying it by the voice output unit 153 of the terminal device 100a. In this embodiment, hazard notification processing for notifying the presence of a hazard approaching the terminal device 100a at an intersection or the like on a public road with poor visibility will be described as an example.

図13は、第2実施形態の情報処理システム10aにおいて実行されるハザード通知処理の流れを示す説明図である。また、図14は、第2実施形態の情報処理システム10aにおいて実行されるハザード通知処理を概念的に示す説明図である。図14に示す例では、公道上の見通しの悪い交差点において、ユーザUが保持する端末装置100aの撮像部154の撮像範囲に自律移動体200aが走行している。また、ビルBuの陰には、ユーザUからは視認できないが、自律移動体200aのセンサ230からは認識可能なハザードHaとしての自転車が存在しており、該自転車がユーザUの前に飛び出そうとしている。 FIG. 13 is an explanatory diagram showing the flow of hazard notification processing executed in the information processing system 10a of the second embodiment. FIG. 14 is an explanatory diagram conceptually showing the hazard notification process executed in the information processing system 10a of the second embodiment. In the example shown in FIG. 14, an autonomous mobile body 200a is traveling within the imaging range of the imaging unit 154 of the terminal device 100a held by the user U at an intersection with poor visibility on a public road. In addition, behind the building Bu, there is a bicycle as a hazard Ha that cannot be visually recognized by the user U but can be recognized by the sensor 230 of the autonomous mobile body 200a. and

図13に示すハザード通知処理において、自律移動体200aによるS210,S220の処理、サーバ装置300aによるS310,S320の処理、端末装置100aによるS110からS140の処理内容は、図5に示す第1実施形態のAR型情報提示処理における各ステップの処理内容と同じである。これらの処理により、端末装置100aは、3次元点群地図上における端末装置100a(の撮像部154)の位置(初期位置)および姿勢(初期精度)を高精度に推定することができる。 In the hazard notification process shown in FIG. 13, the processing of S210 and S220 by the autonomous mobile body 200a, the processing of S310 and S320 by the server device 300a, and the processing contents of S110 to S140 by the terminal device 100a are the first embodiment shown in FIG. are the same as the processing contents of each step in the AR type information presentation processing of . Through these processes, the terminal device 100a can highly accurately estimate the position (initial position) and orientation (initial accuracy) of (the imaging unit 154 of) the terminal device 100a on the three-dimensional point cloud map.

その後、端末装置100aの推定結果送信部118(図10)は、3次元点群地図上における端末装置100aの位置および姿勢の推定結果を示す端末位置姿勢情報TIを、サーバ装置300aを介して、自律移動体200aに送信する。すなわち、推定結果送信部118は、端末位置姿勢情報TIをサーバ装置300aに向けて送信し(S142)、サーバ装置300aの位置姿勢サーバ処理部314(図12)は、受信した端末位置姿勢情報TIを自律移動体200aに向けて送信し(S322)、自律移動体200aのハザード通知部216(図11)は、端末位置姿勢情報TIを受信する(S222)。端末位置姿勢情報TIは、端末装置100aを識別するための端末IDと、位置および姿勢の推定時刻を示すタイムスタンプと、位置および姿勢を特定する情報とを含んでいる(図12参照)。なお、本実施形態では、端末位置姿勢情報TIは、推定された端末装置100aの位置から所定の距離内に存在する(すなわち、端末装置100aの近くに存在する)自律移動体200aを対象として送信される。 After that, the estimation result transmission unit 118 (FIG. 10) of the terminal device 100a transmits the terminal position and orientation information TI indicating the estimation result of the position and orientation of the terminal device 100a on the three-dimensional point cloud map via the server device 300a. It transmits to the autonomous mobile body 200a. That is, estimation result transmitting section 118 transmits terminal position and orientation information TI to server device 300a (S142), and position and orientation server processing section 314 (FIG. 12) of server device 300a transmits received terminal position and orientation information TI. toward the autonomous mobile body 200a (S322), and the hazard notification unit 216 (FIG. 11) of the autonomous mobile body 200a receives the terminal position and orientation information TI (S222). The terminal position and orientation information TI includes a terminal ID for identifying the terminal device 100a, a time stamp indicating the estimated time of the position and orientation, and information specifying the position and orientation (see FIG. 12). In the present embodiment, the terminal position/attitude information TI is transmitted to the autonomous mobile body 200a existing within a predetermined distance from the estimated position of the terminal device 100a (that is, existing near the terminal device 100a). be done.

端末装置100aは、端末位置姿勢情報TIの送信後、第1実施形態と同様に、初期位置および初期姿勢からの端末装置100aの位置および姿勢の変化に基づき端末装置100aの位置および姿勢の推定結果を更新しつつ(S150)、ハザード情報HIが受信されたか否かを判定する(S152)。 After transmitting the terminal position and orientation information TI, the terminal device 100a estimates the position and orientation of the terminal device 100a based on changes in the position and orientation of the terminal device 100a from the initial position and initial orientation, as in the first embodiment. is updated (S150), it is determined whether or not hazard information HI has been received (S152).

端末位置姿勢情報TIを受信した自律移動体200aのハザード通知部216(図11)は、端末位置姿勢情報TIに基づき、3次元点群地図上における端末装置100aの位置および姿勢を特定し、端末装置100aの周辺のハザードHaを探索する(S224)。すなわち、ハザード通知部216は、センサ230により認識された周辺物体と端末装置100aとの相対位置関係や相対速度関係に基づき、端末装置100aに対するハザードHaとなり得る周辺物体の有無を判定する。 The hazard notification unit 216 (FIG. 11) of the autonomous mobile body 200a that has received the terminal position and orientation information TI identifies the position and orientation of the terminal device 100a on the three-dimensional point cloud map based on the terminal position and orientation information TI, and the terminal A hazard Ha around the device 100a is searched (S224). That is, the hazard notification unit 216 determines whether or not there is a peripheral object that can be a hazard Ha for the terminal device 100a based on the relative positional relationship and relative speed relationship between the peripheral object recognized by the sensor 230 and the terminal device 100a.

自律移動体200aのハザード通知部216は、端末装置100aの周辺にハザードHaを検出した場合には(S224:YES)、検出したハザードHaを特定するハザード情報HIを作成し、該ハザード情報HIを、サーバ装置300aを介して、対象の自律移動体200aに送信する。すなわち、ハザード通知部216は、ハザード情報HIをサーバ装置300aに向けて送信し(S226)、サーバ装置300aのハザード通知サーバ処理部318(図12)は、受信したハザード情報HIを自律移動体200aに向けて送信し(S324)、端末装置100aのハザード通知部119(図10)は、ハザード情報HIを受信する(S152:YES)。ハザード情報HIは、例えば、ハザードHaの位置や速度、名称等を示す情報である。なお、自律移動体200aにおいてハザードHaが検出されなかった場合には(S224:NO)、S226の処理はスキップされる。 When the hazard notification unit 216 of the autonomous mobile body 200a detects a hazard Ha around the terminal device 100a (S224: YES), it creates hazard information HI specifying the detected hazard Ha, and sends the hazard information HI. , to the target autonomous mobile body 200a via the server device 300a. That is, the hazard notification unit 216 transmits the hazard information HI to the server device 300a (S226), and the hazard notification server processing unit 318 (FIG. 12) of the server device 300a transmits the received hazard information HI to the autonomous mobile body 200a. (S324), and the hazard notification unit 119 (FIG. 10) of the terminal device 100a receives the hazard information HI (S152: YES). The hazard information HI is, for example, information indicating the position, speed, name, etc. of the hazard Ha. In addition, when the hazard Ha is not detected in the autonomous mobile body 200a (S224:NO), the process of S226 is skipped.

ハザード情報HIを受信した端末装置100aのハザード通知部119は、ハザードHaの存在をユーザUに報知する報知処理を実行する(S154)。例えば、図14の例では、端末装置100aの音声出力部153から、「attention!(注意!)」という音声が出力されている。報知処理により、端末装置100aのユーザUは、例えば、自らは視認できないものの、自律移動体200aによって認識されているハザードHaの存在を認識することができる。なお、報知処理では、端末装置100aから見たハザードHaの方向(例えば、前方)や、ハザードHaの名称(例えば、自転車)が報知されてもよい。また、音声による報知に代えて、あるいは、音声による報知と共に、画像による報知や振動による報知が実行されてもよい。端末装置100aにおいてハザード情報HIが受信されなかった場合には(S152:NO)、S154の処理はスキップされる。その後の処理は、第1実施形態と同様である。 The hazard notification unit 119 of the terminal device 100a that has received the hazard information HI executes notification processing to notify the user U of the presence of the hazard Ha (S154). For example, in the example of FIG. 14, a voice "attention!" is output from the voice output unit 153 of the terminal device 100a. By the notification process, the user U of the terminal device 100a can recognize the existence of the hazard Ha recognized by the autonomous mobile body 200a, although the user U of the terminal device 100a cannot visually recognize the hazard Ha, for example. In addition, in the notification process, the direction of the hazard Ha as seen from the terminal device 100a (for example, front) or the name of the hazard Ha (for example, bicycle) may be notified. Further, in place of the notification by sound, or in addition to the notification by sound, notification by image or notification by vibration may be executed. If the terminal device 100a does not receive the hazard information HI (S152: NO), the process of S154 is skipped. Subsequent processing is the same as in the first embodiment.

以上説明したように、第2実施形態の情報処理システム10aは、端末装置100aと自律移動体200aとを備える。端末装置100aは、端末装置100aの位置および姿勢の推定結果を、直接または他の装置を介して、自律移動体200aに送信する推定結果送信部118を備える。自律移動体200aは、端末装置100aの位置および姿勢の推定結果を用いて、端末装置100aに近接するハザードHaの存在を端末装置100aに通知するハザード通知処理を実行するハザード通知部216を備える。そのため、第2実施形態の情報処理システム10aによれば、高い精度で推定された3次元点群地図上における端末装置100aの位置および姿勢を利用して、自律移動体200aから端末装置100aへハザードHaの存在を通知することができ、高精度なハザード通知を実現することができる。 As described above, the information processing system 10a of the second embodiment includes the terminal device 100a and the autonomous mobile body 200a. The terminal device 100a includes an estimation result transmission unit 118 that transmits the estimation result of the position and orientation of the terminal device 100a to the autonomous mobile body 200a directly or via another device. The autonomous mobile body 200a includes a hazard notification unit 216 that performs hazard notification processing for notifying the terminal device 100a of the presence of a hazard Ha that is close to the terminal device 100a using the position and posture estimation results of the terminal device 100a. Therefore, according to the information processing system 10a of the second embodiment, using the position and orientation of the terminal device 100a on the three-dimensional point cloud map estimated with high accuracy, the hazard from the autonomous mobile body 200a to the terminal device 100a The presence of Ha can be notified, and highly accurate hazard notification can be realized.

C.変形例:
本明細書で開示される技術は、上述の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の形態に変形することができ、例えば次のような変形も可能である。
C. Variant:
The technology disclosed in this specification is not limited to the above-described embodiments, and can be modified in various forms without departing from the scope of the invention. For example, the following modifications are possible.

上記実施形態における情報処理システム10の構成は、あくまで一例であり、種々変形可能である。例えば、上記実施形態では、マーカ部260を有する移動体は、センサ230による周辺検知情報と3次元点群地図とを用いて自律移動する自律移動体200であるが、3次元点群地図上における自己の位置および姿勢を特定しつつ移動する移動体である限りにおいて、必ずしも自律移動する移動体である必要はなく、人による運転操作に従い移動する移動体であってもよい。また、上記実施形態では、自律移動体200は、センサ230による周辺認識結果と3次元点群地図とのマッチングにより自己の位置および姿勢を推定しているが、他の手法(例えば、Visual-SLAMやGNSSを利用した手法)を組み合わせて、より高精度に自己の位置および姿勢を推定するとしてもよい。 The configuration of the information processing system 10 in the above embodiment is merely an example, and various modifications are possible. For example, in the above-described embodiment, the moving object having the marker unit 260 is the autonomous moving object 200 that autonomously moves using surrounding detection information from the sensor 230 and a 3D point cloud map. As long as the mobile body moves while specifying its own position and posture, it does not necessarily have to be an autonomous mobile body, and may be a mobile body that moves according to a driving operation by a person. Further, in the above embodiment, the autonomous mobile body 200 estimates its own position and orientation by matching the peripheral recognition result of the sensor 230 and the 3D point cloud map. or a method using GNSS) may be combined to estimate the position and orientation of the self with higher accuracy.

上記実施形態では、自律移動体200が、車体の側面に付された画像をマーカ部260として有するが、マーカ部260の態様はこれに限られない。例えば、マーカ部260は、3次元の物体であってもよく、自律移動体200自体の形状がマーカ部260として機能するとしてもよい。 In the above-described embodiment, the autonomous mobile body 200 has the image attached to the side surface of the vehicle body as the marker portion 260, but the aspect of the marker portion 260 is not limited to this. For example, the marker section 260 may be a three-dimensional object, and the shape of the autonomous mobile body 200 itself may function as the marker section 260 .

上記実施形態におけるAR型情報提示処理やハザード通知処理の内容は、あくまで一例であり、種々変更可能である。例えば、上記実施形態では、自律移動体200の位置姿勢情報提供部214が、3次元点群地図上におけるマーカ部260の位置および姿勢を示すマーカ位置姿勢情報LIをサーバ装置300に向けて送信し(図5のS220)、サーバ装置300の位置姿勢サーバ処理部314がマーカ位置姿勢情報LIを端末装置100に送信しているが(S320)、自律移動体200の位置姿勢情報提供部214が、マーカ位置姿勢情報LIではなく、3次元点群地図上における自律移動体200(のセンサ230)の位置および姿勢を示す情報をサーバ装置300に向けて送信し、サーバ装置300の位置姿勢サーバ処理部314が、該情報に基づきマーカ部260の位置および姿勢を示すマーカ位置姿勢情報LIを生成して端末装置100に送信するとしてもよい。また、上記実施形態では、自律移動体200と端末装置100との間のマーカ位置姿勢情報LI等の情報のやり取りが、サーバ装置300を介して実行されているが、自律移動体200と端末装置100との間で直接的に情報のやり取りが実行されてもよい。 The contents of the AR-type information presentation process and the hazard notification process in the above embodiment are only examples, and can be changed in various ways. For example, in the above embodiment, the position and orientation information providing unit 214 of the autonomous mobile body 200 transmits the marker position and orientation information LI indicating the position and orientation of the marker unit 260 on the three-dimensional point cloud map to the server device 300. (S220 in FIG. 5), the position and orientation server processing unit 314 of the server device 300 is transmitting the marker position and orientation information LI to the terminal device 100 (S320). Information indicating the position and orientation of (the sensor 230 of) the autonomous mobile body 200 on the three-dimensional point cloud map is transmitted to the server device 300 instead of the marker position and orientation information LI, and the position and orientation server processing unit of the server device 300 314 may generate marker position and orientation information LI indicating the position and orientation of the marker unit 260 based on the information, and transmit the information to the terminal device 100 . Further, in the above-described embodiment, exchange of information such as the marker position/orientation information LI between the autonomous mobile body 200 and the terminal device 100 is performed via the server device 300, but the autonomous mobile body 200 and the terminal device Information may be exchanged directly with 100 .

上記実施形態では、トラッキング開始点以降の端末装置100の位置および姿勢の変化の追跡(トラッキング)が、Visual-SLAMを利用して実行されているが、トラッキングは、LiDAR-SLAM等の他のSLAMを利用して実行されてもよいし、GNSSを利用する手法等の他の公知の手法を利用して実行されてもよい。 In the above embodiment, the tracking of changes in the position and orientation of the terminal device 100 after the tracking start point is performed using Visual-SLAM. or other known techniques such as techniques that utilize GNSS.

上記第1実施形態では、ショッピングモールの屋内および屋外において案内表示を行うAR型情報提示を例に挙げて説明したが、本明細書に開示される技術は、他の目的(例えば、歩行ナビゲーション、観光案内、保守点検のガイド、位置ゲーム等)のためのAR型情報提示にも同様に適用可能である。 In the above-described first embodiment, the AR-type information presentation that performs guidance display indoors and outdoors in a shopping mall has been described as an example. It is also applicable to AR-type information presentation for sightseeing guides, maintenance guides, location games, etc.).

上記第2実施形態では、端末位置姿勢情報TIを受信した自律移動体200aが、端末装置100aの位置および姿勢の推定結果を用いて、端末装置100aに近接するハザードHaの存在を端末装置100aに通知するハザード通知処理を実行しているが、端末位置姿勢情報TIを受信した自律移動体200aが、端末装置100aの位置および姿勢の推定結果を用いて、他の処理(例えば、移動体の精密な誘導処理)を実行してもよい。また、反対に、自律移動体200aに対するハザードが端末装置100aの撮像部154により認識された場合に、端末装置100aが、自律移動体200aに対して、端末位置姿勢情報TIと共に該ハザードの情報を通知するとしてもよい。これにより、自律移動体200aによりハザードの認識を端末装置100aが補うことができ、自律移動体200aの走行の安全性を向上させることができる。 In the second embodiment, the autonomous mobile body 200a that has received the terminal position and orientation information TI uses the estimation result of the position and orientation of the terminal device 100a to inform the terminal device 100a of the existence of the hazard Ha that is close to the terminal device 100a. Although the hazard notification process to notify is being executed, the autonomous mobile body 200a that has received the terminal position and attitude information TI uses the estimation result of the position and attitude of the terminal device 100a to perform other processing (for example, the precision of the mobile body). guidance process) may be executed. Conversely, when a hazard to the autonomous mobile body 200a is recognized by the imaging unit 154 of the terminal device 100a, the terminal device 100a transmits information on the hazard together with the terminal position and orientation information TI to the autonomous mobile body 200a. You may notify. As a result, the terminal device 100a can compensate for the recognition of the hazard by the autonomous mobile body 200a, and the safety of the autonomous mobile body 200a can be improved.

上記実施形態において、ハードウェアによって実現されている構成の一部をソフトウェアに置き換えるようにしてもよく、反対に、ソフトウェアによって実現されている構成の一部をハードウェアに置き換えるようにしてもよい。 In the above embodiments, part of the configuration implemented by hardware may be replaced with software, and conversely, part of the configuration implemented by software may be replaced with hardware.

10:情報処理システム 100:端末装置 110:制御部 111:拡張現実処理部 112:端末位置姿勢推定部 113:マーカ情報取得部 114:画像対応情報取得部 115:相対関係特定部 116:トラッキング部 117:推定結果更新部 118:推定結果送信部 119:ハザード通知部 120:記憶部 151:表示部 152:操作入力部 153:音声出力部 154:撮像部 155:通信部 190:バス 200:自律移動体 210:制御部 212:自律移動制御部 214:位置姿勢情報提供部 216:ハザード通知部 220:記憶部 230:センサ 250:駆動部 255:通信部 260:マーカ部 300:サーバ装置 310:制御部 312:拡張現実サーバ処理部 314:位置姿勢サーバ処理部 318:ハザード通知サーバ処理部 320:記憶部 351:表示部 352:操作入力部 355:通信部 390:バス Ha:ハザード RI:現実画像 U:ユーザ VI:仮想画像 10: Information processing system 100: Terminal device 110: Control unit 111: Augmented reality processing unit 112: Terminal position/orientation estimation unit 113: Marker information acquisition unit 114: Image correspondence information acquisition unit 115: Relative relationship identification unit 116: Tracking unit 117 : estimation result update unit 118: estimation result transmission unit 119: hazard notification unit 120: storage unit 151: display unit 152: operation input unit 153: audio output unit 154: imaging unit 155: communication unit 190: bus 200: autonomous mobile body 210: Control unit 212: Autonomous movement control unit 214: Position/orientation information providing unit 216: Hazard notification unit 220: Storage unit 230: Sensor 250: Driving unit 255: Communication unit 260: Marker unit 300: Server device 310: Control unit 312 : Augmented reality server processing unit 314: Position and orientation server processing unit 318: Hazard notification server processing unit 320: Storage unit 351: Display unit 352: Operation input unit 355: Communication unit 390: Bus Ha: Hazard RI: Real image U: User VI: virtual image

Claims (10)

ユーザに保持されて前記ユーザと共に移動する端末装置であって、
撮像部と、
3次元絶対位置を示す情報が付与された点群から構成された3次元点群地図上における自己の位置および姿勢を特定しつつ移動する移動体であって、マーカとして機能するマーカ部を有する前記移動体について、前記3次元点群地図上における前記マーカ部の位置および姿勢を示すマーカ位置姿勢情報を取得するマーカ情報取得部と、
前記マーカ部が撮像された画像と、前記マーカ部に対する相対位置および相対姿勢と、を対応付ける画像対応情報を取得する画像対応情報取得部と、
前記撮像部により撮像された前記マーカ部の画像と前記画像対応情報とに基づき、前記マーカ部に対する前記端末装置の相対位置および相対姿勢を示す相対関係情報を特定する相対関係特定部と、
前記マーカ位置姿勢情報と前記相対関係情報とに基づき、前記3次元点群地図上における前記端末装置の位置および姿勢を推定する端末位置姿勢推定部と、
を備える、端末装置。
A terminal device that is held by a user and moves with the user,
an imaging unit;
A moving body that moves while specifying its own position and orientation on a three-dimensional point cloud map composed of a point cloud to which information indicating a three-dimensional absolute position is assigned, the moving body having a marker portion functioning as a marker. a marker information acquisition unit that acquires marker position and orientation information indicating the position and orientation of the marker unit on the three-dimensional point cloud map for the moving object;
an image correspondence information acquisition unit that acquires image correspondence information that associates an image obtained by capturing the marker unit with a relative position and a relative orientation with respect to the marker unit;
a relative relationship identifying unit that identifies relative relationship information indicating the relative position and relative orientation of the terminal device with respect to the marker unit based on the image of the marker unit captured by the imaging unit and the image correspondence information;
a terminal position/orientation estimation unit that estimates the position and orientation of the terminal device on the three-dimensional point cloud map based on the marker position/orientation information and the relative relationship information;
A terminal device.
請求項1に記載の端末装置であって、さらに、
前記端末装置の位置および姿勢が推定された時点からの前記端末装置の位置および姿勢の変化を追跡するトラッキング部と、
前記変化に基づき、前記端末装置の位置および姿勢の推定結果を更新する推定結果更新部と、
を備える、端末装置。
The terminal device according to claim 1, further comprising:
a tracking unit that tracks changes in the position and orientation of the terminal device from when the position and orientation of the terminal device were estimated;
an estimation result updating unit that updates an estimation result of the position and orientation of the terminal device based on the change;
A terminal device.
請求項2に記載の端末装置であって、
前記トラッキング部は、前記撮像部により撮像された画像を用いて、前記端末装置の位置および姿勢の変化を追跡する、端末装置。
The terminal device according to claim 2,
The terminal device, wherein the tracking unit tracks changes in the position and orientation of the terminal device using the image captured by the imaging unit.
請求項1から請求項3までのいずれか一項に記載の端末装置であって、さらに、
表示部と、
前記端末装置の位置および姿勢の推定結果に応じて変化する仮想画像を、前記撮像部により撮像された現実画像に重畳して、前記表示部に表示させる拡張現実処理部と、
を備える、端末装置。
The terminal device according to any one of claims 1 to 3, further comprising:
a display unit;
an augmented reality processing unit that superimposes a virtual image that changes according to the estimation result of the position and orientation of the terminal device on the real image captured by the imaging unit and displays the virtual image on the display unit;
A terminal device.
請求項1から請求項4までのいずれか一項に記載の端末装置と、
前記移動体と、
を備え、
前記端末装置は、さらに、前記端末装置の位置および姿勢の推定結果を、直接または他の装置を介して、前記移動体に送信する推定結果送信部を備え、
前記移動体は、前記端末装置の位置および姿勢の推定結果を用いて、特定の処理を実行する特定処理実行部を備える、情報処理システム。
a terminal device according to any one of claims 1 to 4;
the moving body;
with
The terminal device further comprises an estimation result transmission unit that transmits the estimation result of the position and orientation of the terminal device to the moving body directly or via another device,
The information processing system, wherein the moving body includes a specific processing execution unit that executes specific processing using the estimation result of the position and orientation of the terminal device.
請求項5に記載の情報処理システムであって、
前記特定の処理は、前記端末装置に近接するハザードの存在を前記端末装置に通知するハザード通知処理を含む、情報処理システム。
The information processing system according to claim 5,
The information processing system, wherein the specific processing includes hazard notification processing for notifying the terminal device of existence of a hazard in proximity to the terminal device.
請求項5または請求項6に記載の情報処理システムであって、
前記移動体は、センサによる周辺検知情報と前記3次元点群地図とを用いて自律移動する自律移動体である、情報処理システム。
The information processing system according to claim 5 or claim 6,
The information processing system, wherein the moving object is an autonomous moving object that autonomously moves using peripheral detection information from a sensor and the three-dimensional point group map.
請求項5から請求項7までのいずれか一項に記載の情報処理システムであって、さらに、
サーバ装置を備え、
前記移動体は、前記マーカ位置姿勢情報を前記サーバ装置に送信し、
前記端末装置の前記マーカ情報取得部は、前記サーバ装置を介して、前記マーカ位置姿勢情報を取得する、情報処理システム。
The information processing system according to any one of claims 5 to 7, further comprising:
Equipped with a server device,
the moving object transmits the marker position/orientation information to the server device;
The information processing system, wherein the marker information acquisition unit of the terminal device acquires the marker position and orientation information via the server device.
撮像部を有し、ユーザに保持されて前記ユーザと共に移動する端末装置の位置および姿勢を推定するための情報処理方法であって、
3次元絶対位置を示す情報が付与された点群から構成された3次元点群地図上における自己の位置および姿勢を特定しつつ移動する移動体であって、マーカとして機能するマーカ部を有する前記移動体について、前記3次元点群地図上における前記マーカ部の位置および姿勢を示すマーカ位置姿勢情報を取得する工程と、
前記マーカ部が撮像された画像と、前記マーカ部に対する相対位置および相対姿勢と、を対応付ける画像対応情報を取得する工程と、
前記撮像部により撮像された前記マーカ部の画像と前記画像対応情報とに基づき、前記マーカ部に対する前記端末装置の相対位置および相対姿勢を示す相対関係情報を特定する工程と、
前記マーカ位置姿勢情報と前記相対関係情報とに基づき、前記3次元点群地図上における前記端末装置の位置および姿勢を推定する工程と、
を備える、情報処理方法。
An information processing method for estimating the position and orientation of a terminal device that has an imaging unit and is held by a user and moves with the user,
A moving body that moves while specifying its own position and orientation on a three-dimensional point cloud map composed of a point cloud to which information indicating a three-dimensional absolute position is assigned, the moving body having a marker portion functioning as a marker. Acquiring marker position and orientation information indicating the position and orientation of the marker unit on the three-dimensional point cloud map for the moving object;
a step of obtaining image correspondence information that associates an image obtained by imaging the marker section with a relative position and a relative orientation with respect to the marker section;
identifying relative relationship information indicating the relative position and orientation of the terminal device with respect to the marker unit based on the image of the marker unit captured by the imaging unit and the image correspondence information;
estimating the position and orientation of the terminal device on the three-dimensional point cloud map based on the marker position and orientation information and the relative relationship information;
A method of processing information, comprising:
撮像部を有し、ユーザに保持されて前記ユーザと共に移動する端末装置の位置および姿勢を推定するためのコンピュータプログラムであって、
前記端末装置に、
3次元絶対位置を示す情報が付与された点群から構成された3次元点群地図上における自己の位置および姿勢を特定しつつ移動する移動体であって、マーカとして機能するマーカ部を有する前記移動体について、前記3次元点群地図上における前記マーカ部の位置および姿勢を示すマーカ位置姿勢情報を取得する処理と、
前記マーカ部が撮像された画像と、前記マーカ部に対する相対位置および相対姿勢と、を対応付ける画像対応情報を取得する処理と、
前記撮像部により撮像された前記マーカ部の画像と前記画像対応情報とに基づき、前記マーカ部に対する前記端末装置の相対位置および相対姿勢を示す相対関係情報を特定する処理と、
前記マーカ位置姿勢情報と前記相対関係情報とに基づき、前記3次元点群地図上における前記端末装置の位置および姿勢を推定する処理と、
を実行させる、コンピュータプログラム。
A computer program for estimating the position and orientation of a terminal device that has an imaging unit and is held by a user and moves with the user,
to the terminal device,
A moving body that moves while specifying its own position and orientation on a three-dimensional point cloud map composed of a point cloud to which information indicating a three-dimensional absolute position is assigned, the moving body having a marker portion functioning as a marker. a process of acquiring marker position and orientation information indicating the position and orientation of the marker unit on the three-dimensional point cloud map for the moving object;
a process of acquiring image correspondence information that associates an image obtained by capturing the marker section with a relative position and a relative orientation with respect to the marker section;
a process of identifying relative relationship information indicating a relative position and relative orientation of the terminal device with respect to the marker unit based on the image of the marker unit captured by the imaging unit and the image correspondence information;
a process of estimating the position and orientation of the terminal device on the three-dimensional point cloud map based on the marker position and orientation information and the relative relationship information;
computer program that causes the
JP2021040937A 2021-03-15 2021-03-15 Terminal device, information processing system, information processing method, and computer program Pending JP2022140891A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021040937A JP2022140891A (en) 2021-03-15 2021-03-15 Terminal device, information processing system, information processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021040937A JP2022140891A (en) 2021-03-15 2021-03-15 Terminal device, information processing system, information processing method, and computer program

Publications (1)

Publication Number Publication Date
JP2022140891A true JP2022140891A (en) 2022-09-29

Family

ID=83402755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021040937A Pending JP2022140891A (en) 2021-03-15 2021-03-15 Terminal device, information processing system, information processing method, and computer program

Country Status (1)

Country Link
JP (1) JP2022140891A (en)

Similar Documents

Publication Publication Date Title
CN108732589B (en) Automatic acquisition of training data for object recognition using 3D LIDAR and localization
CN109215433B (en) Vision-based driving scenario generator for automated driving simulation
US10748426B2 (en) Systems and methods for detection and presentation of occluded objects
EP3338136B1 (en) Augmented reality in vehicle platforms
US11138465B2 (en) Systems and methods for transforming coordinates between distorted and undistorted coordinate systems
JP7259749B2 (en) Information processing device, information processing method, program, and moving body
CN108139211B (en) Apparatus and method for measurement and program
US11057591B1 (en) Augmented reality display to preserve user privacy
US10579067B2 (en) Method and system for vehicle localization
KR20190141081A (en) A v2x communication-based vehicle lane system for autonomous vehicles
JP6415583B2 (en) Information display control system and information display control method
CN110388925A (en) System and method for vehicle location related with self-navigation
JP2016157197A (en) Self-position estimation device, self-position estimation method, and program
CN107657825A (en) Park method and device
US10875535B2 (en) Tactile detection to determine lane localization
US20230252689A1 (en) Map driven augmented reality
US20210354685A1 (en) Operating a motor vehicle with onboard and cloud-based data
WO2022141240A1 (en) Determining vehicle positions for autonomous driving based on monocular vision and semantic map
JP6856750B2 (en) Method and equipment
US11656089B2 (en) Map driven augmented reality
JP2022140891A (en) Terminal device, information processing system, information processing method, and computer program
JP2019100942A (en) Mobile object, positioning system, positioning program and positioning method
US20210158059A1 (en) Systems and methods for determining the direction of an object in an image
US20230219595A1 (en) GOAL DETERMINATION USING AN EYE TRACKER DEVICE AND LiDAR POINT CLOUD DATA
US20230236593A1 (en) Systems and methods for controlling a trailer separately from a vehicle

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210316

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240229