JP2024049400A - Information Processing System - Google Patents

Information Processing System Download PDF

Info

Publication number
JP2024049400A
JP2024049400A JP2021013158A JP2021013158A JP2024049400A JP 2024049400 A JP2024049400 A JP 2024049400A JP 2021013158 A JP2021013158 A JP 2021013158A JP 2021013158 A JP2021013158 A JP 2021013158A JP 2024049400 A JP2024049400 A JP 2024049400A
Authority
JP
Japan
Prior art keywords
user
information
state
spatial structure
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021013158A
Other languages
Japanese (ja)
Inventor
泰士 山本
Hiroshi Yamamoto
江利子 大関
Eriko Ozeki
宏樹 林
Hiroki Hayashi
修 後藤
Osamu Goto
幹生 岩村
Mikio Iwamura
真治 木村
Shinji Kimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2021013158A priority Critical patent/JP2024049400A/en
Priority to PCT/JP2022/002689 priority patent/WO2022163651A1/en
Publication of JP2024049400A publication Critical patent/JP2024049400A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/40Transportation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/60Positioning; Navigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Economics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Computer Hardware Design (AREA)
  • Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)

Abstract

To provide an information processing system which can present, to a user, information which cannot be visually recognized by the user.SOLUTION: An information processing system 1 comprises: a storage unit 51 which stores spatial structure data; an acquisition unit 52 which acquires a position of a user, and a visibility state of the user; n identification unit 53 which identifies the spatial structure data corresponding to the position of the user from the storage unit 51; a first estimation unit 54 which estimates an ideal visibility state in which the user can visually recognize all objects which could be included in a field of view of the user on the basis of the position of the user in the spatial structure data identified by the identification unit 53; a second estimation unit 55 which compares the ideal visibility state estimated by the first estimation unit 54 with a visibility state of the user and estimates an object which the user cannot visually recognize from a difference between the ideal visibility state and the visibility state of the user; and an output unit 56 which outputs the object estimated that the user cannot visually recognize by the second estimation unit 55 to allow the user to visually recognize it.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理システムに関する。 The present invention relates to an information processing system.

文献1には、現実空間において、ユーザの視野に含まれていない情報を、AR(Augment Reality:拡張現実)を用いてユーザに提示する端末装置が記載されている。このような装置によれば、ユーザは、自身の視野外の情報を得ることができ、ユーザの利便性が向上する。 Literature 1 describes a terminal device that uses AR (Augmented Reality) to present information that is not included in the user's field of view in real space to the user. With such a device, the user can obtain information outside of his or her field of view, improving user convenience.

特表2013-518275公報Patent Publication No. 2013-518275

ここで、ユーザの視線の先にある情報(ユーザの視野内に存在する情報)であっても、当該情報とユーザとの間にユーザの視線を物理的に遮る物体が存在する場合には、当該情報をユーザが視認できていないことがある。このような場合には、上述した従来の装置によっても、上述した情報をユーザに提示することができず、当該情報を利用する側であるユーザの利便性や、当該情報を提供する側の個人あるいは団体の利益が損なわれてしまうおそれがある。例えば、車や街路樹等によりユーザの視線が遮られ、ユーザが交通標識を視認できない場合、従来の装置では、該交通標識を運転中のユーザに提示できず、ユーザの安全性が損なわれてしまう。また、例えば、電車において企業の広告が、乗客やつり革等によって遮られる場合、従来の装置では、該広告をユーザに提示できず、ユーザが広告を視認する機会が失われ、該広告を掲載する企業の利益が損なわれてしまう。 Here, even if the information is in the user's line of sight (information that exists within the user's field of vision), if there is an object between the information and the user that physically blocks the user's line of sight, the user may not be able to see the information. In such a case, the above-mentioned conventional device may not be able to present the above-mentioned information to the user, which may impair the convenience of the user who uses the information and the profits of the individual or organization that provides the information. For example, if the user's line of sight is blocked by a car or a roadside tree, etc., and the user cannot see a traffic sign, the conventional device may not be able to present the traffic sign to the user while driving, which may impair the user's safety. Also, for example, if a corporate advertisement on a train is blocked by a passenger or a strap, the conventional device may not be able to present the advertisement to the user, which may result in the user losing an opportunity to see the advertisement and impairing the profits of the company that places the advertisement.

本発明は、上記実情に鑑みてなされたものであり、ユーザが視認できていない情報を、ユーザに適切に提示することができる情報処理システムを提供することを目的とする。 The present invention has been made in consideration of the above-mentioned circumstances, and aims to provide an information processing system that can appropriately present information to a user that the user cannot visually recognize.

本発明の一様態に係る情報処理システムでは、現実空間のオブジェクトを3次元の仮想空間に表したデータであって、現実空間のオブジェクトの位置に対応する仮想空間上の位置においてオブジェクトの形状を表す空間構造データを記憶する記憶部と、ユーザの位置、及びユーザの視認状態を取得する取得部と、記憶部から、ユーザの位置に対応する空間構造データを特定する特定部と、特定部によって特定された空間構造データにおいて、ユーザの位置に基づいて、ユーザの視野に含まれ得る一又は複数のオブジェクトをユーザが視認できる状態である理想視認状態を推定する第1推定部と、第1推定部によって推定された理想視認状態と、ユーザの視認状態とを比較し、理想視認状態とユーザの視認状態との差分から、ユーザが視認できていないオブジェクトを推定する第2推定部と、第2推定部によってユーザが視認できていないと推定されたオブジェクトを、ユーザが視認できるように出力する出力部と、を備える。 An information processing system according to one aspect of the present invention includes a storage unit that stores spatial structure data that represents an object in a real space in a three-dimensional virtual space and that represents the shape of the object at a position in the virtual space that corresponds to the position of the object in the real space; an acquisition unit that acquires a user's position and the user's viewing state; an identification unit that identifies the spatial structure data that corresponds to the user's position from the storage unit; a first estimation unit that estimates an ideal viewing state in which the user can view one or more objects that may be included in the user's field of view based on the user's position in the spatial structure data identified by the identification unit; a second estimation unit that compares the ideal viewing state estimated by the first estimation unit with the user's viewing state and estimates an object that the user is unable to view from the difference between the ideal viewing state and the user's viewing state; and an output unit that outputs the object that the second estimation unit estimates the user is unable to view so that the object can be viewed by the user.

本発明の一様態に係る情報処理システムでは、ユーザの位置、及び、ユーザの視認状態が取得され、ユーザの位置に対応する空間構造データが特定され、特定された空間構造データにおいて、ユーザの位置に基づいて理想視認状態が推定され、理想視認状態と、ユーザの視認状態とが比較され、理想視認状態とユーザの視認状態の差分から、ユーザが視認できていないオブジェクトが推定され、ユーザが視認できていないと推定されたオブジェクトをユーザが視認できるように、該オブジェクトが出力される。ここで、現実空間において、ユーザの周囲の情報が、物理的に遮られ、ユーザが該情報を視認できていないことにより、情報を利用する側であるユーザの利便性や、情報を提供する側の個人あるいは団体の利益が損なわれてしまう場合がある。例えば、車や街路樹等によりユーザの視線が遮られ、運転中あるいは歩行中のユーザが、交通標識を視認できないことにより、ユーザの安全性が損なわれてしまう。また、電車において企業の広告が、乗客やつり革等によって遮られることにより、ユーザが広告を視認する機会が失われ、企業の利益が損なわれてしまう。この点、本発明の一様態に係る情報処理システムでは、現実空間において、ユーザが視認できていないオブジェクトが、AR表示機器等のユーザの端末に表示される。これにより、ユーザが視認できていない情報を、適切にユーザに提示することができる。 In an information processing system according to one aspect of the present invention, the user's position and the user's viewing state are acquired, spatial structure data corresponding to the user's position is identified, and in the identified spatial structure data, an ideal viewing state is estimated based on the user's position, the ideal viewing state is compared with the user's viewing state, and an object that the user is unable to view is estimated from the difference between the ideal viewing state and the user's viewing state, and the object that is estimated to be unable to be viewed by the user is output so that the user can view it. Here, in real space, information about the user's surroundings is physically blocked, and the user is unable to view the information, which may impair the convenience of the user who uses the information and the profits of individuals or groups who provide the information. For example, the user's line of sight is blocked by cars, roadside trees, etc., and the user cannot view traffic signs while driving or walking, which impairs the safety of the user. In addition, when a company's advertisement on a train is blocked by passengers, hanging straps, etc., the user loses the opportunity to view the advertisement, which impairs the company's profits. In this regard, in an information processing system according to one aspect of the present invention, objects that the user cannot see in real space are displayed on the user's terminal, such as an AR display device. This makes it possible to appropriately present information that the user cannot see to the user.

本発明によれば、ユーザが視認できていない情報を、適切にユーザに提示することができる情報処理システムを提供することができる。 The present invention provides an information processing system that can appropriately present information to a user that the user cannot see.

本実施形態に係る情報処理システムの概要を説明する図である。FIG. 1 is a diagram illustrating an overview of an information processing system according to an embodiment of the present invention. 本実施形態に係る情報処理システムの概要を説明する図である。FIG. 1 is a diagram illustrating an overview of an information processing system according to an embodiment of the present invention. 本実施形態に係る情報処理システムの概要を説明する図である。FIG. 1 is a diagram illustrating an overview of an information processing system according to an embodiment of the present invention. 本実施形態に係る情報処理システムの機能構成を示すブロック図である。1 is a block diagram showing a functional configuration of an information processing system according to an embodiment of the present invention. 通信端末がサーバに送信する情報の一例について説明する図である。11 is a diagram illustrating an example of information that a communication terminal transmits to a server. FIG. サーバにおける情報処理の一例について説明する図である。FIG. 11 is a diagram illustrating an example of information processing in a server. ユーザが視認できていないオブジェクトをユーザに提示する方法の一例について説明する図である。FIG. 11 is a diagram illustrating an example of a method for presenting an object that the user cannot visually recognize to the user. ユーザが視認できていないオブジェクトをユーザに提示する方法の一例について説明する図である。FIG. 11 is a diagram illustrating an example of a method for presenting an object that the user cannot visually recognize to the user. 本実施形態に係る情報処理システムが実施する処理を示すフローチャートである。4 is a flowchart showing a process executed by the information processing system according to the present embodiment. 本実施形態に係る情報処理システムが実施する処理を示すフローチャートである。4 is a flowchart showing a process executed by the information processing system according to the present embodiment. ユーザが視認できていないオブジェクトをユーザに提示する方法の一例について説明する図である。FIG. 11 is a diagram illustrating an example of a method for presenting an object that the user cannot visually recognize to the user. 本実施形態に係る情報処理システムに含まれる通信端末、位置測位サーバ、及び、空間構造サーバのハードウェア構成を示す図である。2 is a diagram showing the hardware configurations of a communication terminal, a positioning server, and a spatial structure server included in the information processing system according to the present embodiment. FIG.

以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。図面の説明において、同一又は同等の要素には同一符号を用い、重複する説明を省略する。 Embodiments of the present invention will now be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements will be designated by the same reference numerals, and duplicate descriptions will be omitted.

図1、図2及び図4に示される情報処理システム1は、ユーザの視線の先にあるもののユーザが視認できていない情報を、ユーザに提示するシステムである。情報処理システム1は、より詳細には、通信端末10の位置、及び、ユーザの視認状態等の情報を取得し、通信端末10の位置から空間構造データを特定し、特定した空間構造データ、及び、通信端末10の位置から理想視認状態を推定し、理想視認状態とユーザの視認状態とを比較し、理想視認状態とユーザの視認状態との差分から、ユーザが視認できていない情報を推定し、ユーザに該情報を提示するシステムである。ここで、ユーザの視認状態とは、現実空間において、ユーザが実際に視認していると推定される状態を少なくとも示す情報であり(詳細は後述する)、理想視認状態とは、現実空間において、ユーザの視野に含まれ得る全てのオブジェクトをユーザが視認できている状態(理想的な視認状態)を示す情報である(詳細は後述する)。情報処理システム1は、理想視認状態とユーザの視認状態とを比較することで、ユーザの視野に入り得るにもかかわらず、ユーザが視認できていないオブジェクトを特定し、ユーザに該オブジェクトを提示する。また、情報処理システム1は、取得した通信端末10の位置、及び、ユーザの視認状態等の情報に基づいて、3次元仮想空間上のオブジェクトを更新する。情報処理システム1は、通信端末10と、位置測位サーバ30と、空間構造サーバ50と、を備えている。通信端末10は、ユーザに携帯される端末、又は、ユーザの周囲に配置される端末である。最初に、情報処理システム1が行う処理の概要について説明する。 The information processing system 1 shown in FIG. 1, FIG. 2, and FIG. 4 is a system that presents to a user information that is in the user's line of sight but that the user cannot see. More specifically, the information processing system 1 is a system that acquires information such as the position of the communication terminal 10 and the user's viewing state, identifies spatial structure data from the position of the communication terminal 10, estimates an ideal viewing state from the identified spatial structure data and the position of the communication terminal 10, compares the ideal viewing state with the user's viewing state, estimates information that the user cannot see from the difference between the ideal viewing state and the user's viewing state, and presents the information to the user. Here, the user's viewing state is information that at least indicates a state that is estimated to be actually viewed by the user in real space (details will be described later), and the ideal viewing state is information that indicates a state in which the user can see all objects that can be included in the user's field of view in real space (ideal viewing state) (details will be described later). By comparing the ideal viewing state with the user's viewing state, the information processing system 1 identifies objects that the user is unable to view despite being within the user's field of view, and presents the objects to the user. The information processing system 1 also updates objects in the three-dimensional virtual space based on the acquired information such as the position of the communication terminal 10 and the user's viewing state. The information processing system 1 includes a communication terminal 10, a positioning server 30, and a spatial structure server 50. The communication terminal 10 is a terminal carried by the user or a terminal placed around the user. First, an overview of the processing performed by the information processing system 1 will be described.

情報処理システム1では、例えば、通信端末10が撮像した撮像画像が位置測位サーバ30に送信される。図1に示される例では、通信端末10において撮像された撮像画像P1が示されている。撮像画像P1には、障害物D1、及び、「横断歩道の交通標識」を示すオブジェクトX3が映っている。通信端末10は、撮像した撮像画像P1を位置測位サーバ30に送信する。位置測位サーバ30は、通信端末10において撮像された撮像画像P1に基づいてグローバル位置情報を取得し、グローバル位置情報を通信端末10に送信する。グローバル位置情報とは、どのデバイスでも利用できる共通の座標系で示される位置情報(絶対的な位置情報)である。グローバル位置情報には、例えば、位置、方向、及び、傾きの情報が含まれている。グローバル位置情報の詳細については後述する。なお、グローバル位置情報の取得については、撮影画像を使った手法に限定されるものでは無い。例えば、GPS、RTK、地磁気、Wi-Fi、Bluetooth(登録商標)などを利用して取得された情報に基づき、位置測位サーバ30においてグローバル位置情報が取得されてもよい。 In the information processing system 1, for example, an image captured by the communication terminal 10 is transmitted to the positioning server 30. In the example shown in FIG. 1, an image P1 captured by the communication terminal 10 is shown. An obstacle D1 and an object X3 indicating a "pedestrian crossing traffic sign" are shown in the captured image P1. The communication terminal 10 transmits the captured image P1 to the positioning server 30. The positioning server 30 acquires global position information based on the captured image P1 captured by the communication terminal 10, and transmits the global position information to the communication terminal 10. The global position information is position information (absolute position information) indicated in a common coordinate system that can be used by any device. The global position information includes, for example, information on position, direction, and tilt. Details of the global position information will be described later. Note that the acquisition of the global position information is not limited to a method using a captured image. For example, the global position information may be acquired in the positioning server 30 based on information acquired using GPS, RTK, geomagnetism, Wi-Fi, Bluetooth (registered trademark), etc.

通信端末10は、位置測位サーバ30からグローバル位置情報を取得することにより、通信端末10の位置を推定する。そして、通信端末10は、取得したグローバル位置情報、及び、撮像した撮像画像を少なくとも含む情報を、空間構造サーバ50に送信する。図1及び図2に示される例では、ユーザA及びBが携帯する通信端末10(以下、「ユーザの通信端末10」と表記する)、あるいは、ユーザの周囲に配置される撮像機能付き通信端末10(以下、「周囲に配置される通信端末10」と表記する)が、各通信端末10によって撮像された撮像画像Rを位置測位サーバ30に送信する。ユーザの通信端末10、及び、周囲に配置される通信端末10は、位置測位サーバから各端末のグローバル位置情報を受信する。各通信端末10は、グローバル位置情報(図2における、ユーザの位置、及び、端末の位置)、及び、撮像画像を空間構造サーバ50に送信する。 The communication terminal 10 estimates the position of the communication terminal 10 by acquiring global position information from the positioning server 30. The communication terminal 10 then transmits information including at least the acquired global position information and the captured image to the spatial structure server 50. In the example shown in FIG. 1 and FIG. 2, the communication terminals 10 carried by the users A and B (hereinafter referred to as "user's communication terminals 10"), or the communication terminals 10 with imaging functions placed around the users (hereinafter referred to as "surrounding communication terminals 10") transmit the captured image R captured by each communication terminal 10 to the positioning server 30. The user's communication terminal 10 and the surrounding communication terminals 10 receive the global position information of each terminal from the positioning server. Each communication terminal 10 transmits the global position information (the user's position and the terminal's position in FIG. 2) and the captured image to the spatial structure server 50.

空間構造サーバ50は、現実空間のオブジェクトを3次元の仮想空間に表したデータである空間構造データ(詳細は後述)を記憶している。空間構造サーバ50は、通信端末10から、グローバル位置情報、及び、撮像画像を少なくとも含む情報を受信する。空間構造サーバ50は、グローバル位置情報に対応した空間構造データを特定する。また、空間構造サーバ50は、撮像画像からユーザの視認状態を推定する。図1に示される例では、空間構造データD(図1の右下図参照)には、撮像画像P1(図1の左下図参照)に映っているオブジェクトX3に加えて、「信号機」を示すオブジェクトX1、及び、「一時停止の標識」を示すオブジェクトX2が含まれている。オブジェクトX1,X2,X3は、現実空間のオブジェクトである。空間構造サーバ50は、位置測位サーバ30によって撮像画像P1から取得されたグローバル位置情報に基づいて、空間構造データDを特定する。特定された空間構造データDには、3次元の仮想空間に表されたオブジェクトX1,X2,X3の形状が表されている。また、空間構造サーバ50は、撮像画像P1から、「現実空間において、オブジェクトX3をユーザが視認している」ことを推定する。空間構造サーバ50によるユーザの視認状態の推定例については後述する。なお、本実施形態では、空間構造サーバ50が、ユーザの視認状態の推定処理等を実施するとしているが、変形例に記載しているとおり、これに限定されるものではない。つまり、空間構造サーバ50以外のサーバにおいて、ユーザの視認状態の推定処理等が実施されてもよい。例えば、通信端末10によって、該推定処理等が実施されてもよい。 The spatial structure server 50 stores spatial structure data (details will be described later) that is data that represents objects in real space in a three-dimensional virtual space. The spatial structure server 50 receives information including at least global position information and a captured image from the communication terminal 10. The spatial structure server 50 identifies spatial structure data corresponding to the global position information. The spatial structure server 50 also estimates the user's visual state from the captured image. In the example shown in FIG. 1, the spatial structure data D (see the lower right diagram of FIG. 1) includes an object X1 indicating a "traffic light" and an object X2 indicating a "stop sign" in addition to an object X3 shown in the captured image P1 (see the lower left diagram of FIG. 1). The objects X1, X2, and X3 are objects in real space. The spatial structure server 50 identifies the spatial structure data D based on the global position information acquired from the captured image P1 by the positioning server 30. The identified spatial structure data D represents the shapes of the objects X1, X2, and X3 represented in the three-dimensional virtual space. Furthermore, the spatial structure server 50 estimates from the captured image P1 that "the user is viewing the object X3 in real space." An example of the estimation of the user's viewing state by the spatial structure server 50 will be described later. Note that in this embodiment, the spatial structure server 50 performs the estimation process of the user's viewing state, but as described in the modified example, this is not limited to this. In other words, the estimation process of the user's viewing state may be performed in a server other than the spatial structure server 50. For example, the estimation process may be performed by the communication terminal 10.

また、空間構造サーバ50は、ユーザの視認状態に含まれる現実空間のオブジェクトに基づいて、空間構造データにおけるオブジェクトの情報を更新する。図2及び3に示される例では、空間構造サーバ50は、ユーザA及びBが携帯する通信端末10や監視カメラ等の通信端末10から、グローバル位置情報及び撮像画像を受信する。空間構造サーバ50は、受信したグローバル位置情報、及び、撮像画像から、オブジェクトX1,X2,X3の現実空間における最新の状態を取得する。空間構造サーバ50は、空間構造データにおいて、オブジェクトX1,X2,X3を最新の状態に更新する。 The spatial structure server 50 also updates the information of objects in the spatial structure data based on the objects in real space included in the user's visual state. In the example shown in Figures 2 and 3, the spatial structure server 50 receives global position information and captured images from communication terminals 10 carried by users A and B, or communication terminals 10 such as surveillance cameras. The spatial structure server 50 obtains the latest states of objects X1, X2, and X3 in real space from the received global position information and captured images. The spatial structure server 50 updates objects X1, X2, and X3 to their latest states in the spatial structure data.

空間構造サーバ50は、特定した空間構造データにおいて、グローバル位置情報に基づいて、理想視認状態(後述する)を推定する。空間構造サーバ50は、理想視認状態とユーザの視認状態とを比較し、理想視認状態とユーザの視認状態との差分から、ユーザが視認できていないオブジェクトを推定する。空間構造サーバ50は、ユーザが視認できていないオブジェクトを、通信端末10に送信する。空間構造サーバ50は、該オブジェクトを通信端末10に送信するとき、該オブジェクトをユーザが視認できるように、該オブジェクトの位置情報を変更する。空間構造サーバ50は、該オブジェクト及び変更した位置情報を、通信端末10に送信する。通信端末10は、受信した位置情報に基づいて、通信端末10上の画面等に該オブジェクトを表示する。 The spatial structure server 50 estimates an ideal viewing state (described later) for the identified spatial structure data based on global position information. The spatial structure server 50 compares the ideal viewing state with the user's viewing state, and estimates objects that the user is unable to view from the difference between the ideal viewing state and the user's viewing state. The spatial structure server 50 transmits the objects that the user is unable to view to the communication terminal 10. When transmitting the object to the communication terminal 10, the spatial structure server 50 changes the position information of the object so that the object can be viewed by the user. The spatial structure server 50 transmits the object and the changed position information to the communication terminal 10. The communication terminal 10 displays the object on a screen or the like on the communication terminal 10 based on the received position information.

図2に示される例では、空間構造サーバ50は、ユーザAから受信したグローバル位置情報に基づいて、ユーザAにとってオブジェクトX1,X2,X3が視認できる状態をユーザAの理想視認状態であると推定する。空間構造サーバ50は、ユーザAから受信した撮像画像に基づいて、オブジェクトX3のみを視認できるという状態をユーザAの視認状態として推定(取得)する。空間構造サーバ50は、ユーザAの理想視認状態とユーザAの視認状態とを比較する。空間構造サーバ50は、ユーザAが視認できていないオブジェクトが、オブジェクトX1,X2であると、ユーザAの理想視認状態とユーザAの視認状態との差分から推定する。空間構造サーバ50は、オブジェクトX1,X2の位置情報をユーザAが視認できるように変更し、変更した位置情報及びオブジェクトX1,X2をユーザAの通信端末10に送信する。ユーザAの通信端末10は、空間構造サーバ50からオブジェクトX1,X2を受信する。ユーザAの通信端末10は、受信したオブジェクトX1,X2を、変更後の位置情報に対応する端末上の画面等に表示する。 In the example shown in FIG. 2, the spatial structure server 50 estimates that the state in which objects X1, X2, and X3 are visible to user A is the ideal viewing state of user A based on the global position information received from user A. The spatial structure server 50 estimates (acquires) the state in which only object X3 is visible as the viewing state of user A based on the captured image received from user A. The spatial structure server 50 compares the ideal viewing state of user A with the viewing state of user A. The spatial structure server 50 estimates that the objects that user A cannot view are objects X1 and X2 from the difference between the ideal viewing state of user A and the viewing state of user A. The spatial structure server 50 changes the position information of objects X1 and X2 so that user A can view them, and transmits the changed position information and objects X1 and X2 to the communication terminal 10 of user A. The communication terminal 10 of user A receives objects X1 and X2 from the spatial structure server 50. User A's communication terminal 10 displays the received objects X1 and X2 on a screen or the like on the terminal that corresponds to the updated location information.

一例として、図3に示される例のように、空間構造サーバ50は、オブジェクトX1,X2が視認可能であるユーザBから、オブジェクトX1,X2を含む撮像画像P2及びユーザBの位置情報を取得する。空間構造サーバ50は、取得した撮像画像P2及び位置情報から、オブジェクトX1,X2の最新の状態を取得する。空間構造サーバ50は、取得した最新の状態に基づいて、3次元仮想空間上において、オブジェクトX1,X2を予め更新する。ここで、空間構造サーバ50によって、ユーザAが視認できていないオブジェクトは、オブジェクトX1,X2であると推定されたとき、空間構造サーバ50は、オブジェクトX1、X2の位置情報をユーザAが視認できるように変更する。空間構造サーバ50は、変更した位置情報及びオブジェクトX1,X2をユーザAの通信端末10の画面Gに送信する。通信端末10は、変更された位置情報において、オブジェクトX1の形状を表示し、表示したオブジェクトをオブジェクトY1とする(図3の左図参照)。通信端末10は、オブジェクトX2についても同様に表示処理を行い、表示したオブジェクトをオブジェクトY2とする(図3の左図参照)。 3, the spatial structure server 50 acquires the captured image P2 including the objects X1 and X2 and the position information of the user B from the user B who can see the objects X1 and X2. The spatial structure server 50 acquires the latest state of the objects X1 and X2 from the acquired captured image P2 and the position information. The spatial structure server 50 updates the objects X1 and X2 in advance in the three-dimensional virtual space based on the acquired latest state. Here, when the spatial structure server 50 estimates that the objects that the user A cannot see are the objects X1 and X2, the spatial structure server 50 changes the position information of the objects X1 and X2 so that the user A can see them. The spatial structure server 50 transmits the changed position information and the objects X1 and X2 to the screen G of the communication terminal 10 of the user A. The communication terminal 10 displays the shape of the object X1 in the changed position information, and sets the displayed object as the object Y1 (see the left diagram in FIG. 3). The communication terminal 10 performs a similar display process on object X2, and the displayed object becomes object Y2 (see the left diagram in Figure 3).

次に、図4を参照して、通信端末10、位置測位サーバ30、及び、空間構造サーバ50の機能的な構成要素について説明する。位置測位サーバ30は、機能的な構成要素として、記憶部31と、測位部32と、を有している。 Next, referring to FIG. 4, the functional components of the communication terminal 10, the positioning server 30, and the spatial structure server 50 will be described. The positioning server 30 has a memory unit 31 and a positioning unit 32 as functional components.

記憶部31は、マップデータ300を記憶している。マップデータ300では、予め取得された撮像画像に含まれる特徴点の特徴量(例えば、輝度方向ベクトル)と、特徴点に関連付けられた絶対的な位置情報であるグローバル位置情報とが対応付けられている。マップデータ300は、例えば、3Dポイントクラウドである。マップデータ300は、対象物を複数の異なる方向から同時に撮像可能なステレオカメラ(図示省略)等によって予め撮像され、大量の撮像画像に基づいて生成される。特徴点とは、画像中において際立って検出される点であって、例えば、他の領域と比べて輝度(強度)が大きい(又は小さい)点である。特徴点のグローバル位置情報とは、特徴点に関連付けて設定されたグローバル位置情報であって、画像中の特徴点が示す領域についての現実世界におけるグローバル位置情報である。なお、各特徴点に対するグローバル位置情報の関連付けは、従来から周知の方法によって行うことができる。 The storage unit 31 stores map data 300. In the map data 300, the feature amount (e.g., luminance direction vector) of a feature point included in a captured image acquired in advance is associated with global position information, which is absolute position information associated with the feature point. The map data 300 is, for example, a 3D point cloud. The map data 300 is generated based on a large amount of captured images captured in advance by a stereo camera (not shown) that can capture an object from multiple different directions at the same time. A feature point is a point that is prominently detected in an image, and is, for example, a point with a high (or low) luminance (intensity) compared to other areas. The global position information of a feature point is global position information set in association with the feature point, and is global position information in the real world for the area indicated by the feature point in the image. Note that the association of global position information with each feature point can be performed by a conventionally known method.

記憶部31は、マップデータ300の特徴点のグローバル位置情報として3次元のグローバル位置情報を記憶している。記憶部31は、特徴点の3次元のグローバル位置情報として、例えば、特徴点の緯度、経度及び高さを記憶している。なお、記憶部11は、マップデータ300についてグローバル位置情報に応じて一定の領域毎に分割した複数の分割マップデータを記憶していてもよい。 The storage unit 31 stores three-dimensional global position information as the global position information of the feature points of the map data 300. The storage unit 31 stores, for example, the latitude, longitude, and altitude of the feature points as the three-dimensional global position information of the feature points. Note that the storage unit 11 may store multiple divided map data in which the map data 300 is divided into certain regions according to the global position information.

測位部32は、通信端末10において撮像された撮像画像と、記憶部31に記憶されているマップデータ100とに基づいて、通信端末10における撮像時の通信端末10のグローバル位置情報(3次元の位置情報)を推定する。具体的には、測位部32は、マップデータ100の特徴点と、通信端末10において撮像された撮像画像の特徴点とのマッチングを行い、撮像された撮像画像に対応するマップデータ300の領域を特定する。そして、測位部32は、特定した領域に係るマップデータ300の特徴点に関連付けられたグローバル位置情報に基づいて撮像画像の撮像位置(すなわち、撮像時における通信端末10のグローバル位置情報)を推定する。測位部32は、測位結果を通信端末10に送信する。 The positioning unit 32 estimates global position information (three-dimensional position information) of the communication terminal 10 at the time of capturing an image on the communication terminal 10, based on the captured image captured on the communication terminal 10 and the map data 100 stored in the storage unit 31. Specifically, the positioning unit 32 matches the feature points of the map data 100 with the feature points of the captured image captured on the communication terminal 10, and identifies the area of the map data 300 that corresponds to the captured image. The positioning unit 32 then estimates the capturing position of the captured image (i.e., the global position information of the communication terminal 10 at the time of capturing an image) based on the global position information associated with the feature points of the map data 300 related to the identified area. The positioning unit 32 transmits the positioning result to the communication terminal 10.

なお、測位結果には、グローバル位置情報に加えて撮像画像から推定される方向(ロール、ピッチ、ヨーの3次元座標中の方向)に関する情報が含まれている。また、測位部32は、通信端末10において一定の周期で撮像された撮像画像に基づいてグローバル位置情報を取得してもよいし、ユーザからの指示を受けたタイミングで通信端末10において撮像された撮像画像に基づいてグローバル位置情報を取得してもよい。 The positioning result includes information on the direction (direction in the three-dimensional coordinate system of roll, pitch, and yaw) estimated from the captured image in addition to the global position information. The positioning unit 32 may obtain the global position information based on captured images captured at regular intervals by the communication terminal 10, or may obtain the global position information based on captured images captured by the communication terminal 10 at the timing when an instruction from the user is received.

通信端末10は、ユーザが携帯する端末又はユーザの周囲に配置された端末である。通信端末10は、例えば、無線通信を行うよう構成された端末である。通信端末10は、例えば、スマートフォン、タブレット型端末、PC、ゴーグル型のウェアラブル機器等である。また、通信端末10は、監視カメラ、定点カメラ等の通信機能付き撮像装置であってもよい。通信端末10は、例えばアプリケーションが実行されると、実装されたカメラによって撮像を実施する。そして、通信端末10は、撮像した撮像画像を位置測位サーバ30に送信し、該撮像画像に応じた測位結果を位置測位サーバ30から取得する。通信端末10は、測位結果からグローバル位置情報、及び、ユーザの視認方向を取得する。通信端末10は、ユーザの目的情報(詳細は後述)を、ユーザによる手動入力や通信端末10のブラウザの検索履歴等から取得する。通信端末10は、撮像した撮像画像、取得したグローバル位置情報、ユーザの視認方向及びユーザの目的情報を空間構造サーバ50に送信する。なお、ユーザの視認方向は、図1に示される例では、通信端末10によって位置測位サーバ30から取得された測位結果から特定される情報である。一例として、ユーザの視認方向は、撮像画像P1の中央付近の方向である。ユーザの目的情報とは、ユーザの行動目的を示す情報である。ユーザの目的情報は、ユーザの手動入力、通信端末10のブラウザの検索履歴、ユーザが現在利用しているアプリ等から特定される。ユーザの目的情報は、例えば、ユーザが現在運転中であることを示す情報、ユーザが地図アプリ等で設定した目的地の位置情報及びユーザが嗜好する食べ物等の情報等である。 The communication terminal 10 is a terminal carried by a user or a terminal placed around the user. The communication terminal 10 is, for example, a terminal configured to perform wireless communication. The communication terminal 10 is, for example, a smartphone, a tablet terminal, a PC, a goggle-type wearable device, etc. The communication terminal 10 may also be an imaging device with a communication function, such as a surveillance camera or a fixed-point camera. When an application is executed, for example, the communication terminal 10 performs imaging using an installed camera. Then, the communication terminal 10 transmits the captured image to the positioning server 30 and acquires a positioning result corresponding to the captured image from the positioning server 30. The communication terminal 10 acquires global position information and the user's viewing direction from the positioning result. The communication terminal 10 acquires user's objective information (details will be described later) from manual input by the user or from the search history of the browser of the communication terminal 10. The communication terminal 10 transmits the captured image, the acquired global position information, the user's viewing direction, and the user's objective information to the spatial structure server 50. In the example shown in FIG. 1, the user's viewing direction is information identified from the positioning result acquired by the communication terminal 10 from the positioning server 30. As an example, the user's viewing direction is a direction toward the center of the captured image P1. The user's intent information is information indicating the user's intent. The user's intent information is identified from manual input by the user, the search history of the communication terminal 10's browser, an app currently being used by the user, and the like. The user's intent information is, for example, information indicating that the user is currently driving, location information of a destination set by the user in a map app or the like, and information on the user's preferred foods, and the like.

通信端末10は、空間構造サーバ50に送信した情報に基づき空間構造サーバ50において推定された、「ユーザが視認できていないオブジェクト」を空間構造サーバ50から受信し、該オブジェクトを通信端末10上の画面等に出力する。詳細は後述するが、図3、図7及び図8に示される例では、ユーザAの通信端末10は、ユーザAが視認できていないオブジェクトX1,X2を、ユーザAが視認できるように位置情報を変更する。通信端末10は、オブジェクトX1の形状を変更された位置情報において表示したオブジェクトY1を表示する。通信端末10は、オブジェクトX2についても同様に表示処理を行い、オブジェクトY2を表示する。 The communication terminal 10 receives from the spatial structure server 50 "objects that the user cannot see" estimated by the spatial structure server 50 based on the information transmitted to the spatial structure server 50, and outputs the objects to a screen or the like on the communication terminal 10. Details will be described later, but in the examples shown in Figures 3, 7, and 8, the communication terminal 10 of user A changes the position information so that objects X1 and X2 that user A cannot see can be seen by user A. The communication terminal 10 displays object Y1, which is displayed based on the position information in which the shape of object X1 has been changed. The communication terminal 10 similarly performs display processing on object X2, and displays object Y2.

空間構造サーバ50は、機能的な構成要素として、記憶部51と、取得部52と、特定部53と、第1推定部54と、第2推定部55と、出力部56と、更新部57と、を有している。 The spatial structure server 50 has, as its functional components, a memory unit 51, an acquisition unit 52, an identification unit 53, a first estimation unit 54, a second estimation unit 55, an output unit 56, and an update unit 57.

記憶部51は、空間構造データを記憶している。また、記憶部51は、空間構造データに含まれるオブジェクトの種別を記憶している。空間構造データは、現実空間のオブジェクトを3次元の仮想空間に表したデータであって、現実空間のオブジェクトの位置に対応する仮想空間上の位置においてオブジェクトの形状を表すデータである。記憶部51は、グローバル位置情報と空間構造データとが対応付けられたデータ500を記憶している。ここで、空間構造データについて詳細に説明する。空間構造データは、現実空間のオブジェクトを3次元の仮想空間に表したデータであって、現実空間のオブジェクトの位置に対応する仮想空間上の位置においてオブジェクトの形状を表すデータである。例えば、現実空間においてある屋外の場所に複数の建物(複数のオブジェクト)が存在するとする。その場合、当該屋外の場所(現実空間)に対応する仮想空間の構造データには、地面のオブジェクト、及び、当該屋外の場所と同じ位置に配置された複数の建物のオブジェクトが表されている。また、例えば、現実空間のある屋内の場所に椅子が存在するとする。その場合、当該室内の場所(現実空間)に対応する仮想空間の構造データには、当該屋内の場所と同じ位置に配置された壁のオブジェクト、床のオブジェクト、天井のオブジェクト、及び、椅子のオブジェクトが表されている。つまり、空間構造データにおけるオブジェクトは、現実空間におけるオブジェクトとリンクしている。なお、空間構造データは、静的なオブジェクト(基本的に動かないオブジェクト)のみの形状を表すデータであってもよい。また、空間構造データのオブジェクトには、現実空間におけるオブジェクトとリンクしていないオブジェクト(仮想オブジェクト)が含まれていてもよい。また、記憶部51は、取得部52によって取得された撮像画像、通信端末10から取得したグローバル位置情報、ユーザの視認方向、ユーザの目的情報及びユーザの移動情報(後述する)を記憶している。 The storage unit 51 stores spatial structure data. The storage unit 51 also stores the type of object included in the spatial structure data. The spatial structure data is data that represents an object in a real space in a three-dimensional virtual space, and is data that represents the shape of the object at a position in the virtual space corresponding to the position of the object in the real space. The storage unit 51 stores data 500 in which global position information and spatial structure data are associated. Here, the spatial structure data will be described in detail. The spatial structure data is data that represents an object in a real space in a three-dimensional virtual space, and is data that represents the shape of the object at a position in the virtual space corresponding to the position of the object in the real space. For example, assume that multiple buildings (multiple objects) exist in a certain outdoor location in the real space. In that case, the structural data of the virtual space corresponding to the outdoor location (real space) represents an object on the ground and multiple building objects arranged at the same position as the outdoor location. Also, assume that a chair exists in a certain indoor location in the real space. In this case, the structural data of the virtual space corresponding to the indoor location (real space) represents wall objects, floor objects, ceiling objects, and chair objects that are located at the same positions as the indoor location. In other words, the objects in the spatial structural data are linked to objects in the real space. The spatial structural data may be data representing the shapes of only static objects (objects that do not basically move). The objects in the spatial structural data may also include objects (virtual objects) that are not linked to objects in the real space. The storage unit 51 also stores the captured images acquired by the acquisition unit 52, the global position information acquired from the communication terminal 10, the user's viewing direction, the user's purpose information, and the user's movement information (described later).

取得部52は、ユーザの位置を取得する。具体的には、取得部52は、グローバル位置情報を通信端末10から取得する。また、取得部52は、ユーザの視認状態を取得する。具体的には、取得部52は、ユーザが携帯する通信端末10又はユーザの周囲に配置された通信端末10において撮像された情報に基づき、ユーザの視認状態を取得する。ユーザの視認状態とは、ユーザが実際に視認していると推定される状態、現実空間の少なくとも一部、ユーザの移動情報、ユーザの視認方向及びユーザの目的情報を少なくとも含む情報である。取得部52は、撮像画像から、現実空間において、ユーザの視野に実際に含まれるオブジェクトを推定し、現実空間において、ユーザが実際に視認していると推定される状態を取得する。取得部52は、撮像画像から現実空間のオブジェクトの少なくとも一部を取得する。取得部52は、経時的に取得したグローバル位置情報から、ユーザの移動情報を生成(取得)する。そして、取得部52は、通信端末10から、ユーザの視認方向及びユーザの目的情報を取得する。なお、現実空間のオブジェクトの少なくとも一部とは、例えば、あるオブジェクトを一定の方向から見た形状を意味する。 The acquisition unit 52 acquires the position of the user. Specifically, the acquisition unit 52 acquires global position information from the communication terminal 10. The acquisition unit 52 also acquires the viewing state of the user. Specifically, the acquisition unit 52 acquires the viewing state of the user based on information captured by the communication terminal 10 carried by the user or the communication terminal 10 arranged around the user. The viewing state of the user is information including at least a state in which the user is actually viewing, at least a part of the real space, the user's movement information, the user's viewing direction, and the user's purpose information. The acquisition unit 52 estimates objects actually included in the user's field of view in the real space from the captured image, and acquires a state in which the user is actually viewing in the real space. The acquisition unit 52 acquires at least a part of the object in the real space from the captured image. The acquisition unit 52 generates (acquires) the user's movement information from the global position information acquired over time. Then, the acquisition unit 52 acquires the user's viewing direction and the user's purpose information from the communication terminal 10. Note that at least a portion of an object in real space means, for example, the shape of an object viewed from a certain direction.

図5及び図6に示される例では、取得部52は、通信端末10から、ユーザAの通信端末10によって撮像された撮像画像P1、及び、ユーザAのグローバル位置情報を取得する。取得部52は、取得した撮像画像P1に基づいて、ユーザAはオブジェクトX3を視認できるという状態(ユーザAの視認状態)を推定する。取得部52は、取得した撮像画像P1に基づいて、オブジェクトX3の撮像方向から見た形状(現実空間におけるオブジェクトの少なくとも一部)を推定する。取得部52は、連続的に取得されるグローバル位置情報の経時的な変化から、ユーザAの移動履歴(移動情報)を取得する。加えて、取得部52は、ユーザAの視認方向及びユーザAの目的情報を、通信端末10から取得する。 In the example shown in FIG. 5 and FIG. 6, the acquisition unit 52 acquires from the communication terminal 10 a captured image P1 captured by the communication terminal 10 of user A and global position information of user A. Based on the acquired captured image P1, the acquisition unit 52 estimates a state in which user A can visually recognize object X3 (user A's visual recognition state). Based on the acquired captured image P1, the acquisition unit 52 estimates a shape of object X3 as viewed from the imaging direction (at least a part of the object in real space). The acquisition unit 52 acquires user A's movement history (movement information) from the change over time in the global position information acquired continuously. In addition, the acquisition unit 52 acquires user A's viewing direction and user A's destination information from the communication terminal 10.

特定部53は、記憶部51からユーザの位置に対応する空間構造データを特定する。具体的には、特定部53は、記憶部51に記憶されているデータ500と、取得部52が取得したグローバル位置情報とに基づいて、通信端末10のグローバル位置情報に応じた空間構造データを特定する。特定部53は、例えば、ユーザAの通信端末10から受信したグローバル位置情報から、ユーザAの位置を底円の中心とした円柱状の3次元仮想空間を、空間構造データとして特定する。また、特定部53は、ユーザの視認状態に含まれるユーザの視認方向にさらに基づいて、空間構造データを特定してもよい。具体的には、特定部53は、ユーザAの位置に基づいて特定した3次元仮想空間から、ユーザAの視認方向にさらに基づいて、ユーザAの視野角の範囲に入る3次元仮想空間を、空間構造データとして特定してもよい。図6に示される例では、特定部53は、ユーザAのグローバル位置情報及びユーザAの視認方向から、空間構造データDを特定する。 The identification unit 53 identifies spatial structure data corresponding to the user's position from the storage unit 51. Specifically, the identification unit 53 identifies spatial structure data corresponding to the global position information of the communication terminal 10 based on the data 500 stored in the storage unit 51 and the global position information acquired by the acquisition unit 52. For example, the identification unit 53 identifies a cylindrical three-dimensional virtual space with the position of user A as the center of the bottom circle as the spatial structure data from the global position information received from the communication terminal 10 of user A. The identification unit 53 may also identify the spatial structure data based on the user's viewing direction included in the user's viewing state. Specifically, the identification unit 53 may identify a three-dimensional virtual space that falls within the range of the viewing angle of user A as the spatial structure data from the three-dimensional virtual space identified based on the position of user A, based on the viewing direction of user A. In the example shown in FIG. 6, the identification unit 53 identifies the spatial structure data D from the global position information of user A and the viewing direction of user A.

第1推定部54は、特定部53によって特定された空間構造データにおいて、ユーザの位置に基づいて、ユーザの視野に含まれ得る一又は複数のオブジェクトをユーザが視認できる状態である理想視認状態を推定する。具体的には、第1推定部54は、特定部53によってユーザAの位置に基づいて特定された空間構造データに含まれる一又は複数のオブジェクトを推定し、該オブジェクトを視認できる状態を理想視認状態とする。あるいは、第1推定部54は、特定部53によってユーザAの位置及びユーザAの視認方向に基づいて特定された空間構造データに含まれる一又は複数のオブジェクトを推定し、該オブジェクトを視認できる状態を理想視認状態とする。図6に示される例では、第1推定部54は、特定された空間構造データDに含まれるオブジェクトX1,X2,X3を視認できる状態を、理想視認状態であると推定する。 The first estimation unit 54 estimates an ideal viewing state in which the user can visually recognize one or more objects that may be included in the user's field of view based on the user's position in the spatial structure data identified by the identification unit 53. Specifically, the first estimation unit 54 estimates one or more objects included in the spatial structure data identified by the identification unit 53 based on the position of user A, and sets the state in which the objects can be visually recognized as the ideal viewing state. Alternatively, the first estimation unit 54 estimates one or more objects included in the spatial structure data identified by the identification unit 53 based on the position of user A and the viewing direction of user A, and sets the state in which the objects can be visually recognized as the ideal viewing state. In the example shown in FIG. 6, the first estimation unit 54 estimates that the state in which objects X1, X2, and X3 included in the identified spatial structure data D can be visually recognized is the ideal viewing state.

また、第1推定部54は、ユーザの視認状態に含まれるユーザの移動情報から、ユーザの未来位置を推定し、特定された空間構造データにおいて、ユーザの未来位置に基づいて理想視認状態を推定してもよい。具体的には、第1推定部54は、ユーザのグローバル位置情報の経時的な変化から、ユーザの移動先となり得る一又は複数の位置を推定する。そして、第1推定部54は、推定した位置ごとに理想視認状態を推定する。例えば、第1推定部54は、1分ごとのユーザのグローバル位置情報から、ユーザの移動先を、ユーザの未来位置として推定する。そして、第1推定部54は、各未来位置において理想視認状態を推定する。 The first estimation unit 54 may also estimate the user's future position from the user's movement information included in the user's viewing state, and estimate an ideal viewing state based on the user's future position in the identified spatial structure data. Specifically, the first estimation unit 54 estimates one or more positions to which the user may move from a change over time in the user's global position information. Then, the first estimation unit 54 estimates the ideal viewing state for each estimated position. For example, the first estimation unit 54 estimates the user's destination as the user's future position from the user's global position information every minute. Then, the first estimation unit 54 estimates the ideal viewing state at each future position.

第1推定部54は、ユーザの視認状態に含まれるユーザの目的情報とオブジェクトの種別との関連度合いを考慮して、ユーザの視野に含まれ得る全てのオブジェクトから一又は複数のオブジェクトを特定し、特定したオブジェクトをユーザが視認できる状態である理想視認状態を推定してもよい。具体的には、第1推定部54は、特定された空間構造データに含まれる一又は複数のオブジェクトにおいて、取得部52によって取得されたユーザの目的情報と関連度合いの高い種別のオブジェクトを特定し、特定したオブジェクトをユーザが視認できる状態を理想視認状態とする。第1推定部54は、例えば、ユーザの目的情報に、ユーザが運転中であるという情報が含まれる場合、推定した理想状態において、「交通標識」という種別を持つオブジェクトを、ユーザが運転中であるという情報と関連度合いの高い種別のオブジェクトとして特定する。また、第1推定部54は、例えば、ユーザの目的情報に、ユーザがラーメンを好むという情報が含まれる場合、ラーメン屋の看板やインスタントラーメンの広告などの「ラーメン」という種別を持つオブジェクトを、ユーザがラーメンを好むという情報と関連度合いの高い種別を持つオブジェクトとして特定する。そして、第1推定部54は、特定したオブジェクトをユーザが視認できる状態を理想視認状態とする。 The first estimation unit 54 may identify one or more objects from all objects that may be included in the user's field of view, taking into consideration the degree of association between the user's purpose information included in the user's viewing state and the type of object, and estimate an ideal viewing state in which the user can view the identified object. Specifically, the first estimation unit 54 identifies an object of a type that is highly related to the user's purpose information acquired by the acquisition unit 52 in one or more objects included in the identified spatial structure data, and sets the state in which the user can view the identified object as the ideal viewing state. For example, when the user's purpose information includes information that the user is driving, the first estimation unit 54 identifies an object having a type of "traffic sign" in the estimated ideal state as an object of a type that is highly related to the information that the user is driving. Also, for example, when the user's purpose information includes information that the user likes ramen, the first estimation unit 54 identifies an object having a type of "ramen", such as a signboard of a ramen shop or an advertisement for instant ramen, as an object having a type that is highly related to the information that the user likes ramen. The first estimation unit 54 then determines the ideal viewing state as a state in which the user can view the identified object.

第2推定部55は、第1推定部54によって推定された理想視認状態と、ユーザの視認状態とを比較し、理想視認状態とユーザの視認状態との差分から、ユーザが視認できていないオブジェクトを推定する。具体的には、第2推定部55は、理想視認状態に含まれるオブジェクトの中で、ユーザの視認状態に含まれないオブジェクトを差分オブジェクトとして特定する。第2推定部55は、特定した差分オブジェクトを、ユーザが視認できていないオブジェクトとする。図6に示される例では、第2推定部55は、特定された空間構造データDに含まれるオブジェクトX1,X2,X3を視認できる状態(理想視認状態)と、撮像画像P1に映っているオブジェクトX3をユーザAが視認している状態(ユーザAの視認状態)とを比較する。第2推定部55は、理想視認状態に含まれるが、ユーザの視認状態には含まれないオブジェクトであるオブジェクトX1,X2を差分オブジェクトとして特定し、差分オブジェクトとして特定したオブジェクトX1,X2をユーザが視認できていないオブジェクトと推定する。 The second estimation unit 55 compares the ideal viewing state estimated by the first estimation unit 54 with the user's viewing state, and estimates an object that the user cannot view from the difference between the ideal viewing state and the user's viewing state. Specifically, the second estimation unit 55 identifies an object that is not included in the user's viewing state as a difference object among the objects included in the ideal viewing state. The second estimation unit 55 regards the identified difference object as an object that the user cannot view. In the example shown in FIG. 6, the second estimation unit 55 compares a state in which the objects X1, X2, and X3 included in the identified spatial structure data D can be viewed (ideal viewing state) with a state in which the user A views the object X3 shown in the captured image P1 (user A's viewing state). The second estimation unit 55 identifies the objects X1 and X2, which are included in the ideal viewing state but not included in the user's viewing state, as difference objects, and estimates that the objects X1 and X2 identified as difference objects are objects that the user cannot view.

出力部56は、第2推定部55によってユーザが視認できていないと推定されたオブジェクトを、ユーザが視認できるように出力する。具体的には、出力部56は、ユーザが視認できていないオブジェクトをユーザが視認できるように、ユーザの位置とユーザが視認できていないと推定されたオブジェクトの位置との離間距離を変更し、ユーザが視認できていないと推定されたオブジェクトを出力する。一例としては、出力部56は、ユーザの位置と該オブジェクトの位置とを直線で結び、該直線上において該オブジェクトをユーザに近づけるように離間距離等を変更する。出力部56は、表示位置を変更したオブジェクトをユーザが携帯する通信端末10に送信する。図7及び図8に示される例では、出力部56は、ユーザAが視認できていないオブジェクトX1,X2が、ユーザAから見て障害物D1の手前に表示されるように、オブジェクトX1,X2の離間距離を変更する。出力部56は、変更した離間距離と、オブジェクトX1及びX2とをユーザAの通信端末10に送信する。ユーザAの通信端末10は、空間構造サーバ50から変更された離間距離と、オブジェクトX1,X2を受信する。通信端末10は、オブジェクトX1の形状を変更された離間距離において表示したオブジェクトY1を表示する。通信端末10は、オブジェクトX2についても同様に表示処理を行い、オブジェクトY2を表示する。 The output unit 56 outputs the object that is estimated by the second estimation unit 55 as being invisible to the user so that the user can see it. Specifically, the output unit 56 changes the distance between the user's position and the position of the object that is estimated to be invisible to the user so that the user can see the object that the user cannot see, and outputs the object that is estimated to be invisible to the user. As an example, the output unit 56 connects the user's position and the position of the object with a straight line, and changes the distance, etc. so that the object is closer to the user on the straight line. The output unit 56 transmits the object whose display position has been changed to the communication terminal 10 carried by the user. In the example shown in FIG. 7 and FIG. 8, the output unit 56 changes the distance between the objects X1 and X2 so that the objects X1 and X2 that the user A cannot see are displayed in front of the obstacle D1 as seen from the user A. The output unit 56 transmits the changed distance and the objects X1 and X2 to the communication terminal 10 of the user A. User A's communication terminal 10 receives the changed separation distance and objects X1 and X2 from the spatial structure server 50. The communication terminal 10 displays object Y1, which shows the shape of object X1 at the changed separation distance. The communication terminal 10 similarly performs display processing on object X2, and displays object Y2.

更新部57は、取得部52によって取得されたユーザの視認状態に含まれる現実空間のオブジェクトの少なくとも一部に基づいて、空間構造データにおけるオブジェクトの情報を更新する。具体的には、更新部57は、取得部52によって撮像画像から推定された現実空間のオブジェクトの少なくとも一部に基づいて、記憶部51に保存された空間構造データにおいてオブジェクトの情報を最新の状態に更新する。図1に示される例では、ユーザの通信端末10や周囲に配置される通信端末10は、オブジェクトX1,X2を撮像し、撮像画像、グローバル位置情報及び撮像方向(ユーザの視認方向)を空間構造サーバ50にリアルタイムに送信する。取得部52は、撮像画像及び撮像方向から、ある方向から見たオブジェクトX1,X2の位置または形状あるいはその両方を推定する。更新部57は、取得部52によって推定(取得)されたある方向から見たオブジェクトX1,X2の情報に基づいて、記憶部51に保存された空間構造データにおいてオブジェクトX1,X2の位置または形状あるいはその両方をリアルタイムに更新する。 The update unit 57 updates the information of the object in the spatial structure data based on at least a part of the object in the real space included in the visual state of the user acquired by the acquisition unit 52. Specifically, the update unit 57 updates the information of the object in the spatial structure data stored in the storage unit 51 to the latest state based on at least a part of the object in the real space estimated from the captured image by the acquisition unit 52. In the example shown in FIG. 1, the user's communication terminal 10 and communication terminals 10 arranged in the surroundings capture images of objects X1 and X2 and transmit the captured images, global position information, and imaging direction (user's visual direction) to the spatial structure server 50 in real time. The acquisition unit 52 estimates the position and/or shape of the objects X1 and X2 viewed from a certain direction from the captured image and imaging direction. The update unit 57 updates the position and/or shape of the objects X1 and X2 in the spatial structure data stored in the storage unit 51 in real time based on the information of the objects X1 and X2 viewed from a certain direction estimated (acquired) by the acquisition unit 52.

次に、本実施形態に係る情報処理システム1が行う処理、具体的には、ユーザが携帯する通信端末10の位置及びユーザの視認状態等の情報を取得し、通信端末10の位置等から理想視認状態を推定し、理想視認状態とユーザの視認状態とを比較し、理想視認状態とユーザの視認状態との差分から、ユーザの視線の先にあるもののユーザが視認できていない情報を推定し、ユーザに該情報を提示する処理について、図9を参照して、説明する。また、取得した情報に基づいて、3次元仮想空間上のオブジェクトを更新する処理について、図10を参照して説明する。図9、図10は、情報処理システム1が行う処理を示すフローチャートである。 Next, the process performed by the information processing system 1 according to this embodiment will be described with reference to FIG. 9, specifically, the process of acquiring information such as the position of the communication terminal 10 carried by the user and the user's viewing state, estimating an ideal viewing state from the position of the communication terminal 10, etc., comparing the ideal viewing state with the user's viewing state, estimating information that is in the user's line of sight but that the user is unable to view from the difference between the ideal viewing state and the user's viewing state, and presenting the information to the user. Also, the process of updating an object in the three-dimensional virtual space based on the acquired information will be described with reference to FIG. 10. FIGS. 9 and 10 are flowcharts showing the process performed by the information processing system 1.

図9に示されるように、情報処理システム1では、取得部52によって、ユーザの位置、及び、ユーザの視認状態が取得される(ステップS101)。具体的には、取得部52によって、グローバル位置情報が取得されると同時に、現実空間においてユーザが実際に視認していると推定される状態、現実空間のオブジェクトの少なくとも一部、ユーザの移動情報、ユーザの視認方向、及び、ユーザの目的情報のいずれか1つを少なくとも含むユーザの視認状態が取得されてもよい。続いて、特定部53によって、ユーザの位置に対応する空間構造データが特定される(ステップS102)。また、特定部53によって、ユーザの視認状態に含まれるユーザの視認方向にさらに基づいて、空間構造データが特定されてもよい。 As shown in FIG. 9, in the information processing system 1, the acquisition unit 52 acquires the user's position and the user's viewing state (step S101). Specifically, the acquisition unit 52 may acquire global position information and at the same time acquire the user's viewing state including at least one of the state that is estimated to be actually viewed by the user in real space, at least a part of an object in real space, the user's movement information, the user's viewing direction, and the user's purpose information. Next, the identification unit 53 identifies spatial structure data corresponding to the user's position (step S102). The identification unit 53 may also identify the spatial structure data based on the user's viewing direction included in the user's viewing state.

続いて、第1推定部54によって、特定部53によって特定された空間構造データにおいて、ユーザの位置に基づいて理想視認状態を推定する(ステップS103)。また、第1推定部54によって、ユーザの視認方向にさらに基づいて理想視認状態が推定されてもよい。加えて、第1推定部54によって、ユーザの移動情報から、ユーザの未来位置が推定されてもよい。第1推定部54によって、特定された空間構造データにおいて、ユーザの未来位置に基づいて理想視認状態が推定されてもよい。さらに、第1推定部54によって、ユーザの目的情報とオブジェクトの種別との関連度合いが考慮されて、ユーザの視野に含まれ得る全てのオブジェクトから一又は複数のオブジェクトが特定されてもよい。そして、第1推定部54によって、特定された全てのオブジェクトをユーザが視認できる状態である理想視認状態が推定される。 Next, the first estimation unit 54 estimates an ideal viewing state based on the user's position in the spatial structure data identified by the identification unit 53 (step S103). The first estimation unit 54 may also estimate the ideal viewing state based on the user's viewing direction. In addition, the first estimation unit 54 may estimate the user's future position from the user's movement information. The first estimation unit 54 may estimate the ideal viewing state based on the user's future position in the identified spatial structure data. Furthermore, the first estimation unit 54 may take into account the degree of association between the user's purpose information and the type of object, and identify one or more objects from all objects that may be included in the user's field of view. Then, the first estimation unit 54 estimates an ideal viewing state in which the user can view all of the identified objects.

続いて、第2推定部55によって、第1推定部54によって推定された理想視認状態と、ユーザの視認状態とが比較される。そして、第2推定部55によって、理想視認状態とユーザの視認状態との差分から、ユーザが視認できていないオブジェクトが推定される(ステップS104)。続いて、出力部56によって、ユーザが視認できていないと推定されたオブジェクトを、ユーザが視認できるように、該オブジェクトが出力される(ステップS105)。具体的には、出力部56によって、ユーザの位置とユーザが視認できていないオブジェクトの位置との離間距離が変更される。そして、出力部56によって、該オブジェクトが出力される。 Then, the second estimation unit 55 compares the ideal viewing state estimated by the first estimation unit 54 with the user's viewing state. Then, the second estimation unit 55 estimates an object that the user is unable to view from the difference between the ideal viewing state and the user's viewing state (step S104). Next, the output unit 56 outputs the object that is estimated to be unable to be viewed by the user so that the user can view the object (step S105). Specifically, the output unit 56 changes the distance between the user's position and the position of the object that the user is unable to view. Then, the output unit 56 outputs the object.

図10に示されるように、情報処理システム1では、ステップS101と同様に、取得部52によって、ユーザの位置、及び、ユーザの視認状態が取得される(ステップS201)。具体的には、取得部52によって、ユーザが携帯する端末、またはユーザの周囲に配置された監視カメラ等の通信端末10について、通信端末10による撮像画像にどのようなオブジェクトが含まれるかが推定され、現実空間のオブジェクの少なくとも一部、及び撮像方向(ユーザの視認方向)が取得される。 10, in the information processing system 1, the acquisition unit 52 acquires the user's position and the user's viewing state (step S201), similar to step S101. Specifically, the acquisition unit 52 estimates what objects are included in the image captured by the communication terminal 10, for the terminal carried by the user or a communication terminal 10 such as a surveillance camera placed around the user, and acquires at least a portion of the object in real space and the imaging direction (user's viewing direction).

続いて、更新部57によって、取得部52によって取得されたユーザの視認状態に含まれる現実空間のオブジェクトの少なくとも一部に基づいて、空間構造データにおいて、オブジェクトが更新される(ステップS202)。 Next, the update unit 57 updates the objects in the spatial structure data based on at least a portion of the objects in real space included in the user's visual state acquired by the acquisition unit 52 (step S202).

次には、本実施形態に係る情報処理システム1の作用効果について説明する。 Next, we will explain the effects of the information processing system 1 according to this embodiment.

本実施形態に係る情報処理システム1は、現実空間のオブジェクトを3次元の仮想空間に表したデータであって、現実空間のオブジェクトの位置に対応する仮想空間上の位置においてオブジェクトの形状を表す空間構造データを記憶する記憶部51と、ユーザの位置、及びユーザの視認状態を取得する取得部52と、記憶部51から、ユーザの位置に対応する空間構造データを特定する特定部53と、特定部53によって特定された空間構造データにおいて、ユーザの位置に基づいて、ユーザの視野に含まれ得る一又は複数のオブジェクトをユーザが視認できる状態である理想視認状態を推定する第1推定部54と、第1推定部54によって推定された理想視認状態と、ユーザの視認状態とを比較し、理想視認状態とユーザの視認状態との差分から、ユーザが視認できていないオブジェクトを推定する第2推定部55と、第2推定部55によってユーザが視認できていないと推定されたオブジェクトを、ユーザが視認できるように出力する出力部56と、を備える。 The information processing system 1 according to this embodiment includes a storage unit 51 that stores spatial structure data that represents an object in a real space in a three-dimensional virtual space and that represents the shape of the object at a position in the virtual space that corresponds to the position of the object in the real space; an acquisition unit 52 that acquires the user's position and the user's viewing state; a determination unit 53 that identifies the spatial structure data that corresponds to the user's position from the storage unit 51; a first estimation unit 54 that estimates an ideal viewing state in which the user can view one or more objects that may be included in the user's field of view based on the user's position in the spatial structure data identified by the determination unit 53; a second estimation unit 55 that compares the ideal viewing state estimated by the first estimation unit 54 with the user's viewing state and estimates an object that the user cannot view from the difference between the ideal viewing state and the user's viewing state; and an output unit 56 that outputs the object that the second estimation unit 55 estimates to be unable to view the user so that the user can view it.

本実施形態に係る情報処理システム1では、ユーザの位置、及びユーザの視認状態が取得され、ユーザの位置に対応する空間構造データが特定され、特定された空間構造データにおいて、ユーザの位置に基づいて理想視認状態が推定され、理想視認状態と、ユーザの視認状態とが比較され、理想視認状態とユーザの視認状態の差分から、ユーザが視認できていないオブジェクトが推定され、ユーザが視認できていないと推定されたオブジェクトをユーザが視認できるように、該オブジェクトが出力される。ここで、現実空間において、ユーザの周囲の情報が、物理的に遮られ、ユーザが該情報を視認できていないことにより、情報を利用する側であるユーザの利便性や、情報を提供する側の個人あるいは団体の利益が損なわれてしまう場合がある。例えば、車や街路樹等により交通標識が遮られることにより、運転中あるいは歩行中のユーザの安全性が損なわれてしまう。また、電車において企業の広告が、乗客やつり革等によって遮られることにより、ユーザが広告を視認する機会が失われ、企業の利益が損なわれてしまう。この点、本発明の一様態に係る情報処理システムでは、現実空間において、ユーザが視認できていないオブジェクトが、AR表示機器等のユーザの端末に表示される。これにより、ユーザが視認できていない情報を、適切にユーザに提示することができる。その結果、情報を利用する側であるユーザの利便性や、情報を提供する側の個人あるいは団体の利益を担保することができる。 In the information processing system 1 according to the present embodiment, the user's position and the user's visual state are acquired, spatial structure data corresponding to the user's position is identified, and in the identified spatial structure data, an ideal visual state is estimated based on the user's position, the ideal visual state is compared with the user's visual state, and an object that the user is unable to visually recognize is estimated from the difference between the ideal visual state and the user's visual state, and the object that is estimated to be unable to visually recognize is output so that the user can visually recognize the object. Here, in the real space, information about the user's surroundings is physically blocked, and the user is unable to visually recognize the information, which may impair the convenience of the user who uses the information and the profits of individuals or groups who provide the information. For example, traffic signs are blocked by cars, roadside trees, etc., which impairs the safety of users while driving or walking. In addition, when a company's advertisement on a train is blocked by passengers, hanging straps, etc., the user loses the opportunity to view the advertisement, which impairs the company's profits. In this regard, in an information processing system according to one aspect of the present invention, objects that the user cannot see in real space are displayed on the user's terminal, such as an AR display device. This makes it possible to properly present information that the user cannot see to the user. As a result, it is possible to ensure the convenience of the user who uses the information, and the profits of the individual or organization that provides the information.

図11に示される例では、ユーザが運転する場合、ユーザが運転する車の前を走るトラックにより信号機が遮られている。ここで、例えば、信号が黄色から赤に変わる直前であるとき、運転中のユーザから信号機が見えない場合、信号が赤であるにもかかわらずユーザが運転する車が交差点の中を走ってしまう危険性がある。つまり、信号機が見えないことにより、運転中のユーザの安全性が損なわれてしまう。この点、本発明の一様態に係る情報処理システムでは、該信号機が、AR表示機器等のユーザの通信端末10にオブジェクトZとして表示される。これにより、ユーザが視認できていない情報である信号機を、適切にユーザに提示することができる。 In the example shown in FIG. 11, when a user is driving, a traffic light is blocked by a truck traveling in front of the vehicle driven by the user. Here, for example, if the user cannot see the traffic light when the traffic light is about to change from yellow to red, there is a risk that the vehicle driven by the user will drive through the intersection even though the light is red. In other words, the safety of the user while driving is compromised because the traffic light cannot be seen. In this regard, in an information processing system according to one aspect of the present invention, the traffic light is displayed as an object Z on the user's communication terminal 10, such as an AR display device. This makes it possible to appropriately present the traffic light, which is information that the user cannot see, to the user.

出力部56は、ユーザが視認できていないオブジェクトをユーザが視認できるように、ユーザの位置とユーザが視認できていないと推定されたオブジェクトの位置との離間距離を変更し、ユーザが視認できていないと推定されたオブジェクトを出力する。このような構成では、ユーザが視認できていないオブジェクトが、ユーザの視認可能な位置に移動される。これにより、ユーザが視認できていない情報を、適切にユーザに提示することができる。 The output unit 56 changes the distance between the user's position and the position of the object that is estimated to be invisible to the user so that the user can see the object that the user cannot see, and outputs the object that is estimated to be invisible to the user. In this configuration, the object that the user cannot see is moved to a position that is visible to the user. This makes it possible to appropriately present information that the user cannot see to the user.

取得部52は、ユーザが携帯する通信端末10又はユーザの周囲に配置された通信端末10において撮像された情報に基づき、ユーザの視認状態を取得してもよい。このような構成では、ユーザの視認状態が、様々な端末から取得される。これにより、ユーザが視認できていない情報を、より適切にユーザに提示できる。例えば、ユーザから見えないオブジェクトが存在する場合、ユーザが携帯する通信端末10や街頭に配置された監視カメラ(通信端末10)によって、ユーザの視認状態が取得される。これにより、ユーザが視認できていないオブジェクトを、適切にユーザに提示することができる。 The acquisition unit 52 may acquire the user's viewing state based on information captured by a communication terminal 10 carried by the user or a communication terminal 10 placed around the user. In such a configuration, the user's viewing state is acquired from various terminals. This makes it possible to more appropriately present information that the user is unable to view to the user. For example, when there is an object that is not visible to the user, the user's viewing state is acquired by the communication terminal 10 carried by the user or a surveillance camera (communication terminal 10) placed on the street. This makes it possible to appropriately present to the user objects that the user is unable to view.

本実施形態に係る情報処理システム1は、取得部52によって取得されたユーザの視認状態に含まれる現実空間のオブジェクトに基づいて、空間構造データにおける該オブジェクトの情報を更新する更新部57を更に備えてもよい。このような構成によれば、例えば、ユーザが携帯する端末やユーザの周囲に配置される監視カメラ等によって、空間構造データにおけるオブジェクトが最新の状態に更新され、空間構造サーバ50から通信端末10に送信されるオブジェクトの情報が、最新の状態となる。これにより、ユーザが視認できていない情報を、ユーザにより適切に提示することができる。 The information processing system 1 according to this embodiment may further include an update unit 57 that updates the information of an object in the spatial structure data based on the object in real space included in the user's visual state acquired by the acquisition unit 52. With this configuration, for example, the object in the spatial structure data is updated to the latest state by a terminal carried by the user or a surveillance camera placed around the user, and the object information transmitted from the spatial structure server 50 to the communication terminal 10 is updated to the latest state. This makes it possible to more appropriately present information that the user is unable to visually recognize to the user.

取得部52は、ユーザの視認方向を含むユーザの視認状態を取得し、特定部53は、ユーザの視認状態に含まれるユーザの視認方向、及び、ユーザの位置に基づいて、空間構造データを特定する。このような構成によれば、ユーザが視認する方向のみにおいて、空間構造データの特定、及び理想視認状態の推定が行われることで、上記特定及び上記推定における情報処理システム1の処理量が軽減される。これにより、ユーザの利便性を損なうことなく、情報処理システム1における負荷を軽減することができる。 The acquisition unit 52 acquires the user's viewing state including the user's viewing direction, and the identification unit 53 identifies the spatial structure data based on the user's viewing direction and the user's position included in the user's viewing state. With this configuration, the spatial structure data is identified and the ideal viewing state is estimated only in the direction in which the user views, thereby reducing the amount of processing by the information processing system 1 in the above identification and estimation. This makes it possible to reduce the load on the information processing system 1 without compromising the convenience of the user.

取得部52は、ユーザの移動情報を含むユーザの視認状態を取得し、第1推定部54は、ユーザの移動情報から、ユーザの未来位置を推定し、特定された前記空間構造データにおいて、ユーザの未来位置に基づいて理想視認状態を推定する。このような構成によれば、ユーザが今後移動する先となり得る位置における、理想視認状態が推定される。これにより、ユーザが視認できていない情報を、遅延を抑えつつユーザに提示することができる。具体的には、例えば、ユーザの移動情報に、ユーザの移動履歴や移動目的が含まれる場合、ユーザの移動先を予測して事前にユーザが視認できていない情報が推定される。これにより、例えば、ユーザが乗用車等で速く移動する場合においても、ユーザが視認できていない情報を、遅延を抑えつつユーザに提示することができる。 The acquisition unit 52 acquires the user's visual state including the user's movement information, and the first estimation unit 54 estimates the user's future position from the user's movement information and estimates an ideal visual state based on the user's future position in the identified spatial structure data. With this configuration, an ideal visual state is estimated at a position to which the user may move in the future. This makes it possible to present information that the user is unable to visually recognize to the user while minimizing delays. Specifically, for example, when the user's movement information includes the user's movement history and purpose of movement, the user's destination is predicted and information that the user is unable to visually recognize in advance is estimated. This makes it possible to present information that the user is unable to visually recognize to the user while minimizing delays, even when the user is moving quickly in a passenger car or the like.

記憶部51は、オブジェクトの種別を更に記憶し、取得部52は、ユーザの目的情報を含むユーザの視認状態を取得し、第1推定部54は、ユーザの視認状態に含まれるユーザの目的情報と種別との関連度合いを考慮して、ユーザの視野に含まれ得る全てのオブジェクトから一又は複数のオブジェクトを特定し、特定したオブジェクトをユーザが視認できる状態である理想視認状態を推定する。このような構成によれば、ユーザの目的情報と関連するオブジェクトが、ユーザが視認できていないオブジェクトとして推定され、該オブジェクトが、ユーザに提示される。これにより、ユーザの利便性及びユーザの体感品質を向上させることができる。具体的には、ユーザが運転をしている場合、運転に関連する情報である交通標識のみが、ユーザが視認できていないオブジェクトとして推定され、該オブジェクトが、ユーザに提示される。これにより、運転中のユーザにとって不必要な情報が提示されることを防ぎつつ、必要な情報のみを確実に提示することができるため、運転中のユーザの利便性が向上し、安全性も担保される。また、上記の構成によれば、理想視認状態に含まれるオブジェクトの中でユーザの目的に沿わないオブジェクトが、理想視認状態から除かれ、理想視認状態に含まれるオブジェクトの数が減少する。これにより、ユーザの利便性を向上させると同時に、情報処理システム1における負荷を軽減することができる。 The storage unit 51 further stores the type of object, the acquisition unit 52 acquires the user's viewing state including the user's purpose information, and the first estimation unit 54 identifies one or more objects from all objects that can be included in the user's field of view, taking into account the degree of association between the user's purpose information included in the user's viewing state and the type, and estimates an ideal viewing state in which the user can view the identified object. According to this configuration, an object related to the user's purpose information is estimated as an object that the user cannot view, and the object is presented to the user. This can improve the user's convenience and the user's quality of experience. Specifically, when the user is driving, only traffic signs, which are information related to driving, are estimated as objects that the user cannot view, and the object is presented to the user. This can prevent information unnecessary for the user while driving from being presented, while reliably presenting only necessary information, thereby improving the user's convenience while driving and ensuring safety. In addition, according to the above configuration, objects that do not meet the user's purpose among the objects included in the ideal viewing state are removed from the ideal viewing state, and the number of objects included in the ideal viewing state is reduced. This improves user convenience while reducing the load on the information processing system 1.

次に、情報処理システム1に含まれた通信端末10、位置測位サーバ30、及び、空間構造サーバ50のハードウェア構成について、図12を参照して説明する。上述の通信端末10、位置測位サーバ30、及び、空間構造サーバ50は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 Next, the hardware configuration of the communication terminal 10, the positioning server 30, and the spatial structure server 50 included in the information processing system 1 will be described with reference to FIG. 12. The communication terminal 10, the positioning server 30, and the spatial structure server 50 described above may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, etc.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。通信端末10、位置測位サーバ30、及び、空間構造サーバ50のハードウェア構成は、図12に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 In the following description, the term "apparatus" may be interpreted as a circuit, device, unit, etc. The hardware configurations of the communication terminal 10, the positioning server 30, and the spatial structure server 50 may be configured to include one or more of the devices shown in FIG. 12, or may be configured to exclude some of the devices.

通信端末10、位置測位サーバ30、及び、空間構造サーバ50における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。 The functions of the communication terminal 10, the positioning server 30, and the spatial structure server 50 are realized by loading specific software (programs) onto hardware such as the processor 1001 and memory 1002, causing the processor 1001 to perform calculations and control communication by the communication device 1004 and the reading and/or writing of data in the memory 1002 and storage 1003.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、位置測位サーバ30の測位部32等の制御機能はプロセッサ1001で実現されてもよい。 The processor 1001, for example, operates an operating system to control the entire computer. The processor 1001 may be configured as a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic unit, a register, etc. For example, the control functions of the positioning unit 32 of the positioning server 30, etc. may be realized by the processor 1001.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。 The processor 1001 also reads out programs (program codes), software modules, and data from the storage 1003 and/or the communication device 1004 into the memory 1002, and executes various processes according to these. The programs used are those that cause a computer to execute at least some of the operations described in the above embodiments.

例えば、位置測位サーバ30の測位部32等の制御機能は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 For example, the control functions of the positioning unit 32 of the positioning server 30 may be realized by a control program stored in the memory 1002 and running on the processor 1001, and the other functional blocks may be realized in a similar manner. Although the above-mentioned various processes have been described as being executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. The processor 1001 may be implemented in one or more chips. The program may be transmitted from a network via a telecommunications line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and may be composed of at least one of, for example, a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), a RAM (Random Access Memory), etc. The memory 1002 may also be called a register, a cache, a main memory (primary storage device), etc. The memory 1002 can store executable programs (program codes), software modules, etc. for implementing a wireless communication method according to one embodiment of the present invention.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CDROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。 Storage 1003 is a computer-readable recording medium, and may be, for example, at least one of an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magneto-optical disk (e.g., a compact disk, a digital versatile disk, a Blu-ray (registered trademark) disk), a smart card, a flash memory (e.g., a card, a stick, a key drive), a floppy (registered trademark) disk, a magnetic strip, and the like. Storage 1003 may also be referred to as an auxiliary storage device. The above-mentioned storage medium may be, for example, a database, a server, or other suitable medium including memory 1002 and/or storage 1003.

通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。 The communication device 1004 is hardware (transmitting/receiving device) for communicating between computers via a wired and/or wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, etc.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (e.g., a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that accepts input from the outside. The output device 1006 is an output device (e.g., a display, a speaker, an LED lamp, etc.) that performs output to the outside. Note that the input device 1005 and the output device 1006 may be integrated into one configuration (e.g., a touch panel).

また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。 In addition, each device, such as the processor 1001 and memory 1002, is connected by a bus 1007 for communicating information. The bus 1007 may be configured as a single bus, or may be configured as different buses between the devices.

また、通信端末10、位置測位サーバ30、及び、空間構造サーバ50は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。 The communication terminal 10, the positioning server 30, and the spatial structure server 50 may be configured to include hardware such as a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA), and some or all of the functional blocks may be realized by the hardware. For example, the processor 1001 may be implemented by at least one of these pieces of hardware.

以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although the present embodiment has been described in detail above, it is clear to those skilled in the art that the present embodiment is not limited to the embodiment described in this specification. The present embodiment can be implemented in modified and altered forms without departing from the spirit and scope of the present invention as defined by the claims. Therefore, the description in this specification is intended as an illustrative example and does not have any restrictive meaning with respect to the present embodiment.

例えば、情報処理システム1は、通信端末10、位置測位サーバ30、及び、空間構造サーバ50を含んで構成されているとして説明したが、これに限定されず、情報処理システム1の各機能が、空間構造サーバ50によって実現されてもよい。 For example, the information processing system 1 has been described as including a communication terminal 10, a positioning server 30, and a spatial structure server 50, but is not limited to this, and each function of the information processing system 1 may be realized by the spatial structure server 50.

また、本実施形態では、空間構造サーバ50が、記憶部51と、取得部52と、特定部53と、第1推定部54と、第2推定部55と、出力部56と、更新部57と、を備えている構成を例示した。しかしながら、情報処理システム1では、他のサーバや通信端末10が、これらの各機能的構成要素の一部あるいは全体を備えていてもよい。 In addition, in this embodiment, the spatial structure server 50 is exemplified as having a storage unit 51, an acquisition unit 52, an identification unit 53, a first estimation unit 54, a second estimation unit 55, an output unit 56, and an update unit 57. However, in the information processing system 1, other servers or communication terminals 10 may have some or all of these functional components.

本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broad-band)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-Wide Band)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 Each aspect/embodiment described herein may be applied to systems utilizing LTE (Long Term Evolution), LTE-Advanced (LTE-A), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-Wide Band), Bluetooth (registered trademark), or other suitable systems and/or next generation systems based on and enhanced thereon.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The steps, sequences, flow charts, etc. of each aspect/embodiment described herein may be reordered unless inconsistent. For example, the methods described herein present elements of various steps in an example order and are not limited to the particular order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input and output information may be stored in a specific location (e.g., memory) or may be managed in a management table. The input and output information may be overwritten, updated, or added to. The output information may be deleted. The input information may be sent to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be based on a value represented by one bit (0 or 1), a Boolean (true or false) value, or a numerical comparison (e.g., with a predetermined value).

本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described in this specification may be used alone, in combination, or switched depending on the execution. In addition, notification of specific information (e.g., notification that "X is the case") is not limited to being done explicitly, but may be done implicitly (e.g., not notifying the specific information).

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software shall be construed broadly to mean instructions, instruction sets, code, code segments, program code, programs, subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, threads of execution, procedures, functions, etc., whether referred to as software, firmware, middleware, microcode, hardware description language, or otherwise.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Software, instructions, etc. may also be transmitted and received over a transmission medium. For example, if the software is transmitted from a website, server, or other remote source using wired technologies, such as coaxial cable, fiber optic cable, twisted pair, and digital subscriber line (DSL), and/or wireless technologies, such as infrared, radio, and microwave, these wired and/or wireless technologies are included within the definition of a transmission medium.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれか1項を使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described herein may be represented using any one of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may be represented by voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, optical fields or photons, or any combination thereof.

なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 Note that terms explained in this specification and/or terms necessary for understanding this specification may be replaced with terms having the same or similar meanings.

また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 In addition, the information, parameters, etc. described in this specification may be expressed as absolute values, as relative values from a predetermined value, or as corresponding other information.

通信端末は、当業者によって、移動通信端末、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語で呼ばれる場合もある。 A communications terminal may also be referred to by those skilled in the art as a mobile communications terminal, subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communications device, remote device, mobile subscriber station, access terminal, mobile terminal, wireless terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable terminology.

本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used herein, the phrase "based on" does not mean "based only on," unless expressly stated otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."

本明細書で「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 When designations such as "first," "second," and the like are used herein, any reference to that element is not intended to generally limit the quantity or order of those elements. These designations may be used herein as a convenient way to distinguish between two or more elements. Thus, a reference to a first and a second element does not imply that only two elements may be employed therein or that the first element must precede the second element in some way.

「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 To the extent that the terms "include," "including," and variations thereof are used herein in the specification or claims, these terms are intended to be inclusive, similar to the term "comprising." Further, the term "or" as used herein is not intended to be an exclusive or.

本明細書において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。 In this specification, multiple devices are included unless the context or technical basis clearly indicates that only one device exists.

本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。 Throughout this disclosure, the plural is intended to be included unless the context clearly indicates the singular.

1…情報処理システム、51…記憶部、52…取得部、53…特定部、54…第1推定部、55…第2推定部、56…出力部、57…更新部。

1...information processing system, 51...storage unit, 52...acquisition unit, 53...identification unit, 54...first estimation unit, 55...second estimation unit, 56...output unit, 57...update unit.

Claims (7)

現実空間のオブジェクトを3次元の仮想空間に表したデータであって、前記現実空間のオブジェクトの位置に対応する前記仮想空間上の位置において前記オブジェクトの形状を表す空間構造データを記憶する記憶部と、
ユーザの位置、及び前記ユーザの視認状態を取得する取得部と、
前記記憶部から、前記ユーザの位置に対応する前記空間構造データを特定する特定部と、
前記特定部によって特定された前記空間構造データにおいて、前記ユーザの位置に基づいて、前記ユーザの視野に含まれ得る一又は複数のオブジェクトを前記ユーザが視認できる状態である理想視認状態を推定する第1推定部と、
前記第1推定部によって推定された前記理想視認状態と、前記ユーザの視認状態とを比較し、前記理想視認状態と前記ユーザの視認状態との差分から、前記ユーザが視認できていない前記オブジェクトを推定する第2推定部と、
前記第2推定部によって前記ユーザが視認できていないと推定されたオブジェクトを、前記ユーザが視認できるように出力する出力部と、
を備える、情報処理システム。
a storage unit that stores spatial structure data representing a real-space object in a three-dimensional virtual space, the spatial structure data representing a shape of the object at a position in the virtual space corresponding to a position of the object in the real space;
An acquisition unit that acquires a user's position and a visual recognition state of the user;
an identification unit that identifies the spatial structure data corresponding to the position of the user from the storage unit;
A first estimation unit that estimates an ideal visual recognition state in which the user can visually recognize one or more objects that may be included in the user's visual field based on the position of the user in the spatial structure data identified by the identification unit;
a second estimation unit that compares the ideal viewing state estimated by the first estimation unit with a viewing state of the user, and estimates the object that the user is unable to view from a difference between the ideal viewing state and the viewing state of the user;
an output unit that outputs the object that is estimated by the second estimation unit to be not visually recognized by the user so that the object can be visually recognized by the user;
An information processing system comprising:
前記出力部は、前記ユーザが視認できていないオブジェクトを前記ユーザが視認できるように、前記ユーザの位置と前記ユーザが視認できていないと推定されたオブジェクトの位置との離間距離を変更し、前記ユーザが視認できていないオブジェクトを出力する、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the output unit changes the distance between the position of the user and the position of an object that is estimated to be invisible to the user so that the user can see the object that is invisible to the user, and outputs the object that is invisible to the user. 前記取得部は、前記ユーザが携帯する端末又は前記ユーザの周囲に配置された端末において撮像された情報に基づき、前記ユーザの視認状態を取得する、請求項1又は2に記載の情報処理システム。 The information processing system according to claim 1 or 2, wherein the acquisition unit acquires the visibility state of the user based on information captured by a terminal carried by the user or a terminal placed around the user. 前記取得部は、前記現実空間のオブジェクトの少なくとも一部を含む前記ユーザの視認状態を取得し、
前記取得部によって取得された前記ユーザの視認状態に含まれる前記現実空間のオブジェクトの少なくとも一部に基づいて、前記空間構造データにおける前記オブジェクトの情報を更新する更新部を更に備える、
請求項1~3のいずれか1項に記載の情報処理システム。
the acquisition unit acquires a visual recognition state of the user including at least a portion of an object in the real space;
an update unit that updates information on the object in the space structure data based on at least a part of the object in the real space included in the visual recognition state of the user acquired by the acquisition unit;
The information processing system according to any one of claims 1 to 3.
前記取得部は、前記ユーザの視認方向を含む前記ユーザの視認状態を取得し、
前記特定部は、前記ユーザの視認状態に含まれる前記ユーザの視認方向、及び、前記ユーザの位置に基づいて、前記空間構造データを特定する、
請求項1~4のいずれか1項に記載の情報処理システム。
The acquisition unit acquires a viewing state of the user including a viewing direction of the user,
The identification unit identifies the spatial structure data based on a viewing direction of the user and a position of the user included in the viewing state of the user.
The information processing system according to any one of claims 1 to 4.
前記取得部は、前記ユーザの移動情報を含む前記ユーザの視認状態を取得し、
前記第1推定部は、前記ユーザの視認状態に含まれる前記ユーザの移動情報から、前記ユーザの未来位置を推定し、特定された前記空間構造データにおいて、前記ユーザの未来位置に基づいて前記理想視認状態を推定する、
請求項1~5のいずれか1項に記載の情報処理システム。
The acquisition unit acquires a visual recognition state of the user including movement information of the user,
The first estimation unit estimates a future position of the user from movement information of the user included in the visual state of the user, and estimates the ideal visual state based on the future position of the user in the specified spatial structure data.
The information processing system according to any one of claims 1 to 5.
前記記憶部は、前記オブジェクトの種別を更に記憶し、
前記取得部は、前記ユーザの行動目的を示す情報であるユーザの目的情報を含む前記ユーザの視認状態を取得し、
前記第1推定部は、前記ユーザの視認状態に含まれる前記ユーザの目的情報と前記種別との関連度合いを考慮して、前記ユーザの視野に含まれ得る全てのオブジェクトから一又は複数のオブジェクトを特定し、特定したオブジェクトを前記ユーザが視認できる状態である前記理想視認状態を推定する、
請求項1~6のいずれか1項に記載の情報処理システム。
The storage unit further stores a type of the object,
The acquisition unit acquires a visual recognition state of the user including user purpose information which is information indicating a purpose of the user's action,
The first estimation unit identifies one or more objects from all objects that may be included in the user's visual field, taking into consideration a degree of association between the user's purpose information included in the user's visual state and the type, and estimates the ideal visual state in which the user can visually recognize the identified objects.
The information processing system according to any one of claims 1 to 6.
JP2021013158A 2021-01-29 2021-01-29 Information Processing System Pending JP2024049400A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021013158A JP2024049400A (en) 2021-01-29 2021-01-29 Information Processing System
PCT/JP2022/002689 WO2022163651A1 (en) 2021-01-29 2022-01-25 Information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021013158A JP2024049400A (en) 2021-01-29 2021-01-29 Information Processing System

Publications (1)

Publication Number Publication Date
JP2024049400A true JP2024049400A (en) 2024-04-10

Family

ID=82653583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021013158A Pending JP2024049400A (en) 2021-01-29 2021-01-29 Information Processing System

Country Status (2)

Country Link
JP (1) JP2024049400A (en)
WO (1) WO2022163651A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234253A (en) * 2003-01-29 2004-08-19 Canon Inc Method for presenting composite sense of reality
US9639968B2 (en) * 2014-02-18 2017-05-02 Harman International Industries, Inc. Generating an augmented view of a location of interest
JP6705124B2 (en) * 2015-04-23 2020-06-03 セイコーエプソン株式会社 Head-mounted display device, information system, head-mounted display device control method, and computer program
JP6865064B2 (en) * 2017-03-03 2021-04-28 日立Astemo株式会社 Moving body position estimation device and method
JP2019197499A (en) * 2018-05-11 2019-11-14 株式会社スクウェア・エニックス Program, recording medium, augmented reality presentation device, and augmented reality presentation method

Also Published As

Publication number Publication date
WO2022163651A1 (en) 2022-08-04

Similar Documents

Publication Publication Date Title
US11562651B2 (en) Autonomous vehicle notification system
US11373357B2 (en) Adjusting depth of augmented reality content on a heads up display
US10843686B2 (en) Augmented reality (AR) visualization of advanced driver-assistance system
JP6312715B2 (en) Directional view and X-ray view techniques for navigation using mobile devices
US10235812B2 (en) Augmented reality
CN111095361A (en) Display of live scenes and auxiliary objects
US20170140457A1 (en) Display control device, control method, program and storage medium
CN110478901A (en) Exchange method and system based on augmented reality equipment
CN111443882B (en) Information processing apparatus, information processing system, and information processing method
WO2018008210A1 (en) Information processing device, information processing method, and program
US11966852B2 (en) Systems and methods for situation awareness
CN111064936A (en) Road condition information display method and AR equipment
US20220295017A1 (en) Rendezvous assistance apparatus, rendezvous assistance system, and rendezvous assistance method
JP2024049400A (en) Information Processing System
JP7198966B2 (en) Positioning system
CN114647305B (en) Barrier prompting method in AR navigation, head-mounted display device and readable medium
WO2022123922A1 (en) Information processing system
JP7490743B2 (en) Information Processing System
CN113434620A (en) Display method, device, equipment, storage medium and computer program product
JP7529950B2 (en) Information Processing System
US20240363044A1 (en) Display control device
JP7267105B2 (en) Information processing device and program
US20240153415A1 (en) Vehicle and mobile device communicating with the vehicle
WO2021100492A1 (en) Information processing device, information processing method, and information processing program
JP2022040118A (en) Display control device, program, and system