JP2021086204A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2021086204A
JP2021086204A JP2019212444A JP2019212444A JP2021086204A JP 2021086204 A JP2021086204 A JP 2021086204A JP 2019212444 A JP2019212444 A JP 2019212444A JP 2019212444 A JP2019212444 A JP 2019212444A JP 2021086204 A JP2021086204 A JP 2021086204A
Authority
JP
Japan
Prior art keywords
information processing
user
processing device
level
application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019212444A
Other languages
Japanese (ja)
Inventor
一 若林
Hajime Wakabayashi
一 若林
浩司 古澤
Koji Furusawa
浩司 古澤
浩丈 市川
Hirotake Ichikawa
浩丈 市川
木村 淳
Atsushi Kimura
淳 木村
佳寿美 武田
Kasumi Takeda
佳寿美 武田
敦 石原
Atsushi Ishihara
敦 石原
秀憲 青木
Hidenori Aoki
秀憲 青木
遼 深澤
Ryo Fukazawa
遼 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2019212444A priority Critical patent/JP2021086204A/en
Priority to PCT/JP2020/042714 priority patent/WO2021106671A1/en
Publication of JP2021086204A publication Critical patent/JP2021086204A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Abstract

To provide an information processing device, an information processing method, and a program that can prevent the theft of a terminal device for AR.SOLUTION: An information processing device according to one embodiment includes a level setting unit and a content output unit. The level setting unit sets a monitoring level on the basis of the state of an AR display terminal used by a user and the state of an AR application operated by the AR display terminal. The content output unit outputs, on the basis of the monitoring level, instruction content encouraging the user to move to an action range corresponding to the state of the AR application.SELECTED DRAWING: Figure 7

Description

本技術は、拡張現実(AR:Augmented Reality)を提供する端末等に適用可能な情報処理装置、情報処理方法、及びプログラムに関する。 The present technology relates to an information processing device, an information processing method, and a program applicable to a terminal or the like that provides augmented reality (AR).

従来、端末装置をユーザに貸し出して所定のコンテンツを提供するサービス等が知られており、このような端末装置の盗難を防止する方法が考案されている。例えば特許文献1には、利用者に貸し出して音声ガイドを提供する装置について記載されている。この装置は、GPS機能等により装置本体の位置を特定し、例えば装置が使用地域範囲を超えた場合に音声等による警告を発する。これにより、装置の確実な返却・回収が可能となり、装置の盗難が防止される(特許文献1の明細書段落[0021][0023][0027]図1等)。 Conventionally, a service or the like that lends a terminal device to a user and provides a predetermined content is known, and a method for preventing the theft of such a terminal device has been devised. For example, Patent Document 1 describes a device that is lent to a user to provide a voice guide. This device identifies the position of the main body of the device by a GPS function or the like, and issues a warning by voice or the like when the device exceeds the range of use area, for example. As a result, the device can be reliably returned and collected, and the device can be prevented from being stolen (paragraphs [0021] [0023] [0027] of Patent Document 1 and the like).

近年では、拡張現実(AR)を利用して様々なコンテンツを提供する端末装置が開発されている。この端末装置では、アプリケーションにより生成された仮想物(ARオブジェクト等)が現実の空間に重畳して表示される。従って、端末装置を使用するユーザは、ARオブジェクト等があたかも現実の空間に存在しているかのように知覚することになる。このような端末装置を貸し出すことで、AR体験を手軽に楽しむことが可能なサービス等を提供することが可能となる。 In recent years, terminal devices that provide various contents using augmented reality (AR) have been developed. In this terminal device, virtual objects (AR objects, etc.) generated by the application are superimposed and displayed in the real space. Therefore, the user who uses the terminal device perceives the AR object or the like as if it exists in the real space. By renting out such a terminal device, it becomes possible to provide a service or the like that allows the AR experience to be easily enjoyed.

特開2002−320295号公報JP-A-2002-320295

AR用の端末装置を貸し出した場合に、装置が盗難にあうリスクが考えられる。一方で、ARを体験しているユーザの位置や行動は、ARオブジェクト等の位置や動きに応じて刻々と変化するため、装置の盗難の可能性を判断することが難しい場合が多い。このため、AR用の端末装置の盗難を未然に防止する技術が求められている。 If the terminal device for AR is rented out, there is a risk that the device will be stolen. On the other hand, since the position and behavior of the user who is experiencing AR changes every moment according to the position and movement of the AR object and the like, it is often difficult to determine the possibility of the device being stolen. Therefore, there is a demand for a technique for preventing the theft of AR terminal devices.

以上のような事情に鑑み、本技術の目的は、AR用の端末装置の盗難を未然に防止することが可能な情報処理装置、情報処理方法、及びプログラムを提供することにある。 In view of the above circumstances, an object of the present technology is to provide an information processing device, an information processing method, and a program capable of preventing the theft of the terminal device for AR.

上記目的を達成するため、本技術の一形態に係る情報処理装置は、レベル設定部と、コンテンツ出力部とを具備する。
前記レベル設定部は、ユーザが使用するAR表示端末の状態と、前記AR表示端末で動作するARアプリケーションの状態とに基づいて、監視レベルを設定する。
前記コンテンツ出力部は、前記監視レベルに基づいて、前記ユーザに対して前記ARアプリケーションの状態に応じた行動範囲への移動を促す指示コンテンツを出力する。
In order to achieve the above object, the information processing device according to one embodiment of the present technology includes a level setting unit and a content output unit.
The level setting unit sets the monitoring level based on the state of the AR display terminal used by the user and the state of the AR application operating on the AR display terminal.
Based on the monitoring level, the content output unit outputs instructional content that prompts the user to move to the action range according to the state of the AR application.

この情報処理装置では、AR表示端末の状態とARアプリケーションの状態とに基づいて、監視レベルが設定される。この監視レベルに基づいて、ARアプリケーションの状態に合った行動範囲にユーザが移動するように促す指示コンテンツが出力される。これにより、ユーザが行動する範囲を管理するとともに、不審な行動等を監視することが可能となり、AR用の端末装置の盗難を未然に防止することが可能となる。 In this information processing device, the monitoring level is set based on the state of the AR display terminal and the state of the AR application. Based on this monitoring level, instruction content that prompts the user to move to the action range that matches the state of the AR application is output. As a result, it is possible to manage the range in which the user acts and to monitor suspicious behavior and the like, and it is possible to prevent the theft of the terminal device for AR.

前記レベル設定部は、前記ARアプリケーションの状態に応じた条件情報を取得し、前記条件情報に基づいて前記AR表示端末の状態を判定して前記監視レベルを設定してもよい。 The level setting unit may acquire condition information according to the state of the AR application, determine the state of the AR display terminal based on the condition information, and set the monitoring level.

前記ARアプリケーションの状態は、前記ARアプリケーションの進捗状態を含んでもよい。この場合、前記レベル設定部は、前記進捗状態に応じた前記条件情報を取得してもよい。 The state of the AR application may include the progress state of the AR application. In this case, the level setting unit may acquire the condition information according to the progress state.

前記レベル設定部は、前記ARアプリケーションにおける前記ユーザの役割に応じた前記条件情報を取得してもよい。 The level setting unit may acquire the condition information according to the role of the user in the AR application.

前記条件情報は、前記AR表示端末の状態を判定するための複数の判定条件を含んでもよい。 The condition information may include a plurality of determination conditions for determining the state of the AR display terminal.

前記AR表示端末の状態は、前記AR表示端末の位置、姿勢、又は運動パラメータの少なくとも1つを含んでもよい。 The state of the AR display terminal may include at least one of the position, posture, or movement parameters of the AR display terminal.

前記複数の判定条件は、各々が前記監視レベルの候補値と対応付けられていてもよい。この場合、前記レベル設定部は、前記複数の判定条件について前記AR表示端末の状態をそれぞれ判定し、当該判定結果が表す最大の前記候補値を前記監視レベルに設定してもよい。 Each of the plurality of determination conditions may be associated with the candidate value of the monitoring level. In this case, the level setting unit may determine the state of the AR display terminal for each of the plurality of determination conditions, and set the maximum candidate value represented by the determination result to the monitoring level.

前記判定条件は、所定のターゲットに対する前記AR表示端末の位置を判定するための位置判定情報と、前記所定のターゲットに対する前記AR表示端末の方位を判定するための方位判定情報との少なくとも一方を含んでもよい。 The determination condition includes at least one of position determination information for determining the position of the AR display terminal with respect to a predetermined target and orientation determination information for determining the orientation of the AR display terminal with respect to the predetermined target. But it may be.

前記所定のターゲットは、実空間上のポイント、前記ARアプリケーションに参加する他のユーザ、又は前記ARアプリケーションで用いられる仮想オブジェクトの少なくとも1つであってもよい。 The predetermined target may be at least one point in real space, another user participating in the AR application, or a virtual object used in the AR application.

前記判定条件は、前記位置判定情報を含んでもよい。この場合、前記コンテンツ出力部は、前記位置判定情報に基づいて、前記監視レベルが小さくなるように前記行動範囲を設定してもよい。 The determination condition may include the position determination information. In this case, the content output unit may set the action range so that the monitoring level becomes smaller based on the position determination information.

前記コンテンツ出力部は、前記監視レベルの設定に用いられた前記判定条件の基準となる前記所定のターゲットへの接近を促す前記指示コンテンツを出力してもよい。 The content output unit may output the instruction content that prompts the approach to the predetermined target, which is the reference of the determination condition used for setting the monitoring level.

前記コンテンツ出力部は、前記監視レベルが第1のレベルに設定された場合、前記指示コンテンツとして前記行動範囲へ移動するための移動方向の具体的な指示を含まない第1のコンテンツを出力してもよい。 When the monitoring level is set to the first level, the content output unit outputs the first content that does not include a specific instruction of the moving direction for moving to the action range as the instruction content. May be good.

前記第1のコンテンツは、前記ARアプリケーションにおいて用いられるキャラクタオブジェクト、アイテムオブジェクト、文字情報、又は音声情報のうち少なくとも1つを用いて前記行動範囲の位置を表すコンテンツであってもよい。 The first content may be content representing the position of the action range using at least one of a character object, an item object, character information, or voice information used in the AR application.

前記コンテンツ出力部は、前記監視レベルが前記第1のレベルよりも高い第2のレベルに設定された場合、前記指示コンテンツとして前記行動範囲へ移動するめの移動方向の具体的な指示を含む第2のコンテンツを出力してもよい。 When the monitoring level is set to a second level higher than the first level, the content output unit includes a second movement direction specific instruction for moving to the action range as the instruction content. Content may be output.

前記第2のコンテンツは、前記移動方向を指示する画像情報、文字情報、又は音情報の少なくとも1つを含むコンテンツであってもよい。 The second content may be content that includes at least one of image information, character information, or sound information that indicates the moving direction.

前記コンテンツ出力部は、前記監視レベルが前記第2のレベルよりも高い第3のレベルに設定された場合、前記ARアプリケーションの動作を停止し、前記ユーザを監視する監視モードを実行してもよい。 When the monitoring level is set to a third level higher than the second level, the content output unit may stop the operation of the AR application and execute a monitoring mode for monitoring the user. ..

前記コンテンツ出力部は、他のユーザの監視レベルが相対的に高い場合、前記他のユーザへの接近を促す前記指示コンテンツを出力してもよい。 When the monitoring level of another user is relatively high, the content output unit may output the instruction content that prompts the other user to approach.

前記コンテンツ出力部は、前記ARアプリケーションにおいて前記ユーザの探索対象となるオブジェクトを前記他のユーザの近傍に表示してもよい。 The content output unit may display an object to be searched by the user in the AR application in the vicinity of the other user.

本技術の一形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、ユーザが使用するAR表示端末の状態と、前記AR表示端末で動作するARアプリケーションの状態とに基づいて、監視レベルを設定することを含む。
前記監視レベルに基づいて、前記ユーザに対して前記ARアプリケーションの状態に応じた行動範囲への移動を促す指示コンテンツが出力される。
The information processing method according to one form of the present technology is an information processing method executed by a computer system, and is based on the state of the AR display terminal used by the user and the state of the AR application operating on the AR display terminal. Including setting the monitoring level.
Based on the monitoring level, instruction content that prompts the user to move to the action range according to the state of the AR application is output.

本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
ユーザが使用するAR表示端末の状態と、前記AR表示端末で動作するARアプリケーションの状態とに基づいて、監視レベルを設定するステップ。
前記監視レベルに基づいて、前記ユーザに対して前記ARアプリケーションの状態に応じた行動範囲への移動を促す指示コンテンツを出力するステップ。
A program according to a form of the present technology causes a computer system to perform the following steps.
A step of setting a monitoring level based on the state of an AR display terminal used by a user and the state of an AR application operating on the AR display terminal.
A step of outputting instruction content that prompts the user to move to an action range according to the state of the AR application based on the monitoring level.

本技術の一実施形態に係るヘッドマウントディスプレイの外観を示す斜視図である。It is a perspective view which shows the appearance of the head-mounted display which concerns on one Embodiment of this technique. ヘッドマウントディスプレイを用いたAR表示システムの構成例を示す模式図である。It is a schematic diagram which shows the configuration example of the AR display system using a head-mounted display. ヘッドマウントディスプレイ及びサーバ装置の機能的な構成例を示すブロック図である。It is a block diagram which shows the functional configuration example of a head-mounted display and a server device. AR表示の一例を示す模式図である。It is a schematic diagram which shows an example of AR display. ヘッドマウントディスプレイの状態を判定するための条件表の一例である。This is an example of a condition table for determining the state of the head-mounted display. ヘッドマウントディスプレイの指標値について説明するための模式図である。It is a schematic diagram for demonstrating the index value of a head-mounted display. 監視処理の一例を示すフローチャートである。It is a flowchart which shows an example of a monitoring process. 監視レベルの更新処理の一例を示すフローチャートである。It is a flowchart which shows an example of the update process of a monitoring level. 指標値の評価処理の一例を示すフローチャートである。It is a flowchart which shows an example of the evaluation process of an index value. 監視レベルについて説明するための模式図である。It is a schematic diagram for demonstrating the monitoring level. 第1のコンテンツの一例を示す模式図である。It is a schematic diagram which shows an example of the 1st content. 第1のコンテンツの出力処理の一例を示すフローチャートである。It is a flowchart which shows an example of the output processing of the 1st content. 第2のコンテンツの一例を示す模式図である。It is a schematic diagram which shows an example of the 2nd content. 第2のコンテンツの出力処理の一例を示すフローチャートである。It is a flowchart which shows an example of the output processing of the 2nd content. 監視モードにおける画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen in a monitoring mode. 監視モードの一例を示すフローチャートである。It is a flowchart which shows an example of a monitoring mode. 他のユーザと関連したコンテンツ表示の一例を示す模式図である。It is a schematic diagram which shows an example of the content display related to other users.

以下、本技術に係る実施形態を、図面を参照しながら説明する。 Hereinafter, embodiments relating to the present technology will be described with reference to the drawings.

<情報処理装置の構成>
図1は、本技術の一実施形態に係るヘッドマウントディスプレイの外観を示す斜視図である。図2は、ヘッドマウントディスプレイを用いたAR表示システムの構成例を示す模式図である。AR表示システム100は、複数のヘッドマウントディスプレイ10(HMD:Head Mounted Display)と、複数のヘッドマウントディスプレイ10が接続されるサーバ装置40とを含む。
<Configuration of information processing device>
FIG. 1 is a perspective view showing the appearance of a head-mounted display according to an embodiment of the present technology. FIG. 2 is a schematic view showing a configuration example of an AR display system using a head-mounted display. The AR display system 100 includes a plurality of head-mounted displays 10 (HMDs) and a server device 40 to which the plurality of head-mounted displays 10 are connected.

ヘッドマウントディスプレイ10は、AR表示が可能な装置である。本開示において、AR表示とは、ユーザから見て、仮想オブジェクトが、あたかも実空間に存在する現実物体であるかのように知覚させるように表示を行うことを意味する。ヘッドマウントディスプレイ10を使用するユーザは、ARアプリケーションにより生成された仮想オブジェクトや音声等のコンテンツを知覚することで、AR体験を楽しむことが可能である。 The head-mounted display 10 is a device capable of AR display. In the present disclosure, the AR display means that the virtual object is displayed so as to be perceived by the user as if it were a real object existing in the real space. The user who uses the head-mounted display 10 can enjoy the AR experience by perceiving the contents such as virtual objects and voices generated by the AR application.

ここで、ARアプリケーションは、ARを利用したゲームやガイド等の所定のサービスを実現するアプリケーションプログラムである。ARアプリケーションは、例えば個々の端末装置(ヘッドマウントディスプレイ10)に実装される端末プログラムと、各端末装置が接続されるサーバ装置40に実装されるサーバプログラムとにより構成される。なお、ARアプリケーションによって実現されるサービス(ゲーム等)を指して、ARアプリケーションと記載する場合がある。 Here, the AR application is an application program that realizes a predetermined service such as a game or a guide using AR. The AR application is composed of, for example, a terminal program mounted on an individual terminal device (head-mounted display 10) and a server program mounted on a server device 40 to which each terminal device is connected. In addition, a service (game, etc.) realized by an AR application may be referred to as an AR application.

AR表示システム100は、複数のユーザにARアプリケーションを用いたAR体験のサービスを提供するシステムである。以下では、ヘッドマウントディスプレイ10は、サービスに参加したユーザに貸し出して使用されるものとする。 The AR display system 100 is a system that provides a plurality of users with an AR experience service using an AR application. In the following, the head-mounted display 10 will be rented out and used by users who have participated in the service.

図3は、ヘッドマウントディスプレイ10及びサーバ装置40の機能的な構成例を示すブロック図である。図1及び図3に示すように、ヘッドマウントディスプレイ10は、ヘッドマウントディスプレイ本体11と、表示部20、撮像部21と、慣性センサ22と、操作部23と、スピーカ24と、通信部25と、制御部26と、記憶部27とを備えている。 FIG. 3 is a block diagram showing a functional configuration example of the head-mounted display 10 and the server device 40. As shown in FIGS. 1 and 3, the head-mounted display 10 includes a head-mounted display main body 11, a display unit 20, an imaging unit 21, an inertial sensor 22, an operation unit 23, a speaker 24, and a communication unit 25. A control unit 26 and a storage unit 27 are provided.

ヘッドマウントディスプレイ本体11は、ユーザの頭部に装着されて使用される。図1に示すように、ヘッドマウントディスプレイ本体11は、フロント部12と、フロント部12の右側に設けられた右テンプル部13と、フロント部12の左側に設けられた左テンプル部14と、フロント部12の下側に取り付けられたグラス部15とを有する。 The head-mounted display main body 11 is attached to the user's head and used. As shown in FIG. 1, the head-mounted display main body 11 includes a front portion 12, a right temple portion 13 provided on the right side of the front portion 12, a left temple portion 14 provided on the left side of the front portion 12, and a front portion. It has a glass portion 15 attached to the lower side of the portion 12.

表示部20は、シースルータイプの表示素子であり、グラス部15の表面に設けられている。表示部20は、制御部26(コンテンツ出力部30)の制御に応じて、AR表示を行う。なお、表示部20は、非シースルータイプの表示素子であってもよい。この場合、AR表示に用いられる仮想オブジェクト等が撮像部21により撮像された画像とともに表示部20上に表示される。このように、ヘッドマウントディスプレイ10は、AR表示が可能な端末装置(AR表示端末)の一例である。 The display unit 20 is a see-through type display element, and is provided on the surface of the glass unit 15. The display unit 20 performs AR display according to the control of the control unit 26 (content output unit 30). The display unit 20 may be a non-see-through type display element. In this case, a virtual object or the like used for AR display is displayed on the display unit 20 together with the image captured by the image pickup unit 21. As described above, the head-mounted display 10 is an example of a terminal device (AR display terminal) capable of AR display.

撮像部21は、例えば、カメラであり、CCD(Charge Coupled Device)センサ、CMOS(Complemented Metal Oxide Semiconductor)センサ等の撮像素子と、結像レンズなど等の光学系とを含む。撮像部21は、フロント部12の外面において外向きに設けられており、ユーザの視線方向の先に存在する物体を撮像し、撮像により得られた画像情報を制御部26へと出力する。撮像部21は、フロント部12において横方向に所定の間隔を開けて2つ設けられている。なお、撮像部21が設けられる場所、数については、適宜変更可能である。 The image pickup unit 21 is, for example, a camera, and includes an image pickup element such as a CCD (Charge Coupled Device) sensor and a CMOS (Complemented Metal Oxide Semiconductor) sensor, and an optical system such as an imaging lens. The imaging unit 21 is provided outward on the outer surface of the front unit 12, images an object existing ahead of the user's line-of-sight direction, and outputs the image information obtained by the imaging to the control unit 26. Two image pickup units 21 are provided in the front unit 12 at predetermined intervals in the lateral direction. The location and number of imaging units 21 can be changed as appropriate.

慣性センサ22は、3軸方向の加速度を検出する3軸の加速度センサと、3軸回りの角速度を検出する角速度センサとを含む。慣性センサ22は、検出により得られた3軸方向の加速度、3軸回りの角速度を慣性情報として、制御部26に出力する。本実施形態では、慣性センサ22の検出軸が3軸とされているが、この検出軸は、1軸、あるいは、2軸であってもよい。また、本実施形態では、慣性センサ22として、2種類のセンサが用いられているが、慣性センサ22として1種類、あるいは、3種類以上のセンサが用いられてもよい。なお、慣性センサ22の他の例としては、速度センサ、角度センサ等が挙げられる。 The inertial sensor 22 includes a three-axis acceleration sensor that detects acceleration in the three-axis direction and an angular velocity sensor that detects an angular velocity around the three axes. The inertial sensor 22 outputs the acceleration in the three-axis direction obtained by the detection and the angular velocity around the three axes as inertial information to the control unit 26. In the present embodiment, the detection axes of the inertial sensor 22 are three axes, but the detection axes may be one axis or two axes. Further, in the present embodiment, two types of sensors are used as the inertial sensor 22, but one type or three or more types of sensors may be used as the inertial sensor 22. Other examples of the inertial sensor 22 include a speed sensor, an angle sensor, and the like.

操作部23は、例えば、押圧式、接触式等の各種のタイプの操作部であり、ユーザによる操作を検出して制御部26へと出力する。図1に示す例では、操作部23は、左テンプル部14の前方側に設けられているが、操作部23が設けられる位置はユーザが操作しやすい位置であればどのような位置であってもよい。 The operation unit 23 is, for example, various types of operation units such as a pressing type and a contact type, and detects an operation by a user and outputs the operation to the control unit 26. In the example shown in FIG. 1, the operation unit 23 is provided on the front side of the left temple unit 14, but the position where the operation unit 23 is provided is any position as long as it is easy for the user to operate. May be good.

スピーカ24は、制御部26から出力された音信号を受信して音信号を音声へと変換して出力する。通信部25は、外部機器との間で、直接的又は間接的に通信を行う。ヘッドマウントディスプレイ10と通信を行う外部機器としては、後述するサーバ装置40等が挙げられる。ヘッドマウントディスプレイ10は、この他、デスクトップPC(Personal computer)、ラップトップPC、タブレットPC等の各種PCや、携帯電話機(スマートフォンを含む)等の任意の外部機器と通信が可能である。 The speaker 24 receives the sound signal output from the control unit 26, converts the sound signal into voice, and outputs the sound signal. The communication unit 25 communicates directly or indirectly with the external device. Examples of the external device that communicates with the head-mounted display 10 include a server device 40 and the like, which will be described later. The head-mounted display 10 can also communicate with various PCs such as a desktop PC (Personal computer), a laptop PC, and a tablet PC, and any external device such as a mobile phone (including a smartphone).

制御部26は、ヘッドマウントディスプレイ10が有する各ブロックの動作を制御する。制御部26は、本実施形態に係る情報処理装置として機能し、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェア構成を有する。CPUが記憶部27に記憶されている本実施形態に係るプログラムをRAMにロードして実行することにより、種々の処理が実行される。制御部26として、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。 The control unit 26 controls the operation of each block included in the head-mounted display 10. The control unit 26 functions as an information processing device according to the present embodiment, and has a hardware configuration necessary for a computer such as a CPU and a memory (RAM, ROM). Various processes are executed by the CPU loading the program according to the present embodiment stored in the storage unit 27 into the RAM and executing the program. As the control unit 26, for example, a PLD (Programmable Logic Device) such as an FPGA (Field Programmable Gate Array) or another device such as an ASIC (Application Specific Integrated Circuit) may be used.

本実施形態では、制御部26のCPUが本実施形態に係るプログラムを実行することで、機能ブロックとして自己位置推定部28、レベル設定部29、及びコンテンツ出力部30が実現される。そしてこれらの機能ブロックにより、本実施形態に係る情報処理方法が実行される。なお各機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが適宜用いられてもよい。 In the present embodiment, when the CPU of the control unit 26 executes the program according to the present embodiment, the self-position estimation unit 28, the level setting unit 29, and the content output unit 30 are realized as functional blocks. Then, the information processing method according to the present embodiment is executed by these functional blocks. In order to realize each functional block, dedicated hardware such as an IC (integrated circuit) may be appropriately used.

自己位置推定部28は、ヘッドマウントディスプレイ10の自己位置を推定する。ここでヘッドマウントディスプレイ10の自己位置には、例えば所定の3D座標系におけるヘッドマウントディスプレイ10自身の位置及び姿勢が含まれる。自己位置推定部28は、ヘッドマウントディスプレイ10の初期位置推定(Relocalization)や、その後の自己位置推定等を実行する。これらの推定処理には、SLAM(Simultaneous Localization and Mapping)等の自己位置推定技術が用いられる。この他、ヘッドマウントディスプレイ10の自己位置を推定可能な任意の処理が用いられてよい。 The self-position estimation unit 28 estimates the self-position of the head-mounted display 10. Here, the self-position of the head-mounted display 10 includes, for example, the position and orientation of the head-mounted display 10 itself in a predetermined 3D coordinate system. The self-position estimation unit 28 executes initial position estimation (Relocation) of the head-mounted display 10 and subsequent self-position estimation. A self-position estimation technique such as SLAM (Simultaneous Localization and Mapping) is used for these estimation processes. In addition, any process capable of estimating the self-position of the head-mounted display 10 may be used.

レベル設定部29は、ユーザが使用するヘッドマウントディスプレイ10の状態と、ヘッドマウントディスプレイ10で動作するARアプリケーションの状態とに基づいて、監視レベルを設定する。ここで監視レベルとは、ユーザに貸し出されたヘッドマウントディスプレイ10の盗難行為等を監視するために設定されるレベルである。この監視レベルを用いることで、例えばヘッドマウントディスプレイ10が盗難される可能性を段階的に表すことが可能である。監視レベルは、ユーザ(ヘッドマウントディスプレイ10)ごとに設定され、継続的に更新される。以下では、監視レベルが高いほど、盗難の可能性が高いものとする。 The level setting unit 29 sets the monitoring level based on the state of the head-mounted display 10 used by the user and the state of the AR application operating on the head-mounted display 10. Here, the monitoring level is a level set for monitoring the theft or the like of the head-mounted display 10 rented out to the user. By using this monitoring level, it is possible to gradually indicate the possibility that the head-mounted display 10 is stolen, for example. The monitoring level is set for each user (head-mounted display 10) and is continuously updated. In the following, the higher the monitoring level, the higher the possibility of theft.

本実施形態では、レベル設定部29は、ARアプリケーションの状態に応じた条件情報を取得する。条件情報は、監視レベルの設定に用いられる複数の判定条件が記録された情報である。例えば、予めARアプリケーションの状態に応じた条件情報(条件表32)が設定されて記憶部27に記憶される。そしてARアプリケーションの状態に応じて、対応する条件情報が読み込まれる。あるいは、ARアプリケーションの状態に応じて、判定条件に含まれる条件値(閾値等)が算出される。すなわちARアプリケーションの状態に応じた条件情報が新たに算出される。この他、条件情報を取得する方法は限定されない。 In the present embodiment, the level setting unit 29 acquires condition information according to the state of the AR application. The condition information is information in which a plurality of determination conditions used for setting the monitoring level are recorded. For example, condition information (condition table 32) according to the state of the AR application is set in advance and stored in the storage unit 27. Then, the corresponding condition information is read according to the state of the AR application. Alternatively, a condition value (threshold value or the like) included in the determination condition is calculated according to the state of the AR application. That is, the condition information according to the state of the AR application is newly calculated. In addition, the method of acquiring condition information is not limited.

またレベル設定部29、取得された条件情報に基づいてヘッドマウントディスプレイ10の状態を判定して監視レベルを設定する。従って、条件情報に含まれる複数の判定条件は、ヘッドマウントディスプレイ10の状態を判定するための条件であると言える。このように、監視レベルの設定では、ARアプリケーションの状態に合わせて設定された条件を基準に、ヘッドマウントディスプレイ10の状態が判定される。 Further, the level setting unit 29 determines the state of the head-mounted display 10 based on the acquired condition information and sets the monitoring level. Therefore, it can be said that the plurality of determination conditions included in the condition information are conditions for determining the state of the head-mounted display 10. In this way, in the monitoring level setting, the state of the head-mounted display 10 is determined based on the conditions set according to the state of the AR application.

ARアプリケーションの状態としては、典型的には、ARアプリケーションの進捗状態が参照される。例えばARアプリケーションが、所定のシナリオに沿って複数のイベントを順次発生させながら進行するタイプのプログラムであったとする。この場合、各イベントの進行度や、シナリオ全体の進行度を表す情報等が、ARアプリケーションの進捗状態を表す情報(進捗情報)として読み込まれる。あるいは、イベントの有無や、ARアプリケーション開始からの経過時間等が進捗情報として用いられてもよい。このような進捗情報が表す進捗状態に応じた条件情報が読み込まれる。 As the state of the AR application, the progress state of the AR application is typically referred to. For example, suppose that an AR application is a type of program that progresses while sequentially generating a plurality of events according to a predetermined scenario. In this case, the progress of each event, the information indicating the progress of the entire scenario, and the like are read as the information (progress information) indicating the progress of the AR application. Alternatively, the presence / absence of an event, the elapsed time from the start of the AR application, and the like may be used as progress information. Conditional information corresponding to the progress state represented by such progress information is read.

ヘッドマウントディスプレイ10の状態としては、典型的には、ヘッドマウントディスプレイ10の位置及び姿勢が判定の対象となる。この場合、条件情報には、ヘッドマウントディスプレイ10の位置及び姿勢を判定するための条件が含まれる。例えば、現在の進捗状態において、ユーザ(ヘッドマウントディスプレイ10)が取るべき位置や姿勢等を表す判定条件が条件情報として設定される。また位置・姿勢に関する判定条件には、絶対位置や絶対姿勢を判定する条件や、所定のターゲットを基準とした相対位置や相対姿勢を判定する条件が含まれる(図5参照)。なお、ヘッドマウントディスプレイ10の位置及び姿勢は、上記した自己位置推定部28により推定される。 As for the state of the head-mounted display 10, typically, the position and orientation of the head-mounted display 10 are subject to determination. In this case, the condition information includes a condition for determining the position and orientation of the head-mounted display 10. For example, in the current progress state, a determination condition indicating a position, a posture, or the like to be taken by the user (head-mounted display 10) is set as condition information. Further, the determination conditions relating to the position / posture include a condition for determining the absolute position and the absolute posture, and a condition for determining the relative position and the relative posture with reference to a predetermined target (see FIG. 5). The position and orientation of the head-mounted display 10 are estimated by the self-position estimation unit 28 described above.

またヘッドマウントディスプレイ10の状態として、ヘッドマウントディスプレイ10の運動パラメータが判定の対象として用いられてもよい。ここで運動パラメータは、ヘッドマウントディスプレイ10の速度、加速度、角速度、角加速度等であり、例えば慣性センサの出力に基づいて算出される。この場合、条件情報には、ヘッドマウントディスプレイ10の運動パラメータを判定するための条件が含まれる。この他、上記したヘッドマウントディスプレイ10の各状態(位置、姿勢、及び運動パラメータ)のうち少なくとも1つが、監視レベルを設定するための判定の対象として用いられる。条件情報の具体的な内容については、後に詳しく説明する。 Further, as the state of the head-mounted display 10, the motion parameter of the head-mounted display 10 may be used as a determination target. Here, the motion parameters are the velocity, acceleration, angular velocity, angular acceleration, etc. of the head-mounted display 10, and are calculated based on, for example, the output of the inertial sensor. In this case, the condition information includes a condition for determining the motion parameter of the head-mounted display 10. In addition, at least one of the states (position, posture, and motion parameters) of the head-mounted display 10 described above is used as a determination target for setting the monitoring level. The specific contents of the condition information will be described in detail later.

コンテンツ出力部30は、ARアプリケーションに用いられる各種のコンテンツを出力する。本開示においてコンテンツとは、ユーザが知覚可能なようにヘッドマウントディスプレイ10から出力される文字、映像、音声、振動、又はこれらの組み合わせ等による表現内容を示す。コンテンツ出力部30は、例えばARアプリケーションで登場するキャラクター(仮想オブジェクト)を含む映像コンテンツ(映像データ)等を生成して、表示部20に表示させる。またキャラクターの声や効果音等の音声コンテンツ(音声データ)等を生成して、スピーカから出力させる。 The content output unit 30 outputs various contents used in the AR application. In the present disclosure, the content refers to the content expressed by characters, images, sounds, vibrations, or a combination thereof output from the head-mounted display 10 so that the user can perceive it. The content output unit 30 generates, for example, video content (video data) including a character (virtual object) appearing in an AR application and displays it on the display unit 20. In addition, voice content (voice data) such as character voices and sound effects is generated and output from the speaker.

本実施形態では、コンテンツ出力部30は、監視レベルに基づいて、ユーザに対してARアプリケーションの状態に応じた行動範囲への移動を促す指示コンテンツを出力する。ここで行動範囲とは、例えば現在のARアプリケーションの状態において、ユーザの行動が許容されている実空間の範囲である。後述するように、ARアプリケーションの進捗状態によっては、ユーザの行動が許される範囲が変化する場合がある(図4参照)。コンテンツ出力部30は、監視レベルに応じて、このような行動範囲へとユーザを移動させるコンテンツ(指示コンテンツ)を生成して出力する。 In the present embodiment, the content output unit 30 outputs instruction content that prompts the user to move to the action range according to the state of the AR application based on the monitoring level. Here, the action range is, for example, the range of the real space in which the user's action is allowed in the current state of the AR application. As will be described later, the range in which the user's actions are allowed may change depending on the progress of the AR application (see FIG. 4). The content output unit 30 generates and outputs content (instruction content) that moves the user to such an action range according to the monitoring level.

記憶部27は、制御部26の処理に必要な各種のプログラムや、各種のデータが記憶される不揮発性のメモリと、制御部26の作業領域として用いられる揮発性のメモリとを含む。なお、上記各種のプログラムは、光ディスク、半導体メモリなどの可搬性の記録媒体から読み取られてもよいし、ネットワーク上のサーバ装置からダウンロードされてもよい。 The storage unit 27 includes various programs required for processing of the control unit 26, a non-volatile memory for storing various data, and a volatile memory used as a work area of the control unit 26. The various programs may be read from a portable recording medium such as an optical disk or a semiconductor memory, or may be downloaded from a server device on a network.

図3に示すように、記憶部27には、マップDB31(Data Base)と、条件表32とが記憶される。また記憶部27には、ARアプリケーションの端末用のプログラムデータ(端末プログラム)や、サーバ装置40から送信された各種のデータ等が記憶される(いずれも図示省略)。 As shown in FIG. 3, the storage unit 27 stores the map DB 31 (Data Base) and the condition table 32. Further, the storage unit 27 stores program data (terminal program) for the terminal of the AR application, various data transmitted from the server device 40, and the like (all are not shown).

マップDB31は、複数のキーフレームからなるデータベースである。キーフレームには、例えば自己位置を特定するために利用される現実世界の画像(キーフレーム画像)、キーフレームの座標情報、深度情報、特徴点の位置情報等が含まれる。またキーフレームにおける座標は、同じ原点を持つ3D座標系とされている。例えばマップDB31に蓄積されたキーフレームと、撮像部21により撮像された画像とを比較することで、ユーザ(ヘッドマウントディスプレイ10)の現実世界における位置や姿勢(向き)を特定する処理が可能である。 The map DB 31 is a database composed of a plurality of key frames. The key frame includes, for example, a real-world image (key frame image) used for specifying a self-position, coordinate information of the key frame, depth information, position information of a feature point, and the like. The coordinates in the key frame are 3D coordinate systems having the same origin. For example, by comparing the keyframes stored in the map DB 31 with the image captured by the imaging unit 21, it is possible to specify the position and posture (orientation) of the user (head-mounted display 10) in the real world. is there.

条件表32は、監視レベルの判定に用いられる条件情報である。本実施形態では、ARアプリケーションの進捗状態に応じた複数の条件表32が記憶される。また、複数の条件表32の各々には、それぞれの進捗状態に合わせて設定された複数の判定条件が含まれる。条件表32については、図5を参照して後に詳しく説明する。 The condition table 32 is the condition information used for determining the monitoring level. In this embodiment, a plurality of condition tables 32 according to the progress status of the AR application are stored. In addition, each of the plurality of condition tables 32 includes a plurality of determination conditions set according to the progress status of each. The condition table 32 will be described in detail later with reference to FIG.

サーバ装置40は、複数のユーザに貸し出された複数のヘッドマウントディスプレイ10をそれぞれ制御・管理する装置である。サーバ装置40は、通信部41と、表示部42と、制御部43と、記憶部44とを備える。通信部41は、複数のヘッドマウントディスプレイ10の通信部25と通信を行う。表示部42は、ARアプリケーションの進捗状態等をモニタリングするための管理者用のディスプレイである。 The server device 40 is a device that controls and manages a plurality of head-mounted displays 10 rented out to a plurality of users. The server device 40 includes a communication unit 41, a display unit 42, a control unit 43, and a storage unit 44. The communication unit 41 communicates with the communication unit 25 of the plurality of head-mounted displays 10. The display unit 42 is a display for an administrator for monitoring the progress status of the AR application and the like.

制御部43は、ARアプリケーションのサーバ用のプログラムデータ(サーバプログラム)に基づいて、ARアプリケーション全体の進行を管理する。例えばイベントの発生やシナリオの分岐等を管理する進行処理が実行され、それらの処理結果が各ヘッドマウントディスプレイ10に送信される。逆に各ヘッドマウントディスプレイ10から送信された情報に基づいて、進行処理が実行されてもよい。また制御部43は、仮想オブジェクト等の表示位置等を管理する。 The control unit 43 manages the progress of the entire AR application based on the program data (server program) for the server of the AR application. For example, progress processing for managing the occurrence of events, branching of scenarios, and the like is executed, and the processing results are transmitted to each head-mounted display 10. On the contrary, the progress process may be executed based on the information transmitted from each head-mounted display 10. Further, the control unit 43 manages the display position and the like of the virtual object and the like.

記憶部44には、ARアプリケーションのサーバプログラム(図示省略)が記憶される。また記憶部には、ARアプリケーションに関連するアプリケーション情報45や、ヘッドマウントディスプレイ10ごとの端末情報46が記憶される。アプリケーション情報45には、例えば、ARアプリケーションの進捗状態を表す進捗情報や、仮想オブジェクトの表示位置等が含まれる。また端末情報46には、各ヘッドマウントディスプレイ10の位置、姿勢、及び監視レベル等含まれる。アプリケーション情報45及び端末情報46は、各ヘッドマウントディスプレイ10の記憶部27に送信され端末間で共有される。 A server program (not shown) of an AR application is stored in the storage unit 44. Further, the storage unit stores application information 45 related to the AR application and terminal information 46 for each head-mounted display 10. The application information 45 includes, for example, progress information indicating the progress state of the AR application, a display position of a virtual object, and the like. Further, the terminal information 46 includes the position, posture, monitoring level, and the like of each head-mounted display 10. The application information 45 and the terminal information 46 are transmitted to the storage unit 27 of each head-mounted display 10 and shared between the terminals.

<概要>
以下では、LBE(Location Based Entertainment)の会場で、AR表示端末であるヘッドマウントディスプレイ10を貸し出す場合を例として、本技術の概要について説明する。ここで、LBEは、実空間に設定された会場でARを利用したゲーム等を行うイベントである。本技術では、イベント会場からヘッドマウントディスプレイ10を無断で持ち出す盗難行為を抑制するための監視処理が実行される。なお本技術は、LBEの他にも、AR表示端末を貸し出して行われる観光ガイドや教育支援等の任意のサービスに適用することが可能である。
<Overview>
Hereinafter, the outline of the present technology will be described by taking as an example the case where the head-mounted display 10 which is an AR display terminal is rented out at the venue of LBE (Location Based Entertainment). Here, LBE is an event in which a game or the like using AR is performed at a venue set in a real space. In this technology, a monitoring process is executed to suppress the theft of taking out the head-mounted display 10 from the event venue without permission. In addition to LBE, this technology can be applied to arbitrary services such as tourist guides and educational support provided by renting AR display terminals.

図4は、AR表示の一例を示す模式図である。図4A及び図4Bには、ヘッドマウントディスプレイ10を装着したユーザ1と、ARアプリケーションのコンテンツとして表示された仮想オブジェクト2が模式的に図示されている。これらの仮想オブジェクト2は、ヘッドマウントディスプレイ10を装着したユーザ1にのみ視認可能である。図4A及び図4Bでは、ARアプリケーションの進捗状態が異なっている。またユーザ1a及びユーザ1bには、ARアプリケーションにおける役割が設定されているものとする。 FIG. 4 is a schematic diagram showing an example of AR display. 4A and 4B schematically show a user 1 wearing a head-mounted display 10 and a virtual object 2 displayed as the contents of an AR application. These virtual objects 2 are visible only to the user 1 who wears the head-mounted display 10. In FIGS. 4A and 4B, the progress status of the AR application is different. Further, it is assumed that the user 1a and the user 1b are set to play a role in the AR application.

ここでは、複数のヘッドマウントディスプレイ10(ユーザ1)が同じマップDB31を使用し、各端末の初期位置推定が実施済みであるものとする。これにより、各ヘッドマウントディスプレイ10の位置や姿勢、あるいは仮想オブジェクト2等の位置や姿勢を共通の3D座標系で表すことが可能となる。なお、以下では、ヘッドマウントディスプレイ10の位置や姿勢を、ユーザ1の位置や姿勢と記載する場合がある。 Here, it is assumed that a plurality of head-mounted displays 10 (user 1) use the same map DB 31 and the initial position estimation of each terminal has been performed. This makes it possible to represent the position and orientation of each head-mounted display 10 or the position and orientation of the virtual object 2 and the like in a common 3D coordinate system. In the following, the position and posture of the head-mounted display 10 may be described as the position and posture of the user 1.

また各ヘッドマウントディスプレイ10は、ARアプリケーションの進捗を管理するサーバ装置40に自己位置を送信し、他のヘッドマウントディスプレイ10の自己位置(端末情報46)を受信するものとする。したがって、各ヘッドマウントディスプレイ10には、各ユーザ1が現実世界のどこにいるかといった情報が記憶される。なお、これら情報はヘッドマウントディスプレイ10とサーバ装置40間でのみ共有される情報である。従って他のユーザ1の位置等が表示部20等に表示されるわけではない。 Further, each head-mounted display 10 transmits its own position to the server device 40 that manages the progress of the AR application, and receives the self-position (terminal information 46) of another head-mounted display 10. Therefore, each head-mounted display 10 stores information such as where each user 1 is in the real world. Note that these information are shared only between the head-mounted display 10 and the server device 40. Therefore, the position and the like of the other user 1 are not displayed on the display unit 20 and the like.

図4Aでは、鳥型のキャラクター2aを、籠型のアイテム2bを使って捕獲するイベントが発生している。キャラクター2a及びアイテム2bはともに仮想オブジェクト2である。このイベントでは、一方のユーザ1aは、キャラクター2aの注意をひきつける役割を担っている。また他方のユーザ1bは、籠型のアイテム2を操作する役割を担っている。この場合、ユーザ1a及び1bが行動する範囲は、例えばキャラクター2aの近くの範囲になると考えられる。またユーザ1aの視線はキャラクター2aに向けられ、ユーザ1bの視線はアイテム2bに向けられる。 In FIG. 4A, an event occurs in which a bird-shaped character 2a is captured by using a basket-shaped item 2b. Both the character 2a and the item 2b are virtual objects 2. In this event, one user 1a plays a role of attracting the attention of the character 2a. The other user 1b is responsible for operating the basket-shaped item 2. In this case, the range in which the users 1a and 1b act is considered to be, for example, a range near the character 2a. Further, the line of sight of the user 1a is directed to the character 2a, and the line of sight of the user 1b is directed to the item 2b.

図4Bでは、実空間を飛翔するように表示された仮想オブジェクト2(鳥型のキャラクター2c)を探索するイベントが発生している。このイベントでは、ユーザ1a及び1bが、ともにキャラクター2cを探索する役割を担っている。この場合、ユーザ1a及び1bが行動する範囲は、キャラクター2cを探索するため、例えば図4Aのイベント発生時よりも広い範囲になると考えられる。またキャラクター2cが見つかった場合には、各ユーザ1a及び1cの視線は、ともにキャラクター2cに向けられると考えられる。 In FIG. 4B, an event for searching the virtual object 2 (bird-shaped character 2c) displayed so as to fly in the real space has occurred. In this event, users 1a and 1b both play a role in searching for character 2c. In this case, the range in which the users 1a and 1b act is considered to be a wider range than, for example, when the event in FIG. 4A occurs because the character 2c is searched. When the character 2c is found, it is considered that the eyes of the users 1a and 1c are both directed to the character 2c.

このように、ARアプリケーションでは、ゲームの進行(進捗状態)に応じて、仮想オブジェクト2の表示位置の更新や、それに伴うユーザ1の場所移動・姿勢変化が発生する。従って、ARアプリケーションの進捗状態、ARアプリケーションにおける各ユーザ1の役割、あるいは仮想オブジェクト2の表示位置等に応じて、ユーザが取りうる姿勢や動く範囲は異なるものとなる。このため、例えばユーザ1の位置(すなわちヘッドマウントディスプレイ10の位置)のみで、端末の盗難の可能性を判断することは難しい。 As described above, in the AR application, the display position of the virtual object 2 is updated according to the progress (progress state) of the game, and the location movement / posture change of the user 1 is generated accordingly. Therefore, the posture and the range of movement that the user can take differ depending on the progress status of the AR application, the role of each user 1 in the AR application, the display position of the virtual object 2, and the like. Therefore, for example, it is difficult to determine the possibility of the theft of the terminal only by the position of the user 1 (that is, the position of the head-mounted display 10).

本実施形態では、レベル設定部29により、ARアプリケーションの進捗状態に応じた条件情報が取得される。この場合、条件情報には、現在の進捗状態に合わせて設定された判定条件が含まれる。例えば図4A及び図4Bでは、発生しているイベントの種類(進捗状態)が異なるため、読み込まれる条件情報(条件表32)が異なる。これにより、ARアプリケーションの進捗状態に係らず、ヘッドマウントディスプレイ10の状態を適正に判定することが可能となる。 In the present embodiment, the level setting unit 29 acquires condition information according to the progress status of the AR application. In this case, the condition information includes the determination condition set according to the current progress state. For example, in FIGS. 4A and 4B, since the type of event occurring (progress state) is different, the condition information to be read (condition table 32) is different. This makes it possible to properly determine the state of the head-mounted display 10 regardless of the progress state of the AR application.

また本実施形態では、レベル設定部29により、ARアプリケーションにおけるユーザ1の役割に応じた条件情報が取得される。この場合、条件情報には、ユーザ1の役割に合わせて設定された判定条件が含まれる。例えば図4Aでは、ユーザ1a及びユーザ1bの役割が異なる。このため、各ユーザ1a及び1bが使用するヘッドマウントディスプレイ10では、使用者の役割に合った条件情報が読み込まれる。これにより、ユーザ1の役割に係らず、ヘッドマウントディスプレイ10の状態を適正に判定することが可能となる。 Further, in the present embodiment, the level setting unit 29 acquires condition information according to the role of the user 1 in the AR application. In this case, the condition information includes the determination condition set according to the role of the user 1. For example, in FIG. 4A, the roles of user 1a and user 1b are different. Therefore, the head-mounted display 10 used by each of the users 1a and 1b reads the condition information suitable for the role of the user. This makes it possible to properly determine the state of the head-mounted display 10 regardless of the role of the user 1.

なお、ユーザ1の役割を参照する方法等は限定されない。例えば、ユーザ1の役割が予め設定されている場合には、その役割に合った条件情報が読み込まれる。また例えばユーザ1の役割がゲームの途中で切り替えられる場合等には、現在のユーザ1の役割に合った条件情報が読み込まれる。従って、例えば同じイベントが発生した場合であっても、役割が異なる場合には、読み込まれる条件情報は異なる。 The method of referring to the role of user 1 is not limited. For example, when the role of the user 1 is set in advance, the condition information corresponding to the role is read. Further, for example, when the role of the user 1 is switched in the middle of the game, the condition information suitable for the current role of the user 1 is read. Therefore, for example, even if the same event occurs, if the roles are different, the condition information to be read is different.

これらの条件情報には、仮想オブジェクト2の表示位置や姿勢等を基準とした判定条件が含まれる。従って、例えば仮想オブジェクト2が移動した場合であっても、その仮想オブジェクト2に対するヘッドマウントディスプレイ10の相対位置や相対姿勢を判定することが可能である。これにより、仮想オブジェクト2の表示位置等に係らず、ヘッドマウントディスプレイ10の状態を適正に判定することが可能となる These condition information includes determination conditions based on the display position, posture, and the like of the virtual object 2. Therefore, for example, even when the virtual object 2 moves, it is possible to determine the relative position and the relative posture of the head-mounted display 10 with respect to the virtual object 2. As a result, the state of the head-mounted display 10 can be appropriately determined regardless of the display position of the virtual object 2.

このように、本技術では、ARアプリケーションの現在の状態(シナリオの進行状況、ユーザ1の役割、仮想オブジェクト2の表示位置等)に合わせた条件情報が読み込まれる。この条件情報に基づいて、監視レベルが設定される。条件を逸脱したユーザ1のヘッドマウントディスプレイ10に対しては、監視レベルに応じて、ユーザ1を誘導する指示コンテンツや警告といった監視用のコンテンツが出力される。これにより、ヘッドマウントディスプレイ10の盗難の可能性を段階的に判断することや、盗難行為そのものを抑制することが可能となる。 As described above, in the present technology, the condition information according to the current state of the AR application (scenario progress status, role of user 1, display position of virtual object 2, etc.) is read. The monitoring level is set based on this condition information. For the head-mounted display 10 of the user 1 who deviates from the conditions, monitoring contents such as instruction contents and warnings for guiding the user 1 are output according to the monitoring level. This makes it possible to determine the possibility of the theft of the head-mounted display 10 step by step and suppress the theft act itself.

<条件表>
図5は、ヘッドマウントディスプレイ10の状態を判定するための条件表32の一例である。以下では、判定の対象となるヘッドマウントディスプレイ10を装着したユーザ1をプレイヤAと記載する。また、ユーザ1とともにARアプリケーションのゲームをプレイする他のユーザ1としてプレイヤB及びプレイヤCを設定する。図5に示す条件表32は、プレイヤAに関する条件表32である。
<Condition table>
FIG. 5 is an example of the condition table 32 for determining the state of the head-mounted display 10. In the following, the user 1 wearing the head-mounted display 10 to be determined will be referred to as player A. Further, the player B and the player C are set as another user 1 who plays the game of the AR application together with the user 1. The condition table 32 shown in FIG. 5 is a condition table 32 relating to the player A.

例えば記憶部27には、ARアプリケーションの進捗状態及びARアプリケーションにおける役割に関連づけられた複数の条件表32が記憶される。これらの条件表32の中から、現在のARアプリケーションの進捗状態、及び現在のプレイヤAの役割に対応する条件表32が読み込まれる。条件表32は、ARアプリケーションの状態に応じた条件情報の一例である。 For example, the storage unit 27 stores a plurality of condition tables 32 associated with the progress status of the AR application and the role in the AR application. From these condition tables 32, the condition table 32 corresponding to the current progress status of the AR application and the current role of player A is read. The condition table 32 is an example of condition information according to the state of the AR application.

条件表32(条件情報)は、ヘッドマウントディスプレイ10の状態を判定するための複数の判定条件34を含む。図5に示す例では、条件表32の各行がそれぞれ判定条件34に対応する。監視レベルを設定する際には、条件表32に含まれる全ての判定条件34について、ヘッドマウントディスプレイ10の状態が判定される。 The condition table 32 (condition information) includes a plurality of determination conditions 34 for determining the state of the head-mounted display 10. In the example shown in FIG. 5, each row of the condition table 32 corresponds to the determination condition 34. When setting the monitoring level, the state of the head-mounted display 10 is determined for all the determination conditions 34 included in the condition table 32.

本実施形態では、ヘッドマウントディスプレイ10の状態を表す値として、指標算出対象35を基準とする指標値が用いられる。指標算出対象としては、例えば、実空間上のポイント、ARアプリケーションに参加する他のユーザ1、又はARアプリケーションで用いられる仮想オブジェクト2が設定される。 In the present embodiment, an index value based on the index calculation target 35 is used as a value representing the state of the head-mounted display 10. As the index calculation target, for example, a point in the real space, another user 1 participating in the AR application, or a virtual object 2 used in the AR application is set.

実空間上のポイントは、地図上の特定位置を表すポイントである。例えばイベントが発生した際のユーザ1の位置や、イベントが発生する領域の中心の位置等が指標算出対象35となるポイントとして設定される。図5に示す例では、座標(緯度x、経度y、高さz)で表される地点Pが、実空間上のポイントに相当する。ARアプリケーションに参加する他のユーザ1は、例えばユーザ1と一緒にゲーム参加しているプレイヤ等(図5に示すプレイヤB及びC)である。ARアプリケーションで用いられる仮想オブジェクト2は、指標値が算出されるタイミングで表示されている仮想オブジェクト2(図5に示す仮想オブジェクトA)である。なお、これらの対象のうち少なくとも1つが指標算出対象35として設定されてもよい。本実施形態では、指標算出対象35は、所定のターゲットに相当する。 A point in real space is a point that represents a specific position on a map. For example, the position of the user 1 when the event occurs, the position of the center of the area where the event occurs, and the like are set as points to be the index calculation target 35. In the example shown in FIG. 5, the point P represented by the coordinates (latitude x, longitude y, height z) corresponds to the point in the real space. The other user 1 who participates in the AR application is, for example, a player who participates in the game together with the user 1 (players B and C shown in FIG. 5). The virtual object 2 used in the AR application is a virtual object 2 (virtual object A shown in FIG. 5) displayed at the timing when the index value is calculated. At least one of these targets may be set as the index calculation target 35. In the present embodiment, the index calculation target 35 corresponds to a predetermined target.

図6は、ヘッドマウントディスプレイ10の指標値について説明するための模式図である。図6の(a)〜(c)には、指標算出対象35と、その周辺に存在するユーザ1(プレイヤA)とを上方から見た図が模式的に図示されている。指標算出対象35は、グレーの人物として図示されており、ユーザ1は、白色の人物として図示されている。各人物の鼻(図中の突起部分)が向いている方向が、人物の正面となる。 FIG. 6 is a schematic diagram for explaining the index value of the head-mounted display 10. FIGS. 6A to 6C schematically show a view of the index calculation target 35 and the user 1 (player A) existing around the index calculation target 35 from above. The index calculation target 35 is shown as a gray person, and the user 1 is shown as a white person. The direction in which each person's nose (protruding part in the figure) faces is the front of the person.

本実施形態では、ヘッドマウントディスプレイ10の状態を表す指標値としては、指標算出対象35に対するヘッドマウントディスプレイ10の位置差分(相対位置)、及び角度差分(相対方位)が用いられる。位置差分は、指標算出対象35の位置とヘッドマウントディスプレイ10(ユーザ1)の位置の差分である。角度差分は、指標算出対象35に正対している角度を0[deg]としたときの、そこからの変化量、すなわちヘッドマウントディスプレイ10の方位である。なお角度差分の最大値は、180[deg]とする。 In the present embodiment, as the index value indicating the state of the head-mounted display 10, the position difference (relative position) and the angle difference (relative orientation) of the head-mounted display 10 with respect to the index calculation target 35 are used. The position difference is the difference between the position of the index calculation target 35 and the position of the head-mounted display 10 (user 1). The angle difference is the amount of change from the angle when the angle facing the index calculation target 35 is 0 [deg], that is, the direction of the head-mounted display 10. The maximum value of the angle difference is 180 [deg].

例えば図6の(a)では、位置差分はX[m]である。またユーザ1は、指標算出対象35の正面に存在しているため、角度差分は0[deg]である。図6の(b)では、(a)と同様に位置差分はX[m]であるが、ユーザ1は指標算出対象35の真後に存在している。このため、角度差分は180[deg]となる。図6の(c)では、ユーザ1と指標算出対象35との距離が(a)及び(b)と比べて半分になっており、位置差分はX/2[m]である。また、ユーザ1は指標算出対象35の真横に存在しているため、角度差分は90[deg]となる。 For example, in FIG. 6A, the position difference is X [m]. Further, since the user 1 exists in front of the index calculation target 35, the angle difference is 0 [deg]. In FIG. 6B, the positional difference is X [m] as in FIG. 6A, but the user 1 exists directly behind the index calculation target 35. Therefore, the angle difference is 180 [deg]. In FIG. 6C, the distance between the user 1 and the index calculation target 35 is half that of (a) and (b), and the position difference is X / 2 [m]. Further, since the user 1 exists right next to the index calculation target 35, the angle difference is 90 [deg].

図5に戻り、各判定条件34の、"位置差分"の項目には、位置差分についての閾値が設定される。位置差分についての閾値は、指標算出対象35に対するヘッドマウントディスプレイ10(ユーザ1)の位置を判定するための閾値である。この閾値を適宜設定することで、例えばユーザ1が指標算出対象35からどの程度離れているかを段階的に評価するといったことが可能となる。また位置差分についての閾値により、ユーザ1が行動する範囲を規定することも可能である。この点については、後述する。本実施形態では、位置差分についての閾値は、位置判定情報に相当する。 Returning to FIG. 5, a threshold value for the position difference is set in the item of "position difference" of each determination condition 34. The threshold value for the position difference is a threshold value for determining the position of the head-mounted display 10 (user 1) with respect to the index calculation target 35. By appropriately setting this threshold value, for example, it is possible to evaluate in stages how far the user 1 is from the index calculation target 35. It is also possible to define the range in which the user 1 acts by the threshold value for the position difference. This point will be described later. In the present embodiment, the threshold value for the position difference corresponds to the position determination information.

また、各判定条件34の、"角度差分"の項目には、角度差分についての閾値が設定される。角度差分についての閾値は、指標算出対象35に対するヘッドマウントディスプレイ10(ユーザ1)の方位を判定するための閾値である。角度差分についての閾値により、指標算出対象から見たユーザ1が存在するべき方位等を規定することが可能である。本実施形態では、角度差分についての閾値は、方位判定情報に相当する。 Further, a threshold value for the angle difference is set in the item of "angle difference" in each determination condition 34. The threshold value for the angle difference is a threshold value for determining the orientation of the head-mounted display 10 (user 1) with respect to the index calculation target 35. The threshold value for the angle difference can specify the direction in which the user 1 should exist as seen from the index calculation target. In the present embodiment, the threshold value for the angle difference corresponds to the directional determination information.

このように、各判定条件34には、位置差分及び角度差分についての閾値が含まれる。これにより、例えば指標算出対象が移動する場合であっても、ヘッドマウントディスプレイ10の相対位置や相対姿勢を適正判定することが可能となり、柔軟な条件設定が可能となる。なお、各判定条件34には、位置差分及び角度差分のどちらか一方の閾値のみが設定されてもよい。 As described above, each determination condition 34 includes a threshold value for the position difference and the angle difference. As a result, for example, even when the index calculation target moves, the relative position and relative posture of the head-mounted display 10 can be appropriately determined, and flexible condition setting becomes possible. In each determination condition 34, only one of the threshold values of the position difference and the angle difference may be set.

また本実施形態では、複数の判定条件34は、各々が監視レベルの候補値と対応付けられている。図5に示す例では、"監視レベル"の項目に、監視レベルの候補として用いられる候補値が設定される。この候補値は、ヘッドマウントディスプレイ10の指標値が、位置差分及び角度差分についての閾値を超えた場合に監視レベルの候補として設定される値である。各判定条件34と監視レベルの候補値とを対応付けることで、条件設定等を直感的に行うことが可能となる。なお、1つの判定条件34において、位置差分及び角度差分がともに閾値を超えたからと言って、その候補値がそのまま監視レベルに設定されるわけではない(図8のステップ207等参照)。 Further, in the present embodiment, each of the plurality of determination conditions 34 is associated with the candidate value of the monitoring level. In the example shown in FIG. 5, a candidate value used as a candidate for the monitoring level is set in the item of "monitoring level". This candidate value is a value set as a candidate for the monitoring level when the index value of the head-mounted display 10 exceeds the threshold value for the position difference and the angle difference. By associating each determination condition 34 with the candidate value of the monitoring level, it is possible to intuitively set the condition and the like. Note that even if both the position difference and the angle difference exceed the threshold value under one determination condition 34, the candidate value is not set as it is at the monitoring level (see step 207 and the like in FIG. 8).

本実施形態では、レベル0、レベル1、レベル2、及びレベル3までの4段階の監視レベルが用いられる。各判定条件には、これらの4段階のレベルが候補値としてそれぞれ設定される。レベル0は、監視レベルが最も低く、通常のARアプリケーションの動作が継続されるレベルである。レベル1では、例えば移動すべき方向を暗示する指示コンテンツが出力される。またレベル2では、例えば移動すべき方向を明示する指示コンテンツが出力される。レベル3では、ARアプリケーションの動作が停止される。各レベルでの動作については、後に詳しく説明する。 In this embodiment, four monitoring levels up to level 0, level 1, level 2, and level 3 are used. For each determination condition, these four levels are set as candidate values. Level 0 is the level at which the monitoring level is the lowest and the normal operation of the AR application is continued. At level 1, for example, instruction content suggesting a direction to move is output. Further, at level 2, for example, instruction content that clearly indicates the direction to be moved is output. At level 3, the operation of the AR application is stopped. The operation at each level will be described in detail later.

このように、条件表32は、指標算出対象と、許容する指標値(閾値)と、指標値が閾値を超えたときに設定される監視レベルの候補値とがそれぞれ対応付けられた表となっている。例えば、地点Pに関する判定条件では、位置差分が200m以下である場合、候補値としてレベル0が設定され、200mより大きい場合、候補値がレベル3に引き上げられる。これは、地点Pから半径200mの範囲では自由に行動することが許容されているとも言える。これにより、地点Pから大きく離れて行動するユーザ1等を容易に検出することが可能となる。 In this way, the condition table 32 is a table in which the index calculation target, the permissible index value (threshold value), and the candidate value of the monitoring level set when the index value exceeds the threshold value are associated with each other. ing. For example, in the judgment condition regarding the point P, when the position difference is 200 m or less, level 0 is set as the candidate value, and when it is larger than 200 m, the candidate value is raised to level 3. It can be said that it is allowed to move freely within a radius of 200 m from the point P. This makes it possible to easily detect the user 1 and the like who act far away from the point P.

また例えば、プレイヤB及びプレイヤCに関する判定条件34では、位置差分が5m、10m、及び10mより大きくなった場合に、候補値がレベル1、レベル2、及びレベル3にそれぞれ設定される。これは、許容されるプレイヤA、B、及びC間の距離が50mに設定されていることを意味する。従って、例えばユーザ1(プレイヤA)がプレイヤB又はCのいずれかに対して50mよりも離れた場合には、監視レベルの候補値としてレベル3が設定されることになる。これにより、他のユーザ1から離れて行動するユーザ1等を容易に検出することが可能となる。 Further, for example, in the determination condition 34 regarding the player B and the player C, when the position difference becomes larger than 5 m, 10 m, and 10 m, the candidate values are set to level 1, level 2, and level 3, respectively. This means that the permissible distance between players A, B, and C is set to 50 m. Therefore, for example, when the user 1 (player A) is more than 50 m away from either the player B or C, the level 3 is set as a candidate value for the monitoring level. This makes it possible to easily detect the user 1 and the like who act away from the other user 1.

仮想オブジェクトAに関する判定条件34では、位置差分が10mより大きく、かつ角度差分が90degよりも大きくなった場合に、監視レベルの候補値がレベル2に設定される。これは、例えば仮想オブジェクトAから十分に離れており、仮想オブジェクトAの後ろ側等に存在するユーザ1の監視レベルを高めることを意味する。これにより、例えば仮想オブジェクトAを無視して行動するユーザ1等を容易に検出することが可能となる。 In the determination condition 34 regarding the virtual object A, when the position difference is larger than 10 m and the angle difference is larger than 90 deg, the candidate value of the monitoring level is set to level 2. This means, for example, that the monitoring level of the user 1 who is sufficiently far from the virtual object A and exists behind the virtual object A is increased. This makes it possible to easily detect, for example, a user 1 or the like who acts while ignoring the virtual object A.

判定条件34として用いられる指標値の種類や、条件表32の形式等は限定されない。例えば、ヘッドマウントディスプレイ10の速度・加速度・角速度・角加速度等の運動パラメータが指標値として用いられてもよい。運動パラメータの指標算出対象35に対する相対値(差分値)が指標値として用いられてもよいし、そのままの値が指標値として用いられてもよい。また、位置差分や運動パラメータの差分は軸ごとに算出されて、それぞれ独立した指標値として用いられもよい。この他、撮像部により撮像された画像から得られる特徴点の数等を指標値としてもよい。例えば特徴点の数が減少した場合には、ユーザ1がマップDB31として記録されている実空間の範囲から遠ざかっているといった判定を行うことが可能である。またこれらの指標値が用いられる場合には、条件表32の項目(カラム)が増設され、各指標値を判定するための閾値が適宜設定される。 The type of index value used as the determination condition 34, the format of the condition table 32, and the like are not limited. For example, motion parameters such as velocity, acceleration, angular velocity, and angular acceleration of the head-mounted display 10 may be used as index values. The relative value (difference value) of the movement parameter with respect to the index calculation target 35 may be used as the index value, or the value as it is may be used as the index value. Further, the position difference and the difference of the motion parameters may be calculated for each axis and used as independent index values. In addition, the number of feature points obtained from the image captured by the imaging unit may be used as an index value. For example, when the number of feature points decreases, it is possible to determine that the user 1 is moving away from the range of the real space recorded as the map DB 31. When these index values are used, the items (columns) in the condition table 32 are added, and threshold values for determining each index value are appropriately set.

<動作説明>
図7は、監視処理の一例を示すフローチャートである。以下では、ヘッドマウントディスプレイ10で実行される監視処理について図7に示すフローチャートを参照して説明する。図7に示す処理は、例えばARアプリケーションの開始とともに実行され、ユーザ1による終了操作等が行われるまで、継続して実行される処理である。
<Operation explanation>
FIG. 7 is a flowchart showing an example of the monitoring process. Hereinafter, the monitoring process executed by the head-mounted display 10 will be described with reference to the flowchart shown in FIG. 7. The process shown in FIG. 7 is executed at the same time as the start of the AR application, and is continuously executed until the end operation or the like is performed by the user 1.

[初期位置設定処理]
ARアプリケーションが開始され、マップDB31の利用が開始される(ステップ101)。例えば記憶部27やサーバ装置40に記憶されたマップDB31が読み込まれる。自己位置推定部28により、マップDB31に基づいたRelocalizationが実行され、ヘッドマウントディスプレイ10の絶対位置が推定される(ステップ102)。推定された絶対位置が、ヘッドマウントディスプレイ10の初期位置として設定される。
[Initial position setting process]
The AR application is started, and the use of the map DB 31 is started (step 101). For example, the map DB 31 stored in the storage unit 27 or the server device 40 is read. Relocation based on the map DB 31 is executed by the self-position estimation unit 28, and the absolute position of the head-mounted display 10 is estimated (step 102). The estimated absolute position is set as the initial position of the head-mounted display 10.

Relocalizationでは、例えば撮像部21により撮像された画像情報が、マップDB31を構成する複数のキーフレームと比較される。具体的には、画像情報とキーフレームとの特徴点のマッチング処理等が実行され、特徴点等のマッチングが取れたキーフレームに基づいて、ヘッドマウントディスプレイ10の絶対位置が推定される。この場合、自己位置推定部28は、Relocalizationを行う演算処理部(Relocalizer)として機能する。この他、絶対位置(初期位置)を推定する方法は限定されない。 In Relocalization, for example, the image information captured by the imaging unit 21 is compared with a plurality of keyframes constituting the map DB 31. Specifically, a matching process of feature points between image information and keyframes is executed, and the absolute position of the head-mounted display 10 is estimated based on the keyframes in which the feature points and the like are matched. In this case, the self-position estimation unit 28 functions as an arithmetic processing unit (Relocalizer) that performs Relocalization. In addition, the method of estimating the absolute position (initial position) is not limited.

絶対位置の推定が完了したか否かが判定され(ステップ103)、完了していないと判定された場合(ステップ103のNo)、再度ステップ102が実行される。すなわち、絶対位置が推定されるまで、Relocalizationが継続される。絶対位置の推定が完了した場合(ステップ103のYes)、ARアプリケーションが起動され(ステップ104)、ARコンテンツの描画が開始される。例えば、記憶部27に記憶された端末プログラムがロードされ、ARアプリケーションの進捗状態等がサーバ装置40から読み込まれる。そして、コンテンツ出力部30により、ARアプリケーションの進捗状態に合わせて、キャラクターやアイテム等のARコンテンツ(仮想オブジェクト2)を表示するための画像データが生成され、表示部20に出力される。ARコンテンツが描画されると、監視レベルの更新処理が開始される(ステップ106)。 If it is determined whether or not the absolute position estimation is completed (step 103) and it is determined that the absolute position estimation is not completed (No in step 103), step 102 is executed again. That is, the relocation is continued until the absolute position is estimated. When the estimation of the absolute position is completed (Yes in step 103), the AR application is started (step 104), and the drawing of the AR content is started. For example, the terminal program stored in the storage unit 27 is loaded, and the progress status of the AR application and the like are read from the server device 40. Then, the content output unit 30 generates image data for displaying AR content (virtual object 2) such as a character or an item according to the progress state of the AR application, and outputs the image data to the display unit 20. When the AR content is drawn, the monitoring level update process is started (step 106).

[監視レベルの更新処理]
図8は、監視レベルの更新処理の一例を示すフローチャートである。図8に示す処理は、図7に示すステップ106の内部処理に相当する。この更新処理は、主にレベル設定部29により実行される処理である。更新処理では、まず現在の監視レベルがレベル0に設定され、監視レベルが初期化される(ステップ201)。
[Monitoring level update process]
FIG. 8 is a flowchart showing an example of the monitoring level update process. The process shown in FIG. 8 corresponds to the internal process of step 106 shown in FIG. 7. This update process is mainly executed by the level setting unit 29. In the update process, the current monitoring level is first set to level 0, and the monitoring level is initialized (step 201).

監視レベルが初期化されると、現在の状態に対応する条件表32が読み込まれる(ステップ202)。例えばステップ202が実行されるタイミングでのARアプリケーションの進捗状態及びユーザ1の役割に対応する条件表32が、記憶部27から読み込まれる。そして、条件表32に含まれる未評価の判定条件34が選択される(ステップ203)。なお、条件表32に含まれる判定条件34が全て評価済である場合には、ステップ107が実行される。未評価の判定条件34が選択されると、その判定条件34で用いられる指標値を評価する処理が実行される(ステップ204)。 When the monitoring level is initialized, the condition table 32 corresponding to the current state is read (step 202). For example, the condition table 32 corresponding to the progress status of the AR application and the role of the user 1 at the timing when step 202 is executed is read from the storage unit 27. Then, the unevaluated determination condition 34 included in the condition table 32 is selected (step 203). If all the determination conditions 34 included in the condition table 32 have been evaluated, step 107 is executed. When the unevaluated determination condition 34 is selected, the process of evaluating the index value used in the determination condition 34 is executed (step 204).

図9は、指標値の評価処理の一例を示すフローチャートである。図9に示す処理は、図8に示すステップ204の内部処理に相当する。ここでは、指標値として、図5及び図6等を参照して説明した位置差分及び角度差分が算出され、これらの指標値が評価される。なお、他の指標値が用いられる場合には、当該指標値を算出するための処理が適宜実行されてよい。 FIG. 9 is a flowchart showing an example of the evaluation process of the index value. The process shown in FIG. 9 corresponds to the internal process of step 204 shown in FIG. Here, as the index values, the position difference and the angle difference described with reference to FIGS. 5 and 6 and the like are calculated, and these index values are evaluated. When another index value is used, a process for calculating the index value may be appropriately executed.

図9に示す算出処理では、まずレベル設定部29により、ヘッドマウントディスプレイ10の位置が読み込まれる(ステップ301)。例えば自己位置推定部28により、ヘッドマウントディスプレイ10のマップDB31における座標(絶対位置)がSLAM等を用いて推定される。この推定結果が、レベル設定部29に読み込まれる。 In the calculation process shown in FIG. 9, the position of the head-mounted display 10 is first read by the level setting unit 29 (step 301). For example, the self-position estimation unit 28 estimates the coordinates (absolute position) of the head-mounted display 10 in the map DB 31 using SLAM or the like. This estimation result is read into the level setting unit 29.

次に、指標算出対象35の位置・姿勢が読み込まれる(ステップ302)。例えば指標算出対象35が、他のユーザ1である場合には、当該ユーザが使用するヘッドマウントディスプレイの位置及び姿勢が、サーバ装置40を介して読み込まれる。また指標算出対象35が、実空間上のポイントである場合には、ポイントの座標値が読み込まれる。また指標算出対象35が、仮想オブジェクト2である場合には、仮想オブジェクト2の現在の位置や向きがサーバ装置40を介して読み込まれる。 Next, the position / posture of the index calculation target 35 is read (step 302). For example, when the index calculation target 35 is another user 1, the position and orientation of the head-mounted display used by that user are read via the server device 40. When the index calculation target 35 is a point in the real space, the coordinate value of the point is read. When the index calculation target 35 is the virtual object 2, the current position and orientation of the virtual object 2 are read via the server device 40.

ヘッドマウントディスプレイ10及び指標算出対象35の各位置に基づいて、現在の指標値が算出される(ステップ303)。ここでは、ヘッドマウントディスプレイ10及び指標算出対象35についての位置差分及び角度差分が算出される。位置差分は、例えばマップDB31の3D座標系におけるユークリッド距離として算出される。角度差分は、例えば指標算出対象35に対するヘッドマウントディスプレイ10の水平位置に基づいて算出される。なお、指標算出対象35が実空間上のポイントである場合には、位置差分のみが算出される。 The current index value is calculated based on each position of the head-mounted display 10 and the index calculation target 35 (step 303). Here, the position difference and the angle difference for the head-mounted display 10 and the index calculation target 35 are calculated. The position difference is calculated as, for example, the Euclidean distance in the 3D coordinate system of the map DB31. The angle difference is calculated based on, for example, the horizontal position of the head-mounted display 10 with respect to the index calculation target 35. When the index calculation target 35 is a point in the real space, only the position difference is calculated.

同一の指標算出対象35についての判定条件34が複数ある場合、算出された位置差分や姿勢差分を他の判定条件34の判定に用いてもよい。また、位置差分(角度差分)の閾値が0に設定されている条件については、位置差分(角度差分)の算出処理が行われなくてもよい。この他、指標値を算出する方法や順番等は限定されない。 When there are a plurality of determination conditions 34 for the same index calculation target 35, the calculated position difference and posture difference may be used for the determination of other determination conditions 34. Further, for the condition that the threshold value of the position difference (angle difference) is set to 0, the calculation process of the position difference (angle difference) may not be performed. In addition, the method and order of calculating the index value are not limited.

指標値が算出されると、判定条件34に基づいて指標値が評価される(ステップ304)。具体的には、現在の指標値と判定条件34の閾値とが比較され、指標値と閾値との大小関係を表す評価結果が算出される。例えば、ステップ303で算出された位置差分及び角度差分について、対応する閾値との大小関係がそれぞれ算出され、評価結果として記録される。 When the index value is calculated, the index value is evaluated based on the determination condition 34 (step 304). Specifically, the current index value and the threshold value of the determination condition 34 are compared, and an evaluation result indicating the magnitude relationship between the index value and the threshold value is calculated. For example, with respect to the position difference and the angle difference calculated in step 303, the magnitude relationship with the corresponding threshold value is calculated and recorded as an evaluation result.

図8に戻り、現在の指標値が判定条件の閾値より大きいか否かが判定される(ステップ205)。ここでは、ステップ304で算出された評価結果に基づいて、判定条件34に設定された全ての指標値についての判定処理が実行される。これは、指標値によって表されるヘッドマウントディスプレイ10の状態を、判定条件34に基づいて判定する処理と言える。全ての指標値が閾値以下であると判定された場合(ステップ205のNo)、ステップ203以降の処理が再度実行される。 Returning to FIG. 8, it is determined whether or not the current index value is larger than the threshold value of the determination condition (step 205). Here, based on the evaluation result calculated in step 304, the determination process for all the index values set in the determination condition 34 is executed. It can be said that this is a process of determining the state of the head-mounted display 10 represented by the index value based on the determination condition 34. When it is determined that all the index values are equal to or less than the threshold value (No in step 205), the processes after step 203 are executed again.

判定条件34に設定された指標値のうち、少なくとも1つの指標値が閾値よりも大きいと判定された場合(ステップ205のYes)、判定条件34に対応付けられた監視レベルの候補値と、現在の監視レベルとが比較される(ステップ206)。この比較結果に基づいて、判定条件の監視レベルの候補値が、現在の監視レベルよりも大きいか否かが判定される(ステップ207)。 When it is determined that at least one index value among the index values set in the judgment condition 34 is larger than the threshold value (Yes in step 205), the candidate value of the monitoring level associated with the judgment condition 34 and the present Is compared with the monitoring level of (step 206). Based on this comparison result, it is determined whether or not the candidate value of the monitoring level of the determination condition is larger than the current monitoring level (step 207).

監視レベルの候補値が現在の監視レベル以下である場合(ステップ207のNo)、監視レベルの更新は不要であるとして、ステップ203以降の処理が再度実行される。また、監視レベルの候補値が現在の監視レベルより大きい場合(ステップ207のYes)、現在の監視レベルに判定条件に対応付けられた監視レベルの候補値が代入される(ステップ208)。すなわち、候補値の値が現在の監視レベルを超えた場合にのみ、監視レベルが高いレベルに更新される。 When the candidate value of the monitoring level is equal to or lower than the current monitoring level (No in step 207), it is assumed that the monitoring level does not need to be updated, and the processes after step 203 are executed again. When the candidate value of the monitoring level is larger than the current monitoring level (Yes in step 207), the candidate value of the monitoring level associated with the determination condition is assigned to the current monitoring level (step 208). That is, the monitoring level is updated to a higher level only when the value of the candidate value exceeds the current monitoring level.

監視レベルが更新されると、更新に用いられた判定条件34の基準となっている指標算出対象35が記憶される(ステップ209)。この指標算出対象35は、後述する指示コンテンツ等の出力処理に用いられる。指標算出対象35が記憶されると、未評価の判定条件34が存在するか否かが判定される(ステップ210)。未評価の判定条件34が存在した場合(ステップ210のYes)、ステップ203以降の処理が再度実行される。未評価の判定条件34が存在しない場合(ステップ210のYes)、すなわち全ての判定条件34についての評価が完了した場合、ステップ107が実行される。 When the monitoring level is updated, the index calculation target 35, which is the reference of the determination condition 34 used for the update, is stored (step 209). The index calculation target 35 is used for output processing of instruction content and the like, which will be described later. When the index calculation target 35 is stored, it is determined whether or not there is an unevaluated determination condition 34 (step 210). If the unevaluated determination condition 34 exists (Yes in step 210), the processes after step 203 are executed again. If there are no unrated determination conditions 34 (Yes in step 210), that is, if the evaluations for all the determination conditions 34 are completed, step 107 is executed.

図10は、監視レベルについて説明するための模式図である。図10には、ユーザ1a(プレイヤA)と、指標算出対象35となるユーザ1b(プレイヤB)、ユーザ1c(プレイヤC)、及び仮想オブジェクト2(仮想オブジェクトA)との配置が模式的に図示されている。また、各指標算出対象35から5mの範囲が点線の円で図示されている。ここでは、図5に示す条件表32に従って、図10に示す配置で設定される監視レベルについて説明する。なおユーザ1aは、条件表32に示す地点Pから200m以内に存在しているものとする。 FIG. 10 is a schematic diagram for explaining the monitoring level. FIG. 10 schematically illustrates the arrangement of the user 1a (player A), the user 1b (player B), the user 1c (player C), and the virtual object 2 (virtual object A), which are the index calculation target 35. Has been done. Further, the range of each index calculation target 35 to 5 m is illustrated by a dotted circle. Here, the monitoring level set in the arrangement shown in FIG. 10 will be described according to the condition table 32 shown in FIG. It is assumed that the user 1a exists within 200 m from the point P shown in the condition table 32.

図10に示すように、ユーザ1aは、ユーザ1cから5mの範囲内に存在し、また仮想オブジェクト2から5mの範囲内に存在する。このため、図5に示す判定条件では、プレイヤC及び仮想オブジェクトAについてのユーザ1aの監視レベル(候補値)は0となる。一方で、ユーザ1aは、ユーザ1bから5m以上離れた位置に存在する。従って図5に示す判定条件から、プレイヤBについてのユーザ1aの監視レベル(候補値)は1となる。このため、図10に示す配置状態において、図5に示す条件表32を適用すると、最大の候補値であるレベル1が監視レベルとして設定される。 As shown in FIG. 10, the user 1a exists within a range of 5 m from the user 1c and also exists within a range of 5 m from the virtual object 2. Therefore, under the determination condition shown in FIG. 5, the monitoring level (candidate value) of the user 1a for the player C and the virtual object A is 0. On the other hand, the user 1a exists at a position separated from the user 1b by 5 m or more. Therefore, from the determination conditions shown in FIG. 5, the monitoring level (candidate value) of the user 1a for the player B is 1. Therefore, when the condition table 32 shown in FIG. 5 is applied in the arrangement state shown in FIG. 10, the maximum candidate value, level 1, is set as the monitoring level.

このように、図8に示す監視レベルの更新処理では、レベル設定部29により、複数の判定条件34についてヘッドマウントディスプレイ10の状態(指標値)がそれぞれ判定され、当該判定結果が表す最大の候補値が監視レベルに設定される。これにより、アプリケーションの状態に合った監視レベルを適正に設定することが可能となる。 As described above, in the monitoring level update process shown in FIG. 8, the level setting unit 29 determines the state (index value) of the head-mounted display 10 for each of the plurality of determination conditions 34, and is the largest candidate represented by the determination result. The value is set to the monitoring level. This makes it possible to appropriately set the monitoring level according to the state of the application.

図7に戻り、監視レベルが更新されると、監視レベルに応じた動作が実行される(ステップ107)。図5を参照して説明したように、本実施形態では、レベル0〜レベル3までの4段階の監視レベルが設定される。ステップ107では、これらの監視レベルにあった表示処理等が実行される。 Returning to FIG. 7, when the monitoring level is updated, the operation according to the monitoring level is executed (step 107). As described with reference to FIG. 5, in the present embodiment, four levels of monitoring from level 0 to level 3 are set. In step 107, display processing or the like suitable for these monitoring levels is executed.

監視レベルがレベル3未満であるか否かが判定される(ステップ108)。後述するようにレベル3では、監視モードが実行される。従って、監視レベルがレベル3である場合(ステップ108のNo)、ステップ107として監視モードが実行される。すなわち、監視レベルがレベル3に設定されると、それ以降は監視モードが継続されることになる。これにより、ヘッドマウントディスプレイ10を盗難する可能性が高いと判断されたユーザ1(監視レベルがレベル3に設定されたユーザ1)を継続して監視することが可能となる。 It is determined whether the monitoring level is less than level 3 (step 108). As will be described later, at level 3, the monitoring mode is executed. Therefore, when the monitoring level is level 3 (No in step 108), the monitoring mode is executed as step 107. That is, when the monitoring level is set to level 3, the monitoring mode is continued thereafter. This makes it possible to continuously monitor the user 1 (user 1 whose monitoring level is set to level 3), which is determined to have a high possibility of stealing the head-mounted display 10.

監視レベルがレベル3未満である場合(ステップ108のYes)、ARアプリケーションを終了するか否かが判定される(ステップ109)。例えばARアプリケーションの終了を指示する操作入力等が受け付けられた場合(ステップ109のYes)、ARアプリケーションを終了する処理が実行される。またARアプリケーションを終了しない場合(ステップ109)、ステップ105以降の処理が再度実行される。 If the monitoring level is less than level 3 (Yes in step 108), it is determined whether or not to terminate the AR application (step 109). For example, when an operation input or the like for instructing the termination of the AR application is accepted (Yes in step 109), the process of terminating the AR application is executed. If the AR application is not terminated (step 109), the processes after step 105 are executed again.

<行動範囲の設定>
本実施形態では、監視レベルがレベル1又はレベル2に設定された場合に、コンテンツ出力部30により、ARアプリケーションの状態に応じた行動範囲へとユーザを誘導する指示コンテンツが出力される。以下では、図10を参照して行動範囲を設定する方法について説明する。
<Setting the range of action>
In the present embodiment, when the monitoring level is set to level 1 or level 2, the content output unit 30 outputs instruction content that guides the user to the action range according to the state of the AR application. Hereinafter, a method of setting the action range will be described with reference to FIG.

図10に示す配置では、ユーザ1aは、ユーザ1bから5m以上離れているために、監視レベルがレベル1に設定されている。従って、ユーザ1aがユーザ1bを中心とする5mの範囲内に移動することで、監視レベルをレベル0に下げることが可能である。この場合、ユーザ1b(プレイヤB)について設定された位置差分の閾値により規定される範囲(ユーザ1bを中心とする半径5mの範囲)が、ARアプリケーションの状態に応じた行動範囲38となる。 In the arrangement shown in FIG. 10, since the user 1a is separated from the user 1b by 5 m or more, the monitoring level is set to level 1. Therefore, the monitoring level can be lowered to level 0 by moving the user 1a within a range of 5 m centered on the user 1b. In this case, the range defined by the threshold value of the position difference set for the user 1b (player B) (the range having a radius of 5 m centered on the user 1b) becomes the action range 38 according to the state of the AR application.

このように、本実施形態では、監視レベルの設定に用いられた判定条件に基づいて、ユーザ1が移動するべき行動範囲38が自動的に設定される。また、判定条件とは別に、ARアプリケーションの状態に応じた行動範囲38等が設定されてもよい。この場合、行動範囲38は、監視レベルが低くなるような範囲として設定される。このように本実施形態では、コンテンツ出力部30は、位置差分の閾値に基づいて、監視レベルが小さくなるように行動範囲38を設定する。 As described above, in the present embodiment, the action range 38 to be moved by the user 1 is automatically set based on the determination condition used for setting the monitoring level. Further, apart from the determination condition, the action range 38 or the like may be set according to the state of the AR application. In this case, the action range 38 is set as a range in which the monitoring level is low. As described above, in the present embodiment, the content output unit 30 sets the action range 38 so that the monitoring level becomes smaller based on the threshold value of the position difference.

またコンテンツ出力部30は、このように設定された行動範囲38へとユーザ1を移動させる指示コンテンツを出力する。具体的には、監視レベルを設定する際に対象となった指標算出対象35(図10ではユーザ1b)に、ユーザ1aを近づかせるような誘導が行われる。指標算出対象35としては、図8のステップ209で記憶された対象が用いられる。 Further, the content output unit 30 outputs instruction content for moving the user 1 to the action range 38 set in this way. Specifically, guidance is performed so that the user 1a is brought closer to the index calculation target 35 (user 1b in FIG. 10), which is the target when the monitoring level is set. As the index calculation target 35, the target stored in step 209 of FIG. 8 is used.

例えば図10に示す矢印の方向に沿ってユーザ1aを移動させるような指示コンテンツが提示される。このように、本実施形態では、コンテンツ出力部により、監視レベルの設定に用いられた判定条件34の基準となる指標算出対象35への接近を促す指示コンテンツが出力される。これにより、監視レベルを自然に下げることが可能となる。 For example, instruction content for moving the user 1a along the direction of the arrow shown in FIG. 10 is presented. As described above, in the present embodiment, the content output unit outputs instruction content for prompting the approach to the index calculation target 35, which is the reference of the determination condition 34 used for setting the monitoring level. This makes it possible to naturally lower the monitoring level.

<監視レベルに応じた動作>
監視レベルに応じて実行される動作について、監視レベルごとに具体的に説明する。以下で説明する動作は、例えば図7に示すステップ107で実行される動作である。
<Operation according to the monitoring level>
The operations executed according to the monitoring level will be specifically described for each monitoring level. The operation described below is, for example, the operation executed in step 107 shown in FIG.

[レベル0:通常動作]
監視レベルがレベル0に設定された場合、ステップ107において特別な処理は実行されない。この結果、終了操作等が行われていない場合には、ARコンテンツを描画する処理(ステップ105)等が継続される。これは、通常のARアプリケーションの動作である。また、レベル0の場合であっても、監視レベルの更新処理(ステップ106)は常時実行される。これにより、ヘッドマウントディスプレイ10が盗難される可能性を常時モニタリングすることが可能となる。
[Level 0: Normal operation]
If the monitoring level is set to level 0, no special processing is performed in step 107. As a result, when the end operation or the like is not performed, the process of drawing the AR content (step 105) or the like is continued. This is the behavior of a normal AR application. Further, even in the case of level 0, the monitoring level update process (step 106) is always executed. This makes it possible to constantly monitor the possibility that the head-mounted display 10 is stolen.

[レベル1:暗示的なコンテンツの出力]
監視レベルがレベル1に設定された場合、指示コンテンツとして行動範囲38へ移動するための移動方向の具体的な指示を含まない第1のコンテンツが出力される。第1のコンテンツは、例えば、提示された指示に従うと監視レベルがレベル0に戻る(指標値が小さくなる)ように構成されたコンテンツであり、移動方向の具体的な指示や禁止等の表示を含まないコンテンツである。すなわち、第1のコンテンツは、移動方向を暗示させる暗示的なコンテンツであるともいる。本実施形態では、レベル1は、第1のレベルに相当する。
[Level 1: Implicit content output]
When the monitoring level is set to level 1, the first content that does not include a specific instruction of the moving direction for moving to the action range 38 is output as the instruction content. The first content is, for example, content configured so that the monitoring level returns to level 0 (the index value becomes smaller) when the presented instruction is followed, and a specific instruction or prohibition of the moving direction is displayed. Content that is not included. That is, the first content is also said to be implicit content that implies a moving direction. In this embodiment, level 1 corresponds to the first level.

図11は、第1のコンテンツの一例を示す模式図である。図11A〜図11Dには、監視レベルがレベル1である場合に、表示部20に描画される指示コンテンツ50(第1のコンテンツ)の一例が模式的に図示されている。 FIG. 11 is a schematic diagram showing an example of the first content. 11A to 11D schematically show an example of the instruction content 50 (first content) drawn on the display unit 20 when the monitoring level is level 1.

図11Aでは、移動方向の目的地(行動範囲38又は指標算出対象35)の位置を文字情報で表す指示コンテンツ50が表示されている。この例では、"後ろにトリが飛んでいる"というメッセージにより、ARアプリケーションにおけるキャラクターである"トリ"(指標算出対象35)が存在している位置等を暗示することが可能である。なお、文字情報とともに、3D音響等を用いて指標算出対象35の位置を表すことも可能である。 In FIG. 11A, the instruction content 50 representing the position of the destination (action range 38 or index calculation target 35) in the moving direction in character information is displayed. In this example, the message "a bird is flying behind" can imply the position where the character "bird" (index calculation target 35) exists in the AR application. It is also possible to represent the position of the index calculation target 35 by using 3D sound or the like together with the character information.

図11Bでは、ARアプリケーションにおいて用いられるキャラクタオブジェクトを用いて目的地の位置を表す指示コンテンツ50が表示されている。ここでは、猫型のキャラクタオブジェクト(仮想オブジェクト2)からのメッセージとして移動方向が暗示される。このメッセージは音声であってもよいし、キャラクタオブジェクトのジェスチャ等により移動方向が表されてもよい。 In FIG. 11B, the instruction content 50 representing the position of the destination is displayed using the character object used in the AR application. Here, the moving direction is implied as a message from the cat-shaped character object (virtual object 2). This message may be voice, or the moving direction may be indicated by a gesture of a character object or the like.

図11Cでは、ARアプリケーションにおいて用いられるアイテムオブジェクトを用いて目的地の位置を表す指示コンテンツ50が表示されている。ここでは、コイン型のアイテムオブジェクト(仮想オブジェクト2)が移動方向に沿って配列される。この場合、ユーザ1はアイテムオブジェクトに沿って移動する、あるいはアイテムオブジェクトを順番に回収することで、目的地に誘導される。 In FIG. 11C, the instruction content 50 representing the position of the destination is displayed using the item object used in the AR application. Here, coin-shaped item objects (virtual objects 2) are arranged along the moving direction. In this case, the user 1 is guided to the destination by moving along the item object or collecting the item objects in order.

図11Dでは、ARアプリケーションにおいて用いられるキャラクタオブジェクトが移動することで目的地の位置を表す指示コンテンツ50が表示されている。ここでは、鳥型のキャラクタオブジェクト(仮想オブジェクト2)が移動するアニメーション等が表示される。この場合、ユーザ1はキャラクタオブジェクトを追跡するように移動することで、目的地に誘導される。この他、第1のコンテンツを生成する方法等は限定されず、例えば、上記した例を組み合わせて第1のコンテンツが構成されてもよい。 In FIG. 11D, the instruction content 50 indicating the position of the destination is displayed by moving the character object used in the AR application. Here, an animation or the like in which a bird-shaped character object (virtual object 2) moves is displayed. In this case, the user 1 is guided to the destination by moving to track the character object. In addition, the method of generating the first content is not limited, and for example, the first content may be configured by combining the above examples.

このように、本実施形態では、第1のコンテンツとして、ARアプリケーションにおいて用いられるキャラクタオブジェクト、アイテムオブジェクト、文字情報、又は音声情報のうち少なくとも1つを用いて行動範囲38の位置を表すコンテンツが用いられる。例えば、初心者のプレイヤであれば、音や文字、簡単なゲーム内ルールに従って行動することが考えられる。このため、アプリケーションの表現に沿った誘導を行うことで、監視レベルが高くなるといった事態を十分に回避することが可能となる。またAR体験の品質を損なうことなく、監視処理を継続することが可能である。 As described above, in the present embodiment, as the first content, the content representing the position of the action range 38 is used by using at least one of the character object, the item object, the character information, and the voice information used in the AR application. Be done. For example, if you are a beginner player, you can think of acting according to sounds, letters, and simple in-game rules. Therefore, it is possible to sufficiently avoid a situation in which the monitoring level becomes high by performing guidance according to the expression of the application. It is also possible to continue the monitoring process without compromising the quality of the AR experience.

図12は、第1のコンテンツの出力処理の一例を示すフローチャートである。図12では、図11Aに示すコンテンツが出力されるものとする。まず、ヘッドマウントディスプレイ10の位置が読み込まれる(ステップ401)。また図8に示すステップ209で記録された指標算出対象35の位置が読み込まれる(ステップ402)。続いて、ヘッドマウントディスプレイ10と指標算出対象35との角度差分が算出される(ステップ403)。これにより、指標算出対象35から見た、ユーザ1(ヘッドマウントディスプレイ10)の現在位置の方位が算出されることになる。 FIG. 12 is a flowchart showing an example of the output processing of the first content. In FIG. 12, it is assumed that the content shown in FIG. 11A is output. First, the position of the head-mounted display 10 is read (step 401). Further, the position of the index calculation target 35 recorded in step 209 shown in FIG. 8 is read (step 402). Subsequently, the angle difference between the head-mounted display 10 and the index calculation target 35 is calculated (step 403). As a result, the orientation of the current position of the user 1 (head-mounted display 10) as seen from the index calculation target 35 is calculated.

角度差分は、例えば垂直軸を基準とした回転量の変化分Xとして表すことが可能である。ここで、ヘッドマウントディスプレイ10の表示部20を介してユーザ1が視認できる画角のうち、水平方向の画角をFと記載する。例えば画角Fと、変化分Xとの関係から、ユーザ1に対する指標算出対象35の位置(例えば前後左右の4パターンの位置)を算出することが可能である。以下では、反時計回りの回転が変化分Xの正を表すものとする。 The angle difference can be expressed as, for example, the amount of change X in the amount of rotation with respect to the vertical axis. Here, among the angles of view that the user 1 can see through the display unit 20 of the head-mounted display 10, the angle of view in the horizontal direction is described as F. For example, from the relationship between the angle of view F and the change X, it is possible to calculate the position of the index calculation target 35 with respect to the user 1 (for example, the positions of four patterns of front, back, left, and right). In the following, it is assumed that the counterclockwise rotation represents the positive value of the change X.

角度差分(変化分X)に基づいて、コンテンツとして表示する文言が生成される(ステップ404)。例えば、変化分Xの絶対値が水平画角Fの半分以内である場合、指標算出対象35は、ユーザ1の視界に存在する可能性が高い。このため、文言は空文字に設定され、文字情報等は表示されない。また変化分Xが(F)から(180−F)の間の値である場合、文言は"左"に設定される。変化分Xが(−F)から(F−180)の間の値である場合、文言は"右"に設定される。また変化分Xの絶対値が、(180−F)から180の間の値である場合、文言は"後ろ"あるいは"後方"等に設定される。設定された文言がコンテンツとして描画される(ステップ405)。例えば"後ろ"という文言が生成された場合、"後ろにトリが飛んでるよ"といったメッセージが描画される。 Based on the angle difference (change X), the wording to be displayed as the content is generated (step 404). For example, when the absolute value of the change X is within half of the horizontal angle of view F, the index calculation target 35 is likely to exist in the field of view of the user 1. Therefore, the wording is set to an empty string, and character information and the like are not displayed. If the change X is a value between (F) and (180-F), the wording is set to "left". If the change X is a value between (-F) and (F-180), the wording is set to "right". When the absolute value of the change X is a value between (180-F) and 180, the wording is set to "back", "back", or the like. The set wording is drawn as content (step 405). For example, when the word "behind" is generated, a message such as "a bird is flying behind" is drawn.

また、指標算出対象35の位置を表すための音声データが読み込まれ(ステップ406)、読み込まれた音声データが再生される(ステップ407)。ここでは、例えば鳥の鳴き声や羽音といった"トリ"の存在を暗示する音声データが用いられる。3D音響等が利用可能な場合は、音の発生源が指標算出対象35("トリ")の現在の位置等に設定される。これにより、指標算出対象35の位置を音情報により表すことが可能となる。これらの処理が終了すると、ステップ108以降の処理が実行される。 Further, the voice data for representing the position of the index calculation target 35 is read (step 406), and the read voice data is reproduced (step 407). Here, audio data suggesting the existence of a "bird" such as a bird's bark or a feather sound is used. When 3D sound or the like is available, the sound source is set to the current position or the like of the index calculation target 35 (“bird”). As a result, the position of the index calculation target 35 can be represented by sound information. When these processes are completed, the processes after step 108 are executed.

[レベル2:明示的なコンテンツの出力]
監視レベルがレベル2に設定された場合、指示コンテンツ50として行動範囲へ移動するめの移動方向の具体的な指示を含む第2のコンテンツが出力される。第2のコンテンツは、例えば、提示された指示に従うと監視レベルがレベル0に戻る(指標値が小さくなる)ように構成されたコンテンツであり、移動方向の具体的な指示や禁止等の表示を含むコンテンツである。すなわち、第2のコンテンツは、移動方向が明示された明示的なコンテンツであるともいる。本実施形態では、レベル2は、第1のレベルよりも高い第2のレベルに相当する。
[Level 2: Explicit content output]
When the monitoring level is set to level 2, the second content including the specific instruction of the moving direction for moving to the action range is output as the instruction content 50. The second content is, for example, content configured so that the monitoring level returns to level 0 (the index value becomes smaller) when the presented instruction is followed, and a specific instruction or prohibition of the moving direction is displayed. Content that includes. That is, the second content is also said to be explicit content in which the moving direction is specified. In this embodiment, level 2 corresponds to a second level higher than the first level.

図13は、第2のコンテンツの一例を示す模式図である。図13A〜図13Cには、監視レベルがレベル2である場合に、表示部20に描画される指示コンテンツ50(第2のコンテンツ)の一例が模式的に図示されている。 FIG. 13 is a schematic diagram showing an example of the second content. 13A to 13C schematically show an example of the instruction content 50 (second content) drawn on the display unit 20 when the monitoring level is level 2.

図13Aでは、移動方向の表す矢印51とメッセージとを含む指示コンテンツ50が表示されている。この例では、矢印51により、移動方向が明示されている。また"エリア離脱警告/戻ってください"というメッセージにより、前方への移動が禁止されている旨が明示される。なお、矢印51やメッセージとともに、ビープ音等の警告音が再生されてもよい。 In FIG. 13A, the instruction content 50 including the arrow 51 indicating the moving direction and the message is displayed. In this example, the direction of movement is clearly indicated by the arrow 51. In addition, the message "Area exit warning / Please return" clearly indicates that forward movement is prohibited. A warning sound such as a beep sound may be reproduced together with the arrow 51 and the message.

図13Bでは、指示コンテンツ50としてフェンス状の仮想オブジェクト2が表示される。このように、ユーザ1の視界に見えている範囲が通れないことを想起させるような仮想オブジェクト2が表示されてもよい。これにより、エリア外に出ないようにユーザ1の行動を制御することも可能である。 In FIG. 13B, the fence-shaped virtual object 2 is displayed as the instruction content 50. In this way, the virtual object 2 may be displayed so as to remind the user 1 that the visible range cannot be passed. This makes it possible to control the behavior of the user 1 so as not to go out of the area.

図13Cでは、指示コンテンツ50として地図状の仮想オブジェクト2が表示される。この指示コンテンツ50では、ユーザ1の現在位置を表すアイコン52と、移動方向を示す矢印53とが重畳された地図が表示される。これにより、ユーザ1が移動するべき方向を明示することが可能となる。この他、第2のコンテンツを生成する方法等は限定されず、例えば、上記した例を組み合わせて第2のコンテンツが構成されてもよい。 In FIG. 13C, the map-like virtual object 2 is displayed as the instruction content 50. In the instruction content 50, a map on which the icon 52 indicating the current position of the user 1 and the arrow 53 indicating the moving direction are superimposed is displayed. This makes it possible for the user 1 to specify the direction in which the user 1 should move. In addition, the method for generating the second content is not limited, and for example, the second content may be configured by combining the above examples.

このように、本実施形態では、第2のコンテンツとして、移動方向を指示する画像情報(矢印51や地図等)、文字情報、又は音情報の少なくとも1つを含むコンテンツが用いられる。このように移動方向を明示することで、例えば悪意のあるプレイヤであれば、ヘッドマウントディスプレイ10の位置が監視されていることがわかるので、盗難の抑止につながる。また初心者のプレイヤであれば、具体的な移動方向を含む指示はレベル1よりもわかりやすいため、より指示に従う可能性が高くなる。 As described above, in the present embodiment, as the second content, content including at least one of image information (arrow 51, map, etc.) indicating the moving direction, character information, or sound information is used. By clearly indicating the moving direction in this way, for example, a malicious player can know that the position of the head-mounted display 10 is being monitored, which leads to deterrence of theft. Further, if the player is a beginner, the instruction including the specific moving direction is easier to understand than the level 1, so that the possibility of following the instruction is higher.

図14は、第2のコンテンツの出力処理の一例を示すフローチャートである。図14では、図13Aに示すコンテンツが出力されるものとする。まず、ヘッドマウントディスプレイ10の位置が読み込まれる(ステップ501)。また図8に示すステップ209で記録された指標算出対象35の位置が読み込まれる(ステップ502)。 FIG. 14 is a flowchart showing an example of the output processing of the second content. In FIG. 14, it is assumed that the content shown in FIG. 13A is output. First, the position of the head-mounted display 10 is read (step 501). Further, the position of the index calculation target 35 recorded in step 209 shown in FIG. 8 is read (step 502).

続いて、ヘッドマウントディスプレイ10と指標算出対象35との位置から、矢印51の方向が算出される(ステップ503)。例えば、ヘッドマウントディスプレイ10及び指標算出対象35の各位置を通るベクトルが算出される。そしてユーザ1(ヘッドマウントディスプレイ10)から指標算出対象35に向かう方向が、矢印51の方向として算出される。算出された方向を表す仮想オブジェクト2(矢印51)が描画される(ステップ504)。 Subsequently, the direction of the arrow 51 is calculated from the positions of the head-mounted display 10 and the index calculation target 35 (step 503). For example, a vector passing through each position of the head-mounted display 10 and the index calculation target 35 is calculated. Then, the direction from the user 1 (head-mounted display 10) toward the index calculation target 35 is calculated as the direction of the arrow 51. A virtual object 2 (arrow 51) representing the calculated direction is drawn (step 504).

また矢印51とともに表示されるメッセージの文言が描画される(ステップ505)。さらに、警告音として用いられる音声データが読み込まれ(ステップ506)、音声データが生成される(ステップ507)。これにより、矢印51、メッセージ、及び警告音により、ユーザ1の移動するべき方向を明示する第2のコンテンツを出力することが可能である。なお他の第2のコンテンツも、ヘッドマウントディスプレイ10及び指標算出対象35の位置等に基づいて適宜生成することが可能である。 Further, the wording of the message displayed together with the arrow 51 is drawn (step 505). Further, the voice data used as the warning sound is read (step 506), and the voice data is generated (step 507). As a result, it is possible to output the second content that clearly indicates the direction in which the user 1 should move by the arrow 51, the message, and the warning sound. The other second content can also be appropriately generated based on the positions of the head-mounted display 10 and the index calculation target 35 and the like.

[レベル3:監視モード]
監視レベルがレベル3に設定された場合、ARアプリケーションの動作が停止され、ユーザを監視する監視モードが実行される。従って、レベル3では、ARアプリケーションに応じた動作等は行われず、盗難を防止するための各種の処理が監視モードとして実行される。本実施形態では、レベル3は、第2のレベルよりも高い第3のレベルに相当する。
[Level 3: Monitoring mode]
When the monitoring level is set to level 3, the operation of the AR application is stopped and the monitoring mode for monitoring the user is executed. Therefore, at level 3, various processes for preventing theft are executed as a monitoring mode without performing operations according to the AR application. In this embodiment, level 3 corresponds to a third level, which is higher than the second level.

図15は、監視モードにおける画面の一例を示す模式図である。図16は、監視モードの一例を示すフローチャートである。図15に示すように、監視モードでは、ARアプリケーションの表示そのものが停止され、ARアプリケーションが停止されている旨を示すメッセージ55のみが表示される。この時、例えば操作部23等を介したヘッドマウントディスプレイ10に対する操作入力が全面的に禁止される。すなわち監視モードでは、ヘッドマウントディスプレイ10はユーザ1の操作に応じなくなる。 FIG. 15 is a schematic diagram showing an example of a screen in the monitoring mode. FIG. 16 is a flowchart showing an example of the monitoring mode. As shown in FIG. 15, in the monitoring mode, the display of the AR application itself is stopped, and only the message 55 indicating that the AR application is stopped is displayed. At this time, for example, the operation input to the head-mounted display 10 via the operation unit 23 or the like is completely prohibited. That is, in the monitoring mode, the head-mounted display 10 does not respond to the operation of the user 1.

図16に示すように、監視モードでは、まずヘッドマウントディスプレイ10の位置が読み込まれる(ステップ601)。続いて、ヘッドマウントディスプレイ10に搭載された各センサの出力が読み込まれる(ステップ602)。監視レベルがレベル3になり、監視モードが実行された場合、ユーザ1は悪意のある人物である可能性が高い。このため、例えばアイトラッキング用の内部カメラ等を利用して、ユーザ1の虹彩情報等が検出される。また外部カメラ(撮像部21)を利用して外部環境の画像(盗難ルートの画像)が検出される。ステップ601及び602で読み込まれたヘッドマウントディスプレイ10の位置やセンサの出力(虹彩情報等)が、サーバ装置40に送信される(ステップ603)。これにより、イベントの管理者にユーザ1の情報を通知することが可能となる。 As shown in FIG. 16, in the monitoring mode, the position of the head-mounted display 10 is first read (step 601). Subsequently, the output of each sensor mounted on the head-mounted display 10 is read (step 602). When the monitoring level becomes level 3 and the monitoring mode is executed, the user 1 is likely to be a malicious person. Therefore, for example, the iris information of the user 1 is detected by using an internal camera for eye tracking or the like. Further, an image of the external environment (image of the stolen route) is detected by using an external camera (imaging unit 21). The position of the head-mounted display 10 read in steps 601 and 602 and the output of the sensor (iris information and the like) are transmitted to the server device 40 (step 603). This makes it possible to notify the event administrator of the information of the user 1.

また警告音等の音声データが読み込まれ(ステップ604)、読み込まれた音声データが再生される(ステップ605)。音声データの再生は、例えば装置の外部にも聞こえるような音量で再生される。これにより、ユーザ1に注目を集めることが可能となり、盗難行為を抑制することが可能である。なお図7を参照して説明したように、レベル3では、上記のような監視モードの処理が繰り返し実行される。 Further, voice data such as a warning sound is read (step 604), and the read voice data is played back (step 605). The audio data is reproduced at a volume that can be heard outside the device, for example. As a result, it is possible to attract attention to the user 1 and suppress the theft. As described with reference to FIG. 7, at level 3, the above-mentioned monitoring mode processing is repeatedly executed.

[監視レベルが高い他のユーザが存在する場合の動作]
図17は、他のユーザと関連したコンテンツ表示の一例を示す模式図である。以下では、図17を参照して、ヘッドマウントディスプレイ10を使用しているユーザ1(対象ユーザ)以外の他のユーザに対して、相対的に高い監視レベルが設定された場合の動作について説明する。
[Operation when there is another user with a high monitoring level]
FIG. 17 is a schematic diagram showing an example of content display related to other users. In the following, with reference to FIG. 17, the operation when a relatively high monitoring level is set for a user other than the user 1 (target user) who is using the head-mounted display 10 will be described. ..

図17では、ユーザ1aが対象ユーザである。ユーザ1bは、ユーザ1aよりも監視レベルが高く設定された他のユーザである。ユーザ1cは、ユーザ1aと同じか低い監視レベルが設定された他のユーザである。このうち、ユーザ1bは、監視レベルが相対的に高いため、悪意のあるプレイヤまたは初心者のプレイヤである可能性が高い。 In FIG. 17, user 1a is the target user. User 1b is another user whose monitoring level is set higher than that of user 1a. User 1c is another user who has the same or lower monitoring level as user 1a. Of these, the user 1b is likely to be a malicious player or a beginner player because the monitoring level is relatively high.

本実施形態では、他のユーザの監視レベルが相対的に高い場合、他のユーザへの接近を促す指示コンテンツを出力する。例えば、ユーザ1aのヘッドマウントディスプレイ10では、ユーザ1bへの接近を促す指示コンテンツが出力される。例えば図11等を参照して説明した第1のコンテンツ等を用いることで、ユーザ1aをユーザ1bの近傍に誘導することが可能である。 In the present embodiment, when the monitoring level of another user is relatively high, the instruction content for urging the other user to approach is output. For example, the head-mounted display 10 of the user 1a outputs instruction content that encourages the user 1b to approach the user 1b. For example, by using the first content or the like described with reference to FIG. 11 or the like, it is possible to guide the user 1a to the vicinity of the user 1b.

これにより悪意のないプレイヤ(ユーザ1a)が、悪意のあるプレイヤもしくは初心者プレイヤ(ユーザ1b)に近づくため、結果として指標値が小さくなることが期待される。また、プレイヤ同士の距離が近づくことで、相互に監視することが可能となり、盗難の可能性を十分に低下させることが可能である。 As a result, the non-malicious player (user 1a) approaches the malicious player or the beginner player (user 1b), and as a result, the index value is expected to decrease. Further, as the distance between the players becomes closer, it becomes possible to monitor each other, and it is possible to sufficiently reduce the possibility of theft.

また、ARアプリケーションにおいてユーザ1の探索対象となるオブジェクトが、監視レベルが相対的に高い他のユーザの近傍に表示されてもよい。例えば、図17に示すように、ユーザ1aが探索する対象となる鳥型の仮想オブジェクト2が、ユーザ1bの近傍に配置される。これにより、ユーザ1aは、仮想オブジェクト2を探す過程で、監視レベルが高いユーザ1bを見ることになる。 Further, the object to be searched by the user 1 in the AR application may be displayed in the vicinity of another user whose monitoring level is relatively high. For example, as shown in FIG. 17, a bird-shaped virtual object 2 to be searched by the user 1a is arranged in the vicinity of the user 1b. As a result, the user 1a sees the user 1b having a high monitoring level in the process of searching for the virtual object 2.

例えば、探索対象となる仮想オブジェクト2が表示されると、悪意のないプレイヤ(ユーザ1aやユーザ1c)の視線が仮想オブジェクト2に向けられることや、悪意のないプレイヤが仮想オブジェクト2の近くに移動するといったことが期待される。このため、仮想オブジェクト2の位置を制御して、悪意のあるプレイヤ(ユーザ1b)の近傍に表示することで、悪意のないプレイヤのカメラに悪意のあるプレイヤが写ることになり、盗難の抑止効果を発揮することが可能となる。 For example, when the virtual object 2 to be searched is displayed, the line of sight of a non-malicious player (user 1a or user 1c) is directed to the virtual object 2, or the non-malicious player moves closer to the virtual object 2. It is expected to do. Therefore, by controlling the position of the virtual object 2 and displaying it in the vicinity of the malicious player (user 1b), the malicious player can be seen in the camera of the non-malicious player, which is effective in deterring theft. Can be demonstrated.

以上、本実施形態に係る制御部26では、ヘッドマウントディスプレイ10の状態とARアプリケーションの状態とに基づいて、監視レベルが設定される。この監視レベルに基づいて、ARアプリケーションの状態に合った行動範囲38にユーザ1が移動するように促す指示コンテンツ50が出力される。これにより、ユーザ1が行動する範囲を管理するとともに、不審な行動等を監視することが可能となり、AR用の端末装置の盗難を未然に防止することが可能となる。 As described above, in the control unit 26 according to the present embodiment, the monitoring level is set based on the state of the head-mounted display 10 and the state of the AR application. Based on this monitoring level, the instruction content 50 prompting the user 1 to move to the action range 38 suitable for the state of the AR application is output. As a result, it is possible to manage the range in which the user 1 acts, monitor suspicious behavior, and prevent the theft of the terminal device for AR.

LBE等が開催されるイベント会場で、AR端末を貸し出す場合、悪意のある参加者に貸し出した端末が盗まれるリスクがある。AR端末が盗まれると金銭的な損失に加え、イベントへの参加人数の減少、個人情報やコンテンツの内容といった機微情報の流出といったリスクが生じる。 When renting an AR terminal at an event venue where LBE etc. is held, there is a risk that the rented terminal will be stolen by a malicious participant. If the AR terminal is stolen, in addition to financial loss, there is a risk that the number of participants in the event will decrease and sensitive information such as personal information and content will be leaked.

従来の盗難防止策としては、運用スタッフが参加者の近くで監視する、あるいはイベント会場の出入り口にゲートを設置するといった対策が挙げられる。これらの対策では、人的なコストやゲートや基材にかかる物的なコストが増加する。またゲートを設置した場合、ゲート以外からの出入りに対してセキュリティが脆弱になり、公園等のオープンスペースでのイベント実施が難しくなる。また監視カメラを設置する方法では、基材の導入にコストがかかる。また監視カメラを設置することが難しい場所(トイレ等)も存在するため、会場全体をカバすることは困難である。またARのイベントでは、ユーザは様々な行動を自由に行うことが可能であるため、カメラ画像だけでは盗難可能性を判断することが難しい。 Conventional anti-theft measures include measures such as the operation staff monitoring near the participants or installing a gate at the entrance and exit of the event venue. These measures increase human costs and physical costs for gates and substrates. In addition, if a gate is installed, security will be vulnerable to entry and exit from other than the gate, making it difficult to hold an event in an open space such as a park. In addition, the method of installing a surveillance camera requires a high cost for introducing a base material. In addition, it is difficult to cover the entire venue because there are places (toilet, etc.) where it is difficult to install surveillance cameras. Further, in an AR event, since the user can freely perform various actions, it is difficult to judge the possibility of theft only from the camera image.

本実施形態では、ARアプリケーションの状態に応じた条件情報(条件表32)を用いて、ヘッドマウントディスプレイ10の位置や姿勢等の状態を判定して監視レベルが設定される。これにより、ARアプリケーションにおけるイベントの種類や、シナリオの進行度等が変わった場合であっても、監視レベルを適正に設定することが可能となる。 In the present embodiment, the monitoring level is set by determining the state such as the position and posture of the head-mounted display 10 by using the condition information (condition table 32) according to the state of the AR application. As a result, even if the type of event in the AR application, the progress of the scenario, or the like changes, the monitoring level can be set appropriately.

またこれらの処理は、ヘッドマウントディスプレイ10やサーバ装置40を用いて自動的に実行される。このため、盗難を監視するための追加のコスト等は不要である。従ってゲート等を設置することができない公園等のオープンスペースでも、安心してLBE等のARイベントを開催することが可能となる。また監視カメラ等による監視とは異なるため、ユーザの位置に係らず、盗難の可能性(監視レベル)を判定することが可能である。 Further, these processes are automatically executed by using the head-mounted display 10 and the server device 40. Therefore, no additional cost or the like for monitoring theft is required. Therefore, it is possible to hold an AR event such as LBE with peace of mind even in an open space such as a park where a gate or the like cannot be installed. Moreover, since it is different from surveillance by a surveillance camera or the like, it is possible to determine the possibility of theft (surveillance level) regardless of the position of the user.

また、監視レベルに応じて、ユーザ1の行動が許容される行動範囲への移動を促す指示コンテンツが出力される。この行動範囲38は、ARアプリケーションの状態に応じた条件表32に基づいて設定される。これにより、ユーザ1が本来いるべき範囲へと、自然に誘導することが可能となる。これにより、悪意のないユーザ1が行動範囲38から外れた場合であっても、世界観を壊すことなく、適正な位置に戻ることが可能である。また悪意のあるユーザ1についても、ヘッドマウントディスプレイ10の位置が監視されていることが分かり、盗難を未然に防止することが可能となる。 Further, according to the monitoring level, instruction content for urging the user 1 to move to an action range where the action is allowed is output. This action range 38 is set based on the condition table 32 according to the state of the AR application. As a result, the user 1 can be naturally guided to the range where the user 1 should be. As a result, even if the non-malicious user 1 deviates from the action range 38, it is possible to return to an appropriate position without destroying the world view. Further, it can be seen that the position of the head-mounted display 10 is monitored even for the malicious user 1, and it is possible to prevent theft.

<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
<Other Embodiments>
The present technology is not limited to the embodiments described above, and various other embodiments can be realized.

図6等を参照して説明した位置差分は、主に水平面上での位置の差分であった。ARのイベントでは、例えば建物や地下等の高さが変化するエリアを会場として用いることも可能である。このため、例えば立体的な位置差分(各軸ごとの位置差分)がそれぞれ判定されてもよい。これにより、例えば指標算出対象と同じ緯度及び経度にいながら、異なる高さにいるユーザ等についても、適正に監視レベルを設定することが可能である。 The position difference described with reference to FIG. 6 and the like was mainly a position difference on the horizontal plane. At an AR event, it is possible to use an area where the height changes, such as a building or underground, as a venue. Therefore, for example, a three-dimensional position difference (position difference for each axis) may be determined. Thereby, for example, it is possible to appropriately set the monitoring level even for users who are at different heights while being at the same latitude and longitude as the index calculation target.

上記では、判定条件として、主に位置差分及び角度差分についての閾値が判定された。判定条件の内容は限定されない。例えばヘッドマウントディスプレイのそのままの位置情報や姿勢情報等を判定する条件等が用いられてもよい。また位置差分を指標値とした場合、指標算出対象とヘッドマウントディスプレイとの距離が閾値に設定された。これに限定されず、例えば会場内に任意に設定されたエリア(範囲)をそのまま判定条件として設定してもよい。この場合、例えばARアプリケーションの状態に応じて、レベル1となるエリアやレベル2となるエリア等が設定されてもよい。 In the above, as the determination condition, the threshold value for the position difference and the angle difference is mainly determined. The content of the judgment condition is not limited. For example, conditions for determining the position information, posture information, etc. of the head-mounted display as they are may be used. When the position difference was used as the index value, the distance between the index calculation target and the head-mounted display was set as the threshold value. Not limited to this, for example, an area (range) arbitrarily set in the venue may be set as a determination condition as it is. In this case, for example, an area to be level 1 or an area to be level 2 may be set according to the state of the AR application.

またヘッドマウントディスプレイの運動パラメータを指標値とする場合には、運動パラメータに関する閾値等が設定される。例えば速度や加速度等を判定することで、ユーザが通常行わないような動作(例えば上下が長時間反転した状態)を検出することが可能である。これにより、例えば装置をカバン等に入れて持ち去ろうとする行為等を未然に防止することが可能となる。この他、人間の移動速度以上の速度で移動する場合や、一定時間以上動作が無い場合といった通常の使用では想定されない状態も容易に検出することが可能である。 When the motion parameter of the head-mounted display is used as an index value, a threshold value or the like related to the motion parameter is set. For example, by determining the speed, acceleration, or the like, it is possible to detect an operation that the user does not normally perform (for example, a state in which the top and bottom are inverted for a long time). This makes it possible to prevent, for example, the act of putting the device in a bag or the like and trying to take it away. In addition, it is possible to easily detect a state that is not expected in normal use, such as a case where the person moves at a speed higher than the moving speed of a human being or a case where there is no movement for a certain period of time or longer.

上記では、主にARアプリケーションの進捗状態に応じた条件情報(条件表)が用いられた。例えば、ARアプリケーションに参加するユーザの人数や、参加者に含まれる初心者の数、ARアプリケーションで想定される動作の種類等に応じた条件情報が適宜設定されて用いられてもよい。この他、ARアプリケーションを動作させた際に想定される各種の状況に合わせた条件情報が用いられてよい。 In the above, condition information (condition table) according to the progress status of the AR application was mainly used. For example, condition information according to the number of users participating in the AR application, the number of beginners included in the participants, the type of operation expected in the AR application, and the like may be appropriately set and used. In addition, conditional information suitable for various situations assumed when the AR application is operated may be used.

上記では、本技術に係る情報処理装置の一実施形態として、ヘッドマウントディスプレイ等の頭部搭載型装置を例に挙げた。しかしながら、頭部搭載型装置とは別に構成され、有線又は無線を介して頭部搭載型装置に接続される任意のコンピュータにより、本技術に係る情報処理装置が実現されてもよい。例えば、HMDに接続するPCやゲーム機、あるいはヘッドホンに接続するスマートフォンといった頭部搭載型装置を制御する外部装置が、本技術に係る情報処理装置として用いられてもよい。また例えばクラウドサーバ(サーバ装置等)により、本技術に係る情報処理方法が実行されてもよい。あるいはHMD等と他のコンピュータとが連動して、本技術に係る情報処理方法が実行されてもよい。 In the above, as an embodiment of the information processing device according to the present technology, a head-mounted device such as a head-mounted display has been given as an example. However, the information processing device according to the present technology may be realized by an arbitrary computer that is configured separately from the head-mounted device and is connected to the head-mounted device via a wired or wireless device. For example, an external device that controls a head-mounted device such as a PC or game machine connected to the HMD or a smartphone connected to the headphones may be used as the information processing device according to the present technology. Further, for example, the information processing method according to the present technology may be executed by a cloud server (server device or the like). Alternatively, the information processing method according to the present technology may be executed in conjunction with the HMD or the like and another computer.

すなわち本技術に係る情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。 That is, the information processing method and the program according to the present technology can be executed not only in a computer system composed of a single computer but also in a computer system in which a plurality of computers operate in conjunction with each other. In the present disclosure, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether or not all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device in which a plurality of modules are housed in one housing are both systems.

コンピュータシステムによる本技術に係る情報処理方法、及びプログラムの実行は、例えば監視レベルの設定、指示コンテンツの出力等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部または全部を他のコンピュータに実行させその結果を取得することを含む。 The information processing method and program execution related to this technology by a computer system are, for example, when the monitoring level is set, the instruction content is output, etc. are executed by a single computer, or when each process is executed by a different computer. Including both. Further, the execution of each process by a predetermined computer includes causing another computer to execute a part or all of the process and acquire the result.

すなわち本技術に係る情報処理方法及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。 That is, the information processing method and program according to the present technology can be applied to a cloud computing configuration in which one function is shared by a plurality of devices via a network and jointly processed.

以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。 It is also possible to combine at least two feature parts among the feature parts according to the present technology described above. That is, the various feature portions described in each embodiment may be arbitrarily combined without distinction between the respective embodiments. Further, the various effects described above are merely examples and are not limited, and other effects may be exhibited.

本開示において、「同じ」「等しい」「直交」等は、「実質的に同じ」「実質的に等しい」「実質的に直交」等を含む概念とする。例えば「完全に同じ」「完全に等しい」「完全に直交」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。 In the present disclosure, "same", "equal", "orthogonal", etc. are concepts including "substantially the same", "substantially equal", "substantially orthogonal", and the like. For example, a state included in a predetermined range (for example, a range of ± 10%) based on "exactly the same", "exactly equal", "exactly orthogonal", etc. is also included.

なお、本技術は以下のような構成も採ることができる。
(1)ユーザが使用するAR表示端末の状態と、前記AR表示端末で動作するARアプリケーションの状態とに基づいて、監視レベルを設定するレベル設定部と、
前記監視レベルに基づいて、前記ユーザに対して前記ARアプリケーションの状態に応じた行動範囲への移動を促す指示コンテンツを出力するコンテンツ出力部と
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記レベル設定部は、前記ARアプリケーションの状態に応じた条件情報を取得し、前記条件情報に基づいて前記AR表示端末の状態を判定して前記監視レベルを設定する
情報処理装置。
(3)(2)に記載の情報処理装置であって、
前記ARアプリケーションの状態は、前記ARアプリケーションの進捗状態を含み
前記レベル設定部は、前記進捗状態に応じた前記条件情報を取得する
情報処理装置。
(4)(2)又は(3)に記載の情報処理装置であって、
前記レベル設定部は、前記ARアプリケーションにおける前記ユーザの役割に応じた前記条件情報を取得する
情報処理装置。
(5)(2)から(4)のうちいずれか1つに記載の情報処理装置であって、
前記条件情報は、前記AR表示端末の状態を判定するための複数の判定条件を含む
情報処理装置。
(6)(5)に記載の情報処理装置であって、
前記AR表示端末の状態は、前記AR表示端末の位置、姿勢、又は運動パラメータの少なくとも1つを含む
情報処理装置。
(7)(5)又は(6)に記載の情報処理装置であって、
前記複数の判定条件は、各々が前記監視レベルの候補値と対応付けられており、
前記レベル設定部は、前記複数の判定条件について前記AR表示端末の状態をそれぞれ判定し、当該判定結果が表す最大の前記候補値を前記監視レベルに設定する
情報処理装置。
(8)(5)から(7)のうちいずれか1つに記載の情報処理装置であって、
前記判定条件は、所定のターゲットに対する前記AR表示端末の位置を判定するための位置判定情報と、前記所定のターゲットに対する前記AR表示端末の方位を判定するための方位判定情報との少なくとも一方を含む
情報処理装置。
(9)(8)に記載の情報処理装置であって、
前記所定のターゲットは、実空間上のポイント、前記ARアプリケーションに参加する他のユーザ、又は前記ARアプリケーションで用いられる仮想オブジェクトの少なくとも1つである
情報処理装置。
(10)(8)又は(9)に記載の情報処理装置であって、
前記判定条件は、前記位置判定情報を含み、
前記コンテンツ出力部は、前記位置判定情報に基づいて、前記監視レベルが小さくなるように前記行動範囲を設定する
情報処理装置。
(11)(8)から(10)のうちいずれか1つに記載の情報処理装置であって、
前記コンテンツ出力部は、前記監視レベルの設定に用いられた前記判定条件の基準となる前記所定のターゲットへの接近を促す前記指示コンテンツを出力する
情報処理装置。
(12)(1)から(11)のうちいずれか1つに記載の情報処理装置であって、
前記コンテンツ出力部は、前記監視レベルが第1のレベルに設定された場合、前記指示コンテンツとして前記行動範囲へ移動するための移動方向の具体的な指示を含まない第1のコンテンツを出力する
情報処理装置。
(13)(12)に記載の情報処理装置であって、
前記第1のコンテンツは、前記ARアプリケーションにおいて用いられるキャラクタオブジェクト、アイテムオブジェクト、文字情報、又は音声情報のうち少なくとも1つを用いて前記行動範囲の位置を表すコンテンツである
情報処理装置。
(14)(12)又は(13)に記載の情報処理装置であって、
前記コンテンツ出力部は、前記監視レベルが前記第1のレベルよりも高い第2のレベルに設定された場合、前記指示コンテンツとして前記行動範囲へ移動するめの移動方向の具体的な指示を含む第2のコンテンツを出力する
情報処理装置。
(15)(14)に記載の情報処理装置であって、
前記第2のコンテンツは、前記移動方向を指示する画像情報、文字情報、又は音情報の少なくとも1つを含むコンテンツである
情報処理装置。
(16)(14)又は(15)に記載の情報処理装置であって、
前記コンテンツ出力部は、前記監視レベルが前記第2のレベルよりも高い第3のレベルに設定された場合、前記ARアプリケーションの動作を停止し、前記ユーザを監視する監視モードを実行する
情報処理装置。
(17)(1)から(16)のうちいずれか1つに記載の情報処理装置であって、
前記コンテンツ出力部は、他のユーザの監視レベルが相対的に高い場合、前記他のユーザへの接近を促す前記指示コンテンツを出力する
情報処理装置。
(18)(17)に記載の情報処理装置であって、
前記コンテンツ出力部は、前記ARアプリケーションにおいて前記ユーザの探索対象となるオブジェクトを前記他のユーザの近傍に表示する
情報処理装置。
(19)ユーザが使用するAR表示端末の状態と、前記AR表示端末で動作するARアプリケーションの状態とに基づいて、監視レベルを設定し、
前記監視レベルに基づいて、前記ユーザに対して前記ARアプリケーションの状態に応じた行動範囲への移動を促す指示コンテンツを出力する
ことをコンピュータシステムが実行する情報処理方法。
(20)ユーザが使用するAR表示端末の状態と、前記AR表示端末で動作するARアプリケーションの状態とに基づいて、監視レベルを設定するステップと、
前記監視レベルに基づいて、前記ユーザに対して前記ARアプリケーションの状態に応じた行動範囲への移動を促す指示コンテンツを出力するステップと
をコンピュータシステムに実行させるプログラム。
The present technology can also adopt the following configurations.
(1) A level setting unit that sets a monitoring level based on the state of the AR display terminal used by the user and the state of the AR application operating on the AR display terminal.
An information processing device including a content output unit that outputs instruction content that prompts the user to move to an action range according to the state of the AR application based on the monitoring level.
(2) The information processing device according to (1).
The level setting unit is an information processing device that acquires condition information according to the state of the AR application, determines the state of the AR display terminal based on the condition information, and sets the monitoring level.
(3) The information processing device according to (2).
The state of the AR application includes the progress state of the AR application, and the level setting unit is an information processing device that acquires the condition information according to the progress state.
(4) The information processing device according to (2) or (3).
The level setting unit is an information processing device that acquires the condition information according to the role of the user in the AR application.
(5) The information processing device according to any one of (2) to (4).
The condition information is an information processing device including a plurality of determination conditions for determining the state of the AR display terminal.
(6) The information processing device according to (5).
The state of the AR display terminal is an information processing device including at least one of the position, posture, or movement parameters of the AR display terminal.
(7) The information processing device according to (5) or (6).
Each of the plurality of determination conditions is associated with the candidate value of the monitoring level.
The level setting unit is an information processing device that determines the state of the AR display terminal for each of the plurality of determination conditions and sets the maximum candidate value represented by the determination result to the monitoring level.
(8) The information processing device according to any one of (5) to (7).
The determination condition includes at least one of position determination information for determining the position of the AR display terminal with respect to a predetermined target and orientation determination information for determining the orientation of the AR display terminal with respect to the predetermined target. Information processing device.
(9) The information processing apparatus according to (8).
The predetermined target is an information processing device that is at least one of a point in real space, another user participating in the AR application, or a virtual object used in the AR application.
(10) The information processing device according to (8) or (9).
The determination condition includes the position determination information.
The content output unit is an information processing device that sets the action range so that the monitoring level becomes smaller based on the position determination information.
(11) The information processing apparatus according to any one of (8) to (10).
The content output unit is an information processing device that outputs the instruction content that prompts the approach to the predetermined target that is the reference of the determination condition used for setting the monitoring level.
(12) The information processing apparatus according to any one of (1) to (11).
When the monitoring level is set to the first level, the content output unit outputs the first content that does not include a specific instruction of the moving direction for moving to the action range as the instruction content. Processing equipment.
(13) The information processing apparatus according to (12).
The first content is an information processing device that represents the position of the action range using at least one of a character object, an item object, character information, or voice information used in the AR application.
(14) The information processing device according to (12) or (13).
When the monitoring level is set to a second level higher than the first level, the content output unit includes a second movement direction specific instruction for moving to the action range as the instruction content. Information processing device that outputs the contents of.
(15) The information processing apparatus according to (14).
The second content is an information processing device that includes at least one of image information, character information, or sound information that indicates the moving direction.
(16) The information processing apparatus according to (14) or (15).
When the monitoring level is set to a third level higher than the second level, the content output unit is an information processing device that stops the operation of the AR application and executes a monitoring mode for monitoring the user. ..
(17) The information processing apparatus according to any one of (1) to (16).
The content output unit is an information processing device that outputs the instruction content that prompts the other user to approach the other user when the monitoring level of the other user is relatively high.
(18) The information processing apparatus according to (17).
The content output unit is an information processing device that displays an object to be searched for by the user in the vicinity of the other user in the AR application.
(19) The monitoring level is set based on the state of the AR display terminal used by the user and the state of the AR application operating on the AR display terminal.
An information processing method in which a computer system executes instruction content that prompts the user to move to an action range according to the state of the AR application based on the monitoring level.
(20) A step of setting a monitoring level based on the state of the AR display terminal used by the user and the state of the AR application operating on the AR display terminal.
A program that causes a computer system to execute a step of outputting instruction content that prompts the user to move to an action range according to the state of the AR application based on the monitoring level.

1、1a〜1c…ユーザ
2…仮想オブジェクト
10…ヘッドマウントディスプレイ
20…表示部
21…撮像部
26…制御部
27…記憶部
28…自己位置推定部
29…レベル設定部
30…コンテンツ出力部
31…マップDB
32…条件表
34…判定条件
35…指標算出対象
38…行動範囲
40…サーバ装置
100…AR表示システム
1, 1a to 1c ... User 2 ... Virtual object 10 ... Head-mounted display 20 ... Display unit 21 ... Imaging unit 26 ... Control unit 27 ... Storage unit 28 ... Self-position estimation unit 29 ... Level setting unit 30 ... Content output unit 31 ... Map DB
32 ... Condition table 34 ... Judgment condition 35 ... Index calculation target 38 ... Action range 40 ... Server device 100 ... AR display system

Claims (20)

ユーザが使用するAR表示端末の状態と、前記AR表示端末で動作するARアプリケーションの状態とに基づいて、監視レベルを設定するレベル設定部と、
前記監視レベルに基づいて、前記ユーザに対して前記ARアプリケーションの状態に応じた行動範囲への移動を促す指示コンテンツを出力するコンテンツ出力部と
を具備する情報処理装置。
A level setting unit that sets the monitoring level based on the state of the AR display terminal used by the user and the state of the AR application operating on the AR display terminal.
An information processing device including a content output unit that outputs instruction content that prompts the user to move to an action range according to the state of the AR application based on the monitoring level.
請求項1に記載の情報処理装置であって、
前記レベル設定部は、前記ARアプリケーションの状態に応じた条件情報を取得し、前記条件情報に基づいて前記AR表示端末の状態を判定して前記監視レベルを設定する
情報処理装置。
The information processing device according to claim 1.
The level setting unit is an information processing device that acquires condition information according to the state of the AR application, determines the state of the AR display terminal based on the condition information, and sets the monitoring level.
請求項2に記載の情報処理装置であって、
前記ARアプリケーションの状態は、前記ARアプリケーションの進捗状態を含み、
前記レベル設定部は、前記進捗状態に応じた前記条件情報を取得する
情報処理装置。
The information processing device according to claim 2.
The state of the AR application includes the progress state of the AR application.
The level setting unit is an information processing device that acquires the condition information according to the progress state.
請求項2に記載の情報処理装置であって、
前記レベル設定部は、前記ARアプリケーションにおける前記ユーザの役割に応じた前記条件情報を取得する
情報処理装置。
The information processing device according to claim 2.
The level setting unit is an information processing device that acquires the condition information according to the role of the user in the AR application.
請求項2に記載の情報処理装置であって、
前記条件情報は、前記AR表示端末の状態を判定するための複数の判定条件を含む
情報処理装置。
The information processing device according to claim 2.
The condition information is an information processing device including a plurality of determination conditions for determining the state of the AR display terminal.
請求項5に記載の情報処理装置であって、
前記AR表示端末の状態は、前記AR表示端末の位置、姿勢、又は運動パラメータの少なくとも1つを含む
情報処理装置。
The information processing device according to claim 5.
The state of the AR display terminal is an information processing device including at least one of the position, posture, or movement parameters of the AR display terminal.
請求項5に記載の情報処理装置であって、
前記複数の判定条件は、各々が前記監視レベルの候補値と対応付けられており、
前記レベル設定部は、前記複数の判定条件について前記AR表示端末の状態をそれぞれ判定し、当該判定結果が表す最大の前記候補値を前記監視レベルに設定する
情報処理装置。
The information processing device according to claim 5.
Each of the plurality of determination conditions is associated with the candidate value of the monitoring level.
The level setting unit is an information processing device that determines the state of the AR display terminal for each of the plurality of determination conditions and sets the maximum candidate value represented by the determination result to the monitoring level.
請求項5に記載の情報処理装置であって、
前記判定条件は、所定のターゲットに対する前記AR表示端末の位置を判定するための位置判定情報と、前記所定のターゲットに対する前記AR表示端末の方位を判定するための方位判定情報との少なくとも一方を含む
情報処理装置。
The information processing device according to claim 5.
The determination condition includes at least one of position determination information for determining the position of the AR display terminal with respect to a predetermined target and orientation determination information for determining the orientation of the AR display terminal with respect to the predetermined target. Information processing device.
請求項8に記載の情報処理装置であって、
前記所定のターゲットは、実空間上のポイント、前記ARアプリケーションに参加する他のユーザ、又は前記ARアプリケーションで用いられる仮想オブジェクトの少なくとも1つである
情報処理装置。
The information processing device according to claim 8.
The predetermined target is an information processing device that is at least one of a point in real space, another user participating in the AR application, or a virtual object used in the AR application.
請求項8に記載の情報処理装置であって、
前記判定条件は、前記位置判定情報を含み、
前記コンテンツ出力部は、前記位置判定情報に基づいて、前記監視レベルが小さくなるように前記行動範囲を設定する
情報処理装置。
The information processing device according to claim 8.
The determination condition includes the position determination information.
The content output unit is an information processing device that sets the action range so that the monitoring level becomes smaller based on the position determination information.
請求項8に記載の情報処理装置であって、
前記コンテンツ出力部は、前記監視レベルの設定に用いられた前記判定条件の基準となる前記所定のターゲットへの接近を促す前記指示コンテンツを出力する
情報処理装置。
The information processing device according to claim 8.
The content output unit is an information processing device that outputs the instruction content that prompts the approach to the predetermined target that is the reference of the determination condition used for setting the monitoring level.
請求項1に記載の情報処理装置であって、
前記コンテンツ出力部は、前記監視レベルが第1のレベルに設定された場合、前記指示コンテンツとして前記行動範囲へ移動するための移動方向の具体的な指示を含まない第1のコンテンツを出力する
情報処理装置。
The information processing device according to claim 1.
When the monitoring level is set to the first level, the content output unit outputs the first content that does not include a specific instruction of the moving direction for moving to the action range as the instruction content. Processing equipment.
請求項12に記載の情報処理装置であって、
前記第1のコンテンツは、前記ARアプリケーションにおいて用いられるキャラクタオブジェクト、アイテムオブジェクト、文字情報、又は音声情報のうち少なくとも1つを用いて前記行動範囲の位置を表すコンテンツである
情報処理装置。
The information processing device according to claim 12.
The first content is an information processing device that represents the position of the action range using at least one of a character object, an item object, character information, or voice information used in the AR application.
請求項12に記載の情報処理装置であって、
前記コンテンツ出力部は、前記監視レベルが前記第1のレベルよりも高い第2のレベルに設定された場合、前記指示コンテンツとして前記行動範囲へ移動するめの移動方向の具体的な指示を含む第2のコンテンツを出力する
情報処理装置。
The information processing device according to claim 12.
When the monitoring level is set to a second level higher than the first level, the content output unit includes a second movement direction specific instruction for moving to the action range as the instruction content. Information processing device that outputs the contents of.
請求項14に記載の情報処理装置であって、
前記第2のコンテンツは、前記移動方向を指示する画像情報、文字情報、又は音情報の少なくとも1つを含むコンテンツである
情報処理装置。
The information processing apparatus according to claim 14.
The second content is an information processing device that includes at least one of image information, character information, or sound information that indicates the moving direction.
請求項14に記載の情報処理装置であって、
前記コンテンツ出力部は、前記監視レベルが前記第2のレベルよりも高い第3のレベルに設定された場合、前記ARアプリケーションの動作を停止し、前記ユーザを監視する監視モードを実行する
情報処理装置。
The information processing apparatus according to claim 14.
When the monitoring level is set to a third level higher than the second level, the content output unit is an information processing device that stops the operation of the AR application and executes a monitoring mode for monitoring the user. ..
請求項1に記載の情報処理装置であって、
前記コンテンツ出力部は、他のユーザの監視レベルが相対的に高い場合、前記他のユーザへの接近を促す前記指示コンテンツを出力する
情報処理装置。
The information processing device according to claim 1.
The content output unit is an information processing device that outputs the instruction content that prompts the other user to approach the other user when the monitoring level of the other user is relatively high.
請求項17に記載の情報処理装置であって、
前記コンテンツ出力部は、前記ARアプリケーションにおいて前記ユーザの探索対象となるオブジェクトを前記他のユーザの近傍に表示する
情報処理装置。
The information processing apparatus according to claim 17.
The content output unit is an information processing device that displays an object to be searched for by the user in the vicinity of the other user in the AR application.
ユーザが使用するAR表示端末の状態と、前記AR表示端末で動作するARアプリケーションの状態とに基づいて、監視レベルを設定し、
前記監視レベルに基づいて、前記ユーザに対して前記ARアプリケーションの状態に応じた行動範囲への移動を促す指示コンテンツを出力する
ことをコンピュータシステムが実行する情報処理方法。
The monitoring level is set based on the state of the AR display terminal used by the user and the state of the AR application operating on the AR display terminal.
An information processing method in which a computer system executes instruction content that prompts the user to move to an action range according to the state of the AR application based on the monitoring level.
ユーザが使用するAR表示端末の状態と、前記AR表示端末で動作するARアプリケーションの状態とに基づいて、監視レベルを設定するステップと、
前記監視レベルに基づいて、前記ユーザに対して前記ARアプリケーションの状態に応じた行動範囲への移動を促す指示コンテンツを出力するステップと
をコンピュータシステムに実行させるプログラム。
A step of setting the monitoring level based on the state of the AR display terminal used by the user and the state of the AR application operating on the AR display terminal, and
A program that causes a computer system to execute a step of outputting instruction content that prompts the user to move to an action range according to the state of the AR application based on the monitoring level.
JP2019212444A 2019-11-25 2019-11-25 Information processing device, information processing method, and program Pending JP2021086204A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019212444A JP2021086204A (en) 2019-11-25 2019-11-25 Information processing device, information processing method, and program
PCT/JP2020/042714 WO2021106671A1 (en) 2019-11-25 2020-11-17 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019212444A JP2021086204A (en) 2019-11-25 2019-11-25 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021086204A true JP2021086204A (en) 2021-06-03

Family

ID=76087657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019212444A Pending JP2021086204A (en) 2019-11-25 2019-11-25 Information processing device, information processing method, and program

Country Status (2)

Country Link
JP (1) JP2021086204A (en)
WO (1) WO2021106671A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9812046B2 (en) * 2013-01-10 2017-11-07 Microsoft Technology Licensing, Llc Mixed reality display accommodation
JP6727807B2 (en) * 2015-12-29 2020-07-22 株式会社バンダイナムコアミューズメント Game device and program

Also Published As

Publication number Publication date
WO2021106671A1 (en) 2021-06-03

Similar Documents

Publication Publication Date Title
US9836889B2 (en) Executable virtual objects associated with real objects
US10864433B2 (en) Using a portable device to interact with a virtual space
EP3241088B1 (en) Methods and systems for user interaction within virtual or augmented reality scene using head mounted display
US11416067B2 (en) Suspend mode feature for artificial reality systems
US20150070274A1 (en) Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
US9199164B2 (en) Image display device, computer readable storage medium, and game control method
TW201541382A (en) Display device viewer gaze attraction
US10139901B2 (en) Virtual reality distraction monitor
US10595012B2 (en) Representations of event notifications in virtual reality
KR20190030746A (en) System and method for placement of virtual characters in augmented / virtual reality environment
JP6234622B1 (en) Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP6276434B1 (en) Method for supporting movement in virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
WO2019184782A1 (en) Method for controlling object in virtual scene, device, and computer apparatus
CN109314800B (en) Method and system for directing user attention to location-based game play companion application
CN112245921A (en) Virtual object control method, device, equipment and storage medium
US20210183135A1 (en) Feed-forward collision avoidance for artificial reality environments
TWI817208B (en) Method and apparatus for determining selected target, computer device, non-transitory computer-readable storage medium, and computer program product
JP2018116684A (en) Communication method through virtual space, program causing computer to execute method, and information processing device to execute program
US20230122636A1 (en) Apparatus and method for localisation and mapping
WO2021106671A1 (en) Information processing device, information processing method, and program
WO2022004422A1 (en) Information processing device, information processing method, and recording medium
US20230252691A1 (en) Passthrough window object locator in an artificial reality system
JP2018124989A (en) Method for supporting movement in virtual space, program for implementing that method in computer, and information processor for implementing that program
WO2022196199A1 (en) Information processing device, information processing method, and program
JP2019179423A (en) Program, information processing device, and method