JP7085578B2 - Information processing device, user guide presentation method, and head-mounted display - Google Patents

Information processing device, user guide presentation method, and head-mounted display Download PDF

Info

Publication number
JP7085578B2
JP7085578B2 JP2020040691A JP2020040691A JP7085578B2 JP 7085578 B2 JP7085578 B2 JP 7085578B2 JP 2020040691 A JP2020040691 A JP 2020040691A JP 2020040691 A JP2020040691 A JP 2020040691A JP 7085578 B2 JP7085578 B2 JP 7085578B2
Authority
JP
Japan
Prior art keywords
user
information processing
guide
image
user guide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020040691A
Other languages
Japanese (ja)
Other versions
JP2020115353A (en
Inventor
渉一 池上
竜雄 土江
徹悟 稲田
真樹 内田
寛史 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2020040691A priority Critical patent/JP7085578B2/en
Publication of JP2020115353A publication Critical patent/JP2020115353A/en
Priority to JP2022090423A priority patent/JP2022121443A/en
Application granted granted Critical
Publication of JP7085578B2 publication Critical patent/JP7085578B2/en
Priority to JP2024009772A priority patent/JP2024050696A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮影画像に基づき情報処理を行う情報処理装置および、それが行うユーザガイド提示方法、画像を表示するヘッドマウントディスプレイに関する。 The present invention relates to an information processing apparatus that performs information processing based on a captured image, a user guide presentation method that is performed by the information processing apparatus, and a head-mounted display that displays an image.

ゲーム機に接続されたヘッドマウントディスプレイ(以下、「HMD」と呼ぶ)を頭部に装着して、表示された画面を見ながらゲームプレイすることが行われている(例えば特許文献1参照)。例えばユーザの頭部の位置や姿勢を取得し、顔の向きに応じて視野を変化させるように仮想世界の画像を表示すれば、あたかも仮想世界に入り込んだような状況を演出できる。ユーザの位置や姿勢は一般的に、ユーザを撮影した可視光や赤外線の画像の解析結果や、HMDに内蔵したモーションセンサの計測値などに基づいて取得される。 A head-mounted display (hereinafter referred to as "HMD") connected to a game machine is attached to the head, and a game is played while looking at the displayed screen (see, for example, Patent Document 1). For example, if the position and posture of the user's head are acquired and the image of the virtual world is displayed so as to change the field of view according to the direction of the face, it is possible to produce a situation as if the user has entered the virtual world. The position and posture of the user are generally acquired based on the analysis result of the visible light or infrared image taken by the user, the measured value of the motion sensor built in the HMD, and the like.

特許第5580855号明細書Japanese Patent No. 5580855

撮影画像に基づき何らかの情報処理を行う技術は、ユーザなどの対象物がカメラの画角内にいることを前提としている。また情報処理の内容によっては、さらにユーザがいるべき好適な領域が限定される場合もある。しかしながらHMDを装着した状態では、ユーザは外界を見ることができないため、方向感覚を失ったり、ゲームに没頭するあまり実空間で思わぬ位置に移動していたりすることがあり得る。これにより情報処理の精度悪化や破綻、他の物との衝突などの不都合が生じるが、HMDを外さない限りその原因を見いだしにくい。そのような状況が頻繁に発生すれば、HMDを利用し構築される仮想空間の世界観が阻害される。 Techniques for performing some kind of information processing based on captured images are based on the premise that an object such as a user is within the angle of view of the camera. Further, depending on the content of information processing, a suitable area in which the user should be may be further limited. However, when the HMD is attached, the user cannot see the outside world, so that he / she may lose his / her sense of direction or move to an unexpected position in the real space so much that he / she is absorbed in the game. This causes inconveniences such as deterioration of information processing accuracy, failure, and collision with other objects, but it is difficult to find the cause unless the HMD is removed. If such a situation occurs frequently, the world view of the virtual space constructed by using the HMD is hindered.

本発明はこうした課題に鑑みてなされたものであり、その目的は、HMDで表現される世界を、少ない負担で継続して楽しむことができる技術を提供することにある。 The present invention has been made in view of these problems, and an object of the present invention is to provide a technique for continuously enjoying the world expressed by an HMD with a small burden.

本発明のある態様は情報処理装置に関する。この情報処理装置は、ヘッドマウントディスプレイの位置情報を取得する位置情報取得部と、位置情報を用いて情報処理を行う情報処理部と、情報処理の結果として表示すべき画像のデータを生成し出力する出力データ生成部と、位置情報を用いてユーザの実空間での位置情報を表したユーザガイドの画像のデータを生成し出力するユーザガイド生成部と、を備え、ユーザガイド生成部は、ユーザガイドを表示させるか否かを、位置情報によって特定される状況に応じて決定することを特徴とする。 One aspect of the present invention relates to an information processing apparatus. This information processing device generates and outputs image data to be displayed as a result of information processing, a position information acquisition unit that acquires the position information of the head mount display, and an information processing unit that performs information processing using the information processing. The user guide generation unit includes an output data generation unit for generating information and a user guide generation unit for generating and outputting data of a user guide image representing the user's position information in the real space using the position information. It is characterized in that whether or not to display the guide is determined according to the situation specified by the position information.

本発明の別の態様はユーザガイド提示方法に関する。このユーザガイド提示方法は情報処理装置が、ヘッドマウントディスプレイの位置情報を取得するステップと、位置情報を用いて情報処理を行うステップと、情報処理の結果として表示すべき画像のデータを生成し出力するステップと、位置情報を用いてユーザの実空間での位置情報を表したユーザガイドの画像のデータを生成し出力するステップと、を含み、ユーザガイドの画像のデータを生成し出力するステップは、ユーザガイドを表示させるか否かを、位置情報によって特定される状況に応じて決定することを特徴とする。 Another aspect of the present invention relates to a user guide presentation method. In this user guide presentation method, the information processing device generates and outputs image data to be displayed as a result of information processing, a step of acquiring the position information of the head mount display and a step of performing information processing using the position information. The step of generating and outputting the data of the image of the user guide including the step of generating and outputting the data of the image of the user guide representing the position information of the user in the real space using the position information. It is characterized in that whether or not to display the user guide is determined according to the situation specified by the position information.

本発明のさらに別の態様はヘッドマウントディスプレイに関する。このヘッドマウントディスプレイは、情報処理装置が生成する画像を表示するヘッドマウントディスプレイであって、情報処理装置との間でデータを送受する通信部と、情報処理装置が、ヘッドマウントディスプレイの位置情報を用いて行った情報処理の結果として生成した画像と、位置情報を用いてユーザの実空間での位置情報を表したユーザガイドの画像と、を表示する表示部を備え、ユーザガイドは、位置情報によって特定される状況に応じて、表示/非表示が切り替わることを特徴とする。 Yet another aspect of the invention relates to a head-mounted display. This head-mounted display is a head-mounted display that displays an image generated by the information processing device, and the communication unit that sends and receives data to and from the information processing device and the information processing device display the position information of the head-mounted display. The user guide is provided with a display unit that displays an image generated as a result of information processing performed using the user and a user guide image showing the user's position information in the real space using the position information. It is characterized by switching between display and non-display according to the situation specified by.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components and the conversion of the expression of the present invention between a method, an apparatus, a system, a computer program, a recording medium on which a computer program is recorded, and the like are also effective as aspects of the present invention. ..

本発明によると、HMDを装着したユーザがその表現世界を、少ない負担で継続して楽しむことができる。 According to the present invention, a user wearing an HMD can continuously enjoy the world of expression with a small burden.

本実施の形態を適用できる情報処理システムの構成例を示す図である。It is a figure which shows the structural example of the information processing system to which this embodiment is applied. 本実施の形態におけるHMDの外観形状の例を示す図である。It is a figure which shows the example of the appearance shape of the HMD in this embodiment. 本実施の形態における情報処理装置の内部回路構成を示す図である。It is a figure which shows the internal circuit structure of the information processing apparatus in this embodiment. 本実施の形態におけるHMDの内部回路構成を示す図である。It is a figure which shows the internal circuit structure of the HMD in this embodiment. 本実施の形態における情報処理装置の機能ブロックの構成を示す図である。It is a figure which shows the structure of the functional block of the information processing apparatus in this embodiment. 本実施の形態において撮影画像から取得できる情報を説明するための図である。It is a figure for demonstrating the information which can be acquired from a photographed image in this embodiment. 本実施の形態においてユーザガイドとして俯瞰図を表示する場合の画像を例示する図である。It is a figure which illustrates the image at the time of displaying the bird's-eye view as a user guide in this embodiment. 本実施の形態においてユーザガイドの画像を表示させた表示画面を例示する図である。It is a figure which illustrates the display screen which displayed the image of the user guide in this embodiment. 本実施の形態においてユーザガイドとして側面図を表示する場合の画像を例示する図である。It is a figure which illustrates the image at the time of displaying the side view as a user guide in this embodiment. 本実施の形態においてユーザガイドとして俯瞰図を表示する場合の別の画像例を示す図である。It is a figure which shows another image example in the case of displaying a bird's-eye view as a user guide in this embodiment. 本実施の形態においてユーザガイドとして俯瞰図を表示する場合の別の画像例を示す図である。It is a figure which shows another image example in the case of displaying a bird's-eye view as a user guide in this embodiment. 本実施の形態においてユーザガイドとしてポイントクラウドを表示する場合の画像を例示する図である。It is a figure which illustrates the image at the time of displaying the point cloud as a user guide in this embodiment. 本実施の形態においてユーザガイドとして俯瞰図を表示する場合の別の画像例を示す図である。It is a figure which shows another image example in the case of displaying a bird's-eye view as a user guide in this embodiment. 本実施の形態において情報処理装置がユーザの動きに応じた出力データを生成する処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure which the information processing apparatus generates the output data according to the movement of a user in this embodiment.

図1は本実施の形態を適用できる情報処理システムの構成例を示す。情報処理システム8は、対象物を撮影する撮像装置12、撮影した画像に基づき情報処理を行う情報処理装置10、情報処理の結果として得られた画像を表示する平板型ディスプレイ16およびHMD18、ユーザが操作する入力装置14を含む。 FIG. 1 shows a configuration example of an information processing system to which this embodiment can be applied. The information processing system 8 includes an image pickup device 12 that captures an object, an information processing device 10 that performs information processing based on the captured image, a flat plate display 16 and an HMD 18 that display images obtained as a result of information processing, and a user. Includes an input device 14 to operate.

情報処理装置10と、撮像装置12、入力装置14、平板型ディスプレイ16、HMD18とは、有線ケーブルで接続されても、Bluetooth(登録商標)など既知の無線通信技術により接続されてもよい。また情報処理装置10が実施する情報処理によっては、平板型ディスプレイ16はなくてもよい。またこれらの装置の外観形状は図示するものに限らない。さらにこれらのうち2つ以上の装置を一体的に備えた装置としてもよい。例えば情報処理装置10、入力装置14、平板型ディスプレイ16を、それらを備えた携帯端末などで実現してもよい。 The information processing device 10 and the image pickup device 12, the input device 14, the flat plate display 16, and the HMD 18 may be connected by a wired cable or by a known wireless communication technique such as Bluetooth (registered trademark). Further, depending on the information processing performed by the information processing apparatus 10, the flat plate type display 16 may not be provided. Further, the external shape of these devices is not limited to those shown in the figure. Further, a device may be integrally provided with two or more of these devices. For example, the information processing device 10, the input device 14, and the flat plate display 16 may be realized by a mobile terminal provided with them.

撮像装置12は、ユーザなどの対象物を所定のフレームレートで撮影するカメラと、その出力信号にデモザイク処理など一般的な処理を施すことにより撮影画像の出力データを生成し、情報処理装置10に送出する機構とを有する。カメラはCCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなど、一般的なデジタルカメラ、デジタルビデオカメラで利用されている可視光センサを備える。撮像装置12が備えるカメラは1つのみでもよいし、図示するように2つのカメラを既知の間隔で左右に配置したいわゆるステレオカメラでもよい。 The image pickup device 12 generates output data of a photographed image by performing general processing such as demosaic processing on a camera that photographs an object such as a user at a predetermined frame rate and the output signal thereof, and causes the information processing apparatus 10 to generate output data. It has a mechanism to send out. The camera is equipped with a visible light sensor used in general digital cameras and digital video cameras such as a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor) sensor. The image pickup apparatus 12 may have only one camera, or may be a so-called stereo camera in which two cameras are arranged on the left and right at known intervals as shown in the figure.

あるいは単眼のカメラと、赤外線などの参照光を対象物に照射しその反射光を測定する装置との組み合わせで撮像装置12を構成してもよい。ステレオカメラや反射光の測定機構を導入した場合、対象物の位置を3次元の実空間に対し求めることができ、情報処理装置10による情報処理や表示装置による画像表示をより多様化させることができる。ステレオカメラが左右の視点から撮影したステレオ画像を用いて、三角測量の原理により被写体のカメラからの距離を特定する手法、参照光の反射を測定することによりTOF(Time of Flight)やパターン照射の方式で被写体のカメラからの距離を特定する手法はいずれも広く知られている。 Alternatively, the image pickup device 12 may be configured by combining a monocular camera and a device that irradiates an object with reference light such as infrared rays and measures the reflected light. When a stereo camera or a reflected light measurement mechanism is introduced, the position of the object can be obtained in a three-dimensional real space, and the information processing by the information processing device 10 and the image display by the display device can be further diversified. can. A method of identifying the distance of the subject from the camera using the stereo image taken by the stereo camera from the left and right viewpoints, and the TOF (Time of Flight) and pattern irradiation by measuring the reflection of the reference light. All the methods for specifying the distance of the subject from the camera are widely known.

以後では主に、撮像装置12がステレオ画像を撮影する態様について説明するが、上記のとおり本実施の形態をそれに限る主旨ではなく、撮像装置12には少なくとも一つのカメラが含まれていればよい。情報処理装置10は、撮像装置12から送信されたデータを用いて必要な情報処理を行い、画像や音声などの出力データを生成する。ここで情報処理装置10が行う処理の内容は特に限定されず、ユーザが求める機能、アプリケーション、電子コンテンツなどによって適宜決定してよい。 Hereinafter, a mode in which the image pickup device 12 captures a stereo image will be mainly described, but as described above, the present embodiment is not limited to this, and the image pickup device 12 may include at least one camera. .. The information processing device 10 performs necessary information processing using the data transmitted from the image pickup device 12, and generates output data such as an image and a voice. Here, the content of the processing performed by the information processing apparatus 10 is not particularly limited, and may be appropriately determined depending on the function, application, electronic content, and the like required by the user.

情報処理装置10は例えば、撮影画像に対し一般的な顔検出や追跡処理を施すことにより、対象物であるユーザの動作を反映させたキャラクタが登場するゲームを進捗させたり、ユーザの動きをコマンド入力に変換して情報処理を行ったりする。このとき入力装置14に設けたマーカーを利用して入力装置14の動きを取得してもよい。またHMD18の外面に設けた複数のマーカーを追跡することにより、HMD18を装着したユーザの頭部の位置や姿勢を特定し、それに対応して動く視点から見た仮想世界をHMD18に表示させてもよい。情報処理装置10が生成した出力データは、少なくともHMD18に送信される。 For example, the information processing apparatus 10 performs general face detection and tracking processing on a captured image to advance a game in which a character reflecting the movement of the user who is an object appears, or commands the movement of the user. It converts to input and processes information. At this time, the movement of the input device 14 may be acquired by using the marker provided on the input device 14. Further, by tracking a plurality of markers provided on the outer surface of the HMD 18, the position and posture of the head of the user wearing the HMD 18 can be specified, and the virtual world seen from a moving viewpoint corresponding to the position can be displayed on the HMD 18. good. The output data generated by the information processing apparatus 10 is transmitted to at least the HMD 18.

HMD18は、ユーザが頭に装着することによりその眼前に位置する有機ELパネルなどの表示パネルに画像を表示する表示装置である。例えば左右の視点から見た視差画像を生成し、表示画面を2分割してなる左右の領域にそれぞれ表示させることにより、画像を立体視させてもよい。ただし本実施の形態をこれに限る主旨ではなく、表示画面全体に1つの画像を表示させてもよい。HMD18はさらに、ユーザの耳に対応する位置に音声を出力するスピーカーやイヤホンを内蔵していてもよい。 The HMD 18 is a display device that displays an image on a display panel such as an organic EL panel located in front of the user when the user wears it on his / her head. For example, the image may be viewed stereoscopically by generating a parallax image viewed from the left and right viewpoints and displaying the display screen in the left and right regions divided into two. However, the present embodiment is not limited to this, and one image may be displayed on the entire display screen. The HMD 18 may further include a speaker or earphone that outputs sound at a position corresponding to the user's ear.

平板型ディスプレイ16は、2次元の画像を出力するディスプレイおよび音声を出力するスピーカーを有するテレビでよく、例えば液晶テレビ、有機ELテレビ、プラズマテレビ、PCディスプレイ等である。あるいはタブレット端末や携帯端末のディスプレイおよびスピーカーであってもよい。入力装置14は、ユーザが操作することにより、処理の開始、終了、機能の選択、各種コマンド入力などの要求を受け付け、情報処理装置10に電気信号として供給する。 The flat plate type display 16 may be a television having a display for outputting a two-dimensional image and a speaker for outputting audio, and may be, for example, a liquid crystal television, an organic EL television, a plasma television, a PC display, or the like. Alternatively, it may be a display and a speaker of a tablet terminal or a mobile terminal. The input device 14 receives requests such as start, end, function selection, and input of various commands by the user, and supplies the information processing device 10 as an electric signal.

入力装置14は、ゲームコントローラ、キーボード、マウス、ジョイスティック、平板型ディスプレイ16の表示画面上に設けたタッチパッドなど、一般的な入力装置のいずれか、またはそれらの組み合わせによって実現してよい。入力装置14はさらに、所定の色で発光する素子またはその集合からなる発光マーカーを備えていてもよい。この場合、情報処理装置10が撮影画像を用いてマーカーの動きを追跡することにより、入力装置14自体の動きをユーザ操作とすることができる。なお入力装置14を、発光マーカーとそれを把持する機構のみで構成してもよい。 The input device 14 may be realized by any or a combination of general input devices such as a game controller, a keyboard, a mouse, a joystick, and a touch pad provided on the display screen of the flat plate display 16. The input device 14 may further include a light emitting marker composed of an element or a set thereof that emits light in a predetermined color. In this case, the information processing device 10 tracks the movement of the marker using the captured image, so that the movement of the input device 14 itself can be controlled by the user. The input device 14 may be composed of only a light emitting marker and a mechanism for gripping the light emitting marker.

図2はHMD18の外観形状の例を示している。この例においてHMD18は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。装着バンド106は各ユーザの頭囲に合わせて長さの調節が可能な素材または構造とする。例えばゴムなどの弾性体としてもよいし、バックルや歯車などを利用してもよい。 FIG. 2 shows an example of the appearance shape of the HMD 18. In this example, the HMD 18 is composed of an output mechanism unit 102 and a mounting mechanism unit 104. The mounting mechanism unit 104 includes a mounting band 106 that goes around the head and realizes fixing of the device when the user wears it. The wearing band 106 is made of a material or structure whose length can be adjusted according to the head circumference of each user. For example, it may be an elastic body such as rubber, or a buckle or a gear may be used.

出力機構部102は、HMD18をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。そして筐体108の外面には、発光マーカー110a、110b、110c、110d、などを設ける。発光マーカーの数や配置は特に限定されないが、本実施の形態では出力機構部102の筐体前面の4隅に設ける。 The output mechanism 102 includes a housing 108 having a shape that covers the left and right eyes when the HMD 18 is worn by the user, and includes a display panel inside so as to face the eyes when the HMD 18 is worn. The outer surface of the housing 108 is provided with light emitting markers 110a, 110b, 110c, 110d, and the like. The number and arrangement of the light emitting markers are not particularly limited, but in the present embodiment, they are provided at the four corners of the front surface of the housing of the output mechanism unit 102.

さらに、装着バンド106後方の両側面にも発光マーカー110e、110fを設ける。このように発光マーカーを配置することにより、撮像装置12に対しユーザが横を向いたり後ろを向いたりしても、撮影画像における発光マーカーの像の数や位置関係に基づきそれらの状況を特定できる。なお発光マーカー110c、110dは出力機構部102の下側、発光マーカー110e、110fは装着バンド106の外側にあり、図2の視点からは本来は見えないため、外周を点線で表している。 Further, light emitting markers 110e and 110f are also provided on both side surfaces behind the mounting band 106. By arranging the light emitting markers in this way, even if the user turns sideways or backwards with respect to the image pickup device 12, the situation can be specified based on the number and positional relationship of the light emitting markers in the captured image. .. The light emitting markers 110c and 110d are on the lower side of the output mechanism unit 102, and the light emitting markers 110e and 110f are on the outside of the mounting band 106. Since they are not originally visible from the viewpoint of FIG. 2, the outer periphery is represented by a dotted line.

図3は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)22、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、平板型ディスプレイ16やHMD18へデータを出力する出力部36、撮像装置12、入力装置14、およびHMD18からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。 FIG. 3 shows the internal circuit configuration of the information processing apparatus 10. The information processing device 10 includes a CPU (Central Processing Unit) 22, a GPU (Graphics Processing Unit) 24, and a main memory 26. Each of these parts is connected to each other via a bus 30. An input / output interface 28 is further connected to the bus 30. The input / output interface 28 includes peripheral device interfaces such as USB and IEEE1394, a communication unit 32 composed of a wired or wireless LAN network interface, a storage unit 34 such as a hard disk drive and a non-volatile memory, and data to a flat plate display 16 and an HMD 18. An output unit 36 that outputs data, an image pickup device 12, an input device 14, an input unit 38 that inputs data from the HMD 18, and a recording medium drive unit 40 that drives a removable recording medium such as a magnetic disk, an optical disk, or a semiconductor memory are connected. ..

CPU22は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU22はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU22からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。 The CPU 22 controls the entire information processing apparatus 10 by executing the operating system stored in the storage unit 34. The CPU 22 also executes various programs read from the removable recording medium, loaded into the main memory 26, or downloaded via the communication unit 32. The GPU 24 has a geometry engine function and a rendering processor function, performs drawing processing according to a drawing command from the CPU 22, and stores a display image in a frame buffer (not shown). Then, the display image stored in the frame buffer is converted into a video signal and output to the output unit 36. The main memory 26 is composed of a RAM (Random Access Memory) and stores programs and data necessary for processing.

図4はHMD18の内部回路構成を示している。HMD18は、CPU50、メインメモリ52、表示部54、音声出力部56を含む。これらの各部はバス58を介して相互に接続されている。バス58にはさらに入出力インターフェース60が接続されている。入出力インターフェース60には、有線又は無線LANのネットワークインターフェースからなる通信部62、加速度センサ64、発光部66が接続される。 FIG. 4 shows the internal circuit configuration of the HMD 18. The HMD 18 includes a CPU 50, a main memory 52, a display unit 54, and an audio output unit 56. Each of these parts is connected to each other via a bus 58. An input / output interface 60 is further connected to the bus 58. A communication unit 62, an acceleration sensor 64, and a light emitting unit 66, which are wired or wireless LAN network interfaces, are connected to the input / output interface 60.

CPU50は、バス58を介してHMD18の各部から取得した情報を処理し、出力データを表示部54や音声出力部56に供給する。メインメモリ52はCPU50における処理に必要なプログラムやデータを格納する。ただし実行するアプリケーションや装置の設計によっては、情報処理装置10がほぼ全ての処理を行い、HMD18では情報処理装置10から送信されたデータを出力するのみで十分な場合がある。この場合、CPU50やメインメモリ52は、より簡易なデバイスで置き換えることができる。 The CPU 50 processes the information acquired from each unit of the HMD 18 via the bus 58, and supplies the output data to the display unit 54 and the audio output unit 56. The main memory 52 stores programs and data necessary for processing in the CPU 50. However, depending on the design of the application or device to be executed, the information processing device 10 may perform almost all processing, and the HMD 18 may be sufficient to output the data transmitted from the information processing device 10. In this case, the CPU 50 and the main memory 52 can be replaced with a simpler device.

表示部54は、液晶パネルや有機ELパネルなどの表示パネルで構成され、HMD18を装着したユーザの眼前に画像を表示する。上述したように左右の目に対応する領域に一対の視差画像を表示することにより立体視を実現してもよい。表示部54はさらに、HMD18装着時に表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する一対のレンズを含んでもよい。 The display unit 54 is composed of a display panel such as a liquid crystal panel or an organic EL panel, and displays an image in front of the eyes of a user wearing the HMD 18. As described above, stereoscopic vision may be realized by displaying a pair of parallax images in the regions corresponding to the left and right eyes. The display unit 54 may further include a pair of lenses that are located between the display panel and the user's eyes when the HMD 18 is attached and that expand the user's viewing angle.

音声出力部56は、HMD18の装着時にユーザの耳に対応する位置に設けたスピーカーやイヤホンで構成され、ユーザに音声を聞かせる。出力される音声のチャンネル数は特に限定されず、モノラル、ステレオ、サラウンドのいずれでもよい。通信部62は、情報処理装置10や平板型ディスプレイ16との間でデータを送受するためのインターフェースであり、例えばBluetooth(登録商標)などの既知の無線通信技術を用いて実現できる。 The voice output unit 56 is composed of a speaker or earphone provided at a position corresponding to the user's ear when the HMD 18 is attached, and allows the user to hear the voice. The number of audio channels to be output is not particularly limited, and may be monaural, stereo, or surround. The communication unit 62 is an interface for transmitting and receiving data to and from the information processing device 10 and the flat plate display 16, and can be realized by using a known wireless communication technique such as Bluetooth (registered trademark).

加速度センサ64は、所定軸方向の重力加速度を計測することによりHMD18の傾きを検出する。HMD18にはさらに、ジャイロセンサなどその他の各種センサを設けてよい。センサによる測定値は通信部62を介して情報処理装置10に送信される。発光部66は、所定の色で発光する素子またはその集合であり、図2で示したようにHMD18の外面の複数箇所に設ける。これをマーカーとして追跡することによりHMD18の位置を取得するほか、撮影画像におけるその像の数や位置関係からHMD18の姿勢を取得する。 The acceleration sensor 64 detects the inclination of the HMD 18 by measuring the gravitational acceleration in a predetermined axial direction. The HMD 18 may be further provided with various other sensors such as a gyro sensor. The measured value by the sensor is transmitted to the information processing apparatus 10 via the communication unit 62. The light emitting unit 66 is an element or a set thereof that emits light in a predetermined color, and is provided at a plurality of locations on the outer surface of the HMD 18 as shown in FIG. By tracking this as a marker, the position of the HMD 18 is acquired, and the posture of the HMD 18 is acquired from the number and positional relationship of the images in the captured image.

情報処理装置10は、加速度センサ64および発光部66といった複数の手段により得られた情報を統合することにより、より高い精度でユーザの頭の位置や姿勢を取得することができる。一方、本実施の形態では、場合によっては加速度センサ64を省略することもできる。 The information processing apparatus 10 can acquire the position and posture of the user's head with higher accuracy by integrating the information obtained by a plurality of means such as the acceleration sensor 64 and the light emitting unit 66. On the other hand, in the present embodiment, the accelerometer 64 may be omitted in some cases.

図5は情報処理装置10の機能ブロックの構成を示している。図5に示す各機能ブロックは、ハードウェア的には、図3に示したCPU、GPU、各種メモリ、データバスなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 FIG. 5 shows the configuration of the functional block of the information processing apparatus 10. Each functional block shown in FIG. 5 can be realized by the configuration of the CPU, GPU, various memories, data buses, etc. shown in FIG. 3 in terms of hardware, and is loaded into the memory from a recording medium or the like in terms of software. It is realized by a program that exerts various functions such as data input function, data retention function, image processing function, and communication function. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and the present invention is not limited to any of them.

情報処理装置10は、入力装置14およびHMD18からの入力情報を取得する入力情報取得部72、撮像装置12から撮影画像のデータを取得する撮影画像取得部74、ゲームなどコンテンツに応じた情報処理を行う情報処理部76、出力すべきデータを生成する出力データ生成部78、情報処理や画像の生成に必要なデータを格納したコンテンツデータ記憶部84を含む。情報処理装置10はさらに、撮影画像などに基づきユーザの位置や姿勢の情報を取得する位置・姿勢情報取得部80、実空間におけるユーザの状況に係る情報をユーザガイドとして生成するユーザガイド生成部82、ユーザガイドの提示規則や出力に必要なデータを格納したガイド用データ記憶部85、および、出力すべきデータをHMD18に送信する出力データ送信部86を含む。 The information processing device 10 performs information processing according to contents such as an input information acquisition unit 72 that acquires input information from the input device 14 and the HMD 18, a captured image acquisition unit 74 that acquires captured image data from the image pickup device 12, and a game. It includes an information processing unit 76 that performs information processing, an output data generation unit 78 that generates data to be output, and a content data storage unit 84 that stores data necessary for information processing and image generation. Further, the information processing apparatus 10 further includes a position / attitude information acquisition unit 80 that acquires information on the user's position and attitude based on a captured image and the like, and a user guide generation unit 82 that generates information related to the user's situation in real space as a user guide. , A guide data storage unit 85 that stores user guide presentation rules and data necessary for output, and an output data transmission unit 86 that transmits data to be output to the HMD 18.

入力情報取得部72は、ユーザ操作の内容を入力装置14から取得する。ここでユーザ操作とは、実行するアプリケーションやコンテンツの選択、処理の開始/終了、コマンド入力など、一般的な情報処理装置でなされるもののほか、後述するユーザガイドの表示/非表示、ユーザガイドとして表示する画像の向きの切り替えなど、ユーザガイドに対する操作も含まれる。入力情報取得部72は入力装置14から取得した情報を、その内容に応じて撮影画像取得部74、情報処理部76、またはユーザガイド生成部82に供給する。入力情報取得部72はさらに、HMD18の加速度センサ64から計測値を所定のレートで受信し、位置・姿勢情報取得部80に供給する。 The input information acquisition unit 72 acquires the content of the user operation from the input device 14. Here, the user operation is performed by a general information processing device such as selection of an application or content to be executed, start / end of processing, command input, etc., as well as display / non-display of a user guide described later, as a user guide. Operations on the user guide, such as switching the orientation of the image to be displayed, are also included. The input information acquisition unit 72 supplies the information acquired from the input device 14 to the captured image acquisition unit 74, the information processing unit 76, or the user guide generation unit 82 according to the content thereof. The input information acquisition unit 72 further receives the measured value from the acceleration sensor 64 of the HMD 18 at a predetermined rate and supplies it to the position / attitude information acquisition unit 80.

撮影画像取得部74は、ステレオ画像など、撮像装置12が動画撮影して得られる撮影画像のデータを所定のレートで取得する。撮影画像取得部74はさらに、入力情報取得部72が取得したユーザからの処理開始/終了要求に従い、撮像装置12における撮影の開始/終了を制御したり、情報処理部76における処理の結果に応じて、撮像装置12から取得するデータの種類を制御したりしてもよい。 The captured image acquisition unit 74 acquires captured image data such as a stereo image obtained by imaging a moving image by the image pickup apparatus 12 at a predetermined rate. The captured image acquisition unit 74 further controls the start / end of imaging in the image pickup apparatus 12 according to the processing start / end request from the user acquired by the input information acquisition unit 72, and responds to the processing result in the information processing unit 76. The type of data acquired from the image pickup apparatus 12 may be controlled.

位置・姿勢情報取得部80は、撮影画像から所定の対象物の像を検出することにより、ユーザの位置および姿勢の情報を所定のレートで取得する。例えばHMD18や入力装置14に設けた発光マーカーの像に基づきユーザの頭部や手の実空間での位置を取得する。あるいはユーザの体の一部を、輪郭線を利用して追跡したり、顔や特定の模様を有する対象物をパターンマッチングにより検出したりする画像解析技術を適宜組み合わせてもよい。また撮像装置12の構成によっては上述のとおり、赤外線の反射を計測することによりユーザの距離を特定してもよい。位置・姿勢情報取得部80はさらに、HMD18の加速度センサによる計測結果を統合し、ユーザの頭部の姿勢をより詳細に特定してもよい。さらに後述するように、提示するユーザガイドの内容によっては、位置・姿勢情報取得部80はユーザ以外の被写体の位置も検出してよい。 The position / posture information acquisition unit 80 acquires the position and posture information of the user at a predetermined rate by detecting an image of a predetermined object from the captured image. For example, the positions of the user's head and hands in the real space are acquired based on the images of the light emitting markers provided on the HMD 18 and the input device 14. Alternatively, an image analysis technique such as tracking a part of the user's body using contour lines or detecting a face or an object having a specific pattern by pattern matching may be appropriately combined. Further, depending on the configuration of the image pickup apparatus 12, the user's distance may be specified by measuring the reflection of infrared rays as described above. The position / posture information acquisition unit 80 may further integrate the measurement results of the acceleration sensor of the HMD 18 to specify the posture of the user's head in more detail. Further, as will be described later, depending on the content of the presented user guide, the position / posture information acquisition unit 80 may also detect the position of a subject other than the user.

情報処理部76は、ユーザが指定したゲームなどの電子コンテンツを処理する。この処理には、位置・姿勢情報取得部80が取得した、ユーザの位置や姿勢の情報の利用が含まれる。なお上述のように、入力装置14を介したユーザ操作やユーザの動きに応じて、情報処理部76が行う後段の情報処理の内容は特に限定されない。 The information processing unit 76 processes electronic contents such as games specified by the user. This process includes the use of the user's position and posture information acquired by the position / posture information acquisition unit 80. As described above, the content of the information processing in the subsequent stage performed by the information processing unit 76 is not particularly limited according to the user operation or the movement of the user via the input device 14.

出力データ生成部78は、情報処理部76からの要求に従い、情報処理の結果として出力すべき画像や音声のデータを生成する。例えばユーザの頭部の位置や姿勢に対応する視点から見た仮想世界を左右の視差画像として生成する。この視差画像をHMD18において左右の目の前に表示させたり、仮想世界での音声を出力したりすれば、ユーザはあたかも仮想世界に入り込んだような感覚を得られる。情報処理部76における情報処理や出力データ生成部78におけるデータ生成処理に必要な、プログラムや画像・音声のデータは、コンテンツデータ記憶部84に格納しておく。 The output data generation unit 78 generates image and audio data to be output as a result of information processing in accordance with the request from the information processing unit 76. For example, a virtual world viewed from a viewpoint corresponding to the position and posture of the user's head is generated as a left-right parallax image. By displaying this parallax image in front of the left and right eyes on the HMD 18 or outputting the sound in the virtual world, the user can feel as if he / she has entered the virtual world. The program and image / audio data required for information processing in the information processing unit 76 and data generation processing in the output data generation unit 78 are stored in the content data storage unit 84.

ユーザガイド生成部82は、位置・姿勢情報取得部80が取得した、ユーザやその他の被写体の位置や姿勢の情報に基づき、実世界における周囲の状況を確認させたり、その後とるべき行動についての示唆を与えたりするためのユーザガイド提示に係る処理を行う。例えば撮像装置12との相対位置、ユーザの位置の好適な範囲(以後、「プレイエリア」と呼ぶ)、プレイエリアの中央などに戻るための移動方向、といった情報を、図解するなど理解しやすい形式で提示されるようにする。 The user guide generation unit 82 confirms the surrounding situation in the real world based on the position and posture information of the user and other subjects acquired by the position / posture information acquisition unit 80, and suggests actions to be taken thereafter. Performs the process related to the presentation of the user guide for giving. For example, an easy-to-understand format such as illustrating information such as a relative position with the image pickup device 12, a suitable range of the user's position (hereinafter referred to as "play area"), and a moving direction for returning to the center of the play area. To be presented at.

このような情報を表したユーザガイドを、実行中のゲーム画面などに重畳表示させることにより、ゲームの途中などであってもHMDを外すことなく実世界における状況を把握できるようにする。ユーザガイド生成部82は、ユーザによるユーザガイド表示操作に応じて、随時ユーザガイドが表示されるようにする。あるいは危険性を警告するなど状況によっては、ユーザ操作と関わりなくユーザガイドを表示させるようにしてもよい。 By superimposing the user guide representing such information on the running game screen or the like, it is possible to grasp the situation in the real world without removing the HMD even in the middle of the game. The user guide generation unit 82 causes the user guide to be displayed at any time according to the user guide display operation by the user. Alternatively, depending on the situation such as warning of danger, the user guide may be displayed regardless of the user operation.

撮像装置12のカメラの画角や、それに対するプレイエリアの設定、ユーザガイドを出力する条件や提示する内容などの設定情報、ユーザガイドの生成に必要な画像データなどは、ガイド用データ記憶部85に格納しておき必要に応じて読み出す。カメラの画角以外の情報は、情報処理部76が実施する情報処理の内容などに対応づけてそれぞれ設定してもよい。ユーザガイド生成部82は、画像表示以外に音声によってユーザガイドを提示させてもよい。この場合、状況に応じて出力すべき音声データについてもガイド用データ記憶部85に格納しておく。ユーザガイドの具体例については後に述べる。 The guide data storage unit 85 contains information such as the angle of view of the camera of the image pickup apparatus 12, the setting of the play area for the camera, the setting information such as the conditions for outputting the user guide and the content to be presented, and the image data necessary for generating the user guide. Store in and read as needed. Information other than the angle of view of the camera may be set in association with the content of information processing performed by the information processing unit 76. The user guide generation unit 82 may present the user guide by voice in addition to displaying the image. In this case, the voice data to be output according to the situation is also stored in the guide data storage unit 85. Specific examples of the user guide will be described later.

ユーザガイド生成部82は、生成したユーザガイドのデータを出力データ生成部78に供給する。ユーザガイドには、ユーザの位置等、状況の変化が常に反映されるようにする。したがってユーザガイド生成部82は、ユーザガイドを表示すべき条件が満たされている期間、所定のレートでデータを生成し供給し続ける。出力データ生成部78は、供給されたユーザガイドの画像や音声を、情報処理部76の情報処理の結果として生成した画像や音声に重畳させる。出力データ送信部86は、出力データ生成部78が生成した出力データを順次取得し、必要に応じて成形したうえ、HMD18に送信する。 The user guide generation unit 82 supplies the generated user guide data to the output data generation unit 78. The user guide should always reflect changes in the situation, such as the position of the user. Therefore, the user guide generation unit 82 continues to generate and supply data at a predetermined rate for a period in which the condition for displaying the user guide is satisfied. The output data generation unit 78 superimposes the supplied user guide image and sound on the image and sound generated as a result of the information processing of the information processing unit 76. The output data transmission unit 86 sequentially acquires the output data generated by the output data generation unit 78, forms it as necessary, and transmits it to the HMD 18.

図6は、本実施の形態において撮影画像から取得できる情報を説明するための図である。同図においてユーザ120は、入力装置14を把持しHMD18を装着している。入力装置14は、操作に適した持ち方で把持したときに撮像装置12に正対する位置に発光マーカー122を備える。HMD18の発光マーカーは図2で示したとおりである。撮像装置12をステレオカメラとした場合、ステレオ画像における像の視差に基づき、撮像装置12の撮像面から各発光マーカーまでの距離Zが求められる。また、どちらかの撮影画像の画像平面(XY平面)における発光マーカーの像の位置は、撮像装置12からの見かけ上の位置を表している。 FIG. 6 is a diagram for explaining information that can be acquired from a captured image in the present embodiment. In the figure, the user 120 holds the input device 14 and wears the HMD 18. The input device 14 includes a light emitting marker 122 at a position facing the image pickup device 12 when gripped by a holding method suitable for operation. The emission marker of HMD18 is as shown in FIG. When the image pickup device 12 is a stereo camera, the distance Z from the image pickup surface of the image pickup device 12 to each light emitting marker is obtained based on the parallax of the image in the stereo image. Further, the position of the image of the light emitting marker on the image plane (XY plane) of either photographed image represents the apparent position from the image pickup apparatus 12.

これらの情報を統合する、具体的にはXY平面における位置を撮像装置12からの距離Zを用いて逆射影することにより、実世界の3次元空間における各発光マーカーの位置が求められる。さらにHMD18の発光マーカーの像の数や位置関係からHMD18の実空間における姿勢(ベクトルva)が、入力装置14の発光マーカー122の像の形状から入力装置14の実空間における姿勢(ベクトルvb)が求められる。 By integrating these information, specifically, by back-projecting the position in the XY plane using the distance Z from the image pickup apparatus 12, the position of each light emitting marker in the three-dimensional space in the real world can be obtained. Further, the attitude (vector va) of the HMD 18 in the real space is determined from the number and positional relationship of the image of the light emitting marker of the HMD 18, and the attitude (vector vb) of the input device 14 in the real space is determined from the shape of the image of the light emitting marker 122 of the input device 14. Desired.

情報処理装置10の情報処理部76は、これらの装置の実空間における位置および姿勢に基づき、ユーザ120の顔の向きに応じて視野が変化する仮想世界や、入力装置14の動きに応じて画像内のオブジェクトが動く様などを表現することができる。なおマーカーの見かけ上の大きさによって撮像装置12からの距離を推定する場合は、撮像装置12はステレオカメラでなくてよい。参照光を利用した距離測定技術を導入する場合も同様である。また必ずしもHMD18と入力装置14の双方を追跡しなくてもよい。 The information processing unit 76 of the information processing device 10 has an image in a virtual world in which the field of view changes according to the orientation of the face of the user 120 or an image according to the movement of the input device 14 based on the position and posture of these devices in the real space. It is possible to express how the objects inside move. When the distance from the image pickup device 12 is estimated from the apparent size of the marker, the image pickup device 12 does not have to be a stereo camera. The same applies when introducing a distance measurement technique using reference light. Also, it is not always necessary to track both the HMD 18 and the input device 14.

このような系においてユーザガイド生成部82は、HMD18の位置および姿勢をユーザの位置および頭部の姿勢として認識し、ユーザの立場から把握できるように周囲の状況を図示する。図7は、ユーザガイドとして俯瞰図を表示する場合の画像を例示している。同図(a)、(b)のユーザガイドはいずれも、撮像装置とユーザを含む実空間を俯瞰した状態を略図で表しており、(a)は撮像装置の位置を基準とした画像、(b)はユーザの向きを基準とした画像である。両図において、撮像装置を表す矩形130、ユーザを表す丸印132が、実際の位置関係や向きを反映させるように表される。 In such a system, the user guide generation unit 82 recognizes the position and posture of the HMD 18 as the position of the user and the posture of the head, and illustrates the surrounding situation so that it can be grasped from the user's point of view. FIG. 7 illustrates an image when a bird's-eye view is displayed as a user guide. Both the user guides in FIGS. (A) and (b) represent a schematic view of the real space including the image pickup device and the user, and (a) is an image based on the position of the image pickup device, (a). b) is an image based on the orientation of the user. In both figures, the rectangle 130 representing the image pickup apparatus and the circle 132 representing the user are represented so as to reflect the actual positional relationship and orientation.

ユーザを表す丸印132には、ユーザが実際に向いている方向を示す棒線を付加している。両画像にはさらに、カメラの画角等によって定まる水平方向のプレイエリアを表す領域134、およびユーザが移動すべき方向を表す矢印136も示される。プレイエリアは基本的に、水平方向や垂直方向においてカメラの画角と一致させるか、それより狭く情報処理に好適な位置の範囲を設定する。またカメラからの奥行き方向においては、距離の取得精度を十分に保てる範囲、あるいはそれより狭く情報処理に好適な位置の範囲を設定する。プレイエリアの形状や大きさは、実施するゲームなどの情報処理の内容や部屋の広さなどによって切り替えたりユーザが選択したりできるようにしてもよい。 A bar indicating the direction in which the user is actually facing is added to the circle 132 representing the user. Both images are further shown with an area 134 representing a horizontal play area determined by the angle of view of the camera and the like, and an arrow 136 indicating the direction in which the user should move. The play area basically matches the angle of view of the camera in the horizontal or vertical direction, or sets a narrower range of positions suitable for information processing. Further, in the depth direction from the camera, a range in which the acquisition accuracy of the distance can be sufficiently maintained, or a range in which the position is narrower and suitable for information processing is set. The shape and size of the play area may be switched or selected by the user depending on the content of information processing such as the game to be performed and the size of the room.

(a)の画像は、撮像装置を表す矩形130を常に上側中央に据え置くような表現をしている。ユーザはこの画像により、自分がプレイエリアの左端で撮像装置12に対し比較的後方にいることを確認できる。そしてこれ以上、左や後方に移動すれば、プレイエリアから逸脱してしまうことや、プレイエリアの中央に戻るための移動方向を認識できる。このようなユーザガイドを表示させた状態でユーザが実際に動くことにより、ユーザを表す丸印132も連動するように移動させる。このようにユーザの動きを反映させた俯瞰図を表すことにより、撮像装置やプレイエリアとユーザとの相対位置が明確になるほか、感覚的で曖昧さを含む歩幅や方向などが視覚的かつ客観的に表現される。これにより、情報処理装置10が認識している「場」と、ユーザ自身の動きの感覚とを合致させることができる。 The image of (a) is expressed so that the rectangle 130 representing the image pickup apparatus is always placed in the center of the upper side. From this image, the user can confirm that he / she is relatively behind the image pickup device 12 at the left end of the play area. If you move further to the left or backward, you can recognize that you are deviating from the play area and the direction of movement to return to the center of the play area. When the user actually moves while displaying such a user guide, the circle 132 representing the user is also moved so as to be interlocked with the user. By expressing the bird's-eye view that reflects the movement of the user in this way, the relative position between the image pickup device or the play area and the user is clarified, and the stride length and direction including sensation and ambiguity are visually and objectively. It is expressed as. As a result, the "field" recognized by the information processing apparatus 10 can be matched with the user's own sense of movement.

(a)のような表現の場合、ユーザが撮像装置12に正対していない状態では、ユーザ自身の前後左右と画像の上下左右が一致しない。そのため矢印136の方向に動こうと思っても、そのように動けないことが考えられる。これに対し(b)の画像は、ユーザの向いている方向が常に画像の垂直上向きになるような表現をしている。この場合、ユーザの向きが変化すると、矩形130や領域134を含む場自体が相対的に逆方向に回転することになる。このようにすると、ユーザ自身の前後左右と画像の上下左右が常に一致するため、矢印136の方向が自分の方向感覚と一致し、正確にその方向に移動しやすくなる。 In the case of the expression (a), when the user does not face the image pickup device 12, the front / rear / left / right of the user does not match the top / bottom / left / right of the image. Therefore, even if you try to move in the direction of arrow 136, it is possible that you cannot move in that way. On the other hand, the image of (b) is expressed so that the direction in which the user is facing is always vertically upward in the image. In this case, when the direction of the user changes, the field itself including the rectangle 130 and the area 134 rotates in the relatively opposite direction. By doing so, since the front / back / left / right of the user himself / herself always matches the top / bottom / left / right of the image, the direction of the arrow 136 matches his / her sense of direction, and it becomes easy to move in that direction accurately.

なお図示した画像において表される撮像装置などの図形はこれに限定されるものではない。また設定するプレイエリアの形状、矢印等によって誘導するか否か、誘導する場合はその方向、といった設定情報は、情報処理部76による情報処理の内容や状況によって様々であってよい。さらに誘導の内容によっては、矢印はU字などの曲線でもよい。矢印の長さによって移動すべき距離をあらわしてもよい。俯瞰図の向きの基準を撮像装置とするかユーザの向きとするかは、情報処理の内容によって切り替えてもよいし、ユーザが入力装置14などを介して切り替えてもよい。以後、例示するユーザガイドについても同様である。 It should be noted that the figure of the image pickup device or the like represented by the illustrated image is not limited to this. Further, the setting information such as the shape of the play area to be set, whether or not to guide by an arrow or the like, and the direction thereof when guiding may vary depending on the content and situation of information processing by the information processing unit 76. Further, depending on the content of the guidance, the arrow may be a curve such as a U shape. The length of the arrow may indicate the distance to be moved. Whether the reference for the orientation of the bird's-eye view is the image pickup device or the user's orientation may be switched depending on the content of the information processing, or may be switched by the user via the input device 14 or the like. The same applies to the user guides exemplified below.

図8は、ユーザガイドの画像を表示させた表示画面を例示している。表示画面200は、ゲーム画面などコンテンツの画像に、図7で例示したようなユーザガイド202を重畳表示した構成を有する。ユーザガイド生成部82は、ユーザがユーザガイドを表示させる操作を行った時点でユーザガイド202を表示させ、表示を終了させる操作を行った時点でユーザガイド202を非表示とする。あるいは状況によってはユーザ操作と関わりなく表示させる。 FIG. 8 illustrates a display screen on which an image of a user guide is displayed. The display screen 200 has a configuration in which a user guide 202 as illustrated in FIG. 7 is superimposed and displayed on an image of contents such as a game screen. The user guide generation unit 82 displays the user guide 202 when the user performs an operation to display the user guide, and hides the user guide 202 when the user performs an operation to end the display. Or, depending on the situation, it is displayed regardless of the user operation.

いずれにしろ元のコンテンツの画像にユーザガイドを重畳表示することで、視線を大きく動かすことなく、示されている情報を確認することができる。一方で、コンテンツの画像が奥行き感を伴う仮想世界であった場合は特に、奥行き感のない部品画像が目前に出現することにより、ユーザが驚いたり不快な気持ちになったりすることが考えられる。 In any case, by superimposing the user guide on the image of the original content, the information shown can be confirmed without significantly moving the line of sight. On the other hand, especially when the image of the content is a virtual world with a sense of depth, it is conceivable that the user may be surprised or uncomfortable by the appearance of a component image without a sense of depth in front of him.

そこで図示するようにユーザガイド202の周縁を、ブラー処理やαブレンディングなどによってぼかすことにより、前面にありながらも背後に表現されている仮想世界との親和性を高める。ユーザガイド202全体を半透明としてもよい。さらに、緊急性を伴う情報表示でない限り、ユーザガイド202は注視点を避けた位置に表示することが望ましい。例えばユーザの視線に合わせて視野を変化させる表示形態では、必然的に視点が画面中央に固定されるため、画面中央から所定距離以上、離れた位置に表示する。 Therefore, by blurring the periphery of the user guide 202 by blurring or α-blending as shown in the figure, the affinity with the virtual world expressed in the background while being in the front is enhanced. The entire user guide 202 may be translucent. Further, unless the information is displayed with urgency, it is desirable that the user guide 202 is displayed at a position avoiding the gazing point. For example, in a display mode in which the field of view is changed according to the line of sight of the user, the viewpoint is inevitably fixed at the center of the screen, so that the display is performed at a position separated from the center of the screen by a predetermined distance or more.

また人は目線を上げるより下げる方が楽に行えるため、ユーザガイド202を画面の下半分の領域(上下方向の中心線Cより下の領域)に表示することにより、注視点をコンテンツの画像から無理なく移動させていくことができる。あるいは注視点をコンテンツ画像に据え置いたまま、ユーザガイド202を目端で確認することで、ゲーム操作等をそのまま続けることも可能である。これらの工夫により、表示させたユーザガイドに目の焦点が即座に合わなかったり、細かい眼球の動きにより酔ってしまったりするのも防止できる。 Also, since it is easier for people to lower their eyes than to raise them, by displaying the user guide 202 in the lower half area of the screen (the area below the center line C in the vertical direction), it is impossible to shift the gaze point from the image of the content. It can be moved without. Alternatively, the game operation or the like can be continued as it is by checking the user guide 202 with the eyes while keeping the gazing point on the content image. By these measures, it is possible to prevent the eyes from being out of focus immediately on the displayed user guide and to be intoxicated by small eye movements.

図9は、ユーザガイドとして側面図を表示する場合の画像を例示している。この例では、撮像装置とユーザを含む実空間をユーザの左側面から見た状態の略図を表している。すなわち撮像装置を表す矩形140、およびユーザを表すオブジェクト142が、実際の距離や向きを反映させるように表される。当該画像ではさらに、カメラの画角等によって定まる、垂直方向のプレイエリアを表す領域144、およびユーザがとるべき動きの方向を表す矢印146も示される。 FIG. 9 illustrates an image when a side view is displayed as a user guide. In this example, a schematic view of a real space including an image pickup device and a user as viewed from the left side surface of the user is shown. That is, the rectangle 140 representing the image pickup device and the object 142 representing the user are represented so as to reflect the actual distance and orientation. Further, the image also shows an area 144 indicating a vertical play area, which is determined by the angle of view of the camera and the like, and an arrow 146 indicating the direction of movement that the user should take.

このような表示によっても、図7を参照して説明したような状況の把握が可能になる。例えばユーザは、撮像装置に近づきすぎて頭部が画角から出そうであったり、離れすぎて処理精度が保てなかったりすることを把握できる。さらに情報処理の内容によって姿勢が規定されている場合に、そのほかの姿勢をとっているユーザに正しい姿勢を促せる。例えば着座していることが前提のゲームにおいて、ユーザが急に立ち上がった場合に、矢印146を表示することで着座を促せる。 Even with such a display, it is possible to grasp the situation as described with reference to FIG. 7. For example, the user can grasp that the head is likely to come out of the angle of view due to being too close to the image pickup device, or the processing accuracy cannot be maintained because the head is too far away. Furthermore, when the posture is defined by the content of information processing, it is possible to encourage the user who has other postures to have the correct posture. For example, in a game on the premise that the user is seated, when the user suddenly stands up, the arrow 146 can be displayed to encourage the user to sit down.

この例は図7で示した画像と比較し、ユーザの姿をより詳細なオブジェクトとして表している。これによりユーザの実際の姿勢を詳細に反映させることができるが、表示すべき内容によっては図7で例示したような簡素な図形としてもよい。またそのようなオブジェクトや図形を変化させるアニメーションにより、正しい姿勢をとるように促してもよい。例えば、図形が拡大するアニメーションにより立ち上がることを促したり、縮小するアニメーションにより着座することを促したりしてもよい。 This example is compared with the image shown in FIG. 7, and the figure of the user is represented as a more detailed object. As a result, the actual posture of the user can be reflected in detail, but depending on the content to be displayed, a simple figure as illustrated in FIG. 7 may be used. Animations that change such objects and figures may also be used to encourage them to take the correct posture. For example, an animation in which the figure expands may be used to encourage the figure to stand up, or an animation in which the figure is reduced may be used to encourage the figure to sit down.

図10は、ユーザガイドとして俯瞰図を表示する場合の別の画像例を示している。この例は図7の画像と同様、撮像装置を表す矩形150とユーザを表す丸印152が、実際の位置関係や向きを反映させるように表されている。一方、同図では、プレイエリアの代わりにカメラの画角に係る情報を線154により表している。具体的には、カメラの画角を4等分する方位を表す放射状の直線と、撮像装置からの距離を所定間隔ごとに表す同心円弧を表している。 FIG. 10 shows another example of an image when displaying a bird's-eye view as a user guide. In this example, as in the image of FIG. 7, the rectangle 150 representing the image pickup apparatus and the circle 152 representing the user are shown so as to reflect the actual positional relationship and orientation. On the other hand, in the figure, the information related to the angle of view of the camera is represented by the line 154 instead of the play area. Specifically, it represents a radial straight line representing the direction that divides the angle of view of the camera into four equal parts, and a concentric arc that represents the distance from the image pickup device at predetermined intervals.

カメラの視野に入る領域を全てプレイエリアとする場合は、線154により、およそプレイエリアを示していることにもなる。例えばゲームなどの情報処理を実行する前にHMD18を装着した状態でこのようなユーザガイドを表示させ、ユーザがそれを見ながら実際に動いてみることで、カメラの視野に対する自分の移動量や方向と、歩幅や方向認識などの感覚との対応を理解することができる。情報処理の前に限らず、HMDに表示させた仮想世界にこのようなユーザガイドを重畳表示することで、仮想世界の景色と、カメラの視野における自分の位置とを対応づけ、それを念頭に動作することができる。 When the entire area within the field of view of the camera is set as the play area, the line 154 also indicates the play area. For example, before executing information processing such as a game, such a user guide is displayed with the HMD 18 attached, and the user actually moves while looking at it, so that the amount and direction of his / her movement with respect to the field of view of the camera And can understand the correspondence with the senses such as stride length and direction recognition. By superimposing such a user guide on the virtual world displayed on the HMD, not only before information processing, the scenery of the virtual world is associated with your position in the field of view of the camera, with that in mind. Can work.

なお図示する例は、撮像装置を上側に据え置いた俯瞰図であったが、同様の構成で、図7の(b)のようにユーザの向きを垂直上向きとした俯瞰図としてもよい。また図9のような側面図において、垂直方向の画角を等分する線と撮像装置からの距離を表す線を示してもよい。さらに、水平方向および垂直方向で画角を等分する面や撮像装置からの等距離面からなる3次元の構造物を定義し、それを所望の視点から見た状態を描画してもよい。そのような構造物をユーザ側から見た状態を、HMD18に表示されている仮想世界の画像に重畳して表示することにより、画角と仮想世界との対応が一見してわかるようにしてもよい。 Although the illustrated example is a bird's-eye view in which the image pickup apparatus is placed on the upper side, it may be a bird's-eye view in which the user's direction is vertically upward as shown in FIG. 7B with the same configuration. Further, in a side view as shown in FIG. 9, a line that equally divides the angle of view in the vertical direction and a line that represents the distance from the image pickup apparatus may be shown. Further, a three-dimensional structure including a surface that equally divides the angle of view in the horizontal direction and the vertical direction and an equidistant surface from the image pickup device may be defined, and a state in which the structure is viewed from a desired viewpoint may be drawn. By superimposing the state of such a structure viewed from the user side on the image of the virtual world displayed on the HMD 18, the correspondence between the angle of view and the virtual world can be understood at a glance. good.

図11は、ユーザガイドとして俯瞰図を表示する場合の別の画像例を示している。この例では、ユーザの向いている方向が常に垂直方向上向きになる表現としている。したがってユーザを表す丸印162が画像下端の中央に、撮像装置を表す矩形160が、ユーザとの相対位置を反映した位置に、それぞれ表されている。さらに同図では、図10のカメラの画角に係る情報の代わりに、ユーザの視野に係る情報を線164により表している。 FIG. 11 shows another image example when the bird's-eye view is displayed as a user guide. In this example, the direction in which the user is facing is always vertically upward. Therefore, the circle 162 representing the user is represented in the center of the lower end of the image, and the rectangle 160 representing the image pickup device is represented at a position reflecting the relative position with the user. Further, in the figure, instead of the information related to the angle of view of the camera of FIG. 10, the information related to the user's field of view is represented by the line 164.

具体的には、ユーザの有効視野角を4等分する方位を表す放射状の直線と、ユーザからの距離を所定間隔ごとに表す同心円弧を表している。ここで有効視野角は、脳で物体を正確に認識できる角度を表す一般的な数値である。このようなユーザガイドにより、HMDによって実世界が見えていなくても、本来の視野には何があるのか、撮像装置が当該視野のどの位置にあるのか、といったことを容易に理解できる。これにより、どの方向にどの程度動けば撮像装置に正対するか、といったことを感覚的に判断できる。なお図示する例は、ユーザの向きを基準とした俯瞰図であったが、図10と同様に撮像装置を上側に据え置いた俯瞰図としてもよい。また図10、11で示した画像に、ユーザを誘導するための矢印をさらに表示させてもよい。 Specifically, it represents a radial straight line representing an orientation that divides the effective viewing angle of the user into four equal parts, and a concentric arc that represents the distance from the user at predetermined intervals. Here, the effective viewing angle is a general numerical value representing an angle at which an object can be accurately recognized by the brain. With such a user guide, even if the real world cannot be seen by the HMD, it is possible to easily understand what is in the original field of view and the position of the image pickup device in the field of view. This makes it possible to intuitively determine in which direction and how much to move to face the image pickup device. Although the illustrated example is a bird's-eye view based on the orientation of the user, it may be a bird's-eye view in which the image pickup apparatus is placed on the upper side as in FIG. Further, the images shown in FIGS. 10 and 11 may be further displayed with arrows for guiding the user.

図12は、ユーザガイドとしてポイントクラウドを表示する場合の画像を例示している。図7、9、10、11に示した例は、実世界を俯瞰したり側面から見たりした平面的な図であったが、実世界を斜めから見た状態を示すことにより、3次元空間として捉えやすいようにしてもよい。図12はその一例であり、撮像装置を表す図形170とともに、被写体を表すポイントクラウド172を、実世界に対応する3次元空間に表し、それを画像として描画している。ここで表されるポイントクラウド172は、ユーザを含む被写体のデプスマップを3次元空間に逆射影して得られる、被写体の表面を表す点の集合である。 FIG. 12 illustrates an image when the point cloud is displayed as a user guide. The examples shown in FIGS. 7, 9, 10 and 11 are a two-dimensional view of the real world from a bird's-eye view or a side view, but by showing a state in which the real world is viewed from an angle, a three-dimensional space is shown. It may be easy to grasp as. FIG. 12 is an example thereof, in which a point cloud 172 representing a subject is represented in a three-dimensional space corresponding to the real world together with a graphic 170 representing an image pickup device, and the point cloud 172 is drawn as an image. The point cloud 172 represented here is a set of points representing the surface of the subject, which is obtained by back-projecting the depth map of the subject including the user into a three-dimensional space.

デプスマップは、上述のようにステレオ画像の視差に基づき奥行き方向の距離を画素ごとに取得し、その値を画素値として表した画像であり、位置・姿勢情報取得部80が生成する。ユーザガイド生成部82は、当該デプスマップの各画素を、画素値が表す距離に基づき仮想の3次元空間にプロットしていくことにより、ポイントクラウド172を構成する点をグローバル座標系に配置する。当該3次元空間には撮像装置のオブジェクトや床面を表す平面なども配置する。そしてそれらを、所定のスクリーン座標系に投影することにより、図示するような画像を生成できる。 As described above, the depth map is an image in which the distance in the depth direction is acquired for each pixel based on the parallax of the stereo image and the value is expressed as a pixel value, and is generated by the position / attitude information acquisition unit 80. The user guide generation unit 82 arranges the points constituting the point cloud 172 in the global coordinate system by plotting each pixel of the depth map in a virtual three-dimensional space based on the distance represented by the pixel value. Objects of the image pickup device and a plane representing the floor surface are also arranged in the three-dimensional space. Then, by projecting them onto a predetermined screen coordinate system, an image as shown in the figure can be generated.

ユーザやその他の被写体の位置や姿勢の変化に応じて、デプスマップが変化し、ひいてはポイントクラウド172も変化する。結果としてこれまで述べた例と同様、撮像装置に対する自分の位置や動きを客観的に把握することができる。また、スクリーン面の位置や姿勢を変化させるユーザ操作を受け付け可能とすることにより、ユーザは、自分が理解しやすい角度から相対位置を確認できる。 The depth map changes according to the change in the position and posture of the user and other subjects, and the point cloud 172 also changes. As a result, it is possible to objectively grasp one's position and movement with respect to the image pickup device as in the examples described so far. Further, by making it possible to accept a user operation that changes the position and posture of the screen surface, the user can confirm the relative position from an angle that is easy for the user to understand.

さらにステレオ画像全体から像を抽出してデプスマップを作成する場合、ユーザ以外の被写体も同時に描画されるため、周囲に障害物があるか、子供やペットなどがプレイエリアに侵入していないか、といったことも確認できる。なお図示する例は、撮像装置を表す図形170とポイントクラウド172のみで構成されていたが、これまでの例と同様、プレイエリアやカメラの画角を表したり、ユーザが移動すべき方向を矢印で示したりしてもよい。 Furthermore, when creating a depth map by extracting an image from the entire stereo image, subjects other than the user are also drawn at the same time, so there are obstacles around, children, pets, etc. have not invaded the play area. You can also confirm that. The example shown is composed of only a figure 170 representing an image pickup device and a point cloud 172, but as in the previous examples, it represents a play area or an angle of view of a camera, and an arrow indicates the direction in which the user should move. It may be indicated by.

図13は、ユーザガイドとして俯瞰図を表示する場合の別の画像例を示している。この例は図7の画像と同様、撮像装置を表す矩形180、ユーザを表す丸印182、プレイエリアを表す領域184が、実際の位置関係や向きを反映させるように表されている。さらに同図では、プレイエリア内のユーザ以外の物の存在を、それぞれに対応づけられた図形で表している。具体的には、入力装置を表す丸印186、障害物を表すバツ印188が表されている。 FIG. 13 shows another image example when the bird's-eye view is displayed as a user guide. In this example, as in the image of FIG. 7, the rectangle 180 representing the image pickup apparatus, the circle 182 representing the user, and the area 184 representing the play area are represented so as to reflect the actual positional relationship and orientation. Further, in the figure, the existence of objects other than the user in the play area is represented by figures associated with each. Specifically, a circle mark 186 representing an input device and a cross mark 188 representing an obstacle are shown.

入力装置や障害物の位置は、上述のデプスマップ、あるいは背景差分法などにより、ユーザの像以外の像を抽出することにより求められる。そのうち入力装置は、外部に備えた発光マーカーや、入力装置自体の形状などによって他の物と区別できる。またユーザ以外で動いている物については、前のフレームとの動き差分をとることにより抽出できる。このようなユーザガイドにより、ユーザが入力装置を置き忘れたり、情報処理の途中で入力装置が必要になったりしても、HMDを外さずに入力装置の場所まで移動して把持することができる。また周囲に障害物があったり、子供やペットなどがプレイエリアに入ったりしても、それを認識して退かすなどの事前対処により衝突等の危険を避けられる。 The position of the input device or obstacle is obtained by extracting an image other than the user's image by the above-mentioned depth map or background subtraction method. Among them, the input device can be distinguished from other objects by the external light emitting marker, the shape of the input device itself, and the like. Also, objects that are moving other than the user can be extracted by taking the motion difference from the previous frame. With such a user guide, even if the user misplaces the input device or needs the input device in the middle of information processing, the HMD can be moved to the location of the input device and gripped without removing the HMD. In addition, even if there is an obstacle in the surroundings or a child or pet enters the play area, the danger of collision can be avoided by taking precautions such as recognizing it and dismissing it.

同図の例では、入力装置を表す図形と障害物を表す図形を同時に示していたが、当然、状況に応じてどちらか一方を表してよい。特にプレイエリア内で障害物が検出された場合など危険を伴う状況では、その位置を図形で示したユーザガイドを、画面中央などユーザが気づきやすい位置にユーザ操作と関わりなく表示させてもよい。なおユーザ、入力装置、および障害物を表す図形は、一見して区別が可能な形態とすることが望ましい。図示するように形状を大きく異ならせるほか、色を区別したり様々な異なる加工を施したりしてもよい。 In the example of the figure, the figure representing the input device and the figure representing the obstacle are shown at the same time, but of course, either one may be shown depending on the situation. In particular, in a dangerous situation such as when an obstacle is detected in the play area, the user guide showing the position in a graphic shape may be displayed at a position easily noticed by the user, such as the center of the screen, regardless of the user operation. It is desirable that the figures representing the user, the input device, and the obstacle be in a form that can be distinguished at first glance. In addition to making the shapes significantly different as shown, the colors may be distinguished and various different processes may be applied.

また状況に応じて、図形を点滅させたり微小振動させたりするアニメーションで表現してもよい。例えばユーザがプレイエリアから出そうなときや、障害物がプレイエリアに侵入してきたときなどに、そのようなアニメーション表示とすることで、ユーザに注意を喚起できる。なお撮像装置12自体が何らかの外力により落下したり向きが変わったりしたら、撮像装置を表す矩形180を点滅させるなどしてユーザに通知してもよい。撮像装置12のそのような変化は、撮像装置12に内蔵した加速度センサによる計測値を、別途、撮影画像取得部74が取得することで、位置・姿勢情報取得部80またはユーザガイド生成部82が検知すればよい。 Further, depending on the situation, it may be expressed by an animation in which the figure blinks or slightly vibrates. For example, when the user is about to leave the play area or when an obstacle invades the play area, such an animation display can be used to call the user's attention. If the image pickup device 12 itself falls or changes its direction due to some external force, the user may be notified by blinking the rectangle 180 representing the image pickup device. Such a change in the image pickup apparatus 12 is caused by the position / attitude information acquisition unit 80 or the user guide generation unit 82 by separately acquiring the measured value by the acceleration sensor built in the image pickup apparatus 12 by the captured image acquisition unit 74. You just have to detect it.

次にこれまで述べた構成によって実現できる、情報処理装置10の動作について説明する。図14は、本実施の形態において情報処理装置がユーザの動きに応じた出力データを生成する処理手順を示すフローチャートである。このフローチャートは、ユーザが入力装置14を介して情報処理装置10に処理の開始を要求したときなどに開始される。 Next, the operation of the information processing apparatus 10 that can be realized by the configuration described so far will be described. FIG. 14 is a flowchart showing a processing procedure in which the information processing apparatus generates output data according to the movement of the user in the present embodiment. This flowchart is started when the user requests the information processing apparatus 10 to start processing via the input device 14.

まず情報処理装置10の撮影画像取得部74は、撮像装置12に撮影の開始を要求し、それに応じて撮像装置12が撮影し出力した画像のデータの取得を開始する(S10)。一方、ユーザガイド生成部82は、ガイド用データ記憶部85から、撮像装置12のカメラの画角、それに対するプレイエリア、ユーザガイドを表示すべきタイミングやそれに応じて表示すべき内容などの設定情報を読み出す(S12)。このとき、ユーザが選択するなどした、実施すべきコンテンツに対応づけられた設定情報を選択して読み出してもよい。 First, the captured image acquisition unit 74 of the information processing device 10 requests the image pickup device 12 to start shooting, and accordingly, starts acquiring data of the image captured and output by the image pickup device 12 (S10). On the other hand, the user guide generation unit 82, from the guide data storage unit 85, sets information such as the angle of view of the camera of the image pickup device 12, the play area for the angle of view, the timing at which the user guide should be displayed, and the content to be displayed accordingly. Is read (S12). At this time, the setting information associated with the content to be executed, such as the user's selection, may be selected and read.

次に位置・姿勢情報取得部80は、撮影画像に基づき、ユーザの位置や姿勢の情報を取得する(S14)。そして当該情報を用いて情報処理部76が情報処理を行い、出力データ生成部78がその結果としてコンテンツの表示画像を描画する(S16)。一方、ユーザガイド生成部82は、その時点での状況がユーザガイドを表示すべき条件を満たしているか否かを確認する(S18)。ここでユーザガイドを表示すべき条件とは、ユーザガイドを表示させるユーザ操作がなされたときのほか、プレイエリアに障害物が存在するなどの危険があるときや、撮像装置12の向きの異常など情報処理の正常な進捗を妨げる要因を検知したときなどがある。 Next, the position / posture information acquisition unit 80 acquires the user's position / posture information based on the captured image (S14). Then, the information processing unit 76 performs information processing using the information, and the output data generation unit 78 draws a display image of the content as a result (S16). On the other hand, the user guide generation unit 82 confirms whether or not the situation at that time satisfies the condition for displaying the user guide (S18). Here, the conditions for displaying the user guide include when the user operates to display the user guide, when there is a danger such as an obstacle in the play area, or when the orientation of the image pickup apparatus 12 is abnormal. There are times when a factor that hinders the normal progress of information processing is detected.

ユーザガイド生成部82は例えば、そのような状態が発生したときに内部のレジスタ等に保持するフラグを立て、そのような状態が解消したときに当該フラグを下げるなどして、フラグの値に基づき処理を条件分岐させる。ユーザガイドを表示すべき条件を満たしていなければ(S18のN)、出力データ送信部86は、S16で描画されたコンテンツの画像をそのままHMD18に出力する(S20)。ユーザガイドを表示すべき条件を満たしているとき(S18のY)、ユーザガイド生成部82は、位置・姿勢情報取得部80が取得した位置や姿勢の情報に基づきユーザガイドの画像を生成する。 The user guide generation unit 82 sets a flag to be held in an internal register or the like when such a state occurs, lowers the flag when such a state is resolved, and based on the value of the flag. Conditionally branch the process. If the condition for displaying the user guide is not satisfied (N in S18), the output data transmission unit 86 outputs the image of the content drawn in S16 to the HMD 18 as it is (S20). When the condition for displaying the user guide is satisfied (Y in S18), the user guide generation unit 82 generates an image of the user guide based on the position and posture information acquired by the position / posture information acquisition unit 80.

そして当該データを出力データ生成部78に供給することにより、出力データ生成部78がコンテンツの画像にユーザガイドの画像を重畳させる(S20)。そして出力データ送信部86は、ユーザガイドが重畳された画像をHMD18に出力する(S22)。なおS20の処理では同時に、ユーザガイドの音声データもコンテンツの音声データに重畳させてよい。例えば「しゃがんでください」、「右に移動してください」、といった言葉による具体的な表現や指示でもよいし、ユーザがプレイエリアの境界線に近づいたときに、所定の警告音を当該境界線上に定位させて発生させるなど、音像の定位技術を利用してもよい。 Then, by supplying the data to the output data generation unit 78, the output data generation unit 78 superimposes the image of the user guide on the image of the content (S20). Then, the output data transmission unit 86 outputs the image on which the user guide is superimposed to the HMD 18 (S22). At the same time in the process of S20, the voice data of the user guide may be superimposed on the voice data of the content. For example, specific expressions or instructions such as "please crouch" or "move to the right" may be used, or when the user approaches the boundary line of the play area, a predetermined warning sound is emitted on the boundary line. The sound image localization technique may be used, for example, the sound image may be localized to the sound image.

ユーザガイドとして出力するデータは、画像と音声を組み合わせてもよいし、どちらか一方でもよい。また設定によっては、撮像装置12が撮影した画像をユーザガイドとしてそのままHMD18に出力するようにしてもよい。これによりユーザは、カメラの視野内に障害物があるか、カメラの設置に異常がないか、といったことを実際の映像から判断できる。この場合、ユーザガイド生成部82は、「危ない物はありませんか?」といった文字情報と、ユーザが確認した旨を入力するためのGUI(Graphical User Interface)を撮影画像に重畳表示し、ユーザに確認入力を促してもよい。 The data to be output as the user guide may be a combination of images and sounds, or either one may be used. Further, depending on the setting, the image taken by the image pickup apparatus 12 may be output to the HMD 18 as it is as a user guide. As a result, the user can judge from the actual image whether there is an obstacle in the field of view of the camera or whether there is an abnormality in the installation of the camera. In this case, the user guide generation unit 82 superimposes and displays text information such as "Are there any dangerous objects?" And a GUI (Graphical User Interface) for inputting that the user has confirmed it on the captured image, and confirms it to the user. You may be prompted for input.

ユーザにより処理の停止要求があるなど処理を終了させる必要が生じない期間、位置情報に基づきコンテンツの画像を描画し、条件に合致している期間はユーザガイドを重畳させてHMD18に出力する処理を、所定のレートで繰り返す(S24のN、S14~S22)。そして処理を終了させる必要が生じたら、全ての処理を終了させる(S24のY)。 During the period when it is not necessary to end the process such as when the user requests to stop the process, the image of the content is drawn based on the location information, and during the period when the conditions are met, the user guide is superimposed and output to the HMD18. , Repeat at a predetermined rate (N of S24, S14 to S22). Then, when it becomes necessary to end the processing, all the processing is terminated (Y in S24).

以上述べた本実施の形態によれば、撮影画像における像に基づきユーザの位置情報を取得し、その結果を利用して情報処理を行うシステムにおいて、実世界でのユーザの周囲の状況に係る情報をユーザガイドとして提示する。これにより、ユーザがHMDを装着して外界が見えない状態であっても、実世界での自分のいる位置や移動方向などを認識できるため、カメラの画角や想定されるプレイエリアから外れ、情報処理に不具合が生じたり、画角外にある物に衝突したりする可能性を抑えることができる。またユーザガイドとしてユーザ以外の物の状態も同時に提示することにより、プレイエリア内での衝突なども回避できる。 According to the present embodiment described above, in a system that acquires user's position information based on an image in a captured image and processes information using the result, information related to the surrounding situation of the user in the real world. Is presented as a user guide. As a result, even if the user wears the HMD and cannot see the outside world, he / she can recognize his / her position and moving direction in the real world, so that the angle of view of the camera and the expected play area are deviated. It is possible to suppress the possibility of problems in information processing or collision with objects outside the angle of view. In addition, by simultaneously presenting the state of an object other than the user as a user guide, it is possible to avoid a collision in the play area.

HMDを外さずに上記のような確認を行えるため、現状認識や危険回避に係るユーザの負担が少ない。さらに必要なときに画面内の好適な位置に重畳表示させることにより、HMDで表現されているコンテンツの画像を見ながらでも確認でき、その世界観を損ないにくい。さらに歩幅や移動方向など感覚に頼らざるを得なかったものが、実世界での撮像装置の位置やプレイエリアの範囲に対応づけて視覚化されるため、適切な動きを習得しやすくなる。また本来の情報処理で用いる位置や姿勢の情報を利用するため、少ない処理負荷で実現できる。 Since the above confirmation can be performed without removing the HMD, the burden on the user for recognizing the current situation and avoiding danger is small. Furthermore, by superimposing the content on the screen at a suitable position when necessary, the content can be confirmed while looking at the image of the content expressed by the HMD, and the world view is not easily impaired. Furthermore, things that had to rely on the senses such as stride length and movement direction are visualized in correspondence with the position of the image pickup device and the range of the play area in the real world, so it becomes easier to learn appropriate movements. In addition, since the position and posture information used in the original information processing is used, it can be realized with a small processing load.

また俯瞰図を表示する場合の向きの基準や、3次元空間を表示する場合の視点をユーザが切り替え可能とすることで、ユーザ自身が理解しやすい表示により自分の移動すべき方向などを直感的に判断できる。さらに矢印や音声などでユーザに動きの指針を与えることにより、年齢や理解力を問わず対応が可能となる。 In addition, by allowing the user to switch the orientation standard when displaying the bird's-eye view and the viewpoint when displaying the three-dimensional space, the user can intuitively understand the direction in which he / she should move by displaying it in an easy-to-understand manner. Can be judged. Furthermore, by giving the user a movement guideline with an arrow or voice, it is possible to respond regardless of age or comprehension.

以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. It is understood by those skilled in the art that the above-described embodiment is an example, and that various modifications are possible for each of these components and combinations of each processing process, and that such modifications are also within the scope of the present invention. be.

例えば実施の形態では、ユーザの撮像装置に対する位置関係が理解されるような画像をユーザガイドとして提示した。一方、ユーザを撮影する撮像装置以外の手段、例えばHMDに装着されたカメラやモーションセンサなどでユーザの位置を特定する場合などは特に、撮像装置以外の物との位置関係を表してよい。例えばプレイエリアが何らかの規則で設定される場合、プレイエリアにおけるユーザの位置を示すのみでもよい。あるいは実空間に遊具等を設置したり他のユーザがいたりして、それらとの位置関係を情報処理に反映させる場合は、撮像装置の代わりにそれらの物や人の位置をユーザガイドに表してもよい。 For example, in the embodiment, an image is presented as a user guide so that the positional relationship of the user with respect to the image pickup apparatus can be understood. On the other hand, when the position of the user is specified by a means other than the image pickup device for photographing the user, for example, a camera or a motion sensor mounted on the HMD, the positional relationship with an object other than the image pickup device may be expressed. For example, if the play area is set by some rule, it may only indicate the position of the user in the play area. Alternatively, when playing equipment or the like is installed in the real space or there are other users and the positional relationship with them is reflected in the information processing, the positions of those objects and people are shown in the user guide instead of the image pickup device. May be good.

8 情報処理システム、 10 情報処理装置、 12 撮像装置、 14 入力装置、 16 平板型ディスプレイ、 18 HMD、 22 CPU、 24 GPU、 26 メインメモリ、 72 入力情報取得部、 74 撮影画像取得部、 76 情報処理部、 78 出力データ生成部、 80 位置・姿勢情報取得部、 82 ユーザガイド生成部、 85 ガイド用データ記憶部、 86 出力データ送信部。 8 Information processing system, 10 Information processing device, 12 Imaging device, 14 Input device, 16 Flat plate display, 18 HMD, 22 CPU, 24 GPU, 26 Main memory, 72 Input information acquisition unit, 74 Captured image acquisition unit, 76 Information Processing unit, 78 output data generation unit, 80 position / attitude information acquisition unit, 82 user guide generation unit, 85 guide data storage unit, 86 output data transmission unit.

Claims (16)

ヘッドマウントディスプレイの位置情報を取得する位置情報取得部と、
前記位置情報を用いて情報処理を行う情報処理部と、
前記情報処理の結果として表示すべき仮想世界の表示画像のデータを生成し出力する出力データ生成部と、
前記位置情報を用いてユーザ位置情報を実空間の俯瞰図で表したユーザガイドの画像のデータを生成し出力するユーザガイド生成部と、
を備え、
前記ユーザガイド生成部は、前記ユーザガイドを表示させるユーザ操作があったとき、または、ユーザ操作に関わらず実空間における所定の状況の発生を検知したとき、前記ユーザガイドを表示させることを特徴とする情報処理装置。
The location information acquisition unit that acquires the location information of the head-mounted display,
An information processing unit that performs information processing using the location information,
An output data generation unit that generates and outputs data of a display image of a virtual world to be displayed as a result of the information processing.
A user guide generator that uses the location information to generate and output user guide image data that represents the user 's location information in a bird's-eye view of real space.
Equipped with
The user guide generation unit is characterized in that the user guide is displayed when there is a user operation for displaying the user guide, or when a predetermined situation occurs in a real space regardless of the user operation. Information processing device.
ヘッドマウントディスプレイの位置情報を取得する位置情報取得部と、
前記位置情報を用いて情報処理を行う情報処理部と、
前記情報処理の結果として表示すべき仮想世界の表示画像のデータを生成し出力する出力データ生成部と、
前記位置情報に基づくユーザの実空間での位置と、ユーザがいるべき範囲として設定され、ユーザが選択した形状や大きさを有するプレイエリアとの関係を表したユーザガイドの画像のデータを生成し出力するユーザガイド生成部と、
を備え、
前記ユーザガイド生成部は、前記ユーザガイドを表示させるユーザ操作があったとき、または、ユーザ操作に関わらず実空間における所定の状況の発生を検知したとき、前記ユーザガイドを表示させることを特徴とする情報処理装置。
The location information acquisition unit that acquires the location information of the head-mounted display,
An information processing unit that performs information processing using the location information,
An output data generation unit that generates and outputs data of a display image of a virtual world to be displayed as a result of the information processing.
Generates user guide image data that shows the relationship between the user's position in real space based on the location information and the play area that is set as the range that the user should be and has the shape and size selected by the user. User guide generator to output and
Equipped with
The user guide generation unit is characterized in that the user guide is displayed when there is a user operation for displaying the user guide, or when a predetermined situation occurs in a real space regardless of the user operation. Information processing device.
前記ユーザガイド生成部は、ユーザがいるべき範囲として設定されたプレイエリアと実物体との位置関係に基づき、前記所定の状況の発生を検知することを特徴とする請求項1または2に記載の情報処理装置。 The user guide generation unit according to claim 1 or 2 , wherein the user guide generation unit detects the occurrence of the predetermined situation based on the positional relationship between the play area set as the range in which the user should be and the real object. Information processing device. 前記ユーザガイド生成部は、前記所定の状況として、前記プレイエリア内にユーザ以外の実物体が存在する状況を検知することを特徴とする請求項に記載の情報処理装置。 The information processing apparatus according to claim 3 , wherein the user guide generation unit detects a situation in which a real object other than the user exists in the play area as the predetermined situation. 前記位置情報取得部は、前記実空間を撮影する撮像装置から被写体までの距離を画素値としたデプスマップを生成し、
前記ユーザガイド生成部は、前記デプスマップを用いて前記実物体の位置を取得することを特徴とする請求項またはのいずれかに記載の情報処理装置。
The position information acquisition unit generates a depth map in which the distance from the image pickup device for photographing the real space to the subject is used as a pixel value.
The information processing apparatus according to claim 3 , wherein the user guide generation unit acquires the position of the real object by using the depth map.
前記ユーザガイド生成部は、実空間を撮影した画像から、背景差分法によって抽出した像に基づき、前記実物体の位置を取得することを特徴とする請求項またはに記載の情報処理装置。 The information processing apparatus according to claim 3 or 4 , wherein the user guide generation unit acquires the position of the real object based on an image extracted by the background subtraction method from an image obtained by taking a picture of the real space. 前記ユーザガイド生成部は、前記所定の状況の発生に応じて、前記ユーザガイドを表示画面の中央に、ユーザ操作に関わりなく表示させることを特徴とする請求項1からのいずれかに記載の情報処理装置。 The user guide generation unit according to any one of claims 1 to 6 , wherein the user guide is displayed in the center of the display screen in response to the occurrence of the predetermined situation regardless of the user operation. Information processing device. 前記ユーザガイド生成部は、前記ユーザガイドにおいて、ユーザが実際に向いている方向を表すことを特徴とする請求項に記載の情報処理装置。 The information processing apparatus according to claim 1 , wherein the user guide generation unit represents a direction in which the user is actually facing in the user guide. 前記ユーザガイド生成部は、前記ユーザガイドの周縁をぼかすことを特徴とする請求項1からのいずれかに記載の情報処理装置 。 The information processing apparatus according to any one of claims 1 to 8 , wherein the user guide generation unit blurs the peripheral edge of the user guide. 前記位置情報取得部は、前記ヘッドマウントディスプレイに装着された撮像装置によって、前記位置情報を取得することを特徴とする請求項1からのいずれかに記載の情報処理装置 。 The information processing device according to any one of claims 1 to 9 , wherein the position information acquisition unit acquires the position information by an image pickup device mounted on the head-mounted display. ヘッドマウントディスプレイの位置情報を取得するステップと、
前記位置情報を用いて情報処理を行うステップと、
前記情報処理の結果として表示すべき仮想世界の表示画像のデータを生成し出力するステップと、
前記位置情報を用いてユーザ位置情報を実空間の俯瞰図で表したユーザガイドの画像のデータを生成し出力するステップと、
を含み、
前記ユーザガイドの画像のデータを生成し出力するステップは、前記ユーザガイドを表示させるユーザ操作があったとき、または、ユーザ操作に関わらず実空間における所定の状況の発生を検知したとき、前記ユーザガイドを表示させることを特徴とする、情報処理装置によるユーザガイド提示方法。
Steps to get the location information of the head-mounted display,
The step of performing information processing using the position information and
The step of generating and outputting the data of the display image of the virtual world to be displayed as a result of the information processing, and
Using the above position information, the step of generating and outputting the data of the image of the user guide showing the user 's position information in a bird's-eye view of the real space, and
Including
The step of generating and outputting the image data of the user guide is the user when there is a user operation for displaying the user guide, or when the occurrence of a predetermined situation in the real space is detected regardless of the user operation. A method of presenting a user guide by an information processing device, which comprises displaying a guide.
ヘッドマウントディスプレイの位置情報を取得するステップと、
前記位置情報を用いて情報処理を行うステップと、
前記情報処理の結果として表示すべき仮想世界の表示画像のデータを生成し出力するステップと、
前記位置情報に基づくユーザの実空間での位置と、ユーザがいるべき範囲として設定され、ユーザが選択した形状や大きさを有するプレイエリアとの関係を表したユーザガイドの画像のデータを生成し出力するステップと、
を含み、
前記ユーザガイドの画像のデータを生成し出力するステップは、前記ユーザガイドを表示させるユーザ操作があったとき、または、ユーザ操作に関わらず実空間における所定の状況の発生を検知したとき、前記ユーザガイドを表示させることを特徴とする、情報処理装置によるユーザガイド提示方法。
Steps to get the location information of the head-mounted display,
The step of performing information processing using the position information and
The step of generating and outputting the data of the display image of the virtual world to be displayed as a result of the information processing, and
Generates user guide image data that shows the relationship between the user's position in real space based on the location information and the play area that is set as the range that the user should be and has the shape and size selected by the user. Steps to output and
Including
The step of generating and outputting the image data of the user guide is the user when there is a user operation for displaying the user guide, or when the occurrence of a predetermined situation in the real space is detected regardless of the user operation. A method of presenting a user guide by an information processing device, which comprises displaying a guide.
ヘッドマウントディスプレイの位置情報を取得する機能と、
前記位置情報を用いて情報処理を行う機能と、
前記情報処理の結果として表示すべき仮想世界の表示画像のデータを生成し出力する機能と、
前記位置情報を用いてユーザ位置情報を実空間の俯瞰図で表したユーザガイドの画像のデータを生成し出力する機能と、
をコンピュータに実現させ、
前記ユーザガイドの画像のデータを生成し出力する機能は、前記ユーザガイドを表示させるユーザ操作があったとき、または、ユーザ操作に関わらず実空間における所定の状況の発生を検知したとき、前記ユーザガイドを表示させることを特徴とするコンピュータプログラム。
The function to acquire the position information of the head-mounted display and
A function that processes information using the location information and
The function to generate and output the data of the display image of the virtual world to be displayed as a result of the information processing, and
A function to generate and output user guide image data that represents the user 's position information in a bird's-eye view of the real space using the above position information.
To the computer,
The function of generating and outputting image data of the user guide is a function of generating and outputting the image data of the user guide when there is a user operation for displaying the user guide, or when a occurrence of a predetermined situation in the real space is detected regardless of the user operation. A computer program characterized by displaying a guide.
ヘッドマウントディスプレイの位置情報を取得する機能と、
前記位置情報を用いて情報処理を行う機能と、
前記情報処理の結果として表示すべき仮想世界の表示画像のデータを生成し出力する機能と、
前記位置情報に基づくユーザの実空間での位置と、ユーザがいるべき範囲として設定され、ユーザが選択した形状や大きさを有するプレイエリアとの関係を表したユーザガイドの画像のデータを生成し出力する機能と、
をコンピュータに実現させ、
前記ユーザガイドの画像のデータを生成し出力する機能は、前記ユーザガイドを表示させるユーザ操作があったとき、または、ユーザ操作に関わらず実空間における所定の状況の発生を検知したとき、前記ユーザガイドを表示させることを特徴とするコンピュータプログラム。
The function to acquire the position information of the head-mounted display and
A function that processes information using the location information and
The function to generate and output the data of the display image of the virtual world to be displayed as a result of the information processing, and
Generates user guide image data that shows the relationship between the user's position in real space based on the location information and the play area that is set as the range that the user should be and has the shape and size selected by the user. Output function and
To the computer,
The function of generating and outputting image data of the user guide is a function of generating and outputting the image data of the user guide when there is a user operation for displaying the user guide, or when a occurrence of a predetermined situation in the real space is detected regardless of the user operation. A computer program characterized by displaying a guide.
情報処理装置が生成する画像を表示するヘッドマウントディスプレイであって、
前記情報処理装置との間でデータを送受する通信部と、
前記情報処理装置が、前記ヘッドマウントディスプレイの位置情報を用いて行った情報処理の結果として生成した仮想世界の表示画像と、前記位置情報を用いてユーザ位置情報を実空間の俯瞰図で表したユーザガイドの画像と、を表示する表示部を備え、
前記ユーザガイドを表示させるユーザ操作があったとき、または、ユーザ操作に関わらず実空間における所定の状況の発生を検知したとき、前記ユーザガイドを表示することを特徴とするヘッドマウントディスプレイ。
A head-mounted display that displays images generated by an information processing device.
A communication unit that sends and receives data to and from the information processing device,
A display image of a virtual world generated as a result of information processing performed by the information processing device using the position information of the head-mounted display, and a user 's position information using the position information are shown in a bird's-eye view of the real space. Equipped with an image of the user guide and a display unit that displays
A head-mounted display characterized in that the user guide is displayed when there is a user operation for displaying the user guide, or when the occurrence of a predetermined situation in a real space is detected regardless of the user operation.
情報処理装置が生成する画像を表示するヘッドマウントディスプレイであって、
前記情報処理装置との間でデータを送受する通信部と、
前記情報処理装置が、前記ヘッドマウントディスプレイの位置情報を用いて行った情報処理の結果として生成した仮想世界の表示画像と、前記位置情報に基づくユーザの実空間での位置と、ユーザがいるべき範囲として設定され、ユーザが選択した形状や大きさを有するプレイエリアとの関係を表したユーザガイドの画像と、を表示する表示部を備え、
前記ユーザガイドを表示させるユーザ操作があったとき、または、ユーザ操作に関わらず実空間における所定の状況の発生を検知したとき、前記ユーザガイドを表示することを特徴とするヘッドマウントディスプレイ。
A head-mounted display that displays images generated by an information processing device.
A communication unit that sends and receives data to and from the information processing device,
The display image of the virtual world generated as a result of the information processing performed by the information processing device using the position information of the head-mounted display, the position in the real space of the user based on the position information, and the user should be. It is provided with a display unit that displays a user guide image that is set as a range and shows the relationship with a play area having a shape and size selected by the user.
A head-mounted display characterized in that the user guide is displayed when there is a user operation for displaying the user guide, or when the occurrence of a predetermined situation in a real space is detected regardless of the user operation.
JP2020040691A 2020-03-10 2020-03-10 Information processing device, user guide presentation method, and head-mounted display Active JP7085578B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020040691A JP7085578B2 (en) 2020-03-10 2020-03-10 Information processing device, user guide presentation method, and head-mounted display
JP2022090423A JP2022121443A (en) 2020-03-10 2022-06-02 Information processing apparatus, user guide presentation method, and head mounted display
JP2024009772A JP2024050696A (en) 2020-03-10 2024-01-25 Information processing device, user guide presentation method, and head-mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020040691A JP7085578B2 (en) 2020-03-10 2020-03-10 Information processing device, user guide presentation method, and head-mounted display

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016009002A Division JP6675209B2 (en) 2016-01-20 2016-01-20 Information processing apparatus and user guide presentation method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022090423A Division JP2022121443A (en) 2020-03-10 2022-06-02 Information processing apparatus, user guide presentation method, and head mounted display

Publications (2)

Publication Number Publication Date
JP2020115353A JP2020115353A (en) 2020-07-30
JP7085578B2 true JP7085578B2 (en) 2022-06-16

Family

ID=71778580

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020040691A Active JP7085578B2 (en) 2020-03-10 2020-03-10 Information processing device, user guide presentation method, and head-mounted display
JP2022090423A Pending JP2022121443A (en) 2020-03-10 2022-06-02 Information processing apparatus, user guide presentation method, and head mounted display
JP2024009772A Pending JP2024050696A (en) 2020-03-10 2024-01-25 Information processing device, user guide presentation method, and head-mounted display

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022090423A Pending JP2022121443A (en) 2020-03-10 2022-06-02 Information processing apparatus, user guide presentation method, and head mounted display
JP2024009772A Pending JP2024050696A (en) 2020-03-10 2024-01-25 Information processing device, user guide presentation method, and head-mounted display

Country Status (1)

Country Link
JP (3) JP7085578B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11865448B2 (en) 2016-01-20 2024-01-09 Sony Interactive Entertainment Inc. Information processing apparatus and user guide presentation method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022202056A1 (en) 2021-03-22 2022-09-29 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023002652A1 (en) * 2021-07-21 2023-01-26 株式会社ソニー・インタラクティブエンタテインメント Information processing device, information processing method, and computer program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165848A (en) 2003-12-04 2005-06-23 Canon Inc Method and device for presenting augmented reality
JP2007156561A (en) 2005-11-30 2007-06-21 Canon Inc Augmented reality presenting method and system
JP2013257716A (en) 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Obstacle avoiding device and obstacle avoidance method
JP2014115457A (en) 2012-12-10 2014-06-26 Sony Corp Information processor and recording medium
US20150084142A1 (en) 2011-07-04 2015-03-26 Kabushiki Kaisha Toshiba Magnetoresistive element and magnetic memory using the same
US20150094142A1 (en) 2013-09-30 2015-04-02 Sony Computer Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
JP5777786B1 (en) 2014-09-12 2015-09-09 キヤノン株式会社 Information processing apparatus, information processing method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165848A (en) 2003-12-04 2005-06-23 Canon Inc Method and device for presenting augmented reality
JP2007156561A (en) 2005-11-30 2007-06-21 Canon Inc Augmented reality presenting method and system
US20150084142A1 (en) 2011-07-04 2015-03-26 Kabushiki Kaisha Toshiba Magnetoresistive element and magnetic memory using the same
JP2013257716A (en) 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Obstacle avoiding device and obstacle avoidance method
JP2014115457A (en) 2012-12-10 2014-06-26 Sony Corp Information processor and recording medium
US20150094142A1 (en) 2013-09-30 2015-04-02 Sony Computer Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
JP5777786B1 (en) 2014-09-12 2015-09-09 キヤノン株式会社 Information processing apparatus, information processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11865448B2 (en) 2016-01-20 2024-01-09 Sony Interactive Entertainment Inc. Information processing apparatus and user guide presentation method

Also Published As

Publication number Publication date
JP2024050696A (en) 2024-04-10
JP2020115353A (en) 2020-07-30
JP2022121443A (en) 2022-08-19

Similar Documents

Publication Publication Date Title
JP6675209B2 (en) Information processing apparatus and user guide presentation method
CN107111340B (en) Method and system for user interaction in virtual or augmented reality scenes
EP3008698B1 (en) Head-mountable apparatus and systems
JP5580855B2 (en) Obstacle avoidance device and obstacle avoidance method
JP7085578B2 (en) Information processing device, user guide presentation method, and head-mounted display
JP6363587B2 (en) Information processing apparatus and warning presenting method
US10515481B2 (en) Method for assisting movement in virtual space and system executing the method
JPWO2019131143A1 (en) Information processing equipment, information processing methods, and programs
US10525352B2 (en) Game processing method and recording medium
US20190114841A1 (en) Method, program and apparatus for providing virtual experience
US20210400234A1 (en) Information processing apparatus, information processing method, and program
JP7080373B2 (en) Information processing device and warning presentation method
JP6535699B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
EP3287868B1 (en) Content discovery
JP6634654B2 (en) Information processing apparatus and warning presentation method
JP6820299B2 (en) Programs, information processing equipment, and methods
JP5777332B2 (en) GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME METHOD
CN113574591A (en) Boundary setting device, boundary setting method, and program
JP7111848B2 (en) Program, Information Processing Apparatus, and Method
JP7319686B2 (en) Game program, game processing method, and game device
JP7325833B2 (en) Game program, game processing method, and game device
EP4206867A1 (en) Peripheral tracking system and method
WO2022149497A1 (en) Information processing device, information processing method, and computer program
JP2019091510A (en) Information processing method, information processing program, and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R150 Certificate of patent or registration of utility model

Ref document number: 7085578

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150