JP2022111143A - Information processor and warning presentation method - Google Patents

Information processor and warning presentation method Download PDF

Info

Publication number
JP2022111143A
JP2022111143A JP2022084313A JP2022084313A JP2022111143A JP 2022111143 A JP2022111143 A JP 2022111143A JP 2022084313 A JP2022084313 A JP 2022084313A JP 2022084313 A JP2022084313 A JP 2022084313A JP 2022111143 A JP2022111143 A JP 2022111143A
Authority
JP
Japan
Prior art keywords
warning
information processing
image
play area
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022084313A
Other languages
Japanese (ja)
Other versions
JP7481395B2 (en
Inventor
渉一 池上
Shoichi Ikegami
祐志 中村
Yuji Nakamura
善彦 諏訪
Yoshihiko Suwa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2022084313A priority Critical patent/JP7481395B2/en
Publication of JP2022111143A publication Critical patent/JP2022111143A/en
Priority to JP2024033525A priority patent/JP2024061769A/en
Application granted granted Critical
Publication of JP7481395B2 publication Critical patent/JP7481395B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processor and a warning presentation method capable of presenting images free from restriction by an HMD (head mounted display) due to actual restriction conditions.
SOLUTION: In an actual space including a user 120, the information processor sets a boundary of a play area 184 using boundaries 182a and 182b in a field of vision through an imaging apparatus 12 according to a predetermined rule. When the user gets out of the play area 184, a warning situation determination part determines that warning situation has occurred and superimpose a warning image over a display image. The information processor determines whether to set a margin area between the boundaries 182a and 182b in the field of vision and the boundary of the play area 184, or whether to change the width of the margin area depending on the direction and a situation in the actual space.
SELECTED DRAWING: Figure 7
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、撮影画像に基づき情報処理を行う情報処理装置および、それが行う警告提示方法に関する。 The present invention relates to an information processing device that performs information processing based on a captured image and a warning presentation method performed by the device.

ゲーム機に接続されたヘッドマウントディスプレイ(以下、「HMD」と呼ぶ)を頭部に装着して、表示された画面を見ながらゲームプレイすることが行われている(例えば特許文献1参照)。例えばユーザの頭部の位置や姿勢を取得し、顔の向きに応じて視野を変化させるように仮想世界の画像を表示すれば、あたかも仮想世界に入り込んだような状況を演出できる。ユーザの位置や姿勢は一般的に、ユーザを撮影した可視光や赤外線の画像の解析結果や、HMDに内蔵したモーションセンサの計測値などに基づいて取得される。 2. Description of the Related Art A head-mounted display (hereafter referred to as "HMD") connected to a game machine is worn on the head, and a game is played while looking at the displayed screen (see Patent Document 1, for example). For example, by acquiring the position and posture of the user's head and displaying an image of the virtual world so as to change the field of view according to the orientation of the user's face, it is possible to produce a situation as if the user had entered the virtual world. The position and posture of the user are generally obtained based on the analysis results of visible light and infrared images of the user, the measurement values of the motion sensor incorporated in the HMD, and the like.

特許第5580855号明細書Patent No. 5580855

撮影画像に基づき何らかの情報処理を行う技術は、ユーザなどの対象物がカメラの画角内にいることを前提としている。しかしながらHMDを装着した状態では、ユーザは外界を見ることができないため、方向感覚を失ったり、ゲームに没頭するあまり実空間で思わぬ位置に移動していたりすることがあり得る。これによりカメラの画角から外れると、情報処理が破綻したり精度が悪化したりするうえ、ユーザ自身がその原因に気づかないことも考えられる。カメラとの位置関係など現実世界の事情をユーザに意識させるほど情報処理の精度を保てるが、同時にHMDを利用し構築される仮想空間の世界観を阻害しやすくなる、というジレンマが生じる。 A technique for performing some kind of information processing based on a captured image assumes that an object such as a user is within the angle of view of the camera. However, since the user cannot see the outside world while wearing the HMD, the user may lose a sense of direction or move to an unexpected position in the real space due to being absorbed in the game. As a result, if the angle of view is out of the camera's field of view, the information processing may fail or the accuracy may deteriorate, and the user himself/herself may be unaware of the cause. The more the user is aware of the real world situation such as the positional relationship with the camera, the more accurate information processing can be maintained, but at the same time, a dilemma arises that the world view of the virtual space constructed using the HMD is likely to be disturbed.

本発明はこうした課題に鑑みてなされたものであり、その目的は、HMDで実現される娯楽性と情報処理の精度のバランスを最適化できる技術を提供することにある。 The present invention has been made in view of these problems, and its object is to provide a technique capable of optimizing the balance between entertainment and information processing accuracy realized by an HMD.

本発明のある態様は情報処理装置に関する。この情報処理装置は、実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行う情報処理部と、情報処理の結果として表示すべき画像のデータを生成する画像生成部と、状況に応じて形状を変化させたプレイエリアに基づいてユーザへの警告の必要性を判定し、画像生成部に警告画像を重畳させる警告状況判定部と、画像生成部が生成した画像のデータを表示装置に出力する出力部と、を備えることを特徴とする。 One aspect of the present invention relates to an information processing apparatus. This information processing device includes an information processing unit that detects the position of an object in real space and performs information processing based on the object, an image generation unit that generates image data to be displayed as a result of the information processing, A warning situation determination unit that determines the necessity of a warning to the user based on the play area whose shape is changed according to the situation, superimposes a warning image on the image generation unit, and an image data generated by the image generation unit. and an output unit for outputting to a display device.

本発明のさらに別の態様は警告提示方法に関する。この警告提示方法は情報処理装置が、実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行うステップと、情報処理の結果として表示すべき画像のデータを生成するステップと、状況に応じて形状を変化させたプレイエリアに基づいてユーザへの警告の必要性を判定するステップと、判定に応じて表示すべき画像に警告画像を重畳するステップと、生成された画像のデータを表示装置に出力するステップと、を含むことを特徴とする。 Yet another aspect of the present invention relates to a warning presenting method. This warning presenting method comprises steps of an information processing device detecting the position of an object in a real space and performing information processing based on the object; generating image data to be displayed as a result of the information processing; A step of determining the necessity of warning the user based on the play area whose shape is changed according to the situation, a step of superimposing the warning image on the image to be displayed according to the determination, and data of the generated image. and outputting to a display device.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。 Any combination of the above constituent elements, and any conversion of the expression of the present invention between a method, an apparatus, a system, a computer program, a recording medium recording a computer program, and the like are also effective as aspects of the present invention. .

本発明によると、HMDを装着したユーザが、現実世界での拘束条件をできるだけ意識することなく表現世界を楽しむことができる。 According to the present invention, a user wearing an HMD can enjoy the world of expression without being conscious of constraints in the real world as much as possible.

本実施の形態を適用できる情報処理システムの構成例を示す図である。It is a figure which shows the structural example of the information processing system which can apply this Embodiment. 本実施の形態におけるHMDの外観形状の例を示す図である。It is a figure which shows the example of the external appearance shape of HMD in this Embodiment. 本実施の形態における情報処理装置の内部回路構成を示す図である。1 is a diagram showing an internal circuit configuration of an information processing device according to this embodiment; FIG. 本実施の形態におけるHMDの内部回路構成を示す図である。It is a figure which shows the internal circuit structure of HMD in this Embodiment. 本実施の形態における情報処理装置の機能ブロックの構成を示す図である。1 is a diagram showing a configuration of functional blocks of an information processing device according to an embodiment; FIG. 本実施の形態において撮影画像から取得できる情報を説明するための図である。FIG. 4 is a diagram for explaining information that can be acquired from a captured image in the present embodiment; FIG. 本実施の形態における警告状況判定部が警告の必要性を判定するときに参照する、プレイエリアの設定例を模式的に示す図である。FIG. 4 is a diagram schematically showing a setting example of a play area referred to by a warning situation determination unit in the present embodiment when determining necessity of warning. 本実施の形態におけるプレイエリアの設定の別の例を模式的に示す図である。FIG. 10 is a diagram schematically showing another example of play area setting in the present embodiment; 本実施の形態においてマージン領域の有無による処理への影響を説明するための図である。FIG. 10 is a diagram for explaining the influence of presence/absence of a margin area on processing in the present embodiment; 本実施の形態において画像平面におけるプレイエリアの設定手法を説明するための図である。FIG. 4 is a diagram for explaining a method of setting a play area on an image plane in this embodiment; 本実施の形態において、警告が必要であると判定した際に生成される表示画面を例示する図である。In the present embodiment, it is a diagram illustrating a display screen generated when it is determined that a warning is necessary. 本実施の形態において情報処理装置がユーザの動きに応じた出力データを生成する処理手順を示すフローチャートである。4 is a flow chart showing a processing procedure for generating output data according to a user's movement by the information processing device in the present embodiment. 本実施の形態における警告画像の表示/非表示の状態遷移を模式的に示す図である。FIG. 4 is a diagram schematically showing state transition between display/non-display of a warning image according to the present embodiment;

図1は本実施の形態を適用できる情報処理システムの構成例を示す。情報処理システム8は、対象物を撮影する撮像装置12、撮影した画像に基づき情報処理を行う情報処理装置10、情報処理の結果として得られた画像を表示する平板型ディスプレイ16およびHMD18、ユーザが操作する入力装置14を含む。 FIG. 1 shows a configuration example of an information processing system to which this embodiment can be applied. The information processing system 8 includes an imaging device 12 that captures an image of an object, an information processing device 10 that performs information processing based on the captured image, a flat panel display 16 and an HMD 18 that display an image obtained as a result of the information processing, and a user. It includes an input device 14 to operate.

情報処理装置10と、撮像装置12、入力装置14、平板型ディスプレイ16、HMD18とは、有線ケーブルで接続されても、Bluetooth(登録商標)など既知の無線通信技術により接続されてもよい。また情報処理装置10が実施する情報処理によっては、平板型ディスプレイ16はなくてもよい。またこれらの装置の外観形状は図示するものに限らない。さらにこれらのうち2つ以上の装置を一体的に備えた装置としてもよい。例えば情報処理装置10、入力装置14、平板型ディスプレイ16を、それらを備えた携帯端末などで実現してもよい。 The information processing device 10, the imaging device 12, the input device 14, the flat panel display 16, and the HMD 18 may be connected by a wired cable or by a known wireless communication technology such as Bluetooth (registered trademark). Further, depending on the information processing performed by the information processing apparatus 10, the flat display 16 may be omitted. Further, the external shape of these devices is not limited to that shown in the drawings. Further, the device may be a device integrally including two or more of these devices. For example, the information processing device 10, the input device 14, and the flat-panel display 16 may be realized by a mobile terminal or the like having them.

撮像装置12は、ユーザなどの対象物を所定のフレームレートで撮影するカメラと、その出力信号にデモザイク処理など一般的な処理を施すことにより撮影画像の出力データを生成し、情報処理装置10に送出する機構とを有する。カメラはCCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなど、一般的なデジタルカメラ、デジタルビデオカメラで利用されている可視光センサを備える。撮像装置12が備えるカメラは1つのみでもよいし、図示するように2つのカメラを既知の間隔で左右に配置したいわゆるステレオカメラでもよい。 The imaging device 12 generates output data of a captured image by performing general processing such as demosaicing on the output signal of a camera that captures an object such as a user at a predetermined frame rate. and a delivery mechanism. The camera includes a visible light sensor such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor, which is used in general digital cameras and digital video cameras. The imaging device 12 may have only one camera, or may be a so-called stereo camera in which two cameras are arranged left and right at a known interval as illustrated.

あるいは単眼のカメラと、赤外線などの参照光を対象物に照射しその反射光を測定する装置との組み合わせで撮像装置12を構成してもよい。ステレオカメラや反射光の測定機構を導入した場合、対象物の位置を3次元の実空間に対し求めることができ、情報処理装置10による情報処理や表示装置による画像表示をより多様化させることができる。ステレオカメラが左右の視点から撮影したステレオ画像を用いて、三角測量の原理により被写体のカメラからの距離を特定する手法、反射光の測定によりTOF(Time of Flight)やパターン照射の方式で被写体のカメラからの距離を特定する手法はいずれも広く知られている。 Alternatively, the imaging device 12 may be configured by a combination of a monocular camera and a device that irradiates an object with reference light such as infrared rays and measures the reflected light. When a stereo camera or a mechanism for measuring reflected light is introduced, the position of an object can be obtained in a three-dimensional real space, and information processing by the information processing device 10 and image display by the display device can be diversified. can. Using stereo images taken from left and right viewpoints by a stereo camera, the distance from the subject to the camera is specified by the principle of triangulation. All techniques for determining the distance from the camera are well known.

以後では主に、撮像装置12がステレオ画像を撮影する態様について説明するが、上記のとおり本実施の形態をそれに限る主旨ではなく、撮像装置12には少なくとも一つのカメラが含まれていればよい。情報処理装置10は、撮像装置12から送信されたデータを用いて必要な情報処理を行い、画像や音声などの出力データを生成する。ここで情報処理装置10が行う処理の内容は特に限定されず、ユーザが求める機能やアプリケーションの内容などによって適宜決定してよい。 Hereinafter, a mode in which the imaging device 12 captures a stereo image will be mainly described. . The information processing device 10 performs necessary information processing using the data transmitted from the imaging device 12 and generates output data such as images and sounds. Here, the content of the processing performed by the information processing apparatus 10 is not particularly limited, and may be appropriately determined according to the functions requested by the user, the content of the application, and the like.

情報処理装置10は例えば、撮影画像に対し一般的な顔検出や追跡処理を施すことにより、対象物であるユーザの動作を反映させたキャラクタが登場するゲームを進捗させたり、ユーザの動きをコマンド入力に変換して情報処理を行ったりする。このとき入力装置14に設けたマーカーを利用して入力装置14の動きを取得してもよい。またHMD18の外面に設けた複数のマーカーを追跡することにより、HMD18を装着したユーザの頭部の位置や姿勢を特定し、それに対応して動く視点から見た仮想世界をHMD18に表示させてもよい。情報処理装置10が生成した出力データは、少なくともHMD18に送信される。 For example, the information processing apparatus 10 performs general face detection and tracking processing on a captured image to advance a game in which a character reflecting the movement of a user, who is an object, appears, or to command the movement of the user. It converts it into an input and performs information processing. At this time, the movement of the input device 14 may be acquired using a marker provided on the input device 14 . Further, by tracking a plurality of markers provided on the outer surface of the HMD 18, the position and posture of the user's head wearing the HMD 18 can be identified, and the virtual world viewed from a viewpoint that moves correspondingly can be displayed on the HMD 18. good. The output data generated by the information processing device 10 is transmitted to at least the HMD 18 .

HMD18は、ユーザが頭に装着することによりその眼前に位置する有機ELパネルなどの表示パネルに画像を表示する表示装置である。例えば左右の視点から見た視差画像を生成し、表示画面を2分割してなる左右の領域にそれぞれ表示させることにより、画像を立体視させてもよい。ただし本実施の形態をこれに限る主旨ではなく、表示画面全体に1つの画像を表示させてもよい。HMD18はさらに、ユーザの耳に対応する位置に音声を出力するスピーカーやイヤホンを内蔵していてもよい。 The HMD 18 is a display device that displays an image on a display panel, such as an organic EL panel, positioned in front of the user's head when worn by the user. For example, an image may be stereoscopically viewed by generating parallax images viewed from left and right viewpoints and displaying them in left and right regions obtained by dividing the display screen into two. However, the present embodiment is not intended to be limited to this, and one image may be displayed on the entire display screen. The HMD 18 may further incorporate speakers or earphones that output sound at positions corresponding to the ears of the user.

平板型ディスプレイ16は、2次元の画像を出力するディスプレイおよび音声を出力するスピーカーを有するテレビでよく、例えば液晶テレビ、有機ELテレビ、プラズマテレビ、PCディスプレイ等である。あるいはタブレット端末や携帯端末のディスプレイおよびスピーカーであってもよい。入力装置14は、ユーザが操作することにより、処理の開始、終了、機能の選択、各種コマンド入力などの要求を受け付け、情報処理装置10に電気信号として供給する。 The flat-panel display 16 may be a television having a display for outputting two-dimensional images and speakers for outputting audio, such as a liquid crystal television, an organic EL television, a plasma television, or a PC display. Alternatively, it may be the display and speaker of a tablet terminal or mobile terminal. The input device 14 accepts requests such as the start and end of processing, selection of functions, input of various commands, etc., and supplies them to the information processing apparatus 10 as electrical signals.

入力装置14は、ゲームコントローラ、キーボード、マウス、ジョイスティック、平板型ディスプレイ16の表示画面上に設けたタッチパッドなど、一般的な入力装置のいずれか、またはそれらの組み合わせによって実現してよい。入力装置14はさらに、所定の色で発光する素子またはその集合からなる発光マーカーを備えていてもよい。この場合、情報処理装置10がマーカーの動きを、撮影画像を用いて追跡することにより、入力装置14自体の動きをユーザ操作とすることができる。なお入力装置14を、発光マーカーとそれを把持する機構のみで構成してもよい。 The input device 14 may be implemented by any of general input devices such as a game controller, keyboard, mouse, joystick, touch pad provided on the display screen of the flat panel display 16, or a combination thereof. The input device 14 may further include luminous markers, which are elements or collections of elements that emit light in a predetermined color. In this case, the information processing apparatus 10 can track the movement of the marker using the captured image, so that the movement of the input device 14 itself can be the user's operation. It should be noted that the input device 14 may be composed only of a luminous marker and a mechanism for gripping it.

図2はHMD18の外観形状の例を示している。この例においてHMD18は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。装着バンド106は各ユーザの頭囲に合わせて長さの調節が可能な素材または構造とする。例えばゴムなどの弾性体としてもよいし、バックルや歯車などを利用してもよい。 FIG. 2 shows an example of the external shape of the HMD 18. As shown in FIG. In this example, the HMD 18 is composed of an output mechanism section 102 and a mounting mechanism section 104 . The mounting mechanism section 104 includes a mounting band 106 that is worn by the user so as to go around the head and fix the device. The mounting band 106 is made of a material or structure whose length can be adjusted according to the head circumference of each user. For example, an elastic body such as rubber may be used, or a buckle or a gear may be used.

出力機構部102は、HMD18をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。そして筐体108の外面には、発光マーカー110a、110b、110c、110d、などを設ける。発光マーカーの数や配置は特に限定されないが、本実施の形態では出力機構部102の筐体前面の4隅に設ける。 The output mechanism unit 102 includes a housing 108 shaped to cover the left and right eyes when the user wears the HMD 18, and has a display panel inside so as to face the eyes when the HMD 18 is worn. Light-emitting markers 110 a, 110 b, 110 c, 110 d, etc. are provided on the outer surface of the housing 108 . Although the number and arrangement of the luminous markers are not particularly limited, they are provided at the four corners of the front surface of the housing of the output mechanism section 102 in the present embodiment.

さらに、装着バンド106後方の両側面にも発光マーカー110e、110fを設ける。このように発光マーカーを配置することにより、撮像装置12に対しユーザが横を向いたり後ろを向いたりしても、撮影画像における発光マーカーの像の数や位置に基づきそれらの状況を特定できる。なお発光マーカー110c、110dは出力機構部102の下側、発光マーカー110e、110fは装着バンド106の外側にあり、図2の視点からは本来は見えないため、外周を点線で表している。 Further, luminous markers 110e and 110f are also provided on both side surfaces behind the mounting band 106. As shown in FIG. By arranging the light-emitting markers in this way, even if the user turns sideways or turns back to the imaging device 12, it is possible to identify the situation based on the number and positions of the light-emitting marker images in the captured image. The luminous markers 110c and 110d are located below the output mechanism section 102, and the luminous markers 110e and 110f are located outside the mounting band 106. Since they are not visible from the viewpoint of FIG.

図3は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)22、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、平板型ディスプレイ16やHMD18へデータを出力する出力部36、撮像装置12、入力装置14、およびHMD18からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。 FIG. 3 shows the internal circuit configuration of the information processing apparatus 10. As shown in FIG. The information processing device 10 includes a CPU (Central Processing Unit) 22 , a GPU (Graphics Processing Unit) 24 and a main memory 26 . These units are interconnected via a bus 30 . An input/output interface 28 is also connected to the bus 30 . The input/output interface 28 includes a peripheral device interface such as USB and IEEE 1394, a communication unit 32 including a wired or wireless LAN network interface, a storage unit 34 such as a hard disk drive and a nonvolatile memory, and data to the flat panel display 16 and HMD 18. , an input unit 38 for inputting data from the imaging device 12, the input device 14, and the HMD 18, and a recording medium driving unit 40 for driving a removable recording medium such as a magnetic disk, an optical disk, or a semiconductor memory. .

CPU22は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU22はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU22からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。 The CPU 22 controls the entire information processing apparatus 10 by executing an operating system stored in the storage section 34 . The CPU 22 also executes various programs read from a removable recording medium and loaded into the main memory 26 or downloaded via the communication section 32 . The GPU 24 has a function of a geometry engine and a function of a rendering processor, performs drawing processing according to a drawing command from the CPU 22, and stores a display image in a frame buffer (not shown). Then, the display image stored in the frame buffer is converted into a video signal and output to the output section 36 . The main memory 26 is composed of a RAM (Random Access Memory) and stores programs and data necessary for processing.

図4はHMD18の内部回路構成を示している。HMD18は、CPU50、メインメモリ52、表示部54、音声出力部56を含む。これらの各部はバス58を介して相互に接続されている。バス58にはさらに入出力インターフェース60が接続されている。入出力インターフェース60には、有線又は無線LANのネットワークインターフェースからなる通信部62、加速度センサ64、発光部66が接続される。 FIG. 4 shows the internal circuit configuration of the HMD 18. As shown in FIG. The HMD 18 includes a CPU 50 , a main memory 52 , a display section 54 and an audio output section 56 . These units are interconnected via a bus 58 . An input/output interface 60 is also connected to the bus 58 . Connected to the input/output interface 60 are a communication unit 62 , an acceleration sensor 64 , and a light emitting unit 66 , each of which is a wired or wireless LAN network interface.

CPU50は、バス58を介してHMD18の各部から取得した情報を処理し、出力データを表示部54や音声出力部56に供給する。メインメモリ52はCPU50における処理に必要なプログラムやデータを格納する。ただし実行するアプリケーションや装置の設計によっては、情報処理装置10がほぼ全ての処理を行い、HMD18では情報処理装置10から送信されたデータを出力するのみで十分な場合がある。この場合、CPU50やメインメモリ52は、より簡易なデバイスで置き換えることができる。 The CPU 50 processes information acquired from each section of the HMD 18 via the bus 58 and supplies output data to the display section 54 and the audio output section 56 . A main memory 52 stores programs and data necessary for processing in the CPU 50 . However, depending on the application to be executed or the design of the device, it may be sufficient for the information processing device 10 to perform almost all the processing and for the HMD 18 to simply output the data transmitted from the information processing device 10 . In this case, the CPU 50 and main memory 52 can be replaced with simpler devices.

表示部54は、液晶パネルや有機ELパネルなどの表示パネルで構成され、HMD18を装着したユーザの眼前に画像を表示する。上述したように左右の目に対応する領域に一対の視差画像を表示することにより立体視を実現してもよい。表示部54はさらに、HMD18装着時に表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する一対のレンズを含んでもよい。 The display unit 54 is composed of a display panel such as a liquid crystal panel or an organic EL panel, and displays an image in front of the user wearing the HMD 18 . Stereoscopic vision may be realized by displaying a pair of parallax images in regions corresponding to the left and right eyes as described above. The display unit 54 may further include a pair of lenses that are positioned between the display panel and the user's eyes when the HMD 18 is worn, and that expand the user's viewing angle.

音声出力部56は、HMD18の装着時にユーザの耳に対応する位置に設けたスピーカーやイヤホンで構成され、ユーザに音声を聞かせる。出力される音声のチャンネル数は特に限定されず、モノラル、ステレオ、サラウンドのいずれでもよい。通信部62は、情報処理装置10や平板型ディスプレイ16との間でデータを送受するためのインターフェースであり、例えばBluetooth(登録商標)などの既知の無線通信技術を用いて実現できる。 The audio output unit 56 includes speakers and earphones provided at positions corresponding to the ears of the user when the HMD 18 is worn, and allows the user to hear audio. The number of audio channels to be output is not particularly limited, and may be monaural, stereo, or surround. The communication unit 62 is an interface for transmitting and receiving data between the information processing device 10 and the flat panel display 16, and can be realized using a known wireless communication technology such as Bluetooth (registered trademark).

加速度センサ64は、所定軸方向の重力加速度を計測することによりHMD18の傾きを検出する。HMD18にはさらに、ジャイロセンサなどその他の各種センサを設けてよい。センサによる測定値は通信部62を介して情報処理装置10に送信される。発光部66は、所定の色で発光する素子またはその集合であり、図2で示したようにHMD18の外面の複数箇所に設ける。これをマーカーとして追跡することによりHMD18の位置を取得するほか、撮影画像におけるその像の数や位置関係からHMD18の姿勢を取得する。 The acceleration sensor 64 detects the tilt of the HMD 18 by measuring gravitational acceleration in a predetermined axial direction. The HMD 18 may be further provided with various other sensors such as a gyro sensor. The sensor-measured values are transmitted to the information processing device 10 via the communication unit 62 . The light emitting units 66 are elements or groups thereof that emit light in a predetermined color, and are provided at a plurality of locations on the outer surface of the HMD 18 as shown in FIG. By tracking this as a marker, the position of the HMD 18 is obtained, and the orientation of the HMD 18 is obtained from the number of images in the captured image and the positional relationship.

情報処理装置10は、加速度センサ64および発光部66といった複数の手段により得られた情報を統合することにより、より高い精度でユーザの頭の位置や姿勢を取得することができる。一方、本実施の形態では、場合によっては加速度センサ64を省略することもできる。 The information processing apparatus 10 can acquire the position and posture of the user's head with higher accuracy by integrating information obtained by a plurality of means such as the acceleration sensor 64 and the light emitting unit 66 . On the other hand, in this embodiment, the acceleration sensor 64 can be omitted in some cases.

図5は情報処理装置10の機能ブロックの構成を示している。図5に示す各機能ブロックは、ハードウェア的には、図3に示したCPU、GPU、各種メモリ、データバスなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 FIG. 5 shows the configuration of functional blocks of the information processing apparatus 10. As shown in FIG. Each functional block shown in FIG. 5 can be realized by the configuration of CPU, GPU, various memories, data buses, etc. shown in FIG. It is realized by a program that exhibits various functions such as a data input function, a data holding function, an image processing function, and a communication function. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and are not limited to either one.

情報処理装置10は、入力装置14およびHMD18からの入力情報を取得する入力情報取得部72、撮像装置12から撮影画像のデータを取得する撮影画像取得部74、ゲームなどコンテンツに応じた情報処理を行う情報処理部76、出力すべきデータを生成する出力データ生成部78、情報処理や画像の生成に必要なデータを格納したコンテンツデータ記憶部84を含む。情報処理装置10はさらに、撮影画像に基づきユーザの位置情報を取得する位置情報取得部80、ユーザの位置に基づき警告が必要な状況を判定する警告状況判定部82、判定に必要な実空間上の領域に係る設定情報を格納したエリア設定情報記憶部85、および、出力すべきデータをHMD18に送信する出力データ送信部86を含む。 The information processing apparatus 10 includes an input information acquisition unit 72 that acquires input information from the input device 14 and the HMD 18, a captured image acquisition unit 74 that acquires captured image data from the imaging device 12, and information processing according to content such as games. an information processing section 76 for processing, an output data generation section 78 for generating data to be output, and a content data storage section 84 for storing data necessary for information processing and image generation. The information processing apparatus 10 further includes a position information acquisition unit 80 that acquires user position information based on the captured image, a warning situation determination unit 82 that determines a situation requiring a warning based on the user position, and a real space and an output data transmission unit 86 for transmitting data to be output to the HMD 18 .

入力情報取得部72は、ユーザ操作の内容を入力装置14から取得する。ここでユーザ操作とは、実行するアプリケーションやコンテンツの選択、処理の開始/終了、コマンド入力など、一般的な情報処理装置でなされるものでよい。入力情報取得部72は入力装置14から取得した情報を、その内容に応じて撮影画像取得部74または情報処理部76に供給する。入力情報取得部72はさらに、HMD18の加速度センサ64から計測値を受信し、情報処理部76に供給する。 The input information acquisition unit 72 acquires the content of the user's operation from the input device 14 . Here, the user operation may be performed by a general information processing apparatus, such as selection of an application or content to be executed, start/end of processing, command input, and the like. The input information acquisition section 72 supplies the information acquired from the input device 14 to the captured image acquisition section 74 or the information processing section 76 depending on the content of the information. The input information acquisition unit 72 further receives the measured value from the acceleration sensor 64 of the HMD 18 and supplies it to the information processing unit 76 .

撮影画像取得部74は、ステレオ画像など、撮像装置12が動画撮影して得られる撮影画像のデータを所定のレートで取得する。撮影画像取得部74はさらに、入力情報取得部72が取得したユーザからの処理開始/終了要求に従い、撮像装置12における撮影の開始/終了を制御したり、情報処理部76における処理の結果に応じて、撮像装置12から取得するデータの種類を制御したりしてもよい。 The captured image acquisition unit 74 acquires data of captured images such as stereo images obtained by capturing moving images by the imaging device 12 at a predetermined rate. The captured image acquisition unit 74 further controls the start/end of shooting in the imaging device 12 according to the processing start/end request from the user acquired by the input information acquisition unit 72, may be used to control the type of data acquired from the imaging device 12 .

位置情報取得部80は、撮影画像から所定の対象物の像を検出することにより、ユーザの位置情報を所定のレートで取得する。例えばHMD18や入力装置14に設けた発光マーカーの像に基づきユーザの頭部や手の実空間での位置を取得する。あるいはユーザの体の一部を、輪郭線を利用して追跡したり、顔や特定の模様を有する対象物をパターンマッチングにより認識したりする画像解析技術を組み合わせてもよい。また撮像装置12の構成によっては上述のとおり、赤外線の反射を計測することによりユーザの距離を特定してもよい。 The positional information acquiring unit 80 acquires user's positional information at a predetermined rate by detecting an image of a predetermined object from the captured image. For example, the positions of the user's head and hands in real space are acquired based on images of luminous markers provided on the HMD 18 or the input device 14 . Alternatively, it may be combined with an image analysis technique that tracks a part of the user's body using contour lines, or recognizes a face or an object with a specific pattern by pattern matching. Further, depending on the configuration of the imaging device 12, as described above, the user's distance may be specified by measuring the reflection of infrared rays.

情報処理部76は、ユーザが指定したゲームなどの電子コンテンツを処理する。この処理には、位置情報取得部80が取得した、ユーザの位置情報の利用が含まれる。情報処理部76は必要に応じて、HMD18の加速度センサによる計測結果などを統合することにより、ユーザの姿勢を特定してもよい。なお上述のように、入力装置14を介したユーザ操作やユーザの動きに応じて、情報処理部76が行う後段の情報処理の内容は特に限定されない。 The information processing unit 76 processes electronic content such as games specified by the user. This processing includes the use of the user's location information acquired by the location information acquisition unit 80 . The information processing unit 76 may specify the user's posture by integrating measurement results obtained by the acceleration sensor of the HMD 18 as necessary. Note that, as described above, the content of subsequent information processing performed by the information processing unit 76 in accordance with user operations and user movements via the input device 14 is not particularly limited.

出力データ生成部78は、情報処理部76からの要求に従い、情報処理の結果として出力すべき画像や音声のデータを生成する。例えばユーザの頭部の位置や姿勢に対応する視点から見た仮想世界を左右の視差画像として生成する。この視差画像をHMD18において左右の目の前に表示させたり、仮想世界での音声を出力したりすれば、ユーザはあたかも仮想世界に入り込んだような感覚を得られる。情報処理部76における情報処理や出力データ生成部78におけるデータ生成処理に必要なプログラムや画像・音声のデータはコンテンツデータ記憶部84に格納しておく。 The output data generation unit 78 generates image and audio data to be output as a result of information processing according to a request from the information processing unit 76 . For example, a virtual world viewed from a viewpoint corresponding to the position and posture of the user's head is generated as left and right parallax images. By displaying these parallax images in front of the left and right eyes on the HMD 18 and by outputting audio in the virtual world, the user can feel as if he or she has entered the virtual world. Programs and image/audio data necessary for information processing in the information processing section 76 and data generation processing in the output data generation section 78 are stored in the content data storage section 84 .

警告状況判定部82は、位置情報取得部80が取得したユーザの位置情報に基づき、警告を与える状況の発生を常時監視し、その発生を判定する。具体的には、実世界の3次元空間に直接的あるいは間接的に設定したプレイエリアに対する内外判定を実施し、ユーザがプレイエリアから出たときに警告が必要であると判定する。本実施の形態では、撮影画像を利用して位置情報を取得するため、ユーザがカメラの画角内にいることを前提として情報処理が進捗する。 Based on the user's location information acquired by the location information acquisition unit 80, the warning situation determination unit 82 constantly monitors the occurrence of a situation in which a warning is issued, and determines the occurrence. Specifically, inside/outside determination is performed with respect to the play area set directly or indirectly in the three-dimensional space of the real world, and it is determined that a warning is necessary when the user leaves the play area. In the present embodiment, since position information is acquired using captured images, information processing proceeds on the assumption that the user is within the angle of view of the camera.

ところが図2に示したようなHMDを装着したユーザには、周囲の状況、ひいては自分が画角内にいるかどうかが認識しづらい。正常な情報処理を継続するためには、そのような実世界に係る情報を何らかの手段により与える必要があるが、コンテンツが表現する世界観を損なうことになりかねない。そのための方策として、画角から出そうなときのみユーザに警告を与えることが考えられる。しかしながらこのタイミングが早すぎれば、少しの移動で頻繁に警告が与えられ、実質的に可動範囲を狭めてしまうことになる。一方で、タイミングが遅いと画角から外れることを免れず、位置情報が得られない期間が発生し得る。 However, it is difficult for a user wearing an HMD such as that shown in FIG. 2 to recognize the surroundings and whether he or she is within the angle of view. In order to continue normal information processing, it is necessary to provide such information related to the real world by some means, but this may spoil the view of the world expressed by the content. As a measure for this, it is conceivable to give a warning to the user only when it is about to go out of the angle of view. However, if this timing is too early, small movements will give frequent warnings, effectively reducing the range of motion. On the other hand, if the timing is too late, the angle of view is inevitably deviated, and a period during which position information cannot be obtained may occur.

そこで本実施の形態では上述のとおり、警告を発生させるタイミングを実世界でプレイエリアとして設定した領域に対する内外判定により判断し、さらにプレイエリアと画角との関係を調整することにより、可動範囲と処理精度のバランスを状況に応じて最適化する。プレイエリアの設定情報はあらかじめ、エリア設定情報記憶部85に格納しておく。具体的な設定内容については後に述べる。警告状況判定部82は、警告が必要と判定したとき、その旨を出力データ生成部78に通知する。 Therefore, in the present embodiment, as described above, the timing for issuing a warning is determined by determining the inside/outside of the area set as the play area in the real world, and furthermore, by adjusting the relationship between the play area and the angle of view, the movable range and the Optimize the balance of processing accuracy depending on the situation. Play area setting information is stored in the area setting information storage unit 85 in advance. Specific setting contents will be described later. When the warning status determination unit 82 determines that a warning is necessary, it notifies the output data generation unit 78 of that effect.

このとき出力データ生成部78は、警告を表す部品画像を表示画像に追加で描画する。警告状況判定部82はまた、ユーザが正常な位置に戻るなどして、警告の必要がなくなったことを判定し、その旨を出力データ生成部78に通知する。これに応じて出力データ生成部78は、警告を表す部品画像を非表示とする。なお警告は画像のみならず、音声を伴っていてもよい。出力データ送信部86は、出力データ生成部78が生成した出力データを順次取得し、必要に応じて成形したうえ、HMD18に送信する。 At this time, the output data generation unit 78 additionally draws a component image representing the warning on the display image. The warning status determination unit 82 also determines that the user has returned to a normal position and the warning is no longer necessary, and notifies the output data generation unit 78 to that effect. In response to this, the output data generator 78 hides the component image representing the warning. Note that the warning may be accompanied by sound as well as an image. The output data transmission unit 86 sequentially acquires the output data generated by the output data generation unit 78 , shapes the data as necessary, and transmits the data to the HMD 18 .

図6は、本実施の形態において撮影画像から取得できる情報を説明するための図である。同図においてユーザ120は、入力装置14を把持しHMD18を装着している。入力装置14は、操作に適した持ち方で把持したときに撮像装置12に正対する位置に発光マーカー122を備える。HMD18の発光マーカーは図2で示したとおりである。撮像装置12をステレオカメラとした場合、ステレオ画像における像の視差に基づき、撮像装置12の撮像面から各発光マーカーまでの距離Zが求められる。また、どちらかの撮影画像の画像平面(XY平面)における発光マーカーの像の位置は、撮像装置12からの見かけ上の位置を表している。 FIG. 6 is a diagram for explaining information that can be acquired from a captured image in this embodiment. In the figure, the user 120 is holding the input device 14 and wearing the HMD 18 . The input device 14 has a luminous marker 122 at a position directly facing the imaging device 12 when held in a manner suitable for operation. The luminescence marker of HMD18 is as shown in FIG. When the imaging device 12 is a stereo camera, the distance Z from the imaging plane of the imaging device 12 to each luminous marker is obtained based on the parallax of the images in the stereo image. Also, the position of the image of the luminescence marker on the image plane (XY plane) of either captured image represents the apparent position from the imaging device 12 .

これらの情報を統合する、具体的にはXY平面における位置を撮像装置12からの距離Zを用いて逆射影することにより、実世界の3次元空間における各発光マーカーの位置が求められる。さらにHMD18の発光マーカーの像の数や位置関係からHMD18の実空間における姿勢(ベクトルva)が、入力装置14の発光マーカー122の像の形状から入力装置14の実空間における姿勢(ベクトルvb)が求められる。 The position of each luminous marker in the three-dimensional space of the real world is obtained by integrating these pieces of information, specifically by inverse projecting the position on the XY plane using the distance Z from the imaging device 12 . Further, the orientation (vector va) of the HMD 18 in the real space is determined from the number and positional relationship of the images of the luminous markers of the HMD 18, and the orientation (vector vb) of the input device 14 in the real space is determined from the shape of the images of the luminous markers 122 of the input device 14. Desired.

情報処理装置10の情報処理部76は、これらの装置の実空間における位置および姿勢に基づき、ユーザ120の顔の向きに応じて視野が変化する仮想世界や、入力装置14の動きに応じて画像内のオブジェクトが動く様を表現することができる。なおマーカーの見かけ上の大きさによって撮像装置12からの距離を推定したり、奥行き方向の動きが必要ない情報処理を行ったりする場合は、撮像装置12はステレオカメラでなくてよい。参照光を利用した距離測定技術を導入する場合も同様である。また必ずしもHMD18と入力装置14の双方を追跡しなくてもよい。 The information processing unit 76 of the information processing device 10 creates a virtual world in which the field of view changes according to the direction of the face of the user 120 and an image according to the movement of the input device 14 based on the positions and postures of these devices in the real space. It is possible to express how the objects inside move. When estimating the distance from the imaging device 12 based on the apparent size of the marker or when performing information processing that does not require movement in the depth direction, the imaging device 12 need not be a stereo camera. The same is true when introducing a distance measurement technique using reference light. Also, it is not necessary to track both the HMD 18 and the input device 14 .

このように発光マーカーの像を利用する場合、直接得られるのは、厳密にはHMD18や入力装置14の発光マーカーの位置である。ただしHMD18はユーザが頭部に装着しているため、ユーザの頭部の位置と捉えることもできる。発光マーカー以外の被写体を拠り所として位置を特定する場合も、厳密にはそれらの被写体の位置が求められ、ユーザの重心位置などはそれらの情報から必要に応じて推定される。 Strictly speaking, when using the image of the luminous marker, the position of the luminous marker of the HMD 18 or the input device 14 is directly obtained. However, since the HMD 18 is worn on the user's head, it can also be regarded as the position of the user's head. Strictly speaking, even when the position is specified based on subjects other than the light-emitting markers, the positions of these subjects are obtained, and the position of the user's center of gravity and the like are estimated as necessary from the information.

以後の説明で「ユーザの位置」とは、ユーザ自身の位置でもよいし、位置取得の拠り所となる被写体の位置でもよい。また入力装置14がプレイエリア外に出ても、HMD18が出ていなければ警告の必要はないとするなど、被写体の性質や状況に応じて判定基準に係る規則を設けてもよい。 In the following description, the "user's position" may be the position of the user himself or the position of the subject that serves as a basis for position acquisition. Further, even if the input device 14 goes out of the play area, if the HMD 18 is not displayed, there is no need to issue a warning.

図7は、警告状況判定部82が警告の必要性を判定するときに参照する、プレイエリアの設定例を模式的に示している。同図は実空間を俯瞰した状態を示しており、撮像装置12に正対するようにユーザ120が存在している。撮像装置12のカメラの水平画角θによって、点線で示した視野の境界面182a、182bが定まる。ステレオカメラの場合、両者の画角の積集合とする。このような視野の垂直方向の境界面を基準として、プレイエリア184の境界面を所定の規則で設定する。警告状況判定部82はユーザがプレイエリア184の外に出たとき、警告の必要が発生したと判定する。 FIG. 7 schematically shows a setting example of a play area referred to by the warning status determination unit 82 when determining the necessity of warning. The figure shows a bird's-eye view of the real space, and the user 120 is present facing the imaging device 12 . Boundary planes 182a and 182b of the field of view indicated by dotted lines are determined by the horizontal angle of view θ h of the camera of the imaging device 12 . In the case of a stereo camera, it is the product set of both angles of view. The boundary plane of the play area 184 is set according to a predetermined rule based on such a boundary plane in the vertical direction of the field of view. When the user goes out of the play area 184, the warning situation determination unit 82 determines that a warning is necessary.

図示する例では、撮像装置12からの距離ZがZ1≦Z<Z3の範囲において、視野の境界面182a、182bより内側にプレイエリア184を設定している。撮像装置12に近いZ1≦Z<Z2の範囲では、カメラの光軸を中心に距離Zに比例するように幅を増加させ、Z2≦Z<Z3の範囲では一定の幅Wを有するように設定している。Z1≦Z<Z2の範囲のプレイエリアの境界を決定づける垂直面186a、186bはすなわち、奥行き方向の位置によらず撮影画像上で左右の端より所定量、内側に結像する位置に対応する。したがって少なくとも垂直面186a、186bより内側をプレイエリアとすることで、画像上で当該所定量分をマージン領域として、ユーザが画角から外れる前の余裕を見たタイミングで警告を与えることができる。 In the illustrated example, the play area 184 is set inside the boundary planes 182a and 182b of the field of view when the distance Z from the imaging device 12 is in the range of Z1≦Z<Z3. In the range of Z1≤Z<Z2 close to the imaging device 12, the width is increased in proportion to the distance Z centered on the optical axis of the camera, and in the range of Z2≤Z<Z3, the width is set to have a constant width W. is doing. The vertical planes 186a and 186b that determine the boundaries of the play area in the range of Z1≦Z<Z2 correspond to positions that are imaged inward from the left and right ends of the captured image by a predetermined amount regardless of the position in the depth direction. Therefore, by setting at least the inner side of the vertical surfaces 186a and 186b as the play area, it is possible to give a warning at the timing when the user sees a margin before deviating from the angle of view by using the predetermined amount as a margin area on the image.

撮像装置12に近くなるほど、視野が狭くなるため可動範囲も狭くなる。そのため撮像装置12に近い範囲では垂直面186a、186bより内側とする条件を最大限活用することで、警告を出さずにすむ範囲を広くとる。一方、撮像装置12から離れた位置では視野が広がるため、画角から外れたか否かを基準とした場合、垂直面186a、186bより内側をプレイエリアとすれば、より広い範囲で警告を出さずにすむ。しかしながら図示する例では、情報処理の適性や周囲の物の存在などを考慮して、それより狭い幅Wでプレイエリアを限定している。 The closer to the imaging device 12, the narrower the field of view and the narrower the movable range. Therefore, by making maximum use of the condition that the range is inside the vertical planes 186a and 186b in the range close to the imaging device 12, the range in which no warning is issued is widened. On the other hand, since the field of view is widened at a position away from the imaging device 12, if the play area is set to the inner side of the vertical planes 186a and 186b, the warning will not be issued in a wider range if the play area is set based on whether or not it is out of the angle of view. live in However, in the illustrated example, the play area is limited to a narrower width W in consideration of the suitability of information processing and the presence of surrounding objects.

このようにプレイエリア184は、画角からの逸脱可能性を低める以外に、適正な可動範囲を設定する役割も同時に備えることができる。またプレイエリアをカメラからの距離範囲に応じて異なる規則で設定することにより、視野の狭い領域では可動範囲を優先し、視野の広い領域ではコンテンツの事情などその他の要素を優先させる、といった優先順位の変化に適応できる。 In this way, the play area 184 can have the role of setting an appropriate movable range in addition to reducing the possibility of deviation from the angle of view. In addition, by setting different rules for the play area according to the distance range from the camera, priority is given to the movable range in areas with a narrow field of view, and other factors such as content conditions in areas with a wide field of view. can adapt to changes in

図8は、プレイエリアの設定の別の例を模式的に示している。同図は実空間をユーザの左側面から見た状態を示しており、撮像装置12に正対するようにユーザ120が存在している。撮像装置12のカメラの垂直画角θによって、点線で示した視野の境界面192a、192bが定まる。このような視野の水平方向の境界面を基準として、撮像装置12からの距離ZがZ1≦Z<Z3の範囲にプレイエリアの境界面を設定する。 FIG. 8 schematically shows another example of play area setting. The figure shows the real space viewed from the left side of the user, and the user 120 is present facing the imaging device 12 . Boundary planes 192a and 192b of the field of view indicated by dotted lines are determined by the vertical angle of view θ v of the camera of the imaging device 12 . Based on such a horizontal boundary plane of the field of view, the boundary plane of the play area is set such that the distance Z from the imaging device 12 is in the range of Z1≦Z<Z3.

同図の例では、Z1≦Z<Z3の範囲にわたり、視野の境界面192a、192bをプレイエリア194の境界面と一致させている。すなわち図7で示したプレイエリアと比較し、視野の境界面との間にマージン領域を設定しない。つまり撮影画像上で上下の端より所定量、内側に結像する水平面196a、196bのような余裕分をも設けず、撮影画像の上端から下端に対応する領域をプレイエリアとしている。このようにすると、画角から外れるのと同時に警告が与えられる結果となるため、微小時間であっても位置取得が不能となる可能性が高くなる。一方で、より広い範囲で警告を出さずにすむことになる。 In the example shown in the figure, the boundary planes 192a and 192b of the field of view are aligned with the boundary plane of the play area 194 over the range of Z1≦Z<Z3. That is, unlike the play area shown in FIG. 7, no margin area is set between the boundary plane of the field of view. In other words, the area corresponding to the upper end to the lower end of the photographed image is used as the play area without providing a margin such as the horizontal surfaces 196a and 196b imaged inward from the upper and lower ends of the photographed image. In this way, a warning is issued at the same time as the object deviates from the angle of view, so there is a high possibility that the position cannot be acquired even for a very short time. On the one hand, it allows a wider range of warnings to go unnoticed.

このような設定は、画角が狭いカメラにおいて有効である。画角が狭い場合、図7に示すようにマージン領域を設定すると、少しの動きで警告が頻繁に出てしまうことがあり得る。そのため多少の情報処理の精度悪化を犠牲にしても、広いプレイエリアを確保することにより快適性を優先できる。例えば水平画角は広く、垂直画角は狭い特性を有するカメラを使用する場合、図7および図8で示したように、実空間での方向に応じて視野の境界面に対するプレイエリアの境界面の位置関係を異ならせれば、情報処理精度と快適な操作環境とのバランスを好適にとることができる。 Such settings are effective for a camera with a narrow angle of view. When the angle of view is narrow, if the margin area is set as shown in FIG. 7, even a slight movement may result in frequent warnings. Therefore, comfort can be prioritized by securing a wide play area, even if the accuracy of information processing is slightly deteriorated. For example, when using a camera with a wide horizontal angle of view and a narrow vertical angle of view, as shown in FIGS. By changing the positional relationship of , it is possible to appropriately balance information processing accuracy and a comfortable operating environment.

図9は、マージン領域の有無による処理への影響を説明するための図である。同図上段の(a)は視野に対しマージン領域を設けてプレイエリアを設定した場合、下段の(b)は視野とプレイエリアを一致させた場合の、ユーザの動きと各処理のタイムチャートである。すなわち右側に模式的に示すように、撮像装置12に対し白抜きで示したプレイエリアを設定するが、(a)は黒色で示す視野外の領域との間に網掛けで示したマージン領域を設けている。タイムチャートにおける「位置」の段の白、網掛け、黒の矩形はそれぞれ、ユーザがプレイエリア、マージン領域、視野外にいる時間を表す。 FIG. 9 is a diagram for explaining the influence of the presence or absence of a margin area on processing. (a) in the upper part of the same figure is a time chart of the user's movement and each process when the play area is set by providing a margin area for the field of view, and (b) in the lower part is a time chart of the user's movement and each process when the field of view and the play area are matched. be. That is, as schematically shown on the right side, a white play area is set for the imaging device 12. In (a), a hatched margin area is set between the area outside the field of view and a black area. are provided. The white, shaded, and black rectangles in the "Position" column of the time chart represent the time the user is out of the play area, margin area, and field of view, respectively.

比較のため両者の設定において、ユーザが時刻t2で視野外に出るとし、警告を同じ時間だけ表示した結果、ユーザがプレイエリアに戻るとしている。このようなユーザの動きに対し、位置情報取得部80が位置情報を取得できる期間を「位置取得」の段に、警告表示がなされる期間を「警告」の段に、矩形で表している。(a)の場合、視野外へ出る時刻t2より前の時刻t1でプレイエリアから出るため、その時点から時刻t3でプレイエリアへ戻るまでの間、警告が表示される。一方(b)の場合、マージン領域を設定しないため、視野外へ出ている時刻t2から時刻t4までの間に警告が表示される。 For comparison, both settings assume that the user leaves the field of view at time t2, and that the user returns to the play area as a result of displaying the warning for the same amount of time. The period during which the position information acquisition unit 80 can acquire position information in response to such user movement is indicated by the "position acquisition" column, and the period during which a warning is displayed is indicated by the "warning" column, indicated by rectangles. In the case of (a), the player leaves the play area at time t1 before the player leaves the field of view at time t2, so the warning is displayed from that point until the player returns to the play area at time t3. On the other hand, in the case of (b), since no margin area is set, a warning is displayed between time t2 and time t4 when the subject is out of the field of view.

図示するように、(a)においては、警告が表示された後も位置情報を取得できるため、当該情報を根拠としてプレイエリア外にいることが保障される。(b)の場合、警告と同時に位置情報も取得できなくなるため、警告を表示している期間においてその妥当性が保障されない。したがって、例えば視野境界においてオクルージョンなどでユーザの像が検出されなかったことを、視野外に出たと誤認し警告を表示させてしまう可能性がある。 As shown in the figure, in (a), the position information can be obtained even after the warning is displayed, so it is guaranteed that the player is outside the play area based on the information. In the case of (b), since the location information cannot be obtained at the same time as the warning, the validity of the warning is not guaranteed during the period when the warning is displayed. Therefore, for example, when the user's image is not detected due to occlusion at the boundary of the field of view, there is a possibility that the user may misunderstand that the user is out of the field of view and display a warning.

また(a)と(b)で警告が表示されてから同じタイミングでプレイエリアに戻っても、(b)では位置情報を取得できない期間が長くなる。図示する例では、(a)においても視野外へ出る期間が発生しているが、マージン領域の幅によっては、ユーザが視野外へ出る前に警告表示に応じて戻る可能性があるため、(b)の場合と比較し位置情報を取得できない期間が発生しにくい。一方で、同じように移動しても(a)の場合はより早い時刻t1で警告が表示されるため、ユーザに対する拘束条件が厳しくなる。これらの特性を踏まえ、警告を出さずにすむ領域を極限まで広げたいか、そのようにせずとも領域に余裕があるか、など、状況に応じた優先順位によって最適なプレイエリアを設定することが望ましい。 In addition, even if the user returns to the play area at the same timing after the warning is displayed in (a) and (b), the period in which the position information cannot be acquired becomes longer in (b). In the illustrated example, there is a period of going out of the field of view even in (a), but depending on the width of the margin area, there is a possibility that the user will return in response to the warning display before going out of the field of view. Compared with the case of b), a period in which position information cannot be acquired is less likely to occur. On the other hand, even if the user moves in the same manner, in the case of (a), the warning is displayed at an earlier time t1, so the constraint on the user becomes stricter. Based on these characteristics, it is possible to set the optimal play area based on the priority according to the situation, such as whether you want to maximize the area where you can avoid issuing a warning, or whether there is room in the area even if you do not do so. desirable.

なおマージン領域を設けるか否かのみならず、マージン領域の幅やプレイエリアの形状も、想定される状況や実空間での方向に応じて最適化してよい。例えばゲームなどコンテンツの内容や環境によって想定されるユーザの姿勢、具体的には立って遊ぶか座って遊ぶか、机に向かっているかソファに座っているか、といった状況に応じて、同じ画角でもプレイエリアの形状を変化させてよい。 Note that not only whether or not to provide a margin area, but also the width of the margin area and the shape of the play area may be optimized according to the assumed situation and the direction in the real space. For example, even with the same angle of view, depending on the user's posture, which is assumed depending on the content and environment, such as playing games, whether playing standing or sitting, facing a desk or sitting on a sofa, etc. The shape of the play area may vary.

また図7、図8の設定を同時に適用した場合、設定されるプレイエリアはカメラからの距離Zに対し四辺形の断面を有するような形状であったが、本実施の形態をそれに限る主旨ではなく、円筒形など任意の形状でよい。また光軸が水平方向にない場合、カメラからの距離Zは床面と水平でなくなる。このときプレイエリアの形状は、光軸方向の距離で定義してもよいし、実空間での水平方向の距離で定義してもよい。カメラの光軸と実空間の水平面とのなす角度を、撮像装置12に内蔵させた加速度センサなどにより計測すれば、座標変換は容易に実現できる。3次元空間での領域を設定するための具体的なデータ形式については、様々考えられることは当業者には理解されるところである。 When the settings of FIGS. 7 and 8 are applied at the same time, the set play area has a quadrilateral cross-section with respect to the distance Z from the camera. Any shape, such as a cylindrical shape, may be used. Also, if the optical axis is not horizontal, the distance Z from the camera is not horizontal to the floor. At this time, the shape of the play area may be defined by the distance in the optical axis direction or by the horizontal distance in real space. If the angle formed by the optical axis of the camera and the horizontal plane of the real space is measured by an acceleration sensor or the like incorporated in the imaging device 12, coordinate conversion can be easily realized. It is understood by those skilled in the art that various specific data formats for setting regions in a three-dimensional space can be considered.

一方で、プレイエリアに対応する領域を画像平面で規定することにより、プレイエリアを間接的に設定してもよい。図10は、画像平面におけるプレイエリアの設定手法を説明するための図である。同図は被写空間に対向するカメラの視野、ひいては撮影画像の平面を表しており、上段(a)が単眼カメラ、下段(b)がステレオカメラの場合である。単眼カメラの場合、撮影画像300の平面に対し、所定幅xを有する左右両端をマージン領域とし、それを除く領域302をプレイエリア対応領域として定義する。 On the other hand, the play area may be set indirectly by defining an area corresponding to the play area on the image plane. FIG. 10 is a diagram for explaining a play area setting method on the image plane. The figure shows the field of view of the camera facing the object space, and thus the plane of the photographed image. In the case of a monocular camera, the left and right ends having a predetermined width x with respect to the plane of the captured image 300 are defined as margin areas, and the area 302 other than the margin areas is defined as the play area corresponding area.

この領域302により規定される3次元空間での領域は、奥行き方向の距離Zに比例して水平方向の幅が増加する領域304である。すなわち水平方向に着目した場合、領域302を設定することにより、図8で示した垂直面186a、186bの内側をプレイエリアとして設定したことになる。このように画像平面上でプレイエリア対応領域302を設定した場合、実空間でのプレイエリアの断面は、距離Zに応じたサイズの相似形となるため、実空間に直接設定する場合と比較して設定形状の自由度が少なくなる。 A region in the three-dimensional space defined by this region 302 is a region 304 whose horizontal width increases in proportion to the distance Z in the depth direction. That is, when focusing on the horizontal direction, by setting the area 302, the inside of the vertical planes 186a and 186b shown in FIG. 8 is set as the play area. When the play area corresponding area 302 is set on the image plane in this way, the cross section of the play area in the real space becomes a similar shape with a size corresponding to the distance Z. , the degree of freedom of the setting shape is reduced.

一方、撮影画像上での像とプレイエリア対応領域302との内外判定により直接、警告の必要性を判定できるため、ユーザの位置情報を介するより誤差の生じる余地が少なくなる。図示する例は水平方向にマージン領域を設けた場合であったが、垂直方向にマージン領域を設ける場合も同様である。また上述と同様の理由により、マージン領域を設けるか否か、およびその幅xの調整を、方向によって独立に行ってよい。それらの要素をコンテンツの内容や状況に応じて変化させてもよい。 On the other hand, since it is possible to directly determine the necessity of warning by judging the inside/outside of the image on the captured image and the play area corresponding area 302, there is less room for error than through the user's position information. Although the illustrated example is the case where the margin area is provided in the horizontal direction, the same applies to the case where the margin area is provided in the vertical direction. For the same reason as described above, whether or not to provide a margin area and the adjustment of its width x may be performed independently depending on the direction. These elements may be changed according to the content or situation.

(b)で示したステレオカメラの場合、ユーザがカメラの視野の左端にいるか右端にいるかにより、先に視野から外れるカメラが異なる。例えばユーザがカメラの視野の右端近傍にいる場合、図示するように、右視点のカメラの画像306bにおける像308bより、左視点のカメラの画像306aにおける像308aの方が右端に近くなる。したがってこのままユーザが右方向に移動した場合、左視点のカメラの視野から先に外れることになる。ユーザがカメラの視野の左端近傍にいる場合は逆に、右視点のカメラの視野から先に外れる。 In the case of the stereo camera shown in (b), the camera that first leaves the field of view differs depending on whether the user is at the left end or the right end of the field of view of the camera. For example, when the user is near the right end of the field of view of the camera, the image 308a in the left viewpoint camera image 306a is closer to the right end than the image 308b in the right viewpoint camera image 306b. Therefore, if the user moves to the right as it is, it will first come out of the field of view of the left viewpoint camera. Conversely, when the user is near the left end of the field of view of the camera, the user first leaves the field of view of the right viewpoint camera.

したがってステレオカメラのどちらにも写るような視野内にプレイエリアを設定する場合、左視点のカメラの撮影画像平面における、右端の所定幅xのマージン領域を除く領域310aと、右視点のカメラの撮影画像平面における、左端の所定幅xのマージン領域を除く領域310bとを、プレイエリア対応領域として同時に設定する。そしてどちらかの画像において、ユーザの像がプレイエリア対応領域から出たことをもって、警告の必要性を判定する。 Therefore, when a play area is set within a field of view that can be captured by both stereo cameras, an area 310a excluding a margin area of a predetermined width x at the right end of the photographed image plane of the camera at the left viewpoint, and the photographing of the camera at the right viewpoint. At the same time, an area 310b on the image plane, excluding the margin area of the predetermined width x at the left end, is set as the play area corresponding area. Then, when the image of the user exits the play area corresponding area in one of the images, it is determined whether the warning is necessary.

図11は、警告状況判定部82が、警告が必要であると判定した際に生成される表示画面を例示している。表示画面200は、ゲーム画面などコンテンツの画像に警告を表す警告画像202を追加した構成を有する。警告画像202は図示する例では、「Out of play area」なる文字情報によりプレイエリアの外に出たことを表している。さらに危険を表すマークも含めることで緊急性を表現している。 FIG. 11 exemplifies a display screen generated when the warning status determination unit 82 determines that a warning is necessary. The display screen 200 has a configuration in which a warning image 202 representing a warning is added to a content image such as a game screen. In the illustrated example, the warning image 202 indicates that the player is out of the play area by text information "Out of play area". Furthermore, the urgency is expressed by including a mark representing danger.

ただし警告画像202の形態をこれに限る主旨ではなく、色や形状を工夫することで図形やマークのみで表したり、そのような図形やマークと文字情報を組み合わせたりしてもよい。また警告画像202をコンテンツごとに、あるいはその時点での表示の内容に応じて、変化させてもよい。ユーザに気づきを与える性質上、警告画像202はコンテンツの画像に重畳表示することを基本とする。一方で、コンテンツの画像が奥行き感を伴う仮想世界であった場合は特に、奥行き感のない部品画像が突然、目前に出現することにより、ユーザが驚いたり不快な気持ちになったりすることが考えられる。 However, the form of the warning image 202 is not limited to this, and by devising colors and shapes, it may be represented only by graphics or marks, or such graphics or marks may be combined with character information. Also, the warning image 202 may be changed for each content or according to the contents of the display at that time. The warning image 202 is basically displayed superimposed on the image of the content because of its nature of alerting the user. On the other hand, especially when the image of the content is a virtual world with a sense of depth, the sudden appearance of a part image without a sense of depth may cause the user to be surprised or feel uncomfortable. be done.

そこで図示するように警告画像202の周縁を、ブラー処理やαブレンディングなどによってぼかす。警告画像202全体を半透明としてもよい。これにより前面にありながらも背後に表現されている仮想世界との親和性を高められる。また突然視線を遮られた感覚を与えないよう、視点を避けた位置に警告画像202を表示することが望ましい。例えばユーザの視線に合わせて視野を変化させる表示形態では、必然的に視点が画面中央に固定されるため、画面中央から所定距離以上、離れた位置に表示する。 Therefore, as shown in the figure, the periphery of the warning image 202 is blurred by blur processing, α-blending, or the like. The entire warning image 202 may be translucent. This makes it possible to enhance affinity with the virtual world that is expressed in the background while being in the foreground. In addition, it is desirable to display the warning image 202 at a position away from the viewpoint so as not to give a feeling that the line of sight is suddenly blocked. For example, in a display mode in which the field of view changes according to the user's line of sight, the viewpoint is inevitably fixed at the center of the screen.

また人は目線を上げるより下げる方が楽に行えるため、表示形態によらず、画面の下半分の領域(上下方向の中心線Cより下の領域)に警告画像202を表示することにより、注視点をコンテンツの画像から無理なく移動させていくことができる。これらのことにより、突然出現した画像に目の焦点が合わず認識するのに時間を要したり、細かい眼球の動きにより酔ってしまったりするのも防止できる。 In addition, since it is easier for people to lower their eyes rather than raise them, the warning image 202 is displayed in the lower half area of the screen (the area below the center line C in the vertical direction) regardless of the display mode. can be moved from the content image without difficulty. As a result, it is possible to prevent the eyes from taking a long time to recognize an image that suddenly appears because the eyes are out of focus, and to prevent the person from becoming intoxicated due to minute movements of the eyeballs.

次にこれまで述べた構成によって実現できる、情報処理装置10の動作について説明する。図12は、本実施の形態において情報処理装置がユーザの動きに応じた出力データを生成する処理手順を示すフローチャートである。このフローチャートは、ユーザが入力装置14を介して情報処理装置10に処理の開始を要求したときなどに開始される。 Next, the operation of the information processing apparatus 10 that can be realized by the configuration described above will be described. FIG. 12 is a flow chart showing a processing procedure for the information processing apparatus to generate output data according to user's movement in the present embodiment. This flowchart is started, for example, when the user requests the information processing apparatus 10 to start processing via the input device 14 .

まず情報処理装置10の撮影画像取得部74は、撮像装置12に撮影の開始を要求し、それに応じて撮像装置12が撮影し出力した撮影画像のデータの取得を開始する(S10)。一方、警告状況判定部82は、エリア設定情報記憶部85からプレイエリアに係る設定情報を読み出す(S12)。このとき、ユーザが選択するなどした実施すべきコンテンツに対応づけられた設定情報を選択してもよい。また撮影画像を解析するなどしてユーザが着座しているか否かや、周囲の状況などを特定し、それらの情報によって設定情報を選択してもよい。 First, the photographed image acquisition unit 74 of the information processing device 10 requests the imaging device 12 to start photographing, and in response to the request, starts acquiring the data of the photographed image photographed and output by the imaging device 12 (S10). On the other hand, the warning condition determination unit 82 reads setting information related to the play area from the area setting information storage unit 85 (S12). At this time, the setting information associated with the content to be executed selected by the user or the like may be selected. It is also possible to identify whether or not the user is seated, the surrounding conditions, and the like by analyzing the captured image, and select the setting information based on such information.

次に情報処理部76は、撮影画像取得部74が取得したリアルタイムの撮影画像をHMD18に出力するように、出力データ生成部78に要求する。撮影画像をHMD18に表示させることにより、周囲に障害物がないかの確認をユーザに促す(S14、S16)。このとき出力データ生成部78は、「危ない物はありませんか?」といった文字情報と、ユーザが確認した旨を入力するためのGUI(Graphical User Interface)を撮影画像に重畳表示する。これによりユーザは事前にカメラの画角を認識できるため、プレイエリアと同等の領域を念頭に置いた動きができる。 Next, the information processing section 76 requests the output data generation section 78 to output the real-time captured image acquired by the captured image acquisition section 74 to the HMD 18 . By displaying the captured image on the HMD 18, the user is urged to check whether there are any obstacles in the surroundings (S14, S16). At this time, the output data generator 78 superimposes text information such as "Is there anything dangerous?" As a result, the user can recognize the angle of view of the camera in advance, so that the user can move while keeping in mind the area equivalent to the play area.

プレイエリアを知ることで自分の可動範囲が明確になり、周囲に存在する物が障害物となり得るかの判断も可能になる。ユーザが必要に応じて物を退かせたうえで、確認した旨の入力を行うことを条件に以後の処理を行うようにすれば、カメラの視野外への逸脱監視と同時に、障害物への衝突監視も行っていることになる。ユーザから確認の入力がない間は撮影画像を表示し続ける(S16のN、S14)。 Knowing the play area makes it possible to clarify the range of movement of one's own, and it is possible to judge whether the surrounding objects can be obstacles. If the user moves the object away as necessary and then performs the subsequent processing on the condition that he/she inputs confirmation, it will be possible to monitor deviations out of the field of view of the camera and at the same time detect obstacles. Collision monitoring is also carried out. As long as there is no confirmation input from the user, the captured image is kept displayed (N of S16, S14).

ユーザから確認の入力がなされたら(S16のY)、位置情報取得部80は、撮影画像に基づきユーザの位置情報の取得を開始する(S18)。そして当該情報を用いて情報処理部76が情報処理を行い、出力データ生成部78がその結果としてコンテンツの表示画像を描画する(S20)。一方、警告状況判定部82は、ユーザがプレイエリアを出たか否かを監視する(S22)。ユーザがプレイエリアから出たとする判定は、厳密にはユーザが装着しているHMD18、あるいはユーザが把持する入力装置14に設けたマーカーがプレイエリアから出たときに行う。 When the user inputs confirmation (Y of S16), the positional information acquisition unit 80 starts acquiring the user's positional information based on the captured image (S18). Then, the information processing section 76 performs information processing using the information, and the output data generation section 78 draws the display image of the content as a result (S20). On the other hand, the warning status determination section 82 monitors whether or not the user has left the play area (S22). Strictly speaking, it is determined that the user has left the play area when the HMD 18 worn by the user or the marker provided on the input device 14 held by the user has left the play area.

ただし当該判定の基準は、ユーザの位置情報取得手段によって様々であってよい。例えばステレオ画像におけるユーザの像自体からデプスマップを作成するなどして位置情報とする場合は、ユーザの重心がプレイエリアから出たときとしてもよい。輪郭線を追跡している場合も同様である。また顔検出処理などのパターンマッチングにより追跡している場合は、プレイエリア内で顔が認識されなくなったときなどでもよい。 However, the criteria for the determination may vary depending on the user's position information acquisition means. For example, when a depth map is created from the user's image itself in the stereo image and used as position information, the time when the center of gravity of the user leaves the play area may be used. The same is true when tracing contours. Also, when the face is tracked by pattern matching such as face detection processing, it may be when the face is no longer recognized in the play area.

ユーザがプレイエリアから出ていなければ(S22のN)、出力データ送信部86は、S20で描画されたコンテンツの画像をそのままHMD18に出力する(S26)。ユーザがプレイエリアから出た場合(S22のY)、警告状況判定部82が出力データ生成部78にその旨を通知することにより、出力データ生成部78がコンテンツの画像に警告画像を重畳させる(S24)。そして出力データ送信部86は、警告画像が重畳された画像をHMD18に出力する(S26)。なおS26の処理では、同時に音声のデータも出力してよい。 If the user has not left the play area (N of S22), the output data transmission unit 86 outputs the image of the content drawn in S20 to the HMD 18 as it is (S26). If the user has left the play area (Y in S22), the warning situation determination unit 82 notifies the output data generation unit 78 of that fact, and the output data generation unit 78 superimposes the warning image on the image of the content ( S24). Then, the output data transmission unit 86 outputs the image superimposed with the warning image to the HMD 18 (S26). In the process of S26, voice data may be output at the same time.

ユーザにより処理の停止要求があるなど処理を終了させる必要が生じない期間、位置情報に基づきコンテンツの画像を描画し、必要に応じて警告画像を重畳させてHMD18に出力する処理を、所定のレートで繰り返す(S28のN、S20~S26)。そして処理を終了させる必要が生じたら、全ての処理を終了させる(S28のY)。 During the period when there is no need to end the process, such as when there is a request to stop the process from the user, the content image is drawn based on the position information, and if necessary, the warning image is superimposed and output to the HMD 18. The process is performed at a predetermined rate. (N of S28, S20 to S26). Then, when it becomes necessary to terminate the processing, all the processing is terminated (Y of S28).

なお同図のフローチャートでは、ユーザがプレイエリア外にいる期間と、警告画像を重畳させている期間が一致している。すなわちユーザがプレイエリア内に戻ったことをきっかけに警告画像が非表示となる。一方、警告画像を非表示とする条件を、表示する条件と独立に設けてもよい。図13は、警告画像の表示/非表示の状態遷移を模式的に示している。まず警告画像が表示されていない状態から表示された状態とするときの判定基準はこれまで述べたように、ユーザがプレイエリアから出たこととする(右方向矢印)。 It should be noted that in the flowchart of the figure, the period during which the user is outside the play area coincides with the period during which the warning image is superimposed. That is, when the user returns to the play area, the warning image disappears. On the other hand, the condition for hiding the warning image may be provided independently of the condition for displaying the warning image. FIG. 13 schematically shows the display/non-display state transition of the warning image. First, as described above, the criterion for determining whether the warning image is displayed from a state in which the warning image is not displayed is that the user has left the play area (rightward arrow).

一方、警告画像が表示されている状態から表示されない状態とするときの判定基準は、プレイエリアに入ったことではなく、別途設定した条件を満たしたときとする(左方向矢印)。例えば、プレイエリアより狭い範囲として警告非表示エリアを設定しておき、当該エリアに入ったときに警告画像を非表示とする。あるいはプレイエリアに入ってから所定時間経過したときとする。このようにすることで、一旦、表示された警告は非表示とされにくくなる。結果として、ユーザがプレイエリアの境界近傍にいるときなどに、僅かな動きでプレイエリアに対する内外判定結果が切り替わり、警告が表示されたり消えたりを繰り消すチャタリングを防止できる。 On the other hand, the criterion for changing the warning image from the displayed state to the non-displayed state is not that the player has entered the play area, but that a separately set condition is satisfied (leftward arrow). For example, a warning non-display area is set as a range narrower than the play area, and the warning image is hidden when the player enters the area. Alternatively, it is assumed that a predetermined time has passed after entering the play area. By doing so, the once displayed warning is less likely to be hidden. As a result, when the user is in the vicinity of the boundary of the play area, chattering in which the inside/outside determination result for the play area is switched with a slight movement, and the warning repeatedly appears and disappears can be prevented.

以上述べた本実施の形態によれば、撮影画像における像に基づきユーザの位置情報を取得し、その結果を利用して情報処理を行うシステムにおいて、実世界の3次元空間にプレイエリアを設定し、ユーザが当該プレイエリアから出たときにその旨の警告を表示などでユーザに提示する。これによりユーザがHMDを装着して外界が見えなかったり、表示されている仮想世界に没頭したりして、いつの間にかカメラの視野から外れ、情報処理に破綻を来すことを防止できる。 According to the present embodiment described above, in a system that acquires position information of a user based on an image in a photographed image and performs information processing using the result, a play area is set in a three-dimensional space in the real world. , when the user leaves the play area, a warning to that effect is presented to the user by display or the like. This prevents the user from wearing the HMD and being unable to see the outside world or being immersed in the displayed virtual world, and unintentionally leaving the field of view of the camera and causing a breakdown in information processing.

ここでプレイエリアは、カメラの視野を基準として設定する。このときプレイエリアを、視野に対しマージン領域を見込んで内側に設定するか、視野と同一とするか、またマージン領域を見込む場合はその幅、といった要素を最適化する。このようにマージン領域を調整することは、警告なしに移動できる範囲を規定していると同時に、ユーザが視野外に出てしまい位置情報が取得できなくなる頻度、ひいては位置情報取得精度を調整していることに他ならない。そのため、多少の位置情報取得精度の悪化を犠牲にしても極力広い範囲の移動を許容するか、範囲を限定的としても位置情報取得精度を維持するか、といった優先順位と合致した設定が可能となる。 Here, the play area is set based on the field of view of the camera. At this time, factors such as whether the play area is set inside the field of view with the margin area in mind, or whether it is the same as the field of view, and when the margin area is in the area, are optimized. Adjusting the margin area in this way regulates the range in which the user can move without warning, and at the same time, adjusts the frequency at which position information cannot be obtained due to the user going out of the field of view, and thus the accuracy of position information acquisition. It's nothing but being there. Therefore, it is possible to make settings that match the priority, such as whether to allow movement in a wide range as much as possible even if it sacrifices some deterioration in the accuracy of location information acquisition, or to maintain the accuracy of location information acquisition even if the range is limited. Become.

このような優先順位は、カメラの水平/垂直画角、情報処理の内容、ユーザやその周囲の状況などに依存して変化するため、それぞれに対し設定を最適化することにより、位置情報の取得精度とユーザの快適性を両立させることができる。またプレイエリアの形状は特に限定されないため、形状やサイズを適切に設定すれば、カメラの視野からの逸脱防止以外に、ゲームなどのコンテンツから想定される移動量の適正値の遵守や、周囲の障害物への衝突回避など役割を同時に果たすことができる。 Such priority changes depending on the horizontal/vertical angle of view of the camera, the content of information processing, the user and their surroundings, and so on. Accuracy and user comfort can be balanced. Also, since there are no particular restrictions on the shape of the play area, if the shape and size are set appropriately, in addition to preventing deviance from the camera's field of view, compliance with the appropriate amount of movement assumed from content such as games, and the surrounding It can also play a role such as collision avoidance with obstacles at the same time.

警告を表示する際は、ゲーム画面など本来の表示画像上に、警告を表す部品画像を重畳表示する。このとき、周縁をぼかしたり半透明にしたりすることで、本来の表示画像との親和性を高め、突然、関連性のない画像が出現することによる違和感を少なくする。また、視点から所定の距離を設けたり画面の下半分の位置に表示させたりすることにより、視線が遮られることによる不快感や酔いの発生が抑制され、負担なく視線を合わせ、状況を認識させることができる。 When displaying the warning, the part image representing the warning is superimposed on the original display image such as the game screen. At this time, by blurring or making the peripheral edge semi-transparent, affinity with the original display image is enhanced, and discomfort due to the sudden appearance of an irrelevant image is reduced. In addition, by setting a predetermined distance from the point of view and displaying the image in the lower half of the screen, discomfort and motion sickness due to obstruction of the line of sight can be suppressed. be able to.

以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. It should be understood by those skilled in the art that the above embodiments are merely examples, and that various modifications can be made to combinations of each component and each treatment process, and that such modifications are within the scope of the present invention. be.

8 情報処理システム、 10 情報処理装置、 12 撮像装置、 14 入力装置、 16 平板型ディスプレイ、 18 HMD、 22 CPU、 24 GPU、 26 メインメモリ、 72 入力情報取得部、 74 撮影画像取得部、 76 情報処理部、 78 出力データ生成部、 80 位置情報取得部、 82 警告状況判定部、 85 エリア設定情報記憶部、 86 出力データ送信部。 8 information processing system, 10 information processing device, 12 imaging device, 14 input device, 16 flat panel display, 18 HMD, 22 CPU, 24 GPU, 26 main memory, 72 input information acquisition unit, 74 captured image acquisition unit, 76 information Processing unit 78 Output data generation unit 80 Location information acquisition unit 82 Warning status determination unit 85 Area setting information storage unit 86 Output data transmission unit.

Claims (17)

実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行う情報処理部と、
前記情報処理の結果として表示すべき画像のデータを生成する画像生成部と、
状況に応じて形状を変化させたプレイエリアに基づいてユーザへの警告の必要性を判定し、前記画像生成部に警告画像を重畳させる警告状況判定部と、
前記画像生成部が生成した画像のデータを表示装置に出力する出力部と、
を備えることを特徴とする情報処理装置。
an information processing unit that detects the position of an object in real space and performs information processing based on the object;
an image generation unit that generates image data to be displayed as a result of the information processing;
a warning situation determination unit that determines the necessity of warning the user based on the play area whose shape is changed according to the situation, and superimposes a warning image on the image generation unit;
an output unit that outputs image data generated by the image generation unit to a display device;
An information processing device comprising:
前記警告状況判定部は、コンテンツの内容に応じて前記プレイエリアの形状を変化させることを特徴とする請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein the warning situation determination section changes the shape of the play area according to content. 前記警告状況判定部は、実空間の環境に応じて前記プレイエリアの形状を変化させることを特徴とする請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein the warning situation determination section changes the shape of the play area according to the environment of the real space. 前記警告状況判定部は、ユーザの姿勢状況に応じて前記プレイエリアの形状を変化させることを特徴とする請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein the warning state determination unit changes the shape of the play area according to the posture state of the user. 前記警告状況判定部は、互いに平行な2つの垂直面を境界に含む前記プレイエリアを設定することを特徴とする請求項1から4のいずれかに記載の情報処理装置。 5. The information processing apparatus according to any one of claims 1 to 4, wherein the warning situation determination unit sets the play area including two parallel vertical planes as boundaries. 前記警告状況判定部は、前記対象物を検出するための撮像装置からの距離に対し四辺形の断面を有する形状の前記プレイエリアを設定することを特徴とする請求項1から5のいずれかに記載の情報処理装置。 6. Any one of claims 1 to 5, wherein the warning situation determination unit sets the play area in a shape having a quadrilateral cross-section with respect to a distance from an imaging device for detecting the object. The information processing device described. 前記警告状況判定部は、前記プレイエリアの外に前記対象物が出る際にユーザへの警告が必要と判定することを特徴とする請求項1から6のいずれかに記載の情報処理装置。 7. The information processing apparatus according to any one of claims 1 to 6, wherein the warning condition determination unit determines that a warning to the user is necessary when the object moves out of the play area. 前記出力部は、障害物がないかの確認をユーザに促す確認画面を前記表示装置に出力し、当該確認画面にリアルタイムの撮影画像を含めることを特徴とする請求項1から7のいずれかに記載の情報処理装置。 8. The output unit according to any one of claims 1 to 7, wherein the output unit outputs to the display device a confirmation screen prompting the user to confirm whether or not there is an obstacle, and the confirmation screen includes a real-time photographed image. The information processing device described. 前記警告状況判定部は、前記対象物を検出するための撮像装置を構成するステレオカメラが撮影したステレオ画像に基づき、前記対象物の、光軸方向の距離を取得することを特徴とする請求項1から8のいずれかに記載の情報処理装置。 3. The warning situation determination unit acquires the distance of the object in the optical axis direction based on a stereo image captured by a stereo camera that constitutes an imaging device for detecting the object. 9. The information processing device according to any one of 1 to 8. 前記ステレオカメラの光軸方向は実空間の水平方向にないことを特徴とする請求項9に記載の情報処理装置。 10. An information processing apparatus according to claim 9, wherein the optical axis direction of said stereo camera is not in the horizontal direction of real space. 前記警告状況判定部は、前記撮像装置の光軸が実空間の水平方向にない場合、当該光軸方向の距離に対し前記プレイエリアの形状を定義することにより、前記プレイエリアと前記対象物との位置関係を取得することを特徴とする請求項9または10に記載の情報処理装置。 When the optical axis of the imaging device is not in the horizontal direction of the real space, the warning situation determination unit defines the shape of the play area with respect to the distance in the optical axis direction, thereby determining the distance between the play area and the object. 11. The information processing apparatus according to claim 9 or 10, wherein the positional relationship of is acquired. 前記警告状況判定部は、実空間の水平方向の距離に対し前記プレイエリアの形状を定義し、前記撮像装置の光軸が前記水平方向にない場合、前記光軸と前記水平方向とのなす角度の計測値に基づく座標変換により、前記プレイエリアと前記対象物との位置関係を取得することを特徴とする請求項9または10に記載の情報処理装置。 The warning situation determination unit defines the shape of the play area with respect to the horizontal distance in real space, and if the optical axis of the imaging device is not in the horizontal direction, the angle formed by the optical axis and the horizontal direction 11. The information processing apparatus according to claim 9, wherein the positional relationship between the play area and the object is obtained by coordinate transformation based on the measured value of . 前記警告状況判定部は、前記対象物を検出するための撮像装置による撮影画像平面で前記プレイエリアに対応する領域を規定したうえ、当該撮影画像上での前記対象物の像の位置に基づき前記警告の必要性を判定することを特徴とする請求項1に記載の情報処理装置。 The warning situation determination unit prescribes an area corresponding to the play area on a plane of an image captured by an imaging device for detecting the object, and determines the position of the image of the object on the captured image. 2. The information processing apparatus according to claim 1, wherein the necessity of warning is determined. 前記警告状況判定部は、前記撮像装置を構成するステレオカメラの双方に写る空間に対応する領域を、当該ステレオカメラが撮影するステレオ画像のそれぞれに設定することにより、どちらか一方の画像において前記対象物の像が設定領域から出たことをもって、前記警告の必要があると判定することを特徴とする請求項13に記載の情報処理装置。 The warning situation determination unit sets an area corresponding to a space captured by both stereo cameras constituting the imaging device in each of the stereo images captured by the stereo cameras, so that the object is detected in either one of the images. 14. The information processing apparatus according to claim 13, wherein it is determined that said warning is necessary when the image of the object has left the set area. 前記警告状況判定部は、前記対象物を検出するための撮像装置を構成するステレオカメラの画角の積集合の境界面を基準として、前記プレイエリアの境界面を設定することを特徴とする請求項1に記載の情報処理装置。 The warning situation determination unit sets the boundary plane of the play area with reference to a boundary plane of intersections of angles of view of stereo cameras constituting an imaging device for detecting the object. Item 1. The information processing apparatus according to item 1. 実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行うステップと、
前記情報処理の結果として表示すべき画像のデータを生成するステップと、
状況に応じて形状を変化させたプレイエリアに基づいてユーザへの警告の必要性を判定するステップと、
前記判定に応じて前記表示すべき画像に警告画像を重畳するステップと、
生成された画像のデータを表示装置に出力するステップと、
を含むことを特徴とする、情報処理装置による警告提示方法。
detecting the position of an object in real space and performing information processing based on the object;
generating image data to be displayed as a result of the information processing;
determining the necessity of warning the user based on the play area whose shape is changed according to the situation;
superimposing a warning image on the image to be displayed according to the determination;
outputting data of the generated image to a display device;
A warning presentation method by an information processing device, comprising:
実空間における対象物の位置を検出し当該対象物に基づき情報処理を行う機能と、
前記情報処理の結果として表示すべき画像のデータを生成する機能と、
状況に応じて形状を変化させたプレイエリアに基づいてユーザへの警告の必要性を判定し、前記画像のデータを生成する機能にその旨を通知することにより警告画像を重畳させる機能と、
生成された画像のデータを表示装置に出力する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
A function of detecting the position of an object in real space and performing information processing based on the object;
a function of generating image data to be displayed as a result of the information processing;
A function of judging the necessity of a warning to the user based on the play area whose shape is changed according to the situation, and superimposing a warning image by notifying the function of generating data of the image to that effect;
a function of outputting data of the generated image to a display device;
A computer program characterized by causing a computer to implement
JP2022084313A 2019-11-28 2022-05-24 Information processing device and warning presentation method Active JP7481395B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022084313A JP7481395B2 (en) 2019-11-28 2022-05-24 Information processing device and warning presentation method
JP2024033525A JP2024061769A (en) 2019-11-28 2024-03-06 Information processor and warning presentation method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019214957A JP6867464B2 (en) 2019-11-28 2019-11-28 Information processing device and warning presentation method
JP2021065802A JP7080373B2 (en) 2019-11-28 2021-04-08 Information processing device and warning presentation method
JP2022084313A JP7481395B2 (en) 2019-11-28 2022-05-24 Information processing device and warning presentation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021065802A Division JP7080373B2 (en) 2019-11-28 2021-04-08 Information processing device and warning presentation method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024033525A Division JP2024061769A (en) 2019-11-28 2024-03-06 Information processor and warning presentation method

Publications (2)

Publication Number Publication Date
JP2022111143A true JP2022111143A (en) 2022-07-29
JP7481395B2 JP7481395B2 (en) 2024-05-10

Family

ID=70107459

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2019214957A Active JP6867464B2 (en) 2019-11-28 2019-11-28 Information processing device and warning presentation method
JP2021065802A Active JP7080373B2 (en) 2019-11-28 2021-04-08 Information processing device and warning presentation method
JP2022084313A Active JP7481395B2 (en) 2019-11-28 2022-05-24 Information processing device and warning presentation method
JP2024033525A Pending JP2024061769A (en) 2019-11-28 2024-03-06 Information processor and warning presentation method

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2019214957A Active JP6867464B2 (en) 2019-11-28 2019-11-28 Information processing device and warning presentation method
JP2021065802A Active JP7080373B2 (en) 2019-11-28 2021-04-08 Information processing device and warning presentation method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024033525A Pending JP2024061769A (en) 2019-11-28 2024-03-06 Information processor and warning presentation method

Country Status (1)

Country Link
JP (4) JP6867464B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023114237A (en) * 2022-02-04 2023-08-17 株式会社ソニー・インタラクティブエンタテインメント Information processing device and information processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165848A (en) * 2003-12-04 2005-06-23 Canon Inc Method and device for presenting augmented reality
US20150094142A1 (en) * 2013-09-30 2015-04-02 Sony Computer Entertainment Inc. Camera based safety mechanisms for users of head mounted displays

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156561A (en) * 2005-11-30 2007-06-21 Canon Inc Augmented reality presenting method and system
JP2013164737A (en) 2012-02-10 2013-08-22 Nec Corp Obstacle alarm display system, information processor, obstacle alarm display method, and obstacle alarm display program
JP6209825B2 (en) 2013-02-15 2017-10-11 株式会社リコー Parallax detection device and parallax detection method
JP6237000B2 (en) * 2013-08-29 2017-11-29 セイコーエプソン株式会社 Head-mounted display device
JP2015116336A (en) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション Mixed-reality arena
JP6039594B2 (en) * 2014-02-20 2016-12-07 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and information processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165848A (en) * 2003-12-04 2005-06-23 Canon Inc Method and device for presenting augmented reality
US20150094142A1 (en) * 2013-09-30 2015-04-02 Sony Computer Entertainment Inc. Camera based safety mechanisms for users of head mounted displays

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"ひと味違う体験が可能〜「WiiSportsの裏技集」", HATENA BLOG, JPN7023002611, 10 December 2006 (2006-12-10), JP, ISSN: 0005217264 *

Also Published As

Publication number Publication date
JP7080373B2 (en) 2022-06-03
JP2024061769A (en) 2024-05-08
JP2021114310A (en) 2021-08-05
JP2020057400A (en) 2020-04-09
JP6867464B2 (en) 2021-04-28
JP7481395B2 (en) 2024-05-10

Similar Documents

Publication Publication Date Title
JP6363587B2 (en) Information processing apparatus and warning presenting method
CN108885799B (en) Information processing apparatus, information processing system, and information processing method
US11865448B2 (en) Information processing apparatus and user guide presentation method
US20170324899A1 (en) Image pickup apparatus, head-mounted display apparatus, information processing system and information processing method
JP7085578B2 (en) Information processing device, user guide presentation method, and head-mounted display
JP2024061769A (en) Information processor and warning presentation method
JP6634654B2 (en) Information processing apparatus and warning presentation method
EP4206867A1 (en) Peripheral tracking system and method
JP2023178093A (en) Display unit, control method, and program
JP2023096844A (en) Program, information processing method, and information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240306

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240425

R150 Certificate of patent or registration of utility model

Ref document number: 7481395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150