JP2024061769A - Information processor and warning presentation method - Google Patents

Information processor and warning presentation method Download PDF

Info

Publication number
JP2024061769A
JP2024061769A JP2024033525A JP2024033525A JP2024061769A JP 2024061769 A JP2024061769 A JP 2024061769A JP 2024033525 A JP2024033525 A JP 2024033525A JP 2024033525 A JP2024033525 A JP 2024033525A JP 2024061769 A JP2024061769 A JP 2024061769A
Authority
JP
Japan
Prior art keywords
image
warning
information processing
play area
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024033525A
Other languages
Japanese (ja)
Inventor
渉一 池上
Shoichi Ikegami
祐志 中村
Yuji Nakamura
善彦 諏訪
Yoshihiko Suwa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2024033525A priority Critical patent/JP2024061769A/en
Publication of JP2024061769A publication Critical patent/JP2024061769A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an information processor and a warning presentation method capable of presenting images free from restriction by an HMD (head mounted display) due to actual restriction conditions.SOLUTION: In an actual space including a user 120, the information processor sets a boundary of a play area 184 using boundaries 182a and 182b in a field of vision through an imaging apparatus 12 according to a predetermined rule. When the user gets out of the play area 184, a warning situation determination part determines that warning situation has occurred and superimpose a warning image over a display image. The information processor determines whether to set a margin area between the boundaries 182a and 182b in the field of vision and the boundary of the play area 184, or whether to change the width of the margin area depending on the direction and a situation in the actual space.SELECTED DRAWING: Figure 7

Description

本発明は、撮影画像に基づき情報処理を行う情報処理装置および、それが行う警告提示方法に関する。 The present invention relates to an information processing device that processes information based on captured images and a method for presenting a warning performed by the information processing device.

ゲーム機に接続されたヘッドマウントディスプレイ(以下、「HMD」と呼ぶ)を頭部に装着して、表示された画面を見ながらゲームプレイすることが行われている(例えば特許文献1参照)。例えばユーザの頭部の位置や姿勢を取得し、顔の向きに応じて視野を変化させるように仮想世界の画像を表示すれば、あたかも仮想世界に入り込んだような状況を演出できる。ユーザの位置や姿勢は一般的に、ユーザを撮影した可視光や赤外線の画像の解析結果や、HMDに内蔵したモーションセンサの計測値などに基づいて取得される。 Players wear a head-mounted display (hereafter referred to as "HMD") connected to a game console on their head and play games while looking at the displayed screen (see, for example, Patent Document 1). For example, by acquiring the position and posture of the user's head and displaying an image of the virtual world so that the field of view changes according to the direction of the user's face, it is possible to create a situation in which the user feels as if they have entered the virtual world. The user's position and posture are generally acquired based on the results of analysis of visible light or infrared images taken of the user, or measurements from a motion sensor built into the HMD.

特許第5580855号明細書Patent No. 5580855

撮影画像に基づき何らかの情報処理を行う技術は、ユーザなどの対象物がカメラの画角内にいることを前提としている。しかしながらHMDを装着した状態では、ユーザは外界を見ることができないため、方向感覚を失ったり、ゲームに没頭するあまり実空間で思わぬ位置に移動していたりすることがあり得る。これによりカメラの画角から外れると、情報処理が破綻したり精度が悪化したりするうえ、ユーザ自身がその原因に気づかないことも考えられる。カメラとの位置関係など現実世界の事情をユーザに意識させるほど情報処理の精度を保てるが、同時にHMDを利用し構築される仮想空間の世界観を阻害しやすくなる、というジレンマが生じる。 Technology that performs some kind of information processing based on captured images assumes that the user or other subject is within the camera's field of view. However, when wearing an HMD, the user cannot see the outside world, and so may lose their sense of direction or become so engrossed in the game that they move to an unexpected location in real space. As a result, if the user moves out of the camera's field of view, information processing may break down or its accuracy may deteriorate, and the user himself may not even realize the cause. The more the user is made aware of real-world circumstances, such as their position relative to the camera, the higher the accuracy of information processing can be maintained, but at the same time, a dilemma arises in that it is more likely to interfere with the worldview of the virtual space constructed using the HMD.

本発明はこうした課題に鑑みてなされたものであり、その目的は、HMDで実現される娯楽性と情報処理の精度のバランスを最適化できる技術を提供することにある。 The present invention was made in consideration of these issues, and its purpose is to provide technology that can optimize the balance between the entertainment value and information processing accuracy achieved by an HMD.

本発明のある態様は情報処理装置に関する。この情報処理装置は、撮像装置による撮影画像に基づき実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行う情報処理部と、情報処理の結果として表示すべき画像のデータを生成する画像生成部と、撮影画像を解析して取得した実空間の状況に応じて、当該撮像装置の視野に対する設定規則を変化させてプレイエリアを設定したうえ、当該プレイエリアに基づいてユーザへの警告の必要性を判定し、画像生成部に警告画像を重畳させる警告状況判定部と、画像生成部が生成した画像のデータを表示装置に出力する出力部と、を備えることを特徴とする。 One aspect of the present invention relates to an information processing device. This information processing device is characterized by comprising: an information processing unit that detects the position of an object in real space based on an image captured by an imaging device and performs information processing based on the object; an image generation unit that generates image data to be displayed as a result of the information processing; a warning status determination unit that sets a play area by changing the setting rules for the field of view of the imaging device according to the situation in real space acquired by analyzing the captured image, and determines the need for a warning to the user based on the play area and superimposes a warning image on the image generation unit; and an output unit that outputs the image data generated by the image generation unit to a display device.

本発明のさらに別の態様は警告提示方法に関する。この警告提示方法は情報処理装置が、撮像装置による撮影画像に基づき実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行うステップと、情報処理の結果として表示すべき画像のデータを生成するステップと、前記撮影画像を解析して取得した実空間の状況に応じて、当該撮像装置の視野に対する設定規則を変化させてプレイエリアを設定したうえ、当該プレイエリアに基づいてユーザへの警告の必要性を判定するステップと、判定に応じて表示すべき画像に警告画像を重畳するステップと、生成された画像のデータを表示装置に出力するステップと、を含むことを特徴とする。 Yet another aspect of the present invention relates to a method for presenting a warning, characterized in that the method includes a step in which an information processing device detects the position of an object in real space based on an image captured by an imaging device, and performs information processing based on the object, a step in which an information processing device generates data of an image to be displayed as a result of the information processing, a step in which a play area is set by changing the setting rules for the field of view of the imaging device according to the situation of the real space obtained by analyzing the captured image, and a step in which a need for a warning to the user is determined based on the play area, a step in which a warning image is superimposed on the image to be displayed according to the determination, and a step in which the data of the generated image is output to a display device.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。 In addition, any combination of the above components, and any conversion between the expression of the present invention as a method, device, system, computer program, recording medium on which a computer program is recorded, etc., are also valid aspects of the present invention.

本発明によると、HMDを装着したユーザが、現実世界での拘束条件をできるだけ意識することなく表現世界を楽しむことができる。 This invention allows users wearing an HMD to enjoy the representational world without being conscious of constraints in the real world as much as possible.

本実施の形態を適用できる情報処理システムの構成例を示す図である。1 is a diagram illustrating an example of the configuration of an information processing system to which the present embodiment can be applied. 本実施の形態におけるHMDの外観形状の例を示す図である。1A to 1C are diagrams illustrating examples of the external shape of an HMD according to an embodiment of the present invention. 本実施の形態における情報処理装置の内部回路構成を示す図である。1 is a diagram showing an internal circuit configuration of an information processing device according to an embodiment of the present invention; 本実施の形態におけるHMDの内部回路構成を示す図である。2 is a diagram showing an internal circuit configuration of an HMD according to the present embodiment. 本実施の形態における情報処理装置の機能ブロックの構成を示す図である。1 is a diagram showing a functional block configuration of an information processing device according to an embodiment of the present invention; 本実施の形態において撮影画像から取得できる情報を説明するための図である。1 is a diagram for explaining information that can be acquired from a captured image in the present embodiment. FIG. 本実施の形態における警告状況判定部が警告の必要性を判定するときに参照する、プレイエリアの設定例を模式的に示す図である。10 is a diagram showing a schematic example of a setting of a play area that is referred to when a warning status determination unit in the present embodiment determines the need for a warning. FIG. 本実施の形態におけるプレイエリアの設定の別の例を模式的に示す図である。FIG. 13 is a diagram showing a schematic diagram of another example of the setting of the play area in the present embodiment. 本実施の形態においてマージン領域の有無による処理への影響を説明するための図である。11A and 11B are diagrams for explaining the effect of the presence or absence of a margin area on processing in the present embodiment. 本実施の形態において画像平面におけるプレイエリアの設定手法を説明するための図である。11 is a diagram for explaining a method for setting a play area on an image plane in the present embodiment. FIG. 本実施の形態において、警告が必要であると判定した際に生成される表示画面を例示する図である。11 is a diagram illustrating an example of a display screen that is generated when it is determined that a warning is necessary in the present embodiment. FIG. 本実施の形態において情報処理装置がユーザの動きに応じた出力データを生成する処理手順を示すフローチャートである。10 is a flowchart showing a processing procedure in which the information processing device generates output data according to a user's movement in the present embodiment. 本実施の形態における警告画像の表示/非表示の状態遷移を模式的に示す図である。11A and 11B are diagrams showing a schematic diagram of a state transition between display and non-display of a warning image in the present embodiment.

図1は本実施の形態を適用できる情報処理システムの構成例を示す。情報処理システム8は、対象物を撮影する撮像装置12、撮影した画像に基づき情報処理を行う情報処理装置10、情報処理の結果として得られた画像を表示する平板型ディスプレイ16およびHMD18、ユーザが操作する入力装置14を含む。 Figure 1 shows an example of the configuration of an information processing system to which this embodiment can be applied. The information processing system 8 includes an imaging device 12 that captures an image of an object, an information processing device 10 that processes information based on the captured image, a flat panel display 16 and an HMD 18 that display an image obtained as a result of the information processing, and an input device 14 that is operated by a user.

情報処理装置10と、撮像装置12、入力装置14、平板型ディスプレイ16、HMD18とは、有線ケーブルで接続されても、Bluetooth(登録商標)など既知の無線通信技術により接続されてもよい。また情報処理装置10が実施する情報処理によっては、平板型ディスプレイ16はなくてもよい。またこれらの装置の外観形状は図示するものに限らない。さらにこれらのうち2つ以上の装置を一体的に備えた装置としてもよい。例えば情報処理装置10、入力装置14、平板型ディスプレイ16を、それらを備えた携帯端末などで実現してもよい。 The information processing device 10, the imaging device 12, the input device 14, the flat display 16, and the HMD 18 may be connected by wired cables or by known wireless communication technology such as Bluetooth (registered trademark). Depending on the information processing performed by the information processing device 10, the flat display 16 may not be required. The external shapes of these devices are not limited to those shown in the figures. Furthermore, a device may be provided that includes two or more of these devices in an integrated manner. For example, the information processing device 10, the input device 14, and the flat display 16 may be realized by a mobile terminal that includes them.

撮像装置12は、ユーザなどの対象物を所定のフレームレートで撮影するカメラと、その出力信号にデモザイク処理など一般的な処理を施すことにより撮影画像の出力データを生成し、情報処理装置10に送出する機構とを有する。カメラはCCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなど、一般的なデジタルカメラ、デジタルビデオカメラで利用されている可視光センサを備える。撮像装置12が備えるカメラは1つのみでもよいし、図示するように2つのカメラを既知の間隔で左右に配置したいわゆるステレオカメラでもよい。 The imaging device 12 has a camera that captures images of a subject, such as a user, at a predetermined frame rate, and a mechanism that generates output data of the captured image by performing general processing, such as demosaic processing, on the output signal, and sends the data to the information processing device 10. The camera has a visible light sensor such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor, which is used in general digital cameras and digital video cameras. The imaging device 12 may have only one camera, or may be a so-called stereo camera in which two cameras are placed left and right at a known distance as shown in the figure.

あるいは単眼のカメラと、赤外線などの参照光を対象物に照射しその反射光を測定する装置との組み合わせで撮像装置12を構成してもよい。ステレオカメラや反射光の測定機構を導入した場合、対象物の位置を3次元の実空間に対し求めることができ、情報処理装置10による情報処理や表示装置による画像表示をより多様化させることができる。ステレオカメラが左右の視点から撮影したステレオ画像を用いて、三角測量の原理により被写体のカメラからの距離を特定する手法、反射光の測定によりTOF(Time of Flight)やパターン照射の方式で被写体のカメラからの距離を特定する手法はいずれも広く知られている。 Alternatively, the imaging device 12 may be configured by combining a monocular camera with a device that irradiates an object with reference light such as infrared light and measures the reflected light. When a stereo camera or a mechanism for measuring reflected light is introduced, the position of the object can be found in three-dimensional real space, which can further diversify the information processing by the information processing device 10 and the image display by the display device. Both the method of determining the distance of the object from the camera based on the principle of triangulation using stereo images taken from left and right viewpoints by a stereo camera, and the method of determining the distance of the object from the camera using the Time of Flight (TOF) or pattern irradiation method by measuring reflected light are widely known.

以後では主に、撮像装置12がステレオ画像を撮影する態様について説明するが、上記のとおり本実施の形態をそれに限る主旨ではなく、撮像装置12には少なくとも一つのカメラが含まれていればよい。情報処理装置10は、撮像装置12から送信されたデータを用いて必要な情報処理を行い、画像や音声などの出力データを生成する。ここで情報処理装置10が行う処理の内容は特に限定されず、ユーザが求める機能やアプリケーションの内容などによって適宜決定してよい。 The following mainly describes the manner in which the imaging device 12 captures stereo images, but as mentioned above, this is not the intent of the present embodiment being limited to this, and the imaging device 12 only needs to include at least one camera. The information processing device 10 performs the necessary information processing using the data transmitted from the imaging device 12, and generates output data such as images and audio. The content of the processing performed by the information processing device 10 here is not particularly limited, and may be determined as appropriate depending on the functions and application content desired by the user, etc.

情報処理装置10は例えば、撮影画像に対し一般的な顔検出や追跡処理を施すことにより、対象物であるユーザの動作を反映させたキャラクタが登場するゲームを進捗させたり、ユーザの動きをコマンド入力に変換して情報処理を行ったりする。このとき入力装置14に設けたマーカーを利用して入力装置14の動きを取得してもよい。またHMD18の外面に設けた複数のマーカーを追跡することにより、HMD18を装着したユーザの頭部の位置や姿勢を特定し、それに対応して動く視点から見た仮想世界をHMD18に表示させてもよい。情報処理装置10が生成した出力データは、少なくともHMD18に送信される。 For example, the information processing device 10 performs general face detection and tracking processing on the captured image to progress a game in which a character reflects the movements of the target user appears, or converts the user's movements into command inputs to process information. At this time, markers provided on the input device 14 may be used to obtain the movements of the input device 14. In addition, by tracking multiple markers provided on the outer surface of the HMD 18, the position and posture of the head of the user wearing the HMD 18 may be identified, and the virtual world viewed from a viewpoint that moves accordingly may be displayed on the HMD 18. The output data generated by the information processing device 10 is transmitted to at least the HMD 18.

HMD18は、ユーザが頭に装着することによりその眼前に位置する有機ELパネルなどの表示パネルに画像を表示する表示装置である。例えば左右の視点から見た視差画像を生成し、表示画面を2分割してなる左右の領域にそれぞれ表示させることにより、画像を立体視させてもよい。ただし本実施の形態をこれに限る主旨ではなく、表示画面全体に1つの画像を表示させてもよい。HMD18はさらに、ユーザの耳に対応する位置に音声を出力するスピーカーやイヤホンを内蔵していてもよい。 HMD18 is a display device that displays images on a display panel, such as an organic EL panel, located in front of the user's eyes when worn on the user's head. For example, parallax images viewed from left and right viewpoints may be generated and displayed in the left and right areas that are formed by dividing the display screen into two, allowing the image to be viewed in stereoscopic form. However, this is not intended to be a limitation of the present embodiment, and a single image may be displayed on the entire display screen. HMD18 may also have built-in speakers or earphones that output sound to positions corresponding to the user's ears.

平板型ディスプレイ16は、2次元の画像を出力するディスプレイおよび音声を出力するスピーカーを有するテレビでよく、例えば液晶テレビ、有機ELテレビ、プラズマテレビ、PCディスプレイ等である。あるいはタブレット端末や携帯端末のディスプレイおよびスピーカーであってもよい。入力装置14は、ユーザが操作することにより、処理の開始、終了、機能の選択、各種コマンド入力などの要求を受け付け、情報処理装置10に電気信号として供給する。 The flat panel display 16 may be a television having a display that outputs two-dimensional images and a speaker that outputs sound, such as an LCD television, an OLED television, a plasma television, or a PC display. It may also be the display and speaker of a tablet terminal or a mobile terminal. The input device 14 is operated by the user to receive requests such as starting and ending processing, selecting functions, and inputting various commands, and supplies these as electrical signals to the information processing device 10.

入力装置14は、ゲームコントローラ、キーボード、マウス、ジョイスティック、平板型ディスプレイ16の表示画面上に設けたタッチパッドなど、一般的な入力装置のいずれか、またはそれらの組み合わせによって実現してよい。入力装置14はさらに、所定の色で発光する素子またはその集合からなる発光マーカーを備えていてもよい。この場合、情報処理装置10がマーカーの動きを、撮影画像を用いて追跡することにより、入力装置14自体の動きをユーザ操作とすることができる。なお入力装置14を、発光マーカーとそれを把持する機構のみで構成してもよい。 The input device 14 may be any of the common input devices, such as a game controller, a keyboard, a mouse, a joystick, a touchpad provided on the display screen of the flat panel display 16, or a combination of these. The input device 14 may further include a light-emitting marker consisting of an element or a collection of elements that emit light in a predetermined color. In this case, the information processing device 10 can track the movement of the marker using the captured image, thereby making the movement of the input device 14 itself a user operation. The input device 14 may also be composed of only a light-emitting marker and a mechanism for holding it.

図2はHMD18の外観形状の例を示している。この例においてHMD18は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。装着バンド106は各ユーザの頭囲に合わせて長さの調節が可能な素材または構造とする。例えばゴムなどの弾性体としてもよいし、バックルや歯車などを利用してもよい。 Figure 2 shows an example of the external shape of the HMD 18. In this example, the HMD 18 is composed of an output mechanism 102 and a wearing mechanism 104. The wearing mechanism 104 includes a wearing band 106 that goes around the head when worn by the user, securing the device in place. The wearing band 106 is made of a material or has a structure that allows the length of the band to be adjusted to fit the head circumference of each user. For example, it may be made of an elastic material such as rubber, or a buckle or gears may be used.

出力機構部102は、HMD18をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。そして筐体108の外面には、発光マーカー110a、110b、110c、110d、などを設ける。発光マーカーの数や配置は特に限定されないが、本実施の形態では出力機構部102の筐体前面の4隅に設ける。 The output mechanism unit 102 includes a housing 108 shaped to cover the left and right eyes when the user wears the HMD 18, and has a display panel inside that faces the eyes when worn. Light-emitting markers 110a, 110b, 110c, 110d, etc. are provided on the outer surface of the housing 108. There are no particular limitations on the number or placement of the light-emitting markers, but in this embodiment, they are provided at the four corners of the front of the housing of the output mechanism unit 102.

さらに、装着バンド106後方の両側面にも発光マーカー110e、110fを設ける。このように発光マーカーを配置することにより、撮像装置12に対しユーザが横を向いたり後ろを向いたりしても、撮影画像における発光マーカーの像の数や位置に基づきそれらの状況を特定できる。なお発光マーカー110c、110dは出力機構部102の下側、発光マーカー110e、110fは装着バンド106の外側にあり、図2の視点からは本来は見えないため、外周を点線で表している。 Furthermore, light-emitting markers 110e, 110f are provided on both sides of the rear of the attachment band 106. By arranging the light-emitting markers in this manner, even if the user faces sideways or backwards with respect to the imaging device 12, the situation can be identified based on the number and positions of the images of the light-emitting markers in the captured image. Note that light-emitting markers 110c, 110d are located below the output mechanism unit 102, and light-emitting markers 110e, 110f are located outside the attachment band 106. Since they are not actually visible from the viewpoint of Figure 2, their outer circumferences are shown by dotted lines.

図3は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)22、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、平板型ディスプレイ16やHMD18へデータを出力する出力部36、撮像装置12、入力装置14、およびHMD18からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。 Figure 3 shows the internal circuit configuration of the information processing device 10. The information processing device 10 includes a CPU (Central Processing Unit) 22, a GPU (Graphics Processing Unit) 24, and a main memory 26. These components are connected to each other via a bus 30. An input/output interface 28 is also connected to the bus 30. To the input/output interface 28, a communication unit 32 consisting of a peripheral device interface such as USB or IEEE 1394 or a network interface for a wired or wireless LAN, a storage unit 34 such as a hard disk drive or non-volatile memory, an output unit 36 that outputs data to the flat panel display 16 or HMD 18, an input unit 38 that inputs data from the imaging device 12, the input device 14, and the HMD 18, and a recording medium drive unit 40 that drives a removable recording medium such as a magnetic disk, an optical disk, or a semiconductor memory are connected.

CPU22は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU22はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU22からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。 The CPU 22 controls the entire information processing device 10 by executing an operating system stored in the storage unit 34. The CPU 22 also executes various programs that are read from a removable recording medium and loaded into the main memory 26, or downloaded via the communication unit 32. The GPU 24 has the functions of a geometry engine and a rendering processor, performs drawing processing according to drawing commands from the CPU 22, and stores display images in a frame buffer (not shown). It then converts the display images stored in the frame buffer into video signals and outputs them to the output unit 36. The main memory 26 is composed of a RAM (Random Access Memory), and stores programs and data necessary for processing.

図4はHMD18の内部回路構成を示している。HMD18は、CPU50、メインメモリ52、表示部54、音声出力部56を含む。これらの各部はバス58を介して相互に接続されている。バス58にはさらに入出力インターフェース60が接続されている。入出力インターフェース60には、有線又は無線LANのネットワークインターフェースからなる通信部62、加速度センサ64、発光部66が接続される。 Figure 4 shows the internal circuit configuration of the HMD 18. The HMD 18 includes a CPU 50, a main memory 52, a display unit 54, and an audio output unit 56. These units are connected to each other via a bus 58. An input/output interface 60 is further connected to the bus 58. A communication unit 62 consisting of a wired or wireless LAN network interface, an acceleration sensor 64, and a light-emitting unit 66 are connected to the input/output interface 60.

CPU50は、バス58を介してHMD18の各部から取得した情報を処理し、出力データを表示部54や音声出力部56に供給する。メインメモリ52はCPU50における処理に必要なプログラムやデータを格納する。ただし実行するアプリケーションや装置の設計によっては、情報処理装置10がほぼ全ての処理を行い、HMD18では情報処理装置10から送信されたデータを出力するのみで十分な場合がある。この場合、CPU50やメインメモリ52は、より簡易なデバイスで置き換えることができる。 The CPU 50 processes information acquired from each part of the HMD 18 via the bus 58, and supplies output data to the display unit 54 and audio output unit 56. The main memory 52 stores programs and data necessary for processing by the CPU 50. However, depending on the application to be executed and the design of the device, it may be sufficient for the information processing device 10 to perform almost all processing, and for the HMD 18 to only output data transmitted from the information processing device 10. In this case, the CPU 50 and main memory 52 can be replaced with simpler devices.

表示部54は、液晶パネルや有機ELパネルなどの表示パネルで構成され、HMD18を装着したユーザの眼前に画像を表示する。上述したように左右の目に対応する領域に一対の視差画像を表示することにより立体視を実現してもよい。表示部54はさらに、HMD18装着時に表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する一対のレンズを含んでもよい。 The display unit 54 is composed of a display panel such as a liquid crystal panel or an organic EL panel, and displays an image in front of the eyes of the user wearing the HMD 18. As described above, stereoscopic vision may be achieved by displaying a pair of parallax images in areas corresponding to the left and right eyes. The display unit 54 may further include a pair of lenses that are positioned between the display panel and the user's eyes when the HMD 18 is worn, and that expand the user's viewing angle.

音声出力部56は、HMD18の装着時にユーザの耳に対応する位置に設けたスピーカーやイヤホンで構成され、ユーザに音声を聞かせる。出力される音声のチャンネル数は特に限定されず、モノラル、ステレオ、サラウンドのいずれでもよい。通信部62は、情報処理装置10や平板型ディスプレイ16との間でデータを送受するためのインターフェースであり、例えばBluetooth(登録商標)などの既知の無線通信技術を用いて実現できる。 The audio output unit 56 is composed of speakers or earphones that are placed at positions corresponding to the user's ears when the HMD 18 is worn, and allows the user to hear audio. There is no particular limit to the number of channels of audio output, and it may be monaural, stereo, or surround. The communication unit 62 is an interface for sending and receiving data between the information processing device 10 and the flat display 16, and can be realized using known wireless communication technology such as Bluetooth (registered trademark).

加速度センサ64は、所定軸方向の重力加速度を計測することによりHMD18の傾きを検出する。HMD18にはさらに、ジャイロセンサなどその他の各種センサを設けてよい。センサによる測定値は通信部62を介して情報処理装置10に送信される。発光部66は、所定の色で発光する素子またはその集合であり、図2で示したようにHMD18の外面の複数箇所に設ける。これをマーカーとして追跡することによりHMD18の位置を取得するほか、撮影画像におけるその像の数や位置関係からHMD18の姿勢を取得する。 The acceleration sensor 64 detects the inclination of the HMD 18 by measuring the gravitational acceleration in a specific axis direction. The HMD 18 may further be provided with various other sensors, such as a gyro sensor. The measured values by the sensor are transmitted to the information processing device 10 via the communication unit 62. The light emitting unit 66 is an element or a collection of elements that emit light in a specific color, and is provided at multiple locations on the outer surface of the HMD 18 as shown in FIG. 2. By tracking this as a marker, the position of the HMD 18 is obtained, and the attitude of the HMD 18 is obtained from the number and positional relationship of its images in the captured image.

情報処理装置10は、加速度センサ64および発光部66といった複数の手段により得られた情報を統合することにより、より高い精度でユーザの頭の位置や姿勢を取得することができる。一方、本実施の形態では、場合によっては加速度センサ64を省略することもできる。 The information processing device 10 can obtain the position and posture of the user's head with greater accuracy by integrating information obtained by multiple means, such as the acceleration sensor 64 and the light-emitting unit 66. On the other hand, in this embodiment, the acceleration sensor 64 can be omitted in some cases.

図5は情報処理装置10の機能ブロックの構成を示している。図5に示す各機能ブロックは、ハードウェア的には、図3に示したCPU、GPU、各種メモリ、データバスなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 Figure 5 shows the configuration of functional blocks of the information processing device 10. Each functional block shown in Figure 5 can be realized in hardware terms by the configuration of the CPU, GPU, various memories, data bus, etc. shown in Figure 3, and in software terms by programs that perform various functions such as data input function, data retention function, image processing function, and communication function, loaded into memory from a recording medium, etc. Therefore, it will be understood by those skilled in the art that these functional blocks can be realized in various forms by hardware alone, software alone, or a combination of both, and are not limited to any one of them.

情報処理装置10は、入力装置14およびHMD18からの入力情報を取得する入力情報取得部72、撮像装置12から撮影画像のデータを取得する撮影画像取得部74、ゲームなどコンテンツに応じた情報処理を行う情報処理部76、出力すべきデータを生成する出力データ生成部78、情報処理や画像の生成に必要なデータを格納したコンテンツデータ記憶部84を含む。情報処理装置10はさらに、撮影画像に基づきユーザの位置情報を取得する位置情報取得部80、ユーザの位置に基づき警告が必要な状況を判定する警告状況判定部82、判定に必要な実空間上の領域に係る設定情報を格納したエリア設定情報記憶部85、および、出力すべきデータをHMD18に送信する出力データ送信部86を含む。 The information processing device 10 includes an input information acquisition unit 72 that acquires input information from the input device 14 and the HMD 18, a captured image acquisition unit 74 that acquires captured image data from the imaging device 12, an information processing unit 76 that performs information processing according to content such as games, an output data generation unit 78 that generates data to be output, and a content data storage unit 84 that stores data necessary for information processing and image generation. The information processing device 10 further includes a position information acquisition unit 80 that acquires user position information based on the captured image, a warning situation determination unit 82 that determines a situation in which a warning is required based on the user's position, an area setting information storage unit 85 that stores setting information related to an area in real space required for the determination, and an output data transmission unit 86 that transmits data to be output to the HMD 18.

入力情報取得部72は、ユーザ操作の内容を入力装置14から取得する。ここでユーザ操作とは、実行するアプリケーションやコンテンツの選択、処理の開始/終了、コマンド入力など、一般的な情報処理装置でなされるものでよい。入力情報取得部72は入力装置14から取得した情報を、その内容に応じて撮影画像取得部74または情報処理部76に供給する。入力情報取得部72はさらに、HMD18の加速度センサ64から計測値を受信し、情報処理部76に供給する。 The input information acquisition unit 72 acquires the contents of user operations from the input device 14. Here, user operations may be operations performed on a general information processing device, such as selection of an application or content to be executed, starting/ending processing, and command input. The input information acquisition unit 72 supplies the information acquired from the input device 14 to the captured image acquisition unit 74 or the information processing unit 76 depending on the information content. The input information acquisition unit 72 further receives measurement values from the acceleration sensor 64 of the HMD 18 and supplies them to the information processing unit 76.

撮影画像取得部74は、ステレオ画像など、撮像装置12が動画撮影して得られる撮影画像のデータを所定のレートで取得する。撮影画像取得部74はさらに、入力情報取得部72が取得したユーザからの処理開始/終了要求に従い、撮像装置12における撮影の開始/終了を制御したり、情報処理部76における処理の結果に応じて、撮像装置12から取得するデータの種類を制御したりしてもよい。 The captured image acquisition unit 74 acquires captured image data, such as stereo images, obtained by the imaging device 12 capturing video at a predetermined rate. The captured image acquisition unit 74 may further control the start/end of imaging in the imaging device 12 according to a processing start/end request from the user acquired by the input information acquisition unit 72, or may control the type of data acquired from the imaging device 12 according to the results of processing in the information processing unit 76.

位置情報取得部80は、撮影画像から所定の対象物の像を検出することにより、ユーザの位置情報を所定のレートで取得する。例えばHMD18や入力装置14に設けた発光マーカーの像に基づきユーザの頭部や手の実空間での位置を取得する。あるいはユーザの体の一部を、輪郭線を利用して追跡したり、顔や特定の模様を有する対象物をパターンマッチングにより認識したりする画像解析技術を組み合わせてもよい。また撮像装置12の構成によっては上述のとおり、赤外線の反射を計測することによりユーザの距離を特定してもよい。 The position information acquisition unit 80 acquires the user's position information at a specified rate by detecting the image of a specified object from the captured image. For example, the position of the user's head or hands in real space is acquired based on the image of a light-emitting marker provided on the HMD 18 or the input device 14. Alternatively, image analysis techniques may be combined to track parts of the user's body using contour lines, or to recognize faces or objects with specific patterns by pattern matching. Depending on the configuration of the imaging device 12, the distance to the user may also be determined by measuring the reflection of infrared light, as described above.

情報処理部76は、ユーザが指定したゲームなどの電子コンテンツを処理する。この処理には、位置情報取得部80が取得した、ユーザの位置情報の利用が含まれる。情報処理部76は必要に応じて、HMD18の加速度センサによる計測結果などを統合することにより、ユーザの姿勢を特定してもよい。なお上述のように、入力装置14を介したユーザ操作やユーザの動きに応じて、情報処理部76が行う後段の情報処理の内容は特に限定されない。 The information processing unit 76 processes electronic content, such as a game, specified by the user. This processing includes the use of the user's position information acquired by the position information acquisition unit 80. If necessary, the information processing unit 76 may identify the user's posture by integrating the measurement results of the acceleration sensor of the HMD 18. As described above, the content of the subsequent information processing performed by the information processing unit 76 in response to the user's operations and movements via the input device 14 is not particularly limited.

出力データ生成部78は、情報処理部76からの要求に従い、情報処理の結果として出力すべき画像や音声のデータを生成する。例えばユーザの頭部の位置や姿勢に対応する視点から見た仮想世界を左右の視差画像として生成する。この視差画像をHMD18において左右の目の前に表示させたり、仮想世界での音声を出力したりすれば、ユーザはあたかも仮想世界に入り込んだような感覚を得られる。情報処理部76における情報処理や出力データ生成部78におけるデータ生成処理に必要なプログラムや画像・音声のデータはコンテンツデータ記憶部84に格納しておく。 The output data generation unit 78 generates image and audio data to be output as a result of information processing in accordance with a request from the information processing unit 76. For example, it generates a left and right parallax image of the virtual world as seen from a viewpoint corresponding to the position and posture of the user's head. By displaying this parallax image in front of the left and right eyes on the HMD 18 and outputting audio in the virtual world, the user can feel as if they have entered the virtual world. The programs and image/audio data required for information processing in the information processing unit 76 and data generation processing in the output data generation unit 78 are stored in the content data storage unit 84.

警告状況判定部82は、位置情報取得部80が取得したユーザの位置情報に基づき、警告を与える状況の発生を常時監視し、その発生を判定する。具体的には、実世界の3次元空間に直接的あるいは間接的に設定したプレイエリアに対する内外判定を実施し、ユーザがプレイエリアから出たときに警告が必要であると判定する。本実施の形態では、撮影画像を利用して位置情報を取得するため、ユーザがカメラの画角内にいることを前提として情報処理が進捗する。 The warning situation determination unit 82 constantly monitors the occurrence of a situation requiring a warning based on the user's location information acquired by the location information acquisition unit 80, and determines the occurrence of such a situation. Specifically, it performs an inside/outside determination for a play area that is set directly or indirectly in a three-dimensional space in the real world, and determines that a warning is necessary when the user leaves the play area. In this embodiment, location information is acquired using captured images, so information processing proceeds on the assumption that the user is within the camera's angle of view.

ところが図2に示したようなHMDを装着したユーザには、周囲の状況、ひいては自分が画角内にいるかどうかが認識しづらい。正常な情報処理を継続するためには、そのような実世界に係る情報を何らかの手段により与える必要があるが、コンテンツが表現する世界観を損なうことになりかねない。そのための方策として、画角から出そうなときのみユーザに警告を与えることが考えられる。しかしながらこのタイミングが早すぎれば、少しの移動で頻繁に警告が与えられ、実質的に可動範囲を狭めてしまうことになる。一方で、タイミングが遅いと画角から外れることを免れず、位置情報が得られない期間が発生し得る。 However, when wearing an HMD such as that shown in Figure 2, it is difficult for a user to recognize the surrounding situation, and therefore whether or not they are within the field of view. In order to continue normal information processing, it is necessary to provide such information related to the real world by some means, but this could damage the world view expressed by the content. One possible solution to this is to warn the user only when they are about to leave the field of view. However, if this timing is too early, frequent warnings will be given for even small movements, which will effectively narrow the range of movement. On the other hand, if the timing is too late, it will be inevitable that the user will go outside the field of view, and there may be periods when position information cannot be obtained.

そこで本実施の形態では上述のとおり、警告を発生させるタイミングを実世界でプレイエリアとして設定した領域に対する内外判定により判断し、さらにプレイエリアと画角との関係を調整することにより、可動範囲と処理精度のバランスを状況に応じて最適化する。プレイエリアの設定情報はあらかじめ、エリア設定情報記憶部85に格納しておく。具体的な設定内容については後に述べる。警告状況判定部82は、警告が必要と判定したとき、その旨を出力データ生成部78に通知する。 As described above, in this embodiment, the timing to issue a warning is determined by an inside/outside determination of the area set as the play area in the real world, and the relationship between the play area and the angle of view is further adjusted to optimize the balance between the range of motion and processing accuracy according to the situation. The play area setting information is stored in advance in the area setting information storage unit 85. The specific setting contents will be described later. When the warning status determination unit 82 determines that a warning is necessary, it notifies the output data generation unit 78 of this effect.

このとき出力データ生成部78は、警告を表す部品画像を表示画像に追加で描画する。警告状況判定部82はまた、ユーザが正常な位置に戻るなどして、警告の必要がなくなったことを判定し、その旨を出力データ生成部78に通知する。これに応じて出力データ生成部78は、警告を表す部品画像を非表示とする。なお警告は画像のみならず、音声を伴っていてもよい。出力データ送信部86は、出力データ生成部78が生成した出力データを順次取得し、必要に応じて成形したうえ、HMD18に送信する。 At this time, the output data generation unit 78 additionally draws a component image representing the warning on the display image. The warning status determination unit 82 also determines that a warning is no longer necessary, for example because the user has returned to a normal position, and notifies the output data generation unit 78 of this fact. In response, the output data generation unit 78 hides the component image representing the warning. Note that the warning may be accompanied by sound as well as an image. The output data transmission unit 86 sequentially acquires the output data generated by the output data generation unit 78, shapes it as necessary, and transmits it to the HMD 18.

図6は、本実施の形態において撮影画像から取得できる情報を説明するための図である。同図においてユーザ120は、入力装置14を把持しHMD18を装着している。入力装置14は、操作に適した持ち方で把持したときに撮像装置12に正対する位置に発光マーカー122を備える。HMD18の発光マーカーは図2で示したとおりである。撮像装置12をステレオカメラとした場合、ステレオ画像における像の視差に基づき、撮像装置12の撮像面から各発光マーカーまでの距離Zが求められる。また、どちらかの撮影画像の画像平面(XY平面)における発光マーカーの像の位置は、撮像装置12からの見かけ上の位置を表している。 Figure 6 is a diagram for explaining information that can be obtained from a captured image in this embodiment. In the figure, a user 120 holds an input device 14 and wears an HMD 18. The input device 14 is provided with a light-emitting marker 122 in a position directly facing the imaging device 12 when held in a manner suitable for operation. The light-emitting markers of the HMD 18 are as shown in Figure 2. If the imaging device 12 is a stereo camera, the distance Z from the imaging plane of the imaging device 12 to each light-emitting marker can be found based on the parallax of the images in the stereo image. In addition, the position of the image of the light-emitting marker in the image plane (XY plane) of either captured image represents the apparent position from the imaging device 12.

これらの情報を統合する、具体的にはXY平面における位置を撮像装置12からの距離Zを用いて逆射影することにより、実世界の3次元空間における各発光マーカーの位置が求められる。さらにHMD18の発光マーカーの像の数や位置関係からHMD18の実空間における姿勢(ベクトルva)が、入力装置14の発光マーカー122の像の形状から入力装置14の実空間における姿勢(ベクトルvb)が求められる。 By integrating this information, specifically by back-projecting the position on the XY plane using the distance Z from the imaging device 12, the position of each light-emitting marker in the three-dimensional space of the real world can be obtained. Furthermore, the orientation (vector va) of the HMD 18 in real space can be obtained from the number and positional relationship of the images of the light-emitting markers of the HMD 18, and the orientation (vector vb) of the input device 14 in real space can be obtained from the shape of the image of the light-emitting marker 122 of the input device 14.

情報処理装置10の情報処理部76は、これらの装置の実空間における位置および姿勢に基づき、ユーザ120の顔の向きに応じて視野が変化する仮想世界や、入力装置14の動きに応じて画像内のオブジェクトが動く様を表現することができる。なおマーカーの見かけ上の大きさによって撮像装置12からの距離を推定したり、奥行き方向の動きが必要ない情報処理を行ったりする場合は、撮像装置12はステレオカメラでなくてよい。参照光を利用した距離測定技術を導入する場合も同様である。また必ずしもHMD18と入力装置14の双方を追跡しなくてもよい。 The information processing unit 76 of the information processing device 10 can represent a virtual world in which the field of view changes according to the direction of the user's 120's face, and the way objects in an image move according to the movement of the input device 14, based on the positions and orientations of these devices in real space. Note that the imaging device 12 does not have to be a stereo camera when estimating the distance from the imaging device 12 based on the apparent size of a marker, or when performing information processing that does not require movement in the depth direction. The same applies when distance measurement technology using reference light is introduced. It is also not necessary to track both the HMD 18 and the input device 14.

このように発光マーカーの像を利用する場合、直接得られるのは、厳密にはHMD18や入力装置14の発光マーカーの位置である。ただしHMD18はユーザが頭部に装着しているため、ユーザの頭部の位置と捉えることもできる。発光マーカー以外の被写体を拠り所として位置を特定する場合も、厳密にはそれらの被写体の位置が求められ、ユーザの重心位置などはそれらの情報から必要に応じて推定される。 When using images of light-emitting markers in this way, strictly speaking, what is obtained directly is the position of the light-emitting markers on the HMD 18 or the input device 14. However, since the HMD 18 is worn on the user's head, it can also be taken as the position of the user's head. Even when determining position based on subjects other than light-emitting markers, strictly speaking the positions of those subjects are obtained, and the position of the user's center of gravity, etc. is estimated from that information as necessary.

以後の説明で「ユーザの位置」とは、ユーザ自身の位置でもよいし、位置取得の拠り所となる被写体の位置でもよい。また入力装置14がプレイエリア外に出ても、HMD18が出ていなければ警告の必要はないとするなど、被写体の性質や状況に応じて判定基準に係る規則を設けてもよい。 In the following explanation, "user position" may refer to the user's own position, or the position of the subject that is the basis for position acquisition. In addition, rules regarding the judgment criteria may be established according to the nature and situation of the subject, such as no warning being necessary if the input device 14 goes outside the play area but the HMD 18 is not visible.

図7は、警告状況判定部82が警告の必要性を判定するときに参照する、プレイエリアの設定例を模式的に示している。同図は実空間を俯瞰した状態を示しており、撮像装置12に正対するようにユーザ120が存在している。撮像装置12のカメラの水平画角θによって、点線で示した視野の境界面182a、182bが定まる。ステレオカメラの場合、両者の画角の積集合とする。このような視野の垂直方向の境界面を基準として、プレイエリア184の境界面を所定の規則で設定する。警告状況判定部82はユーザがプレイエリア184の外に出たとき、警告の必要が発生したと判定する。 FIG. 7 is a schematic diagram showing an example of the setting of the play area that the warning status determination unit 82 refers to when determining the necessity of a warning. The figure shows a bird's-eye view of the real space, with the user 120 facing the imaging device 12. The horizontal angle of view θh of the camera of the imaging device 12 determines the boundary planes 182a and 182b of the field of view shown by the dotted lines. In the case of a stereo camera, the boundary plane is the intersection set of the two angles of view. The boundary plane of the play area 184 is set according to a predetermined rule based on the vertical boundary plane of such a field of view. The warning status determination unit 82 determines that the necessity of a warning has occurred when the user goes outside the play area 184.

図示する例では、撮像装置12からの距離ZがZ1≦Z<Z3の範囲において、視野の境界面182a、182bより内側にプレイエリア184を設定している。撮像装置12に近いZ1≦Z<Z2の範囲では、カメラの光軸を中心に距離Zに比例するように幅を増加させ、Z2≦Z<Z3の範囲では一定の幅Wを有するように設定している。Z1≦Z<Z2の範囲のプレイエリアの境界を決定づける垂直面186a、186bはすなわち、奥行き方向の位置によらず撮影画像上で左右の端より所定量、内側に結像する位置に対応する。したがって少なくとも垂直面186a、186bより内側をプレイエリアとすることで、画像上で当該所定量分をマージン領域として、ユーザが画角から外れる前の余裕を見たタイミングで警告を与えることができる。 In the illustrated example, when the distance Z from the imaging device 12 is in the range of Z1≦Z<Z3, the play area 184 is set inside the boundary planes 182a and 182b of the field of view. In the range of Z1≦Z<Z2, which is close to the imaging device 12, the width increases in proportion to the distance Z around the optical axis of the camera, and in the range of Z2≦Z<Z3, the width W is set to be constant. The vertical planes 186a and 186b that determine the boundary of the play area in the range of Z1≦Z<Z2 correspond to the position where the image is formed a predetermined amount inward from the left and right edges on the captured image, regardless of the position in the depth direction. Therefore, by setting at least the area inside the vertical planes 186a and 186b as the play area, the predetermined amount on the image can be set as a margin area, and a warning can be given at a timing when the user has a margin before going out of the angle of view.

撮像装置12に近くなるほど、視野が狭くなるため可動範囲も狭くなる。そのため撮像装置12に近い範囲では垂直面186a、186bより内側とする条件を最大限活用することで、警告を出さずにすむ範囲を広くとる。一方、撮像装置12から離れた位置では視野が広がるため、画角から外れたか否かを基準とした場合、垂直面186a、186bより内側をプレイエリアとすれば、より広い範囲で警告を出さずにすむ。しかしながら図示する例では、情報処理の適性や周囲の物の存在などを考慮して、それより狭い幅Wでプレイエリアを限定している。 The closer one is to the imaging device 12, the narrower the field of view and therefore the narrower the range of motion. Therefore, by making maximum use of the condition of being inside the vertical planes 186a, 186b in the range close to the imaging device 12, the range in which no warning is issued is widened. On the other hand, since the field of view is wider at positions away from the imaging device 12, if the play area is set inside the vertical planes 186a, 186b and the criterion is whether or not the angle of view has been exceeded, a wider range can be achieved without issuing a warning. However, in the example shown, the play area is limited to a narrower width W, taking into account the suitability of information processing and the presence of surrounding objects.

このようにプレイエリア184は、画角からの逸脱可能性を低める以外に、適正な可動範囲を設定する役割も同時に備えることができる。またプレイエリアをカメラからの距離範囲に応じて異なる規則で設定することにより、視野の狭い領域では可動範囲を優先し、視野の広い領域ではコンテンツの事情などその他の要素を優先させる、といった優先順位の変化に適応できる。 In this way, the play area 184 can not only reduce the possibility of deviation from the angle of view, but also simultaneously set an appropriate range of movement. Also, by setting the play area according to different rules depending on the distance range from the camera, it can adapt to changes in priority, such as prioritizing the range of movement in areas with a narrow field of view, and prioritizing other factors such as content circumstances in areas with a wide field of view.

図8は、プレイエリアの設定の別の例を模式的に示している。同図は実空間をユーザの左側面から見た状態を示しており、撮像装置12に正対するようにユーザ120が存在している。撮像装置12のカメラの垂直画角θによって、点線で示した視野の境界面192a、192bが定まる。このような視野の水平方向の境界面を基準として、撮像装置12からの距離ZがZ1≦Z<Z3の範囲にプレイエリアの境界面を設定する。 8 is a schematic diagram showing another example of the setting of the play area. The figure shows the real space as viewed from the left side of the user, with the user 120 facing the imaging device 12. The boundary planes 192a and 192b of the field of view shown by the dotted lines are determined by the vertical angle of view θv of the camera of the imaging device 12. Based on the horizontal boundary plane of the field of view, the boundary plane of the play area is set within the range of distance Z from the imaging device 12 being Z1≦Z<Z3.

同図の例では、Z1≦Z<Z3の範囲にわたり、視野の境界面192a、192bをプレイエリア194の境界面と一致させている。すなわち図7で示したプレイエリアと比較し、視野の境界面との間にマージン領域を設定しない。つまり撮影画像上で上下の端より所定量、内側に結像する水平面196a、196bのような余裕分をも設けず、撮影画像の上端から下端に対応する領域をプレイエリアとしている。このようにすると、画角から外れるのと同時に警告が与えられる結果となるため、微小時間であっても位置取得が不能となる可能性が高くなる。一方で、より広い範囲で警告を出さずにすむことになる。 In the example shown in the figure, the boundary surfaces 192a, 192b of the field of view are made to coincide with the boundary surface of the play area 194 over the range Z1≦Z<Z3. In other words, compared to the play area shown in FIG. 7, no margin area is set between the boundary surfaces of the field of view. In other words, there is no margin like the horizontal planes 196a, 196b that are imaged a certain amount inward from the top and bottom edges of the captured image, and the area corresponding to the top and bottom edges of the captured image is set as the play area. In this way, a warning is given as soon as the field of view is exceeded, increasing the possibility that position acquisition will be impossible even for a very short time. On the other hand, it becomes possible to avoid issuing a warning over a wider range.

このような設定は、画角が狭いカメラにおいて有効である。画角が狭い場合、図7に示すようにマージン領域を設定すると、少しの動きで警告が頻繁に出てしまうことがあり得る。そのため多少の情報処理の精度悪化を犠牲にしても、広いプレイエリアを確保することにより快適性を優先できる。例えば水平画角は広く、垂直画角は狭い特性を有するカメラを使用する場合、図7および図8で示したように、実空間での方向に応じて視野の境界面に対するプレイエリアの境界面の位置関係を異ならせれば、情報処理精度と快適な操作環境とのバランスを好適にとることができる。 This type of setting is effective for cameras with a narrow angle of view. When the angle of view is narrow, setting a margin area as shown in Figure 7 may result in frequent warnings being issued with even slight movements. Therefore, comfort can be prioritized by ensuring a wide play area, even at the expense of some deterioration in the accuracy of information processing. For example, when using a camera with a wide horizontal angle of view and a narrow vertical angle of view, a good balance can be achieved between information processing accuracy and a comfortable operating environment by varying the positional relationship of the play area boundary surface to the boundary surface of the field of view depending on the direction in real space, as shown in Figures 7 and 8.

図9は、マージン領域の有無による処理への影響を説明するための図である。同図上段の(a)は視野に対しマージン領域を設けてプレイエリアを設定した場合、下段の(b)は視野とプレイエリアを一致させた場合の、ユーザの動きと各処理のタイムチャートである。すなわち右側に模式的に示すように、撮像装置12に対し白抜きで示したプレイエリアを設定するが、(a)は黒色で示す視野外の領域との間に網掛けで示したマージン領域を設けている。タイムチャートにおける「位置」の段の白、網掛け、黒の矩形はそれぞれ、ユーザがプレイエリア、マージン領域、視野外にいる時間を表す。 Figure 9 is a diagram explaining the effect on processing of the presence or absence of a margin area. The upper part of the figure (a) is a time chart of the user's movements and each process when a margin area is provided in the field of view to set the play area, and the lower part (b) is a time chart of the user's movements and each process when the field of view and play area are aligned. That is, as shown diagrammatically on the right, a play area shown in white is set relative to the imaging device 12, but in (a) a shaded margin area is provided between it and the area outside the field of view shown in black. The white, shaded, and black rectangles in the "Position" row in the time chart respectively represent the time the user is in the play area, margin area, and outside the field of view.

比較のため両者の設定において、ユーザが時刻t2で視野外に出るとし、警告を同じ時間だけ表示した結果、ユーザがプレイエリアに戻るとしている。このようなユーザの動きに対し、位置情報取得部80が位置情報を取得できる期間を「位置取得」の段に、警告表示がなされる期間を「警告」の段に、矩形で表している。(a)の場合、視野外へ出る時刻t2より前の時刻t1でプレイエリアから出るため、その時点から時刻t3でプレイエリアへ戻るまでの間、警告が表示される。一方(b)の場合、マージン領域を設定しないため、視野外へ出ている時刻t2から時刻t4までの間に警告が表示される。 For comparison, in both settings, the user leaves the field of view at time t2, and the warning is displayed for the same amount of time, resulting in the user returning to the play area. For such user movement, the period during which the position information acquisition unit 80 can acquire position information is shown by a rectangle in the "Position acquisition" column, and the period during which the warning is displayed is shown by a rectangle in the "Warning" column. In the case of (a), the user leaves the play area at time t1, before time t2 when the user leaves the field of view, so the warning is displayed from that point until the user returns to the play area at time t3. On the other hand, in the case of (b), no margin area is set, so the warning is displayed from time t2, when the user is outside the field of view, to time t4.

図示するように、(a)においては、警告が表示された後も位置情報を取得できるため、当該情報を根拠としてプレイエリア外にいることが保障される。(b)の場合、警告と同時に位置情報も取得できなくなるため、警告を表示している期間においてその妥当性が保障されない。したがって、例えば視野境界においてオクルージョンなどでユーザの像が検出されなかったことを、視野外に出たと誤認し警告を表示させてしまう可能性がある。 As shown in the figure, in (a), location information can be obtained even after the warning is displayed, so that it is guaranteed that the user is outside the play area based on that information. In the case of (b), location information cannot be obtained at the same time as the warning, so the validity of the warning cannot be guaranteed while it is displayed. Therefore, for example, if the user's image is not detected at the boundary of the field of view due to occlusion, it may be mistaken as meaning that the user has gone outside the field of view, causing a warning to be displayed.

また(a)と(b)で警告が表示されてから同じタイミングでプレイエリアに戻っても、(b)では位置情報を取得できない期間が長くなる。図示する例では、(a)においても視野外へ出る期間が発生しているが、マージン領域の幅によっては、ユーザが視野外へ出る前に警告表示に応じて戻る可能性があるため、(b)の場合と比較し位置情報を取得できない期間が発生しにくい。一方で、同じように移動しても(a)の場合はより早い時刻t1で警告が表示されるため、ユーザに対する拘束条件が厳しくなる。これらの特性を踏まえ、警告を出さずにすむ領域を極限まで広げたいか、そのようにせずとも領域に余裕があるか、など、状況に応じた優先順位によって最適なプレイエリアを設定することが望ましい。 In addition, even if the user returns to the play area at the same timing after the warning is displayed in (a) and (b), the period during which position information cannot be obtained will be longer in (b). In the example shown, there is a period during which the user goes out of the field of view in (a), but depending on the width of the margin area, there is a possibility that the user will return in response to the warning display before going out of the field of view, so the period during which position information cannot be obtained is less likely to occur compared to the case of (b). On the other hand, even if the user moves in the same way, the warning is displayed at an earlier time t1 in the case of (a), so the constraints on the user are stricter. Taking these characteristics into account, it is desirable to set the optimal play area according to the priority order according to the situation, such as whether it is desirable to maximize the area in which a warning is not issued, or whether there is sufficient area without doing so.

なおマージン領域を設けるか否かのみならず、マージン領域の幅やプレイエリアの形状も、想定される状況や実空間での方向に応じて最適化してよい。例えばゲームなどコンテンツの内容や環境によって想定されるユーザの姿勢、具体的には立って遊ぶか座って遊ぶか、机に向かっているかソファに座っているか、といった状況に応じて、同じ画角でもプレイエリアの形状を変化させてよい。 In addition to deciding whether or not to provide a margin area, the width of the margin area and the shape of the play area may also be optimized according to the expected situation and orientation in real space. For example, the shape of the play area may be changed even with the same angle of view depending on the expected user posture depending on the content and environment of the game or other content, specifically whether the user is playing standing or sitting, sitting at a desk or sitting on a sofa, etc.

また図7、図8の設定を同時に適用した場合、設定されるプレイエリアはカメラからの距離Zに対し四辺形の断面を有するような形状であったが、本実施の形態をそれに限る主旨ではなく、円筒形など任意の形状でよい。また光軸が水平方向にない場合、カメラからの距離Zは床面と水平でなくなる。このときプレイエリアの形状は、光軸方向の距離で定義してもよいし、実空間での水平方向の距離で定義してもよい。カメラの光軸と実空間の水平面とのなす角度を、撮像装置12に内蔵させた加速度センサなどにより計測すれば、座標変換は容易に実現できる。3次元空間での領域を設定するための具体的なデータ形式については、様々考えられることは当業者には理解されるところである。 When the settings in Figures 7 and 8 are applied simultaneously, the play area that is set has a quadrilateral cross section with respect to the distance Z from the camera, but this is not the intent of this embodiment and any shape such as a cylinder may be used. If the optical axis is not horizontal, the distance Z from the camera is not horizontal to the floor surface. In this case, the shape of the play area may be defined by the distance in the optical axis direction, or by the horizontal distance in real space. Coordinate conversion can be easily achieved by measuring the angle between the optical axis of the camera and the horizontal plane of real space using an acceleration sensor built into the imaging device 12. Those skilled in the art will understand that there are various possible specific data formats for setting an area in three-dimensional space.

一方で、プレイエリアに対応する領域を画像平面で規定することにより、プレイエリアを間接的に設定してもよい。図10は、画像平面におけるプレイエリアの設定手法を説明するための図である。同図は被写空間に対向するカメラの視野、ひいては撮影画像の平面を表しており、上段(a)が単眼カメラ、下段(b)がステレオカメラの場合である。単眼カメラの場合、撮影画像300の平面に対し、所定幅xを有する左右両端をマージン領域とし、それを除く領域302をプレイエリア対応領域として定義する。 On the other hand, the play area may be set indirectly by defining an area corresponding to the play area on the image plane. Figure 10 is a diagram for explaining a method for setting the play area on the image plane. The figure shows the field of view of a camera facing the subject space, and thus the plane of the captured image, with the upper row (a) being for a monocular camera and the lower row (b) being for a stereo camera. In the case of a monocular camera, the left and right ends of the plane of the captured image 300, each having a predetermined width x, are defined as margin areas, and the area 302 excluding these is defined as the area corresponding to the play area.

この領域302により規定される3次元空間での領域は、奥行き方向の距離Zに比例して水平方向の幅が増加する領域304である。すなわち水平方向に着目した場合、領域302を設定することにより、図8で示した垂直面186a、186bの内側をプレイエリアとして設定したことになる。このように画像平面上でプレイエリア対応領域302を設定した場合、実空間でのプレイエリアの断面は、距離Zに応じたサイズの相似形となるため、実空間に直接設定する場合と比較して設定形状の自由度が少なくなる。 The area in three-dimensional space defined by this area 302 is area 304 whose horizontal width increases in proportion to the distance Z in the depth direction. In other words, when focusing on the horizontal direction, setting area 302 sets the inside of vertical surfaces 186a, 186b shown in FIG. 8 as the play area. When play area corresponding area 302 is set on the image plane in this way, the cross section of the play area in real space will be a similar shape with a size corresponding to distance Z, so there is less freedom in the setting shape compared to when it is set directly in real space.

一方、撮影画像上での像とプレイエリア対応領域302との内外判定により直接、警告の必要性を判定できるため、ユーザの位置情報を介するより誤差の生じる余地が少なくなる。図示する例は水平方向にマージン領域を設けた場合であったが、垂直方向にマージン領域を設ける場合も同様である。また上述と同様の理由により、マージン領域を設けるか否か、およびその幅xの調整を、方向によって独立に行ってよい。それらの要素をコンテンツの内容や状況に応じて変化させてもよい。 On the other hand, the need for a warning can be determined directly by determining whether the image on the captured image is inside or outside the play area corresponding region 302, so there is less room for error than if it were to be determined via the user's position information. The example shown is for a case where a margin region is provided in the horizontal direction, but the same applies when a margin region is provided in the vertical direction. Also, for the same reasons as above, whether or not to provide a margin region and its width x may be adjusted independently depending on the direction. These elements may be changed depending on the content and situation.

(b)で示したステレオカメラの場合、ユーザがカメラの視野の左端にいるか右端にいるかにより、先に視野から外れるカメラが異なる。例えばユーザがカメラの視野の右端近傍にいる場合、図示するように、右視点のカメラの画像306bにおける像308bより、左視点のカメラの画像306aにおける像308aの方が右端に近くなる。したがってこのままユーザが右方向に移動した場合、左視点のカメラの視野から先に外れることになる。ユーザがカメラの視野の左端近傍にいる場合は逆に、右視点のカメラの視野から先に外れる。 In the case of the stereo camera shown in (b), the camera that leaves the field of view first differs depending on whether the user is at the left or right edge of the camera's field of view. For example, if the user is near the right edge of the camera's field of view, as shown in the figure, image 308a in image 306a of the left viewpoint camera will be closer to the right edge than image 308b in image 306b of the right viewpoint camera. Therefore, if the user continues to move to the right, they will leave the field of view of the left viewpoint camera first. Conversely, if the user is near the left edge of the camera's field of view, they will leave the field of view of the right viewpoint camera first.

したがってステレオカメラのどちらにも写るような視野内にプレイエリアを設定する場合、左視点のカメラの撮影画像平面における、右端の所定幅xのマージン領域を除く領域310aと、右視点のカメラの撮影画像平面における、左端の所定幅xのマージン領域を除く領域310bとを、プレイエリア対応領域として同時に設定する。そしてどちらかの画像において、ユーザの像がプレイエリア対応領域から出たことをもって、警告の必要性を判定する。 Therefore, when setting a play area within the field of view that can be seen by both stereo cameras, area 310a excluding a margin area of a given width x on the right edge in the image plane captured by the left viewpoint camera, and area 310b excluding a margin area of a given width x on the left edge in the image plane captured by the right viewpoint camera are simultaneously set as the play area corresponding area. Then, when the image of the user leaves the play area corresponding area in either image, the need for a warning is determined.

図11は、警告状況判定部82が、警告が必要であると判定した際に生成される表示画面を例示している。表示画面200は、ゲーム画面などコンテンツの画像に警告を表す警告画像202を追加した構成を有する。警告画像202は図示する例では、「Out of play area」なる文字情報によりプレイエリアの外に出たことを表している。さらに危険を表すマークも含めることで緊急性を表現している。 Figure 11 shows an example of a display screen that is generated when the warning status determination unit 82 determines that a warning is necessary. The display screen 200 has a configuration in which a warning image 202 that indicates a warning is added to an image of content such as a game screen. In the example shown, the warning image 202 indicates that the player has gone outside the play area by displaying text information such as "Out of play area." Furthermore, the inclusion of a mark indicating danger conveys a sense of urgency.

ただし警告画像202の形態をこれに限る主旨ではなく、色や形状を工夫することで図形やマークのみで表したり、そのような図形やマークと文字情報を組み合わせたりしてもよい。また警告画像202をコンテンツごとに、あるいはその時点での表示の内容に応じて、変化させてもよい。ユーザに気づきを与える性質上、警告画像202はコンテンツの画像に重畳表示することを基本とする。一方で、コンテンツの画像が奥行き感を伴う仮想世界であった場合は特に、奥行き感のない部品画像が突然、目前に出現することにより、ユーザが驚いたり不快な気持ちになったりすることが考えられる。 However, the form of the warning image 202 is not limited to this, and it may be expressed only with figures or marks by using creative colors and shapes, or such figures or marks may be combined with text information. The warning image 202 may also be changed for each piece of content, or according to the content being displayed at that time. Since the warning image 202 is intended to alert the user, it is basically displayed superimposed on the content image. On the other hand, if the content image is a virtual world with a sense of depth, the user may be surprised or feel uncomfortable if a component image with no sense of depth suddenly appears in front of them.

そこで図示するように警告画像202の周縁を、ブラー処理やαブレンディングなどによってぼかす。警告画像202全体を半透明としてもよい。これにより前面にありながらも背後に表現されている仮想世界との親和性を高められる。また突然視線を遮られた感覚を与えないよう、視点を避けた位置に警告画像202を表示することが望ましい。例えばユーザの視線に合わせて視野を変化させる表示形態では、必然的に視点が画面中央に固定されるため、画面中央から所定距離以上、離れた位置に表示する。 As shown in the figure, the edges of the warning image 202 are blurred by blurring or alpha blending. The entire warning image 202 may be made semi-transparent. This increases the affinity of the image with the virtual world depicted behind it, even though it is in the foreground. It is also desirable to display the warning image 202 at a position that avoids the viewpoint so as not to give the user the feeling that their line of sight has been suddenly blocked. For example, in a display format that changes the field of view to match the user's line of sight, the viewpoint is inevitably fixed to the center of the screen, so the image is displayed at a position at least a specified distance away from the center of the screen.

また人は目線を上げるより下げる方が楽に行えるため、表示形態によらず、画面の下半分の領域(上下方向の中心線Cより下の領域)に警告画像202を表示することにより、注視点をコンテンツの画像から無理なく移動させていくことができる。これらのことにより、突然出現した画像に目の焦点が合わず認識するのに時間を要したり、細かい眼球の動きにより酔ってしまったりするのも防止できる。 In addition, because it is easier for people to lower their gaze than to raise it, by displaying the warning image 202 in the lower half of the screen (the area below the vertical center line C) regardless of the display format, the gaze point can be moved effortlessly away from the content image. This prevents the eyes from being unable to focus on an image that suddenly appears, taking time to recognize it, and also prevents motion sickness caused by small eye movements.

次にこれまで述べた構成によって実現できる、情報処理装置10の動作について説明する。図12は、本実施の形態において情報処理装置がユーザの動きに応じた出力データを生成する処理手順を示すフローチャートである。このフローチャートは、ユーザが入力装置14を介して情報処理装置10に処理の開始を要求したときなどに開始される。 Next, the operation of the information processing device 10 that can be realized by the configuration described above will be described. FIG. 12 is a flowchart showing the processing procedure in which the information processing device generates output data according to the user's movements in this embodiment. This flowchart is started when the user requests the information processing device 10 to start processing via the input device 14, for example.

まず情報処理装置10の撮影画像取得部74は、撮像装置12に撮影の開始を要求し、それに応じて撮像装置12が撮影し出力した撮影画像のデータの取得を開始する(S10)。一方、警告状況判定部82は、エリア設定情報記憶部85からプレイエリアに係る設定情報を読み出す(S12)。このとき、ユーザが選択するなどした実施すべきコンテンツに対応づけられた設定情報を選択してもよい。また撮影画像を解析するなどしてユーザが着座しているか否かや、周囲の状況などを特定し、それらの情報によって設定情報を選択してもよい。 First, the captured image acquisition unit 74 of the information processing device 10 requests the imaging device 12 to start capturing images, and in response starts acquiring data of the captured images captured and output by the imaging device 12 (S10). Meanwhile, the warning status determination unit 82 reads out setting information related to the play area from the area setting information storage unit 85 (S12). At this time, setting information associated with the content to be implemented, such as selected by the user, may be selected. Also, the captured image may be analyzed to determine whether the user is seated or not, the surrounding situation, etc., and setting information may be selected based on this information.

次に情報処理部76は、撮影画像取得部74が取得したリアルタイムの撮影画像をHMD18に出力するように、出力データ生成部78に要求する。撮影画像をHMD18に表示させることにより、周囲に障害物がないかの確認をユーザに促す(S14、S16)。このとき出力データ生成部78は、「危ない物はありませんか?」といった文字情報と、ユーザが確認した旨を入力するためのGUI(Graphical User Interface)を撮影画像に重畳表示する。これによりユーザは事前にカメラの画角を認識できるため、プレイエリアと同等の領域を念頭に置いた動きができる。 Next, the information processing unit 76 requests the output data generating unit 78 to output the real-time captured image acquired by the captured image acquiring unit 74 to the HMD 18. The captured image is displayed on the HMD 18 to prompt the user to check for obstacles in the surrounding area (S14, S16). At this time, the output data generating unit 78 superimposes text information such as "Is there anything dangerous?" and a GUI (Graphical User Interface) for the user to input that he or she has checked the captured image. This allows the user to recognize the camera's angle of view in advance, allowing them to make movements while keeping in mind an area equivalent to the play area.

プレイエリアを知ることで自分の可動範囲が明確になり、周囲に存在する物が障害物となり得るかの判断も可能になる。ユーザが必要に応じて物を退かせたうえで、確認した旨の入力を行うことを条件に以後の処理を行うようにすれば、カメラの視野外への逸脱監視と同時に、障害物への衝突監視も行っていることになる。ユーザから確認の入力がない間は撮影画像を表示し続ける(S16のN、S14)。 Knowing the play area clarifies one's own range of movement and enables one to determine whether surrounding objects could be obstacles. If the user is allowed to move objects away as necessary and inputs a confirmation before further processing can begin, the system will monitor for deviations from the camera's field of view while also monitoring for collisions with obstacles. The captured image will continue to be displayed as long as there is no confirmation input from the user (N in S16, S14).

ユーザから確認の入力がなされたら(S16のY)、位置情報取得部80は、撮影画像に基づきユーザの位置情報の取得を開始する(S18)。そして当該情報を用いて情報処理部76が情報処理を行い、出力データ生成部78がその結果としてコンテンツの表示画像を描画する(S20)。一方、警告状況判定部82は、ユーザがプレイエリアを出たか否かを監視する(S22)。ユーザがプレイエリアから出たとする判定は、厳密にはユーザが装着しているHMD18、あるいはユーザが把持する入力装置14に設けたマーカーがプレイエリアから出たときに行う。 When the user inputs a confirmation (Y in S16), the position information acquisition unit 80 starts acquiring the user's position information based on the captured image (S18). The information processing unit 76 then uses this information to process the information, and the output data generation unit 78 draws a display image of the content as a result (S20). Meanwhile, the warning status determination unit 82 monitors whether the user has left the play area (S22). Strictly speaking, it is determined that the user has left the play area when the HMD 18 worn by the user, or a marker attached to the input device 14 held by the user, leaves the play area.

ただし当該判定の基準は、ユーザの位置情報取得手段によって様々であってよい。例えばステレオ画像におけるユーザの像自体からデプスマップを作成するなどして位置情報とする場合は、ユーザの重心がプレイエリアから出たときとしてもよい。輪郭線を追跡している場合も同様である。また顔検出処理などのパターンマッチングにより追跡している場合は、プレイエリア内で顔が認識されなくなったときなどでもよい。 However, the criteria for this determination may vary depending on the means for acquiring the user's position information. For example, if the position information is obtained by creating a depth map from the image of the user itself in a stereo image, the criteria may be when the user's center of gravity leaves the play area. The same applies when tracking a contour line. Furthermore, if tracking is performed using pattern matching such as face detection processing, the criteria may be when the face is no longer recognized within the play area.

ユーザがプレイエリアから出ていなければ(S22のN)、出力データ送信部86は、S20で描画されたコンテンツの画像をそのままHMD18に出力する(S26)。ユーザがプレイエリアから出た場合(S22のY)、警告状況判定部82が出力データ生成部78にその旨を通知することにより、出力データ生成部78がコンテンツの画像に警告画像を重畳させる(S24)。そして出力データ送信部86は、警告画像が重畳された画像をHMD18に出力する(S26)。なおS26の処理では、同時に音声のデータも出力してよい。 If the user has not left the play area (N in S22), the output data transmission unit 86 outputs the image of the content drawn in S20 to the HMD 18 as is (S26). If the user has left the play area (Y in S22), the warning status determination unit 82 notifies the output data generation unit 78 of this, causing the output data generation unit 78 to superimpose a warning image on the image of the content (S24). The output data transmission unit 86 then outputs the image with the warning image superimposed to the HMD 18 (S26). Note that in the processing of S26, audio data may also be output at the same time.

ユーザにより処理の停止要求があるなど処理を終了させる必要が生じない期間、位置情報に基づきコンテンツの画像を描画し、必要に応じて警告画像を重畳させてHMD18に出力する処理を、所定のレートで繰り返す(S28のN、S20~S26)。そして処理を終了させる必要が生じたら、全ての処理を終了させる(S28のY)。 When there is no need to end the process, such as when the user requests to stop the process, the process of drawing an image of the content based on the position information and outputting the image to the HMD 18 with a warning image superimposed as necessary is repeated at a predetermined rate (N in S28, S20 to S26). Then, when it becomes necessary to end the process, all the processes are ended (Y in S28).

なお同図のフローチャートでは、ユーザがプレイエリア外にいる期間と、警告画像を重畳させている期間が一致している。すなわちユーザがプレイエリア内に戻ったことをきっかけに警告画像が非表示となる。一方、警告画像を非表示とする条件を、表示する条件と独立に設けてもよい。図13は、警告画像の表示/非表示の状態遷移を模式的に示している。まず警告画像が表示されていない状態から表示された状態とするときの判定基準はこれまで述べたように、ユーザがプレイエリアから出たこととする(右方向矢印)。 In the flowchart in the figure, the period during which the user is outside the play area coincides with the period during which the warning image is superimposed. In other words, the warning image is hidden when the user returns to the play area. However, the conditions for hiding the warning image may be set independently of the conditions for displaying it. Figure 13 shows a schematic diagram of the state transition between displaying and hiding the warning image. As mentioned above, the criterion for changing from a state in which the warning image is not displayed to a state in which it is displayed is that the user has left the play area (rightward arrow).

一方、警告画像が表示されている状態から表示されない状態とするときの判定基準は、プレイエリアに入ったことではなく、別途設定した条件を満たしたときとする(左方向矢印)。例えば、プレイエリアより狭い範囲として警告非表示エリアを設定しておき、当該エリアに入ったときに警告画像を非表示とする。あるいはプレイエリアに入ってから所定時間経過したときとする。このようにすることで、一旦、表示された警告は非表示とされにくくなる。結果として、ユーザがプレイエリアの境界近傍にいるときなどに、僅かな動きでプレイエリアに対する内外判定結果が切り替わり、警告が表示されたり消えたりを繰り消すチャタリングを防止できる。 On the other hand, the criterion for changing from a displayed warning image to a hidden state is not when the user enters the play area, but when a separately set condition is met (arrow to the left). For example, a warning hidden area can be set that is narrower than the play area, and the warning image is hidden when the user enters that area. Or, it can be hidden when a specified amount of time has passed since entering the play area. By doing this, a warning that has been displayed is less likely to be hidden. As a result, when the user is near the boundary of the play area, for example, a slight movement can switch the inside/outside play area determination result, preventing chattering in which the warning is repeatedly displayed and hidden.

以上述べた本実施の形態によれば、撮影画像における像に基づきユーザの位置情報を取得し、その結果を利用して情報処理を行うシステムにおいて、実世界の3次元空間にプレイエリアを設定し、ユーザが当該プレイエリアから出たときにその旨の警告を表示などでユーザに提示する。これによりユーザがHMDを装着して外界が見えなかったり、表示されている仮想世界に没頭したりして、いつの間にかカメラの視野から外れ、情報処理に破綻を来すことを防止できる。 According to the present embodiment described above, in a system that obtains user position information based on the image in a captured image and uses the results to process information, a play area is set in a three-dimensional space in the real world, and when the user leaves the play area, a warning to that effect is displayed or otherwise presented to the user. This prevents the user from being unable to see the outside world while wearing an HMD, or from becoming immersed in the displayed virtual world, and suddenly falling out of the camera's field of view, which can cause information processing to fail.

ここでプレイエリアは、カメラの視野を基準として設定する。このときプレイエリアを、視野に対しマージン領域を見込んで内側に設定するか、視野と同一とするか、またマージン領域を見込む場合はその幅、といった要素を最適化する。このようにマージン領域を調整することは、警告なしに移動できる範囲を規定していると同時に、ユーザが視野外に出てしまい位置情報が取得できなくなる頻度、ひいては位置情報取得精度を調整していることに他ならない。そのため、多少の位置情報取得精度の悪化を犠牲にしても極力広い範囲の移動を許容するか、範囲を限定的としても位置情報取得精度を維持するか、といった優先順位と合致した設定が可能となる。 Here, the play area is set based on the camera's field of view. Factors such as whether to set the play area inside the field of view with a margin area in mind, or to make it the same as the field of view, and if a margin area is to be set, its width are optimized. Adjusting the margin area in this way not only determines the range in which movement can be made without warning, but also adjusts the frequency with which the user will go outside the field of view and location information will no longer be available, and thus the accuracy of location information acquisition. This makes it possible to set the play area in accordance with priorities, such as whether to allow the widest possible range of movement even at the expense of some deterioration in location information acquisition accuracy, or to maintain location information acquisition accuracy even if the range is limited.

このような優先順位は、カメラの水平/垂直画角、情報処理の内容、ユーザやその周囲の状況などに依存して変化するため、それぞれに対し設定を最適化することにより、位置情報の取得精度とユーザの快適性を両立させることができる。またプレイエリアの形状は特に限定されないため、形状やサイズを適切に設定すれば、カメラの視野からの逸脱防止以外に、ゲームなどのコンテンツから想定される移動量の適正値の遵守や、周囲の障害物への衝突回避など役割を同時に果たすことができる。 Since these priorities change depending on the horizontal and vertical angles of view of the camera, the content of the information being processed, the user and the situation around them, etc., it is possible to achieve both high accuracy in acquiring location information and user comfort by optimizing the settings for each. In addition, since there are no particular restrictions on the shape of the play area, by setting the shape and size appropriately, it is possible to simultaneously fulfill roles such as preventing deviation from the camera's field of view, adhering to appropriate values for the amount of movement expected from content such as games, and avoiding collisions with surrounding obstacles.

警告を表示する際は、ゲーム画面など本来の表示画像上に、警告を表す部品画像を重畳表示する。このとき、周縁をぼかしたり半透明にしたりすることで、本来の表示画像との親和性を高め、突然、関連性のない画像が出現することによる違和感を少なくする。また、視点から所定の距離を設けたり画面の下半分の位置に表示させたりすることにより、視線が遮られることによる不快感や酔いの発生が抑制され、負担なく視線を合わせ、状況を認識させることができる。 When a warning is displayed, the component image representing the warning is superimposed on the original display image, such as the game screen. At this time, the edges are blurred or made semi-transparent to enhance affinity with the original display image and reduce the sense of incongruity caused by the sudden appearance of an unrelated image. In addition, by setting the image at a specified distance from the viewpoint or displaying it in the lower half of the screen, discomfort and nausea caused by an obstructed line of sight are reduced, allowing the user to focus their gaze effortlessly and recognize the situation.

以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. The above embodiments are merely examples, and it will be understood by those skilled in the art that various modifications are possible in the combination of each component and each processing process, and that such modifications are also within the scope of the present invention.

8 情報処理システム、 10 情報処理装置、 12 撮像装置、 14 入力装置、 16 平板型ディスプレイ、 18 HMD、 22 CPU、 24 GPU、 26 メインメモリ、 72 入力情報取得部、 74 撮影画像取得部、 76 情報処理部、 78 出力データ生成部、 80 位置情報取得部、 82 警告状況判定部、 85 エリア設定情報記憶部、 86 出力データ送信部。 8 Information processing system, 10 Information processing device, 12 Imaging device, 14 Input device, 16 Flat panel display, 18 HMD, 22 CPU, 24 GPU, 26 Main memory, 72 Input information acquisition unit, 74 Captured image acquisition unit, 76 Information processing unit, 78 Output data generation unit, 80 Position information acquisition unit, 82 Warning status determination unit, 85 Area setting information storage unit, 86 Output data transmission unit.

Claims (17)

撮像装置による撮影画像に基づき実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行う情報処理部と、
前記情報処理の結果として表示すべき画像のデータを生成する画像生成部と、
前記撮影画像を解析して取得した実空間の状況に応じて、当該撮像装置の視野に対する設定規則を変化させてプレイエリアを設定したうえ、当該プレイエリアに基づいてユーザへの警告の必要性を判定し、前記画像生成部に警告画像を重畳させる警告状況判定部と、
前記画像生成部が生成した画像のデータを表示装置に出力する出力部と、
を備えることを特徴とする情報処理装置。
an information processing unit that detects a position of an object in a real space based on an image captured by the imaging device and processes information based on the object;
an image generating unit that generates data of an image to be displayed as a result of the information processing;
a warning status determination unit that sets a play area by changing a setting rule for the field of view of the imaging device according to a state of the real space acquired by analyzing the captured image, and determines the necessity of a warning to a user based on the play area, and superimposes a warning image on the image generation unit;
an output unit that outputs data of the image generated by the image generation unit to a display device;
An information processing device comprising:
前記警告状況判定部は、ユーザの姿勢状況に応じて前記プレイエリアの設定規則を変化させることを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the warning status determination unit changes the setting rules for the play area depending on the user's posture status. 前記警告状況判定部はさらに、前記撮像装置の視野の広さに応じて前記プレイエリアの設定規則を変化させることを特徴とする請求項1または2に記載の情報処理装置。 The information processing device according to claim 1 or 2, characterized in that the warning situation determination unit further changes the setting rules of the play area depending on the width of the field of view of the imaging device. 前記警告状況判定部は、互いに平行な2つの垂直面を境界に含む前記プレイエリアを設定することを特徴とする請求項1から3のいずれかに記載の情報処理装置。 The information processing device according to any one of claims 1 to 3, characterized in that the warning situation determination unit sets the play area to have boundaries including two parallel vertical planes. 前記警告状況判定部は、前記撮像装置からの距離に対し四辺形の断面を有する形状の前記プレイエリアを設定することを特徴とする請求項1から4のいずれかに記載の情報処理装置。 The information processing device according to any one of claims 1 to 4, characterized in that the warning situation determination unit sets the play area to a shape having a quadrilateral cross section relative to the distance from the imaging device. 前記警告状況判定部は、前記プレイエリアの外に前記対象物が出る際にユーザへの警告が必要と判定することを特徴とする請求項1から5のいずれかに記載の情報処理装置。 The information processing device according to any one of claims 1 to 5, characterized in that the warning status determination unit determines that a warning to the user is necessary when the object moves outside the play area. 前記警告状況判定部は、前記警告が必要と判定した際に用いた前記プレイエリアの内に前記対象物が入ったこととは異なる条件により、重畳させた前記警告画像を非表示とすることを特徴とする請求項6に記載の情報処理装置。 The information processing device according to claim 6, characterized in that the warning status determination unit makes the superimposed warning image invisible under conditions other than the object entering the play area used when it was determined that the warning was necessary. 前記出力部は、障害物がないかの確認をユーザに促す確認画面を前記表示装置に出力し、当該確認画面にリアルタイムの撮影画像を含めることを特徴とする請求項1から7のいずれかに記載の情報処理装置。 The information processing device according to any one of claims 1 to 7, characterized in that the output unit outputs to the display device a confirmation screen that prompts the user to check for any obstacles, and includes a real-time captured image on the confirmation screen. 前記警告状況判定部は、前記撮像装置を構成するステレオカメラが撮影したステレオ画像に基づき、前記対象物の、光軸方向の距離を取得することを特徴とする請求項1から8のいずれかに記載の情報処理装置。 The information processing device according to any one of claims 1 to 8, characterized in that the warning situation determination unit obtains the distance of the object in the optical axis direction based on a stereo image captured by a stereo camera constituting the imaging device. 前記ステレオカメラの光軸方向は実空間の水平方向にないことを特徴とする請求項9に記載の情報処理装置。 The information processing device according to claim 9, characterized in that the optical axis direction of the stereo camera is not in the horizontal direction in real space. 前記警告状況判定部は、前記撮像装置の光軸が実空間の水平方向にない場合、当該光軸方向の距離に対し前記プレイエリアの形状を定義することにより、前記プレイエリアと前記対象物との位置関係を取得することを特徴とする請求項9または10に記載の情報処理装置。 The information processing device according to claim 9 or 10, characterized in that, when the optical axis of the imaging device is not in the horizontal direction in real space, the warning situation determination unit obtains the positional relationship between the play area and the object by defining the shape of the play area with respect to the distance in the optical axis direction. 前記警告状況判定部は、実空間の水平方向の距離に対し前記プレイエリアの形状を定義し、前記撮像装置の光軸が前記水平方向にない場合、前記光軸と前記水平方向とのなす角度の計測値に基づく座標変換により、前記プレイエリアと前記対象物との位置関係を取得することを特徴とする請求項9または10に記載の情報処理装置。 The information processing device according to claim 9 or 10, characterized in that the warning situation determination unit defines the shape of the play area with respect to the horizontal distance in real space, and when the optical axis of the imaging device is not in the horizontal direction, obtains the positional relationship between the play area and the object by coordinate transformation based on the measured value of the angle between the optical axis and the horizontal direction. 前記警告状況判定部は、前記撮像装置による撮影画像平面で前記プレイエリアに対応する領域を規定したうえ、当該撮影画像上での前記対象物の像の位置に基づき前記警告の必要性を判定することを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the warning status determination unit defines an area corresponding to the play area on the plane of the image captured by the imaging device, and determines the necessity of the warning based on the position of the image of the object on the captured image. 前記警告状況判定部は、前記撮像装置を構成するステレオカメラの双方に写る空間に対応する領域を、当該ステレオカメラが撮影するステレオ画像のそれぞれに設定することにより、どちらか一方の画像において前記対象物の像が設定領域から出たことをもって、前記警告の必要があると判定することを特徴とする請求項13に記載の情報処理装置。 The information processing device according to claim 13, characterized in that the warning situation determination unit determines that the warning is necessary when the image of the object in either image leaves the set area by setting an area corresponding to the space captured by both stereo cameras constituting the imaging device in each stereo image captured by the stereo cameras. 前記警告状況判定部は、前記撮像装置を構成するステレオカメラの画角の積集合の境界面を基準として、前記プレイエリアの境界面を設定することを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the warning situation determination unit sets the boundary surface of the play area based on the boundary surface of the intersection set of the angles of view of the stereo cameras that constitute the imaging device. 撮像装置による撮影画像に基づき実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行うステップと、
前記情報処理の結果として表示すべき画像のデータを生成するステップと、
前記撮影画像を解析して取得した実空間の状況に応じて、当該撮像装置の視野に対する設定規則を変化させてプレイエリアを設定したうえ、当該プレイエリアに基づいてユーザへの警告の必要性を判定するステップと、
前記判定に応じて前記表示すべき画像に警告画像を重畳するステップと、
生成された画像のデータを表示装置に出力するステップと、
を含むことを特徴とする、情報処理装置による警告提示方法。
A step of detecting a position of an object in a real space based on an image captured by an imaging device, and performing information processing based on the object;
generating data of an image to be displayed as a result of the information processing;
a step of setting a play area by changing a setting rule for the field of view of the imaging device according to a state of the real space acquired by analyzing the captured image, and determining the need to warn a user based on the play area;
superimposing a warning image on the image to be displayed in response to the determination;
outputting data of the generated image to a display device;
A method for presenting a warning by an information processing device, comprising:
撮像装置による撮影画像に基づき実空間における対象物の位置を検出し当該対象物に基づき情報処理を行う機能と、
前記情報処理の結果として表示すべき画像のデータを生成する機能と、
前記撮影画像を解析して取得した実空間の状況に応じて、当該撮像装置の視野に対する設定規則を変化させてプレイエリアを設定したうえ、当該プレイエリアに基づいてユーザへの警告の必要性を判定し、前記画像のデータを生成する機能にその旨を通知することにより警告画像を重畳させる機能と、
生成された画像のデータを表示装置に出力する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
A function of detecting the position of an object in real space based on an image captured by an imaging device and performing information processing based on the object;
A function of generating data of an image to be displayed as a result of the information processing;
a function for setting a play area by changing a setting rule for the field of view of the imaging device according to the situation of the real space acquired by analyzing the captured image, determining the necessity of a warning to the user based on the play area, and notifying a function for generating data of the image of the necessity, thereby superimposing a warning image;
A function of outputting the generated image data to a display device;
A computer program characterized by causing a computer to execute the above.
JP2024033525A 2019-11-28 2024-03-06 Information processor and warning presentation method Pending JP2024061769A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024033525A JP2024061769A (en) 2019-11-28 2024-03-06 Information processor and warning presentation method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019214957A JP6867464B2 (en) 2019-11-28 2019-11-28 Information processing device and warning presentation method
JP2021065802A JP7080373B2 (en) 2019-11-28 2021-04-08 Information processing device and warning presentation method
JP2022084313A JP7481395B2 (en) 2019-11-28 2022-05-24 Information processing device and warning presentation method
JP2024033525A JP2024061769A (en) 2019-11-28 2024-03-06 Information processor and warning presentation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022084313A Division JP7481395B2 (en) 2019-11-28 2022-05-24 Information processing device and warning presentation method

Publications (1)

Publication Number Publication Date
JP2024061769A true JP2024061769A (en) 2024-05-08

Family

ID=70107459

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2019214957A Active JP6867464B2 (en) 2019-11-28 2019-11-28 Information processing device and warning presentation method
JP2021065802A Active JP7080373B2 (en) 2019-11-28 2021-04-08 Information processing device and warning presentation method
JP2022084313A Active JP7481395B2 (en) 2019-11-28 2022-05-24 Information processing device and warning presentation method
JP2024033525A Pending JP2024061769A (en) 2019-11-28 2024-03-06 Information processor and warning presentation method

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2019214957A Active JP6867464B2 (en) 2019-11-28 2019-11-28 Information processing device and warning presentation method
JP2021065802A Active JP7080373B2 (en) 2019-11-28 2021-04-08 Information processing device and warning presentation method
JP2022084313A Active JP7481395B2 (en) 2019-11-28 2022-05-24 Information processing device and warning presentation method

Country Status (1)

Country Link
JP (4) JP6867464B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023114237A (en) * 2022-02-04 2023-08-17 株式会社ソニー・インタラクティブエンタテインメント Information processing device and information processing method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4393169B2 (en) * 2003-12-04 2010-01-06 キヤノン株式会社 Mixed reality presentation method and apparatus
JP2007156561A (en) * 2005-11-30 2007-06-21 Canon Inc Augmented reality presenting method and system
JP2013164737A (en) * 2012-02-10 2013-08-22 Nec Corp Obstacle alarm display system, information processor, obstacle alarm display method, and obstacle alarm display program
JP6209825B2 (en) * 2013-02-15 2017-10-11 株式会社リコー Parallax detection device and parallax detection method
JP6237000B2 (en) * 2013-08-29 2017-11-29 セイコーエプソン株式会社 Head-mounted display device
US9630105B2 (en) * 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
JP2015116336A (en) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション Mixed-reality arena
JP6039594B2 (en) * 2014-02-20 2016-12-07 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JP2022111143A (en) 2022-07-29
JP6867464B2 (en) 2021-04-28
JP2020057400A (en) 2020-04-09
JP2021114310A (en) 2021-08-05
JP7481395B2 (en) 2024-05-10
JP7080373B2 (en) 2022-06-03

Similar Documents

Publication Publication Date Title
JP6363587B2 (en) Information processing apparatus and warning presenting method
US10229541B2 (en) Methods and systems for navigation within virtual reality space using head mounted display
US11865448B2 (en) Information processing apparatus and user guide presentation method
JP2017174125A (en) Information processing apparatus, information processing system, and information processing method
KR101433786B1 (en) Image display apparatus, game program, and method of controlling game
JP7085578B2 (en) Information processing device, user guide presentation method, and head-mounted display
JP2024061769A (en) Information processor and warning presentation method
JP6634654B2 (en) Information processing apparatus and warning presentation method
JP6530453B2 (en) Game program and game system
JP6711891B2 (en) Display control program, display control device, and display control method
JP2023125711A (en) Information processing device and floor height adjustment method
JP2023114237A (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240306