JP2022111143A - Information processor and warning presentation method - Google Patents
Information processor and warning presentation method Download PDFInfo
- Publication number
- JP2022111143A JP2022111143A JP2022084313A JP2022084313A JP2022111143A JP 2022111143 A JP2022111143 A JP 2022111143A JP 2022084313 A JP2022084313 A JP 2022084313A JP 2022084313 A JP2022084313 A JP 2022084313A JP 2022111143 A JP2022111143 A JP 2022111143A
- Authority
- JP
- Japan
- Prior art keywords
- warning
- information processing
- image
- play area
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000003384 imaging method Methods 0.000 claims abstract description 45
- 230000010365 information processing Effects 0.000 claims description 106
- 230000003287 optical effect Effects 0.000 claims description 11
- 238000012790 confirmation Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 27
- 230000033001 locomotion Effects 0.000 description 22
- 239000003550 marker Substances 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 210000003128 head Anatomy 0.000 description 11
- 230000007246 mechanism Effects 0.000 description 9
- 230000015654 memory Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 210000001508 eye Anatomy 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000036544 posture Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004020 luminiscence type Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 244000145845 chattering Species 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 201000003152 motion sickness Diseases 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、撮影画像に基づき情報処理を行う情報処理装置および、それが行う警告提示方法に関する。 The present invention relates to an information processing device that performs information processing based on a captured image and a warning presentation method performed by the device.
ゲーム機に接続されたヘッドマウントディスプレイ(以下、「HMD」と呼ぶ)を頭部に装着して、表示された画面を見ながらゲームプレイすることが行われている(例えば特許文献1参照)。例えばユーザの頭部の位置や姿勢を取得し、顔の向きに応じて視野を変化させるように仮想世界の画像を表示すれば、あたかも仮想世界に入り込んだような状況を演出できる。ユーザの位置や姿勢は一般的に、ユーザを撮影した可視光や赤外線の画像の解析結果や、HMDに内蔵したモーションセンサの計測値などに基づいて取得される。
2. Description of the Related Art A head-mounted display (hereafter referred to as "HMD") connected to a game machine is worn on the head, and a game is played while looking at the displayed screen (see
撮影画像に基づき何らかの情報処理を行う技術は、ユーザなどの対象物がカメラの画角内にいることを前提としている。しかしながらHMDを装着した状態では、ユーザは外界を見ることができないため、方向感覚を失ったり、ゲームに没頭するあまり実空間で思わぬ位置に移動していたりすることがあり得る。これによりカメラの画角から外れると、情報処理が破綻したり精度が悪化したりするうえ、ユーザ自身がその原因に気づかないことも考えられる。カメラとの位置関係など現実世界の事情をユーザに意識させるほど情報処理の精度を保てるが、同時にHMDを利用し構築される仮想空間の世界観を阻害しやすくなる、というジレンマが生じる。 A technique for performing some kind of information processing based on a captured image assumes that an object such as a user is within the angle of view of the camera. However, since the user cannot see the outside world while wearing the HMD, the user may lose a sense of direction or move to an unexpected position in the real space due to being absorbed in the game. As a result, if the angle of view is out of the camera's field of view, the information processing may fail or the accuracy may deteriorate, and the user himself/herself may be unaware of the cause. The more the user is aware of the real world situation such as the positional relationship with the camera, the more accurate information processing can be maintained, but at the same time, a dilemma arises that the world view of the virtual space constructed using the HMD is likely to be disturbed.
本発明はこうした課題に鑑みてなされたものであり、その目的は、HMDで実現される娯楽性と情報処理の精度のバランスを最適化できる技術を提供することにある。 The present invention has been made in view of these problems, and its object is to provide a technique capable of optimizing the balance between entertainment and information processing accuracy realized by an HMD.
本発明のある態様は情報処理装置に関する。この情報処理装置は、実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行う情報処理部と、情報処理の結果として表示すべき画像のデータを生成する画像生成部と、状況に応じて形状を変化させたプレイエリアに基づいてユーザへの警告の必要性を判定し、画像生成部に警告画像を重畳させる警告状況判定部と、画像生成部が生成した画像のデータを表示装置に出力する出力部と、を備えることを特徴とする。 One aspect of the present invention relates to an information processing apparatus. This information processing device includes an information processing unit that detects the position of an object in real space and performs information processing based on the object, an image generation unit that generates image data to be displayed as a result of the information processing, A warning situation determination unit that determines the necessity of a warning to the user based on the play area whose shape is changed according to the situation, superimposes a warning image on the image generation unit, and an image data generated by the image generation unit. and an output unit for outputting to a display device.
本発明のさらに別の態様は警告提示方法に関する。この警告提示方法は情報処理装置が、実空間における対象物の位置を検出し、当該対象物に基づき情報処理を行うステップと、情報処理の結果として表示すべき画像のデータを生成するステップと、状況に応じて形状を変化させたプレイエリアに基づいてユーザへの警告の必要性を判定するステップと、判定に応じて表示すべき画像に警告画像を重畳するステップと、生成された画像のデータを表示装置に出力するステップと、を含むことを特徴とする。 Yet another aspect of the present invention relates to a warning presenting method. This warning presenting method comprises steps of an information processing device detecting the position of an object in a real space and performing information processing based on the object; generating image data to be displayed as a result of the information processing; A step of determining the necessity of warning the user based on the play area whose shape is changed according to the situation, a step of superimposing the warning image on the image to be displayed according to the determination, and data of the generated image. and outputting to a display device.
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。 Any combination of the above constituent elements, and any conversion of the expression of the present invention between a method, an apparatus, a system, a computer program, a recording medium recording a computer program, and the like are also effective as aspects of the present invention. .
本発明によると、HMDを装着したユーザが、現実世界での拘束条件をできるだけ意識することなく表現世界を楽しむことができる。 According to the present invention, a user wearing an HMD can enjoy the world of expression without being conscious of constraints in the real world as much as possible.
図1は本実施の形態を適用できる情報処理システムの構成例を示す。情報処理システム8は、対象物を撮影する撮像装置12、撮影した画像に基づき情報処理を行う情報処理装置10、情報処理の結果として得られた画像を表示する平板型ディスプレイ16およびHMD18、ユーザが操作する入力装置14を含む。
FIG. 1 shows a configuration example of an information processing system to which this embodiment can be applied. The
情報処理装置10と、撮像装置12、入力装置14、平板型ディスプレイ16、HMD18とは、有線ケーブルで接続されても、Bluetooth(登録商標)など既知の無線通信技術により接続されてもよい。また情報処理装置10が実施する情報処理によっては、平板型ディスプレイ16はなくてもよい。またこれらの装置の外観形状は図示するものに限らない。さらにこれらのうち2つ以上の装置を一体的に備えた装置としてもよい。例えば情報処理装置10、入力装置14、平板型ディスプレイ16を、それらを備えた携帯端末などで実現してもよい。
The
撮像装置12は、ユーザなどの対象物を所定のフレームレートで撮影するカメラと、その出力信号にデモザイク処理など一般的な処理を施すことにより撮影画像の出力データを生成し、情報処理装置10に送出する機構とを有する。カメラはCCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなど、一般的なデジタルカメラ、デジタルビデオカメラで利用されている可視光センサを備える。撮像装置12が備えるカメラは1つのみでもよいし、図示するように2つのカメラを既知の間隔で左右に配置したいわゆるステレオカメラでもよい。
The
あるいは単眼のカメラと、赤外線などの参照光を対象物に照射しその反射光を測定する装置との組み合わせで撮像装置12を構成してもよい。ステレオカメラや反射光の測定機構を導入した場合、対象物の位置を3次元の実空間に対し求めることができ、情報処理装置10による情報処理や表示装置による画像表示をより多様化させることができる。ステレオカメラが左右の視点から撮影したステレオ画像を用いて、三角測量の原理により被写体のカメラからの距離を特定する手法、反射光の測定によりTOF(Time of Flight)やパターン照射の方式で被写体のカメラからの距離を特定する手法はいずれも広く知られている。
Alternatively, the
以後では主に、撮像装置12がステレオ画像を撮影する態様について説明するが、上記のとおり本実施の形態をそれに限る主旨ではなく、撮像装置12には少なくとも一つのカメラが含まれていればよい。情報処理装置10は、撮像装置12から送信されたデータを用いて必要な情報処理を行い、画像や音声などの出力データを生成する。ここで情報処理装置10が行う処理の内容は特に限定されず、ユーザが求める機能やアプリケーションの内容などによって適宜決定してよい。
Hereinafter, a mode in which the
情報処理装置10は例えば、撮影画像に対し一般的な顔検出や追跡処理を施すことにより、対象物であるユーザの動作を反映させたキャラクタが登場するゲームを進捗させたり、ユーザの動きをコマンド入力に変換して情報処理を行ったりする。このとき入力装置14に設けたマーカーを利用して入力装置14の動きを取得してもよい。またHMD18の外面に設けた複数のマーカーを追跡することにより、HMD18を装着したユーザの頭部の位置や姿勢を特定し、それに対応して動く視点から見た仮想世界をHMD18に表示させてもよい。情報処理装置10が生成した出力データは、少なくともHMD18に送信される。
For example, the
HMD18は、ユーザが頭に装着することによりその眼前に位置する有機ELパネルなどの表示パネルに画像を表示する表示装置である。例えば左右の視点から見た視差画像を生成し、表示画面を2分割してなる左右の領域にそれぞれ表示させることにより、画像を立体視させてもよい。ただし本実施の形態をこれに限る主旨ではなく、表示画面全体に1つの画像を表示させてもよい。HMD18はさらに、ユーザの耳に対応する位置に音声を出力するスピーカーやイヤホンを内蔵していてもよい。 The HMD 18 is a display device that displays an image on a display panel, such as an organic EL panel, positioned in front of the user's head when worn by the user. For example, an image may be stereoscopically viewed by generating parallax images viewed from left and right viewpoints and displaying them in left and right regions obtained by dividing the display screen into two. However, the present embodiment is not intended to be limited to this, and one image may be displayed on the entire display screen. The HMD 18 may further incorporate speakers or earphones that output sound at positions corresponding to the ears of the user.
平板型ディスプレイ16は、2次元の画像を出力するディスプレイおよび音声を出力するスピーカーを有するテレビでよく、例えば液晶テレビ、有機ELテレビ、プラズマテレビ、PCディスプレイ等である。あるいはタブレット端末や携帯端末のディスプレイおよびスピーカーであってもよい。入力装置14は、ユーザが操作することにより、処理の開始、終了、機能の選択、各種コマンド入力などの要求を受け付け、情報処理装置10に電気信号として供給する。
The flat-
入力装置14は、ゲームコントローラ、キーボード、マウス、ジョイスティック、平板型ディスプレイ16の表示画面上に設けたタッチパッドなど、一般的な入力装置のいずれか、またはそれらの組み合わせによって実現してよい。入力装置14はさらに、所定の色で発光する素子またはその集合からなる発光マーカーを備えていてもよい。この場合、情報処理装置10がマーカーの動きを、撮影画像を用いて追跡することにより、入力装置14自体の動きをユーザ操作とすることができる。なお入力装置14を、発光マーカーとそれを把持する機構のみで構成してもよい。
The
図2はHMD18の外観形状の例を示している。この例においてHMD18は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。装着バンド106は各ユーザの頭囲に合わせて長さの調節が可能な素材または構造とする。例えばゴムなどの弾性体としてもよいし、バックルや歯車などを利用してもよい。
FIG. 2 shows an example of the external shape of the HMD 18. As shown in FIG. In this example, the
出力機構部102は、HMD18をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。そして筐体108の外面には、発光マーカー110a、110b、110c、110d、などを設ける。発光マーカーの数や配置は特に限定されないが、本実施の形態では出力機構部102の筐体前面の4隅に設ける。
The
さらに、装着バンド106後方の両側面にも発光マーカー110e、110fを設ける。このように発光マーカーを配置することにより、撮像装置12に対しユーザが横を向いたり後ろを向いたりしても、撮影画像における発光マーカーの像の数や位置に基づきそれらの状況を特定できる。なお発光マーカー110c、110dは出力機構部102の下側、発光マーカー110e、110fは装着バンド106の外側にあり、図2の視点からは本来は見えないため、外周を点線で表している。
Further,
図3は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)22、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、平板型ディスプレイ16やHMD18へデータを出力する出力部36、撮像装置12、入力装置14、およびHMD18からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。
FIG. 3 shows the internal circuit configuration of the
CPU22は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU22はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU22からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
The
図4はHMD18の内部回路構成を示している。HMD18は、CPU50、メインメモリ52、表示部54、音声出力部56を含む。これらの各部はバス58を介して相互に接続されている。バス58にはさらに入出力インターフェース60が接続されている。入出力インターフェース60には、有線又は無線LANのネットワークインターフェースからなる通信部62、加速度センサ64、発光部66が接続される。
FIG. 4 shows the internal circuit configuration of the
CPU50は、バス58を介してHMD18の各部から取得した情報を処理し、出力データを表示部54や音声出力部56に供給する。メインメモリ52はCPU50における処理に必要なプログラムやデータを格納する。ただし実行するアプリケーションや装置の設計によっては、情報処理装置10がほぼ全ての処理を行い、HMD18では情報処理装置10から送信されたデータを出力するのみで十分な場合がある。この場合、CPU50やメインメモリ52は、より簡易なデバイスで置き換えることができる。
The
表示部54は、液晶パネルや有機ELパネルなどの表示パネルで構成され、HMD18を装着したユーザの眼前に画像を表示する。上述したように左右の目に対応する領域に一対の視差画像を表示することにより立体視を実現してもよい。表示部54はさらに、HMD18装着時に表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する一対のレンズを含んでもよい。
The
音声出力部56は、HMD18の装着時にユーザの耳に対応する位置に設けたスピーカーやイヤホンで構成され、ユーザに音声を聞かせる。出力される音声のチャンネル数は特に限定されず、モノラル、ステレオ、サラウンドのいずれでもよい。通信部62は、情報処理装置10や平板型ディスプレイ16との間でデータを送受するためのインターフェースであり、例えばBluetooth(登録商標)などの既知の無線通信技術を用いて実現できる。
The
加速度センサ64は、所定軸方向の重力加速度を計測することによりHMD18の傾きを検出する。HMD18にはさらに、ジャイロセンサなどその他の各種センサを設けてよい。センサによる測定値は通信部62を介して情報処理装置10に送信される。発光部66は、所定の色で発光する素子またはその集合であり、図2で示したようにHMD18の外面の複数箇所に設ける。これをマーカーとして追跡することによりHMD18の位置を取得するほか、撮影画像におけるその像の数や位置関係からHMD18の姿勢を取得する。
The
情報処理装置10は、加速度センサ64および発光部66といった複数の手段により得られた情報を統合することにより、より高い精度でユーザの頭の位置や姿勢を取得することができる。一方、本実施の形態では、場合によっては加速度センサ64を省略することもできる。
The
図5は情報処理装置10の機能ブロックの構成を示している。図5に示す各機能ブロックは、ハードウェア的には、図3に示したCPU、GPU、各種メモリ、データバスなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
FIG. 5 shows the configuration of functional blocks of the
情報処理装置10は、入力装置14およびHMD18からの入力情報を取得する入力情報取得部72、撮像装置12から撮影画像のデータを取得する撮影画像取得部74、ゲームなどコンテンツに応じた情報処理を行う情報処理部76、出力すべきデータを生成する出力データ生成部78、情報処理や画像の生成に必要なデータを格納したコンテンツデータ記憶部84を含む。情報処理装置10はさらに、撮影画像に基づきユーザの位置情報を取得する位置情報取得部80、ユーザの位置に基づき警告が必要な状況を判定する警告状況判定部82、判定に必要な実空間上の領域に係る設定情報を格納したエリア設定情報記憶部85、および、出力すべきデータをHMD18に送信する出力データ送信部86を含む。
The
入力情報取得部72は、ユーザ操作の内容を入力装置14から取得する。ここでユーザ操作とは、実行するアプリケーションやコンテンツの選択、処理の開始/終了、コマンド入力など、一般的な情報処理装置でなされるものでよい。入力情報取得部72は入力装置14から取得した情報を、その内容に応じて撮影画像取得部74または情報処理部76に供給する。入力情報取得部72はさらに、HMD18の加速度センサ64から計測値を受信し、情報処理部76に供給する。
The input
撮影画像取得部74は、ステレオ画像など、撮像装置12が動画撮影して得られる撮影画像のデータを所定のレートで取得する。撮影画像取得部74はさらに、入力情報取得部72が取得したユーザからの処理開始/終了要求に従い、撮像装置12における撮影の開始/終了を制御したり、情報処理部76における処理の結果に応じて、撮像装置12から取得するデータの種類を制御したりしてもよい。
The captured
位置情報取得部80は、撮影画像から所定の対象物の像を検出することにより、ユーザの位置情報を所定のレートで取得する。例えばHMD18や入力装置14に設けた発光マーカーの像に基づきユーザの頭部や手の実空間での位置を取得する。あるいはユーザの体の一部を、輪郭線を利用して追跡したり、顔や特定の模様を有する対象物をパターンマッチングにより認識したりする画像解析技術を組み合わせてもよい。また撮像装置12の構成によっては上述のとおり、赤外線の反射を計測することによりユーザの距離を特定してもよい。
The positional
情報処理部76は、ユーザが指定したゲームなどの電子コンテンツを処理する。この処理には、位置情報取得部80が取得した、ユーザの位置情報の利用が含まれる。情報処理部76は必要に応じて、HMD18の加速度センサによる計測結果などを統合することにより、ユーザの姿勢を特定してもよい。なお上述のように、入力装置14を介したユーザ操作やユーザの動きに応じて、情報処理部76が行う後段の情報処理の内容は特に限定されない。
The
出力データ生成部78は、情報処理部76からの要求に従い、情報処理の結果として出力すべき画像や音声のデータを生成する。例えばユーザの頭部の位置や姿勢に対応する視点から見た仮想世界を左右の視差画像として生成する。この視差画像をHMD18において左右の目の前に表示させたり、仮想世界での音声を出力したりすれば、ユーザはあたかも仮想世界に入り込んだような感覚を得られる。情報処理部76における情報処理や出力データ生成部78におけるデータ生成処理に必要なプログラムや画像・音声のデータはコンテンツデータ記憶部84に格納しておく。
The output
警告状況判定部82は、位置情報取得部80が取得したユーザの位置情報に基づき、警告を与える状況の発生を常時監視し、その発生を判定する。具体的には、実世界の3次元空間に直接的あるいは間接的に設定したプレイエリアに対する内外判定を実施し、ユーザがプレイエリアから出たときに警告が必要であると判定する。本実施の形態では、撮影画像を利用して位置情報を取得するため、ユーザがカメラの画角内にいることを前提として情報処理が進捗する。
Based on the user's location information acquired by the location
ところが図2に示したようなHMDを装着したユーザには、周囲の状況、ひいては自分が画角内にいるかどうかが認識しづらい。正常な情報処理を継続するためには、そのような実世界に係る情報を何らかの手段により与える必要があるが、コンテンツが表現する世界観を損なうことになりかねない。そのための方策として、画角から出そうなときのみユーザに警告を与えることが考えられる。しかしながらこのタイミングが早すぎれば、少しの移動で頻繁に警告が与えられ、実質的に可動範囲を狭めてしまうことになる。一方で、タイミングが遅いと画角から外れることを免れず、位置情報が得られない期間が発生し得る。 However, it is difficult for a user wearing an HMD such as that shown in FIG. 2 to recognize the surroundings and whether he or she is within the angle of view. In order to continue normal information processing, it is necessary to provide such information related to the real world by some means, but this may spoil the view of the world expressed by the content. As a measure for this, it is conceivable to give a warning to the user only when it is about to go out of the angle of view. However, if this timing is too early, small movements will give frequent warnings, effectively reducing the range of motion. On the other hand, if the timing is too late, the angle of view is inevitably deviated, and a period during which position information cannot be obtained may occur.
そこで本実施の形態では上述のとおり、警告を発生させるタイミングを実世界でプレイエリアとして設定した領域に対する内外判定により判断し、さらにプレイエリアと画角との関係を調整することにより、可動範囲と処理精度のバランスを状況に応じて最適化する。プレイエリアの設定情報はあらかじめ、エリア設定情報記憶部85に格納しておく。具体的な設定内容については後に述べる。警告状況判定部82は、警告が必要と判定したとき、その旨を出力データ生成部78に通知する。
Therefore, in the present embodiment, as described above, the timing for issuing a warning is determined by determining the inside/outside of the area set as the play area in the real world, and furthermore, by adjusting the relationship between the play area and the angle of view, the movable range and the Optimize the balance of processing accuracy depending on the situation. Play area setting information is stored in the area setting
このとき出力データ生成部78は、警告を表す部品画像を表示画像に追加で描画する。警告状況判定部82はまた、ユーザが正常な位置に戻るなどして、警告の必要がなくなったことを判定し、その旨を出力データ生成部78に通知する。これに応じて出力データ生成部78は、警告を表す部品画像を非表示とする。なお警告は画像のみならず、音声を伴っていてもよい。出力データ送信部86は、出力データ生成部78が生成した出力データを順次取得し、必要に応じて成形したうえ、HMD18に送信する。
At this time, the output
図6は、本実施の形態において撮影画像から取得できる情報を説明するための図である。同図においてユーザ120は、入力装置14を把持しHMD18を装着している。入力装置14は、操作に適した持ち方で把持したときに撮像装置12に正対する位置に発光マーカー122を備える。HMD18の発光マーカーは図2で示したとおりである。撮像装置12をステレオカメラとした場合、ステレオ画像における像の視差に基づき、撮像装置12の撮像面から各発光マーカーまでの距離Zが求められる。また、どちらかの撮影画像の画像平面(XY平面)における発光マーカーの像の位置は、撮像装置12からの見かけ上の位置を表している。
FIG. 6 is a diagram for explaining information that can be acquired from a captured image in this embodiment. In the figure, the
これらの情報を統合する、具体的にはXY平面における位置を撮像装置12からの距離Zを用いて逆射影することにより、実世界の3次元空間における各発光マーカーの位置が求められる。さらにHMD18の発光マーカーの像の数や位置関係からHMD18の実空間における姿勢(ベクトルva)が、入力装置14の発光マーカー122の像の形状から入力装置14の実空間における姿勢(ベクトルvb)が求められる。
The position of each luminous marker in the three-dimensional space of the real world is obtained by integrating these pieces of information, specifically by inverse projecting the position on the XY plane using the distance Z from the
情報処理装置10の情報処理部76は、これらの装置の実空間における位置および姿勢に基づき、ユーザ120の顔の向きに応じて視野が変化する仮想世界や、入力装置14の動きに応じて画像内のオブジェクトが動く様を表現することができる。なおマーカーの見かけ上の大きさによって撮像装置12からの距離を推定したり、奥行き方向の動きが必要ない情報処理を行ったりする場合は、撮像装置12はステレオカメラでなくてよい。参照光を利用した距離測定技術を導入する場合も同様である。また必ずしもHMD18と入力装置14の双方を追跡しなくてもよい。
The
このように発光マーカーの像を利用する場合、直接得られるのは、厳密にはHMD18や入力装置14の発光マーカーの位置である。ただしHMD18はユーザが頭部に装着しているため、ユーザの頭部の位置と捉えることもできる。発光マーカー以外の被写体を拠り所として位置を特定する場合も、厳密にはそれらの被写体の位置が求められ、ユーザの重心位置などはそれらの情報から必要に応じて推定される。
Strictly speaking, when using the image of the luminous marker, the position of the luminous marker of the
以後の説明で「ユーザの位置」とは、ユーザ自身の位置でもよいし、位置取得の拠り所となる被写体の位置でもよい。また入力装置14がプレイエリア外に出ても、HMD18が出ていなければ警告の必要はないとするなど、被写体の性質や状況に応じて判定基準に係る規則を設けてもよい。
In the following description, the "user's position" may be the position of the user himself or the position of the subject that serves as a basis for position acquisition. Further, even if the
図7は、警告状況判定部82が警告の必要性を判定するときに参照する、プレイエリアの設定例を模式的に示している。同図は実空間を俯瞰した状態を示しており、撮像装置12に正対するようにユーザ120が存在している。撮像装置12のカメラの水平画角θhによって、点線で示した視野の境界面182a、182bが定まる。ステレオカメラの場合、両者の画角の積集合とする。このような視野の垂直方向の境界面を基準として、プレイエリア184の境界面を所定の規則で設定する。警告状況判定部82はユーザがプレイエリア184の外に出たとき、警告の必要が発生したと判定する。
FIG. 7 schematically shows a setting example of a play area referred to by the warning
図示する例では、撮像装置12からの距離ZがZ1≦Z<Z3の範囲において、視野の境界面182a、182bより内側にプレイエリア184を設定している。撮像装置12に近いZ1≦Z<Z2の範囲では、カメラの光軸を中心に距離Zに比例するように幅を増加させ、Z2≦Z<Z3の範囲では一定の幅Wを有するように設定している。Z1≦Z<Z2の範囲のプレイエリアの境界を決定づける垂直面186a、186bはすなわち、奥行き方向の位置によらず撮影画像上で左右の端より所定量、内側に結像する位置に対応する。したがって少なくとも垂直面186a、186bより内側をプレイエリアとすることで、画像上で当該所定量分をマージン領域として、ユーザが画角から外れる前の余裕を見たタイミングで警告を与えることができる。
In the illustrated example, the
撮像装置12に近くなるほど、視野が狭くなるため可動範囲も狭くなる。そのため撮像装置12に近い範囲では垂直面186a、186bより内側とする条件を最大限活用することで、警告を出さずにすむ範囲を広くとる。一方、撮像装置12から離れた位置では視野が広がるため、画角から外れたか否かを基準とした場合、垂直面186a、186bより内側をプレイエリアとすれば、より広い範囲で警告を出さずにすむ。しかしながら図示する例では、情報処理の適性や周囲の物の存在などを考慮して、それより狭い幅Wでプレイエリアを限定している。
The closer to the
このようにプレイエリア184は、画角からの逸脱可能性を低める以外に、適正な可動範囲を設定する役割も同時に備えることができる。またプレイエリアをカメラからの距離範囲に応じて異なる規則で設定することにより、視野の狭い領域では可動範囲を優先し、視野の広い領域ではコンテンツの事情などその他の要素を優先させる、といった優先順位の変化に適応できる。
In this way, the
図8は、プレイエリアの設定の別の例を模式的に示している。同図は実空間をユーザの左側面から見た状態を示しており、撮像装置12に正対するようにユーザ120が存在している。撮像装置12のカメラの垂直画角θvによって、点線で示した視野の境界面192a、192bが定まる。このような視野の水平方向の境界面を基準として、撮像装置12からの距離ZがZ1≦Z<Z3の範囲にプレイエリアの境界面を設定する。
FIG. 8 schematically shows another example of play area setting. The figure shows the real space viewed from the left side of the user, and the
同図の例では、Z1≦Z<Z3の範囲にわたり、視野の境界面192a、192bをプレイエリア194の境界面と一致させている。すなわち図7で示したプレイエリアと比較し、視野の境界面との間にマージン領域を設定しない。つまり撮影画像上で上下の端より所定量、内側に結像する水平面196a、196bのような余裕分をも設けず、撮影画像の上端から下端に対応する領域をプレイエリアとしている。このようにすると、画角から外れるのと同時に警告が与えられる結果となるため、微小時間であっても位置取得が不能となる可能性が高くなる。一方で、より広い範囲で警告を出さずにすむことになる。
In the example shown in the figure, the
このような設定は、画角が狭いカメラにおいて有効である。画角が狭い場合、図7に示すようにマージン領域を設定すると、少しの動きで警告が頻繁に出てしまうことがあり得る。そのため多少の情報処理の精度悪化を犠牲にしても、広いプレイエリアを確保することにより快適性を優先できる。例えば水平画角は広く、垂直画角は狭い特性を有するカメラを使用する場合、図7および図8で示したように、実空間での方向に応じて視野の境界面に対するプレイエリアの境界面の位置関係を異ならせれば、情報処理精度と快適な操作環境とのバランスを好適にとることができる。 Such settings are effective for a camera with a narrow angle of view. When the angle of view is narrow, if the margin area is set as shown in FIG. 7, even a slight movement may result in frequent warnings. Therefore, comfort can be prioritized by securing a wide play area, even if the accuracy of information processing is slightly deteriorated. For example, when using a camera with a wide horizontal angle of view and a narrow vertical angle of view, as shown in FIGS. By changing the positional relationship of , it is possible to appropriately balance information processing accuracy and a comfortable operating environment.
図9は、マージン領域の有無による処理への影響を説明するための図である。同図上段の(a)は視野に対しマージン領域を設けてプレイエリアを設定した場合、下段の(b)は視野とプレイエリアを一致させた場合の、ユーザの動きと各処理のタイムチャートである。すなわち右側に模式的に示すように、撮像装置12に対し白抜きで示したプレイエリアを設定するが、(a)は黒色で示す視野外の領域との間に網掛けで示したマージン領域を設けている。タイムチャートにおける「位置」の段の白、網掛け、黒の矩形はそれぞれ、ユーザがプレイエリア、マージン領域、視野外にいる時間を表す。
FIG. 9 is a diagram for explaining the influence of the presence or absence of a margin area on processing. (a) in the upper part of the same figure is a time chart of the user's movement and each process when the play area is set by providing a margin area for the field of view, and (b) in the lower part is a time chart of the user's movement and each process when the field of view and the play area are matched. be. That is, as schematically shown on the right side, a white play area is set for the
比較のため両者の設定において、ユーザが時刻t2で視野外に出るとし、警告を同じ時間だけ表示した結果、ユーザがプレイエリアに戻るとしている。このようなユーザの動きに対し、位置情報取得部80が位置情報を取得できる期間を「位置取得」の段に、警告表示がなされる期間を「警告」の段に、矩形で表している。(a)の場合、視野外へ出る時刻t2より前の時刻t1でプレイエリアから出るため、その時点から時刻t3でプレイエリアへ戻るまでの間、警告が表示される。一方(b)の場合、マージン領域を設定しないため、視野外へ出ている時刻t2から時刻t4までの間に警告が表示される。
For comparison, both settings assume that the user leaves the field of view at time t2, and that the user returns to the play area as a result of displaying the warning for the same amount of time. The period during which the position
図示するように、(a)においては、警告が表示された後も位置情報を取得できるため、当該情報を根拠としてプレイエリア外にいることが保障される。(b)の場合、警告と同時に位置情報も取得できなくなるため、警告を表示している期間においてその妥当性が保障されない。したがって、例えば視野境界においてオクルージョンなどでユーザの像が検出されなかったことを、視野外に出たと誤認し警告を表示させてしまう可能性がある。 As shown in the figure, in (a), the position information can be obtained even after the warning is displayed, so it is guaranteed that the player is outside the play area based on the information. In the case of (b), since the location information cannot be obtained at the same time as the warning, the validity of the warning is not guaranteed during the period when the warning is displayed. Therefore, for example, when the user's image is not detected due to occlusion at the boundary of the field of view, there is a possibility that the user may misunderstand that the user is out of the field of view and display a warning.
また(a)と(b)で警告が表示されてから同じタイミングでプレイエリアに戻っても、(b)では位置情報を取得できない期間が長くなる。図示する例では、(a)においても視野外へ出る期間が発生しているが、マージン領域の幅によっては、ユーザが視野外へ出る前に警告表示に応じて戻る可能性があるため、(b)の場合と比較し位置情報を取得できない期間が発生しにくい。一方で、同じように移動しても(a)の場合はより早い時刻t1で警告が表示されるため、ユーザに対する拘束条件が厳しくなる。これらの特性を踏まえ、警告を出さずにすむ領域を極限まで広げたいか、そのようにせずとも領域に余裕があるか、など、状況に応じた優先順位によって最適なプレイエリアを設定することが望ましい。 In addition, even if the user returns to the play area at the same timing after the warning is displayed in (a) and (b), the period in which the position information cannot be acquired becomes longer in (b). In the illustrated example, there is a period of going out of the field of view even in (a), but depending on the width of the margin area, there is a possibility that the user will return in response to the warning display before going out of the field of view. Compared with the case of b), a period in which position information cannot be acquired is less likely to occur. On the other hand, even if the user moves in the same manner, in the case of (a), the warning is displayed at an earlier time t1, so the constraint on the user becomes stricter. Based on these characteristics, it is possible to set the optimal play area based on the priority according to the situation, such as whether you want to maximize the area where you can avoid issuing a warning, or whether there is room in the area even if you do not do so. desirable.
なおマージン領域を設けるか否かのみならず、マージン領域の幅やプレイエリアの形状も、想定される状況や実空間での方向に応じて最適化してよい。例えばゲームなどコンテンツの内容や環境によって想定されるユーザの姿勢、具体的には立って遊ぶか座って遊ぶか、机に向かっているかソファに座っているか、といった状況に応じて、同じ画角でもプレイエリアの形状を変化させてよい。 Note that not only whether or not to provide a margin area, but also the width of the margin area and the shape of the play area may be optimized according to the assumed situation and the direction in the real space. For example, even with the same angle of view, depending on the user's posture, which is assumed depending on the content and environment, such as playing games, whether playing standing or sitting, facing a desk or sitting on a sofa, etc. The shape of the play area may vary.
また図7、図8の設定を同時に適用した場合、設定されるプレイエリアはカメラからの距離Zに対し四辺形の断面を有するような形状であったが、本実施の形態をそれに限る主旨ではなく、円筒形など任意の形状でよい。また光軸が水平方向にない場合、カメラからの距離Zは床面と水平でなくなる。このときプレイエリアの形状は、光軸方向の距離で定義してもよいし、実空間での水平方向の距離で定義してもよい。カメラの光軸と実空間の水平面とのなす角度を、撮像装置12に内蔵させた加速度センサなどにより計測すれば、座標変換は容易に実現できる。3次元空間での領域を設定するための具体的なデータ形式については、様々考えられることは当業者には理解されるところである。
When the settings of FIGS. 7 and 8 are applied at the same time, the set play area has a quadrilateral cross-section with respect to the distance Z from the camera. Any shape, such as a cylindrical shape, may be used. Also, if the optical axis is not horizontal, the distance Z from the camera is not horizontal to the floor. At this time, the shape of the play area may be defined by the distance in the optical axis direction or by the horizontal distance in real space. If the angle formed by the optical axis of the camera and the horizontal plane of the real space is measured by an acceleration sensor or the like incorporated in the
一方で、プレイエリアに対応する領域を画像平面で規定することにより、プレイエリアを間接的に設定してもよい。図10は、画像平面におけるプレイエリアの設定手法を説明するための図である。同図は被写空間に対向するカメラの視野、ひいては撮影画像の平面を表しており、上段(a)が単眼カメラ、下段(b)がステレオカメラの場合である。単眼カメラの場合、撮影画像300の平面に対し、所定幅xを有する左右両端をマージン領域とし、それを除く領域302をプレイエリア対応領域として定義する。
On the other hand, the play area may be set indirectly by defining an area corresponding to the play area on the image plane. FIG. 10 is a diagram for explaining a play area setting method on the image plane. The figure shows the field of view of the camera facing the object space, and thus the plane of the photographed image. In the case of a monocular camera, the left and right ends having a predetermined width x with respect to the plane of the captured
この領域302により規定される3次元空間での領域は、奥行き方向の距離Zに比例して水平方向の幅が増加する領域304である。すなわち水平方向に着目した場合、領域302を設定することにより、図8で示した垂直面186a、186bの内側をプレイエリアとして設定したことになる。このように画像平面上でプレイエリア対応領域302を設定した場合、実空間でのプレイエリアの断面は、距離Zに応じたサイズの相似形となるため、実空間に直接設定する場合と比較して設定形状の自由度が少なくなる。
A region in the three-dimensional space defined by this
一方、撮影画像上での像とプレイエリア対応領域302との内外判定により直接、警告の必要性を判定できるため、ユーザの位置情報を介するより誤差の生じる余地が少なくなる。図示する例は水平方向にマージン領域を設けた場合であったが、垂直方向にマージン領域を設ける場合も同様である。また上述と同様の理由により、マージン領域を設けるか否か、およびその幅xの調整を、方向によって独立に行ってよい。それらの要素をコンテンツの内容や状況に応じて変化させてもよい。
On the other hand, since it is possible to directly determine the necessity of warning by judging the inside/outside of the image on the captured image and the play
(b)で示したステレオカメラの場合、ユーザがカメラの視野の左端にいるか右端にいるかにより、先に視野から外れるカメラが異なる。例えばユーザがカメラの視野の右端近傍にいる場合、図示するように、右視点のカメラの画像306bにおける像308bより、左視点のカメラの画像306aにおける像308aの方が右端に近くなる。したがってこのままユーザが右方向に移動した場合、左視点のカメラの視野から先に外れることになる。ユーザがカメラの視野の左端近傍にいる場合は逆に、右視点のカメラの視野から先に外れる。
In the case of the stereo camera shown in (b), the camera that first leaves the field of view differs depending on whether the user is at the left end or the right end of the field of view of the camera. For example, when the user is near the right end of the field of view of the camera, the
したがってステレオカメラのどちらにも写るような視野内にプレイエリアを設定する場合、左視点のカメラの撮影画像平面における、右端の所定幅xのマージン領域を除く領域310aと、右視点のカメラの撮影画像平面における、左端の所定幅xのマージン領域を除く領域310bとを、プレイエリア対応領域として同時に設定する。そしてどちらかの画像において、ユーザの像がプレイエリア対応領域から出たことをもって、警告の必要性を判定する。
Therefore, when a play area is set within a field of view that can be captured by both stereo cameras, an
図11は、警告状況判定部82が、警告が必要であると判定した際に生成される表示画面を例示している。表示画面200は、ゲーム画面などコンテンツの画像に警告を表す警告画像202を追加した構成を有する。警告画像202は図示する例では、「Out of play area」なる文字情報によりプレイエリアの外に出たことを表している。さらに危険を表すマークも含めることで緊急性を表現している。
FIG. 11 exemplifies a display screen generated when the warning
ただし警告画像202の形態をこれに限る主旨ではなく、色や形状を工夫することで図形やマークのみで表したり、そのような図形やマークと文字情報を組み合わせたりしてもよい。また警告画像202をコンテンツごとに、あるいはその時点での表示の内容に応じて、変化させてもよい。ユーザに気づきを与える性質上、警告画像202はコンテンツの画像に重畳表示することを基本とする。一方で、コンテンツの画像が奥行き感を伴う仮想世界であった場合は特に、奥行き感のない部品画像が突然、目前に出現することにより、ユーザが驚いたり不快な気持ちになったりすることが考えられる。
However, the form of the
そこで図示するように警告画像202の周縁を、ブラー処理やαブレンディングなどによってぼかす。警告画像202全体を半透明としてもよい。これにより前面にありながらも背後に表現されている仮想世界との親和性を高められる。また突然視線を遮られた感覚を与えないよう、視点を避けた位置に警告画像202を表示することが望ましい。例えばユーザの視線に合わせて視野を変化させる表示形態では、必然的に視点が画面中央に固定されるため、画面中央から所定距離以上、離れた位置に表示する。
Therefore, as shown in the figure, the periphery of the
また人は目線を上げるより下げる方が楽に行えるため、表示形態によらず、画面の下半分の領域(上下方向の中心線Cより下の領域)に警告画像202を表示することにより、注視点をコンテンツの画像から無理なく移動させていくことができる。これらのことにより、突然出現した画像に目の焦点が合わず認識するのに時間を要したり、細かい眼球の動きにより酔ってしまったりするのも防止できる。
In addition, since it is easier for people to lower their eyes rather than raise them, the
次にこれまで述べた構成によって実現できる、情報処理装置10の動作について説明する。図12は、本実施の形態において情報処理装置がユーザの動きに応じた出力データを生成する処理手順を示すフローチャートである。このフローチャートは、ユーザが入力装置14を介して情報処理装置10に処理の開始を要求したときなどに開始される。
Next, the operation of the
まず情報処理装置10の撮影画像取得部74は、撮像装置12に撮影の開始を要求し、それに応じて撮像装置12が撮影し出力した撮影画像のデータの取得を開始する(S10)。一方、警告状況判定部82は、エリア設定情報記憶部85からプレイエリアに係る設定情報を読み出す(S12)。このとき、ユーザが選択するなどした実施すべきコンテンツに対応づけられた設定情報を選択してもよい。また撮影画像を解析するなどしてユーザが着座しているか否かや、周囲の状況などを特定し、それらの情報によって設定情報を選択してもよい。
First, the photographed
次に情報処理部76は、撮影画像取得部74が取得したリアルタイムの撮影画像をHMD18に出力するように、出力データ生成部78に要求する。撮影画像をHMD18に表示させることにより、周囲に障害物がないかの確認をユーザに促す(S14、S16)。このとき出力データ生成部78は、「危ない物はありませんか?」といった文字情報と、ユーザが確認した旨を入力するためのGUI(Graphical User Interface)を撮影画像に重畳表示する。これによりユーザは事前にカメラの画角を認識できるため、プレイエリアと同等の領域を念頭に置いた動きができる。
Next, the
プレイエリアを知ることで自分の可動範囲が明確になり、周囲に存在する物が障害物となり得るかの判断も可能になる。ユーザが必要に応じて物を退かせたうえで、確認した旨の入力を行うことを条件に以後の処理を行うようにすれば、カメラの視野外への逸脱監視と同時に、障害物への衝突監視も行っていることになる。ユーザから確認の入力がない間は撮影画像を表示し続ける(S16のN、S14)。 Knowing the play area makes it possible to clarify the range of movement of one's own, and it is possible to judge whether the surrounding objects can be obstacles. If the user moves the object away as necessary and then performs the subsequent processing on the condition that he/she inputs confirmation, it will be possible to monitor deviations out of the field of view of the camera and at the same time detect obstacles. Collision monitoring is also carried out. As long as there is no confirmation input from the user, the captured image is kept displayed (N of S16, S14).
ユーザから確認の入力がなされたら(S16のY)、位置情報取得部80は、撮影画像に基づきユーザの位置情報の取得を開始する(S18)。そして当該情報を用いて情報処理部76が情報処理を行い、出力データ生成部78がその結果としてコンテンツの表示画像を描画する(S20)。一方、警告状況判定部82は、ユーザがプレイエリアを出たか否かを監視する(S22)。ユーザがプレイエリアから出たとする判定は、厳密にはユーザが装着しているHMD18、あるいはユーザが把持する入力装置14に設けたマーカーがプレイエリアから出たときに行う。
When the user inputs confirmation (Y of S16), the positional
ただし当該判定の基準は、ユーザの位置情報取得手段によって様々であってよい。例えばステレオ画像におけるユーザの像自体からデプスマップを作成するなどして位置情報とする場合は、ユーザの重心がプレイエリアから出たときとしてもよい。輪郭線を追跡している場合も同様である。また顔検出処理などのパターンマッチングにより追跡している場合は、プレイエリア内で顔が認識されなくなったときなどでもよい。 However, the criteria for the determination may vary depending on the user's position information acquisition means. For example, when a depth map is created from the user's image itself in the stereo image and used as position information, the time when the center of gravity of the user leaves the play area may be used. The same is true when tracing contours. Also, when the face is tracked by pattern matching such as face detection processing, it may be when the face is no longer recognized in the play area.
ユーザがプレイエリアから出ていなければ(S22のN)、出力データ送信部86は、S20で描画されたコンテンツの画像をそのままHMD18に出力する(S26)。ユーザがプレイエリアから出た場合(S22のY)、警告状況判定部82が出力データ生成部78にその旨を通知することにより、出力データ生成部78がコンテンツの画像に警告画像を重畳させる(S24)。そして出力データ送信部86は、警告画像が重畳された画像をHMD18に出力する(S26)。なおS26の処理では、同時に音声のデータも出力してよい。
If the user has not left the play area (N of S22), the output
ユーザにより処理の停止要求があるなど処理を終了させる必要が生じない期間、位置情報に基づきコンテンツの画像を描画し、必要に応じて警告画像を重畳させてHMD18に出力する処理を、所定のレートで繰り返す(S28のN、S20~S26)。そして処理を終了させる必要が生じたら、全ての処理を終了させる(S28のY)。
During the period when there is no need to end the process, such as when there is a request to stop the process from the user, the content image is drawn based on the position information, and if necessary, the warning image is superimposed and output to the
なお同図のフローチャートでは、ユーザがプレイエリア外にいる期間と、警告画像を重畳させている期間が一致している。すなわちユーザがプレイエリア内に戻ったことをきっかけに警告画像が非表示となる。一方、警告画像を非表示とする条件を、表示する条件と独立に設けてもよい。図13は、警告画像の表示/非表示の状態遷移を模式的に示している。まず警告画像が表示されていない状態から表示された状態とするときの判定基準はこれまで述べたように、ユーザがプレイエリアから出たこととする(右方向矢印)。 It should be noted that in the flowchart of the figure, the period during which the user is outside the play area coincides with the period during which the warning image is superimposed. That is, when the user returns to the play area, the warning image disappears. On the other hand, the condition for hiding the warning image may be provided independently of the condition for displaying the warning image. FIG. 13 schematically shows the display/non-display state transition of the warning image. First, as described above, the criterion for determining whether the warning image is displayed from a state in which the warning image is not displayed is that the user has left the play area (rightward arrow).
一方、警告画像が表示されている状態から表示されない状態とするときの判定基準は、プレイエリアに入ったことではなく、別途設定した条件を満たしたときとする(左方向矢印)。例えば、プレイエリアより狭い範囲として警告非表示エリアを設定しておき、当該エリアに入ったときに警告画像を非表示とする。あるいはプレイエリアに入ってから所定時間経過したときとする。このようにすることで、一旦、表示された警告は非表示とされにくくなる。結果として、ユーザがプレイエリアの境界近傍にいるときなどに、僅かな動きでプレイエリアに対する内外判定結果が切り替わり、警告が表示されたり消えたりを繰り消すチャタリングを防止できる。 On the other hand, the criterion for changing the warning image from the displayed state to the non-displayed state is not that the player has entered the play area, but that a separately set condition is satisfied (leftward arrow). For example, a warning non-display area is set as a range narrower than the play area, and the warning image is hidden when the player enters the area. Alternatively, it is assumed that a predetermined time has passed after entering the play area. By doing so, the once displayed warning is less likely to be hidden. As a result, when the user is in the vicinity of the boundary of the play area, chattering in which the inside/outside determination result for the play area is switched with a slight movement, and the warning repeatedly appears and disappears can be prevented.
以上述べた本実施の形態によれば、撮影画像における像に基づきユーザの位置情報を取得し、その結果を利用して情報処理を行うシステムにおいて、実世界の3次元空間にプレイエリアを設定し、ユーザが当該プレイエリアから出たときにその旨の警告を表示などでユーザに提示する。これによりユーザがHMDを装着して外界が見えなかったり、表示されている仮想世界に没頭したりして、いつの間にかカメラの視野から外れ、情報処理に破綻を来すことを防止できる。 According to the present embodiment described above, in a system that acquires position information of a user based on an image in a photographed image and performs information processing using the result, a play area is set in a three-dimensional space in the real world. , when the user leaves the play area, a warning to that effect is presented to the user by display or the like. This prevents the user from wearing the HMD and being unable to see the outside world or being immersed in the displayed virtual world, and unintentionally leaving the field of view of the camera and causing a breakdown in information processing.
ここでプレイエリアは、カメラの視野を基準として設定する。このときプレイエリアを、視野に対しマージン領域を見込んで内側に設定するか、視野と同一とするか、またマージン領域を見込む場合はその幅、といった要素を最適化する。このようにマージン領域を調整することは、警告なしに移動できる範囲を規定していると同時に、ユーザが視野外に出てしまい位置情報が取得できなくなる頻度、ひいては位置情報取得精度を調整していることに他ならない。そのため、多少の位置情報取得精度の悪化を犠牲にしても極力広い範囲の移動を許容するか、範囲を限定的としても位置情報取得精度を維持するか、といった優先順位と合致した設定が可能となる。 Here, the play area is set based on the field of view of the camera. At this time, factors such as whether the play area is set inside the field of view with the margin area in mind, or whether it is the same as the field of view, and when the margin area is in the area, are optimized. Adjusting the margin area in this way regulates the range in which the user can move without warning, and at the same time, adjusts the frequency at which position information cannot be obtained due to the user going out of the field of view, and thus the accuracy of position information acquisition. It's nothing but being there. Therefore, it is possible to make settings that match the priority, such as whether to allow movement in a wide range as much as possible even if it sacrifices some deterioration in the accuracy of location information acquisition, or to maintain the accuracy of location information acquisition even if the range is limited. Become.
このような優先順位は、カメラの水平/垂直画角、情報処理の内容、ユーザやその周囲の状況などに依存して変化するため、それぞれに対し設定を最適化することにより、位置情報の取得精度とユーザの快適性を両立させることができる。またプレイエリアの形状は特に限定されないため、形状やサイズを適切に設定すれば、カメラの視野からの逸脱防止以外に、ゲームなどのコンテンツから想定される移動量の適正値の遵守や、周囲の障害物への衝突回避など役割を同時に果たすことができる。 Such priority changes depending on the horizontal/vertical angle of view of the camera, the content of information processing, the user and their surroundings, and so on. Accuracy and user comfort can be balanced. Also, since there are no particular restrictions on the shape of the play area, if the shape and size are set appropriately, in addition to preventing deviance from the camera's field of view, compliance with the appropriate amount of movement assumed from content such as games, and the surrounding It can also play a role such as collision avoidance with obstacles at the same time.
警告を表示する際は、ゲーム画面など本来の表示画像上に、警告を表す部品画像を重畳表示する。このとき、周縁をぼかしたり半透明にしたりすることで、本来の表示画像との親和性を高め、突然、関連性のない画像が出現することによる違和感を少なくする。また、視点から所定の距離を設けたり画面の下半分の位置に表示させたりすることにより、視線が遮られることによる不快感や酔いの発生が抑制され、負担なく視線を合わせ、状況を認識させることができる。 When displaying the warning, the part image representing the warning is superimposed on the original display image such as the game screen. At this time, by blurring or making the peripheral edge semi-transparent, affinity with the original display image is enhanced, and discomfort due to the sudden appearance of an irrelevant image is reduced. In addition, by setting a predetermined distance from the point of view and displaying the image in the lower half of the screen, discomfort and motion sickness due to obstruction of the line of sight can be suppressed. be able to.
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. It should be understood by those skilled in the art that the above embodiments are merely examples, and that various modifications can be made to combinations of each component and each treatment process, and that such modifications are within the scope of the present invention. be.
8 情報処理システム、 10 情報処理装置、 12 撮像装置、 14 入力装置、 16 平板型ディスプレイ、 18 HMD、 22 CPU、 24 GPU、 26 メインメモリ、 72 入力情報取得部、 74 撮影画像取得部、 76 情報処理部、 78 出力データ生成部、 80 位置情報取得部、 82 警告状況判定部、 85 エリア設定情報記憶部、 86 出力データ送信部。
8 information processing system, 10 information processing device, 12 imaging device, 14 input device, 16 flat panel display, 18 HMD, 22 CPU, 24 GPU, 26 main memory, 72 input information acquisition unit, 74 captured image acquisition unit, 76
Claims (17)
前記情報処理の結果として表示すべき画像のデータを生成する画像生成部と、
状況に応じて形状を変化させたプレイエリアに基づいてユーザへの警告の必要性を判定し、前記画像生成部に警告画像を重畳させる警告状況判定部と、
前記画像生成部が生成した画像のデータを表示装置に出力する出力部と、
を備えることを特徴とする情報処理装置。 an information processing unit that detects the position of an object in real space and performs information processing based on the object;
an image generation unit that generates image data to be displayed as a result of the information processing;
a warning situation determination unit that determines the necessity of warning the user based on the play area whose shape is changed according to the situation, and superimposes a warning image on the image generation unit;
an output unit that outputs image data generated by the image generation unit to a display device;
An information processing device comprising:
前記情報処理の結果として表示すべき画像のデータを生成するステップと、
状況に応じて形状を変化させたプレイエリアに基づいてユーザへの警告の必要性を判定するステップと、
前記判定に応じて前記表示すべき画像に警告画像を重畳するステップと、
生成された画像のデータを表示装置に出力するステップと、
を含むことを特徴とする、情報処理装置による警告提示方法。 detecting the position of an object in real space and performing information processing based on the object;
generating image data to be displayed as a result of the information processing;
determining the necessity of warning the user based on the play area whose shape is changed according to the situation;
superimposing a warning image on the image to be displayed according to the determination;
outputting data of the generated image to a display device;
A warning presentation method by an information processing device, comprising:
前記情報処理の結果として表示すべき画像のデータを生成する機能と、
状況に応じて形状を変化させたプレイエリアに基づいてユーザへの警告の必要性を判定し、前記画像のデータを生成する機能にその旨を通知することにより警告画像を重畳させる機能と、
生成された画像のデータを表示装置に出力する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。 A function of detecting the position of an object in real space and performing information processing based on the object;
a function of generating image data to be displayed as a result of the information processing;
A function of judging the necessity of a warning to the user based on the play area whose shape is changed according to the situation, and superimposing a warning image by notifying the function of generating data of the image to that effect;
a function of outputting data of the generated image to a display device;
A computer program characterized by causing a computer to implement
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022084313A JP7481395B2 (en) | 2019-11-28 | 2022-05-24 | Information processing device and warning presentation method |
JP2024033525A JP2024061769A (en) | 2019-11-28 | 2024-03-06 | Information processor and warning presentation method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019214957A JP6867464B2 (en) | 2019-11-28 | 2019-11-28 | Information processing device and warning presentation method |
JP2021065802A JP7080373B2 (en) | 2019-11-28 | 2021-04-08 | Information processing device and warning presentation method |
JP2022084313A JP7481395B2 (en) | 2019-11-28 | 2022-05-24 | Information processing device and warning presentation method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021065802A Division JP7080373B2 (en) | 2019-11-28 | 2021-04-08 | Information processing device and warning presentation method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024033525A Division JP2024061769A (en) | 2019-11-28 | 2024-03-06 | Information processor and warning presentation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022111143A true JP2022111143A (en) | 2022-07-29 |
JP7481395B2 JP7481395B2 (en) | 2024-05-10 |
Family
ID=70107459
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019214957A Active JP6867464B2 (en) | 2019-11-28 | 2019-11-28 | Information processing device and warning presentation method |
JP2021065802A Active JP7080373B2 (en) | 2019-11-28 | 2021-04-08 | Information processing device and warning presentation method |
JP2022084313A Active JP7481395B2 (en) | 2019-11-28 | 2022-05-24 | Information processing device and warning presentation method |
JP2024033525A Pending JP2024061769A (en) | 2019-11-28 | 2024-03-06 | Information processor and warning presentation method |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019214957A Active JP6867464B2 (en) | 2019-11-28 | 2019-11-28 | Information processing device and warning presentation method |
JP2021065802A Active JP7080373B2 (en) | 2019-11-28 | 2021-04-08 | Information processing device and warning presentation method |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024033525A Pending JP2024061769A (en) | 2019-11-28 | 2024-03-06 | Information processor and warning presentation method |
Country Status (1)
Country | Link |
---|---|
JP (4) | JP6867464B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023114237A (en) * | 2022-02-04 | 2023-08-17 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and information processing method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165848A (en) * | 2003-12-04 | 2005-06-23 | Canon Inc | Method and device for presenting augmented reality |
US20150094142A1 (en) * | 2013-09-30 | 2015-04-02 | Sony Computer Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007156561A (en) * | 2005-11-30 | 2007-06-21 | Canon Inc | Augmented reality presenting method and system |
JP2013164737A (en) | 2012-02-10 | 2013-08-22 | Nec Corp | Obstacle alarm display system, information processor, obstacle alarm display method, and obstacle alarm display program |
JP6209825B2 (en) | 2013-02-15 | 2017-10-11 | 株式会社リコー | Parallax detection device and parallax detection method |
JP6237000B2 (en) * | 2013-08-29 | 2017-11-29 | セイコーエプソン株式会社 | Head-mounted display device |
JP2015116336A (en) * | 2013-12-18 | 2015-06-25 | マイクロソフト コーポレーション | Mixed-reality arena |
JP6039594B2 (en) * | 2014-02-20 | 2016-12-07 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing apparatus and information processing method |
-
2019
- 2019-11-28 JP JP2019214957A patent/JP6867464B2/en active Active
-
2021
- 2021-04-08 JP JP2021065802A patent/JP7080373B2/en active Active
-
2022
- 2022-05-24 JP JP2022084313A patent/JP7481395B2/en active Active
-
2024
- 2024-03-06 JP JP2024033525A patent/JP2024061769A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165848A (en) * | 2003-12-04 | 2005-06-23 | Canon Inc | Method and device for presenting augmented reality |
US20150094142A1 (en) * | 2013-09-30 | 2015-04-02 | Sony Computer Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
Non-Patent Citations (1)
Title |
---|
"ひと味違う体験が可能〜「WiiSportsの裏技集」", HATENA BLOG, JPN7023002611, 10 December 2006 (2006-12-10), JP, ISSN: 0005217264 * |
Also Published As
Publication number | Publication date |
---|---|
JP7080373B2 (en) | 2022-06-03 |
JP2024061769A (en) | 2024-05-08 |
JP2021114310A (en) | 2021-08-05 |
JP2020057400A (en) | 2020-04-09 |
JP6867464B2 (en) | 2021-04-28 |
JP7481395B2 (en) | 2024-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6363587B2 (en) | Information processing apparatus and warning presenting method | |
CN108885799B (en) | Information processing apparatus, information processing system, and information processing method | |
US11865448B2 (en) | Information processing apparatus and user guide presentation method | |
US20170324899A1 (en) | Image pickup apparatus, head-mounted display apparatus, information processing system and information processing method | |
JP7085578B2 (en) | Information processing device, user guide presentation method, and head-mounted display | |
JP2024061769A (en) | Information processor and warning presentation method | |
JP6634654B2 (en) | Information processing apparatus and warning presentation method | |
EP4206867A1 (en) | Peripheral tracking system and method | |
JP2023178093A (en) | Display unit, control method, and program | |
JP2023096844A (en) | Program, information processing method, and information processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220524 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230904 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240306 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240314 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240423 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7481395 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |