JP2016140078A - 画像生成装置および画像生成方法 - Google Patents

画像生成装置および画像生成方法 Download PDF

Info

Publication number
JP2016140078A
JP2016140078A JP2016031165A JP2016031165A JP2016140078A JP 2016140078 A JP2016140078 A JP 2016140078A JP 2016031165 A JP2016031165 A JP 2016031165A JP 2016031165 A JP2016031165 A JP 2016031165A JP 2016140078 A JP2016140078 A JP 2016140078A
Authority
JP
Japan
Prior art keywords
user
virtual space
positional relationship
users
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016031165A
Other languages
English (en)
Other versions
JP6216398B2 (ja
Inventor
洋 大澤
Hiroshi Osawa
洋 大澤
洋一 西牧
Yoichi Nishimaki
洋一 西牧
山岸 建
Ken Yamagishi
建 山岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2016031165A priority Critical patent/JP6216398B2/ja
Publication of JP2016140078A publication Critical patent/JP2016140078A/ja
Application granted granted Critical
Publication of JP6216398B2 publication Critical patent/JP6216398B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ヘッドマウントディスプレイにパノラマ画像や仮想空間を表示させるには処理負荷が大きい。【解決手段】ネットワークを介してヘッドマウントディスプレイにクラウドサービスを提供する画像生成装置を提供する。撮影画像受信部510は、撮影方向の異なる複数の撮影画像を受信する。パノラマ画像処理部530は、撮影方向の異なる複数の撮影画像を合成してパノラマ画像を生成する。フォーマット変換部540は、パノラマ画像をヘッドマウントディスプレイの仕様に適した画像フォーマットに変換する。パノラマ画像送信部550は、フォーマット変換後のパノラマ画像をヘッドマウントディスプレイに送信する。【選択図】図4

Description

この発明は、ヘッドマウントディスプレイに表示される画像を生成する装置および方法に関する。
ゲーム機に接続されたヘッドマウントディスプレイを頭部に装着して、ヘッドマウントディスプレイに表示された画面を見ながら、コントローラなどを操作してゲームプレイすることが行われている。ゲーム機に接続された通常の据え置き型のディスプレイでは、ディスプレイの画面の外側にもユーザの視野範囲が広がっているため、ディスプレイの画面に集中できなかったり、ゲームへの没入感に欠けることがある。その点、ヘッドマウントディスプレイを装着すると、ヘッドマウントディスプレイに表示される映像以外はユーザは見ないため、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。
また、ヘッドマウントディスプレイにパノラマ画像を表示させ、ヘッドマウントディスプレイを装着したユーザが頭部を回転させると、360度のパノラマ画像や仮想空間が表示されるようにすると、さらに映像への没入感が高まり、ゲームなどのアプリケーションの操作性も向上する。
しかしながら、ヘッドマウントディスプレイにパノラマ画像や仮想空間を表示させるにはヘッドマウントディスプレイ側に計算パワーが必要であり、処理負荷が大きくなる。
本発明はこうした課題に鑑みてなされたものであり、その目的は、ヘッドマウントディスプレイに表示する画像を効率良く生成することのできる画像生成装置および画像生成方法を提供することにある。
上記課題を解決するために、本発明のある態様の画像生成装置は、ネットワークを介してヘッドマウントディスプレイにクラウドサービスを提供する画像生成装置であって、撮影方向の異なる複数の撮影画像を受信する撮影画像受信部と、撮影方向の異なる複数の撮影画像を合成してパノラマ画像を生成するパノラマ画像処理部と、パノラマ画像をヘッドマウントディスプレイの仕様に適した画像フォーマットに変換するフォーマット変換部と、フォーマット変換後のパノラマ画像をヘッドマウントディスプレイに送信するパノラマ画像送信部とを含む。
本発明の別の態様もまた、画像生成装置である。この装置は、ネットワークを介してヘッドマウントディスプレイにクラウドサービスを提供する画像生成装置であって、ヘッドマウントディスプレイに搭載された位置センサにより取得された前記ヘッドマウントディスプレイを装着するユーザの位置の情報を受信する位置情報受信部と、複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理部と、決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリング部と、レンダリングされた仮想空間の情報を前記ヘッドマウントディスプレイに送信する描画データ送信部とを含む。
本発明のさらに別の態様は、画像生成方法である。この方法は、ネットワークを介してヘッドマウントディスプレイにクラウドサービスを提供する画像生成方法であって、撮影方向の異なる複数の撮影画像を受信する撮影画像受信ステップと、撮影方向の異なる複数の撮影画像を合成してパノラマ画像を生成するパノラマ画像処理ステップと、パノラマ画像をヘッドマウントディスプレイの仕様に適した画像フォーマットに変換するフォーマット変換ステップと、フォーマット変換後のパノラマ画像をヘッドマウントディスプレイに送信するパノラマ画像送信ステップとを含む。
本発明のさらに別の態様もまた、画像生成方法である。この方法は、ネットワークを介してヘッドマウントディスプレイにクラウドサービスを提供する画像生成方法であって、ヘッドマウントディスプレイに搭載された位置センサにより取得された前記ヘッドマウントディスプレイを装着するユーザの位置の情報を受信する位置情報受信ステップと、複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理ステップと、決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリングステップと、レンダリングされた仮想空間の情報を前記ヘッドマウントディスプレイに送信する描画データ送信ステップとを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、ヘッドマウントディスプレイに表示する画像を効率良く生成することができる。
ヘッドマウントディスプレイの外観図である。 ヘッドマウントディスプレイの機能構成図である。 画像生成システムの構成図である。 パノラマ画像生成装置の機能構成図である。 複数のヘッドマウントディスプレイにより映像を共有するシステムの構成図である。 仮想空間描画処理装置の機能構成図である。 仮想空間描画処理手順を説明するシーケンス図である。 図7の他ユーザとの位置関係処理の手順を詳しく説明するフローチャートである。 仮想空間に登場した第1のユーザのアバタを説明する図である。 仮想空間に登場した第2のユーザのアバタを説明する図である。 仮想空間に登場した第3のユーザのアバタを説明する図である。 仮想空間に登場した第4のユーザのアバタを説明する図である。 仮想空間にユーザのアバタを登場させる別の例を説明する図である。 ゲーム画面にユーザのアバタを登場させる例を説明する図である。 仮想空間と実世界に地理的な相関関係がない場合における、ユーザの位置関係のスコア計算方法を説明する図である。 仮想空間と実世界に地理的な相関関係がない場合における、ユーザの位置関係のスコア計算方法を説明する図である。 仮想空間と実世界に地理的な相関関係がある場合における、ユーザの位置関係のスコア計算方法を説明する図である。 仮想空間と実世界に地理的な相関関係がある場合における、ユーザの位置関係のスコア計算方法を説明する図である。
図1は、ヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、本体部110、前頭部接触部120、および側頭部接触部130を含む。
ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。
ヘッドマウントディスプレイ100に内蔵または外付けされたGPS(Global Positioning System)などの位置センサによりユーザの位置情報を計測することができる。また、ヘッドマウントディスプレイ100に内蔵または外付けされた姿勢センサによりヘッドマウントディスプレイ100を装着したユーザの頭部の向きや傾きといった姿勢情報を計測することができる。
本体部110には、ディスプレイ、位置情報取得センサ、姿勢センサ、通信装置などが含まれる。前頭部接触部120および側頭部接触部130には、ユーザの体温、脈拍、血液成分、発汗、脳波、脳血流などの生体情報を計測することのできる生体情報取得センサが含まれる。
ヘッドマウントディスプレイ100には、さらに、ユーザの目を撮影するカメラが設けられてもよい。ヘッドマウントディスプレイ100に搭載されたカメラにより、ユーザの視線、瞳孔の動き、瞬きなどを検出することができる。
ここでは、ヘッドマウントディスプレイ100に表示される画像の生成方法を説明するが、本実施の形態の画像生成方法は、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドフォン、ヘッドセット(マイクつきヘッドフォン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなどを装着した場合にも適用することができる。
図2は、ヘッドマウントディスプレイ100の機能構成図である。
制御部10は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース20は、タッチパネルおよびタッチパネルコントローラから操作信号や設定信号を受け付け、制御部10に供給する。出力インタフェース30は、制御部10から画像信号を受け取り、ディスプレイに表示させる。バックライト32は、液晶ディスプレイにバックライトを供給する。
通信制御部40は、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、制御部10から入力されるデータを外部に送信する。通信制御部40は、また、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、外部からデータを受信し、制御部10に出力する。
記憶部50は、制御部10が処理するデータやパラメータ、操作信号などを一時的に記憶する。
GPSユニット60は、制御部10からの操作信号にしたがって、GPS衛星から位置情報を受信して制御部10に供給する。無線ユニット62は、制御部10からの操作信号にしたがって、無線基地局から位置情報を受信して制御部10に供給する。
姿勢センサ64は、ヘッドマウントディスプレイ100の本体部110の向きや傾きなどの姿勢情報を検出する。姿勢センサ64は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。
外部入出力端子インタフェース70は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ72は、フラッシュメモリなどの外部メモリである。
時計部80は、制御部10からの設定信号によって時間情報を設定し、時間データを制御部10に供給する。
制御部10は、画像やテキストデータを出力インタフェース30に供給してディスプレイに表示させたり、通信制御部40に供給して外部に送信させることができる。
図3は、本実施の形態に係る画像生成システムの構成図である。画像生成システムは、ヘッドマウントディスプレイ100、クラウドサーバ200、およびカメラ300を含む。
ヘッドマウントディスプレイ100は、ユーザが頭部に装着して静止画、動画などの画像鑑賞を行うことのできる頭部装着型表示装置の一例である。ヘッドマウントディスプレイ100は、有線LANや無線LAN、ブルートゥース(商標)、携帯電話回線などの通信機能を備え、外部とのデータ入出力が可能である。ヘッドマウントディスプレイ100は、ネットワーク400を介してクラウドサーバ200とデータ通信を行う。また、ヘッドマウントディスプレイ100に搭載されたGPSセンサによりユーザの位置を計測し、ユーザの位置情報をクラウドサーバ200に送信することができる。また、ヘッドマウントディスプレイ100に搭載された姿勢センサによりヘッドマウントディスプレイ100の向きや傾きを計測し、姿勢情報をクラウドサーバ200に送信することができる。
カメラ300は、2次元または3次元の静止画や動画を撮影することができる画像データ取得装置の一例である。カメラ300は、有線LANや無線LAN、ブルートゥース(商標)、携帯電話回線などの通信機能を備え、外部とのデータ入出力が可能である。カメラ300は、ネットワーク400を介してクラウドサーバ200とデータ通信を行う。また、カメラ300は、撮影時の露出やレンズ情報、姿勢などの機器情報を記録する機能を持ち、クラウドサーバ200に撮影画像データとともに機器情報を送信することができる。また、カメラ300は、内蔵もしくは外付けの超音波やレーザーを用いた距離センサによって撮影した被写体までの距離を計測する機能を有してもよく、クラウドサーバ200に撮影画像データとともに距離情報を送信することができる。
クラウドサーバ200は、カメラ300で取得した画像データをヘッドマウントディスプレイ100に表示するのに適した形態に加工してヘッドマウントディスプレイ100に送信する。
たとえば、ハードウェア仕様の異なるヘッドマウントディスプレイに対応するように、クラウドサーバ200は、解像度、表示方法、画質など各ヘッドマウントディスプレイに最適化したデータに変換してもよい。クラウドサーバ200は、カメラ300で撮影された画像データをヘッドマウントディスプレイでの表示に最適となるように加工してもよい。クラウドサーバ200は、2次元画像を撮影する複数のカメラで撮影した複数枚の撮影画像から3次元表示可能な画像データに加工してもよい。クラウドサーバ200は、2次元画像を撮影する複数のカメラで撮影した複数枚の撮影画像から被写体までの距離データを計算してもよい。クラウドサーバ200は、距離センサで取得した距離データと画像データを組み合わせる事で2次元表示可能な画像データに加工してもよい。クラウドサーバ200は、カメラ300で撮影したデータをつなぎ合わせる事でパノラマ画像データを生成してもよい。
このように、クラウドサービスを利用することでクラウドサーバ200側で画像にいろいろな処理を施すことができるため、ヘッドマウントディスプレイ100およびカメラ300のハードウェア構成を簡単かつ安価にすることができる。カメラ300が撮影した画像をクラウドサーバ200に送信し、ヘッドマウントディスプレイ100が最適化されたデータを受け取って表示することにより、ユーザはリアルタイムで遠隔地のパノラマ画像を見ることができる。
図4は、パノラマ画像生成装置500の機能構成図である。パノラマ画像生成装置500の機能構成は、クラウドサーバ200に実装される。パノラマ画像生成装置500の機能構成の一部をヘッドマウントディスプレイ100またはカメラ300に実装することもできる。
撮影画像受信部510は、カメラ300から撮影方向の異なる複数の撮影画像を受信し、画像データ記憶部520に保存する。パノラマ画像処理部530は、画像データ記憶部520に記憶された撮影方向の異なる複数の撮影画像をステッチング処理によってつなぎ合わせてパノラマ画像を生成する。
フォーマット変換部540は、ヘッドマウントディスプレイ100の仕様に合わせて、パノラマ画像の解像度、アスペクト比(縦横比)、3次元表示データ形式などを変換する。
パノラマ画像送信部550は、フォーマット変換部540により変換されたパノラマ画像データをヘッドマウントディスプレイ100に送信する。
カメラ300がパノラマ撮影が可能な撮像装置である場合は、撮影画像受信部510はカメラ300からパノラマ画像を受信して画像データ記憶部520に保存する。この場合、ステッチング処理は不要であるから、フォーマット変換部540がパノラマ画像を画像データ記憶部520から読み出してヘッドマウントディスプレイ100の仕様に合わせて画像形式を変換すればよい。
カメラ300が被写体までの距離を測定する距離センサを備えている場合、撮影画像受信部510は、カメラ300から2次元パノラマ撮影画像とともに距離情報を受信し、画像データ記憶部520に2次元パノラマ撮影画像と距離情報を保存する。パノラマ画像処理部530は、画像解析を行い、2次元パノラマ撮影画像から距離情報を用いて視差を計算し、左目用画像と右目用画像を含む3次元パノラマ画像を生成する。フォーマット変換部540は、ヘッドマウントディスプレイ100の仕様に合わせて、3次元パノラマ画像の解像度、アスペクト比(縦横比)、表示データ形式などを変換する。パノラマ画像送信部550は、3次元パノラマ画像をヘッドマウントディスプレイ100に送信する。
また、クラウドサーバ200のパノラマ画像処理部530は、カメラ300により撮影された実写画像に各種のエフェクトを施してもよい。たとえば、コンピュータグラフィックス(CG)調、アニメーション調、セピア調などのエフェクトを実写画像に施す。また、パノラマ画像処理部530は、ゲームキャラクタなどのCGを生成し、カメラ300により撮影された実写画像に重ねてレンダリングしてもよい。これにより、クラウドサーバ200は実写画像とCGを合成した映像コンテンツをヘッドマウントディスプレイ100に配信することができる。
図5は、複数のヘッドマウントディスプレイにより映像を共有するシステムの構成図である。映像共有システムは、複数のヘッドマウントディスプレイ100a、100bおよびクラウドサーバ200を含む。ヘッドマウントディスプレイ100a、100bはネットワーク400を介してクラウドサーバ200とデータ通信する。
ヘッドマウントディスプレイ100a、100bは実世界におけるユーザの位置情報をクラウドサーバ200に送信する。クラウドサーバ200はユーザの位置関係を反映した画像データをヘッドマウントディスプレイ100a、100bに送信する。
たとえば、複数のユーザが一つの部屋でテーブルを囲んで座っている場合、クラウドサーバ200は各ユーザの位置情報をもとに現実の位置情報を仮想世界のアバタの位置情報に反映させてアバタの位置を決めて仮想空間内に各ユーザのアバタを描画する。また、映画館内や展示物の前で複数のユーザがヘッドマウントディスプレイを装着した場合、ユーザの現実世界での位置に応じて、視点位置の異なる映像をユーザのヘッドマウントディスプレイに配信してもよい。また、複数のユーザが異なるロケーションにいる場合、ユーザのロケーション間の距離をアバタの位置関係やアバタの表示サイズに反映してもよい。
図6は、仮想空間描画処理装置600の機能構成図である。仮想空間描画処理装置600の機能構成は、クラウドサーバ200に実装される。仮想空間描画処理装置600の機能構成の一部をヘッドマウントディスプレイ100に実装することもできる。
ユーザ位置・向き受信部610は、ヘッドマウントディスプレイ100に内蔵されたGPSセンサにより取得されたユーザの位置の情報、およびヘッドマウントディスプレイ100に内蔵された姿勢センサにより取得されたユーザの頭部の向きの情報をヘッドマウントディスプレイ100から受信し、ユーザデータベース660にユーザの位置および向きの情報をユーザの識別情報に関連づけて保存する。
位置関係処理部620は、ユーザデータベース660から複数のユーザの位置および向きの情報を読み出し、複数のユーザの位置関係を決定する。たとえば、現実世界において二人のユーザが向き合っているなら、仮想空間においても二人のユーザのアバタが向き合うようにアバタの位置と向きを決定する。また、現実世界におけるユーザAとユーザBの間の距離が、ユーザAとユーザCの間の距離よりも大きい場合、仮想空間においてもユーザAのアバタはユーザBのアバタよりもユーザCのアバタに近い位置に配置される。ユーザAとユーザBが向き合っている場合は、ユーザAのアバタとユーザBのアバタを向き合わせる。ユーザA、B、Cが一つの対象物を取り囲んで向き合っている場合は、ユーザA、B、Cのアバタも仮想空間におけるオブジェクトを取り囲んで向き合うように向きを決定する。
視線方向設定部630は、ユーザの現実の方向に応じて、各ユーザのカメラ位置、言い換えれば仮想空間における視線方向を設定する。たとえば、一つの対象物の周りを複数のユーザが取り囲んでいる場合、ユーザが現実の対象物に向かっている方向をユーザの仮想空間における視線方向とする。
3次元レンダリング部640は、仮想空間情報記憶部670から仮想空間の情報やキャラクタのデータを読み出し、各ユーザの視線方向から見た仮想空間の3次元レンダリングを行う。仮想空間には各ユーザのアバタが合成される。描画データ送信部650は仮想空間の描画データをヘッドマウントディスプレイ100に送信する。
図7は、仮想空間描画処理手順を説明するシーケンス図である。
ヘッドマウントディスプレイ100は、各種変数を初期化する(S10)。ヘッドマウントディスプレイ100に搭載されたGPSセンサや姿勢センサがユーザの位置と向きを測定する(S12)。ヘッドマウントディスプレイ100の通信制御部40は、ユーザの位置と向きの情報をクラウドサーバ200に送信する。
クラウドサーバ200の位置関係処理部620は、ユーザの位置情報にもとづいて、仮想空間内の位置にユーザのキャラクタをマッピングする(S14)。位置関係処理部620は、仮想空間内に既にマッピングされた他のユーザとの相対的な位置関係を計算し、当該ユーザのキャラクタを表示する位置と向きを決定する(S16)。視線方向設定部630は、当該ユーザのカメラ方向、すなわち仮想空間における視線方向を計算する(S18)。3次元レンダリング部640は、当該ユーザの視点方向から見た仮想空間の3次元レンダリングを行う(S20)。描画データ送信部650は、3次元レンダリングの描画データをヘッドマウントディスプレイ100に送信する。
ヘッドマウントディスプレイ100は、3次元描画データを表示する(S22)。終了条件を満たせば(S24のY)、終了し、終了条件を満たさない場合(S24のN)、ステップS12に戻って、それ以降の処理が繰り返される。
図8は、図7のステップS16の他ユーザとの位置関係処理の手順を詳しく説明するフローチャートである。
まず、仮想空間に既にアバタがいるかどうかを判定する(S30)。仮想空間にまだアバタがいなければ(S30のN)、仮想空間に当該ユーザのアバタを登場させる(S42)。
仮想空間に既にアバタが存在する場合(S30のY)、位置関係のスコア計算を行う(S32)。たとえば、実世界におけるユーザ間の距離をもとに、位置関係のスコアを求める。各ユーザの実世界における位置と方向の情報を用いて、アバタの相対的位置関係、すなわち、アバタ間の距離や、あるアバタが別のアバタに対して取る向きを決定する。
図12〜図15を参照してステップS32の位置関係のスコア計算の一例を説明する。ここではスコア計算方法の一例を説明するが、スコア計算方法はこれに限定されるものではない。
図12および図13は、仮想空間と実世界に地理的な相関関係がない場合における、ユーザの位置関係のスコア計算方法を説明する図である。
まず、各ユーザの実世界の位置の緯度経度データにもとづいて、各ユーザを基準とした他のユーザの距離および方向を求める。GPSデータを用いて実世界におけるユーザの位置を取得する。図12(a)は、ユーザ1、ユーザ2、ユーザ3の実世界の位置の緯度経度データを示す。
図12(b)は、実世界におけるユーザ1を基準としたユーザ2およびユーザ3の距離と方向を示す。ユーザ1を基準としたユーザ2の距離はLr_12であり、方向はAr_12である。また、ユーザ1を基準としたユーザ3の距離はLr_13であり、方向はAr_13である。ここで、方向は緯線を基準とした時計回りの角度で定義する。
同様に、図12(c)は、実世界におけるユーザ3を基準としたユーザ2およびユーザ1の距離と方向を示す。ユーザ3を基準としたユーザ2の距離はLr_32であり、方向はAr_32である。また、ユーザ3を基準としたユーザ1の距離はLr_31であり、方向はAr_31である。
なお、事前に仮想空間にいるアバタが一人だけである場合は、方向の計算は省略することができる。
次に、各ユーザの仮想空間の位置の絶対座標にもとづいて、各ユーザを基準とした他のユーザの距離および方向を求める。図13(a)は、ユーザ1、ユーザ2、ユーザ3の仮想空間の位置の絶対座標を示す。
図13(b)は、仮想空間におけるユーザ1を基準としたユーザ2およびユーザ3の距離と方向を示す。ユーザ1を基準としたユーザ2の距離はLv_12であり、方向はAv_12である。また、ユーザ1を基準としたユーザ3の距離はLv_13であり、方向はAv_13である。
同様に、図13(c)は、仮想空間におけるユーザ3を基準としたユーザ2およびユーザ1の距離と方向を示す。ユーザ3を基準としたユーザ2の距離はLv_32であり、方向はAv_32である。また、ユーザ3を基準としたユーザ1の距離はLv_31であり、方向はAv_31である。
次に、実世界におけるユーザ間の距離・方向と、仮想空間におけるユーザ間の距離・方向とを比較し、相関係数を計算する。
ユーザmとユーザnについての実世界と仮想空間の位置関係の相関係数Rmnは次式で定義される。
Rmn=|Lv_mn−Lr_mn|×|Av_mn−Ar_mn|
ここで、|a|は値aの絶対値を取る演算である。
相関係数Rmnをユーザの位置関係のスコアとして用いて(相関係数が小さいほどスコアは高く、相関係数が大きいほどスコアは低いとする)、相関係数Rmnが事前に決めた閾値以下であれば、実世界と仮想空間の位置関係は同じであるとみなす。
図14および図15は、仮想空間と実世界に地理的な相関関係がある場合における、ユーザの位置関係のスコア計算方法を説明する図である。
まず、各ユーザの実世界の位置の緯度経度データおよび実世界の地理的な基準点の緯度経度データにもとづいて、実世界の地理的な基準点(ここでは東京)を基準とした各ユーザの距離および方向を求める。GPSデータを用いて実世界におけるユーザの位置を取得する。図14(a)は、ユーザ1、ユーザ2、ユーザ3、および東京の実世界の位置の緯度経度データを示す。
図14(b)は、実世界における東京を基準としたユーザ2の距離と方向を示す。実世界の東京を基準としたユーザ2の距離はLr_02であり、方向はAr_02である。同様に、図14(c)は、実世界における東京を基準としたユーザ1の距離と方向を示す。実世界の東京を基準としたユーザ1の距離はLr_01であり、方向はAr_01である。図14(d)は、実世界における東京を基準としたユーザ3の距離と方向を示す。実世界の東京を基準としたユーザ3の距離はLr_03であり、方向はAr_03である。
次に、各ユーザの仮想空間の位置の絶対座標および仮想空間の地理的な基準点の絶対座標にもとづいて、仮想空間の地理的な基準点(ここでは東京)を基準とした各ユーザの距離および方向を求める。図15(a)は、ユーザ1、ユーザ2、ユーザ3、および東京の仮想空間の位置の絶対座標を示す。
図15(b)は、仮想空間における東京を基準としたユーザ2の距離と方向を示す。仮想空間の東京を基準としたユーザ2の距離はLv_02であり、方向はAv_02である。同様に、図15(c)は、仮想空間における東京を基準としたユーザ1の距離と方向を示す。仮想空間の東京を基準としたユーザ1の距離はLv_01であり、方向はAv_01である。図15(d)は、仮想空間における東京を基準としたユーザ3の距離と方向を示す。仮想空間の東京を基準としたユーザ3の距離はLv_03であり、方向はAv_03である。
次に、実世界における基準点とユーザ間の距離・方向と、仮想空間における基準点とユーザ間の距離・方向とを比較し、相関係数を計算する。
基準点とユーザmについての実世界と仮想空間の位置関係の相関係数R0mは次式で定義される。
R0m=|Lv_0m−Lr_0m|×|Av_0m−Ar_0m|
相関係数R0mをユーザの位置関係のスコアとして用いて(相関係数が小さいほどスコアは高く、相関係数が大きいほどスコアは低いとする)、相関係数R0mが事前に決めた閾値以下であれば、実世界と仮想空間の位置関係は同じであるとみなす。
再び図8を参照する。実世界の位置関係と仮想空間内のアバタの位置関係が同じかどうかを判定する(S34)。これは、仮想空間内でアバタが移動することがあり、現実の位置関係から外れていくことがあるからである。ステップS32で求めた相関係数Rmn(またはR0m)について閾値Rthと比較する。すべてのユーザについて、Rmn<Rth(またはR0m<Rth)であれば、実世界の位置関係と仮想空間内のアバタの位置関係は同じであると判定する。実世界の位置関係と仮想空間内のアバタの位置関係が所定の範囲で保たれている場合(S34のY)、仮想空間に当該ユーザのアバタを登場させる(S42)。
実世界の位置関係と仮想空間内のアバタの位置関係が保たれていない場合(S34のN)、ユーザ同士の現実の位置関係に近い場所が仮想空間にあるか判定する(S36)。ステップS34で行った相関係数と閾値の比較において、一人以上のユーザについてRmn<Rth(またはR0m<Rth)であれば、ユーザ同士の現実の位置関係に近い場所が仮想空間にあると判定する。ユーザ同士の現実の位置関係に近い場所が仮想空間内にある場合(S36のY)、その場所の中からスコアがもっとも高いものを最も近い場所に決定する(S38)。たとえば、ステップS34で行った相関係数と閾値の比較において、Rmn<Rth(またはR0m<Rth)を満たしているユーザのデータのみを使って位置を決定する。ユーザ同士の現実の位置関係に近い場所が仮想空間内にない場合(S36のN)、適当な場所、たとえばランダムな位置や最後方の位置を決定する(S40)。いずれの場合でも、決定された場所に当該ユーザのアバタを登場させる(S42)。
図9A〜図9Dは、仮想空間にユーザのアバタを登場させる例を説明する図である。ここでは、4人のユーザA〜Dのアバタ700a〜700dを仮想空間に登場させる例を説明する。4人のユーザA〜Dは、現実世界において異なる場所にいるとする。
図9Aに示すように、ユーザAが最初に仮想空間にログインし、アバタ700aが仮想空間内に登場したとする。
現実世界において、残りのユーザB、ユーザC、ユーザDはこの順でユーザAに対して近い位置にいるとする。たとえば、東京にいるユーザAに対して、ユーザBは横浜、ユーザCは神戸、ユーザDは香港にいるとする。
ユーザB、ユーザC、ユーザDのアバタを仮想空間内に登場させる際、現実世界における位置関係を考慮して、図9Bに示すように、ユーザBのアバタ700bを先に登場させ、次に図9Cに示すように、ユーザCのアバタ700cを登場させ、最後に図9Dに示すように、ユーザDのアバタ700dを登場させる。このように最初にアバタを登場させたユーザに対して近くにいるユーザのアバタは先に出現し、遠くにいるユーザのアバタはゆっくり出現する。このように、ユーザ間の現実の距離に応じて各ユーザのアバタの出現速度を変えることによって、現実世界の距離感を仮想空間に反映させることができる。
上記の説明では、ユーザA、B、C、Dが互いに離れた場所にいる場合を考えたが、ユーザA、B、C、Dがたとえば同じ部屋にいる場合は、ユーザA、B、C、Dの向きを仮想空間内のアバタ700a、700b、700c、700dの向きに反映させてもよい。たとえば、ユーザAとユーザBがテーブルを挟んで向かい合っている場合は、ユーザAのアバタ700aとユーザBのアバタ700bを仮想空間内のテーブルで向かい合う位置に配置される。
図10は、仮想空間にユーザのアバタを登場させる別の例を説明する図である。図9A〜図9Dでは、最初にアバタ700aを仮想空間に登場させたユーザAに対するユーザB、C、Dの現実の位置関係にもとづいて、ユーザB、C、Dのアバタ700b、700c、700dを登場させる順序を決めたが、図10では、ユーザB、C、Dのアバタ700b、700c、700dは乗り物に乗って登場する。
図10に示すように、ユーザAに対して最も近い位置にいるユーザBのアバタ700bは自転車に乗って登場し、次に近い位置にいるユーザCのアバタ700cは自動車に乗って登場し、最も遠い位置にいるユーザDのアバタ700dは飛行機に乗って登場する。このように最初にアバタを登場させたユーザとの距離に応じてアバタの乗り物を変えることで現実世界の距離感を仮想空間に反映させることができる。
図9A〜図9Dおよび図10で説明したように、先に仮想空間にアバタを登場させたユーザに対する距離に応じて他のユーザのアバタの現れ方を異ならせることでユーザは現実の距離感をヘッドマウントディスプレイ100に表示された仮想空間の中でも感じることができる。なお、ユーザ間の現実の距離に応じて、アバタの出現速度と乗り物の種類の両方を変えるようにしてもよい。
図11は、ゲーム画面にユーザのアバタを登場させる例を説明する図である。地球上のある基準点(たとえば東京)からユーザの現実の位置までの距離をゲームに反映させる。ただし、ユーザの現実の位置によってゲーム上、不利とならないように、基準点をランダムにしたり、条件によって変えるようにする。
図11に示すように、ユーザA、B、C、Dの地球上の位置を、互いの位置関係をできるだけ保持しながら、ゲーム内の位置にマッピングすることでユーザA、B、C、Dのアバタ700a、700b、700c、700dを表示する。ゲーム内の位置は取りうる場所が限定されるため、ユーザA、B、C、Dの現実の位置関係を、アバタ700a、700b、700c、700dの仮想空間内の位置関係に厳密に対応させる必要はなく、現実世界におけるユーザ同士の距離感が仮想空間におけるアバタの位置関係にある程度反映するものであればよい。
以上説明したように、本実施の形態によれば、位置や姿勢検出可能なセンサを備えたヘッドマウントディスプレイをクラウドサービスに組み入れることによって、ヘッドマウントディスプレイを装着したユーザの現実の位置関係や姿勢を仮想空間に反映させ、ヘッドマウントディスプレイに表示される画面への没入感および操作性を向上させることができる。またクラウドサーバを利用することでクライアント側のヘッドマウントディスプレイのハードウェア構成を単純化することができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。そのような変形例を説明する。
10 制御部、 20 入力インタフェース、 30 出力インタフェース、 32 バックライト、 40 通信制御部、 42 ネットワークアダプタ、 44 アンテナ、 50 記憶部、 60 GPSユニット、 62 無線ユニット、 64 姿勢センサ、 70 外部入出力端子インタフェース、 72 外部メモリ、 80 時計部、 100 ヘッドマウントディスプレイ、 110 本体部、 120 前頭部接触部、 130 側頭部接触部、 200 クラウドサーバ、 300 カメラ、 400 ネットワーク、 500 パノラマ画像生成装置、 510 撮影画像受信部、 520 画像データ記憶部、 530 パノラマ画像処理部、 540 フォーマット変換部、 550 パノラマ画像送信部、 600 仮想空間描画処理装置、 610 ユーザ位置・向き受信部、 620 位置関係処理部、 630 視線方向設定部、 640 3次元レンダリング部、 650 描画データ送信部、 660 ユーザデータベース、 670 仮想空間情報記憶部。

Claims (11)

  1. 画像生成装置であって、
    ヘッドマウントディスプレイを装着するユーザの位置の情報を取得する位置情報取得部と、
    複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理部と、
    決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリング部とを含み、
    前記位置関係処理部は、前記複数のユーザ間の現実の距離に応じて前記仮想空間における前記複数のユーザのキャラクタ間の距離を決定することを特徴とする画像生成装置。
  2. 前記ヘッドマウントディスプレイに搭載された姿勢センサにより取得された前記ヘッドマウントディスプレイを装着するユーザの頭部の向きの情報を受信する向き情報受信部をさらに含み、
    前記位置関係処理部は、各ユーザの向きにもとづいて各ユーザのキャラクタの仮想空間内の向きを決定することを特徴とする請求項1に記載の画像生成装置。
  3. 前記3次元レンダリング部は、前記複数のユーザ間の現実の距離に応じて、各ユーザのキャラクタが仮想空間に出現する態様を変えることを特徴とする請求項1または2に記載の画像生成装置。
  4. 前記3次元レンダリング部は、先に仮想空間にキャラクタを登場させたユーザに対する各ユーザの現実の距離に応じて、各ユーザのキャラクタが仮想空間に出現する態様を変えることを特徴とする請求項3に記載の画像生成装置。
  5. 前記3次元レンダリング部は、各ユーザのキャラクタが仮想空間に出現する態様として、各ユーザのキャラクタが仮想空間に出現する順序を変えることを特徴とする請求項3または4に記載の画像生成装置。
  6. 前記3次元レンダリング部は、各ユーザのキャラクタが仮想空間に出現する態様として、各ユーザのキャラクタが仮想空間に出現する速度を変えることを特徴とする請求項3または4に記載の画像生成装置。
  7. 前記3次元レンダリング部は、各ユーザのキャラクタが仮想空間に出現する態様として、各ユーザのキャラクタが仮想空間に出現するときの乗り物の種類を変えることを特徴とする請求項3から6のいずれかに記載の画像生成装置。
  8. 前記位置関係処理部は、各ユーザの現実の位置関係を保持しながら各ユーザの現実の位置を仮想空間内の位置にマッピングすることにより、仮想空間における各ユーザのキャラクタの位置を決定することを特徴とする請求項1から7のいずれかに記載の画像生成装置。
  9. 前記位置関係処理部は、現実の基準位置から各ユーザの現実の位置までの距離を反映させて仮想空間における各ユーザのキャラクタの位置を決定し、前記現実の基準位置をランダムに設定するか、所定の条件により変えることを特徴とする請求項8に記載の画像生成装置。
  10. 画像生成方法であって、
    ヘッドマウントディスプレイを装着するユーザの位置の情報を取得する位置情報取得ステップと、
    複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理ステップと、
    決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリングステップとを含み、
    前記位置関係処理ステップは、前記複数のユーザ間の現実の距離に応じて前記仮想空間における前記複数のユーザのキャラクタ間の距離を決定することを特徴とする画像生成方法。
  11. 画像生成プログラムであって、
    ヘッドマウントディスプレイを装着するユーザの位置の情報を取得する位置情報取得ステップと、
    複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理ステップと、
    決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリングステップとをコンピュータに実行させ、
    前記位置関係処理ステップは、前記複数のユーザ間の現実の距離に応じて前記仮想空間における前記複数のユーザのキャラクタ間の距離を決定することを特徴とするプログラム。
JP2016031165A 2016-02-22 2016-02-22 画像生成装置および画像生成方法 Active JP6216398B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016031165A JP6216398B2 (ja) 2016-02-22 2016-02-22 画像生成装置および画像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016031165A JP6216398B2 (ja) 2016-02-22 2016-02-22 画像生成装置および画像生成方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012155607A Division JP5891131B2 (ja) 2012-07-11 2012-07-11 画像生成装置および画像生成方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017182018A Division JP6487512B2 (ja) 2017-09-22 2017-09-22 ヘッドマウントディスプレイおよび画像生成方法

Publications (2)

Publication Number Publication Date
JP2016140078A true JP2016140078A (ja) 2016-08-04
JP6216398B2 JP6216398B2 (ja) 2017-10-18

Family

ID=56559423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016031165A Active JP6216398B2 (ja) 2016-02-22 2016-02-22 画像生成装置および画像生成方法

Country Status (1)

Country Link
JP (1) JP6216398B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6242473B1 (ja) * 2016-12-22 2017-12-06 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6244593B1 (ja) * 2017-01-30 2017-12-13 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018128817A (ja) * 2017-02-08 2018-08-16 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報制御装置
JP2019022176A (ja) * 2017-07-21 2019-02-07 Kddi株式会社 ユーザ状態及び複雑度によってビットレートを決定するコンテンツ配信装置、システム、プログラム及び方法
US10587763B2 (en) 2017-12-11 2020-03-10 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium for combining video contents and user image
US10728401B2 (en) 2017-12-11 2020-07-28 Fuji Xerox Co., Ltd. Information processing apparatus, information processing method, and non-transitory computer readable medium capable of outputting image
US10832547B2 (en) 2017-12-12 2020-11-10 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium
JP2021184272A (ja) * 2017-08-16 2021-12-02 株式会社コロプラ 情報処理方法、プログラム及びコンピュータ

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353248A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実感提示方法
JP2005318934A (ja) * 2004-05-06 2005-11-17 Nintendo Co Ltd ゲームシステムおよびゲームプログラム
JP2009093478A (ja) * 2007-10-10 2009-04-30 Yahoo Japan Corp 仮想空間放送装置
US20090164916A1 (en) * 2007-12-21 2009-06-25 Samsung Electronics Co., Ltd. Method and system for creating mixed world that reflects real state
WO2010023963A1 (ja) * 2008-09-01 2010-03-04 日本電気株式会社 アバター表示方法、アバター表示装置および記憶媒体
JP2012014599A (ja) * 2010-07-02 2012-01-19 Sony Computer Entertainment Inc 情報処理装置、表示制御方法、プログラム及び情報記憶媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353248A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実感提示方法
JP2005318934A (ja) * 2004-05-06 2005-11-17 Nintendo Co Ltd ゲームシステムおよびゲームプログラム
JP2009093478A (ja) * 2007-10-10 2009-04-30 Yahoo Japan Corp 仮想空間放送装置
US20090164916A1 (en) * 2007-12-21 2009-06-25 Samsung Electronics Co., Ltd. Method and system for creating mixed world that reflects real state
WO2010023963A1 (ja) * 2008-09-01 2010-03-04 日本電気株式会社 アバター表示方法、アバター表示装置および記憶媒体
JP2012014599A (ja) * 2010-07-02 2012-01-19 Sony Computer Entertainment Inc 情報処理装置、表示制御方法、プログラム及び情報記憶媒体

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6242473B1 (ja) * 2016-12-22 2017-12-06 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018106258A (ja) * 2016-12-22 2018-07-05 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6244593B1 (ja) * 2017-01-30 2017-12-13 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018124666A (ja) * 2017-01-30 2018-08-09 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10262461B2 (en) 2017-01-30 2019-04-16 Colopl, Inc. Information processing method and apparatus, and program for executing the information processing method on computer
JP2018128817A (ja) * 2017-02-08 2018-08-16 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報制御装置
JP2019022176A (ja) * 2017-07-21 2019-02-07 Kddi株式会社 ユーザ状態及び複雑度によってビットレートを決定するコンテンツ配信装置、システム、プログラム及び方法
JP2021184272A (ja) * 2017-08-16 2021-12-02 株式会社コロプラ 情報処理方法、プログラム及びコンピュータ
US10587763B2 (en) 2017-12-11 2020-03-10 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium for combining video contents and user image
US10728401B2 (en) 2017-12-11 2020-07-28 Fuji Xerox Co., Ltd. Information processing apparatus, information processing method, and non-transitory computer readable medium capable of outputting image
US11019228B2 (en) 2017-12-11 2021-05-25 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium for combining video contents and prestored image
US10832547B2 (en) 2017-12-12 2020-11-10 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium

Also Published As

Publication number Publication date
JP6216398B2 (ja) 2017-10-18

Similar Documents

Publication Publication Date Title
JP5891131B2 (ja) 画像生成装置および画像生成方法
JP6216398B2 (ja) 画像生成装置および画像生成方法
JP6725038B2 (ja) 情報処理装置及び方法、表示制御装置及び方法、プログラム、並びに情報処理システム
JP6353214B2 (ja) 画像生成装置および画像生成方法
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
JP6732617B2 (ja) 情報処理装置および画像生成方法
JP2017097122A (ja) 情報処理装置および画像生成方法
JP2016062486A (ja) 画像生成装置および画像生成方法
JP6615732B2 (ja) 情報処理装置および画像生成方法
JP2017215875A (ja) 画像生成装置、画像生成システム、および画像生成方法
JP2016015683A (ja) 画像生成装置および画像生成方法
JP6580516B2 (ja) 処理装置および画像決定方法
JP6487512B2 (ja) ヘッドマウントディスプレイおよび画像生成方法
JP2018033107A (ja) 動画の配信装置及び配信方法
JP6518645B2 (ja) 情報処理装置および画像生成方法
US20210058611A1 (en) Multiviewing virtual reality user interface
CN109791436B (zh) 用于提供虚拟场景的装置及方法
US10902617B2 (en) Data processing for position detection using optically detectable indicators
WO2023248832A1 (ja) 遠隔視認システム、現地撮像システム
WO2022220305A1 (ja) 映像表示システム、情報処理方法、及び、プログラム
JPWO2019038885A1 (ja) 情報処理装置および画像出力方法
JP2024031113A (ja) 情報処理装置および画像生成方法
CN117768599A (zh) 处理图像的方法、装置、系统、电子设备和存储介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170922

R150 Certificate of patent or registration of utility model

Ref document number: 6216398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250