JP6669783B2 - 端末装置、システム、プログラム及び方法 - Google Patents

端末装置、システム、プログラム及び方法 Download PDF

Info

Publication number
JP6669783B2
JP6669783B2 JP2017567501A JP2017567501A JP6669783B2 JP 6669783 B2 JP6669783 B2 JP 6669783B2 JP 2017567501 A JP2017567501 A JP 2017567501A JP 2017567501 A JP2017567501 A JP 2017567501A JP 6669783 B2 JP6669783 B2 JP 6669783B2
Authority
JP
Japan
Prior art keywords
virtual
virtual object
player
image
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017567501A
Other languages
English (en)
Other versions
JPWO2019130374A1 (ja
Inventor
小笠原 博之
博之 小笠原
理恵 竹内
理恵 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gungho Online Entertainment Inc
Original Assignee
Gungho Online Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gungho Online Entertainment Inc filed Critical Gungho Online Entertainment Inc
Publication of JPWO2019130374A1 publication Critical patent/JPWO2019130374A1/ja
Application granted granted Critical
Publication of JP6669783B2 publication Critical patent/JP6669783B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、たとえば実空間のプレイヤの指示入力に基づいて操作されるプレイヤオブジェクトと他の仮想オブジェクトを表示するための端末装置、システム、プログラム及び方法に関する。
従来より、そのプレイヤの指示入力に連動して、仮想空間内に配置された操作対象オブジェクトを操作するためのシステムが知られていた。その一例としては、例えば特許文献1のように、プレイヤがヘッドマウントディスプレイ(HMD)を装着し、ヘッドマウントディスプレイのディスプレイに表示された仮想空間をプレイヤ自らの視点で仮想空間内を移動したり、操作対象オブジェクトを操作することで、プレイヤがその仮想空間内に存在するかのような仮想現実を体験することが可能なシステムがあった。
しかし、このような場合、プレイヤはヘッドマウントディスプレイを介して仮想空間を認識することができる一方で、プレイヤの操作を観覧・観戦している第三者にとっては、単にプレイヤの操作を見るだけで十分に趣向が高いものとは言えなかった。
特開2017−170106号公報
そこで、上記のような技術を踏まえ、本開示では、様々な実施形態により、第三者にとってより趣向の高い仮想空間の表示が可能な端末装置、システム、プログラム、又は方法を提供する。
本開示の一態様によれば、「所定の指示命令が記憶されたメモリと、前記指示命令に基づいて、実空間のプレイヤの指示入力に基づいて操作可能な第1の仮想オブジェクトと、前記第1の仮想オブジェクトとは異なる第2の仮想オブジェクトと、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトを仮想的に撮影するための仮想カメラとが、それぞれ異なる位置に仮想的に配置される仮想空間において、前記第2の仮想オブジェクトが前記仮想カメラ及び前記第1の仮想オブジェクトの少なくともいずれか一方に対して所定の位置関係となる場合には、前記仮想カメラにより撮影される仮想空間画像に含まれる前記第1の仮想オブジェクトと前記第2の仮想オブジェクトのうち前記第2の仮想オブジェクトの表示態様を変更するための処理をするように構成されるプロセッサと、を含む端末装置」が提供される。
本開示の一態様によれば、「上記端末装置と、実空間に配置され前記端末装置と通信可能に接続され、実空間のプレイヤを撮影するための実空間カメラと、前記端末装置と通信可能に接続され、前記プロセッサにより出力される前記第1の仮想オブジェクトと変更された表示態様の第2の仮想オブジェクトを含む仮想空間画像を表示するためのディスプレイと、を含むシステム」が提供される。
本開示の一態様によれば、「所定の指示命令を記憶するように構成されたメモリと、前記所定の指示命令に基づいて処理をするように構成されたプロセッサを含むコンピュータに、実空間のプレイヤの指示入力に基づいて操作可能な第1の仮想オブジェクトと、前記第1の仮想オブジェクトとは異なる第2の仮想オブジェクトと、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトを仮想的に撮影するための仮想カメラとが、それぞれ異なる位置に仮想的に配置される仮想空間において、前記第2の仮想オブジェクトが前記仮想カメラ及び前記第1の仮想オブジェクトの少なくともいずれか一方に対して所定の位置関係となる場合には、前記仮想カメラにより撮影される仮想空間画像に含まれる前記第1の仮想オブジェクトと前記第2の仮想オブジェクトのうち前記第2の仮想オブジェクトの表示態様を変更するための処理と、を実行させるためのプログラム」が提供される。
本開示の一態様によれば、「所定の指示命令を記憶するように構成されたメモリと、前記所定の指示命令に基づいて所定の処理をするように構成されたプロセッサを含む端末装置において、前記プロセッサが前記所定の指示命令を処理することによりなされる方法であって、実空間のプレイヤの指示入力に基づいて操作可能な第1の仮想オブジェクトと、前記第1の仮想オブジェクトとは異なる第2の仮想オブジェクトと、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトを仮想的に撮影するための仮想カメラとが、それぞれ異なる位置に仮想的に配置される仮想空間において、前記第2の仮想オブジェクトが前記仮想カメラ及び前記第1の仮想オブジェクトの少なくともいずれか一方に対して所定の位置関係となる場合には、前記仮想カメラにより撮影される仮想空間画像に含まれる前記第1の仮想オブジェクトと前記第2の仮想オブジェクトのうち前記第2の仮想オブジェクトの表示態様を変更する段階と、を含む方法」が提供される。
本開示の様々な実施形態によれば、第三者にとってより趣向の高い仮想空間の表示が可能な端末装置、システム、プログラム、又は方法を提供することができる。
なお、上記効果は説明の便宜のための例示的なものであるにすぎず、限定的なものではない。上記効果に加えて、または上記効果に代えて、本開示中に記載されたいかなる効果や当業者であれば明らかな効果を奏することも可能である。
図1aは、本開示の一実施形態に係るシステム1を概念的に説明するための図である。 図1bは、本開示の一実施形態に係るシステム1を概念的に説明するための図である。 図1cは、本開示の一実施形態に係るシステム1を概念的に説明するための図である。 図2は、本開示の一実施形態に係るシステム1の構成を示すブロック図である。 図3は、本開示の一実施形態に係る端末装置100のメモリ112に記憶される仮想オブジェクト情報テーブルを示す図である。 図4は、本開示の一実施形態に係るシステム1において実行される処理フローを示す図である。 図5は、本開示の一実施形態に係る端末装置100において実行される処理フローを示す図である。 図6は、本開示の一実施形態に係る端末装置100において実行される処理フローを示す図である。 図7aは、本開示の一実施形態に係る仮想カメラ600により撮影される仮想空間を概念的に説明するための図である。 図7bは、本開示の一実施形態に係る実空間カメラ200により撮影される実空間を概念的に説明するための図である。 図8aは、本開示の一実施形態に係る実空間カメラ200で撮影される実空間画像の例を示す図である。 図8bは、本開示の一実施形態に係る実空間カメラ200で撮影される実空間画像の例を示す図である。 図8cは、本開示の一実施形態に係る仮想カメラ600で撮影される仮想空間画像の例を示す図である。 図8dは、本開示の一実施形態に係る仮想カメラ600で撮影される仮想空間画像の例を示す図である。 図9は、本開示の一実施形態に係る実空間デプス画像の例を示す図である。 図10aは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。 図10bは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。 図11aは、本開示の一実施形態に係る実空間カラー画像の例を示す図である。 図11bは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。 図11cは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。 図12aは、本開示の一実施形態に係る合成処理後の画像の例を示す図である。 図12bは、本開示の一実施形態に係る合成処理後の画像の例を示す図である。 図12cは、本開示の一実施形態に係る合成処理後の画像の例を示す図である。 図13は本開示の他の実施形態に係る合成処理後の画像の例を示す図である。
添付図面を参照して本開示の様々な実施形態を説明する。なお、図面における共通する構成要素には同一の参照符号が付されている。
1.本開示の一実施形態に係るシステムの概要
図1aは、本開示の一実施形態に係るシステム1を概念的に説明するための図である。具体的には、図1aは、実空間のプレイヤ11が、ヘッドマウントディスプレイ400を装着し、仮想空間においてゲームアプリケーションを実行している様子を示す。このとき、実行されているゲームアプリケーションを観戦している第三者12a〜12dは、単にプレイヤ11の動きをみるだけで、仮想空間で行われている処理を認識することができず、非常に退屈なものとなる。そこで、本実施形態においては、実空間に配置される実空間カメラ200によってプレイヤ11を含む実空間画像を撮影する。また、その撮影に同期して、仮想空間に仮想的に配置された仮想カメラ600によって仮想空間画像を撮影する。そして、それぞれ撮影された実空間画像中のプレイヤ11の画像と、仮想空間画像の少なくとも一部を合成して、ディスプレイ300に表示する。これによって、第三者12a〜12dは、実行されているゲームアプリケーションの仮想空間内で、プレイヤ11がどのように仮想空間内を移動し、操作対象オブジェクトを操作しているのか、臨場感をもって視聴することが可能となる。
図1b及び図1cは、本開示の一実施形態に係るシステム1を概念的に説明するための図である。具体的には、図1bは、ディスプレイ300にプレイヤ11の画像(プレイヤオブジェクト)を仮想空間画像に単純に合成した場合の画面の例である。この場合、プレイヤ11のプレイヤオブジェクトの配置位置よりも前面に建物オブジェクト21aが存在している。したがって、プレイヤ11のプレイヤオブジェクトは、建物オブジェクト21aの陰に隠れてディスプレイ300上で視認できなくなる。本実施形態においては、プレイヤ11のプレイヤオブジェクトに対して他の仮想オブジェクトが重畳する位置関係になる場合であっても、他の仮想オブジェクトを一時的に非表示にさせる処理等を行い、プレイヤ11のプレイヤオブジェクトを視認可能な状態でディスプレイ300に表示させる。
また、図1cは、ディスプレイ300にプレイヤ11の画像(プレイヤオブジェクト)を仮想空間画像に単純に合成した場合の画面の他の例である。仮想カメラ600の位置に極端に近い位置に仮想オブジェクトが配置された場合や、仮想カメラ600と仮想オブジェクトがほぼ同じ位置に配置され仮想オブジェクトの中に仮想カメラ600が埋まってしまった場合、仮想カメラ600の画角の大部分が当該仮想オブジェクトによって覆われ、ディスプレイ300に仮想カメラ600で撮影された画像を表示したときに視認性を損なう。具体的には、図1bの木オブジェクト21xは、仮想カメラ600に近い位置に配置され、得られる仮想空間画像の大部分が木オブジェクト21xで被覆される。そのため、木オブジェクト21xの背後に存在する他の仮想オブジェクト(例えば、建物オブジェクト21aの一部、敵オブジェクト21b等)の存在を確認することが困難となる。また、当該木オブジェクト21xが仮想カメラ600の位置とほぼ同じ位置に配置され、仮想カメラ600が木オブジェクト21xの内部に埋まってしまう場合には、仮想カメラ600の画角の全体を被覆することになり、著しく視認性を損なう。したがって、本実施形態においては、仮想カメラ600から所定の距離以内(例えば、仮想カメラ600の位置に極端に近い位置)に配置されうる仮想オブジェクトを、一時的に非表示にさせる処理等を行い、ディスプレイ300に表示される画像の視認性を向上させる。
なお、本実施形態において、「第三者」とは、単にプレイヤ11と区別して用いているに過ぎない。すなわち、第三者自身も、ゲームアプリケーションを実行するプレイヤの一人であってもよいし、単にプレイヤ11がプレイする様子を視聴するだけであってもよい。
また、本実施形態において、プレイヤ11のプレイヤオブジェクトは、実空間カメラ200で撮像されたプレイヤ11の画像を抽出したものであってもよいが、他のものであってもよい。たとえば、プレイヤ11に対応付けて記憶された仮想キャラクタオブジェクトであってもよい。
また、本実施形態では、ゲームプリケーションを実行する場合について説明するが、特にゲームアプリケーションに限らず、仮想空間を利用したアプリケーションであればいずれでも好適に本実施形態に係るシステム1を適用することができる。例えば、医療シミュレーション、自動車、電車、飛行機等の運転シミュレーション、観光地への旅行シミュレーション、仮想店舗や仮想不動産などでの仮想ショッピング、映画や音楽ライブなどのエンターテイメント等のアプリケーションで利用することで、プレイヤとなるユーザが操作しているシーンを他のプレイヤ(第三者)と共有することが可能となる。
また、本実施形態において、実空間画像、実空間デプス画像、実空間カラー画像、仮想空間画像、仮想空間デプス画像、仮想空間カラー画像等が用いられる。これらは、各カメラによって撮影された直後の画像のみを意味するのではなく、様々な処理後の各画像も含めた意味である。
また、本実施形態において、実空間カメラ200の撮影に同期して、つまり同じか実質的に同じタイミングで仮想カメラ600により仮想空間画像が撮影されるが、この仮想カメラ600による撮影は、一例としては、仮想オブジェクトが配置された仮想空間を仮想カメラ600の位置からレンダリングを行い、仮想スクリーンに対して仮想空間内の仮想オブジェクトを投影して画像を得ることにより行われる。
2.本開示の第1実施形態に係るシステム1の全体構成
図2は、本開示の一実施形態に係るシステム1の構成を示すブロック図である。図2を参照すると、システム1は、画像の合成等の処理を実行する端末装置100と、仮想空間に配置された仮想オブジェクトに対して指示入力を行う実空間のプレイヤ11を含む実空間画像を撮影するための実空間カメラ200と、仮想空間に配置された仮想カメラによって仮想的に撮影された仮想空間画像の少なくとも一部と実空間画像に含まれるプレイヤ画像が合成された画像を表示するためのディスプレイ300と、プレイヤ11に装着され、プレイヤ11が実行するゲームアプリケーションの仮想空間を表示するヘッドマウントディスプレイ400と、を含む。端末装置100と、実空間カメラ200と、ディスプレイ300と、ヘッドマウントディスプレイ400とは、互いに有線又は無線によって通信可能に接続されている。
なお、特に図示はしていないが、仮想空間において移動又は仮想オブジェクトの操作のためのプレイヤ11による指示入力を検出する検出装置を有していてもよい。検出装置の一例としては、プレイヤ11に装着し内蔵する加速度センサやジャイロセンサ等によってプレイヤ11の動きを検出する装置や、プレイヤ11から離れた位置に設置され赤外線センサやカメラを用いてプレイヤ11の動きを画像認識する装置などが挙げられる。
また、システム1は、図2に示す構成要素の全てを備える必要はなく、一部を省略した構成をとることも可能であるし、他の構成要素を加えることも可能である。また、図2の例では、実空間カメラ200やディスプレイ300を端末装置100とは別々に設けたが、端末装置100の構成要素の一つとして実空間カメラ200やディスプレイ300を設けることも可能である。
3.端末装置100の構成
端末装置100は、プロセッサ111、メモリ112、通信インターフェイス113、入力インターフェイス114及びI/Oポート115を含む。そして、これらの各構成要素が制御ライン及びデータラインを介して互いに電気的に接続される。
プロセッサ111は、CPU(マイクロコンピュータ:マイコン)から構成され、メモリ112に記憶された各種プログラムに基づいて、接続された他の構成要素を制御する制御部として機能する。プロセッサ111は、メモリ112に記憶された指示命令、すなわち本実施形態に係るアプリケーションを実行するためのプログラムやOSを実行するためのプログラムを処理する。具体的には、プロセッサ111は、仮想空間を表示したゲームアプリケーションの実行に伴う様々な処理を、ヘッドマウントディスプレイ400及びプレイヤ11の指示入力を検出する検出装置(図示しない)等と共同して、実行する。また、プロセッサ111は、実空間カメラ200を制御して実空間画像を生成する処理を実行する。また、プロセッサ111は、所定の仮想オブジェクトについて表示態様を変更する処理(たとえば、非表示にする処理)を実行する。また、プロセッサ111は、実空間カメラ200により取得した実空間画像と仮想カメラ600により仮想的に撮像された仮想空間画像とを合成する処理を実行する。また、プロセッサ111は、合成された画像をディスプレイ300に出力する処理を実行する。
なお、プロセッサ111は、単一のCPUで構成されても良いが、複数のCPUで構成しても良い。また、画像処理に特化したGPU等、他の種類のプロセッサを適宜組み合わせてもよい。また、プロセッサ111は、メモリ112に記憶された指示命令を処理することとする。しかし、例えば本実施形態に係るアプリケーションを実行するためのプログラムが記憶された光ディスクやカートリッジを読み取り可能なドライブ装置を端末装置100が備え、プロセッサ111はそれらに記憶されたプログラムを実行するようにしてもよい。
メモリ112は、RAM、ROM、又は不揮発性メモリ(場合によっては、HDD)を含み、記憶部として機能する。ROMは、本実施形態に係るアプリケーションやOSを実行するための指示命令をプログラムとして記憶する。RAMは、ROMに記憶されたプログラムがプロセッサ111により処理されている間、データの書き込み及び読み込みをするために用いられるメモリである。不揮発性メモリは、当該プログラムの実行によってデータの書き込み及び読み込みが実行されるメモリであって、ここに書き込まれたデータは、当該プログラムの実行が終了した後でも保存される。メモリ112には、一例として、仮想空間を構成する仮想オブジェクトを管理するための仮想オブジェクト情報テーブル(図3)、ゲームアプリケーションを実行するプレイヤのプレイヤ情報、ゲームアプリケーションを実行した結果である得点等のゲーム情報、ゲームアプリケーションを実行するためのプログラム、実空間画像と仮想空間画像とを合成し出力する処理を実行するためのプログラム、実空間カメラ200によって撮像された実空間画像の画像データ(例えば、各画素が有するカラー値やデプス値等のデータ)、仮想カメラ600によって仮想的に撮像された仮想空間画像の画像データ等が適宜更新・記憶される。なお、特に図示しないが、例示した各種情報が記憶された光ディスクやカートリッジを外付けして、記憶部として利用することが可能である。
通信インターフェイス113は、無線通信処理回路、及び当該無線通信処理装置に接続されたアンテナを含み、通信部として機能する。通信インターフェイス113は、ネットワークを介して接続されたサーバー装置(図示しない)から本実施形態に係るゲームアプリケーションの実行に必要なプログラムや、ユーザ情報、ゲームアプリケーションの実行の結果情報などの送受信を行う。また、通信インターフェイス113は、ヘッドマウントディスプレイ400と、ゲームアプリケーションの実行に必要なゲーム情報、制御情報、描画データ、プレイヤ情報等の送受信を行う。無線通信処理回路では、送受信する情報の変調や復調などの処理を行う。
通信インターフェイス113は、W−CDMA(Wideband−Code Division Multiple Access)方式に代表されるような広帯域の無線通信方式に基づいて処理されるが、IEEE802.11に代表されるような無線LANやBluetooth(登録商標)のような狭帯域の無線通信に関する方式に基づいて処理することも可能である。また、通信インターフェイス113は、無線通信に代えて、または加えて、有線通信を用いることも可能である。その場合には、無線通信処理回路に代えて、または加えて、有線通信のための通信処理回路を設ければよい。
入力インターフェイス114は、タッチパネルやハードキーを含み、使用者からの各種指示入力を受け付ける。例えば、入力インターフェイス114は、仮想空間画像と実空間画像を合成する際に必要な各種設定等を行う際に利用される。
I/Oポート115は、実空間カメラ200及びディスプレイ300にそれぞれ含まれるI/Oポートと接続され、実空間カメラ200及びディスプレイ300との間で情報の入出力をするための情報入出力部として機能する。具体的には、I/Oポート115は、実空間カメラ200で撮像された実空間画像を受信したり、ディスプレイ300に表示する画像データを出力するためのインターフェイスとして機能する。なお、I/Oポート115は、シリアルポート、パラレルポート、USB等、所望に応じて公知の接続形式を採用することが可能である。
端末装置100の例としては、据え置き型ゲーム機、アーケードゲーム機、デスクトップパソコン、ラップトップパソコン、携帯型ゲーム機、スマートフォンなど、実空間カメラ200、ディスプレイ300及びヘッドマウントディスプレイ400と通信可能であって、本実施形態に係るゲームアプリケーションを実行可能な端末装置であれば、いずれでもよい。
また、図2の例では、端末装置100は1個しか記載されていないが、当然複数の端末装置に分散して各構成要素を配置させても良いし、各処理を分散して実行させてもよい。また、端末装置100は、本実施形態に係るゲームアプリケーションの実行専用のものであってもよいが、当然それ以外の機能を実行可能なものであってもよい。
4.実空間カメラ200の構成
実空間カメラ200は、実空間カラー画像を撮影するための実空間カラーカメラ211、実空間デプス画像を撮影するための実空間デプスカメラ212、及びI/Oポート213を含む。そして、これらの各構成要素が制御ライン及びデータラインを介して互いに電気的に接続される。
実空間カラーカメラ211は、CCDイメージセンサやCMOSイメージセンサ等の公知のイメージセンサを備える。実空間カラーカメラ211は、構成する画素ごとに被写体からの光をフォトダイオード等で受信し、その光を電荷の量に光電変換し、それを順次読み出して画像信号に変換することで、複数の画素から構成された実空間カラー画像を生成する。実空間カラーカメラ211によって撮影された実空間カラー画像は、一例としては、各画素ごとに赤、青、緑のサブピクセルを含み、各サブピクセルの色の明るさや濃淡を、各画素ごとにカラー値として生成し、メモリ112に記憶される。
実空間デプスカメラ212は、赤外線センサ等の公知のデプス(深度)センサを備える。実空間デプスカメラ212は、構成する画素ごとに被写体となる撮像対象物までの距離に対応した値を測定する。測定されたデプス値は、各画素ごとにメモリ112に記憶される。
I/Oポート213は、端末装置100のI/Oポート115と接続され、実空間カメラ200で撮影された、実空間カラー画像及び実空間デプス画像を含む実空間画像の画像データを端末装置100に送信したり、端末装置100から実空間カメラ200の制御情報を受信する。
なお、実空間カメラ200は、図2に示す構成要素の全てを備える必要はなく、一部を省略した構成をとることも可能であるし、他の構成要素を加えることも可能である。例えば、特に図示はしていないが、実空間カメラ200は、端末装置100からの制御情報に基づいて撮影を制御するためのプロセッサや、撮影した画像データを記憶するためのメモリ、端末装置100を含む他の装置と通信するための通信インターフェイスを適宜備える。
また、本実施形態においては、実空間カメラ200に実空間カラーカメラ211と実空間デプスカメラ212とが含まれる場合について説明したが、実空間カラー画像に加えて、各画素のデプス値が測定できればよく、必ずしも両カメラを備える必要はない。例えば、ステレオカラーカメラを利用してデプス値を測定するなど、実空間カラーカメラ211のみを用いて公知方法でデプス値を測定するようにしてもよい。また、実空間デプスカメラ212に代えて、モノクロステレオカメラを利用してデプス値を測定するようにしてもよい。
5.ディスプレイ300の構成
ディスプレイ300は、I/Oポート311及びディスプレイパネル312を含み、これらの各構成要素が制御ライン及びデータラインを介して互いに電気的に接続される。I/Oポート311は、端末装置100のI/Oポート115及び実空間カメラ200のI/Oポート213と接続され、端末装置100で生成された画像や実空間カメラ200で撮影された画像等を受信する。また、ディスプレイパネル312は、受信した画像の表示を行う表示部として機能する。一例としては、液晶ディスプレイパネルや有機ELパネルから構成される。なお、特に図示はしていないが、適宜プロセッサやメモリを含む。
6.ヘッドマウントディスプレイ400の構成
ヘッドマウントディスプレイ400は、プロセッサ411、メモリ412、ディスプレイ413、及び通信インターフェイス414を含み、これらの各構成要素が制御ライン及びデータラインを介して互いに電気的に接続される。ヘッドマウントディスプレイ400は、通信インターフェイス414を介して、ディスプレイ413に仮想空間を表示するための画像データを受信し、メモリ412に記憶するとともに、プロセッサ411で処理してディスプレイ413に表示する。
7.仮想オブジェクト情報テーブル
図3は、本開示の一実施形態に係る端末装置100のメモリ112に記憶される仮想オブジェクト情報テーブルを示す図である。具体的には、図3は、仮想空間に配置される、建物オブジェクト21a等の仮想オブジェクトのそれぞれについて、その配置位置や形状等を特定する情報が記憶されたテーブルを示す。図3を参照すると、仮想オブジェクト情報テーブルには、個々の仮想オブジェクトごとにオブジェクトIDと対応付けて、その配置座標情報、種別情報、形状情報、表示情報等の属性情報が記憶されている。
「配置座標情報」は、対応付けて記憶された仮想オブジェクトの仮想空間内における配置位置座標を示す情報である。プロセッサ111は、当該配置座標情報を参照して、プレイヤ11のプレイヤオブジェクトと、表示される仮想オブジェクトとの位置関係を特定する。また、「種別情報」は、対応付けて記憶された仮想オブジェクトの種別を示す情報である。プロセッサ111は、当該種別情報を参照して、プレイヤ11のプレイヤオブジェクトと重畳する位置関係になる時に、仮想オブジェクトの表示態様を変更させるか否か、具体的には非表示とするかを決定する。また、「形状情報」は、仮想空間内に配置される仮想オブジェクトの立体形状を特定するための情報である。プロセッサ111は、当該形状情報を参照して、プレイヤ11のプレイヤオブジェクトと重畳する位置関係になる時に、プレイヤ11のプレイヤオブジェクトが被覆される割合を判断する。「表示情報」は、たとえば、プレイヤ11のプレイヤオブジェクトと重畳する位置関係になる場合に、その仮想オブジェクトを表示するか否かを示す情報である。プロセッサ111は、当該表示情報を参照して、仮想空間内にその仮想オブジェクトを配置するか否かを決定する。なお、表示情報が「オン」のとき、仮想カメラ600でその仮想オブジェクトを撮影するとその仮想オブジェクトが画像中に表示されることを意味し、「オフ」のときは非表示となることを意味する。当該表示情報には、あらかじめ「オン」の情報が記憶されており、図5の処理によって非表示の判定がなされた場合のときだけ「オフ」に更新して記憶される。
なお、仮想オブジェクト情報テーブルは、本実施形態においては、メモリ112に記憶されるように説明したが、外部の記憶媒体に記憶し、必要に応じて適宜参照するようにしてもよい。また、描画に必要な仮想オブジェクトの属性情報のみを必要に応じてサーバー装置(図示しない)等からダウンロードして記憶してもよい。
8.システム1において実行される処理フロー
図4は、本開示の一実施形態に係るシステム1において実行される処理フローを示す図である。具体的には、図4に記載の処理フローは、本実施形態に係るゲームアプリケーションを端末装置100で起動したときに開始される処理フローである。当該処理フローは、プロセッサ111が、実空間カメラ200、ディスプレイ300、及びヘッドマウントディスプレイ400と共同して、メモリ112に記憶された指示命令(プログラム)を読み出して実行することにより行われる。
図4によると、入力インターフェイス114又は検出装置(図示しない)において、プレイヤ11によるゲームアプリケーションの起動の指示入力を検出することにより開始される(S101)。その後、ゲームアプリケーションの開始に伴いヘッドマウントディスプレイ400およびディスプレイ300に表示すべき仮想空間の描画にかかる処理を実行する。具体的には、まずプロセッサ111は、所定の仮想空間内に各仮想オブジェクトを配置させるか否かの判定を行う(S102)。そして、その判定の結果に応じて仮想空間内に仮想オブジェクトを配置したのち、プロセッサ111は、実空間カメラ200を制御して、実空間カメラ200により撮影されたプレイヤ11を含む実空間画像を取得し、メモリ112に記憶するよう制御する(S103)。また、当該処理に同期して、プロセッサ111は、ヘッドマウントディスプレイ400に表示される仮想空間を仮想カメラ600によって仮想的に撮影し仮想空間画像を取得する(S103)。次に、プロセッサ111は、メモリ112に記憶された実空間画像からプレイヤ11のプレイヤ画像を抽出して、抽出されたプレイヤ画像をプレイヤオブジェクトとして仮想空間画像と合成する(S104)。なお、プレイヤ11のプレイヤ画像の抽出は、実空間デプス画像を構成する各画素ごとに測定されたデプス値と、実空間カラー画像のカラー値とに基づいて行われる。そして、プロセッサ111は、ディスプレイ300に合成された画像を出力し、ディスプレイ300を制御して、ディスプレイ300に当該画像を表示させる(S105)。次いで、プロセッサ111は、プレイヤ11によるゲームアプリケーションの終了の指示入力を検出したか否かを判断し、検出していない場合には、図3の表示情報を「オン」にリセットしたうえで、S102〜S105の処理を所定間隔(例えば、30m秒ごと)で繰り返す(S106)。一方、ゲームアプリケーションの終了の指示入力を検出した場合には、当該アプリケーションの実行を終了する。なお、S102〜S105については、図5および図6等においてさらに詳しく説明すする。
9.端末装置100において実行される処理フロー
図5は、本開示の一実施形態に係る端末装置100において実行される処理フローを示す図である。具体的には、図5は、図4のS102における仮想オブジェクトを仮想空間に配置させるか否か、つまりは仮想カメラ600で撮影した際に表示させるか否かの判定処理のフローを示す。当該処理フローは、プロセッサ111が、実空間カメラ200、ディスプレイ300、及びヘッドマウントディスプレイ400と共同して、メモリ112に記憶された指示命令(プログラム)を読み出して実行することにより行われる。
図5によると、プロセッサ111は、まず、入力インターフェイス114または検出装置を介してプレイヤからの指示入力を受け付けるよう制御する(S201)。次に、プロセッサ111は、その指示入力に基づいて、ディスプレイ300に表示すべき仮想空間であって、仮想カメラ600の位置を原点とする座標空間からなる仮想空間を特定し、仮想オブジェクト情報テーブル(図3)の配置座標情報を参照して、当該仮想空間に配置される仮想オブジェクトを配置する(S202)。次に、プロセッサ111は、あらかじめ決められた仮想カメラ600からの位置、すなわち仮想カメラ600からの距離が、あらかじめ決められた所定距離よりも近い位置に配置される仮想オブジェクトが存在するか否かを判定する(S203)。
ここで、図7aは、本開示の一実施形態に係る仮想カメラ600により撮影される仮想空間を概念的に説明するための図である。具体的には、図7aは、仮想カメラ600の位置を原点とする仮想空間におけるプレイヤ配置領域23と各仮想オブジェクトとの位置関係を示す。図7aを参照すると、仮想カメラ600からあらかじめ決められた所定距離dxの間に、木オブジェクト21x、木オブジェクト21yがそれぞれ存在する。なお、当該距離は、一例としては、仮想カメラ600から木オブジェクト21xが形成する平面までの距離として算出してもよいし、仮想カメラ600と木オブジェクト21xの任意の地点を結ぶ線分の長さとして算出してもよい。また、所定距離は、本実施形態においては距離dxとしたが、適宜調整することが可能である。また、各処理ごとに、その距離を可変することも可能である。
次に、プロセッサ111は、S203において、仮想カメラ600から所定距離dx以内に存在すると特定された仮想オブジェクト(木オブジェクト21x及び21y)が、仮想カメラ600の画角内に含まれるか否かを判定する(S204)。図7aを参照すると、木オブジェクト21xは仮想カメラ600の画角に含まれる位置に存在するが、木オブジェクト21yは当該画角に含まれる位置に存在していない。そして、S204において、仮想カメラ600の画角内に含まれる仮想オブジェクトがある場合には、プロセッサ111は当該仮想オブジェクトが非表示対象オブジェクトか否かを判定する(S205)。具体的には、図3の仮想オブジェクト情報テーブルのうち、種別情報を参照する。種別情報として、「敵」、「仲間」等のキャラクタ、「水」、「地面」、「扉」等の基本構造のように、常に表示する対象となる種別情報が記憶されている場合には、当該仮想オブジェクトは非表示にする必要はない。一方で、「建物」、「壁」、「箱」等の構造物、「草」、「木」、「森」等の背景を示す種別情報のように、プレイヤオブジェクトに重畳すると視認性を妨げる仮想オブジェクトは非表示にされる。したがって、プロセッサ111は、種別情報を参照して、プレイヤオブジェクトに重畳する際には非表示にされることが予め決められているか否かを判断する。次に、当該仮想オブジェクトが非表示対象の仮想オブジェクトであると判断された場合には、プロセッサ111は、当該仮想オブジェクトを非表示にすべく、図3の仮想オブジェクト情報テーブルの表示情報を「オフ」に更新して記憶する(S206)。
次に、プロセッサ111は、あらかじめ決められた仮想カメラ600からの位置、すなわちあらかじめ決められた座標位置に設定されたプレイヤ配置領域23と仮想カメラ600との間に、仮想オブジェクトが配置されるか否かを判定する(S207)。なお、プレイヤ配置領域23は、実空間でヘッドマウントディスプレイ400を装着しているプレイヤ11の指示入力によって操作されるプレイヤオブジェクトが配置される領域を示す。プレイヤ配置領域23は、本実施形態に係る処理のために新たに設定することも可能であるし、プレイヤオブジェクトと仮想オブジェクトとの衝突の判定に用いられる衝突判定領域などを用いてもよい。
図7aを参照すると、仮想カメラ600から見て、プレイヤ配置領域23の後方に敵オブジェクト21b、雲オブジェクト21c、および背景オブジェクト21dが存在する。一方で、プレイヤ配置領域23の前方に建物オブジェクト21aが存在する。ここで、建物オブジェクト21aは、プレイヤ11のプレイヤオブジェクトが仮想空間に配置されると、そのプイレイヤオブジェクトの前面に位置することになる。つまり、仮想カメラ600から撮影すると、プレイヤオブジェクトが建物オブジェクト21aによって被覆される。このように、プレイヤオブジェクトの視認性を妨げるのを防止するために、図5のS207においては、プレイヤ配置領域23と仮想カメラ600との間に、仮想オブジェクトが配置されるか否かが判定される。
再び図5に戻り、プレイヤ配置領域23と仮想カメラ600との間に、仮想オブジェクトが配置されると判断された場合には、プロセッサ111は、その仮想オブジェクトの形状情報(図3)を参照して、プレイヤ配置領域23が被覆される割合や面積を算出する(S208)。そして、その算出された割合や面積が予め決められた割合や面積以上の場合には、S205と同様に、プロセッサ111は、当該仮想オブジェクト(木オブジェクト21x)が非表示対象オブジェクトか否かを判定する(S209)。なお、このとき、非表示対象オブジェクトか否かの判定は、S205と同じ基準で行ってもよいし、変更することも可能である。たとえば、S205は、「敵」、「仲間」等のキャラクタ、「水」、「地面」、「扉」等の基本構造を表示対象オブジェクトとし、それ以外を非表示対象オブジェクトとする。しかし、S209では、上記に加えて、「剣」、「盾」、「防具」等の武器オブジェクトも表示対象オブジェクトして設定し、それ以外を非表示対象オブジェクトに設定してもよい。
次に、当該仮想オブジェクトが非表示対象の仮想オブジェクトであると判断された場合には、プロセッサ111は、当該仮想オブジェクトを非表示にすべく、図3の仮想オブジェクト情報テーブルの表示情報を「オフ」に更新して記憶する(S210)。以上により、仮想オブジェクトを仮想空間に配置させるか否か、つまりは仮想カメラ600で撮影した際に表示させるか否かの判定処理は終了する。
なお、S203〜S205のいずれかで「No]であり、かつS207〜S209のいずれかで「No」の場合には、仮想オブジェクトは表示されることになるので、表示情報の更新は行わない。
図7aの仮想空間を例にすると、木オブジェクト21xは、仮想カメラ600から所定距離dx以内に位置し(S203)、仮想カメラの画角内に含まれ(S204)、その種別情報も非表示とすべき「木」である(S205)。したがって、木オブジェクト21xの表示情報は、オフに更新され、プロセッサ111が仮想空間に仮想オブジェクトを配置する際に木オブジェクト21xは配置されず、また仮想カメラ600で仮想的に撮影した場合も表示されることはない。
また、建物オブジェクト21aは、プレイヤ配置領域23と仮想カメラ600との間に位置し(S207)、プレイヤ配置領域23の全面が被覆され(S208)、その種別情報も非表示とすべき「建物」である(S209)。したがって、建物オブジェクト21aの表示情報は、オフに更新され、プロセッサ111が仮想空間に仮想オブジェクトを配置する際に建物オブジェクト21aは配置されず、また仮想カメラ600で仮想的に撮影した場合も表示されることはない。
図6は、本開示の一実施形態に係る端末装置100において実行される処理フローを示す図である。具体的には、図6に記載の処理フローは、実空間画像と仮想空間画像の合成に係る処理フローである。当該処理フローは、プロセッサ111が、実空間カメラ200、ディスプレイ300、及びヘッドマウントディスプレイ400と共同して、メモリ112に記憶された指示命令(プログラム)を読み出して実行することにより行われる。
図6によると、プロセッサ111は、まず、実空間デプスカメラ212によって撮影された実空間デプス画像、及び実空間カラーカメラ211によって撮影された実空間カラー画像を取得しメモリ112に記憶するとともに、仮想カメラ600によって仮想的に撮影された仮想空間デプス画像と仮想空間カラー画像を生成しメモリ112に記憶する(S301)。なお、本実施形態においては、実空間デプス画像、実空間カラー画像、仮想空間デプス画像、及び仮想空間カラー画像は、それぞれ同期して、つまり同じか実質的に同じタイミングで実空間カメラ200又は仮想カメラ600によって撮影される。
図7bは、本開示の一実施形態に係る実空間カメラ200により撮影される実空間を概念的に説明するための図である。具体的には、図7bは、実空間カラーカメラ211及び実空間デプスカメラ212でプレイヤ11及びクロマキー合成に用いられる背景布500が撮影される様子を説明するための図である。図7bによると、ヘッドマウントディスプレイ400を装着しているプレイヤ11が、ヘッドマウントディスプレイ400に表示された仮想空間における移動や仮想空間に配置された仮想オブジェクトに対する指示入力を行っている。そして、プレイヤ11の背後には、実空間カラーカメラ211で撮像した際の背景の一部となる背景布500が配置されている。すなわち、実空間カメラ200を基準にした場合、当該実空間カメラ200から距離D1(例えば、2m)の位置にプレイヤ11が存在し、実空間カメラ200から距離D1以上の距離D2(例えば、4m)の位置に背景布500が配置されている。実空間カメラ200は、このような実空間を適宜のタイミング(例えば、30m秒ごと)で撮影する。
なお、背景布500は、クロマキー合成をする際に用いられる背景布が好適には用いられる。一例としては、いわゆるグリーンバックやブルーバックと呼ばれるものであって、全面が緑色か青色をしたものが用いられる。また、特に布地状のものに限定されるものではなく、例えば板状の壁材等を用いることも可能である。また、本実施形態においては、詳しくは後述するが、撮影された実空間画像からのプレイヤ11の抽出はデプス値を併用するため、プレイヤ11の周囲のみ緑色や青色の背景となっていれば良い。したがって、従来のクロマキー合成で用いられるような広範な範囲が緑色や青色に覆われる必要はなく、プレイヤ11の周囲のみの狭い範囲が緑色又は青色の背景となるだけで十分である。
また、図7aには、上記のとおり、本開示の一実施形態に係る仮想カメラ600により撮影される仮想空間を概念的に説明するための図が示されている。図7aによると、実空間の実空間カメラ200が配置された位置に対応付けて仮想空間内に仮想カメラ600が配置されている。すなわち、実空間においては座標Cの位置にプレイヤ11が存在しているが、実空間における距離D1に対応する距離d1だけ離れた位置に仮想カメラ600が配置されている。そして、仮想カメラ600の位置を原点とした座標空間上に、図3の仮想オブジェクト情報テーブルに記憶された配置座標情報に基づいて、距離d1以上の距離d3だけ離れた座標位置に敵オブジェクト21bが、距離d4だけ離れた座標位置に雲オブジェクト21cが、距離d5だけ離れた座標位置に背景オブジェクト21dが仮想的に配置されている。なお、建物オブジェクト21a、及び木オブジェクト21xは、図5の処理により非表示とされているため、当該仮想空間内には配置されない。仮想カメラ600は、このような仮想空間を、実空間カメラの撮影のタイミングに同期して、つまりは同じか実質的に同じタイミングで仮想的に撮影する。
図8aは、本開示の一実施形態に係る実空間カメラ200で撮影される実空間画像の例を示す図である。具体的には、図8aは、実空間カメラ200のうち実空間カラーカメラ211で撮影された実空間カラー画像を示す。実空間カラー画像には、実空間のプレイヤ11及び背景布500を含む撮影対象物から反射した光の波長に対応するカラー値が各画素ごとに記憶されている。したがって、各画素ごとにプレイヤ11及び背景布500(本実施形態においてはグリーンバック)の有しているそれぞれの色が再現される。
図8bは、本開示の一実施形態に係る実空間カメラ200で撮影される実空間画像の例を示す図である。具体的には、図8bは、実空間カメラ200のうち実空間デプスカメラ212で撮影された実空間デプス画像を示す。実空間デプスカメラ212は、実空間カラーカメラ211の位置と実質的に同じ位置に配置され、その撮影に同期して撮影されるため、実空間カラーカメラ211と実質的に同じ画角で同じシーンが撮影される。したがって、実空間デプス画像は、プレイヤ11と背景布500を含む。
一方、実空間デプス画像には、実空間デプスカメラ212によって測定されたデプス値が、実空間デプス画像を構成する各画素ごとに記憶される。なお、図8b等の実空間デプス画像、及び図8d等の仮想空間デプス画像においては、説明の便宜のために、そのデプス値に応じた階調(例えば、デプス値がゼロのものを白、デプス値が最大のものを黒とした2階調)で描いている。すなわち、実空間デプスカメラ212から距離D1にあるプレイヤ11の座標に存在する各画素には、距離D1に対応するデプス値が記憶され、そのデプス値に対応した階調でプレイヤ11は描かれる。また、実空間デプスカメラ212から距離D2にある背景布500の座標に存在する各画素には、距離D2に対応するデプス値が記憶され、そのデプス値に対応した階調で背景布500は描かれる。なお、説明の便宜のため、プレイヤ11を構成する画素のデプス値を一律に距離D1として説明した。しかし、実際はプレイヤ11も奥行きを有する立体物であるため、プレイヤ11を構成する各画素ごとに異なるデプス値を有する。
図8cは、本開示の一実施形態に係る仮想カメラ600で撮影される仮想空間画像の例を示す図である。具体的には、仮想カメラ600で仮想的に撮影された仮想空間カラー画像を示す。仮想カメラ600は、実空間カメラ200に対応する位置に配置され、実空間カメラ200の撮影に同期して撮影されるため、実空間カラーカメラ211と実質的に同じ画角で仮想空間が撮影される。したがって、仮想空間カラー画像には、仮想空間とその仮想空間の所定の座標位置に配置された背景オブジェクト21d、雲オブジェクト21c、及び敵オブジェクト21bがそれぞれ含まれる。また、仮想オブジェクト21b〜21dを含むすべての仮想空間を構成する仮想オブジェクトには、図3に示す仮想オブジェクト情報テーブルに、図3に示す属性情報に加えて、色(仮想オブジェクトを構成する画素ごとのカラー値)等の情報が記憶されている。したがって、仮想空間カラー画像は、仮想カメラ600で撮影したシーンを、構成される画素ごとに、仮想オブジェクトが有するカラー値に基づいて再現したものとなる。なお、建物オブジェクト21a及び木オブジェクト21xは、図5の処理により非表示とされているため表示されない。
図8dは、本開示の一実施形態に係る仮想カメラ600で撮影される仮想空間画像の例を示す図である。具体的には、仮想カメラ600で仮想的に撮影された仮想空間デプス画像を示す。仮想オブジェクト21b〜21dを含むすべての仮想空間を構成する仮想オブジェクトは、図3に示す属性情報が記憶されていることに加えて、仮想オブジェクトを構成する画素ごとのデプス値が配置座標情報や形状情報に基づいて算出される。具体的には、仮想空間内の各仮想オブジェクトを、属性情報に基づいて仮想カメラ600を原点とするカメラ座標系に変換することで、仮想カメラ600の位置からの距離を算出する。そして、仮想カメラ600の位置から仮想スクリーンに投影変換することで、仮想空間デプスが画像を構成する各画素ごとに、仮想カメラ600からの距離を算出する。図8dは、各画素ごとに算出された仮想カメラ600からの距離に対応するデプス値に基づいて再現したものとなる。なお、建物オブジェクト21a及び木オブジェクト21xは、図5の処理により非表示とされているため再現されない。
再び図6に戻り、図8a〜図8dに例示する各実空間画像及び各仮想空間画像がそれぞれ取得または生成され、メモリ112に記憶されると、プロセッサ111は、次に、実空間デプス画像が有するデプス値の変換処理を行う(S302)。
具体的には、実空間デプス画像を構成する各画素には、実空間デプスカメラ212からの距離に対応するデプス値が記憶されている。当該処理では、このデプス値が所定値よりも大きい場合には、無限遠を示すデプス値(つまり、理論上の最大のデプス値(たとえば、0m〜10mの範囲を、0〜65535の16bitのデプス値で表す場合、10mよりも後ろについては全て「65535」のデプス値とする)))に変換して記憶する処理を行う。本実施形態においては、所定値として、プレイヤ11及び背景布500よりも遠い距離D3に対応する値が設定されている。したがって、距離D3に対応する所定値以上のデプス値が記憶されている全ての画素のデプス値は、無限遠を示すデプス値に変換して記憶される。一方、プレイヤ11及び背景布500を構成する画素は、距離D3に対応するデプス値未満のデプス値が記憶されているため、デプス値は変換されない。
図9は、本開示の一実施形態に係る実空間デプス画像の例を示す図である。具体的には、図9は、図8bで示された実空間デプス画像に対してS302のデプス値の変換処理を行った後の図である。上記のとおり、距離D3よりも遠い領域22については、無限遠を示すデプス値に変換されているため、無限遠を示す黒で描画されている。一方、距離D3よりも近い領域(プレイヤ11および背景布500)については、測定されたデプス値から変換されることなく、もともとのデプス値に対応した階調で描画される。
再び図6に戻り、実空間デプス画像のデプス値の変換処理が行われたのちに、プロセッサ111は、実空間デプス画像の解像度の変換処理を行う(S303)。一般的に、実空間デプスカメラ212の解像度は、実空間カラーカメラ211の解像度よりも低い。つまり、図8bに示す実空間デプス画像は、実空間デプスカメラ212によって、相対的に低い解像度(第1の解像度)で撮影されたものであって、図8aに示す実空間カラー画像は、実空間カラーカメラ211によって、第1の解像度よりも高い第2の解像度で撮影されたものとなる。そのため、撮影されたままの実空間デプス画像に基づいてプレイヤ11の画像を抽出すると、実空間カラー画像では背景布500が表示されている領域等の不要な領域がプレイヤ11の画像として抽出されてしまう。したがって、このような不要な領域の切り出しを最小限にし、プレイヤ11の画像をより鮮明に抽出するために、本実施形態のS303の実空間デプス画像の解像度の変換処理が必要となる。本実施形態においては、例えば、実空間デプスカメラ212の解像度に対して、実空間カラーカメラ211は4倍の解像度を有する。したがって、当該変換処理では、実空間デプス画像の解像度を、実空間カラーカメラ211の解像度に対応して、4倍の解像度に変換する。なお、本実施形態では説明の便宜のための4倍の解像度としたが、用いる実空間カラーカメラ211と実空間デプスカメラ212の解像度に応じて適宜設定することが可能である。
図10aは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。具体的には、図10aは、図8bの実空間デプス画像の領域Aの部分を拡大した図であって、S303の解像度変換処理を実行する前の画像を示す。図10aによると、実空間デプス画像は、1画素がa×bの大きさを有する画素によって構成されている。
図10bは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。具体的には、図10bは、S303の解像度変換処理を実行した後の画像を示す。本実施形態においては、上記のとおり、実空間カラーカメラ211の解像度に対応して、4倍の解像度に変換する処理を実行する。したがって、図10bによると、縦及び横ともに、2分の1の長さ(a’×b’)に各画素が精細化される。なお、解像度変換処理後の各画素には、処理前の各画素が有していたデプス値がそのまま記憶される。
再び図6に戻り、実空間デプス画像の解像度の変換処理が行われたのちに、プロセッサ111は、実空間カラー画像のカラー値に基づくデプス値の変換処理を実行する(S304)。具体的には、実空間カラー画像において背景布500の色(本実施形態においては緑色)のカラー値を有する画素と同じ座標位置にある実空間デプス画像の画素のデプス値を、無限遠を示すデプス値に変換する処理を実行する。
図11aは、本開示の一実施形態に係る実空間カラー画像の例を示す図である。具体的には、図11aは、図8aの実空間カラー画像の領域A’の部分を拡大した図である。図11aによると、図10bに示す解像度変換処理後の実空間デプス画像と同じ解像度(1画素がa’×b’で構成)で、プレイヤ11の画像及び背景布500の画像を含む実空間カラー画像が描画されている。したがって、プレイヤ11と背景布500との境界線が、図10aに示す実空間デプス画像に比べてより精細に描画されている。
図11bは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。具体的には、図11bは、図10bに示す解像度変換処理後の実空間デプス画像と図11aにおける実空間カラー画像とにおいて、プレイヤ11と背景布500との境界線の違いを示す図である。図11bによると、解像度の低いもともとの実空間デプス画像において、領域11a〜11d等の右斜線で示す画素は、プレイヤ11の他の画素と同じデプス値を有しており、プレイヤ11として抽出される画素である。しかし、より解像度の高い実空間カラー画像(図11a)において、領域11a〜11d等の右斜線で示す画素は、プレイヤ11として抽出される画素ではなく、背景布500として切り取られるべき画素である。したがって、仮に解像度の低いもともとの実空間デプス画像のみに基づいてプレイヤ11の画像を抽出すると、その輪郭の一部に背景布500が混在し見栄えの劣る画像となる。そこで、本実施形態においては、実空間カラー画像において背景布500である領域を抽出しないように、背景布500の色(本実施形態においては緑色)のカラー値を有する画素と同じ座標位置にある実空間デプス画像の画素のデプス値を、すべて無限遠を示すデプス値に変換する処理を実行する。
図11cは、本開示の一実施形態に係る実空間デプス画像の例を示す図である。具体的には、図11cは、S304のデプス値変換処理後の実空間デプス画像を示す図である。図11cによると、図11bにおいて右斜線で示された背景布500として切り取られるべき画素は、すべて無限遠を示すデプス値に変換されたことにより、無限遠である黒の階調で描画されている。したがって、実空間デプス画像においても、実空間カラー画像と同様に、プレイヤ11と背景布500との境界線がより精細に描画されることが可能となる。
再び図6に戻り、実空間デプス画像のデプス値の変換処理が行われたのちに、プロセッサ111は、実空間カラー画像と仮想空間カラー画像との合成処理を実行する(S305)。具体的には、S304の処理後の実空間デプス画像と、当該実空間デプス画像の解像度と同じ解像度を有する仮想空間デプス画像との間で、各画素ごとに両者のデプス値を比較する。そして、よりデプス値が小さい方のカラー画像のカラー値をその画素のカラー値として選択するようにする。例えば、実空間デプス画像の座標位置(x1,y1)の画素のデプス値が「2.0」であり、仮想空間デプス画像の対応する座標位置(x1,y1)の画素のデプス値が「6.0」であった場合は、実空間カラー画像の対応する座標位置(x1,y1)の画素のカラー値を、合成画像の対応する座標位置(x1,y1)の画素のカラー値として採用する。一方、実空間デプス画像の座標位置(x2,y2)の画素のデプス値が「無限遠(理論上の最大値)」であり、仮想空間デプス画像の座標位置(x2,y2)の画素のデプス値が「1.0」であった場合は、仮想空間カラー画像の座標位置(x2,y2)の画素のカラー値を、合成画像の座標位置(x2,y2)の画素のカラー値として採用する。以上の処理を、すべての画素について繰り返すことにより、実空間カラー画像と仮想空間カラー画像との合成処理が実施される。
図12aは、本開示の一実施形態に係る合成処理後の画像の例を示す図である。具体的には、図12aは、プロセッサ111によって実空間カラー画像と仮想空間カラー画像とが合成されたのちの画像を示す。図6のS302〜S304の処理によって、プレイヤ11以外の領域はすべて無限遠を示すデプス値に変換される。つまり、図7aに示す仮想空間において、距離d3〜d5にそれぞれ対応するデプス値を有する仮想オブジェクト21b〜21dを含む全ての仮想オブジェクトは、プレイヤ11以外の領域のデプス値(無限遠)よりも必ず小さい値となる。したがって、プレイヤ11以外の領域には、仮想空間カラー画像のカラー値が採用されることにより、すべての仮想オブジェクト21b〜21dを含む仮想オブジェクトが描画される。
一方、プレイヤ11を構成する各画素には、デプス値として実空間デプスカメラ212からの距離が画素単位に記憶されている(なお、図7b等においては、それらの代表値として距離D1に対応するデプス値が記憶されていることとして説明した)。そして、プレイヤ11を構成する各画素に記憶されたデプス値よりも大きいデプス値を有する敵オブジェクト21b、雲オブジェクト21c、及び背景オブジェクト21dのうち、プレイヤ11と重なっている領域については、実空間カラー画像のカラー値が採用されることにより、プレイヤ11のプレイヤオブジェクトが前面に描画される。なお、このとき、本来であればプレイヤ11のプレイヤオブジェクトよりも前面に配置される建物オブジェクト21a及び木オブジェクト21xは、図5の処理により非表示とされているため描画されない。
図12bは、本開示の一実施形態に係る合成処理後の画像の例を示す図である。具体的には、図5のS209の処理において、仮想オブジェクトが非表示対象オブジェクトではなかった場合の画像の例を示す。図12bによると、仮想空間においてプレイヤ11のプレイヤオブジェクトと仮想カメラの間に「扉」オブジェクト21eが配置されている。したがって、図5のS207は「Yes」の判断がなされるが、種別情報が「扉」は非表示対象ではないことが予め設定されているため、S209では「No」の判断がなされる。つまり、扉オブジェクトは、非表示とはされず、仮想空間にも通常通り配置され、仮想カメラ600によって撮影される。したがって、図12bによると、扉オブジェクト21eの後方に位置するプレイヤ11のプレイヤオブジェクトは視認できないようになっている。
図12cは、本開示の一実施形態に係る合成処理後の画像の例を示す図である。具体的には、図5のS208の処理において、プレイヤ配置領域23が被覆される割合や面積が所定の割合または面積よりも小さかった場合の画像の例を示す。図12cによると、仮想空間においてプレイヤ11のプレイヤオブジェクトと仮想カメラの間に建物オブジェクト21aが存在するものの、プレイヤオブジェクトを完全に被覆するのではなく、その一部を被覆している。この場合、図5のS207は「Yes」の判断がなされるが、S208では「No」の判断がなされる。つまり、建物オブジェクト21aは非表示とはされず、仮想空間にも通常通り配置され、仮想カメラ600によって撮影される。したがって、図12cによると、建物オブジェクト21aの後方に位置するプレイヤ11のプレイヤオブジェクトの一部は視認可能に表示されているが、建物オブジェクト21aが重畳している残りの部分は視認できない。
以上、本実施形態においては、ヘッドマウントディスプレイ400を装着して仮想空間においてゲームアプリケーションを実行しているプレイヤと、その仮想空間とを合成して表示するため、それを観覧する第三者にとってより趣向の高い表示が可能となる。また、プレイヤ11のプレイヤオブジェクトと仮想カメラ600との間に位置する仮想オブジェクトについては、非表示にする処理が行われる。したがって、プレイヤオブジェクトの視認の妨げになるような仮想オブジェクトの表示がなされないので、第三者がプレイヤオブジェクトの視認がより簡単になる。また、本実施形態においては、実空間デプス画像のデプス値と、実空間カラー画像のカラー値とを併用してプレイヤ11の画像を抽出する。したがって、実空間デプス画像のデプス値のみによる抽出処理に比べて、より高精細なプレイヤ11の抽出が可能となる。また、実空間カラー画像のカラー値のみによる抽出処理(クロマキー合成処理)に比べて、背景布500を設置するエリアを最小限にとどめることが可能となる。
10.他の実施形態
上記実施形態においては、プレイヤ11のプレイヤオブジェクトと仮想カメラ600との間にある仮想オブジェクトについては、所定の場合に非表示にする処理をした。しかし、「非表示」にするのではなく、当該仮想オブジェクトの透過率を制御して、仮想空間には配置させるものの、透過してその背面が視認できるようにしてもよい。このような場合は、図3の仮想オブジェクト情報テーブルに「透過情報」を記憶し、その透過情報を適宜更新するようにする。なお、透過情報は、仮想オブジェクトを構成する各画素ごとに記憶されたRGBやCMYK等のカラー値と異なり、仮想オブジェクトを構成する各画素ごとに色の透明度を示す情報である。典型的には、「アルファ値」と呼ばれる値によって特定され、0(完全に不透明)〜255(完全に透過)までの数値によってあらわされる。
図13は本開示の他の実施形態に係る合成処理後の画像の例を示す図である。具体的には、図13は、仮想空間においてプレイヤオブジェクトと仮想カメラ600との間にある建物オブジェクトを「半透明」にした場合の画像の例を示す。この場合、建物オブジェクト21aが半透明に表示されることにより、その後方に位置するプレイヤ11のプレイヤオブジェクトが視認可能に表示される。なお、図13の例においては、建物オブジェクト21aを「半透明」にしたが、図3に記憶する透過情報を制御して、完全に透明にするなど、適宜調整してもよい。
また、上記実施形態においては、建物オブジェクト21aの全体を非表示にしたり、あるいは透過させるように処理した。しかし、各仮想オブジェクトはそれを構成する画素ごとに制御されるため、建物オブジェクト21aの全体を透過させる必要はなく、プレイヤオブジェクトの周囲のみを非表示にしたり、透過させることも可能である。さらに、建物オブジェクト21aの輪郭部分のみを残して、残りを非表示または透過させることも可能である。図13は、仮想空間において仮想カメラ600からの距離が所定距離以内にある木オブジェクト21xの輪郭のみを表示させた場合の画像の例を示す。この場合、木オブジェクト21xの内部は透明に(または透過)され、その輪郭は実線で描いて、木オブジェクト21xの存在を視認できるようにする。なお、輪郭は、実線で描く必要はなく、いかなる線種であってもよい。また、輪郭全体を描く必要はなく、その一部のみを描いてもよい。
また、上記実施形態においては、プレイヤ配置領域が被覆される割合や面積の判定において、全体が被覆される場合にのみ仮想オブジェクトを非表示にした。しかし、これに限らず、たとえばプレイヤオブジェクトの50%以上が被覆される場合にのみ仮想オブジェクトを非表示にするようにしてもよい。なお、その閾値となる割合や面積は、適宜調整することが可能である。
また、上記実施形態においては、仮想カメラ600とプレイヤ11のプレイヤオブジェクトの間に配置されることになる仮想オブジェクトはすべて非表示とするか否かの判断の対象とした。しかし、これに限らず、仮想カメラ600の画角に含まれる仮想オブジェクトのみをその判断の対象としてもよい。
また、上記実施形態においては、図5のS204、S205、S208、及びS209等の処理を行った。しかし、仮想カメラ600またはプレイヤ11のプレイヤオブジェクトと、他の仮想オブジェクトとの位置関係が所定の位置関係になる場合には、一律に表示態様を変更する処理を行うようにしてもよい。
上記実施形態においては、ある程度の大きさを有するディスプレイ300に合成画像を出力し、第三者全員によって観覧する場合について説明した。しかし、第三者がそれぞれヘッドマウントディスプレイを装着し、各ヘッドマウントディスプレイに合成画像を出力するようにしてもよい。
また、本実施形態においては、ゲームアプリケーションの実行にシステム1を用いる場合について説明したが、医療シミュレーション、自動車、電車、飛行機等の運転シミュレーション、観光地への旅行シミュレーション、仮想店舗や仮想不動産などでの仮想ショッピング、映画や音楽ライブなどのエンターテイメント等のアプリケーションにも好適に用いることが可能である。
本明細書で説明される処理及び手順は、実施形態において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能である。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明される処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、端末装置やサーバー装置を含む各種のコンピュータに実行させることが可能である。
本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明される各種情報が単一のメモリや記憶部に格納される旨が説明されたとしても、そのような情報は、単一の装置に備えられた複数のメモリ又は複数の装置に分散して配置された複数のメモリに分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。
100 端末装置
200 実空間カメラ
300 ディスプレイ
400 ヘッドマウントディスプレイ

Claims (14)

  1. ヘッドマウントディスプレイが装着されたプレイヤの画像オブジェクトであって、実空間カメラで撮影された実空間画像からデプス値に基づいて抽出された前記プレイヤの画像オブジェクトである第1の仮想オブジェクトと、前記第1の仮想オブジェクトとは異なる第2の仮想オブジェクトとが配置される仮想空間を、前記プレイヤとは異なる第三者が視聴可能にディスプレイに出力するための端末装置であって、
    前記第2の仮想オブジェクトの前記仮想空間における座標情報と所定の指示命令が記憶されたメモリと、
    前記指示命令に基づいて、実空間のプレイヤの指示入力に基づいて操作可能な前記第1の仮想オブジェクトと、前記第2の仮想オブジェクトと、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトを仮想的に撮影するための仮想カメラとが、それぞれ異なる位置に仮想的に配置される仮想空間において、前記実空間カメラで撮影することにより得られた前記画像オブジェクトの前記デプス値と前記メモリに記憶された前記第2の仮想オブジェクトの前記座標情報に応じて、前記第2の仮想オブジェクトが前記第1の仮想オブジェクトに対して所定の位置関係となると判断される場合には、前記仮想カメラにより撮影される仮想空間画像に含まれる前記第1の仮想オブジェクトと前記第2の仮想オブジェクトのうち前記第2の仮想オブジェクトの表示態様を変更するための処理をするように構成されるプロセッサと、
    を含む端末装置。
  2. 前記所定の位置関係は、前記第2の仮想オブジェクトが前記仮想カメラと前記第1の仮想オブジェクトの間に配置される位置関係である、請求項1に記載の端末装置。
  3. 前記プレイヤは、前記仮想空間が表示されたヘッドマウントディスプレイが装着されたプレイヤである、請求項1または2に記載の端末装置。
  4. 前記第1の仮想オブジェクトは、前記プレイヤに関連した画像オブジェクトである、請求項1〜3のいずれか一項に記載の端末装置。
  5. 表示態様を変更する前記処理により、前記第2の仮想オブジェクトは非表示にされる、請求項1〜のいずれか一項に記載の端末装置。
  6. 表示態様を変更する前記処理により、前記第2の仮想オブジェクトは透過して表示される、請求項1〜のいずれか一項に記載の端末装置。
  7. 表示態様を変更する前記処理により、前記第2の仮想オブジェクトの少なくとも一部の輪郭のみが表示されるように変更する、請求項1〜のいずれか一項に記載の端末装置。
  8. 前記メモリは前記第2の仮想オブジェクトの属性情報を記憶し、
    前記プロセッサは、前記位置関係に加えて前記属性情報に基づいて、前記第2の仮想オブジェクトの表示態様を変更するか否かを決定する、請求項1〜のいずれか一項に記載の端末装置。
  9. 前記属性情報は、前記第2の仮想オブジェクトの種別情報又は形状情報を含む、請求項に記載の端末装置。
  10. 前記位置関係は、前記仮想カメラにより撮影される前記仮想空間画像において前記第1の仮想オブジェクトに対して前記第2の仮想オブジェクトの少なくとも一部が重畳する位置関係である、請求項1〜のいずれか一項に記載の端末装置。
  11. 前記位置関係は、前記仮想カメラにより撮影される前記仮想空間画像において、前記第1の仮想オブジェクトの全体に前記第2の仮想オブジェクトが重畳する位置関係である、請求項1〜のいずれか一項に記載の端末装置。
  12. 請求項1〜11のいずれか一項に記載の端末装置と、
    実空間に配置され前記端末装置と通信可能に接続され、実空間のプレイヤを撮影するための実空間カメラと、
    前記端末装置と通信可能に接続され、前記プロセッサにより出力される前記第1の仮想オブジェクトと変更された表示態様の第2の仮想オブジェクトを含む仮想空間画像を、前記プレイヤとは異なる第三者が視聴可能に表示するためのディスプレイと、
    を含むシステム。
  13. ヘッドマウントディスプレイが装着されたプレイヤの画像オブジェクトであって、実空間カメラで撮影された実空間画像からデプス値に基づいて抽出された前記プレイヤの画像オブジェクトである第1の仮想オブジェクトと、前記第1の仮想オブジェクトとは異なる第2の仮想オブジェクトとが配置される仮想空間を、前記プレイヤとは異なる第三者が視聴可能にディスプレイに出力するためのコンピュータであって、前記第2の仮想オブジェクトの前記仮想空間における座標情報と所定の指示命令を記憶するように構成されたメモリと、前記所定の指示命令に基づいて処理をするように構成されたプロセッサを含むコンピュータに、
    実空間のプレイヤの指示入力に基づいて操作可能な前記第1の仮想オブジェクトと、前記第2の仮想オブジェクトと、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトを仮想的に撮影するための仮想カメラとが、それぞれ異なる位置に仮想的に配置される仮想空間において、前記実空間カメラで撮影することにより得られた前記画像オブジェクトの前記デプス値と前記メモリに記憶された前記第2の仮想オブジェクトの前記座標情報に応じて、前記第2の仮想オブジェクトが前記第1の仮想オブジェクトに対して所定の位置関係となると判断される場合には、前記仮想カメラにより撮影される仮想空間画像に含まれる前記第1の仮想オブジェクトと前記第2の仮想オブジェクトのうち前記第2の仮想オブジェクトの表示態様を変更するための処理と、
    を実行させるためのプログラム。
  14. ヘッドマウントディスプレイが装着されたプレイヤの画像オブジェクトであって、実空間カメラで撮影された実空間画像からデプス値に基づいて抽出された前記プレイヤの画像オブジェクトである第1の仮想オブジェクトと、前記第1の仮想オブジェクトとは異なる第2の仮想オブジェクトとが配置される仮想空間を、前記プレイヤとは異なる第三者が視聴可能にディスプレイに出力するための端末装置であって、前記第2の仮想オブジェクトの前記仮想空間における座標情報と所定の指示命令を記憶するように構成されたメモリと、前記所定の指示命令に基づいて所定の処理をするように構成されたプロセッサを含む端末装置において、前記プロセッサが前記所定の指示命令を処理することによりなされる方法であって、
    実空間のプレイヤの指示入力に基づいて操作可能な前記第1の仮想オブジェクトと、前記第2の仮想オブジェクトと、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトを仮想的に撮影するための仮想カメラとが、それぞれ異なる位置に仮想的に配置される仮想空間において、前記実空間カメラで撮影することにより得られた前記画像オブジェクトの前記デプス値と前記メモリに記憶された前記第2の仮想オブジェクトの前記座標情報に応じて、前記第2の仮想オブジェクトが前記第1の仮想オブジェクトに対して所定の位置関係となると判断される場合には、前記仮想カメラにより撮影される仮想空間画像に含まれる前記第1の仮想オブジェクトと前記第2の仮想オブジェクトのうち前記第2の仮想オブジェクトの表示態様を変更する段階と、
    を含む方法。
JP2017567501A 2017-12-25 2017-12-25 端末装置、システム、プログラム及び方法 Active JP6669783B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/046312 WO2019130374A1 (ja) 2017-12-25 2017-12-25 端末装置、システム、プログラム及び方法

Publications (2)

Publication Number Publication Date
JPWO2019130374A1 JPWO2019130374A1 (ja) 2019-12-26
JP6669783B2 true JP6669783B2 (ja) 2020-03-18

Family

ID=66949228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017567501A Active JP6669783B2 (ja) 2017-12-25 2017-12-25 端末装置、システム、プログラム及び方法

Country Status (3)

Country Link
US (1) US10792567B2 (ja)
JP (1) JP6669783B2 (ja)
WO (1) WO2019130374A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017218215B4 (de) * 2017-10-12 2024-08-01 Audi Ag Verfahren zum Betreiben einer am Kopf tragbaren elektronischen Anzeigeeinrichtung und Anzeigesystem zum Anzeigen eines virtuellen Inhalts
JP7343285B2 (ja) * 2019-03-20 2023-09-12 株式会社コーエーテクモゲームス コンピュータシステム、配信用端末及び配信サーバー
CN111265861A (zh) * 2020-01-15 2020-06-12 腾讯科技(深圳)有限公司 虚拟道具的显示方法和装置、存储介质及电子装置
CN112017300A (zh) * 2020-07-22 2020-12-01 青岛小鸟看看科技有限公司 混合现实图像的处理方法、装置及设备
CN112156465B (zh) * 2020-10-22 2023-03-03 腾讯科技(深圳)有限公司 虚拟角色的显示方法、装置、设备及介质
JP6928709B1 (ja) * 2020-12-28 2021-09-01 プラチナゲームズ株式会社 情報処理プログラム、情報処理装置、および情報処理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3141737B2 (ja) * 1995-08-10 2001-03-05 株式会社セガ 仮想画像生成装置及びその方法
JP3363861B2 (ja) 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP2002045566A (ja) * 2000-08-03 2002-02-12 Namco Ltd ゲーム装置および情報記憶媒体
US7874917B2 (en) * 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
JP5154775B2 (ja) * 2006-08-18 2013-02-27 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP5522902B2 (ja) * 2008-03-24 2014-06-18 任天堂株式会社 情報処理プログラムおよび情報処理装置
US9248376B2 (en) * 2008-09-30 2016-02-02 Nintendo Co., Ltd. Computer-readable storage medium having stored game program therein, and game apparatus
US8403753B2 (en) * 2008-09-30 2013-03-26 Nintendo Co., Ltd. Computer-readable storage medium storing game program, game apparatus, and processing method
JP5269745B2 (ja) * 2009-10-30 2013-08-21 任天堂株式会社 オブジェクト制御プログラム、オブジェクト制御装置、オブジェクト制御システム及びオブジェクト制御方法
JP2011255119A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP2012058968A (ja) * 2010-09-08 2012-03-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US9159152B1 (en) * 2011-07-18 2015-10-13 Motion Reality, Inc. Mapping between a capture volume and a virtual world in a motion capture simulation environment
JP5859298B2 (ja) * 2011-12-08 2016-02-10 任天堂株式会社 情報処理システム、情報処理装置、情報処理方法及び情報処理プログラム
JP5927966B2 (ja) * 2012-02-14 2016-06-01 ソニー株式会社 表示制御装置、表示制御方法、及びプログラム
JP6175714B2 (ja) * 2013-11-22 2017-08-09 株式会社コナミデジタルエンタテインメント ゲーム機、並びにそれに用いる制御方法及びコンピュータプログラム
JP2016122392A (ja) 2014-12-25 2016-07-07 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6317854B2 (ja) * 2015-03-30 2018-04-25 株式会社カプコン 仮想三次元空間生成方法、映像システム、その制御方法およびコンピュータ装置での読み取りが可能な記録媒体
JP2017102298A (ja) 2015-12-02 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
JP2017143978A (ja) * 2016-02-16 2017-08-24 株式会社バンダイナムコエンターテインメント ゲーム装置
JP2017170106A (ja) 2016-08-19 2017-09-28 株式会社コロプラ ゲームプログラム、方法およびゲームシステム
US10449453B2 (en) * 2017-03-08 2019-10-22 Robolox Corporation Third person camera and avatar motion controller for virtual reality players of avatar-based games

Also Published As

Publication number Publication date
WO2019130374A1 (ja) 2019-07-04
US10792567B2 (en) 2020-10-06
US20190192967A1 (en) 2019-06-27
JPWO2019130374A1 (ja) 2019-12-26

Similar Documents

Publication Publication Date Title
JP6669783B2 (ja) 端末装置、システム、プログラム及び方法
US10083540B2 (en) Virtual light in augmented reality
KR102564801B1 (ko) 그래픽 처리 시스템
JP6799017B2 (ja) 端末装置、システム、プログラム及び方法
US10628996B2 (en) Direct light compensation technique for augmented reality system
US9724609B2 (en) Apparatus and method for augmented reality
JP6317854B2 (ja) 仮想三次元空間生成方法、映像システム、その制御方法およびコンピュータ装置での読み取りが可能な記録媒体
US8866848B2 (en) Image processing device, control method for an image processing device, program, and information storage medium
JP7007348B2 (ja) 画像処理装置
KR102474088B1 (ko) 이미지를 합성하기 위한 방법 및 디바이스
US9363496B2 (en) Moving image generation device
CN111602100A (zh) 提供替代现实环境的方法、装置和系统
CN111566596A (zh) 用于虚拟现实显示器的真实世界门户
CN109448050B (zh) 一种目标点的位置的确定方法及终端
CN105389090A (zh) 游戏交互界面显示的方法及装置、移动终端和电脑终端
EP3236423A1 (en) Method and device for compositing an image
US10391408B2 (en) Systems and methods to facilitate user interactions with virtual objects depicted as being present in a real-world space
JP5256153B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
KR101665363B1 (ko) 가상현실, 증강현실 및 홀로그램을 혼합한 인터랙티브 콘텐츠 시스템
JP7313811B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2009205522A (ja) プログラム、情報記憶媒体、情報変換システム
JP6806040B2 (ja) 画像生成装置、表示システム、及びプログラム
JP6250214B1 (ja) 画像処理装置及び画像処理プログラム
KR20200046538A (ko) 3차원 컬러 블록 생성 방법 및 시스템
KR20170091546A (ko) 휴대용 단말기에서 영상 합성 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190628

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191031

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20191111

TRDD Decision of grant or rejection written
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200227

R150 Certificate of patent or registration of utility model

Ref document number: 6669783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250