JP7364218B2 - 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法 - Google Patents
情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法 Download PDFInfo
- Publication number
- JP7364218B2 JP7364218B2 JP2019209904A JP2019209904A JP7364218B2 JP 7364218 B2 JP7364218 B2 JP 7364218B2 JP 2019209904 A JP2019209904 A JP 2019209904A JP 2019209904 A JP2019209904 A JP 2019209904A JP 7364218 B2 JP7364218 B2 JP 7364218B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- unit
- display
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
以下、本発明の第1実施形態を説明する。
図1は、本実施形態に係る情報処理システム1の概要の一例を説明するための説明図である。以下、図1を参照しつつ、情報処理システム1の概要の一例を説明する。
以下では、ユーザU1及びユーザU2を区別しない場合には、ユーザU1及びユーザU2を、ユーザUqと総称する。ここで、本実施形態において、符号に添えられた添え字qは、「1≦q≦2」を満たす自然数であることとする。
なお、本実施形態では、2人のユーザU1及びユーザU2がゲームを実行する場合を、一例として想定するが、本発明はこのような態様に限定されるものではない。ゲームは、1人以上のユーザにより実行されるものであってもよい。例えば、ゲームは、3人のユーザにより実行されるものであってもよいし、4人のユーザにより実行されるものであってもよい。この場合、添え字qは、ゲームを実行するユーザの人数に応じた範囲の自然数であればよい。すなわち、添え字qは、1≦q≦3を満たす自然数であってもよいし、1≦q≦4を満たす自然数であってもよいし、更には、1≦qを満たす自然数であってもよい。
また、以下では、ユーザUqに関連する要素については、当該要素を表す符合に対しても、添え字qを付して表現する場合がある。
本実施形態に係るカードゲームには、複数種類のカードが存在する。各カードには、当該カードの種類に対応する種類のキャラクタを表す絵柄が印刷されている。
ユーザUqは、ユーザUqの有する複数種類のカードの中から、カードCDqを選択し、当該選択したカードCDqをテーブルTBに配置することができる。以下では、カードCDqに印刷された絵柄により表されるキャラクタを、キャラクタVqと称する。
本実施形態において、深度情報DSは、撮像データDAの示す撮像画像を構成する複数の画素の各々について、当該画素に対応する被写体の部位とカメラCMAとの間の距離に応じた値を示す。但し、深度情報DSの解像度は、撮像データDAの解像度より低くてもよい。すなわち、深度情報DSは、撮像データDAの示す撮像画像を構成する複数の画素を、各々が2以上の画素からなる複数の画素ブロックに区分した場合に、撮像データDAの示す撮像画像を構成する複数の画素ブロックの各々について、当該画素ブロックに対応する被写体の部位とカメラCMAとの間の距離に応じた値を示してもよい。
また、本実施形態では、説明の便宜上、現実空間SP-Rに固定されたワールド座標系ΣWと、カメラCMAに固定されたカメラ座標系ΣCと、を導入する。
ここで、ワールド座標系ΣWとは、例えば、現実空間SP-Rの所定位置に原点を有し、互いに直交するXW軸、YW軸、及び、ZW軸を有する3軸の直交座標系である。本実施形態では、図1に示すように、+ZW方向が、鉛直上向き方向である場合を、一例として想定する。
また、カメラ座標系ΣCとは、例えば、カメラCMA上の所定箇所に原点を有し、互いに直交するXC軸、YC軸、及び、ZC軸を有する3軸の直交座標系である。本実施形態では、図1に示すように、+ZC方向が、カメラCMAの有する光学系の光軸方向である場合を、一例として想定する。なお、カメラ座標系ΣCとしては、カメラCMAからの距離を表す座標軸と、カメラCMAの有する光学系の光軸方向からの角度を表す座標軸と、を有する極座標系を採用してもよい。
また、情報処理装置10は、表示データ生成処理において、撮像データDA、及び、マーカ情報に基づいて、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCを特定する(図7参照)。なお、位置を示す符号P、及び、向きを示す符号Rの左上の添え字「W」は、当該位置及び向きが、ワールド座標系ΣWにおける位置または向きであることを意味することとする。また、マーカ情報がマーカMKの大きさを含まない情報である場合、情報処理装置10は、撮像データDA及びマーカ情報に加え、深度情報DSに基づいて、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCを特定すればよい。
また、情報処理装置10は、表示データ生成処理において、撮像データDA及び深度情報DSと、に基づいて、カメラ座標系ΣCにおけるユーザUqの位置CPUq及び向きCRUqを特定する(図7参照)。なお、位置を示す符号P、及び、向きを示す符号Rの左上の添え字「C」は、当該位置及び向きが、カメラ座標系ΣCにおける位置または向きであることを意味することとする。
そして、情報処理装置10は、表示データ生成処理において、相対位置情報と、ユーザUqの位置CPUqと、に基づいて、カメラ座標系ΣCにおけるキャラクタVqの位置CPVqを決定する(図7参照)。ここで、相対位置情報とは、現実空間SP-RにキャラクタVqが存在すると仮定した場合に、ワールド座標系ΣWにおいて、ユーザUqからキャラクタVqの位置を示すベクトルWPUVqを示す情報である(図7参照)。本実施形態では、ベクトルWPUVqが予め定められていることとする。すなわち、本実施形態では、現実空間SP-RにキャラクタVqが存在すると仮定した場合に、現実空間SP-Rにおいて、ユーザUqとキャラクタVqとが「所定の位置関係」を有するように、キャラクタVqの位置が定められる場合を想定する。
また、情報処理装置10は、表示データ生成処理において、カメラ座標系ΣCにおけるユーザUqの向きCRUqに基づいて、カメラ座標系ΣCにおけるキャラクタVqの向きCRVqを決定する(図7参照)。
そして、情報処理装置10は、表示データ生成処理において、カメラ座標系ΣCにおけるキャラクタVqの位置CPVq及び向きCRVqに基づいて、表示部21においてキャラクタVqを表すキャラクタ画像GVqの形状を決定する。ここで、キャラクタ画像GVqの形状とは、キャラクタ情報の示す3次元形状を有するキャラクタVqが、カメラ座標系ΣCにおいて、位置CPVqに存在し、且つ、向きCRVqを有している場合に、当該キャラクタVqを、カメラCMAから撮像した結果として得られる画像の形状である。
その後、情報処理装置10は、表示データ生成処理において、撮像データDAの示す撮像画像と、キャラクタ画像GVq等、撮像画像以外の画像である非撮像画像と、を合成した合成画像GGを示す表示データDoutを生成する。なお、本実施形態において、情報処理装置10は、非撮像画像に対して、キャラクタ画像GVqの他に、ユーザUqのヒットポイントを示すヒットポイント画像GHPqを含ませることとする。
このうち、図2は、現実空間SP-Rにおいて、カメラCMAが、ユーザU1及びユーザU2の-YW側から、ユーザU1及びユーザU2を撮像した場合に、表示部21に表示される合成画像GGを示している。
また、図3は、現実空間SP-Rにおいて、カメラCMAが、ユーザU1の+XW側から、ユーザU1を撮像した場合に、表示部21に表示される合成画像GGを示している。
図2及び図3に例示されるように、撮像画像は、ユーザUqを撮像して得られるユーザ画像GUqと、壁WLを撮像して得られる壁画像GWLと、テーブルTBを撮像して得られるテーブル画像GTBと、マーカMKを撮像して得られるマーカ画像GMKとの、一部または全部を含む。また、非撮像画像は、上述のとおり、キャラクタ画像GVqと、ヒットポイント画像GHPとの、一部または全部を含む。
なお、キャラクタ画像GVqは、「第2画像」の一例であり、ユーザ画像GUqは、「第3画像」の一例であり、壁画像GWLは、「第4画像」の一例である。
本実施形態において、撮像画像は、被写体の形状、模様、及び、色彩を示すが、本発明はこのような態様に限定されるものではない。撮像画像のうちの一部分は、被写体についての、形状、輪郭、色彩、及び、模様のうちの一部のみを示すものであってもよい。例えば、撮像画像のうち、ユーザ画像GUq以外の部分については、被写体の形状、模様、及び、色彩を示し、ユーザ画像GUqについては、ユーザUqの骨格等の形状、または、ユーザUqのシルエット等の輪郭のみを示してもよい。また、ユーザUqの全部または一部にモザイクなどの加工を施した画像もユーザ画像GUqに含みうる。
また、図2では、相対位置情報の示すベクトルWPUV2が、ユーザU2から見て+YW方向を向くベクトルである場合を例示している。このため、図2に例示する合成画像GGでは、キャラクタ画像GV2のうち、ユーザ画像GU2と重なる部分を非表示とすることで、カメラCMAから見てキャラクタV2の手前にユーザU2が位置する様子を表現している。
以下、図4及び図5を参照しつつ、情報処理システム1の構成の一例を説明する。なお、図4は、情報処理システム1の構成の一例を示す機能ブロック図である。また、図5は、情報処理装置10のハードウェア構成の一例を示す構成図である。
なお、本実施形態において、カメラ位置特定部116は、「第1特定部」の一例であり、オブジェクト特定部115は、「第2特定部」の一例である。
カメラ位置特定部116は、撮像データDAの示すマーカ画像GMKと、マーカ情報と、に基づいて、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCを特定する。これにより、カメラ座標系ΣCにおける位置CP及び向きCRと、ワールド座標系ΣWにおける位置WP及び向きWRと、を相互に変換することが可能な、座標変換式を得ることができる。なお、カメラ位置特定部116は、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCのうち、少なくとも一方を特定するものであってもよい。
被写体位置特定部117は、撮像データDA及び深度情報DSのうちユーザ画像GUqに対応する情報に基づいて、カメラ座標系ΣCにおけるユーザUqの位置CPUq及び向きCRUqを特定する。
重なり抽出部112は、合成画像GGにおける、ユーザ画像GUqとキャラクタ画像GVqとの重なりを抽出する。
遠近判定部113は、カメラ座標系ΣCにおけるユーザUqの位置CPUqと、カメラ座標系ΣCにおけるキャラクタVqの位置CPVqと、に基づいて、ユーザUq及びキャラクタVqの何れが、カメラCMAに近いかを判定する。
表示情報生成部114は、撮像データDAの示す撮像画像と、重なり抽出部112における抽出結果と、遠近判定部113における判定結果と、に基づいて、合成画像GGを示す表示データDoutを生成する。
プロセッサ1000は、例えば、CPU(Central Processing Unit)であり、メモリ1001に記憶された制御プログラムPRGを実行し、当該制御プログラムPRGに従って動作することで、制御部11として機能する。
通信装置1002は、ネットワークNwを介して、情報処理装置10の外部に存在する外部装置との通信を行うためのハードウェアであり、通信部13としての機能を提供する。
入力操作装置1003は、例えば、操作ボタンであり、情報処理装置10の操作者の操作を受け付ける操作部14としての機能を提供する。入力操作装置1003は、例えば、操作ボタン、タッチパネル、キーボード、ジョイスティック、及び、マウス等のポインティングデバイスの一部または全部を含む、1または複数の機器から構成されるものであってもよい。
ディスク装置1004は、例えば、光ディスク装置であり、光ディスク等の記録媒体に記録された制御プログラムPRG等の各種情報を読み込む情報読込部15としての機能を提供する。
図6及び図7を参照しつつ、情報処理装置10が表示データ生成処理を実行する場合における、当該情報処理装置10の動作の一例を説明する。なお、図6は、情報処理装置10が表示データ生成処理を実行する場合における、当該情報処理装置10の動作の一例を示すフローチャートである。また、図7は、+ZW側から表示空間SP-Vを見た場合における、ユーザUq、壁WL、キャラクタVq、及び、カメラCMA等の、表示空間SP-Vに存在する各種物体の位置関係を説明するための説明図である。なお、本実施形態では、一例として、情報処理装置10の操作者等により、表示データ生成処理を開始させる旨を指示する操作が操作部14から入力された場合に、情報処理装置10が、図6に示す表示データ生成処理を開始させる場合を想定する。
具体的には、オブジェクト特定部115は、ステップS100において、撮像データDTの示すカードCDqに描かれた絵柄と、カードデザイン情報の示すキャラクタVqの絵柄と、に基づいて、カードCDqに描かれているキャラクタVqの種類を特定することで、カードCDqの種類を特定する。
例えば、カードCDqが無線通信機能を有する場合、オブジェクト特定部115は、当該カードCDqから受信した、カードCDqの種類を識別するための情報に基づいて、カードCDqの種類を特定してもよい。また、オブジェクト特定部115は、例えば、カメラCMAから出力される撮像データDAに基づいて、カードCDqの種類を特定してもよい。この場合、オブジェクト特定部115は、撮像データDAに加えて、深度情報DSに基づいて、カードCDqの種類を特定してもよい。
具体的には、カメラ位置特定部116は、ステップS102において、まず、撮像データDAに基づいて、図7に示す、カメラ座標系ΣCにおけるマーカMKの位置CPM及び向きCRMを特定する。次に、カメラ位置特定部116は、カメラ座標系ΣCにおけるマーカMKの位置CPM及び向きCRMと、マーカ情報の示す、ワールド座標系ΣWにおけるマーカMKの位置WPM及び向きWRMと、に基づいて、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCを特定する(図7参照)。
なお、カメラ位置特定部116は、ステップS102において、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCのうち、少なくとも一方を特定するものであってもよい。
例えば、カメラCMTがカメラCMAを撮像する場合、カメラ位置特定部116は、カメラCMTによる撮像結果を示す撮像データDTに基づいて、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCを特定してもよい。
また、例えば、カメラCMAは、地磁気センサ、加速度センサ、及び、角速度センサ等の、各種センサを備えていてもよい。この場合、カメラ位置特定部116は、各種センサからの出力に基づいて、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCの変化量を特定してもよい。一例として、カメラ位置特定部116は、加速度センサの出力、及び、地磁気センサの出力に基づいて、ワールド座標系ΣWにおけるカメラCMAの位置WPCの変化を算出し、また、角速度センサの出力に基づいて、ワールド座標系ΣWにおけるカメラCMAの向きWRCの変化を算出してもよい。そして、カメラ位置特定部116が、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCの変化量を特定可能な場合、ある時刻において、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCを特定できれば、それ以降の時刻においても、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCを特定することができる。このため、カメラ位置特定部116が、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCの変化量を特定可能であれば、カメラCMAがマーカMKを撮像していない期間が存在する場合、または、カメラCMTがカメラCMAを撮像していない期間が存在する場合であっても、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCを特定することができる。
また、例えば、カメラCMAは、GPS(Global Positioning System)衛星等の位置情報衛星から出力される位置情報信号、または、現実空間SP-Rに設けられた信号発信機(例えば、屋内GPS)から出力される位置情報信号、等を受信する、信号受信部を有していてもよい。この場合、カメラ位置特定部116は、信号受信部の受信した位置情報信号に基づいて、ワールド座標系ΣWにおけるカメラCMAの位置WPCを特定してもよい。
具体的には、キャラクタ位置決定部111は、ステップS108において、ステップS102で特定された、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCに基づいて、相対位置情報の示すベクトルWPUVqを、カメラ座標系ΣCにおいて表現したベクトルCPUVqに変換する。次に、キャラクタ位置決定部111は、ベクトルCPUVqと、ステップS104で特定されたユーザUqの位置CPUqと、に基づいて、カメラ座標系ΣCにおけるキャラクタVqの位置CPVqを決定する。
なお、キャラクタ位置決定部111は、ステップS108において、次のように、カメラ座標系ΣCにおけるキャラクタVqの位置CPVqを決定してもよい。すなわち、キャラクタ位置決定部111は、ステップS108において、まず、ステップS102で特定された、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCに基づいて、ステップS104で特定されたカメラ座標系ΣCにおけるユーザUqの位置CPUqを、ワールド座標系ΣWで表現した位置WPUqに変換する。次に、キャラクタ位置決定部111は、ワールド座標系ΣWにおけるユーザUqの位置WPUqと、相対位置情報の示すワールド座標系ΣWにおけるベクトルWPUVqとに基づいて、ワールド座標系ΣWにおけるキャラクタVqの位置WPVqを決定する。その後、キャラクタ位置決定部111は、ワールド座標系ΣWにおけるキャラクタVqの位置WPVqを、カメラ座標系ΣCで表現した位置CPVqに変換する。
具体的には、キャラクタ位置決定部111は、ステップS110において、カメラ座標系ΣCにおけるキャラクタVqの向きCRVqと、ステップS106で特定されたユーザUqの向きCRUqとが、同一の向きとなるように、キャラクタVqの向きCRVqを決定する。但し、キャラクタ位置決定部111は、ステップS110において、カメラ座標系ΣCにおけるキャラクタVqの向きCRVqと、カメラ座標系ΣCにおけるユーザUqの向きCRUqとが、所定の角度以下となるように、キャラクタVqの向きCRVqを決定してもよい。
具体的には、キャラクタ位置決定部111は、ステップS112において、ベクトルCPUVqの延長線上における、キャラクタVqと壁WLとの間の距離LVEが、所定の距離以上であり、且つ、ユーザUqから見て、キャラクタVqが壁WLよりも手前側に位置しているという条件(以下、「キャラクタ位置条件」が充足されるか否かを判定する。そして、キャラクタ位置決定部111は、当該判定の結果が肯定の場合、キャラクタVqの位置CPVqを変更せずに維持する。他方、キャラクタ位置決定部111は、当該判定の結果が否定の場合、キャラクタVqを、キャラクタ位置条件が満たされるまで、ベクトルCPUVqとは反対方向に移動させることで、キャラクタVqの位置CPVqを調整する。
具体的には、重なり抽出部112は、ステップS114において、撮像データDAに基づいて、合成画像GGにおいて、ユーザUqを表すユーザ画像GUqを配置する。また、重なり抽出部112は、カメラ座標系ΣCにおけるキャラクタVqの位置CPVq及び向きCRVqと、キャラクタ情報の示すキャラクタVqの3次元形状と、に基づいて、合成画像GGにおいて、キャラクタVqを表すキャラクタ画像GVqを配置する。そして、重なり抽出部112は、合成画像GGに配置されたユーザ画像GUq及びキャラクタ画像GVqの重なり部分を抽出する。
具体的には、表示情報生成部114は、ステップS118において、ステップS116の判定の結果が肯定の場合、キャラクタ画像GVqのうち、ステップS114で抽出された重なり部分を非表示とした上で、撮像画像の上に、キャラクタ画像GVqと、ヒットポイント画像GHPとを表示させることで、合成画像GGを生成する。
他方、表示情報生成部114は、ステップS118において、ステップS116の判定の結果が否定の場合、撮像画像の上に、キャラクタ画像GVqと、ヒットポイント画像GHPとを表示させることで、合成画像GGを生成する。この場合、ユーザ画像GUqは、ユーザ画像GUqのうち、ステップS114で抽出された重なり部分が非表示とされた上で、合成画像GGに表示されることになる。
以上において説明したように、本実施形態によれば、合成画像GGの表す表示空間SP-Vにおいて、ユーザUqから見てキャラクタVqがベクトルCPUVqにより定められる位置に配置される。
このため、本実施形態によれば、ユーザUqを表すユーザ画像GUqと、キャラクタVqを表すユーザ画像GUqとを、関連付けて表示することができる。これにより、本実施形態によれば、情報処理システム1により、ユーザU1及びユーザU2がカードゲームを実行している様子を表示部21に表示させる場合に、表示部21に表示される合成画像GGにおいて、カードゲームの臨場感を演出することができる。
このため、本実施形態によれば、キャラクタVqを表すキャラクタ画像GVqの表示位置が、カードCDqの配置位置及び向きの影響を受ける場合と比較して、合成画像GGにおける、キャラクタ画像GVqの表示位置を容易に調整することが可能となる。
このため、本実施形態によれば、合成画像GGにおけるキャラクタ画像GVqの表示位置及び形状が、カードCDqの配置位置及び向きに基づいて定められる場合と比較して、ユーザUqによるカードCDqの配置の手間を低減することができる。
このため、本実施形態によれば、合成画像GGにおけるキャラクタ画像GVqの表示位置及び表示形状が、カードCDqの配置位置及び向きに基づいて定められる場合と比較して、カードCDqのデザインの自由度を向上させることができる。
以下、本発明の第2実施形態を説明する。なお、以下に例示する各形態において作用や機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
また、本実施形態において、カメラCMAは、少なくとも撮像データDAを出力すればよく、深度情報DSを出力しなくてもよい。
そして、キャラクタ位置決定部111Aは、図10に示すように、キャラクタ位置情報の示す、ワールド座標系ΣWにおけるキャラクタVqの位置WPVqと、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCと、基づいて、カメラ座標系ΣCにおけるキャラクタVqの位置CPVqを特定する(S200)。
また、キャラクタ位置決定部111Aは、図10に示すように、キャラクタ位置情報の示す、ワールド座標系ΣWにおけるキャラクタVqの向きWRVqと、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCと、基づいて、カメラ座標系ΣCにおけるキャラクタVqの向きCRVqを特定する(S202)。
その後、重なり抽出部112が、ユーザ画像GUqとキャラクタ画像GVqとの重なりを抽出し(S114)、遠近判定部113が、カメラCMAから見たユーザUq及びキャラクタVqの遠近を判定し(S116)、表示情報生成部114が、合成画像GGを示す表示データDoutを生成し(S118)、表示情報生成部114が、表示データ生成処理の終了を判定する(S120)。
以下、本発明の第3実施形態を説明する。
第3実施形態は、カメラCMTから出力される撮像データDTを用いることなく、キャラクタ画像GVqにより表されるキャラクタVqの種類が指定される点において、第2実施形態と相違する。
本実施形態において、記憶装置30は、キャラクタ情報、マーカ情報、ユーザ位置情報、及び、キャラクタ位置情報、を記憶している。すなわち、本実施形態において、記憶装置30は、カードデザイン情報と、相対位置情報とを記憶していなくてもよい。
また、本実施形態において、カメラCMAは、少なくとも撮像データDAを出力すればよく、深度情報DSを出力しなくてもよい。
図12に示すように、本実施形態に係る表示データ生成処理は、ステップS100の処理を実行しない点と、ステップS300の処理を実行する点と、を除き、図9に示す第2実施形態に係る表示データ生成処理と同様の処理である。
その後、キャラクタ位置決定部111Bは、キャラクタVqの種類を決定し、当該決定した種類のキャラクタVqに対応するキャラクタ情報に基づいて、キャラクタVqの3次元形状を決定する(S300)。なお、キャラクタ位置決定部111Bは、ステップS300において、キャラクタVqの種類を、例えば、情報処理装置10Bの操作者が、操作部14を用いて入力した情報に基づいて決定してもよい。または、キャラクタ位置決定部111Bが、ステップS300において決定するキャラクタVqの種類は、予め記憶装置30に記憶されていてもよい。
その後、重なり抽出部112が、ユーザ画像GUqとキャラクタ画像GVqとの重なりを抽出し(S114)、遠近判定部113が、カメラCMAから見たユーザUq及びキャラクタVqの遠近を判定し(S116)、表示情報生成部114が、合成画像GGを示す表示データDoutを生成し(S118)、表示情報生成部114が、表示データ生成処理の終了を判定する(S120)。
以下、本発明の第4実施形態を説明する。
また、被写体位置特定部117は、撮像データDA及び深度情報DSに基づいて、図15に示す、カメラ座標系ΣCにおけるユーザUqの位置CPUqを特定する(S104)。
また、被写体位置特定部117は、撮像データDA及び深度情報DSに基づいて、図15に示す、カメラ座標系ΣCにおけるユーザUqの向きCRUqを特定する(S106)。
そして、キャラクタ位置決定部111Cは、カメラ座標系ΣCにおけるユーザUqの向きCRUqに基づいて、ユーザUqから見たキャラクタVqの位置を示すベクトルCPUVqを決定する(S400)。具体的には、キャラクタ位置決定部111Cは、ステップS400において、図15に示すように、向きCRUqとベクトルCPUVqとのなす角度が、角度θAとなるように、ベクトルCPUVqを決定する。
更に、キャラクタ位置決定部111Cは、ステップS104で特定したカメラ座標系ΣCにおけるユーザUqの位置CPUqと、ステップS400で決定したベクトルCPUVqと、に基づいて、カメラ座標系ΣCにおけるキャラクタVqの位置CPVqを決定する(S402)。
その後、キャラクタ位置決定部111Cが、カメラ座標系ΣCにおけるキャラクタVqの向きCRVqを決定し(S110)、キャラクタ位置決定部111Cが、表示空間SP-Vにおける、キャラクタVqと壁WLとの相対的な位置関係に基づいて、キャラクタVqの位置CPVqを調整し(S112)、重なり抽出部112が、ユーザ画像GUqとキャラクタ画像GVqとの重なりを抽出し(S114)、遠近判定部113が、カメラCMAから見たユーザUq及びキャラクタVqの遠近を判定し(S116)、表示情報生成部114が、合成画像GGを示す表示データDoutを生成し(S118)、表示情報生成部114が、表示データ生成処理の終了を判定する(S120)。
例えば、図16及び図17に示すように、ユーザU1及びユーザU2の相対的な位置関係に基づいて、カメラ座標系ΣCにおけるキャラクタVqの位置CPVqを決定してもよい。なお、図16は、情報処理装置10Cが表示データ生成処理を実行する場合における、情報処理装置10Cの動作の他の例を示すフローチャートである。図16に示す表示データ生成処理は、ステップS400の代わりに、ステップS404の処理を実行する点を除き、図14に示す表示データ生成処理と同様の処理である。また、図17は、+ZW側から表示空間SP-Vを見た場合における、各種物体の位置関係を説明するための説明図である。
また、被写体位置特定部117は、撮像データDA及び深度情報DSに基づいて、図17に示す、カメラ座標系ΣCにおけるユーザUqの位置CPUqを特定する(S104)。なお、図16及び図17に示す例では、被写体位置特定部117は、ステップS104において、ユーザU1の位置CPU1と、ユーザU2の位置CPU2と、の両方を特定することとする。
また、被写体位置特定部117は、撮像データDA及び深度情報DSに基づいて、図17に示す、カメラ座標系ΣCにおけるユーザUqの向きCRUqを特定する(S106)。
そして、キャラクタ位置決定部111Cは、図17に示すように、カメラ座標系ΣCにおいて、ユーザU1及びユーザU2の相対的な位置関係を示すベクトルCPUUに基づいて、ユーザUqから見たキャラクタVqの位置を示すベクトルCPUVqを決定する(S404)。具体的には、キャラクタ位置決定部111Cは、ステップS404において、まず、ユーザU1の位置CPU1と、ユーザU2の位置CPU2と、に基づいて、カメラ座標系ΣCにおいて、ユーザUqから他のユーザUの位置を示すベクトルCPUUを算出する。次に、キャラクタ位置決定部111Cは、ベクトルCPUUとベクトルCPUVqとのなす角度が、角度θBとなるように、ベクトルCPUVqを決定する。
その後、キャラクタ位置決定部111Cが、ユーザUqの位置CPUqと、ベクトルCPUVqと、に基づいて、カメラ座標系ΣCにおけるキャラクタVqの位置CPVqを決定する(S402)。
その後、キャラクタ位置決定部111Cは、ユーザUqの位置CPUqと、ベクトルCPUVqと、に基づいて、カメラ座標系ΣCにおけるキャラクタVqの位置CPVqを決定する(S402)。
以下、本発明の第5実施形態を説明する。
本実施形態において、記憶装置30は、カードデザイン情報と、キャラクタ情報と、を記憶している。また、本実施形態において、現実空間SP-Rには、マーカMKを設けなくてもよい。
図21に示すように、本実施形態に係る表示データ生成処理は、ステップS100の処理を実行しない点と、ステップS300の処理を実行する点と、を除き、図14に示す第4実施形態に係る表示データ生成処理と同様の処理である。すなわち、キャラクタ位置決定部111Dは、ステップS400、S402、S110、S112、及び、S300の処理を実行する。但し、キャラクタ位置決定部111Dは、ステップS400に代えて、ステップS404、または、ステップS406の処理を実行してもよい。
以上の各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲内で適宜に併合され得る。なお、以下に例示する変形例において作用や機能が実施形態と同等である要素については、以上の説明で参照した符号を流用して各々の詳細な説明を適宜に省略する。
上述した第1乃至第5実施形態において、表示空間SP-VにおけるキャラクタVqの位置WPVqは、一定の位置、または、ユーザUqの位置WPUq若しくは向きWRUqに応じた位置となるが、本発明はこのような態様に限定されるものではない。表示空間SP-VにおけるキャラクタVqの位置WPVqは、カードゲームの進行に応じて変化してもよいし、または、ユーザUqの動作に応じて変化してもよい。
これらの場合、情報処理装置10、10A、10B、10C、または、10D(以下、「情報処理装置10等」と総称する)の操作者は、操作部14を用いて、ユーザUqがカードCDqを用いて攻撃していることを示す情報を入力し、または、ユーザUqが所定の動作を実行していることを示す情報を入力してもよい。そして、情報処理装置10等は、情報処理装置10等の操作者による情報の入力に基づいて、ユーザUqがカードCDqを用いて攻撃していること、または、ユーザUqが所定の動作を実行していることを、認識してもよい。
また、情報処理装置10等は、カメラCMAから出力される撮像データDA及び深度情報DSに基づいて、ユーザUqが、所定の動作を実行したことを認識してもよい。
また、情報処理装置10Aまたは10Bのキャラクタ位置決定部111Aまたは111Bは、キャラクタ位置情報の示すキャラクタVqの位置WPVqを変化させることで、表示空間SP-VにおけるキャラクタVqの位置WPVqを変化させてもよい。
また、情報処理装置10Cまたは10Dのキャラクタ位置決定部111Cまたは111Cは、角度θA、θB、または、θCの大きさと、ベクトルCPUVqの大きさと、の少なくとも一方を変化させることで、表示空間SP-VにおけるキャラクタVqの位置WPVqを変化させてもよい。
上述した第1乃至第5実施形態及び変形例1において、キャラクタVqは、一定の形状を有するが、本発明はこのような態様に限定されるものではなく、キャラクタVqの形状は変化してもよい。
具体的には、表示制御部110、110A、110B、110C、または、110D(以下、「表示制御部110等」と総称する)は、キャラクタVqの形状を、カードゲームの進行に応じて、または、ユーザUqの動作若しくは姿勢に応じて変化させてもよい。ここで、キャラクタVqの形状とは、例えば、キャラクタVqの姿勢である。
例えば、表示制御部110等は、ユーザU1のカードCD1がユーザU2のカードCD2により攻撃を受けている場合、または、ユーザU1が所定の動作をした場合に、キャラクタV1を、図2に示すような、翼を広げていない姿勢から、図23に示すような、翼を広げてユーザU1を庇う姿勢へと、姿勢変化させてもよい。
なお、表示制御部110等は、キャラクタVqが、図23に示すような、翼を広げてユーザUqを庇う姿勢をとる場合、キャラクタVqの胴体部分が、カメラCMAから見て、ユーザUqの背後に隠れ、キャラクタVqの翼の一部が、カメラCMAから見て、ユーザUqよりも手前側に位置するように、ユーザ画像GUq及びキャラクタ画像GVqを表示させてもよい。
また、表示制御部110等は、ユーザU1が、ゲームを一時的に中断させる動作を実行した場合、キャラクタV1の姿勢を、キャラクタV1が休憩していることを示す姿勢に変化させてもよい。
上述した第1乃至第5実施形態、及び、変形例1または2において、カメラCMAは、現実空間SP-Rにおいて、位置WPC及び向きWRCを変化させることができるが、本発明はこのような態様に限定されるものではない。カメラCMAは、現実空間SP-Rの所定の場所に配置されていてもよい。この場合、記憶装置30は、ワールド座標系ΣWにおけるカメラCMAの位置WPC及び向きWRCを示す情報を記憶していてもよい。
上述した第1乃至第5実施形態、及び、変形例1乃至3において、情報処理システム1、1A、1B、1C、及び、1D(以下、「情報処理システム1等」と総称する)は、記憶装置30を備えるが、本発明はこのような態様に限定されるものではない。情報処理システム1等は、記憶装置30を備えずに構成されていてもよい。この場合、情報処理装置10等が備える記憶部12が、カードデザイン情報、キャラクタ情報、マーカ情報、相対位置情報、ユーザ位置情報、及び、キャラクタ位置情報の、一部または全部を記憶していてもよい。
上述した第1乃至第5実施形態、及び、変形例1乃至4において、情報処理装置10等は、深度情報DSに基づいて、カメラCMAの被写体の各部位とカメラCMAとの距離に応じた値(深度)を、カメラCMAの被写体の全体について並べた「深度マップ」を作成してもよい。この場合、情報処理装置10等は、深度マップと、カメラCMAから見たキャラクタVqの深度とに基づいて、カメラCMAから見た、キャラクタVqと、被写体の各部位との遠近を判定してもよい。そして、この場合、情報処理装置10等は、キャラクタ画像GVqの一部、及び、被写体を撮像して得られた撮像画像の一部が、合成画像GGにおいて重なる場合には、遠近の判定結果に基づいて、キャラクタ画像GVq、及び、撮像画像の一部のうち、カメラCMAから遠い方に対応する画像を非表示としてもよい。
また、情報処理装置10等は、撮像データDA及び深度情報DSの一方または双方に基づいて、ユーザUqの形状、輪郭、または、ユーザUqの顔位置を特定してもよい。この場合、情報処理装置10等は、深度マップ、ユーザUqの輪郭を示す情報及び深度マップ、または、ユーザUqの顔位置及び深度マップに基づいて、ユーザUqと、ユーザUq以外の被写体との相対的な位置関係を特定してもよい。そして、この場合、特定した相対的な位置関係に基づいて、表示空間SP-VにおけるキャラクタVqの位置を決定し、当該決定結果と、深度マップとに基づいて、キャラクタ画像GVqを表示してもよい。
以上の記載から、本発明は例えば以下のように把握される。なお、各態様の理解を容易にするために、以下では、図面の参照符号を便宜的に括弧書きで付記するが、本発明を図示の態様に限定する趣旨ではない。
本発明の一態様に係る情報処理装置のプログラムは、プロセッサを具備する情報処理装置のプログラムであって、プロセッサを具備する情報処理装置のプログラムであって、前記プロセッサを、オブジェクトが配置された現実空間を撮像する第1撮像部の、前記現実空間における位置及び姿勢の少なくとも一方を特定する第1特定部と、前記第1撮像部による撮像結果に基づく第1画像を表示部に表示させ、前記オブジェクトに対応する第2画像を、前記表示部のうち、前記第1特定部による特定結果に基づく位置に表示させる表示制御部と、して機能させる、ことを特徴とする。
また、この態様によれば、現実空間におけるオブジェクトの位置及び姿勢による制約を受けること無く、表示部における第2画像の表示位置を決定することができる。このため、この態様によれば、現実空間におけるオブジェクトの位置及び姿勢に基づいて、表示部における第2画像の表示位置が決定される場合と比較して、表示部における第2画像の表示位置に係る自由度を高くすることができる。
また、この態様によれば、オブジェクトにおいて、現実空間における当該オブジェクトの位置及び姿勢を特定するための特徴を表示させる必要が無い。このため、この態様によれば、現実空間におけるオブジェクトの位置及び姿勢に基づいて、表示部における第2画像の表示位置が決定される場合と比較して、オブジェクトのデザイン上の自由度を高くすることが可能となる。
本発明の他の態様に係る情報処理装置のプログラムは、付記1に記載の情報処理装置のプログラムであって、前記第1特定部は、前記第1撮像部による撮像結果に基づいて、前記第1撮像部の前記現実空間における位置及び姿勢の少なくとも一方を特定する、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1または2に記載の情報処理装置のプログラムであって、前記第1画像は、前記現実空間内のユーザを表す第3画像を含み、前記表示制御部は、前記表示部において、前記第2画像の少なくとも一部と前記第3画像の少なくとも一部とが重なる場合に、前記第1特定部による特定結果に基づいて、前記第2画像の少なくとも一部、または、前記第3画像の少なくとも一部のうち、何れか一方を、非表示とする、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至3に記載の情報処理装置のプログラムであって、前記第1画像は、前記現実空間内のユーザを表す第3画像を含み、前記表示制御部は、前記第1特定部による特定結果に基づいて、前記表示部における、前記第2画像と前記第3画像との相対的な位置関係を決定し、当該決定の結果に基づいて、前記第2画像及び前記第3画像を前記表示部に表示させる、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至4に記載の情報処理装置のプログラムであって、前記第1画像は、前記現実空間内のユーザを表す第3画像と、前記現実空間のうち前記ユーザの背景を表す第4画像と、を含み、前記表示制御部は、前記第1特定部による特定結果に基づいて、前記表示部における、前記第2画像と前記第3画像と前記第4画像との相対的な位置関係を決定し、当該決定の結果に基づいて、前記第2画像、前記第3画像、及び、前記第4画像を、前記表示部に表示させる、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至5に記載の情報処理装置のプログラムであって、前記プロセッサを、前記オブジェクトを撮像する第2撮像部による撮像結果に基づいて、前記オブジェクトの種類を特定する第2特定部、として更に機能させ、前記第2画像は、前記第2特定部の特定したオブジェクトの種類に応じた画像である、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至6に記載の情報処理装置のプログラムであって、前記第1画像は、前記現実空間内のユーザを表す第3画像を含み、前記第2画像は、前記オブジェクトに対応するキャラクタを表す画像であり、前記表示制御部は、前記表示部により表示される表示空間において、前記第2画像として表される前記キャラクタと、前記第3画像として表される前記ユーザとが、所定の位置関係を有するように、前記表示部に対して、前記第2画像及び前記第3画像を表示させる、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至7に記載の情報処理装置のプログラムであって、前記第1画像は、前記現実空間内のユーザを表す第3画像と、前記現実空間のうち前記ユーザの背景を表す第4画像と、を含み、前記第2画像は、前記オブジェクトに対応するキャラクタを表す画像であり、前記表示制御部は、前記表示部により表示される表示空間において、前記第2画像として表される前記キャラクタが、前記第3画像として表される前記ユーザと、前記第4画像として表される前記背景と、の間に位置するように、前記表示部に対して、前記第2画像、前記第3画像、及び、前記第4画像を表示させる、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至8に記載の情報処理装置のプログラムであって、前記第1画像は、前記現実空間内のユーザを表す第3画像を含み、前記第2画像は、前記オブジェクトに対応するキャラクタを表す画像であり、前記表示制御部は、前記ユーザが所定の動作を実行した場合に、前記表示部により表示される表示空間において、前記第2画像として表される前記キャラクタと、前記第3画像として表される前記ユーザとの、相対的な位置関係が変化するように、前記表示部に対して、前記第2画像及び前記第3画像を表示させる、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至9に記載の情報処理装置のプログラムであって、前記第1画像は、前記現実空間内のユーザを表す第3画像を含み、前記第2画像は、前記オブジェクトに対応するキャラクタを表す画像であり、前記表示制御部は、前記表示部により表示される表示空間において、前記キャラクタの姿勢が、前記ユーザの姿勢に基づく姿勢となるように、前記表示部において、前記第2画像を表示させる、ことを特徴とする。
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至10に記載の情報処理装置のプログラムであって、前記第1画像は、前記現実空間内のユーザを表す第3画像を含み、前記第2画像は、前記オブジェクトに対応するキャラクタを表す画像であり、前記表示制御部は、前記表示部により表示される表示空間において、前記第3画像として表される前記ユーザの向きと、前記第2画像として表される前記キャラクタの向きとのなす角度が、所定の角度以下となるように、前記表示部において、前記第2画像を表示させる、ことを特徴とする。
本発明の一態様に係る情報処理装置は、オブジェクトが配置された現実空間を撮像する第1撮像部の、前記現実空間における位置及び姿勢の少なくとも一方を特定する第1特定部と、前記第1撮像部による撮像結果に基づく第1画像を表示部に表示させ、前記オブジェクトに対応する第2画像を、前記表示部のうち、前記第1特定部による特定結果に基づく位置に表示させる表示制御部と、を備える、ことを特徴とする。
本発明の一態様に係る情報処理システムは、オブジェクトが配置された現実空間を撮像する第1撮像部と、表示部と、情報処理装置と、を備える情報処理システムであって、前記情報処理装置は、前記第1撮像部の、前記現実空間における位置及び姿勢の少なくとも一方を特定する第1特定部と、前記第1撮像部による撮像結果に基づく第1画像を前記表示部に表示させ、前記オブジェクトに対応する第2画像を、前記表示部のうち、前記第1特定部による特定結果に基づく位置に表示させる表示制御部と、を備える、ことを特徴とする。
本発明の一態様に係る表示方法は、オブジェクトが配置された現実空間を撮像する第1撮像部の、前記現実空間における位置及び姿勢の少なくとも一方を特定し、前記第1撮像部による撮像結果に基づく第1画像を表示部に表示させ、前記オブジェクトに対応する第2画像を、前記表示部のうち、前記特定の結果に基づく位置に、表示させる、ことを特徴とする。
Claims (11)
- プロセッサを具備する情報処理装置のプログラムであって、
前記プロセッサを、
オブジェクトが配置され、ユーザが存在する現実空間において前記ユーザの身体に装着することなく設置され、前記ユーザを含む前記現実空間を撮像する第1撮像部の、
前記現実空間における位置及び姿勢の少なくとも一方を特定する第1特定部と、
前記第1撮像部による撮像結果に基づく第1画像を表示部に表示させ、
前記オブジェクトに対応する第2画像を、
前記表示部のうち、前記第1特定部による特定結果と前記第1撮像部が取得した深度情報に基づいて定められた位置に表示させる表示制御部と、
して機能させ、
前記第1画像は、
前記現実空間内のユーザを表す第3画像を含み、
前記表示制御部は、
前記表示部において、
前記第2画像の少なくとも一部と前記第3画像の少なくとも一部とが重なる場合に、
前記第1特定部による特定結果に基づいて、
前記第2画像の少なくとも一部、または、前記第3画像の少なくとも一部のうち、
何れか一方を、非表示とする、
ことを特徴とする情報処理装置のプログラム。 - 前記第1特定部は、
前記第1撮像部による撮像結果に基づいて、
前記第1撮像部の前記現実空間における位置及び姿勢の少なくとも一方を特定する、
ことを特徴とする、請求項1に記載の情報処理装置のプログラム。 - 前記第1画像は、
前記現実空間内のユーザを表す第3画像を含み、
前記表示制御部は、
前記第1特定部による特定結果と前記第1撮像部が取得した深度情報に基づいて、
前記表示部における、
前記第2画像と前記第3画像との相対的な位置関係を決定し、
当該決定の結果に基づいて、
前記第2画像及び前記第3画像を前記表示部に表示させる、
ことを特徴とする、請求項1または2に記載の情報処理装置のプログラム。 - 前記第1画像は、
前記現実空間内のユーザを表す第3画像と、
前記現実空間のうち前記ユーザの背景を表す第4画像と、を含み、
前記表示制御部は、
前記第1特定部による特定結果と前記第1撮像部が取得した深度情報に基づいて、
前記表示部における、
前記第2画像と前記第3画像と前記第4画像との相対的な位置関係を決定し、
当該決定の結果に基づいて、
前記第2画像、前記第3画像、及び、前記第4画像を、前記表示部に表示させる、
ことを特徴とする、請求項1乃至3のうち何れか1項に記載の情報処理装置のプログラム。 - 前記プロセッサを、
前記オブジェクトを撮像する第2撮像部による撮像結果に基づいて、
前記オブジェクトの種類を特定する第2特定部、
として更に機能させ、
前記第2画像は、
前記第2特定部の特定したオブジェクトの種類に応じた画像である、
ことを特徴とする、請求項1乃至4のうち何れか1項に記載の情報処理装置のプログラム。 - 前記第1画像は、
前記現実空間内のユーザを表す第3画像を含み、
前記第2画像は、
前記オブジェクトに対応するキャラクタを表す画像であり、
前記表示制御部は、
前記表示部により表示される表示空間において、
前記第2画像として表される前記キャラクタと、
前記第3画像として表される前記ユーザとが、
所定の位置関係を有するように、
前記表示部に対して、前記第2画像及び前記第3画像を表示させる、
ことを特徴とする、請求項1乃至5のうち何れか1項に記載の情報処理装置のプログラム。 - 前記第1画像は、
前記現実空間内のユーザを表す第3画像と、
前記現実空間のうち前記ユーザの背景を表す第4画像と、を含み、
前記第2画像は、
前記オブジェクトに対応するキャラクタを表す画像であり、
前記表示制御部は、
前記表示部により表示される表示空間において、
前記第2画像として表される前記キャラクタが、
前記第3画像として表される前記ユーザと、
前記第4画像として表される前記背景と、の間に位置するように、
前記表示部に対して、前記第2画像、前記第3画像、及び、前記第4画像を表示させる、
ことを特徴とする、請求項1乃至6のうち何れか1項に記載の情報処理装置のプログラム。 - 前記第1画像は、
前記現実空間内のユーザを表す第3画像を含み、
前記第2画像は、
前記オブジェクトに対応するキャラクタを表す画像であり、
前記表示制御部は、
前記ユーザが所定の動作を実行した場合に、
前記表示部により表示される表示空間において、
前記第2画像として表される前記キャラクタと、
前記第3画像として表される前記ユーザとの、
相対的な位置関係が変化するように、
前記表示部に対して、前記第2画像及び前記第3画像を表示させる、
ことを特徴とする、請求項1乃至7のうち何れか1項に記載の情報処理装置のプログラム。 - オブジェクトが配置され、ユーザが存在する現実空間において前記ユーザの身体に装着することなく設置され、前記ユーザを含む前記現実空間を撮像する第1撮像部の、
前記現実空間における位置及び姿勢の少なくとも一方を特定する第1特定部と、
前記第1撮像部による撮像結果に基づく第1画像を表示部に表示させ、
前記オブジェクトに対応する第2画像を、
前記表示部のうち、前記第1特定部による特定結果と前記第1撮像部が取得した深度情報に基づいて定められた位置に表示させる表示制御部と、
を備え、
前記第1画像は、
前記現実空間内のユーザを表す第3画像を含み、
前記表示制御部は、
前記表示部において、
前記第2画像の少なくとも一部と前記第3画像の少なくとも一部とが重なる場合に、
前記第1特定部による特定結果に基づいて、
前記第2画像の少なくとも一部、または、前記第3画像の少なくとも一部のうち、
何れか一方を、非表示とする、
ことを特徴とする情報処理装置。 - オブジェクトが配置され、ユーザが存在する現実空間において前記ユーザの身体に装着することなく設置され、前記ユーザを含む前記現実空間を撮像する第1撮像部と、
表示部と、
情報処理装置と、
を備える情報処理システムであって、
前記情報処理装置は、
前記第1撮像部の、
前記現実空間における位置及び姿勢の少なくとも一方を特定する第1特定部と、
前記第1撮像部による撮像結果に基づく第1画像を前記表示部に表示させ、
前記オブジェクトに対応する第2画像を、
前記表示部のうち、前記第1特定部による特定結果と前記第1撮像部が取得した深度情報に基づいて定められた位置に表示させる表示制御部と、
を備え、
前記第1画像は、
前記現実空間内のユーザを表す第3画像を含み、
前記表示制御部は、
前記表示部において、
前記第2画像の少なくとも一部と前記第3画像の少なくとも一部とが重なる場合に、
前記第1特定部による特定結果に基づいて、
前記第2画像の少なくとも一部、または、前記第3画像の少なくとも一部のうち、
何れか一方を、非表示とする、
ことを特徴とする情報処理システム。 - オブジェクトが配置され、ユーザが存在する現実空間において前記ユーザの身体に装着することなく設置され、前記ユーザを含む前記現実空間を撮像する第1撮像部の、
前記現実空間における位置及び姿勢の少なくとも一方を特定し、
前記第1撮像部による撮像結果に基づく第1画像を表示部に表示させ、
前記オブジェクトに対応する第2画像を、
前記表示部のうち、前記特定の結果と深度情報に基づいて定められた位置に、表示させ、
前記第1画像は、
前記現実空間内のユーザを表す第3画像を含み、
前記表示部において、
前記第2画像の少なくとも一部と前記第3画像の少なくとも一部とが重なる場合に、
前記特定の結果に基づいて、
前記第2画像の少なくとも一部、または、前記第3画像の少なくとも一部のうち、
何れか一方を、非表示とする、
ことを特徴とする表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019209904A JP7364218B2 (ja) | 2017-12-28 | 2019-11-20 | 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017254724A JP6857795B2 (ja) | 2017-12-28 | 2017-12-28 | 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法 |
JP2019209904A JP7364218B2 (ja) | 2017-12-28 | 2019-11-20 | 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017254724A Division JP6857795B2 (ja) | 2017-12-28 | 2017-12-28 | 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020024759A JP2020024759A (ja) | 2020-02-13 |
JP2020024759A5 JP2020024759A5 (ja) | 2021-11-25 |
JP7364218B2 true JP7364218B2 (ja) | 2023-10-18 |
Family
ID=88328388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019209904A Active JP7364218B2 (ja) | 2017-12-28 | 2019-11-20 | 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7364218B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001195601A (ja) | 2000-01-13 | 2001-07-19 | Mixed Reality Systems Laboratory Inc | 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体 |
JP2004145448A (ja) | 2002-10-22 | 2004-05-20 | Toshiba Corp | 端末装置、サーバ装置および画像加工方法 |
JP2005100134A (ja) | 2003-09-25 | 2005-04-14 | Canon Inc | 複合現実感装置 |
JP2014515130A (ja) | 2011-03-10 | 2014-06-26 | マイクロソフト コーポレーション | 写実的に表されたビューのテーマベースの拡張 |
JP2015170232A (ja) | 2014-03-10 | 2015-09-28 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、その制御方法、及びプログラム |
WO2017068824A1 (ja) | 2015-10-21 | 2017-04-27 | シャープ株式会社 | 映像生成装置、映像生成装置の制御方法、表示システム、映像生成制御プログラム、およびコンピュータ読み取り可能な記録媒体 |
-
2019
- 2019-11-20 JP JP2019209904A patent/JP7364218B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001195601A (ja) | 2000-01-13 | 2001-07-19 | Mixed Reality Systems Laboratory Inc | 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体 |
JP2004145448A (ja) | 2002-10-22 | 2004-05-20 | Toshiba Corp | 端末装置、サーバ装置および画像加工方法 |
JP2005100134A (ja) | 2003-09-25 | 2005-04-14 | Canon Inc | 複合現実感装置 |
JP2014515130A (ja) | 2011-03-10 | 2014-06-26 | マイクロソフト コーポレーション | 写実的に表されたビューのテーマベースの拡張 |
JP2015170232A (ja) | 2014-03-10 | 2015-09-28 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、その制御方法、及びプログラム |
WO2017068824A1 (ja) | 2015-10-21 | 2017-04-27 | シャープ株式会社 | 映像生成装置、映像生成装置の制御方法、表示システム、映像生成制御プログラム、およびコンピュータ読み取り可能な記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2020024759A (ja) | 2020-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8556695B2 (en) | Information storage medium, image generation device, and image generation method | |
US7495665B2 (en) | Storage medium having game program stored thereon and game apparatus | |
US8471850B2 (en) | Image generating apparatus, method of generating image, program, and recording medium | |
JP5939733B2 (ja) | 画像処理プログラム、画像処理装置、画像処理システム、及び、画像処理方法 | |
EP2023294A2 (en) | Image generating apparatus, method of generating image, program, and recording medium | |
JP2011053838A (ja) | プログラム、情報記憶媒体、及び、画像生成装置 | |
US11562564B2 (en) | Recording medium, information processing system, and display method | |
JP5559765B2 (ja) | ゲーム装置、及びプログラム | |
EP0797172B1 (en) | Image processor and game apparatus equipped with the same | |
JP5563613B2 (ja) | ゲーム装置、ゲーム装置の制御方法、及びプログラム | |
EP0797172A3 (en) | Image processor and game apparatus equipped with the same | |
JP2017118979A (ja) | ゲーム装置及びプログラム | |
JP7364218B2 (ja) | 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法 | |
JP6857795B2 (ja) | 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法 | |
JP3431522B2 (ja) | ゲーム装置及び情報記憶媒体 | |
JP2020074064A (ja) | 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法 | |
JP4469709B2 (ja) | 画像処理プログラムおよび画像処理装置 | |
JP3482017B2 (ja) | 3次元ゲーム装置および3次元ゲーム画像生成方法 | |
JP3197536B2 (ja) | ゲーム装置、及び画像表示制御方法法並びに画像表示制御プログラムを記録した記録媒体 | |
JP4148868B2 (ja) | ゲームプログラムおよびゲーム装置 | |
WO2013146578A1 (ja) | ゲーム装置、ゲーム装置の制御方法、プログラム、及び情報記憶媒体 | |
JP7506102B2 (ja) | プログラム、情報処理装置および情報処理方法 | |
JP3827054B2 (ja) | 画像処理装置及びこれを備えたゲーム装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220404 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221124 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221124 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221202 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221206 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230127 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20230131 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230727 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7364218 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |