JP2022103751A - エンターテインメントシステム及びプログラム - Google Patents

エンターテインメントシステム及びプログラム Download PDF

Info

Publication number
JP2022103751A
JP2022103751A JP2020218578A JP2020218578A JP2022103751A JP 2022103751 A JP2022103751 A JP 2022103751A JP 2020218578 A JP2020218578 A JP 2020218578A JP 2020218578 A JP2020218578 A JP 2020218578A JP 2022103751 A JP2022103751 A JP 2022103751A
Authority
JP
Japan
Prior art keywords
display device
display
information
content
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020218578A
Other languages
English (en)
Inventor
通就 河野
Michinari Kono
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Bandai Namco Research Inc
Original Assignee
Bandai Namco Entertainment Inc
Bandai Namco Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc, Bandai Namco Research Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2020218578A priority Critical patent/JP2022103751A/ja
Publication of JP2022103751A publication Critical patent/JP2022103751A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】第1表示装置と第2表示装置を用いたシステムにおいて第1表示装置に関連するコンテンツ情報をユーザに対して通知することができるエンターテインメントシステム等の提供。【解決手段】第1表示装置と、第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムは、ユーザの視線方向の情報に基づいて、第1表示装置の表示画面でのユーザの注視領域を検出する注視領域検出部と、第1表示装置の表示画像に対して第2表示装置の表示画像が付加されたコンテンツ画像をユーザに視認させる処理を行うコンテンツ処理部を含む。コンテンツ処理部は、検出された注視領域に対応するコンテンツ情報を、第2表示装置を用いてユーザに通知する通知処理を行う。【選択図】図8

Description

本発明は、エンターテインメントシステム及びプログラム等に関する。
従来より2つの表示画像の組み合わせによるコンテンツ画像をユーザに視認させるシステムが知られている。特許文献1のシステムは、特定色が透過される透過画像を表示する透過型モニターと、当該透過画像と組み合わせることによりゲーム画面を形成する基礎画面を、透過型モニターの後方に投影するプロジェクタとを備えている。そして透過画像と基礎画面の組み合わせにより情報提供用画像を形成する。
特開2015-146913号公報
しかしながら、これまでは、第1表示装置と第2表示装置との連動制御を行って、第1表示装置の表示物等に関連するコンテンツ情報を、ユーザに通知するようなシステムについては提案されていなかった。
本開示によれば、第1表示装置と第2表示装置を用いたシステムにおいて第1表示装置に関連するコンテンツ情報をユーザに対して通知することができるエンターテインメントシステム及びプログラム等を提供できる。
本開示の一態様は、第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムであって、前記ユーザの視線方向の情報に基づいて、前記第1表示装置の表示画面での前記ユーザの注視領域を検出する注視領域検出部と、前記第1表示装置の表示画像に対して前記第2表示装置の表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部と、を含み、前記コンテンツ処理部は、検出された前記注視領域に対応するコンテンツ情報を、前記第2表示装置を用いて前記ユーザに通知する通知処理を行うエンターテインメントシステムに関係する。また本開示の一態様は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
本開示の一態様によれば、第1表示装置の表示画面でのユーザの注視領域が検出される。また第1表示装置の表示画像に対して第2表示装置の表示画像が付加されたコンテンツ画像をユーザに視認させる処理が行われる。そして、この際に、注視領域に対応するコンテンツ情報を、第2表示装置を用いてユーザに通知する通知処理が行われる。このようにすれば、ユーザは、第1表示装置の表示画面において自身が注視した注視領域に対応するコンテンツ情報を、第2表示装置を利用して知ることが可能になる。従って、第1表示装置と第2表示装置を用いたシステムにおいて第1表示装置に関連するコンテンツ情報をユーザに対して通知することができるエンターテインメントシステム等の提供が可能になる。
また本開示の一態様では、前記通知処理は、前記第2表示装置を用いて前記コンテンツ情報を表示する処理であってもよい。
このようにすれば、ユーザは、第1表示装置の表示画面において自身が注視した注視領域に対応するコンテンツ情報を、第2表示装置の表示画像により視覚的に認識できるようになる。
また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置に表示される表示物の情報又は前記第1表示装置の表示態様に応じて、前記コンテンツ情報の通知態様を変化させてもよい。
このようにすれば、第1表示装置の表示画像に第2表示装置の表示画像が付加されたコンテンツ画像をユーザに視認させるエンターテインメントシステムにおいて、第1表示装置の表示物又は表示態様に応じた適切なコンテンツ情報をユーザに通知することが可能になる。
また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置の前記表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示されるオブジェクトの表示制御を行ってもよい。
このようにすれば、第1表示装置の表示物又は表示態様に応じて表示制御されるオブジェクトを第2表示装置に表示して、第1表示装置の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。
また本開示の一態様では、前記表示物の情報は、前記第1表示装置の前記表示画面において前記ユーザにより注視された注視表示物の情報であり、前記コンテンツ処理部は、前記注視表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示される前記オブジェクトの表示位置を設定してもよい。
このようにすれば、第1表示装置の注視表示物の情報又は第1表示装置の表示態様に応じた表示位置にオブジェクトを表示して、第1表示装置の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。
また本開示の一態様では、前記表示物の情報は、前記第1表示装置の前記表示画面において前記ユーザにより注視された注視表示物の情報であり、前記コンテンツ処理部は、前記注視表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示される前記オブジェクトの表示態様を設定してもよい。
このようにすれば、第1表示装置の注視表示物の情報又は表示態様に応じた表示態様でオブジェクトを表示して、第1表示装置の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。
また本開示の一態様は、第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムであって、前記第1表示装置に表示される表示物の情報又は前記第1表示装置の表示態様の情報を取得する情報取得部と、前記第1表示装置の表示画像に対して前記第2表示装置の表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部を含み、前記コンテンツ処理部は、コンテンツ情報を前記第2表示装置を用いて前記ユーザに通知する通知処理を行い、前記第1表示装置の前記表示物の情報又は前記第1表示装置の前記表示態様に応じて、前記コンテンツ情報の通知態様を変化させるエンターテインメントシステムに関係する。また本開示の一態様は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
本開示の一態様によれば、第1表示装置に表示される表示物の情報又は表示態様の情報が取得される。また第1表示装置の表示画像に対して第2表示装置の表示画像が付加されたコンテンツ画像をユーザに視認させる処理が行われる。そして、この際に、第1表示装置の表示物の情報又は表示態様に応じて、コンテンツ情報の通知態様を変化させる処理が行われる。このようにすれば、第1表示装置の表示画像に第2表示装置の表示画像が付加されたコンテンツ画像をユーザに視認させるエンターテインメントシステムにおいて、第1表示装置の表示物又は表示態様に応じた適切なコンテンツ情報をユーザに通知することが可能になる。従って、第1表示装置と第2表示装置を用いたシステムにおいて第1表示装置に関連するコンテンツ情報をユーザに対して通知することができるエンターテインメントシステム等の提供が可能になる。
また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置の前記表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示されるオブジェクトの表示制御を行ってもよい。
このようにすれば、第1表示装置の表示物又は表示態様に応じて表示制御されるオブジェクトを第2表示装置に表示して、第1表示装置の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。
また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置の前記表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示される前記オブジェクトの表示位置を設定してもよい。
このようにすれば、第1表示装置の表示物の情報又は表示態様に応じた表示位置にオブジェクトを表示して、第1表示装置の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。
また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置の前記表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示される前記オブジェクトの表示態様を設定してもよい。
このようにすれば、第1表示装置の表示物の情報又は表示態様に応じた表示態様でオブジェクトを表示して、第1表示装置の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。
また本開示の一態様では、前記第2表示装置に表示される前記オブジェクトは、前記第1表示装置に表示される前記表示物に関連するオブジェクトであってもよい。
このようにすれば、第1表示装置の表示物に関連するオブジェクトを、第1表示装置の表示画像に重畳表示されるオブジェクトとして、第2表示装置により表示できるようになる。
また本開示の一態様では、前記第1表示装置の前記表示物の情報は、前記表示物のパラメータ情報、前記表示物の表示位置情報又は前記表示物の表示態様情報であってもよい。
このようにすれば、表示物のパラメータ情報、表示位置情報又は表示態様情報に応じて、第2表示装置を用いて通知されるコンテンツ情報の通知態様を変化させることなどが可能になる。
また本開示の一態様は、第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムであって、前記第2表示装置のカメラにより前記第1表示装置を撮影した撮影画像の解析処理を行う画像解析部と、前記第1表示装置の表示画像に対して前記第2表示装置の表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部と、を含み、前記コンテンツ処理部は、前記撮影画像の前記解析処理の結果に基づくコンテンツ情報を、前記第2表示装置を用いて前記ユーザに通知する通知処理を行うエンターテインメントシステムに関係する。また本開示の一態様は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
本開示の一態様によれば、第2表示装置が有するカメラにより第1表示装置を撮影した撮影画像の解析処理が行われる。また第1表示装置の表示画像に対して第2表示装置の表示画像が付加されたコンテンツ画像をユーザに視認させる処理が行われる。そして、この際に、撮影画像の解析処理の結果に基づくコンテンツ情報を、第2表示装置を用いてユーザに通知する通知処理が行われる。このようにすれば、ユーザは、第2表示装置のカメラにより第1表示装置を撮影することで得られた撮影画像の解析処理の結果に基づくコンテンツ情報を、第2表示装置を利用して知ることが可能になる。従って、第1表示装置と第2表示装置を用いたシステムにおいて第1表示装置に関連するコンテンツ情報をユーザに対して通知することができるエンターテインメントシステム等の提供が可能になる。
また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置と前記第2表示装置の位置関係に応じて、前記第1表示装置又は前記第2表示装置の表示内容、或いは前記コンテンツ情報の通知態様を変化させてもよい。
このようにすれば、第1表示装置と第2表示装置の位置関係に応じた適切な表示内容で、第1表示装置又は第2表示装置に画像を表示したり、或いは第1表示装置と第2表示装置の位置関係に応じた適切な通知態様で、第2表示装置によりコンテンツ情報をユーザに通知できるようになる。
また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置と前記第2表示装置の位置関係と、前記第1表示装置に表示される表示物の情報とに応じて、前記第1表示装置又は前記第2表示装置の表示内容、或いは前記コンテンツ情報の通知態様を変化させてもよい。
このようにすれば、第1表示装置と第2表示装置の位置関係と第1表示装置の表示物の情報に応じた適切な表示内容で、第1表示装置又は第2表示装置に画像を表示したり、或いは当該位置関係と表示物の情報に応じた適切な通知態様で、第2表示装置によりコンテンツ情報をユーザに通知できるようになる。
本実施形態のエンターテインメントシステムのシステム構成例。 第1表示装置の表示画像に対して第2表示装置の表示画像が付加されたコンテンツ画像の説明図。 ユーザの注視領域に対応するコンテンツ情報を第2表示装置を用いてユーザに通知する通知処理の説明図。 振動や音声を用いたコンテンツ情報の通知処理の説明図。 第2表示装置の一例である透過型HMDを示す図。 本実施形態のエンターテインメントシステムの構成例を示すブロック図。 図7(A)、図7(B)は本実施形態のエンターテインメントシステムのハードウェアの実現構成例を示す図。 本実施形態の処理例を説明するフローチャート。 本実施形態の処理例を説明するフローチャート。 本実施形態の詳細な処理例を説明するフローチャート。 図11(A)、図11(B)は第1表示装置の表示物の情報又は表示態様に応じた第2表示装置のオブジェクトの表示位置の設定手法の説明図。 第1表示装置の表示物の情報又は表示態様に応じた第2表示装置のオブジェクトの表示態様の設定手法の説明図。 第1表示装置の表示物の情報の説明図。 第1表示装置と第2表示装置の位置関係に応じて第1表示装置又は第2表示装置の表示内容、或いはコンテンツ情報の通知態様を変化させる手法の説明図。 図15(A)、図15(B)は実空間の認識処理による実空間情報の取得処理の説明図。 実空間の認識処理を用いて第1表示装置と第2表示装置の位置関係を検出する手法の説明図。 第1表示装置から第2表示装置側に表示物が移動して見えるようにユーザに認識させる手法の説明図。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲の記載内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、必須構成要件であるとは限らない。
1.エンターテインメントシステム
図1に本実施形態のエンターテインメントシステムのシステム構成例を示す。本実施形態のエンターテインメントシステムは、第1表示装置10と第2表示装置200を用いて実現される。例えば本実施形態のエンターテインメントシステムは、第1表示装置10と、第1表示装置10の表示画像が視認可能な第2表示装置200を用いてユーザに対して種々のエンターテインメントコンテンツを提供するシステムである。第1表示装置10は、例えばメインの表示装置である。具体的には第1表示装置10は、PC(パーソナルコンピュータ)などの情報処理装置のモニター(ディスプレイ)や、テレビのモニターや、ゲーム装置のモニターや、或いはライブやクラブの会場に設置される大型モニターなどである。図1では、第1表示装置10には、例えばキャラクタCH1、CH2、CH3とキャラクタCE1、CE2、CE3とが対戦するゲームコンテンツの画像が表示されている。第2表示装置200は、例えばサブの表示装置である。例えば第2表示装置200は、第1表示装置10の表示画像が視認可能な表示装置である。例えばユーザは、第2表示装置200の表示部により、第1表示装置10の表示画像の視認が可能になっている。図1では、第2表示装置200として透過型HMD(広義にはHMD、透過型表示装置)が用いられている。透過型HMDは、ユーザが装着する透過型の頭部装着型表示装置(Head Mounted Display)である。透過型HMDは例えば光学透過型のHMDである。
なお、以下では、第2表示装置200が透過型HMDである場合を主に例にとり説明するが、第2表示装置200は、透過型HMD以外の透過型表示装置であってもよい。例えば透過型HMDは、ユーザが頭部に装着する表示装置であるが、第2表示装置200は、ユーザが頭部に装着しないタイプの透過型表示装置であってもよい。例えば第2表示装置200は、ユーザが手に所持したり、ユーザが所望の場所に置いて使用する透過型表示装置であってもよい。或いは、第2表示装置200は、透過型表示装置以外の表示装置であってもよく、例えばカメラによる第1表示装置10の撮影画像が表示部に表示されることで、第1表示装置10の表示画像の視認が可能になるような表示装置であってもよい。
図2は、第1表示装置10の表示画像IMDに対して第2表示装置200の表示画像IMHが付加されたコンテンツ画像の説明図である。本実施形態では、第1表示装置10の表示画像IMDに対して、第2表示装置200の表示画像IMHが付加(重畳)されたコンテンツ画像をユーザに視認させる処理が行われる。例えば第2表示装置200が透過型HMDである場合には、第1表示装置10の表示画像IMDは、第2表示装置200の光学素子を透過してユーザに視認される。そして第2表示装置200の表示画像IMHが、第2表示装置200を透過する第1表示装置10の表示画像IMDに対して重ねて表示される。第2表示装置200の表示画像IMHは、例えば第2表示装置200により表示される虚像である。後述する図5を例にとれば、表示画像IMHは、第2表示装置200である透過型HMD202の表示装置243の表示画像である。こうすることで、第1表示装置10の表示画像IMDに対して第2表示装置200の表示画像IMHが付加されたコンテンツ画像をユーザに視認させることが可能になる。
なお図2では、コンテンツ画像として、ゲームコンテンツの画像の例が示されている。しかしながら、本実施形態のコンテンツ画像は、このようなゲームコンテンツの画像には限定されず、配信動画、映画、環境映像、観光映像又はシミュレーション映像などの種々のコンテンツ(視覚コンテンツ)の画像を想定できる。
また第2表示装置200が、透過型HMD以外の透過型表示装置である例えば透過型タブレット端末である場合には、第1表示装置10の表示画像IMDは、透過型タブレット端末を透過してユーザに表示される。そして、透過型タブレット端末を透過した表示画像IMDと、透過型タブレット端末により生成された表示画像IMHとがユーザに表示されることで、第1表示装置10の表示画像IMD(透過画像)に対して、第2表示装置200の表示画像IMHが付加されたコンテンツ画像を、ユーザが視認できるようになる。また第2表示装置200が、透過型表示装置以外の表示装置である例えばスマートフォン、携帯型ゲーム装置等の端末装置である場合には、例えば第1表示装置10の表示画像IMDをカメラにより撮影する。そしてカメラの撮影画像に対して、第2表示装置200により生成された表示画像IMHを重畳表示することで、第1表示装置10の表示画像IMD(撮影画像)に対して、第2表示装置200の表示画像IMHが付加されたコンテンツ画像を、ユーザが視認できるようになる。
そして図2では、第2表示装置200を用いて、第1表示装置10に関連するコンテンツ情報が表示画像IMHとして表示される。第1表示装置10に関連するコンテンツ情報は、具体的には例えば第1表示装置10に表示される表示物又は第1表示装置10の表示内容に関連するコンテンツ情報である。例えば第1表示装置10には表示物としてキャラクタCH1等が表示されている。そして、このキャラクタCH1に関連するコンテンツ情報が、表示画像IMHとして第2表示装置200に表示され、第1表示装置10の表示画像IMDに対して、このコンテンツ情報の表示画像IMHが重ねて表示される。図2では、表示画像IMHにより通知されるコンテンツ情報は、ゲーム情報であり、第1表示装置10の表示物であるキャラクタCH1に関連するゲーム情報である。具体的にはコンテンツ情報であるゲーム情報は、キャラクタCH1のヒットポイント(HP)、マジックポイント(MP)、経験値(EXP)、レベル(LV)、装備品(EQP)などの情報である。表示画像IMHにおいては、ヒットポイント(HP)の情報は、ヒットポイントゲージのオブジェクトOB1により表示され、マジックポイント(MP)の情報は、マジックポイントゲージのオブジェクトOB2により表示されている。経験値(EXP)、レベル(LV)の情報は、各々、経験値、レベルを表す数字のオブジェクトOB3、OB4により表示され、装備品(EQP)の情報は、装備品を表象するアイコンのオブジェクトOB5により表示されている。
このように本実施形態では、第1表示装置10の表示物又は表示内容等に関連するコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行っている。図2を例にとれば、第1表示装置10の表示物であるキャラクタCH1に関連するコンテンツ情報(HP、MP、EXP、LV、EQP)を、第2表示装置200を用いてユーザに通知している。具体的には、キャラクタCH1に関連するコンテンツ情報の表示画像IMHを、第2表示装置200(表示装置243)を用いて表示して、第1表示装置10の表示画像IMDに重ねてユーザに視認させることで、コンテンツ情報をユーザに通知している。即ち、この場合のコンテンツ情報の通知処理は、第2表示装置200を用いてコンテンツ情報(表示画像IMH)を表示する処理である。
このように本実施形態では、第1表示装置10の表示画像IMDに対して第2表示装置200の表示画像IMHが付加されたコンテンツ画像(図2)をユーザに視認させる処理を行う。また本実施形態では、ユーザの視線方向の情報に基づいて、第1表示装置10の表示画面でのユーザの注視領域を検出する。そして検出された注視領域に対応するコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。
例えば図3では、ユーザUSの視線方向LSが検出されている。ユーザUSの視線方向LSは、例えば第2表示装置200の方向(向く方向)を検出することで検出できる。具体的には視線方向LSの情報は、第2表示装置200の方向等のトラッキング処理により取得できる。或いはユーザUSの視線を直接に検出する視線トラッキング処理(アイトラッキング処理)によりユーザUSの視線方向LSを検出してもよい。或いはカメラにより第1表示装置10を撮影する場合には、カメラの撮影方向をユーザUSの視線方向LSと見なして検出してもよい。この場合には、カメラをユーザUSと見なすことができ、ユーザUSの注視領域はカメラの注視領域になる。或いは透過型タブレット端末等の透過型表示装置が向く方向を、ユーザUSの視線方向と見なしてもよい。この場合には、ユーザUSの注視領域は、透過型表示装置が向く方向が注視する領域(向く方向に沿った線が第1表示装置10の表示画面に交わる領域)になる。
そして図3に示すようにユーザUSの視線方向LSを検出することで、第1表示装置10の表示画面でのユーザUSの注視領域ARGを検出できる。例えば視線方向LS(カメラの撮影方向、透過型表示装置が向く方向)を延長した線が第1表示装置10の表示画面に交差する位置を求めることなどで、注視領域ARG(カメラ、透過型表示装置の注視領域)を検出できる。この場合には、第1表示装置10と第2表示装置200(ユーザ、カメラ)との位置関係を求めておくことが望ましい。例えば第2表示装置200から見た第1表示装置10の相対的な位置関係を求め、この位置関係の情報と視線方向LSの情報とに基づいて、ユーザUSが注視(注目)する領域である注視領域ARG(注目領域)を検出する。そして検出された注視領域ARGに対応するコンテンツ情報を第2表示装置200を用いてユーザUSに通知する通知処理を行う。図3では、注視領域ARGに対応するコンテンツ情報である表示画像IMHを、第1表示装置10の表示画像IMDに重ねて表示する通知処理を行っている。例えば図3では、ユーザUSは、第1表示装置10の表示画像IMDのうち、キャラクタCH1を注視しており、このキャラクタCH1の表示領域が注視領域ARGになっている。従って、キャラクタCH1が表示される注視領域ARGに対応するコンテンツ情報として、図2に示すようにキャラクタCH1のヒットポイント、マジックポイント、経験値、レベル、装備品などのキャラクタのステータス情報が、第2表示装置200の表示画像IMH(虚像)として表示される。即ち、キャラクタCH1のヒットポイント、マジックポイント、経験値、レベル、装備品を表すオブジェクトOB1、OB2、OB3、OB4、OB5の画像が、第2表示装置200の表示装置243の表示画像IMHとして、第1表示装置10の表示画像IMDに重ねて表示される。
このようにすれば、ユーザUSが、第1表示装置10の表示画像IMDにおいて自身が注目するキャラクタCH1を注視することで、そのキャラクタCH1に関連するコンテンツ情報であるヒットポイント、マジックポイント、経験値、レベル、装備品などの情報が、ユーザUSに通知されるようになる。これにより、ユーザUSは、キャラクタCH1を注視するだけで、自身が注目するキャラクタCH1に関連する各種のコンテンツ情報を知ることが可能になる。また例えば第1表示装置10に表示される全てのキャラクタCH1~CH3、CE1~CE3について、ヒットポイント、マジックポイント等のコンテンツ情報(ステータス情報)の表示画像IMHを、表示画像IMDに重ねて表示してしまうと、これらのコンテンツ情報の表示が邪魔になって、ユーザUSにとって見にくい表示になってしまう。この点、ユーザUSの注視領域ARGに対応するコンテンツ情報だけを表示するようにすれば、コンテンツ情報の表示が邪魔になってユーザUSにとって見にくい表示なってしまう事態を防止できる。
このように図3の通知処理は、第2表示装置200を用いてコンテンツ情報を表示する処理である。このようにコンテンツ情報の通知処理として、コンテンツ情報の表示処理を行うようにすれば、ユーザUSは、注視領域ARGに対応するコンテンツ情報の内容を視覚的に容易に認識できるようになる。但し本実施形態の通知処理はこのようなコンテンツ情報の表示処理には限定されない。例えば図4では振動や音声により通知処理が行われている。具体的には第1表示装置10の表示画面にはレアキャラクタRCHが出現している。例えばユーザUSの視線方向LSの注視領域にレアキャラクタRCHが出現している。このように第1表示装置10(注視領域)にレアキャラクタRCHなどの特定の表示物が出現した場合に、第2表示装置200に設けられた振動デバイス(振動機構)を振動させて、レアキャラクタRCHが出現したことをユーザUSに通知する。或いは第2表示装置200に内蔵されるスピーカ又は第2表示装置200とは別体に設けられたヘッドフォンのスピーカからの音声により、レアキャラクタRCHが出現したことをユーザUSに通知する。このように、第1表示装置10の表示物又は表示内容に関連するコンテンツ情報(注視領域に対応するコンテンツ情報)の通知処理は、第2表示装置200の振動デバイスを振動させる処理や、第2表示装置200に対応して設けられる音出力部192(図6)による音声等の音の出力処理であってもよい。或いは、第2表示装置200に、ユーザUSが視認できる発光素子を設け、この発光素子の発光により、コンテンツ情報の通知処理を実現してもよい。このようにコンテンツ情報の通知処理の通知態様としては種々の態様を想定できる。
また第1ユーザ、第2ユーザというように複数のユーザがエンターテインメントのコンテンツを楽しむ場合には、第1ユーザに対応する第1コンテンツ情報を、第1ユーザが装着する第1透過型HMD等の第2表示装置を用いて第1ユーザに通知し、第2ユーザに対応する第2コンテンツ情報を、第2ユーザが装着する第2透過型HMD等の第3表示装置を用いて第2ユーザに通知すればよい。具体的には、第1ユーザの視線方向の情報に基づいて第1注視領域を検出し、第1注視領域に応じた第1コンテンツ情報を、第1ユーザが装着する第1透過型HMD等の第2表示装置を用いて第1ユーザに通知する。また第2ユーザの視線方向の情報に基づいて第2注視領域を検出し、第2注視領域に応じた第2コンテンツ情報を、第2ユーザが装着する第2透過型HMD等の第3表示装置を用いて第2ユーザに通知する。このようにすれば、例えば第1ユーザには、第1表示装置10の表示画像IMDに対して、第1コンテンツ情報だけが重畳された第1コンテンツ画像が表示され、第2ユーザには、第1表示装置10の表示画像IMDに対して、第2コンテンツ情報だけが重畳された第2コンテンツ画像が表示されるようになる。従って、第1ユーザは、第1ユーザが注目する第1コンテンツ情報だけを視認できるようになり、第2ユーザは、第2ユーザが注目する第2コンテンツ情報だけを視認できるようになるため、各ユーザにとって見やすい表示態様のコンテンツ画像を表示することが可能になる。
また、以上では、コンテンツがゲームコンテンツである場合について説明したが、本実施形態のコンテンツはこれに限定されず、配信動画、映画、環境映像、観光映像又はシミュレーション映像のコンテンツであってもよい。例えば仮想的なキャラクタが踊ったり、歌ったりする配信動画のコンテンツである場合には、そのキャラクタについての情報をコンテンツ情報として通知すればよい。また映画のコンテンツの場合には、各種の説明画面や字幕情報などをコンテンツ情報として通知すればよい。観光映像のコンテンツの場合には、例えばユーザの注視領域での種々の観光情報を、コンテンツ情報として通知すればよい。シミュレーション映像のコンテンツの場合には、シミュレーションの対象となるものについての種々の情報を、コンテンツ情報として通知すればよい。
図5に第2表示装置200の一例である透過型HMD202(広義にはHMD、透過型表示装置)の一例を示す。図5の透過型HMDは光学透過型HMDの例である。
図5の透過型HMD202はテンプル部240とゴーグル部242を有する。テンプル部240にはスピーカが内蔵されている。ゴーグル部242には表示装置243とホログラフィック光学素子244が設けられている。例えばこれらの表示装置243、ホログラフィック光学素子244等により、透過型HMD202(広義には第2表示装置)の表示部30を実現できる。表示装置243には、マイクロディスプレイ、ミラー、プリズム等により構成される表示ユニットが設けられている。表示装置243には左眼用の表示ユニットと右眼用の表示ユニットが設けられており、これにより立体視が実現される。また左眼用、右眼用の各表示ユニットに一対のマイクロディスプレイを設けることで虚像の位置を可変にできる。
表示装置243からの表示光は、ホログラフィック光学素子244の導光板内部を屈折しながら、ユーザの眼前に導光される。そしてホログラフィック光学素子244により表示光を眼球方向に屈折させて、眼球に表示光を送る。これにより眼前に虚像(ホログラムの再生像)があるように見えるようになる。ホログラフィック光学素子244の導光板はコンバイナーとも呼ばれ、ハーフミラーであるコンバイナーにより、外界の実像と虚像が重なって見えるようになり、AR(Augmented Reality)やMR(Mixed Reality)などの実現が可能になる。
またゴーグル部242には、RGBカメラ246、デプスカメラ247、環境認識カメラ248、249が設けられている。RGBカメラ246を用いることでユーザの正面方向の撮影が可能になる。デプスカメラ247を用いることで正面方向での奥行き情報を取得できる。なおゴーグル部242にはデプスカメラ用のエミッター(不図示)が設けられている。環境認識カメラ248、249を用いることでユーザの周囲の環境認識が可能になる。またゴーグル部242には、加速度センサやジャイロセンサなどにより構成されるモーションセンサである慣性計測ユニット(IMU)が内蔵されている。透過型HMD202の位置情報や方向情報は、ゴーグル部242に設けられたカメラによる撮像画像と慣性計測ユニットからの測定情報などに基づいて検出され、これによりヘッドトラッキングが実現される。そして透過型HMD202の位置情報や方向情報を検出することで、ユーザの位置情報や方向情報(視線方向情報)の取得も可能になる。またRGBカメラ246やデプスカメラ247などを用いた処理により、ユーザの周囲に居る他のユーザの位置情報(相対的な位置情報)、方向情報(相対的な方向情報)、或いは姿勢情報を取得できる。例えばキネクト(登録商標)と呼ばれる処理によりこれらの情報を取得する。例えば姿勢情報を取得することで、他のユーザがどのようなアクションを行ったかを検出できるようになる。
図5の透過型HMD202によれば、例えば表示装置243、ホログラフィック光学素子244等により実現される表示部30により、表示画像IMDと表示画像IMHをユーザに視認させることが可能になる。例えば第1表示装置10の表示画像IMDについては、ホログラフィック光学素子244によるコンバイナーにより、透過画像(外界の実像)としてユーザに視認させることができる。また表示画像IMHについては、透過型HMD202の表示装置243に表示することで、虚像としてユーザに視認させることができる。これにより、第1表示装置10の表示画像IMD(透過画像)に対して透過型HMD202の表示画像IMH(虚像)が付加されたコンテンツ画像をユーザに視認させる処理を実現できるようになる。
なお透過型HMD202は図5の構成に限定されるものでなく、例えば表示部30の構成や虚像表示の手法等について、種々の変形実施が可能である。また透過型HMD202を用いる場合に、ユーザの操作入力は、例えば不図示のコントローラをユーザが操作することで実現してもよいし、アイトラッキングなどによりユーザの視線が入力用表示物の方を向いていることを検出することで実現してもよい。或いは透過型HMD202に設けられるモーションセンサによりユーザの頭の動き等を検出することで、ユーザの操作入力を検出してもよい。
また前述したように第2表示装置200は、透過型HMD202には限定されず、透過型ディスプレイを有し、ユーザが例えば手に持って使用する透過型タブレット端末などの透過型表示装置であってよいし、スマートフォン、携帯型ゲーム装置又はタブレット端末等のカメラ機能を有する端末装置であってもよい。
図6は、本実施形態のエンターテインメントシステム(ゲームシステム、コンテンツ提供システム、処理システム)の構成例を示すブロック図である。なお、本実施形態のアミューズメントシステムは図6の構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
操作部160は、ユーザ(プレーヤ)が種々の入力(操作)を行うためのものである。操作部160は、例えば操作ボタン、方向指示キー、キーボード、ジョイスティック又はレバー等により実現できる。或いは上述のように操作部160の機能を、アイトラッキングやモーションなどを用いて実現してもよい。
撮像部162(カメラ)は、被写体(撮像対象物)の撮影を行うものである。撮像部162は、例えばCCDやCMOSセンサなどの画像センサや、フォーカスレンズ等により構成される光学系などにより実現できる。カメラである撮像部162は例えば第2表示装置200に設けられる。
記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。プログラムや、プログラムの実行に必要なデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(hard disk drive)、SSD(Solid State Drive)、又は光ディスク装置などにより実現できる。記憶部170は、例えばコンテンツの情報を記憶する。コンテンツの情報は、コンテンツを構成する画像や音の情報などである。コンテンツの画像情報は、例えばコンテンツを構成するオブジェクト(表示物)の情報などである。
情報記憶媒体180は、コンピュータにより読み取り可能な媒体であり、プログラムやデータなどを格納するものである。情報記憶媒体180は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
第1表示装置10は、例えばメインのモニターであり、テレビモニター、PC用のモニター、ゲーム装置のモニター、或いはライブ施設やアミューズメント施設などの施設に設置されるモニターなどにより実現される。表示部30は、第2表示装置200(透過型HMD202等)に設けられるディスプレイである。第1表示装置10、表示部30は、例えばLCD又は有機ELディスプレイなどにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ又はヘッドフォン等により実現できる。
通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。
なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(或いは記憶部170)に配信してもよい。このようなサーバによる情報記憶媒体の使用も本実施形態の範囲内に含めることができる。
処理部100(プロセッサ)は、記憶部170に記憶されるプログラム、データや、操作部160の操作情報などに基づいて、情報取得処理、注視領域検出処理、画像解析処理、位置関係検出処理、或いはコンテンツ処理などを行う。
処理部100の各部が行う本実施形態の各処理はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
処理部100は、情報取得部102、注視領域検出部104、画像解析部105、位置関係検出部106、コンテンツ処理部110を含む。コンテンツ処理部110は通知処理部112を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
情報取得部102は、処理部100の処理に必要な種々の情報を取得する処理を行う。例えば情報取得部102は、ユーザの視線方向の情報を取得する。例えば第2表示装置200を用いたトラッキング処理などによりユーザの視線方向の情報が取得される。例えばトラッキング処理により、第2表示装置200の方向(向く方向)をユーザの視線方向として検出する。或いはアイトラッキング処理を行って、ユーザの視線方向を検出してもよい。第2表示装置200の位置や方向は、カメラによる撮像画像や慣性計測ユニットからの測定情報などに基づいて検出できる。或いは、第2表示装置200に発光部を設け、この発光部からの光を、外部に設けられたカメラなどにより撮像することで、第2表示装置200の位置や方向を検出してもよい。或いは、外部に設けられた発光部からの光を、第2表示装置200に設けられた受光部(カメラ)により撮像することで、第2表示装置200の位置や方向を検出してもよい。また情報取得部102は、第1表示装置10に表示される表示物の情報又は第1表示装置10の表示態様の情報を取得する。表示物の情報は、例えば表示物の位置情報、表示物の表示態様情報(色、形状、明度又は透明度等)、或いは表示物がキャラクタである場合には、キャラクタについての種々の情報(ステータスパラメータなどのパラメータ情報等)などである。第1表示装置10の表示態様の情報は、第1表示装置10の表示画面の明るさ、色合い又はコントラストなどの情報である。
注視領域検出部104は、ユーザの注視領域を検出する処理を行う。例えば注視領域検出部104は、第1表示装置10の表示画面でのユーザの注視領域を検出する。例えば情報取得部102で取得された視線方向の情報に基づいて、第1表示装置10の表示画面においてユーザが注視している領域である注視領域を検出する。例えば注視領域検出部104は、視線方向に沿った線と第1表示装置10の表示画面との交点を求め、求められた交点を含む領域を、ユーザの注視領域として検出する。
なお注視領域は、ユーザが実際に視線方向を向けて注視する領域には限定されない。例えば第2表示装置200のカメラにより第1表示装置10を撮影することで、第1表示装置10の表示画像を視認可能にする例では、ユーザの注視領域は、カメラが注視する領域とすることができる。例えばカメラの向く方向をユーザの視線方向と見なして、注視領域検出部104は、カメラの向く方向に沿った線と第1表示装置10の表示画面との交点を求め、求められた交点を含む領域を、ユーザの注視領域として検出する。この場合に、コンテンツ処理部110は、第1表示装置10の表示画面での当該交点の位置をユーザが視認できるように、当該交点の位置に、マーカ等の交点位置識別用の表示物を表示することが望ましい。或いは、透過型タブレット端末等の透過型表示装置である第2表示装置200を第1表示装置10の方に向けることで、第1表示装置10の表示画像を視認可能にする例では、ユーザの注視領域は、第2表示装置200を向けることで注視する領域とすることができる。即ち、例えば第2表示装置200の向く方向をユーザの視線方向と見なす。第2表示装置200の向く方向は、例えば第2表示装置200の主面に直交する方向であり、例えば表示部30(表示画面)に直交する方向である。そして注視領域検出部104は、第2表示装置200の向く方向に沿った線と第1表示装置10の表示画面との交点を求め、求められた交点を含む領域を、ユーザの注視領域として検出する。この場合にも、コンテンツ処理部110は、第1表示装置10の表示画面での当該交点の位置をユーザが視認できるように、例えば当該交点の位置に、マーカ等の交点位置識別用の表示物を表示することが望ましい。
画像解析部105は、撮影画像の解析処理を行う。例えば第2表示装置200のカメラにより第1表示装置10を撮影した撮影画像の解析処理を行う。カメラは例えば撮像部162であり、図5の透過型HMD202の場合には、例えばRGBカメラ246などである。また第2表示装置200が、スマートフォン、携帯型ゲーム装置又はタブレット端末等の端末装置である場合には、撮影画像を撮影するカメラは、例えば当該端末装置が有するカメラである。画像解析部105は、例えばカメラの撮影画像に映る第1表示装置10の表示画像等の解析処理を行う。例えば画像解析部105は、第1表示装置10の表示画像の表示内容や、第1表示装置10の表示態様の解析処理を行う。或いは画像解析部105は、第1表示装置10の表示画面でのユーザの注視領域を検出するための画像解析処理を行ってもよい。
位置関係検出部106は、第1表示装置10と第2表示装置200の位置関係を検出する。例えば位置関係検出部106は、第1表示装置10に対する第2表示装置200の相対的な位置関係を検出する。ここで位置関係は、第1表示装置10の位置と第2表示装置200の位置の関係であってもよいし、第1表示装置10の方向(向く方向)と第2表示装置200の方向(向く方向)の関係であってもよい。例えば位置関係は、第1表示装置10に対する第2表示装置200の相対的な方向関係であってもよい。一例としては、位置関係検出部106は、第2表示装置200に設けられたカメラ(RGBカメラ、デプスカメラ、環境認識カメラ等)を用いて実空間の認識処理を行い、この認識処理により得られた実空間情報に基づいて、第2表示装置200に対する第1表示装置10の相対的な位置関係を検出する。或いは、第1表示装置10にマーカを設置し、このマーカを用いて第2表示装置200と第1表示装置10の位置関係を検出してもよい。例えば第1表示装置10に複数のマーカ(ARマーカ等)を設置し、第2表示装置200のカメラにより、これらの複数のマーカを撮像し、得られた撮像画像の解析処理を行うことで、第2表示装置200に対する第1表示装置10の相対的な位置関係を検出する。
コンテンツ処理部110は、種々のコンテンツ処理を行う。コンテンツ処理は、例えば、コンテンツの画像の表示処理や、コンテンツの音の出力処理などのコンテンツに関する種々の処理である。コンテンツの画像の表示処理は、コンテンツの画像を生成して表示する処理には限定されず、コンテンツの画像の表示を指示したり、表示されるコンテンツの画像の内容を指示する処理であってもよい。コンテンツ処理部110は、通知処理部112を含む。通知処理部112は、コンテンツ情報を、第2表示装置200を用いてユーザに通知する処理を行う。例えば、ユーザの注視領域に対応するコンテンツ情報を、第2表示装置200を用いてユーザに通知する処理を行う。
そして、第1表示装置10と、第1表示装置10の表示画像が視認可能な第2表示装置200を用いた本実施形態のエンターテインメントシステムは、図6に示すように注視領域検出部104とコンテンツ処理部110を含む。
注視領域検出部104は、ユーザの視線方向の情報に基づいて、第1表示装置10の表示画面でのユーザの注視領域を検出する。例えば注視領域検出部104は、情報取得部102で取得されたユーザの視線方向の情報に基づいて、ユーザの注視領域を検出する。例えば第2表示装置200のトラッキング処理により取得されたユーザの視線方向の情報に基づいて、注視領域を検出する。或いはカメラの向く方向や透過型表示装置である第2表示装置200が向く方向から注視領域を検出する。
コンテンツ処理部110は、第1表示装置10の表示画像に対して第2表示装置200の表示画像が付加されたコンテンツ画像をユーザに視認させる処理を行う。例えば図2に示すように、第1表示装置10の表示画像IMDに対して第2表示装置200の表示画像IMHが付加されたコンテンツ画像をユーザに視認させるための制御処理を、第2表示装置200等に対して行う。例えばコンテンツ処理部110は、表示画像IMDが透過画像としてユーザに表示され、表示画像IMHが虚像又は実像の重畳画像としてユーザに表示されるように、第2表示装置200を制御する。
そしてコンテンツ処理部110は、検出された注視領域に対応するコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。例えば注視領域が検出された場合に、注視領域に対応するコンテンツ情報を、例えば第2表示装置200のハードウェア(表示部、音出力部、振動デバイス又は発光素子等)を利用してユーザに通知する処理を行う。例えば注視領域の表示物の情報、表示内容、表示態様、ステータス情報又はイベント発生情報等を通知する処理を行う。注視領域に対応するコンテンツ情報は、例えば注視領域に関連するコンテンツ情報である。具体的には注視領域に対応するコンテンツ情報は、注視領域に表示される表示物、注視領域での表示内容、注視領域の表示態様、或いは注視領域で発生するイベントなどに関連する情報である。コンテンツ情報は、エンターテインメントシステムが実現するエンターテインメントコンテンツに関する情報である。エンターテインメントコンテンツがゲームコンテンツである場合には、コンテンツ情報はゲーム情報である。ゲーム情報は、例えばゲームに登場する表示物の情報、ゲーム進行情報、ゲームステータス情報、又はゲームをプレイするユーザの情報などである。表示物の情報は、表示物のパラメータ情報、表示位置情報又は表示態様情報などである。或いはコンテンツ情報は、配信動画、映画、環境映像、観光映像又はシミュレーション映像などのエンターテインメントコンテンツについての種々の情報である。例えばコンテンツ情報は、これらのコンテンツの内容に関する情報、コンテンツのステータス情報、コンテンツの進行情報、或いはコンテンツの説明情報などである。
またコンテンツ情報の通知処理は、例えば第2表示装置200を用いてコンテンツ情報を表示する処理である。例えば通知処理は、コンテンツ情報の画像を第2表示装置200の表示装置243に表示する処理である。例えば通知処理は、コンテンツ情報の画像を、第1表示装置10の表示画像に重畳される画像として表示する処理である。但し通知処理は、これに限定されず、コンテンツ情報についての音の出力処理、振動処理、或いは発光素子の発光処理などであってもよい。
またコンテンツ処理部110は、第1表示装置10に表示される表示物の情報又は第1表示装置10の表示態様に応じて、コンテンツ情報の通知態様を変化させる。表示物の情報は、表示物のパラメータ情報、表示位置情報又は表示態様情報などである。第1表示装置10の表示態様は、第1表示装置10の表示画面の明るさ、色合い、コントラスト又は表示内容などである。例えばコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、コンテンツ情報の通知内容、通知表示物、通知位置、通知イベント又は通知タイミング等を変化させる。
例えばコンテンツ処理部110は、第1表示装置10の表示物の情報又は第1表示装置10の表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示制御を行う。例えば第1表示装置10の表示物の情報又は表示態様に応じてコンテンツ情報の通知態様を変化させる処理として、第2表示装置200に表示されるオブジェクトの表示制御を行う。例えばコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、オブジェクトの表示・非表示を決定したり、オブジェクトの表示態様を変化させる。例えば第1表示装置10の表示物の情報又は表示態様に応じて、オブジェクトの色合い、明るさ、大きさ、形状、透明度又は輪郭等の表示態様を設定する。
例えば表示物の情報は、第1表示装置10の表示画面においてユーザにより注視された注視表示物の情報である。そしてコンテンツ処理部110は、第1表示装置10での注視表示物の情報又は第1表示装置10の表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定する。即ち注視表示物の情報又は第1表示装置10の表示態様に応じたオブジェクトの表示制御として、第2表示装置200に表示されるオブジェクトの表示位置を設定(決定)する。例えばコンテンツ処理部110は、ユーザの注視表示物が決定されると、その注視表示物の位置に対応する位置に、第2表示装置200でのオブジェクトを表示する制御を行う。或いは注視表示物の大きさや形状に応じた位置に、第2表示装置200でのオブジェクトを表示する制御を行う。或いは第1表示装置10の表示画面の表示態様や表示内容に応じた適切な位置に、第2表示装置200でのオブジェクトを表示する制御を行う。なお本実施形態では、記載の明確化のために、第2表示装置200の表示装置243に表示される表示物(図2のOB1~OB5等)を、第1表示装置10の「表示物」と区別して、「オブジェクト」と記載することとする。このオブジェクトは、第2表示装置200により、第1表示装置10の表示画像への重畳画像として表示されるオブジェクトである。
またコンテンツ処理部110は、注視表示物の情報又は第1表示装置10の表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示態様を設定する。即ち第1表示装置10の注視表示物の情報又は表示態様に応じたオブジェクトの表示制御として、第2表示装置200に表示されるオブジェクトの表示態様を設定(決定)する。例えばコンテンツ処理部110は、ユーザの注視表示物が決定されると、その注視表示物に対応する表示態様で、第2表示装置200でのオブジェクトを表示する制御を行う。或いは注視表示物の明るさ、色、形状、又は大きさに応じた表示態様で、第2表示装置200でのオブジェクトを表示する制御を行う。或いは第1表示装置10の表示画面の表示態様や表示内容に応じた適切な表示態様で、第2表示装置200でのオブジェクトを表示する制御を行う。
また本実施形態のエンターテインメントシステムは、情報取得部102とコンテンツ処理部110を含む。そして情報取得部102は、第1表示装置10に表示される表示物の情報又は第1表示装置10の表示態様の情報を取得する。またコンテンツ処理部110は、第1表示装置10の表示画像に対して第2表示装置200の表示画像が付加されたコンテンツ画像をユーザに視認させる処理を行う。そしてコンテンツ処理部110は、コンテンツ情報を第2表示装置200を用いてユーザに通知する通知処理を行い、第1表示装置10の表示物の情報又は表示態様に応じて、コンテンツ情報の通知態様を変化させる。例えばコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、コンテンツ情報の通知内容、通知表示物、通知位置、通知イベント又は通知タイミング等を変化させる。
この場合にコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示制御を行う。例えば第1表示装置10の表示物の情報又は表示態様に応じてコンテンツ情報の通知態様を変化させる処理として、第2表示装置200に表示されるオブジェクトの表示制御を行う。例えばコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、オブジェクトの表示・非表示を決定したり、オブジェクトの表示態様を変化させる。
具体的にはコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定する。即ち表示物の情報又は第1表示装置10の表示態様に応じたオブジェクトの表示制御として、第2表示装置200に表示されるオブジェクトの表示位置を設定(決定)する。例えばコンテンツ処理部110は、第1表示装置10の表示物の位置に対応する位置に、第2表示装置200でのオブジェクトを表示する制御を行う。或いは表示物の大きさや形状に応じた位置に、第2表示装置200でのオブジェクトを表示する制御を行う。或いは第1表示装置10の表示画面の表示態様や表示内容に応じた適切な位置に、第2表示装置200でのオブジェクトを表示する制御を行う。
またコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示態様を設定する。即ち第1表示装置10の表示物の情報又は表示態様に応じたオブジェクトの表示制御として、第2表示装置200に表示されるオブジェクトの表示態様を設定(決定)する。例えばコンテンツ処理部110は、第1表示装置10の表示物に対応する表示態様で、第2表示装置200でのオブジェクトを表示する制御を行う。或いは表示物の明るさ、色、形状、又は大きさに応じた表示態様で、第2表示装置200でのオブジェクトを表示する制御を行う。或いは第1表示装置10の表示画面の表示態様や表示内容に応じた適切な表示態様で、第2表示装置200でのオブジェクトを表示する制御を行う。
また第2表示装置200に表示されるオブジェクトは、第1表示装置10に表示される表示物に関連するオブジェクトである。例えば第2表示装置200のオブジェクトは、第1表示装置10の表示物に対して予め関連づけられているオブジェクトである。例えば第2表示装置200のオブジェクトは、第1表示装置10の表示物に対応づけられて記憶部170に記憶される。例えば第1表示物には、第1オブジェクト(第1オブジェクト群)が関連づけられており、第2表示物には、第2オブジェクト(第2オブジェクト群)が関連づけられている。そして例えば第1表示装置10に表示物が表示されると、この表示物に関連づけられたオブジェクトが第2表示装置200に表示される。
また第1表示装置10の表示物の情報は、例えば表示物のパラメータ情報、表示物の表示位置情報又は表示物の表示態様情報である。表示物のパラメータの情報は、表示物の状態や状況を表すパラメータの情報であり、例えばゲームに登場する表示物のゲームパラメータの情報である。例えば表示物がゲームのキャラクタである場合には、パラメータ情報は、当該キャラクタに対応づけて記憶部170の記憶されるキャラクタのゲームのパラメータ情報である。例えばキャラクタのステータス、能力、レベル又は属性等を表すパラメータの情報である。表示物の表示位置情報は、例えば第1表示装置10の表示画面での位置座標、表示エリア又は表示場所等についての情報である。表示物の表示位置情報は、仮想的な3次元空間での表示物の位置情報であってもよい。表示物の表示態様情報は、例えば表示物の色合い、明るさ、大きさ、形状、透明度又はテクスチャ等の情報である。
また本実施形態のエンターテインメントシステムは、画像解析部105とコンテンツ処理部110を含む。画像解析部105は、第2表示装置200のカメラにより第1表示装置10を撮影した撮影画像の解析処理を行う。例えば情報取得部102が、第2表示装置200のカメラにより第1表示装置10を撮影した撮影画像の情報を取得し、画像解析部105が、取得された撮影画像の解析処理を行う。例えばカメラの撮影画像に映る第1表示装置10の表示画像等の解析処理を行う。例えば画像解析部105は、第1表示装置10に表示される表示物又は第1表示装置10の表示態様の解析処理を行う。或いは画像解析部105は、第1表示装置10の表示画面でのユーザの注視領域を検出するための画像解析処理を行う。
そしてコンテンツ処理部110は、撮影画像の解析処理の結果に基づくコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。例えば第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて、第1表示装置10に表示される表示物の情報や、第1表示装置10の表示態様が特定される。そしてコンテンツ処理部110は、特定された第1表示装置10の表示物の情報又は第1表示装置10の表示態様に応じて、コンテンツ情報の通知態様を変化させる処理を行う。即ちコンテンツ処理部110は、撮影画像の解析処理の結果に基づき特定された表示物の情報又は表示態様に応じて、コンテンツ情報の通知態様を変化させる処理を行う。具体的には、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示制御を行う。或いは、第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて、第1表示装置10の表示画面でのユーザの注視領域が検出される。そしてコンテンツ処理部110は、カメラの撮影画像の解析処理の結果に基づき検出された注視領域に対応するコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。例えばカメラの撮影画像の解析処理の結果に基づき、ユーザにより注視された注視表示物が特定されたとする。この場合には、コンテンツ処理部110は、注視表示物の情報又は第1表示装置10の表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定する処理を行ったり、第2表示装置200に表示されるオブジェクトの表示態様を設定する処理を行う。
またコンテンツ処理部110は、第1表示装置10と第2表示装置200の位置関係に応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる。例えば位置関係検出部106が、第1表示装置10と第2表示装置200の位置関係を検出すると、コンテンツ処理部110は、検出された位置関係に応じて、第1表示装置10又は第2表示装置200の表示内容を変化させたり、コンテンツ情報の通知態様を変化させる。例えばコンテンツ処理部110は、第1表示装置10と第2表示装置200の位置関係に応じて、第1表示装置10で表示される表示物の種類又は表示態様等を変化させたり、第2表示装置200で表示されるオブジェクトの種類又は表示態様等を変化させる。或いはコンテンツ処理部110は、第1表示装置10と第2表示装置200の位置関係に応じて、コンテンツ情報の通知内容、通知表示物、通知位置、通知イベント又は通知タイミング等を変化させる。
またコンテンツ処理部110は、第1表示装置10と第2表示装置200の位置関係と、第1表示装置10に表示される表示物の情報とに応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる。例えばコンテンツ処理部110は、第1表示装置10と第2表示装置200の位置関係と、第1表示装置10の表示物の情報とにより、第1表示装置10に表示される表示物の種類又は表示態様等を変化させたり、第2表示装置200に表示されるオブジェクトの種類又は表示態様を変化させたり、コンテンツ情報の通知内容、通知表示物、通知位置、通知イベント又は通知タイミング等を変化させる。
図7(A)、図7(B)に、本実施形態のエンターテインメントシステムのハードウェアの実現構成例を示す。図7(A)では、情報処理装置40が、有線又は無線により第1表示装置10及び第2表示装置200に通信接続されている。そして情報処理装置40が第1表示装置10及び第2表示装置200の制御処理を行う。情報処理装置40は、例えばパーソナルコンピュータ(PC)、ゲーム装置、或いは通信端末装置である。パーソナルコンピュータはデスクトップPC、ノートPC又はタブレット型PCなどである。ゲーム装置は家庭用ゲーム装置であってもよいし、アミューズメント施設に設置される業務用ゲーム装置であってもよい。通信端末装置は例えばスマートフォン等の携帯型の通信端末装置である。例えば図7(A)では、情報処理装置40が、第1表示装置10での表示画像の表示処理を行うと共に、第2表示装置200での表示画像の表示処理を行う。第1表示装置10での表示処理は情報処理装置40と第1表示装置10の分散処理により実現でき、第2表示装置200での表示処理は情報処理装置40と第2表示装置200の分散処理により実現できる。そして情報処理装置40が、第1表示装置10の表示画像に対して第2表示装置200の表示画像が付加されたコンテンツ画像をユーザに視認させる処理を行う。例えば情報処理装置40が、第1表示装置10の表示画像の情報を第1表示装置10に送信し、第2表示装置200の表示画像の情報を第2表示装置200に送信する。そして、第2表示装置200において、第1表示装置10の表示画像の透過画像に対して、第2表示装置200の表示画像を重畳表示する処理が行われる。
図7(B)では、第2表示装置200、サーバ50、情報処理装置40が、ネットワーク60を介して通信接続されている。ネットワーク60(配信網、通信回線)は、例えばインターネットや無線LAN等を利用した通信路であり、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網や無線LAN等の通信網を含むことができる。また通信方法については有線/無線を問わない。サーバ50は、エンターテインメントシステムの運営者が運営するサーバであり、例えばエンターテインメントシステムの各種の制御処理や管理処理を実行する。図7(B)では、本実施形態のエンターテインメントシステムの各処理は、例えば情報処理装置40、サーバ50、第2表示装置200の分散処理などにより実現できる。図7(B)では、例えば情報処理装置40が、第1表示装置10での表示画像の表示処理を行い、第2表示装置200が、第2表示装置200での表示画像の表示処理を行う。そしてサーバ50が、情報処理装置40、第2表示装置200の各種の制御処理や管理処理を行う。例えばサーバ50は、第1表示装置10の表示画像に対して第2表示装置200の表示画像が付加されたコンテンツ画像をユーザに視認させるための制御処理や管理処理を行うことができる。
2.本実施形態の手法
次に本実施形態の手法について詳細に説明する。
2.1 第2表示装置を用いた通知処理
本実施形態のエンターテインメントシステムは、図1で説明したように、第1表示装置10と、第1表示装置10の表示画像が視認可能な第2表示装置200とを用いたエンターテインメントシステムである。そして本実施形態では第2表示装置を用いた種々の通知処理を実現する。図8は本実施形態の処理例を説明するフローチャートである。
まず本実施形態のエンターテインメントシステムは、図3で説明したように、ユーザUSの視線方向LSの情報を取得する(ステップS1)。例えばユーザUSが装着する第2表示装置200の方向等のトラッキング処理を行うことで、ユーザUSの視線方向LSを検出する。或いは、ユーザUSの視線トラッキング(アイトラッキング)を行うことでユーザUSの視線方向LSを検出してもよい。
次にエンターテインメントシステムは、図3に示すように、ユーザUSの視線方向LSの情報に基づいて、第1表示装置10の表示画面でのユーザUSの注視領域ARGを検出する(ステップS2)。例えば図3では、ユーザUSは、自身の操作キャラクタであるキャラクタCH1を注視しており、このキャラクタCH1の配置位置に対応する領域が注視領域ARGとして検出されている。一例としては、ユーザUSの視線方向LSに沿った線と第1表示装置10の表示画面との交点を含む領域が、注視領域ARGとして検出される。なお、前述したように、第2表示装置200のカメラの向く方向や、第2表示装置200である透過型表示装置の向く方向に基づいて、注視領域ARGを検出してもよい。
そしてエンターテインメントシステムは、第1表示装置10の表示画像に対して第2表示装置200の表示画像が付加されたコンテンツ画像をユーザUSに視認させる処理を行う際に、注視領域ARGに対応するコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う(ステップS3)。例えば図3では、第1表示装置10の表示画面においてユーザUSが注視する注視領域ARGには、キャラクタCH1が表示されている。そして注視領域ARGに対応するコンテンツ情報として、第1表示装置10の表示物であるキャラクタCH1についての情報を通知する。具体的には図2に示すように、注視領域ARGに位置するキャラクタCH1のステータス情報を、第1表示装置10の表示画像IMDに重畳される第2表示装置200の表示画像IMHとしてユーザUSに表示する。このようにすれば、ユーザUSは、第1表示装置10の表示画面において自身が注視した注視領域ARGに対応するコンテンツ情報を、第2表示装置200を利用して知ることが可能になる。即ち、ユーザUSは、第1表示装置10の表示画面において自身が所望する領域を注視するだけで、その注視領域ARGに対応するコンテンツ情報を取得できるようになる。従って、第1表示装置10と第2表示装置200を用いたシステムにおいて第1表示装置10に関連するコンテンツ情報をユーザに対して通知することができるエンターテインメントシステム等の提供が可能になる。例えば第1表示装置10と第2表示装置200を用いたエンターテインメントシステムにおいて興趣性の高い演出制御を実現できる。
また本実施形態では、図8のステップS3の通知処理として、第2表示装置200を用いてコンテンツ情報を表示する処理を行っている。即ち図2、図3に示すように、第2表示装置200を用いてコンテンツ情報に対応する表示画像IMHを、第1表示装置10の表示画像IMDに対して重畳表示することで、注視領域ARGに対応するコンテンツ情報をユーザに通知している。このようにすれば、ユーザUSは、第1表示装置10の表示画面において自身が注視した注視領域ARGに対応するコンテンツ情報を、第2表示装置200の表示画像IMHにより視覚的に認識できるようになる。即ち、ユーザUSは、第1表示装置10の表示画面において自身が所望する領域を注視するだけで、その注視領域ARGに対応するコンテンツ情報を、第2表示装置200の表示画像IMHにより視認できるようになり、第1表示装置10と第2表示装置200を用いたエンターテインメントシステムにおける好適なユーザインターフェースを実現できる。なお、コンテンツ情報をユーザUSに通知する通知処理は、図2、図3に示すような画像表示による通知処理には限定されず、図4で説明したように、振動、音又は発光等による通知処理であってもよい。
また本実施形態では、第1表示装置10の表示物の情報又は表示態様に応じて、コンテンツ情報の通知態様を変化させる。図9はこの場合の本実施形態の処理例を説明するフローチャートである。
まずエンターテインメントシステムは、第1表示装置10に表示される表示物の情報又は第1表示装置10の表示態様の情報を取得する(ステップS11)。図1を例にとれば、第1表示装置10に表示されるキャラクタCH1~CH3、CE1~CE3や背景表示物などの表示物の情報や、第1表示装置10の表示画面の明るさ、色合い、コントラスト又は表示内容などの表示態様の情報を取得する。この表示物の情報や表示態様の情報は、第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて取得してもよい。そして第1表示装置10の表示物の情報又は表示態様に応じて、コンテンツ情報の通知態様を変化させる(ステップS12)。例えば第1表示装置10の表示物の情報又は表示態様に応じて、コンテンツ情報の通知内容、通知表示物、通知位置、通知イベント又は通知タイミング等を変化させる。例えば第1表示装置10の表示物が第1表示物である場合、或いは第1表示装置10の表示態様が第1表示態様である場合には、第1通知内容、第1通知表示物、第1通知位置、第1通知イベント又は第1通知タイミングでコンテンツ情報を通知する。第1表示装置10の表示物が第2表示物である場合、或いは第1表示装置10の表示態様が第2表示態様である場合には、第2通知内容、第2通知表示物、第2通知位置、第2通知イベント又は第2通知タイミングでコンテンツ情報を通知する。
具体的にはエンターテインメントシステムは、第1表示装置10の表示物に応じた通知内容又は通知表示物のコンテンツ情報を、ユーザに通知する。例えば第1表示装置10の表示物がキャラクタである場合には、キャラクタに対応する通知内容のコンテンツ情報を通知したり、キャラクタに対応する通知表示物を表示する通知処理を行う。例えばキャラクタの情報を知らせる通知内容のコンテンツ情報を通知したり、キャラクタに関連する通知表示物を表示する。また第1表示装置10の表示物に応じた通知イベントのコンテンツ情報を通知したり、第1表示装置10の表示物に応じた通知タイミングでコンテンツ情報を通知する。例えば第1表示装置10の表示物がキャラクタである場合には、キャラクタに関連する通知イベントが発生するようなコンテンツ情報を通知したり、キャラクタの登場タイミング等に対応する通知タイミングでコンテンツ情報を通知する。或いは、第1表示装置10の表示画面の明るさ、色合い、コントラスト又は表示内容等の表示態様に応じて、コンテンツ情報の通知内容、通知表示物、通知位置、通知イベント又は通知タイミング等を変化させる。例えば第1表示装置10の表示態様に適した通知内容又は通知表示物のコンテンツ情報を、ユーザに通知する。或いは、第1表示装置10の表示態様に適した通知位置でコンテンツ情報を通知したり、第1表示装置10の表示態様に適した通知イベントが発生するようなコンテンツ情報を通知したり、第1表示装置10の表示態様に適した通知タイミングで、コンテンツ情報を通知する。このように本実施形態によれば、第1表示装置10の表示物の情報又は表示態様に応じてコンテンツ情報の通知態様を変化させているため、第1表示装置10の表示物又は表示態様に適した通知態様で、コンテンツ情報をユーザに通知できるようになる。従って、第1表示装置10の表示画像に第2表示装置200の表示画像が付加されたコンテンツ画像をユーザに視認させるエンターテインメントシステムにおいて、第1表示装置10の表示物又は表示態様に応じた適切なコンテンツ情報をユーザに通知することが可能になる。
また本実施形態では、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示制御を行う。このようにすれば、第1表示装置10の表示物又は表示態様に応じて表示制御されるオブジェクトを第2表示装置200に表示して、第1表示装置10の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。従って、第1表示装置10の表示物又は表示態様を反映させたオブジェクトの表示制御を行って、当該オブジェクトを用いたコンテンツ情報の通知処理を実現できるようになる。図10はこの場合の本実施形態の処理例を説明するフローチャートである。
まずエンターテインメントシステムは、第1表示装置10に表示される表示物(注視表示物)の情報又は第1表示装置10の表示態様の情報を取得する(ステップS21)。例えば表示物のパラメータ情報、表示位置情報又は表示態様情報などの表示物の情報や、第1表示装置10の表示画面の明るさ、色合い、コントラスト又は表示内容などの表示態様の情報を取得する。この表示物の情報や表示態様の情報は、第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて取得してもよい。そして第1表示装置10の表示物(注視表示物)の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示位置又は表示態様の設定する(ステップS22)。即ち、第1表示装置10の表示物の情報又は表示態様に応じた第2表示装置200のオブジェクトの表示制御として、第2表示装置200に表示されるオブジェクトの表示位置又は表示態様を設定する制御を行う。
このように本実施形態では、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定する。このようにすれば、第1表示装置10の表示物の情報又は表示態様に応じた表示位置にオブジェクトを表示して、第1表示装置10の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。従って、第1表示装置10の表示物又は表示態様に応じた表示位置にオブジェクトを表示して、当該オブジェクトを用いたコンテンツ情報の通知処理を実現できるようになる。
例えば図11(A)では、第1表示装置10の表示物であるキャラクタCH1は、第1表示装置10の表示画面の左側の位置に表示されている。この場合には、第2表示装置200において表示画像IMHとして表示されるオブジェクトOB1、OB2の表示位置も左側の位置に設定する。また図11(B)では、第1表示装置10の表示物であるキャラクタCH1は、第1表示装置10の表示画面の右側の位置に表示されている。この場合には、第2表示装置200に表示されるオブジェクトOB1、OB2の表示位置も右側の位置に設定する。即ち第1表示装置10の表示物の情報である表示物の位置情報に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定している。或いは、表示物の形状又は大きさの情報に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定してもよい。例えば第1表示装置10での表示物の表示位置、形状又は大きさなどの表示物の情報を判断して、当該表示物の視認を妨げない表示位置に、第2表示装置200におけるオブジェクトを表示する。このようにすれば、第1表示装置10の表示物の表示位置、形状又は大きさなどの表示物の情報に応じた適切な表示位置に、第2表示装置200におけるオブジェクトを表示できるようになる。或いは、本実施形態では、第1表示装置10の表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定してもよい。例えば第1表示装置10の明るさ、色合い、コントラスト又は表示内容などの表示態様を判断して、オブジェクトを用いたコンテンツ情報の通知に好適な表示位置に、第2表示装置200におけるオブジェクトを表示する。或いは第1表示装置10の表示態様を判断して、第1表示装置10における表示を妨げない表示位置に、第2表示装置200におけるオブジェクトを表示する。このようにすれば、第1表示装置10の表示態様に応じた適切な表示位置に、第2表示装置200におけるオブジェクトを表示できるようになる。
また本実施形態では、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示態様を設定する。例えば第2表示装置200におけるオブジェクトの色合い、明るさ、大きさ、形状、透明度又は輪郭等の表示態様を設定する。このようにすれば、第1表示装置10の表示物の情報又は表示態様に応じた表示態様でオブジェクトを表示して、第1表示装置10の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。従って、第1表示装置10の表示物又は表示態様に応じた表示態様でオブジェクトを表示して、当該オブジェクトを用いたコンテンツ情報の通知処理を実現できるようになる。
例えば図12では、第1表示装置10の表示物であるキャラクタCH1の情報に応じて、第2表示装置200の表示画像IMHのオブジェクトOB1、OB2の色合い、明るさ、大きさ、形状、透明度又は輪郭等の表示態様を設定している。例えば表示物であるキャラクタCH1に応じた色合い、明るさに、第2表示装置200におけるオブジェクトOB1、OB2の色合い、明るさを設定する。例えばキャラクタCH1と同様の色合い、明るさにオブジェクトOB1、OB2の色合い、明るさを設定する。或いは表示物であるキャラクタCH1に応じた大きさ、形状に、第2表示装置200におけるオブジェクトOB1、OB2の大きさ、形状を設定する。例えばキャラクタCH1が大きい場合には、オブジェクトOB1、OB2も大きくしたり、キャラクタCH1の形状に対応する形状のオブジェクトOB1、OB2を表示する。なお第1表示装置10にどのような表示物が表示されているかは、例えば第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて特定できる。
また図12では、第1表示装置10の表示画面(IMD)の明るさ、色合い、コントラスト又は表示内容等の表示態様に応じて、第2表示装置200の表示画像IMHのオブジェクトOB1、OB2の色合い、明るさ、大きさ、形状、透明度又は輪郭等の表示態様を設定している。例えば第1表示装置10の表示画面(IMD)が明るい場合には、明るい表示画面においても第2表示装置200により表示されるオブジェクトOB1、OB2の視認度が高くなるように、オブジェクトOB1、OB2の表示態様を設定する。例えば第1表示装置10の表示画面(IMD)が明るい場合には、第2表示装置200におけるオブジェクトOB1、OB2の色合いを黒くしたり、透明度を下げたり(不透明度を上げたり)、或いはオブジェクトOB1、OB2の輪郭が目立つようにオブジェクトOB1、OB2の表示態様を設定する。また第1表示装置10の表示画面の色合いに応じた色合いに、第2表示装置200におけるオブジェクトOB1、OB2の色合いを設定する。例えば第2表示装置200におけるオブジェクトOB1、OB2の色合いを、第1表示装置10の表示画面と同様の色合いに設定したり、表示画面においてオブジェクトOB1、OB2の視認性が高まるような色合いに設定する。或いは、第2表示装置200におけるオブジェクトOB1、OB2の大きさ又は形状等を、第1表示装置10の表示内容である表示コンテンツに応じた大きさ、形状又は透明度等に設定する。例えば第2表示装置200におけるオブジェクトOB1、OB2の大きさ、形状又は透明度等を、第1表示装置10の表示コンテンツの視認の妨げにならないような大きさ、形状又は透明度に設定する。なお、環境光の明るさを検出する環境光センサを設け、この環境光センサの検出結果に基づいて、第2表示装置200により表示されるオブジェクトOB1、OB2の表示制御を行ってもよい。また第1表示装置10の表示画面の明るさ、色合い、コントラスト又は表示内容等の表示態様は、例えば第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて特定することができる。
また第1表示装置10の表示画面においてユーザにより注視された注視表示物を検出する場合には、注視表示物の情報に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定する。例えば図3では、ユーザの視線方向LSの情報に基づいてユーザの注視領域ARGが検出され、これによりユーザの注視表示物であるキャラクタCH1が検出されている。この場合に、検出された注視表示物(キャラクタCH1)の情報に応じて、第2表示装置200に表示されるオブジェクト(OB1、OB2)の表示位置を設定する。例えば注視表示物のパラメータ情報、表示位置又は表示態様等に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定する。例えば注視表示物の表示位置の近くに、第2表示装置200におけるオブジェクトを表示したり、注視表示物の大きさ又は形状に応じた適切な表示位置に、オブジェクトを表示する。このようにすれば、第1表示装置10の注視表示物の情報に応じた表示位置にオブジェクトを表示して、第1表示装置10の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。従って、第1表示装置10の注視表示物に応じた表示位置にオブジェクトを表示して、当該オブジェクトを用いたコンテンツ情報の通知処理を実現できるようになる。なお、第1表示装置10の表示画面においてユーザにより注視された注視表示物は、例えば第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて特定することができる。
また第1表示装置10の表示画面においてユーザにより注視された注視表示物を検出する場合に、注視表示物の情報に応じて、第2表示装置200に表示されるオブジェクトの表示態様を設定する。例えば図3のように、ユーザの注視表示物であるキャラクタCH1が検出された場合に、検出された注視表示物(キャラクタCH1)の情報に応じて、第2表示装置200に表示されるオブジェクト(OB1、OB2)の表示態様を設定する。例えば注視表示物のパラメータ情報、表示位置又は表示態様等に応じて、第2表示装置200に表示されるオブジェクトの表示態様を設定する。例えば注視表示物のパラメータ情報に応じて、オブジェクトの色合い、明るさ、大きさ、形状又は透明度等の表示態様を変化させる。或いは、注視表示物の色合い、明るさ、大きさ又は形状等に対応する色合い、明るさ、大きさ又は形状等のオブジェクトを、第2表示装置200により表示する。このようにすれば、第1表示装置10の注視表示物の情報に応じた表示態様でオブジェクトを表示して、第1表示装置10の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。従って、第1表示装置10の注視表示物に応じた表示態様でオブジェクトを表示して、当該オブジェクトを用いたコンテンツ情報の通知処理を実現できるようになる。
また第2表示装置200に表示されるオブジェクトは、第1表示装置10に表示される表示物に関連するオブジェクトである。例えば図2において、第2表示装置200に表示されるオブジェクトOB1~OB5は、第1表示装置10の表示物であるキャラクタCH1のステータス情報等をユーザに知らせるオブジェクトであり、表示物であるキャラクタCH1に関連するオブジェクトである。このようにすれば、第1表示装置10の表示物に関連するオブジェクトを、第1表示装置10の表示画像に重畳表示されるオブジェクトとして、第2表示装置200により表示できるようになる。これにより、第1表示装置10の表示画像に対して、当該表示画像の表示物に関連するオブジェクトを、第2表示装置200により重畳表示して、当該オブジェクトによるコンテンツ情報をユーザに通知できるようになる。
また第1表示装置10の表示物の情報は、図13に示すように、表示物のパラメータ情報、表示位置情報又は表示態様情報である。表示物のパラメータ情報は、キャラクタ等の表示物のステータス、能力、レベル又は属性等を表すパラメータの情報である。また表示物の表示位置情報は、例えば表示物の位置座標、表示エリア又は表示場所等である。表示物の表示態様は、例えば表示物の色合い、明るさ、大きさ、形状又は透明度等である。このようにすれば、表示物のパラメータ情報、表示位置情報又は表示態様情報に応じて、第2表示装置200を用いて通知されるコンテンツ情報の通知態様を変化させることなどが可能になる。
また本実施形態では、例えば第2表示装置200のカメラにより第1表示装置10を撮影した撮影画像の解析処理を行う。そして、当該撮影画像の解析処理の結果に基づくコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。例えばカメラの撮影画像の解析処理の結果に基づき特定された表示物の情報又は表示態様に応じたコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。例えば解析処理の結果に基づき特定された表示物の情報又は表示態様に応じて、コンテンツ情報の通知態様を変化させる処理を行う。或いはカメラの撮影画像の解析処理の結果に基づき検出された注視領域に対応するコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。
2.2 位置関係に応じた処理
本実施形態では図14に示すように、第1表示装置10と第2表示装置200の位置関係を検出する。この位置関係は、第1表示装置10の位置と第2表示装置200の位置の関係であってもよいし、第1表示装置10と第2表示装置200との間の距離の関係や、第1表示装置10の方向と第2表示装置200の方向の関係などであってもよい。また図14では、第2表示装置200が透過型HMDである場合の例を示しているが、第1表示装置10との位置関係が検出される第2表示装置200は、透過型HMD以外の透過型表示装置や、カメラを有する端末装置などであってもよい。
そして本実施形態では、第1表示装置10と第2表示装置200の位置関係に応じて、第1表示装置10又は第2表示装置200の表示内容、或いは第2表示装置200を用いて通知されるコンテンツ情報の通知態様を変化させる。例えば第1表示装置10と第2表示装置200が第1位置関係である場合には、第1表示装置10又は第2表示装置200の表示内容を第1表示内容にしたり、或いは第2表示装置200を用いてコンテンツ情報を第1通知態様で通知する。また第1表示装置10と第2表示装置200が第2位置関係である場合には、第1表示装置10又は第2表示装置200の表示内容を第2表示内容にしたり、或いは第2表示装置200を用いてコンテンツ情報を第2通知態様で通知する。このようにすれば、第1表示装置10と第2表示装置200の位置関係に応じた適切な表示内容で、第1表示装置10又は第2表示装置200に画像を表示したり、或いは第1表示装置10と第2表示装置200の位置関係に応じた適切な通知態様で、第2表示装置200によりコンテンツ情報をユーザに通知できるようになる。
例えば第1表示装置10と第2表示装置200の距離が遠い位置関係である場合には、第1表示装置10又は第2表示装置200の表示内容を、距離が遠くてもユーザが視認可能な表示内容にする。一方、第1表示装置10と第2表示装置200の距離が近い位置関係である場合には、第1表示装置10又は第2表示装置200の表示内容を、例えば距離が遠いときに比べて情報の詳細度が高い表示内容にする。また第1表示装置10と第2表示装置200の方向関係に応じて、第1表示装置10又は第2表示装置200の表示内容を変化させてもよい。例えば第2表示装置200の向く方向が、第1表示装置10に対して正対しており、第1表示装置10の正面側から真っ直ぐに表示画面の方に向いている場合には、第1表示装置10又は第2表示装置200の表示内容を第1表示内容にする。例えば情報の詳細度が高い表示内容にする。一方、第2表示装置200の向く方向が、第1表示装置10に対して斜め方向になっている場合に、第1表示装置10又は第2表示装置200の表示内容を第2表示内容にする。例えば情報の詳細度が低く、情報を簡素化して伝える表示内容にしたり、非表示状態にする。
また第1表示装置10と第2表示装置200の位置関係に応じて、第2表示装置200を用いて通知されるコンテンツ情報の通知内容、通知表示物又は通知位置等の通知態様を変化させる。例えば第1表示装置10と第2表示装置200の距離が遠い位置関係である場合には、コンテンツ情報の通知内容又は通知表示物を、距離が遠い場合用の通知内容又は通知表示物にする。例えば距離が近い場合に比べて、情報の詳細度が低い通知内容の通知にしたり、簡素化された通知表示物によりコンテンツ情報を通知する。一方、第1表示装置10と第2表示装置200の距離が近い位置関係である場合には、コンテンツ情報の通知内容又は通知表示物を、距離が近い場合用の通知内容又は通知表示物にする。例えば距離が遠い場合に比べて、情報の詳細度が高い通知内容の通知にしたり、より精細な形状の通知表示物によりコンテンツ情報を通知する。或いは、第1表示装置10と第2表示装置200の位置関係に応じた適切な通知位置にコンテンツ情報を表示する。例えば第1表示装置10の表示画面において、第2表示装置200の位置から視認しやすい領域にコンテンツ情報が表示されるようにする。
また図4のようにコンテンツ情報が音、振動又は発光により通知するものである場合に、第1表示装置10と第2表示装置200の位置関係に応じて、音、振動又は発光によるコンテンツ情報の通知態様を変化させてもよい。例えば第1表示装置10と第2表示装置200の距離が遠い位置関係である場合には、音又は振動を小さくしたり、発光を弱くし、距離が近い位置関係である場合には、音又は振動を大きくしたり、発光を強くする。また第1表示装置10と第2表示装置200の位置関係に応じて、コンテンツ情報の通知のオン、オフを制御してもよい。例えば第1表示装置10と第2表示装置200の距離が近い位置関係である場合には、コンテンツ情報の通知をオンにし、距離が遠い位置関係である場合には、コンテンツ情報の通知をオフにする。或いは、第1表示装置10の方向と第2表示装置200の方向の関係が、第2表示装置200から見て第1表示装置10の表示画面を視認しやすい関係である場合には、コンテンツ情報の通知をオンにし、視認しくい関係である場合には、コンテンツ情報の通知をオフにする。
また本実施形態では、第1表示装置10と第2表示装置200の位置関係と、第1表示装置10に表示される表示物の情報とに応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させてもよい。即ち、第1表示装置10と第2表示装置200の位置関係のみならず、第1表示装置10に表示される表示物の情報も考慮して、第1表示装置10又は第2表示装置200の表示内容を変化させたり、コンテンツ情報の通知態様を変化させる。このようにすれば、第1表示装置10と第2表示装置200の位置関係と第1表示装置10の表示物の情報に応じた適切な表示内容で、第1表示装置10又は第2表示装置200に画像を表示したり、或いは第1表示装置10と第2表示装置200の位置関係と表示物の情報に応じた適切な通知態様で、第2表示装置200によりコンテンツ情報をユーザに通知できるようになる。
例えば第1表示装置10と第2表示装置200の距離が近い位置関係であったり、或いは第2表示装置200から見て第1表示装置10の表示画面を視認しやすい関係であるなどの所定の位置関係であることを条件に、第1表示装置10の表示物の情報に応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる。例えば第1表示装置10と第2表示装置200が所定の位置関係(距離が近い関係又は視認しやすい関係等)であることを条件に、第1表示装置10又は第2表示装置200の表示内容を、第1表示装置10の表示物の情報に応じた表示内容に設定する。或いは、第1表示装置10と第2表示装置200が所定の位置関係(距離が近い関係又は視認しやすい関係等)であることを条件に、前述の図9で説明したように、第1表示装置10の表示物の情報に応じて、コンテンツ情報の通知態様を変化させる。例えば第1表示装置10と第2表示装置200が所定の位置関係であることを条件に、第1表示装置10の表示物の情報に応じて、第2表示装置200を用いて通知されるコンテンツ情報の通知内容、通知表示物又は通知位置等の通知態様を変化させる。或いは、第1表示装置10と第2表示装置200が所定の位置関係(距離が近い関係又は視認しやすい関係等)である場合には、第1表示装置10の表示物の情報に応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる変化処理を行う一方で、第1表示装置10と第2表示装置200が所定の位置関係ではない場合には、当該変化処理を行わないようにする。
また図3に示すようにユーザの注視表示物(CH1)が検出される場合には、第1表示装置10と第2表示装置200が所定の位置関係であることを条件に、注視表示物の情報に応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる。例えば第1表示装置10と第2表示装置200の距離が近い位置関係であるときに、第1表示装置10の表示画面でのユーザの注視表示物が検出された場合に、注視表示物の情報に応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる。例えば注視表示物の表示に適した内容になるように、第1表示装置10又は第2表示装置200の表示内容を設定する。或いは、前述したように、注視表示物のパラメータ情報、位置情報又は表示態様等に応じて、第2表示装置200を用いて通知されるコンテンツ情報の通知内容、通知表示物又は通知位置等の通知態様を変化させる。このようにすることで、第1表示装置10と第2表示装置200の位置関係を反映させながら、第1表示装置10の注視表示物の情報に応じたコンテンツ情報の種々の通知処理を実現できるようになる。
次に第1表示装置10と第2表示装置200の位置関係の検出処理の一例について説明する。図5で説明した第2表示装置200では、ユーザの周囲の実空間の認識処理を行うことにより実空間情報を取得し、取得された実空間情報に基づいて、実空間に対応する仮想空間を生成することができる。例えば図15(A)では、実空間に机DKや壁WLなどの物体が存在している。この実空間を、図5の第2表示装置200に設けられたカメラによりスキャンする認識処理を行うことで、実空間情報を取得する。具体的には図15(B)に示すように、実空間情報としてメッシュポリゴンのデータを取得する。この実空間の認識処理は例えばリアルタイムに実行され、ユーザの周囲の実空間が順次にスキャンされて実空間情報が取得される。例えばIDに対応づけられた空間データが順次に取得されて、実空間情報として図6の記憶部170に蓄積されて記憶される。この実空間情報は、デプス情報(奥行き値)も有しており、このデプス情報を用いることで、例えば仮想空間のオブジェクトと実空間の物体との隠面消去処理も可能になる。また実空間情報に基づいて仮想空間を生成することで、仮想的なオブジェクト(キャラクタ、配置オブジェクト)と、実空間の物体(机DK、壁WL)とのインタラクションが可能になる。例えば仮想的なオブジェクトと実空間の物体とのヒット処理(衝突処理)なども可能になり、これまでにないタイプのAR(Augmented Reality)やMR(Mixed Reality)の実現が可能になる。また、このような実空間の認識処理による実空間情報は、ユーザの位置情報や方向情報の取得処理にも利用できる。例えば実空間情報に基づいて、ユーザとユーザの周囲の物体との位置関係や距離関係を把握できる。従って、慣性計測ユニットの検出結果と実空間情報を用いることで、より正確なユーザの位置情報や方向情報を取得することが可能になる。
そして図16に示すように、第2表示装置200のカメラ等を用いた実空間の認識処理により、第2表示装置200から見た第1表示装置10についての実空間情報を取得する。具体的には、第1表示装置10のメッシュポリゴンのデータを取得する。そして第1表示装置10の実空間情報であるメッシュポリゴンのデータに基づいて、例えば第1表示装置10のコーナー部に対して複数の仮想的なマーカMK1、MK2、MK3を設定する。図16では、第1表示装置10の例えば少なくとも3つのコーナー部に対して仮想的なマーカMK1、MK2、MK3が設定されている。これらのマーカMK1~MK3は例えばマーカレスのARにおける仮想的なマーカである。そして、これらの仮想的なマーカMK1~MK3を用いて、第1表示装置10と第2表示装置200の位置関係を検出する。例えば第2表示装置200の位置とマーカMK1~MK3の位置の距離を求めることで、第1表示装置10と第2表示装置200の位置関係を検出できる。このようにすれば、第2表示装置200のカメラ等を用いた実空間の認識処理を有効利用して、第1表示装置10と第2表示装置200との位置関係を検出できる。そして前述したように、検出された位置関係等に応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる処理を実現できるようになる。
また本実施形態では、図17に示すように、第1表示装置10の表示物に対応するオブジェクトOBが、第1表示装置10の画面から飛び出して来るようなARやMRの画像表示を行ってもよい。例えば図3で説明したように第1表示装置10の表示画面でのユーザの注視表示物を検出し、検出された注視表示物に対応するオブジェクトOBが、第1表示装置10の画面から第2表示装置200の方に移動して来るような画像を、第2表示装置200を利用してユーザに視認させる表示処理を行う。例えば立体視表示における視差を制御することで、このような表示処理を実現できる。このようにすることで、検出された注視領域(注視表示物)に対応するコンテンツ情報であるオブジェクトOBを、第2表示装置200を用いてユーザに通知する通知処理を実現できる。
なお、上記のように本実施形態について詳細に説明したが、本開示の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(第2表示装置等)と共に記載された用語(透過型HMD等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また情報取得処理、注視領域検出処理、画像解析処理、コンテンツ処理、通知処理、位置関係検出処理等も本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本開示の範囲に含まれる。
10…第1表示装置、30…表示部、40…情報処理装置、50…サーバ、
60…ネットワーク、100…処理部、102…情報取得部、104…注視領域検出部、
105…画像解析部、106…位置関係検出部、110…コンテンツ処理部、
112…通知処理部、160…操作部、162…撮像部、170…記憶部、
180…情報記憶媒体、192…音出力部、196…通信部、200…第2表示装置、
202…透過型HMD、240…テンプル部、242…ゴーグル部、243…表示装置、
244…ホログラフィック光学素子、246…RGBカメラ、247…デプスカメラ、
248、249…環境認識カメラ、
ARG…注視領域、CH1~CH3、CE1~CE3…キャラクタ、
IMD、IMH…表示画像、LS…視線方向、MK1~MK3…マーカ、
OB、OB1~OB5…オブジェクト、RCH…レアキャラクタ、US…ユーザ

Claims (18)

  1. 第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムであって、
    前記ユーザの視線方向の情報に基づいて、前記第1表示装置の表示画面での前記ユーザの注視領域を検出する注視領域検出部と、
    前記第1表示装置の表示画像に対して前記第2表示装置の表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部と、
    を含み、
    前記コンテンツ処理部は、
    検出された前記注視領域に対応するコンテンツ情報を、前記第2表示装置を用いて前記ユーザに通知する通知処理を行うことを特徴とするエンターテインメントシステム。
  2. 請求項1において、
    前記通知処理は、前記第2表示装置を用いて前記コンテンツ情報を表示する処理であることを特徴とするエンターテインメントシステム。
  3. 請求項1又は2において、
    前記コンテンツ処理部は、
    前記第1表示装置に表示される表示物の情報又は前記第1表示装置の表示態様に応じて、前記コンテンツ情報の通知態様を変化させることを特徴とするエンターテインメントシステム。
  4. 請求項3において、
    前記コンテンツ処理部は、
    前記第1表示装置の前記表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示されるオブジェクトの表示制御を行うことを特徴とするエンターテインメントシステム。
  5. 請求項4において、
    前記表示物の情報は、前記第1表示装置の前記表示画面において前記ユーザにより注視された注視表示物の情報であり、
    前記コンテンツ処理部は、
    前記注視表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示される前記オブジェクトの表示位置を設定することを特徴とするエンターテインメントシステム。
  6. 請求項4において、
    前記表示物の情報は、前記第1表示装置の前記表示画面において前記ユーザにより注視された注視表示物の情報であり、
    前記コンテンツ処理部は、
    前記注視表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示される前記オブジェクトの表示態様を設定することを特徴とするエンターテインメントシステム。
  7. 第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムであって、
    前記第1表示装置に表示される表示物の情報又は前記第1表示装置の表示態様の情報を取得する情報取得部と、
    前記第1表示装置の表示画像に対して前記第2表示装置の表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部を含み、
    前記コンテンツ処理部は、
    コンテンツ情報を前記第2表示装置を用いて前記ユーザに通知する通知処理を行い、前記第1表示装置の前記表示物の情報又は前記第1表示装置の前記表示態様に応じて、前記コンテンツ情報の通知態様を変化させることを特徴とするエンターテインメントシステム。
  8. 請求項7において、
    前記コンテンツ処理部は、
    前記第1表示装置の前記表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示されるオブジェクトの表示制御を行うことを特徴とするエンターテインメントシステム。
  9. 請求項8において、
    前記コンテンツ処理部は、
    前記第1表示装置の前記表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示される前記オブジェクトの表示位置を設定することを特徴とするエンターテインメントシステム。
  10. 請求項8において、
    前記コンテンツ処理部は、
    前記第1表示装置の前記表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示される前記オブジェクトの表示態様を設定することを特徴とするエンターテインメントシステム。
  11. 請求項4、5、6、8、9又は10において、
    前記第2表示装置に表示される前記オブジェクトは、前記第1表示装置に表示される前記表示物に関連するオブジェクトであることを特徴とするエンターテインメントシステム。
  12. 請求項3乃至11のいずれかにおいて、
    前記第1表示装置の前記表示物の情報は、前記表示物のパラメータ情報、前記表示物の表示位置情報又は前記表示物の表示態様情報であることを特徴とするエンターテインメントシステム。
  13. 第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムであって、
    前記第2表示装置のカメラにより前記第1表示装置を撮影した撮影画像の解析処理を行う画像解析部と、
    前記第1表示装置の表示画像に対して前記第2表示装置の表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部と、
    を含み、
    前記コンテンツ処理部は、
    前記撮影画像の前記解析処理の結果に基づくコンテンツ情報を、前記第2表示装置を用いて前記ユーザに通知する通知処理を行うことを特徴とするエンターテインメントシステム。
  14. 請求項1乃至13のいずれかにおいて、
    前記コンテンツ処理部は、
    前記第1表示装置と前記第2表示装置の位置関係に応じて、前記第1表示装置又は前記第2表示装置の表示内容、或いは前記コンテンツ情報の通知態様を変化させることを特徴とするエンターテインメントシステム。
  15. 請求項1乃至13のいずれかにおいて、
    前記コンテンツ処理部は、
    前記第1表示装置と前記第2表示装置の位置関係と、前記第1表示装置に表示される表示物の情報とに応じて、前記第1表示装置又は前記第2表示装置の表示内容、或いは前記コンテンツ情報の通知態様を変化させることを特徴とするエンターテインメントシステム。
  16. 第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムに用いられるプログラムであって、
    前記ユーザの視線方向の情報に基づいて、前記第1表示装置の表示画面での前記ユーザの注視領域を検出する注視領域検出部と、
    前記第1表示装置の表示画像に対して前記第2表示装置の表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部として、
    コンピュータを機能させ、
    前記コンテンツ処理部は、
    検出された前記注視領域に対応するコンテンツ情報を、前記第2表示装置を用いて前記ユーザに通知する通知処理を行うことを特徴とするプログラム。
  17. 第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムに用いられるプログラムであって、
    前記第1表示装置に表示される表示物の情報又は前記第1表示装置の表示態様の情報を取得する情報取得部と、
    前記第1表示装置の表示画像に対して前記第2表示装置の表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部として、
    コンピュータを機能させ、
    前記コンテンツ処理部は、
    コンテンツ情報を前記第2表示装置を用いて前記ユーザに通知する通知処理を行い、前記第1表示装置の前記表示物の情報又は前記第1表示装置の前記表示態様に応じて、前記コンテンツ情報の通知態様を変化させることを特徴とするプログラム。
  18. 第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムに用いられるプログラムであって、
    前記第2表示装置が有するカメラにより前記第1表示装置を撮影した撮影画像の解析処理を行う画像解析部と、
    前記第1表示装置の表示画像に対して前記第2表示装置の表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部として、
    コンピュータを機能させ、
    前記コンテンツ処理部は、
    前記撮影画像の前記解析処理の結果に基づくコンテンツ情報を、前記第2表示装置を用いて前記ユーザに通知する通知処理を行うことを特徴とするプログラム。
JP2020218578A 2020-12-28 2020-12-28 エンターテインメントシステム及びプログラム Pending JP2022103751A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020218578A JP2022103751A (ja) 2020-12-28 2020-12-28 エンターテインメントシステム及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020218578A JP2022103751A (ja) 2020-12-28 2020-12-28 エンターテインメントシステム及びプログラム

Publications (1)

Publication Number Publication Date
JP2022103751A true JP2022103751A (ja) 2022-07-08

Family

ID=82279647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020218578A Pending JP2022103751A (ja) 2020-12-28 2020-12-28 エンターテインメントシステム及びプログラム

Country Status (1)

Country Link
JP (1) JP2022103751A (ja)

Similar Documents

Publication Publication Date Title
US10229541B2 (en) Methods and systems for navigation within virtual reality space using head mounted display
EP3201679B1 (en) Realtime lens aberration correction from eye tracking
JP6511386B2 (ja) 情報処理装置および画像生成方法
US9724609B2 (en) Apparatus and method for augmented reality
JP5148660B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP6845111B2 (ja) 情報処理装置および画像表示方法
US20150312561A1 (en) Virtual 3d monitor
JP2007042073A (ja) 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
US20190026950A1 (en) Program executed on a computer for providing virtual space, method and information processing apparatus for executing the program
US20240091641A1 (en) Information processing apparatus and user guide presentation method
WO2019155889A1 (ja) シミュレーションシステム、処理方法及び情報記憶媒体
JP7144796B2 (ja) シミュレーションシステム及びプログラム
JP2011258158A (ja) プログラム、情報記憶媒体及び画像生成システム
CN111566596A (zh) 用于虚拟现实显示器的真实世界门户
US20180247454A1 (en) Unknown
US20180348531A1 (en) Method executed on computer for controlling a display of a head mount device, program for executing the method on the computer, and information processing apparatus therefor
JP2023036743A (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
US20190114841A1 (en) Method, program and apparatus for providing virtual experience
JP6530453B2 (ja) ゲームプログラム及びゲームシステム
GB2582106A (en) Display device and display device control method
JP2022103751A (ja) エンターテインメントシステム及びプログラム
JP7356827B2 (ja) プログラム、情報処理方法、及び情報処理装置
JP6403843B1 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
JP5213913B2 (ja) プログラム及び画像生成システム
WO2021261587A1 (ja) エンターテインメントシステム、処理方法及び情報記憶媒体

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231108