JP2022007458A - エンターテインメントシステム及びプログラム - Google Patents

エンターテインメントシステム及びプログラム Download PDF

Info

Publication number
JP2022007458A
JP2022007458A JP2020110457A JP2020110457A JP2022007458A JP 2022007458 A JP2022007458 A JP 2022007458A JP 2020110457 A JP2020110457 A JP 2020110457A JP 2020110457 A JP2020110457 A JP 2020110457A JP 2022007458 A JP2022007458 A JP 2022007458A
Authority
JP
Japan
Prior art keywords
display
content
input
display object
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020110457A
Other languages
English (en)
Inventor
博 大久保
Hiroshi Okubo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Bandai Namco Research Inc
Original Assignee
Bandai Namco Entertainment Inc
Bandai Namco Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc, Bandai Namco Research Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2020110457A priority Critical patent/JP2022007458A/ja
Priority to PCT/JP2021/024198 priority patent/WO2021261587A1/ja
Publication of JP2022007458A publication Critical patent/JP2022007458A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Abstract

Figure 2022007458000001
【課題】表示装置と端末装置を用いたインタラクティブなエンターテインメントシステム等の提供。
【解決手段】エンターテインメントシステムは、認識用表示物の認識処理を行う認識処理部と、認識処理の結果に基づいて、表示装置で表示される第1コンテンツに対して端末装置の表示部で表示される第2コンテンツを付加したコンテンツをユーザに視認させる処理を行うコンテンツ処理部と、受け付け部を含む。コンテンツ処理部は、入力用表示物を端末装置の表示部に表示する処理を行い、受け付け部は、入力用表示物に対するユーザの前記応答入力を受け付ける。コンテンツ処理部は、入力用表示物に対するユーザの応答入力に応じて、表示装置での第1コンテンツ又は端末装置での第2コンテンツを変化させる。
【選択図】図7

Description

本発明は、エンターテインメントシステム及びプログラム等に関する。
従来より、AR(拡張現実)やMR(複合現実)などを利用したエンターテインメントシステムが知られている。このようなエンターテインメントシステムの従来技術としては特許文献1に開示されるシステムがある。特許文献1のシステムでは、表示装置に表示された演出画像等のコンテンツとマーカーとを、端末装置で撮像すると、表示装置のコンテンツに対して所定の表示物が合成されて端末装置の表示部に表示される。
特開2011-258120号公報
しかしながら、特許文献1のシステムでは、表示装置のコンテンツに対して、ARの手法を用いて、飛び出して見えるような表示物を重ねて表示しているだけであり、ARによる表示物に対してユーザが入力を行うことについては提案されていなかった。このため、表示装置と端末装置を用いたインタラクティブなエンターテインメントシステムを実現できなかった。
本開示によれば、表示装置と端末装置を用いたインタラクティブなエンターテインメントシステム及びプログラム等を提供できる。
本開示の一態様は、表示装置とユーザの端末装置を用いたエンターテインメントシステムであって、前記表示装置が表示する認識用表示物の認識処理を行う認識処理部と、前記認識処理の結果に基づいて、前記表示装置で表示される第1コンテンツに対して前記端末装置の表示部で表示される第2コンテンツを付加したコンテンツを前記ユーザに視認させる処理を行うコンテンツ処理部と、前記ユーザの入力を受け付ける受け付け部と、を含み、前記コンテンツ処理部は、前記ユーザが応答入力を行うための入力用表示物を、前記端末装置の前記表示部に表示する処理を行い、前記受け付け部は、前記入力用表示物に対する前記ユーザの前記応答入力を受け付け、前記コンテンツ処理部は、前記入力用表示物に対する前記ユーザの前記応答入力に応じて、前記表示装置での前記第1コンテンツ又は前記端末装置での前記第2コンテンツを変化させるエンターテインメントシステムに関係する。また本開示の一態様は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
本開示の一態様によれば、ユーザが応答入力を行うための入力用表示物が表示され、入力用表示物に対するユーザの応答入力に応じて、表示装置での第1コンテンツが変化したり、或いは端末装置での第2コンテンツが変化するようになる。そして、このように入力用表示物に対するユーザの応答入力に応じて第1コンテンツ又は第2コンテンツを変化させながら、第1コンテンツと第2コンテンツによるコンテンツを、ユーザに視認させることが可能になる。従って、入力用表示物に対するユーザの応答入力に応じて、第1コンテンツ又は第2コンテンツがインタラクティブに変化するようになり、表示装置とユーザの端末装置を用いたインタラクティブなエンターテインメントシステム等の実現が可能になる。
また本開示の一態様では、前記コンテンツ処理部は、前記表示装置での表示状況に応じて、前記入力用表示物の表示態様、前記入力用表示物の配置位置、及び前記入力用表示物に対する前記応答入力の入力条件の少なくとも1つを変化させてもよい。
このようにすれば、表示装置での表示状況に応じた適切な表示態様で入力用表示物を表示したり、表示装置での表示状況に応じた適切な配置位置に入力用表示物を配置したり、或いは表示装置での表示状況に応じた適切な入力条件での応答入力が可能になる。
また本開示の一態様では、前記表示装置と前記端末装置の位置関係を検出する位置関係検出部を含み、前記コンテンツ処理部は、前記位置関係に応じて、前記入力用表示物の表示態様、前記入力用表示物の配置位置、及び前記入力用表示物に対する前記応答入力の入力条件の少なくとも1つを変化させてもよい。
このようにすれば、表示装置と端末装置の位置関係に応じた適切な表示態様で入力用表示物を表示したり、当該位置関係に応じた適切な配置位置に入力用表示物を配置したり、或いは当該位置関係に応じた適切な入力条件での応答入力が可能になる。
また本開示の一態様では、前記コンテンツ処理部は、前記表示装置の表示物が選択された場合に、選択された前記表示物の情報に応じて、前記入力用表示物の表示態様、前記入力用表示物の配置位置、及び前記入力用表示物に対する前記応答入力の入力条件の少なくとも1つを変化させてもよい。
このようにすれば、表示装置の表示物が選択された場合に、選択された表示物の情報に応じた適切な表示態様で入力用表示物を表示したり、当該表示物の情報に応じた適切な配置位置に入力用表示物を配置したり、或いは当該表示物の情報に応じた適切な入力条件での応答入力が可能になる。
また本開示の一態様では、前記コンテンツ処理部は、前記表示装置に表示される前記認識用表示物を変化させる処理を行ってもよい。
このようにすれば、認識用表示物の認識処理の結果に基づいて種々の処理を実行できるようになるため、第1コンテンツに第2コンテンツを付加した多様なコンテンツをユーザに提供できるようになる。
また本開示の一態様では、前記コンテンツ処理部は、前記表示装置での表示状況に応じて、前記表示装置に表示される前記認識用表示物を変化させてもよい。
このようにすれば、表示装置での表示状況に応じた表示態様等で認識用表示物を表示できるようになり、認識用表示物の適切な認識処理等を実現することが可能になる。
また本開示の一態様では、前記コンテンツ処理部は、前記端末装置での前記ユーザの入力に応じたフィードバックを、前記表示装置での前記第1コンテンツ又は前記端末装置での前記第2コンテンツに対して行ってもよい。
このようにすれば、端末装置でのユーザの入力を第1コンテンツ又は第2コンテンツに反映させて、第1コンテンツに第2コンテンツが付加されたコンテンツを、ユーザに視認させることが可能になる。
また本開示の一態様では、前記コンテンツ処理部は、前記ユーザの入力に応じた前記フィードバックを、前記端末装置の前記表示部に表示される前記入力用表示物に対して行ってもよい。
このようにすれば、端末装置でのユーザの入力に応じて、入力用表示物の表示態様等を変化させることが可能になり、ユーザの入力に応じた多様な表示態様の入力用表示物の表示が可能になる。
また本開示の一態様では、前記コンテンツ処理部は、前記入力用表示物に対する前記ユーザの前記応答入力が受け付けられたことを示す前記フィードバックを、前記第1コンテンツ又は前記第2コンテンツに対して行ってもよい。
このようにすれば入力用表示物に対するユーザの応答入力が行われたことを、第1コンテンツ又は第2コンテンツに反映して、ユーザに認識させることが可能になる。
また本開示の一態様では、複数の前記端末装置における前記応答入力の集計処理を行う集計処理部を含み、前記コンテンツ処理部は、前記応答入力の前記集計処理の結果に基づいて、前記第1コンテンツ又は前記第2コンテンツを変化させてもよい。
このようにすれば、複数の端末装置での応答入力の集計処理の結果に応じた第1コンテンツ又は第2コンテンツを表示できるようになる。
また本開示の一態様では、前記コンテンツ処理部は、前記第2コンテンツとして、前記端末装置の位置に対応して設定される仮想空間に配置される表示物を、前記端末装置の前記表示部に表示する処理を行ってもよい。
このようにすれば、端末装置の位置に対応するように仮想空間を設定し、当該仮想空間に配置される表示物を、第2コンテンツの表示物として、第1コンテンツに付加してユーザに視認させることが可能になる。
また本開示の一態様では、前記コンテンツ処理部は、前記表示装置での前記第1コンテンツに連動して、前記端末装置での前記表示物を変化させてもよい。
このようにすれば表示装置での第1コンテンツに連動して、端末装置での第2コンテンツも変化し、これらの連動した第1コンテンツと第2コンテンツによるコンテンツを、ユーザに視認させることが可能になる。
本実施形態のエンターテインメントシステムのシステム構成例。 表示装置の第1コンテンツに対して端末装置の第2コンテンツを付加する手法の詳細な説明図。 表示装置の第1コンテンツに対して端末装置の第2コンテンツを付加する手法の説明図。 端末装置である透過型のHMDの一例を示す図。 本実施形態のエンターテインメントシステムの構成例を示すブロック図。 図6(A)、図6(B)は本実施形態のエンターテインメントシステムのハードウェアの実現構成例を示す図。 本実施形態の処理例を説明するフローチャート。 表示装置の表示状況等に応じて入力用表示物の表示態様等や認識用表示物を変化させる処理を説明するフローチャート。 図9(A)、図9(B)は表示装置と端末装置の位置関係の検出や表示装置での表示物の選択についての説明図。 図10(A)、図10(B)、図10(C)は入力用表示物の表示態様、配置位置、入力条件を変化させる手法の説明図。 端末装置でのユーザの入力に応じたフィードバックを表示装置での第1コンテンツ又は端末装置での第2コンテンツに対して行う処理を説明するフローチャート。 図12(A)、図12(B)はユーザの入力に応じたフィードバックを端末装置での第2コンテンツに対して行う手法の説明図。 ユーザの入力に応じたフィードバックを表示装置での第1コンテンツに対して行う手法の説明図。 ユーザの応答入力に応じたフィードバックを入力用表示物に対して行う処理を説明するフローチャート。 ユーザの応答入力の集計処理の結果に基づいて、表示装置での第1コンテンツ等を変化させる手法の説明図。 認識処理の結果に基づいて、端末装置に設定される仮想空間に配置される表示物を表示する処理を説明するフローチャート。 認識処理の結果に基づいて、端末装置に設定される仮想空間に配置される表示物を表示する手法の説明図。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲の記載内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、必須構成要件であるとは限らない。
1.エンターテインメントシステム
図1に本実施形態のエンターテインメントのシステム構成例を示す。本実施形態のエンターテインメントは、表示装置10とユーザの端末装置20を用いて実現される。表示装置10は、例えばメインの表示装置である。具体的には表示装置10は、PC(パーソナルコンピュータ)などの情報処理装置のモニター(ディスプレイ)や、テレビのモニターや、或いはライブやクラブの会場に設置される大型のモニターなどである。端末装置20は、ユーザが所持する携帯型の端末装置や、或いはユーザが頭部等の部位に装着するウェアラブル型の端末装置などである。
図1に示すように表示装置10には第1コンテンツCT1が表示される。第1コンテンツCT1は例えばユーザが視認できる配信動画、ゲーム映像、環境映像、観光映像又はシミュレーション映像などの視覚コンテンツである。第1コンテンツCT1は音楽、ゲーム音、環境音又は音声などの聴覚コンテンツを含んでもよい。図1では、第1コンテンツCT1として、キャラクタCHがDJのパフォーマンスを行う様子を示す映像(配信動画、ゲーム映像)が表示装置10に表示されている。また表示装置10には、認識用表示物MKも表示されている。認識用表示物MKは、認識処理における認識対象物であり、例えば認識用のマーカーなどにより実現できる。なお認識用表示物MKを、表示装置10に表示される第1コンテンツCT1の画像により実現してもよい。例えば第1コンテンツCT1の背景画像、キャラクタCH等の表示物の画像、又は第1コンテンツCT1の表示パターンなどを用いて、認識用表示物MKを実現してもよい。
端末装置20の表示部30には第2コンテンツCT2が表示される。例えば図1では、第2コンテンツCT2としてエフェクト用(演出効果用)の表示物OB(オブジェクト)が表示されている。即ち第1コンテンツCT1の映像再生に連動するように位置や方向が変化するエフェクト用の表示物OBが表示される。例えば第1コンテンツCT1に付加(重畳)されるように、第2コンテンツCT2である表示物OBが表示される。即ち本実施形態では、例えば認識用表示物MKの認識処理が行われる。そして認識処理の結果に基づいて、表示装置10で表示される第1コンテンツCT1に対して、端末装置20の表示部30で表示される第2コンテンツを付加したコンテンツをユーザに視認させる処理が行われる。例えば認識処理により認識用表示物MKが認識されると、AR(Augmented Reality)やMR(Mixed Reality)の処理などにより、第1コンテンツCT1の画像に対して表示物OB等の第2コンテンツの画像が合成されて、端末装置20の表示部30に表示される。具体的には、端末装置20は例えば後述の図5の撮像部162(カメラ)を有しており、端末装置20の背面側(表示部30の裏側)に設けられた撮像部162により、表示装置10の第1コンテンツCT1を撮影する。そして撮影された第1コンテンツCT1の画像に、表示物OBの画像を合成した画像が、端末装置20の表示部30で表示される。このようにすれば、第1コンテンツCT1の画像に対して、エフェクト(演出効果)などの第2コンテンツCT2の画像を付加したコンテンツ画像が表示されるようになるため、第1コンテンツCT1に対してARやMRによる演出効果を施すことが可能になり、演出効果の高いエンターテインメントシステムを実現できるようになる。
なお図1では認識用表示物MKが認識されたときに第1コンテンツCT1に対して表示物OB等の第2コンテンツCT2が付加されるようになっているが、本実施形態はこれに限定されない。例えば端末装置20にジャイロセンサーや加速度センサーなどのモーションセンサーを設ける。そしてこのモーションセンサー等を用いて端末装置20の位置情報や姿勢情報を検出し、検出された位置情報や姿勢情報を用いて、撮像部162が表示装置10の方を向いていない場合にも、第2コンテンツCT2を表示するようにしてもよい。例えば図1において、端末装置20の撮像部162が、表示装置10の方向に向かずに、天井等の方を向いたときにも、エフェクト用の表示物OBを天井等の方向に表示するようにしてもよい。
図2、図3は、表示装置10の第1コンテンツCT1に対して端末装置20の第2コンテンツCT2を付加する手法の説明図である。例えば図2、図3では、第1コンテンツCT1と第2コンテンツCT2の合成画像(ミックス画像、重畳画像、付加画像)が、端末装置20の表示部30に表示されている。具体的には、第1コンテンツCT1から、エフェクトなどを表す表示物OBが四方に広がるように移動するARやMRの画像が表示される。これにより、あたかも第1コンテンツCT1からエフェクトが発生していような感覚をユーザに与えることができ、コンテンツ画像の演出効果を向上できる。
そして本実施形態では、このようなエフェクト用の表示物OBの他に、ユーザが応答入力を行うための入力用表示物DBA、DBB、DBCを端末装置20の表示部30に表示する処理を行う。例えば入力用表示物DBA、DBB、DBCを、例えば第2コンテンツCT2として第1コンテンツCT1に付加する処理を行う。そして入力用表示物DBA、DBB、DBCに対するユーザの応答入力を受け付け、当該応答入力に応じて、表示装置10での第1コンテンツCT1又は端末装置20での第2コンテンツCT2を変化させる。
例えば図2、図3では、表示物DBSにより、DJのキャラクタCHによる次回の演奏曲を決定すること、ユーザに促している。そして入力用表示物DBA、DBBにより、次回の演奏曲の候補が示されており、ユーザは、入力用表示物DBA、DBBのうち、自身が所望する曲に対応する入力用表示物を選択する応答入力(操作)を行う。例えば端末装置20の表示部30がタッチパネル型ディスプレイである場合には、ユーザが入力用表示物DBA、DBBにタッチ操作を行うことで、入力用表示物DBA、DBBを選択する応答入力が行われる。そして、この応答入力に応じて、表示装置10での第1コンテンツCT1が変化する。例えばユーザが入力用表示物DBAを選択した場合には、次回の演奏曲として、入力用表示物DBAに対応する第1曲が選択され、第1曲に対応するDJのパフォーマンスをキャラクタCHが行う第1コンテンツCT1が、表示装置10に表示されるようになる。またユーザが入力用表示物DBBを選択した場合には、次回の演奏曲として、入力用表示物DBBに対応する第2曲が選択され、第2曲に対応するDJのパフォーマンスをキャラクタCHが行う第1コンテンツCT1が、表示装置10に表示されるようになる。なお後述の図15に示すように、複数の端末装置20-1~20-nでのユーザの応答入力の集計処理を行い、集計処理の結果に基づいて、次回の演奏曲を決定して、第1コンテンツCT1を変化させてもよい。即ち、複数の端末装置20-1~20-nのユーザの投票により、次回の演奏曲を決定して、決定された演奏曲に対応するDJのパフォーマンスをキャラクタCHが行う第1コンテンツCT1を、表示装置10に表示する。
また図2、図3では、第2コンテンツCT2を変化させるための入力用表示物DBCが表示されている。そしてユーザが、タッチ操作などにより、入力用表示物DBCを選択する応答入力(操作)が行うと、第2コンテンツCT2が変化する。例えば第2コンテンツCT2が、ユーザの応答入力に応じた内容のコンテンツに変化する。具体的には図2、図3では、ユーザが入力用表示物DBCを選択する応答入力を行うと、第2コンテンツCT2であるエフェクト用の表示物OBの種類、形状、色又はアニメーションパターンなどの表示態様が変化する。例えばユーザが入力用表示物DBCを選択する応答入力を行うごとに、エフェクト用の表示物OBの表示態様を、第1表示態様、第2表示態様、第3表示態様・・・というように変化させてもよい。これにより、ユーザは、第1コンテンツCT1に付加される第2コンテンツCT2の内容を変化させることが可能になり、演出効果の向上を図れる。
なお入力用表示物DBA、DBB、DBCは、3次元座標を有する3次元表示物であってもよいし、2次元表示物であってもよい。また例えばエフェクト用の表示物OBを、入力用表示物として兼用するようにしてもよい。例えば次の演奏曲として第1曲を選択する場合には、ユーザは、第1色(例えば赤)に設定された1又は複数の表示物OBを選択する応答入力を行う。一方、次の演奏曲として第2曲を選択する場合には、ユーザは、第2色(例えば白)に設定された1又は複数の表示物OBを選択する応答入力を行う。
以上のように本実施形態では、ユーザが応答入力を行うための入力用表示物DBA、DBBを表示し、入力用表示物DBA、DBBに対するユーザの応答入力に応じて、表示装置10で表示される第1コンテンツCT1を変化させる。例えば第1コンテンツCT1を、ユーザの応答入力に応じた内容のコンテンツに変化させる。或いは、ユーザが応答入力を行うための入力用表示物DBCを表示し、入力用表示物DBCに対するユーザの応答入力に応じて、端末装置20により表示される第2コンテンツCT2を変化させる。例えば第2コンテンツCT2を、ユーザの応答入力に応じた内容のコンテンツに変化させる。このようにすれば、例えばARやMRの表示物として入力用表示物を表示し、入力用表示物に対するユーザの応答入力に応じて、表示装置10での第1コンテンツCT1を変化させたり、端末装置20での第2コンテンツCT2を変化させることが可能になる。そして、このように入力用表示物に対するユーザの応答入力に応じて変化する第1コンテンツCT1と第2コンテンツCT2がミックスされたコンテンツを、ユーザに表示できるようになる。例えば従来のARやMRの表示物は、演出効果の向上のためにだけ表示されるものであり、ユーザのインタラクティブ性を向上するものではなかった。これに対して本実施形態では、第1コンテンツCT1に付加してユーザに表示される第2コンテンツCT2として、ユーザが応答入力を行うための入力用表示物を表示している。そして、この入力用表示物に対するユーザの応答入力に応じて、第1コンテンツCT1や第2コンテンツCT2がインタラクティブに変化し、エンターテインメントシステムにおけるインタラクティブ性を向上できる。従って、表示装置10とユーザの端末装置20を用いたインタラクティブなエンターテインメントシステムの実現が可能になる。
例えば本実施形態の表示装置10は、ライブ会場の大型のモニター(スクリーン)や、動画配信が行われるPCやテレビのモニターである。そしてユーザが、端末装置20であるスマートフォンなどのカメラ(撮像部)を介してモニターを覗くと、モニターの画面に表示されるコード(QRコード(登録商標)等)や絵や模様を認識用表示物(マーカー)として、画面内空間から画面外に延長した3次元の仮想空間を設定する。そして、この画面外の仮想空間に対して、モニターの画面内のコンテンツと連動したエフェクトを投影して表示する。またモニターの画面内のコンテンツに連動した情報である曲の盛り上がり情報やテンポ情報などを、ネットワーク経由で端末装置20のアプリに送ることで、画面内パフォーマンスと連動したエフェクトを表示できるようになる。例えばリズムに同期してパーティクルのサイズが変化するようなエフェクトを表示できる。従って、単なるエッジ側の表示アプリではなく、ネットワークにより情報連携することで、コンテンツに合った演出が可能となる。また、端末装置20であるスマートフォンから覗いたスクリーンに、入力用表示物となるボタンを設置し、画面内のパフォーマンスに対して、情報を送ることが可能になる。例えば。DJのキャラクタが次にプレイする曲の投票ボタンなどを設置できる。そして、例えばインターネット接続で情報を双方向に送り合うことで、配信コンテンツだけでなく、ライブ会場の演出により、演者とオーディエンスとの間のインタラクションも可能になる。
なお、以上では、端末装置20が図1に示すようなユーザの携帯型の端末装置である場合を例にとり説明したが、本実施形態の端末装置20はこれに限定されない。例えば端末装置20は、ユーザが頭部等の部位に装着するウェアラブル型の端末装置であってもよい。例えば図4は、ウェアラブル型の端末装置の1つである透過型のHMD200(頭部装着型表示装置)の例である。具体的には図4のHMD200は光学透過型のHMDの例である。
図4のHMD200はテンプル部240とゴーグル部242を有する。テンプル部240にはスピーカが内蔵されている。ゴーグル部242には表示装置243とホログラフィック光学素子244が設けられている。例えばこれらの表示装置243、ホログラフィック光学素子244等により、端末装置20の表示部30を実現できる。表示装置243には、マイクロディスプレイ、ミラー、プリズム等により構成される表示ユニットが設けられている。表示装置243には左眼用の表示ユニットと右眼用の表示ユニットが設けられており、これにより立体視が実現される。また左眼用、右眼用の各表示ユニットに一対のマイクロディスプレイを設けることで虚像の位置を可変にできる。
表示装置243からの表示光は、ホログラフィック光学素子244の導光板内部を屈折しながら、ユーザの眼前に導光される。そしてホログラフィック光学素子244により表示光を眼球方向に屈折させて、眼球に表示光を送る。これにより眼前に虚像(ホログラムの再生像)があるように見えるようになる。ホログラフィック光学素子244の導光板はコンバイナーとも呼ばれ、ハーフミラーであるコンバイナーにより、外界の実像と虚像が重なって見えるようになり、ARやMRが実現される。
またゴーグル部242には、RGBカメラ246、デプスカメラ247、環境認識カメラ248、249が設けられている。RGBカメラ246を用いることでユーザの正面方向の撮影が可能になる。デプスカメラ247を用いることで正面方向での奥行き情報を取得できる。なおゴーグル部242にはデプスカメラ用のエミッター(不図示)が設けられている。環境認識カメラ248、249を用いることでユーザの周囲の環境認識が可能になる。またゴーグル部242には、加速度センサーやジャイロセンサーなどにより構成されるモーションセンサーである慣性計測ユニット(IMU)が内蔵されている。ユーザの頭の位置や向く方向は、ゴーグル部242に設けられたカメラによる撮像画像と慣性計測ユニットからの測定情報などに基づいて検出され、これによりヘッドトラッキングが実現される。そしてユーザの位置情報や方向情報の取得も可能になる。またRGBカメラ246やデプスカメラ247などを用いた処理により、ユーザの周囲に居る他のユーザの位置情報(相対的な位置情報)、方向情報(相対的な方向情報)、或いは姿勢情報を取得できる。例えばキネクト(登録商標)と呼ばれる処理によりこれらの情報を取得する。例えば姿勢情報を取得することで、他のユーザがどのようなアクションを行ったかを検出できるようになる。
図4のHMD200によれば、例えば表示装置243、ホログラフィック光学素子244等により実現される表示部30により、第2コンテンツCT2をユーザに表示できる。即ち第2コンテンツCT2を虚像としてユーザに表示できる。また表示装置10に表示される第1コンテンツCT1については、ホログラフィック光学素子244によるコンバイナーにより、外界の実像としてユーザに視認させることができる。これにより、表示装置10で表示される第1コンテンツに対して第2コンテンツを付加したコンテンツをユーザに視認させる処理を実現できるようになる。なおウェアラブル型の端末装置20は、図4に示すような光学透過型のHMD200には限定されず、例えばビデオ透過型のHMD200などであってもよい。例えばHMD200に設けられた撮像部162により表示装置10の第1コンテンツCT1を撮影する。そして撮影画像に対して第2コンテンツCT2の画像を合成することで、第1コンテンツに対して第2コンテンツを付加したコンテンツをユーザに視認させる処理を実現することができる。
またHMD200を用いる場合に、入力用表示物に対するユーザの応答入力は、例えば不図示のコントローラをユーザが操作することで実現してもよいし、アイトラッキングなどによりユーザの視線が入力用表示物の方を向いていることを検出することで実現してもよい。或いはHMD200に設けられるモーションセンサーによりユーザの頭の動き等を検出することで、入力用表示物に対する応答入力を検出してもよい。
図5は、本実施形態のエンターテインメントシステム(コンテンツ提供システム、処理システム、ゲームシステム)の構成例を示すブロック図である。なお、本実施形態のアミューズメントシステムは図5の構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
操作部160は、ユーザ(プレーヤ)が種々の入力(操作)を行うためのものである。操作部160は、例えば操作ボタン、方向指示キー、キーボード、ジョイスティック、レバー又はタッチパネル型ディスプレイ等により実現できる。例えばタッチパネル型ディスプレイの場合には、表示部30が操作部160としても機能するようになる。
撮像部162(カメラ)は、被写体(撮像対象物)の撮影を行うものである。撮像部162は、例えばCCDやCMOSセンサーなどの画像センサーや、フォーカスレンズ等により構成される光学系などにより実現できる。
記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。プログラムや、プログラムの実行に必要なデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(hard disk drive)、SSD(Solid State Drive)、又は光ディスク装置などにより実現できる。記憶部170は、例えば第1コンテンツや第2コンテンツなどのコンテンツの情報を記憶する。コンテンツの情報は、コンテンツを構成する画像や音の情報などである。コンテンツの画像情報は、例えばコンテンツを構成する表示物の情報などであり、表示物であるオブジェクトの情報などである。
情報記憶媒体180は、コンピュータにより読み取り可能な媒体であり、プログラムやデータなどを格納するものである。情報記憶媒体180は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
表示部30は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、タッチパネル型ディスプレイ、或いはHMD(Head Mounted Display)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ又はヘッドホン等により実現できる。
通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。
なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(或いは記憶部170)に配信してもよい。このようなサーバによる情報記憶媒体の使用も本実施形態の範囲内に含めることができる。
処理部100(プロセッサ)は、記憶部170に記憶されるプログラム、データや、操作部160からの入力情報などに基づいて、受け付け処理、認識処理、検出処理、集計処理、或いはコンテンツ処理などを行う。
処理部100の各部が行う本実施形態の各処理はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
処理部100は、受け付け部102、認識処理部104、位置関係検出部106、集計処理部108、コンテンツ処理部110を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
受け付け部102は、ユーザの入力の受け付け処理を行う。例えば操作部160などを用いてユーザが応答入力などの入力を行うと、受け付け部102は、当該ユーザの入力を受け付ける。例えば受け付け部102は、操作部160を用いたユーザの入力を監視し、ユーザが操作部160を用いた入力を行うと、その入力情報を取得する。
認識処理部104は、認識用表示物の認識処理を行う。例えば図1~図3で説明したように認識処理部104は、表示装置10が表示する認識用表示物の認識処理を行う。認識処理は、認識用表示物の画像を解析して認識する画像認識処理である。認識用表示物は、認識処理の対象物であり、例えばARマーカーなどのマーカーにより実現できる。マーカーは例えばQRコード(登録商標)のマーカーであってもよい。また認識用表示物はARマーカーなどのマーカーには限定されず、マーカーレス型ARのように、特徴点や輪郭形状のマッチング処理により認識される表示物(対象物)であってもよい。即ち、認識用表示物は、正方形マーカーや特殊形状マーカーのようなARマーカーには限定されず、自然特徴点マッチングや輪郭形状マッチングの処理により認識される表示物であってもよい。そして認識用表示物は、例えば第1コンテンツに第2コンテンツを付加してユーザに視認させる処理を実行させるトリガーとなる情報等として使用できる。また認識用表示物は、第2コンテンツとして表示される入力用表示物等の表示物を指定する情報であってもよい。
位置関係検出部106は、表示装置10と端末装置20の位置関係を検出する。例えば位置関係検出部106は、表示装置10に対する端末装置20の相対的な位置関係を検出する。ここで位置関係は、表示装置10の位置と端末装置20の位置の関係であってもよいし、表示装置10の方向(向く方向)と端末装置20の方向(向く方向)の関係であってもよい。例えば位置関係は、表示装置10に対する端末装置20の相対的な方向関係であってもよい。位置関係検出部106は、例えば認識用表示物を用いて表示装置10と端末装置20の位置関係を検出する。例えば表示装置10を撮影した撮影画像(表示部30の表示画面)での認識用表示物の位置、サイズ又は方向などを検出することで、表示装置10と端末装置20の位置関係を検出できる。例えば認識用表示物が所定の配置予定位置に表示されているかを検出することで、表示装置10に対して端末装置20が適切に正対して配置される位置関係にあるかを検出できる。また認識用表示物のサイズに基づいて、表示装置10と端末装置20の距離についての位置関係を検出できる。また認識用表示物の方向に基づいて、表示装置10と端末装置20の方向関係を位置関係として検出できる。また例えば表示装置10と端末装置20の初期の位置関係からの変化を、端末装置20のモーションセンサー等により検出することで、各タイミングでの表示装置10と端末装置20の位置関係を検出できる。
集計処理部108は各種の集計処理を行う。例えば集計処理部108は、複数の端末装置における応答入力の集計処理を行う。例えば集計処理部108は、複数の端末装置においてどのような応答入力が行われたのかを集計する処理を行う。例えば複数の端末装置において、第1応答入力を行ったユーザの人数と第2応答入力を行ったユーザの人数を集計する処理を行う。集計処理は、各応答入力を行ったユーザの人数や端末装置の個数をカウントする集計処理であってもよいし、種々の統計処理による集計処理であってもよい。
コンテンツ処理部110は、種々のコンテンツ処理を行う。コンテンツ処理は、例えば、第1コンテンツや第2コンテンツなどのコンテンツの画像の表示処理や、コンテンツの音の出力処理などのコンテンツに関する種々の処理である。コンテンツの画像の表示処理は、コンテンツの画像を生成して表示する処理には限定されず、コンテンツの画像の表示を指示したり、表示されるコンテンツの画像の内容を指示する処理であってもよい。コンテンツ処理部110は、例えば表示装置10での第1コンテンツの表示処理を行う第1表示処理部と、端末装置20の表示部30での第2コンテンツの表示処理を行う第2表示処理部を含むことができる。
そして表示装置10とユーザの端末装置20を用いた本実施形態のエンターテインメントシステムは、図5に示すように受け付け部102と認識処理部104とコンテンツ処理部110を含む。認識処理部104は、表示装置10が表示する認識用表示物の認識処理を行う。例えば認識用表示物の画像認識処理などを行う。コンテンツ処理部110は、認識処理の結果に基づくコンテンツ処理を行う。例えばコンテンツ処理部110は、認識処理の結果に基づいて、表示装置10で表示される第1コンテンツに対して端末装置20の表示部30で表示される第2コンテンツを付加したコンテンツをユーザに視認させる処理を行う。例えばコンテンツ処理部110は、第1コンテンツに対して第2コンテンツを合成(ミックス)する処理を行う。例えば第1コンテンツの画像と第2コンテンツの画像が合成されたコンテンツ画像をユーザに表示するための処理を行う。また受け付け部102は、ユーザの入力を受け付ける処理を行う。例えば操作部160を用いたユーザの入力を受け付ける処理を行う。
そしてコンテンツ処理部110は、図2、図3等で説明したように、ユーザが応答入力を行うための入力用表示物を、端末装置20の表示部30に表示する処理を行う。例えば端末装置20の表示部30の表示画面の所与の位置に、入力用表示物を表示する処理を行う。そして受け付け部102は、入力用表示物に対するユーザの応答入力を受け付ける処理を行う。例えば入力用表示物が表示部30に表示され、当該入力用表示物を選択するなどの応答入力をユーザが行うと、受け付け部102は、当該ユーザの応答入力を受け付ける。そしてコンテンツ処理部110は、入力用表示物に対するユーザの応答入力に応じて、表示装置10での第1コンテンツ又は端末装置20での第2コンテンツを変化させる。例えばコンテンツ処理部110は、第1コンテンツの表示内容又は表示態様等を変化させたり、或いは第2コンテンツの表示内容又は表示態様等を変化させる処理を行う。例えばコンテンツ処理部110は、ユーザの応答入力に応じた表示内容又は表示態様等で第1コンテンツ又は第2コンテンツを表示する処理を行う。例えばコンテンツ処理部110は、ユーザの応答入力が第1応答入力であるか第2応答入力であるかに応じて、第1コンテンツ又は第2コンテンツの表示内容又は表示態様等を変化させる処理を行う。なお入力用表示物に対するユーザの応答入力に応じて、第1コンテンツ及び第2コンテンツの両方を変化させてもよい。
またコンテンツ処理部110は、表示装置10での表示状況に応じて、入力用表示物の表示態様、入力用表示物の配置位置、及び入力用表示物に対する応答入力の入力条件の少なくとも1つを変化させる処理を行う。例えばコンテンツ処理部110は、表示装置10が第1表示状況である場合には、入力用表示物を第1表示態様で表示したり、入力用表示物を第1配置位置に配置したり、或いは入力用表示物に対する応答入力の入力条件を第1入力条件に設定する。また表示装置10が第2表示状況である場合には、入力用表示物を第2表示態様で表示したり、入力用表示物を第2配置位置に配置したり、或いは入力用表示物に対する応答入力の入力条件を第2入力条件に設定する。
表示装置10の表示状況は、表示装置10の表示物の状況(表示物の種類、配置位置、表示態様)、背景画像の状況、表示画面の状況(画面の明るさ、色合い)、表示場面の状況、マーカー等の認識用表示物の状況、表示時間の状況、又は表示タイミングの状況などである。入力用表示物の表示態様は、入力用表示物の色、形状、大きさ、明るさ、透明度(不透明度)、テクスチャ、又は表示時間などである。入力用表示物の配置位置は、表示部30の表示画面での入力用表示物の位置又は方向などである。入力用表示物に対する応答入力の入力条件は、応答入力についての入力時間、入力方法、入力タイミング、或いはタッチパネル型ディスプレイでの押圧力やタッチ範囲などについての条件(設定)である。
またエンターテインメントシステムは、表示装置10と端末装置20の位置関係(方向関係を含む)を検出する位置関係検出部106を含む。そしてコンテンツ処理部110は、検出された位置関係に応じて、入力用表示物の表示態様、入力用表示物の配置位置、及び入力用表示物に対する応答入力の入力条件の少なくとも1つを変化させる処理を行う。例えばコンテンツ処理部110は、表示装置10と端末装置20が第1位置関係である場合には、入力用表示物を第1表示態様で表示したり、入力用表示物を第1配置位置に配置したり、或いは入力用表示物に対する応答入力の入力条件を第1入力条件に設定する。また表示装置10と端末装置20が第2位置関係である場合には、入力用表示物を第2表示態様で表示したり、入力用表示物を第2配置位置に配置したり、或いは入力用表示物に対する応答入力の入力条件を第2入力条件に設定する。
またコンテンツ処理部110は、表示装置10の表示物が選択された場合に、選択された表示物の情報に応じて、入力用表示物の表示態様、入力用表示物の配置位置、及び入力用表示物に対する応答入力の入力条件の少なくとも1つを変化させる処理を行う。表示物の情報は、表示物の種類、形状、色、大きさ、明るさ、透明度(不透明度)、テクスチャ又は表示時間などの情報である。例えばユーザによる入力や、ユーザの注視位置などにより、表示装置10のキャラクタ等の表示物(オブジェクト)が選択されたとする。この場合には、コンテンツ処理部110は、選択された表示物の情報に応じて、入力用表示物の表示態様、配置位置、又は応答入力の入力条件を変化させる。例えばコンテンツ処理部110は、選択された表示物が、第1種類、第1形状、第1色、第1サイズ、第1明度、第1透明度又は第1テクスチャの表示物である場合には、入力用表示物を第1表示態様で表示したり、入力用表示物を第1配置位置に配置したり、或いは入力用表示物に対する応答入力の入力条件を第1入力条件に設定する。またコンテンツ処理部110は、選択された表示物が、第2種類、第2形状、第2色、第2サイズ、第2明度、第2透明度又は第2テクスチャの表示物である場合には、入力用表示物を第2表示態様で表示したり、入力用表示物を第2配置位置に配置したり、或いは入力用表示物に対する応答入力の入力条件を第2入力条件に設定する。
またコンテンツ処理部110は、表示装置10に表示される認識用表示物を変化させる処理を行う。例えば第1コンテンツが表示される表示装置10において1つの認識用表示物だけを表示するのではなく、認識用表示物を随時に更新して変化させる。例えばコンテンツ処理部110は、経過時間に応じて認識用表示物を変化させたり、イベントの発生タイミングやコンテンツの進行タイミングなどの所与のタイミングにおいて認識用表示物を変化させたり、或いは所与の更新条件が満たされた場合に認識用表示物を更新して変化させる。
またコンテンツ処理部110は、表示装置10での表示状況に応じて、表示装置10に表示される認識用表示物を変化させる。表示装置10の表示状況は、表示装置10の表示物の状況、背景画像の状況、表示画面の状況、表示場面の状況、表示時間の状況、又は表示タイミングの状況などである。例えばコンテンツ処理部110は、表示装置10が第1表示状況である場合には、第1種類、第1形状、第1色、第1サイズ、第1明度、第1透明度、又は第1テクスチャの認識用表示物を表示装置10に表示する。またコンテンツ処理部110は、表示装置10が第2表示状況である場合には、第2種類、第2形状、第2色、第2サイズ、第2明度、第2透明度、又は第2テクスチャの認識用表示物を表示装置10に表示する。
またコンテンツ処理部110は、端末装置20でのユーザの入力に応じたフィードバックを、表示装置10での第1コンテンツ又は端末装置20での第2コンテンツに対して行う。端末装置20でのユーザの入力は、入力用表示物に対応するユーザの応答入力であってもよいし、当該応答入力以外の入力であってもよい。ユーザの入力に応じた第1コンテンツへのフィードバックは、第1コンテンツの表示物に対するフィードバックや、第1コンテンツの表示内容又は表示態様に対するフィードバックなどである。第1コンテンツの表示物に対するフィードバックは、第1コンテンツの表示物の色、形状、大きさ、明るさ、透明度、テクスチャ、表示時間、又は種類などを変化させるフィードバックである。第1コンテンツの表示内容又は表示態様に対するフィードバックは、第1コンテンツの表示内容又は表示態様を変化させるフィードバックである。同様に、ユーザの入力に応じた第2コンテンツへのフィードバックは、第2コンテンツの表示物に対するフィードバックや、第2コンテンツの表示内容又は表示態様に対するフィードバックなどである。第2コンテンツの表示物に対するフィードバックは、第2コンテンツの表示物の色、形状、大きさ、明るさ、透明度、テクスチャ、表示時間、又は種類などを変化させるフィードバックである。第2コンテンツの表示内容又は表示態様に対するフィードバックは、第2コンテンツの表示内容又は表示態様を変化させるフィードバックである。
例えばコンテンツ処理部110は、ユーザの入力に応じたフィードバックを、端末装置20の表示部30に表示される入力用表示物に対して行う。例えばユーザの入力に応じて、入力用表示物の色、形状、大きさ、明るさ、透明度、テクスチャ、表示時間、又は種類などを変化させるフィードバックを行う。例えばユーザが第1入力を行った場合には、コンテンツ処理部110は、入力用表示物を第1色、第1形状、第1サイズ、第1明度、第1透明度、第1テクスチャ、第1表示時間、又は第1種類に設定するフィードバックを行う。またユーザが第2入力を行った場合には、コンテンツ処理部110は、入力用表示物を第2色、第2形状、第2サイズ、第2明度、第2透明度、第2テクスチャ、第2表示時間、又は第2種類に設定するフィードバックを行う。
またコンテンツ処理部110は、入力用表示物に対するユーザの応答入力が受け付けられたことを示すフィードバックを、第1コンテンツ又は第2コンテンツに対して行う。例えば応答入力が適切に受け付けられたことをユーザに知らせるためのフィードバックを、第1コンテンツ又は第2コンテンツに対して行う。例えば入力用表示物に対するユーザの応答入力が受け付けられたことを、表示装置10に表示される第1コンテンツにより、ユーザに報知したり、ユーザに視覚的に認識させる。例えば複数のユーザの応答入力による投票結果を、表示装置10の第1コンテンツによりユーザに表示してもよい。或いは、入力用表示物に対するユーザの応答入力が受け付けられたことを、端末装置20に表示される第2コンテンツにより、ユーザに報知したり、ユーザに視覚的に認識させる。例えばユーザの応答入力が受け付けられた場合に、第2コンテンツにおける入力用表示物などの表示物の色、形状、大きさ、明るさ、透明度、テクスチャ、又は表示時間を制御して、ユーザの応答入力が受け付けられたことをユーザに知らせる。
またエンターテインメントシステムは、複数の端末装置における応答入力の集計処理を行う集計処理部108を含む。そしてコンテンツ処理部110は、応答入力の集計処理の結果に基づいて、第1コンテンツ又は第2コンテンツを変化させる。例えばコンテンツ処理部110は、応答入力の集計処理の結果に応じた表示内容又は表示態様の第1コンテンツを、表示装置10に表示したり、応答入力の集計処理の結果に応じた表示内容又は表示態様の第2コンテンツを、端末装置20の表示部30に表示する処理を行う。例えばコンテンツ処理部110は、集計処理の結果を知らせる表示物を、表示装置10の第1コンテンツとして表示したり、端末装置20の第2コンテンツとして表示する処理を行う。
またコンテンツ処理部110は、第2コンテンツとして、端末装置20の位置に対応して設定される仮想空間に配置される表示物を、端末装置20の表示部30に表示する処理を行う。例えばコンテンツ処理部110は、端末装置20の位置に対応するように仮想空間を設定する。例えば端末装置20の位置に、仮想空間における仮想カメラ(視点)を設定する。これにより、仮想カメラの位置の窓から表示装置10を覗いているような仮想空間画像を生成できる。そしてコンテンツ処理部110は、このように設定された仮想空間に配置される表示物を、端末装置20の表示部30に表示する処理を行う。例えばコンテンツ処理部110は、端末装置20の位置に設定された仮想カメラから見える仮想空間画像として、当該表示物が仮想空間に配置される仮想空間画像の生成処理を行う。そしてコンテンツ処理部110は、第1コンテンツの画像と、第2コンテンツの画像である仮想空間画像とが合成(ミックス)された画像を、端末装置20の表示部30に表示する処理を行う。
またコンテンツ処理部110は、表示装置10での第1コンテンツに連動して、端末装置20での表示物を変化させる処理を行う。例えば表示装置10での第1コンテンツの画像又は音が変化すると、それに連動して、端末装置20の表示部30に表示される表示物の表示内容又は表示態様を変化させる処理を行う。例えば第1コンテンツの提示処理に使用されるパラメータ(テンポ、盛り上がりなどを表すパラメータ)を用いて、端末装置20での表示物の表示制御を行うことなどで、第1コンテンツに連動して端末装置20での表示物を変化させる処理を実現できる。
図6(A)、図6(B)に、本実施形態のエンターテインメントシステムのハードウェアの実現構成例を示す。図6(A)では、端末装置20、サーバ50、情報処理装置40が、インターネット等により実現されるネットワーク60を介して通信接続されている。そして図6(A)では、本実施形態のエンターテインメントシステムは、端末装置20の処理により実現したり、端末装置20と、情報処理装置40やサーバ50の分散処理により実現できる。情報処理装置40は、例えばデスクトップ型のPCやノート型のPCなどである。サーバ50は、エンターテインメントシステムの運営者が運営するサーバであり、例えばエンターテインメントシステムの各種の管理処理や、前述した応答入力の集計処理などを行う。また表示装置10での第1コンテンツの表示処理は、例えば表示装置10に接続される情報処理装置40により実現でき、第2コンテンツの表示処理は端末装置20により実現できる。例えば図6(A)の構成では、表示装置10に表示される認識用表示物が、端末装置20の認識処理により認識されると、認識用表示物に対応するプログラムが、サーバ50により端末装置20に提供される。そして端末装置20は、当該プログラムに基づいて動作して、第2コンテンツの生成処理や、第1コンテンツに第2コンテンツを付加して表示する処理を実行する。一方、図6(B)では、ゲーム装置70が表示装置10への第1コンテンツの表示処理を行うと共に、ゲーム装置70は端末装置20に無線又は有線で通信接続される。ゲーム装置70は、例えば家庭用や業務用の据え置き型のゲーム装置である。端末装置20は、例えば携帯型のゲーム装置や、スマートフォン等の携帯型の通信端末装置である。そして第2コンテンツの生成処理や、第1コンテンツに第2コンテンツを付加して表示する処理は、例えば端末装置20の処理により実現したり、端末装置20とゲーム装置70の分散処理により実現できる。
2.本実施形態の処理
次に本実施形態の種々の処理について詳細に説明する。
2.1 入力用表示物に対する応答入力に応じた処理
図7は本実施形態のエンターテインメントシステムの処理例を説明するフローチャートである。まず表示装置10が表示する認識用表示物の認識処理が行われる(ステップS1)。例えば図1に示すように表示装置10が認識用表示物MKを表示し、端末装置20が、撮像部162により認識用表示物MKを撮影し、撮影画像に映る認識用表示物MKの画像の認識処理を行う。そして認識処理の結果に基づいて、表示装置10が表示する第1コンテンツに対して端末装置20が表示する第2コンテンツを付加したコンテンツをユーザに視認させる処理が実行される(ステップS2)。例えば図2、図3に示すように、端末装置20が、例えば撮像部162の撮影画像に映る第1コンテンツCT1の画像に対して、エフェクト用の表示物OBや入力用表示物DBA、DBB、DBCなどの第2コンテンツCT2の画像を合成(ミックス、重畳)する処理を行う。そして第1コンテンツCT1の画像に対して第2コンテンツCT2の画像が付加されたコンテンツの画像を表示部30に表示する処理を行う。
次に端末装置20の表示部30に表示される入力用表示物に対して、ユーザが応答入力を行ったか否かが判断され、応答入力を行った場合には当該応答入力が受け付けられる(ステップS3、S4)。例えば端末装置20が、図2、図3に示す入力用表示物DBA、DBB、DBCを選択する応答入力をユーザが行った否かを判断し、応答入力が行われた場合にはその応答入力を受け付ける。そして入力用表示物に対するユーザの応答入力に応じて、表示装置10での第1コンテンツ又は端末装置20での第2コンテンツを変化させる処理が行われる(ステップS5)。例えばユーザが図2、図3の入力用表示物DBA、DBBに対する応答入力を行うと、表示装置10に表示される第1コンテンツCT1が変化する。具体的にはユーザが入力用表示物DBA、DBBのいずれかを選択することで、DJのキャラクタCHによる次回の演奏曲が決定される。例えばユーザが入力用表示物DBAを選択した場合には、入力用表示物DBAに対応する曲のDJのパフォーマンスをキャラクタCHが行う第1コンテンツCT1が、表示装置10に表示されるようになる。またユーザが入力用表示物DBBを選択した場合には、入力用表示物DBBに対応する曲のDJのパフォーマンスをキャラクタCHが行う第1コンテンツCT1が、表示装置10に表示されるようになる。またユーザが図2、図3の入力用表示物DBCに対する応答入力を行うと、端末装置20が表示する第2コンテンツCT2が変化する。例えばユーザが入力用表示物DBCを選択する応答入力を行うと、第2コンテンツCT2であるエフェクト用の表示物OBの種類、形状、色又はアニメーションパターンなどの表示態様が変化する。
以上のように本実施形態によれば、ARやMRの表示物として入力用表示物が表示され、入力用表示物に対するユーザの応答入力に応じて、表示装置10での第1コンテンツCT1が変化したり、端末装置20での第2コンテンツCT2が変化するようになる。そして、このように入力用表示物に対するユーザの応答入力に応じて第1コンテンツCT1又は第2コンテンツCT2(CT1及びCT2の少なくとも一方)を変化させながら、第1コンテンツCT1と第2コンテンツCT2がミックされたコンテンツを、ユーザに視認させることが可能になる。従って、入力用表示物に対するユーザの応答入力に応じて、第1コンテンツCT1又は第2コンテンツCT2がインタラクティブに変化するようになり、表示装置10とユーザの端末装置20を用いたインタラクティブなエンターテインメントシステムの実現が可能になる。
2.2 表示状況、位置関係、表示物の情報に応じた処理
本実施形態では、表示装置10での表示状況、表示装置10と端末装置20の位置関係、又は表示装置10において選択された表示物の情報に応じて、入力用表示物の表示態様、入力用表示物の配置位置、又は入力用表示物に対する応答入力の入力条件を変化させる。また本実施形態では、表示装置10に表示される認識用表示物を変化させる処理を行う。例えば表示装置10での表示状況に応じて、認識用表示物を変化させる。図8は、このように表示装置10の表示状況等に応じて入力用表示物の表示態様等や認識用表示物を変化させる処理を説明するフローチャートである。
まず本実施形態のエンターテインメントシステムは、表示装置10での表示状況を取得する(ステップS11)。例えば表示装置10の表示物の状況、背景画像の状況、表示画面の状況、表示場面の状況、認識用表示物の状況、表示時間の状況、又は表示タイミングの状況などを取得する。また表示装置10と端末装置20の位置関係を検出する(ステップS12)。例えば図9(A)に示すように、表示装置10に対する端末装置20の相対的な位置関係を取得する。この位置関係は表示装置10の方向に対する端末装置20の相対的な方向関係を含むことができる。例えば図1において端末装置20の表示部30(撮影画像)に映る認識用表示物MKの位置、サイズ又は方向(パースペクティブ)などを検出することで、表示装置10と端末装置20の位置関係を検出できる。或いは端末装置20に設けられるモーションセンサーにより位置関係を検出したり、表示装置10に設けられる撮像センサーなどのセンサーデバイスを用いて位置関係を検出したり、或いは端末装置20、表示装置10と別体に設けられた計測装置を用いて位置関係を検出してもよい。また表示装置10において選択された表示物の情報を取得する(ステップS13)。例えば図10(B)では、表示装置10において、表示物であるキャラクタCHEが選択されている。例えばユーザがキャラクタCHEを選択する入力操作を行ったり、ユーザがキャラクタCHEを注視するようにキャラクタCHに視線を向けた場合に、この入力操作やユーザの視線の方向を検出することで、キャラクタCHEが選択されたことを検出できる。そしてキャラクタCHEの情報である表示物の情報として、表示物の種類、形状、色、大きさ、明るさ、透明度、テクスチャ、又は表示時間などの情報を取得する。
次に、表示状況、位置関係又は選択された表示物の情報に応じて、入力用表示物の表示態様、配置位置、又は応答入力の入力条件を変化させる(ステップS14)。即ちステップS11で取得された表示装置10の表示状況、ステップS12で検出された表示装置10と端末装置20の位置関係、或いはステップS13で取得された表示物の情報に応じて、入力用表示物の表示態様、配置位置、又は応答入力の入力条件を変化させる。具体的には、入力用表示物の色、形状、大きさ、明るさ、透明度、テクスチャ又は表示時間などの表示態様を変化させる。或いは、入力用表示物の配置位置として、表示部30の表示画面での入力用表示物の位置又は方向などを変化させる。或いは、入力用表示物に対する応答入力についての入力時間、入力方法、入力タイミング、又はタッチパネル型ディスプレイでの押圧力やタッチ範囲などの入力条件を変化させる。また表示装置10での表示状況に応じて、表示装置10に表示される認識用表示物を変化させる(ステップS15)。
例えば図10(A)では、ユーザが「YES」、「NO」を選択するための入力用表示物DBY、DBNが表示されている。そして図10(A)では、表示装置10の表示状況、表示装置10と端末装置20の位置関係、又は選択された表示物の情報に応じて、入力用表示物DBY、DBNの色、形状、大きさ、明るさ、透明度、テクスチャ又は表示時間等の表示態様を変化させる。
例えば表示装置10の表示物の状況、背景画像の状況、又は画面の明るさや色合いなどの表示画面の状況などの表示状況に応じて、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などの表示態様を変化させる。例えば表示装置10のキャラクタ等の表示物の色、形状、大きさ又は種類に応じて、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などを調整する。例えば当該表示物の色、形状、大きさ又は種類等に対して、例えば入力用表示物DBY、DBNがユーザに認識しやすくなるように、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などを調整する。また表示装置10での背景画像の状況や、表示画面の明るさや色合いなどの表示画面の状況に応じて、例えば入力用表示物DBY、DBNがユーザに認識しやすくなるように、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などを調整する。同様に、表示装置10と端末装置20の位置関係に応じて、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などを調整する。例えば表示装置10と端末装置20の距離が離れた位置関係にある場合には、入力用表示物DBY、DBNの色や形状を目立つ色や形状にしたり、入力用表示物DBY、DBNのサイズを大きくしたり、明るくしたり、より不透明にすることで、ユーザが入力用表示物DBY、DBNを認識しやすくなるようにする。また、図9(B)のようにユーザにより選択されたキャラクタCHE等の表示物の情報に応じて、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などを調整する。例えば、ユーザにより選択された表示物の色、形状、大きさ又は透明度などに応じて、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などを調整する。例えば入力用表示物DBY、DBNを、選択された表示物の色、形状、大きさ又は透明度に対応する色、形状、大きさ又は透明度に設定する。
また図10(B)に示すように、表示装置10の表示状況、表示装置10と端末装置20の位置関係、又は選択された表示物の情報に応じて、入力用表示物DBY、DBNの配置位置を変化させる。例えば図10(B)に示すように、表示装置10に表示される第1コンテンツCT1の表示物を避ける位置に、入力用表示物DBY、DBNを配置(表示)する。このようにすれば、入力用表示物DBY、DBNが原因で、第1コンテンツCT1の表示物が見えにくくなってしまうなどの事態を防止できる。或いは表示装置10に表示される背景画像の領域に、入力用表示物DBY、DBNを配置する。このようにすれば、背景画像の領域を有効利用して、入力用表示物DBY、DBNを表示できるようになる。また表示装置10と端末装置20の距離が近くなる位置関係になった場合には、端末装置20の表示部30において拡大する第1コンテンツCT1の領域に応じた位置に、入力用表示物DBY、DBNを配置する。例えば第1コンテンツCT1の主要な表示領域(第1コンテンツCT1の主要な表示物が表示される領域)を避ける位置に、入力用表示物DBY、DBNを配置する。このようにすれば、表示装置10と端末装置20の位置関係に応じた適切な位置に、入力用表示物DBY、DBNを表示できるようになる。また図9(B)に示すように、キャラクタCHE等の表示物がユーザにより選択された場合に、選択された表示物を避ける位置に、入力用表示物DBY、DBNを配置する。このようにすれば、入力用表示物DBY、DBNが原因で、ユーザが選択した表示物が見えにくくなってしまうなどの事態を防止できる。
また図10(C)に示すように、表示装置10の表示状況、表示装置10と端末装置20の位置関係、又は選択された表示物の情報に応じて、入力用表示物DBY、DBNに対する応答入力の入力条件を変化させる。例えば入力用表示物DBY、DBNに対する応答入力についての入力時間、入力方法、入力タイミング、又は押圧力やタッチ範囲などの入力条件を変化させる。例えば表示装置10での第1コンテンツCT1の表示領域が大きかったり、表示装置10と端末装置20の距離が近くなる位置関係になることで、第1コンテンツCT1の主要な表示領域が拡大したとする。この場合には、例えば入力用表示物DBY、DBNは、第1コンテンツCT1の主要な表示領域を避けるように、表示部30の表示画面の端領域に、例えば小さなサイズで表示される。そして入力用表示物DBY、DBNが、表示画面の端領域において小さなサイズで表示されると、入力用表示物DBY、DBNを選択する応答入力の操作が難しくなる。そこで、このような場合には、応答入力の入力条件である入力時間を短くして、短い入力時間で、入力用表示物DBY、DBNを選択できるようにする。或いは応答入力の入力条件であるタッチパネル型ディスプレイにおける押圧力を小さくして、小さな押圧力のタッチ操作で、入力用表示物DBY、DBNを選択できるようにする。或いはタッチパネル型ディスプレイにおけるタッチ範囲(タッチ操作の検出範囲)を広くして、タッチ操作による入力用表示物DBY、DBNの選択をし易くする。或いは、入力用表示物DBY、DBNの入力方法を、その選択が容易になる入力方法に変更したり、入力用表示物DBY、DBNの入力タイミングを、その選択が容易になる入力タイミングに変更する。
また本実施形態では、表示装置10での表示状況に応じて、表示装置10に表示される認識用表示物を変化させる。例えば表示装置10の表示時間、表示物の状況、背景画像の状況、又は表示画面の状況などの表示状況に応じて、認識用表示物の種類、色、形状、大きさ、又は明るさなどを変化させる。例えば表示装置10に第1コンテンツCT1が表示されてからの経過時間である表示時間に応じて、認識用表示物を順次に更新して表示する。例えば第1コンテンツCT1が第1場面である場合には、第1種類の認識用表示物を表示し、第1コンテンツCT1が第2場面である場合には、第2種類の認識用表示物を表示する。また第1コンテンツCT1が第3場面である場合には、第3種類の認識用表示物を表示する。これにより、例えば第1コンテンツCT1の第1場面、第2場面、第3場面に適切な第2コンテンツCT2を、第1種類、第2種類、第3種類の認識用表示物により指定して、指定された第2コンテンツCT2を第1コンテンツCT1に付加して表示できるようになる。或いは表示装置10に表示される第1コンテンツCT1の種類に応じて、認識用表示物の種類を切り替えてもよい。例えば表示装置10に表示される第1コンテンツCT1が動画であるか、静止画であるか、ゲーム画面であるかに応じて、認識用表示物の種類を切り替えてもよい。或いは、表示装置10の表示物の状況、背景画像の状況、又は画面の明るさや色合いなどの表示画面の状況に応じて、認識用表示物の色、形状、大きさ、又は明るさなどを変化させる。例えば表示装置10の表示状況が変化した場合にも、認識用表示物が適切に認識されるように、認識用表示物の色、形状、大きさ、又は明るさなどを変化させる。
なお、認識用表示物を変化させる処理は、表示状況に基づく認識用表示物の変化処理には限定されず、種々の変形実施が可能である。例えば経過時間に応じて認識用表示物を変化させてもよい。例えば第1コンテンツCT1が表示されてからの経過時間に応じて認識用表示物を変化させる。或いは、所与のタイミングにおいて認識用表示物を変化させてもよい。例えば所与のイベントが発生したタイミングにおいて、認識用表示物を変化させたり、第1コンテンツCT1の進行における所与のタイミングにおいて、認識用表示物を変化させる。或いは、認識用表示物についての更新条件が満たされたか否かを判断し、更新条件が満たされた場合に、認識用表示物を更新して変化させる。更新条件は、例えばコンテンツ状況やユーザ状況などの種々の状況に基づき設定される。このようにすれば、更新されて変化して行く認識用表示物の認識処理の結果に基づいて種々の処理を実行できるようになるため、第1コンテンツに第2コンテンツを付加した多様なコンテンツをユーザに提供できるようになる。
2.3 第1コンテンツ、第2コンテンツへのユーザ入力のフィードバック
本実施形態では、端末装置20でのユーザの入力に応じたフィードバックを、表示装置10での第1コンテンツCT1又は端末装置20での第2コンテンツCT2に対して行う。例えばユーザの入力に応じたフィードバックを、端末装置20の表示部30に表示される入力用表示物に対して行う。或いは、入力用表示物に対するユーザの応答入力が受け付けられたことを示すフィードバックを、第1コンテンツCT1又は第2コンテンツCT2に対して行う。図11は、このように端末装置20でのユーザの入力に応じたフィードバックを第1コンテンツCT1又は第2コンテンツCT2に対して行う処理を説明するフローチャートである。
まず端末装置20においてユーザが入力を行ったか否かを判断する(ステップS21)。このユーザ入力は、入力用表示物に対する応答入力であってもよいし、当該応答入力以外の入力であってもよい。そして、ユーザが入力を行った場合には、当該入力を受け付ける(ステップS22)。そして、端末装置20でのユーザの入力に応じたフィードバックを、表示装置10での第1コンテンツCT1又は端末装置20での第2コンテンツCT2に対して行う(ステップS23)。このようにすれば、端末装置20でのユーザの入力を第1コンテンツCT1又は第2コンテンツCT2に反映させて、第1コンテンツCT1に第2コンテンツCT2が付加されたコンテンツを、ユーザに表示できるようになる。
例えば本実施形態では、ユーザの入力に応じたフィードバックを、端末装置20の表示部30に表示される入力用表示物に対して行う。例えば端末装置20でのユーザの入力に応じて変化する入力用表示物を、端末装置20の表示部30に表示する。このようにすれば、端末装置20でのユーザの入力に応じて、入力用表示物の例えば色、形状、大きさ、明るさ、透明度、テクスチャ、表示時間又は種類などを変化させることが可能になり、ユーザの入力に応じた多様な表示態様の入力用表示物の表示が可能になる。
例えば図12(A)では、ユーザは、端末装置20での入力により、入力用表示物の形状を選択できるようになっており、ユーザの入力に応じたフィードバックが入力用表示物に対して行われている。例えばユーザの希望に応じて、入力用表示物の形状を四角形状にしたり、星形の形状にしたり、ひし形の形状にしたりすることなどが可能になる。従って、ユーザは、入力用表示物の形状等を変化させるカスタムメイドが可能になる。なお、入力用表示物の形状以外にも、色、大きさ、明るさ又はテクスチャなどを、端末装置20での入力によりユーザが選択できるようにしてもよい。
或いは、入力用表示物に対応して表示装置10に表示される認識用表示物を、端末装置20でのユーザの入力に応じて変化させることで、端末装置20の表示部30に表示される入力用表示物を変化させてもよい。例えば図12(B)では、端末装置20の各ユーザは、入力用表示物に対してデコレーションを行って、オリジナルの入力用表示物を作成できるようになっている。そして、作成されたオリジナルの入力用表示物に対応する認識用表示物を、表示装置10に表示する。このようにすれば、当該入力用表示物を作成したユーザ以外の他のユーザも、当該他のユーザの端末装置を用いて当該認識用表示物の認識処理を行うことで、当該入力用表示物を使用できるようになる。従って、例えばお互いにフレンドの関係のある複数のユーザで、オリジナルに作成された入力用表示物を共用して使用できるようになる。
また本実施形態では、入力用表示物に対するユーザの応答入力が受け付けられたことを示すフィードバックを、第1コンテンツCT1に対して行う。例えば応答入力が適切に受け付けられたことをユーザに知らせるためのフィードバックを、第1コンテンツCT1に対して行う。このようにすれば入力用表示物に対するユーザの応答入力が行われたことを、第1コンテンツCT1に反映して、ユーザに視認させることが可能になる。例えば本実施形態では、図2、図3に示すように、次回の演奏曲を選択するための入力用表示物DBA、DBBを表示し、ユーザは入力用表示物DBA、DBBのうちのいずれかを選択する応答入力を行う。そして例えば後述の図15で説明するように、複数のユーザの応答入力による次回の演奏曲の投票結果を、表示装置10の第1コンテンツCT1によりユーザに表示する。例えば図13では、次回の演奏曲の候補である曲MA、曲MBのうち、複数のユーザによる投票結果により、曲MAの方が優勢であることを示す表示物DBFが、表示装置10に表示されている。これにより、ユーザは、入力用表示物に対する自身の応答入力による投票結果を、表示装置10に表示される第1コンテンツCT1の表示物DBFにより、認識できるようになる。
また本実施形態では、入力用表示物に対するユーザの応答入力が受け付けられたことを示すフィードバックを第2コンテンツCT2に対して行う。例えば入力用表示物に対するユーザの応答入力が受け付けられたことを、端末装置20に表示される第2コンテンツCT2により、ユーザに報知したり、ユーザに視覚的に認識させる。このようにすれば入力用表示物に対するユーザの応答入力が行われたことを、第2コンテンツCT2に反映して、ユーザに視認させることが可能になる。例えば図14は、入力用表示物に対するユーザの応答入力に応じて、第2コンテンツCT2である入力用表示物を変化させる処理を説明するフローチャートである。
まず、端末装置20の表示部30に表示される入力用表示物に対してユーザが応答入力を行ったか否かを判断し、応答入力を行った場合には当該応答入力を受け付ける(ステップS31、S32)。そして、入力用表示物の形状、色又は文字などを変化させたり、或いは入力用表示物の表示を消す処理を行う(ステップS33)。例えばユーザが入力用表示物に対して応答入力を行うと、応答入力が行われたことをユーザに認識させるような形状又は色に、入力用表示物の形状又は色を変化させる。或いは、応答入力が行われたことをユーザに認識させるような文字を、入力用表示物に対して付加する。このようにすれば、ユーザの応答入力が適切に行われたことを、ユーザに認識させることが可能になり、ユーザインターフェースの向上を図れる。或いは、ユーザが入力用表示物に対して応答入力を行った後に、入力用表示物の表示を消す処理を行う。このようにすれば、入力用表示物に対する応答入力が完了して、入力用表示物が不要になった場合に、入力用表示物の表示を消すことで、入力用表示物が他のコンテンツの表示の邪魔になってしまうのを防止できるようになる。
また本実施形態では、図15に示すように、複数の端末装置20-1~20-nにおける応答入力の集計処理を行う。即ち、集計処理部108は、端末装置20-1~20-nの各端末装置において行われた入力用表示物に対する応答入力を、ネットワーク60を介して収集し、これらの応答入力の集計処理を行う。そしてコンテンツ処理部110は、表示装置10に表示される第1コンテンツCT1を変化させる。例えば図13に示すように、応答入力の集計結果である投票結果を示す表示物DBFを、表示装置10に表示する。そして、投票結果に基づいて優勢とされた曲MAが、次回の演奏曲として演奏される第1コンテンツCT1を、表示装置10に表示する。例えば曲MAを演奏する様子を示すDJのキャラクタのコンテンツを、第1コンテンツCT1として表示装置10に表示する。このようにすれば、複数の端末装置20-1~20-nでの応答入力の集計処理の結果に応じた第1コンテンツCT1を、表示装置10に表示できるようになる。或いは、入力用表示物に対する応答入力の集計処理の結果に応じた表示内容又は表示態様の第2コンテンツCT2を、端末装置20の表示部30に表示してもよい。例えば図13の投票結果を示す表示物DBFを、第2コンテンツCT2として端末装置20の表示部30に表示してもよい。また集計処理の結果に応じて、第1コンテンツCT1に付加される第2コンテンツCT2の演出効果を変化させてもよい。例えばエフェクト用の表示物の種類やアニメーションパターンを、集計処理の結果に応じて変化させる。例えばユーザが選択した曲が、投票結果により選ばれた場合には、より演出効果の高いエフェクト用の表示物を、第1コンテンツCT1に付加される第2コンテンツCT2として表示するようにする。
また本実施形態では、第2コンテンツCT2として、端末装置20の位置に対応して設定される仮想空間に配置される表示物を、端末装置20の表示部30に表示する処理を行う。このようにすれば、端末装置20の位置に対応するように仮想空間を設定し、当該仮想空間に配置される表示物を、第2コンテンツCT2の表示物として、第1コンテンツCT1に付加して表示できるようになる。この場合に本実施形態では、表示装置10での第1コンテンツCT1に連動して、端末装置20での表示物を変化させる。このようにすれば表示装置10での第1コンテンツCT1に連動して、端末装置20での第2コンテンツCT2も変化し、これらの連動した第1コンテンツCT1及び第2コンテンツCT2をミックスしてユーザに表示できるようになる。図16は、認識処理の結果に基づいて、端末装置での仮想空間に配置される表示物を表示する処理を説明するフローチャートである。
まず表示装置10が表示する認識用表示物の認識処理を行う(ステップS41)。そして認識処理の結果に基づいて、表示装置10の位置に対応して設定される仮想空間に配置される表示物を、端末装置20の表示部30に表示する(ステップS42)。そして表示装置10での第1コンテンツCT1に連動して、端末装置20での表示物を変化させる(ステップS43)。
例えば図17に示すように、端末装置20に位置に対応する位置に仮想カメラVCを設定する。そして、この仮想カメラVCに対応する仮想空間を設定し、仮想空間において仮想カメラVCから見える仮想空間画像として、エフェクト用の表示物OB等が仮想空間に配置される仮想空間画像の生成処理を行う。例えば公知の隠面消去処理や透視変換処理などの3次元画像描画処理による仮想空間画像の生成処理を行う。そして第1コンテンツの画像と、第2コンテンツの画像である仮想空間画像とが合成された画像を、端末装置20の表示部30に表示する処理を行う。これにより表示装置10での第1コンテンツの画像に対して端末装置20での第2コンテンツの画像を付加したコンテンツの画像を、ユーザに視認させる処理を実現できる。この場合に仮想カメラVCの設定は、図1~図3で説明した認識用表示物MKを用いて行うことができる。例えば端末装置20から見た認識用表示物MKの方向を、例えば仮想カメラVCの基準となる視線方向に設定する。そして例えば端末装置20の方向が変化して、表示装置10の方に向かなくなった場合にも、例えばモーションセンサーなどを用いて端末装置20の向く方向を検出して、仮想カメラVCの視線方向にエフェクト用の表示物OB等を表示するようにする。このようにすれば、表示装置10の周囲のみならず、ユーザ自身の周囲にも表示物OBが存在しているかのように見えるため、ARやMRの演出効果を更に向上できる。
また本実施形態では、表示装置10での第1コンテンツCT1に連動して、端末装置20での表示物OBを変化させる。例えば図1~図3に示すように、第1コンテンツCT1が、演奏曲に合わせてキャラクタCHがDJのパフォーマンスを行うようなコンテンツである場合には、演奏曲のテンポ(リズム)に連動するように、端末装置20での表示物OBの位置、方向又は表示パターンを変化させる。例えば演奏曲のテンポに同期するように、表示物OBの位置、方向又は表示パターンを変化させる。或いは、第1コンテンツCT1の盛り上がり度に応じて、表示物OBの位置、方向又は表示パターンを変化させる。このようにすれば、第1コンテンツCT1と、第1コンテンツCT1に付加されて表示される第2コンテンツCT2の表示物OB等が、連動(同期)して動いたり、変化するようになるため、演出効果の更なる向上を図れるようになる。
また本実施形態では、図17に示すように仮想空間に配置される表示物OBを、端末装置20でのユーザの入力に応じて変化させる。例えば図2、図3の入力用表示物DBCに対するユーザの応答入力に応じて、仮想空間に配置される表示物OBの表示パターンを変化させたり、表示物OBの種類を変化させる。例えばユーザが入力用表示物DBCに対する入力操作を行うごとに、表示物OBの表示パターンを第1表示パターン、第2表示パターン、第3表示パターンというように変化させる。このようにすることで、ユーザの入力に応じて、端末装置20での第2コンテンツCT2が変化するようになり、エンターテインメントシステムのインタラクティブ性を更に向上できるようになる。
なお、上記のように本実施形態について詳細に説明したが、本開示の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また認識用表示物の認識処理、コンテンツ処理、表示処理、位置関係の検出処理、集計処理等も本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本開示の範囲に含まれる。
10…表示装置、20…端末装置、20-1~20-n…端末装置、30…表示部、
40…情報処理装置、50…サーバ、60…ネットワーク、70…ゲーム装置、
100…処理部、102…受け付け部、104…認識処理部、106…位置関係検出部、
108…集計処理部、110…コンテンツ処理部、160…操作部、162…撮像部、
170…記憶部、180…情報記憶媒体、192…音出力部、196…通信部、
200…HMD、240…テンプル部、242…ゴーグル部、243…表示装置、
244…ホログラフィック光学素子、246…RGBカメラ、247…デプスカメラ、
248…環境認識カメラ、249…環境認識カメラ、
CH、CHE…キャラクタ、CT1…第1コンテンツ、CT2…第2コンテンツ、
DBA、DBB、DBC、DBY、DBN…入力用表示物、DBS、DBF…表示物、
MA、MB…曲、MK…認識用表示物、OB…表示物、VC…仮想カメラ

Claims (13)

  1. 表示装置とユーザの端末装置を用いたエンターテインメントシステムであって、
    前記表示装置が表示する認識用表示物の認識処理を行う認識処理部と、
    前記認識処理の結果に基づいて、前記表示装置で表示される第1コンテンツに対して前記端末装置の表示部で表示される第2コンテンツを付加したコンテンツを前記ユーザに視認させる処理を行うコンテンツ処理部と、
    前記ユーザの入力を受け付ける受け付け部と、
    を含み、
    前記コンテンツ処理部は、
    前記ユーザが応答入力を行うための入力用表示物を、前記端末装置の前記表示部に表示する処理を行い、
    前記受け付け部は、
    前記入力用表示物に対する前記ユーザの前記応答入力を受け付け、
    前記コンテンツ処理部は、
    前記入力用表示物に対する前記ユーザの前記応答入力に応じて、前記表示装置での前記第1コンテンツ又は前記端末装置での前記第2コンテンツを変化させることを特徴とするエンターテインメントシステム。
  2. 請求項1において、
    前記コンテンツ処理部は、
    前記表示装置での表示状況に応じて、前記入力用表示物の表示態様、前記入力用表示物の配置位置、及び前記入力用表示物に対する前記応答入力の入力条件の少なくとも1つを変化させることを特徴とするエンターテインメントシステム。
  3. 請求項1又は2において、
    前記表示装置と前記端末装置の位置関係を検出する位置関係検出部を含み、
    前記コンテンツ処理部は、
    前記位置関係に応じて、前記入力用表示物の表示態様、前記入力用表示物の配置位置、及び前記入力用表示物に対する前記応答入力の入力条件の少なくとも1つを変化させることを特徴とするエンターテインメントシステム。
  4. 請求項1乃至3のいずれかにおいて、
    前記コンテンツ処理部は、
    前記表示装置の表示物が選択された場合に、選択された前記表示物の情報に応じて、前記入力用表示物の表示態様、前記入力用表示物の配置位置、及び前記入力用表示物に対する前記応答入力の入力条件の少なくとも1つを変化させることを特徴とするエンターテインメントシステム。
  5. 請求項1乃至4のいずれかにおいて、
    前記コンテンツ処理部は、
    前記表示装置に表示される前記認識用表示物を変化させる処理を行うことを特徴とするエンターテインメントシステム。
  6. 請求項5において、
    前記コンテンツ処理部は、
    前記表示装置での表示状況に応じて、前記表示装置に表示される前記認識用表示物を変化させることを特徴とするエンターテインメントシステム。
  7. 請求項1乃至6のいずれかにおいて、
    前記コンテンツ処理部は、
    前記端末装置での前記ユーザの入力に応じたフィードバックを、前記表示装置での前記第1コンテンツ又は前記端末装置での前記第2コンテンツに対して行うことを特徴とするエンターテインメントシステム。
  8. 請求項7において、
    前記コンテンツ処理部は、
    前記ユーザの入力に応じた前記フィードバックを、前記端末装置の前記表示部に表示される前記入力用表示物に対して行うことを特徴とするエンターテインメントシステム。
  9. 請求項7又は8において、
    前記コンテンツ処理部は、
    前記入力用表示物に対する前記ユーザの前記応答入力が受け付けられたことを示す前記フィードバックを、前記第1コンテンツ又は前記第2コンテンツに対して行うことを特徴とするエンターテインメントシステム。
  10. 請求項1乃至9のいずれかにおいて、
    複数の前記端末装置における前記応答入力の集計処理を行う集計処理部を含み、
    前記コンテンツ処理部は、
    前記応答入力の前記集計処理の結果に基づいて、前記第1コンテンツ又は前記第2コンテンツを変化させることを特徴とするエンターテインメントシステム。
  11. 請求項1乃至10のいずれかにおいて、
    前記コンテンツ処理部は、
    前記第2コンテンツとして、前記端末装置の位置に対応して設定される仮想空間に配置される表示物を、前記端末装置の前記表示部に表示する処理を行うことを特徴とするエンターテインメントシステム。
  12. 請求項11において、
    前記コンテンツ処理部は、
    前記表示装置での前記第1コンテンツに連動して、前記端末装置での前記表示物を変化させることを特徴とするエンターテインメントシステム。
  13. 表示装置が表示する認識用表示物の認識処理を行う認識処理部と、
    前記認識処理の結果に基づいて、前記表示装置で表示される第1コンテンツに対してユーザの端末装置の表示部で表示される第2コンテンツを付加したコンテンツを前記ユーザに視認させる処理を行うコンテンツ処理部と、
    前記ユーザの入力を受け付ける受け付け部として、
    コンピュータを機能させ、
    前記コンテンツ処理部は、
    前記ユーザが応答入力を行うための入力用表示物を、前記端末装置の前記表示部に表示する処理を行い、
    前記受け付け部は、
    前記入力用表示物に対する前記ユーザの前記応答入力を受け付け、
    前記コンテンツ処理部は、
    前記入力用表示物に対する前記ユーザの前記応答入力に応じて、前記表示装置での前記第1コンテンツ又は前記端末装置での前記第2コンテンツを変化させることを特徴とするプログラム。
JP2020110457A 2020-06-26 2020-06-26 エンターテインメントシステム及びプログラム Pending JP2022007458A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020110457A JP2022007458A (ja) 2020-06-26 2020-06-26 エンターテインメントシステム及びプログラム
PCT/JP2021/024198 WO2021261587A1 (ja) 2020-06-26 2021-06-25 エンターテインメントシステム、処理方法及び情報記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020110457A JP2022007458A (ja) 2020-06-26 2020-06-26 エンターテインメントシステム及びプログラム

Publications (1)

Publication Number Publication Date
JP2022007458A true JP2022007458A (ja) 2022-01-13

Family

ID=79281429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020110457A Pending JP2022007458A (ja) 2020-06-26 2020-06-26 エンターテインメントシステム及びプログラム

Country Status (2)

Country Link
JP (1) JP2022007458A (ja)
WO (1) WO2021261587A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5643549B2 (ja) * 2010-06-11 2014-12-17 任天堂株式会社 画像処理システム、画像処理プログラム、画像処理装置および画像処理方法
US9814977B2 (en) * 2010-07-13 2017-11-14 Sony Interactive Entertainment Inc. Supplemental video content on a mobile device
JP6646208B2 (ja) * 2015-10-28 2020-02-14 富士通株式会社 表示制御方法、表示制御プログラムおよび情報処理装置
KR20180097444A (ko) * 2015-12-17 2018-08-31 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 표시 방법 및 표시 장치

Also Published As

Publication number Publication date
WO2021261587A1 (ja) 2021-12-30

Similar Documents

Publication Publication Date Title
JP7041253B2 (ja) 現実世界空間の仮想現実提示
US11350071B2 (en) Augmented reality based user interfacing
JP6725038B2 (ja) 情報処理装置及び方法、表示制御装置及び方法、プログラム、並びに情報処理システム
US20090237492A1 (en) Enhanced stereoscopic immersive video recording and viewing
US20190073830A1 (en) Program for providing virtual space by head mount display, method and information processing apparatus for executing the program
JPWO2019234879A1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2021103303A (ja) 情報処理装置および画像表示方法
JP2017220032A (ja) 情報処理装置、情報処理方法、およびコンピュータプログラム
WO2021106803A1 (ja) 授業システム、視聴端末、情報処理方法及びプログラム
US11778283B2 (en) Video distribution system for live distributing video containing animation of character object generated based on motion of actors
US11961194B2 (en) Non-uniform stereo rendering
CN114327700A (zh) 一种虚拟现实设备及截屏图片播放方法
JP2023133397A (ja) 画像処理装置、画像処理方法及び画像処理システム
US20230368464A1 (en) Information processing system, information processing method, and information processing program
WO2021261587A1 (ja) エンターテインメントシステム、処理方法及び情報記憶媒体
US11882172B2 (en) Non-transitory computer-readable medium, information processing method and information processing apparatus
US11287658B2 (en) Picture processing device, picture distribution system, and picture processing method
WO2021157616A1 (ja) 視聴端末、視聴方法、視聴システム及びプログラム
JP2021086606A (ja) 授業システム、視聴端末、情報処理方法及びプログラム
JP2022103751A (ja) エンターテインメントシステム及びプログラム
WO2023105750A1 (ja) 情報処理システムおよび情報処理方法
WO2023248832A1 (ja) 遠隔視認システム、現地撮像システム
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
US20240046552A1 (en) Generation apparatus, generation method, and non-transitory computer-readable storage medium
US20240087220A1 (en) Electronic device and method of providing content sharing based on object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230511

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230630