JP2013250838A - 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 - Google Patents

情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 Download PDF

Info

Publication number
JP2013250838A
JP2013250838A JP2012125798A JP2012125798A JP2013250838A JP 2013250838 A JP2013250838 A JP 2013250838A JP 2012125798 A JP2012125798 A JP 2012125798A JP 2012125798 A JP2012125798 A JP 2012125798A JP 2013250838 A JP2013250838 A JP 2013250838A
Authority
JP
Japan
Prior art keywords
sound
panoramic video
display
information processing
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012125798A
Other languages
English (en)
Other versions
JP5992210B2 (ja
Inventor
Toshiaki Suzuki
利明 鈴木
Takuya Abe
拓也 安部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
HAL Laboratory Inc
Original Assignee
Nintendo Co Ltd
HAL Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd, HAL Laboratory Inc filed Critical Nintendo Co Ltd
Priority to JP2012125798A priority Critical patent/JP5992210B2/ja
Priority to US13/864,681 priority patent/US9473699B2/en
Publication of JP2013250838A publication Critical patent/JP2013250838A/ja
Application granted granted Critical
Publication of JP5992210B2 publication Critical patent/JP5992210B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Abstract

【課題】パノラマ動画を表示する際に臨場感を高めることができる情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法を提供する。
【解決手段】パノラマ動画取得手段は、パノラマ動画を記憶したパノラマ動画記憶手段から、パノラマ動画を読み出して逐次取得する。表示範囲設定手段は、取得されたパノラマ動画において、ユーザ操作に応じて表示装置に表示する表示範囲を設定する。音声生成手段は、表示装置に表示する画像と同期して出力する音声を、表示範囲に基づいて生成する。表示制御手段は、取得されたパノラマ動画のうち、表示範囲内のパノラマ動画を表示装置に逐次表示する制御を行う。音声出力制御手段は、音声生成手段が生成した音声を、表示装置に表示する画像と同期してスピーカから出力する制御を行う。
【選択図】図5

Description

本発明は、情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関し、特に例えば、パノラマ動画を表示する情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関する。
従来、パノラマ動画の一部の範囲をディスプレイに表示し、当該パノラマ動画を表示する際に音声を出力する動画像生成装置がある(例えば、特許文献1参照)。
特開2004−241834号公報
しかしながら、上記特許文献1に記載の動画像生成装置は、パノラマ動画に対してどの範囲を表示する場合であっても同じ音声が出力されるため、ディスプレイにパノラマ動画を表示しても臨場感を得にくかった。
それ故に、本発明の目的は、パノラマ動画を表示する際に臨場感を高めることができる情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法を提供することである。
上記目的を達成するために、本発明は例えば以下のような構成を採用し得る。なお、特許請求の範囲の記載を解釈する際に、特許請求の範囲の記載によってのみその範囲が解釈されるべきであることが理解され、特許請求の範囲の記載と本欄の記載とが矛盾する場合には、特許請求の範囲の記載が優先する。
本発明の情報処理プログラムの一構成例は、スピーカが設けられた少なくとも1つの第1の表示装置に画像を表示する情報処理装置に含まれるコンピュータで実行される。情報処理プログラムは、パノラマ動画取得手段、表示範囲設定手段、音声生成手段、表示制御手段、音声出力制御手段として、コンピュータを機能させる。パノラマ動画取得手段は、パノラマ動画を記憶したパノラマ動画記憶手段から、パノラマ動画を読み出して逐次取得する。表示範囲設定手段は、取得されたパノラマ動画において、ユーザ操作に応じて第1の表示装置に表示する表示範囲を設定する。音声生成手段は、第1の表示装置に表示する画像と同期して出力する音声を、表示範囲に基づいて生成する。表示制御手段は、取得されたパノラマ動画のうち、表示範囲内のパノラマ動画を第1の表示装置に逐次表示する制御を行う。音声出力制御手段は、音声生成手段が生成した音声を、第1の表示装置に表示する画像と同期してスピーカから出力する制御を行う。
上記「情報処理装置」は、第1の表示装置とは別の装置によって構成されてもよいし、第1の表示装置が情報処理機能を有する場合には第1の表示装置によって構成されてもよい。また、前者の場合、「別の装置」によって本発明の各処理を実行し、第1の表示装置は「別の装置」によって生成された画像を表示処理するのみでもよいし、第1の表示装置が情報処理機能を有する場合には、第1の表示装置の情報処理機能と「別の装置」の情報処理機能との協同により実現してもよい。また、「別の装置」は複数の情報処理装置によって分散処理するものであってもよい。「情報処理装置」は、後述する実施形態で例示したゲーム装置の他、一般的なパーソナルコンピュータのような多用途の情報処理装置であってもよい。
上記第1の表示装置は、一例として、可搬型表示装置である。また、上記第1の表示装置は、他の例として、据置型表示装置である。これらの場合、第1の表示装置は、後述する実施形態における端末装置2やモニタ4のように情報処理装置に無線または有線接続された表示装置であり、情報処理装置によって生成された表示画像を表示することが可能なものであればどのようなものであってもよい。例えば、上記第1の表示装置は、情報処理装置と一体に(1つの筐体内に)構成されるものであってもよい。
上記「パノラマ動画」は、上下方向と左右方向のうち一方方向について画角が180度以上のパノラマ動画であることが好ましい。さらに好ましくは、一方方向について360度のパノラマ動画であることが好ましい。また、他方方向については、第1の表示装置に表示する動画の画角以上であることが好ましく、さらに言うと、当該動画の画角の2倍以上、120度以上、150度以上、または、180度であることが好ましい。
上記「パノラマ動画記憶手段」には、当該情報処理装置が有する当該パノラマ動画の撮像機能により撮像された動画を記憶してもよいし、当該動画の撮像機能を有する他の装置により撮像された動画を所定の記憶媒体やネットワークを介して取り込んで記憶してもよい。
上記によれば、第1の表示装置に表示するパノラマ動画の表示範囲に応じて、スピーカから出力する音声が調整されるため、パノラマ動画を表示する際に臨場感を高めることができる。
また、上記情報処理プログラムは、音声取得手段として、さらにコンピュータを機能させてもよい。音声取得手段は、パノラマ動画を撮像する際またはパノラマ動画を再生する際に録音された少なくとも1つの音声を記憶した音声記憶手段から、第1の表示装置に表示する画像と同期して出力する音声を生成するための元音声を取得する。この場合、上記音声生成手段は、音声取得手段が取得した元音声の音量を表示範囲に基づいて調整することによって、第1の表示装置に表示する画像と同期して出力する音声を生成してもよい。
上記によれば、パノラマ動画を撮像する際またはパノラマ動画を再生する際に録音された音声を用いて、パノラマ動画を表示する際の音声を生成することができる。
また、上記音声記憶手段は、録音された音声の音源となるパノラマ動画における位置を、当該音声毎に記憶してもよい。上記音声生成手段は、パノラマ動画における表示範囲を基準とした音源の位置に基づいて、当該位置を音源とする音声の音量を調整してもよい。
上記によれば、パノラマ動画を撮像する際またはパノラマ動画を再生する際に録音された音声を音声出力する際の定位を、表示するパノラマ動画に合わせて調整することができる。
また、上記音声生成手段は、パノラマ動画における表示範囲と音源とが相対的に近い場合に当該位置を音源とする音声の音量を相対的に大きく調整してもよい。
上記によれば、第1の表示装置に表示される範囲内または当該範囲に近い音源の音声を優先的に音声出力することができるため、パノラマ動画を表示する際に臨場感を高めることができる。
また、上記音声生成手段は、パノラマ動画における表示範囲を基準として音源が所定の範囲内にある場合に当該位置を音源とする音声の音量を所定値以上に設定し、音源が所定の範囲外にある場合に当該位置を音源とする音声の音量を0に設定してもよい。
上記によれば、表示範囲における所定の範囲内に音源が表示されているか否かで当該音源の音声がオン/オフされるような音声出力制御が可能となる。
また、上記音声記憶手段は、パノラマ動画を撮像する際またはパノラマ動画を再生する際に複数の音源からそれぞれ録音された音声を記憶し、パノラマ動画における当該音源の位置を当該音声毎にそれぞれ記憶してもよい。上記音声生成手段は、パノラマ動画における表示範囲を基準とした音源それぞれの位置に基づいて、第1の表示装置に表示する画像と同期して出力する音声を選択してもよい。
上記によれば、パノラマ動画の表示範囲を変更することによって、音声出力される音声を選択することができる。
また、上記音声生成手段は、パノラマ動画における表示範囲と音源の位置とが所定の関係となった場合に、当該位置を音源とする音声を第1の表示装置に表示する画像と同期して出力する音声として選択してもよい。
上記によれば、パノラマ動画の表示範囲を移動させることによって、音声出力される音声を選択することができる。
また、上記音声生成手段は、パノラマ動画における表示範囲内に音源の位置が含まれるか否かに応じて、当該位置を音源とする音声の音量を調整してもよい。
上記によれば、パノラマ動画の表示範囲内にある音源からの音声だけ出力することができる。
また、上記音声生成手段は、パノラマ動画における表示範囲内に音源の位置が含まれる場合、当該位置を音源とする音声の音量を相対的に大きく調整してもよい。
上記によれば、第1の表示装置に表示される範囲内の音源の音声の音量を大きくして音声出力することができるため、パノラマ動画を表示する際に臨場感を高めることができる。
また、上記音声記憶手段は、パノラマ動画における音源の位置として、当該位置を音源とする音声を出力対象とする有効領域を音源毎に当該パノラマ動画に設定して記憶してもよい。上記音声生成手段は、パノラマ動画における表示範囲内に含まれる有効領域の大きさに応じて、当該有効領域が設定された音源における音声の音量を調整してもよい。
上記によれば、パノラマ動画の表示範囲内に音源毎の有効領域が占める割合に応じて、音声出力を制御することができる。
また、上記第1の表示装置は、ユーザ操作に応じて、パノラマ動画を拡大または縮小して表示することが可能でもよい。上記表示範囲設定手段は、拡大または縮小する操作に応じて、第1の表示装置に表示する表示範囲を拡大または縮小して設定してもよい。上記音声生成手段は、拡大または縮小された表示範囲に応じて音量を調整してもよい。
上記によれば、第1の表示装置に表示する動画を拡大または縮小することに応じて、音声出力を制御することができる。
また、上記パノラマ動画記憶手段は、現実世界を撮像したパノラマ動画を記憶してもよい。上記音声記憶手段は、パノラマ動画を撮像する際に現実世界において異なる方向を集音方向とする複数の指向性マイクを用いて録音した音声をそれぞれ記憶し、パノラマ動画における当該集音方向に対応する位置を音源の位置として当該音源の位置を当該音声毎にそれぞれ記憶してもよい。上記音声生成手段は、パノラマ動画における表示範囲を基準とした音源の位置に基づいて、当該位置を音源とする音声の音量を調整してもよい。
上記によれば、複数の指向性マイクを用いて録音した音声を用いて、パノラマ動画を表示する際の音声を生成することができる。
また、上記パノラマ動画記憶手段は、現実世界を撮像したパノラマ動画を記憶してもよい。上記音声記憶手段は、パノラマ動画を撮像する際に現実世界において複数の集音位置にそれぞれ設けられたマイクを用いて録音した音声をそれぞれ記憶し、パノラマ動画における当該集音位置を音源の位置として当該音源の位置を当該音声毎にそれぞれ記憶してもよい。上記音声生成手段は、パノラマ動画における表示範囲を基準とした音源の位置に基づいて、当該位置を音源とする音声の音量を調整してもよい。
上記によれば、複数の集音位置に配置されたマイクを用いて録音した音声を用いて、パノラマ動画を表示する際の音声を生成することができる。
また、上記音声記憶手段は、パノラマ動画を再生する際に録音された音声を少なくとも記憶し、パノラマ動画における当該録音の際に指定された位置を音源の位置として当該音源の位置を当該録音された音声毎に記憶してもよい。上記音声生成手段は、パノラマ動画における表示範囲を基準とした音源の位置に基づいて、当該位置を音源とする音声の音量を調整してもよい。
上記によれば、パノラマ動画の再生の際に付加された音声を用いて、パノラマ動画を表示する際の音声を生成することができる。
また、上記情報処理プログラムは、パノラマ動画配置手段として、さらにコンピュータを機能させてもよい。パノラマ動画配置手段は、取得されたパノラマ動画を仮想空間に配置する。この場合、上記表示範囲設定手段は、仮想空間に配置されたパノラマ動画に対する視線方向を変化させることによって、当該パノラマ動画に対する表示範囲を設定してもよい。
上記によれば、パノラマ動画を表示する方向に応じた音声出力制御が可能となる。
また、上記情報処理プログラムは、入力受付手段として、さらにコンピュータを機能させてもよい。入力受付手段は、第1の表示装置に対応付けられた入力装置からの入力を受け付ける。この場合、上記表示範囲設定手段は、第1の表示装置に対応付けられた入力装置から受け付けられた入力に基づいて、表示範囲を設定してもよい。
上記によれば、第1の表示装置に対応付けられた入力装置を用いて、パノラマ動画の表示範囲を変化させることができるとともに、当該第1の表示装置から出力される音声も変化させることができる。
また、上記第1の表示装置は、当該第1の表示装置本体の動きまたは姿勢に応じたデータを出力するセンサを備えてもよい。上記入力受付手段は、センサから出力されたデータを、入力装置からの入力として受け付けてもよい。上記表示範囲設定手段は、センサから出力されるデータに基づいて算出された第1の表示装置の姿勢に応じて、表示範囲を設定してもよい。
上記「表示範囲設定手段」は、典型的には、第1の表示装置の姿勢変化に応じて、少なくとも同じ方向に第1の表示装置に表示する範囲を移動させる。また、好ましくは、「表示範囲設定手段」は、第1の表示装置の姿勢の変化量が大きいほど上記範囲の移動量を大きくする。さらに好ましくは、「表示範囲設定手段」は、第1の表示装置の姿勢の変化量と上記範囲の動画を生成するための仮想カメラの姿勢変化量とを同じにする。「表示範囲設定手段」は、第1の表示装置の現在の姿勢の基準姿勢からの変化にあわせて、上記仮想カメラの現在の姿勢の基準姿勢からの変化を制御してもよいし、第1の表示装置の現在の姿勢の直前の姿勢からの変化にあわせて、上記仮想カメラの現在の姿勢の直前の姿勢からの変化を制御してもよい。なお、上記「姿勢」は、2次元で設定されてもよいし、3次元で設定されてもよい。
上記によれば、第1の表示装置の姿勢を変化させることによって、当該姿勢変化に応じた表示範囲のパノラマ動画が表示されて当該表示範囲に応じた音声が出力されるため、あたかもパノラマ動画によって形成されている空間を、第1の表示装置を介して覗いているかのような操作環境を提供することができる。
また、上記センサは、第1の表示装置本体の動きまたは姿勢に応じたデータを出力するジャイロセンサおよび加速度センサの少なくとも一方でもよい。上記表示範囲設定手段は、ジャイロセンサおよび加速度センサの少なくとも一方から出力されるデータに基づいて算出された第1の表示装置の姿勢に応じて、表示範囲を設定してもよい。
上記によれば、ジャイロセンサから得られる角速度データや加速度センサから得られる加速度データを用いることによって、容易に第1の表示装置本体の姿勢を算出することができる。
また、上記表示範囲設定手段は、取得されたパノラマ動画において、据置型の第2の表示装置に表示する表示範囲をさらに設定してもよい。上記音声生成手段は、第1の表示装置の表示範囲に基づいて生成される音声とは独立して、第2の表示装置に表示する画像と同期して当該第2の表示装置から出力する音声をさらに生成してもよい。上記表示制御手段は、取得されたパノラマ動画のうち、第2の表示装置の表示範囲内のパノラマ動画を第2の表示装置に逐次表示する制御をさらに行ってもよい。上記音声出力制御手段は、第2の表示装置から音声出力する音声を、第2の表示装置に表示する画像と同期して当該第2の表示装置から音声出力する制御をさらに行ってもよい。
上記によれば、第1の表示装置に表示される表示範囲に応じて制御される音声とは独立した音声を、据置型の表示装置から出力することができる。
また、上記パノラマ動画取得手段は、パノラマ動画記憶手段から、パノラマ動画の各フレームとなるパノラマ画像を、第1の表示装置に再生する所定時間毎に読み出して逐次取得してもよい。上記表示範囲設定手段は、取得されたパノラマ画像において表示範囲を設定してもよい。上記音声生成手段は、第1の表示装置に表示するパノラマ画像と同期して出力する音声を表示範囲に基づいて生成してもよい。上記表示制御手段は、取得されたパノラマ画像のうち、表示範囲内のパノラマ画像を第1の表示装置に逐次表示する制御を行ってもよい。上記音声出力制御手段は、音声生成手段が生成した音声を、第1の表示装置に表示するパノラマ画像と同期してスピーカから出力する制御を行ってもよい。
また、本発明は、上記各手段を備える情報処理装置および情報処理システムや上記各手段で行われる動作を含む情報処理方法の形態で実施されてもよい。
本発明によれば、表示装置に表示するパノラマ動画の表示範囲に応じて、スピーカから出力する音声が調整されるため、パノラマ動画を表示する際に臨場感を高めることができる。
情報処理システム1の一例を示すブロック図 情報処理システム1において表示されるパノラマ動画(画像)の一例を示す図 端末装置2の姿勢に応じて表示範囲を決定する方法の一例を示す図 情報処理システム1において実行される情報処理プログラムにおいて定義される仮想の3次元空間の一例を示す図 パノラマ画像を端末装置2に表示した際の音声出力の一例を示す図 パノラマ画像を端末装置2に表示した際の音声出力の他の例を示す図 パノラマ動画を撮像する際の視点に設けられた複数の指向性マイクによって録音された音声データを用いて音声出力する例を示す図 複数の集音位置にそれぞれ設けられたマイクによって録音された音声データを用いて音声出力する例を示す図 パノラマ画像の表示範囲に応じた音声出力の音量制御の第1の例を示す図 パノラマ画像の表示範囲に応じた音声出力の音量制御の第2の例を示す図 パノラマ画像の表示範囲に応じた音声出力の音量制御の第3の例を示す図 情報処理装置3のメモリ6に記憶される主なデータおよびプログラムの一例を示す図 メモリ6に記憶されるパノラマ画像ファイルデータDaの一例を示す図 情報処理装置3において実行される処理の前半の一例を示すフローチャートを示す図 情報処理装置3において実行される処理の後半の一例を示すフローチャートを示す図
[情報処理システムの構成]
図1を参照して、本実施形態の一例に係る情報処理プログラムを実行する情報処理装置および当該情報処理装置を含む情報処理システムについて説明する。なお、図1は、据置型の情報処理装置3を含む情報処理システム1の一例を示すブロック図である。一例として、情報処理装置3は据置型のゲーム装置で構成され、情報処理システム1は当該ゲーム装置を含むゲームシステムで構成される。
図1において、情報処理システム1は、端末装置2、情報処理装置3、およびモニタ4を備える。本実施形態における情報処理システム1は、画像(パノラマ画像)を生成して表示装置(端末装置2および/またはモニタ4)に表示するものである。
情報処理システム1においては、端末装置2に対する入力に応じて情報処理装置3が情報処理を実行し、実行の結果得られた画像が端末装置2および/またはモニタ4に表示される。このように、本実施形態においては、情報処理システム1は、入力機能、情報処理機能、および表示機能が複数の装置によって実現される構成である。なお、他の実施形態においては、情報処理システム1は、これらの機能を有する単一の情報処理装置(例えば携帯型あるいは可搬型の情報処理装置)で構成されてもよい。
端末装置2は、ユーザが把持可能な(可搬型の)入力装置である。端末装置2は、情報処理装置3と通信可能である。端末装置2は、端末装置2に対する操作を表す操作データを情報処理装置3へ送信する。また、本実施形態においては、端末装置2は、表示部(LCD11)、サウンドIC16、およびスピーカ17を備えており、端末装置2は表示装置および音声出力装置でもある。スピーカ17は、例えば一対のステレオスピーカであり、音声データの出力を制御する回路であるサウンドIC16によって出力制御される。情報処理装置3から画像が送信されてくる場合、端末装置2は、LCD11に当該画像を表示する。また、情報処理装置3から音声が送信されてくる場合、端末装置2は、サウンドIC16を介してスピーカ17から当該音声を出力する。なお、サウンドIC16は、情報処理装置3から送信された音声の定位に基づいた所定のサラウンド効果(例えば、疑似サラウンド)を当該音声に付加して、スピーカ17から音声出力してもよい。
また、端末装置2は、入力部としてタッチパネル12を備える。タッチパネル12は、ハウジングに設けられる所定の入力面(表示部の画面)に対して入力された位置を検出する位置検出部の一例である。さらに、端末装置2は、入力部として、スライドパッド、十字キー、およびボタン等の操作部13を備える。
また、端末装置2は、入力部として加速度センサ14を備える。加速度センサ14は、端末装置2の所定軸方向(本実施形態では3軸方向とするが、1軸以上でよい)に関する加速度を検出する。また、端末装置2は、入力部としてジャイロセンサ15を備える。ジャイロセンサ15は、端末装置2の所定軸方向(本実施形態では3軸方向とするが、1軸以上でよい)を軸とした回転に関する角速度を検出する。加速度センサ14およびジャイロセンサ15は、端末装置2の姿勢を算出するための情報(姿勢を算出あるいは推定可能な情報)を検出するセンサである。なお、他の実施形態においては、端末装置2の姿勢はどのような方法で算出されてもよく、上記センサ以外の他のセンサや端末装置2を撮影可能なカメラを用いて端末装置2の姿勢が算出されてもよい。
情報処理装置3は、画像や音声を生成する処理等、情報処理システム1において実行される各種の情報処理を実行する。本実施形態においては、情報処理装置3は、CPU(制御部)5およびメモリ6を有し、CPU5がメモリ6を用いて所定の情報処理プログラムを実行することによって、情報処理装置3における各種機能が実現される。なお、情報処理装置3は、上記の情報処理を実行することができればどのような構成であってもよい。本実施形態においては、情報処理装置3によって画像(パノラマ画像)および当該画像表示時に出力する音声が生成され、生成された画像および音声は、表示装置および音声出力装置である端末装置2および/またはモニタ4へ出力される。
モニタ4は、生成された画像を表示し生成された音声を出力する表示装置および音声出力装置の一例である。モニタ4は、情報処理装置3から送信されるデータを受信可能である。情報処理装置3において生成された画像および音声がモニタ4へ送信されてくると、モニタ4は当該画像を表示するとともに当該音声を出力する。
[パノラマ動画の再生]
次に、情報処理システム1において実行される、パノラマ動画を再生する処理について説明する。図2は、情報処理システム1において表示されるパノラマ動画(画像)の一例を示す図である。図2に示すように、本実施形態においては、端末装置2およびモニタ4にパノラマ画像が表示される。なお、他の実施形態においては、パノラマ画像は少なくとも1つの表示装置に表示されればよい。
ここで、パノラマ画像とは、表示装置に表示される画像の視野角よりも広い視野角の画像である。つまり、パノラマ画像は、基本的にはその一部領域の画像が表示装置に表示される(ただし、本実施形態のように複数の表示装置が用いられる場合には、一部の表示装置においてパノラマ画像の全体が表示されてもよい。)。パノラマ画像は、表示範囲が変化することによって視線の方向が変化する画像であるとも言える。本実施形態においては、上下左右方向に関して全方向(360°)の視野角を有するパノラマ画像が用いられる(図3参照)。ただし、パノラマ画像には死角があってもよく、例えば視野角が180°程度であってもよい。また、本実施形態においては、パノラマ画像はカメラによって撮影された実画像(実写画像)であるが、その一部または全部が仮想画像(CG画像)であってもよい。
本実施形態においては、表示装置(端末装置2およびモニタ4)には、パノラマ動画の再生の進行にしたがって、記憶されているパノラマ動画の各フレームとなるパノラマ画像が所定時間毎に読み出されて順次表示され、パノラマ画像が表示装置に逐次表示されることによって、パノラマ動画が再生される。具体的には、パノラマ動画を構成する複数のパノラマ画像にはそれぞれフレーム番号が付されており、パノラマ画像がフレーム番号順に表示される。一例として、視点を時間経過につれて所定空間(例えば、現実世界)内を移動させながら撮像したパノラマ動画を表示する場合、当該パノラマ動画を再生する時間経過に伴って視点が移動するパノラマ動画が再生される。例えば、図2に示すように、道路上から周囲を見たパノラマ画像が表示され、道路を進んでいく(視点が道路に沿って移動する)パノラマ動画が再生される。他の例として、所定空間内を移動することなく撮像(すなわち、定点撮像)したパノラマ動画を表示する場合、当該パノラマ動画を再生する時間経過に伴って視点周辺の様子が変化していくようなパノラマ動画が再生される。
図2に示すように、各表示装置(端末装置2およびモニタ4)には、パノラマ画像の一部の範囲が表示される。以下では、パノラマ画像のうちで表示装置に表示される範囲を「表示範囲」と呼ぶ。図2においては、モニタ4には、パノラマ画像を表示する視線方向が当該パノラマ画像を撮像した際の視点の進行方向(正面方向)となる表示範囲のパノラマ画像が表示される。本実施形態においては、モニタ4における表示範囲は、基本的には予め定められた所定範囲に固定されるが、ユーザ操作に応じてパノラマ画像に対する表示範囲の位置や大きさを変化させてもよい。
一方、端末装置2における表示範囲は、端末装置2の姿勢に応じて変更される。例えば図2においては、端末装置2は、正面方向(ユーザ(端末装置2)からモニタ4への方向)に対して右に向けた姿勢となっており、端末装置2には、上記進行方向に対して視線を右に向けた場合の表示範囲のパノラマ画像が表示されている。このように、情報処理システム1は、入力装置(端末装置2)に対する入力に基づいて、パノラマ動画のうちで表示装置に表示する表示範囲を決定する。これによれば、ユーザは、端末装置2に対する操作(姿勢を変化させる操作)によって視線方向(表示範囲)を自由に変化させてパノラマ動画を見ることができる。なお、他の実施形態においては、表示範囲はユーザの操作に応じて変化するように決定されればどのような方法で決定されてもよい。
図3は、端末装置2の姿勢に応じて表示範囲を決定する方法の一例を示す図である。本実施形態においては、図3に示すように、仮想空間に立体モデルを配置し、その立体モデルの内側における所定位置(本実施形態においては立体モデルの実質的に中心となる位置)に仮想カメラC1を配置する。そして、仮想カメラC1から見た立体モデル(立体モデルの内側面)の画像を生成する際に、パノラマ画像をテクスチャとして立体モデルの内側面に描画することで、パノラマ画像が生成される。このとき、パノラマ画像のうち、仮想カメラC1の視野範囲(図3に示す斜線領域A1)が表示範囲となる。なお、本実施形態においては、立体モデルの形状を立方体とするが、立体モデルの形状は任意であり、例えば球体や柱状(例えば円柱)の形状であってもよい。
図3において、端末装置2に表示すべき画像を生成するための仮想カメラC1は、その姿勢が端末装置2の姿勢に応じて制御される。これによって、端末装置2の姿勢に応じて表示範囲を変化させることができる。以下、仮想カメラC1の姿勢が端末装置2の姿勢に応じて制御される一例を説明する。
まず初期設定として、端末装置2の基準姿勢が設定される。例えば、端末装置2の基準姿勢は、パノラマ動画再生の開始時または開始前の所定タイミングにおける端末装置2の姿勢によって設定される。具体的には、パノラマ動画再生の開始時の端末装置2の姿勢を基準姿勢として設定してもよいし、パノラマ動画再生の開始前にユーザが所定の操作をしたときの端末装置2の姿勢を基準姿勢として設定してもよいし、予め定める固定的な端末装置2の姿勢を基準姿勢として設定してもよいし、予め定める固定的な複数の端末装置2の姿勢のうちユーザが選択してもよい。なお、本実施形態では、端末装置2の姿勢はジャイロセンサ15の出力値に基づいて算出されるので、基準姿勢の設定は、ジャイロセンサ15により算出される姿勢値のリセットである。しかしながら、端末装置2の基準姿勢の設定は、センサの種類によって適宜の処理を実行してよい。
また、上記初期設定として、仮想カメラC1の初期姿勢が設定される。例えば、仮想カメラC1の初期姿勢は、視線方向(z軸正方向)が仮想空間のZ軸正方向(パノラマ画像における正面方向)に一致し、左方向(x軸正方向)が仮想空間のX軸正方向に一致し、上方向(y軸正方向)が仮想空間のY軸正方向に一致するように配置される。
そして、端末装置2の上記基準姿勢に対する姿勢変化(基準姿勢の端末装置2の左右方向となるxt軸、端末装置2の上下方向となるyt軸、端末装置2の前後方向となるzt軸周りそれぞれの回転方向および回転量)に応じて、仮想カメラC1の姿勢を、上記初期姿勢から変化(典型的には、初期姿勢の仮想カメラC1のx軸、y軸、z軸、すなわちX軸、Y軸、Z軸周りそれぞれに同じ回転方向および同じ回転量で変化)させる。なお、情報処理システム1は、表示範囲の位置に加えて、表示範囲の大きさ(ズームインまたはズームアウト)を端末装置2に対する操作に応じて変更するようにしてもよい。
一方、モニタ4に表示すべき画像を生成するための仮想カメラ(図示せず)は、その視線方向が基本的には所定の基準方向(ここでは、上述した進行方向となる正面方向であり、Z軸正方向)を向くように設定される。つまり、モニタ4の表示範囲(図3に示す斜線領域A2)は、仮想カメラから正面方向への位置に設定される。この仮想カメラの位置も、所定位置(本実施形態においては立体モデルの中心位置)に固定される。
なお、本実施形態においては、モニタ4に表示されるパノラマ画像の視線方向と端末装置2に表示されるパノラマ画像の視線方向との関係が、モニタ4における表示画面の奥行方向と端末装置2のLCD11の奥行方向との関係と概ね一致するように、仮想カメラC1の視線方向が制御される。具体的には、端末装置2のLCD11の奥行方向がモニタ4の方を向いた状態で上記基準姿勢が設定されることによって、当該状態において仮想カメラC1の視線方向が、モニタ4のための仮想カメラの視線方向と同じ方向に初期設定される。そして、端末装置2の姿勢が基準姿勢から変化した場合、その変化方向に応じた方向へ、変化量に応じた量だけ、仮想カメラC1の姿勢が変化する。これによれば、ユーザは、モニタ4によってある視線方向(正面方向)の風景を見ながら、端末装置2の向きを変化させることによって所望の視線方向(正面方向以外の方向)の風景を見ることができる。また、ユーザは、端末装置2のLCD11の奥行方向をモニタ4の方へ向けることによって、容易に正面方向のパノラマ画像をLCD11に表示することができ、モニタ4の位置を、パノラマ画像を表示する際の基準(パノラマ画像の正面方向が表示される基準)として取り扱うことができる。さらに、端末装置2の姿勢の変化と仮想カメラC1の姿勢の変化とを一致させることによって、現実空間における端末装置2の向きと、仮想空間における仮想カメラC1の視線方向とが一致するので、ユーザは、パノラマ画像が表す空間をよりリアルに感じることができる。
[パノラマ画像の表示方向に応じた音声出力]
次に、図4〜図11を参照して、パノラマ動画を再生する際に出力される音声について説明する。なお、図4は、情報処理システム1において実行される情報処理プログラムにおいて定義される仮想の3次元空間(パノラマ動画を再生することによって形成される仮想世界)の一例を示す図である。図5は、パノラマ画像を端末装置2に表示した際の音声出力の一例を示す図である。図6は、パノラマ画像を端末装置2に表示した際の音声出力の他の例を示す図である。図7は、パノラマ動画を撮像する際の視点に設けられた複数の指向性マイクによって録音された音声データを用いて音声出力する例を示す図である。図8は、複数の集音位置にそれぞれ設けられたマイクによって録音された音声データを用いて音声出力する例を示す図である。図9は、パノラマ画像の表示範囲に応じた音声出力の音量制御の第1の例を示す図である。図10は、パノラマ画像の表示範囲に応じた音声出力の音量制御の第2の例を示す図である。図11は、パノラマ画像の表示範囲に応じた音声出力の音量制御の第3の例を示す図である。
上述したように端末装置2には、パノラマ動画の再生の進行にしたがって、記憶されているパノラマ動画の各フレームとなるパノラマ画像が所定時間毎に読み出されて順次表示される。ここで、各フレームのパノラマ画像を仮想空間中の立体モデルの内面にテクスチャとして貼りつけて、当該モデルの内側に配置された仮想カメラC1から当該内面を見ることによって、端末装置2に表示されるパノラマ画像が生成され、当該仮想カメラC1の方向を端末装置2の姿勢に応じて変更する。したがって、ユーザは、図4に示すように、端末装置2を介して、パノラマ画像が表す空間をあたかも覗いているような画像を見ることができる。なお、上述したように、本実施形態では、立体モデルが立方体(6面体)であるが、図4では簡便のため、立体モデルを角筒状に示し当該角筒の内面にパノラマ画像がテクスチャとして貼り付けられている。そして、ユーザは、端末装置2を介して、立体モデルの中心から当該内面を覗いたような画像を見ることができる。
例えば、複数の演者P1〜P4がパノラマ動画の撮像視点に向かって取り囲むように配置されて、それぞれ楽器を演奏している様子を撮像することによって生成されたパノラマ動画を用いる場合を考える。この場合、パノラマ動画の撮像に合わせて、各演者P1〜P4が演奏の際に発する音声S1〜S4もそれぞれ録音されている。このようなパノラマ動画を再生する場合、図4に示すように、立体モデルの内面に貼り付けられるパノラマ画像では、立体モデルの中心のユーザ(すなわち、パノラマ動画を撮像した際の視点)に向かって取り囲むように演者P1〜P4が楽器を演奏している様子が表示される。そして、パノラマ動画の撮像に合わせて録音された音声が、当該パノラマ動画の再生に合わせて音声出力される。
本実施形態では、端末装置2に表示するパノラマ画像の表示方向(表示範囲)に応じて、スピーカ17から出力する音声が調整される。例えば、図5に示すように、端末装置2に演者P1が表示されている場合、パノラマ動画の撮像の際に演者P1が発していた音声S1を際立たせてスピーカ17から音声出力される。また、図6に示すように、端末装置2に演者P1およびP2が表示されている場合、パノラマ動画の撮像の際に演者P1およびP2がそれぞれ発していた音声S1およびS2を際立たせてスピーカ17から音声出力される。なお、ある音声を際立たせる場合、当該音声の音量を上げる処理、当該音声以外の音声の音量を下げる処理、および当該音声以外の音声を出力しない処理の少なくとも1つの音声出力処理を行えばよい。このような音声出力制御によって、端末装置2のユーザは、表示されているパノラマ画像と合わせて、演者P1から音声S1が発せられ、演者P2から音声S2が発せられ、演者P3から音声S3が発せられ、演者P4から音声S4が発せられているように感じるため、パノラマ画像が表す空間をさらにリアルに感じることができる。
なお、端末装置2が複数のスピーカを有している場合、当該スピーカから出力する音声の振り分け(バランス)も端末装置2に表示するパノラマ画像の表示方向(表示範囲)に応じて調整することができる。例えば、図6に示した一例では、端末装置2に表示されたパノラマ画像において、向かって左側に演者P1が表示され、向かって右側に演者P2が表示されている。この場合、左側のスピーカ17からは音声S2より音声S1が際立つように音声出力され、右側のスピーカ17からは音声S1より音声S2が際立つように音声出力される。これによって、パノラマ画像が表す空間に応じたよりリアルな音声出力が可能となる。なお、端末装置2が複数のスピーカを有している場合であっても、それぞれのスピーカから同じ音声を出力(すなわち、モノラル出力)してもかまわない。
次に、端末装置2に表示するパノラマ画像の表示方向(表示範囲)に応じて、スピーカ17から出力する音声を制御する方法の一例を説明する。例えば、現実世界のパノラマ動画を撮像する場合、撮影方向が互いに固定された複数の現実世界撮像カメラが用いられる。一例として、現実世界撮像カメラは、5角柱形状の支持部材の側面および上面からそれぞれ放射する方向を撮像方向としてそれぞれ1台ずつ、計6台固設されて設けられる。そして、上記側面の1つ(正面)を前方として移動しながら、現実世界を6台の現実世界撮像カメラで撮像する。なお、当該移動の際の移動方向がパノラマ動画における「正面方向」となる。また、上記現実世界撮像カメラを現実世界の定点に固定してパノラマ動画を撮像することもできる。例えば、図4を用いて例示したパノラマ画像は、上記現実世界撮像カメラを現実世界に固定して配置し、当該現実世界撮像カメラを取り囲むようにして複数の演者が楽器を演奏する様子が撮像されている。
第1の例では、このようなパノラマ動画の撮像において、パノラマ動画を撮像する際の視点に複数の指向性マイクが設けられて音声が録音される。例えば、上述した現実世界撮像カメラを用いてパノラマ動画が撮像される場合、支持部材の内部に複数の方向(例えば、現実世界撮像カメラの撮像方向と同じ水平5方向や上方向を加えた6方向等)をそれぞれ集音する指向性の高いマイクを設け、パノラマ動画の撮像に合わせてそれぞれのマイクから周辺の音を録音する。この録音処理によって、パノラマ動画の撮像とともに指向性の高い複数方向の集音エリアの音がそれぞれ録音された音声データが得られることになる。
上記現実世界撮像カメラおよび指向性マイクを用いてパノラマ動画を撮像した場合、当該パノラマ動画を構成する各パノラマ画像内において、各指向性マイクの集音エリアを設定することができる。例えば、図7に示す例では、撮像されたパノラマ画像の一部を示しており、当該パノラマ画像において指向性マイクの集音エリア1〜5が示されている。例えば、集音エリア2は、演者P1が演奏している空間付近に設定されている。また、集音エリア3は、演者P2が演奏している空間付近に設定されている。さらに、集音エリア4は、演者P3およびP4が演奏している空間付近に設定されている。
このように撮像および録音されたパノラマ動画および音声を、端末装置2を用いて再生する場合、パノラマ動画の再生の進行にしたがって、記憶されているパノラマ動画の各フレームとなるパノラマ画像および当該フレームに対応する音声データが所定時間毎に読み出されて順次表示および音声出力される。ここで、端末装置2には、読み出されたパノラマ画像の一部の表示範囲が表示される。そして、端末装置2からは、表示されるパノラマ動画の表示範囲に応じた音声が出力される。例えば、図7に示すように、パノラマ画像のうち、演者P1が演奏する楽器の一部および演者P2自身が含まれる表示範囲が端末装置2に表示されているとする。この場合、上記表示範囲には、集音エリア2および3が含まれており、端末装置2からは集音エリア2および3から集音された音声を際立たせて出力する。
具体的には、図7に示した例では、集音エリア2より集音エリア3の方が上記表示範囲に占める割合が大きい。すなわち、上記表示範囲の中心Cから集音エリア2の中心CM2までの距離DC2より、上記表示範囲の中心Cから集音エリア3の中心CM3までの距離DC3の方が短い。このような場合、端末装置2からは集音エリア2および3から集音された音声を際立たせて出力されるが、さらに集音エリア2から集音された音声より集音エリア3から集音された音声の割合(音量)を大きくして出力される。一例として、集音エリア2から集音された音声と集音エリア3から集音された音声とが音声出力される割合は、中心間距離DC2と中心間距離DC3との比に応じて設定されてもよい。これによって、表示範囲に応じたよりリアルな音声が出力される。
ここで、上記表示範囲は、立体モデル内に配置された仮想カメラC1の視線方向によって定められるものであり、立体モデルに貼り付けられたパノラマ画像に対する表示方向と考えることもできる。また、各指向性マイクの集音エリアは、当該指向性マイクによって集音する方向によって定められるものであり、パノラマ動画を撮像する際の集音方向と考えることもできる。すなわち、上述した表示範囲の中心から集音エリアの中心までの中心間距離は、表示方向(仮想カメラC1の視線方向)と集音エリアの集音方向との角度の差として考えてもよい。
第2の例では、上述したパノラマ動画の撮像において、複数の集音位置にそれぞれ設けられたマイクによって音声が録音される。例えば、上述したような複数の演者P1〜P4を撮像したパノラマ動画を生成する場合、演者P1〜P4の位置付近にそれぞれマイクを設置(例えば、演者P1〜P4それぞれがマイクを装着、演者P1〜P4それぞれの正面にマイクを設置)し、パノラマ動画の撮像に合わせてそれぞれのマイクから演者毎の音を録音する。この録音処理によって、パノラマ動画の撮像とともに各演者P1〜P4が発する音がそれぞれ録音された音声データが得られることになる。
上記現実世界撮像カメラおよび演者位置毎に設置されたマイクを用いてパノラマ動画を撮像した場合、当該パノラマ動画を構成する各パノラマ画像内において、各演者位置に応じたマイク位置を設定することができる。例えば、図8に示す例では、撮像されたパノラマ画像の一部を示しており、当該パノラマ画像において演者P1のマイクM1、演者P2のマイクM2、演者P3のマイクM3、演者P4のマイクM4が示されている。
例えば、図8に示すように、パノラマ画像のうち、演者P1が演奏する楽器の一部および演者P2自身が含まれる表示範囲が端末装置2に表示されているとする。この場合、上記表示範囲には、マイクM2が含まれており、他のマイクM3およびM4よりマイクM1が当該表示範囲に対して相対的に近い位置に配置されているため、端末装置2からはマイクM1およびM2から集音された音声を際立たせて出力する。
具体的には、図8に示した例では、上記表示範囲の中心CからマイクM1の位置までの距離DM1より、上記表示範囲の中心CからマイクM2の位置までの距離DM2の方が短い。このような場合、端末装置2からはマイクM1およびM2を用いて集音された音声を際立たせて出力されるが、さらにマイクM1を用いて集音された音声よりマイクM2を用いて集音された音声の割合(音量)を大きくして出力される。一例として、マイクM1を用いて集音された音声とマイクM2を用いて集音された音声とが音声出力される割合は、距離DM1と中心間距離DM2との比に応じて設定されてもよい。これによって、表示範囲に応じたよりリアルな音声が出力される。
ここで、パノラマ画像において各マイクが表示される位置(各演者が表示される位置でもよい)は、仮想カメラC1の配置位置を中心としたマイク設置方向として考えることもできる。すなわち、上述した表示範囲の中心からマイク位置までの距離は、表示方向(仮想カメラC1の視線方向)とマイクの設置方向との角度の差として考えてもよい。
なお、上述したように複数の集音位置にそれぞれ設けられたマイクを用いて音声を録音し、表示方向(表示範囲)に応じて音声出力する音声を制御する場合、各マイクを用いて録音した集音データと、パノラマ動画を構成するパノラマ画像それぞれに当該データを集音したマイクの位置を付加するために必要なマイク位置情報とが管理される。例えば、マイク位置情報は、パノラマ画像内のマイク位置を特定可能な情報である。
一例として、上記マイク位置情報として、端末装置2に表示している画像を生成するための仮想カメラC1の姿勢(視線方向)を表すベクトルの情報が用いられる。例えば、仮想カメラC1の位置から立体モデル上の上記マイクへの方向を表すベクトルによってマイク位置を表すことができる。なお、パノラマ動画を撮像する際の視点が時間経過につれて所定空間(例えば、現実世界)内を移動している場合には、当該視点の移動に応じて上記マイク位置も立体モデル上で移動させる。また、現実世界において、パノラマ画像の撮像中に上記マイク(すなわち、演者)が移動してもかまわない。この場合、当該現実世界におけるマイクの移動に応じて、上記マイク位置も立体モデル上で移動させてマイク位置情報を設定すればよい。なお、現実世界において、マイク位置が移動する場合、現実世界の水平方向への移動成分だけを当該移動に関するマイク位置情報として設定してもよい。例えば、立体モデル上における移動前のマイク位置を基準として、当該立体モデルのXY方向へのみ当該マイク位置が現実世界のマイクの移動に応じて移動可能となるように、当該移動に関するマイク位置情報を立体モデルにおけるXY方向のみで表現(すなわち、移動後のZ方向は、移動前のマイク位置におけるZ方向に固定)する。このように、現実世界におけるマイクの移動に関する情報をXY方向だけで表現することによって、当該マイクの移動に関する処理を簡易にすることができる。
また、パノラマ動画の再生に合わせて録音された音声を、当該パノラマ動画に付加してもかまわない。例えば、上述したようなパノラマ動画が撮像された後に、当該パノラマ動画ファイルに対応する音声ストリームが付加されたり、当該パノラマ動画を再生しているユーザが所定の操作をすることによって指示されたパノラマ動画の一部に所定の音声が付加情報として付加されたりしてもよい。前者の例としては、パノラマ動画に登場する被写体を音源として設定し、当該音源が発する音声として音声ストリームが当該パノラマ動画に予め付加される。後者の例としては、端末装置2やモニタ4に表示されているパノラマ動画の一部をユーザが指示操作しながら音声を入力することによって、当該一部に当該音声が付加情報として再生中のパノラマ動画に付加される。
このように、パノラマ動画が撮像された後に当該パノラマ動画の再生に合わせて録音された音声を当該パノラマ動画に付加する場合も、付加する音声に対応する音声データと、当該音声をパノラマ動画に付加するために必要な位置情報とが管理される。例えば、当該位置情報は、音源が発する音声としての音声ストリームがパノラマ動画に付加される場合、当該パノラマ動画を構成するパノラマ画像それぞれにおける音源位置を示す情報となる。また、当該位置情報は、ユーザによって音声が付加された場合、当該パノラマ動画を構成するパノラマ画像それぞれにおけるユーザが指示操作した入力位置を示す情報となる。そして、当該位置情報も、上述したマイク位置情報と同様に設定されて管理することができる。なお、パノラマ動画が撮像された後に当該パノラマ動画の再生に合わせて録音された音声を当該パノラマ動画に付加する場合の音声および位置情報を、以下の説明では付加音声および付加位置情報とそれぞれ記載する。
次に、端末装置2に表示するパノラマ画像の表示方向(表示範囲)に応じて、スピーカ17から出力する音声を際立たせる制御方法について説明する。第1の例として、図9に示すように、表示範囲の中心Cから集音エリアの中心またはマイク位置までの距離が短い(表示方向と集音方向または設置方向との角度の差が小さい)ほど、制御対象となっている音声の音量を漸増的に大きくすることが考えられる。第1の例の場合、表示範囲の中心が音源に近づくほど、当該音源の音声が漸増的に大きくなるような音声出力制御となる。図9に示した一例では、上記距離(または角度の差)が閾値T2以上の場合、制御対象となっている音声が出力対象とならず(すなわち、音量が0)、閾値T2未満となった場合に当該音声が出力対象となる(すなわち、音量が0より大きい。図9の例では音量a以上)。そして、上記距離(または角度の差)が閾値T2未満で閾値T1(T1<T2)以上である場合、当該距離が短いほど(または角度の差が小さいほど)制御対象となっている音声の音量が最小音量aから最大音量MAXまで漸増的に大きくなる。なお、最小音量aは、0以上最大音量MAX未満であればよい。また、上記距離(または角度の差)が閾値T1以内である場合、制御対象となっている音声の音量が最大音量MAXに設定される。なお、閾値T1を0に設定することによって、上記距離(または角度の差)が0の場合のみ、制御対象となっている音声の音量が最大音量MAXとなるように設定してもよい。
第2の例として、図10に示すように、表示範囲の中心Cから集音エリアの中心またはマイク位置までの距離が所定値未満(表示方向と集音方向または設置方向との角度の差が所定値未満)の場合のみ、制御対象となっている音声を所定の音量(例えば、最大音量MAX)で出力することが考えられる。第2の例の場合、表示範囲の中心が音源に対して所定の範囲内となった場合にのみ当該音源の音声が発せられるため、表示範囲の中心が所定の範囲内か否かで当該音源の音声がON/OFFされるような音声出力制御となる。図10に示した一例では、上記距離(または角度の差)が閾値T1以上の場合、制御対象となっている音声が出力対象とならず(すなわち、音量が0)、閾値T1未満となった場合に当該音声が出力対象となる(すなわち、音量が0より大きい)とともに最大音量MAXに設定される。
第3の例は、典型的には、上記付加音声を際立たせて音声出力する場合の制御に用いられる。図11に示すように、表示範囲の中心Cから上記付加位置情報に基づいた付加位置までの距離が所定値以上(表示方向と付加音声を付加した方向との角度の差が所定値以上)の場合のみ、制御対象となっている音声を所定の音量(例えば、最大音量MAX)で出力することが考えられる。第3の例の場合、表示範囲の中心が音源に対して所定の範囲外となった場合にのみ当該音源の音声が発せられるため、表示方向が当該音源に対して逆となる方向となった場合に当該音源の音声がONされるとともに、表示方向を当該音源の方向を向けると当該音源の音声がOFFされるような音声出力制御となる。図11に示した一例では、上記距離(または角度の差)が閾値T1未満の場合、制御対象となっている音声が出力対象とならず(すなわち、音量が0)、閾値T1以上となった場合に当該音声が出力対象となる(すなわち、音量が0より大きい)とともに最大音量MAXに設定される。
このように、端末装置2に表示するパノラマ画像の表示方向(表示範囲)に応じて、スピーカ17から出力する音声が調整されることによって、パノラマ画像を表示する際に臨場感を高めることができる。例えば、上記実施形態では、パノラマ画像の表示方向(表示範囲)に応じて複数の音声がミキシングされるため、パノラマ画像に対する音源の定位を変化させることができ、当該音源の定位を用いた様々なイベントが可能となる。
なお、上述した実施形態では、端末装置2に表示されたパノラマ画像内に音源が含まれる場合のみ、当該音源からの音声が出力されるようにしてもよい。例えば、図9に示す閾値T2や図10に示す閾値T1を端末装置2におけるパノラマ画像の表示範囲の外縁に設定することによって、パノラマ画像における表示範囲内に音源が含まれるか否かに応じて、当該音源からの音声の音量を調整して出力することができる。
また、上述した実施形態では、表示範囲の中心から音源(集音エリアの中心、マイク位置、音声を付加した位置など)までの距離や角度の差に基づいて、当該音源からの音声の音量を制御する例を用いたが、他のパラメータに基づいて音量制御を行ってもかまわない。例えば、上記音源からの音声が音声出力される対象となる範囲(例えば、図7に示す集音エリア)を当該音源毎にパノラマ画像において設定し、端末装置2に表示されたパノラマ画像内に含まれる当該範囲の大きさ(当該範囲が占める割合)に応じて、当該範囲を有する音源からの音声の音量が制御されてもよい。
また、端末装置2に表示されている画像を拡大表示または縮小表示する操作が可能である場合、当該表示画像の拡大または縮小に応じた音声出力制御を行ってもかまわない。一例として、上述した距離や角度の差を拡大率(または縮小率)に応じて拡大(または縮小)し、拡大(または縮小)後の距離や角度の差を上記第1〜第3の例の制御方法に適用させて音声出力制御を行う。他の例として、上述したように音源からの音声が音声出力される対象となる範囲を音源それぞれに設定し、拡大(または縮小)後に端末装置2に表示されたパノラマ画像内に含まれる当該範囲の大きさ(当該範囲が占める割合)に応じて、当該範囲を有する音源からの音声の音量を制御する。このように、表示画像の拡大または縮小に応じた音声出力制御をさらに行うことによって、端末装置2に表示するパノラマ画像の表示範囲に応じて、際立つ音声が変化するような音声出力が可能となる。
[本実施形態の具体的な処理例]
次に、情報処理装置3において行われる処理の詳細を説明する。なお、後述する処理の説明では、複数の集音位置にそれぞれ設けられたマイクによって録音された音声を用いる例(図8参照)を用いる。まず、図12および図13を参照して、処理において用いられる主なデータについて説明する。なお、図12は、情報処理装置3のメモリ6に記憶される主なデータおよびプログラムの一例を示す図である。図13は、メモリ6に記憶されるパノラマ画像ファイルデータDaの一例を示す図である。
図12に示すように、メモリ6のデータ記憶領域には、パノラマ画像ファイルデータDa、端末操作データDb、姿勢データDc、仮想カメラデータDd、仮想空間画像データDe、音量制御データDf、および音声データDg等が記憶される。なお、メモリ6には、図12に示すデータの他、実行するアプリケーションで用いるデータ等、処理に必要なデータ等が記憶されてもよい。また、メモリ6のプログラム記憶領域には、情報処理プログラムを構成する各種プログラム群Paが記憶される。
図13を参照して、パノラマ画像ファイルデータDaについて説明する。図13において、パノラマ画像ファイルデータDaは、フレーム毎の情報として、パノラマ画像データおよび音声データ等を含んでいる。パノラマ画像データは、フレーム番号N(1,2,3…)毎に、上述した立体モデルの内面にテクスチャとして貼り付けるパノラマ画像Inを示すデータを含んでいる。例えば、パノラマ画像データは、所定の記憶媒体にエンコードされて記憶されたパノラマ動画を、上記方式によってデコードすることによって得られる。
パノラマ画像ファイルデータDaの音声データは、フレーム番号N毎に、パノラマ動画を撮像する際に用いられた複数のマイク毎のマイク位置情報(Am1n,Am2n,Am3n…)および集音データ(Sm1n,Sm2n,Sm3n…)等を含んでいる。マイク位置情報は、フレーム番号N毎のパノラマ画像における各マイクの位置(フレーム番号N毎のパノラマ画像における仮想カメラの配置位置を中心としたマイク設置方向)を示す情報である。例えば、マイクM1に対して、フレーム番号N毎のパノラマ画像におけるマイク設置方向を示す情報として、マイク位置情報(Am11,Am12,Am13,…Am1n)が記憶されている。また、集音データは、各マイクを用いてそれぞれ録音された音声データであり、フレーム番号N毎に記憶されている。例えば、マイクM1を用いてフレーム番号N毎に録音された音声データとして、集音データ(Sm11,Sm12,Sm13,…Sm1n)が記憶されている。
なお、図13に示すパノラマ画像ファイルデータDaは、単なる一例に過ぎず、同様の情報が得られるのであれば、データの構成を変更してもいいし、各データに加えておよび/または代えて別のデータが格納されてもよい。
図12に戻り、端末操作データDbは、端末装置2に対する操作内容を示すデータであり、角速度データDb1等を含んでいる。角速度データDb1は、端末装置2に生じる角速度を示すデータであり、ジャイロセンサ15から出力される角速度を示すデータである。
姿勢データDcは、実空間における端末装置2の姿勢を示すデータであり、例えば基準姿勢からの端末装置2の回転量を示すデータである。
仮想カメラデータDdは、立体モデルの中央に配置される仮想カメラに関するデータである。例えば、仮想カメラデータDdは、仮想空間における仮想カメラの位置、姿勢、視野(画角)等に関するデータである。
仮想空間画像データDeは、上記仮想カメラから立体モデルの内面を見た仮想空間画像を示すデータである。
音量制御データDfは、パノラマ画像ファイルデータDaの音声データに基づいた音声を出力する際の音声出力制御を定義するデータである。音量制御データDfは、パノラマ画像ファイルデータDaの音声データ毎に行う音声出力制御方法が定義されており、例えば図9〜図11を用いて説明した制御方法が音源毎に定義されている。
音声データDgは、スピーカ17から音声出力する音声を示すデータであり、音量制御データDfによって定義された音声出力制御方法に基づいて制御されて音声出力される音声を示すデータである。
次に、図14および図15を参照して、情報処理装置3において行われる処理の詳細を説明する。なお、図14は、情報処理装置3において実行される処理の前半の一例を示すフローチャートである。図15は、情報処理装置3において実行される処理の後半の一例を示すフローチャートである。ここで、図14および図15に示すフローチャートにおいては、情報処理装置3における処理のうち、パノラマ動画を端末装置2に表示して音声出力する処理について主に説明し、これらの処理と直接関連しない他の処理については詳細な説明を省略する。
CPU5は、メモリ6等を初期化し、情報処理装置3内の不揮発メモリまたは光ディスクに記憶される情報処理プログラムをメモリ6に読み込む。そして、CPU5によって当該情報処理プログラムの実行が開始される。図14および図15に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。
なお、図14および図15に示すフローチャートにおける各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよいし、各ステップの処理に加えておよび/または代えて別の処理が実行されてもよい。また、本実施例では、上記フローチャートの各ステップの処理をCPU5が実行するものとして説明するが、上記フローチャートにおける一部または全部のステップの処理を、上記CPU以外のプロセッサや専用回路が実行するようにしてもよい。
図14において、CPU5は、音声データを含むパノラマ画像ファイルを取得する(ステップ81)。例えば、CPU5は、情報処理装置3内の不揮発メモリ、情報処理装置3に装着された記憶媒体、またはネットワーク等を介して他の装置から、音声データを含むパノラマ画像ファイルを取得し、パノラマ画像ファイルデータDaに格納する。
次に、CPU5は、パノラマ動画を貼り付けるための立体モデルを、仮想空間にその中心が原点に位置するように配置し(ステップ82)、次のステップに処理を進める。例えば、CPU5は、立体モデルの形状が立方体である場合、仮想空間に設定されたXYZ軸に対して、上記立体モデルの正面がZ軸正方向側でZ軸と垂直に交わり、背面がZ軸負方向側でZ軸と垂直に交わり、左側面がX軸正方向側でX軸と垂直に交わり、右側面がX軸負方向側でX軸と垂直に交わり、上面がY軸正方向側でY軸と垂直に交わり、底面がY軸負方向側でY軸と垂直に交わるように、上記立体モデルを配置する。
次に、CPU5は、仮想カメラを基準位置に初期姿勢で配置し(ステップ83)、次のステップに処理を進める。例えば、CPU5は、仮想カメラの基準位置を仮想空間の原点(すなわち、立体モデルの中央)とし、仮想カメラのxyz軸(x軸正方向が仮想カメラの左方向、y軸正方向が仮想カメラの上方向、z軸正方向が仮想カメラの視線方向)が仮想空間のXYZ軸に一致する姿勢を初期姿勢とする。そして、CPU5は、仮想カメラの基準位置および初期姿勢を用いて、仮想カメラデータDdにおける仮想カメラの位置および姿勢に関するデータを更新する。
次に、CPU5は、端末装置2の姿勢調整をユーザに促し(ステップ84)、姿勢調整が行われるのを待つ(ステップ85)。
ステップ86において、CPU5は、現時点の端末装置2の姿勢を基準姿勢に設定し、次のステップに処理を進める。例えば、CPU5は、姿勢データDcが示す端末装置2の姿勢(基準姿勢からの回転量)を初期化(各軸周りの回転量を0)して、端末装置2の基準姿勢を設定する。
なお、上述したように、上記ステップ84〜ステップ86の処理においては、ステップ84の処理が行われた時点または当該時点から所定時間経過後の端末装置2の姿勢を基準姿勢として設定してもよいし、ユーザが所定の操作をしたときの端末装置2の姿勢を基準姿勢として設定してもよいし、予め定める固定的な端末装置2の姿勢を基準姿勢として設定してもよいし、予め定める固定的な複数の端末装置2の姿勢のうちユーザが選択してもよい。一例として、モニタ4にも同じパノラマ動画を再生して表示する場合、CPU5は、端末装置2のLCD11の向きとモニタ4の表示画面の向きとが同じになるように端末装置2の姿勢を調整し、当該姿勢になった場合に端末装置2の所定の操作を行うように促す表示を、端末装置2および/またはモニタ4に表示する。そして、CPU5は、端末装置2の操作部13に対して所定の操作が行われたことを示す操作データを取得した場合に、上記姿勢調整が行われたと判断して、当該操作が行われた時点の端末装置2の姿勢を基準姿勢として設定する。この場合、上記ステップ84〜ステップ86の処理によって、端末装置2のLCD11の向きとモニタ4の表示画面の向きとが同じになるように姿勢調整された端末装置2の姿勢が、端末装置2の基準姿勢として設定されることになる。
次に、CPU5は、フレーム数nを1に設定し(ステップ87)、次のステップ91(図15参照)に処理を進める。
図15において、CPU5は、パノラマ画像ファイルデータDaのパノラマ画像データのうち、フレームnに対応するパノラマ画像を取得し(ステップ91)、次のステップに処理を進める。
次に、CPU5は、上記ステップ91で取得したパノラマ画像を立体モデルの内面にテクスチャとして貼りつけ(ステップ92)、次のステップに処理を進める。例えば、図3を用いて前述したとおり、パノラマ画像が立体モデルの各内面にテクスチャとして貼りつけられる。
次に、CPU5は、端末装置2のジャイロセンサ15の出力値を取得し(ステップ93)、次のステップに処理を進める。なお、端末装置2からは、ジャイロセンサ15の出力値を示すデータが一定周期で情報処理装置3に送信されて、角速度データDb1に格納されている。
次に、CPU5は、上記ステップ93において取得したデータを用いて、端末装置2の基準姿勢からの回転方向および回転量(ステップ86で初期化してからの回転方向および回転量)を算出し(ステップ94)、次のステップに処理を進める。例えば、上記ステップ94では、基準姿勢における端末装置2の所定軸方向(例えば、基準姿勢におけるxt軸、yt軸、zt軸方向)を軸とした回転方向および回転量がそれぞれ算出されて、姿勢データDcを更新する。なお、回転方向は、回転量の正負により表すことができるので、姿勢データDcには回転量を示すデータのみ格納してもよい。例えば、CPU5は、上記ステップ94では、前回処理におけるステップ94において算出された回転量に、今回のステップ94で取得した角速度データに基づく回転量を加えて、新たな回転量として算出する。
次に、CPU5は、仮想カメラの仮想空間における姿勢を、上記初期姿勢からステップ94で算出された回転量だけ回転させ(ステップ95)、次のステップに処理を進める。例えば、CPU5は、上記初期姿勢から仮想カメラの姿勢を、ステップ94で算出された端末装置2のxt軸方向を軸とした回転量と同じだけ仮想空間のX軸方向(初期姿勢における仮想カメラC1のx軸方向)を軸として回転させ、かつ、ステップ94で算出された端末装置2のyt軸方向を軸とした回転量と同じだけ仮想空間のY軸方向(初期姿勢における仮想カメラC1のy軸方向)を軸として回転させ、かつ、ステップ94で算出された端末装置2のzt軸方向を軸とした回転量と同じだけ仮想空間のZ軸方向(初期姿勢における仮想カメラC1のz軸方向)を軸として回転させて、仮想カメラデータDdにおける仮想カメラの姿勢に関するデータを更新する。
次に、CPU5は、仮想カメラから見た立体モデルの内面の画像(仮想空間画像)を生成し(ステップ96)、次のステップに処理を進める。例えば、CPU5は、生成された仮想空間画像を示すデータを用いて、仮想空間画像データDeを更新する。
次に、CPU5は、仮想カメラの方向に基づいて音声データを生成して音声データDgを更新し(ステップ97)、次のステップに処理を進める。例えば、CPU5は、パノラマ画像ファイルデータDaを参照して、フレーム番号nに対応するマイク設置方向をそれぞれ抽出し、立体モデルに対する現時点の仮想カメラの表示方向とそれぞれのマイク設置方向との角度の差を算出する。そして、CPU5は、音量制御データDfに基づいて角度の差に対応する音量をそれぞれ設定し、設定された音量に応じてフレーム番号nに対応する集音データそれぞれをミキシングして音声出力する音声データを生成する。なお、上記音量は、フレーム番号nのパノラマ画像における表示範囲の中心と当該パノラマ画像における各マイク設置位置との距離や方向に応じて設定されてもかまわない。
なお、上記ステップ97の処理においては、端末装置2が複数のスピーカを有している場合、当該スピーカからそれぞれ出力する音声の振り分け(バランス)もパノラマ画像の表示方向(表示範囲)に応じて調整されてもよい。例えば、端末装置2が左右に1つずつスピーカを有している場合、上記算出された角度の差のうち、現時点の仮想カメラの上下方向(y軸方向)を軸とする成分の大きさおよび当該成分の正負等に基づいて音声の左右振り分けを調整し、左右それぞれのスピーカから音声出力するための音声データをそれぞれ生成する。また、音声出力する音声の定位に基づいて、所定のサラウンド効果(例えば、疑似サラウンド)を付加して、上記音声データが生成されてもかまわない。なお、当該サラウンド効果は、送信元(情報処理装置3)側で付与してもいいし、送信先(サウンドIC16)側で付与してもよい。
次に、CPU5は、仮想空間画像データDeに基づいた仮想空間画像および音声データDgに基づいた音声を端末装置2へ送信し(ステップ98)、次のステップに処理を進める。例えば、仮想空間画像データDeに基づいた仮想空間画像は、端末装置2によって受信され、LCD11に出力されて仮想空間画像が表示される。また、音声データDgに基づいた音声は、端末装置2によって受信され、サウンドIC16を介してスピーカ17から音声出力される。なお、情報処理装置3から端末装置2へ仮想空間画像および音声を送信する際、所定の圧縮処理が行われてもよい。この場合、圧縮処理が施された仮想空間画像および音声のデータが端末装置2に送られ、端末装置2によって所定の伸張処理が行われた後、仮想空間画像の表示および音声の出力が行われる。
次に、CPU5は、フレーム数nをインクリメントし(ステップ99)、処理を終了するか否かを判定する(ステップ100)。処理を終了する条件としては、例えば、再生しているパノラマ動画における最後のフレームの画像の再生が終了したことや、ユーザが処理を終了する操作を行ったこと等がある。CPU5は、処理を終了しない場合に上記ステップ91に戻って処理を繰り返し、処理を終了する場合に当該フローチャートによる処理を終了する。以降、ステップ91〜ステップ100の一連の処理は、ステップ100で処理を終了すると判定されるまで繰り返し実行される。
[変形例]
上記実施形態は本発明を実施する一例であり、他の実施形態においては例えば以下に説明する構成で本発明を実施することも可能である。
上記処理例においては、端末装置2にパノラマ画像の一部を表示するとともに、端末装置2に表示するパノラマ画像の表示方向(表示範囲)に応じた音声をスピーカ17から出力する例を用いたが、情報処理システム1はモニタ4にさらにパノラマ画像を表示し、パノラマ動画を実質的に同じ時間軸で再生して端末装置2およびモニタ4に表示する構成であってもよい。
第1の例として、モニタ4にパノラマ画像を表示するための別の仮想カメラ(第2の仮想カメラ)を設け、第2の仮想カメラの位置および姿勢を上記基準位置および初期姿勢に固定する。そして、当該第2の仮想カメラから見た立体モデルの内面の画像をモニタ4に表示すれば、モニタ4には常に基準方向(正面方向)のパノラマ画像を表示することができる。なお、上記第2の仮想カメラの姿勢をユーザ操作に応じて変化させてもよい。この場合、モニタ4に表示するパノラマ画像の範囲が、ユーザ操作に応じて変化することになる。
第2の例として、モニタ4には、パノラマ画像全体を示す画像(全方位画像)を常に表示する。例えば、全方位画像は、パノラマ動画を撮像した撮像カメラから得られた画像を合成して生成してもいいし、立体モデルの各内面に貼り付けられるパノラマ画像を合成して生成してもよいが、全方位画像を生成する手法については、既に周知であるためここでは詳細な説明を省略する。
第3の例として、モニタ4には、端末装置2に表示されているパノラマ画像をそのまま表示する。この場合、端末装置2に表示されているパノラマ画像をリアルタイムにモニタ4に表示してもいい。また、端末装置2を用いて過去に同じパノラマ動画が再生されている場合に、当該再生において端末装置2に表示されていたパノラマ画像のうち、現時点で端末装置2に表示されているパノラマ画像と実質的にパノラマ動画再生において同じ時間軸となるパノラマ画像をモニタ4に表示してもよい。
上述した第1〜第3の例において、モニタ4から出力される音声は、上述した端末装置2に対する音声出力制御と同様にモニタ4に表示されるパノラマ画像の表示方向(表示範囲)に応じた音声であってもよい。また、上述した第1〜第3の例において、モニタ4から出力される音声は、パノラマ動画の撮像の際に録音された音声が全てミキシングされた音声全体であってもよい。後者の場合、端末装置2からはパノラマ画像の表示方向(表示範囲)に応じて調整された音声が出力され、録音された音声が全てミキシングされた音声全体がモニタ4から出力される。したがって、ユーザは、端末装置2を用いてユーザが所望する方向に対して音源が定位した臨場感ある音声を楽しむことができるとともに、全体の音声を聴きたい場合はモニタ4から出力される音声を聴くというような、ユーザの好みやパノラマ動画の視聴状況に応じて音声出力を使い分けることが可能となる。
また、上記実施形態においては、情報処理システム1は端末装置2を1つのみ有する構成であったが、情報処理システム1は複数の端末装置2を有する構成であってもよい。すなわち、情報処理装置3は、複数の端末装置2とそれぞれ無線通信可能であり、画像のデータを各端末装置2へ送信し、ジャイロセンサ15のデータを各端末装置2から受信するものであってもよい。そして、仮想空間に各端末装置2の仮想カメラをそれぞれ配置して、各端末装置2の姿勢に応じて各仮想カメラの姿勢を制御して、各仮想カメラから見た仮想空間の画像を各端末装置2に送信するようにすればよい。なお、情報処理装置3は、複数の端末装置2のそれぞれと無線通信を行うが、このとき、情報処理装置3は、各端末装置2との無線通信を時分割で行ってもよいし、周波数帯域を分割して行ってもよい。
このように、複数の端末装置2を用いてパノラマ動画を表示する場合、上記ステップ83において、各仮想カメラを同じ基準位置に同じ初期姿勢で配置する。そして、ステップ84〜ステップ86において、各端末装置2の向きが同じになるようにそれぞれの姿勢を調整し、当該姿勢になった場合に少なくとも1つの端末装置2を用いて所定の操作を行うことによって、各端末装置2の姿勢をそれぞれ基準姿勢に設定する。このような設定に基づいて、各端末装置2の基準姿勢からの回転量に応じてそれぞれの仮想カメラの姿勢を変更し、各仮想カメラから見た立体モデルの内面の画像を各端末装置2に表示する。また、上述した音声出力制御と同様に、各端末装置2に表示するパノラマ画像の表示方向(表示範囲)に応じた音声を、各端末装置2のスピーカから出力する。このように、実空間における各端末装置2の位置関係をキャリブレーションした後に、各端末装置2の姿勢変化と同じように各仮想カメラの姿勢を変化させるとともに、表示方向(表示範囲)に応じた音声を各端末装置2から出力することによって、パノラマ動画によって生成される同じ世界を複数の表示装置を介して自由に覗いたような画像および音声を各端末装置2に表示して出力することができる。
また、上述した端末装置2は、図14および図15を用いて説明した一連の処理や情報処理装置3で行われるような情報処理を実行しない、いわゆるシンクライアント端末として機能するものであった。しかしながら、端末装置2は、例えば携帯ゲーム機のように、所定のプログラム(ゲームプログラム)によって所定の情報処理(ゲーム処理)を実行する機能を有する装置であってもよい。この場合、上記実施例において情報処理装置3によって実行される一連の処理のうち、少なくとも一部の処理が端末装置2によって実行されてもよい。一例として、上記一連の処理の全部を実行可能な端末装置を少なくとも1つ用いて複数の端末装置にパノラマ動画をそれぞれ表示して音声出力する場合、当該実行可能な端末装置の1つを当該一連の処理を実行する主処理実行装置とし、他の端末装置の姿勢に応じたパノラマ動画および音声を当該主処理実行装置から他の端末装置へ送信することによって、同様のパノラマ画像および音声を各端末装置に表示して出力することができる。
また、上述した実施例では、現実世界を移動しながら撮像したパノラマ画像によって構成されるパノラマ動画を表示する例を用いたが、仮想世界内を移動しながら撮像したパノラマ画像によって構成されるパノラマ動画や、現実世界を撮像したパノラマ画像に仮想世界の画像を合成した画像によって構成されるパノラマ動画を表示してもかまわない。
他の実施形態では、互いに通信可能な複数の情報処理装置を有する情報処理システムにおいて、当該複数の情報処理装置が情報処理を分担して実行するようにしてもよい。なお、複数の情報処理装置において情報処理が実行される場合には、各情報処理装置で実行される処理を同期させる必要があり、処理が複雑になってしまう。これに対して、上記実施形態のように、情報処理が1つの情報処理装置3によって実行され、端末装置2が画像を受信して表示する場合(つまり、端末装置2がシンクライアント端末である場合)には、複数の情報処理装置間で処理の同期をとる必要がなく、処理を簡易化することができる。
また、上記実施形態においては、情報処理を実行することが可能な情報処理装置3を含む情報処理システム1を例として説明したが、上記実施形態で記載した各処理動作は、例示したゲームシステムおよびゲーム装置に限らず、任意の情報処理システムおよび情報処理装置によって実行可能である。情報処理システムは、情報処理装置と、少なくとも1つの表示装置(例えば端末装置2)とを含むものであればよく、情報処理装置は、当該表示装置に画像を出力して表示させることができるものであればよい。また、上述した処理は、少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行されることが可能である。
また、上記情報処理プログラムは、外部記憶媒体を通じて情報処理装置3に供給されてもいいし、有線または無線の通信回線を通じて情報処理装置3に供給されてもよい。また、上記プログラムは、情報処理装置3内部の不揮発性記憶装置に予め記録されていてもよい。なお、上記プログラムを記憶する情報記憶媒体としては、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体、不揮発性メモリ、フレキシブルディスク、ハードディスク、光磁気ディスク、磁気テープなどでもよい。また、上記プログラムを記憶する情報記憶媒体としては、上記プログラムを記憶する揮発性メモリでもよい。このような記憶媒体は、コンピュータ等が読み取り可能な記憶媒体ということができる。例えば、コンピュータ等に、これらの記憶媒体のプログラムを読み込ませて実行させることにより、上述で説明した各種機能を提供させることができる。
以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示に過ぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。また、当業者は、本発明の具体的な実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。また、本明細書において使用される用語は、特に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきである。したがって、他に定義されない限り、本明細書中で使用される全ての専門用語および技術用語は、本発明の属する分野の当業者によって一般的に理解されるのと同じ意味を有する。矛盾する場合、本明細書(定義を含めて)が優先する。
以上のように、本発明は、パノラマ動画を表示する際に臨場感を高めること等を目的として、例えば情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法等として有用である。
1…情報処理システム
2…端末装置
3…情報処理装置
4…モニタ
11…LCD
12…タッチパネル
13…操作部
14…速度センサ
15…ジャイロセンサ
16…サウンドIC
17…スピーカ

Claims (23)

  1. スピーカが設けられた少なくとも1つの第1の表示装置に画像を表示する情報処理装置に含まれるコンピュータで実行される情報処理プログラムであって、
    前記コンピュータを、
    パノラマ動画を記憶したパノラマ動画記憶手段から、パノラマ動画を読み出して逐次取得するパノラマ動画取得手段と、
    前記取得されたパノラマ動画において、ユーザ操作に応じて前記第1の表示装置に表示する表示範囲を設定する表示範囲設定手段と、
    前記第1の表示装置に表示する画像と同期して出力する音声を、前記表示範囲に基づいて生成する音声生成手段と、
    前記取得されたパノラマ動画のうち、前記表示範囲内のパノラマ動画を前記第1の表示装置に逐次表示する制御を行う表示制御手段と、
    前記音声生成手段が生成した音声を、前記第1の表示装置に表示する画像と同期して前記スピーカから出力する制御を行う音声出力制御手段として機能させる、情報処理プログラム。
  2. 前記パノラマ動画を撮像する際または前記パノラマ動画を再生する際に録音された少なくとも1つの音声を記憶した音声記憶手段から、前記第1の表示装置に表示する画像と同期して出力する音声を生成するための元音声を取得する音声取得手段として、さらに前記コンピュータを機能させ、
    前記音声生成手段は、前記音声取得手段が取得した元音声の音量を前記表示範囲に基づいて調整することによって、前記第1の表示装置に表示する画像と同期して出力する音声を生成する、請求項1に記載の情報処理プログラム。
  3. 前記音声記憶手段は、前記録音された音声の音源となる前記パノラマ動画における位置を、当該音声毎に記憶しており、
    前記音声生成手段は、前記パノラマ動画における前記表示範囲を基準とした前記音源の位置に基づいて、当該位置を音源とする音声の音量を調整する、請求項2に記載の情報処理プログラム。
  4. 前記音声生成手段は、前記パノラマ動画における前記表示範囲と前記音源とが相対的に近い場合に当該位置を音源とする音声の音量を相対的に大きく調整する、請求項3に記載の情報処理プログラム。
  5. 前記音声生成手段は、前記パノラマ動画における前記表示範囲を基準として前記音源が所定の範囲内にある場合に当該位置を音源とする音声の音量を所定値以上に設定し、前記音源が所定の範囲外にある場合に当該位置を音源とする音声の音量を0に設定する、請求項3に記載の情報処理プログラム。
  6. 前記音声記憶手段は、前記パノラマ動画を撮像する際または前記パノラマ動画を再生する際に複数の音源からそれぞれ録音された音声を記憶し、前記パノラマ動画における当該音源の位置を当該音声毎にそれぞれ記憶しており、
    前記音声生成手段は、前記パノラマ動画における前記表示範囲を基準とした前記音源それぞれの位置に基づいて、前記第1の表示装置に表示する画像と同期して出力する音声を選択する、請求項2乃至5の何れか1つに記載の情報処理プログラム。
  7. 前記音声生成手段は、前記パノラマ動画における前記表示範囲と前記音源の位置とが所定の関係となった場合に、当該位置を音源とする音声を前記第1の表示装置に表示する画像と同期して出力する音声として選択する、請求項6に記載の情報処理プログラム。
  8. 前記音声生成手段は、前記パノラマ動画における前記表示範囲内に前記音源の位置が含まれるか否かに応じて、当該位置を音源とする音声の音量を調整する、請求項3乃至5の何れか1つに記載の情報処理プログラム。
  9. 前記音声生成手段は、前記パノラマ動画における前記表示範囲内に前記音源の位置が含まれる場合、当該位置を音源とする音声の音量を相対的に大きく調整する、請求項8に記載の情報処理プログラム。
  10. 前記音声記憶手段は、前記パノラマ動画における前記音源の位置として、当該位置を音源とする音声を出力対象とする有効領域を音源毎に当該パノラマ動画に設定して記憶しており、
    前記音声生成手段は、前記パノラマ動画における前記表示範囲内に含まれる前記有効領域の大きさに応じて、当該有効領域が設定された音源における音声の音量を調整する、請求項3乃至5の何れか1つに記載の情報処理プログラム。
  11. 前記第1の表示装置は、ユーザ操作に応じて、前記パノラマ動画を拡大または縮小して表示することが可能であり、
    前記表示範囲設定手段は、前記拡大または縮小する操作に応じて、前記第1の表示装置に表示する表示範囲を拡大または縮小して設定し、
    前記音声生成手段は、前記拡大または縮小された表示範囲に応じて前記音量を調整する、請求項8乃至10の何れか1つに記載の情報処理プログラム。
  12. 前記パノラマ動画記憶手段は、現実世界を撮像したパノラマ動画を記憶しており、
    前記音声記憶手段は、前記パノラマ動画を撮像する際に現実世界において異なる方向を集音方向とする複数の指向性マイクを用いて録音した音声をそれぞれ記憶し、前記パノラマ動画における当該集音方向に対応する位置を音源の位置として当該音源の位置を当該音声毎にそれぞれ記憶しており、
    前記音声生成手段は、前記パノラマ動画における前記表示範囲を基準とした前記音源の位置に基づいて、当該位置を音源とする音声の音量を調整する、請求項2乃至5の何れか1つに記載の情報処理プログラム。
  13. 前記パノラマ動画記憶手段は、現実世界を撮像したパノラマ動画を記憶しており、
    前記音声記憶手段は、前記パノラマ動画を撮像する際に現実世界において複数の集音位置にそれぞれ設けられたマイクを用いて録音した音声をそれぞれ記憶し、前記パノラマ動画における当該集音位置を音源の位置として当該音源の位置を当該音声毎にそれぞれ記憶しており、
    前記音声生成手段は、前記パノラマ動画における前記表示範囲を基準とした前記音源の位置に基づいて、当該位置を音源とする音声の音量を調整する、請求項2乃至5の何れか1つに記載の情報処理プログラム。
  14. 前記音声記憶手段は、前記パノラマ動画を再生する際に録音された音声を少なくとも記憶し、前記パノラマ動画における当該録音の際に指定された位置を音源の位置として当該音源の位置を当該録音された音声毎に記憶しており、
    前記音声生成手段は、前記パノラマ動画における前記表示範囲を基準とした前記音源の位置に基づいて、当該位置を音源とする音声の音量を調整する、請求項2乃至5の何れか1つに記載の情報処理プログラム。
  15. 前記取得されたパノラマ動画を仮想空間に配置するパノラマ動画配置手段として、さらに前記コンピュータを機能させ、
    前記表示範囲設定手段は、仮想空間に配置されたパノラマ動画に対する視線方向を変化させることによって、当該パノラマ動画に対する前記表示範囲を設定する、請求項1乃至14の何れか1つに記載の情報処理プログラム。
  16. 前記第1の表示装置に対応付けられた入力装置からの入力を受け付ける入力受付手段として、さらに前記コンピュータを機能させ、
    前記表示範囲設定手段は、前記第1の表示装置に対応付けられた入力装置から受け付けられた入力に基づいて、前記表示範囲を設定する、請求項1乃至15の何れか1つに記載の情報処理プログラム。
  17. 前記第1の表示装置は、当該第1の表示装置本体の動きまたは姿勢に応じたデータを出力するセンサを備え、
    前記入力受付手段は、前記センサから出力されたデータを、前記入力装置からの入力として受け付け、
    前記表示範囲設定手段は、前記センサから出力されるデータに基づいて算出された前記第1の表示装置の姿勢に応じて、前記表示範囲を設定する、請求項16に記載の情報処理プログラム。
  18. 前記センサは、前記第1の表示装置本体の動きまたは姿勢に応じたデータを出力するジャイロセンサおよび加速度センサの少なくとも一方であり、
    前記表示範囲設定手段は、前記ジャイロセンサおよび前記加速度センサの少なくとも一方から出力されるデータに基づいて算出された前記第1の表示装置の姿勢に応じて、前記表示範囲を設定する、請求項17に記載の情報処理プログラム。
  19. 前記表示範囲設定手段は、前記取得されたパノラマ動画において、据置型の第2の表示装置に表示する表示範囲をさらに設定し、
    前記音声生成手段は、前記第1の表示装置の表示範囲に基づいて生成される音声とは独立して、前記第2の表示装置に表示する画像と同期して当該第2の表示装置から出力する音声をさらに生成し、
    前記表示制御手段は、前記取得されたパノラマ動画のうち、前記第2の表示装置の表示範囲内のパノラマ動画を前記第2の表示装置に逐次表示する制御をさらに行い、
    前記音声出力制御手段は、前記第2の表示装置から音声出力する音声を、前記第2の表示装置に表示する画像と同期して当該第2の表示装置から音声出力する制御をさらに行う、請求項1乃至18の何れか1つに記載の情報処理プログラム。
  20. 前記パノラマ動画取得手段は、前記パノラマ動画記憶手段から、パノラマ動画の各フレームとなるパノラマ画像を、前記第1の表示装置に再生する所定時間毎に読み出して逐次取得し、
    前記表示範囲設定手段は、前記取得されたパノラマ画像において前記表示範囲を設定し、
    前記音声生成手段は、前記第1の表示装置に表示するパノラマ画像と同期して出力する音声を前記表示範囲に基づいて生成し、
    前記表示制御手段は、前記取得されたパノラマ画像のうち、前記表示範囲内のパノラマ画像を前記第1の表示装置に逐次表示する制御を行い、
    前記音声出力制御手段は、前記音声生成手段が生成した音声を、前記第1の表示装置に表示するパノラマ画像と同期して前記スピーカから出力する制御を行う、請求項1乃至19の何れか1つに記載の情報処理プログラム。
  21. スピーカが設けられた少なくとも1つの表示装置に画像を表示する情報処理装置であって、
    パノラマ動画を記憶したパノラマ動画記憶手段と、
    前記パノラマ動画記憶手段に記憶されたパノラマ動画を読み出して逐次取得するパノラマ動画取得手段と、
    前記取得されたパノラマ動画において、ユーザ操作に応じて前記表示装置に表示する表示範囲を設定する表示範囲設定手段と、
    前記表示装置に表示する画像と同期して出力する音声を、前記表示範囲に基づいて生成する音声生成手段と、
    前記取得されたパノラマ動画のうち、前記表示範囲内のパノラマ動画を前記表示装置に逐次表示する制御を行う表示制御手段と、
    前記音声生成手段が生成した音声を、前記表示装置に表示する画像と同期して前記スピーカから出力する制御を行う音声出力制御手段とを備える、情報処理装置。
  22. 複数の装置が通信可能に構成され、スピーカが設けられた少なくとも1つの表示装置に画像を表示する情報処理システムであって、
    パノラマ動画を記憶したパノラマ動画記憶手段と、
    前記パノラマ動画記憶手段に記憶されたパノラマ動画を読み出して逐次取得するパノラマ動画取得手段と、
    前記取得されたパノラマ動画において、ユーザ操作に応じて前記表示装置に表示する表示範囲を設定する表示範囲設定手段と、
    前記表示装置に表示する画像と同期して出力する音声を、前記表示範囲に基づいて生成する音声生成手段と、
    前記取得されたパノラマ動画のうち、前記表示範囲内のパノラマ動画を前記表示装置に逐次表示する制御を行う表示制御手段と、
    前記音声生成手段が生成した音声を、前記表示装置に表示する画像と同期して前記スピーカから出力する制御を行う音声出力制御手段とを備える、情報処理システム。
  23. スピーカが設けられた少なくとも1つの表示装置に画像を表示する少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行される情報処理方法であって、
    パノラマ動画を記憶したパノラマ動画記憶手段から、パノラマ動画を読み出して逐次取得するパノラマ動画取得ステップと、
    前記取得されたパノラマ動画において、ユーザ操作に応じて前記表示装置に表示する表示範囲を設定する表示範囲設定ステップと、
    前記表示装置に表示する画像と同期して出力する音声を、前記表示範囲に基づいて生成する音声生成ステップと、
    前記取得されたパノラマ動画のうち、前記表示範囲内のパノラマ動画を前記表示装置に逐次表示する制御を行う表示制御ステップと、
    前記音声生成ステップにおいて生成された音声を、前記表示装置に表示する画像と同期して前記スピーカから出力する制御を行う音声出力制御ステップとを含む、情報処理方法。
JP2012125798A 2012-06-01 2012-06-01 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 Active JP5992210B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012125798A JP5992210B2 (ja) 2012-06-01 2012-06-01 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US13/864,681 US9473699B2 (en) 2012-06-01 2013-04-17 Storage medium storing information processing program, information processing device, information processing system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012125798A JP5992210B2 (ja) 2012-06-01 2012-06-01 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Publications (2)

Publication Number Publication Date
JP2013250838A true JP2013250838A (ja) 2013-12-12
JP5992210B2 JP5992210B2 (ja) 2016-09-14

Family

ID=49669749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012125798A Active JP5992210B2 (ja) 2012-06-01 2012-06-01 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Country Status (2)

Country Link
US (1) US9473699B2 (ja)
JP (1) JP5992210B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015142185A (ja) * 2014-01-27 2015-08-03 日本電信電話株式会社 視聴方法、視聴端末及び視聴プログラム
JP2017201743A (ja) * 2016-05-02 2017-11-09 株式会社リコー 画像管理システム、画像管理装置、プログラム及び情報端末
JP2018005526A (ja) * 2016-06-30 2018-01-11 株式会社リコー 情報処理装置、及びプログラム
JP2018535499A (ja) * 2015-09-22 2018-11-29 フュージョン、インコーポレイテッド マルチビューインタラクティブデジタルメディア表現へのオーディオの統合
JP2019521440A (ja) * 2016-06-27 2019-07-25 ノキア テクノロジーズ オーユー 装置および関連する方法
JP2020504384A (ja) * 2016-12-30 2020-02-06 ノキア テクノロジーズ オーユー バーチャルリアリティ分野における装置および関連する方法
US20210304353A1 (en) * 2016-09-29 2021-09-30 Hauwei Technologies Co., Ltd. Panoramic Video with Interest Points Playback and Thumbnail Generation Method and Apparatus
WO2022137606A1 (ja) * 2020-12-22 2022-06-30 株式会社エイリアンミュージックエンタープライズ 管理サーバ
WO2022163801A1 (ja) * 2021-01-29 2022-08-04 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013093565A1 (en) * 2011-12-22 2013-06-27 Nokia Corporation Spatial audio processing apparatus
JP2014143678A (ja) 2012-12-27 2014-08-07 Panasonic Corp 音声処理システム及び音声処理方法
KR102127640B1 (ko) * 2013-03-28 2020-06-30 삼성전자주식회사 휴대 단말 및 보청기와 휴대 단말에서 음원의 위치를 제공하는 방법
WO2015008538A1 (ja) * 2013-07-19 2015-01-22 ソニー株式会社 情報処理装置および情報処理方法
JP2015088828A (ja) * 2013-10-29 2015-05-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6071866B2 (ja) * 2013-12-18 2017-02-01 キヤノン株式会社 表示制御装置、表示装置、撮像システム、表示制御方法、及びプログラム
JP6518069B2 (ja) * 2015-01-09 2019-05-22 キヤノン株式会社 表示装置、撮像システム、表示装置の制御方法、プログラム、及び記録媒体
US9826134B2 (en) * 2015-03-27 2017-11-21 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus having a microphone and directivity control
CN104965594A (zh) * 2015-07-14 2015-10-07 深圳市朗琴音响技术有限公司 人脸智能识别云音响控制方法、装置及其系统
US10909384B2 (en) 2015-07-14 2021-02-02 Panasonic Intellectual Property Management Co., Ltd. Monitoring system and monitoring method
GB201603675D0 (en) * 2016-03-03 2016-04-20 Centricam Technologies Ltd A method,system and device for generating associated audio and visual signals in a wide angle image system
JP2018037944A (ja) * 2016-09-01 2018-03-08 ソニーセミコンダクタソリューションズ株式会社 撮像制御装置、撮像装置および撮像制御方法
CN107993276B (zh) * 2016-10-25 2021-11-23 杭州海康威视数字技术股份有限公司 一种全景图像的生成方法及装置
CN108460815B (zh) * 2017-02-22 2022-06-17 腾讯科技(深圳)有限公司 地图道路要素编辑方法和装置
EP3651448B1 (en) * 2018-11-07 2023-06-28 Nokia Technologies Oy Panoramas
CN110377023B (zh) * 2018-12-04 2022-12-27 北京京东乾石科技有限公司 一种实现装置同步运动的方法和系统
US10846898B2 (en) * 2019-03-28 2020-11-24 Nanning Fugui Precision Industrial Co., Ltd. Method and device for setting a multi-user virtual reality chat environment
CN112153538B (zh) * 2020-09-24 2022-02-22 京东方科技集团股份有限公司 显示装置及其全景声实现方法、非易失性存储介质
US20220295040A1 (en) * 2021-03-11 2022-09-15 Quintar, Inc. Augmented reality system with remote presentation including 3d graphics extending beyond frame

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005099064A (ja) * 2002-09-05 2005-04-14 Sony Computer Entertainment Inc 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置
JP2012119803A (ja) * 2010-11-30 2012-06-21 Canon Inc 超広角映像の記録及び再生装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6459451B2 (en) * 1996-06-24 2002-10-01 Be Here Corporation Method and apparatus for a panoramic camera to capture a 360 degree image
US20020075295A1 (en) * 2000-02-07 2002-06-20 Stentz Anthony Joseph Telepresence using panoramic imaging and directional sound
US7002617B1 (en) * 2000-07-20 2006-02-21 Robert Samuel Smith Coordinated audio and visual omnidirectional recording
JP2004241834A (ja) 2003-02-03 2004-08-26 Sony Corp 動画像生成装置及び方法、動画像送信システム、プログラム並びに記録媒体
US8730322B2 (en) * 2004-07-30 2014-05-20 Eyesee360, Inc. Telepresence using panoramic imaging and directional sound and motion
FR2916866A1 (fr) * 2007-05-29 2008-12-05 Thomson Licensing Sas Procede de creation et reproduction d'une image panoramique sonore, et appareil de reproduction d'une telle image
JP2012178807A (ja) * 2011-02-28 2012-09-13 Sanyo Electric Co Ltd 撮像装置
JP5918618B2 (ja) * 2011-06-03 2016-05-18 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005099064A (ja) * 2002-09-05 2005-04-14 Sony Computer Entertainment Inc 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置
JP2012119803A (ja) * 2010-11-30 2012-06-21 Canon Inc 超広角映像の記録及び再生装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015142185A (ja) * 2014-01-27 2015-08-03 日本電信電話株式会社 視聴方法、視聴端末及び視聴プログラム
JP2022009202A (ja) * 2015-09-22 2022-01-14 フュージョン、インコーポレイテッド マルチビューインタラクティブデジタルメディア表現へのオーディオの統合
JP2018535499A (ja) * 2015-09-22 2018-11-29 フュージョン、インコーポレイテッド マルチビューインタラクティブデジタルメディア表現へのオーディオの統合
JP2017201743A (ja) * 2016-05-02 2017-11-09 株式会社リコー 画像管理システム、画像管理装置、プログラム及び情報端末
JP2019521440A (ja) * 2016-06-27 2019-07-25 ノキア テクノロジーズ オーユー 装置および関連する方法
US10560752B2 (en) * 2016-06-27 2020-02-11 Nokia Technologies Oy Apparatus and associated methods
JP2018005526A (ja) * 2016-06-30 2018-01-11 株式会社リコー 情報処理装置、及びプログラム
US11803937B2 (en) * 2016-09-29 2023-10-31 Huawei Technologies Co., Ltd. Method, apparatus and computer program product for playback of a video at a new time point
US20210304353A1 (en) * 2016-09-29 2021-09-30 Hauwei Technologies Co., Ltd. Panoramic Video with Interest Points Playback and Thumbnail Generation Method and Apparatus
JP2020504384A (ja) * 2016-12-30 2020-02-06 ノキア テクノロジーズ オーユー バーチャルリアリティ分野における装置および関連する方法
US11055057B2 (en) 2016-12-30 2021-07-06 Nokia Technologies Oy Apparatus and associated methods in the field of virtual reality
WO2022137606A1 (ja) * 2020-12-22 2022-06-30 株式会社エイリアンミュージックエンタープライズ 管理サーバ
JPWO2022137606A1 (ja) * 2020-12-22 2022-06-30
JP7344610B2 (ja) 2020-12-22 2023-09-14 株式会社エイリアンミュージックエンタープライズ 管理サーバ
WO2022163801A1 (ja) * 2021-01-29 2022-08-04 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
US9473699B2 (en) 2016-10-18
JP5992210B2 (ja) 2016-09-14
US20130321568A1 (en) 2013-12-05

Similar Documents

Publication Publication Date Title
JP5992210B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
KR102419065B1 (ko) 혼합 현실 디바이스에서의 가상 및 실제 객체 레코딩
KR102197544B1 (ko) 공간화 오디오를 가진 혼합 현실 시스템
JP4926916B2 (ja) 情報処理装置、情報処理方法、およびコンピュータプログラム
JP6243595B2 (ja) 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置
US20120207308A1 (en) Interactive sound playback device
TW201804315A (zh) 虛擬、擴充及混合實境
KR102230645B1 (ko) 공간화 오디오를 갖는 가상 현실, 증강 현실 및 혼합 현실 시스템들
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
US20210092466A1 (en) Information processing apparatus, information processing method, and program
US20170127035A1 (en) Information reproducing apparatus and information reproducing method, and information recording apparatus and information recording method
KR20190091474A (ko) 가상 현실(vr), 증강 현실(ar), 및 혼합 현실(mr) 시스템들을 위한 분산형 오디오 캡처링 기술들
CN106909335A (zh) 模拟声音源的方法
JP6348732B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
JP6055651B2 (ja) 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置
WO2015151766A1 (ja) 投影撮影システム、カラオケ装置及びシミュレーション装置
JP6819368B2 (ja) 装置、システム、方法およびプログラム
JP2019033426A (ja) 映像音響再生装置およびその方法
JP2014153802A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP6431225B1 (ja) 音響処理装置、映像音響処理装置、映像音響配信サーバおよびそれらのプログラム
JP6499805B2 (ja) 映像表示装置および映像表示方法
KR20210056414A (ko) 혼합 현실 환경들에서 오디오-가능 접속된 디바이스들을 제어하기 위한 시스템
WO2018042658A1 (ja) 携帯情報端末、頭部装着表示システム、及びその音声出力制御方法
WO2022220306A1 (ja) 映像表示システム、情報処理装置、情報処理方法、及び、プログラム
JPWO2018003081A1 (ja) 全天球カメラ撮像画像表示システム、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160817

R150 Certificate of patent or registration of utility model

Ref document number: 5992210

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250