JP6600186B2 - 情報処理装置、制御方法およびプログラム - Google Patents

情報処理装置、制御方法およびプログラム Download PDF

Info

Publication number
JP6600186B2
JP6600186B2 JP2015144440A JP2015144440A JP6600186B2 JP 6600186 B2 JP6600186 B2 JP 6600186B2 JP 2015144440 A JP2015144440 A JP 2015144440A JP 2015144440 A JP2015144440 A JP 2015144440A JP 6600186 B2 JP6600186 B2 JP 6600186B2
Authority
JP
Japan
Prior art keywords
display device
user
image
sound
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015144440A
Other languages
English (en)
Other versions
JP2017028465A (ja
JP2017028465A5 (ja
Inventor
典朗 多和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015144440A priority Critical patent/JP6600186B2/ja
Publication of JP2017028465A publication Critical patent/JP2017028465A/ja
Publication of JP2017028465A5 publication Critical patent/JP2017028465A5/ja
Application granted granted Critical
Publication of JP6600186B2 publication Critical patent/JP6600186B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本発明は、情報処理装置、情報処理システム、情報処理装置の制御方法およびプログラムに関する。
全方位を撮影可能な全方位カメラで撮影を行い、スティッチ等の適切な後処理を行うことで、全方位映像(パノラマ映像もその一種)を得ることができる。また、撮影と同時に複数のマイク素子で構成されるマイクアレイで録音を行い、ビームフォーマ等の指向性制御処理を行うことで、全方位映像の各方向に対応する方向ごとの音(以下、「方向音」と呼ぶ)を得ることができる。このようにして取得した映像をユーザに提示すると共にユーザの周囲に配置された複数のスピーカから各スピーカの配置方向に対応する方向音を再生する。すると、まるで現場にいるとユーザが感じるかのような、高い臨場感と没入感を得ることができる。
特許文献1には、ユーザの周囲に複数のディスプレイとスピーカを配置し、ディスプレイを窓に見立ててユーザの位置(視点)に応じて表示する映像を変え、同時にスピーカから再生する音も変えるようなシステムが開示されている。またこのとき、元となる映像がCG映像ではなく(実写の)パノラマ映像の場合は、映像の拡大表示や縮小表示によってユーザの視点に応じた表示を行うことが開示されている。
特開2005−99064号公報
例えば、ヘッドマウントディスプレイ(HMD)等のようにユーザ個別の表示装置に全方位映像を表示し、ユーザが移動可能な状態で、固定設置された複数のスピーカから方向音を再生するシステムを考える。この場合、特許文献1の技術を用いると、ユーザが移動すると、HMDに表示される映像は、ユーザの移動に応じて変わり、同様に、各スピーカから出力される音信号は、ユーザの位置に応じて変わる。しかしながら、特定のユーザの位置にのみに応じてスピーカから出力される音信号を制御すると、他のユーザのHMDに表示される映像と各スピーカからの出力による音像とのずれが生じる恐れがある。複数ユーザに一律に、特定のユーザの位置に応じた指向性制御処理等の処理を行わず、各スピーカに音を出力させる必要がある。
このように、各スピーカに出力させる音信号の制御を行わずに、HMDに表示される映像と各スピーカの出力による音像とのずれを低減させるためには、HMDに表示される映像を各スピーカから出力される方向音による音像に対応させることが考えられる。
しかしながら、従来技術では、各スピーカに出力させる音信号の制御を行わずに、ユーザ個別の表示装置に表示される映像と各スピーカの出力による音像とのずれを低減させることは考慮されておらず、改善の余地がある。
本発明は、上記の課題に鑑みてなされたものであり、映像における所定方向からの音を出力する出力装置による音像と表示装置の位置に応じて表示させる映像とのずれを低減させることを目的とする。
上記の目的を達成するために、本発明の一態様による情報処理装置は以下の構成を備える。即ち、
表示装置を保持するユーザに対して画像を表示する前記表示装置の位置及び向きに関する第1情報を取得する第1取得手段と、
音を出力する出力装置の位置に関する第2情報を取得する第2取得手段と、
前記表示装置に表示されるオブジェクトの表示位置が、前記オブジェクトに関する音を出力する前記出力装置に対する前記ユーザの位置及び向きの変化に応じて変化するように、前記第1取得手段により取得された前記第1情報と前記第2取得手段により取得された前記第2情報とに基づいて前記表示装置に画像を表示させる表示制御手段と
を有することを特徴とする。
本発明によれば、映像における所定方向からの音を出力する出力装置による音像と表示装置の位置に応じて表示させる映像とのずれを低減させることができる。
情報処理装置のブロック図。 周囲スピーカが等距離の場合の説明図。 周囲スピーカが等距離でない場合の説明図。 本実施形態に係る処理の手順を示すフローチャート。
以下、添付の図面を参照しながら、本実施形態について説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
はじめに、本実施形態の基本的な考え方を説明する。本実施形態の特徴は、個別ディスプレイと周囲スピーカを使用して、映像と音像のずれが生じない全方位スクリーンおよび周囲スピーカのシステムと同じ状況を作り出すことにある。そのためには、あたかも全方位スクリーンを見ているような映像を、各ユーザの個別ディスプレイに表示すればよい。これを実現するため、周囲スピーカの位置に仮想的に配置した全方位スクリーンに全方位映像を投影する。そして、ユーザ位置を起点として特定されるユーザの顔方向から所定範囲(例えば、個別ディスプレイの視野角範囲)で仮想的に配置した全方位スクリーンに投影させた全方位映像を切り出した映像を個別ディスプレイに表示することで実現できる。
まず、図2に示すように、スピーカ211〜218がリスニングポイント(基準位置とも呼ぶ)から等距離で配置され、各スピーカからスピーカ配置方向に対応する、全方位映像の一例であるパノラマ映像の方向音が再生される場合を考える。ユーザ231〜233は、それぞれ頭部に個別ディスプレイの一例であるHMD241〜243を装着し、各ユーザの位置および顔方向(視線の方向)に応じた映像を見ることができる。なお、スピーカ211〜218は、音を出力する出力装置である。
例えば、リスニングポイントにいるユーザ231については、ユーザ231の顔がグローバル座標系で正面方向(基準位置からスピーカ211を向いた方向)を向いている。よって、パノラマ映像の正面方向を中心にHMD241の視野角範囲で切り出した映像をHMD241に表示する。これにより、例えばパノラマ映像で正面(0°)方向に映っている犬が、HMD241の中央に表示される。また、犬の鳴き声を再生するグローバル座標系正面方向のスピーカ211の音が、ユーザ231から見てHMD241の同じく中央方向から聞こえるため、映像と音像の方向が一致している。
次に、基準位置からずれた位置にいるユーザ232について、ユーザ232の顔はグローバル座標系でユーザ231と同じ正面方向を向いている。もし単純に、ユーザの顔方向のみに応じてHMDに表示する映像信号を生成すると、ユーザ231のHMD241とユーザ232のHMD242に表示される映像は同じとなる。しかしこれでは、先ほどの犬がHMD242の中央に表示される一方、犬の鳴き声を再生するスピーカ211の音がユーザ232から見てHMD242の左端方向から聞こえるため、映像と音像のずれが生じている。
そこで、ユーザの顔方向だけでなく位置にも応じてHMDに表示する映像信号を生成するよう、スピーカ211〜218の位置に、パノラマ映像を仮想的に投影する全方位スクリーンの一例である円筒スクリーン201を想定する。そして、円筒スクリーン201にパノラマ映像を仮想的に投影し、ユーザ232の位置を起点としてユーザ232の顔方向からHMD242の視野角252で切り出した映像262をHMD242に表示する。これにより、映像262上の犬221がHMD242の左端に表示される。
また、犬221の鳴き声を再生するスピーカ211の音も、ユーザ232から見てHMD242の同じく左端方向から聞こえる(模式的に犬音像222で表す)ため、映像と音像の方向が一致するようになる。すなわち、HMDとスピーカ211〜218とで、映像と音像のずれが生じない円筒スクリーン201およびスピーカ211〜218のシステムと同じ状況を作り出している。
ここで、パノラマ映像を仮想的に投影する円筒スクリーンは、適当な位置ではなく周囲スピーカの位置に想定する。例えば、基準位置からスピーカ211〜218までの距離より遠くに円筒スクリーン202を想定すると、ユーザ232の位置を起点としてユーザ232の顔方向からHMD242の視野角252で切り出した映像272をHMD242に表示することになる。しかしこれでは、映像272上の犬221がHMD242の中央やや左に表示される一方、犬221の鳴き声を再生するスピーカ211の音がユーザ232から見てHMD242の左端方向から聞こえる(犬音像222)ため、映像と音像のずれが生じてしまう。
同様に、基準位置からずれた位置にいるユーザ233については、以下のようになる。すなわち、円筒スクリーン201にパノラマ映像を仮想的に投影し、ユーザ233の位置を起点としてユーザ233の顔方向からHMD243の視野角253で切り出した映像263をHMD243に表示する。これにより、例えば映像263上の猫223(パノラマ映像では左(90°)方向に映っている)が、HMD243の右端に表示される。また、猫223の鳴き声を再生するスピーカ213(グローバル座標系左方向)の音が、ユーザ233から見てHMD243の同じく右端方向から聞こえる(猫音像224)ため、映像と音像の方向が一致する。
一方、円筒スクリーン202にパノラマ映像を仮想的に投影すると、ユーザ233の位置を起点としてユーザ233の顔方向からHMD243の視野角253で切り出した映像273をHMD243に表示することになる。しかし、これでは猫223が視野角253の外になってHMD243に表示されなくなる一方、猫223の鳴き声を再生するスピーカ213の音がユーザ233から見てHMD243の右端方向から聞こえる(猫音像224)。そのため、映像と音像の不一致が生じてしまう。
よって、基準位置からずれてもユーザが視聴する映像と音像の方向が一致するために、パノラマ映像を仮想的に投影する円筒スクリーンを、周囲スピーカの距離に想定する。
なお、基準位置にいるユーザ231については、以下のようになる。すなわち、基準位置からスピーカまでの距離に対応する円筒スクリーン201にパノラマ映像を仮想的に投影する。そして、ユーザ231の位置を起点としてユーザ231の顔方向からHMD241の視野角251で切り出した映像261をHMD241に表示する。これにより、映像261上の犬221がHMD241の中央に表示される。また、犬221の鳴き声を再生するスピーカ211の音が、ユーザ231から見てHMD241の同じく中央方向から聞こえる(犬音像222)ため、映像と音像の方向が一致する。
一方、基準位置からスピーカまでの距離より遠くの円筒スクリーン202にパノラマ映像を仮想的に投影すると、ユーザ231の位置を起点としてユーザ231の顔方向からHMD241の視野角251で切り出した映像271をHMD241に表示することになる。ただし、映像261と271はパノラマ映像の同じ範囲を切り出したものとなるため、スピーカ距離と異なる円筒スクリーンを想定してもユーザ231が視聴する映像と音像の方向は一致する。すなわち、ユーザが基準位置からずれていない場合は、パノラマ映像を仮想的に投影する円筒スクリーンの想定距離は影響しない。
なお、本実施形態では複数のユーザ(必然的に基準位置からずれたユーザを含む)を想定しており、周囲スピーカについては複数のユーザで共用するため再生音を所定のユーザに特化した指向性制御のように適応的に変化させることはしない。即ち、本実施形態の情報処理システム10は、各スピーカの配置に対応し、各スピーカに予め設定した、全方位映像における方向音をそのまま再生する。
図1は、本実施形態の一実施形態に係る情報処理装置の構成例を示すブロック図である。情報処理システム10は、情報処理装置100と、スピーカ111〜118と、動き検出部120と、HMD141〜142とを含む。情報処理装置100は、制御部101と、記憶部102と、信号解析処理部103と、音響信号出力部104とを備え、スピーカ111〜118、動き検出部120、HMD141〜142と通信する。
制御部101は、各構成要素の統御を行う。記憶部102は、各種データを記憶しておくと共に、制御部101が読み出して実行するためのプログラムも記憶する。記憶部102は、パノラマ映像および、このパノラマ映像に対応する音響信号(スピーカ111〜118の配置方向に対応するパノラマ映像の8つの方向音で構成される)を保持している。信号解析処理部103は、信号の解析処理を含めた各種処理を行う。詳細は後述する。音響信号出力部104は、ユーザの周囲に配置されたスピーカ111〜118と共に再生系の機能を実現する。音響信号出力部104は、8チャンネルの音響信号にDA変換および増幅を施し、スピーカ111〜118からそれぞれ再生する。なお、各スピーカの位置や方向を示す配置情報は記憶部102があらかじめ保持しているものとする。すなわち、配置情報は、映像における所定方向からの音を出力する出力装置の位置を示す第2位置情報である。制御部101が記憶部102から配置情報を読み出して取得する。なお、配置情報はユーザの入力により取得されてもよい。なお、スピーカの数や配置は、図1に限られるものではなく任意でよい。
HMD141〜142は、表示系の機能を実現する要素であり、複数のユーザ131〜132がそれぞれ頭部に装着する。HMD141〜142は、映像を表示する表示装置である。信号解析処理部103は、後述するように各ユーザの位置および顔方向に応じて各ユーザに提示する映像信号を生成し、スピーカ111〜118から再生する音響信号と同期して各HMDが表示する提示映像を各HMDへ送信する。
動き検出部120は、ユーザの位置座標および顔方向を含むユーザ情報を検出する。本実施形態において動き検出部120は、各スピーカで囲まれた空間範囲を撮影可能な撮像装置121と、映像解析部122とを備えている。
撮像装置121は、例えば広角のレンズを備え、部屋の中央部天井に配置されることで、各スピーカに囲まれたユーザを画角に収めることができる。映像解析部122は、撮像装置121が出力した映像、および、記憶部102があらかじめ保持している撮像装置121の配置情報に基づいて、撮像装置121の映像の解析を行うことでユーザの位置座標および顔方向を算出する。なお、ユーザの位置および顔方向の検出を容易にするため、HMDにマーカ等を付けてもよい。なお、スピーカの配置情報、撮像装置121の配置情報、ユーザの位置座標および顔方向は、共通の座標系(グローバル座標系)で記述されているものとする。なお、スピーカの配置情報や撮像装置121の配置情報、またパノラマ映像や音響信号は、記憶部102と接続された不図示のデータ入出力部を介して、外部から入力するようにしてもよい。なお、動き検出部120は、HMD141〜142の位置や方向を検出することで、ユーザの位置および顔方向の検出を行うようにしてもよい。すなわち、映像を表示する表示装置の位置を示す第1位置情報および表示装置の向きを示す方向情報を検出してもよい。
なお、動き検出部120の機能は、映像解析の他、マイクを備えたHMDがスピーカから発せられる可聴域外の超音波を収音し、その収音結果に基づいてユーザの位置座標および顔方向を検出する方法であってもよい。また、HMDが赤外線センサ、GPSセンサ、加速度センサ、ジャイロセンサ、磁気センサ等を備え、各センサの出力結果に基づいて、HMDの位置や方向を検出する方法で実現してもよい。すなわち、ユーザの位置や顔方向を検出できるものであれば何でもよい。なお、マーカ等をスピーカにも付ければ、スピーカの配置情報も検出可能である。
なお、各処理部の機能は情報処理システム10に含まれる何れの構成要素が実施してもよい。例えば、信号解析処理部103の機能の一部を各HMDが備えるように構成することもできる。
ここで、図2に示すように、スピーカ211〜218が基準位置から等距離で配置されている場合は、その距離を仮想円筒スクリーンの円半径とすればよかった。しかしながら、現実にスピーカを配置する場合は、スピーカを配置する部屋の形状や部屋に置かれた物の配置などにより、必ずしも基準位置から等距離の円周上に並べられるとは限らない。
例えば、図3Aのように、スピーカ311〜318が基準位置から等距離で配置できなかった場合は、パノラマ映像を仮想的に投影する仮想スクリーン(投影曲面とも呼ぶ)について、以下の2つの方法が考えられる。
第1の方法は、スピーカ311〜318の中から基準となるスピーカ(基準スピーカと呼ぶ)を選択し、基準位置と基準スピーカとの間の距離を円半径として、図2と同様の定型的な円筒曲面(定型曲面と呼ぶ)を投影曲面とする方法である。この方法によると、基準位置からずれた位置にいるユーザ331については、以下のようになる。
まず、例えばスピーカ316を基準スピーカとすると、スピーカ316の距離の定型曲面301にパノラマ映像を仮想的に投影して、投影されたパノラマ映像(投影映像と呼ぶ)を生成する。そして、ユーザ331の位置を起点としてユーザ331の顔方向からHMD341の視野角で投影映像を切り出し、映像信号として生成してHMD341に送信し、映像を表示させる。これにより、例えば提示映像上の犬321(パノラマ映像では右後ろ(225°)方向に映っている)が、HMD341の方向351に表示される。また、犬321の鳴き声を再生するスピーカ316(グローバル座標系右後ろ方向)の音が、ユーザ331から見てHMD341の同じく方向351から聞こえる(犬音像322)ため、映像と音像の方向が一致する。
一方、提示映像上の猫323(パノラマ映像では右(270°)方向に映っている)は、HMD341の方向352に表示される。しかしこれでは、猫323がHMD341の方向352に表示される一方、猫323の鳴き声を再生するスピーカ317(グローバル座標系右方向)の音がユーザ331から見てHMD341の方向353から聞こえる(猫音像324)。そのため、映像と音像のずれ354が生じている。
すなわち、第1の方法では、基準スピーカの方向では映像と音像の方向が一致するが、それ以外の方向では映像と音像のずれが生じ、ユーザが基準位置からずれるほど映像と音像のずれも大きくなると考えられる。
第2の方法は、スピーカ311〜318を結ぶような線を断面とする、非定型な筒型曲面(非定型曲面と呼ぶ)を投影曲面とする方法である。この方法によると、基準位置からずれた位置にいるユーザ332については、以下のようになる。
まず、スピーカ311〜318を結ぶ線を断面とする、非定型曲面302にパノラマ映像を仮想的に投影して投影映像信号を生成する。そして、ユーザ332の位置を起点としてユーザ332の顔方向からHMD342の視野角で投影映像を切り出し、映像信号を生成してHMD342に送信する。これにより、例えば提示映像上の犬321がHMD342の方向361に表示される。また、犬321の鳴き声を再生するスピーカ316の音が、ユーザ332から見てHMD342の同じく方向361から聞こえる(犬音像322)ため、映像と音像の方向が一致する。
また、提示映像上の猫323は、HMD342の方向362に表示される。そして、猫323の鳴き声を再生するスピーカ317の音が、ユーザ332から見てHMD342の同じく方向362から聞こえる(猫音像324)ため、こちらも映像と音像の方向が一致する。すなわち、2つ目の方法では、ユーザが基準位置からずれても各スピーカの方向で映像と音像の方向が一致する。
ただし、映像としては、非定型曲面302のような歪曲した筒型スクリーンに投影されたパノラマ映像を見ている状態となるため、基準位置からずれた位置にいるユーザには映像の伸縮ムラが知覚される可能性がある。
これらの2つの方法の特徴をまとめると、定型曲面を投影曲面とする第1の方法は、ユーザが基準位置からずれるほど基準スピーカ以外の方向で映像と音像のずれが大きくなるが、ユーザがHMDで見る提示映像に第2の方法のような伸縮ムラは生じない。一方、非定型曲面を投影曲面とする第2の方法は、ユーザが基準位置からずれても各スピーカの方向で映像と音像の方向が一致するが、ユーザがHMDで見る提示映像に伸縮ムラが生じる。
そこで、これら2つの方法を組み合わせることを考える。例えば、ユーザの基準位置からのずれが小さいときは、第1の方法により提示映像に伸縮ムラが生じないようにしつつ、基準スピーカの選択法を工夫することで、映像と音像のずれもなるべくユーザに知覚されないようにする。そして、ユーザの基準位置からのずれが大きくなったら第2の方法に切り替えることで、提示映像に伸縮ムラは生じるものの、ユーザに知覚されるような映像と音像のずれは引き続き生じないようにする。
以下、図3Aの場合を例として、図4のフローチャートを参照して、本実施形態に係る提示映像信号を生成する処理の手順を説明する。なお、図4のフローチャートの処理は、主として信号解析処理部103が行うものとし、所定時間ごと、例えば動き検出部120による動き検出の周期に合わせて実行されるものとする。なお、音響信号については、スピーカ311〜318の配置方向に対応するものが用意されているとする。
S401では、信号解析処理部103は、記憶部102があらかじめ保持しているスピーカ311〜318の配置情報を取得する。S402では、信号解析処理部103は、リスニングポイントである基準位置を算出する。例えば、S401で取得したスピーカ311〜318の配置情報に含まれる各配置座標を用いて重心位置を算出し、基準位置310とする。なお、図2に示すように周囲スピーカが円周上に配置される場合は、その円の中心が基準位置となる。
S403では、信号解析処理部103は、S401で取得したスピーカ311〜318の配置情報に基づいて、投影曲面の候補である非定型曲面を決定する。例えば、図3Aのように、スピーカ311〜318を結ぶ曲線を断面とする非定型曲面302を決定すればよい。このような曲線の生成には、スピーカの配置座標を制御点(アンカーポイントや方向点)とするベジェ曲線や、スプライン曲線といった自由曲線を利用することができる。なお、各スピーカを直線で結んでも構わないが、ユーザが基準位置からずれたときの提示映像の歪は、曲線で結ぶ場合に比べて特に各スピーカ方向で目立ち易くなると考えられる。なお、これらの線は必ずしも厳密にスピーカ配置座標を通過しなくても、スピーカ近傍を通過すればよい。
S404からS415はユーザごとの処理であり、各ユーザについてループする。S404では、動き検出部120は、スピーカ311〜318に囲まれた各ユーザの動きを検出する。ここで、ユーザの動きとは現周期におけるユーザの位置座標や顔方向であり、さらに前周期や前々周期との差分として、それらの速度や加速度も含められる。
S405では、信号解析処理部103は、後のステップで定型曲面を決定するために、スピーカ311〜318から基準スピーカを選択する。ここでは、ユーザが見る可能性が高い方向のスピーカを基準スピーカとして選択する。
例えば、大きな音がすると人はその方向を向く可能性が高いため、8チャンネルの音響信号で、信号(音)のエネルギーが相対的に大きいチャンネルを再生するスピーカを基準スピーカとする。例えば、最もエネルギーの大きいチャンネルを再生するスピーカを基準スピーカとしてもよい。類する考え方として、全方位から同じように聞こえる非方向性の音は映像と音像のずれが知覚されにくいのに対し、ある方向から他と異なって聞こえる方向性の音は、人の気を引くと同時に映像と音像のずれが知覚され易い。
そこで、8チャンネル音響信号で他のチャンネルとの差、例えば信号のエネルギー差や(正規化)スペクトルの形状差が相対的に大きいチャンネルを再生するスピーカを基準スピーカとする。このような基準スピーカ選択のための音響信号の解析は、時間領域で行ってもよいし、音響信号を時間周波数変換して得られる例えば振幅スペクトログラム上で、人の聴覚感度が高い周波数帯域を重視して行ったりしてもよい。
また、音響信号の他に、パノラマ映像の解析によってユーザが見る可能性が高い方向を予測してもよい。例えば、パノラマ映像で輝度、色、動きベクトル等の時間的変化や空間的変化(他の方向との差)が大きい方向は人目を引き易いため、その方向に近いスピーカを基準スピーカとする。もしくは、人や動物といった音を発し得るオブジェクトの認識を行い、オブジェクトの方向に近いスピーカを基準スピーカとしてもよい。
S406では、信号解析処理部103は、基準位置とS405で選択した基準スピーカとの間の距離に基づき、投影曲面の候補である定型曲面を決定する。例えば、図3Aでスピーカ316が基準スピーカである場合、基準位置310とスピーカ316との間の距離を円半径として定型曲面301が決定される。
なお、S405で選択する基準スピーカは、1つではなく複数であっても構わない。例えば、音響信号で信号エネルギーが大きいチャンネルが2つあれば、それらを再生する2つのスピーカを基準スピーカとし、2つの基準スピーカの(重み付き)平均距離を定型曲面の円半径としてもよい。また、全てのスピーカを基準スピーカとすれば、全スピーカの平均距離を定型曲面の円半径とすることになり、全ての方向で映像と音像のずれを抑制することができる。
また、例えばパノラマ映像上のオブジェクトの方向が2つのスピーカの間であれば、基準位置からオブジェクトの方向に線を伸ばし、2つのスピーカを結ぶ線と交わるまでの距離を定型曲面の円半径としてもよい。
S407では、信号解析処理部103は、基準位置と、S404で検出したユーザ位置との間の距離を算出し、その値が閾値未満であればS408へ、閾値以上であればS409へ進む。
S408では、信号解析処理部103は、現周期の投影曲面の候補として、S406で決定した定型曲面を選択する。これは、ユーザの基準位置からのずれが小さければ、定型曲面を投影曲面とすることで提示映像に伸縮ムラが生じないようにしつつ、S405の基準スピーカ選択によって、映像と音像のずれもユーザに知覚されにくくすることが可能となるからである。
一方、S409では、信号解析処理部103は、現周期の投影曲面の候補として、S403で決定した非定型曲面を選択する。これは、ユーザの基準位置からのずれが大きければ、非定型曲面を投影曲面とすることで提示映像に伸縮ムラは生じるものの、ユーザに知覚されるような映像と音像のずれは生じないようにすることが可能となるからである。なお、S408で選択された定型曲面、またはS409で選択された非定型曲面を、選択曲面と呼ぶ。
なお、S407〜S409の処理の考え方は、投影曲面を定型曲面とした場合にユーザが視聴する映像と音像のずれが大きければ、投影曲面を非定型曲面にすることで映像と音像のずれを抑制するというものである。このとき、ユーザが基準位置からずれるほど映像と音像のずれも大きくなる可能性が高いことから、S407の判定に基準位置とユーザとの間の距離を用いることで、間接的に映像と音像のずれを扱っている。
そこで、S407の判定には、図3Aの354で示されるような映像と音像のずれを直接用いてもよい。このとき、映像と音像のずれが小さければ、音像が映像に引っ張られるため所定のずれ角度αまではずれが知覚されないと考えられるが、このようなα(例えば公知の実験結果を参考に決定する)をS407における判定の閾値として用いてもよい。
S410では、信号解析処理部103は、S408またはS409で選択した選択曲面が前周期の投影曲面と異なるかを調べ、前周期の投影曲面と同じであれば投影曲面の変更は不要としてS412へ、前周期の投影曲面と異なればS411へ進む。
ここで、前周期と投影曲面を変えると、ユーザがほとんど動いていなくてもHMDに表示される提示映像がそれなりに変化することになるため、ユーザが違和感を覚える可能性がある。そこで、ユーザがある程度動いている場合のみ投影曲面を変化させるようにすれば、元々ユーザの動き量(位置や顔方向の変化)に応じて提示映像を変更していたので、投影曲面の変化はユーザに知覚されにくくなる。
そこでS411では、信号解析処理部103は、S404で取得したユーザの動き量(位置や顔方向の速度や加速度とする)が閾値以上であるかを判定する。ユーザの動き量が閾値以上であれば投影曲面の変更は可能としてS413へ、閾値未満であれば投影曲面の変更は見送るとしてS412へ進む。なお、変更前後の投影曲面の形状差が大きいほど、本ステップの閾値を大きくするようにしてもよい。
S412では、信号解析処理部103は、現周期の投影曲面を前周期と同じにすることで、前周期の投影曲面を維持する。一方、S413では、信号解析処理部103は、現周期の投影曲面をS408またはS409で選択した選択曲面とすることで、前周期から投影曲面を変更する。
なお、S411では投影曲面の変化が知覚され得るかをユーザの動き量で判定していたが、(投影曲面を仮に定めた)提示映像から判定してもよい。例えば、提示映像の時間的変化が大きい動きのあるシーンでは、投影曲面の変化による提示映像の伸縮が知覚されにくいと考えられる。また、提示映像が暗転する場合(シーン変化時)や、提示映像が一様な自然風景(青空、雪原等)である場合など、提示映像の空間的変化が少ない場合も伸縮が知覚されにくいと考えられる。そこで、提示映像の時間的変化の量が閾値以上である、及び/又は、空間的変化の量が閾値未満であるなどの場合にS413へ進んで、投影曲面を変更するようにしてもよい。
S414では、信号解析処理部103は、基準位置を起点としてパノラマ映像を投影曲面に仮想投影し、当該仮想投影に基づく投影映像信号を生成する。すなわち、パノラマ映像の各画素がグローバル座標系の方位角θ(0〜360°)および仰角φ(例えば−30〜30°)と対応付けられており、基準位置310から各(θ、φ)方向に各画素を放射状に仮想投影する。図3Bに、定型曲面301や非定型曲面302にパノラマ映像を仮想投影して、当該仮想投影に基づく投影映像信号を生成する様子を模式的に示す。なお、投影曲面の高さは例えば、投影曲面の水平断面で基準位置310から最も遠い点(定型曲面301では円周)において、パノラマ映像の全仰角範囲が投影できるような高さに定める。
S415では、信号解析処理部103は、S414で生成した投影映像から提示映像信号を生成して、ユーザのHMDに送信して表示させる。すなわち、現在のユーザループで対象としているユーザの位置370を起点として、ユーザの顔方向からHMDの視野角371で投影映像を切り出して提示映像信号を生成する。そして、必要に応じてHMDの光学系に応じた幾何変換を提示映像に施し、ユーザのHMDに表示させる。
具体的には、例えば、図3Bに示すようにHMDの方向372には、投影曲面が定型曲面301の場合はパノラマ映像の方向381の映像が、投影曲面が非定型曲面302の場合はパノラマ映像の方向382の映像が表示されるよう提示映像信号を生成する。なお、基準位置にいるユーザについては、仮想投影の起点(基準位置310)と投影映像切り出しの起点が一致するため、提示映像は投影曲面に依存しない。
以上説明したように、本実施形態では、映像と、出力装置の音の出力により形成される音像とのずれが小さくなるように表示装置に表示させる映像を制御する。これにより、個別ディスプレイと周囲スピーカを用いて、映像と音像のずれを低減した表示・再生を行うことができる。また、全方位映像における所定方向からの音を出力する出力装置の位置と、当該映像における所定方向とを一致させるように表示装置に表示させる映像を、表示装置の位置、表示装置の向き及び出力装置の位置に基づいて制御することができる。
なお、S407〜S409では、基準位置とユーザとの間の距離を閾値と比較し、投影曲面の候補を定型曲面301と非定型曲面302とで二値的に切り替える例を説明した。しかし、投影曲面の変化が滑らかになるよう、図3Aに示すような定型曲面301と非定型曲面302との間の中間的な曲面303などを導入し、基準位置とユーザとの間の距離に応じて投影曲面の候補を矢印304のように連続的に切り替えてもよい。
なお、S405〜S406では、音響信号やパノラマ映像を解析することでユーザが見る可能性が高い方向を予測し、基準スピーカの選択や定型曲面の決定を行っていた。しかし、ユーザの動きから直接的に基準スピーカの選択を行ってもよく、ユーザ位置と近い位置のスピーカや、ユーザ顔方向と近い方向のスピーカを基準スピーカとしてもよい。
具体的には、例えば、図3Aにおいて、ユーザの顔方向がスピーカ316の方向からスピーカ317の方向へ変化する場合を考える。この場合、ユーザの位置からユーザの顔方向に線を伸ばし、基準スピーカとするスピーカ316〜317を結ぶ線との交点を求め、その交点と基準位置310との間の距離を逐次定型曲面の円半径とすればよい。すなわち、矢印306で示すように、スピーカ316の距離の定型曲面301から、スピーカ317の距離の定型曲面305へ定型曲面の円半径が適応的に変化することになるため、このような場合は非定型曲面への切り替えを行わなくてもよい。
なお、本実施形態では、スピーカが2次元に配置され、仰角範囲が限定されたパノラマ映像を筒型スクリーンに仮想投影する場合を例に説明した。しかし、本実施形態は例えば、スピーカが3次元に配置され、仰角φ=−90〜90°の全方位映像を全方位スクリーン(球形スクリーン等)に仮想投影するような場合にも適用できる。
なお、情報処理システム10は、表示(個別ディスプレイ)および再生(周囲スピーカ)の機能に加えて、撮影(全方位カメラ)および録音(マイクアレイ)の機能を備えていてもよい。このとき、撮影・録音系と表示・再生系がそれぞれ遠隔地で同期的に動作すれば、遠隔ライブシステムを実現することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10:情報処理システム、100:情報処理装置、101:制御部、102:記憶部、103:信号解析処理部、104:音響信号出力部、111〜118:スピーカ、120:動き検出部、121:撮像装置、122:映像解析部、141、142:HMD

Claims (18)

  1. 表示装置を保持するユーザに対して画像を表示する前記表示装置の位置及び向きに関する第1情報を取得する第1取得手段と、
    音を出力する出力装置の位置に関する第2情報を取得する第2取得手段と、
    前記表示装置に表示されるオブジェクトの表示位置が、前記オブジェクトに関する音を出力する前記出力装置に対する前記ユーザの位置及び向きの変化に応じて変化するように、前記第1取得手段により取得された前記第1情報と前記第2取得手段により取得された前記第2情報とに基づいて前記表示装置に画像を表示させる表示制御手段と
    を有することを特徴とする情報処理装置。
  2. 前記第2取得手段は、複数の出力装置の位置を示す前記第2情報を取得し、
    前記表示制御手段は、前記表示装置に表示されるオブジェクトの表示位置が、前記複数の出力装置のうち前記オブジェクトに関する音を出力する1以上の出力装置に対する前記ユーザの位置及び向きの変化に応じて変化するように、前記表示装置に前記画像を表示させることを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示制御手段は、前記表示装置に表示されるオブジェクトの表示位置が、前記オブジェクトに関する音を出力する2以上の出力装置の位置と前記2以上の出力装置により出力される前記オブジェクトに関する音の音量の比率とに応じた表示位置になるように、前記表示装置に前記画像を表示させることを特徴とする請求項2に記載の情報処理装置。
  4. 前記表示制御手段は、前記表示装置を保持する前記ユーザから前記表示装置に表示されたオブジェクトが見える方向と、前記1以上の出力装置による音の出力により前記ユーザに知覚される前記オブジェクトに対応する音像の方向とが略一致するように、前記表示装置に前記画像を表示させることを特徴とする請求項2又は3に記載の情報処理装置。
  5. 前記表示制御手段は、前記第2取得手段により取得される前記第2情報に基づいて決定される仮想的な投影面上に前記オブジェクトが位置するように、前記表示装置に前記画像を表示させることを特徴とする請求項2乃至4の何れか1項に記載の情報処理装置。
  6. 前記仮想的な投影面は、前記複数の出力装置の位置を含むことを特徴とする請求項5に記載の情報処理装置。
  7. 前記仮想的な投影面は、基準位置と前記複数の出力装置に含まれる出力装置の位置との間の距離に基づいて決定される半径を有する曲面であることを特徴とする請求項5又は6に記載の情報処理装置。
  8. 前記仮想的な投影面は、前記複数の出力装置のうち前記表示装置に表示される画像に基づいて特定される出力装置の位置に基づいて決定されることを特徴とする請求項5乃至7の何れか1項に記載の情報処理装置。
  9. 前記仮想的な投影面は、前記複数の出力装置のうち前記表示装置の位置及び向きの少なくとも何れかに基づいて特定される出力装置の位置に基づいて決定されることを特徴とする請求項5乃至8の何れか1項に記載の情報処理装置。
  10. 前記仮想的な投影面は、前記複数の出力装置のうち出力される音の特徴に基づいて特定される出力装置の位置に基づいて決定されることを特徴とする請求項5乃至9の何れか1項に記載の情報処理装置。
  11. 前記表示制御手段は、前記表示装置の位置、前記表示装置の向き、及び前記表示装置に表示される画像の少なくとも何れかに基づいて、前記オブジェクトを位置させる前記仮想的な投影面を変更することを特徴とする請求項5に記載の情報処理装置。
  12. 前記第1取得手段は、撮影画像及び前記表示装置が有するセンサにより得られるセンサ情報の少なくとも何れかに基づいて前記第1情報を取得することを特徴とする請求項1乃至11の何れか1項に記載の情報処理装置。
  13. 前記表示装置は、ヘッドマウントディスプレイであることを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。
  14. 前記第1取得手段は、前記表示装置を保持するユーザの位置及び向きを示す情報として、前記表示装置の位置及び向きに応じた前記第1情報を取得することを特徴とする請求項1乃至13の何れか1項に記載の情報処理装置。
  15. 表示装置を保持するユーザに対して画像を表示する前記表示装置の位置及び向きに関する第1情報を取得する第1取得工程と、
    音を出力する出力装置の位置に関する第2情報を取得する第2取得工程と、前記表示装置に表示されるオブジェクトの表示位置が、前記オブジェクトに関する音を出力する前記出力装置に対する前記ユーザの位置及び向きの変化に応じて変化するように、前記第1取得工程により取得された前記第1情報と前記第2取得工程により取得された前記第2情報とに基づいて前記表示装置に画像を表示させる表示制御工程と
    を有することを特徴とする制御方法。
  16. 前記第2取得工程は、複数の出力装置の位置を示す前記第2情報を取得し、
    前記表示制御工程は、前記表示装置に表示されるオブジェクトの表示位置が、前記複数の出力装置のうち前記オブジェクトに関する音を出力する1以上の出力装置に対する前記ユーザの位置及び向きの変化に応じて変化するように、前記表示装置に前記画像を表示させることを特徴とする請求項15に記載の制御方法。
  17. 前記表示制御工程は、前記表示装置を保持する前記ユーザから前記表示装置に表示されたオブジェクトが見える方向と、前記1以上の出力装置による音の出力により前記ユーザに知覚される前記オブジェクトに対応する音像の方向とが略一致するように、前記表示装置に前記画像を表示させることを特徴とする請求項16に記載の制御方法。
  18. コンピュータを、請求項1乃至14の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2015144440A 2015-07-21 2015-07-21 情報処理装置、制御方法およびプログラム Active JP6600186B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015144440A JP6600186B2 (ja) 2015-07-21 2015-07-21 情報処理装置、制御方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015144440A JP6600186B2 (ja) 2015-07-21 2015-07-21 情報処理装置、制御方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2017028465A JP2017028465A (ja) 2017-02-02
JP2017028465A5 JP2017028465A5 (ja) 2018-08-30
JP6600186B2 true JP6600186B2 (ja) 2019-10-30

Family

ID=57946784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015144440A Active JP6600186B2 (ja) 2015-07-21 2015-07-21 情報処理装置、制御方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6600186B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190099082A (ko) 2017-02-17 2019-08-23 닛폰세이테츠 가부시키가이샤 압연 h형강의 설계 방법, 압연 h형강, 및 압연 h형강의 제조 방법
CN115826816A (zh) * 2022-11-17 2023-03-21 北京字跳网络技术有限公司 一种信息采集方法、装置、存储介质及电子设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3796776B2 (ja) * 1995-09-28 2006-07-12 ソニー株式会社 映像音声再生装置
JP2001197598A (ja) * 2000-01-05 2001-07-19 Mitsubishi Electric Corp 映像音声再生装置
JP2002171460A (ja) * 2000-11-30 2002-06-14 Sony Corp 再生装置
JP5598790B2 (ja) * 2009-10-14 2014-10-01 国立大学法人 筑波大学 映像表示システム

Also Published As

Publication number Publication date
JP2017028465A (ja) 2017-02-02

Similar Documents

Publication Publication Date Title
US9794722B2 (en) Head-related transfer function recording using positional tracking
US10754608B2 (en) Augmented reality mixing for distributed audio capture
JP2020509492A (ja) 複合現実デバイスにおける仮想および実オブジェクトの記録
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
CN111918018B (zh) 视频会议系统、视频会议设备以及视频会议方法
US20110157327A1 (en) 3d audio delivery accompanying 3d display supported by viewer/listener position and orientation tracking
US20220109822A1 (en) Multi-sensor camera systems, devices, and methods for providing image pan, tilt, and zoom functionality
CN112673276B (zh) 超声波传感器
JP2016046699A (ja) 画像音声入出力システム
US20220225049A1 (en) An apparatus and associated methods for capture of spatial audio
JP6600186B2 (ja) 情報処理装置、制御方法およびプログラム
JP7037654B2 (ja) キャプチャされた空間オーディオコンテンツの提示用の装置および関連する方法
JP2021508193A5 (ja)
US11902754B2 (en) Audio processing method, apparatus, electronic device and storage medium
US20240098409A1 (en) Head-worn computing device with microphone beam steering
US9983411B2 (en) Control apparatus and correction method
WO2017163649A1 (ja) 画像処理装置
WO2014060598A2 (en) Sensing systems, associated methods and apparatus
EP4037340A1 (en) Processing of audio data
JP2018006822A (ja) 音声出力システム及び音声出力方法
KR101674187B1 (ko) 광대역 보간법을 위한 입체음향 획득 장치 및 그 방법
CN117121473A (zh) 影像显示系统、信息处理装置、信息处理方法及程序
JP2021068296A (ja) 情報処理装置、ヘッドマウントディスプレイ、およびユーザ操作処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191004

R151 Written notification of patent or utility model registration

Ref document number: 6600186

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151