JP6646967B2 - 制御装置、再生システム、補正方法、及び、コンピュータプログラム - Google Patents

制御装置、再生システム、補正方法、及び、コンピュータプログラム Download PDF

Info

Publication number
JP6646967B2
JP6646967B2 JP2015152688A JP2015152688A JP6646967B2 JP 6646967 B2 JP6646967 B2 JP 6646967B2 JP 2015152688 A JP2015152688 A JP 2015152688A JP 2015152688 A JP2015152688 A JP 2015152688A JP 6646967 B2 JP6646967 B2 JP 6646967B2
Authority
JP
Japan
Prior art keywords
image
display device
coordinate axis
control
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015152688A
Other languages
English (en)
Other versions
JP2017034479A5 (ja
JP2017034479A (ja
Inventor
恭平 北澤
恭平 北澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015152688A priority Critical patent/JP6646967B2/ja
Priority to US15/217,162 priority patent/US9983411B2/en
Publication of JP2017034479A publication Critical patent/JP2017034479A/ja
Publication of JP2017034479A5 publication Critical patent/JP2017034479A5/ja
Application granted granted Critical
Publication of JP6646967B2 publication Critical patent/JP6646967B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、制御装置、再生システム、補正方法、及び、コンピュータプログラムに関する。
近年、視聴者が見たい範囲を選びながらコンテンツを鑑賞できる自由視点型の映像を提供するための構成の研究・開発が盛んに行われている。また、その自由視点型の映像コンテンツを楽しむためのデバイスとしてヘッドトラッキング型のヘッドマウントディスプレイ(HMD:Head Mounted Display)やハンドヘルド型のディスプレイが実用化されている。自由視点型の映像コンテンツとなる全周囲画像は、CG(Computer Graphics)等から構成される仮想空間や複数台のカメラで同時撮影した画像をつなぎ合わせたもの等がある。
一方で、全周囲の動画像に対応する音響コンテンツをヘッドトラッキング型のヘッドフォンを用いて提示する構成が知られている(特許文献1)。この手法では、ヘッドトラッキングの結果に応じて音源に頭部伝達関数(HRTF:Head-Related Transfer Function)を畳みこむことで、ヘッドフォンでも全周囲の映像に整合した音響を提示している。
また、別の全周囲の音響提示としてサラウンドに代表されるような、複数のスピーカを使用者の周囲を囲むように配置する手法が知られている。
特開2002−171460号公報
自由視点型の映像コンテンツをHMD等の可動式の表示装置に表示させる場合、HMDに設置される頭部の動きを検出する装置は長時間使用すると誤差の蓄積により現実空間の座標軸とHMDに表示される画像空間の座標軸がずれてきてしまう恐れがある。したがって、HMD等の可動式の表示装置と位置が固定された複数のスピーカを用いた構成では、HMDに表示される画像空間の座標軸と、複数スピーカから出力される音の音響空間の座標軸が必ずしも一致しないという課題がある。HMDに表示される画像空間の座標軸と、複数スピーカから出力される音の音響空間の座標軸が一致しない場合、視聴者に違和感を与え、自由視点型の映像コンテンツの再生において、臨場感を低減させる要因となり得る。
本発明は上述した課題を解決するためになされたものであり、音響空間の座標軸と画像空間の座標軸を一致させることができる技術を提供することを目的とする。
上記目的を達成するため、本発明による制御装置は以下の構成を有する。即ち、
示装置の向きに応じた画像を表示する前記表示装置により表示される画対応する画像空間の座標軸方向と、前記表示装置により表示される画像に関連する音を出力する複数の出力装置により出力される音に対応する音響空間の座標軸方向とを一致させる設定を行う設定手段と、
前記設定手段による前記設定の後に、前記表示装置の動きの検出結果に基づいて前記画像空間の座標軸方向と前記表示装置の向きとの差を推定することで前記画像空間の座標軸方向を特定する特定手段と、
前記音響空間の座標軸方向と前記特定手段により特定された前記画像空間の座標軸方向とのずれを検出する、ずれ検出手段と、
前記ずれ検出手段により検出されたずれが補正されるように、前記表示装置による画像の表示と前記複数の出力装置による音の出力との少なくとも何れかの制御を行う制御手段とを有する。
本発明によれば、音響空間の座標軸と画像空間の座標軸を一致させることができる技術を提供することができる。
高臨場感再生システムの構成を示すブロック図 音響出力部の配置例を示す模式図 画像空間と音響空間の座標軸のずれを模式的に示す図 制御装置のハードウェア構成を示すブロック図 高臨場感再生システムによる信号処理の流れを示すフローチャート 高臨場感再生システムの構成を示すブロック図 高臨場感再生システムの構成を示すブロック図 全周囲の画像からの切り出し領域を変更する様子を示す模式図 高臨場感再生システムの構成を示すブロック図 補正可能領域において画像を切り出す様子を示す模式図 高臨場感再生システムによる信号処理の流れを示すフローチャート 高臨場感再生システムの構成を示すブロック図 高臨場感再生システムによる信号処理の流れを示すフローチャート
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<<実施形態1>>
(高臨場感再生システム)
図1は本発明の実施形態1に係る高臨場感再生システム100の構成をブロック図で表したものである。本実施形態の高臨場感再生システム100は、音響出力装置110、表示装置120、制御装置130を備える。
音響出力装置110は、複数の音響出力部(音響信号出力部)111〜118を備える。音響出力部111〜118は、それぞれ例えば、スピーカで構成することができ、入力された波形信号に対応する音響(音声)を空間に出力する。本実施形態においては、複数の音響出力部111〜1118は、図2に示すように、使用者(ユーザ)を囲むように水平面上でに8個のスピーカを、等角度間隔(45度)で同心円状に設置した場合の例を説明する。ここで音響空間の座標軸は、例えば、音響出力部111と音響出力部115を結ぶ軸と、その軸に直交する音響出力部113および音響出力部117を結ぶ軸を指す。図2のような場合、コンテンツの信号は、例えば、45度程度の指向性をもつガンマイクを放射状に8本並べて収音することによって得られる。
表示装置120は、動き検出部121、表示部122、収音部123を備える。表示装置120は、動きに応じた画像を表示する。本実施形態において、表示装置120は、図2に示すように使用者の頭部に装着して使用するHMD(Head Mounted Display)である。表示対象のコンテンツは実空間を撮像装置によって撮像した全周囲画像である。表示対象の画像は静止画像だけでなく動画像も含む。ここで、システムの動作を開始した当初は、コンテンツの画像空間の座標軸と音響空間の座標軸とは一致しているものとする。
動き検出部121は、使用者の頭部の動きを検出し、検出結果を出力する。動き検出部121は、例えば、加速度センサー、電子コンパス、傾きセンサー、GPS(Global Positioning System)を備え、各センサーで検出した値を用いて使用者の頭部の回転、傾き、移動などの動きを検出する。
表示部122は、使用者の眼前に設置されたディスプレイであり、制御装置130から入力された画像を表示する。
収音部123は、表示装置120に設置された複数の無指向性マイクロフォンからなるマイクロフォンアレイである。収音部123は、音響出力部111〜118から出力された音響信号を収音する。
制御装置130は、座標軸ずれ検出部131、座標軸ずれ補正部132、画像生成部133、位置算出部134を備える。
座標軸ずれ検出部131は、表示部122に表示されている画像の画像空間の座標軸と、後述の位置算出部134から入力される表示装置120に対するそれぞれの音響出力部111〜118の方向から座標軸とのずれを検出する。座標軸ずれ検出部131は、収音部123において収音された収音結果と、表示装置120が表示する画像とに基づいて、表示装置120が表示する画像による画像空間の座標軸と、音響出力装置110が出力する音響による音響空間の座標軸とのずれを検出する。図3を用いて簡単に説明する。ずれ量βは、例えば角度で表される、本実施形態では音響空間の座標軸Mと画像空間の座標軸Iの水平方向の回転ずれの大きさである。回転ずれは、初期ずれおよび誤差の蓄積などによって発生する。座標軸ずれ検出部131は、検出した座標軸のずれ量βを出力する。
座標軸ずれ補正部132は、座標軸ずれ検出部131から入力されたずれ量βに基づいて座標軸ずれを小さくするように座標軸の補正を行う。すなわち、検出したずれ量に応じて検出された動き量を補正する。例えば、後述する画像生成部133に入力する全周囲画像の画像空間の座標軸を音響空間の座標軸に一致するように回転させる。
画像生成部133は、入力された全周囲画像から一部を切り出し出力する。画像生成部133は、動き検出部121の出力結果に応じて使用者があたかも画像空間内にいるかのように使用者の頭部位置移動に応じて切り出す画像の位置を変更する。
位置算出部134は、収音部123において収音された音響信号から、表示装置120に対する音響出力部の方向を算出する。マルチチャネルの音響信号を用いた音源方向の推定や音源追跡の方式は様々なものが知られているが、例えば、ビームフォーマ等を用いて算出することができる。このとき音響出力部の方向を算出するための信号としてコンテンツ信号を用いることができる。音響出力部111〜118へ入力される信号のうち、特定のチャネルの信号が他のチャネルに比べて十分に大きいとき、その時間区間の信号を用いてそのチャネルの信号が出力されている音響出力部の方向を算出することができる。
(制御装置のハードウェア構成)
図4は、制御装置130のハードウェア構成例を模式的に示すブロック図である。制御装置130は、例えば、パーソナルコンピュータ(PC)や組込みシステム、タブレット端末等により実現される。
図4において、CPU990は中央演算処理装置であり、オペレーティングシステム(OS)やアプリケーションプログラム等に基づいて他の構成要素と協働し、制御装置130全体の動作を制御する。ROM991は読出し専用メモリであり、基本I/Oプログラム等のコンピュータプログラム、基本処理に使用するデータ等を記憶する。RAM992は書込み可能メモリであり、CPU990のワークエリア等として機能する。
外部記憶ドライブ993は記録媒体へのアクセスを実現し、メディア(記録媒体)994に記憶されたコンピュータプログラム等を本システムにロードすることができる。メディア994には、例えば、CD−ROM、DVD、ブルーレイディスク、USBメモリ、フラッシュメモリ等が含まれる。ストレージ995は大容量メモリとして機能する装置であり、本実施形態ではSSD(ソリッドステートドライブ)を用いている。ストレージ995には、OS、アプリケーションプログラム等が格納される。ストレージ995はハードディスク装置等の他の装置により実現することもできる。
操作部996はユーザからの指示やコマンドの入力を受け付ける装置であり、キーボードやポインティングデバイス、タッチパネル等がこれに相当する。ディスプレイ997は、操作部996から入力されたコマンドや、それに対する制御装置130の応答出力等を表示したりする表示装置である。インターフェイス(I/F)998は音響出力装置110や表示装置120とのデータのやり取りを中継する装置である。システムバス999は、制御装置130内のデータの流れを司るデータバスである。
なお、以上の各装置と同等の機能を実現するソフトウェアにより、ハードウェア装置の代替として構成することもできる。
(信号処理)
続いて信号処理のフローを図5を用いて説明する。以下の各ステップは、制御装置130のCPU990の制御に基づき実行される。
はじめに、音響出力部111〜118から出力された音声が収音部123において収音される(S100)。収音された複数チャネルの収音信号は位置算出部134へ出力される。
続いて位置算出部134において、表示装置120に対する音響出力部の方向を算出する(S110)。算出された音響出力部の向きを座標軸ずれ検出部131へ出力する。ここで、例えば、音響出力部から音が出力されていないタイミングでは音響出力部の向きが算出できない。音響出力部の向きが算出できない場合、座標軸ずれ検出部131に対してずれ量0を出力するような制御信号を出力する。
続いて座標軸ずれ検出部131において画像空間の座標軸と音響空間の座標軸のずれを検出する(S120)。座標軸ずれ検出部131では、入力された表示装置120に対する音響出力部の向きから表示装置120に対する音響空間の座標軸を推定する。さらに、入力された画像生成部133が切り出した画像の位置から、表示装置120に対する画像空間の座標軸を推定する。二つの推定された座標軸のずれ量を座標軸ずれ補正部132へ出力する。
続いて、動き検出部121において、HMDの動きが検出される(S130)。検出された頭部の動き情報は画像生成部133へ出力される。
続いて、座標軸ずれ補正部132において、座標軸ずれ検出部131において検出されたずれ量に基づいて座標軸ずれ補正(S10)が行われる。本実施形態では、検出した座標軸のずれの大きさに応じて、表示する画像を回転させる。例えば、座標軸ずれ補正部132では入力されたずれ量に基づいてずれ量が小さくなるように、コンテンツ画像の画像空間の座標軸を回転させる。つまり、図3においてコンテンツの全周囲画像は時計回りにβ分だけ回転する。座標軸を回転させたコンテンツ画像は画像生成部133へ出力される。
続いて、画像生成部133において、使用者の頭部(表示装置120)の向きに応じて画像空間から画像が切り出される(S150)。切り出された画像は表示部122に出力される。このようにして、表示装置の動きに応じて生成された画像の表示制御が行われる。
続いて、音響出力部111〜118からにおいて音響信号が出力され、表示部122において画像生成部133から入力された画像が表示される(S160)。
そして、コンテンツ再生の終了を判定し(S200)、終了の場合(S200でYES)は再生を終了し、終了でない場合(S200でNO)はS100に戻る。このようにして、S100からS160の処理は再生が終了するまで繰り返される。
上記のように、本実施形態では、表示装置120が表示する画像による画像空間の座標軸と、音響出力装置110が出力する音響による音響空間の座標軸とのずれを検出して補正する。このため、提示される画像空間の座標軸と音響空間の座標軸のずれを補正することで、臨場感を損ねることなくコンテンツを提供することができる。
(その他の構成)
本実施形態において、音響出力装置110は水平に8つのスピーカを配置した例を説明したが、スピーカの配置はこれに限られない。例えば、鉛直方向にスピーカを配置してもよく、あるいは、ドーム(半球)型、円筒型にスピーカを配置するようにしてもよい。このとき、鉛直方向も含めた3軸の座標軸ずれ補正を行うようにしてもよい。
また、本実施形態において、表示装置120がHMDである場合の例を説明したが、ハンドヘルド型のディスプレイ装置、例えば携帯ゲーム機、携帯電話機、タブレット型PCなどの表示装置でもよい。
また、本実施形態において、コンテンツ画像は実空間を撮像あるいは録音したものである場合の例を説明したが、仮想空間内を任意の視点で切り出したり、音声を合成したものでもよい。
また、本実施形態において、座標軸ずれ検出部131、座標軸ずれ補正部132、画像生成部133および位置算出部134が1つの制御装置130内に配置された例を説明したが、分散して配置されていてもよい。例えば、画像生成部133および位置算出部134は表示装置120内にあってもよい。
また、本実施形態において、収音部123は複数の無指向性マイクロフォンとしたが、複数の指向性マイクロフォンであってもよく、指向性が異なる方向に向くように配置されるようになっていてもよい。その場合、位置算出部134では、入力される複数チャネルの信号の強度と、指向性のマイクロフォンの向きに応じて表示装置120に対する音響出力部の向きを算出するようにしてもよい。
また、本実施形態では、音響出力部の方向を検出する際に、コンテンツ信号のレベルが大きい時間区間に音源方向を特定する例を説明した。しかし、方向推定に使用するいくつかの周波数帯域において特定のチャネルの信号が他のチャネルに比べて十分大きい時に音源方向を特定するようにしてもよい。このようにすることで、音響出力部から異なる信号が出力されていれば同時に複数の音響出力部の方向を検出することができる。
また、本実施形態では、音響出力部の方向を検出する際にコンテンツ信号を用いたが、コンテンツ以外の測定用信号を用いるようにしてもよい。人が聞こえない、あるいは気にならないような信号を用いてもよく、レベルの低い計測用信号を長時間繰り返し出力し、繰り返し信号を同期加算することで方向推定に十分なS/Nを得るようにしてもよい。他にも、可聴帯域外の信号やマスキング効果によって人にはあまり感じない周波数の信号を使って方向を検出するようにしてもよい。
また、図2において音響出力装置110と表示装置120と制御装置130はわかりやすさのため実線で示しているが、装置間のデータのやりとりは有線/無線を問わず任意の方式を用いて行ってよい。データのやり取りを無線で行うときは、それぞれの装置に無線の送受信機を設ける。このような無線通信方式として、例えば、Bluetooth(登録商標)や無線LANを利用することができる。
音源方向推定は、収音部123が動いている間、つまり使用者が頭部を動かしている間は収音部123から見ると、見かけ上、音響出力部が動いている状態となり、推定精度が低下することが考えられる。そのため座標軸ずれを検出するステップ(S120)は、使用者の動きがシステムにより定められた閾値よりも小さいときにのみ実行するようにしてもよい。ここで、各動きセンサーの精度や収音部123のマイクロフォンの性能・配置などはシステムによって異なるため、閾値はシステムごとに十分な音源位置推定精度が得られるように決定される。
また、音響出力部以外から発せられた音響信号も方向推定の妨げとなる。例えば、使用者の声や動作による動作音も妨げの一因となるし、使用者が複数人いる場合は他の使用者の動作音なども方向推定の妨げとなる。そこで、音響出力部以外から発せられた外部音声を検出する外部音声検出部をさらに設け、外部音声が検出された場合には、座標位置ずれ検出を行うステップ(S120)は実行しないようにしてもよい。
また、本実施形態では、表示装置120に対する音響出力装置110の方向取得に音響信号を用いる例を説明したが、表示装置120と音響出力装置110との相対的な位置関係を取得できるならば、収音部123を用いた構成に限られない。例えば、可視光や電波、赤外線など他の信号を用いてもよい。例えば、図6(a)に示すように、表示装置120に収音部123に代えて撮像部124を設けるようにしてもよい。位置算出部134では撮像部124で撮像された撮像画像から音響出力部を認識し、表示装置120に対する音響出力部の位置検出を行う。ここで、画像認識で複数の音響出力部を個別に特定するため、音響出力部の筐体表面にマーカなどを付けておいてもよい。また、撮像部124はどの向きを向いていても音響出力部を撮像できるようになっていることが望ましい。
また、本実施形態においては、表示装置120に対する音響出力装置110の方向を算出したが、逆に音響出力装置110から表示装置120の向きを算出してもよい。例えば図6(b)に示すように音響出力装置110に撮像部119を備え、位置算出部134は撮像部119で撮像した画像から音響出力装置110に対する表示装置120の向きを検出するようにしてもよい。このように、表示装置120と音響出力装置110との相対的な位置関係を取得し、取得した位置関係に基づいて座標軸のずれを検出することで、座標軸のずれを効果的に補正することができる。
また、本実施形態において、座標軸ずれ補正部132は必ず座標軸ずれ補正を行う例を説明したが、ずれ量が小さい場合には座標軸ずれ補正を行わないようにしてもよい。また、本実施形態において、座標軸ずれ補正部132は画像空間の座標軸が音響空間の座標軸に近づくように補正を行う例を説明したが、音響空間の座標軸が画像空間の座標軸に近づくように構成してもよい(詳細は実施形態4に記載)。
<<実施形態2>>
本実施形態では、ユーザが座標軸のずれの補正を知覚しにくいタイミングに座標軸のずれを補正することで、高い臨場感を保つことが可能とする構成例を説明する。
(高臨場感再生システム)
図7は、実施形態2に係る高臨場感再生システム100の構成を示すブロック図である。本実施形態に係る高臨場感再生システム100は、実施形態1の構成とほぼ同様のため、共通する構成については詳細な説明を省略し、相違点を中心に説明する。
実施形態1(図1)と同様に、本実施形態に係る高臨場感再生システム100は音響出力装置110、表示装置120、制御装置130を備え、各装置は、実施形態1と同様の機能要素を有する。本実施形態では、動き検出部121の検出結果は、画像生成部133に加え座標軸ずれ補正部132へも出力される点が実施形態1と異なる。
本実施形態では、座標軸ずれ補正部132は、動き検出部121から入力される使用者の頭部動きの有無に応じて補正を行うか否かを決定する。頭部動きのある場合には補正を行うようにし、動きの無い場合には補正を行わないようにする。ずれ補正を行う場合、画像生成部133にずれ量を出力する。
画像生成部133は、入力された全周囲の画像から動き検出部121の出力に応じて一部を切り出し出力する。ここで座標ずれ補正部132から座標軸のずれ量が入力された場合、画像の切り出し領域をずれ量に応じて変更する。
図8は、全周囲の画像から切り出す切り出し領域を変更する様子を示す図である。例えば図8(a)に示すように、画像生成部133では、全周囲の画像を展開した画像空間1000から切り出し領域1001を切り出し出力する。ここで、動き検出部121で検出した頭部の回転量をαとすると、図8(b)に示すように切り出し領域1001はα分画像空間内を移動する。さらに、座標軸ずれ補正部132からずれ量βが入力されると、画像生成部133では図8(c)に示すように切り出し領域1001はα+β分画像空間内を移動するようにする。切り出した画像は表示部122に出力する。
(信号処理)
続いて信号処理のフローを図5を用いて説明する。本実施形態の信号処理のフローは、実施形態1と同様に、図5のフローチャートにより示される。以下の各ステップは、制御装置130のCPU990の制御に基づき実行される。S100およびS110、S120は、実施形態1とほぼ同様であるため説明は省略する。
続いて、動き検出部121において、使用者の頭部の動き検出が行われる(S130)。検出された頭部の動き情報は、画像生成部133および座標軸ずれ補正部132へ出力される。
続いて、座標軸ずれ補正部132から、補正用のずれ量が出力される(S140)。座標軸ずれ補正部132では頭部動きがない場合、補正が行われないようにずれ量0が出力される。
続いて、画像生成部133において、画像の切り出しが行われる(S150)。S140で検出した頭部の動き量とずれ量に応じて画像空間から画像を切り出し、表示部122へ出力する。S160以降の処理は実施形態1と同様のため説明は省略する。
以上のように、本実施形態では、頭部が静止している間は座標軸ずれの補正を実施せず、表示装置120が動きが検出されたこと、すなわち、使用者が頭部を動かしたことに応じて、座標軸のずれを補正する。このため、使用者に補正を知覚されにくく、臨場感を損なわずに補正を行うことができる。
(その他の構成)
本実施形態において、座標軸ずれ補正部132はわかりやすさのため、頭部の動きの有無で補正を行うか否かを決定したが、頭部の微小な揺れ等の場合には補正を行わないようにしてもよい。例えば、頭部の回転速度がシステムに応じて定められた閾値よりも小さい場合には補正を行わないようにし、回転速度が閾値を超えた場合に補正を行うようにするようにしてもよい。この閾値はシステム構成によって異なるためシステムごとに事前に決定されるようにするとよい。
本実施形態において、頭部の回転量αとずれ量βに特に制約は設けなかったが、αに対して一度に補正するずれ量を小さく設定し、頭部回転を検出するたびに少しずつ補正を行うようにすることでさらに補正を知覚しにくくすることができる。
さらに、使用者の視線を検出する視線検出部を備え、視線の動きの有無を判定してずれ補正を行うか否かを決定してもよい。例えば、使用者が同じ姿勢を維持することに疲れ体勢を変える場合、視線は同じ位置を見ているが頭部は動いてしまうということがある。そのような場合に補正を行ってしまうと使用者は補正を知覚してしまい不快に感じる。したがって、頭部の回転方向と視線方向が同じ時は補正を行うようにし、頭部の回転方向と視線の方向が逆の時には補正を行わないようにしてもよい。
<<実施形態3>>
次に、表示する画像の視覚的に知覚しにくい領域を加工して、座標軸のずれを補正することにより、高い臨場感を維持する構成を説明する。そのような構成の一例として、本実施形態では、検出した座標軸のずれの大きさに応じて、表示する画像の一部を伸縮させる例を説明する。なお、本実施形態では、複数の使用者が同時に試聴する場合において、補正可能な画像区間を検出し、視野がその画像区間を通過した際に補正を行う。
(高臨場感再生システム)
図9は、実施形態3に係る高臨場感再生システムの構成を示すブロック図である。本実施形態に係る高臨場感再生システム100は、実施形態1の構成とほぼ同様のため、共通する構成については詳細な説明を省略し、相違点を中心に説明する。
実施形態1(図1)と同様に、本実施形態に係る高臨場感再生システム100は音響出力装置110、表示装置120、制御装置130を備えている。表示装置120は、使用者ごとに頭部に装着されており、音響出力装置110は一つの装置を複数の使用者が共通に利用する。音響出力装置110、表示装置120は実施形態1と同様の機能要素を有するが、表示装置120の動き検出部121は、実施形態2(図7)と同様に、画像生成部133に加え、座標軸ずれ補正部132にも動き検出結果を出力する。
制御装置130は、実施形態1(図1)の構成に加えて、さらに画像区間検出部135を備える。画像区間検出部135は、画像空間において補正を実施可能な画像空間上の画像領域を検出する。ここで補正可能な画像領域とは、画像の伸縮による違和感の少ない領域をいう。画像区間検出部135は、例えば、青空などの領域のような平坦な領域を補正可能領域として検出・出力する。ここで平坦な画像領域とは、例えば、近接する画素との、色味や輝度等の色成分の差分が小さい領域をいう。本実施形態では、少なくとも仰角方向に対して連続して切り出し区間よりも大きい範囲において平坦な画像領域を補正可能領域とする。
座標軸ずれ補正部132は、使用者ごとに補正を行う。このとき音響空間の座標軸は複数の使用者に共通のため補正を行うことはできない。したがって、座標軸ずれ補正部132は画像区間の座標軸を音響空間の座標軸に近づけるように補正を行う。座標軸ずれ補正部132は入力されたずれ量、画像区間検出の結果および動き検出の結果から画像生成部133へ画像切り出しおよび領域の伸縮の情報を出力する。
画像生成部133は、入力された情報から表示部122で表示する画像を生成する。図10は、例えば、図10(a)に示すように切り出し領域1001が補正可能領域1002を通過するように移動する場合、補正情報を出力する。図10(b)は、切り出し領域1001全体を示している。図10(c)に示すように、補正可能領域1002を切り出し領域1001内に含む間、切り出し領域1001は通常の切り出し領域の幅wにずれ量βを加えたw+βの領域を切り出す。続いて、図10(d)に示すように、切り出された領域のうち補正可能領域1002の領域をγ/(γ+β)の比率で伸縮する。ここでγは補正可能領域の幅である。画像生成部133は以上のように生成された画像を出力する。
(信号処理)
続いて、信号処理のフローを図11を用いて説明する。以下の各ステップは、制御装置130のCPU990の制御に基づき実行される。
S100からS120は前述の実施形態(図5)と同様のため説明を省略する。続いて、画像区間検出部135において補正可能領域の検出が行われる(S170)。現在の切り出し領域1001周辺の補正可能領域を検出して座標軸ずれ補正部132へ出力する。
続くS130は、前述の実施形態とほぼ同様のため説明を省略する。続いて、座標軸ずれ補正部132において、座標軸ずれ補正のための情報が生成される(S140)。生成された補正情報は画像生成部133へ出力される。
続いて、画像生成部133において画像空間が切り出され、座標軸ずれ補正を行った画像が生成される(S150)。前述のように、本実施形態では、画像を加工しても視覚的に知覚しにくい補正可能領域において画像を伸縮する。入力された補正情報を元に生成された画像は表示部122へ出力される。S160以降の処理は実施形態1と同様のため説明は省略する。
以上のようにして、伸縮が目立ちにくい領域を補正可能領域として抽出し、画像切り出し領域が補正可能領域を通過した際に伸縮することで、使用者に補正を知覚されにくく、臨場感を損なわずに補正を行うことができる。
また、本実施形態では、複数の表示装置120を有する高臨場感再生システム100において、表示装置120の各々について、画像空間の座標軸を音響空間の座標軸に近づける。このため、それぞれ独立に行動する複数の使用者に対して同時に臨場感の高いコンテンツを提供することができる。
(その他の構成)
本実施形態において、補正可能領域として画像の平坦な部分を検出したが、画像の伸縮が視覚的に知覚しづらい部分ならばその他の領域でもよい。
また、本実施形態において、画像生成部133では補正可能領域の画像を伸縮させて座標軸ずれの補正を行う例を説明したが、画像の一部を削除して補正を行ってもよい。その場合、画像区間検出部135では削除可能な領域を検出する。例えば、パターンの繰り返しがある領域を検出し、そのパターンのうち1つを削除することができる。また、画像空間内の近距離にある被写体のエッジを検出し、その周囲を補正可能領域として検出するようになっていてもよい。その場合、画像生成部133において近距離にある被写体の周囲の背景の一部が削除される。
また、本実施形態において、補正可能領域は空間を検出したが、動画像については時間領域で補正可能領域を検出してもよい。例えば、画像区間検出部135はシーン切れ目検出部であって、再生コンテンツのシーンの切れ目を検出し、そのタイミングで画像空間の座標軸を回転するようにしてもよい。シーンの切れ目の検出は、例えば、全周囲画像に対して隣接フレームとの輝度差を元に、輝度の変化が大きい時に当該フレームをシーンの切れ目として検出する。これにより、コンテンツの臨場感を失わずに、画像空間と音響空間との間の座標軸のずれを補正することができる。
<<実施形態4>>
前述の実施形態では、画像空間の座標軸を前記音響空間の座標軸に近づけることにより、座標軸のずれを補正する例を説明した。本実施形態では、音響空間の座標軸を前記画像空間の座標軸に近づける例を説明する。具体的には、補正可能な音声区間を検出し、検出した音声区間で補正を行い、加えてずれ情報を記憶する構成を説明する。
(高臨場感再生システム)
図12は、実施形態4に係る高臨場感再生システムの構成を示すブロック図である。本実施形態に係る高臨場感再生システム100は、前述した実施形態1の構成とほぼ同様のため、共通する構成については詳細な説明を省略し、相違点を中心に説明する。
実施形態1(図1)と同様に、本実施形態に係る高臨場感再生システム100は音響出力装置110、表示装置120、制御装置130を備えており、音響出力装置110は実施形態1と同様の機能要素を有する。表示装置120は、実施形態1の構成に加えて、さらに磁気検出部(地磁気検出部)125を備える。磁気検出部125は、表示装置120周辺の磁場の向きを検出する検出部であり、例えば電子コンパスにより実現される。磁気検出部125は、検出した表示装置120に対する地磁気の向きを制御装置130へ出力する。
制御装置130は、実施形態1(図1)の構成に加えて、さらに音声区間検出部136および、座標軸記憶部137を備える。音声区間検出部136は、入力された音響信号の補正可能区間を検出する。音声区間検出部136は、補正可能区間として例えば無音区間を検出し、座標軸ずれ補正部132へ出力する。
座標軸ずれ補正部132では、座標軸ずれ検出部131から入力されたずれ量から、音響空間の座標軸が画像空間の座標軸に近づくように音響信号を補正する。例えば、検出した座標軸のずれの大きさに応じて、音量や位相のパンニングによって音響空間の座標軸を回転させることができる。図2のような状況において、座標軸ずれ補正部132から各音響出力部111〜118に出力される信号をSig1〜Sig8とする。ここで、音響空間を隣接するスピーカ配置角度の半分22.5度だけ回転させる場合、音響出力部111に入力されるはずの信号を音響出力部111および音響出力部112へ半分ずつ出力する。同様にして、他のチャネルの信号も隣のスピーカと半分ずつ出力する。したがって音響出力部111へ入力される信号をSig1’とすると、Sig1’は以下の[数1]のように表すことができる。
[数1]
Sig1’=1/2×(Sig1+Sig2)
このように音響出力部111〜118へ出力される8chの音響信号に対してそれぞれパンニングを行うことで音響空間の座標軸を補正することができる。座標軸ずれ補正部132では、音声区間検出部136において無音区間を検出した際に上述の音響空間の座標軸の補正を実行する。出力される音響の無音区間に座標軸のずれを補正することで、座標軸のずれの補正を使用者に知覚されずに臨場感を保つことができる。
座標軸記憶部137は、磁気検出部125から入力された地磁気の向きに対する、座標軸ずれ補正部132で補正され一致した、音響空間の座標軸及び画像空間の座標軸の相対的な角度を記憶する。座標軸記憶部137は、再度電源を入れ直した時などに記憶した座標軸と地磁気の向きとの相対的な角度、及び、磁気検出部125から取得した地磁気の向きを出力する。
(信号処理)
続いて、信号処理のフローを図13を用いて説明する。以下の各ステップは、制御装置130のCPU990の制御に基づき実行される。S100からS120は上述の実施形態とほぼ同様のため説明は省略する。
続いて、音声区間検出部136において音響出力部に出力される信号の無音区間を検出する(S180)。無音区間検出の結果を座標軸ずれ補正部132へ出力する。続く、S130は、上述の実施形態とほぼ同様のため説明は省略する。
続いて、座標軸ずれ補正部132において、音響空間の座標軸が画像空間の座標軸に近づくように補正を行う(S140)。補正を行った音響信号は、音響出力装置110に出力される。
続くS150からS160は、実施形態1と同様のため説明は省略する。そして、コンテンツ再生の終了を判定し(S200)、終了の場合(S200でYES)はS190へ進み、終了でない場合(S200でNO)はS100に戻る。
S190では、座標軸記憶部137において補正され、一致した画像空間および音響空間の座標軸と地磁気の向きとの差が記憶される。記憶された差の情報は、次の再生開始時あるいは再度電源が入れられた際の座標軸ずれ補正の初期値として用いられる。
以上のように無音区間を検出し、そのタイミングで音響空間の座標軸を画像空間の座標軸に近づけることで、使用者に補正を知覚されにくく、臨場感を損なわずに補正を行うことができる。また、地磁気と画像空間および音響空間の座標軸の差分を記憶することで、電源を入れ直した際でも音響空間の座標軸と画像空間の座標軸が大きくずれることなく、臨場感を損なわれることがない。
(その他の構成)
本実施形態では、音声区間検出部136は無音区間を検出し、無音区間に音響空間を回転させて座標軸のずれを補正したが、座標軸のずれの補正が知覚されにくいならば、座標軸の補正を行うタイミングはこれに限られない。例えば、出力される音響が等方性を有する時間区間に座標軸のずれを補正してもよい。この場合は、8chの音響信号が同じような信号の場合を検出する。例えば、8chの音響信号のスペクトルを比較しスペクトルの差分量が小さい区間を音響信号が等方性を持つ区間として検出する。音声区間検出部136は音響信号の等方性を検出する等方性検出装置であってもよい。使用者から見て音響空間が等方的な場合、音響空間を補正しても使用者に知覚されることはない。
本実施形態において音響信号のコンテンツは8つの音響出力部111〜118に出力する8chの波形信号を仮定したが、例えば音源ごとの波形信号と音源の位置を持っているオブジェクトベースのコンテンツとしてもよい。オブジェクトベースのコンテンツの場合、音源の信号と音源の位置とスピーカの配置から各スピーカに出力される信号が生成される。そこで、音源ごとの情報を取得する音源情報取得部を備え、音源ごとに無音区間を検出し、音源ごとに独立に座標軸ずれ補正するようになっていてもよい。このように、出力される音響の音源ごとに座標軸のずれを補正することで、様々な種類の音響を対象に座標軸のずれの補正を行うことができる。
<<その他の実施形態>>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:高臨場感再生システム、110:音響出力装置、120:表示装置、130:制御装置

Claims (17)

  1. 示装置の向きに応じた画像を表示する前記表示装置により表示される画対応する画像空間の座標軸方向と、前記表示装置により表示される画像に関連する音を出力する複数の出力装置により出力される音に対応する音響空間の座標軸方向とを一致させる設定を行う設定手段と、
    前記設定手段による前記設定の後に、前記表示装置の動きの検出結果に基づいて前記画像空間の座標軸方向と前記表示装置の向きとの差を推定することで前記画像空間の座標軸方向を特定する特定手段と、
    前記音響空間の座標軸方向と前記特定手段により特定された前記画像空間の座標軸方向とのずれを検出する、ずれ検出手段と、
    前記ずれ検出手段により検出されたずれが補正されるように、前記表示装置による画像の表示と前記複数の出力装置による音の出力との少なくとも何れかの制御を行う制御手段とを有することを特徴とする制御装置。
  2. 前記ずれ検出手段は、前記複数の出力装置から出力され前記表示装置に設置された収音部により収音た収音結果に基づいて特定された前記音響空間の座標軸方向と前記特定手段により特定された前記画像空間の座標軸方向と、のずれを検出することを特徴とする請求項1に記載の制御装置。
  3. 前記ずれ検出手段は、前記表示装置に設置された撮像部により前記出力装置が撮像された撮像画像と、前記出力装置に設置された撮像部により前記表示装置を撮像した撮像画像との少なくとも何れかに基づいて特定された前記音響空間の座標軸方向と前記特定手段により特定された前記画像空間の座標軸方向と、のずれを検出することを特徴とする請求項1又は2に記載の制御装置。
  4. 前記制御手段は、前記ずれ検出手段により前記ずれが検出された場合に、前記表示装置により表示される画像及び前記複数の出力装置により出力される音の少なくとも何れかに基づいて決定したタイミングで前記制御を行うことを特徴とする請求項1乃至3の何れか1項に記載の制御装置。
  5. 前記表示装置の動きを検出する動き検出手段を有し、
    前記制御手段は、前記ずれ検出手段により前記ずれが検出された場合に、前記動き検出手段による前記表示装置の動きの検出に応じたタイミングで前記制御を行うことを特徴とする請求項1乃至4の何れか1項に記載の制御装置。
  6. 前記制御手段は、前記ずれ検出手段により前記ずれが検出された場合に、前記複数の出力装置により出力される音が無音又は等方性を有する音であるタイミングで前記制御を行うことを特徴とする請求項1乃至4の何れか1項に記載の制御装置。
  7. 前記制御手段は、前記ずれ検出手段により前記ずれが検出された場合に、前記複数の出力装置により出力される音と前記表示装置により表示される画像とに係るコンテンツのシーンの変化に応じたタイミングで前記制御を行うことを特徴とする請求項1乃至4の何れか1項に記載の制御装置。
  8. 前記制御手段は、前記ずれが補正されるように、前記画像空間の座標軸方向と前記音響空間の座標軸方向とを近づける制御を行うことを特徴とする請求項1乃至5の何れか1項に記載の制御装置。
  9. 前記制御手段により行われる前記制御には、前記表示装置に入力される全周囲画像内の領域であって前記表示装置により表示される画像に対応する領域を、前記表示装置の動きの検出結果と前記ずれ検出手段による前記ずれの検出結果と基づいて変更する処理が含まれることを特徴とする請求項1乃至8の何れか1項に記載の制御装置。
  10. 前記制御手段により行われる前記制御には、前記表示装置により表示される画像を、前記表示装置の動きの検出結果と前記ずれ検出手段による前記ずれの検出結果と基づいて回転させる処理が含まれることを特徴とする請求項1乃至9の何れか1項に記載の制御装置。
  11. 前記制御手段により行われる前記制御には、前記表示装置により表示される画像の一部を、前記ずれ検出手段により検出された前記ずれの大きさに応じて伸縮又は削除する処理が含まれることを特徴とする請求項1乃至10の何れか1項に記載の制御装置。
  12. 前記制御手段により行われる前記制御には、前記複数の出力装置により出力される音の音量及び位相の少なくとも何れかを、前記ずれ検出手段により検出された前記ずれの大きさに応じて変更する処理が含まれることを特徴とする請求項1乃至11の何れか1項に記載の制御装置。
  13. ヘッドマウントディスプレイとして構成される前記表示装置と、
    それぞれ異なる位置に配置される複数のスピーカとして構成される前記複数の出力装置と、
    請求項1乃至12の何れか1項に記載の制御装置とを有することを特徴とする再生システム。
  14. 示装置の向きに応じた画像を表示する前記表示装置により表示される画対応する画像空間の座標軸方向と、前記表示装置により表示される画像に関連する音を出力する複数の出力装置により出力される音に対応する音響空間の座標軸方向とを一致させる設定を行う設定工程と、
    前記設定工程による前記設定の後に、前記表示装置の動きの検出結果に基づいて前記画像空間の座標軸方向と前記表示装置の向きとの差を推定することで前記画像空間の座標軸方向を特定する特定工程と、
    前記音響空間の座標軸方向と前記特定工程により特定された前記画像空間の座標軸方向とのずれを検出する、ずれ検出工程と、
    前記ずれ検出工程において検出されたずれが補正されるように、前記表示装置による画像の表示と前記複数の出力装置による音の出力との少なくとも何れかの制御を行う制御工程とを有することを特徴とする制御方法。
  15. 前記ずれ検出工程は、前記複数の出力装置から出力され前記表示装置に設置された収音部により収音た収音結果に基づいて特定された前記音響空間の座標軸方向と、前記特定工程により特定された前記画像空間の座標軸方向と、のずれを検出することを特徴とする請求項14に記載の制御方法。
  16. 前記制御工程は、前記ずれ検出工程において前記ずれが検出された場合に、前記表示装置により表示される画像及び前記複数の出力装置により出力される音の少なくとも何れかに基づいて決定したタイミングで前記制御を行うことを特徴とする請求項14又は15に記載の制御方法。
  17. コンピュータを請求項1乃至12のれか1項に記載の制御装置が有する各手段として機能させるためのコンピュータプログラム。
JP2015152688A 2015-07-31 2015-07-31 制御装置、再生システム、補正方法、及び、コンピュータプログラム Active JP6646967B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015152688A JP6646967B2 (ja) 2015-07-31 2015-07-31 制御装置、再生システム、補正方法、及び、コンピュータプログラム
US15/217,162 US9983411B2 (en) 2015-07-31 2016-07-22 Control apparatus and correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015152688A JP6646967B2 (ja) 2015-07-31 2015-07-31 制御装置、再生システム、補正方法、及び、コンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2017034479A JP2017034479A (ja) 2017-02-09
JP2017034479A5 JP2017034479A5 (ja) 2018-09-06
JP6646967B2 true JP6646967B2 (ja) 2020-02-14

Family

ID=57882735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015152688A Active JP6646967B2 (ja) 2015-07-31 2015-07-31 制御装置、再生システム、補正方法、及び、コンピュータプログラム

Country Status (2)

Country Link
US (1) US9983411B2 (ja)
JP (1) JP6646967B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117931023A (zh) 2017-07-13 2024-04-26 索尼公司 信息处理装置、信息处理方法及非暂态计算机可读介质
US10545215B2 (en) * 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03296400A (ja) * 1990-04-13 1991-12-27 Sony Corp 音響信号再生装置
JP3363921B2 (ja) * 1992-09-01 2003-01-08 富士通株式会社 音像定位装置
JPH09284676A (ja) * 1996-04-15 1997-10-31 Sony Corp 身体の動きに同期した映像及び音声処理方法と映像表示装置
US6593956B1 (en) * 1998-05-15 2003-07-15 Polycom, Inc. Locating an audio source
JP2001197598A (ja) 2000-01-05 2001-07-19 Mitsubishi Electric Corp 映像音声再生装置
JP2002171460A (ja) 2000-11-30 2002-06-14 Sony Corp 再生装置
JP2005040178A (ja) * 2003-07-23 2005-02-17 Konica Minolta Medical & Graphic Inc 医用画像表示方法
JP5087963B2 (ja) * 2007-03-20 2012-12-05 ソニー株式会社 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法および再生情報生成プログラム
US8229134B2 (en) * 2007-05-24 2012-07-24 University Of Maryland Audio camera using microphone arrays for real time capture of audio images and method for jointly processing the audio images with video images
JP4934158B2 (ja) 2009-02-16 2012-05-16 日本電信電話株式会社 映像音声処理装置、映像音声処理方法、映像音声処理プログラム
JP2011188444A (ja) * 2010-03-11 2011-09-22 Kddi Corp ヘッドトラッキング装置および制御プログラム
JP5957179B2 (ja) * 2011-01-28 2016-07-27 ソウル バイオシス カンパニー リミテッドSeoul Viosys Co.,Ltd. 炭化アルミニウム薄膜、炭化アルミニウム薄膜を形成した半導体基板及びそれらの製造方法
JP5862444B2 (ja) * 2012-05-11 2016-02-16 トヨタ自動車株式会社 画像表示装置、その表示方法、及び表示プログラム
JP2014153645A (ja) * 2013-02-13 2014-08-25 Seiko Epson Corp 画像表示装置および画像表示装置の表示制御方法
JP6252002B2 (ja) * 2013-07-11 2017-12-27 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US20150078595A1 (en) * 2013-09-13 2015-03-19 Sony Corporation Audio accessibility
JP6482173B2 (ja) 2014-01-20 2019-03-13 キヤノン株式会社 音響信号処理装置およびその方法
JP6463904B2 (ja) 2014-05-26 2019-02-06 キヤノン株式会社 信号処理装置及び音源分離方法及びプログラム
JP6642989B2 (ja) 2015-07-06 2020-02-12 キヤノン株式会社 制御装置、制御方法及びプログラム

Also Published As

Publication number Publication date
US20170032495A1 (en) 2017-02-02
US9983411B2 (en) 2018-05-29
JP2017034479A (ja) 2017-02-09

Similar Documents

Publication Publication Date Title
JP5992210B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
CN108603749B (zh) 信息处理装置、信息处理方法和记录介质
US9858643B2 (en) Image generating device, image generating method, and program
US10728683B2 (en) Sweet spot adaptation for virtualized audio
US10397728B2 (en) Differential headtracking apparatus
US10410562B2 (en) Image generating device and image generating method
TW201804315A (zh) 虛擬、擴充及混合實境
US20190349705A9 (en) Graphical user interface to adapt virtualizer sweet spot
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
US9774978B2 (en) Position determination apparatus, audio apparatus, position determination method, and program
US20170193704A1 (en) Causing provision of virtual reality content
JP2022116221A (ja) 空間オーディオに関する方法、装置およびコンピュータプログラム
EP3264228A1 (en) Mediated reality
JP6646967B2 (ja) 制御装置、再生システム、補正方法、及び、コンピュータプログラム
US20190318503A1 (en) Non-transitory computer-readable storage medium, display apparatus, head-mounted display apparatus, and marker
Heller et al. Audioscope: Smartphones as directional microphones in mobile audio augmented reality systems
JP6651231B2 (ja) 携帯情報端末、情報処理装置、及びプログラム
JP6521675B2 (ja) 信号処理装置、信号処理方法、及びプログラム
US10638249B2 (en) Reproducing apparatus
JP6600186B2 (ja) 情報処理装置、制御方法およびプログラム
JP6631193B2 (ja) 動画像音収録システム、動画像音収録装置、動画像音収録プログラム、および動画像音収録方法
US20230254656A1 (en) Information processing apparatus, information processing method, and terminal device
CN117897687A (zh) 基于用户电信号的音频调整
JP2020071394A (ja) 情報処理装置、情報処理方法及びプログラム
JP2023514342A (ja) 画像処理方法および画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180726

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200114

R151 Written notification of patent or utility model registration

Ref document number: 6646967

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151