JP2019193163A - コンテンツ出力装置 - Google Patents

コンテンツ出力装置 Download PDF

Info

Publication number
JP2019193163A
JP2019193163A JP2018085748A JP2018085748A JP2019193163A JP 2019193163 A JP2019193163 A JP 2019193163A JP 2018085748 A JP2018085748 A JP 2018085748A JP 2018085748 A JP2018085748 A JP 2018085748A JP 2019193163 A JP2019193163 A JP 2019193163A
Authority
JP
Japan
Prior art keywords
display
video
spatial position
content
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018085748A
Other languages
English (en)
Inventor
左川 学
Manabu Sagawa
学 左川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018085748A priority Critical patent/JP2019193163A/ja
Publication of JP2019193163A publication Critical patent/JP2019193163A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】音声が再生される位置に基づいて、映像の表示態様を変えることが可能なコンテンツ出力装置を提供すること。【解決手段】1又は複数のオブジェクトの音声と、映像とを含むコンテンツを出力するコンテンツ出力装置であって、前記映像を表示画面に表示する表示部と、前記オブジェクトの音声に対応づけられた空間位置情報が前記コンテンツに含まれている場合に、当該空間位置情報に基づいて音声を出力する音声出力部と、制御部と、を備え、前記制御部は、前記空間位置情報を前記表示部における表示位置情報に変換し、前記表示画面に表示される映像のうち、前記表示位置情報に基づいて前記映像の表示態様を変える、ことを特徴とする。【選択図】図1

Description

本発明は、コンテンツ出力装置に関する。
近年、コンテンツの映像の高画質化が進む中、音声も多チャンネルによる高音質化が進んでいる。しかし、多チャンネルによる高音質化に関しては、コンテンツ制作者はスピーカの配置を気にする必要があり、また、スピーカの配置がコンテンツ制作者の想定と異なると、ユーザはコンテンツ制作者の意図した通りの体験が得られないという問題があった。
そこで、物体(オブジェクト)に対して音を定位させる技術が提案されている。例えば、映像情報と音声情報を入力し、入力された映像情報から動き物体を検出し、その動き物体を音源として音像を定位する音声情報生成装置が提案されている(例えば、特許文献1参照)。
オブジェクトに音声が関連付けられることにより、音声は、アンプなどの再生機器側でオブジェクトの位置や動きの情報に基づいてスピーカの位置や数に合わせたレンダリングを行われた上で再生される。したがって、コンテンツ制作者もユーザも、スピーカの配置を気にする必要がない。
特開2005−295181号公報
しかし、例えばテレビジョン受像装置のように、スピーカの数が限られている場合は、オブジェクトに音が定位されていても、ユーザに対して没入感や、立体感、臨場感といった感覚を与えることが困難であるという問題があった。
上記事情に鑑み、本発明は、音声が再生される位置に基づいて、映像の表示態様を変えることが可能なコンテンツ出力装置を提供することを目的とする。
上述した課題を解決するために、本発明のコンテンツ出力装置は、
1又は複数のオブジェクトの音声と、映像とを含むコンテンツを出力するコンテンツ出力装置であって、
前記映像を表示画面に表示する表示部と、
前記オブジェクトの音声に対応づけられた空間位置情報が前記コンテンツに含まれている場合に、当該空間位置情報に基づいて音声を出力する音声出力部と、
制御部と、
を備え、
前記制御部は、
前記空間位置情報を前記表示部における表示位置情報に変換し、
前記表示画面に表示される映像のうち、前記表示位置情報に基づいて前記映像の表示態様を変える、
ことを特徴とする。
本発明のコンテンツ出力装置によれば、オブジェクトの音声に対応づけられた空間位置情報に基づいて映像の表示態様を変えることができる。このようにすることで、映像によって、ユーザに対して没入感、立体感、臨場感といった感覚を与えることが可能となる。
第1実施形態におけるコンテンツ出力装置の機能構成を説明するための図である。 第1実施形態におけるコンテンツ処理部の機能構成を説明するための図である。 第1実施形態におけるパラメータ情報のデータ構成の一例を示した図である。 第1実施形態におけるコンテンツ変換処理を説明するための動作フロー図である。 第1実施形態における動作例を説明するための図である。 第1実施形態における動作例を説明するための図である。 第1実施形態における動作例を説明するための図である。 第2実施形態におけるパラメータ情報のデータ構成の一例を示した図である。 第2実施形態における動作例を説明するための図である。 第3実施形態におけるパラメータ情報のデータ構成の一例を示した図である。 第3実施形態におけるコンテンツ変換処理を説明するための動作フロー図である。 第3実施形態における動作例を説明するための図である。 第3実施形態における動作例を説明するための図である。 第3実施形態における動作例を説明するための図である。 第4実施形態におけるパラメータ情報のデータ構成の一例を示した図である。 第4実施形態におけるコンテンツ変換処理を説明するための動作フロー図である。 第4実施形態における動作例を説明するための図である。 第5実施形態におけるコンテンツ出力装置の機能構成を説明するための図である。 第5実施形態における動作例を説明するための図である。 第5実施形態における動作例を説明するための図である。 第6実施形態におけるコンテンツ出力装置の機能構成を説明するための図である。 第6実施形態における動作例を説明するための図である。 第6実施形態における動作例を説明するための図である。 第6実施形態における動作例を説明するための図である。
以下、本発明の実施の形態について、図面を参照して説明する。なお、本実施形態では、一例として、本願発明のコンテンツ出力装置について説明する。
[1.第1実施形態]
[1.1 機能構成]
図1は、コンテンツ出力装置10の機能構成を説明するための図である。コンテンツ出力装置10は、例えば、テレビジョン受像装置等であるが、他にもコンピュータや、カーナビゲーション、大型ディスプレイ、スクリーンといった表示装置であってもよい。また、プロジェクタのような投影型の表示装置であってもよい。
図1に示すように、本実施形態のコンテンツ出力装置10は、制御部100と、コンテンツ入力部110と、コンテンツ処理部120と、映像出力部130と、音声出力部140と、操作部150と、通信部160と、記憶部170と、座標変換部180とを備えて構成されている。
制御部100は、コンテンツ出力装置10の全体を制御するための機能部である。制御部100は、各種プログラムを読み出して実行することにより各種機能を実現しており、例えば1又は複数の演算装置(例えばCPU(Central Processing Unit))により構成されている。
コンテンツ入力部110は、コンテンツ出力装置10で出力するコンテンツのデータを入力する機能部である。コンテンツのデータは、例えば、放送信号や映像信号によって入力され、コンテンツ入力部110は、入力された放送信号や映像信号をコンテンツ処理部120へ出力する。コンテンツ入力部110は、例えば、ユーザが所望するチャネルの周波数から、放送信号を受信するためのチューナに接続されている。なお、コンテンツ入力部110は、DVD(Digital Versatile Disc)やBD(Blu-ray(登録商標) Disc)などの記録媒体を再生し、映像信号を出力する再生装置と接続されていてもよい。
コンテンツ処理部120は、コンテンツ入力部110で入力されたデータをデコード処理し、各機能部に出力するための機能部である。コンテンツ処理部120の概略を図2に示す。図2に示すように、コンテンツ処理部120は、出力制御部122と、TSDEMUX部124と、映像デコード部126と、音声デコード部128とを含んで構成されている。
コンテンツ入力部110により入力されたデータは、TSDEMUX部124において各TSに分離され、各機能部に出力される。例えば、映像TSは映像デコード部126に、音声TSは音声デコード部128にそれぞれ出力される。
そして、映像デコード部126は、映像TSから映像データを復号し、記憶部170に出力する。出力された映像データは、映像データ1721として記憶される。また、音声デコード部128は、音声TSから音声データを復号し、記憶部170に出力する。出力された音声データは、オーディオオブジェクトデータ1722として記憶される。このオーディオオブジェクトデータ1722は、音声の波形を示す情報であるオーディオデータ1723と、空間位置情報1724とが含まれている。
コンテンツに含まれるオーディオオブジェクトデータ1722は、1つであってもよいし、複数であってもよい。なお、本実施形態の説明の都合上、コンテンツにはオーディオオブジェクトデータ1722が1つ含まれている場合について説明する。
オーディオオブジェクトデータ1722は、コンテンツに含まれる音声を、音声の波形の情報(オーディオデータ1723)と、音声に関する情報であるメタデータとを含めたオブジェクトとして表現したデータである。メタデータとは、オーディオデータ1723に対応づけられた情報である。本実施形態では、メタデータには、オーディオデータ1723を再生する位置(以下、「再生位置」という)を示す情報である空間位置情報1724が含まれることとして説明する。なお、メタデータには、音量の変化の情報や、音声の特徴を示した属性情報等の情報が含まれていてもよい。
メタデータに含まれる空間位置情報1724は、例えば、オーディオデータを再生する空間(以下、「再生空間」という)におけるX軸、Y軸、Z軸のそれぞれの値によって再生位置を示した3次元の座標(以下、「空間位置座標」という)である。この場合において、X軸の値はユーザから見た左右の位置を示し、Y軸の値はユーザから見た上下の位置を示し、Z軸の値はユーザから見た奥行きの位置を示す。
例えば、再生空間が、X軸の値として0から200を取り、Y軸の値として0から100を取り、Z軸の値として0から100を取るとする。このとき、空間位置座標がX=0、Y=50、Z=0で示される場所は、ユーザの左前方である。また、空間位置座標が、X=200、Y=50、Z=100で示される場所は、ユーザの右後方である。
また、コンテンツの再生時点によってオーディオデータ1723の再生位置が変わってもよい。この場合は、空間位置情報1724として、再生時点と空間位置座標とを対応づけたリストを記憶する。このようにすることで、リストを参照することで、再生時点における空間位置座標を求めることができる。また、再生時点がリストにない場合は、リストに基づいて補間計算をすることにより、空間位置座標を求めることができる。なお、空間位置情報1724は、リストによる表現方法でなくてもよく、コンテンツの再生時点を変数とした数式で表してもよいし、初期位置と、初速度と、加速度とのデータによって表してもよい。このように、空間位置情報は、オーディオデータ1723の再生位置が特定できれば、どのような方法で表現しても構わない。
出力制御部122は、映像出力部130を制御して映像を出力し、音声出力部140を制御して音声を出力する。なお、本実施形態では、出力制御部122は、空間位置情報1724に基づきオーディオデータ1723を音声出力部140から出力する制御を行う。
例えば、空間位置情報が空間位置座標によって表されている場合は、出力制御部122は、空間位置座標が示す位置にオーディオデータ1723が出力されるように音声出力部140を制御する。また、空間位置情報がリストや数式や量によって表わされている場合は、出力制御部122は、オーディオデータ1723の再生位置を算出し、算出した位置にオーディオデータ1723が出力されるように音声出力部140を制御する。このようにすることで、コンテンツ出力装置10は、ユーザに対して、オーディオデータ1723を知覚させる場所を制御することが可能となる。
映像出力部130は、映像データを表示装置に出力する機能部である。表示装置としては、LCDや、有機ELディスプレイ等の表示装置が含まれる。また、本実施形態における表示装置は、表示画面を複数の領域に分割し、領域内の入力画像に基づきバックライト光源の輝度(バックライトレベル)を制御するローカルディミングを行う。映像出力部130は、ローカルディミングを行う位置や範囲、ローカルディミングを行う領域におけるバックライトレベルの情報を含む制御信号を受信し、制御信号に基づいてローカルディミングを実行する。
音声出力部140は、音声を接続された音声出力装置に出力する機能部である。音声出力装置としては、有線/無線で接続されたスピーカやイヤホンが含まれる。
操作部150は、ユーザからの操作入力を受け付ける機能部である。例えば、コンテンツ出力装置10の本体に設けられたボタンであったり、無線で操作可能なリモコン装置であったりする。
通信部160は、ネットワークに接続し、他の装置と通信を行う機能部である。例えば、有線/無線LANを利用したり、3G/LTE/5Gといった携帯電話網を利用したりして通信を行う。
記憶部170は、コンテンツ出力装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部170は、例えば、半導体メモリであるSSD(Solid State Drive)や、HDD(Hard Disk Drive)等により構成されている。
また、記憶部170には、コンテンツ172と、パラメータ情報174とが記憶される。コンテンツ172には、映像デコード部126から出力された映像データ1721と、音声デコード部128から出力されたオーディオオブジェクトデータ1722とが記憶される。
パラメータ情報174は、表示態様の設定(パラメータ)を記憶した情報である。なお、本実施形態における表示態様とは、映像出力部130におけるコンテンツの出力のされ方であり、ユーザからの見え方をいう。本実施形態では、コンテンツ出力装置10は、映像データ1721の所定の領域のコントラストを変更して色の差異を強調したり、映像出力部130のバックライトレベル(輝度)を変更して映像を明るくしたりして、表示態様を変える。
パラメータ情報174には、例えば、図3に示すように、表示態様の設定項目であるパラメータ名(例えば、「補正範囲」)と、設定項目に対する設定値を示すパラメータ値(例えば、「20」)とが記憶される。
本実施形態では、パラメータ情報174には、以下のパラメータの設定が記憶される。
(1)補正範囲
制御部100が映像データ1721に対してコントラストを変更するフィルタを適用する領域や、映像出力部130が映像データ1721を出力しているときにローカルディミングを行う領域(以下、「補正領域」という)の範囲(大きさ)を設定する。例えば、補正範囲が「20」であれば、制御部100は、補正領域として、表示位置座標の各軸の値から20を引いた座標と、表示位置座標の各軸の値に20を加えた座標とを対角とする、表示位置座標を中心とした矩形領域を生成する。なお、制御部100は、補正領域として、表示位置座標を中心とした、半径20ドットの円を生成してもよい。
ここで、フィルタとは、制御部100が、映像データ1721に変更を加えることで、映像データ1721に対して所定の効果を与える処理をいう。また、表示位置座標とは、映像出力部130が映像データを出力する表示装置の空間(以下、「表示空間」という)における位置を表す情報(以下、「表示位置情報」という)を座標で表現したものであって、空間位置座標に対応する座標をいう。空間位置情報から表示位置情報への変換は、座標変換部180が行う。
(2)コントラストフィルタ
制御部100が映像データ1721の補正領域に対して加えるコントラストレベルの量(適用量)を設定する。例えば、パラメータ値が「10」であれば、映像データ1721のうち、補正領域のコントラストレベルを10上げる。
(3)バックライトレベル
映像出力部130が映像データ1721を出力しているときに、映像出力部130がローカルディミングを行う際のバックライトレベルを設定する。バックライトレベルを変更することで、明るさが変更される。なお、ローカルディミングを行う領域は、補正領域と略同一の領域又は補正領域を含む領域である。例えば、バックライトレベルが5であれば、ローカルディミングを行う範囲におけるバックライトレベルを5にする。
なお、設定可能なパラメータの種類や、設定可能なパラメータ値の数値の範囲は、制御部100が映像データ1721に対して適用可能なフィルタや、映像出力部130が制御可能な機能や性能に基づく。また、パラメータ情報174は、コンテンツ出力装置10に予め記憶されてもよいし、ユーザによって設定されてもよい。
図3に示したパラメータ情報174は、表示位置座標の各軸の値から20を引いた座標と、表示位置座標の各軸の値に20を加えた座標とを対角とする矩形領域を補正領域とすることを示している。また、補正領域に対して、コントラストフィルタを適用することでコントラストレベルを10上げて、バックライトレベルが5上げることで、映像出力部130に出力される映像の表示態様を変えることが設定されていることを示している。
座標変換部180は、再生空間上の位置を示す空間位置情報を、表示空間上の位置を示す表示位置情報に変換する機能部である。例えば、座標変換部180は、空間位置情報に基づいて空間位置座標を算出し、空間位置座標に対応する表示位置座標に変換する。ここで、空間位置座標が3次元で表示位置座標が2次元である場合は、次元を1つ減らし、空間位置座標の各軸の値に所定の係数を掛けて、表示位置座標の各軸において取り得る範囲の値に変換する。
座標変換部180の具体的な変換の処理を、図5を参照して説明する。図5(a)は再生空間を示した図で、X軸は0〜200の値を、Y軸は0〜100の値を、Z軸は0〜100の値をそれぞれ取ることとする。また、図5(b)は表示空間を示した図で、X軸は0〜1919の値を、Y軸は0〜1079の値をそれぞれ取ることとする。なお、以降の説明において、再生空間における座標を(X軸の値,Y軸の値,Z軸の値)と記載し、映像出力部130における座標を(X軸の値,Y軸の値)と記載する。したがって、空間位置座標は(0,0,0)から(200,100,100)の何れかの座標となり、表示座標は(0,0)から(1919,1079)の何れかの座標となる。
はじめに、座標変換部180は、空間位置座標から表示位置座標のX軸の値を求める。ここで表示空間のX軸の値の最大値は1919であり、再生空間のX軸の値の最大値である200の約9.6倍である。したがって、座標変換部180は、表示位置座標のX軸の値を、空間位置座標のX軸の値に9.6を掛けることで求める。なお、空間位置座標のX軸の値が200のとき、200に9.6を掛けると1920となり、表示位置座標のX軸の値の最大値を超えるので、この場合は表示位置座標のX軸の値の最大値である1919に値を丸める。
つづいて、表示位置座標のY軸の値を求める。ここで、再生空間のY軸は下から上に向かって値が大きくなり、表示空間のY軸は上から下に向かって値が大きくなる。そこで、表示位置座標のY軸の値は、表示位置座標のY軸の値の最大値に1を足した1080から空間位置座標のY軸の値に10.8を掛けた値を引くことで求める。なお、空間位置座標のY軸の値が0のときは1080となり、表示位置座標のY軸の値の最大値を超えるので、この場合は表示位置座標のY軸の値の最大値である1079に値を丸める。
座標変換部180が、図5(a)の位置B100の空間位置座標(10,10,10)を表示位置座標に変換する場合は、座標変換部180は、表示位置座標のX軸の値として、空間位置座標のX軸の値である10に9.6を掛けた96を算出する。また、座標変換部180は、表示位置座標のY軸の値として、1080から空間位置座標のY軸の値である10に10.8を掛けた108を引いた972を算出する。すなわち、座標変換部180は、空間位置座標(10,10,10)を、表示位置座標(96,972)に変換する。なお、表示位置座標(96,972)は、図5(b)の位置B110に対応する。
また、コンテンツの再生時点によってオーディオデータ1723の再生位置が異なる場合は、座標変換部180は空間位置情報からコンテンツの再生時点における空間位置座標を求めてから、空間位置座標を表示位置座標へ変換する。
[1.2 コンテンツ変換処理の流れ]
つづいて、図4を参照して、本実施形態におけるコンテンツ出力装置10のコンテンツ変換処理の流れについて説明する。コンテンツ変換処理は、コンテンツ出力装置10がコンテンツを出力するときに、逐次実行する処理である。
はじめに、座標変換部180は、空間位置情報1724を読み出して、表示位置情報に変換する(ステップS102)。変換された表示位置情報は、制御部100に出力される。
つづいて、制御部100は、映像データ1721にフィルタを適用することで、映像データ1721を補正する(ステップS104)。ここで、制御部100は、ステップS102において座標変換部180から出力された表示位置情報と、パラメータ情報174に記憶された補正範囲の値とから、補正領域を生成する。例えば、表示位置情報が表示位置座標(110,90)で、補正範囲が「20」である場合は、制御部100は、表示位置座標の各軸の値から20を引いた座標(90,70)と、20を加えた座標(130,110)を対角とし、表示位置座標を中心とした矩形領域を補正領域として生成する。
また、制御部100は、パラメータ情報174から、適用するフィルタ及びフィルタの適用量を読み出してフィルタを適用する。例えば、パラメータ情報174に、パラメータ名「コントラストフィルタ」について、パラメータ値「10」が記憶されていた場合は、制御部100は、映像データ1721の補正領域に対して、コントラストレベルを10加えるフィルタを適用する。
つづいて、出力制御部122は、ステップS104で補正された映像データ1721を映像出力部130に出力し、オーディオオブジェクトデータ1722を音声出力部140に出力することにより、コンテンツを出力する(ステップS106)。
つづいて、制御部100は、映像出力部130が映像を出力する表示装置のバックライトレベルを変更する(ステップS108)。例えば、制御部100は、ステップS102で座標変換部180から出力された表示位置情報と、パラメータ情報174に記憶されている補正範囲とバックライトレベルの値とを含む制御信号を映像出力部130へ送信する。制御信号を受信した映像出力部130は、表示位置情報と補正範囲とに基づく領域について、バックライトレベルを変更するローカルディミングを実行する。
[1.3 動作例]
本実施形態における動作例を、図を参照して説明する。なお、動作例の説明において、オーディオオブジェクトデータ1722として、鳥のオーディオオブジェクトデータが記憶されているものとする。また、パラメータ情報174として、図3に示したパラメータ情報が記憶されているものとする。
はじめに、図5を参照して、空間位置情報である空間位置座標を、表示位置情報である表示位置座標に変換する処理について説明する。図5(a)は、オーディオオブジェクトデータ1722に含まれる空間位置座標を再生空間上に示した図であり、図5(b)は、空間位置座標を表示位置座標に変換して表示空間上に示した図である。
図5(a)は、オーディオデータ1723の再生位置が、空間位置情報1724に基づいて、コンテンツの再生時点によって移動する様子を表した図である。具体的には、オーディオデータ1723の再生位置は、矢印P100に沿って、左下奥の位置B100から、位置B101、位置B102、位置B103、位置B104を経由して、右上手前の位置B105に移動する。
ここで、位置B100の空間位置座標は(10,10,10)である。座標変換部180は、位置B100の空間位置座標を、表示位置座標である(96,972)に変換する。同様にして、座標変換部180は、位置B101の空間位置座標(50,30,30)を、表示位置座標(480,756)に変換し、位置B102の空間位置座標(70,50,50)を、表示位置座標(672,540)に変換し、位置B103の空間位置座標(90,40,80)を、表示位置座標(864,648)に変換し、位置B104の空間位置座標(130,70,60)を、表示位置座標(1248,324)に変換し、位置B105の空間位置座標(160,90,90)を、表示位置座標(1536,108)に変換する。
図5(b)は、表示位置座標に変換した座標を表示空間に示した図である。ここで、図5(a)の位置B100は図5(b)の位置B110に対応する。同様に、図5(a)の位置B101は図5(b)の位置B111に、図5(a)の位置B102は図5(b)の位置B112に、図5(a)の位置B103は図5(b)の位置B113に、図5(a)の位置B104は図5(b)の位置B114に、図5(a)の位置B105は図5(b)の位置B115にそれぞれ対応する。このように、再生位置が左下奥から右上手前へ移動するといった空間位置情報は、座標変換部180によって、左下から右上への移動といった表示位置情報に変換される。
図6は、表示空間上に位置B112及びパラメータ情報174に記憶された補正範囲から生成される補正領域E112を示した図である。本実施形態では、制御部100は、表示位置座標と補正範囲とから2つの座標を求め、その2つの座標を対角とする矩形領域を補正領域として生成する。ここで、位置B112の表示位置座標である(672,540)と、補正範囲のパラメータ値は「20」とから、表示位置座標(672,540)の各軸の値から20を引いた座標である(652,520)が求められる。また、表示位置座標(672,540)の各軸の値から20を足した座標である(692,560)が求められる。したがって、制御部100は、位置B112に基づく補正領域を、補正領域E112とする。なお、制御部100は、位置B112以外の表示位置座標についても、同様にして補正領域を生成する。
つづいて、図7を参照して、フィルタの適用及びバックライトレベルの変更について説明する。図7(a)は、空間位置情報1724に基づく表示位置座標が図5(b)の位置B110である場合であって、表示態様を変えないときに映像出力部130によって出力される映像である。図7(b)は、空間位置情報1724に基づく表示位置座標が図5(b)の位置B110である場合であって、表示態様を変えたときに映像出力部130によって出力される映像である。図7(a)と比べ図7(b)は、補正領域の表示態様が変わっている。表示態様を変える方法としては、例えばコントラストフィルタを適用することでコントラストを強調したり、バックライトレベルを変更することにより輝度が変更したりする。バックライトレベルを変更する場合は、例えば、ローカルディミングの技術を利用することにより補正領域の部分だけバックライトレベルが上がった状態となればよい。また、コントラストフィルタと、バックライトレベルの変更とは併せて適用されてもよい。
また、図7(c)〜図7(g)は、空間位置情報1724に基づく表示位置座標が図5(b)の位置B111〜位置B115である場合に、表示態様を変えたときに映像出力部130によって出力される映像である。このように空間位置情報1724に基づいて表示態様を変えることにより、オーディオデータが再生される位置と連動して、映像の輝度や、コントラストを変更することができる。
なお、説明の都合上、空間位置情報1724のうち6地点におけるコンテンツ出力装置10の動作例を示したが、それ以外の地点においても、同様に空間位置座標に基づいて映像の表示態様を変える。すなわち、図5(a)の矢印P100で示すようにオーディオデータ1723の再生位置が移動することに伴って、補正領域も連動して変わる。
また、コンテンツにオーディオオブジェクトデータ1722が複数存在する場合は、コンテンツ出力装置10は、オーディオオブジェクトデータ1722毎に、空間位置座標に基づいて映像の表示態様を変える処理を行う。例えば、コンテンツに2つのオーディオオブジェクトデータ1722が含まれる場合は、コンテンツ出力装置10は、補正領域が2箇所生成し、それぞれの補正領域の表示態様を変える。
また、本実施形態では、映像データ1721にコントラストフィルタを適用することとして説明したが、コントラストフィルタ以外のフィルタを適用しても構わないことは勿論である。例えば、本実施形態では輝度の変更をローカルディミングによって実現することとして説明したが、映像データ1721に明るさや輝度を変更するフィルタを適用することで実現してもよい。
なお、本実施形態では、制御部100は、表示位置情報と補正範囲とから補正領域を生成することとして説明したが、表示位置情報と補正範囲とから補正領域を特定してもよい。この場合は、ステップS104では制御部100は、特定された補正領域に対してフィルタを適用する。また、ステップS108で、制御部100は、生成又は特定した補正領域の情報とバックライトレベルの値とを含んだ制御信号を、出力制御部130に送信してもよい。
本実施形態によれば、オーディオオブジェクトデータが含まれるコンテンツを出力する場合に、音声と連動して、映像の表示態様を変えることができる。このようにすることで、没入感、立体感、臨場感を向上させた映像を、ユーザに提供することが可能となる。
[2.第2実施形態]
第2実施形態は、第1実施形態と異なり、映像に対して適用するフィルタや、バックライトレベルの変更の有無を選択することが可能な実施形態である。
本実施形態のコンテンツ出力装置の機能構成は、第1実施形態と略同一だが、パラメータ情報174の図を図3から図8に置き換える。本実施形態のパラメータ情報174は、パラメータ名と、パラメータ値に加え、フィルタの適用有無や、バックライトレベルの変更の有無を示す補正有無(例えば、「する」)を記憶する。
補正有無には「する」または「しない」の何れかが記憶される。補正有無として「する」と記憶されたフィルタの適用及びバックライトレベルの変更のみが、コンテンツ出力装置10によって行われる。なお、パラメータのうち「補正範囲」はフィルタの適用やバックライトレベルの変更に関するパラメータではないため、補正有無には何も記憶しない。
図8の例では、パラメータ情報174には、フィルタとしてコントラストフィルタは適用しないが、ぼかしフィルタを適用することを示している。また、バックライトレベルの変更をしないことを示している。なお、ぼかしフィルタは、補正領域以外の領域の映像をぼかすことで表示態様を変えるフィルタであり、特定のパラメータ値を取らないフィルタである。
なお、コントラストフィルタとバックライトレベルの補正有無を「する」とし、ぼかしフィルタの補正有無を「しない」とすると、第1実施形態と同じ表示態様となる。このように、補正有無によって表示態様を設定することが可能である。補正有無はコンテンツ出力装置10に予め記憶されていてもよいし、ユーザによって変更可能であってもよい。
コンテンツ変換処理は第1実施形態と略同一だが、ステップS104の映像データの補正及びステップS108のバックライトレベルの変更は、パラメータ情報174に基づいて実行する。例えば、図8の例では、ステップS104においては、制御部100は、映像データ1721に対して、ぼかしフィルタを適用するが、コントラストフィルタは適用しない。また、ステップS108においては、制御部100は映像出力部130に対して制御信号を送信しない。
本実施形態における動作例を図9に示す。なお、オーディオオブジェクトデータ1722として、鳥のオーディオオブジェクトデータが記憶されているものとする。また、パラメータ情報174として、図8に示したパラメータ情報が記憶されているものとする。
図9(a)は表示態様を変えない場合において映像出力部130から出力される映像である。また、図9(b)〜図9(g)は表示態様を変える場合において、映像出力部130から出力される映像である。このように、表示態様を変える場合には、補正領域以外の領域がぼかされた映像が出力される。
本実施形態によれば、補正有無によって表示態様を設定することが可能である。例えば、ユーザが補正有無を設定することにより、ユーザが所望する方法により、表示態様を変えることが可能となる。
[3.第3実施形態]
第3実施形態は、第1実施形態と異なり、空間位置情報に基づいて、コンテンツ出力装置10が、フィルタの適用量やバックライトレベルといったパラメータ値を生成する実施形態である。
本実施形態のコンテンツ出力装置10の機能構成は、第1実施形態と略同一だが、パラメータ情報174の図を図3から図10に置き換える。本実施形態のパラメータ情報174は、パラメータ名と、パラメータ範囲を記憶する。また、パラメータ範囲には、パラメータ値として用いる値の下限値であるパラメータ最小値(例えば、「5」)と、パラメータ値として用いる値の上限値であるパラメータ最大値(例えば、「30」)とが記憶される。パラメータ範囲は、コンテンツ出力装置10に予め記憶されていてもよいし、ユーザによって変更可能であってもよい。
なお、本実施形態では、フィルタの適用量やバックライトレベルといったパラメータ値は、パラメータ範囲に記憶されたパラメータ最小値からパラメータ最大値の間に含まれる値から、空間位置座標のZ軸の値に基づいて生成されることとして説明する。
本実施形態のコンテンツ変換処理は第1実施形態の図4を図11に置き換えたものである。なお、第1実施形態と同一の処理については、同一の符号を付し、説明を省略する。
はじめに、座標変換部180が空間位置情報を表示位置情報に変換したら(ステップS102)、つづいて、制御部100は、空間位置情報とパラメータ情報174とに基づき、補正範囲を生成する(ステップS302)。例えば、制御部100は、空間位置情報のZ軸の値とパラメータ情報174に記憶されたパラメータ範囲とから、補正範囲のパラメータ値を生成する。このとき、空間位置座標のZ軸の値が0の場合は、補正範囲のパラメータ最小値を補正範囲のパラメータ値とし、空間位置座標のZ軸の値が100の場合は、補正範囲のパラメータ最大値を補正範囲のパラメータ値とする。また、空間位置座標のZ軸の値が0又は100以外の場合は、パラメータ最小値とパラメータ最大値とを補間して算出した値を、補正範囲のパラメータ値として生成する。このようにすることで、オーディオオブジェクトの再生位置が手前であるほど、補正範囲の値が大きくなり、補正領域が広くなる。
つづいて、制御部100は、フィルタのパラメータ値を生成する(ステップS304)。例えば、制御部100は、ステップS302と同様に、空間位置情報のZ軸の値とパラメータ情報174に記憶されたパラメータ範囲とから、パラメータ値を生成する。このようにすることで、オーディオオブジェクトの再生位置が手前であるほど、フィルタの適用量が大きくなる。
また、映像データを補正及びコンテンツの出力をしたら(ステップS104→ステップS106)、制御部100は、つづいて、バックライトレベルの値を生成する(ステップS306)。例えば、制御部100は、ステップS302と同様に、空間位置情報のZ軸の値とパラメータ情報174に記憶されたパラメータ範囲とから、バックライトレベルのパラメータ値を生成する。このようにすることで、オーディオオブジェクトの再生位置が手前であるほど、バックライトレベルの値が大きくなる。
つづいて、映像出力部130は、ステップS102で座標変換部180から出力された表示位置情報と、ステップS302で生成された補正範囲と、ステップS306で生成されたバックライトレベルとを含んだ制御情報に基づき、バックライトレベルの変更を行う(ステップS108)。
本実施形態の動作例を、図を参照して説明する。図12は、鳥のオーディオオブジェクトデータ1722に含まれる空間位置情報1724を再生空間上に示した図であり、図12(a)は、図5(a)と同じ図である。また、図12(b)は図12(a)を変形した図であり、YZ平面が正面となるように記載した図である。図12(a)の位置B100は、図12(b)の位置B120と対応する。同様に、図12(a)の位置B101は図12(b)の位置B121と、図12(a)の位置B102は図12(b)の位置B122と、図12(a)の位置B103は図12(b)の位置B123と、図12(a)の位置B104は図12(b)の位置B124と、図12(a)の位置B105は図12(b)の位置B125と、それぞれ対応する。
図12(b)に示すように、オーディオデータ1723の再生位置が位置B120から位置B123に移動することにより、再生位置は手前に移動する。そして、オーディオデータ1723の再生位置が位置B123から位置B125に移動することにより、再生位置は奥に移動する。
図13は、位置B120から位置B125の空間位置座標と、パラメータ情報174に記憶されたパラメータ範囲とに基づいて、制御部100が生成したパラメータ値を表形式で示した図である。例えば、空間位置座標が(10,10,10)である行は、位置B120におけるパラメータ値を表している。このように、図13の空間位置座標と、図12(b)に記載された空間位置座標は対応する。
図13に示すように、位置B120から位置B123にかけて、空間位置座標のZ軸の値が大きくなることに対応して補正範囲の値は大きくなり、コントラストレベルやバックライトレベルは高くなる。一方で、位置B123から位置B125にかけては、空間位置座標のZ軸の値が小さくなることに対応して補正範囲の値は小さくなり、コントラストレベルやバックライトレベルは低くなる。
図14を参照して、映像出力部130によって出力される映像の例を説明する。図14(a)は、オーディオデータ1723の再生位置がB120である場合に、表示態様を変えないときに映像出力部130によって出力される映像である。図14(b)は、オーディオデータ1723の再生位置が位置B120である場合に、表示態様を変えたときに映像出力部130によって出力される映像である。図14(a)と比べ図14(b)は、補正領域に対してコントラストフィルタが適用され、ローカルディミングによりバックライトレベルが上がった状態で出力される。
また、図14(c)〜図14(g)は、オーディオデータ1723の再生位置が位置B121〜位置B125である場合において、表示態様を変えたときに映像出力部130によって出力される映像である。このように、オーディオデータの再生位置が手前であるほど、補正領域が広く、また、コントラストレベルやバックライトレベルが高くなる。
なお、本実施形態では、パラメータ値として、空間位置座標のZ軸の値が大きいほど、パラメータ最大値が生成されることとして説明したが、このような生成方法でなくても構わない。例えば、パラメータ値として、Z軸の値が再生空間における中間の値に近いほどパラメータ最大値が生成され、Z軸の値が再生空間における最小値又は最大値に近いほどパラメータ最小値が生成されるようにしてもよい。このようにすることで、再生空間における中間の位置で再生される音声ほどパラメータ値が大きくなり、手前又は奥の位置で再生される音声ほどパラメータ値が小さくなる。
なお、本実施形態では、制御部100は、パラメータ最小値とパラメータ最大値とから、パラメータ値を生成することとして説明したが、パラメータ最小値とパラメータ最大値とから、パラメータ値を特定してもよい。
本実施形態によれば、コンテンツ出力装置10は、オーディオオブジェクトが手前に存在するか、奥に存在するかといった情報に基づいて、表示態様を変えることが可能となる。このようにすることで、コンテンツ出力装置10は、映像出力部130が出力する映像の立体感をより高めることが可能となる。
また、ユーザによってパラメータ範囲が指定されることにより、コンテンツ出力装置10は、ユーザが適切と考えられる表示態様で、映像を出力することが可能となる。
[4.第4実施形態]
第4実施形態は、第3実施形態に対して、更にオーディオデータ1723の音圧の変更を行う実施形態である。
本実施形態のコンテンツ出力装置の機能構成は、第3実施形態と略同一だが、パラメータ情報174の図を図10から図15に置き換える。本実施形態では、コントラストフィルタ及びバックライトレベルのパラメータに加えて、音圧のパラメータを追加する点において異なる。また、音圧のパラメータ値は、空間位置座標のZ軸の値に基づいて生成されることとして説明する。
本実施形態のコンテンツ変換処理は第3実施形態の図11を図16に置き換えたものである。なお、第3実施形態と同一の処理については、同一の符号を付し説明を省略する。
コンテンツ変換処理において映像データの補正をしたら(ステップS104)、つづいて制御部100は、空間位置座標のZ値に基づき音圧のパラメータ値を生成する(ステップS402)。パラメータ値の生成は、ステップS302と同様に、空間位置情報のZ軸の値とパラメータ情報174に記憶されたパラメータ範囲とから、制御部100が、パラメータ値を生成する。このようにすることで、オーディオオブジェクトの再生位置が手前であるほど、音圧のパラメータが大きくなる。
つづいて、制御部100は、音圧のパラメータ値に基づき、オーディオデータ1723を補正する(ステップS404)。このようにすることで、ステップS106において制御部100が補正した映像データ1721と、ステップS404において制御部100が補正したオーディオデータ1723とが、ステップS106において出力される。
図17は、図12(b)に示した位置B120から位置B125の空間位置座標と、パラメータ情報174に記憶されたパラメータ範囲とに基づいて、制御部100が生成したパラメータ値を表形式で示した図である。図17に示すように、位置B120から位置B123にかけて、空間位置座標のZ軸の値が大きくなることに対応して音圧は大きくなる。一方で、位置B123から位置B125にかけては、空間位置座標のZ軸の値が小さくなることに対応して音圧が小さくなる。このように、空間位置座標のZ軸の値に対応して、オーディオデータ1723の音圧が変更される。
なお、第3実施形態と同様に、音圧のパラメータ値の生成方法として、例えば、Z軸の値が再生空間における中間の値に近いほどパラメータ最大値が生成され、Z軸の値が再生空間における最小値又は最大値に近いほどパラメータ最小値が生成されるようにしてもよい。また、音圧のパラメータ値は、音圧のパラメータ最小値と音圧のパラメータ最大値とから、特定されてもよい。
本実施形態によれば、コンテンツ出力装置10は、空間位置座標に基づいて、オーディオデータの音圧を変更することができる。このようにすることで、例えば、音声出力部140が左右に配置されたスピーカで、奥行方向に音声を出力できない場合であっても、音圧によって、音声の立体感をユーザに知覚させやすくなる。
[5.第5実施形態]
第5実施形態は、第1実施形態とは異なり、空間位置座標が有効座標範囲外である場合は、表示態様を変えない実施形態である。
本実施形態のコンテンツ出力装置12の機能構成は第1実施形態の図1を図18に置き換えたものである。なお、第1実施形態と同一の機能部については、同一の符号を付し、説明を省略する。
本実施形態のコンテンツ出力装置12は、コンテンツ出力装置12の記憶部170に、更に有効座標範囲情報176を記憶されている点が異なる。有効座標範囲情報176は、表示態様を変える場合における空間位置座標の範囲(有効座標範囲)である。例えば、有効座標範囲情報176として、「(10,10,10)−(190,90,90)」が記憶される。この場合、空間位置座標が(10,10,10)である場合や、(100,50,50)である場合は、コンテンツ出力装置12は、表示態様を変える。一方で、空間位置座標が(10,9,10)である場合や、(100,91,50)である場合は、コンテンツ出力装置12は、表示態様を変えない。
コンテンツ変換処理においては、ステップS104の映像データの補正の処理では、制御部100は、有効座標範囲情報176を読み出し、空間位置座標が有効座標範囲の範囲内であるか否かを判定する。空間位置座標が有効座標範囲内である場合は、制御部100は、映像データ1721の補正領域に対してフィルタを適用する。
また、ステップS110のバックライトレベルの変更の処理では、制御部100は、有効座標範囲情報176を読み出し、空間位置座標が有効座標範囲内であるか否かを判定する。空間位置座標が有効座標範囲内である場合は、制御部100は、映像出力部130に対して制御信号を送信する。
図を参照して、本実施形態の動作例を説明する。図19は、鳥のオーディオデータの再生位置である位置B500、位置B501、位置B502、位置B503、位置B504、位置B505と、有効座標範囲R500とを、再生空間上に示した図である。なお、有効座標範囲R500は、(10,10,10)−(190,90,90)の範囲であるとする。
ここで、位置B500の空間位置座標は(5,5,5)であり、有効座標範囲R500の範囲外である。したがって、オーディオデータ1723の再生位置が位置B500であるときは、コンテンツ出力装置12は表示態様を変えずに、映像データ1721を映像出力部130から出力する。また、位置B501の空間位置座標は(50,30,30)であり、有効座標範囲R500の範囲内である。したがって、オーディオデータ1723の再生位置が位置B501であるときは、コンテンツ出力装置12は表示態様を変えて、映像データ1721を映像出力部130から出力する。このようにして、オーディオデータ1723の再生位置に応じて、表示態様変えたり、変えなかったりする。
なお、図19に示した位置B502の空間位置座標(70,50,50)と、位置B503の空間位置座標(90,40,80)と、位置B504の空間位置座標(130,70,60)とは、有効座標範囲R500の範囲内である。しかし、位置B505の空間位置座標(195,95,95)は、有効座標範囲R500の範囲外である。したがって、位置B500及び位置B505の空間位置座標は、有効座標範囲R500の範囲外であり、コンテンツ出力装置12は表示態様を変えない。
図20は、映像出力部130によって出力される映像の例である。図20(a)はオーディオデータ1723の再生位置が位置B500である場合に映像出力部130によって出力される映像である。同様に、図20(b)は再生位置が位置B501である場合に、図20(c)は再生位置が位置B502である場合に、図20(d)は再生位置が位置B503である場合に、図20(e)は再生位置が位置B504である場合に、図20(f)は再生位置が位置B505である場合に、映像出力部130によって出力される映像である。
ここで、位置B500は有効座標範囲R500の範囲外である。したがって、図20(a)に示すように、コンテンツ出力装置12は、映像データ1721に対するコントラストフィルタの適用や、ローカルディミングによる輝度の変更といった表示態様の変更は行わない。同様に、位置B505は有効座標範囲R500の範囲外であるため、図20(f)に示すように、コンテンツ出力装置12は、映像データ1721に対する表示態様の変更を行わない。一方で、位置B501、位置B502、位置B503、位置B504は有効座標範囲R500の範囲内であるため、図20(b)〜図20(e)に示すように、コンテンツ出力装置12は、映像データ1721に対して表示態様を変更する。
本実施形態によれば、有効座標範囲を適切に設定することで、例えば、コンテンツ出力装置12は、空間位置座標が再生空間の端に近い音声や、映像の外から発せられているような音声に対しては、表示態様を変えない。このようにすることで、背景として配置されたオーディオオブジェクトによって、表示態様が変わってしまうことを避けることが可能となる。
[6.第6実施形態]
第6実施形態は、第1実施形態と異なり、オーディオオブジェクトデータに設定された属性情報に基づいて、表示態様を変えたり変えなかったりする実施形態である。
本実施形態のコンテンツ出力装置14の機能構成は第1実施形態の図1を図21に置き換えたものである。なお、第1実施形態と同一の機能部については、同一の符号を付し、説明を省略する。
本実施形態のコンテンツ出力装置14は、コンテンツ出力装置10と比べて、記憶部170について、オーディオオブジェクトデータ1722に属性情報1725が更に記憶され、また、補正対象属性情報178が更に記憶される点が異なる。
属性情報1725は、メタデータに含まれる情報であり、オーディオオブジェクトデータ1722に関する属性である。例えば、属性情報1725として、音声の種類が記憶される。また、音声の性質や特徴が記憶されてもよい。属性情報1725は、コンテンツ制作者によって記憶される。
また、補正対象属性情報178には、表示態様を変える対象となるオーディオオブジェクトデータ1722が含む属性である。補正対象属性情報178は、コンテンツ出力装置10に予め記憶されていてもよいし、ユーザによって変更可能であってもよい。
コンテンツ変換処理においては、ステップS106の映像データ補正の処理では、制御部100は、補正対象属性情報178を読み出し、補正対象属性情報178に記憶された属性に、属性情報1725として記憶された属性が含まれるか否かを判定する。補正対象属性情報178に記憶された属性に、属性情報1725として記憶された属性が含まれる場合は、制御部100は、映像データ1721にフィルタを適用する。
また、ステップS110のバックライトレベルの変更の処理では、制御部100は、補正対象属性情報178を読み出し、補正対象属性情報178に記憶された属性に、属性情報1725として記憶された属性が含まれるか否かを判定する。補正対象属性情報178に記憶された属性に、属性情報1725として記憶された属性が含まれる場合は、制御部100は、映像出力部130に対して制御信号を送信する。
図を参照して、本実施形態の動作例を説明する。図22(a)は、鳥のオーディオデータ1723の再生位置A600と、猫のオーディオデータ1723の再生位置A601と、犬のオーディオデータ1723の再生位置A602と、セミのオーディオデータ1723の再生位置A604とを、再生空間に示した図である。また、図22(b)は、図22(a)を変形させて、YZ平面を正面になるように記載した図である。
図23(a)は、オーディオオブジェクトデータ1722に含まれる空間位置情報1724である空間位置座標と、属性情報1725とを表形式で示した図である。ここでは、属性情報1725には、音声の種類が記憶されることとして説明する。例えば、空間位置座標が(10,10,10)であるオーディオオブジェクトデータ1722は、音声の種類が「鳥」であるオーディオオブジェクトデータ1722であることを示す。
図23(b)は、補正対象属性情報178の例を示した図である。この図では、オーディオオブジェクトデータ1722のうち、属性が「猫」又は「犬」であるオーディオオブジェクトデータ1722に基づいて、映像の表示態様を変えることを示す。
図24は、図23(a)に示したオーディオオブジェクトデータ1722と、図23(b)に示した補正対象属性情報178に基づき、表示態様を変えた場合において、映像出力部130から出力される映像を示した図である。ここで、補正領域E601は、図23(a)に含まれるオーディオオブジェクトデータ1722のうち、属性情報が「猫」であるオーディオオブジェクトデータ1722の空間位置座標である(50,30,50)に基づく補正領域である。また、補正領域E602は、図23(a)に含まれるオーディオオブジェクトデータ1722のうち、属性情報が「犬」であるオーディオオブジェクトデータ1722の空間位置座標である(120,20,80)に基づく補正領域である。このように、特定のオーディオオブジェクトデータ1722に基づいて映像の表示態様を変えることが可能である。
本実施形態によれば、コンテンツに複数のオーディオオブジェクトデータ1722が含まれている場合であっても、特定のオーディオオブジェクトデータ1722に基づいて、表示態様を変えることが可能である。
また、ユーザが表示態様を変える対象となるオーディオオブジェクトデータ1722を選択することが可能である。さらに、予め表示態様を変える対象となるオーディオオブジェクトデータ1722の属性を決めておくことで、コンテンツ制作者が、表示態様を変えるためのオーディオオブジェクトデータ1722を作成することが可能となる。
[7.変形例]
本発明は上述した各実施の形態に限定されるものではなく、種々の変更が可能である。すなわち、本発明の要旨を逸脱しない範囲内において適宜変更した技術的手段を組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。また、コンテンツ変換処理のフローについては、上述した説明以外であっても、矛盾のない範囲において、ステップの順番を変更したり、一部のステップを省略したりしても構わない。
また、上述した実施形態は、それぞれの実施形態を組み合わせて実行することができることは勿論である。例えば、第3実施形態と第6実施形態とを組み合わせて実行することで、コンテンツ出力装置は、特定のオーディオオブジェクトデータに対して、パラメータ値を変動させながら、表示態様を変えることが可能となる。
また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROM(Read Only Memory)やHDD(Hard Disc Drive)等の記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。
ここで、プログラムを格納する記録媒体としては、半導体媒体(例えば、ROMや、不揮発性のメモリカード等)、光記録媒体・光磁気記録媒体(例えば、DVD、MO(Magneto Optical Disc)、MD(Mini Disc)、CD(Compact Disc)、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等の何れであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。
また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれるのは勿論である。
10、12、14 コンテンツ出力装置
100 制御部
110 コンテンツ入力部
120 コンテンツ処理部
122 出力制御部
124 TSDEMUX部
126 映像デコード部
128 音声デコード部
130 映像出力部
140 音声出力部
150 操作部
160 通信部
170 記憶部
172 コンテンツ
1721 映像データ
1722 オーディオオブジェクトデータ
1723 オーディオデータ
1724 空間位置情報
1725 属性情報
174 パラメータ情報
176 有効座標範囲情報
178 補正対象属性情報

Claims (7)

  1. 1又は複数のオブジェクトの音声と、映像とを含むコンテンツを出力するコンテンツ出力装置であって、
    前記映像を表示画面に表示する表示部と、
    前記オブジェクトの音声に対応づけられた空間位置情報が前記コンテンツに含まれている場合に、当該空間位置情報に基づいて音声を出力する音声出力部と、
    制御部と、
    を備え、
    前記制御部は、
    前記空間位置情報を前記表示部における表示位置情報に変換し、
    前記表示画面に表示される映像のうち、前記表示位置情報に基づいて前記 映像の表示態様を変える、
    ことを特徴とするコンテンツ出力装置。
  2. 前記空間位置情報は、再生空間上の空間位置座標が含まれており、
    前記制御部は、
    前記空間位置座標を前記表示部における表示位置座標に変換し、
    前記表示画面に表示される映像のうち、前記表示位置座標が含まれる領域の前記映像の表示態様を変える、
    ことを特徴とする請求項1に記載のコンテンツ出力装置。
  3. 前記制御部は、
    前記空間位置情報から表示態様を変える領域の範囲を生成し、
    前記表示画面に表示される映像のうち、前記表示位置座標を中心とする前記生成された範囲の前記映像の表示態様を変える、
    ことを特徴とする請求項2に記載のコンテンツ出力装置。
  4. 前記制御部は、前記空間位置情報から前記オブジェクトの音圧を生成し、
    前記音声出力部は、前記音圧にしたがって音声を出力する、
    ことを特徴とする請求項1から3の何れか一項に記載のコンテンツ出力装置。
  5. 前記制御部は、前記表示位置情報により生成される領域の映像の明るさ及び/又はコントラストを変更することにより表示態様を変えることを特徴とする請求項1から4の何れか一項に記載のコンテンツ出力装置。
  6. 前記制御部は、前記表示位置情報により生成される領域以外の映像の表示態様を変えることを特徴とする請求項1から5の何れか一項に記載のコンテンツ出力装置。
  7. 前記制御部は、
    前記オブジェクトの属性に基づいてオブジェクトを特定し、
    前記特定されたオブジェクトの空間位置情報を前記表示部における表示位置情報に変換する
    ことを特徴とする請求項1から6の何れか一項に記載のコンテンツ出力装置。
JP2018085748A 2018-04-26 2018-04-26 コンテンツ出力装置 Pending JP2019193163A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018085748A JP2019193163A (ja) 2018-04-26 2018-04-26 コンテンツ出力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018085748A JP2019193163A (ja) 2018-04-26 2018-04-26 コンテンツ出力装置

Publications (1)

Publication Number Publication Date
JP2019193163A true JP2019193163A (ja) 2019-10-31

Family

ID=68391149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018085748A Pending JP2019193163A (ja) 2018-04-26 2018-04-26 コンテンツ出力装置

Country Status (1)

Country Link
JP (1) JP2019193163A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023113321A1 (ko) * 2021-12-15 2023-06-22 삼성전자주식회사 디스플레이 장치 및 그 제어 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005295181A (ja) * 2004-03-31 2005-10-20 Victor Co Of Japan Ltd 音声情報生成装置
KR20070068138A (ko) * 2005-12-26 2007-06-29 재단법인 포항산업과학연구원 동영상 방식 음향카메라
JP2010232888A (ja) * 2009-03-26 2010-10-14 Ikegami Tsushinki Co Ltd 監視装置
WO2017104519A1 (ja) * 2015-12-18 2017-06-22 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005295181A (ja) * 2004-03-31 2005-10-20 Victor Co Of Japan Ltd 音声情報生成装置
KR20070068138A (ko) * 2005-12-26 2007-06-29 재단법인 포항산업과학연구원 동영상 방식 음향카메라
JP2010232888A (ja) * 2009-03-26 2010-10-14 Ikegami Tsushinki Co Ltd 監視装置
WO2017104519A1 (ja) * 2015-12-18 2017-06-22 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023113321A1 (ko) * 2021-12-15 2023-06-22 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US11915641B2 (en) 2021-12-15 2024-02-27 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof

Similar Documents

Publication Publication Date Title
US8520872B2 (en) Apparatus and method for sound processing in a virtual reality system
US20140099066A1 (en) Content processing apparatus for processing high resolution content and content processing method thereof
JP2011521511A (ja) 拡張現実を強化した音声
US20170195819A1 (en) Configuring Playback of Audio Via a Home Audio Playback System
JP2015076802A (ja) 表示装置
JP6670361B2 (ja) レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェース、および/またはレンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法
US20140153753A1 (en) Object Based Audio Rendering Using Visual Tracking of at Least One Listener
US20170245089A1 (en) Method, computer readable storage medium, and apparatus for determining a target sound scene at a target position from two or more source sound scenes
US10708707B2 (en) Audio processing apparatus and method and program
US20120317594A1 (en) Method and system for providing an improved audio experience for viewers of video
US10565694B2 (en) Image processing apparatus, image processing method, and program for reproducing tone of a high dynamic range (HDR) image
TW201928945A (zh) 音訊場景處理技術
EP3217651A2 (en) Display device and operating method thereof
KR102409376B1 (ko) 디스플레이 장치 및 그 제어 방법
WO2017094799A1 (ja) 表示装置、表示方法および表示プログラム
JP2019193163A (ja) コンテンツ出力装置
US10051403B2 (en) Controlling audio rendering
US20180103219A1 (en) Method, apparatus, and recording medium for processing image
US20190026005A1 (en) Display apparatus, method of controlling the same, and computer program product thereof
JP2020501387A (ja) ディスプレイ装置及びその制御方法
KR20190066175A (ko) 디스플레이 장치 및 음향 출력 방법
JP2010074258A (ja) 表示装置及び表示方法
US20220095009A1 (en) Method and apparatus for controlling audio sound quality in terminal using network
JP2014511625A (ja) 立体3dビデオ情報をオーサリングするための方法および装置、ならびにその立体3dビデオ情報を表示するための方法および装置
KR20210151792A (ko) 정보 처리 장치 및 방법, 재생 장치 및 방법, 그리고 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220802