JP2011035784A - 立体映像・立体音響記録再生装置・システム及び方法 - Google Patents

立体映像・立体音響記録再生装置・システム及び方法 Download PDF

Info

Publication number
JP2011035784A
JP2011035784A JP2009181762A JP2009181762A JP2011035784A JP 2011035784 A JP2011035784 A JP 2011035784A JP 2009181762 A JP2009181762 A JP 2009181762A JP 2009181762 A JP2009181762 A JP 2009181762A JP 2011035784 A JP2011035784 A JP 2011035784A
Authority
JP
Japan
Prior art keywords
stereoscopic
sound
information
display
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009181762A
Other languages
English (en)
Other versions
JP5197525B2 (ja
Inventor
Ryuji Kitaura
竜二 北浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009181762A priority Critical patent/JP5197525B2/ja
Publication of JP2011035784A publication Critical patent/JP2011035784A/ja
Application granted granted Critical
Publication of JP5197525B2 publication Critical patent/JP5197525B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】高臨場感を提供する立体映像・立体音響記録再生システムにおいて、立体表示を行う際の表示サイズや、視聴距離、視差の調整により、立体映像の表示位置が変化するが、その変化に合わせて適切な位置で音像定位を行うようにする。
【解決手段】立体ディスプレイ上の立体映像の表示サイズと、立体ディスプレイと視聴者の間の視聴距離をあらかじめ想定し、想定表示サイズ情報と、想定視聴距離情報として、立体位置情報と共に、立体映像・立体音響データ内に記録し、前記立体映像・立体音響データを再生する際、想定表示サイズ情報と、想定視聴距離情報、立体位置情報に基づき、立体表示する際の実際の表示サイズと、視聴距離、視差の調整に応じて、立体位置情報の値を更新し、正しい立体映像の表示位置に合わせた音像定位を行う。これにより、高臨場感の立体映像・立体音響記録再生システムを提供することができる。
【選択図】図1

Description

本発明は、高い臨場感を実現するための立体映像・立体音響記録再生技術に関する。
近年、大画面テレビの普及と高精細デジタル放送の開始で、2D映像に関しては、家庭における大画面高精細映像を楽しめる環境が整ってきつつある。一方、次世代の映像システムとして、高臨場感をもつ立体表示映像システムへの期待が高まってきている。
この立体表示の高臨場感映像システムに関して、下記特許文献に開示されているシステムがある。図19は、下記特許文献1に記載のシステム構成を示す図である。図19に示すように、このシステムでは、受信した立体映像を、液晶ディスプレイ(LCD)400を用いて再生し、再生した立体映像をもとに、LCD400の前面に配置したIP方式のレンズアレイ401を用いて要素画像から立体映像を構成する。LCD400の背面に配置したスピーカアレイ402において、レンズアレイ401より前に出てきているように知覚される立体映像のオブジェクト405にリンクした形でそのオブジェクト405の音源が、視聴者407にとって、あたかもそのオブジェクト405の位置から聞こえて来るように音像定位をして再生するシステムである。
上記特許文献1に記載のシステムのように、音源であるオブジェクト405の立体映像の位置から聞こえて来るように音像定位を行い、鑑賞者に提示することは、高い臨場感を作り出す上で重要であることが知られている。
特開2006−128816号公報
しかしながら、上記特許文献1のシステムでは、再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立体位置情報を記録するが、立体ディスプレイ上で表示される立体映像の表示位置が、立体ディスプレイ上における立体映像の大きさに応じて変化してしまうため、立体位置情報の示す位置と、実際に表示される立体映像の位置とが異なってしまうという問題が生じる。
図20は、表示サイズにより、立体映像の表示位置が変化する様子を模式的に示した図である。例えば、図20に示すように、立体ディスプレイ(1)403と、立体ディスプレイ(1)403と同じ解像度を持ち、かつ、その倍の大きさである立体ディスプレイ(2)404のそれぞれに、縮小拡大を行わないそのままの解像度で立体映像を表示した場合は、単純な図形の相似から、立体ディスプレイ(1)403から立体映像405までの奥行き方向の距離L1は、立体ディスプレイ(2)404から立体映像406までの距離L2の半分となり、立体ディスプレイ上で表示される立体映像の表示位置が、立体ディスプレイ上における立体映像の大きさに応じて変化することがわかる。
また、上記特許文献1に記載のシステムは、2眼式にも適応可能とあるが、2眼式の場合には、立体ディスプレイから視聴者までの視聴距離Lにより、立体映像の表示位置は変わってしまうため、このシステムで記録された立体位置情報の示す位置と、実際に表示される立体映像の位置とが異なってしまうという問題が生じる。
2眼式は、両眼視差方式とも呼ばれ、観察者の左右の目に、異なる2つの視点の映像を同時に提示する方式である。両眼視差方式には、2眼式だけでなく、多眼式も含まれる。多眼式は、3以上の視点の映像を提示する方式であるが、観察者の左右の目に同時に提示される映像は、異なる2つの視点の映像のみであるため、2眼式と立体視の原理としては同じである。そこで、以下では、説明の簡単化のため、2眼式で統一して説明する。ただし、2眼式の説明は、同じ両眼視差方式である多眼式にも同様に適応可能である。
2眼式では、視差を利用することにより立体映像を表示するが、その表示位置は視聴距離に応じて変化してしまうことが知られている。図21は、2眼式の立体ディスプレイにおいて、点をディスプレイの手前に表示しようとした場合に、視聴距離に応じて立体映像の表示位置が変化することを説明する原理図である。ここで、説明を簡単にするために、表示する立体映像を1つの点を立体表示するものとして説明を行う。図21は、2眼式の立体ディスプレイにおいて、視聴位置の違いにより、立体映像の表示位置が変化する様子を示した図である。
図21において、ディスプレイ面407上に、右目用の点408と、その対応点である左目用の点409と、が表示される。このディスプレイ面407を視聴位置(1)410で観察する場合の立体映像の表示位置は、左目411と左目用の点409を結ぶ線と、右目412と右目用の点408を結ぶ線とが交わる交点(1)413の位置となる。また、視聴位置(1)410よりも遠い視聴位置(2)414で観察する場合の立体映像の表示位置は、左目415と左目用の点409を結ぶ線と、右目416と右目用の点408を結ぶ線が交わる交点417の位置となり、立体映像の表示位置が視聴距離に依存して変化することがわかる。
また、両眼視差方式において、視聴者が、視差を強くしたり、弱めたりするなどの視差の調整を行う際に、視差調整を行なう前と後との立体像の表示位置は異なるため、上記特許文献1に記載のシステムで記録された立体位置情報の示す位置と、実際に表示される立体映像の位置とが異なってしまうという問題が生じる。
このように、各種立体方式の立体ディスプレイや、同じ立体方式であっても解像度や表示サイズの異なる立体ディスプレイに立体映像を表示する際に、立体表示を行う際の立体映像の大きさに応じて、立体映像の表示位置が変化するが、変化後の立体映像の表示位置に合わせて音像定位を行うようなシステムは知られていない。
また、両眼視差方式の立体ディスプレイにおいては、視聴距離や、視差調整に応じて、立体映像の表示位置が変化するが、変化後の立体映像の表示位置に合わせて音像定位を行うようなシステムは知られていない。
このように、高臨場感を提供する立体映像・立体音響記録再生システムにおいて、立体表示を行う際の表示サイズや、視聴距離、視差の調整により、立体映像の表示位置が変化する。
そこで、本発明は、立体映像の表示位置の変化に合わせて適切な位置で音像定位を行うようにすることを目的とする。
本発明は、立体ディスプレイ上の立体映像の表示サイズと、立体ディスプレイと視聴者の間の視聴距離をあらかじめ想定し、想定表示サイズ情報と、想定視聴距離情報として、立体位置情報と共に、立体映像・立体音響データ内に記録し、前記立体映像・立体音響データを再生する際、想定表示サイズ情報と、想定視聴距離情報、立体位置情報に基づき、立体表示する際の実際の表示サイズと、視聴距離、視差の調整に応じて、立体位置情報の値を更新し、正しい立体映像の表示位置に合わせた音像定位を行うことができる高臨場感の立体映像・立体音響記録再生システムを提供するものである。
本発明の一観点によれば、所定の時間単位で、再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立体位置情報を、前記オブジェクトの識別情報と共に立体映像・立体音響データとして記録し、前記立体映像・立体音響データを再生する立体映像・立体音響記録再生システムにおいて、立体映像ディスプレイ上で、前記立体映像・立体音響データがどのサイズで表示されるかを想定した値である想定表示サイズ情報を、前記立体映像・立体音響データ内に多重化し、出力するための立体映像・立体音響多重化手段を備えることを特徴とする立体映像・立体音響記録システムが提供される。
これにより、想定表示サイズ情報を参照し、実際の表示サイズに合わせて立体像の表示位置を再計算想定表示サイズ情報と、想定視聴距離情報、立体位置情報を立体映像・音響データと共に記録する。この記録を利用して音像定位を行うことできる。
前記立体映像・立体音響多重化手段は、観察者から立体ディススプレイまでの距離である想定視聴距離情報を、前記立体映像・立体音響データ内に多重化することを特徴とする。想定視聴距離情報を参照し、実際の視聴距離に応じて、表示位置を再計算して音像定位を行うことができる。
ここで、飛び出す立体映像の場合は、表示位置からより手前に音像を定位させる映像立体感強調モードを備え、引っ込む立体映像の場合、表示位置からより後ろに音像を定位させる映像立体感強調モードを備えることが好ましい。
また、所定の時間単位で、再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立体位置情報を前記オブジェクトの識別情報と共に立体映像・立体音響データとして記録し、前記立体映像・立体音響データを再生する立体映像・立体音響記録再生システムにおいて、前記立体映像・立体音響データから、立体映像データと立体音響データ、想定表示サイズ情報、オブジェクトごとの立体位置情報をそれぞれ分離する立体映像・立体音響分離手段と、外部から表示サイズ情報の入力を受け付ける入力手段と、
各オブジェクトの前記立体位置情報と、前記想定表示サイズ情報、前記表示サイズ情報を入力とし、前記想定表示サイズ情報、前記表示サイズ情報を用いて、前記表示サイズ情報の示すサイズで表示した場合の立体映像の表示位置である更新立体位置情報をオブジェクト毎に出力する立体位置情報更新手段と、オブジェクト毎に更新立体位置情報の示す位置を参照して音像定位させる位置を決定し、音像定位位置として出力する音像定位位置決定手段と、前記音像定位位置に、音響を音像定位させる音響変換手段と、を備えることを特徴とする立体映像・立体音響再生システムが提供される。
また、所定の時間単位で、再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立体位置情報を前記オブジェクトの識別情報と共に立体映像・立体音響データとして記録し、前記立体映像・立体音響データを再生する立体映像・立体音響記録再生システムにおいて、前記立体映像・立体音響データから、立体映像データと立体音響データ、想定表示サイズ情報、想定視聴距離情報、オブジェクトごとの立体位置情報をそれぞれ分離する立体映像・立体音響分離手段と、外部から表示サイズ情報と、視聴距離情報、立体表示方式情報の入力を受け付ける入力手段と、各オブジェクトの前記立体位置情報と、前記想定表示サイズ情報、前記表示サイズ情報、前記想定視聴距離情報、前記視聴距離情報、前記立体表示方式情報を入力とし、前記立体表示方式が、観察者の左右の目に異なる2つの視点の画像を同時に提示する両眼視差方式の立体表示方式である場合は、前記想定表示サイズ情報、前記表示サイズ情報、前記想定視聴距離情報、前記視聴距離情報、前記立体表示方式情報を用いて、前記表示サイズ情報の示すサイズで表示し、かつ、前記視聴距離情報の位置で観察する場合の、立体映像の表示位置である更新立体位置情報を、前記立体表示方式が前記両眼視差方式の立体表示方式でない場合は、前記想定表示サイズ情報、前記表示サイズ情報を用いて、前記表示サイズ情報の示すサイズで表示した場合の立体映像の表示位置である更新立体位置情報を、それぞれオブジェクト毎に出力する立体位置情報更新手段と、オブジェクト毎に更新立体位置情報の示す位置を音像定位させる位置として決定し、音像定位位置として出力する音像定位位置決定手段と、前記音像定位位置を参照して、音響を音像定位させる音響変換手段と、を備えることを特徴とする立体映像・立体音響再生システムが提供される。
前記入力手段は、立体音響の定位位置を、本来の位置よりずらすことにより、立体感を強調する立体感強調音響調整モードを有効にするか否かを切り替えるための情報である立体感強調音響調整モード情報の入力を受付け、前記音像定位決定手段は、立体感強調音響調整モード情報の入力を受付け、立体感強調音響調整モードが有効、かつ、音像定位位置がディスプレイ面より前にある場合は、前記音像定位位置より前に音響を音像定位させるように音像定位位置を変更し、立体感強調音響調整モードが有効、かつ、音像定位位置がディスプレイ面より奥にある場合は、前記音像定位位置より後ろに音響を音像定位させるように音像定位位置を変更することが好ましい。
本発明の他の観点によれば、所定の時間単位で、再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立体位置情報を、前記オブジェクトの識別情報と共に立体映像・立体音響データとして記録し、前記立体映像・立体音響データを再生する立体映像・立体音響記録再生方法において、立体映像ディスプレイ上で、前記立体映像・立体音響データがどのサイズで表示されるかを想定した値である想定表示サイズ情報を、前記立体映像・立体音響データ内に多重化し、出力するための立体映像・立体音響多重化ステップを有することを特徴とする立体映像・立体音響記録方法が提供される。想定表示サイズ情報を参照し、実際の表示サイズに合わせて立体像の表示位置を再計算想定表示サイズ情報と、想定視聴距離情報、立体位置情報を立体映像・音響データと共に記録する。して音像定位を行うことができる。
前記立体映像・立体音響多重化手段は、観察者から立体ディススプレイまでの距離である想定視聴距離情報を、前記立体映像・立体音響データ内に多重化することが好ましい。本発明は、上記に記載の方法を、コンピュータに実行させるためのプログラムであっても良く、該プログラムを記録するコンピュータ読みとり可能な記憶媒体であっても良い。プログラムは、インターネットなどの伝送媒体によって取得されるものでも良い。
本発明によれば、立体表示を行う際の立体映像の表示サイズが異なる場合であっても、音源となる立体映像オブジェクトが表示される位置に、精度良く音響を音像定位させることができるという利点がある。
本発明の一実施の形態による立体映像・立体音響記録システムの概略構成を示すブロック図である。 本発明の一実施の形態による立体映像・立体音響記録システム1の動作を示すフローチャート図である。 本発明の一実施の形態による立体映像・立体音響データの一例を示す図である。 本発明の一実施の形態による立体映像・立体音響再生システムの概略構成を示すブロック図である。 本発明の一実施の形態による立体映像・立体音響再生システムの動作を示すフローチャート図である。 本発明の一実施の形態による立体映像・立体音響再生システムにおける立体位置情報更新手段の動作を示すフローチャート図である。 本発明の一実施の形態による立体映像・立体音響再生システムにおける想定表示サイズ情報の示す表示サイズで立体映像を表示した場合の飛び出し位置を示す図である。 本発明の一実施の形態による立体映像・立体音響再生システムにおける表示サイズ情報の示す表示サイズで立体映像を表示した場合の飛び出し位置を示す図である。 本発明の一実施の形態による立体映像・立体音響再生システムにおける表示サイズ情報の示す表示サイズで立体映像を、視聴距離を変えて観察した場合の飛び出し位置を示す図である。 本発明の一実施の形態による立体映像・立体音響再生システムにおける想定表示サイズ情報の示す表示サイズで立体映像を表示した場合の飛び出し位置を示す図である。 本発明の一実施の形態による立体映像・立体音響再生システムにおける表示サイズ情報の示す表示サイズで立体映像を表示した場合の飛び出し位置を示す図である。 本発明の一実施の形態による立体映像・立体音響再生システムにおける表示サイズ情報の示す表示サイズで立体映像を、視聴距離を変えて観察した場合の飛び出し位置を示す図である。 本発明の一実施の形態による立体映像・立体音響再生システムの一例を示す図である。 本発明の一実施の形態による立体映像・立体音響再生システムの一例を示す図である。 本発明の一実施の形態による立体映像・立体音響再生システムの一例を示す図である。 本発明の一実施の形態による立体映像・立体音響再生システムの一例を示す図である。 本発明の一実施の形態による立体音響再生手段を構成するスピーカアレイの配置と、音響の音像定位が可能な範囲の関係について説明するための図である。 本発明の一実施の形態による立体音響再生手段を構成するスピーカアレイの配置と、音響の音像定位が可能な範囲の関係について説明するための図である。 特許文献に記載のシステム構成図である。 表示サイズにより、立体映像の表示位置が変化する様子を示した図である。 2眼式の立体ディスプレイにおいて、視聴位置の違いにより、立体映像の表示位置が変化する様子を示した図である。
以下に添付図面を参照して、本発明にかかる画像処理装置の好適な実施の形態について詳細に説明する。また、以下の説明において、異なる図面においても同じ符号を付した構成は同様のものであるとして、その説明を省略することとする。本発明の実施の形態にかかる立体映像・立体音響記録再生システムは、立体映像・立体音響記録システムと立体映像・立体音響再生システムとから構成される。
まず、はじめに、立体映像・立体音響記録システムの機能的構成例について説明する。図1は、本発明の一実施の形態にかかる立体映像・立体音響記録システムの概略構成例を示す機能ブロック図である。本実施の形態による立体映像・立体音響記録システム1は、立体ディスプレイ上で、立体映像データがどのサイズで表示されるかを想定した値である想定表示サイズ情報と、観察者から立体ディススプレイまでの視聴距離である想定視聴距離情報と、再生時に自身を音源とする音響の立体定位制御を行おうとする各オブジェクトの識別を行うためのオブジェクト識別情報と、各オブジェクトに対応する立体位置情報と、を入力とし、上記オブジェクト識別情報と、立体位置情報と、想定表示サイズ情報と、想定視聴距離情報と、を出力する入力手段2と、立体音響データを入力とし、上記立体音響データをオーディオ符号化し、立体音響符号化データとして出力するオーディオ符号化手段3と、少なくとも2つ以上の視点の異なる視点映像データを入力とし、視点映像データを合成し、立体映像データとして出力する立体映像データ立体映像合成手段4と、上記立体映像データを入力とし、上記立体映像データを映像符号化し、立体映像符号化データとして出力する映像符号化手段5と、上記オブジェクト識別情報と、上記立体位置情報と、上記想定表示サイズ情報、上記想定視聴距離情報、上記立体音響符号化データと、上記立体映像符号化データを入力とし、上記立体位置情報と、上記想定表示サイズ情報、上記想定視聴距離情報、上記立体音響符号化データと、上記立体映像符号化データと、を多重化して作成した立体映像・立体音響データを出力する立体映像・立体音響多重化手段6と、を有している。
ここで、立体位置情報とは、立体ディスプレイで表示される立体映像の位置を示す情報であり、立体ディスプレイのディスプレイ面に平行な2次元平面の成分(水平成分と垂直成分とする)と、その2次元平面と直交する成分(奥行き成分とする)からなる3次元の位置情報である。ここでは、例えば、その中心を立体ディスプレイのディスプレイ面の中心とする。
次に、立体映像・立体音響記録システム1の動作について、フローチャート図に沿って説明する。図2は、立体映像・立体音響記録システム1の動作についてのフローチャート図である。まず、ステップS1において、立体映像・立体音響記録システム1の電源が入ることで処理が開始され、ステップS2に進む。ステップS2において、外部から、オブジェクト識別情報と、そのオブジェクトに対応する立体位置情報とが、入力手段2を通じて立体映像・立体音響多重化手段6に入力され、ステップS3に進む。ステップS3において、外部から、上記想定表示サイズ情報が、入力手段2を通じて、立体映像・立体音響多重化手段6に入力され、ステップS4に進む。
ステップS4において、外部から、上記想定視聴距離情報が、入力手段2を通じて、立体映像・立体音響多重化手段6に入力され、ステップS5に進む。ステップS5において、外部から、立体音響データがオーディオ符号化手段3に入力され、ステップS6に進む。
ここで、立体音響データとは、再生時に自身を音源とする音響の立体定位制御を行おうとする各オブジェクトに対応する音響データである。また、立体音響データは、上記オブジェクトの数だけ音源を入力しても良いし、全ての音源をミックスしたものを立体音響データとしても良い。
ステップS6において、オーディオ符号化手段3は、入力された立体音響データを符号化し、立体音響符号化データとして出力し、ステップS7に進む。ここで、オーディオ符号化手段3で用いられる符号化の方式は、一般的に広く知られている汎用的なオーディオ符号化方式であり、その例として、MP3などで知られるMPEGオーディオ規格による方式や、PCM(Pulse Code Modulation)やADPCM(Adaptive Differential Pulse Code Modulation)、CELP(Code excited Linear Prediction)などの音声符号化方式があげられるが、これら以外のオーディオ符号化方式であっても良い。
ステップS7において、外部から少なくとも2つ以上の視点の異なる視点映像データが立体映像合成手段4に入力され、ステップS8に進む。ステップS8において、立体映像合成手段4は、上記視点映像データを一つの映像データとなるように合成し、合成した映像データを立体映像データとして出力し、ステップS9に進む。ここで、立体映像データの例としては、各視点に対応する複数の視点映像データのうち、同じ時刻のフレームのデータを、左右方向や上下方向に並べて一枚の画像として作成した立体映像データがある。特に、2つの視点映像を左右に並べる方式は、サイドバイサイド方式として一般的に知られている。また、複数の視点映像データをフレーム毎に時系列に順番に並べて作成した立体映像データでも良く、この方式はフレームバイフレーム方式として一般的に知られている。
ステップS9において、立体映像データが映像符号化手段5に入力され、映像符号化手段5は、入力された立体映像データを映像符号化し、立体映像符号化データとして出力し、ステップS10に進む。
ここで、映像符号化手段5で用いられる映像符号化の方式は、一般的に広く知られている汎用的な映像符号化方式であり、例えば、ITU規格や、MPEG規格による方式や、ADOBE社によるフラッシュビデオなどの方式などがあるが、これら以外の映像符号化方式であっても良い。
ステップS10において、立体映像・立体音響多重化手段6は、入力された上記オブジェクト識別情報と、上記立体位置情報、上記想定表示サイズ情報、上記想定視聴距離情報、上記立体音響符号化データ、上記立体映像符号化データを多重化して立体映像・立体音響データを作成、出力し、ステップS11に進む。
ここで、上記立体映像・立体音響多重化手段6が作成する立体映像・立体音響データについて図面を用いて説明する。図3は、立体映像・立体音響データの一例を示す図である。
図3において、立体映像・立体音響データ7は、ヘッダ情報8と、付加情報9と、所定時間ごとに格納された立体音響符号化データ10と、立体映像符号化データ11、立体音響符号化データ12、立体映像符号化データ13と、を有している。
ここで、ヘッダ情報8は、立体映像・立体音響データの一般的なヘッダ情報であり、付加情報9は、上記想定表示サイズ情報9−1と上記想定視聴距離情報9―2とを含む情報である。
また、立体音響符号化データ10と立体音響符号化データ12は、異なる所定時間ごとに格納された立体音響符号化データであり、各立体音響符号化データは、上記オブジェクト識別情報10−1、10―4、…と、各オブジェクトに対応する立体位置情報10―2、10―5、…、及び、立体音響符号化データ10―3、10―6、…と、から構成されているデータである。
また、立体符号化データ11と立体符号化データ13とは、異なる所定時間ごとに格納された立体符号化データである。
ここで、上記の例では、上記立体音響符号化データと、上記立体映像符号化データを所定時間毎に格納するようにしたが、一括で格納しても良い。その際は、上記立体位置情報も一括で格納するが、タイムコードなどの再生時刻の情報を付加して管理することにより、同時刻の立体音響符号化データと立体位置情報を同期して用いればよい。
また、上記で述べた、上記想定表示サイズ情報と、上記想定視聴距離情報、上記オブジェクト識別情報、各オブジェクトに対応する立体位置情報の格納方法は、一例であり、これ以外の格納方法であっても良い。
ステップS11において、立体映像・立体音響記録システム1は、処理を終了する。
ここで、立体映像・立体音響記録システム1は、図示しない記録手段を備えてもよく、上記記録手段を、立体映像・立体音響多重化手段6の後段に接続し、メモリなどの磁気記録メディアや、ブルーレイディスクやデジタルビデオディスクなどの光記録メディアに、立体映像・立体音響データを記録してもよい。
次に、立体映像・立体音響再生システムの機能的な構成について説明する。図4は、本実施の形態による立体映像・立体音響再生システムの概略構成を示すブロック図である。
本実施の形態による立体映像・立体音響再生システム100は、立体ディスプレイ上で、立体映像データが実際に表示されるサイズである表示サイズ情報と、観察者から立体ディススプレイまでの実際の視聴距離である視聴距離情報と、立体映像を表示する立体ディスプレイの方式が、両眼視差方式か、そうでないかを示す立体表示方式情報と、立体音響の定位位置を本来の位置よりずらすことにより、立体感を強調する立体感強調音響調整モードを有効にするか否かを切り替えるための情報である立体感強調音響調整モード情報を入力とし、上記表示サイズ情報と、上記立体表示方式情報、上記視聴距離情報、上記立体感強調音響調整モード情報を出力する入力手段101と、上記立体映像・立体音響データを入力とし、上記立体映像・立体音響データから、想定表示サイズ情報と、想定視聴距離情報、オブジェクト識別情報、立体位置情報、立体音響符号化データ、立体映像符号化データのそれぞれを分離し、出力する立体映像・立体音響分離手段102と、表示サイズ情報と、視聴距離情報、立体表示方式情報、想定表示サイズ情報、想定視聴距離情報、オブジェクト識別情報、立体位置情報、視差調整データを入力とし、立体ディスプレイ上での実際の表示サイズや、実際の視聴距離、観察者による視差の調整などによって、立体映像の表示位置である立体位置情報が変化するのに合わせて、オブジェクトごとに変化後の立体位置情報を算出し、更新立体位置情報として出力する立体位置情報更新手段103と、更新立体位置情報と、立体感強調音響調整モード情報を入力とし、立体感強調音響調整モード情報が、立体感強調音響調整モードが有効であることを示す場合、更新立体位置情報を調整した後、音像定位位置情報として出力し、立体感強調音響調整モード情報が、立体感強調音響調整モードが無効であることを示す場合、更新立体位置情報をそのまま音像定位位置情報として出力する音像定位位置決定手段104と、上記立体音響符号化データを入力とし、上記立体音響符号化データを復号して、立体音響復号データを復号し、出力するオーディオ復号手段105と、上記音像定位位置情報と、上記立体音響復号データを入力とし、入力された上記立体音響復号データが、上記音像定位位置情報の示す位置に音像定位するように、立体音響復号データを変換し、再生用立体音響データとして出力するオーディオ変換手段106と、上記再生用立体音響データを入力とし、上記音像定位位置情報の示す位置に音像定位させて、立体音響を再生する立体音響再生手段107と、立体映像符号化データを入力とし、上記立体映像符号化データを復号して、立体映像復号データを復号し、出力する映像復号手段108と、上記立体表示方式情報と、上記立体映像復号データ、上記視差調整データを入力とし、上記立体表示方式情報に基づいて、表示に用いる立体ディスプレイのフォーマットとなるように画素配列を並び替えた後、上記立体表示方式情報が両眼視差方式である場合、上記視差調整データにあわせて視差の調整を行い、前記立体映像復号データを変換し、表示用立体映像データとして出力する立体映像変換手段109と、上記表示用立体映像データを入力とし、立体映像を表示する立体映像表示手段110と、を有している。
まず、立体映像・立体音響再生システム100の動作について、フローチャート図に沿って説明する。図5は、立体映像・立体音響再生システム100の動作についてのフローチャート図を示す。ステップS100において、立体映像・立体音響再生システム100の電源が入り、判定ステップS101に進む。
判定ステップS101において、立体映像・立体音響再生システム100に立体映像・立体音響データが入力されたか否かを判定し、立体映像・立体音響データが入力された場合、ステップS102に進み、そうでない場合は判定ステップS101に戻る。ステップS102において、外部から、表示サイズ情報と、視聴距離情報、立体表示方式情報、立体感強調音響調整モード情報が、入力手段101に入力され、ステップS103に進む。
ステップS103において、外部から、立体映像・立体音響データが立体映像・立体音響データ分離102に入力され、立体映像・立体音響データ分離102は、入力された上記立体映像・立体音響データを、想定表示サイズ情報と、想定視聴距離情報、各オブジェクトの識別に必要なオブジェクト識別情報、各オブジェクトに対応する立体位置情報、立体映像符号化データ、立体音響符号化データに分離した後、それぞれ出力し、ステップS104に進む。ステップS104において、想定表示サイズ情報、想定視聴距離情報、オブジェクト識別情報、立体位置情報、表示サイズ情報、視聴距離情報、立体表示方式情報、視差調整データが、立体位置情報更新手段103に入力され、立体位置情報更新手段103は、想定表示サイズ情報と表示サイズ情報とが異なる場合は、立体位置情報を更新し、さらに、立体表示方式情報が両眼視差方式、かつ、想定視聴距離情報と視聴距離情報が異なる場合、立体位置情報を更新し、さらに、また、立体表示方式情報が両眼視差方式、かつ、視差調整情報が入力された場合、立体位置情報をさらに更新したものを、更新立体位置情報として出力し、判定ステップS105に進む。
ここで、ステップS104で述べた立体位置情報更新手段103の動作をさらに詳細に説明する。図6は、立体位置情報更新手段103の動作についてのフローチャート図であり、これはステップS104で説明した立体位置情報を更新する際のアルゴリズムについてさらに詳細に説明した図である。
ステップS103からステップS104に進むと、判定ステップS200において、立体位置情報更新手段103は、入力された想定表示サイズ情報と表示サイズ情報を比較し、異なる場合は、ステップS201に進み、同じ場合は、判定ステップS202に進む。ステップS201において、想定表示サイズ情報と表示サイズ情報を用いて、立体位置情報を更新し、判定ステップS202に進む。
ここで、ステップS201における立体位置情報を更新方法について説明する。以下では説明をわかりやすくするため、一つの点を立体表示するものとして説明を行う。図7は、想定表示サイズ情報の示す表示サイズで立体映像を表示した場合の飛び出し位置を示す図である。図7において、ディスプレイ面200上に、右目用の点201と、その対応点である左目用の点202と、が表示される。このディスプレイ面200を想定視聴位置203で観察する場合の立体映像の表示位置は、左目204と点202を結ぶ線と、右目205と点201を結ぶ線とが交わる交点206の位置となる。
ここで、それぞれ、左目204から右目205までの距離をTとし、点201から点202までの距離をAo、ディスプレイ面200から点206までの距離をDo、ディスプレイ面200から想定視聴位置203までの距離をLoとすると、三角形の相似の関係から、式(1)が求まる。
(Lo−Do):Do=T:Ao…式(1)
ディスプレイ面200上の点201から点202までの距離Aoは視差に相当し、式(1)から、Aoは、下記式(2)のように表される。
Ao=(T×Do)/(Lo−Do)…式(2)
ここで、Tは人の眼の間隔を示し、Tの値は、通常、成人の両眼間隔であるといわれている65mmから70mmの定数となる。また、距離Loは想定視聴距離情報の示す視聴距離であり、距離Doは立体位置情報の奥行き成分により求めることができる。
次に、点201と点202とを、表示サイズ情報の示す表示サイズで表示した場合、点201から点202までの距離Aoが変化する様子について説明する。
図8は、表示サイズ情報の示す表示サイズで、図7で表示した立体映像を表示した場合の飛び出し位置を示す図である。この場合、視聴者の位置は変わらないものとする。図8において、図7の点201は点207の位置に表示され、点202は点208の位置に表示される。このディスプレイ面200を、図7と同じ想定視聴位置203で観察する場合の立体映像の表示位置は、左目204と点208とを結ぶ線と、右目205と点207とを結ぶ線が交わる交点209の位置となる。
ここで、左目204から右目205までの距離をTとし、点207から点208までの距離をA1とし、ディスプレイ面200から点209までの距離をD1とし、ディスプレイ面200から想定視聴位置203までの距離をLoとすると、三角形の相似の関係から、式(3)が成り立つ。
(Lo−D1):D1=T:A1…式(3)
式(3)から、距離D1は式(4)のように表される。
D1=(Lo×A1)/(A1+T) …式(4)
ここで、表示サイズ情報の示す表示サイズをS1とし、想定表示サイズ情報の示す表示サイズをSoとすると、式(5)の関係が導かれる。
S1:So=A1:Ao…式(5)
ここで、点207から点208までの距離A1は、表示サイズS1で表示した際の視差にあたる。
S1/So=αとすると、距離A1は式(6)となる。
A1=α×Ao …式(6)
式(4)と式(6)とから、距離D1は式(7)のように表すことができる。
D1=(Lo×α×Ao)/(α×Ao+T) …式(7)
このようにして、ステップS201においては、上記で求めた距離D1を、立体位置情報の奥行き成分として置き換え、作成した立体位置情報を、更新立体位置情報として算出する。
尚、立体表示方式情報から、両眼示唆方式であるか否かを判定する基準としては、既に存在している情報を元に判定することが出来る。又、外部からユーザが入力するようにしても良い。判定ステップS202において、立体位置情報更新手段103に外部から入力された両眼視差方式か、そうでないかを示す情報である立体表示方式情報から、両眼視差方式であるか否かを判定し、両眼視差方式である場合は判定ステップS203に進み、そうでない場合は、ステップS207に進む。
判定ステップS203において、想定視聴距離情報の示す値と視聴距離情報の示す値が異なるか否かを判定し、異なる場合は(Yes)ステップS204に進み、同じである場合は(No)判定ステップS205に進む。
ステップS204において、想定視聴距離情報と視聴距離情報とを用いて、立体位置情報を更新し、判定ステップS205に進む。
ここで、ステップS204における立体位置情報を更新する方法について説明する。以下では説明をわかりやすくするため、一つの点を立体表示するものとして説明を行う。図9は、図8の表示サイズ情報の示す表示サイズで立体映像を、視聴距離を変えて観察した場合の飛び出し位置を示す図である。
図9において、図8のディスプレイ面200に表示された点207と点208とを観察する際に、視聴距離情報の示す視聴位置210から観察した場合の立体映像の表示位置は、左目211と点208とを結ぶ線と、右目212と点207とを結ぶ線が交わる点213の位置となる。
ここで、点207から点208までの距離をA1とし、ディスプレイ面200から点213までの距離をD3とし、ディスプレイ面200から視聴位置210までの距離をL3とすると、三角形の相似の関係から、式(8)が求まる。
(L3−D3):D3=T:A1 …式(8)
式(8)から、距離D3は式(9)のように求まる。
D3=(L3×A1)/(A1+T) …式(9)
ここで、Tは人の眼の間隔を示し、その値は、通常、成人の両眼間隔であるといわれている65mmから70mmの定数となる。また、距離L3は視聴距離情報の示す視聴距離であり、さらにまた、距離A1は、式(2)と式(6)とから求めることができる。
このようにして、ステップS204では、上記で求めた距離D3を、新たに立体位置情報の奥行き成分として置き換えて、立体位置情報を作成し、更新立体位置情報として算出する。判定ステップS205において、視差調整情報が入力されたか否かを判定し、視差調整情報が入力された場合は(Yes)ステップS206に進み、そうでない場合は(No)ステップS207に進む。
ステップS206において、視差調整情報が入力された場合、このときのディスプレイ面から視聴位置までの距離をL4とし、視差調整後の視差をA4とすると、ディスプレイ面200から、立体表示される点までの距離D4は、式(9)の場合と同様に三角形の相似から式(10)が求まる。
(L4−D4):D4=T:A4…式(10)
式(10)から、距離D4は式(11)のように求まる。
D4=(L4×A4)/(A4+T)…式(11)
ここで、視差調整情報から求めた視差の値をβとすると、視差A4は式(12)で表される。
A4=(A1+β)…式(12)
式(11)と式(12)より、
A4=(L4×(A1+β))/((A1+β)+T)…式(13)
式(6)、式(12)、式(13)より、D4は式(14)のように表される。
D4=(L4×(α×Ao+β))/(α×Ao+β+T)…式(14)
このようにして、ステップS206では、上記で求めた距離D4を、新たに立体位置情報の奥行き成分として置き換えて、立体位置情報を作成し、更新立体位置情報として算出する。
ステップS207において、立体位置情報更新手段103は、現在の更新立体位置情報を出力し、その動作を終了する。
上記では、立体映像がディスプレイ面より手前に飛び出した場合について説明を行ったが、奥行き方向に立体映像が表示される場合であっても、立体位置情報更新手段103は同じ方法で更新立体位置情報を作成することができる。
以下では、奥行き方向に立体映像が表示される場合についての立体位置情報更新手段103の動作について説明する。
図10は、想定表示サイズ情報の示す表示サイズで立体映像を表示した場合の引っ込み位置を示す図である。図10において、ディスプレイ面200上に、右目用の点214と、その対応点である左目用の点215が表示される。このディスプレイ面200を想定視聴位置203で観察する場合の立体映像の表示位置は、左目204と点214を結ぶ線と、右目205と点215を結ぶ線が交わる点216の位置となる。
ここで、左目204から右目205までの距離をTとし、点214から点215までの距離をBoとし、ディスプレイ面200から点216までの距離をEoとし、ディスプレイ面200から想定視聴位置203までの距離をLoとすると、三角形の相似の関係から、式(15)が求まる。
Eo:(Eo+Lo)=Bo:T…式(15)
ディスプレイ面200上の点214から点215までの距離Boは視差にあたり、式(15)からBoは、式(16)のように表される。
Bo=(T×Eo)/(Eo+Lo)…式(16)
ここで、Tは人の眼の間隔を示し、その値は、通常、成人の両眼間隔であるといわれている65mmから70mmの定数となる。また、距離Loは想定視聴距離情報の示す視聴距離であり、距離Eoは立体位置情報の奥行き成分により求めることができる。
次に、点214と点215とを、表示サイズ情報の示す表示サイズで表示した場合、点214から点215までの距離が変化する様子について説明する。
図11は、表示サイズ情報の示す表示サイズで、図10で表示した立体映像を表示した場合の引っ込み位置を示す図である。この場合、視聴者の位置は変わらないものとする。
図11において、図10の点214は点217の位置に表示され、点215は点218の位置に表示される。このディスプレイ面200を、図10と同じ想定視聴位置203で観察する場合の立体映像の表示位置は、左目204と点217とを結ぶ線と、右目205と点218とを結ぶ線が交わる交点219の位置となる。
ここで、左目204から右目205までの距離をTとし、点217から点218までの距離をB1とし、ディスプレイ面200から点219までの距離をE1とし、ディスプレイ面200から想定視聴位置203までの距離をLoとすると、三角形の相似の関係から、式(17)が求まる。
(E1+Lo):E1=T:B1…式(17)
式(17)から、距離E1は式(18)のように表される。
E1=(Lo×B1)/(B1+T)…式(18)
ここで、表示サイズ情報の示す表示サイズをS2とし、想定表示サイズ情報の示す表示サイズをSoとすると、式(19)の関係が導かれる。
S2:So=B1:Bo…式(19)
ここで、点217から点218までの距離B1は、表示サイズS2で表示した際の視差にあたる。
S2/So=γとすると、距離B1は式(20)となる。
B1=γ×Bo…式(20)
式(18)と式(20)とから、距離E1は式(21)のように表すことができる。
E1=(Lo×γ×Bo)/(γ×Bo+T)…式(21)
このようにして、ステップS201では、上記で求めた距離E1を、立体位置情報の奥行き成分として置き換え、作成した立体位置情報を、更新立体位置情報として算出する。判定ステップS202において、立体表示方式情報から、両眼視差方式であるか否かを判定し、両眼視差方式である場合は(yes)判定ステップS203に進み、そうでない場合は(No)、ステップS207に進む。
判定ステップS203において、想定視聴距離情報の示す値と視聴距離情報の示す値とが異なるか否かを判定し、異なる場合は(Yes)ステップS204に進み、同じである場合は(No)判定ステップS205に進む。ステップS204において、想定視聴距離情報と視聴距離情報を用いて、立体位置情報を更新し、判定ステップS205に進む。
ここで、ステップS204における立体位置情報を更新の方法について説明する。以下では説明をわかりやすくするため、一つの点を立体表示するものとして説明を行う。図12は、図11の表示サイズ情報の示す表示サイズで立体映像を、視聴距離を変えて観察した場合の引っ込み位置を示す図である。
図12において、図11のディスプレイ面200に表示された点214と点215とを観察する際に、視聴距離情報の示す視聴位置220から観察した場合の立体映像の表示位置は、左目221と点214を結ぶ線と、右目222と点215を結ぶ線が交わる交点223の位置となる。
ここで、点214から点215までの距離をB1とし、ディスプレイ面200から点223までの距離をE3とし、ディスプレイ面200から視聴位置220までの距離をL3とすると、三角形の相似の関係から、式(22)が求まる。
(L3+E3):E3=T:B1 …式(22)
式(22)から、距離E3は式(23)のように求まる。
E3=(L3×B1)/(B1+T)…式(23)
ここで、Tは人の眼の間隔を示し、その値は、通常、成人の両眼間隔であるといわれている65mmから70mmの定数となる。また、距離L3は視聴距離情報の示す視聴距離であり、さらにまた、距離B1は、式(16)と式(20)から求めることができる。
このようにして、ステップS204では、上記で求めた距離E3を、新たに立体位置情報の奥行き成分として置き換えて、立体位置情報を作成し、更新立体位置情報として算出する。
判定ステップS205において、視差調整情報が入力されたか否かを判定し、視差調整情報が入力された場合は、ステップS206に、そうでない場合はステップS207に進む。
ステップS206において、視差調整情報が入力された場合、このときのディスプレイ面から視聴位置までの距離をL4、視差調整後の視差をB4とすると、ディスプレイ面200から、立体表示される点までの距離B4は、式(23)の場合と同様に三角形の相似から式(24)が求まる。
(L4+E4):E4=T:B4…式(24)
式(24)から、距離E4は式(25)のように求まる。
E4=(L4×B4)/(B4+T)…式(25)
ここで、視差調整情報から求めた視差の値をΔとすると、視差B4は式(26)で表される。
B4=(B1+Δ)…式(26)
式(25)と式(26)より、
B4=(L4×(B1+Δ))/((B1+Δ)+T)…式(27)
式(20)、式(26)、式(27)より、E4は式(28)のように表される。
E4=(L4×(γ×Ao+Δ))/(γ×Ao+Δ+T)…式(28)
このようにして、ステップS206では、上記で求めた距離E4を、新たに立体位置情報の奥行き成分として置き換えて、立体位置情報を作成し、更新立体位置情報として算出する。
ステップS207において、立体位置情報更新手段103は、現在の更新立体位置情報を出力し、その動作を終了する。
このようにして、立体映像がディスプレイ面より奥に引っ込んだ場合についてあっても、同様に、立体位置情報更新手段103は更新立体位置情報を作成することができる。
以上のようにして、ステップS104において、立体位置情報更新手段103は、更新立体位置情報を出力し、判定ステップS105に進む。
判定ステップS105において、音像定位位置決定手段104に更新立体位置情報と、立体感強調音響調整モード情報が入力され、音像定位位置決定手段104は、立体感強調音響調整モード情報を解析し、立体感強調音響調整モードが有効か否かを判定し、有効であれば、ステップS106に進み、そうでなければステップS107に進む。
ステップS106において、音像定位位置決定手段104は、更新立体位置情報の奥行き成分がディスプレイより手前にある場合はより手前になるように、奥にある場合はより奥になるように、それぞれ修正しステップS107に進む。
また、ステップS106において、立体ディスプレイのディスプレイ面に平行な2次元平面の成分を、現在の値よりも、ディスプレイ面の中心に近づくように修正してもよい。
このようにして、立体感強調音響調整モードを有効にした場合、ディスプレイ面よりも手前に飛び出す立体映像に対して、その表示位置よりも手前に音響を音像定位させることにより、立体映像の表示位置が音響の定位位置に影響されるため、実際の表示位置よりもより手前に飛び出しているかのように立体感を強調して、観察者に見せることができる。
また、立体感強調音響調整モードを有効にした場合、ディスプレイ面よりも奥に引っ込む立体映像に対して、その表示位置よりも奥に音響を音像定位させることにより、立体映像の表示位置が音響の定位位置に影響されるため、実際の表示位置よりもより奥に引っ込んでいるかのように立体感を強調して、観察者に見せることができる。
ステップS107において、音像定位位置決定手段104は、更新立体位置情報の示す位置を音像定位位置情報として、出力し、ステップS108に進む。
ステップS108において、オーディオ復号手段105に立体音響符号化データが入力され、オーディオ復号手段105は、立体音響符号化データを復号し、立体音響復号データを出力し、ステップS109に進む。ここで、オーディオ復号手段105は、汎用的なオーディオ復号手段であるが、一般的な構成であるため、その説明については省略する。
ステップS109において、オーディオ変換手段106に、音像定位位置情報と、立体音響復号データとが入力され、オーディオ変換手段106は、立体音響復号データの音像の位置が、音像定位位置情報の示す位置となるように立体音響復号データを変換し、変換立体音響復号データとして出力し、ステップS110に進む。
ステップS110において、立体音響再生手段107に変換立体音響復号データが入力され、立体音響再生手段107は変換立体音響復号データを再生し、ステップS111に進む。
ここで、ステップS110で述べた立体音響再生手段107は、汎用的な立体音響再生手段を用いることとし、その構成と音像定位の方法について、例を挙げて簡単に説明する。
音の到来方向の知覚に用いられる手がかりには、主に音が両耳に達する時間差と音圧差があるが、スピーカアレイを構成する複数のスピーカを用いて、この時間差や、音圧差を変化させることにより、音像定位位置情報の示す位置に音像を定位させて立体音響を再生する方法が、一般的に知られており、汎用的な立体音響再生手段の例として、スピーカアレイで構成された立体音響再生手段などがあるが、それらは一般的なものであり、また本特許の内容とは直接的に関係が無いため、その構成及び動作の説明については省略する。
例えば、汎用的な立体音響再生手段として、特開平9−121400号公報や、特開平2006−14070号公報に開示されているような立体音響再生手段がある。
これらは、すべてスピーカアレイを用いて、オーディオの音像定位を行うためのものである。
例えば、特開平2006−14070号公報は、音圧を調節する方法に関するものであるが、特開平2006−14070号公報に開示されているように、複数のスピーカを直線に沿って配置した第1のスピーカアレイと、別の複数のスピーカを直線に沿って配置した第2のスピーカアレイを用い、各スピーカアレイが同一水平面で交差するように配置して、立体音響再生手段107を構成してもよい。
この場合、音圧を大きくしたい目標位置から、第1のスピーカアレイの各スピーカまでの距離に合わせて、遅延時間を補正した音声信号を第1のスピーカアレイのスピーカに供給することにより、各スピーカから出力される音声の位相が、音像定位位置情報の示す位置において一致するため、音圧が大きくなる。一方、目標位置以外の位置では、各スピーカから出力される音声の位相が一致せず、音波が打ち消し合うため、音圧が小さくなる。同時に、各スピーカから出力される音声の音量の調整も行うことにより、両耳に達する音の音圧差を変化させ、音像定位位置情報の示す位置に音像を定位させることができる。
また、上記の方法とは違い、音量を同じものとして、遅延時間を補正した音声信号をスピーカに送り、音が両耳に達する時間差を調整することにより、音像定位位置情報の示す位置に音像定位を行ってもよい。
図13から図16までは、本実施の形態による立体映像・立体音響再生システムの一例を示す図である。
例えば、図13に示すように、立体ディスプレイの筐体300の4隅(角)にそれぞれ配置したスピーカ301と、スピーカ302、スピーカ303、スピーカ304と、筐体300の左右の側部に配置した複数のスピーカからなるスピーカアレイ305、スピーカアレイ306とを用い、遅延時間を補正した音声信号を各スピーカから出して、それぞれのスピーカの発する音の時間差と音圧差を適度に調節することにより、音像定位位置情報の示す位置に音像を定位させることができる。
立体映像307の位置に音像定位させる。観察者308は、立体映像307と、立体映像307が表示される位置から聞こえる音を視聴することができる。
また、図14は、図13のスピーカ301と、スピーカ302、スピーカ303、スピーカ304の代わりに、筐体300の上辺に沿って配置されたスピーカアレイ309と筐体300の下辺に沿って配置されたスピーカアレイ310を筐体300の上下に配置した構成例を示す図である。また、図15は、筐体311と筐体314との2つの筐体にそれぞれ形成された2画面の立体表示が可能な2つのディスプレイ面をもつ立体表示ディスプレイに適用した例であり、接地面から垂直に起立した筐体311の上部の左右2角に、スピーカ312と、スピーカ313とを、接地面に沿って配置される筐体314の下部の左右2角に、スピーカ315と、スピーカ316を、それぞれ配置する。
また、図16は、図15の構成において、スピーカ312及びスピーカ313の代わりとして、筐体311の上辺に沿って配置されたスピーカアレイ317を、スピーカ315、スピーカ316の代わりとして、筐体314の下辺(視聴者308側に近い辺)に沿って配置されたスピーカアレイ318を下に配置した例である。
上記の図14から図16のいずれの場合においても、図13と同様に、遅延時間を補正した音声信号を各スピーカから出して、それぞれのスピーカの発する音の時間差と音圧差を適度に調節することにより、音像定位位置情報の示す位置に音像を定位させることができる。
次に、立体音響再生手段を構成するスピーカアレイの配置と、音響の音像定位が可能な範囲との関係について説明する。
図17と図18とは、立体音響再生手段を構成するスピーカアレイの配置と、音響の音像定位が可能な範囲との関係について説明するための図である。
例えば、図17のように視聴者308が視聴する方向に垂直に配置されたスピーカアレイ319と、このスピーカアレイ319のそれぞれの端部から延びてスピーカアレイ319の延在する方向と交差する方向であって視聴者308側に近づく方向に延びるように左右にそれぞれ配置されたスピーカアレイ320、スピーカアレイ321が配置される場合、音像定位可能な範囲は、スピーカアレイ319の後方の領域(1)322と、スピーカアレイ319と、スピーカアレイ320、スピーカアレイ321で囲まれた台形の領域(2)323となる。
また、図17の構成の一例として、図18に示すように、スピーカアレイ320とスピーカアレイ321とを、スピーカアレイ319に垂直となるように配置すると、音像定位可能な範囲は、スピーカアレイ319の後方の領域(1)322と、スピーカアレイ319と、スピーカアレイ320、スピーカアレイ321で囲まれた長方形の領域(2)324となる。
この際、立体音響再生手段の能力によっては、立体ディスプレイが提示する立体映像の位置に音像定位することができない場合がある。例えば、図17において、立体映像307が表示される位置が、上記の音像定位可能な範囲である領域(1)322や、領域(2)323の範囲外となる場合もありうる。
このような場合、上記の音像定位可能な範囲である領域(1)322や、領域(2)323のうち、立体映像307の表示位置に最も近い位置又はその近傍に音像定位させることにより、違和感の少ない、立体映像と立体音響を提示することができる。
また、特開平9−121400号公報に開示されているように、立体音響再生手段107を複数のスピーカから成るスピーカアレイから構成し、音像定位位置情報の示す位置における直接音が主として増強される直接音増強系統と、主として間接音が増強される間接音増強系統とをそれらの出力信号の加算信号で各スピーカを駆動するように配し、それぞれの系統の入力端子を独立な2信号で駆動し、これらの2信号のレベル比を変化させることによって音像定位位置情報の示す位置における直接音と間接音との比率を変化させ、音像の距離感を制御するようにしてもよい。以上では、ステップS110における立体音響再生手段107を、汎用的な立体音響再生手段を用いて構成した例について説明した。
次に、図5のステップS111において、映像復号手段108に立体映像符号化データが入力され、映像復号手段108は、立体映像符号化データを復号し、立体映像復号データを出力し、ステップS112に進む。
ステップS112において、立体映像変換手段109に、視差調整データと、立体表示方式情報、立体映像復号データが入力され、立体映像変換手段109は入力された立体映像復号データに対し、立体表示方式情報が両眼視差方式である場合、視差調整データを用いて、視差の調整を行い、立体映像表示手段110の表示フォーマットに合わせて、変換立体映像復号データを作成し、出力し、ステップS113に進む。
ステップS113において、変換立体映像復号データが立体映像表示手段110に入力され、立体映像表示手段110は、入力された変換立体映像復号データを立体表示し、ステップS114に進む。ステップS114において、立体映像・立体音響再生システム100は、立体映像・立体音響データの再生を終えたか否かを判定し、終えた場合(Yes)、ステップS115に進み、そうでない場合(No)、ステップS102に戻る。ステップS115において、立体映像・立体音響再生システム100は、処理を終了する(終了)。
以上のようにすることにより、本実施の形態による立体映像・立体音響記録・再生システムは、立体表示を行う際の立体映像の表示サイズが異なる場合であっても、音源となる立体映像オブジェクトが表示される位置に、音響をより正確に音像定位させることができる。
また、本実施の形態による立体映像・立体音響記録・再生システムによれば、両眼視差方式の立体表示を行う際、異なる視聴距離で観察する場合や、観察者による視差調整が行われた場合であっても、音源となる立体映像オブジェクトが表示される位置に、正確に音響を音像定位させることができる。
本実施の形態によれば、立体表示を行う際の立体映像の表示サイズが異なる場合であっても、音源となる立体映像オブジェクトが表示される位置に、正確に音響を音像定位させることができる。
また、両眼視差方式の立体表示を行う際、異なる視聴距離で観察する場合や、観察者による視差調整が行われた場合であっても、音源となる立体映像オブジェクトが表示される位置に、正確に音響を音像定位させることができる。
また、立体感強調音響調整モードを有効にした場合、ディスプレイ面よりも手前に飛び出す立体映像に対して、その表示位置よりも手前に音響を音像定位させることにより、立体映像の表示位置が音響の定位位置に影響されるため、実際の表示位置よりもより手前に飛び出しているかのように立体感を強調して、観察者に見せることができる。
また、立体感強調音響調整モードを有効にした場合、ディスプレイ面よりも奥に引っ込む立体映像に対して、その表示位置よりも奥に音響を音像定位させることにより、立体映像の表示位置が音響の定位位置に影響されるため、実際の表示位置よりもより奥に引っ込んでいるかのように立体感を強調して、観察者に見せることができる。
また、上記では、音響を再生する装置の一例として、スピーカについて説明を行ったが、ヘッドフォンを用いて、音像定位を行っても良い。
以上、本発明の実施の形態について説明してきたが、本発明はこのような実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲における変更や追加があっても本発明に含まれる。
本発明による立体映像・立体音響記録・再生システムで動作するプログラムは、本発明に関わる上記実施形態の機能を実現するように、CPU(Central Processing Unit)等を制御するプログラム(コンピュータを機能させるプログラム)であっても良い。そして、これら装置で取り扱われる情報は、その処理時に一時的にRAM(Random Access Memory)に蓄積され、その後、Flash ROM(Read Only Memory)などの各種ROMやHDD(Hard Disk Drive)に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行われる。
また、図1等の各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
本発明は、CGゲームのプレイ、3Dフォト・ムービーの鑑賞装置、シミュレーション結果の3Dビジュアライゼーション、3Dプレゼンテーション、あるいは、立体テレビ放送の視聴装置として利用可能である。
1 立体映像・立体音響記録システム、
2,101 入力手段
3 オーディオ符号化手段
4 立体映像合成手段
5 映像符号化手段
6 立体映像・立体音響多重化手段
7 立体映像・立体音響データ
8 ヘッダ情報
9 付加情報
10 立体音響符号化データ
11 立体映像符号化データ
100 立体映像・立体音響再生システム
102 立体映像・立体音響分離手段
103 立体位置情報更新手段
104 音像定位位置決定手段
105 オーディオ復号手段
106 オーディオ変換手段
107 立体音響再生手段
108 映像復号手段
109 立体映像変換手段
110 立体映像表示手段
200,407 ディスプレイ面
201,202,206,207,208,209,213,214,215,216,217,218,219,223,408,409,413,417 点
203 想定視聴位置
204,211,221,411,415 左目
205,212,222,412,416 右目
210,220,410,414 視聴位置
300,311,314 筐体
301,302,303,304,312,313,315,316 スピーカ
305,306,309,310,317,318,319,320,321,402 スピーカアレイ
307 立体映像
308 観察者
322,323,324 領域
400 LCD
401 レンズアレイ
403,404 立体ディスプレイ
405,406 立体映像

Claims (10)

  1. 所定の時間単位で、再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立体位置情報を、前記オブジェクトの識別情報と共に立体映像・立体音響データとして記録し、前記立体映像・立体音響データを再生する立体映像・立体音響記録再生システムにおいて、
    立体映像ディスプレイ上で、前記立体映像・立体音響データがどのサイズで表示されるかを想定した値である想定表示サイズ情報を、前記立体映像・立体音響データ内に多重化し、出力するための立体映像・立体音響多重化手段を備えることを特徴とする立体映像・立体音響記録システム。
  2. 前記立体映像・立体音響多重化手段は、
    観察者から立体ディススプレイまでの距離である想定視聴距離情報を、前記立体映像・立体音響データ内に多重化することを特徴とする請求項1記載の立体映像・立体音響記録システム。
  3. 飛び出す立体映像の場合は、表示位置からより手前に音像を定位させる映像立体感強調モードを備えることを特徴とする請求項1又は2に記載の立体映像・立体音響記録システム。
  4. 引っ込む立体映像の場合、表示位置からより後ろに音像を定位させる映像立体感強調モードを備えることを特徴とする請求項1から3までのいずれか1項に記載の立体映像・立体音響記録システム。
  5. 所定の時間単位で、再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立体位置情報を前記オブジェクトの識別情報と共に立体映像・立体音響データとして記録し、前記立体映像・立体音響データを再生する立体映像・立体音響記録再生システムにおいて、
    前記立体映像・立体音響データから、立体映像データと立体音響データ、想定表示サイズ情報、オブジェクトごとの立体位置情報をそれぞれ分離する立体映像・立体音響分離手段と、
    外部から表示サイズ情報の入力を受け付ける入力手段と、
    各オブジェクトの前記立体位置情報と、前記想定表示サイズ情報、前記表示サイズ情報を入力とし、前記想定表示サイズ情報、前記表示サイズ情報を用いて、前記表示サイズ情報の示すサイズで表示した場合の立体映像の表示位置である更新立体位置情報をオブジェクト毎に出力する立体位置情報更新手段と、
    オブジェクト毎に更新立体位置情報の示す位置を参照して音像定位させる位置を決定し、音像定位位置として出力する音像定位位置決定手段と、
    前記音像定位位置に、音響を音像定位させる音響変換手段と、
    を備えることを特徴とする立体映像・立体音響再生システム。
  6. 所定の時間単位で、再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立体位置情報を前記オブジェクトの識別情報と共に立体映像・立体音響データとして記録し、前記立体映像・立体音響データを再生する立体映像・立体音響記録再生システムにおいて、
    前記立体映像・立体音響データから、立体映像データと立体音響データ、想定表示サイズ情報、想定視聴距離情報、オブジェクトごとの立体位置情報をそれぞれ分離する立体映像・立体音響分離手段と、
    外部から表示サイズ情報と、視聴距離情報、立体表示方式情報の入力を受け付ける入力手段と、
    各オブジェクトの前記立体位置情報と、前記想定表示サイズ情報、前記表示サイズ情報、前記想定視聴距離情報、前記視聴距離情報、前記立体表示方式情報を入力とし、
    前記立体表示方式が、観察者の左右の目に異なる2つの視点の画像を同時に提示する両眼視差方式の立体表示方式である場合は、前記想定表示サイズ情報、前記表示サイズ情報、前記想定視聴距離情報、前記視聴距離情報、前記立体表示方式情報を用いて、前記表示サイズ情報の示すサイズで表示し、かつ、前記視聴距離情報の位置で観察する場合の、立体映像の表示位置である更新立体位置情報を、
    前記立体表示方式が前記両眼視差方式の立体表示方式でない場合は、前記想定表示サイズ情報、前記表示サイズ情報を用いて、前記表示サイズ情報の示すサイズで表示した場合の立体映像の表示位置である更新立体位置情報を、
    それぞれオブジェクト毎に出力する立体位置情報更新手段と、
    オブジェクト毎に更新立体位置情報の示す位置を音像定位させる位置として決定し、音像定位位置として出力する音像定位位置決定手段と、
    前記音像定位位置を参照して、音響を音像定位させる音響変換手段と、
    を備えることを特徴とする立体映像・立体音響再生システム。
  7. 前記入力手段は、立体音響の定位位置を、本来の位置よりずらすことにより、立体感を強調する立体感強調音響調整モードを有効にするか否かを切り替えるための情報である立体感強調音響調整モード情報の入力を受付け、
    前記音像定位決定手段は、立体感強調音響調整モード情報の入力を受付け、立体感強調音響調整モードが有効、かつ、音像定位位置がディスプレイ面より前にある場合は、前記音像定位位置より前に音響を音像定位させるように音像定位位置を変更し、
    立体感強調音響調整モードが有効、かつ、音像定位位置がディスプレイ面より奥にある場合は、前記音像定位位置より後ろに音響を音像定位させるように音像定位位置を変更することを特徴とする請求項5又は6に記載の立体映像・立体音響再生システム。
  8. 所定の時間単位で、再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立体位置情報を、前記オブジェクトの識別情報と共に立体映像・立体音響データとして記録し、前記立体映像・立体音響データを再生する立体映像・立体音響記録再生方法において、
    立体映像ディスプレイ上で、前記立体映像・立体音響データがどのサイズで表示されるかを想定した値である想定表示サイズ情報を、前記立体映像・立体音響データ内に多重化し、出力するための立体映像・立体音響多重化ステップを有することを特徴とする立体映像・立体音響記録方法。
  9. 前記立体映像・立体音響多重化手段は、
    観察者から立体ディススプレイまでの距離である想定視聴距離情報を、前記立体映像・立体音響データ内に多重化することを特徴とする請求項8記載の立体映像・立体音響記録方法。
  10. 請求項8又は9に記載の方法を、コンピュータに実行させるためのプログラム。
JP2009181762A 2009-08-04 2009-08-04 立体映像・立体音響記録再生装置・システム及び方法 Expired - Fee Related JP5197525B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009181762A JP5197525B2 (ja) 2009-08-04 2009-08-04 立体映像・立体音響記録再生装置・システム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009181762A JP5197525B2 (ja) 2009-08-04 2009-08-04 立体映像・立体音響記録再生装置・システム及び方法

Publications (2)

Publication Number Publication Date
JP2011035784A true JP2011035784A (ja) 2011-02-17
JP5197525B2 JP5197525B2 (ja) 2013-05-15

Family

ID=43764379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009181762A Expired - Fee Related JP5197525B2 (ja) 2009-08-04 2009-08-04 立体映像・立体音響記録再生装置・システム及び方法

Country Status (1)

Country Link
JP (1) JP5197525B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012128535A2 (en) * 2011-03-21 2012-09-27 Lg Electronics Inc. Apparatus for controlling depth/distance of sound and method thereof
JP2012199784A (ja) * 2011-03-22 2012-10-18 Mitsubishi Electric Corp 音響再生装置
JP2013081133A (ja) * 2011-10-05 2013-05-02 Canon Inc 画像処理装置、画像処理方法、及びプログラム
JP2014515906A (ja) * 2011-04-18 2014-07-03 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオをアップミックスして3dオーディオを生成する方法とシステム[関連出願との相互参照]この出願は、2011年4月18日に出願された米国特許仮出願第61/476,395号の優先権を主張するものである。この文献はここにその全体を参照援用する。
WO2014115222A1 (en) * 2013-01-23 2014-07-31 Nippon Hoso Kyokai Sound signal description method, sound signal production equipment, and sound signal reproduction equipment
WO2014199536A1 (ja) * 2013-06-10 2014-12-18 パナソニック株式会社 オーディオ再生装置及びその方法
KR101534295B1 (ko) * 2014-03-26 2015-07-06 하수호 멀티 뷰어 영상 및 3d 입체음향 제공방법 및 장치
JP2016514424A (ja) * 2013-03-05 2016-05-19 アップル インコーポレイテッド 1人以上の聴取者のロケーションに基づくスピーカアレイのビームパターンの調整
US9451363B2 (en) 2012-03-06 2016-09-20 Dolby Laboratories Licensing Corporation Method and apparatus for playback of a higher-order ambisonics audio signal
KR101682105B1 (ko) * 2015-05-28 2016-12-02 조애란 입체음향 조절 방법 및 장치
JP2018530952A (ja) * 2015-09-04 2018-10-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ビデオ画像に関連付けられているオーディオ信号を処理する方法および装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104270552A (zh) * 2014-08-29 2015-01-07 华为技术有限公司 一种声像播放方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169309A (ja) * 1999-12-13 2001-06-22 Mega Chips Corp 情報記録装置および情報再生装置
JP2003023699A (ja) * 2001-07-05 2003-01-24 Saibuaasu:Kk 空間情報聴覚化装置および空間情報聴覚化方法
JP2005130312A (ja) * 2003-10-24 2005-05-19 Sony Corp 立体視画像処理装置,コンピュータプログラム,および視差補正方法
JP2006128818A (ja) * 2004-10-26 2006-05-18 Victor Co Of Japan Ltd 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP2006128816A (ja) * 2004-10-26 2006-05-18 Victor Co Of Japan Ltd 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP2006262191A (ja) * 2005-03-17 2006-09-28 Victor Co Of Japan Ltd 複数視点立体映像表示方法及び複数視点立体映像表示装置並びに複数視点立体映像表示プログラム
JP2008103804A (ja) * 2006-10-17 2008-05-01 Sharp Corp 立体画像検索装置
JP2008109267A (ja) * 2006-10-24 2008-05-08 Sharp Corp 立体画像生成装置及び立体画像復号装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169309A (ja) * 1999-12-13 2001-06-22 Mega Chips Corp 情報記録装置および情報再生装置
JP2003023699A (ja) * 2001-07-05 2003-01-24 Saibuaasu:Kk 空間情報聴覚化装置および空間情報聴覚化方法
JP2005130312A (ja) * 2003-10-24 2005-05-19 Sony Corp 立体視画像処理装置,コンピュータプログラム,および視差補正方法
JP2006128818A (ja) * 2004-10-26 2006-05-18 Victor Co Of Japan Ltd 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP2006128816A (ja) * 2004-10-26 2006-05-18 Victor Co Of Japan Ltd 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP2006262191A (ja) * 2005-03-17 2006-09-28 Victor Co Of Japan Ltd 複数視点立体映像表示方法及び複数視点立体映像表示装置並びに複数視点立体映像表示プログラム
JP2008103804A (ja) * 2006-10-17 2008-05-01 Sharp Corp 立体画像検索装置
JP2008109267A (ja) * 2006-10-24 2008-05-08 Sharp Corp 立体画像生成装置及び立体画像復号装置

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8958565B2 (en) 2011-03-21 2015-02-17 Lg Electronics Inc. Apparatus for controlling depth/distance of sound and method thereof
WO2012128535A3 (en) * 2011-03-21 2012-12-27 Lg Electronics Inc. Apparatus for controlling depth/distance of sound and method thereof
WO2012128535A2 (en) * 2011-03-21 2012-09-27 Lg Electronics Inc. Apparatus for controlling depth/distance of sound and method thereof
JP2012199784A (ja) * 2011-03-22 2012-10-18 Mitsubishi Electric Corp 音響再生装置
JP2014515906A (ja) * 2011-04-18 2014-07-03 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオをアップミックスして3dオーディオを生成する方法とシステム[関連出願との相互参照]この出願は、2011年4月18日に出願された米国特許仮出願第61/476,395号の優先権を主張するものである。この文献はここにその全体を参照援用する。
US9094771B2 (en) 2011-04-18 2015-07-28 Dolby Laboratories Licensing Corporation Method and system for upmixing audio to generate 3D audio
JP2013081133A (ja) * 2011-10-05 2013-05-02 Canon Inc 画像処理装置、画像処理方法、及びプログラム
US11895482B2 (en) 2012-03-06 2024-02-06 Dolby Laboratories Licensing Corporation Method and apparatus for screen related adaptation of a Higher-Order Ambisonics audio signal
US11570566B2 (en) 2012-03-06 2023-01-31 Dolby Laboratories Licensing Corporation Method and apparatus for screen related adaptation of a Higher-Order Ambisonics audio signal
US10299062B2 (en) 2012-03-06 2019-05-21 Dolby Laboratories Licensing Corporation Method and apparatus for playback of a higher-order ambisonics audio signal
US9451363B2 (en) 2012-03-06 2016-09-20 Dolby Laboratories Licensing Corporation Method and apparatus for playback of a higher-order ambisonics audio signal
US11228856B2 (en) 2012-03-06 2022-01-18 Dolby Laboratories Licensing Corporation Method and apparatus for screen related adaptation of a higher-order ambisonics audio signal
US10771912B2 (en) 2012-03-06 2020-09-08 Dolby Laboratories Licensing Corporation Method and apparatus for screen related adaptation of a higher-order ambisonics audio signal
WO2014115222A1 (en) * 2013-01-23 2014-07-31 Nippon Hoso Kyokai Sound signal description method, sound signal production equipment, and sound signal reproduction equipment
JP2016514424A (ja) * 2013-03-05 2016-05-19 アップル インコーポレイテッド 1人以上の聴取者のロケーションに基づくスピーカアレイのビームパターンの調整
US9788120B2 (en) 2013-06-10 2017-10-10 Socionext Inc. Audio playback device and audio playback method
JPWO2014199536A1 (ja) * 2013-06-10 2017-02-23 株式会社ソシオネクスト オーディオ再生装置及びその方法
JP6022685B2 (ja) * 2013-06-10 2016-11-09 株式会社ソシオネクスト オーディオ再生装置及びその方法
WO2014199536A1 (ja) * 2013-06-10 2014-12-18 パナソニック株式会社 オーディオ再生装置及びその方法
KR101534295B1 (ko) * 2014-03-26 2015-07-06 하수호 멀티 뷰어 영상 및 3d 입체음향 제공방법 및 장치
KR101682105B1 (ko) * 2015-05-28 2016-12-02 조애란 입체음향 조절 방법 및 장치
JP2018530952A (ja) * 2015-09-04 2018-10-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ビデオ画像に関連付けられているオーディオ信号を処理する方法および装置
US10575112B2 (en) 2015-09-04 2020-02-25 Koninklijke Philips N.V. Method and apparatus for processing an audio signal associated with a video image

Also Published As

Publication number Publication date
JP5197525B2 (ja) 2013-05-15

Similar Documents

Publication Publication Date Title
JP5197525B2 (ja) 立体映像・立体音響記録再生装置・システム及び方法
US10158841B2 (en) Method and device for overlaying 3D graphics over 3D video
JP4755565B2 (ja) 立体画像処理装置
JP5698243B2 (ja) 3dスクリーン・サイズ補償
CN108989721B (zh) 用于局域化感知音频的技术
EP2315450A2 (en) 2D/3D display apparatus and 2D/3D image display method therein
EP2242262A2 (en) Data structure, recording medium, playback apparatus and method, and program
KR20110005205A (ko) 디스플레이 장치의 화면 사이즈를 이용한 신호 처리 방법 및 장치
US9596446B2 (en) Method of encoding a video data signal for use with a multi-view stereoscopic display device
KR20110113186A (ko) 비디오 인터페이스를 통해 송신하고 3d 비디오 및 3d 오버레이들을 합성하기 위한 방법 및 시스템
WO2011080878A1 (ja) 画像再生装置及び表示装置
JP2011138354A (ja) 情報処理装置および情報処理方法
JP4145122B2 (ja) 立体画像表示装置
US20220272472A1 (en) Methods, apparatus and systems for audio reproduction
JP2012195904A (ja) 音声制御方法、音声制御装置、avシステムおよびプログラム
JP2012160984A (ja) 立体音響再生装置および立体音響再生方法
JP6307213B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2013165331A (ja) 3d映像再生装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees