JP2005086486A - オーディオ装置およびオーディオ処理方法 - Google Patents

オーディオ装置およびオーディオ処理方法 Download PDF

Info

Publication number
JP2005086486A
JP2005086486A JP2003316450A JP2003316450A JP2005086486A JP 2005086486 A JP2005086486 A JP 2005086486A JP 2003316450 A JP2003316450 A JP 2003316450A JP 2003316450 A JP2003316450 A JP 2003316450A JP 2005086486 A JP2005086486 A JP 2005086486A
Authority
JP
Japan
Prior art keywords
audio
speaker
speakers
component
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003316450A
Other languages
English (en)
Inventor
Masanori Kushibe
匡則 櫛部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2003316450A priority Critical patent/JP2005086486A/ja
Priority to CNB2004100768559A priority patent/CN100405874C/zh
Priority to US10/935,913 priority patent/US20050074135A1/en
Publication of JP2005086486A publication Critical patent/JP2005086486A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Stereophonic Arrangements (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】 仮想的なスピーカ位置を調整することができる「オーディオ装置およびオーディオ処理方法」を提供すること。
【解決手段】 センタースピーカ用のオーディオ成分と、センタースピーカを挟んで配置されるスピーカ170−1、170−2のそれぞれに対応する複数のオーディオ成分とが含まれるオーディオデータが入力され、これらのオーディオ成分をデコード処理した後に分離するデコード処理部120と、デコード処理部120から出力されるセンタースピーカ用のオーディオ成分を遅延させるセンターディレイ処理部132と、遅延後のセンタースピーカ用のオーディオ成分を割り振ってスピーカ170−1、170−2のそれぞれのオーディオ成分と合成するダウンミックス処理部134とを備えてオーディオ装置が構成されており、ダウンミックスされた後のオーディオ音に対応するオーディオ音がスピーカ170−1等から出力される。
【選択図】 図4

Description

本発明は、センタースピーカに対応する音成分をその他のスピーカに振り分けるオーディオ装置およびオーディオ処理方法に関する。
最近では、DVD(デジタルバーサタイルディスク)プレーヤ等の普及により、臨場感のある音場を再現することができるマルチチャンネルによるサラウンドを実現するオーディオ装置が一般的になりつつある。例えば、ドルビーデジタル(登録商標)やDTS(登録商標)と称されるマルチチャンネル用のフォーマットには、例えば6チャンネル分のオーディオデータと、チャンネルの組み合わせを示す情報とが含まれており、オーディオ装置によって、このオーディオデータを用いて各チャンネルに対応するスピーカを駆動することにより、臨場感のある音楽の再生が可能になる。
ところで、オーディオデータに含まれるチャンネル構成とオーディオ装置に接続されたスピーカの実際の配置とが異なる場合がある。例えば、オーディオデータにはセンタースピーカに対応する成分が含まれているが、オーディオ装置に実際にはセンタースピーカが接続されていないことがある。このような場合には、このセンタースピーカの成分をフロント左側のスピーカとフロント右側のスピーカに振り分けるダウンミックス処理が行われる(例えば、特許文献1参照。)。これにより、利用者は、センタースピーカに対応するオーディオ音を、仮想的なセンタースピーカから出力されているように聴くことができる。例えば、映画の登場人物の台詞の音声をセンタースピーカから出力するようにオーディオデータが作成されている場合には、フロントの左右のスピーカにこの音声成分を割り振ることにより、あたかもセンタースピーカからこの音声成分が出力されているようにすることができる。
特開平9−259539号公報(第16−21頁、図16−36)
ところで、上述した特許文献1に開示された装置では、ダウンミックス処理を行うことにより、オーディオデータに含まれるセンタースピーカ成分を他のスピーカに割り振ることができるが、どのように割り振るかは、実際のスピーカの配置等を考慮して予め決まっているため、仮想的なフロントスピーカの位置をずらすことができないという問題があった。
例えば、車両に搭載されたモニタ装置に映画の映像を表示し、この映画の5.1chの音を各スピーカから出力する場合を考える。通常、車室内の前方中央にセンタースピーカの設置スペースを確保することは容易でないため、センタースピーカを配置せずにその成分を左右のスピーカに振り分けることで、仮想的なセンタースピーカから登場人物の声が出るようにする場合が多い。ところが、ドルビーデジタルやDTSのオーディオデータに含まれるセンタースピーカの成分は、フロントの左右スピーカの中央にセンタースピーカが配置される場合を想定して作成されるため、この成分を左右のスピーカに振り分けることで実現する仮想的なセンタースピーカの位置も左右のスピーカの中央位置に一致する。したがって、モニタ装置の設置位置がフロントの左右スピーカの中央位置からずれていると、台詞を言っている登場人物の表示位置と台詞に対応する音の出力位置とがずれてしまい、不自然な印象を与える。フロントの左右スピーカに入力される信号に対して遅延やゲイン調整を行うことで、台詞に対応する音の出力位置を変更することができるが、そうすると、フロントの左右スピーカに入力される本来の信号に対しても遅延やゲインの変動が生じてしまい、全体のオーディオ音が不自然になるため、本質的な解決策とはいえない。
本発明は、このような点に鑑みて創作されたものであり、その目的は、仮想的なスピーカ位置を調整することができるオーディオ装置およびオーディオ処理方法を提供することにある。
上述した課題を解決するために、本発明のオーディオ装置は、第1のスピーカに対応する第1のオーディオ成分と、第1のスピーカを挟んで配置される複数の第2のスピーカのそれぞれに対応する複数の第2のオーディオ成分とが含まれるオーディオデータが入力され、これら第1および第2のオーディオ成分を分離する分離手段と、分離手段によって分離された第1のオーディオ成分を遅延させる遅延手段と、遅延手段による遅延後の第1のオーディオ成分を複数の第2のスピーカのそれぞれに対応させて割り振って、第2のスピーカのそれぞれに対応する第2のオーディオ成分と合成する合成手段と、合成手段によって合成された後の複数のオーディオ成分に対応するオーディオ音を第2のスピーカから出力するオーディオ音出力手段とを備えている。
また、本発明のオーディオ処理方法は、第1のスピーカに対応する第1のオーディオ成分と、第1のスピーカを挟んで配置される複数の第2のスピーカのそれぞれに対応する複数の第2のオーディオ成分とが含まれるオーディオデータが入力され、これら第1および第2のオーディオ成分を分離し、分離された第1のオーディオ成分を遅延させ、
遅延後の第1のオーディオ成分を複数の第2のスピーカのそれぞれに対応させて割り振って、第2のスピーカのそれぞれに対応する第2のオーディオ成分と合成し、合成された後の複数のオーディオ成分に対応するオーディオ音を第2のスピーカから出力している。
このように、第1のスピーカに対応する第1のオーディオ成分を第2のスピーカに対応させて割り振る前に遅延させることにより、第1のスピーカに相当する仮想的なスピーカの前後の位置を調整することが可能になる。
また、上述した合成手段は、第1のオーディオ成分を複数の第2のスピーカのそれぞれに割り振る割合を異ならせている。
あるいは、本発明のオーディオ装置は、第1のスピーカに対応する第1のオーディオ成分と、第1のスピーカを挟んで配置される複数の第2のスピーカのそれぞれに対応する複数の第2のオーディオ成分とが含まれるオーディオデータが入力され、これら第1および第2のオーディオ成分を分離する分離手段と、分離手段によって分離された第1のオーディオ成分を複数の第2のスピーカのそれぞれに対応させて割り振って、第2のスピーカのそれぞれに対応する第2のオーディオ成分に対して異なる割合で合成する合成手段と、合成手段によって合成された後の複数のオーディオ成分に対応するオーディオ音を第2のスピーカから出力するオーディオ音出力手段とを備えている。
また、本発明のオーディオ処理方法は、第1のスピーカに対応する第1のオーディオ成分と、第1のスピーカを挟んで配置される複数の第2のスピーカのそれぞれに対応する複数の第2のオーディオ成分とが含まれるオーディオデータが入力され、これら第1および第2のオーディオ成分を分離し、分離された第1のオーディオ成分を複数の第2のスピーカのそれぞれに対応させて割り振って、第2のスピーカのそれぞれに対応する第2のオーディオ成分に対して異なる割合で合成し、合成された後の複数のオーディオ成分に対応するオーディオ音を第2のスピーカから出力している。
このように、第1のオーディオ成分を第2のスピーカに対応させて割り振る際にその割合を異ならせることにより、第1のスピーカに相当する仮想的なスピーカの左右の位置を調整することが可能になる。
また、上述した合成手段による合成動作の際あるいは合成動作の前に、第1のオーディオ成分に対応する出力レベルを変更する出力レベル変更手段をさらに備えることが望ましい。このように、第1のスピーカに対応する第1のオーディオ成分を第2のスピーカに対応させて割り振る前あるいは割り振る際にこの第1のオーディオ成分に対応する出力レベルの変更を行うことにより、第2のオーディオ成分の出力レベルを変えることなく第1のオーディオ成分の出力レベルのみを変更することが可能になる。
また、上述した遅延手段による遅延量を可変に設定する制御手段をさらに備えることが望ましい。あるいは、上述した合成手段によって割り振る割合を可変に設定する制御手段をさらに備えることが望ましい。第1のオーディオ成分を遅延させる量や割り振る割合を可変に設定することにより、第1のスピーカに相当する仮想的なスピーカの前後の位置あるいは左右の位置を任意に調整することが可能になる。
また、利用者によって操作され、制御手段による設定内容の入力を行う設定入力手段をさらに備えることが望ましい。これにより、仮想的なスピーカの位置調整を利用者自身の操作に応じて行うことが可能になり、利用者の意図した位置に調整することができるようになる。
また、第1のスピーカはセンタースピーカであり、複数の第2のスピーカはセンタースピーカを挟んで左右に配置された左スピーカと右スピーカであることが望ましい。これにより、実際には接続されていないセンタースピーカが存在するように左右のスピーカからオーディオ音を出力することが可能になり、仮想的なセンタースピーカの位置を調整することができる。
また、上述した複数の第2のスピーカは、車室内のフロント側に設けられていることが望ましい。車載のオーディオ装置の場合には、フロント中央にセンタースピーカとしての第1のスピーカを設定することは、ダッシュボードの構造上難しい。本発明によれば、仮想的なセンタースピーカを実現することができるとともにその設置位置を調整することができるため、車載のオーディオ装置のようにセンタースピーカの設置が容易でない設置環境において特に有効である。
また、上述したセンタースピーカの設置が想定されている位置にオーディオデータに対応する映像を表示する表示部が設けられていることが望ましい。映画の登場人物の音声については表示部から音が出ているようにできればそれだけ臨場感が増すと考えられるが、表示部の設置位置に正確に第1のスピーカを設置することはできない。このような場合であっても、第1のスピーカに相当する仮想的なスピーカを表示部の設置位置に合わせて実現することができ、しかも、仮想的なスピーカの位置を調整することで表示部の設置位置と容易に一致させることができるようになる。
また、上述したオーディオデータは、ドルビーデジタルのフォーマットを有し、オーディオデータの各同期フレーム内のオーディオ・ブロックに第1のスピーカに対応するセンタースピーカのオーディオ成分が含まれているとともに、実際には第1のスピーカが接続されていない場合に、遅延手段による遅延動作を行うことが望ましい。あるいは、上述したオーディオデータは、ドルビーデジタルのフォーマットを有し、オーディオデータの各同期フレーム内のオーディオ・ブロックに第1のスピーカに対応するセンタースピーカのオーディオ成分が含まれているとともに、実際には第1のスピーカが接続されていない場合に、合成手段による合成動作を行うことが望ましい。これにより、ドルビーデジタルのフォーマットを有するオーディオデータが入力された場合であって、センタースピーカのオーディオ成分が含まれている場合に、従来のように中央の所定位置以外の位置に仮想的なスピーカの位置を設定することが可能になる。
また、上述したオーディオデータは、DTSのフォーマットを有し、オーディオデータの各同期フレーム内のオーディオ・フレームに第1のスピーカに対応するセンタースピーカのオーディオ成分が含まれているとともに、実際には第1のスピーカが接続されていない場合に、遅延手段による遅延動作を行うことが望ましい。あるいは、上述したオーディオデータは、DTSのフォーマットを有し、オーディオデータの各同期フレーム内のオーディオ・フレームに第1のスピーカに対応するセンタースピーカのオーディオ成分が含まれているとともに、実際には第1のスピーカが接続されていない場合に、合成手段による合成動作を行うことが望ましい。これにより、DTSのフォーマットを有するオーディオデータが入力された場合であって、センタースピーカのオーディオ成分が含まれている場合に、従来のように中央の所定位置以外の位置に仮想的なスピーカの位置を設定することが可能になる。
以下、本発明を適用した一実施形態のオーディオ装置について、図面を参照しながら詳細に説明する。
図1は、一実施形態のオーディオ装置の全体構成を示す図である。図1に示すように、本実施形態のオーディオ装置は、データ処理部100、D/A(デジタル−アナログ)変換器150、アンプ160、スピーカ170、制御部200、設定入力部240、表示部250を含んで構成されている。このオーディオ装置は、車両に搭載されており、センタースピーカ成分を含むマルチチャンネルのオーディオデータが入力され、センタースピーカ成分を複数の他のスピーカ170に振り分けて、これらの他のスピーカ用の本来のオーディオ成分と合成するダウンミックス機能を有している。
データ処理部100は、所定のチャンネル成分を有する符号化されたオーディオデータが入力され、このオーディオデータをデコード処理した結果に対して各種の処理を行う。このために、データ処理部100は、データ属性情報取得部110、デコード処理部120、オーディオ信号処理部130を含んで構成されている。
図2は、図1に示したオーディオ装置に入力されるオーディオデータのフォーマットを示す図であり、例えばドルビーデジタルに対応したフォーマットが示されている。図2に示すように、ドルビーデジタルのフォーマットを有するオーディオデータは、同期フレームの集まりとして構成されている。これらの各同期フレームは、「同期情報」、「ビットストリーム情報」、「オーディオ・ブロック」、「オグジャリデータ」、「CRC」によって構成されている。
この中で、「ビットストリーム情報」は、オーディオデータのデータ属性情報を示すヘッダ情報に相当するものであり、「ビットストリームID」、「ビットストリームモード」、「オーディオコーディングモード」、「LFEチャンネル」、「センターミックスレベル」、「サラウンドミックスレベル」等が含まれている。「オーディオコーディングモード」は、オーディオデータのチャンネル構成を示すものであり、3ビットでその内容が示されている。例えば、この3ビットが“011b”(bは各桁が1ビットデータであることを示している)の場合には、フロント側の左右スピーカLf、Rfとフロント側のセンタースピーカCのオーディオ成分のみが含まれ、リヤ側の左右スピーカLs、Rsとリヤ側のサブウーハSのオーディオ成分が含まれないことを示している。なお、図2に示すオーディオコーディングモードの「内容」は、フロント側とリヤ側のスピーカ構成であって、「/」の前後の数字はフロント側のスピーカ数とリヤ側のスピーカ数を表している。また、「LFEチャンネル」は、LFE(Low Frequency Effect)チャンネルの有無、すなわち低周波効果を生じさせるリヤ側のサブウーハSに対応したオーディオ成分の有無を表すものである。値が“0b”の場合にはLFEチャンネルとしてのサブウーハSに対応するオーディオ成分が含まれていないことを示しており、“1b”の場合にはLFEチャンネルとしてのサブウーハSに対応するオーディオ成分が含まれていることを示している。
また、「オーディオ・ブロック」には、ビットストリーム情報内のオーディオコーディングモードで示された複数チャンネル分のオーディオ成分に対応する符号化されたオーディオデータが含まれてる。
データ属性情報取得部110は、各同期フレーム内のビットストリーム情報に含まれるデータ属性情報を取得する。デコード処理部120は、各同期フレーム内のオーディオ・ブロックに含まれる複数チャンネル分のオーディオデータのそれぞれに対してデコード処理を行う。オーディオ信号処理部130は、デコード処理された後のオーディオデータを用いて各種の信号処理を行い、本実施形態のオーディオ装置に実際に接続されているスピーカ170に対応するオーディオデータを生成する。各種の信号処理には、ダウンミックス処理、ベースマネジメント処理、ディレイ処理、スピーカレベル調整処理が含まれており、これらの詳細については後述する。
制御部200は、本実施形態のオーディオ装置におけるファントムセンターとしての仮想的なセンタースピーカの位置や出力レベルを可変設定する制御を行う。このために、制御部200は、チャンネル構成情報取得部210、ファントムセンター管理部220を含んで構成されている。チャンネル構成情報取得部210は、データ処理部100内のデータ属性情報取得部110によって取得したデータ属性情報の中からチャンネル構成情報を取得する。具体的には、ビットストリーム情報に含まれる「オーディオコーディングモード」と「LFEチャンネル」がチャンネル構成情報に関係しており、これらのデータが抽出される。
ファントムセンター管理部220は、仮想的なセンタースピーカの位置を任意に調整するために、センタースピーカCに対応するオーディオ成分をフロント側の左右スピーカLf、Rfに割り振る際の各種の係数値や遅延値を設定する。これらの設定値は、データ処理部100内のオーディオ信号処理部130に送られる。
また、ファントムセンター管理部220には、設定入力部240と表示部250が接続されている。設定部240は、利用者による設定指示を行うためのものであり、仮想的なセンタースピーカの位置や出力レベルを変更するために必要な値や指示を入力する。表示部250は、設定入力部240による入力操作内容や入力値を確認するためのものである。本実施形態のオーディオ装置では、この表示部250は、DVDプレーヤやデジタル放送受信機(ともに図示せず)等のモニタ装置としても使用されている。例えば、ファントムセンター管理部220によって各種の設定を行うことにより、映画を再生する場合に出演者が表示される表示部250の設置位置に仮想的なセンタースピーカの位置を一致させることが可能になる。
図3は、本実施形態のオーディオ装置におけるスピーカ170と表示部250の配置状態を示す図である。本実施形態では、例えば5種類のスピーカ170−1〜170−5が用いられている。スピーカ(Lf)170−1はフロント左側に設置されている。スピーカ(Rf)170−2はフロント右側に設置されている。スピーカ(Ls)170−3はリヤ左側に設置されている。スピーカ(Rs)170−4はリヤ右側に配置されている。スピーカ(LFE)170−5はリヤ側中央に配置されたサブウーハである。なお、本実施形態では、フロント側中央に配置されるセンタースピーカ(FC)は設けられておらず、代わりにこのセンタースピーカ用のオーディオ成分をスピーカ170−1、170−2に割り振るダウンミックス処理によってファントムセンターとしての仮想的なスピーカ170−6が実現されている。また、本実施形態では、フロント側の所定位置、例えばフロント側左右のスピーカ170−1、170−2の中央位置に対して左前方にずれた位置に表示部250が設置されている。
図4は、本実施形態のオーディオ装置の部分的な詳細構成を示す図である。図4に示すように、ファントムセンター管理部220は、制御情報設定部222、DM(ダウンミックス)モード決定部224、センターDM係数決定部226を含んで構成されている。
制御情報設定部222は、設定入力部240によって入力される値や指示にしたがって、本実施形態のオーディオ装置に接続された実際の「スピーカ数N」、仮想的なセンタースピーカ位置を前方にずらすための「ディレイ量d」、仮想的なセンタースピーカ位置を左右方向にずらすための「ダウンミックス調整値β」、仮想的なセンタースピーカからの出力レベルを変更する場合の「出力レベル調整値α」などを設定する。
DMモード決定部224は、チャンネル構成情報取得部210によってオーディオデータから取得したチャンネル構成情報と、制御情報設定部222によって設定されたスピーカ数Nとに基づいて、ダウンミックス処理を行う場合のDMモードを決定する。このDMモードとは、オーディオ成分に対応するチャンネル構成と実際のスピーカ170の接続状態との組み合わせによって決まる動作モードである。このDMモードが決まると、各チャンネルのオーディオ成分を実際に接続された各スピーカ170に向けてどの程度の割合で出力するかが決まる。
センターDM係数決定部226は、センタースピーカ用のオーディオ成分を他のスピーカ170に割り振る際のDM係数を決定する。なお、本実施形態では、仮想的なセンタースピーカ170−6の出力レベルを自由に設定することが可能であり、この出力レベルの変更状態も考慮されてDM係数の決定が行われる。
例えば、最も一般的には、センタースピーカ用のオーディオ成分がフロント左側のスピーカ(Lf)170−1とフロント右側のスピーカ(Rf)170−2に割り振られる。従来であれば、センタースピーカ用のオーディオ成分をD(C)とすると、フロント左側のスピーカ(Lf)170−1とフロント右側のスピーカ(Rf)170−2のそれぞれに、Cm×D(C)ずつセンタースピーカ用の成分が割り振られる。なお、Cmは、図2に示したビットストリーム情報に含まれるセンターミックスレベルである。
これに対し、本実施形態では、フロント左側のスピーカ(Lf)170−1に、α×(Cm+β)×D(C)の成分が割り振られ、フロント右側のスピーカ(Rf)170−2に、α×(Cm−β)×D(C)の成分が割り振られる。センターDM係数決定部226は、フロント左右の各スピーカ170−1、170−2のそれぞれにセンタースピーカ用のオーディオ成分を割り振る係数として、2種類のセンターDM係数KL(=α×(Cm+β))、KR(=α×(Cm−β))を決定する。
また、オーディオ信号処理部130は、センターディレイ処理部132、ダウンミックス処理部134、ベースマネジメント処理部136、ディレイ処理部138、スピーカレベル調整処理部140を含んで構成されている。
センターディレイ処理部132は、デコード処理部120からセンタースピーカ用のデコード後のオーディオデータが出力されたときに、ファントムセンター管理部220内の制御情報設定部222によって設定された「ディレイ量」に相当する時間だけ、このオーディオデータの出力タイミングを遅らせる処理を行う。
ダウンミックス処理部134は、センターディレイ処理部132から出力されたセンタースピーカ用のデコード後のオーディオデータと、それ以外の各チャンネル用のデコード後のオーディオデータとが入力されており、ファントムセンター管理部220内のDMモード決定部224、センターDM係数決定部226によって決定されたDMモードやセンターDM係数に基づいて、これら各チャンネルのオーディオデータを実際のスピーカ170の接続状態に合わせてダウンミックスする処理を行う。
例えば、センタースピーカ成分をフロント左側のスピーカ(Lf)170−1とフロント右側のスピーカ(Rf)170−2に割り振る場合には、以下の処理式を用いてそれぞれのスピーカ用のオーディオ成分D1(Lf)、D1(Rf)が計算される。
D1(Lf)=(1.0×D0(Lf))+(KL×D(C))
=(1.0×D0(Lf))+(α×(Cm+β)×D(C))
D1(Rf)=(1.0×D0(Rf))+(KR×D(C))
=(1.0×D0(Rf))+(α×(Cm−β)×D(C))
ベースマネジメント処理部136は、入力されるいずれかのチャンネルのオーディオ成分に低域成分が含まれている場合であって、このチャンネルに対応するスピーカ170が実際に接続されているがこの低域成分を再生する能力がない場合に、この低域成分を他のスピーカ170に割り振る処理を行う。例えば、リヤ左側のスピーカ(Ls)170−3とリヤ右側のスピーカ(Rs)170−4のそれぞれに対応するオーディオ成分に低域成分が含まれているが、これらのスピーカ170−3、170−4の口径が小さくて低域成分の再生が困難な場合がある。このような場合には、低域成分の再生能力に余裕があるサブウーハとしてのスピーカ170−5にこれらの低域成分を割り振る処理がベースマネジメント処理部136によって行われる。
ディレイ処理部138は、それぞれのスピーカ170−1〜170−5に対応するオーディオ成分の出力タイミングを所定時間遅らせる処理を行う。これにより、各スピーカからオーディオ音が出力されるタイミングをずらして、オーディオ音の発生位置を変更することが可能になる。
スピーカレベル調整処理部140は、スピーカ170−1〜170−5のそれぞれの間の出力レベルを調整する処理を行う。なお、上述したベースマネジメント処理部136、ディレイ処理部138、スピーカレベル調整処理部140による各処理については従来通りの処理内容である。
スピーカレベル調整処理部140から出力されるフロント左側のオーディオ成分は、デジタル−アナログ変換器(D/A)150−1においてアナログのオーディオ信号に変換され、アンプ160−1によって増幅されてスピーカ170−1から出力される。同様に、スピーカレベル調整処理部140から出力されるフロント右側のオーディオ成分は、デジタル−アナログ変換器(D/A)150−2においてアナログのオーディオ信号に変換され、アンプ160−2によって増幅されてスピーカ170−2から出力される。スピーカレベル調整処理部140から出力されるリヤ左側のオーディオ成分は、デジタル−アナログ変換器(D/A)150−3においてアナログのオーディオ信号に変換され、アンプ160−3によって増幅されてスピーカ170−3から出力される。スピーカレベル調整処理部140から出力されるリヤ右側のオーディオ成分は、デジタル−アナログ変換器(D/A)150−4においてアナログのオーディオ信号に変換され、アンプ160−4によって増幅されてスピーカ170−4から出力される。スピーカレベル調整処理部140から出力されるリヤ中央のオーディオ成分は、デジタル−アナログ変換器(D/A)150−5においてアナログのオーディオ信号に変換され、アンプ160−5によって増幅されてスピーカ170−5から出力される。
上述したデコード処理部120が分離手段に、センターディレイ処理部132が遅延手段に、ダウンミックス処理部134が合成手段に、ベースマネジメント処理部136、ディレイ処理部138、スピーカレベル調整処理部140、デジタル−アナログ変換器150、アンプ160がオーディオ音出力手段に、ダウンミックス処理部134が出力レベル変更手段に、ファントムセンター管理部220が制御手段に、設定入力部240が設定入力手段にそれぞれ対応する。
このように、センタースピーカに対応するオーディオ成分をスピーカ170−1、170−2に対応させて割り振る前にセンターディレイ処理部132によって遅延させることにより、仮想的なセンタースピーカの前後の位置を調整することが可能になる。また、センタースピーカに対応するオーディオ成分をスピーカ170−1、170−2に対応させて割り振る際にその割合を異ならせることにより、仮想的なセンタースピーカの左右の位置を調整することが可能になる。
また、ダウンミックス処理部134によるダウンミックス処理を行う際に、センタースピーカのオーディオ成分の出力レベルを変更することにより、スピーカ170−1、170−2から本来出力されるオーディオ成分の出力レベルを変更することなく、仮想的なセンタースピーカのオーディオ成分のみを変更することが可能になる。
また、ファントムセンター管理部220によって、センタースピーカのオーディオ成分を遅延させる量(ディレイ量d)や割り振る割合(ダウンミックス調整値β)を可変に設定することにより、第1のスピーカに相当する仮想的なセンタースピーカの前後の位置あるいは左右の位置を任意に調整することが可能になる。
また、利用者によって操作される設定入力部240を備えることにより、仮想的なセンタースピーカの位置調整を利用者自身の操作に応じて行うことが可能になり、利用者の意図した位置に調整することができるようになる。
なお、本発明は上記実施形態に限定されるものではなく、本発明の要旨の範囲内において種々の変形実施が可能である。上述した実施形態では、ドルビーデジタルに対応したフォーマットのオーディオデータが入力された場合について説明したが、MPEG方式で圧縮されたオーディオデータ等の他のフォーマットのオーディオデータが入力された場合にも本発明を適用することができる。
図5は、DTSに対応したオーディオデータのフォーマットを示す図である。図5に示すように、DTSのフォーマットを有するオーディオデータは、図2に示したデジタルドルビーのフォーマットを有するオーディオデータと同様に、同期フレームの集まりとして構成されている。これらの各同期フレームは、「同期情報」、「ヘッダ情報」、「DTSオーディオ・フレーム」によって構成されている。この中で、「ヘッダ情報」は、オーディオデータのデータ属性情報を示すものであり、「チャンネル配置」、「サンプリング周波数」、「LFEチャンネル」等が含まれている。「チャンネル配置」は、オーディオデータのチャンネル構成を示すものであり、6ビットでその内容が示されている。例えば、このビットが“000101b”の場合には、フロント側の左右スピーカLf、Rfとフロント側のセンタースピーカCのオーディオ成分のみが含まれ、リヤ側の左右スピーカLs、Rsとリヤ側のサブウーハSのオーディオ成分が含まれないことを示している。また、「DTSオーディオ・データ」には、ヘッダ情報内のチャンネル配置で示された複数チャンネル分のオーディオ成分に対応する符号化されたオーディオデータが含まれている。このように、DTSに対応したオーディオデータのフォーマットもドルビーデジタルに対応したデジタルデータのフォーマットと類似した内容を有しており、オーディオデータにセンタースピーカ成分が含まれる場合であってセンタースピーカが実際には接続されていない場合に本発明を適用することができる。
但し、ドルビーデジタルのフォーマットにはセンターミックスレベルCmが含まれていたが、DTSのフォーマットにはこれに対応する情報が含まれておらず、従来は固定的な値(=0.71)が用いられてダウンミックス処理が行われていた。したがって、本発明を適用する場合には、センターDM係数決定部226において計算する2種類のセンターDM係数KL、KRは以下の式で計算すればよい。
KL=α×(0.71+β)
KR=α×(0.71−β)
また、上述した実施形態では、車載用のオーディオ装置について説明したが、他の乗物に搭載された、あるいは家庭用等の乗物以外の場所で使用されるオーディオ装置についても本発明を適用することができる。
また、上述した実施形態では、フロント側のセンタースピーカ成分を他のスピーカに割り振る場合について説明したが、リヤ中央のスピーカ成分を他のスピーカに割り振る場合について本発明を適用してもよい。
また、上述した実施形態では、ドルビーデジタルのフォーマットで符号化されたオーディオデータについて説明したが、PCMフォーマット等の符号化されていないオーディオデータが含まれるオーディオデータが入力されるようにしてもよい。この場合には、デコード処理部120において、デコード処理を行う代わりに各チャンネルに対応するPCMデータを分離、抽出して出力すればよい。
また、上述した実施形態では、ダウンミックス処理部134によるダウンミックス処理を行う際に、出力レベル調整値αを用いてセンタースピーカ用のオーディオ成分の出力レベルの変更を行ったが、この変更は、ダウンミックス処理部134に入力される前、すなわちセンターディレイ処理部132の前段あるいは後段に専用の処理部を設けて行うようにしてもよい。
一実施形態のオーディオ装置の全体構成を示す図である。 図1に示したオーディオ装置に入力されるドルビーデジタルに対応したオーディオデータのフォーマットを示す図である。 本実施形態のオーディオ装置におけるスピーカと表示部の配置状態を示す図である。 本実施形態のオーディオ装置の部分的な詳細構成を示す図である。 DTSに対応したオーディオデータのフォーマットを示す図である。
符号の説明
100 データ処理部
110 データ属性情報取得部
120 デコード処理部
130 オーディオ信号処理部
132 センターディレイ処理部
134 ダウンミックス処理部
136 ベースマネジメント処理部
138 ディレイ処理部
140 スピーカレベル調整処理部
150 デジタル−アナログ(D/A)変換器
160 アンプ
170 スピーカ
200 制御部
210 チャンネル構成情報取得部
220 ファントムセンター管理部
222 制御情報設定部
224 DMモード決定部
226 センターDM係数決定部
240 設定入力部
250 表示部

Claims (16)

  1. 第1のスピーカに対応する第1のオーディオ成分と、前記第1のスピーカを挟んで配置される複数の第2のスピーカのそれぞれに対応する複数の第2のオーディオ成分とが含まれるオーディオデータが入力され、これら第1および第2のオーディオ成分を分離する分離手段と、
    前記分離手段によって分離された前記第1のオーディオ成分を遅延させる遅延手段と、
    前記遅延手段による遅延後の前記第1のオーディオ成分を複数の前記第2のスピーカのそれぞれに対応させて割り振って、前記第2のスピーカのそれぞれに対応する前記第2のオーディオ成分と合成する合成手段と、
    前記合成手段によって合成された後の複数のオーディオ成分に対応するオーディオ音を前記第2のスピーカから出力するオーディオ音出力手段と、
    を備えることを特徴とするオーディオ装置。
  2. 請求項1において、
    前記合成手段は、前記第1のオーディオ成分を複数の前記第2のスピーカのそれぞれに割り振る割合を異ならせることを特徴とするオーディオ装置。
  3. 第1のスピーカに対応する第1のオーディオ成分と、前記第1のスピーカを挟んで配置される複数の第2のスピーカのそれぞれに対応する複数の第2のオーディオ成分とが含まれるオーディオデータが入力され、これら第1および第2のオーディオ成分を分離する分離手段と、
    前記分離手段によって分離された前記第1のオーディオ成分を複数の前記第2のスピーカのそれぞれに対応させて割り振って、前記第2のスピーカのそれぞれに対応する前記第2のオーディオ成分に対して異なる割合で合成する合成手段と、
    前記合成手段によって合成された後の複数のオーディオ成分に対応するオーディオ音を前記第2のスピーカから出力するオーディオ音出力手段と、
    を備えることを特徴とするオーディオ装置。
  4. 請求項1〜3のいずれかにおいて、
    前記合成手段による合成動作の際あるいは合成動作の前に、前記第1のオーディオ成分に対応する出力レベルを変更する出力レベル変更手段をさらに備えることを特徴とするオーディオ装置。
  5. 請求項1または2において、
    前記遅延手段による遅延量を可変に設定する制御手段をさらに備えることを特徴とするオーディオ装置。
  6. 請求項2または3において、
    前記合成手段によって割り振る割合を可変に設定する制御手段をさらに備えることを特徴とするオーディオ装置。
  7. 請求項5または6において、
    利用者によって操作され、前記制御手段による設定内容の入力を行う設定入力手段をさらに備えることを特徴とするオーディオ装置。
  8. 請求項1〜7のいずれかにおいて、
    前記第1のスピーカはセンタースピーカであり、複数の前記第2のスピーカは前記センタースピーカを挟んで左右に配置された左スピーカと右スピーカであることを特徴とするオーディオ装置。
  9. 請求項8において、
    複数の前記第2のスピーカは、車室内のフロント側に設けられていることを特徴とするオーディオ装置。
  10. 請求項8において、
    前記センタースピーカの設置が想定されている位置に前記オーディオデータに対応する映像を表示する表示部が設けられていることを特徴とするオーディオ装置。
  11. 請求項1または2において、
    前記オーディオデータは、ドルビーデジタルのフォーマットを有し、
    前記オーディオデータの各同期フレーム内のオーディオ・ブロックに前記第1のスピーカに対応するセンタースピーカのオーディオ成分が含まれているとともに、実際には前記第1のスピーカが接続されていない場合に、前記遅延手段による遅延動作を行うことを特徴とするオーディオ装置。
  12. 請求項1または3において、
    前記オーディオデータは、ドルビーデジタルのフォーマットを有し、
    前記オーディオデータの各同期フレーム内のオーディオ・ブロックに前記第1のスピーカに対応するセンタースピーカのオーディオ成分が含まれているとともに、実際には前記第1のスピーカが接続されていない場合に、前記合成手段による合成動作を行うことを特徴とするオーディオ装置。
  13. 請求項1または2において、
    前記オーディオデータは、DTSのフォーマットを有し、
    前記オーディオデータの各同期フレーム内のオーディオ・フレームに前記第1のスピーカに対応するセンタースピーカのオーディオ成分が含まれているとともに、実際には前記第1のスピーカが接続されていない場合に、前記遅延手段による遅延動作を行うことを特徴とするオーディオ装置。
  14. 請求項1または3において、
    前記オーディオデータは、DTSのフォーマットを有し、
    前記オーディオデータの各同期フレーム内のオーディオ・フレームに前記第1のスピーカに対応するセンタースピーカのオーディオ成分が含まれているとともに、実際には前記第1のスピーカが接続されていない場合に、前記合成手段による合成動作を行うことを特徴とするオーディオ装置。
  15. 第1のスピーカに対応する第1のオーディオ成分と、前記第1のスピーカを挟んで配置される複数の第2のスピーカのそれぞれに対応する複数の第2のオーディオ成分とが含まれるオーディオデータが入力され、これら第1および第2のオーディオ成分を分離し、
    分離された前記第1のオーディオ成分を遅延させ、
    遅延後の前記第1のオーディオ成分を複数の前記第2のスピーカのそれぞれに対応させて割り振って、前記第2のスピーカのそれぞれに対応する前記第2のオーディオ成分と合成し、
    合成された後の複数のオーディオ成分に対応するオーディオ音を前記第2のスピーカから出力することを特徴とするオーディオ処理方法。
  16. 第1のスピーカに対応する第1のオーディオ成分と、前記第1のスピーカを挟んで配置される複数の第2のスピーカのそれぞれに対応する複数の第2のオーディオ成分とが含まれるオーディオデータが入力され、これら第1および第2のオーディオ成分を分離し、
    分離された前記第1のオーディオ成分を複数の前記第2のスピーカのそれぞれに対応させて割り振って、前記第2のスピーカのそれぞれに対応する前記第2のオーディオ成分に対して異なる割合で合成し、
    合成された後の複数のオーディオ成分に対応するオーディオ音を前記第2のスピーカから出力することを特徴とするオーディオ処理方法。
JP2003316450A 2003-09-09 2003-09-09 オーディオ装置およびオーディオ処理方法 Pending JP2005086486A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003316450A JP2005086486A (ja) 2003-09-09 2003-09-09 オーディオ装置およびオーディオ処理方法
CNB2004100768559A CN100405874C (zh) 2003-09-09 2004-09-08 音频设备和音频处理方法
US10/935,913 US20050074135A1 (en) 2003-09-09 2004-09-08 Audio device and audio processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003316450A JP2005086486A (ja) 2003-09-09 2003-09-09 オーディオ装置およびオーディオ処理方法

Publications (1)

Publication Number Publication Date
JP2005086486A true JP2005086486A (ja) 2005-03-31

Family

ID=34385932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003316450A Pending JP2005086486A (ja) 2003-09-09 2003-09-09 オーディオ装置およびオーディオ処理方法

Country Status (3)

Country Link
US (1) US20050074135A1 (ja)
JP (1) JP2005086486A (ja)
CN (1) CN100405874C (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007266967A (ja) * 2006-03-28 2007-10-11 Yamaha Corp 音像定位装置およびマルチチャンネルオーディオ再生装置
JP2008288628A (ja) * 2007-05-15 2008-11-27 Clarion Co Ltd スピーカ検出装置、チャンネル数設定装置、チャンネル数設定方法および制御プログラム
JP2008310915A (ja) * 2007-06-18 2008-12-25 Sony Corp 音声再生装置および音声再生方法
JP2010118838A (ja) * 2008-11-12 2010-05-27 Nec Electronics Corp 音響システム及びそのスピーカ配置方法
JP2010212760A (ja) * 2009-03-06 2010-09-24 Sony Corp 音響機器及び音響処理方法

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7825986B2 (en) * 2004-12-30 2010-11-02 Mondo Systems, Inc. Integrated multimedia signal processing system using centralized processing of signals and other peripheral device
US7653447B2 (en) 2004-12-30 2010-01-26 Mondo Systems, Inc. Integrated audio video signal processing system using centralized processing of signals
US8015590B2 (en) 2004-12-30 2011-09-06 Mondo Systems, Inc. Integrated multimedia signal processing system using centralized processing of signals
US8880205B2 (en) * 2004-12-30 2014-11-04 Mondo Systems, Inc. Integrated multimedia signal processing system using centralized processing of signals
US8214220B2 (en) * 2005-05-26 2012-07-03 Lg Electronics Inc. Method and apparatus for embedding spatial information and reproducing embedded signal for an audio signal
US8073702B2 (en) 2005-06-30 2011-12-06 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
AU2006266579B2 (en) * 2005-06-30 2009-10-22 Lg Electronics Inc. Method and apparatus for encoding and decoding an audio signal
JP5227794B2 (ja) * 2005-06-30 2013-07-03 エルジー エレクトロニクス インコーポレイティド オーディオ信号をエンコーディング及びデコーディングするための装置とその方法
EP1920636B1 (en) * 2005-08-30 2009-12-30 LG Electronics Inc. Apparatus and method for decoding an audio signal
US7788107B2 (en) * 2005-08-30 2010-08-31 Lg Electronics Inc. Method for decoding an audio signal
KR101169280B1 (ko) * 2005-08-30 2012-08-02 엘지전자 주식회사 오디오 신호의 디코딩 방법 및 장치
JP4859925B2 (ja) * 2005-08-30 2012-01-25 エルジー エレクトロニクス インコーポレイティド オーディオ信号デコーディング方法及びその装置
KR20070038439A (ko) * 2005-10-05 2007-04-10 엘지전자 주식회사 신호 처리 방법 및 장치
US7646319B2 (en) * 2005-10-05 2010-01-12 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7751485B2 (en) * 2005-10-05 2010-07-06 Lg Electronics Inc. Signal processing using pilot based coding
US7696907B2 (en) * 2005-10-05 2010-04-13 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7672379B2 (en) * 2005-10-05 2010-03-02 Lg Electronics Inc. Audio signal processing, encoding, and decoding
KR100857120B1 (ko) * 2005-10-05 2008-09-05 엘지전자 주식회사 신호 처리 방법 및 이의 장치, 그리고 인코딩 및 디코딩방법 및 이의 장치
JP2007116365A (ja) * 2005-10-19 2007-05-10 Sony Corp マルチチャンネル音響システム及びバーチャルスピーカ音声生成方法
US7761289B2 (en) * 2005-10-24 2010-07-20 Lg Electronics Inc. Removing time delays in signal paths
US7752053B2 (en) * 2006-01-13 2010-07-06 Lg Electronics Inc. Audio signal processing using pilot based coding
MY151722A (en) * 2006-07-07 2014-06-30 Fraunhofer Ges Forschung Concept for combining multiple parametrically coded audio sources
US8634577B2 (en) * 2007-01-10 2014-01-21 Koninklijke Philips N.V. Audio decoder
JP5071040B2 (ja) * 2007-10-22 2012-11-14 ソニー株式会社 情報処理装置、情報処理方法、プログラム並びに記録媒体
CN101633337B (zh) * 2008-07-21 2012-12-12 阿尔派株式会社 车载音频装置
EP2190221B1 (en) * 2008-11-20 2018-09-12 Harman Becker Automotive Systems GmbH Audio system
US9716959B2 (en) * 2013-05-29 2017-07-25 Qualcomm Incorporated Compensating for error in decomposed representations of sound fields
US9489955B2 (en) 2014-01-30 2016-11-08 Qualcomm Incorporated Indicating frame parameter reusability for coding vectors
US9922656B2 (en) 2014-01-30 2018-03-20 Qualcomm Incorporated Transitioning of ambient higher-order ambisonic coefficients
US9852737B2 (en) 2014-05-16 2017-12-26 Qualcomm Incorporated Coding vectors decomposed from higher-order ambisonics audio signals
US9620137B2 (en) 2014-05-16 2017-04-11 Qualcomm Incorporated Determining between scalar and vector quantization in higher order ambisonic coefficients
US9747910B2 (en) 2014-09-26 2017-08-29 Qualcomm Incorporated Switching between predictive and non-predictive quantization techniques in a higher order ambisonics (HOA) framework
CN106535059B (zh) * 2015-09-14 2018-05-08 中国移动通信集团公司 重建立体声的方法和音箱及位置信息处理方法和拾音器
CN108366316B (zh) * 2018-01-16 2019-10-08 中山市悦辰电子实业有限公司 一种满足杜比全景声标准实现的技术方法
US10313819B1 (en) * 2018-06-18 2019-06-04 Bose Corporation Phantom center image control

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63173500A (ja) * 1987-01-13 1988-07-18 Sony Corp カ−オ−デイオ装置
JPH0639300A (ja) * 1991-10-15 1994-02-15 Matsushita Seiko Co Ltd 温熱環境試験室
JP3437371B2 (ja) * 1996-03-22 2003-08-18 パイオニア株式会社 情報記録装置及び情報再生装置
US6298025B1 (en) * 1997-05-05 2001-10-02 Warner Music Group Inc. Recording and playback of multi-channel digital audio having different resolutions for different channels
KR20010006291A (ko) * 1998-02-13 2001-01-26 요트.게.아. 롤페즈 서라운드 음향 재생 시스템, 음향/시각 재생 시스템, 서라운드 신호 처리 유닛 및 입력 서라운드 신호 처리 방법
US6226616B1 (en) * 1999-06-21 2001-05-01 Digital Theater Systems, Inc. Sound quality of established low bit-rate audio coding systems without loss of decoder compatibility
JP4196509B2 (ja) * 1999-12-27 2008-12-17 ソニー株式会社 音場創出装置
US6804565B2 (en) * 2001-05-07 2004-10-12 Harman International Industries, Incorporated Data-driven software architecture for digital sound processing and equalization
JP2003061198A (ja) * 2001-08-10 2003-02-28 Pioneer Electronic Corp オーディオ再生装置
JP4257079B2 (ja) * 2002-07-19 2009-04-22 パイオニア株式会社 周波数特性調整装置および周波数特性調整方法
US7561706B2 (en) * 2004-05-04 2009-07-14 Bose Corporation Reproducing center channel information in a vehicle multichannel audio system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007266967A (ja) * 2006-03-28 2007-10-11 Yamaha Corp 音像定位装置およびマルチチャンネルオーディオ再生装置
JP2008288628A (ja) * 2007-05-15 2008-11-27 Clarion Co Ltd スピーカ検出装置、チャンネル数設定装置、チャンネル数設定方法および制御プログラム
JP2008310915A (ja) * 2007-06-18 2008-12-25 Sony Corp 音声再生装置および音声再生方法
JP2010118838A (ja) * 2008-11-12 2010-05-27 Nec Electronics Corp 音響システム及びそのスピーカ配置方法
JP2010212760A (ja) * 2009-03-06 2010-09-24 Sony Corp 音響機器及び音響処理方法

Also Published As

Publication number Publication date
US20050074135A1 (en) 2005-04-07
CN1596038A (zh) 2005-03-16
CN100405874C (zh) 2008-07-23

Similar Documents

Publication Publication Date Title
JP2005086486A (ja) オーディオ装置およびオーディオ処理方法
US5546465A (en) Audio playback apparatus and method
KR100905966B1 (ko) 홈시어터의 오디오 출력 조정 장치 및 그 방법
US20060114783A1 (en) Pseudo multi-channel play-back apparatus
KR20000053152A (ko) 기록/재생용 다중채널 오디오 강화 시스템 및 그 제공 방법
WO2020182020A1 (zh) 一种音频信号播放方法及显示设备
WO1999004602A3 (en) Method and apparatus for two channels of sound having directional cues
KR20000076214A (ko) 오디오채널 믹싱
JPH0746880B2 (ja) 音場創造装置
JP2009260458A (ja) 音響再生装置、および、これを含む映像音声視聴システム
US7920708B2 (en) Low computation mono to stereo conversion using intra-aural differences
JP2005252597A (ja) 複数音声再生装置
US20040213411A1 (en) Audio data processing device, audio data processing method, its program and recording medium storing the program
JP2007311965A (ja) デジタルオーディオ信号処理装置
CN1478371A (zh) 音频信号处理装置
KR200247762Y1 (ko) 다채널 멀티미디어 스피커 시스템
WO2002104071A1 (fr) Unite de reproduction acoustique
JP2001218300A (ja) 音場表示方法および音声信号出力装置
JPH09163500A (ja) バイノーラル音声信号生成方法及びバイノーラル音声信号生成装置
JP2000308200A (ja) 音響信号処理回路及び増幅装置
JP2009060336A (ja) 増幅装置
JPH10285698A (ja) 映像音響信号再生装置及び映像音響信号再生方法
JP2006101081A (ja) 音響再生装置
JP2001078290A (ja) 音場再生環境の自動設定装置及びスピーカ装置
JP2004328519A (ja) 音声再生装置及び映像受信装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071204