JP2020005052A - 音声処理装置 - Google Patents

音声処理装置 Download PDF

Info

Publication number
JP2020005052A
JP2020005052A JP2018120670A JP2018120670A JP2020005052A JP 2020005052 A JP2020005052 A JP 2020005052A JP 2018120670 A JP2018120670 A JP 2018120670A JP 2018120670 A JP2018120670 A JP 2018120670A JP 2020005052 A JP2020005052 A JP 2020005052A
Authority
JP
Japan
Prior art keywords
audio
audio signal
clock
audio data
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018120670A
Other languages
English (en)
Inventor
小林 淳一
Junichi Kobayashi
淳一 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Onkyo Corp
Original Assignee
Onkyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Onkyo Corp filed Critical Onkyo Corp
Priority to JP2018120670A priority Critical patent/JP2020005052A/ja
Publication of JP2020005052A publication Critical patent/JP2020005052A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】単一の音声処理部によって、互いに非同期である複数系統のデジタル音声信号に含まれる複数の音声データに対する音声処理を可能にする。【解決手段】AVレシーバー10には、互いに非同期の第1系統デジタル音声信号及び第2系統デジタル音声信号が入力される。SRC22は、第1系統デジタル音声信号の第1クロック(LRCK1、BCK1)及び第2系統デジタル音声信号の第2クロック(LRCK2、BCK2)に基づいて、第2系統デジタル音声信号の第2音声データ(SDATA2)を第1クロックに同期した同期第2音声データ(SDATA2’)に変換する。DSP24は、第1系統デジタル音声信号及び同期第2音声データをあたかも単一系統のおデジタル音声信号とみなし、第1音声データ及び同期第2音声データに対して音声処理を実行する。【選択図】図1

Description

本発明は、音声処理装置に関し、特に、複数系統の音声信号の出力が可能な音声処理装置に関する。
従来、複数系統の音声信号の出力が可能な音声処理装置が知られている。例えば、第1BD(Blu-ray(登録商標) Disc)プレーヤーからの第1系統の音声信号、及び、第2BDプレーヤーからの第2系統の音声信号が入力され、第1系統及び第2系統の音声信号をそれぞれ異なるスピーカー(例えば複数の空間(ゾーン)に設置された複数のスピーカー)に出力するAVレシーバーが知られている。
一方、音声処理装置は、例えばDSP(Digital Signal Processor)などの音声処理部を有しているのが一般的である。音声処理部においては、例えば、デコード処理あるいはポストプロセッシング処理などの音声処理が行われる。
例えば、特許文献1には、DSPを備えるAVアンプであって、2つのBDプレーヤーからの2系統の音声データのいずれかがDSPに入力され、DSPが、入力された音声データに対して音声処理を行うAVアンプが開示されている。
特許第5488478号公報
ところで、音声処理部は、クロックに基づいて、当該クロックに同期した音声データの音声処理を行う。このようなクロックは、音声処理部に入力されるデジタル音声信号に含まれている。例えば、I2Sのデータ規格に準じたデジタル音声信号には、クロックとしてLRCK、BCK、MasterClock、当該クロックに同期した音声データとしてシリアルデータであるSDATAが含まれている。すなわち、音声処理部は、当該デジタル音声信号に含まれるクロックに基づいて、当該デジタル音声信号に含まれる音声データの処理を行う。
従来、音声処理部は、デジタル音声信号の入力系統が1つであり、すなわちクロックの入力系統が1つであった。したがって、音声処理部は、入力された1つのクロックに同期する単一系統の音声データのみが処理可能であって、互いに非同期である複数系統のデジタル音声信号を処理することができなかった。上述の特許文献1においても、AVアンプには複数系統のデジタル音声信号が入力されているが、DSPには、当該複数のデジタル音声信号から選択された単一系統のデジタル音声信号が入力されている。
したがって、従来の音声処理装置においては、互いに非同期である複数系統のデジタル音声信号のうちの1系統のデジタル音声信号に対してしか音声処理部における音声処理を行うことができなかった。なお、複数系統のデジタル音声信号に対して音声処理を行うために、音声処理部を複数設けることも考えられるが、この手法だとコストアップ、あるいは、基板面積拡大による音声処理装置のサイズアップなどの問題が生じてしまう。
本発明の目的は、単一の音声処理部によって、互いに非同期である複数系統のデジタル音声信号に含まれる複数の音声データに対する音声処理を可能にすることにある。
本発明は、第1クロック及び前記第1クロックに同期した第1音声データを含む第1系統デジタル音声信号、及び、前記第1クロックとは非同期の第2クロック及び前記第2クロックに同期した第2音声データを含む第2系統デジタル音声信号を処理する音声処理装置であって、前記第1クロック及び前記第2クロックに基づいて、前記第2音声データを前記第1クロックに同期した同期第2音声データに変換する変換部と、前記第1系統デジタル音声信号、及び、前記同期第2音声データが入力され、前記第1音声データ及び前記同期第2音声データの音声処理を行う音声処理部と、を備えることを特徴とする音声処理装置である。
望ましくは、クロックを出力するクロック出力部、をさらに備え、外部機器から入力された前記第1系統デジタル音声信号の入力が停止した場合に、前記クロック出力部からの前記クロックが前記第1クロックとして前記変換部に入力される、ことを特徴とする。
望ましくは、前記クロック出力部は、アナログ音声信号をデジタル音声信号に変換するADコンバータであり、前記音声処理装置は、外部機器から入力されたデジタル音声信号と、前記ADコンバータが出力したデジタル音声信号とのいずれかを、前記第1系統デジタル音声信号として選択する音声信号選択部、をさらに備え、前記音声信号選択部は、外部機器から入力されたデジタル音声信号の入力が停止した場合に、前記ADコンバータが出力するクロックを前記第1クロックとして前記変換部に入力する、ことを特徴とする。
望ましくは、前記音声処理部は、前記第1系統デジタル音声信号のサンプリング周波数が変更された場合に、前記音声処理をしていない前記同期第2音声データの音量を徐々に減少させながら出力し、音量が徐々に減少していく前記音声処理をしていない前記同期第2音声データに、前記音声処理をしていない前記同期第2音声データの音量が0になった後、又は、0に移行する途中に、前記音声処理がされた前記同期第2音声データの音量を徐々に増大させながら加算して出力する、ことを特徴とする。
望ましくは、前記第2系統デジタル音声信号が前記変換部及び前記音声処理部を経由して前記同期第2音声データが外部に出力される第1出力経路と、前記第2系統デジタル音声信号が前記変換部及び前記音声処理部を経由せずに前記第2音声データが外部に出力される第2出力経路とを切り替える出力経路切替部、をさらに備えることを特徴とする。
望ましくは、前記音声処理部により音声処理された、前記第1音声データ又は前記第1音声データに基づく第1系統アナログ音声信号は、メインゾーンに出力され、前記音声処理部により音声処理された、前記同期第2音声データ又は前記同期第2音声データに基づく第2系統アナログ音声信号は、メインゾーンとは異なるゾーンに対して出力される、ことを特徴とする。
本発明によれば、単一の音声処理部によって、互いに非同期である複数系統のデジタル音声信号に含まれる複数の音声データに対する音声処理を可能にすることができる。
本実施形態に係るAVレシーバーの構成概略図である。 SRCにて第2音声データ(SDATA2)が第1クロック(BCK1)に同期した同期第2音声データ(SDATA2’)に変換される様子を示す概略図である。 本実施形態に係るDSPの構成概略図である。 第1系統デジタル音声信号のサンプリングレートが変更されたときの同期第2音声データ(SDATA2’)のクロスフェード処理の結果を示す概念図である。
以下、本発明の実施形態について説明する。
図1は、本実施形態に係る音声処理装置としてのAVレシーバー10の構成概略図である。AVレシーバー10は、複数系統の音声信号の入力を受け付け、複数系統の音声信号を出力するものである。例えば、AVレシーバー10は、第1音源(例えばBDプレーヤー)から入力された第1系統の音声信号をメインゾーンに設置されたスピーカーへ出力し、第2音源(例えばDAP(Digital Audio Player))から入力された第2系統の音声信号をメインゾーンとは異なるゾーン2に設置されたスピーカーへ出力することができる。このように、AVレシーバー10はマルチゾーンへの出力が可能な音声処理装置である。なお、本実施形態では音声処理装置がAVレシーバー10であるが、音声処理装置としては、以下に説明する機能を有している限りにおいて、どのような装置であってもよい。以下、AVレシーバー10の各部について説明する。
第1デジタル入力端子12Dは、例えばHDMI(登録商標) 端子、S/PDIF端子、あるいはワイヤレス受信機などを含んで構成される。第1デジタル入力端子12Dには、外部機器から、クロック及び当該クロックに同期した音声データが入力される。本明細書では、クロックと、当該クロックに同期した音声データを合わせて「デジタル音声信号」と記載する。なお、本明細書において単に「音声信号」と記載する場合は、デジタル音声信号のみならず、アナログ音声信号も含まれる。AVレシーバー10内で処理されるデジタル音声信号はI2S規格に準じた信号である。
デジタル音声信号に含まれる音声データは、音声コンテンツを表すシリアルデータである。図1においては音声データはSDATAと記載されている。デジタル音声信号に含まれるクロックには、L(左)chとR(右)chを識別するための信号であるLRCK、及び、音声データの取り込みタイミングを示す信号であるBCKが含まれる。なお、クロックには、これらの他、デジタル音声信号の動作基準となるMasterClockが含まれるが、本明細書及び図面においてはMasterClockの記載は省略する。
第1デジタル入力端子12Dに入力された音声データをSDATAaと、第1デジタル入力端子12Dに入力されたクロックをLRCKa、BCKaと記載する。
第1アナログ入力端子12Aは、例えばRCA端子などを含んで構成される。第1アナログ入力端子12Aには、外部機器からアナログ音声信号が入力される。本実施形態では、第1アナログ入力端子12Aには2chのアナログ音声信号が入力され、当該アナログ音声信号の左チャンネルをLchbと、右チャンネルをRchbと記載する。
ADC14は、ADコンバータであり、第1アナログ入力端子12Aに入力されたアナログ音声信号をデジタル音声信号に変換する。具体的には、ADC14は、AVレシーバー10が有するクロック発振回路などから供給されるクロックに基づいて、アナログ音声信号(Lchb、Rchb)をデジタル音声信号に変換して出力する。ADC14が出力する音声データをSDATAbと記載し、ADC14が出力するクロックをLRCKb、BCKbと記載する。
本実施形態では、ADC14は、アナログ音声信号(Lchb、Rchb)の入力がないときであっても、クロック(LRCKb、BCKb)を出力し続ける。
音声信号選択部としてのセレクタ16は、第1デジタル入力端子12Dに入力されたデジタル音声信号(SDATAa、LRCKa、BCKa)と、ADC14が出力したデジタル音声信号(SDATAb、LRCKb、BCKb)とのいずれかを、後述のDSP24に入力する第1系統デジタル音声信号として選択する。セレクタ16は、AVレシーバー10の制御部(不図示)からの制御信号に基づいて第1系統デジタル音声信号を選択する。
例えば、セレクタ16は、第1デジタル入力端子12Dにデジタル音声信号が入力され第1アナログ入力端子12Aにアナログ音声信号の入力がない場合、第1デジタル入力端子12Dに入力されたデジタル音声信号(SDATAa、LRCKa、BCKa)を第1系統デジタル音声信号として選択する。一方、第1デジタル入力端子12Dにデジタル音声信号の入力がなく第1アナログ入力端子12Aにアナログ音声信号が入力されている場合、ADC14が出力したデジタル音声信号(SDATAb、LRCKb、BCKb)を第1系統デジタル音声信号として選択する。また、セレクタ16は、第1デジタル入力端子12Dと第1アナログ入力端子12Aの両方に音声信号が入力されている場合は、第1デジタル入力端子12Dに入力されたデジタル音声信号(SDATAa、LRCKa、BCKa)を第1系統デジタル音声信号として選択する。
セレクタ16の出力である、第1系統デジタル音声信号の音声データ(第1音声データ)をSDATA1と記載し、第1系統デジタル音声信号のクロック(第1クロック)をLRCK1、BCK1と記載する。
第2デジタル入力端子18Dは、第1デジタル入力端子12D同様、例えばHDMI端子、S/PDIF端子、あるいはワイヤレス受信機などを含んで構成される。第2デジタル入力端子18Dには、第2系統デジタル音声信号が入力される。第2系統デジタル音声信号の音声データ(第2音声データ)をSDATA2と記載し、第2系統デジタル音声信号のクロック(第2クロック)をLRCK2、BCK2と記載する。
本実施形態では、第1系統デジタル音声信号と第2系統デジタル音声信号とは非同期であるとする。具体的には、LRCK1とLRCK2とが非同期であり、BCK1とBCK2が非同期であり、それ故、SDATA1とSDATA2とも非同期である。
AVレシーバー10としては、第2系統のアナログ音声信号が入力される第2アナログ入力端子、第2系統のアナログ音声信号をデジタル音声信号に変換するADC、及び、第2デジタル入力端子18Dに入力されたデジタル音声信号と、当該ADCが出力したデジタル音声信号とのいずれかを第2系統デジタル音声信号として選択するセレクタを有していてもよいが、図1においてはそれらの図示は省略されている。また、AVレシーバー10としては、第1及び第2系統の音声信号のみならず、3以上の系統の音声信号を入力可能となっていてもよい。
変換部としてのSRC22はサンプリングレートコンバータであり、入力されたデジタル音声信号のサンプリングレート(サンプリング周波数)を変換する。本実施形態においては、SRC22には、第1系統デジタル音声信号の第1クロック(LRCK1、BCK1)、及び、第2系統音声信号(すなわち第2音声データ(SDATA2)及び第2クロック(LRCK2BCK2))が入力される。その上で、SRC22は、第1クロック及び第2クロックに基づいて、第2音声データを第1クロックに同期するように変換し、第1クロックに同期した同期第2音声データを出力する。図1では、同期第2音声データはSDATA2’と記載されている。
図2に、SRC22において第2音声データ(SDATA2)が同期第2音声データ(SDATA2’)に変換され様子が示されている。図2(a)には、第2音声データ(SDATA2)、第2クロック(BCK2)、及び第1クロック(BCK1)のタイミングチャートが示されている。図2(a)に示した第2系統デジタル音声信号は、正しくは、「10101010」を表すものである。SDATA2とBCK2とは同期しているため、当然ながらBCK2に基づいて(BCK2の立ち上がりのタイミングで)SDATA2を取り込めば、正しく「10101010」のデータを得ることができる。一方、SDATA2とBCK1は非同期であるため、BCK1に基づいてSDATA2を取り込むと「01010100」となってしまい、正しいデータを得ることができない。
まず、SRC22は、第1クロックと第2クロックに基づいて、第1系統デジタル音声信号と第2系統デジタル音声信号のサンプリングレートが異なると判定した場合には、第2系統デジタル音声信号のサンプリングレートを第1系統デジタル音声信号のサンプリングレートに合わせるように変換する。
さらに、SRC22は、第1クロックと第2クロックに基づいて、両クロックのタイミング差Δtを算出する。例えば、図2(a)に示すように、SRC22は、BCK1の立ち上がりタイミングとBCK2の立ち上がりタイミングを検出し、両タイミングの差をタイミング差Δtとして算出する。そして、図2(b)に示すように、SRC22は、SDATA2の位相をタイミング差Δt分遅らせる。
上述の処理によって、第2音声データ(SDATA2)が、第1クロックに同期した同期第2音声データ(DATA2’)に変換される。同期第2音声データSDATA2’はDSP24に入力される。
音声処理部としてのDSP24は、入力されたデジタル音声信号に対する音声処理を実行する。DSP24が実行する音声処理としては、デコード処理及びポストプロセッシング処理が含まれる。デコード処理は、Lch及びRchの2ch分のシリアルデータである音声データをマルチチャンネルに対応した複数ラインのデータに変換する処理である。ポストプロセッシング処理は、リスニングモードの設定などの音場処理、あるいは、イコライジング処理などである。本実施形態におけるDSP24は、デコード処理により、入力されたデジタル音声信号を最大11.1chで出力可能となっているが、DSP24が出力可能なチャンネル数はこれに限られるものではない。
DSP24の入力系統は1系統である。しかし、上述のように、本実施形態では、DSP24には、第1系統デジタル音声信号(第1音声データ(SDATA1)、第1クロック(LRCK1、BCK1))、及び、第1クロックに同期した同期第2音声データ(SDATA2’)が入力される。したがって、DSP24としては、第1音声データと同期第2音声データとをあたかも単一系統のデジタル音声信号としてみなすことができ、DSP24は、第1音声データと第2音声データの両方に対して音声処理を行うことができる。
本実施形態においては、DSP24は、第1音声データ(SDATA1)に対してデコード処理を行うことにより、第1音声データを9.1chのマルチチャンネル音声データに変換して出力している。さらに、DSP24は上述のように最大11.1ch出力可能であるから、DSP24は、同期第2音声データ(SDATA2’)を2chの音声データとして出力している。もちろん、DSP24は、第1音声データと同期第2音声データのチャンネル数の合計が出力可能なチャンネル数以下となる限りにおいて、第1音声データと同期第2音声データのチャンネル数の組み合わせを適宜選択して出力することができる。DSP24が出力する第1音声データ及び同期第2音声データのチャンネル数はユーザにより決定されてよい。
このように、DSP24は、単一系統のマルチチャンネルの音声データを出力するが、当該マルチチャンネルには、実質的に複数系統の音声データが含まれている。
DSP24が出力するマルチチャンネルの音声データのうち、9.1ch分を占める第1音声データ(L1/R1、C1/SW1、SL1/SR1、SBL1/SBR1、HL1/HR1)はDAC26に入力され、2ch分を占める第2音声データ(L2/R2)はDAC28に入力される。また、DSP24からは、第1クロック(LRCK1、BCK1)がDAC26及び28の両方に出力される。
DAC26及び28は、DAコンバータである。DAC26は、第1クロック(LRCK1、BCK1)に基づいて、デジタルデータである第1音声データを第1系統アナログ音声信号に変換する。第1系統アナログ音声信号は、その後、増幅回路などを経由して音声出力部(不図示)から出力される。本実施形態では、第1系統アナログ音声信号は、メインゾーン(ゾーン1)に配置されたスピーカーに対して出力される。なお、第1音声データは、デジタルデータのままメインゾーンに配置された他の音声処理装置に対して出力されてもよい。
同様に、DAC28は、第1クロック(LRCK1、BCK1)に基づいて、デジタルデータである同期第2音声データを第2系統アナログ音声信号に変換する。第2系統アナログ音声信号は、その後、増幅回路などを経由して音声出力部(不図示)から出力される。本実施形態では、第2系統アナログ音声信号は、メインゾーンとは異なるゾーン2に配置されたスピーカーに対して出力される。なお、同期第2音声データも、デジタルデータのままゾーン2に配置された他の音声処理装置に対して出力されてもよい。
出力経路切替部としてのセレクタ30は、DSP24からの第1クロック(LRCK1、BCK1)と音声処理された第2音声データ(L2/L2)の第1信号セット、及び、第2デジタル入力端子18Dからの第2クロック(LRCK2、BCK2)と音声処理されていない第2音声データ(SDATA2)の第2信号セットが入力され、第1信号セットと第2信号セットのいずれかをDAC28に出力する。セレクタ16同様、セレクタ30は、AVレシーバー10の制御部からの制御信号に基づいて、DAC28に出力する信号を選択する。例えば、制御部はユーザの指示に応じてセレクタ30に制御信号を送信する。これにより、セレクタ30はユーザの指示に応じてDAC28に出力する信号を選択する。以下、セレクタ30がDSP24からの第1信号セットをDAC28に出力するものとして説明する。
以上説明した通り、本実施形態に係るAVレシーバー10においては、第1系統デジタル音声信号がDSP24に入力され、第2系統デジタル音声信号の第2音声データは、第1クロックに同期するように変換された上でDSP24に入力される。これにより、DSP24が複数系統の音声データに対して音声処理を行うことを可能にしている。
なお、AVレシーバー10が3系統以上の音声信号の入力及び出力が可能である場合、第3系統以降のデジタル音声信号にそれぞれ対応してSRC22が設けられ、第3系統以降のデジタル音声信号に含まれる音声データも第1クロックに同期するように変換された上でDSP24に入力される。これにより、DSP24は、3以上の複数系統の音声データも単一系統の音声信号とみなして処理可能となる。
本実施形態においては、SRC22は、第1クロックに基づいて第2音声データの変換処理を行う。したがって、第1デジタル入力端子12Dから入力されたデジタル音声信号が第1系統デジタル音声信号として選択されており、当該第1系統デジタル音声信号に基づく第1系統の音声信号がメインゾーンに出力され、第2系統デジタル音声信号に基づく第2系統の音声信号がゾーン2に出力されている状態において、第1デジタル入力端子12Dへのデジタル音声信号の入力が停止(すなわち第1系統デジタル音声信号が停止)すると、SRC22あるいはDSP24への第1クロックの供給も停止してしまい、その結果として第2系統の音声信号が出力できなくなる。
上述のように、ADC14は、アナログ音声信号の入力がないときであっても、クロック(LRCKb、BCKb)を出力し続ける。したがって、外部機器からの第1系統デジタル音声信号に基づく第1系統の音声信号がメインゾーンに出力され、第2系統デジタル音声信号に基づく第2系統の音声信号がゾーン2に出力されている状態において、第1系統デジタル音声信号が停止した場合に、セレクタ16は、ADC14が出力するクロック(LRCKb、BCKb)を選択してLRCK1、BCK1として出力し、SRC22及びDSP24に入力する。これにより、外部機器からの第1系統デジタル音声信号が停止したとしても、第2系統の音声信号の出力を継続することができる。
このように、ADC14はクロック出力部としても機能する。なお、外部機器からの第1系統デジタル音声信号が停止した際に、第1クロックに相当するクロックをSRC22及びDSP24に供給できる限りにおいて、クロック出力部はADC14以外であってもよい。
また、DSP24に入力されているデジタル音声信号のサンプリングレートが変更された場合、DSP24内部(特に後述の信号処理部)の処理上、音が途切れてしまう場合がある。単一系統の音声信号の入出力を行う場合、DSP24に入力されているデジタル音声信号のサンプリングレートは、ユーザが当該単一系統の音声信号を出力している音源装置を操作することによって変更される(つまりユーザ操作に応じて変更される)ために、音が途切れてしまったとしてもユーザはそれほど気にならないと考えられる。
しかしながら、AVレシーバー10のように、複数系統の音声信号の入出力を行い、且つ、第1系統デジタル音声信号のサンプリングレートの変更に伴って同期第2音声データのサンプリングレートも変更される場合、メインゾーンにいるユーザが第1系統デジタル音声信号のサンプリングレートを変更した際に、ゾーン2に出力されている音声において音途切れが発生することになってしまう。これにより、ゾーン2にいるユーザにしてみれば、不意に音途切れが発生することとなり、問題となる。
以下、AVレシーバー10における上記問題に対する処理について説明する。まず、図3を参照しながら、DSP24の内部構造を説明する。図3には、DSP24のブロック部の一部分、特に、同期第2音声データ(SDATA2’)の処理経路が示されている。
信号処理部24aは、同期第2音声データに対して上述のデコード処理あるいはポストプロセッシング処理を行う。第1系統デジタル音声信号のサンプリングレートの変更に伴って同期第2音声データのサンプリングレートが変更された直後においては、信号処理部24aは安定的に音声処理を行うことができずに、音声処理された同期第2音声データにおいて音途切れが生じる場合がある。信号処理部24aにより音声処理された同期第2音声データはフェードイン処理部24bに入力される。
フェードイン処理部24bは、入力された音声データをフェードインさせる処理を行う。すなわち、フェードイン処理部24bは、処理開始時点から、信号処理部24aにより音声処理された同期第2音声データの音量を徐々に増大させながら出力する。フェードイン処理部24bがフェードイン処理を開始する処理開始時点はDSP24が決定できる。フェードイン処理は所定の処理時間内において行われ、処理開始時点から当該処理時間経過後は、フェードイン処理部24bの入力と出力は同等となる。
フェードアウト処理部24cは、入力された音声データをフェードアウトさせる処理を行う。フェードアウト処理部24cには、同期第2音声データが入力される。すなわち、フェードアウト処理部24cは、処理開始時点から、信号処理部24aによる音声処理をしていない同期第2音声データの音量を徐々に減少させながら出力する。フェードアウト処理部24cがフェードアウト処理を開始する処理開始時点もDSP24が決定できる。フェードアウト処理は所定の処理時間内において行われ、処理開始時点から当該処理時間経過後は、フェードアウト処理部24cの出力は0となる。
ミキサー24dは、フェードイン処理部24bからの音声処理された同期第2音声データ及びフェードアウト処理部24cからの音声処理されていない同期第2音声データが入力され、当該2つの同期第2音声データをクロスフェードして出力する。あるいは、ミキサー24dは、当該2つの同期第2音声データを加算して(重ね合わせて)出力することもできる。通常時においては、ミキサー24dは、フェードイン処理部24bからの音声処理された同期第2音声データを出力する。
以上のような構成において、まず、DSP24は、第1系統デジタル音声信号のサンプリングレートの変更に伴って変更される第1クロック(LRCK1、BCK1)の周波数の変化を検出する。それにより、DSP24は第1系統デジタル音声信号のサンプリングレート(すなわち同期第2音声データのサンプリングレート)が変更されたことを検出する。
第1系統デジタル音声信号のサンプリングレートの変更を検出した場合、ミキサー24dは、フェードアウト処理部24cからの同期第2音声データを選択して出力すると共に、フェードアウト処理部24cはフェードアウト処理を開始する。これにより、同期第2音声データのサンプリングレートが変更された直後においては、DSP24は、信号処理部24aにおける音声処理をしていない同期第2音声データをフェードアウトさせながら出力することとなる。
第1系統デジタル音声信号のサンプリングレートの変更が検出された所定時間後、ミキサー24dは、フェードイン処理部24bからの音声処理された同期第2音声データと、フェードアウト処理部24cからの同期第2音声データとを重ね合わせて出力する。これにより、DSP24は、フェードアウトしていく音声処理されていない同期第2音声データと、フェードインしてくる音声処理された同期第2音声データとをオーバーラップさせて(クロスフェードさせて)出力する。
当該所定時間は、信号処理部24aが、サンプリングレートが変更された同期第2音声データが入力されてから、当該同期第2音声データに対する音声処理を安定して行うことができるようになるまでの時間よりも長い時間が設定される。
その後、フェードイン処理の処理時間及びフェードアウト処理の処理時間が経過すると、DSP24からは、サンプリングレート変更後の同期第2音声データであって、信号処理部24aにおける音声処理された同期第2音声データが出力される。
図4に、第1系統デジタル音声信号のサンプリングレートが変更されてからのDSP24が出力する同期第2音声データの音声波形が概念的に示されている。上述の処理を行うことで、第1系統デジタル音声信号(すなわち同期第2音声データ)のサンプリングレートが変更された際の同期第2音声データの音途切れが防止される。
なお、上記においては、ミキサー24dは、フェードイン処理部24bからの同期第2音声データと、フェードアウト処理部24cからの同期第2音声データとを重ね合わせて出力していたが、ミキサー24dは、フェードアウト処理部24cからの同期第2音声データの音量が0になった後に、フェードイン処理部24bからの同期第2音声データを出力するようにしてもよい。ただし、この場合であっても、同期第2音声データの音途切れがユーザに感知できないように、フェードアウト処理及びフェードイン処理の処理時間を比較的短く取り、フェードアウト処理部24cからの同期第2音声データの音量が0になった後、直ちに、フェードイン処理部24bからの同期第2音声データを出力する。
また、AVレシーバー10においては、セレクタ30により、第2系統デジタル音声信号の出力経路を、第2系統デジタル音声信号がSRC22及びDSP24を経由して、音声処理された同期第2音声データが外部に出力される第1出力経路と、第2系統デジタル音声信号がSRC22及びDSP24を経由せずに、音声処理されていない第2音声データが外部に出力される第2出力経路との間で切り替えることが可能となっている。これにより、AVレシーバー10においては、第2音声データに対する音声処理が可能でありながら、ユーザが第2音声データに対する音声処理を希望しない場合には、第2系統デジタル音声信号の出力経路を第2出力経路に切り替えることができる。これにより、第1系統デジタル音声信号の影響(例えばサンプリングレートの変更)を全く受けることなく、第2系統の音声信号を出力することが可能となる。
以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。
例えば、本実施形態では音声処理装置がAVレシーバー10であったが、音声処理装置としては、BDやDVDなどの音楽ソースを再生するプレイヤ部を有するプレイヤであってもよく、その場合、複数系統のデジタル音声信号のうちの一つが、プレイヤ部が音声ソースから取得したものであってもよい。
10 音声処理装置、12D 第1デジタル入力端子、12A 第1アナログ入力端子、14 ADC、16,30 セレクタ、18D 第2デジタル入力端子、22 SRC、24 DSP、24a 信号処理部、24b フェードイン処理部、24c フェードアウト処理部、24d ミキサー、26,28 DAC。

Claims (6)

  1. 第1クロック及び前記第1クロックに同期した第1音声データを含む第1系統デジタル音声信号、及び、前記第1クロックとは非同期の第2クロック及び前記第2クロックに同期した第2音声データを含む第2系統デジタル音声信号を処理する音声処理装置であって、
    前記第1クロック及び前記第2クロックに基づいて、前記第2音声データを前記第1クロックに同期した同期第2音声データに変換する変換部と、
    前記第1系統デジタル音声信号、及び、前記同期第2音声データが入力され、前記第1音声データ及び前記同期第2音声データの音声処理を行う音声処理部と、
    を備えることを特徴とする音声処理装置。
  2. クロックを出力するクロック出力部、
    をさらに備え、
    外部機器から入力された前記第1系統デジタル音声信号の入力が停止した場合に、前記クロック出力部からの前記クロックが前記第1クロックとして前記変換部に入力される、
    ことを特徴とする請求項1に記載の音声処理装置。
  3. 前記クロック出力部は、アナログ音声信号をデジタル音声信号に変換するADコンバータであり、
    前記音声処理装置は、
    外部機器から入力されたデジタル音声信号と、前記ADコンバータが出力したデジタル音声信号とのいずれかを、前記第1系統デジタル音声信号として選択する音声信号選択部、
    をさらに備え、
    前記音声信号選択部は、外部機器から入力されたデジタル音声信号の入力が停止した場合に、前記ADコンバータが出力するクロックを前記第1クロックとして前記変換部に入力する、
    ことを特徴とする請求項2に記載の音声処理装置。
  4. 前記音声処理部は、前記第1系統デジタル音声信号のサンプリング周波数が変更された場合に、前記音声処理をしていない前記同期第2音声データの音量を徐々に減少させながら出力し、音量が徐々に減少していく前記音声処理をしていない前記同期第2音声データに、前記音声処理をしていない前記同期第2音声データの音量が0になった後、又は、0に移行する途中に、前記音声処理がされた前記同期第2音声データの音量を徐々に増大させながら加算して出力する、
    ことを特徴とする請求項1から3のいずれか1項に記載の音声処理装置。
  5. 前記第2系統デジタル音声信号が前記変換部及び前記音声処理部を経由して前記同期第2音声データが外部に出力される第1出力経路と、前記第2系統デジタル音声信号が前記変換部及び前記音声処理部を経由せずに前記第2音声データが外部に出力される第2出力経路とを切り替える出力経路切替部、
    をさらに備えることを特徴とする請求項1から4のいずれか1項に記載の音声処理装置。
  6. 前記音声処理部により音声処理された、前記第1音声データ又は前記第1音声データに基づく第1系統アナログ音声信号は、メインゾーンに出力され、
    前記音声処理部により音声処理された、前記同期第2音声データ又は前記同期第2音声データに基づく第2系統アナログ音声信号は、メインゾーンとは異なるゾーンに対して出力される、
    ことを特徴とする請求項1から5のいずれか1項に記載の音声処理装置。
JP2018120670A 2018-06-26 2018-06-26 音声処理装置 Pending JP2020005052A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018120670A JP2020005052A (ja) 2018-06-26 2018-06-26 音声処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018120670A JP2020005052A (ja) 2018-06-26 2018-06-26 音声処理装置

Publications (1)

Publication Number Publication Date
JP2020005052A true JP2020005052A (ja) 2020-01-09

Family

ID=69100614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018120670A Pending JP2020005052A (ja) 2018-06-26 2018-06-26 音声処理装置

Country Status (1)

Country Link
JP (1) JP2020005052A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113645540A (zh) * 2020-04-24 2021-11-12 矽统科技股份有限公司 数字音频阵列电路
US11399250B2 (en) 2020-04-24 2022-07-26 Silicon Integrated Systems Corp. Digital audio array circuit

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11150788A (ja) * 1997-11-14 1999-06-02 Yamaha Corp オーディオシステム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11150788A (ja) * 1997-11-14 1999-06-02 Yamaha Corp オーディオシステム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113645540A (zh) * 2020-04-24 2021-11-12 矽统科技股份有限公司 数字音频阵列电路
US11399250B2 (en) 2020-04-24 2022-07-26 Silicon Integrated Systems Corp. Digital audio array circuit
CN113645540B (zh) * 2020-04-24 2022-11-08 矽统科技股份有限公司 数字音频阵列电路

Similar Documents

Publication Publication Date Title
JP4830644B2 (ja) コントロール機器、同期補正方法および同期補正プログラム
JPWO2009107202A1 (ja) 音響信号処理装置及び音響信号処理方法
JP2020005052A (ja) 音声処理装置
US20050080500A1 (en) Audio device and playback method in audio device
EP1758428A1 (en) Acoustical signal processing apparatus
US20190200151A1 (en) Audio data processing device and control method for an audio data processing device
JP2013179570A (ja) 再生装置
JP2009277277A (ja) 音声処理装置
JP2009289385A (ja) デジタルオーディオ信号処理装置、及び方法
JP2007150406A (ja) マルチチャンネル音声信号再生装置
JP5067240B2 (ja) 遅延制御装置
US7928879B2 (en) Audio processor
JP5488478B2 (ja) 音声処理装置
JP6046433B2 (ja) ミキシング装置
CN114173274B (zh) 音频处理芯片、多声道系统与音频处理方法
US20100030352A1 (en) Signal processing device
JP2009060336A (ja) 増幅装置
JP5477402B2 (ja) 音声処理装置
JP5304923B1 (ja) 音声処理装置
JP6549322B2 (ja) オーディオデータ制御装置、オーディオデータ送信装置、オーディオデータ送受信方法、およびオーディオデータ送信プログラム
JP2018129662A (ja) 信号処理装置
JP3117299U (ja) 音声信号処理装置
KR100264328B1 (ko) 디지털 오디오의 페이드 아우트/인 조정장치 및 방법
JP2007184861A (ja) オーディオ再生装置
JP2010282699A (ja) 外部音声入力装置及びそのミュート制御方法

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20210108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210601

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220609

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220610

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221129