JP7326824B2 - 信号処理装置、及び信号処理方法 - Google Patents

信号処理装置、及び信号処理方法 Download PDF

Info

Publication number
JP7326824B2
JP7326824B2 JP2019072887A JP2019072887A JP7326824B2 JP 7326824 B2 JP7326824 B2 JP 7326824B2 JP 2019072887 A JP2019072887 A JP 2019072887A JP 2019072887 A JP2019072887 A JP 2019072887A JP 7326824 B2 JP7326824 B2 JP 7326824B2
Authority
JP
Japan
Prior art keywords
signal processing
processing unit
signal
channel
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019072887A
Other languages
English (en)
Other versions
JP2020170991A (ja
Inventor
良太郎 青木
明彦 須山
龍也 福山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2019072887A priority Critical patent/JP7326824B2/ja
Priority to CN202010216194.4A priority patent/CN111800730B/zh
Priority to US16/837,430 priority patent/US11182199B2/en
Priority to EP20167834.9A priority patent/EP3720150B1/en
Publication of JP2020170991A publication Critical patent/JP2020170991A/ja
Priority to US17/482,677 priority patent/US11609783B2/en
Application granted granted Critical
Publication of JP7326824B2 publication Critical patent/JP7326824B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/38Concurrent instruction execution, e.g. pipeline or look ahead
    • G06F9/3836Instruction issuing, e.g. dynamic instruction scheduling or out of order instruction execution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Stereophonic System (AREA)

Description

この発明の一実施形態は、オーディオ信号の信号処理に関する。
従来、マルチチャンネルオーディオ信号を入力し、信号処理部によって各オーディオ信号に信号処理を行い、信号処理を行ったオーディオ信号を複数のスピーカから出力するオーディオ信号処理装置があった(例えば、特許文献1を参照)。
特開2017-212573号公報
チャンネル毎に信号処理を行う信号処理装置では、オーディオ信号を入力していないチャンネルが存在する場合がある。すなわち、入力されるオーディオ信号の数が、チャンネル数よりも少ない場合、使用しないチャンネルが存在する。この場合、使用しないチャンネルのリソースが無駄になってしまう。
そこで、この発明の一実施形態は、使用していないチャンネルのリソースを有効活用できることを目的とする。
本発明の一実施形態に係る信号処理装置は、第1チャンネルのオーディオ信号を入力する第1入力部と、第2チャンネルのオーディオ信号を入力する第2入力部と、前記第1入力部に入力された前記第1チャンネルのオーディオ信号に対し、信号処理を行う第1信号処理部と、前記第2入力部に入力された前記第2チャンネルのオーディオ信号に対し、信号処理を行う第2信号処理部と、前記第2信号処理部に前記第2チャンネルのオーディオ信号を入力しない場合、前記第2信号処理部に対し、前記第1信号処理部で信号処理が行われた前記第1チャンネルのオーディオ信号を処理させる制御部とを備えている。
本発明の一実施形態によれば、使用していないチャンネルのリソースを有効活用できる。
信号処理装置の主要部の構成を示すブロック構成図である。 入力ユニットと信号処理ユニットとの接続関係を示した図である。 入力ユニットと信号処理ユニットとの接続関係であって、図3とは別の例を示した図である。 信号処理装置の動作の一例を示すフローチャートである。 オブジェクト抽出処理の一例を示すフローチャートである。 信号処理の一例を示すフローチャートである。 比較例の信号処理部の一例を示す図である。 変形例1の入力ユニットと信号処理ユニットとの接続関係を示した図である。 変形例2、3の信号処理装置の主要部の構成を示すブロック構成図である。
図1は、信号処理装置1の主要部の構成を示すブロック構成図である。本実施形態の信号処理装置1について図を参照して説明する。
信号処理装置1は、例えばパーソナルコンピュータ、セットトップボックス、オーディオレシーバ、またはパワードスピーカ等である。信号処理装置1は、コンテンツデータをデコードしてオーディオ信号を抽出する。コンテンツデータは、例えば外部の再生装置、ネットワーク、または記憶媒体から取得する。信号処理装置1は、デジタルオーディオ信号またはアナログオーディオ信号を取得してもよい。
なお、本実施形態において、特に記載が無い限り、オーディオ信号は、デジタルオーディオ信号を意味する。
信号処理装置1は、図1に示すように、入力I/F(インタフェース)11と、オブジェクト処理部12と、入力ユニット13と、信号処理ユニット14と、定位処理部15と、D/Aコンバータ16と、アンプ(AMP)17と、CPU18と、フラッシュメモリ(ROM)20と、RAM19と、バス31とを備えている。この場合、
バス31は、入力I/F11、オブジェクト処理部12、入力ユニット13、信号処理ユニット14、定位処理部15、D/Aコンバータ16、アンプ(AMP)17と、CPU18、フラッシュメモリ20及びRAM19を互いに接続する。
CPU18は、信号処理装置1を統括的に制御する。CPU18は、記憶部であるフラッシュメモリ20に記憶された所定のプログラムをRAM19に読み出す。これにより、CPU18は、各種の動作を行なう。この例でいうCPU18は、本発明の制御部に相当する。この例でいうRAM19は、本発明の一時記憶部に相当する。
入力I/F11は、HDMI(登録商標)などのインタフェースを有する。入力I/F11は、コンテンツデータを入力し、オブジェクト処理部12に出力する。また、入力I/F11は、デジタルオーディオ信号またはアナログオーディオ信号を入力してもよい。
オブジェクト処理部12は、例えば、DSPからなる。オブジェクト処理部12は、入力したコンテンツデータがオブジェクトベース方式に対応するものである場合、入力I/F11から受け取ったコンテンツデータをデコードし、オブジェクト(音源)毎のオーディオ信号及びオブジェクト毎の位置を示す位置データを抽出する。オブジェクトベース方式は、コンテンツに含まれる複数のオブジェクト(音源)を、それぞれ独立したオーディオ信号として格納している。
オブジェクト処理部12は、オブジェクト毎の抽出したオーディオ信号を複数(図2では4つ)のチャンネルに割り当てる。オブジェクト処理部12は、例えば、4つのオブジェクトのオーディオ信号を抽出した場合、抽出した4つのオーディオ信号を第1チャンネル121、第2チャンネル122、第3チャンネル123及び第4チャンネル124に割り当てる。
入力したコンテンツデータがチャンネルベース方式に対応するものである場合、オブジェクト処理部12は、入力I/F11から入力したオーディオ信号を解析して、オブジェクトの位置データを抽出する。オブジェクト処理部12は、各チャンネルのオーディオ信号のレベル、およびチャンネル間の相互相関を算出する。オブジェクト処理部12は、各チャンネルのオーディオ信号のレベル及びチャンネル間の相互相関に基づいて、音源の位置を推定する。例えば、LチャンネルとSLチャンネルの相関値が高く、LチャンネルのレベルおよびSLチャンネルのレベルが高い(所定の閾値を超える)場合、LチャンネルおよびSLチャンネルの間に音源が存在すると推定する。オブジェクト処理部12は、LチャンネルのレベルおよびSLチャンネルのレベルに基づいて、音源の位置を推定する。オブジェクト処理部12は、例えば、LチャンネルのレベルおよびSLチャンネルのレベルの比が1:1であれば、Lチャンネル及びSLチャンネルのちょうど中点に音源の位置を推定する。オブジェクト処理部12は、チャンネルの数が多いほど、音源の位置を正確に推定することができる。オブジェクト処理部12は、多数のチャンネル間の相関値を算出することで、音源の位置をほぼ一意に特定することができる。
また、オブジェクト処理部12は、オブジェクトの位置データをCPU18に入力する。
なお、以下の説明において、第1チャンネル121、第2チャンネル122、第3チャンネル123及び第4チャンネル124をまとめてチャンネル121~124と称する。
入力ユニット13及び信号処理ユニット14は、DSP10からなる。入力ユニット13は、オブジェクト処理部12によって各チャンネル121~124に割り当てられたオーディオ信号を入力する。信号処理ユニット14は、入力ユニット13が入力した各オーディオ信号にフレーム処理にてデジタル信号処理を行う。信号処理ユニット14は、信号処理後の各オブジェクトのオーディオ信号を定位処理部15に入力する。入力ユニット13及び信号処理ユニット14の詳細については後述する。
定位処理部15は、例えば、DSPからなる。定位処理部15は、CPU18の指示にしたがって、音像定位処理を行う。定位処理部15は、CPU18から指定された各オブジェクトの位置データに対応する位置に音像が定位するように、オブジェクト処理部12によって取得された各オブジェクトの位置データに基づいて、オブジェクト単位の音像定位を行う。定位処理部15は、各オブジェクトの位置データに対応する位置に音像が定位するように、各オブジェクトのオーディオ信号を複数のスピーカに所定のゲインで分配する。定位処理部15は、各スピーカに対するオーディオ信号を、D/Aコンバータ16に入力する。
なお、複数のスピーカは、例えば、室内(部屋)に配置されている。例えば、部屋の形状が直方体であれば、4つのスピーカのそれぞれが部屋の四隅の床に配置されている。また、例えば、別のスピーカは、部屋の正面に配置されている。また、例えば、別の2つのスピーカは、室内の天井に配置されている。
なお、部屋の形状は直方体に限定されない。複数のスピーカは、部屋の形状にあわせて配置されていればよい。
D/Aコンバータ16は、各オーディオ信号をアナログ信号に変換する。AMP17は、各アナログオーディオ信号を増幅して、各スピーカに入力する。
入力ユニット13及び信号処理ユニット14は、この例では、最大で4チャンネルのオブジェクト毎のオーディオ信号を入力し、それらのオーディオ信号に信号処理を行う。
入力ユニット13及び信号処理ユニット14の詳細について、図2を参照して説明する。図2は、入力ユニット13と信号処理ユニット14との接続関係を示した図である。
入力ユニット13は、図2に示すように、第1入力部131と、第2入力部132と、第3入力部133と、第4入力部134とを備えている。なお、第1入力部131、第2入力部132、第3入力部133及び第4入力部134をまとめて入力部131~134と称する。
第1入力部131は、第1チャンネル121のオーディオ信号を入力する。また第2入力部132は、第2チャンネル122のオーディオ信号を入力する。さらに、第3入力部133は、第3チャンネル123のオーディオ信号を入力する。また第4入力部134は、第4チャンネル124のオーディオ信号を入力する。
信号処理ユニット14は、第1信号処理部141と、第2信号処理部142と、第3信号処理部143と、第4信号処理部144とを備えている。なお、第1信号処理部141、第2信号処理部142、第3信号処理部143および第4信号処理部144をまとめて信号処理部141~144と称する。
第1信号処理部141は、第1入力部131に入力された第1チャンネル121のオーディオ信号に対し、信号処理を行う。第2信号処理部142は、第2入力部132に入力された第2チャンネル122のオーディオ信号に対し、信号処理を行う。第3信号処理部143は、第3入力部133に入力された第3チャンネル123のオーディオ信号に対し、信号処理を行う。第4信号処理部144は、第4入力部134に入力された第4チャンネル124のオーディオ信号に対し、信号処理を行う。
信号処理部141~144は、複数(4つの)チャンネル121~124に入力されたオーディオ信号の信号処理を1フレーム毎に処理する。CPU18は、この1フレームのリソースを、予めRAM19に確保している。
この例では、信号処理部141~144のそれぞれは、オブジェクト毎のオーディオ信号に、3種のエフェクトである、Delay、イコライザ(EQ)及びRevrbの信号処理を行う。この例では、第1信号処理部141~144のそれぞれの信号処理のエフェクト種類及び数は、同じである。
信号処理部141~144のそれぞれは、4つのチャンネル121~124のそれぞれに入力されたオーディオ信号に信号処理を行って、定位処理部15にこれらのオーディオ信号を出力する。
ここで、入力I/F11が、2つのオブジェクトのオーディオ信号を含むコンテンツデータを入力した場合について、図3を参照して説明する。図3は、入力ユニット13と信号処理ユニット14との接続関係である。図3の例は、オブジェクト処理部12が抽出したオーディオ信号の数が、チャンネル121~124の数よりも少ない場合を示す。
オブジェクト処理部12は、コンテンツデータからオブジェクト毎のオーディオ信号を抽出する。オブジェクト処理部12が抽出したオーディオ信号を、第1チャンネル121及び第3チャンネル123に割り当てる。オブジェクト処理部12は、第2チャンネル122及び第4チャンネル124にオーディオ信号を入力しない。すなわち、この例では、第2チャンネル122及び第4チャンネル124を使用しない。オブジェクト処理部12は、抽出したオーディオ信号のオブジェクトの位置データをさらに抽出する。
この場合、信号処理装置1は、使用していない第2チャンネル122に対応する第2信号処理部142に対し、第1チャンネル121に割り当てられたオーディオ信号を処理させる。また、信号処理装置1は、使用していない第4チャンネル124に対応する第4信号処理部144に対し、第3チャンネル123に割り当てられたオーディオ信号を処理させる。
より詳細には、CPU18は、図3に示すように、第1信号処理部141の出力側の出力端41と第2信号処理部142の入力側の入力端42とを接続する。さらに、CPU18は、第3信号処理部143の出力側の出力端43と第4信号処理部144の入力側の入力端44とを接続する。
これにより、第1チャンネル121及び第3チャンネル123のオーディオ信号は、2つのDelayと2つのEQと2つのReverbの信号処理の効果を享受する。信号処理部141~144は1フレーム内の処理であるから、第1チャンネル121及び第3チャンネル123のオーディオ信号が、2つのDelayと2つのEQと2つのReverbの信号処理を処理してもリソースを増やす必要はない。
例えば、第1チャンネル121のオーディオ信号は、第2信号処理部142のReverbを使用することで、第2信号処理部142を使用しない場合と比較して、2倍の長さ(タップ長)を1フレーム内で実現することができる。したがって、信号処理装置1は、第1チャンネル121及び第3チャンネル123のオーディオ信号が2つのDelayと2つのEQと2つのReverbの信号処理を組み合わせて使用することで、既に確保されたリソースで多様な表現を実施することができる。
信号処理ユニット14は、信号処理を行った第1チャンネル121のオーディオ信号を、第2信号処理部142の出力側から定位処理部15に出力する。また、信号処理ユニット14は、信号処理を行った第3チャンネル123のオーディオ信号を、第4信号処理部144の出力側から定位処理部15に出力する。
信号処理装置1の動作の一例について、図4、図5及び図6を参照して説明する。図4は、信号処理装置1の動作の一例を示すフローチャートである。図5は、オブジェクト処理部12によるオブジェクト抽出処理の一例を示すフローチャートである。図6は、信号処理ユニット14による信号処理の一例を示すフローチャートである。以下の説明において、コンテンツデータが、4つのオブジェクトのオーディオ信号を含む場合と、2つのオブジェクトのオーディオ信号を含む場合とで説明する。
入力I/F11がコンテンツデータを入力すると(S11:Yes)、オブジェクト処理部12は、オブジェクト抽出処理を行う(S12)。オブジェクト処理部12がオブジェクト抽出処理を終了すれば、信号処理ユニット14が信号処理を行う(S13)。信号処理ユニット14が信号処理を終了すれば、定位処理部15による音像定位を行う(S14)。
オブジェクト抽出処理について図5を参照して説明する。オブジェクト処理部12は、コンテンツデータからオブジェクト毎のオーディオ信号を抽出する(S21)。オブジェクト毎のオーディオ信号の数(4つ)がチャンネル数(4つ)と同じ場合(S22:Yes)、オブジェクト処理部12は、抽出した4つのオーディオ信号を、4つのチャンネル121~124に割り当てる(S23)。オブジェクト処理部12は、4つのチャンネル121~124のそれぞれに割り当てたオーディオ信号を、対応する入力部131~134に入力する(S24)。オブジェクト処理部12は、オブジェクト毎の位置データを抽出する(S25)。
一方、オーディオ信号の数(2つ)がチャンネル数(4つ)と異なる(少ない)場合(S22:No)、オブジェクト処理部12は、抽出した2つのオーディオ信号を、第1チャンネル121及び第3チャンネル123のそれぞれに割り当てる(S26)。オブジェクト処理部12は、処理をS24に移行する。この場合、第2入力部132及び第4入力部134は、オーディオ信号を入力しない。
なお、位置データ抽出(S25)は、オブジェクト処理部12がオーディオ信号を抽出した後であれば、どのタイミングでもよい。また、オブジェクト処理部12は、自動で、抽出した2つのオーディオ信号を、第1チャンネル121及び第3チャンネル123のそれぞれに割り当てる構成でもよい。また、オブジェクト処理部12は外部からの設定、例えばユーザによる設定、によって、抽出した2つのオーディオ信号を、第1チャンネル121及び第3チャンネル123のそれぞれに割り当ててもよい。
信号処理について図6を参照して説明する。第2入力部132及び第4入力部134は、オーディオ信号を入力した場合(S31:Yes、S32:Yes)、複数の信号処理部141~144は、複数の入力部131~134のそれぞれが入力したオーディオ信号に信号処理を行う(S33)。信号処理部141~144のそれぞれは、信号処理を行ったオーディオ信号を定位処理部15に出力する(S34)。
一方、第2入力部132がオーディオ信号を入力していなければ(S31:No)、CPU18は、第1信号処理部141と第2信号処理部142とを接続する(S35)。また、第4入力部134がオーディオ信号を入力していなければ(S32:No)、CPU18は、第3信号処理部143と第4信号処理部144とを接続する(S36)。信号処理ユニット14は、処理をS33に移行する。この場合、信号処理ユニット14は、第2信号処理部142及び第4信号処理部144から、信号処理を行ったオーディオ信号を定位処理部15に出力する(S34)。
なお、CPU18は、第1信号処理部141と第2信号処理部142とを自動的に接続する構成でもよい。また、CPU18は、外部からの設定、例えばユーザによる設定、によって第1信号処理部141と第2信号処理部142とを接続してもよい。
ところで、例えば、比較例の従来の信号処理装置は、図7で示されるように、所望のオーディオ信号の信号処理(例えばエフェクトの数)を増加させるために、新たに次フレームを追加していた。比較例の信号処理装置は、次フレームを追加することで、新たなリソースをRAMに確保する必要がある。このように、比較例の従来の信号処理装置では、CPUが新たなリソースをRAMに確保させることで、使用するRAMの容量が増え、かつ信号処理に係る時間が長くなるため、出力遅延が発生する。
一方、本実施形態の信号処理装置1は、第1チャンネル121のオーディオ信号の信号処理(例えばエフェクトの数)を増加させたい場合、第2チャンネル122を使用していなければ、第1チャンネル121のオーディオ信号に第1信号処理部141及び第2信号処理部142の信号処理を、第1信号処理部141の信号処理、第2信号処理部142の信号処理の順で行う。また、信号処理装置1は、第3チャンネル123のオーディオ信号に信号処理(例えばエフェクトの数)を増加させたい場合、第4チャンネル124が使用されていなければ、第3チャンネル123のオーディオ信号に第3信号処理部143及び第4信号処理部144の信号処理を、第3信号処理部143の信号処理、第4信号処理部144の信号処理の順で行う。
本実施形態の信号処理装置1は、1フレームにおける信号処理は、第1信号処理部141、第2信号処理部142、第3信号処理部143、第4信号処理部144の順で行われる(図2参照)。すなわち、例えば、第2信号処理部142に出力側と第1信号処理部141の入力側とが接続されて、第2信号処理部142、第1信号処理部141の順で処理されれば、従来の信号処理装置(図7参照)と同じものになる。
これにより、本実施形態の信号処理装置1は、各チャンネル121~124のオーディオ信号に対して、1フレームで信号処理が行えるように予めリソースを確保しているので、使用していないチャンネルを有効活用することができる。
また、本実施形態の信号処理装置1は、1フレームで、当該オーディオ信号を処理する。これにより本実施形態の信号処理装置1は、比較例の信号処理装置と比較しても信号処理の増加による遅延を生じさせない。また、本実施形態の信号処理装置1、信号処理の増加による遅延を生じさせないことで、リアルタイム性が低下しない。
なお、本実施形態の信号処理装置1の定位処理部15は、本発明において必須の構成ではない。
(変形例)
変形例1の信号処理装置1について図8を参照して説明する。変形例の信号処理装置1は、1つのオブジェクトのオーディオ信号を含むコンテンツデータを入力する例である。なお、上述の実施形態の信号処理装置1と同じ構成に関しては説明を省略する。
図8は、変形例1の入力ユニット13と信号処理ユニット14Aとの接続関係を示した図である。
変形例1の入力ユニット13の第1入力部131は、図8に示すように、第1チャンネル121のオーディオ信号を入力する。第2入力部132、第3入力部133及び第4入力部134は、オーディオ信号を入力しない。すなわち、この例では、第2チャンネル122、第3チャンネル123及び第4チャンネル124は使用しない。
CPU18は、第2信号処理部142、第3信号処理部143及び第4信号処理部144に対し、第1チャンネル121のオーディオ信号を処理させる。
より詳細には、CPU18は、第1信号処理部141の出力側の出力端41と第2信号処理部142の入力側の入力端42とを接続する。また、CPU18は、第2信号処理部142の出力側の出力端45と第3信号処理部143の入力側の入力端46とを接続する。さらに、CPU18は、第3信号処理部143の出力側の出力端43と第4信号処理部144の入力側の入力端44とを接続する。
第1信号処理部141は、第1入力部131から第1チャンネル121のオーディオ信号を入力する。信号処理部141~144は、第1チャンネル121のオーディオ信号の信号処理を行う。信号処理ユニット14Aは、第4信号処理部144から信号処理を行ったオーディオ信号を定位処理部15に出力する。
このように、変形例1の信号処理装置1の信号処理ユニット14Aは、第1チャンネル121のオーディオ信号に、信号処理部141~144の信号処理を行うことができる。すなわち、オーディオ信号の数がチャンネル数よりも少なければ、使用していないチャンネルに対応する信号処理部を使用して、処理を増加させることができる。この場合も、変形例1の信号処理装置1は、1フレームで信号処理を行っているので、リソースを有効活用でき、かつ遅延を生じさせない。
したがって、変形例1の信号処理装置1は、第1チャンネル121のオーディオ信号に多数のエフェクトを使用することで、既に確保されたリソースでより多様な表現を実施することができる。
変形例2の信号処理装置1Aについて図9を参照して説明する。図9は、変形例2の信号処理装置1Aの主要部の構成を示すブロック構成図である。変形例2の信号処理装置1Aは、図9に示すように、ユーザインタフェース(I/F)21と、表示部22とをさらに備えていることが、上述の実施形態及び変形例1の信号処理装置1と異なる。なお、上述の実施形態の信号処理装置1と同じ構成に関しては説明を省略する。
表示部22は、表示器(図示しない)に使用していないチャンネルを表示させる表示器、例えば、パーソナルコンピュータのモニタである。
また、ユーザI/F21は、複数のチャンネル121~124毎に信号入力指示ボタン(図示しない)等を備えている。例えば、第2チャンネル122が使用されていない場合、ユーザが第2チャンネル122に対応する信号入力指示ボタンを押下すると、CPU18は、使用していない第2チャンネル122に対応する第2信号処理部142に対し、第1チャンネル121のオーディオ信号を処理させる。
これにより、変形例2の信号処理装置1Aは、表示部22によって、ユーザが使用していないチャンネルを把握することができる。また、変形例2の信号処理装置1Aは、ユーザの指示に応じて、使用していないチャンネルのリソースを有効活用することができる。さらに、変形例2の信号処理装置1Aは、1フレームでオーディオ信号を処理しているので、ユーザI/F21がユーザからの指示を受け付けた場合でも、リアルタイム性の低下を軽減できる。
なお、ユーザI/F21は、無線又は有線で、ユーザが操作可能な外部機器と接続されていてもよい。
また、表示部22は、例えば、タッチパネルを積層した表示器であり、ユーザの操作を受け付けるためのGUI(グラフィカルユーザインタフェース)画面を表示してもよい。この場合、表示部22がGUI画面に信号入力指示ボタンを表示し、ユーザI/F21は、ユーザの操作に応じて、指示を受け付ける。
また、変形例2の信号処理装置1Aは、変形例1の信号処理装置1と組み合わせて使用してもよい。
変形例3の信号処理装置1Aについて、図9を参照して説明する。なお、上述の実施形態の信号処理装置1と同じ構成に関しては説明を省略する。
変形例3の信号処理装置1Aは、ユーザによってオブジェクトの音像位置を変更する。この場合、ユーザI/F21は、ユーザがGUI(図示しない)画面を使用することで、変更指示を受け付ける。GUIには、例えば、部屋及び各スピーカの位置を示す模倣図が表示されている。すなわち、ユーザが音像位置を変更させたい場所を、GUIをタッチ又はスワイプすることで、ユーザI/F21は、音像位置の変更指示及び変更位置を受け付ける。CPU18は、変更位置に応じて音像が定位するように、各オブジェクトのオーディオ信号を各スピーカに所定のゲインで分配する。
なお、変形例3の信号処理装置1Aは、変形例1及び2の信号処理装置1、1Aと組み合わせて使用してもよい。
これにより、変形例3の信号処理装置1Aは、ユーザによって、音像位置を変更することができる。
なお、本実施形態及び変形例で実行されるプログラムは、自装置のフラッシュメモリ20に記憶している必要はない。例えば、信号処理装置1、1Aは、サーバ等の他装置から適宜プログラムをダウンロードして、RAM19に読み出してもよい。
また、本実施形態及び変形例の信号処理装置1、1Aでは、4つのチャンネルを備える例で説明したが、これに限定されない。本発明の信号処理装置1、1Aは、4チャンネルよりも少ないチャンネルを備えて、これらのチャンネルのオーディオ信号の信号処理を1フレームで処理するように構成されてもよい。また、本発明の信号処理装置1は、4チャンネルよりも多いチャンネルを備えて、これらのチャンネルのオーディオ信号の信号処理を1フレームで処理するように構成されていてもよい。
また、第1信号処理部141の信号処理の種類は、第2信号処理部142と異なっていてもよい。この場合、例えば、第1信号処理部141は、Delay、EQ、及びReverbの他にコーラスなどのエフェクトを追加してもよい。
このようにすれば、本実施形態及び変形例の信号処理装置1、1Aは、既に確保されたリソースで多種多様な表現を実施することができる。
本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1、1A…信号処理装置
12…オブジェクト抽出部
15…定位処理部
19…RAM(一時記憶部)
22…表示部
19…CPU(制御部)
21…ユーザインタフェース
22…表示部(表示器)
121…第1チャンネル
122…第2チャンネル
131…第1入力部
132…第2入力部
141…第1信号処理部
142…第2信号処理部

Claims (18)

  1. 第1チャンネルのオーディオ信号を入力する第1入力部と、
    第2チャンネルのオーディオ信号を入力する第2入力部と、
    前記第1入力部に入力された前記第1チャンネルのオーディオ信号に対し、信号処理を行う第1信号処理部と、
    前記第2入力部に入力された前記第2チャンネルのオーディオ信号に対し、信号処理を行う第2信号処理部と、
    前記第2信号処理部に前記第2チャンネルのオーディオ信号を入力しない場合、前記第2信号処理部に対し、前記第1信号処理部で信号処理が行われた前記第1チャンネルのオーディオ信号を処理させる制御部と、を備え、
    前記第1信号処理部および前記第2信号処理部は、それぞれ同じ所定フレーム以内に信号処理を行う様に構成され、
    前記第2信号処理部は、前記第1信号処理部で信号処理が行われた後の前記第1チャンネルのオーディオ信号を前記所定フレーム内で処理する、
    信号処理装置。
  2. コンテンツデータからオブジェクト毎にオーディオ信号を抽出し、抽出された前記オブジェクト毎のオーディオ信号を前記第1チャンネル又は前記第2チャンネルに割り当てるオブジェクト処理部をさらに備えた、
    請求項1に記載の信号処理装置。
  3. 前記オブジェクト処理部によって取得された前記オブジェクトの位置を示す位置データに基づいて、前記オブジェクトの音像定位を行う、定位処理部をさらに備えた、
    請求項2に記載の信号処理装置。
  4. 前記制御部は、外部から受け取った音像位置の変更指示に応じて、前記定位処理部の音像位置を制御する、
    請求項3に記載の信号処理装置。
  5. 前記第1信号処理部の信号処理の種類は、前記第2信号処理部の信号処理の種類と同じである。
    請求項1乃至4の何れかに記載の信号処理装置。
  6. 前記第1信号処理部の信号処理の種類は、前記第2信号処理部の信号処理の種類と異なる、
    請求項1乃至4の何れかに記載の信号処理装置。
  7. 一時的に情報を記憶する一時記憶部をさらに備え、
    前記制御部は、前記第1信号処理部のリソース及び前記第2信号処理部のリソースを前記一時記憶部に予め確保する、
    請求項1乃至6の何れかに記載の信号処理装置。
  8. 前記制御部は、前記第1信号処理部及び前記第2信号処理部に対し、複数種類の信号処理を行わせる、
    請求項1乃至7の何れかに記載の信号処理装置。
  9. ユーザによる信号入力指示を受け付けるユーザインタフェースをさらに備え、
    前記制御部は、前記ユーザインタフェースが信号入力指示を受け付ければ、前記第2信号処理部に前記第2チャンネルのオーディオ信号を入力せず、前記第2信号処理部に対して、前記第1チャンネルのオーディオ信号を処理させる、
    請求項1乃至8の何れかに記載の信号処理装置。
  10. 第1チャンネルのオーディオ信号を入力し、
    第2チャンネルのオーディオ信号を入力し、
    入力された前記第1チャンネルのオーディオ信号に対し、第1信号処理部によって信号処理を行い、
    入力された前記第2チャンネルのオーディオ信号に対し、第2信号処理部によって信号処理を行い、
    前記第2信号処理部に前記第2チャンネルのオーディオ信号を入力しない場合、前記第2信号処理部に対し、前記第1チャンネルのオーディオ信号を処理させ
    前記第1信号処理部および前記第2信号処理部は、それぞれ同じ所定フレーム以内に信号処理を行う様に構成され、
    前記第2信号処理部は、前記第1信号処理部で信号処理が行われた後の前記第1チャンネルのオーディオ信号を前記所定フレーム内で処理する、
    信号処理方法。
  11. オブジェクト毎にオーディオ信号を抽出し、
    抽出された前記オブジェクト毎のオーディオ信号を前記第1チャンネル又は前記第2チャンネルに割り当てる、
    請求項10に記載の信号処理方法。
  12. 取得された前記オブジェクトの位置を示す位置データに基づいて、前記オブジェクトの音像定位を行う、
    請求項11に記載の信号処理方法。
  13. 外部から前記音像定位の位置の指示を受け取った場合、前記オブジェクトの前記音像定位の位置を制御する、
    請求項12に記載の信号処理方法。
  14. 前記第1信号処理部の信号処理の種類は、前記第2信号処理部の信号処理の種類と同じである。
    請求項10乃至13の何れかに記載の信号処理方法。
  15. 前記第1信号処理部の信号処理の種類は、前記第2信号処理部の信号処理の種類と異なる、
    請求項10乃至13の何れかに記載の信号処理方法。
  16. 前記第1信号処理部のリソース及び前記第2信号処理部のリソースを一時的に情報を記憶する一時記憶部に予め確保する、
    請求項10乃至15の何れかに記載の信号処理方法。
  17. 前記第1信号処理部及び前記第2信号処理部は、複数種類の信号処理を行う、
    請求項10乃至16のいずれかに記載の信号処理方法。
  18. ユーザによる信号入力指示を受け付け、
    前記信号入力指示を受け付ければ、前記第2信号処理部に前記第2チャンネルのオーディオ信号を入力せず、前記第2信号処理部に対して、前記第1チャンネルのオーディオ信号を処理する、
    請求項10乃至17のいずれかに記載の信号処理方法。
JP2019072887A 2019-04-05 2019-04-05 信号処理装置、及び信号処理方法 Active JP7326824B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019072887A JP7326824B2 (ja) 2019-04-05 2019-04-05 信号処理装置、及び信号処理方法
CN202010216194.4A CN111800730B (zh) 2019-04-05 2020-03-25 信号处理装置及信号处理方法
US16/837,430 US11182199B2 (en) 2019-04-05 2020-04-01 Signal processor and signal processing method
EP20167834.9A EP3720150B1 (en) 2019-04-05 2020-04-02 Signal processor and signal processing method
US17/482,677 US11609783B2 (en) 2019-04-05 2021-09-23 Signal processor and signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019072887A JP7326824B2 (ja) 2019-04-05 2019-04-05 信号処理装置、及び信号処理方法

Publications (2)

Publication Number Publication Date
JP2020170991A JP2020170991A (ja) 2020-10-15
JP7326824B2 true JP7326824B2 (ja) 2023-08-16

Family

ID=70165894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019072887A Active JP7326824B2 (ja) 2019-04-05 2019-04-05 信号処理装置、及び信号処理方法

Country Status (4)

Country Link
US (2) US11182199B2 (ja)
EP (1) EP3720150B1 (ja)
JP (1) JP7326824B2 (ja)
CN (1) CN111800730B (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175623A (ja) 1999-12-22 2001-06-29 Matsushita Electric Ind Co Ltd 信号処理系統設定装置及び方法
JP2008242868A (ja) 2007-03-28 2008-10-09 Yamaha Corp 信号処理用集積回路
JP2016134767A (ja) 2015-01-20 2016-07-25 ヤマハ株式会社 オーディオ信号処理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070263884A1 (en) * 2006-05-09 2007-11-15 Bellsouth Intellectual Property Corporation Audio Mixer Apparatus
RU2551797C2 (ru) 2006-09-29 2015-05-27 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способы и устройства кодирования и декодирования объектно-ориентированных аудиосигналов
EP2323289A3 (en) * 2007-03-28 2011-12-07 Yamaha Corporation Mixing signal processing apparatus and mixing signal processing integrated circuit
US9378752B2 (en) * 2012-09-05 2016-06-28 Honda Motor Co., Ltd. Sound processing device, sound processing method, and sound processing program
EP3048818B1 (en) * 2015-01-20 2018-10-10 Yamaha Corporation Audio signal processing apparatus
JP6540600B2 (ja) 2016-05-25 2019-07-10 ヤマハ株式会社 効果音生成装置、効果音生成方法およびプログラム
CN111741412B (zh) * 2020-06-29 2022-07-26 京东方科技集团股份有限公司 显示装置、发声控制方法及发声控制装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175623A (ja) 1999-12-22 2001-06-29 Matsushita Electric Ind Co Ltd 信号処理系統設定装置及び方法
JP2008242868A (ja) 2007-03-28 2008-10-09 Yamaha Corp 信号処理用集積回路
JP2016134767A (ja) 2015-01-20 2016-07-25 ヤマハ株式会社 オーディオ信号処理装置

Also Published As

Publication number Publication date
CN111800730B (zh) 2022-03-22
EP3720150A1 (en) 2020-10-07
JP2020170991A (ja) 2020-10-15
CN111800730A (zh) 2020-10-20
US11182199B2 (en) 2021-11-23
US20200319916A1 (en) 2020-10-08
US20220012090A1 (en) 2022-01-13
US11609783B2 (en) 2023-03-21
EP3720150B1 (en) 2022-10-26

Similar Documents

Publication Publication Date Title
EP3175634B1 (en) Audio device
KR102081336B1 (ko) 오디오 시스템, 오디오 장치 및 오디오 장치의 채널 맵핑 방법
AU2014295217B2 (en) Audio processor for orientation-dependent processing
EP2937993A1 (en) Acoustic processing device
EP2672729A1 (en) Audio output apparatus and method for outputting audio
US10547927B1 (en) Systems and methods for processing an audio signal for replay on stereo and multi-channel audio devices
US20230292049A1 (en) Method for Reproducing Content
JP6064927B2 (ja) オーディオ機器、音声処理方法、音声処理プログラム、音声出力方法および音声出力プログラム
US10237653B2 (en) Speaker apparatus, electronic apparatus connected therewith, and controlling method thereof
JP7326824B2 (ja) 信号処理装置、及び信号処理方法
EP3599775B1 (en) Systems and methods for processing an audio signal for replay on stereo and multi-channel audio devices
JP6541933B2 (ja) 信号処理装置及び信号処理方法
JP5267808B2 (ja) 音響出力システム及び音響出力方法
JP6597248B2 (ja) システムおよび制御方法
US10209952B2 (en) Content reproduction device, content reproduction system, and control method for a content reproduction device
JP6311784B2 (ja) テレビジョン受像機、音声処理方法、音声処理プログラム、オーディオ機器、音声出力方法および音声出力プログラム
JP7412090B2 (ja) オーディオシステム
JP7412091B2 (ja) オーディオ装置およびオーディオシステム
WO2022176640A1 (ja) 音信号配信方法、音信号配信装置、および音信号配信システム
EP3537728B1 (en) Connection state determination system for speakers, acoustic device, and connection state determination method for speakers
KR101858572B1 (ko) 터치스크린이 가능한 dsp 컨트롤러 모듈을 포함하는 음향 장치 및 그 제어 방법
JP5610025B2 (ja) 音響処理装置
KR20150079514A (ko) 오디오 장치 및 이의 오디오 신호 전송 방법, 그리고 오디오 시스템
JP2019205084A (ja) 音声処理装置およびその制御方法
JP2014064136A (ja) 音声調整卓、音声調整システム及び音声調整方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230717

R151 Written notification of patent or utility model registration

Ref document number: 7326824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151