JP4972032B2 - Sound collecting device, sound collecting method, program thereof, and recording medium thereof - Google Patents
Sound collecting device, sound collecting method, program thereof, and recording medium thereof Download PDFInfo
- Publication number
- JP4972032B2 JP4972032B2 JP2008136394A JP2008136394A JP4972032B2 JP 4972032 B2 JP4972032 B2 JP 4972032B2 JP 2008136394 A JP2008136394 A JP 2008136394A JP 2008136394 A JP2008136394 A JP 2008136394A JP 4972032 B2 JP4972032 B2 JP 4972032B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- sound
- right channel
- left channel
- source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Circuit For Audible Band Transducer (AREA)
- Stereophonic Arrangements (AREA)
Description
この発明は、例えば、音源から発せられた音響信号を収音する収音装置、収音方法、そのプログラム、その記録媒体に関する。 The present invention relates to, for example, a sound collection device that collects an acoustic signal emitted from a sound source, a sound collection method, a program thereof, and a recording medium thereof.
従来、ユーザが所望する音響信号を感度よく収音するために、単一指向特性を持つマイクロホンが用いられている。例えば非特許文献1に記載されているように、単一指向特性を持つマイクロホンには様々な種類がある。
従来の単一指向特性を持つマイクロホンは、指向性の向きがほぼ限定されており、音源(話者)が複数の場合や、音源がある領域に偏って発生している場合に、マイクロホンの向きをユーザが変更しなければ、指向性の向きを変えることができなかった。 Conventional microphones with unidirectional characteristics have almost limited directivity direction, and the direction of the microphone when there are multiple sound sources (speakers) or when the sound source is biased to a certain region. If the user did not change the direction of directivity could not be changed.
この発明の収音装置は、入力部と、スイッチング処理部と、加算部と、を有する。入力部には、4つ以上の収音部で収音された収音信号から、左チャネル信号の元である左チャネル元信号および右チャネル信号の元である右チャネル元信号を選択するための選択情報が入力される。スイッチング処理部は、選択情報を用いて、左チャネル元信号および右チャネル元信号とを選択する。加算部は、各々の左チャネル元信号を加算することで左チャネル信号を求め、各々の右チャネル元信号を加算することで右チャネル信号を求める。 The sound collection device of the present invention includes an input unit, a switching processing unit, and an addition unit. The input unit is for selecting a left channel original signal that is the source of the left channel signal and a right channel original signal that is the source of the right channel signal from the collected sound signals collected by the four or more sound collecting units. Selection information is entered. The switching processing unit selects the left channel original signal and the right channel original signal using the selection information. The adding unit obtains a left channel signal by adding the respective left channel original signals, and obtains a right channel signal by adding the respective right channel original signals.
この発明の収音装置であれば、複数の収音部(例えば、マイクロホン)を有しており、これらの収音部から、左チャネルの収音信号(以下、「左チャネル信号」という。)として収音する収音部と、右チャネルの収音信号(以下、「右チャネル信号」という。)として収音する収音部と、ユーザの手動もしくは自動で選択することで、容易に指向性を変化させ、感度よくステレオ収音を行うことが出来る。 The sound collection device of the present invention has a plurality of sound collection units (for example, microphones), and from these sound collection units, a left channel sound collection signal (hereinafter referred to as “left channel signal”). The directivity can be easily selected by manually or automatically selecting the sound collection unit that collects the sound and the sound collection unit that collects the sound as the right channel sound collection signal (hereinafter referred to as the “right channel signal”). The sound can be collected with high sensitivity.
以下に、発明を実施するための最良の形態を示す。なお、同じ機能を持つ構成部や同じ処理を行う過程には同じ番号を付し、重複説明を省略する。 The best mode for carrying out the invention will be described below. In addition, the same number is attached | subjected to the process which performs the structure part which has the same function, and the same process, and duplication description is abbreviate | omitted.
図1に実施例1の収音装置100の機能構成例を示す。この発明の収音装置は、指向性を容易に変化できるものであり、実施例1の収音装置100は、手動で、指向性を変化させるものである。収音装置100は、スイッチング処理部4、加算部6、入力部8とを有する。収音装置100は4つ以上の収音部2q(4≦q≦Qとし、qおよびQは整数とする。)に接続される。収音部2qの数は偶数であることが好ましく、収音部は、例えば、単一指向性マイクロホンなどが好ましい。また、以下の説明では収音部が4つの場合(Q=4)を説明する。図1に示すように、それぞれの収音部2qは円周に沿って等角度間隔(図1の例では90度)で配置させ、対向する収音部の正面2aq(図1では収音部21の正面2a1のみ図示)を、お互いに逆向きにかつ外側に向かせて配置させることが好ましい。そして、この実施例の収音装置は、左チャネルと右チャネルと分けて収音する(ステレオ収音)ことを前提としている。
FIG. 1 shows a functional configuration example of the sound collection device 100 according to the first embodiment. The sound collecting device of the present invention can easily change the directivity, and the sound collecting device 100 of the first embodiment manually changes the directivity. The sound collection device 100 includes a switching processing unit 4, an addition unit 6, and an input unit 8. The sound collection device 100 is connected to four or more sound collection units 2 q (4 ≦ q ≦ Q, where q and Q are integers). The number of
ここで、「指向性を変化させる」ということについて説明する。以下の説明では、収音部21、22でそれぞれ収音された収音信号(収音部21、22からの出力信号)P1、P2、(以下では、「左チャネル元信号」という。)それぞれを加算して左チャネル信号PLとし、収音部23、24でそれぞれ収音された収音信号(収音部23、24からの出力信号)P3、P4、(以下では、「右チャネル元信号」という。)それぞれを加算して右チャネル信号PRとすることを状態1の処理とする。また、収音部21、24で収音された収音信号P1、P4、それぞれを加算して左チャネル信号PLとし、収音部22、23で収音された収音信号P2、P3、それぞれを加算して右チャネル信号PRとすることを状態2の処理とする。そしてこの実施例1では、ユーザにより入力部8から状態1の処理または状態2の処理を行うかを決める選択情報が入力される。
Here, “changing directivity” will be described. In the following description, the
図2に4つの収音部21〜24それぞれが本来持つ指向性パターンA1〜A4(変化前の指向性パターン)の例を破線で模式的に示す。以下の説明では、「指向性パターン」を単に、「指向性」という。更に、図2に状態1の処理の場合の収音部21、22の指向性A1、A2を合成した(変化後の)指向性BLおよび、収音部23、24の指向性A3、A4を合成した(変化後の)指向性BRを一点鎖線で示す。図2、後述する図3の例では、収音部21〜24が本来持つ指向性Aを表す曲線はハート形をしているものとすると、合成後の指向性BL、BRを表す曲線は略楕円状になる。つまり、状態1の処理では、収音部21、22が一体となり、左チャネル信号用の収音部(指向性はBL)を形成し、収音部23、24が一体となり、右チャネル信号用の収音部(指向性はBR)を形成しているともいえる。
FIG. 2 schematically shows an example of directivity patterns A 1 to A 4 (directivity patterns before change) inherent to each of the four
次に図3に状態2の処理の場合の収音部21〜24の指向性A1〜A4を破線で示し、変化後の指向性BL(A2、A3を合成)、BR(A1、A4を合成)を一点鎖線で示す。状態2の処理の場合は、上述のように、収音部21、24で収音された収音信号P1、P4、それぞれを加算して左チャネル信号PLとし、収音部22、23で収音された収音信号P2、P3、それぞれを加算して右チャネル信号PRとする。つまり、状態2の処理では、収音部21、24が一体となり、左チャネル信号用の収音部(指向性はBL)を形成し、収音部22、23が一体となり、右チャネル信号用の収音部(指向性はBR)を形成しているともいえる《「指向性を変化させる」の説明終わり》。
Next, FIG. 3 shows the
この実施例1の収音装置100では、ユーザは、収音部が4つの場合には、状態1(図2記載)または状態2(図3記載)にするかを選択(実施例1ではユーザ自身が選択)することで、容易に指向性を変化させることが出来る。 In the sound collection device 100 according to the first embodiment, when the number of sound collection units is four, the user selects whether the state 1 (described in FIG. 2) or the state 2 (described in FIG. 3) is set (in the first embodiment, the user The directivity can be easily changed by selecting it by itself.
以下、図1を用いて処理の流れを説明する。また、図4に処理フローを示す。
まず、入力部8から、ユーザにより選択情報が入力される(ステップS2)。ここで選択情報とは、Q個(上記説明ではQ=4)の収音部2qで収音された収音信号から、左チャネル信号の元である左チャネル元信号および右チャネル信号の元である右チャネル元信号を選択するための情報である。図2、図3の例は、状態1の場合であると、左チャネル元信号は収音信号P1、P2が該当し、右チャネル元信号は収音信号P3、P4が該当する。そして、状態2の場合であると、左チャネル元信号は収音信号P1、P4が該当し、右チャネル元信号は収音信号P2、P3が該当する。
The processing flow will be described below with reference to FIG. FIG. 4 shows a processing flow.
First, selection information is input from the input unit 8 by the user (step S2). Here, the selection information refers to the left channel source signal and the right channel signal source, which are the sources of the left channel signal, from the collected sound signals collected by the Q sound collecting units 2 q (Q = 4 in the above description). This is information for selecting the right channel original signal. 2 and 3, in the case of
スイッチング処理部4は、入力部8から入力された選択情報を用いて、左チャネル元信号および右チャネル元信号とを選択する(ステップS4)。例えば、状態1の処理についての選択情報が入力部8から入力された場合には、収音信号P1、P2に左チャネル元信号である旨のフラグを付して、収音信号P3、P4に右チャネル元信号である旨のフラグを付せば良い。
The switching processing unit 4 uses the selection information input from the input unit 8 to select the left channel original signal and the right channel original signal (step S4). For example, when selection information regarding the processing in the
そして、加算部6は、各々の左チャネル元信号を加算することで(状態1の処理であればP1+P2、状態2の処理であればP1+P4)、左チャネル信号PLを求め、各々の右チャネル元信号を加算することで(状態1の処理であればP3+P4、状態2の処理であればP2+P3)、右チャネル信号を求める(ステップS6)。そして求められた左チャネル信号、右チャネル信号PRは出力される。つまり、上記の例であると、ユーザが入力部8に選択情報を入力することで、状態1または状態2を選択することができる。
Then, the adding unit 6 adds the left channel original signals (P 1 + P 2 in the case of the state 1 process, P 1 + P 4 in the case of the process of state 2), and the left channel signal P L. The right channel signal is obtained by adding the respective original right channel signals (P 3 + P 4 for the
収音装置100の効果を説明する。以下の説明では、指向性BL、BRを表す曲線で囲まれる領域を指向性領域CL、CRとする。そして、指向性領域CL、CR内に存在する音源からの音響信号をそれぞれ左チャネル信号、右チャネル信号として、収音することで感度よくステレオ収音できるとする。効果の説明として、2つの状況を考える。まず第1の状況としては、2つの音源201、202(図示せず)が存在する状況である。この場合には、例えば201よりの音響信号を左チャネル信号として収音し、202よりの音響信号を右チャネル信号として収音する、つまり、2つの音源201、202よりの音響信号G1、G2を左右別チャネルに分けてステレオ収音をする場合には、例えば、ユーザが2つの音源201、202を目視すると、選択情報の入力により、音源201よりの音響信号を左チャネル信号として、音源202よりの音響信号を右チャネル信号として、収音することが出来る。
The effect of the sound collection device 100 will be described. In the following description, directional B L, the area enclosed by the curve representing the B R directional regions C L, and C R. Then, the directional region C L, the acoustic signal from a sound source present in the C R left channel signal, respectively, as a right channel signal, can be sensitively stereo sound pickup by picking up. As an explanation of the effect, consider two situations. First, as a first situation, there are two
次に、第2の状況は、ある時間経過後に音源の位置が変わる状況である。音源の位置が変わるとは、例えば、(i)話者が移動したり、(ii)2人の発声者X、Yが存在して、発声者がXからYに変わることである。例えば、図2に示すように、音源20(話者)が指向性領域CL内の位置αに存在しており(つまり、収音部21、22の付近に音源が存在している)、状態1の処理が選択されている場合には、収音装置100は音源20の音響信号を左チャネル信号として感度よく収音できる。ところが、音源20がβの位置(図2では収音部21、24の付近)に移動した場合に、状態1の処理が選択されていると、指向性領域外に音源があるため、音源よりの音響信号を感度よく収音できない。そこで、利用者が選択情報の入力により、状態1から状態2(図3参照)に切り替えることで、容易に指向性を変化でき、結果として、音源20がαからβへ移動した場合であっても、容易に音源20よりの音響信号を感度よく収音できる。
Next, the second situation is a situation in which the position of the sound source changes after a certain period of time. The change of the position of the sound source means, for example, that (i) the speaker moves or (ii) there are two speaker X and Y, and the speaker changes from X to Y. For example, as shown in FIG. 2, the sound source 20 (speaker) is present at the position α of the directional region C L (i.e., the sound source in the vicinity of the
従来は、音源20が移動した場合には、ユーザ自身がマイクロホン自体の向きを変えなければならなかった。しかし、本実施例1の収音装置100であれば、ユーザにより入力される選択情報により、ユーザは容易に指向性を変更できる。従って、音源20が移動した場合であっても、本実施例1の収音装置100であれば、容易に感度よく音源20よりの音響信号を収音できる。
Conventionally, when the
実施例1で説明した収音装置100は、ユーザの手動(選択情報の入力)により指向性を変化させていたが、この実施例2の収音装置200は、音源の位置(方向)を推定することで、当該音源の位置に応じて自動で指向性を変化させる。図5に収音装置200の機能構成例を示す。収音装置200は、入力部8が位置推定部30に代替されている点で、実施例1の収音装置100と異なる。 The sound collection device 100 described in the first embodiment changes the directivity by the user's manual operation (input of selection information), but the sound collection device 200 of the second embodiment estimates the position (direction) of the sound source. By doing so, the directivity is automatically changed according to the position of the sound source. FIG. 5 shows a functional configuration example of the sound collection device 200. The sound collection device 200 is different from the sound collection device 100 of the first embodiment in that the input unit 8 is replaced with the position estimation unit 30.
4つの収音部21〜24それぞれで収音された収音信号P1〜P4は、スイッチング処理部4と位置推定部30に入力される。位置推定部30は、収音信号P1〜P4の信号レベルF1〜F4を比較し、最も信号レベルが大きい収音信号を収音した収音部の付近に音源が存在すると判断する手法がある。この手法である場合には、例えば、位置推定部30は信号レベル測定手段302、信号レベル比較手段304と、選択情報生成手段306とを有する。
The sound collection signals P 1 to P 4 collected by the four
信号レベル測定手段302は、入力された収音信号P1〜P4の信号レベルF1〜F4を測定する。測定された信号レベルF1〜F4は、信号レベル比較手段304に入力される。信号レベル比較手段304は、信号レベルF1〜F4を比較して、最もレベルが高い信号レベルを選択する。そして、最も信号レベルが高い収音信号を収音した収音部の付近に音源が存在すると判断することで、音源の位置を示す位置情報を生成する。音源の位置の推定手法は上記に限られず、従来、提案されてきた位置推定手法を用いても良い。また、これらの音源の位置の推定は、音源が2つ以上であっても、適用できる。 The signal level measuring unit 302 measures the signal levels F 1 to F 4 of the input sound pickup signals P 1 to P 4 . The measured signal levels F 1 to F 4 are input to the signal level comparison unit 304. The signal level comparison unit 304 compares the signal levels F 1 to F 4 and selects the signal level having the highest level. Then, by determining that a sound source exists in the vicinity of the sound collection unit that has collected the sound collection signal having the highest signal level, position information indicating the position of the sound source is generated. The method for estimating the position of the sound source is not limited to the above, and a conventionally proposed position estimation method may be used. Further, the estimation of the positions of these sound sources can be applied even when there are two or more sound sources.
選択情報生成手段306は、信号レベル比較手段304よりの位置情報を用いて、選択情報を生成する。選択情報は実施例1で説明したとおり、収音部21〜24で収音された収音信号P1〜P4から、左チャネル信号PLの元である左チャネル元信号および右チャネル信号PRの元である右チャネル元信号を選択するための情報である。選択情報生成手段306の選択情報の生成基準は、様々であるが、ここでは、上記第1、第2の状況に沿って説明する。
The selection information generation unit 306 generates selection information using the position information from the signal level comparison unit 304. As selection information described in
まず第1の状況(2つの音源201、202が存在する状況)について説明する。例えば、信号レベル測定手段302、信号レベル比較手段304により、音源201は、収音部21の付近に存在すると推定され、音源202は、収音部22の付近に存在すると推定されたとする。この場合には、効果的なステレオ収音するために、収音部21よりの収音信号P1と収音部22よりの収音信号P2とを左右別チャネルに分けて収音されるように、選択情報生成手段306は選択情報を生成する必要がある。例えば、収音信号P1を左チャネル信号PLとして収音し(つまり、収音信号P1が左チャネル元信号となり)、収音信号P2を右チャネル信号PRとして収音するように、(つまり、収音信号P2が右チャネル元信号となり)選択情報生成手段306は選択情報を生成すればよい。そして、図5の例では、収音部21は収音部24と隣接しており、収音部22は収音部23と隣接している。従って、収音部21、24よりの収音信号P1、P4を左チャネル元信号とし、収音部22、23よりの収音信号P2、P3を右チャネル元信号として選択するような選択情報を選択情報生成手段306は生成すればよい。生成された選択情報は、スイッチング処理部4に入力される。
First, a first situation (a situation where two
スイッチング処理部4は入力された選択情報を用いて、左チャネル元信号および右チャネル元信号を選択する。上記の例では、スイッチング処理部4は、収音信号P1、P4を左チャネル元信号とし、収音部22、23よりの収音信号P2、P3を右チャネル元信号として選択する。そして、加算部6は、各々の左チャネル元信号(この例ではP1、P4)を加算することで左チャネル信号PLを求め、各々の右チャネル元信号(この例ではP2、P3)を加算することで右チャネル信号PRを求める。
The switching processing unit 4 selects the left channel original signal and the right channel original signal using the input selection information. In the above example, the switching processing unit 4, a
もしも、収音部21、22よりの収音信号P1、P2が、左チャネル元信号として選択され加算されて左チャネル信号となり、収音部23、24よりの収音信号P3、P4が、右チャネル元信号として選択され加算されて右チャネル信号となる指向性しか持たないような(指向性が固定された)収音装置であったら、音源の位置によっては、効果的にステレオ収音されず、ユーザが収音部を廻すなどをして指向性を変える必要が生じる。
If,
次に、2つ目の状況(ある時間が経過すると、音源の位置が変わる状況)を図2、図3を用いて説明する。図2、図3に示すように、音源20の位置がαの位置からβの位置に移動しても、位置推定部30内の信号レベル測定手段302、信号レベル比較手段304が音源20の移動に追随して、音源の位置を推定できる。例えば、図2に示すように、音源20(話者)が指向性領域CL内の位置αに存在している(つまり、収音部21、22の付近に音源が存在している)場合には、位置推定部30で生成される選択情報により、音源20よりの音響信号Gは左チャネル信号として感度よく収音できる。そして、音源20がβの位置(図2では収音部41、44の付近)に移動した場合であっても、信号レベル測定手段302、信号レベル比較手段304により、移動後の(βの位置にある)音源20の位置を推定できる。従って、選択情報生成手段306により生成された選択情報により、図3に示すように自動的に指向性は変化される。よって、音源20が移動したとしても、収音装置200は自動的に音源20よりの音響信号を左チャネル信号、右チャネル信号のどちらかに、振り分けて収音でき、ユーザは指向性を気にすることなく、ステレオ収音ができる。
Next, the second situation (a situation where the position of the sound source changes after a certain period of time) will be described with reference to FIGS. As shown in FIGS. 2 and 3, even if the position of the
このように、実施例2の収音装置200であれば、音源が移動したり、音源が複数存在する場合でも、自動的に指向性を変化させることができる。 Thus, with the sound collection device 200 of the second embodiment, the directivity can be automatically changed even when the sound source moves or there are a plurality of sound sources.
図6に実施例3の収音装置300の機能構成例を示す。収音装置300は、収音装置100にフィルタ処理部40が付加された構成である。フィルタ処理部40は、形成された指向性BLもしくはBRを鋭くする役割を果たす。図7に、音源201がγの位置にある場合に、指向性BR(一点鎖線で示す)と、フィルタ処理部40により鋭くなった指向性BR’(二点鎖線で示す)とを示す。図7に示すように、音源201が収音部21付近(以下、「位置γ」という。)にある場合は、指向性BRを形成するもう一方の収音部24の周りに形成された指向性が小さくなる。特に、収音部24の後方の指向性の箇所(図7ではEと示す)についても、収音部24に寄る。つまり、収音部24の後方からの音響信号を収音し難くなり、結果として、音源20よりの音響信号について、よりステレオ感(音の定位憾)がはっきりした収音が可能になる。
FIG. 6 shows a functional configuration example of the sound collection device 300 according to the third embodiment. The sound collection device 300 has a configuration in which a filter processing unit 40 is added to the sound collection device 100. Filter processing unit 40 serves to sharpen the formed directional B L or
以下、フィルタ処理部40の具体的な処理を説明する。また、以下の説明では、2つ音源201、202が固定されている場合を想定し、音源201、202よりの音響信号をそれぞれG1、G2と表す。図6に示すように、音源201は、収音部21付近にあり、音源202(図7には図示しない)は、収音部23付近にあるとする。つまり、収音部21で収音される音響信号G1の収音レベルは他の収音部22、23、24、で収音される音響信号G1の収音レベルよりも大きくなり、収音部23で収音される音響信号G2の収音レベルは他の収音部21、22、24、で収音される音響信号G2の収音レベルよりも大きくなる。
Hereinafter, specific processing of the filter processing unit 40 will be described. In the following description, assuming that the two
また、図6の例では、フィルタ処理部40は、スイッチング処理部4の前段に設けられているが、スイッチング処理部4の後段、加算部6の後段に設けることもできる。この実施例のフィルタ処理部40は帯域分割手段402、同定手段404、重み付け手段406、合成手段408を有する。また、図8に、フィルタ処理部40による入力された信号に対する処理について簡略化して示す。図8A〜図8Dにはそれぞれ、収音信号P1〜P4に対する、帯域分割手段402、同定手段404、重み付け手段406により施された処理について記載する。図8A〜図8Dそれぞれに、周波数領域に変換された収音信号P1〜P4の振幅スペクトルを示す。横軸は周波数を示し、縦軸はパワースペクトル(レベル)を表す。横軸に示すωmなどについては後述する。図8E〜図8Hにはそれぞれ、収音信号P1〜P4について、重み付け手段406から出力された周波数領域の信号が合成手段408により時間領域に変換された信号の波形について示す。横軸は時間t、縦軸はレベルを示す。 In the example of FIG. 6, the filter processing unit 40 is provided in the preceding stage of the switching processing unit 4, but may be provided in the subsequent stage of the switching processing unit 4 and the subsequent stage of the adding unit 6. The filter processing unit 40 of this embodiment includes a band dividing unit 402, an identifying unit 404, a weighting unit 406, and a combining unit 408. FIG. 8 shows a simplified process for the signal input by the filter processing unit 40. Each of the FIGS 8A~ Figure 8D, for sound collection signals P 1 to P 4, band splitting means 402, the identifying means 404, describes processing performed by the weighting means 406. 8A to 8D show amplitude spectra of the collected sound signals P 1 to P 4 converted into the frequency domain, respectively. The horizontal axis indicates the frequency, and the vertical axis indicates the power spectrum (level). Ω m shown on the horizontal axis will be described later. 8E to 8H show waveforms of signals obtained by converting the frequency domain signals output from the weighting unit 406 into the time domain by the synthesizing unit 408 for the collected sound signals P 1 to P 4 , respectively. The horizontal axis represents time t, and the vertical axis represents level.
帯域分割手段402は、入力された信号ごとに周波数領域に変換して、周波数帯域に分割する。この例では、「入力された信号」とは、収音部21〜24よりの収音信号P1〜P4のことである。フィルタ処理部40を設ける位置は、スイッチング処理部4の後段などで良いので、「入力された信号」はフィルタ処理部40の設ける位置により変わる。また、周波数領域に変換の手法として、公知であるFFT(Fast Fourier Transform)等を用いればよい。周波数帯域の数をM(Mは整数)とし、周波数をωm(m=1,...,M)と表す。帯域分割手段からの出力信号である周波数帯域信号をXq(ωm)とする。ただし、上述のようにqは収音部のインデックス(q=1,...,Qであり、ここではQ=4)である。図8A〜図8Dの記載では、各帯域ωm−1〜ωmについて収音された音響信号G1、G2について示す。ここで、図8A〜Dに示すように、各帯域ωm−1〜ωm内で音響信号G1、G2が分離(独立)して存在させることができる理由を説明する。各収音信号の細かく帯域分割した結果、各帯域成分がそれぞれどの音源からのものであるかを判定し、判定された成分は全て出力する。すなわち、音源201、202よりの音響信号G1、G2の周波数成分が互いに重なっていなければ、特定の周波数帯域を欠落させることなく処理を行うため、音質を高く保ったまま音源201、202よりの音響信号を分離することが可能になる。
The band dividing unit 402 converts each input signal into a frequency domain and divides it into frequency bands. In this example, “input signals” are the sound collection signals P 1 to P 4 from the
そして、周波数帯域に分割された信号Xq(ωm)は、同定手段404に入力される。同定手段404は、周波数帯域ごとに、レベルの最も高い信号である高レベル信号を同定する。この例では、全ての周波数帯において、収音部21で収音される音響信号G1のパワースペクトル(レベル)が最も高くなり(図8A)、当該信号を高レベル信号として同定する。同様に、収音部23で収音される音響信号G2のパワースペクトル(レベル)が最も高くなり(図8C)、当該信号を高レベル信号として同定する。このように、同定された高レベル信号には例えば、フラグを付せばよい。 Then, the signal X q (ω m ) divided into frequency bands is input to the identification unit 404. The identification unit 404 identifies a high-level signal that is a signal having the highest level for each frequency band. In this example, at all frequencies, the power spectrum of the audio signal G 1 is picked up by the sound pickup unit 2 1 (level) is the highest becomes (FIG. 8A), to identify the signal as a high-level signal. Similarly, the power spectrum of the audio signal G 2 is picked up by the sound pickup unit 2 3 (level) is the highest becomes (FIG. 8C), identifying the signal as a high-level signal. Thus, for example, a flag may be attached to the identified high level signal.
重み付け手段406は、高レベル信号のレベルと他の信号のレベルの差が大きくなるように重みを付ける。ここで、「他の信号」とは、高レベル信号が属する周波数帯域内の他の信号を意味する。例えば、重み付けの手法として、高レベル信号には重み値1を乗算し、他の信号には重み値α(0<α<1)を乗算する(図8A〜D参照)。また、高レベル信号と他の信号のレベル差が大きくなればよいので、この重み付け手法に限られない。重み付け手段406は、周波数帯域ごとに重み付け処理を行うことで重み付け信号Wq(ωm)(q=1〜4)を求める。
The weighting means 406 weights so that the difference between the level of the high level signal and the level of other signals becomes large. Here, the “other signal” means another signal in the frequency band to which the high level signal belongs. For example, as a weighting method, a high level signal is multiplied by a
そして、合成手段408は周波数領域の重み付け信号Wq(ωm)を時間領域に変換することで合成信号wq(t)を求める。ただしtは時間を示す。時間領域の変換については、逆フーリエ変換(IFFT:Inverse Fast Fourier Transform)等を用いれば良い(図8E〜図8H参照)。このようにフィルタ処理部40を設けることで、音源20の位置する側に向けて指向性を鋭くすることができる。また、上記の説明では、音源が2つの場合を説明したが、音源が1つもしくは3つ以上でも適用可能である。
Then, the synthesizing unit 408 obtains a synthesized signal w q (t) by converting the weighted signal W q (ω m ) in the frequency domain into the time domain. However, t shows time. For the time domain transform, inverse Fourier transform (IFFT) or the like may be used (see FIGS. 8E to 8H). By providing the filter processing unit 40 in this way, the directivity can be sharpened toward the side where the
また、フィルタ処理部40は、時間領域で処理を行わず、周波数領域で処理を行った理由を説明する。2つの音源201、202が存在する場合に、201よりの音響信号G1のレベルが、202よりの音響信号G2のレベルより大きい場合を考える。この場合に、フィルタ処理部40が、時間領域で処理を行うとすると、レベルが大きい音響信号G1に、レベルが小さい音響信号G2が埋もれてしまい、同定手段404が、高レベル信号を同定することができなくなってしまうからである。従って音源が1つの場合には、同定手段は、各収音信号P1〜P4において、高レベル信号を同定できるので、周波数領域に変換する必要もない。つまり、図9Aに示すように、帯域分割手段402、合成手段408を省略して同定手段404、重み付け手段406により構成できる。
The reason why the filter processing unit 40 performs processing in the frequency domain without performing processing in the time domain will be described. When the two
また、フィルタ処理部40の変形例をフィルタ処理部50として、各収音信号P1〜P4の位相差を用いて、処理を行うこともできる。つまり、位相差を用いて、それぞれの収音部21〜24のうち、音響信号が最も早く到達した収音部の付近に音源が存在するということが分かる。図9Bに位相差を用いるフィルタ処理部の機能構成例を示す。フィルタ処理部60は位相差測手段410、重み付け手段406により構成される。まず、入力された信号それぞれの位相差を測定する。そして、当該測定結果から音源が最も近くに存在する収音部を認識する。そして、重み付け手段406は、当該収音部からの収音信号を高レベル信号として、重みつけ処理を行う。
Further, a modification example of the filter processing unit 40 may be used as the filter processing unit 50 to perform processing using the phase difference between each of the collected sound signals P 1 to P 4 . That is, using the phase difference, it can be seen that a sound source is present in the vicinity of the sound collecting portion where the acoustic signal has reached the earliest among the
また、音源20がγの位置から図10記載のγ’の位置に移動した場合を考える。この場合は、逐次、フィルタ処理部の処理を行うことで、音源の移動に追随して、指向性を鋭くする処理を行うことができる。音源20がγ’の位置に到達した場合には図10に示す指向性が形成される。
このように、フィルタ処理部40を用いることで、音源の位置に対応して、指向性を鋭くすることができる。また、音源20が移動する場合であっても、フィルタ処理部40の処理を逐次行うことで、音源の移動に追随して、指向性を鋭くすることができる。
Consider a case where the
Thus, by using the filter processing unit 40, the directivity can be sharpened corresponding to the position of the sound source. Even if the
図11に実施例4の収音装置400の機能構成例を示す。収音装置400は、収音装置200のスイッチング処理部4の前段に、フィルタ処理部40を設けた構成である。このような構成にすると、収音装置200と比較して、より指向性が鋭くなり、ステレオ感(音の定位感)がはっきりとした収音が可能である。また、フィルタ処理部40はスイッチング処理部4の前段または加算部6の前段または加算部6の後段に設けても良い。 FIG. 11 shows a functional configuration example of the sound collection device 400 according to the fourth embodiment. The sound collection device 400 has a configuration in which a filter processing unit 40 is provided before the switching processing unit 4 of the sound collection device 200. With such a configuration, the directivity is sharper than that of the sound collection device 200, and sound collection with a clear stereo feeling (sound localization feeling) is possible. The filter processing unit 40 may be provided before the switching processing unit 4, before the addition unit 6, or after the addition unit 6.
また、上記の説明では、収音部の数は4で説明したが、収音部の数は4以上でも良い。収音部の数が多いほど、より細やかに、指向性を変化させることができる。また、左チャネル元信号、右チャネル元信号の数は同数でなくてもよい。この場合に、加算部6の加算処理後に、レベルを合わせるために、レベル調整を行えばよい。 In the above description, the number of sound collection units is four, but the number of sound collection units may be four or more. The directivity can be changed more finely as the number of sound collection units increases. Further, the number of the left channel original signal and the right channel original signal may not be the same. In this case, level adjustment may be performed after the addition processing by the adding unit 6 in order to adjust the level.
<ハードウェア構成>
本発明は上述の実施の形態に限定されるものではない。また、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
また、上述の構成をコンピュータによって実現する場合、収音装置100〜400が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、処理機能がコンピュータ上で実現される。
<Hardware configuration>
The present invention is not limited to the above-described embodiment. In addition, the various processes described above are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Needless to say, other modifications are possible without departing from the spirit of the present invention.
Further, when the above-described configuration is realized by a computer, the processing contents of the functions that the sound pickup apparatuses 100 to 400 should have are described by a program. The processing function is realized on the computer by executing the program on the computer.
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよいが、具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。 The program describing the processing contents can be recorded on a computer-readable recording medium. The computer-readable recording medium may be any medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, or a semiconductor memory. Specifically, for example, the magnetic recording device may be a hard disk device or a flexible Discs, magnetic tapes, etc. as optical disks, DVD (Digital Versatile Disc), DVD-RAM (Random Access Memory), CD-ROM (Compact Disc Read Only Memory), CD-R (Recordable) / RW (ReWritable), etc. As the magneto-optical recording medium, MO (Magneto-Optical disc) or the like can be used, and as the semiconductor memory, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory) or the like can be used.
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。 The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。 A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own recording medium and executes a process according to the read program. As another execution form of the program, the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good. Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
また、本実施例で説明した単語追加装置は、CPU(Central Processing Unit)、入力部、出力部、補助記憶装置、RAM(Random Access Memory)、ROM(Read Only Memory)及びバスを有している(何れも図示せず)。
In this embodiment, the present apparatus is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.
Further, the word adding device described in the present embodiment includes a CPU (Central Processing Unit), an input unit, an output unit, an auxiliary storage device, a RAM (Random Access Memory), a ROM (Read Only Memory), and a bus. (Neither shown).
CPUは、読み込まれた各種プログラムに従って様々な演算処理を実行する。補助記憶装置は、例えば、ハードディスク、MO(Magneto-Optical disc)、半導体メモリ等であり、RAMは、SRAM(Static Random Access Memory)、DRAM (Dynamic Random Access Memory)等である。また、バスは、CPU、入力部、出力部、補助記憶装置、RAM及びROMを通信可能に接続している。 The CPU executes various arithmetic processes according to the read various programs. The auxiliary storage device is, for example, a hard disk, an MO (Magneto-Optical disc), a semiconductor memory, or the like, and the RAM is an SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), or the like. The bus connects the CPU, the input unit, the output unit, the auxiliary storage device, the RAM, and the ROM so that they can communicate with each other.
<ハードウェアとソフトウェアとの協働>
本実施例の単語追加装置は、上述のようなハードウェアに所定のプログラムが読み込まれ、CPUがそれを実行することによって構築される。以下、このように構築される各装置の機能構成を説明する。
入力部8は、所定のプログラムが読み込まれたCPUの制御のもと駆動するLANカード、モデム等の通信装置である。スイッチング処理部、加算部、位置推定部、フィルタ処理部、は所定のプログラムがCPUに読み込まれ、実行されることによって構築される演算部である。
<Cooperation between hardware and software>
The word adding device of this embodiment is constructed by reading a predetermined program into the hardware as described above and executing it by the CPU. The functional configuration of each device constructed in this way will be described below.
The input unit 8 is a communication device such as a LAN card or a modem that is driven under the control of a CPU loaded with a predetermined program. The switching processing unit, the adding unit, the position estimating unit, and the filter processing unit are arithmetic units that are constructed by reading a predetermined program into the CPU and executing it.
Claims (10)
前記選択情報を用いて、左チャネル元信号および右チャネル元信号とを選択するスイッチング処理部と、
各々の左チャネル元信号を加算することで前記左チャネル信号を求め、各々の右チャネル元信号を加算することで前記右チャネル信号を求める加算部とを、具備する収音装置。 Selection information for selecting the left channel original signal that is the source of the left channel signal and the right channel original signal that is the source of the right channel signal is input from the collected sound signals collected by the four or more sound collection units. An input unit,
A switching processing unit that selects a left channel original signal and a right channel original signal using the selection information;
A sound collecting apparatus comprising: an adder that obtains the left channel signal by adding each left channel original signal and obtains the right channel signal by adding each right channel original signal.
前記選択情報を用いて、左チャネル元信号および右チャネル元信号とを選択するスイッチング処理部と、
各々の左チャネル元信号を加算することで前記左チャネル信号を求め、各々の右チャネル元信号を加算することで前記右チャネル信号を求める加算部とを、具備する収音装置。 By estimating the position of the sound source, the position information of the position of the sound source is obtained, and the position information is used as the source of the left channel signal from the collected sound signals collected by four or more sound collecting units. A position estimator that generates selection information for selecting a right channel original signal that is the source of the left channel original signal and the right channel signal;
A switching processing unit that selects a left channel original signal and a right channel original signal using the selection information;
A sound collecting apparatus comprising: an adder that obtains the left channel signal by adding each left channel original signal and obtains the right channel signal by adding each right channel original signal.
更に、入力された信号を用いて、指向性を鋭くするフィルタ処理部を有することを特徴とする収音装置。 The sound collecting device according to claim 1 or 2,
The sound collecting device further includes a filter processing unit that sharpens directivity using the input signal.
前記フィルタ処理部は、
入力された信号ごとに周波数領域に変換して、周波数帯域に分割する帯域分割手段と、
前記周波数帯域ごとに、レベルの最も高い信号である高レベル信号を同定する同定手段と、
前記周波数帯域ごとに、前記高レベル信号のレベルと他の信号のレベルの差が大きくなるように重みを付けることで重み付け信号を求める重み付け手段と、
前記重み付け信号を時間領域に変換する合成手段と、
を有することを特徴とする収音装置。 The sound collection device according to claim 3,
The filter processing unit
Band division means for converting each input signal into a frequency domain and dividing it into frequency bands;
Identifying means for identifying a high-level signal that is a signal having the highest level for each frequency band;
For each frequency band, a weighting unit that obtains a weighting signal by weighting so that a difference between the level of the high-level signal and the level of another signal becomes large;
Combining means for converting the weighted signal into a time domain;
A sound collecting device comprising:
前記選択情報を用いて、左チャネル元信号および右チャネル元信号とを選択する選択過程と、
各々の左チャネル元信号を加算することで前記左チャネル信号を求め、各々の右チャネル元信号を加算することで前記右チャネル信号を求める加算過程とを、有する収音方法。 Selection information for selecting the left channel original signal that is the source of the left channel signal and the right channel original signal that is the source of the right channel signal is input from the collected sound signals collected by the four or more sound collection units. Input process
Using the selection information to select a left channel source signal and a right channel source signal; and
A sound collection method comprising: an adding step of obtaining the left channel signal by adding each left channel original signal and obtaining the right channel signal by adding each right channel original signal.
選択情報を用いて、左チャネル元信号および右チャネル元信号とを選択する選択過程と、
各々の左チャネル元信号を加算することで前記左チャネル信号を求め、各々の右チャネル元信号を加算することで前記右チャネル信号を求める加算過程と、を有する収音方法。 By estimating the position of the sound source, the position information of the position of the sound source is obtained, and the position information is used as the source of the left channel signal from the collected sound signals collected by four or more sound collecting units. A selection information generation process for generating selection information for selecting a right channel original signal that is an origin of the left channel original signal and the right channel signal;
A selection process for selecting a left channel original signal and a right channel original signal using the selection information;
A sound collection method comprising: an addition step of obtaining the left channel signal by adding each left channel original signal and obtaining the right channel signal by adding each right channel original signal.
更に、入力された信号を用いて、指向性を鋭くするフィルタ処理過程を有することを特徴とする収音方法。 The sound collection method according to claim 5 or 6,
The sound collection method further includes a filtering process for sharpening directivity using the input signal.
前記フィルタ処理過程は、
入力された信号ごとに周波数領域に変換して、周波数帯域に分割する帯域分割ステップと、
前記周波数帯域ごとに、レベルの最も高い信号である高レベル信号を同定する同定ステップと、
前記周波数帯域ごとに、前記高レベル信号のレベルと他の信号のレベルの差が大きくなるように重みを付けることで重み付け信号を求める重み付けステップと、
前記重み付け信号を時間領域に変換する合成ステップと、
を有することを特徴とする収音方法。 The sound collection method according to claim 7,
The filtering process includes:
A band division step for converting each input signal into a frequency domain and dividing it into frequency bands;
An identification step for identifying a high-level signal that is a signal having the highest level for each frequency band; and
For each frequency band, a weighting step for obtaining a weighting signal by weighting so that a difference between the level of the high-level signal and the level of another signal becomes large;
Combining the weighted signal into a time domain;
A sound collection method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008136394A JP4972032B2 (en) | 2008-05-26 | 2008-05-26 | Sound collecting device, sound collecting method, program thereof, and recording medium thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008136394A JP4972032B2 (en) | 2008-05-26 | 2008-05-26 | Sound collecting device, sound collecting method, program thereof, and recording medium thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009284391A JP2009284391A (en) | 2009-12-03 |
JP4972032B2 true JP4972032B2 (en) | 2012-07-11 |
Family
ID=41454339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008136394A Active JP4972032B2 (en) | 2008-05-26 | 2008-05-26 | Sound collecting device, sound collecting method, program thereof, and recording medium thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4972032B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000287295A (en) * | 1999-01-29 | 2000-10-13 | Canon Inc | Signal processor |
JP3789685B2 (en) * | 1999-07-02 | 2006-06-28 | 富士通株式会社 | Microphone array device |
JP2001086588A (en) * | 1999-09-10 | 2001-03-30 | Canon Inc | Audio signal processor and audio signal processing method and electronic device |
JP2002232988A (en) * | 2001-01-30 | 2002-08-16 | Matsushita Electric Ind Co Ltd | Multi-channel sound collection system |
JP4692095B2 (en) * | 2005-06-21 | 2011-06-01 | ソニー株式会社 | Recording apparatus, recording method, reproducing apparatus, reproducing method, recording method program, and recording medium recording the recording method program |
JP2007028391A (en) * | 2005-07-20 | 2007-02-01 | Sanyo Electric Co Ltd | Microphone array device |
-
2008
- 2008-05-26 JP JP2008136394A patent/JP4972032B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009284391A (en) | 2009-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6981417B2 (en) | Sound source separators and methods, as well as programs | |
US9553553B2 (en) | Engine sound synthesis system | |
GB2540175A (en) | Spatial audio processing apparatus | |
US20080262834A1 (en) | Sound Separating Device, Sound Separating Method, Sound Separating Program, and Computer-Readable Recording Medium | |
JP4896029B2 (en) | Signal processing apparatus, signal processing method, signal processing program, and computer-readable recording medium | |
JP6204312B2 (en) | Sound collector | |
JP4964259B2 (en) | Parameter estimation device, sound source separation device, direction estimation device, method and program thereof | |
JP6345327B1 (en) | Voice extraction device, voice extraction method, and voice extraction program | |
JP5134525B2 (en) | Direction information distribution estimation device, sound source number estimation device, sound source direction measurement device, sound source separation device, method thereof, program thereof | |
JP2006243664A (en) | Device, method, and program for signal separation, and recording medium | |
JP4972032B2 (en) | Sound collecting device, sound collecting method, program thereof, and recording medium thereof | |
JP6970366B2 (en) | Sound image reproduction device, sound image reproduction method and sound image reproduction program | |
JP6517124B2 (en) | Noise suppression device, noise suppression method, and program | |
JP6570673B2 (en) | Voice extraction device, voice extraction method, and voice extraction program | |
JP6233625B2 (en) | Audio processing apparatus and method, and program | |
JP4533126B2 (en) | Proximity sound separation / collection method, proximity sound separation / collection device, proximity sound separation / collection program, recording medium | |
JP5815489B2 (en) | Sound enhancement device, method, and program for each sound source | |
JP7363795B2 (en) | Information processing device, method, and program | |
JP4249697B2 (en) | Sound source separation learning method, apparatus, program, sound source separation method, apparatus, program, recording medium | |
JP2017139592A (en) | Acoustic processing method and acoustic processing apparatus | |
JP5376173B2 (en) | Radiation pattern estimation method, apparatus and program thereof | |
JP4495704B2 (en) | Sound image localization emphasizing reproduction method, apparatus thereof, program thereof, and storage medium thereof | |
CN110160633A (en) | A kind of the audio method for detecting isolation between and device of more sound fields | |
JP7375904B2 (en) | Filter coefficient optimization device, latent variable optimization device, filter coefficient optimization method, latent variable optimization method, program | |
JP6027873B2 (en) | Impulse response generation apparatus, impulse response generation system, and impulse response generation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100726 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20110729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120327 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120406 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150413 Year of fee payment: 3 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |