JP2014041300A - Signal processing device, imaging device, and program - Google Patents
Signal processing device, imaging device, and program Download PDFInfo
- Publication number
- JP2014041300A JP2014041300A JP2012184454A JP2012184454A JP2014041300A JP 2014041300 A JP2014041300 A JP 2014041300A JP 2012184454 A JP2012184454 A JP 2012184454A JP 2012184454 A JP2012184454 A JP 2012184454A JP 2014041300 A JP2014041300 A JP 2014041300A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- signal
- unit
- frequency spectrum
- window function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、音信号に対して信号処理をする信号処理装置、撮像装置、およびプログラムに関する。 The present invention relates to a signal processing device, an imaging device, and a program that perform signal processing on a sound signal.
マイクが収音したマイク音信号に対して、例えばノイズ低減処理等の信号処理を施す場合、マイク音信号をフレームで区切って、各フレームに対応する音時間信号を周波数スペクトルに変換する。そして、この周波数スペクトルに対してノイズ低減処理をし、このノイズ低減処理後の周波数スペクトルを時間領域に戻す処理がなされる。
例えば、マイク音信号をフレームに区切って窓関数を乗算し、窓関数を乗算した音時間信号をフーリエ変換することで時間領域の音時間信号を周波数領域の周波数スペクトルに変換する。この周波数スペクトルからノイズとして推定される周波数スペクトルを減算して、減算結果である周波数スペクトルに逆フーリエ変換を行うことで時間領域の音時間信号に戻すものがある(例えば、特許文献1参照)。
When signal processing such as noise reduction processing is performed on the microphone sound signal collected by the microphone, for example, the microphone sound signal is divided into frames, and the sound time signal corresponding to each frame is converted into a frequency spectrum. Then, a noise reduction process is performed on the frequency spectrum, and a process of returning the frequency spectrum after the noise reduction process to the time domain is performed.
For example, the microphone sound signal is divided into frames, multiplied by a window function, and the sound time signal multiplied by the window function is Fourier transformed to convert the sound time signal in the time domain into a frequency spectrum in the frequency domain. There is a method of subtracting a frequency spectrum estimated as noise from this frequency spectrum and performing an inverse Fourier transform on the frequency spectrum as a subtraction result to return to a time-domain sound time signal (see, for example, Patent Document 1).
このように、音時間信号を周波数スペクトルに変換した後に信号処理を行い、信号処理後の周波数スペクトルを音時間信号に戻すと、フレーム間のつなぎ目において音時間信号の振幅値がずれることによりノイズが発生する場合がある。つまり、周波数スペクトルを時間領域に戻したとき、フレーム間のつなぎ目が不連続となってしまうことにより音がとび、つなぎ目においてノイズが発生するおそれがあった。 As described above, when signal processing is performed after the sound time signal is converted into the frequency spectrum, and the frequency spectrum after the signal processing is returned to the sound time signal, the amplitude value of the sound time signal shifts at the joint between frames, thereby causing noise. May occur. That is, when the frequency spectrum is returned to the time domain, the joint between frames becomes discontinuous, so that the sound skips and noise may occur at the joint.
本発明は、前記の点に鑑みてなされたものであり、音時間信号を周波数領域に変換した後で信号処理を行い、信号処理された周波数領域の周波数スペクトルを音時間信号に戻した場合に、つなぎ目に生じるおそれのあるノイズを低減させるための信号処理装置、撮像装置、およびプログラムを提供することを目的とする。 The present invention has been made in view of the above points. When the sound time signal is converted into the frequency domain, signal processing is performed, and the frequency spectrum of the signal-processed frequency domain is returned to the sound time signal. An object of the present invention is to provide a signal processing device, an imaging device, and a program for reducing noise that may occur at a joint.
本発明は、上記の課題を解決するためになされたものであり、信号処理装置は、入力する音信号を周波数領域における周波数スペクトルに変換する変換部と、前記変換部が変換した前記周波数スペクトルを信号処理する処理部と、前記処理部によって信号処理された前記周波数スペクトルを時間領域における音時間信号に変換する逆変換部と、単位区間における両端の値が中央の値よりも小さい窓関数を、前記逆変換部によって変換された前記音時間信号に乗算する連結調整部と、を備える。 The present invention has been made to solve the above-described problem, and the signal processing device converts the input sound signal into a frequency spectrum in the frequency domain, and the frequency spectrum converted by the conversion unit. A signal processing unit, an inverse conversion unit for converting the frequency spectrum signal-processed by the processing unit into a sound time signal in a time domain, and a window function in which values at both ends in a unit section are smaller than a central value, A connection adjustment unit that multiplies the sound time signal converted by the inverse conversion unit.
本発明によれば、時間領域の音時間信号を周波数領域に変換した後で信号処理を行い、信号処理された周波数領域の周波数スペクトルを時間領域の音時間信号に戻した場合に、つなぎ目に生じるおそれのあるノイズを低減させることができる。 According to the present invention, when signal processing is performed after a sound time signal in the time domain is converted to the frequency domain, and the frequency spectrum of the signal processed frequency domain is returned to the sound time signal in the time domain, a joint is generated. Possible noise can be reduced.
[第1実施形態]
本発明の実施形態について図面を参照して詳細に説明する。図1には、本実施形態に係る撮像装置の構成を示すブロック図が示されている。なお、本実施形態では、本発明に係る信号処理装置が撮像装置に搭載されている例について以下説明するが、本発明はこれに限られない。
図1に示す通り、撮像装置100は、光学系による像を撮像し、得られた画像データを記憶媒体200に記憶させるとともに、マイクによって収音されたマイク音信号に対してノイズ低減処理を行い、ノイズ低減処理後の音情報を記憶媒体200に記憶させる。
この撮像装置100は、低減処理部250を備える。この低減処理部250は、マイク音信号に含まれる推定ノイズを取得し、この推定ノイズに基づきマイク音からノイズを低減するノイズ低減処理を行う。
[First Embodiment]
Embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating the configuration of the imaging apparatus according to the present embodiment. In the present embodiment, an example in which the signal processing device according to the present invention is mounted on an imaging device will be described below, but the present invention is not limited to this.
As shown in FIG. 1, the
The
本実施形態に係る低減処理部250は、動作部が動作することによって発生するノイズ(以下、動作音という)を低減するためのノイズ低減処理を実行する。例えば、撮像装置100において、AF(Auto Focus)やVR(Vibration Reduction)等の処理において光学系を駆動する場合、モータや光学系が動くことにより動作音が発生する。また、モータの駆動開始時、駆動終了時、および回転方向切り換え時に、一時的に大きい音の動作音が発生する。このように、動作部の動作状態が変化した場合に、一時的に発生する大きい音を衝撃音という。一方、この衝撃音よりも小さく、光学系やモータが動いているときに発生する音を駆動音という。つまり、駆動音は、衝撃音以外の動作音(ノイズ)である。本実施形態に係る低減処理部250が低減しようとするノイズとは、駆動音と衝撃音とを含む動作音である。つまり、この低減処理部250は、マイク音信号から衝撃音によるノイズを低減する衝撃音ノイズ低減処理を行うとともに、マイク音信号から駆動音によるノイズを低減する駆動音ノイズ低減処理を行う。
The
以下、撮像装置100と低減処理部250の構成の一例について詳細に説明する。なお、本実施形態において、低減処理部250は、撮像装置100に内蔵されている例について説明するが、本発明はこれに限られない。例えば、低減処理部250は、撮像装置100の外部装置であってもよい。
Hereinafter, an exemplary configuration of the
撮像装置100は、撮像部110と、レンズCPU120と、バッファメモリ部130と、画像処理部140と、表示部150と、記憶部160と、通信部170と、操作部180と、ボディCPU190と、計時部220と、マイク230と、A/D変換部240と、低減処理部250と、電池260と、を備える。
The
撮像部110は、光学系111と、撮像素子119と、A/D(Analog/Digital)変換部121とを備え、設定される撮像条件(例えば絞り値、露出値等)に応じて予め決められた動作パターンに従い、レンズCPU120により制御される。この撮像部110は、光学系111による光学像を撮像素子119に結像させて、A/D変換部121によってデジタル信号に変換された光学像に基づく画像データを生成する。
The
光学系111は、焦点調整レンズ(以下、「AFレンズ」という)112と、手ブレ補正レンズ(以下、「VRレンズ」という)113と、ズームレンズ114と、ズームエンコーダ115と、レンズ駆動部116と、AFエンコーダ117と、手ブレ補正部118とを備える。
これら光学系111の各構成は、レンズCPU120による焦点調整処理、手ブレ補正処理、およびズーム処理において、各機能の処理に応じて予め決められた動作パターンに従って、駆動する。つまり、光学系111は、撮像装置100における動作部である。
The
Each component of the
この光学系111は、ズームレンズ114から入射し、ズームレンズ114、VRレンズ113、AFレンズ112の順番で通過した光学像を、撮像素子119の受光面に導く。
レンズ駆動部116は、AFレンズ112およびズームレンズ114の位置を制御するための駆動制御信号(コマンド)をレンズCPU120から入力する。このレンズ駆動部116は、入力するコマンドに応じて、AFレンズ112およびズームレンズ114の位置を制御する。
つまり、このコマンドがレンズCPU120からレンズ駆動部116に入力されてレンズ駆動部116が駆動することにより、AFレンズ112およびズームレンズ114が移動(動作)する。本実施形態において、レンズCPU120がコマンドを出力したタイミングを、AFレンズ112およびズームレンズ114の動作が開始される動作開始タイミングという。
The
The
That is, when this command is input from the
ズームエンコーダ115は、ズームレンズ114の位置を表わすズームポジションを検出し、レンズCPU120に出力する。このズームエンコーダ115は、ズームレンズ114の移動を検出し、例えば、ズームレンズ114が光学系111内を移動している場合にパルス信号をレンズCPU120に出力する。一方、停止している場合、ズームエンコーダ115は、パルス信号の出力を停止する。
The
AFエンコーダ117は、AFレンズ112の位置を表わすフォーカスポジションを検出し、レンズCPU120およびボディCPU190に出力する。このAFエンコーダ117は、AFレンズ112の移動を検出する。このAFエンコーダ117は、AFレンズ112の移動を検出し、例えば、AFレンズ112が光学系111内を移動している場合にパルス信号をレンズCPU120に出力する。一方、停止している場合、AFエンコーダ117は、パルス信号の出力を停止する。
The
なお、ズームエンコーダ115は、ズームポジションを検出するために、ズームレンズ114の駆動方向を検出するものであってもよい。また、AFエンコーダ117は、フォーカスポジションを検出するために、AFレンズ112の駆動方向を検出するものであってもよい。
例えば、ズームレンズ114やAFレンズ112は、レンズ駆動部116によって駆動される駆動機構(例えばモータやカム等)が時計回り(CW)あるいは反時計回り(CCW)に回転することにより光軸方向に移動する。ズームエンコーダ115およびAFエンコーダ117は、それぞれ、駆動機構の回転方向(ここでは、時計回りあるいは反時計回り)を検出することよって、ズームレンズ114およびAFレンズ112が移動していることを検出するものであってもよい。
The
For example, the
手ブレ補正部118は、例えば振動ジャイロ機構を備え、光学系111による像の光軸ぶれを検出し、この光軸ぶれを打ち消す方向にVRレンズ113を動かす。この手ブレ補正部118は、例えばVRレンズ113を動かしている状態においてハイレベルの信号をレンズCPU120に出力する。一方、VRレンズ113を停止させている状態において、手ブレ補正部118は、ローレベルの信号をレンズCPU120に出力する。
The camera shake correction unit 118 includes, for example, a vibration gyro mechanism, detects an optical axis shake of an image by the
撮像素子119は、例えば、光電変換面を備え、その受光面に結像した光学像を電気信号に変換して、変換した電気信号をA/D変換部121に出力する。
この撮像素子119は、操作部180を介して撮影指示を受け付けた際に得られる画像データを、静止画又は動画の画像データとして、A/D変換部121を介して記憶媒体200に記憶させる。一方、撮像素子119は、操作部180を介して撮像指示を受け付けていない状態において、連続的に得られる画像データをスルー画データ(プレビュー画像データ)として、A/D変換部121を介してボディCPU190および表示部150に出力する。
The
The
A/D変換部121は、撮像素子119によって変換された電気信号をデジタル化して、デジタル信号である画像データをバッファメモリ部130に出力する。
The A /
バッファメモリ部130は、撮像部110によって撮像された画像データを、一時的に記憶する。また、バッファメモリ部130は、マイク230が収音したマイク検出音に応じたマイク音信号を、一時的に記憶する。
The
画像処理部140は、記憶部160に記憶されている画像処理条件を示す情報を参照して、バッファメモリ部130に一時的に記憶されている画像データに対して、画像処理をする。画像処理された画像データは、通信部170を介して記憶媒体200に記憶される。なお、画像処理部140は、記憶媒体200に記憶されている画像データに対して、画像処理をしてもよい。
The
表示部150は、例えば液晶ディスプレイであって、撮像部110によって得られた画像データや操作画面等を表示する。
The
記憶部160は、レンズCPU120によってシーン判定の際に参照される判定条件を示す情報や、シーン判定によって判断されたシーン毎に対応付けられた撮像条件を示す情報等を記憶する。
The
通信部170は、カードメモリ等の取り外しが可能な記憶媒体200と接続され、この記憶媒体200への情報(画像データや音データ等)の書込み、読み出し、あるいは消去する。
The
操作部180は、例えば、電源スイッチ、シャッターボタン、マルチセレクタ(十字キー)、又はその他の操作キーを備え、ユーザによって操作されることでユーザからの操作入力を受け付け、操作入力に応じた操作内容を示す操作情報をレンズCPU120およびボディCPU190に出力する。この操作部180は、ユーザによって押下される際、物理的な動作音を発生する場合がある。本実施形態において、ユーザの操作入力に応じた操作内容を示す操作情報が操作部180からレンズCPU120あるいはボディCPU190に入力するタイミングを、操作部180の動作が開始される動作開始タイミングという。
The
記憶媒体200は、撮像装置100に対して着脱可能に接続される記憶部であって、例えば、撮像部110によって生成された(撮影された)画像データや、低減処理部250により信号処理された音情報を記憶する。
The
バス210は、撮像部110と、レンズCPU120と、バッファメモリ部130と、画像処理部140と、表示部150と、記憶部160と、通信部170と、操作部180と、ボディCPU190と、計時部220と、A/D変換部240と、低減処理部250と接続され、各構成部から出力されたデータ等を転送する。
The
計時部220は、日にちや時刻を計時して、計時した日時を示す日時情報を出力する。
The
マイク230は、周辺の音を収音し、この音のマイク音信号をA/D変換部240に出力する。このマイク230によって収音されるマイク音信号には、主に、収音対象である目的音と、動作部による動作音(ノイズ)とが含まれている。
The
ここで、マイク230によって取得されたマイク音信号について、例えば、AFレンズ112が動作している時に得られたマイク音信号を例に、図2、3を参照して説明する。
図2(A)は、AFエンコーダ117の出力と時間との関係の一例を示す。図2(B)は、マイク音信号と時間の関係の一例が示されている。図2(A)と2(B)の時間軸は、同一の時刻を示す。なお、図2(B)は、説明便宜のため、マイク音信号のうち、動作音のマイク音信号のみを示し、目的音のマイク音信号の図示を省略する。図2(A)と図2(B)に示すAFレンズ112の動作パターンは、例えば、距離Pでピントを合わせるAF処理を行う場合の動作パターンである。
Here, the microphone sound signal acquired by the
FIG. 2A shows an example of the relationship between the output of the
図2(A)には、その縦軸に、AFエンコーダ117の出力に基づく、AFレンズ112を駆動する駆動機構の回転方向(CW,CWW)を示す。
この距離Pでピントを合わせるAF処理を行う動作パターンでは、図2(A)に示す通り、AFレンズ112を駆動する駆動機構が、時刻t10〜t20において、時計回りCWに回転して、その後、静止する。
つまり、時刻t10は、AFレンズ112の動作開始タイミングを、時刻t20は、AFレンズ112の動作停止タイミングを、それぞれ表わしている。なお、本実施形態において、動作開始タイミングの時刻t10は、AFレンズ112の位置を制御するためのコマンドをレンズCPU120がレンズ駆動部116に出力したタイミング(時刻)である。動作停止タイミングの時刻t20は、AFエンコーダ117からのパルス信号の出力が停止したタイミングである。
In FIG. 2A, the vertical axis indicates the rotation direction (CW, CWW) of the drive mechanism that drives the AF lens 112 based on the output of the
In the operation pattern for performing AF processing for focusing at this distance P, as shown in FIG. 2A, the driving mechanism for driving the AF lens 112 rotates clockwise CW from time t10 to t20, and then Quiesce.
That is, time t10 represents the operation start timing of the AF lens 112, and time t20 represents the operation stop timing of the AF lens 112. In the present embodiment, the time t10 of the operation start timing is the timing (time) at which the
従って、図2(B)に示す通り、時刻t10〜t20の期間で、マイク音信号にAFレンズ112による動作音が目的音に重畳している、又は、動作音が目的音に重畳している可能性が高い。本実施形態においては、時刻t10〜t20の期間において、AFレンズ112による動作音であるノイズが発生している場合を例に、以下説明する。
また、図2(B)に示す通り、時刻t10、t20においては、それぞれ衝撃音が発生している可能性が高い。本実施形態においては、時刻t10、t20において、AFレンズ112による衝撃音が発生している場合を例に、以下説明する。
Therefore, as shown in FIG. 2B, the operation sound by the AF lens 112 is superimposed on the target sound or the operation sound is superimposed on the target sound during the period from time t10 to t20. Probability is high. In the present embodiment, the following description will be given by taking as an example a case where noise, which is an operation sound generated by the AF lens 112, is generated during the period from time t10 to t20.
Further, as shown in FIG. 2B, there is a high possibility that impact sounds are generated at times t10 and t20. In the present embodiment, the following description will be given by taking as an example a case where an impact sound is generated by the AF lens 112 at times t10 and t20.
また、衝撃音が発生した場合、その衝撃音が発生している可能性の高い時間長(期間)は、各動作パターンに応じて予め決められている。距離Pでピントを合わせるAF処理を行う動作パターンでは、図3に示すような衝撃音の発生する時間長L1、L2が決められている。
図3は、距離Pでピントを合わせるAF処理を行う動作パターンでAFレンズ112を駆動した際に、マイク230で収音されるマイク音信号の一例を示す図である。図3に示すグラフは、縦軸にマイク230によって収音されたマイク音信号の振幅を、横軸に時間を、それぞれ示す。なお、図3は、説明便宜のため、マイク音信号のうち、動作音のマイク音信号のみを示し、目的音のマイク音信号の図示を省略する。また、図3に示す時刻t10、t20は、図2(A)、2(B)に示す時刻t10、t20と同じである。
In addition, when an impact sound is generated, a time length (period) during which the impact sound is highly likely to be generated is determined in advance according to each operation pattern. In the operation pattern in which the AF process for focusing at the distance P is performed, time lengths L1 and L2 at which impact sounds are generated as shown in FIG. 3 are determined.
FIG. 3 is a diagram illustrating an example of a microphone sound signal picked up by the
距離Pでピントを合わせるAF処理を行う動作パターンでは、動作開始タイミングから時間長L1の期間、および、動作停止タイミングから時間長L2の期間が、それぞれ、衝撃音の発生する時間長であると予め決められている。よって、本実施形態では、時刻t10から時間長L1の期間(t10〜t11)、および時刻t20から時間長L2の期間(t20〜t21)が、それぞれ、衝撃音の発生する期間である。ここでは、動作開始タイミングから時間長L1の期間を、動作開始タイミング期間という。また、動作停止タイミングから時間長L2の期間を、動作停止タイミング期間という。
ここで、動作部が動作しない可能性の高い期間を非動作期間Taとする。また、動作部の動作により衝撃音が発生する可能性の高い期間を衝撃音発生期間Tbとする。さらに、動作部の動作により駆動音が発生する可能性の高い期間を駆動音発生期間Tcとする。本実施形態では、時刻t0〜t10の期間、t21〜の期間が、非動作期間Taである。時刻t10〜t11の期間、時刻t20〜t21の期間が、衝撃音発生期間Tbである。時刻t11〜t20の期間が、駆動音発生期間Tcである。
In the operation pattern in which the AF process for focusing at the distance P is performed, the period from the operation start timing to the time length L1 and the period from the operation stop timing to the time length L2 are preliminarily set to be the time length at which the impact sound is generated. It has been decided. Therefore, in this embodiment, the period from time t10 to time length L1 (t10 to t11) and the period from time t20 to time length L2 (t20 to t21) are periods in which impact sounds are generated. Here, a period of time length L1 from the operation start timing is referred to as an operation start timing period. Further, a period of time length L2 from the operation stop timing is referred to as an operation stop timing period.
Here, a period during which the operating unit is highly unlikely to operate is defined as a non-operation period Ta. Further, a period during which an impact sound is highly likely to be generated by the operation of the operation unit is referred to as an impact sound generation period Tb. Furthermore, a period during which a driving sound is likely to be generated by the operation of the operating unit is defined as a driving sound generation period Tc. In the present embodiment, the period from time t0 to time t10 and the period from t21 to t is the non-operation period Ta. The period from time t10 to t11 and the period from time t20 to t21 are the impact sound generation period Tb. The period from time t11 to t20 is the drive sound generation period Tc.
図1に戻って、撮像装置100の各構成の説明を続ける。
レンズCPU120は、設定された撮像条件(例えば絞り値、露出値等)に応じた動作パターンに従って撮像部110を制御する。このレンズCPU120は、ズームエンコーダ115から出力されるズームポジションおよびAFエンコーダ117から出力されるフォーカスポジションに基づき、レンズ駆動部116を駆動するコマンドを生成して、レンズ駆動部116に出力する。その生成アルゴリズムは、必要に応じて既存のアルゴリズムを適宜用いてもよい。
Returning to FIG. 1, the description of each configuration of the
The
ボディCPU190は、撮像装置100を統括的に制御する。このボディCPU190は、動作タイミング検出部191を備える。
動作タイミング検出部191は、撮像装置100が備えている動作部の動作状態が変化するタイミングを検出する。この動作状態が変化するタイミングとしては、例えば、動作部が動作を開始する動作開始タイミングと、動作部の動作が停止する動作停止タイミングとがある。
ここでいう動作部とは、例えば、上述した光学系111、あるいは、操作部180のことであり、撮像装置100が備えている構成のうち、動作することにより、または、動作されることにより、動作音を生じる(または、動作音を生じる可能性がある)構成である。
言い換えると、動作部とは、撮像装置100が備えている構成のうち、動作部が動作することにより生じた動作音、または、動作部が動作されることにより生じた動作音が、マイク230により収音される(または、収音される可能性のある)構成である。
The
The operation
The operation unit referred to here is, for example, the
In other words, the operation unit refers to the operation sound generated by the operation of the operation unit or the operation sound generated by the operation of the operation unit being included in the
例えば、この動作タイミング検出部191は、動作部を動作させるコマンドに基づいて、動作部の動作状態が変化するタイミングを検出してもよい。このコマンドとは、動作部を動作させる駆動部に対して、動作部を動作させるようにする駆動制御信号、または、この駆動部を駆動させる駆動制御信号である。
For example, the operation
例えば、動作タイミング検出部191は、ズームレンズ114、VRレンズ113、または、AFレンズ112を駆動させるため、レンズ駆動部116または手ブレ補正部118に入力されるコマンドに基づいて、ズームレンズ114、VRレンズ113、または、AFレンズ112の動作が開始された動作開始タイミングを検出する。この場合、動作タイミング検出部191は、レンズCPU120がコマンドを生成する場合に、レンズCPU120内部で実行される処理やコマンドに基づいて、動作開始タイミングを検出してもよい。
また、動作タイミング検出部191は、操作部180から入力されるズームレンズ114、または、AFレンズ112を駆動させることを示す操作信号に基づいて、動作開始タイミングを検出してもよい。
For example, in order to drive the
Further, the operation
また、動作タイミング検出部191は、動作部が動作したことを示す信号に基づいて、動作部の動作状態が変化するタイミングを検出してもよい。
例えば、動作タイミング検出部191は、ズームエンコーダ115またはAFエンコーダ117の出力に基づいて、ズームレンズ114またはAFレンズ112が駆動されたことを検出することにより、ズームレンズ114またはAFレンズ112の動作開始タイミングを検出してもよい。また、動作タイミング検出部191は、ズームエンコーダ115またはAFエンコーダ117の出力に基づいて、ズームレンズ114またはAFレンズ112が停止されたことを検出することにより、ズームレンズ114またはAFレンズ112の動作停止タイミングを検出してもよい。
また、動作タイミング検出部191は、手ブレ補正部118からの出力に基づいて、VRレンズ113が駆動されたことを検出することにより、VRレンズ113の動作開始タイミングを検出してもよい。この動作タイミング検出部191は、手ブレ補正部118からの出力に基づいて、VRレンズ113が停止されたことを検出することにより、VRレンズ113の動作停止タイミングを検出してもよい。
さらに、動作タイミング検出部191は、操作部180からの入力に基づいて、操作部180が操作されたことを検出することにより、動作部が動作するタイミングを検出してもよい。
Further, the operation
For example, the
Further, the operation
Furthermore, the operation
動作タイミング検出部191は、撮像装置100が備えている動作部の動作開始タイミングを検出し、検出した動作開始タイミングを示す動作タイミング信号を、低減処理部250に出力する。また、動作タイミング検出部191は、撮像装置100が備えている動作部の動作停止タイミングを検出し、この検出した動作停止タイミングを示す動作タイミング信号を、低減処理部250に出力する。
本実施形態において、動作タイミング検出部191は、レンズCPU120から入力されるコマンドに基づき、AFレンズ112を動かすコマンドがレンズCPU120からレンズ駆動部116に出力されるタイミングを、AFレンズ112の動作開始タイミングと判定する。また、動作タイミング検出部191は、衝撃音の発生時間長L1を参照し、例えば、図3を用いた例で示す衝撃音が発生している時刻t10〜t11を示す情報を、動作開始タイミング期間を示す信号(動作タイミング信号)として出力する。
The operation
In the present embodiment, the operation
また、動作タイミング検出部191は、AFエンコーダ117から入力されるパルス信号に基づき、このパルス信号の出力が停止した時を、AFレンズ112の動作が停止した動作停止タイミングと判定する。また、動作タイミング検出部191は、衝撃音の発生時間長L2を参照して、例えば、図3を用いた例で示す衝撃音が発生している時刻t20〜t21を示す情報を、動作停止タイミング期間を示す信号(動作タイミング信号)として出力する。
The operation
A/D変換部240は、マイク230から入力されたアナログ信号であるマイク音信号をデジタル信号であるマイク音信号に変換する。このA/D変換部240は、デジタル信号であるマイク音信号を、低減処理部250に出力する。また、A/D変換部240は、デジタル信号であるマイク音信号を、バッファメモリ部130あるいは記憶媒体200に記憶させる構成であってもよい。この場合、A/D変換部240は、計時部220によって計時された日時情報に基づき、マイク音信号が取得された時刻を示す情報を、マイク音信号に関連付けて、バッファメモリ部130あるいは記憶媒体200に記憶させる。
The A /
低減処理部250は、A/D変換部240によりデジタル信号に変換されたマイク音信号に対して、例えばAFレンズ112、VRレンズ113、ズームレンズ114等の動作部による動作音であるノイズを低減するなどのノイズ低減処理を実行し、このノイズ低減処理した音情報を記憶媒体200に記憶させる。
The
次に、図4を参照して、低減処理部250について詳細に説明する。図4は、本実施形態に係る低減処理部250の機能構成の一例を示すブロック図である。
低減処理部250は、音信号切り出し部251と、ハミング窓処理部252と、フーリエ変換部253と、ノイズ低減処理部254と、逆フーリエ変換部255と、連結調整部256と、信号重ね合わせ部257とを含む。
Next, the
The
音信号切り出し部251は、A/D変換部240から出力されたマイク音信号を、予め決められた時間長のフレームで区切って、フレーム単位の音時間信号を切り出す。ここで、音信号切り出し部251によって切り出されたフレーム単位の音時間信号には、説明便宜のため、奇数番号(S101,S103,S105・・・)を付す。また、音信号切り出し部251は、この奇数番号を割り当てたフレーム単位の音時間信号S101,S103,S105・・・と半分ずつオーバーラップするように、マイク音信号からフレーム単位の音時間信号を切り出す。ここで、音時間信号S101,S103,S105・・・と半分ずつオーバーラップするように音信号切り出し部251によって切り出されたフレーム単位の音時間信号には、説明便宜のため、偶数番号(S102,S104,S106・・・)を付す。
また、音時間信号S101,S102,S103,S104,S105,S106・・・に対応するフレームを、それぞれ、フレームF101,F102,F103,F104,F105,F106・・・と記す。
The sound
Also, frames corresponding to the sound time signals S101, S102, S103, S104, S105, S106,... Are denoted as frames F101, F102, F103, F104, F105, F106,.
なお、音時間信号S101,S103,S105・・・と、音時間信号S102,S104,S106・・・とは、全て同じ長さのフレームである。また、図3に示したように、フレームF101,F102,F103,F104,F105,F106・・・は、2分の1ずつ近くのフレームと重複している。
本実施形態において、音信号切り出し部251は、サンプリング周波数48kHzでフレーム長が1024点となるように、音時間信号S101,S102,S103,S104,S105,S106・・・を切り出す。よって、音時間信号S102は、音時間信号S101の後半の512点、および、音時間信号S103の前半の512点とそれぞれ共通する情報を含む。
The sound time signals S101, S103, S105... And the sound time signals S102, S104, S106. Further, as shown in FIG. 3, the frames F101, F102, F103, F104, F105, F106,...
In this embodiment, the sound
ハミング窓処理部252は、音信号切り出し部251によって切り出された音時間信号S101,S102,S103,S104,S105,S106・・・のそれぞれにハミング窓関数W1を乗算する。なお、ハミング窓処理部252によってハミング窓関数W1で重み付けされた音時間信号を、以下、S201,S202,S203,S204,S205,S206・・・と記す。
また、ハミング窓関数W1は、以下の式(1)で示される。なお、式(1)では、窓の範囲を0〜Tとし、変数を時刻t(0≦t≦T)で示す。
Hamming
Further, the Hamming window function W 1 is expressed by the following equation (1). In Equation (1), the window range is 0 to T, and the variable is indicated by time t (0 ≦ t ≦ T).
フーリエ変換部253は、ハミング窓処理部252によってハミング窓関数W1で重み付けされた音時間信号S201,S202,S203,S204,S205,S206・・・を周波数領域で表わされるスペクトルに変換して、この周波数領域で表わされるスペクトル(周波数スペクトル)をノイズ低減処理部254に出力する。
このフーリエ変換部253は、例えば、音時間信号にフーリエ変換、あるいは高速フーリエ変換(FFT:Fast Fourier Transform)を行うことで、音時間信号を周波数領域に変換する。本実施形態において、フーリエ変換部253は、例えば、音時間信号S201,S202,S203,S204,S205,S206・・・にフーリエ変換を行うことで、窓関数の各規定期間に対応する周波数スペクトルを算出する。なお、フーリエ変換部253が音時間信号を周波数スペクトルに変換する手段は、フーリエ変換に限られない。
なお、フーリエ変換部253によって周波数領域に変換された周波数スペクトルを、以下、S301,S302,S303,S304,S305,S306・・・と記す。つまり、フーリエ変換部253は、入力する音時間信号S201,S202,S203,S204,S205,S206・・・を、周波数スペクトルS301,S302,S303,S304,S305,S306・・・に変換して、ノイズ低減処理部254に出力する。
The
The frequency spectrum converted into the frequency domain by the
図3に示した通り、距離Pでピントを合わせるAF処理を行う場合の動作パターンでは、動作開始タイミング期間と動作停止タイミング期間において衝撃音が発生する。
上述の通り、時刻t0〜t10の期間、時刻t21〜の期間が、非動作期間Ta(動作部が動作しない可能性の高い期間)である。時刻t10〜t11の期間(動作開始タイミング期間)、時刻t20〜t21の期間(動作停止タイミング期間)が、衝撃音発生期間Tb(動作部の動作により衝撃音が発生する可能性の高い期間)である。時刻t11〜t20の期間が、駆動音発生期間Tc(動作部の動作により駆動音が発生する可能性の高い期間)である。
つまり、フレームF101、F113、F114に対応する周波数スペクトルS301、S313、S314は、非動作期間Taに取得されたマイク音信号の周波数スペクトルである。フレームF105〜F108に対応する周波数スペクトルS305〜S308は、動作部が動作する可能性の高い期間のうち、駆動音発生期間Tcに取得されたマイク音信号の周波数スペクトルである。
また、フレームF102〜F104に対応する周波数スペクトルS302〜S304と、フレームF109〜F112に対応する周波数スペクトルS309〜S312は、動作部が動作する可能性の高い期間のうち、衝撃音発生期間Tbに取得されたマイク音信号の周波数スペクトルである。
As shown in FIG. 3, in the operation pattern when performing AF processing for focusing at a distance P, an impact sound is generated in the operation start timing period and the operation stop timing period.
As described above, the period from the time t0 to the time t10 and the period from the time t21 to the non-operation period Ta (a period during which the operation unit is unlikely to operate). The period from time t10 to t11 (operation start timing period) and the period from time t20 to t21 (operation stop timing period) are the impact sound generation period Tb (a period during which an impact sound is highly likely to be generated by the operation of the operation unit). is there. A period from time t11 to t20 is a drive sound generation period Tc (a period during which drive sound is highly likely to be generated by the operation of the operation unit).
That is, the frequency spectra S301, S313, and S314 corresponding to the frames F101, F113, and F114 are the frequency spectra of the microphone sound signal acquired during the non-operation period Ta. Frequency spectra S305 to S308 corresponding to the frames F105 to F108 are frequency spectra of the microphone sound signal acquired in the drive sound generation period Tc in the period in which the operation unit is highly likely to operate.
In addition, the frequency spectrums S302 to S304 corresponding to the frames F102 to F104 and the frequency spectra S309 to S312 corresponding to the frames F109 to F112 are acquired in the impact sound generation period Tb in the period during which the operation unit is likely to operate. It is a frequency spectrum of the made microphone sound signal.
ノイズ低減処理部254は、衝撃音ノイズ低減処理部2541と、駆動音ノイズ低減処理部2542とを含む。このノイズ低減処理部254は、フーリエ変換部253によって周波数領域に変換された周波数スペクトルS301,S302,S303,S304,S305,S306・・・に対して信号処理を施す処理部である。本実施形態において、ノイズ低減処理部254は、動作部の動作により生じる駆動音および衝撃音を低減させるノイズ低減処理を実行する処理部である。
The noise
ノイズ低減処理部254は、動作タイミング検出部191から入力する動作タイミング信号に基づき、動作部が動作する可能性の高い期間に取得される音時間信号の周波数スペクトルを取得する。このノイズ低減処理部254は、例えば、動作タイミング検出部191から入力する動作タイミング信号に基づき、フーリエ変換部253から出力される衝撃音期間Tbおよび駆動音期間Tcに対応する全ての周波数スペクトルS302〜S312を取得する。
本実施形態において、このノイズ低減処理部254は、動作タイミング信号に基づき、例えば、動作音が発生している可能性が高い期間から、衝撃音と駆動音の両方が発生している可能性の高い期間(衝撃音期間Tb)と、駆動音のみが発生している可能性の高い期間(駆動音期間Tc)とを、それぞれ区別して、周波数スペクトルを取得することが好ましい。詳細については後述するが、ノイズ低減処理部254は、衝撃音ノイズ低減処理と、駆動音ノイズ低減処理の両方を行うからである。
具体的に説明すると、ノイズ低減処理部254は、動作タイミング検出部191から入力する動作タイミング信号に基づき、例えば、フーリエ変換部253から出力される周波数スペクトルS301,S302,S303,S304,S305,S306・・・から、駆動音のみが発生している可能性の高い期間(衝撃音期間Tb)に対応する周波数スペクトルS305〜S308と、衝撃音と駆動音の両方が発生している可能性の高い期間(衝撃音期間Tc)に対応する周波数スペクトルS302〜S304、S309〜S312を取得する。
The noise
In the present embodiment, the noise
Specifically, the noise
つまり、ノイズ低減処理部254は、動作タイミング信号に基づき、衝撃音が発生している可能性の高い期間を動作開始タイミング期間と判定する。そして、ノイズ低減処理部254は、この期間に取得されるマイク音信号の周波数スペクトルS302〜S304を、衝撃音と駆動音の両方を含むマイク音信号の周波数スペクトルとして取得する。
また、ノイズ低減処理部254は、動作タイミング信号に基づき、衝撃音が発生している可能性の高い期間を動作停止タイミング期間と判定する。そして、ノイズ低減処理部254は、この期間に取得されるマイク音信号の周波数スペクトルS309〜S312を、衝撃音と駆動音の両方を含むマイク音信号の周波数スペクトルとして取得する。
さらに、ノイズ低減処理部254は、動作タイミング信号に基づき、駆動音が発生している可能性の高い期間を、動作開始タイミング期間の終了点から動作停止タイミング期間の開始点までの期間と判定する。そして、ノイズ低減処理部254は、この期間に取得されるマイク音信号の周波数スペクトルS305〜S308を、駆動音を含むマイク音信号の周波数スペクトルとして取得する。
That is, based on the operation timing signal, the noise
In addition, the noise
Further, the noise
このノイズ低減処理部254は、取得した周波数スペクトルS302〜S312に対して、動作パターンに応じて予め決められているノイズを低減するノイズ低減処理を行う。
例えば、ノイズ低減処理部254の衝撃音ノイズ低減処理部2541は、衝撃音と駆動音の両方を含むマイク音信号の周波数スペクトルS302〜S304、S309〜S312に対して、衝撃音に対応する周波数スペクトルを低減する衝撃音低減処理を実行する。
また、ノイズ低減処理部254の駆動音ノイズ低減処理部2542は、動作音を含むマイク音信号の周波数スペクトルS302〜S312に対して、駆動音に対応する周波数スペクトルを低減する駆動音低減処理を実行する。この駆動音ノイズ低減処理部2542は、衝撃音低減処理を実行した周波数スペクトルS302〜S304とS309〜S312、および駆動音のみを含むマイク音信号の周波数スペクトルS305〜S308の両方に対して、駆動音低減処理を実行することが好ましい。本実施形態において、駆動音ノイズ低減処理部2542は、衝撃音低減処理を実行した周波数スペクトルを含む動作時の全ての周波数スペクトルS302〜S312に対して駆動音低減処理を実行する例について説明する。
The noise
For example, the impact sound noise
In addition, the driving sound noise
衝撃音ノイズ低減処理部2541は、動作タイミング検出部191から入力するタイミング信号に基づき、例えば、フーリエ変換部253から出力される周波数スペクトルS301,S302,S303,S304,S305,S306・・・から、衝撃音が発生している可能性の高い期間に対応する周波数スペクトル(以下、衝撃音処理周波数スペクトルSSという)を取得する。例えば、衝撃音ノイズ低減処理部2541は、動作開始タイミングt10に対応する衝撃音発生期間t10〜t11を示す動作タイミング信号に基づき、衝撃音が発生している可能性のある期間に対応する周波数スペクトルS302〜S304を、衝撃音処理周波数スペクトルSSとして取得する。衝撃音ノイズ低減処理部2541は、動作停止タイミングt20に対応する衝撃音発生期間t20〜t21を示す動作タイミング信号に基づき、衝撃音が発生している可能性のある期間に対応する周波数スペクトルS309〜S312を、衝撃音処理周波数スペクトルSSとして取得する。
The shock noise
また、衝撃音ノイズ低減処理部2541は、動作タイミング検出部191から入力するタイミング信号に基づき、フーリエ変換部253から出力される周波数スペクトルS301,S302,S303,S304,S305,S306・・・から、衝撃音が発生していない可能性の高い期間に対応する周波数スペクトル(以下、衝撃音フロアリングスペクトルFSという)を取得する。この衝撃音ノイズ低減処理部2541は、衝撃音を含んでいる可能性の高い衝撃音処理周波数スペクトルSSごとに、この衝撃音を含む可能性の低い衝撃音フロアリングスペクトルFSを取得する。本実施形態において、衝撃音ノイズ低減処理部2541は、衝撃音処理周波数スペクトルSSと時間軸方向において最も近い衝撃音処理周波数スペクトルSS以外の周波数スペクトルを衝撃音フロアリングスペクトルFSとして取得する。つまり、衝撃音ノイズ低減処理部2541は、衝撃音処理周波数スペクトルSSと時間軸方向に隣接あるいは重複する衝撃音処理周波数スペクトルSS以外の周波数スペクトルを衝撃音フロアリングスペクトルFSとして取得する。
なお、本実施形態において、衝撃音フロアリングスペクトルFSは、衝撃音が発生していない可能性の高い期間に対応する周波数スペクトルである。しかし、本発明はこれに限られず、衝撃音フロアリングスペクトルFSは、衝撃音以外の動作音(つまり、駆動音)が発生している可能性の高い期間に対応する周波数スペクトルであってもよい。なお、衝撃音フロアリングスペクトルFSは、動作部の動作によって発生するノイズ音が発生しない可能性の高い期間に対応する周波数スペクトルであることが好ましい。
Further, the shock noise
In the present embodiment, the impact sound flooring spectrum FS is a frequency spectrum corresponding to a period in which there is a high possibility that no impact sound is generated. However, the present invention is not limited to this, and the impact sound flooring spectrum FS may be a frequency spectrum corresponding to a period during which an operation sound other than the impact sound (that is, a drive sound) is likely to be generated. . In addition, it is preferable that the impact sound flooring spectrum FS is a frequency spectrum corresponding to a period during which noise noise generated by the operation of the operation unit is highly unlikely to occur.
ここで、図5を参照して、衝撃音ノイズ低減処理部2541が取得する衝撃音処理周波数スペクトルSSと衝撃音フロアリングスペクトルFSとの関係の一例について説明する。図5は、衝撃音ノイズ低減処理部2541が取得する衝撃音処理周波数スペクトルSSと衝撃音フロアリングスペクトルFSの一例を説明するための図である。
例えば、衝撃音ノイズ低減処理部2541は、衝撃音発生期間t10〜t11を示す動作タイミング信号に基づき、衝撃音が発生している可能性のある期間に対応する周波数スペクトルS302〜S304を、衝撃音処理周波数スペクトルSSとして取得する。
そして、衝撃音ノイズ低減処理部2541は、衝撃音発生期間t10〜t11を示す動作タイミング信号に基づき、衝撃音処理周波数スペクトルSSである周波数スペクトルS302、S303に最も近い非動作期間Taに対応する周波数スペクトルS301を、衝撃音処理周波数スペクトルSSである周波数スペクトルS302、S303に対応する衝撃音フロアリングスペクトルFSと判定する。
また、衝撃音ノイズ低減処理部2541は、衝撃音発生期間t10〜t11を示す動作タイミング信号に基づき、衝撃音処理周波数スペクトルSSである周波数スペクトルS304に最も近い駆動音発生期間Tcに対応する周波数スペクトルS305を、衝撃音処理周波数スペクトルSSである周波数スペクトルS304に対応する衝撃音フロアリングスペクトルFSと判定する。
Here, an example of the relationship between the impact sound processing frequency spectrum SS and the impact sound flooring spectrum FS acquired by the impact sound noise
For example, the impact sound noise
Then, the shock noise
Further, the impact sound noise
また、衝撃音ノイズ低減処理部2541は、衝撃音発生期間t20〜t21を示す動作タイミング信号に基づき、衝撃音が発生している可能性のある期間に対応する周波数スペクトルS309〜S312を、衝撃音処理周波数スペクトルSSとして取得する。
そして、衝撃音ノイズ低減処理部2541は、衝撃音発生期間t20〜t21を示す動作タイミング信号に基づき、衝撃音処理周波数スペクトルSSである周波数スペクトルS309、S310に最も近い駆動音発生期間Tcに対応する周波数スペクトルS308を、衝撃音処理周波数スペクトルSSである周波数スペクトルS309、S310に対応する衝撃音フロアリングスペクトルFSと判定する。
また、衝撃音ノイズ低減処理部2541は、衝撃音発生期間t20〜t21を示す動作タイミング信号に基づき、衝撃音処理周波数スペクトルSSである周波数スペクトルS311、S312に最も近い非動作期間Taに対応する周波数スペクトルS313を、衝撃音処理周波数スペクトルSSである周波数スペクトルS311、S312に対応する衝撃音フロアリングスペクトルFSと判定する。
Further, the impact sound noise
The impact sound noise
Further, the impact sound noise
さらに、衝撃音ノイズ低減処理部2541は、衝撃音処理周波数スペクトルSSの少なくとも一部を、衝撃音フロアリングスペクトルFSの対応する部分に置き換える。
例えば、衝撃音ノイズ低減処理部2541は、衝撃音処理周波数スペクトルSSのうち予め決められた閾値周波数以上の周波数スペクトルと、衝撃音フロアリングスペクトルFSのうち予め決められた閾値周波数以上の周波数スペクトルとを、周波数成分ごとに比較する。そして、衝撃音フロアリングスペクトルFSの方が衝撃音処理周波数スペクトルSSに比べて小さいと判定した場合に、衝撃音ノイズ低減処理部2541は、衝撃音処理周波数スペクトルSSにおける当該周波数成分を衝撃音フロアリングスペクトルFSの周波数成分に置き換える。
Furthermore, the impact sound noise
For example, the impact sound noise
図6を参照して詳細に説明する。図6は、一部の周波数スペクトルの周波数成分の一例について説明するための図である。なお、本実施の形態では、説明便宜のため、図3に示すマイク音信号のうち、フレームF101,F103,F105,F107,F111,F113に対応する周波数スペクトルS301,S303,S305,S307,S311,S313について説明する。
図6に示す通り、周波数スペクトルS301,S303,S305,S307,S311,S313は、それぞれ、周波数成分f1〜f9の周波数成分を含む。
例えば、衝撃音ノイズ低減処理部2541は、各周波数スペクトルの閾値周波数以上の周波数成分として、周波数成分f3〜f9について、衝撃音処理周波数スペクトルSSと衝撃音フロアリングスペクトルFSとを比較することが予め決められている。よって、衝撃音ノイズ低減処理部2541は、周波数成分f1,f2については、衝撃音処理周波数スペクトルSSと衝撃音フロアリングスペクトルFSとを比較しない。
This will be described in detail with reference to FIG. FIG. 6 is a diagram for explaining an example of frequency components of a part of the frequency spectrum. In the present embodiment, for convenience of explanation, among the microphone sound signals shown in FIG. S313 will be described.
As shown in FIG. 6, the frequency spectrums S301, S303, S305, S307, S311, and S313 each include frequency components f1 to f9.
For example, the impact sound noise
次いで、図7を参照して、周波数スペクトルS301とS303について、衝撃音ノイズ低減処理部2541による衝撃音ノイズ低減処理の一例について説明する。
図7は、周波数スペクトルS301とS303の周波数成分ごとに、振幅の比較について説明するための図である。
例えば、衝撃音ノイズ低減処理部2541は、周波数スペクトルS301の周波数成分f3の振幅と、周波数スペクトルS303の周波数成分f3の振幅とを比較する。この場合、周波数スペクトルS301の周波数成分f3の振幅の方が、周波数スペクトルS303の周波数成分f3の振幅に比べて小さい。よって、衝撃音ノイズ低減処理部2541は、周波数スペクトルS303の周波数成分f3を、周波数スペクトルS301の周波数成分f3に置き換える。
Next, with reference to FIG. 7, an example of impact sound noise reduction processing by the impact sound noise
FIG. 7 is a diagram for explaining comparison of amplitude for each frequency component of the frequency spectra S301 and S303.
For example, the impact noise
また、衝撃音ノイズ低減処理部2541は、周波数スペクトルS301の周波数成分f4の振幅と、周波数スペクトルS303の周波数成分f4の振幅とを比較する。この場合、周波数スペクトルS301の周波数成分f4の振幅の方が、周波数スペクトルS303の周波数成分f4の振幅に比べて大きい。よって、衝撃音ノイズ低減処理部2541は、周波数スペクトルS303の周波数成分f3を、周波数スペクトルS301の周波数成分f3に置き換えない。
このようにして、衝撃音ノイズ低減処理部2541は、周波数スペクトルS301の周波数成分の振幅の方が、周波数スペクトルS303の周波数成分の振幅に比べて小さい場合のみ、周波数スペクトルS303の周波数成分を周波数スペクトルS301の周波数成分に置き換える。
図7に示す場合、衝撃音ノイズ低減処理部2541は、周波数スペクトルS303の周波数成分f3、f6〜f9を周波数スペクトルS301の周波数成分f3、f6〜f9に置き換える。
Further, the impact sound noise
In this way, the impact sound noise
In the case illustrated in FIG. 7, the impact noise
駆動音ノイズ低減処理部2542は、動作タイミング検出部191から入力するタイミング信号に基づき、例えば、フーリエ変換部253から出力される周波数スペクトルS301,S302,S303,S304,S305,S306・・・から、駆動音が発生している可能性の高い期間に対応する周波数スペクトル(以下、駆動音処理周波数スペクトルKSという)を取得する。例えば、駆動音ノイズ低減処理部2542は、動作開始タイミングt10に対応する衝撃音発生期間t10〜t11を示す動作タイミングと、動作停止タイミングt20に対応する衝撃音発生期間t20〜t21を示す動作タイミング信号に基づき、駆動音が発生している可能性のある期間に対応する周波数スペクトルS302〜S312を、駆動音処理周波数スペクトルKSとして取得する。
The drive sound noise
この駆動音ノイズ低減処理部2542は、取得した駆動音処理周波数スペクトルKSに対して、駆動パターンに応じて予め決められているノイズを低減する駆動音ノイズ低減処理を行う。例えば、駆動音ノイズ低減処理部2542は、駆動パターンに応じて予め決められているノイズを表わす周波数スペクトルの周波数成分を、駆動音処理周波数スペクトルKSの周波数成分から減算する周波数スペクトル減算法を用いる。なお、駆動パターンに応じて予め決められているノイズの周波数スペクトルは、設定値として駆動音ノイズ低減処理部2542に予め設定されている。しかし本発明はこれに限られず、駆動音ノイズ低減処理部2542が、過去のマイク音信号に基づき、駆動音が発生しているフレームの周波数スペクトルから駆動音が発生していないフレームの周波数スペクトルを減算することにより、推定される駆動音のノイズの周波数スペクトル(以下、推定ノイズスペクトルという)を、駆動パターンごとに算出しておくものであってもよい。
The drive sound noise
なお、ノイズ低減処理部254によって信号処理された後の周波数スペクトルを、以下、S401,S402,S403,S404,S405,S406・・・と記す。つまり、ノイズ低減処理部254は、入力する周波数スペクトルS301,S302,S303,S304,S305,S306・・・を信号処理した処理結果である周波数スペクトルS401,S402,S403,S404,S405,S406・・・を、逆フーリエ変換部255に出力する。
Hereinafter, the frequency spectrum after the signal processing by the noise
逆フーリエ変換部255は、ノイズ低減処理部254によって信号処理された周波数スペクトルS401,S402,S403,S404,S405,S406・・・に対して、例えば逆フーリエ変換、あるいは逆高速フーリエ変換(IFFT:Inverse Fast Fourier Transform)を行うことで、時間領域に変換する。
なお、逆フーリエ変換部255によって時間領域に変換された音時間信号を、以下、S501,S502,S503,S504,S505,S506・・・と記す。つまり、逆フーリエ変換部255は、入力する周波数スペクトルS401,S402,S403,S404,S405,S406・・・を、音時間信号S501,S502,S503,S504,S505,S506・・・に変換して、連結調整部256に出力する。
The inverse
Note that the sound time signals converted into the time domain by the inverse
連結調整部256は、逆フーリエ変換部255から入力された音時間信号S501,S502,S503,S504,S505,S506・・・のそれぞれに連結調整窓関数W3を乗算する。なお、連結調整部256によって連結調整窓関数W3で重み付けされた音時間信号を、以下、S601,S602,S603,S604,S605,S606・・・と記す。
本実施形態において、連結調整部256は、以下の式(2)に示す連結調整窓関数W3=ハニング窓関数W2/ハミング窓関数W1を、音時間信号S501,S502,S503,S504,S505,S506・・・のそれぞれに乗算する。なお、式(2)では、窓の範囲を0〜Tとし、変数を時刻t(0≦t≦T)で示す。
Coupling adjusting
In the present embodiment, the
なお、ハニング窓関数W2は、以下の式(3)に示す。式(3)では、窓の範囲を0〜Tとし、変数を時刻t(0≦t≦T)で示す。 Incidentally, Hanning window function W 2 is shown in the following equation (3). In Expression (3), the window range is 0 to T, and the variable is indicated by time t (0 ≦ t ≦ T).
信号重ね合わせ部257は、連結調整部256から入力する音時間信号S601,S602,S603,S604,S605,S606・・・に基づき、もとのマイク音信号の配置にあわせてつなぎ合わせる。本実施形態において、マイク音信号は、音信号切り出し部251によって、付番が奇数番号と偶数番号の音時間信号が半分ずつオーバーラップするようにフレーム単位に切り出されている。従って、信号重ね合わせ部257は、付番が奇数番号と偶数番号の音時間信号が半分ずつオーバーラップするように音時間信号S601,S602,S603,S604,S605,S606・・・を重ね合わせて連結させる。
Based on the sound time signals S601, S602, S603, S604, S605, S606,... Input from the
この信号重ね合わせ部257は、音時間信号S601,S602,S603,S604,S605,S606・・・をつなぎ合わせた音情報を、記憶媒体200に記憶させる。なお、信号重ね合わせ部257は、つなぎ合わされた音情報と、撮像素子119により撮像された画像データとを、対応する日時情報を有する同士で対応付けて、記憶媒体200に記憶させてもよく、音情報を含む動画として記憶してもよい。
The
次に、図8〜17を参照して、本実施形態に係る低減処理部250によって処理される音時間信号の一例について説明する。
図8は、ハミング窓関数W1の一例を示す図である。また、図9は、ハニング窓関数W2の一例を示す図である。さらに、図10は、連結調整窓関数W3の一例を示す図である。
図8に示す通り、ハミング窓関数W1は、窓の両端の値が中央の値に比べて小さく、かつ、窓の両端が0(ゼロ)よりも大きい窓関数である。
一方、ハニング窓関数W2は、図9に示す通り、窓の両端の値が中央の値に比べて小さく、かつ、窓の両端が0(ゼロ)となる窓関数である。
また、連結調整窓関数W3は、図10に示す通り、窓の両端の値が中央の値に比べて小さく、かつ、窓の両端が0(ゼロ)となる窓関数である。なお、連結調整窓関数W3の中央付近は、ハミング窓関数W1やハニング窓関数W2に比べて、1に近い値である。
Next, an example of a sound time signal processed by the
Figure 8 is a diagram showing an example of a Hamming window function W 1. 9 is a diagram showing an example of a Hanning window function W 2. Further, FIG. 10 is a diagram showing an example of the connection adjustment window function W 3.
As shown in FIG. 8, Hamming window function W 1 is smaller values at both ends of the window than the center value, and the ends of the window is larger window function than 0 (zero).
On the other hand, Hanning window function W 2, as shown in FIG. 9, the values at both ends of the window is smaller than the center value, and a window function both ends of the window is 0 (zero).
The coupling adjustment window function W 3 being as shown in FIG. 10, the values of both ends of the window is smaller than the center value, and a window function both ends of the window is 0 (zero). Note that near the center of the coupling adjustment window function W 3 being compared to Hamming window function W 1 or Hanning window function W 2, a value close to 1.
図11は、低減処理部250に入力するマイク音信号の一例を示す図である。図11には、フレームF101〜F103に対応する部分のみを示す。
図12は、音信号切り出し部251によって切出されたフレームF103に対応する音時間信号S103の一例を示す。図12に示す通り、フレームF103に対応する音時間信号には、衝撃音が含まれている。
図13は、ハミング窓処理部252によって音時間信号S103にハミング窓関数W1を乗算した音時間信号S203の一例を示す。図13に示す通り、音時間信号S203の両端は、図12に示した音時間信号S103の両端に比べて小さくなっているが、その両端の値は0(ゼロ)ではない。
図14は、ノイズ低減処理部254によってノイズ低減処理がなされた後の音時間信号S603の一例を示す。つまり、図14は、ノイズ低減処理がなされた周波数スペクトルS403を時間領域に変換した音時間信号S503に連結調整窓関数W3を乗算した音時間信号S603の一例を示す。また、図15は、図14に示す音時間信号S603の窓の端部に対応する部分を拡大して示す拡大図である。
図14、15に示す通り、音時間信号S603は、衝撃音(あるいは駆動音も含む)が低減されており、音時間信号S603の窓の両端は、0(ゼロ)である。
FIG. 11 is a diagram illustrating an example of a microphone sound signal input to the
FIG. 12 shows an example of the sound time signal S103 corresponding to the frame F103 cut out by the sound
Figure 13 shows an example of the sound time signal S203 obtained by multiplying the Hamming window function W 1 to the sound time signal S103 by a
FIG. 14 shows an example of the sound time signal S603 after the noise reduction processing is performed by the noise
As shown in FIGS. 14 and 15, the sound time signal S603 has a reduced impact sound (or drive sound), and both ends of the window of the sound time signal S603 are 0 (zero).
図16は、信号重ね合わせ部257によって、音時間信号S601,S602,S603をつなぎ合わせた音情報を示す図である。また、図17は、音時間信号S601とS603のつなぎ目を拡大した拡大図である。図16、17に示す通り、音時間信号S601とS603のつなぎ目は連続した状態となっている。これは、図14、15に示したとおり、ノイズ低減処理部254によってノイズ低減処理がなされた周波数スペクトルは、時間領域に変換された後、連結調整窓関数W3が乗算されることによって、その音時間信号の窓の両端の値が0(ゼロ)になるからである。
このように、ノイズ低減処理された音時間信号に対して両端が0(ゼロ)の窓関数を乗算することにより、この音時間信号の窓の両端の値を0(ゼロ)にすることができる。よって、音時間信号同士のつなぎ目の値が0(ゼロ)で一致するため、つなぎ目の値が異なることにより音がとび、発生するおそれのあるノイズを低減することができる。
FIG. 16 is a diagram illustrating sound information obtained by connecting the sound time signals S601, S602, and S603 by the
In this way, by multiplying the sound time signal subjected to noise reduction by the window function having both ends of 0 (zero), the values at both ends of the sound time signal window can be set to 0 (zero). . Therefore, since the joint value of the sound time signals matches with 0 (zero), noise that may occur due to the sound skipping due to the different joint value can be reduced.
また、本実施形態に係る低減処理部250は、フーリエ変換部253によって周波数スペクトルに変換する前の音時間信号S101,S102,S103,S104,S105,S106・・・に対してハミング窓関数W1を乗算している。このハミング窓関数W1は、ハニング窓関数W2に比べてサイドローブが小さいという特徴がある。具体的に説明すると、ハミング窓関数W1のサイドローブは−43dBであるのに対して、ハニング窓関数W2のサイドローブは−32dBである。よって、ハミング窓関数W1で重み付けした後に周波数領域で信号処理することにより、ノイズ低減処理部254は、処理対象音に含まれる接近する周波数成分を分離しやすくなる。従って、ノイズ低減処理部254の処理効果を向上できるという利点がある。
Further, the
次に、図18〜22を参照して、本実施形態によらない例について説明する。
図18は、音時間信号S103にハニング窓関数W2が乗算された音時間信号S1203の一例を示す。図18に示す通り、音時間信号S1203の窓の両端の値は、音時間信号S103の窓の両端に比べて小さくなり、0(ゼロ)になる。
図19は、ノイズ低減処理がなされた音時間信号の一例を示す。つまり、図19は、ノイズ低減処理がなされた周波数スペクトルS1403を時間領域に変換した音時間信号S1503の一例を示す。なお、この周波数スペクトルS1403は、音時間信号S1203を周波数領域に変換した周波数スペクトルS1303にノイズ低減処理をした周波数スペクトルである。
また、図20は、図19に示す音時間信号S1503の窓の端部に対応する部分を拡大して示す拡大図である。
図19、20に示す通り、音時間信号S1503は、衝撃音(あるいは駆動音も含む)が低減されているものの、音時間信号S1503の窓の両端の値は、0(ゼロ)ではない。図19、20に示す例では、音時間信号S1503の左端の値は、0.01となっている。
Next, an example not according to the present embodiment will be described with reference to FIGS.
Figure 18 shows an example of a Hanning window function W sound 2 is multiplied times the signal S1203 to the sound time signal S103. As shown in FIG. 18, the values at both ends of the window of the sound time signal S1203 are smaller than both ends of the window of the sound time signal S103 and become 0 (zero).
FIG. 19 shows an example of a sound time signal subjected to noise reduction processing. That is, FIG. 19 shows an example of a sound time signal S1503 obtained by converting the frequency spectrum S1403 subjected to noise reduction processing into the time domain. The frequency spectrum S1403 is a frequency spectrum obtained by performing noise reduction processing on the frequency spectrum S1303 obtained by converting the sound time signal S1203 into the frequency domain.
FIG. 20 is an enlarged view showing a portion corresponding to the end of the window of the sound time signal S1503 shown in FIG.
As shown in FIGS. 19 and 20, the sound time signal S1503 has reduced impact sound (or drive sound), but the values at both ends of the window of the sound time signal S1503 are not 0 (zero). In the examples shown in FIGS. 19 and 20, the value at the left end of the sound time signal S1503 is 0.01.
ここで、音時間信号S1503の両端の値が0(ゼロ)でなくなる理由を説明する。
低減処理前の音時間信号S103に含まれる主な周波数スペクトルは、フレームF103内で8周期のcos成分である。また、音時間信号S103には、それ以外に、衝撃音の周波数スペクトルが含まれている。
つまり、音時間信号S103にハニング窓関数W2を乗算した音時間信号S1203の周波数スペクトルは、上記8周期のcos成分および衝撃音を含む周波数スペクトルにハニング窓関数W2の影響を加えたものである。この状態では、音時間信号S1203の両端の値は0(ゼロ)になっている。これは、音時間信号S1203には、主な周波数スペクトルであるcos成分の両端の値を0(ゼロ)にする複数の周波数成分が存在し、cos成分と打ち消しあっているためである。
しかし、ノイズ低減処理によって、衝撃音が除去されると、衝撃音由来の周波数スペクトルが除去され、cos成分と打ち消しあっていたバランスが崩れ、両端の値が0(ゼロ)ではなくなる。
このため、ノイズ低減処理後の音時間信号S1503の窓の両端の値は、0(ゼロ)ではなくなっている。
Here, the reason why the values at both ends of the sound time signal S1503 are not 0 (zero) will be described.
The main frequency spectrum included in the sound time signal S103 before the reduction process is a cosine component of 8 periods in the frame F103. In addition, the sound time signal S103 includes the frequency spectrum of the impact sound.
That is, the frequency spectrum of the sound time signal S103 to the Hanning window function W 2 sound time signal S1203 multiplied by the plus the effect of the Hanning window function W 2 into a frequency spectrum including the cos component and the impact sound of the 8 cycles is there. In this state, the values at both ends of the sound time signal S1203 are 0 (zero). This is because the sound time signal S1203 includes a plurality of frequency components whose values at both ends of the cos component, which is the main frequency spectrum, are 0 (zero), and cancels out with the cos component.
However, when the impact sound is removed by the noise reduction processing, the frequency spectrum derived from the impact sound is removed, the balance cancelled with the cos component is lost, and the values at both ends are not 0 (zero).
For this reason, the values at both ends of the window of the sound time signal S1503 after the noise reduction processing are not 0 (zero).
図21は、ノイズ低減処理後の周波数スペクトルを時間領域に変換した音時間信号をつなぎ合わせた音情報を示す図である。具体的に説明すると、図21は、図19,20に示す音時間信号S1503をこの音時間信号S1503と隣接する音時間信号S1501とつなぎ合わせ、音時間信号S1502が重畳している音情報を示す。
また、図22は、音時間信号S1501とS1503のつなぎ目を拡大した拡大図である。図21、22に示す通り、音時間信号S1501とS1503のつなぎ目は連続していない。これは、図19、20に示したとおり、本発明によらない場合、ノイズ低減処理後の周波数スペクトルS1401,S1402,S1403・・・に対して、連結調整窓関数W3が乗算されることなく、周波数スペクトルS1401,S1402,S1403・・・が時間領域の音時間信号S1501,S1502,S1503・・・に変換されるためである。
このように、ノイズ低減処理後の音時間信号の窓の両端の値が0(ゼロ)でない場合、音時間信号同士のつなぎ目が一致しない。よって、つなぎ目の値が異なることにより音がとび、ノイズが発生するおそれがある。本願発明は、この問題を解決するものである。
FIG. 21 is a diagram showing sound information obtained by connecting sound time signals obtained by converting the frequency spectrum after noise reduction processing into the time domain. More specifically, FIG. 21 shows sound information in which the sound time signal S1503 shown in FIGS. 19 and 20 is connected to the sound time signal S1501 adjacent to the sound time signal S1503 and the sound time signal S1502 is superimposed. .
FIG. 22 is an enlarged view in which the joint between the sound time signals S1501 and S1503 is enlarged. As shown in FIGS. 21 and 22, the joint between the sound time signals S1501 and S1503 is not continuous. This is because, as shown in FIGS. 19 and 20, when not according to the present invention, the frequency spectrum S1401 after the noise reduction process, S1402, with respect to S1403 · · ·, without consolidation adjustment window function W 3 is multiplied This is because the frequency spectra S1401, S1402, S1403,... Are converted into sound time signals S1501, S1502, S1503,.
Thus, when the values at both ends of the window of the sound time signal after the noise reduction processing are not 0 (zero), the joints of the sound time signals do not match. Therefore, the sound skips due to the different values of the joints, and noise may occur. The present invention solves this problem.
次に、図23を参照して、本実施形態に係るノイズ低減処理方法の一例について説明する。図23は、本実施形態に係るノイズ低減処理方法の一例を示すフローチャートである。
例えば、操作部180の電源スイッチがONされると、撮像装置100に電源が投入され、電池260から各構成部に対して電力が供給される。本実施形態では、撮像装置100に対して、撮像時の画像データと音声データを対応付けて記憶媒体200に記憶させることが予め設定されている。
Next, an example of the noise reduction processing method according to the present embodiment will be described with reference to FIG. FIG. 23 is a flowchart illustrating an example of the noise reduction processing method according to the present embodiment.
For example, when the power switch of the
(ステップST1)
マイク230は、例えば、動画撮影ボタンがONされると、収音されたマイク音信号をA/D変換部240に出力する。A/D変換部240は、アナログ信号であるマイク音信号をデジタル変換したマイク音信号を低減処理部250に出力する。
低減処理部250は、A/D変換部240からマイク音信号を入力する。
(Step ST1)
For example, when the moving image shooting button is turned on, the
The
ここで、ユーザによって、例えば、操作部180のレリーズボタンが押下されたとする。この場合、レンズCPU120は、AF処理において、例えば距離Pでピントを合わせるAF処理を実行するためのコマンドを、レンズ駆動部116と動作タイミング検出部191に出力する。
このレンズ駆動部116は、入力するコマンドに基づき、距離Pでピントを合わせる駆動パターンに従って、AFレンズ112を移動させる。例えば、レンズ駆動部116は、AFレンズ112の駆動機構を時計回りに所定量回転させて、AFレンズ112を光軸に沿って移動させる。なお、この駆動機構を回転させる回転量やスピードは、距離Pでピントを合わせる駆動パターンとして、予め決められている。
AFレンズ112が動くと、AFエンコーダ117は、パルス信号をボディCPU190に出力する。このボディCPU190は、AFエンコーダ117からパルス信号が入力されたことを示す情報を動作タイミング検出部191に出力する。動いていたAFレンズ112が停止すると、AFエンコーダ117は、ボディCPU190へのパルス信号の出力を停止させる。このボディCPU190は、AFエンコーダ117からのパルス信号の出力が停止されたことを示す情報を動作タイミング検出部191に出力する。
Here, it is assumed that the release button of the
The
When the AF lens 112 moves, the
動作タイミング検出部191は、入力するコマンドやAFエンコーダ117の出力に基づき、距離Pでピントを合わせる駆動パターンに従って、動作タイミング信号を生成し、低減処理部250に出力する。
例えば、距離Pでピントを合わせるAF処理を実行するためのコマンドをレンズCPU120から入力した場合、動作タイミング検出部191は、AFレンズ112の動作開始タイミングt10に対応する衝撃音発生期間(動作開始タイミング期間)t10〜t11を示す動作開始タイミング信号を生成し、低減処理部250に出力する。
そして、AFエンコーダ117から入力するパルス信号が停止された場合、動作タイミング検出部191は、AFレンズ112の動作停止タイミングt20に対応する衝撃音発生期間(動作開始タイミング期間)t20〜t21を示す動作停止タイミング信号を生成し、低減処理部250に出力する。
The operation
For example, when a command for executing an AF process for focusing at a distance P is input from the
When the pulse signal input from the
(ステップST2)
低減処理部250は、動作タイミング検出部191から動作タイミング信号が入力されたか否かを判定する。
(ステップST3)
動作タイミング信号が入力された場合、低減処理部250は、入力するマイク音信号を周波数領域に変換した周波数スペクトルに基づき、ノイズ低減処理を実行する。
具体的に説明すると、低減処理部250の音信号切り出し部251は、予め決められた時間長のフレームでマイク音信号を区切って、フレーム単位の音時間信号S101,S102,S103,S104,S105,S106・・・をハミング窓処理部252に出力する。
ハミング窓処理部252は、入力する音時間信号S101,S102,S103,S104,S105,S106・・・のそれぞれにハミング窓関数W1を乗算する。そして、ハミング窓処理部252は、ハミング窓関数W1で重み付けされた音時間信号S201,S202,S203,S204,S205,S206・・・を、フーリエ変換部253に出力する。
そして、フーリエ変換部253は、入力する音時間信号S201,S202,S203,S204,S205,S206・・・を周波数領域で表わされる周波数スペクトルS301,S302,S303,S304,S305,S306・・・に変換して、ノイズ低減処理部254に出力する。
(Step ST2)
The
(Step ST3)
When the operation timing signal is input, the
More specifically, the sound
Hamming
The
(ステップST4)
次いで、衝撃音ノイズ低減処理部2541は、フーリエ変換部253から入力する周波数スペクトルS301,S302,S303,S304,S305,S306・・・に対して衝撃音ノイズ低減処理を実行する。
例えば、衝撃音ノイズ低減処理部2541は、動作開始タイミングt10に対応する衝撃音発生期間t10〜t11を示す動作タイミング信号に基づき、衝撃音が発生している可能性のある期間に対応する周波数スペクトルS302〜S304を、衝撃音処理周波数スペクトルSSとして取得する。
そして、衝撃音ノイズ低減処理部2541は、動作開始タイミングt10に対応する衝撃音発生期間t10〜t11を示す動作タイミング信号に基づき、衝撃音処理周波数スペクトルSSである周波数スペクトルS302、S303に対応する衝撃音フロアリングスペクトルFSとして、周波数スペクトルS302、303の直前の周波数スペクトルS301を取得する。また、衝撃音ノイズ低減処理部2541は、動作開始タイミングt10に対応する衝撃音発生期間t10〜t11を示す動作タイミング信号に基づき、衝撃音処理周波数スペクトルSSである周波数スペクトルS304に対応する衝撃音フロアリングスペクトルFSとして、周波数スペクトルS304の直後の周波数スペクトルS305を取得する。
(Step ST4)
Next, the impact sound noise
For example, the impact sound noise
The impact sound noise
また、衝撃音ノイズ低減処理部2541は、動作停止タイミングt20に対応する衝撃音発生期間t20〜t21を示す動作タイミング信号に基づき、衝撃音が発生している可能性のある期間に対応する周波数スペクトルS309〜S312を、衝撃音処理周波数スペクトルSSとして取得する。
そして、衝撃音ノイズ低減処理部2541は、動作停止タイミングt20に対応する衝撃音発生期間t20〜t21を示す動作タイミング信号に基づき、衝撃音処理周波数スペクトルSSである周波数スペクトルS309、S310に対応する衝撃音フロアリングスペクトルFSとして、周波数スペクトルS309、S310の直前の周波数スペクトルS308を取得する。また、衝撃音ノイズ低減処理部2541は、動作開始タイミングt20に対応する衝撃音発生期間t20〜t21を示す動作タイミング信号に基づき、衝撃音処理周波数スペクトルSSである周波数スペクトルS311、S312に対応する衝撃音フロアリングスペクトルFSとして、周波数スペクトルS311、S312の直後の周波数スペクトルS313を取得する。
Also, the impact sound noise
The shock noise
(ステップST5)
次いで、衝撃音ノイズ低減処理部2541は、各周波数スペクトルの閾値周波数以上の周波数成分として、周波数成分f3〜f9について、衝撃音処理周波数スペクトルSSと衝撃音フロアリングスペクトルFSを比較する。
例えば、衝撃音ノイズ低減処理部2541は、周波数スペクトルS301の周波数成分f3の振幅と、周波数スペクトルS302の周波数成分f3の振幅とを比較する。この場合、周波数スペクトルS301の周波数成分f3の振幅の方が、周波数スペクトルS302の周波数成分f3の振幅に比べて小さい。よって、衝撃音ノイズ低減処理部2541は、周波数スペクトルS303の周波数成分f3を、周波数スペクトルS301の周波数成分f3に置き換える。
また、衝撃音ノイズ低減処理部2541は、周波数スペクトルS301の周波数成分f4の振幅と、周波数スペクトルS303の周波数成分f4の振幅とを比較する。この場合、周波数スペクトルS301の周波数成分f4の振幅の方が、周波数スペクトルS303の周波数成分f4の振幅に比べて大きい。よって、衝撃音ノイズ低減処理部2541は、周波数スペクトルS303の周波数成分f4を、周波数スペクトルS301の周波数成分f4に置き換えない。
このようにして、衝撃音ノイズ低減処理部2541は、周波数スペクトルS301の周波数成分の振幅の方が、周波数スペクトルS303の周波数成分の振幅に比べて小さい場合のみ、周波数スペクトルS303の周波数成分を周波数スペクトルS301の周波数成分に置き換える。
そして、衝撃音ノイズ低減処理部2541は、周波数スペクトルS303の周波数成分f3、f6〜f9を、周波数成分を周波数スペクトルS301の周波数成分f3、f6〜f9と置き換えて、衝撃音ノイズ低減処理後の周波数スペクトルS´303を駆動音ノイズ低減処理部2542に出力する。
(Step ST5)
Next, the impact sound noise
For example, the impact noise
Further, the impact sound noise
In this way, the impact sound noise
Then, the shock noise
衝撃音ノイズ低減処理部2541は、同様にして、衝撃音処理周波数スペクトルSSである周波数スペクトルS2と衝撃音フロアリングスペクトルFSである周波数スペクトルS1との比較と、衝撃音処理周波数スペクトルSSである周波数スペクトルS304と衝撃音フロアリングスペクトルFSである周波数スペクトルS305との比較を行う。そして、第2周波数スペクトルS301、S305の周波数成分の振幅の方が、それぞれ、周波数スペクトルS302、S304の周波数成分の振幅に比べて小さい場合のみ、周波数スペクトルS302、S304の周波数成分をそれぞれ周波数スペクトルS301、S305の周波数成分に置き換えて、衝撃音ノイズ低減処理後の周波数スペクトルS´302、S´304を駆動音ノイズ低減処理部2542に出力する。
Similarly, the impact sound noise
また、衝撃音ノイズ低減処理部2541は、同様にして、衝撃音処理周波数スペクトルSSである周波数スペクトルS309、S310と衝撃音フロアリングスペクトルFSである周波数スペクトルS308との比較、および衝撃音処理周波数スペクトルSSである周波数スペクトルS311、S312と衝撃音フロアリングスペクトルFSである周波数スペクトルS313との比較を行う。そして、衝撃音フロアリングスペクトルFSである周波数スペクトルS308の周波数成分の振幅の方が、それぞれ、周波数スペクトルS309、S310の周波数成分の振幅に比べて小さい場合のみ、周波数スペクトルS309、S310の周波数成分をそれぞれ周波数スペクトルS308の周波数成分に置き換えて、衝撃音ノイズ低減処理後の周波数スペクトルS´309、S´310を駆動音ノイズ低減処理部2542に出力する。同様にして、衝撃音フロアリングスペクトルFSである周波数スペクトルS313の周波数成分の振幅の方が、それぞれ、周波数スペクトルS311、S312の周波数成分の振幅に比べて小さい場合のみ、周波数スペクトルS311、S312の周波数成分をそれぞれ周波数スペクトルS313の周波数成分に置き換えて、衝撃音ノイズ低減処理後の周波数スペクトルS´311、S´312を駆動音ノイズ低減処理部2542に出力する。
Similarly, the impact sound noise
(ステップST6)
次いで、駆動音ノイズ低減処理部2542は、フーリエ変換部253から入力するマイク音信号の周波数スペクトルと、衝撃音ノイズ低減処理部2541から入力する衝撃音ノイズ低減処理後の周波数スペクトルに基づき、駆動音ノイズ低減処理を実行する。例えば、駆動音ノイズ低減処理部2542は、動作開始タイミングt10に対応する衝撃音発生期間t10〜t11を示す動作タイミングと、動作停止タイミングt20に対応する衝撃音発生期間t20〜t21を示す動作タイミング信号に基づき、駆動音が発生している可能性のある期間に対応する周波数スペクトルS302〜S312を、駆動音処理周波数スペクトルKSとして取得する。
この駆動音ノイズ低減処理部2542は、取得した駆動音処理周波数スペクトルKSである周波数スペクトルS302〜S312のうち、衝撃音ノイズ低減処理後の周波数スペクトルに対応する周波数スペクトルをS302〜S304、S309〜S312を、衝撃音ノイズ低減処理後の周波数スペクトルS´302、S´303、S´304、S´309、S´310、S´311、S´312に置き換える。
そして、駆動音ノイズ低減処理部2542は、衝撃音ノイズ低減処理後の周波数スペクトルS´302、S´303、S´304、S´309、S´310、S´311、S´312と、周波数スペクトルS305〜S307に対して駆動音ノイズ低減処理を実行する。つまり、駆動音ノイズ低減処理部2542は、駆動パターンに応じて予め決められているノイズを表わす周波数スペクトルの周波数成分を、衝撃音ノイズ低減処理後の駆動音処理周波数スペクトルKSである周波数スペクトルS´302〜S´304、S305〜307、S´309〜S´312の周波数成分からそれぞれ減算する。駆動音ノイズ低減処理部2542は、この駆動音ノイズ低減処理後の周波数スペクトルS401,S402,S403,S404,S405,S406・・・を逆フーリエ変換部255に出力する。
(Step ST6)
Next, the driving sound noise
The drive sound noise
Then, the drive sound noise
(ステップST7)
逆フーリエ変換部255は、ノイズ低減処理部254によって信号処理された駆動音ノイズ低減処理後の周波数スペクトルS401,S402,S403,S404,S405,S406・・・に対して、例えば逆フーリエ変換を行うことで、時間領域に変換する。この逆フーリエ変換部255は、時間領域に変換された音時間信号S501,S502,S503,S504,S505,S506・・・を、連結調整部256に出力する。
(Step ST7)
The inverse
(ステップST8)
連結調整部256は、逆フーリエ変換部255から入力された音時間信号S501,S502,S503,S504,S505,S506・・・のそれぞれに連結調整窓関数W3を乗算する。そして、連結調整部256は、連結調整窓関数W3で重み付けされた音時間信号S601,S602,S603,S604,S605,S606・・・を信号重ね合わせ部257に出力する。
(Step ST8)
Coupling adjusting
信号重ね合わせ部257は、連結調整部256から入力する音時間信号S601,S602,S603,S604,S605,S606・・・に基づき、もとのマイク音信号の配置にあわせてつなぎ合わせる。そして、信号重ね合わせ部257は、音時間信号S601,S602,S603,S604,S605,S606・・・をつなぎ合わせた音情報を、記憶媒体200に記憶させる。
Based on the sound time signals S601, S602, S603, S604, S605, S606,... Input from the
以上説明したように、本実施形態に係る撮像装置100は、動作タイミング検出部191によって動作部の動作状態が変化するタイミングを検出するとともに、このタイミング信号に基づき、衝撃音が重畳している可能性のあるマイク音信号の周波数スペクトルの一部を、衝撃音が重畳していない可能性のあるマイク音信号の周波数スペクトルの一部と置き換える衝撃音ノイズ低減処理を実行する。これにより、周波数スペクトルの帯域が広い衝撃音であっても、目的音の不連続性が目立たず、かつ、衝撃音を低減した音情報を取得することができる。
As described above, the
[窓関数の他の例]
なお、本発明に係る低減処理部250は、上述の実施形態に限られず、例えば、以下に説明するような窓関数を用いることができる。
例えば、ハミング窓処理部252で窓関数にハミング窓関数W1を利用した場合、連結調整部256は、連結調整窓関数W3=ハニング窓関数W2/ハミング窓関数W1を、音時間信号S501,S502,S503,S504,S505,S506・・・のそれぞれに乗算する例に説明したが、これ以外の窓関数を乗算するものであってもよい。この連結調整部256は、例えば、図24に示すような窓関数W4を分子とする連結調整窓関数W5=窓関数W4/ハミング窓関数W1を、音時間信号S501,S502,S503,S504,S505,S506・・・のそれぞれに乗算するものであってもよい。
なお、窓関数W4は、以下の式(4)に示す。また、連結調整窓関数W5は、以下の式(5)に示す。式(4)と式(5)では、窓の範囲を0〜Tとし、変数を時刻t(0≦t≦T)で示す。
[Other examples of window functions]
In addition, the
For example, when the Hamming
Note that the window function W 4 are shown in the following equation (4). The coupling adjustment window function W 5 are shown in the following equation (5). In Expressions (4) and (5), the window range is 0 to T, and the variable is indicated by time t (0 ≦ t ≦ T).
本実施形態のように、ハミング窓処理部252が、入力する音時間信号S101,S102,S103,S104,S105,S106・・・にハミング窓関数W1を乗算する場合、連結調整部256の連結調整窓関数としては、窓の両端の値がハミング窓関数W1の両端の値より小さい窓関数W4(ハミング窓関数W1>窓関数W4)を利用することができる。これにより、連結調整部256が音時間信号S501,S502,S503,S504,S505,S506・・・にそれぞれ乗算する連結調整窓関数W5の両端の値を1より小さくすることができる。また、連結調整部256は、中央よりも両端の値が小さい連結調整窓関数W5を、音時間信号S501,S502,S503,S504,S505,S506・・・のそれぞれに乗算することができる。よって、連結調整部256が連結調整窓関数W5を乗算することにより、音時間信号S601,S602,S603,S604,S605,S606・・・間のつなぎ目が不連続となることを低減することができる。なお、連結調整窓関数W5=窓関数W4/ハミング窓関数W1は、図25に示す通り、窓の両端の値は、1よりも小さい0.5になっている。
As in the present embodiment, a Hamming
このように、連結調整窓関数は、窓の両端の値が0(ゼロ)であることが好ましいが、少なくとも、窓の両端の値が中央の値に比べて小さくなっている窓関数であればよい。これにより、つなぎ目が不連続となることを低減し、つなぎ目に生じるおそれのあるノイズを低減させることができる。 As described above, the connection adjustment window function preferably has a value at both ends of the window of 0 (zero), but at least if the window function has a value at both ends of the window that is smaller than the central value. Good. Thereby, it can reduce that a joint becomes discontinuous and can reduce the noise which may arise in a joint.
また、ハミング窓処理部252は、ハミング窓関数W1に限られず、窓の両端の値が中央の値に比べて小さい窓関数を、入力する音時間信号S101,S102,S103,S104,S105,S106・・・に乗算することができる。例えば、ハミング窓処理部252は、ブラックマン・ハリス窓関数、ブラック・ナトール窓関数、フラットトップ窓関数、テューキー(Tukey)ウィンドウ関数、ランチョス窓関数、三角窓関数、ガウス窓関数等を入力する音時間信号に乗算することができる。
この場合、連結調整部256が音時間信号S501,S502,S503,S504,S505,S506・・・にそれぞれ乗算する連結調整窓関数の分母の窓関数は、入力する音時間信号にハミング窓処理部252が乗算する窓関数と一致していることが好ましい。また、連結調整部256が音時間信号S501,S502,S503,S504,S505,S506・・・にそれぞれ乗算する連結調整窓関数の分子の窓関数は、その窓の両端の値が分母の窓関数の両端の値より小さい窓関数であることが好ましい。これにより、連結調整窓関数の両端の値を1より小さくすることができる。また、連結調整部256は、中央よりも両端の値が小さい連結調整窓関数を、音時間信号S501,S502,S503,S504,S505,S506・・・のそれぞれに乗算することができる。これにより、つなぎ目が不連続となることを低減し、つなぎ目に生じるおそれのあるノイズを低減させることができる。
The Hamming
In this case, the window function of the denominator of the connection adjustment window function that the
[オーバーラップする範囲が窓の1/4となる窓関数の一例]
また、ハミング窓処理部252は、図27に示すような窓関数W7を、入力する音時間信号S101,S102,S103,S104,S105,S106・・・に乗算するものであってもよい。この窓関数W7は、以下の式(7−1)〜(7−3)で示される。なお、式(7−1)〜(7−3)では、窓の範囲を0〜Tとし、変数を時刻t(0≦t≦T)で示す。
[An example of a window function where the overlapping range is 1/4 of the window]
Further, Hamming
式(7−1)〜(7−3)に示した通り、窓関数W7は、窓の両端の範囲(0≦t≦T/4,3T/4≦t≦T)がハミング窓W1であり、窓の中央の範囲(T/4≦t≦3T/4)が平坦となる関数である。 Formula (7-1) as shown to (7-3), the window function W 7 is in the range of both ends of the window (0 ≦ t ≦ T / 4,3T / 4 ≦ t ≦ T) Hamming window W 1 And a function in which the central range of the window (T / 4 ≦ t ≦ 3T / 4) becomes flat.
この場合、連結調整部256は、連結調整窓関数W8=窓関数W6/窓関数W7を、音時間信号S501,S502,S503,S504,S505,S506・・・のそれぞれに乗算する。この窓関数W6の一例を、図26に示す。連結調整窓関数W8の一例を、図28に示す。
また、この窓関数W6は、以下の式(6−1)〜(6−3)で示される。連結調整窓関数W8は、以下の式(8)で示される。なお、式(6−1)〜(6−3)、式(8)では、窓の範囲を0〜Tとし、変数を時刻t(0≦t≦T)で示す。
In this case, the
Further, the window function W 6 being represented by formula (6-1) to (6-3). Coupling adjustment window function W 8 is expressed by the following equation (8). In Expressions (6-1) to (6-3) and Expression (8), the window range is 0 to T, and the variable is indicated by time t (0 ≦ t ≦ T).
式(6−1)〜(6−3)に示した通り、窓関数W6は、窓の両端の範囲(0≦t≦T/4,3T/4≦t≦T)がハニング窓関数W2であり、窓の中央の範囲(T/4≦t≦3T/4)が平坦となる関数である。
本実施形態において、窓関数W6、窓関数W7を用いることにより、音時間信号がオーバーラップする範囲を窓の1/4とすることができる。このように、窓の中央の範囲が平坦(=1)である窓関数を用いることにより、オーバーラップさせる領域を少なくし、フーリエ変換の演算フレームを削減することができる。
As shown in the equations (6-1) to (6-3), the window function W 6 has a range of both ends of the window (0 ≦ t ≦ T / 4, 3T / 4 ≦ t ≦ T). 2 is a function in which the central range (T / 4 ≦ t ≦ 3T / 4) of the window is flat.
In the present embodiment, by using the window function W 6 and the window function W 7 , the overlapping range of the sound time signals can be ¼ of the window. In this way, by using a window function in which the central range of the window is flat (= 1), it is possible to reduce the overlapping region and reduce the Fourier transform calculation frame.
[第2実施形態]
次に、図29を参照して、本発明に係る第2実施形態について説明する。図29は、第1実施形態に係る低減処理部250を備える信号処理装置500の一例を説明するための図である。
信号処理装置500は、低減処理部250を備える。この信号処理装置500としては、例えば、パーソナルコンピュータやスマートフォン、タブレット型の端末等が利用可能である。
[Second Embodiment]
Next, a second embodiment according to the present invention will be described with reference to FIG. FIG. 29 is a diagram for explaining an example of the
The
この場合、撮像装置100は、マイク230が集音したマイク音信号と、動作タイミング検出部191から出力される動作タイミング信号とを、それぞれ関連付けて記憶部160や記憶媒体200に記憶しておく。なお、撮像装置100は、計時部220によって計時された日時情報に基づき、マイク音信号が収音された時刻に従って、マイク音信号が収音された期間に生じた動作タイミングを示す動作タイミング信号とマイク音信号とを、それぞれ関連付けることができる。
具体的に説明すると、A/D変換部240は、マイク230によって収音されたマイク音信号と、このマイク音信号を録音した装置が備えている動作部が動作するタイミングを示す情報(例えば、動作タイミング検出部191から出力される動作タイミング信号)とを、それぞれ関連付けて、記憶部160や記憶媒体200に記憶しておく。この場合、それぞれ関連付けて記憶されるマイク音信号とタイミングを示す情報(動作タイミング信号)とは、同一のファイルに書き込まれるものであってもよく、別々のファイルに書き込まれファイル同士がマイク音信号の収音された時刻とタイミングを示す情報の時刻に従って関連付けられるものであってもよい。
In this case, the
More specifically, the A /
そして、撮像装置100と信号処理装置500が、通信部170と通信部570を介して接続された場合、記憶部160や記憶媒体200に記憶されている、それぞれ関連付けて記憶されるマイク音信号とタイミングを示す情報(動作タイミング信号)が信号処理装置500に搭載された低減処理部250に出力される。
これにより、低減処理部250は、撮像装置100の外部において、ノイズ低減処理を実行することができる。
When the
Thereby, the
このように、第1実施形態では、低減処理部250が、マイク230により収音されたマイク音信号に対して信号処理する例について説明したが、本実施形態に係る低減処理部250は、このようなリアルタイムに収音されたマイク音信号に対してのみ適用されるものではない。
撮像装置100の外部においてもノイズ低減処理を実行することにより、撮像装置の撮像処理等の処理負荷を軽減することができる。また、ユーザの所望する任意の時間において、ノイズ低減処理を実行することができるため、撮像装置100がノイズ低減処理を実行することによる撮像装置100の消費電力を抑えることができる。よって、外出先において撮像装置100の消費電力の消耗を軽減することができる。
As described above, in the first embodiment, the example in which the
By executing the noise reduction processing also outside the
なお、撮像装置100や低減処理部250等による手順を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものであってもよい。
A program for realizing the procedure by the
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。 Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic) in a computer system which becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above.
Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
100…撮像装置、110…撮像部、120…レンズCPU、130…バッファメモリ、140…画像処理部、150…表示部、160…記憶部、170…通信部、180…操作部、190…ボディCPU、220…計時部、230…マイク、240…A/D変換部、250…低減処理部、251…音信号切り出し部、252…ハミング窓処理部(窓処理部)、253…フーリエ変換部、254…ノイズ低減処理部、255…逆フーリエ変換部、256…連結調整部、257…音信号重ね合わせ部、260…電池、191…動作タイミング検出部、2541…衝撃音ノイズ低減処理部、2542…駆動音ノイズ低減処理部
DESCRIPTION OF
Claims (10)
前記変換部が変換した前記周波数スペクトルを信号処理する処理部と、
前記処理部によって信号処理された前記周波数スペクトルを時間領域における音時間信号に変換する逆変換部と、
単位区間における両端の値が中央の値よりも小さい窓関数を、前記逆変換部によって変換された前記音時間信号に乗算する連結調整部と、
を備えることを特徴とする信号処理装置。 A conversion unit that converts an input sound signal into a frequency spectrum in the frequency domain;
A processing unit that performs signal processing on the frequency spectrum converted by the conversion unit;
An inverse conversion unit that converts the frequency spectrum signal-processed by the processing unit into a sound time signal in a time domain;
A connection adjustment unit that multiplies the sound time signal converted by the inverse conversion unit with a window function in which values at both ends in the unit interval are smaller than a central value;
A signal processing apparatus comprising:
単位区間における両端の値が零である窓関数を、前記逆変換部によって変換された前記音時間信号に乗算することを特徴とする請求項1に記載の信号処理装置。 The connection adjusting unit is
The signal processing apparatus according to claim 1, wherein the sound time signal converted by the inverse conversion unit is multiplied by a window function whose values at both ends in the unit interval are zero.
ハニング窓関数を、前記逆変換部によって変換された前記音時間信号に乗算することを特徴とする請求項1または2に記載の信号処理装置。 The connection adjusting unit is
The signal processing apparatus according to claim 1, wherein the sound time signal converted by the inverse conversion unit is multiplied by a Hanning window function.
前記変換部に入力する前記音時間信号にハミング窓関数を乗算し、
前記連結調整部は、
前記逆変換部によって変換された前記音時間信号にハニング窓関数/ハミング窓関数を乗算することを特徴とする請求項4に記載の信号処理装置。 The window processing unit
Multiplying the sound time signal input to the converter by a Hamming window function,
The connection adjusting unit is
The signal processing apparatus according to claim 4, wherein the sound time signal converted by the inverse conversion unit is multiplied by a Hanning window function / Hamming window function.
前記変換部に入力する前記音時間信号に、以下の式で示される窓関数W7を乗算し、
前記逆変換部によって変換された前記音時間信号に、以下の式で示される窓関数W8
Multiplying the sound time signal input to the converter by a window function W 7 represented by the following equation:
A window function W 8 represented by the following expression is applied to the sound time signal converted by the inverse conversion unit.
前記音信号切り出し部によって切り出された前記音時間信号に、単位区間における両端の値が中央の値よりも小さい第1窓関数を乗算する窓処理部と、
前記窓処理部によって前記第1窓関数が乗算された音時間信号を周波数領域における周波数スペクトルに変換する変換部と、
前記変換部が変換した前記周波数スペクトルを信号処理する処理部と、
前記処理部によって信号処理された前記周波数スペクトルを時間領域における音時間信号に変換する逆変換部と、
単位区間における両端の値が中央の値よりも小さい窓関数を、前記逆変換部によって変換された前記音時間信号に乗算する連結調整部と、
を備えることを特徴とする信号処理装置。 A sound signal cutout unit that cuts out a sound time signal in units of frames by dividing a sound signal to be input into frames of a predetermined time length;
A window processing unit that multiplies the sound time signal cut out by the sound signal cut-out unit by a first window function in which values at both ends in a unit interval are smaller than a central value;
A conversion unit that converts a sound time signal multiplied by the first window function by the window processing unit into a frequency spectrum in a frequency domain;
A processing unit that performs signal processing on the frequency spectrum converted by the conversion unit;
An inverse conversion unit that converts the frequency spectrum signal-processed by the processing unit into a sound time signal in a time domain;
A connection adjustment unit that multiplies the sound time signal converted by the inverse conversion unit with a window function in which values at both ends in the unit interval are smaller than a central value;
A signal processing apparatus comprising:
入力する音信号を周波数領域における周波数スペクトルに変換する変換手段、
前記変換手段が変換した前記周波数スペクトルを信号処理する処理手段、
前記処理手段によって信号処理された前記周波数スペクトルを時間領域における音時間信号に変換する逆変換手段、
単位区間における両端の値が中央の値よりも小さい窓関数を、前記逆変換部によって変換された前記音時間信号に乗算する連結調整手段、
として機能させるためのプログラム。 Computer
Conversion means for converting an input sound signal into a frequency spectrum in the frequency domain;
Processing means for performing signal processing on the frequency spectrum converted by the conversion means;
Inverse conversion means for converting the frequency spectrum signal-processed by the processing means into a sound time signal in a time domain,
A connection adjustment unit that multiplies the sound time signal converted by the inverse conversion unit with a window function in which values at both ends in a unit interval are smaller than a center value;
Program to function as.
前記音信号切り出し手段によって切り出された前記音時間信号に、単位区間における両端の値が中央の値よりも小さい窓関数を乗算する窓処理手段、
をさらに備えることを特徴とする請求項9に記載のプログラム。 Sound signal cutout means for cutting out the sound time signal in frame units by dividing the sound signal to be input into frames of a predetermined time length;
Window processing means for multiplying the sound time signal cut out by the sound signal cut-out means by a window function in which values at both ends in a unit interval are smaller than a central value;
The program according to claim 9, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012184454A JP2014041300A (en) | 2012-08-23 | 2012-08-23 | Signal processing device, imaging device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012184454A JP2014041300A (en) | 2012-08-23 | 2012-08-23 | Signal processing device, imaging device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014041300A true JP2014041300A (en) | 2014-03-06 |
Family
ID=50393585
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012184454A Pending JP2014041300A (en) | 2012-08-23 | 2012-08-23 | Signal processing device, imaging device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014041300A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015206874A (en) * | 2014-04-18 | 2015-11-19 | 富士通株式会社 | Signal processing device, signal processing method, and program |
-
2012
- 2012-08-23 JP JP2012184454A patent/JP2014041300A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015206874A (en) * | 2014-04-18 | 2015-11-19 | 富士通株式会社 | Signal processing device, signal processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8698911B2 (en) | Sound recording device, imaging device, photographing device, optical device, and program | |
KR20110000507A (en) | Image pickup apparatus | |
US8860822B2 (en) | Imaging device | |
JP5024470B2 (en) | Imaging apparatus, signal processing apparatus, and recording medium | |
JP5361398B2 (en) | Imaging device | |
JP2013011873A (en) | Noise reduction processing apparatus, camera, and noise reduction processing program | |
WO2015135416A1 (en) | Sound effect processing method and camera shooting device | |
JP2011114465A (en) | Voice processing apparatus and electronic camera | |
JP2014041300A (en) | Signal processing device, imaging device, and program | |
JP2013117585A (en) | Imaging unit, information processing unit and control method thereof, program, and sound processing unit | |
JP5428762B2 (en) | Imaging apparatus and program | |
JP2011039295A (en) | Shake correcting device and optical equipment | |
JP2014022953A (en) | Signal processing device, image pickup device, and noise reduction processing method and program | |
JP2011095378A (en) | Sound recording device, imaging device and program | |
JP6902961B2 (en) | Speech processing device and its control method | |
JP5446568B2 (en) | Imaging apparatus and imaging system | |
JP6061476B2 (en) | Audio processing device | |
JP2015035001A (en) | Shake correcting device and optical apparatus | |
JP2006211437A (en) | Electronic camera and device and method for reducing noise | |
JP2013250448A (en) | Noise reduction device, and imaging device and program | |
JP5473786B2 (en) | Audio signal processing apparatus and control method thereof | |
JP5736839B2 (en) | Signal processing apparatus, imaging apparatus, and program | |
JP5423319B2 (en) | Imaging device, optical device, and program | |
JP5338518B2 (en) | Camera body and imaging device | |
JP6048803B2 (en) | Imaging apparatus, camera shake correction method, and program |