JP2014026002A - Sound recording device and program - Google Patents

Sound recording device and program Download PDF

Info

Publication number
JP2014026002A
JP2014026002A JP2012164008A JP2012164008A JP2014026002A JP 2014026002 A JP2014026002 A JP 2014026002A JP 2012164008 A JP2012164008 A JP 2012164008A JP 2012164008 A JP2012164008 A JP 2012164008A JP 2014026002 A JP2014026002 A JP 2014026002A
Authority
JP
Japan
Prior art keywords
sound
unit
noise
spectrum
noise reduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012164008A
Other languages
Japanese (ja)
Inventor
Kosuke Okano
康介 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012164008A priority Critical patent/JP2014026002A/en
Priority to PCT/JP2013/052404 priority patent/WO2013115385A1/en
Publication of JP2014026002A publication Critical patent/JP2014026002A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a sound recording device that maintains pre noise-reduced localized perception of a sound or sense of presence thereof even after the noise is reduced.SOLUTION: Sound recording devices 1 and 10 according to the present invention comprise: a plurality of sound collecting parts 41; a first noise estimation part 52L that performs a first noise estimation of a first sound collected by a first sound collecting part 41L of sound collecting parts 41; a first noise reduction part 53L that reduces the noise estimated by the first noise estimation part 52L from the first sound; and a second adjustment part 54R that calculates a first relation R serving as a relation between a second sound collected by a second sound collecting part 41R of the plurality of sound collecting parts 41 and the pre noise-reduced first sound, and adjusts the second sound so as to make a relation between the second sound and the post noise-reduced first sound equal to the first relation R.

Description

本発明は、録音装置及びプログラムに関するものである。   The present invention relates to a recording apparatus and a program.

録画可能なカメラ等においては、外部音声を録音する複数のマイク及び駆動部、を備えるものがある。このような装置において、録音された音声より、駆動部から発生する雑音を低減する技術が提案されている(特許文献1参照)。   Some cameras and the like that can be recorded include a plurality of microphones and drive units for recording external sound. In such an apparatus, a technique for reducing noise generated from a drive unit from recorded voice has been proposed (see Patent Document 1).

特開2011−259319号公報JP 2011-259319 A

しかし、ステレオ音声の場合、左耳用音声と右耳用音声にそれぞれ独立にノイズ低減処理を行なうと、左耳用音声に残存するノイズ成分と右耳用音声に残存するノイズ成分との比が時々刻々と変化し、残存ノイズの定位も時々刻々と変化する。
また、左耳用音声の目的音の劣化成分と、右耳用音声の目的音の劣化成分の比も時々刻々と変化するため、目的音の定位も本来の定位から時々刻々と変化する。
このため、処理後の音声は本来の定位感、臨場感が損なわれた音声になる。
However, in the case of stereo audio, if noise reduction processing is performed independently for the left ear audio and the right ear audio, the ratio of the noise component remaining in the left ear audio to the noise component remaining in the right ear audio is It changes every moment, and the localization of the residual noise also changes every moment.
In addition, since the ratio between the target sound deterioration component of the left-ear sound and the target sound deterioration component of the right-ear sound changes every moment, the target sound's localization also changes every moment from the original localization.
For this reason, the processed sound is a sound in which the original localization and the sense of presence are impaired.

本発明の課題は、ノイズ低減前の定位感や臨場感がノイズ低減後においても維持される録音装置及びプログラムを提供することである。   An object of the present invention is to provide a recording apparatus and a program in which a sense of orientation and a sense of presence before noise reduction are maintained even after noise reduction.

本発明は、以下のような解決手段により前記課題を解決する。なお、理解を容易にするために、本発明の実施形態に対応する符号を付して説明するが、これに限定されるものではない。   The present invention solves the above problems by the following means. In addition, in order to make an understanding easy, although the code | symbol corresponding to embodiment of this invention is attached | subjected and demonstrated, it is not limited to this.

請求項1に記載の発明は、複数の集音部(41)と、前記複数の集音部(41)のうちの第1集音部(41L)により集音された第1音のノイズ推定を行なう第1ノイズ推定部(52L)と、前記第1ノイズ推定部(52L)により推定されたノイズを、前記第1音から低減する第1ノイズ低減部(53L)と、前記複数の集音部(41)のうちの第2集音部(41R)により集音された第2音とノイズ低減前の前記第1音との関係である第1の関係(R)を求め、ノイズ低減後の前記第1音との関係が前記第1の関係(R)と同じになるように前記第2音を調整する第2調整部(54R)と、を備えることを特徴とする録音装置(1,10)である。
請求項2に記載の発明は、請求項1に記載の録音装置(1,10)であって、前記第1の関係(R)は、振幅スペクトルごとの比であること、を特徴とする録音装置(1,10)である。
請求項3に記載の発明は、請求項1または2に記載の録音装置(1,10)であって、前記第2集音部(41R)により集音された音のノイズ推定を行なう第2ノイズ推定部(52R)と、前記第2ノイズ推定部(52R)により推定された前記ノイズを、前記第2音から低減する第2ノイズ低減部(53R)と、前記ノイズ低減後の前記第2音との関係が、前記第1の関係(R)と同じになるように、前記第1音を調整する第1調整部(54L)と、前記第1ノイズ低減部(53L)より前記ノイズが低減されたノイズ低減後の第1音と前記第1調整部(54L)により調整された調整後の第1音とを平均する第1平均部(56L)と、前記第2ノイズ低減部(53R)により前記ノイズが低減された、ノイズ低減後の第2音と、前記第2調整部(54R)により調整された調整後の第2音とを平均する第2平均部(56R)と、を備えること、を特徴とする録音装置(1,10)である。
請求項4に記載の発明は、請求項1から3のいずれか1項に記載の録音装置(1,10)であって、前記第1音を、前記ノイズ推定又は前記調整前にスペクトル変換する第1変換部(51L)と、前記ノイズ低減又は前記調整後の前記第1音をスペクトル逆変換する第1逆変換部(55L)と、前記第2音を、前記ノイズ推定又は前記調整前にスペクトル変換する第2変換部(51R)と、前記ノイズ低減又は前記調整後の前記第2音をスペクトル逆変換する第2逆変換部(55R)と、を備えること、を特徴とする録音装置(1,10)である。
請求項5に記載の発明は、請求項1から4のいずれか1項に記載の録音装置(1,10)であって、右耳用として、前記第1集音部(41L)または前記第2集音部(41R)のいずれかを一方を選択するとともに、左耳用としていずれか他方を選択する選択部を備えること、を特徴とする録音装置(1,10)である。
請求項6に記載の発明は、複数の集音部(41)のうちの第1集音部(41L)により集音された第1音のノイズ推定を行ない、推定されたノイズを、前記第1音から低減し、前記複数の集音部(41)のうちの第2集音部(41R)により集音された第2音と、ノイズ低減前の前記第1音との関係である第1の関係(R)を求め、ノイズ低減後の前記第1音との関係が前記第1の関係(R)と同じになるように前記第2音を調整する処理を、コンピュータ装置に実行させるプログラムである。
なお、符号を付して説明した構成は、適宜改良してもよく、また、少なくとも一部を他の構成物に代替してもよい。
According to the first aspect of the present invention, noise estimation of a first sound collected by a plurality of sound collection units (41) and a first sound collection unit (41L) of the plurality of sound collection units (41) is provided. A first noise estimator (52L) that performs noise, a first noise reducer (53L) that reduces noise estimated by the first noise estimator (52L) from the first sound, and the plurality of sound collections The first relationship (R), which is the relationship between the second sound collected by the second sound collecting unit (41R) of the units (41) and the first sound before noise reduction, is obtained, and after noise reduction And a second adjusting unit (54R) that adjusts the second sound so that the relationship with the first sound is the same as the first relationship (R). , 10).
The invention according to claim 2 is the recording apparatus (1, 10) according to claim 1, wherein the first relation (R) is a ratio for each amplitude spectrum. Device (1,10).
A third aspect of the present invention is the recording apparatus (1, 10) according to the first or second aspect, wherein a second noise estimation is performed for the sound collected by the second sound collecting unit (41R). A noise estimation unit (52R), a second noise reduction unit (53R) for reducing the noise estimated by the second noise estimation unit (52R) from the second sound, and the second after noise reduction The noise from the first adjustment unit (54L) for adjusting the first sound and the first noise reduction unit (53L) so that the relationship with the sound is the same as the first relationship (R). A first average unit (56L) that averages the reduced first noise after noise reduction and the adjusted first sound adjusted by the first adjustment unit (54L), and the second noise reduction unit (53R). ) In which the noise is reduced, the second sound after noise reduction, and the second sound Further comprising second averaging unit for averaging the second tone after adjustment adjusted by integer unit (54R) and (56R), and a recording apparatus according to claim (1, 10).
The invention according to claim 4 is the recording apparatus (1, 10) according to any one of claims 1 to 3, wherein the first sound is subjected to spectrum conversion before the noise estimation or the adjustment. The first conversion unit (51L), the first inverse conversion unit (55L) that performs spectrum inverse conversion on the first sound after the noise reduction or the adjustment, and the second sound before the noise estimation or the adjustment A recording apparatus comprising: a second conversion unit (51R) that performs spectrum conversion; and a second inverse conversion unit (55R) that performs spectrum inverse conversion on the second sound after noise reduction or adjustment. 1,10).
A fifth aspect of the present invention is the recording apparatus (1, 10) according to any one of the first to fourth aspects, wherein the first sound collection unit (41L) or the first The recording device (1, 10) is characterized in that one of the two sound collection units (41R) is selected and a selection unit for selecting the other for the left ear is provided.
The invention according to claim 6 performs the noise estimation of the first sound collected by the first sound collection unit (41L) of the plurality of sound collection units (41), and the estimated noise is determined by the first sound collection unit (41L). A second sound that is reduced from one sound and collected by the second sound collecting section (41R) of the plurality of sound collecting sections (41) and the first sound before noise reduction is the first relation. 1 is calculated, and the computer device is caused to execute processing for adjusting the second sound so that the relationship with the first sound after noise reduction is the same as the first relationship (R). It is a program.
Note that the configuration described with reference numerals may be modified as appropriate, and at least a part of the configuration may be replaced with another component.

本発明によれば、ノイズ低減前の定位感や臨場感がノイズ低減後においても維持される録音装置及びプログラムを提供することができる。   According to the present invention, it is possible to provide a recording apparatus and a program in which a sense of orientation and a sense of presence before noise reduction are maintained even after noise reduction.

本発明における録音装置の一実施形態を適用したカメラの正面側から見た外観概略斜視図である。It is the external appearance schematic perspective view seen from the front side of the camera to which one Embodiment of the recording device in this invention is applied. カメラのブロック構成図である。It is a block block diagram of a camera. 音情報処理部の機能ブロック図である。It is a functional block diagram of a sound information processing part. 衝撃音ノイズ低減処理部が取得する第1周波数スペクトルと第2周波数スペクトルの一例を説明するための図である。It is a figure for demonstrating an example of the 1st frequency spectrum and 2nd frequency spectrum which a shock noise reduction process part acquires. 左チャンネルから右チャンネルの周波数スペクトルSSRを得る方法を説明する。A method for obtaining the frequency spectrum SSR of the right channel from the left channel will be described. 音情報処理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a sound information processing part. 第2実施形態における音情報処理部の機能ブロック図である。It is a functional block diagram of the sound information processing part in 2nd Embodiment.

(第1実施形態)
以下、図面等を参照して、本発明の実施形態について説明する。
図1は、本発明における録音装置の一実施形態を適用したカメラ1の正面側から見た外観概略斜視図である。図2は、カメラ1のブロック構成図である。
(First embodiment)
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a schematic external perspective view seen from the front side of a camera 1 to which an embodiment of a recording apparatus according to the present invention is applied. FIG. 2 is a block configuration diagram of the camera 1.

図1および図2に示すように、カメラ1は、カメラ本体10と、レンズ鏡筒20とにより構成されている。カメラ1は、自動的に合焦するオートフォーカス(以下AFと略記する)機能を備えている。また、カメラ1は、静止画と動画の何れも撮影可能であって、動画撮影時には画像と同時に音響をステレオで記録可能である。
なお、カメラ1は、カメラ本体10に対してレンズ鏡筒20が交換可能なものであってよく、また、カメラ本体10とレンズ鏡筒20とが一体のものであってもよい。
As shown in FIGS. 1 and 2, the camera 1 includes a camera body 10 and a lens barrel 20. The camera 1 has an autofocus (hereinafter abbreviated as AF) function for automatically focusing. In addition, the camera 1 can shoot both still images and moving images, and can record sound in stereo simultaneously with images during moving image shooting.
Note that the camera 1 may be such that the lens barrel 20 can be replaced with respect to the camera body 10, and the camera body 10 and the lens barrel 20 may be integrated.

カメラ本体10は、撮像部30と、録音部40と、記録部11と、制御部12と、を備えている。
撮像部30は、撮像素子31と、A/D変換部32と、画像処理部33と、により構成されている。
撮像素子31は、CCD等の光電変換素子により構成されている。撮像素子31は、レンズ鏡筒20の結像光学系によって結像された被写体像光をアナログの電気信号に変換し、A/D変換部32に出力する。
The camera body 10 includes an imaging unit 30, a recording unit 40, a recording unit 11, and a control unit 12.
The image capturing unit 30 includes an image sensor 31, an A / D conversion unit 32, and an image processing unit 33.
The image sensor 31 is configured by a photoelectric conversion element such as a CCD. The image sensor 31 converts the subject image light imaged by the imaging optical system of the lens barrel 20 into an analog electric signal and outputs it to the A / D conversion unit 32.

A/D変換部32は、撮像素子31から入力されたアナログの画像信号をデジタル画像信号に変換して画像処理部33に出力する。
画像処理部33は、A/D変換部32から入力されたデジタル画像信号を画像処理して画像データを生成し、記録部11に出力する。
The A / D converter 32 converts the analog image signal input from the image sensor 31 into a digital image signal and outputs the digital image signal to the image processor 33.
The image processing unit 33 performs image processing on the digital image signal input from the A / D conversion unit 32 to generate image data, and outputs the image data to the recording unit 11.

録音部40は、ステレオ集音装置41と、A/D変換部42と、音情報処理部50と、により構成されている。
ステレオ集音装置41は、図1に示すように、左右一対のマイクロフォン(左マイク41L,右マイク41R)を備えている。各マイク41L,41Rは、それぞれ外部の音を集音してアナログ信号としてA/D変換部42に出力する。
A/D変換部42は、ステレオ集音装置41から入力されたアナログ音信号を、デジタル音信号に変換して音情報処理部50に出力する。
The recording unit 40 includes a stereo sound collecting device 41, an A / D conversion unit 42, and a sound information processing unit 50.
As shown in FIG. 1, the stereo sound collecting device 41 includes a pair of left and right microphones (a left microphone 41L and a right microphone 41R). Each of the microphones 41L and 41R collects external sounds and outputs them to the A / D converter 42 as analog signals.
The A / D conversion unit 42 converts the analog sound signal input from the stereo sound collector 41 into a digital sound signal and outputs the digital sound signal to the sound information processing unit 50.

音情報処理部50は、A/D変換部42から入力したステレオ集音装置41における左マイク41Lと右マイク41Rの音信号に含まれる動作ノイズをそれぞれ低減処理して音データを作成し、記録部11に出力する。
なお、本実施形態において低減処理対象とする動作ノイズは、レンズ鏡筒20から発生するAF制御にかかる駆動ノイズ(AF駆動音)である。この音情報処理部50については、後に詳述する。
The sound information processing unit 50 reduces the operating noise included in the sound signals of the left microphone 41L and the right microphone 41R in the stereo sound collecting device 41 input from the A / D conversion unit 42, creates sound data, and records the sound data. To the unit 11.
Note that the operation noise to be reduced in this embodiment is drive noise (AF drive sound) related to AF control generated from the lens barrel 20. The sound information processing unit 50 will be described in detail later.

記録部11は、撮像部30(画像処理部33)が出力する画像データと、録音部40(音情報処理部50)が出力する音データと、をメモリーカード等の図示しない記録媒体に記録する。
制御部12は、CPU等を備えて構成され、設定された撮像条件(例えば、絞り値、露出値等)に応じて、レンズ鏡筒20の後述する各構成要素を含めた当該カメラ1の各構成要素を統括制御する。たとえば、制御部12は、後述するレンズ鏡筒20におけるAF駆動モータ23を駆動する駆動制御信号を生成し、AF駆動モータ23に出力する。
また、制御部12は、タイミング信号検出部12aを備える。タイミング信号検出部12aは、後述するが、レンズ鏡筒20から発生するAF制御のタイミングを検出する。
The recording unit 11 records the image data output by the imaging unit 30 (image processing unit 33) and the sound data output by the recording unit 40 (sound information processing unit 50) on a recording medium (not shown) such as a memory card. .
The control unit 12 includes a CPU and the like, and each of the camera 1 including each component to be described later of the lens barrel 20 according to set imaging conditions (for example, an aperture value, an exposure value, etc.). Centrally control the components. For example, the control unit 12 generates a drive control signal for driving an AF drive motor 23 in a lens barrel 20 described later, and outputs the drive control signal to the AF drive motor 23.
Moreover, the control part 12 is provided with the timing signal detection part 12a. The timing signal detector 12a detects the timing of AF control generated from the lens barrel 20, as will be described later.

レンズ鏡筒20は、フォーカシングレンズ21と図示しない手振れ補正レンズおよびズーミングレンズ等により構成される結像光学系と、AFエンコーダ22と、AF駆動モータ23と、を備えている。
AFエンコーダ22は、フォーカシングレンズ21の位置を検出し、AF駆動モータ23の駆動制御情報としてカメラ本体10の制御部12に出力する。
AF駆動モータ23は、制御部16から入力されるフォーカシングレンズ21の位置を制御するための駆動制御信号に応じて、フォーカシングレンズ21を移動駆動する。このAF駆動モータ23の駆動音が、本実施形態における録音部40の音情報処理部50が低減処理対象とする主なAF駆動音である。
The lens barrel 20 includes an imaging optical system including a focusing lens 21, a camera shake correction lens and a zooming lens (not shown), an AF encoder 22, and an AF drive motor 23.
The AF encoder 22 detects the position of the focusing lens 21 and outputs the detected position to the control unit 12 of the camera body 10 as drive control information for the AF drive motor 23.
The AF drive motor 23 moves and drives the focusing lens 21 in accordance with a drive control signal for controlling the position of the focusing lens 21 input from the control unit 16. The driving sound of the AF driving motor 23 is a main AF driving sound that is targeted for reduction processing by the sound information processing unit 50 of the recording unit 40 in the present embodiment.

そして、カメラ1は、使用者による図示しないシャッタボタンの押圧操作によって撮影が指令されると、制御部12によって制御されて撮影作用を行う。すなわち、撮像部30が被写体像光を電気信号に変換すると共に画像処理して画像データとし、記録部11を介して記録媒体に記録する(撮影する)。制御部12は、撮影時において、AF駆動モータ23を介してフォーカシングレンズ21を移動駆動するAF制御を行う。   The camera 1 is controlled by the control unit 12 to perform a shooting operation when a shooting command is issued by a user pressing a shutter button (not shown). That is, the imaging unit 30 converts subject image light into an electrical signal and performs image processing to form image data, which is recorded (photographed) on a recording medium via the recording unit 11. The control unit 12 performs AF control for moving the focusing lens 21 via the AF drive motor 23 during shooting.

動画撮影時においては、撮像部30がローリングシャッターで被写体像光を電気信号に変換して順次取り込み、記録部11を介して1秒間に所定のフレーム(コマ数)の画像を記録媒体に記録する。
また、前述したように、録音部40が集音して音情報処理した音データを、画像データと共にフレーム毎に記録部11を介して記録媒体に記録(録音)する。
動画撮影時には、撮影期間を通して被写体の位置変化に対応してAF制御を行い、AF駆動音は不定期に発生する。
At the time of moving image shooting, the imaging unit 30 converts the subject image light into an electrical signal with a rolling shutter and sequentially captures it, and records an image of a predetermined frame (frame number) on a recording medium via the recording unit 11 per second. .
Further, as described above, the sound data collected by the recording unit 40 and subjected to sound information processing is recorded (recorded) on the recording medium via the recording unit 11 for each frame together with the image data.
During moving image shooting, AF control is performed in response to changes in the position of the subject throughout the shooting period, and AF drive sound is generated irregularly.

つぎに、録音部40における音情報処理部50について詳細に説明する。図3は、音情報処理部50における機能ブロック図である。
前述したように、音情報処理部50は、A/D変換部42から入力したステレオ集音装置41における左マイク41Lと右マイク41Rの音信号に含まれるAF駆動ノイズを低減処理する。
以下、左マイク41Lが集音した音情報の流れを左チャンネル(図中Lchと略記する)、右マイク41Rが集音した音情報の流れを右チャンネル(Rch)として説明する。なお、この左右は、撮影者側から見た左右である。
Next, the sound information processing unit 50 in the recording unit 40 will be described in detail. FIG. 3 is a functional block diagram of the sound information processing unit 50.
As described above, the sound information processing unit 50 reduces the AF driving noise included in the sound signals of the left microphone 41L and the right microphone 41R in the stereo sound collecting device 41 input from the A / D conversion unit 42.
Hereinafter, the flow of sound information collected by the left microphone 41L will be described as a left channel (abbreviated as Lch in the drawing), and the flow of sound information collected by the right microphone 41R will be described as a right channel (Rch). The left and right are the left and right viewed from the photographer side.

本実施形態における音情報処理部50は、一方のチャンネル(本実施形態では左チャンネル)の音情報に対してスペクトル減算法でノイズ低減処理すると共に、この情報を用いて他方のチャンネル(右チャンネル)の音情報に対してスペクトル調整処理を行う。   The sound information processing unit 50 in the present embodiment performs noise reduction processing on the sound information of one channel (left channel in the present embodiment) by the spectral subtraction method, and uses this information for the other channel (right channel). The spectrum adjustment processing is performed on the sound information.

図3に示すように、音情報処理部50は、左右両チャンネルそれぞれのスペクトル変換部51L,51Rと、左チャンネルのノイズスペクトル推定部52Lと、左チャンネルのノイズスペクトル低減部53Lと、右チャンネルのスペクトル調整部54Rと、左右両チャンネルの逆変換部55L,55Rと、を備えている。
また、ノイズスペクトル低減部53Lは、さらに衝撃音ノイズ低減処理部53Aと駆動音ノイズ低減処理部53Bとを備える。
As shown in FIG. 3, the sound information processing unit 50 includes left and right channel spectrum conversion units 51L and 51R, a left channel noise spectrum estimation unit 52L, a left channel noise spectrum reduction unit 53L, and a right channel. A spectrum adjustment unit 54R and left and right channel inverse conversion units 55L and 55R are provided.
The noise spectrum reduction unit 53L further includes an impact sound noise reduction processing unit 53A and a driving sound noise reduction processing unit 53B.

以下、音情報処理部50の各部についてさらに詳細に説明する。
(スペクトル変換部)
スペクトル変換部51L,51Rは、A/D変換部42から入力された左右両チャンネルの音信号に対して、それぞれ、予め決められた区間ごとに窓関数で重み付けするとともに、この区間毎の音信号を周波数領域毎の振幅を表わすスペクトルSL,SR(後述の図5参照)に変換する。
Hereinafter, each part of the sound information processing unit 50 will be described in more detail.
(Spectrum converter)
The spectrum converters 51L and 51R weight the sound signals of both the left and right channels input from the A / D converter 42 with a window function for each predetermined section, and the sound signal for each section. Are converted into spectra SL and SR (see FIG. 5 to be described later) representing the amplitude for each frequency domain.

図4はAFレンズを駆動した際に、マイクで集音されるマイク音信号の一例である。図4のグラフは、縦軸にマイク230によって集音されたマイク信号を、横軸に時間をそれぞれ示す。図4に示すように、AF駆動を行なう場合、図示の時刻t10〜t11、時刻t20〜t21の時間で衝撃音が発生している。
なお、図4は説明便宜のため、マイク音信号のうち、動作音の音信号のみを示し、目的音の音信号の図示を省略する。
FIG. 4 is an example of a microphone sound signal collected by a microphone when the AF lens is driven. In the graph of FIG. 4, the vertical axis represents the microphone signal collected by the microphone 230, and the horizontal axis represents time. As shown in FIG. 4, when AF driving is performed, impact sounds are generated at times t10 to t11 and t20 to t21 shown in the drawing.
For convenience of explanation, FIG. 4 shows only the sound signal of the operation sound among the microphone sound signals, and the illustration of the sound signal of the target sound is omitted.

スペクトル変換部51L,51Rは、A/D変換部42から出力されたマイク音信号に対して、あらかじめ定められた区間ごとに窓関数で重み付けする。そして、この区間ごとのマイク音信号に対して、例えば、フーリエ変換、あるいは高速フーリエ変換(FFT:First Fourier Transform)を行い、周波数領域に変換し、窓関数の各区間に対応する周波数スペクトルを算出する。   The spectrum converters 51L and 51R weight the microphone sound signal output from the A / D converter 42 with a window function for each predetermined section. Then, the microphone sound signal for each section is subjected to, for example, Fourier transform or fast Fourier transform (FFT), converted into the frequency domain, and a frequency spectrum corresponding to each section of the window function is calculated. To do.

ここで、窓関数のあらかじめ定められた区間とは、信号処理の単位(フレーム)であって、一定の間隔で繰り返される区間である。これらの窓関数の各区間は、他の窓関数の各区間と半分ずつオートフォーカスバラップしている。なお窓関数は、例えばハニング窓(ハニングウィンドウ)関数が利用可能である。   Here, the predetermined section of the window function is a unit (frame) of signal processing, and is a section repeated at a constant interval. Each section of these window functions has an autofocus overlap with each section of other window functions. As the window function, for example, a Hanning window (Hanning window) function can be used.

図4を参照してスペクトル変換部51L,51Rにより算出される窓関数の各区間に対応する周波数スペクトルの一例について説明する。
スペクトル変換部51L,51Rは、上述の通り、A/D変換部42から出力されたマイク音信号に対して、他の区間と半分づつオーバラップしている窓関数で重み付けする。これにより、マイク音信号は、窓関数のサイズに分割される。
このスペクトル変換部51L,51Rは、窓関数で重み付けされた各区間のマイク信号ごとに、例えばフーリエ変換を行い、図4に示すように、他の区間と半分づつオーバラップしている周波数スペクトルS1〜S14を算出する。
An example of a frequency spectrum corresponding to each section of the window function calculated by the spectrum conversion units 51L and 51R will be described with reference to FIG.
As described above, the spectrum conversion units 51L and 51R weight the microphone sound signal output from the A / D conversion unit 42 with a window function that overlaps with other sections in half. Thus, the microphone sound signal is divided into window function sizes.
The spectrum converters 51L and 51R perform, for example, a Fourier transform for each microphone signal in each section weighted with the window function, and as shown in FIG. ~ S14 is calculated.

(ノイズスペクトル推定部)
ノイズスペクトルの推定は、左チャンネルから入力されて周波数スペクトルに変換された音信号に対して、タイミング信号検出部12aから検出されたタイミングに基づいて行なわれる。
(Noise spectrum estimation unit)
The estimation of the noise spectrum is performed based on the timing detected from the timing signal detection unit 12a for the sound signal input from the left channel and converted to the frequency spectrum.

タイミング信号検出部12aは、レンズ鏡筒20の動作状態が変化するタイミング(動作変化タイミング)を検出する。
この動作変化タイミングとしては、例えば、フォーカシングレンズ21が動作を開始する動作開始タイミングと、フォーカシングレンズ21の動作が停止する動作停止タイミングとがある。
The timing signal detection unit 12a detects timing (operation change timing) at which the operation state of the lens barrel 20 changes.
Examples of the operation change timing include an operation start timing at which the focusing lens 21 starts operating and an operation stop timing at which the operation of the focusing lens 21 stops.

タイミング信号検出部12aは、AF駆動モータ23に入力される駆動制御信号に基づいて、動作変化タイミングを検出することができる。
また、タイミング信号検出部12aは、駆動制御信号を生成する場合に制御部12内部で実行される処理やコマンドに基づいて、動作変化タイミングを検出してもよい。
さらに、タイミング信号検出部12aは、操作部から入力される操作信号に基づいて、動作変化タイミングを検出してもよい。
また、タイミング信号検出部12aは、例えば、エンコーダ22から出力されるパルス信号に基づきの出力に基づいて、動作変化タイミングを検出してもよい。
The timing signal detector 12 a can detect the operation change timing based on the drive control signal input to the AF drive motor 23.
Further, the timing signal detection unit 12a may detect the operation change timing based on a process or a command executed in the control unit 12 when generating the drive control signal.
Furthermore, the timing signal detection unit 12a may detect the operation change timing based on the operation signal input from the operation unit.
The timing signal detection unit 12a may detect the operation change timing based on an output based on a pulse signal output from the encoder 22, for example.

そして、タイミング信号検出部12aは、図4で示す衝撃音が発生している時刻t10からt11を示す情報を、動作開始タイミング信号として出力する。
また、タイミング信号検出部12aは、図4で示す衝撃音が発生している時刻t20からt21を示す情報を、動作停止タイミング信号として出力する。
Then, the timing signal detection unit 12a outputs information indicating time t10 to t11 when the impact sound shown in FIG. 4 is generated as an operation start timing signal.
Further, the timing signal detection unit 12a outputs information indicating the time t20 to t21 when the impact sound shown in FIG. 4 is generated as an operation stop timing signal.

この、タイミング信号検出部12aからの動作開始タイミング信号及び動作停止タイミング信号に基づき、ノイズスペクトル推定部52Lは、図4の周波数スペクトルS2〜S4が、AFレンズ21の動作開始タイミングt10に対応する衝撃音発生期間t10からt11を含む音情報であると推定する。
また、ノイズスペクトル推定部52Lは、周波数スペクトルS9〜S12が、AFレンズ21の動作停止タイミングt20に対応する衝撃音発生期間t20〜t21を含む音情報であると推定する。
そして、ノイズスペクトル推定部52Lは、周波数スペクトルS5〜S8が、AFレンズ21による駆動音の発生期間に対応する音情報であると推定する。
Based on the operation start timing signal and the operation stop timing signal from the timing signal detection unit 12a, the noise spectrum estimation unit 52L causes the frequency spectrum S2 to S4 in FIG. 4 to have an impact corresponding to the operation start timing t10 of the AF lens 21. It is estimated that the sound information includes sound generation periods t10 to t11.
Further, the noise spectrum estimation unit 52L estimates that the frequency spectrum S9 to S12 is sound information including the impact sound generation period t20 to t21 corresponding to the operation stop timing t20 of the AF lens 21.
Then, the noise spectrum estimation unit 52L estimates that the frequency spectra S5 to S8 are sound information corresponding to the generation period of the driving sound by the AF lens 21.

ノイズスペクトル推定部52Lは、衝撃音発生期間に対応する周波数スペクトルの周波数成分の総和と、予め決められた閾値とを比較する。
この予め定められた閾値とは、衝撃音に対して目的音が大きいため、衝撃音による音声劣化が少ないとされる目的音の周波数スペクトルの周波数成分の総和である。
The noise spectrum estimation unit 52L compares the sum of the frequency components of the frequency spectrum corresponding to the impact sound generation period with a predetermined threshold value.
The predetermined threshold is the sum of the frequency components of the frequency spectrum of the target sound, which is assumed to have little voice deterioration due to the impact sound because the target sound is larger than the impact sound.

衝撃音発生期間に対応する周波数スペクトルの周波数成分の総和が、予め定められた閾値未満であると判定した場合、ノイズスペクトル推定部52Lは、算出した周波数スペクトルS1〜S14をノイズスペクトル低減部53Lの衝撃音ノイズ低減処理部53Aに出力する。   When it is determined that the sum of the frequency components of the frequency spectrum corresponding to the impact sound generation period is less than a predetermined threshold, the noise spectrum estimation unit 52L uses the calculated frequency spectrums S1 to S14 of the noise spectrum reduction unit 53L. Output to the impact noise reduction processing unit 53A.

一方、衝撃音発生期間に対応する周波数スペクトルの周波数成分の総和が、予め定められた閾値以上であると判定した場合、ノイズスペクトル推定部52Lは、算出した周波数スペクトルS1〜S14をノイズスペクトル低減部53Lの駆動音ノイズ低減処理部53Bに出力する。   On the other hand, when it is determined that the sum of the frequency components of the frequency spectrum corresponding to the impact sound generation period is equal to or greater than a predetermined threshold, the noise spectrum estimation unit 52L uses the calculated frequency spectrums S1 to S14 as the noise spectrum reduction unit. This is output to the 53L driving sound noise reduction processing unit 53B.

(衝撃音ノイズ低減処理部)
衝撃音ノイズ低減処理部53Aは、例えば、周波数スペクトルS1〜S14から、衝撃音が発生している可能性の高い期間に対応する周波数スペクトル(第1周波数スペクトル)を取得する。
例えば、衝撃音ノイズ低減処理部53Aは、動作開始タイミングt10に対応する衝撃音発生期間t10〜t11に示す周波数スペクトルS2〜S4を第1周波数スペクトルとして取得する。そして、衝撃音ノイズ低減処理部53Aは、動作停止タイミングt20に対応する衝撃音発生期間t20〜t21に示す周波数スペクトルS9〜S12を第1周波数スペクトルとして取得する。
(Shock noise reduction processing part)
For example, the impact sound noise reduction processing unit 53A acquires a frequency spectrum (first frequency spectrum) corresponding to a period during which the impact sound is highly likely to be generated from the frequency spectra S1 to S14.
For example, the shock noise reduction processing unit 53A acquires the frequency spectrums S2 to S4 shown in the shock sound generation periods t10 to t11 corresponding to the operation start timing t10 as the first frequency spectrum. And the impact sound noise reduction process part 53A acquires the frequency spectrum S9-S12 shown in the impact sound generation period t20-t21 corresponding to the operation stop timing t20 as the first frequency spectrum.

また、衝撃音ノイズ低減処理部53Aは、周波数スペクトルS1〜S14から、衝撃音が発生していない可能性の高い期間に対応する周波数スペクトル(第2周波数スペクトル)を取得する。
本実施形態において、衝撃音ノイズ低減処理部53Aは、第1周波数スペクトルと、時間軸方向において最も近い周波数スペクトルを第2周波数スペクトルとして取得する。
Further, the shock noise reduction processing unit 53A acquires a frequency spectrum (second frequency spectrum) corresponding to a period in which there is a high possibility that the shock sound is not generated from the frequency spectra S1 to S14.
In the present embodiment, the impact noise reduction processing unit 53A acquires the first frequency spectrum and the frequency spectrum closest to the time axis direction as the second frequency spectrum.

例えば、図4に示すように、衝撃音ノイズ低減処理部53Aは、第1周波数スペクトルである周波数スペクトS2、S3に対応する第2周波数スペクトルとして、周波数スペクトルS2,3の時間軸の過去方向に最も近い周波数スペクトルS1を取得する。
また、第1周波数スペクトルである周波数スペクトルS4に対応する第2周波数スペクトルとして、周波数スペクトルS4の時間軸の未来方向に最も近い周波数スペクトルS5を取得する。
また、第1周波数スペクトルである周波数スペクトルS9、S10に対応する第2周波数スペクトルとして、周波数スペクトルS9,10の時間軸の過去方向に最も近い周波数スペクトルS8を取得する。
さらに、第1周波数スペクトルである周波数スペクトルS11,12に対応する第2周波数スペクトルとして、周波数スペクトルS11,12の時間軸の未来方向に最も近い周波数スペクトルS13を取得する。
For example, as shown in FIG. 4, the impact noise reduction processing unit 53A sets the second frequency spectrum corresponding to the frequency spectra S2 and S3, which are the first frequency spectrum, in the past direction of the time axis of the frequency spectra S2 and S3. The closest frequency spectrum S1 is acquired.
Further, the frequency spectrum S5 closest to the future direction on the time axis of the frequency spectrum S4 is acquired as the second frequency spectrum corresponding to the frequency spectrum S4 that is the first frequency spectrum.
Moreover, the frequency spectrum S8 closest to the past direction of the time axis of the frequency spectra S9, 10 is acquired as the second frequency spectrum corresponding to the frequency spectra S9, S10 that are the first frequency spectrum.
Further, the frequency spectrum S13 closest to the future direction on the time axis of the frequency spectrum S11, 12 is acquired as the second frequency spectrum corresponding to the frequency spectrum S11, 12 that is the first frequency spectrum.

そして、衝撃音ノイズ低減処理部53Aは、第1周波数スペクトルのうちの少なくとも一部を第2周波数スペクトルの対応する部分に置き換える。
この置き換えの一例として、例えば、衝撃音ノイズ低減処理部53Aは、第1周波数スペクトルのうち予め定められた閾値周波数以上の周波数スペクトルと、第2周波数スペクトルのうち予め定められた閾値周波数以上の周波数スペクトルとを、周波数成分ごとに比較して、第2周波数スペクトルのほうが第1周波数スペクトルに比べて小さいと判定した場合に、第1周波数スペクトルにおける当該周波数成分を第2周波数スペクトルの周波数成分に置き換える。
Then, the shock noise reduction processing unit 53A replaces at least a part of the first frequency spectrum with a corresponding part of the second frequency spectrum.
As an example of this replacement, for example, the impact noise reduction processing unit 53A has a frequency spectrum equal to or higher than a predetermined threshold frequency in the first frequency spectrum and a frequency equal to or higher than a predetermined threshold frequency in the second frequency spectrum. When the spectrum is compared for each frequency component and it is determined that the second frequency spectrum is smaller than the first frequency spectrum, the frequency component in the first frequency spectrum is replaced with the frequency component of the second frequency spectrum. .

(駆動音ノイズ低減処理部)
一方、駆動音ノイズ低減処理部53Bは、タイミング信号検出部12aから入力するタイミング信号に基づき、例えば、周波数スペクトルS1〜S14から、駆動音が発生している可能性の高い期間に対応する周波数スペクトル(第3周波数スペクトル)を取得する。
例えば、駆動音ノイズ低減処理部53Bは、動作開始タイミングt10に対応する衝撃音発生期間t10〜t11と、動作停止タイミングt20に対応する衝撃音発生期間t20〜t21とに基づき、駆動音が発生している可能性のある期間に対応する周波数スペクトルS2〜S12を、第3周波数スペクトルとして取得する。
(Drive noise reduction processing part)
On the other hand, the drive sound noise reduction processing unit 53B is based on the timing signal input from the timing signal detection unit 12a, for example, a frequency spectrum corresponding to a period in which the drive sound is likely to be generated from the frequency spectra S1 to S14. (Third frequency spectrum) is acquired.
For example, the drive sound noise reduction processing unit 53B generates a drive sound based on an impact sound generation period t10 to t11 corresponding to the operation start timing t10 and an impact sound generation period t20 to t21 corresponding to the operation stop timing t20. The frequency spectrums S2 to S12 corresponding to the possible period are acquired as the third frequency spectrum.

駆動音ノイズ低減処理部53Bは、取得した第3周波数スペクトルに対して、駆動パターンに応じて予め定められているノイズを低減する駆動音ノイズ低減処理を行なう。
例えば、駆動音ノイズ低減処理部53Bは、駆動パターンに応じて予め定められているノイズを表す周波数スペクトルの周波数成分を、第3周波数スペクトルの周波数成分から減算する周波数スペクトル減算法を用いる。
なお、駆動パターンに応じて予め定められているノイズの周波数スペクトルは、設定値として音情報処理部50に予め設定されている。しかし、これに限定されず駆動音ノイズ低減処理部53Bが過去のマイク音信号に基づいて、駆動音が発生している区間の周波数スペクトルから駆動音が発生していない区間の周波数スペクトルを減算することにより、推定される駆動音のノイズの周波数スペクトルを、駆動パターンとして算出しておくものであっても良い。
The drive sound noise reduction processing unit 53B performs drive sound noise reduction processing for reducing noise that is predetermined according to the drive pattern, with respect to the acquired third frequency spectrum.
For example, the drive sound noise reduction processing unit 53B uses a frequency spectrum subtraction method that subtracts a frequency component of a frequency spectrum representing noise determined in advance according to a drive pattern from a frequency component of the third frequency spectrum.
Note that the frequency spectrum of noise that is predetermined according to the drive pattern is preset in the sound information processing unit 50 as a set value. However, the present invention is not limited to this, and the drive sound noise reduction processing unit 53B subtracts the frequency spectrum of the section where the drive sound is not generated from the frequency spectrum of the section where the drive sound is generated based on the past microphone sound signal. Thus, the frequency spectrum of the estimated noise of the driving sound may be calculated as a driving pattern.

以上のように、ノイズスペクトル低減部53Lの衝撃音ノイズ低減処理部53A及び駆動音ノイズ低減処理部53Bは、それぞれのフレームの周波数スペクトルごとに、AF駆動ノイズの発生が検知された左チャンネルの周波数スペクトルSLから、AF駆動ノイズ成分を低減処理した左チャンネルの周波数スペクトルSSLを算出する。   As described above, the impact sound noise reduction processing unit 53A and the driving sound noise reduction processing unit 53B of the noise spectrum reduction unit 53L have the frequency of the left channel where the occurrence of AF driving noise is detected for each frequency spectrum of each frame. From the spectrum SL, the frequency spectrum SSL of the left channel obtained by reducing the AF driving noise component is calculated.

(スペクトル調整部)
図5は、左チャンネルから右チャンネルの周波数スペクトルSSRを得る方法を説明する。
図示するように、音情報処理部50のスペクトル調整部54Rは、スペクトル変換部51Lが算出した(ノイズ低減処理前の)左チャンネルの周波数スペクトルSLに対する、スペクトル変換部51Rが算出した右チャンネルの周波数スペクトルSRの周波数領域毎の振幅の比で、ノイズスペクトル低減部53Lによるノイズ低減処理後の左チャンネルの周波数スペクトルSSLの周波数領域毎の振幅を調整して、右チャンネルの周波数スペクトルSSRを得る。
(Spectrum adjustment unit)
FIG. 5 illustrates a method of obtaining the frequency spectrum SSR of the right channel from the left channel.
As shown in the figure, the spectrum adjustment unit 54R of the sound information processing unit 50 has the frequency of the right channel calculated by the spectrum conversion unit 51R with respect to the frequency spectrum SL of the left channel (before noise reduction processing) calculated by the spectrum conversion unit 51L. The right channel frequency spectrum SSR is obtained by adjusting the amplitude of the frequency spectrum SSL of the left channel frequency spectrum SSL after the noise reduction processing by the noise spectrum reducing unit 53L by the ratio of the amplitude of each spectrum SR in the frequency domain.

すなわち、
SL(k):左チャンネルのノイズ低減前のスペクトル
SR(k):右チャンネルのノイズ低減前のスペクトル
SSL(k):左チャンネルのノイズ低減後のスペクトル
SSR(k):右チャンネルの調整後のスペクトル
なお、k:周波数成分番号
として、
右チャンネルの調整後のスペクトルSSR(k)を、
SSR(k)=SSL(k)*SR(k)/SL(k)
で求める。
That is,
SL (k): Spectrum before noise reduction of left channel SR (k): Spectrum before noise reduction of right channel SSL (k): Spectrum after noise reduction of left channel SSR (k): After adjustment of right channel Spectrum where k is the frequency component number
The spectrum SSR (k) after adjustment of the right channel is
SSR (k) = SSL (k) * SR (k) / SL (k)
Ask for.

換言すると、スペクトル調整部54Rは、ノイズ低減処理前の左チャンネルの周波数スペクトルSLに対する、右チャンネルの周波数スペクトルSRの、周波数領域毎の振幅の比(図5中における左右振幅比:R)を求め、ノイズ低減処理後の左チャンネルの周波数スペクトルSSLに対して周波数領域毎にこの左右振幅比:Rとなる右チャンネルの周波数スペクトルSSRを算出する。   In other words, the spectrum adjustment unit 54R obtains the ratio of the amplitude of the frequency spectrum SR of the right channel to the frequency spectrum SL of the right channel before the noise reduction processing for each frequency region (the left-right amplitude ratio: R in FIG. 5). For the frequency spectrum SSL of the left channel after the noise reduction processing, a frequency spectrum SSR of the right channel having the left / right amplitude ratio: R is calculated for each frequency region.

たとえば、図5中に例示するように、
SL(f3)=1.0
SR(f3)=0.5
SSL(f3)=0.6
の場合には、
R(f3)=0.5/1.0=0.5
であって、
SSR(f3)=0.6×0.5=0.3
となる。
For example, as illustrated in FIG.
SL (f3) = 1.0
SR (f3) = 0.5
SSL (f3) = 0.6
In Case of,
R (f3) = 0.5 / 1.0 = 0.5
Because
SSR (f3) = 0.6 × 0.5 = 0.3
It becomes.

(逆変換部)
逆変換部55L,55Rは、ノイズスペクトル低減部53Lによってノイズ低減処理を行った周波数スペクトルSSL、または、スペクトル調整部54Rによって調整を行った周波数スペクトルSSRに対して、それぞれ、例えば逆フーリエ変換、あるいは逆高速フーリエ変換(IFFT:Inverse Fast Fourier Transform)を行うことで、時間領域に変換する。逆変換部55LはLchの入力音の位相情報を用いて逆変換を行い、逆変換部55RはRchの入力音の位相情報を用いて逆変換を行う。そして、逆変換部55L,55Rは、この時間領域に変換された音信号を、記録部140に出力する。
(Inverse conversion part)
The inverse transform units 55L and 55R respectively perform, for example, an inverse Fourier transform, or the frequency spectrum SSL that has been subjected to noise reduction processing by the noise spectrum reduction unit 53L, or the frequency spectrum SSR that has been adjusted by the spectrum adjustment unit 54R, respectively. By performing inverse fast Fourier transform (IFFT: Inverse Fast Fourier Transform), it transforms into the time domain. The inverse conversion unit 55L performs reverse conversion using the phase information of the Lch input sound, and the inverse conversion unit 55R performs reverse conversion using the phase information of the Rch input sound. Then, the inverse conversion units 55L and 55R output the sound signal converted into the time domain to the recording unit 140.

(動作のフローチャート)
次に、音情報処理部50における上述動作について図6のフローチャートに基づいて説明する。
(Operation flowchart)
Next, the above-described operation in the sound information processing unit 50 will be described based on the flowchart of FIG.

まず、左右のマイク41L,41Rより入力された左右両チャンネルの音信号は、A/D変換部42でA/D変換が行なわれ、音情報処理部50に入力される(ステップS10)。   First, the sound signals of both the left and right channels input from the left and right microphones 41L and 41R are A / D converted by the A / D conversion unit 42 and input to the sound information processing unit 50 (step S10).

音情報処理部50のスペクトル変換部51L,51Rは、例えば、マイク音信号にフーリエ変換を行なうことで、窓関数の各区間に対応する周波数スペクトルを算出する(ステップS11)。   The spectrum conversion units 51L and 51R of the sound information processing unit 50 calculate a frequency spectrum corresponding to each section of the window function, for example, by performing a Fourier transform on the microphone sound signal (step S11).

音情報処理部50のノイズスペクトル推定部52Lは、動作変化タイミング信号より、衝撃音発生期間を推定し、衝撃音が発生しているスペクトルを推定する(ステップS12)。   The noise spectrum estimation unit 52L of the sound information processing unit 50 estimates the impact sound generation period from the operation change timing signal, and estimates the spectrum in which the impact sound is generated (step S12).

音情報処理部50のノイズスペクトル推定部52Lは、左チャンネルの音情報に対して、衝撃音発生期間に対応する周波数スペクトルの周波数成分の総和と、予め決められた閾値とを比較する(ステップS13)。   The noise spectrum estimation unit 52L of the sound information processing unit 50 compares the sum of the frequency components of the frequency spectrum corresponding to the impact sound generation period with the predetermined threshold for the sound information of the left channel (step S13). ).

衝撃音発生期間に対応する周波数スペクトルの周波数成分の総和が閾値よりも小さい場合(ステップS13,YES)、音情報処理部50の衝撃音ノイズ低減処理部53Aは、衝撃音発生している可能性の高い期間に対応する周波数スペクトル(第1周波数スペクトル)を取得する。
また、衝撃音ノイズ低減処理部53Aは、周波数スペクトルS1〜S14から、衝撃音が発生していない可能性の高い期間に対応する周波数スペクトル(第2周波数スペクトル)を取得する(ステップS14)。
When the sum of the frequency components of the frequency spectrum corresponding to the impact sound generation period is smaller than the threshold value (step S13, YES), the impact sound noise reduction processing unit 53A of the sound information processing unit 50 may generate the impact sound. A frequency spectrum (first frequency spectrum) corresponding to a high period of time is acquired.
Further, the impact noise reduction processing unit 53A acquires a frequency spectrum (second frequency spectrum) corresponding to a period during which there is a high possibility that no impact sound is generated from the frequency spectra S1 to S14 (step S14).

衝撃音ノイズ低減処理部53Aは、第1周波数スペクトルのうちの少なくとも一部を第2周波数スペクトルの対応する部分に置き換えて衝撃音ノイズ低減スペクトルを取得する(ステップS15)。   The shock noise reduction processing unit 53A obtains a shock noise reduction spectrum by replacing at least a part of the first frequency spectrum with a corresponding part of the second frequency spectrum (step S15).

駆動音ノイズ低減処理部53Bは、駆動音が発生している可能性のある期間に対応する周波数スペクトルを、第3周波数スペクトルとして取得する。そして、駆動音ノイズ低減処理部53Bは、衝撃音ノイズ低減スペクトルに対して、取得した第3周波数スペクトルをもとに、駆動パターンに応じて予め定められているノイズを低減する駆動音ノイズ低減処理を行なう(ステップS16)。
なお、衝撃音発生期間に対応する周波数スペクトルの周波数成分の総和が閾値以上の場合(ステップS13,NO)もステップS16に進む。
The drive sound noise reduction processing unit 53B acquires a frequency spectrum corresponding to a period during which drive sound may be generated as a third frequency spectrum. Then, the driving sound noise reduction processing unit 53B reduces the noise determined in advance according to the driving pattern based on the acquired third frequency spectrum with respect to the impact sound noise reduction spectrum. Is performed (step S16).
In addition, also when the sum total of the frequency component of the frequency spectrum corresponding to an impact sound generation period is more than a threshold value (step S13, NO), it progresses to step S16.

音情報処理部50のスペクトル調整部54Rは、スペクトル変換部51Lが算出した(ノイズ低減処理前の)左チャンネルの周波数スペクトルSLに対する、スペクトル変換部51Rが算出した右チャンネルの周波数スペクトルSRの周波数領域毎の振幅の比で、ノイズスペクトル低減部53Lによるノイズ低減処理後の左チャンネルの周波数スペクトルSSLの周波数領域毎の振幅を調整して、右チャンネルの周波数スペクトルSSRを得る(ステップS17)。   The spectrum adjustment unit 54R of the sound information processing unit 50 is a frequency region of the frequency spectrum SR of the right channel calculated by the spectrum conversion unit 51R with respect to the frequency spectrum SL of the left channel (before the noise reduction process) calculated by the spectrum conversion unit 51L. The right channel frequency spectrum SSR is obtained by adjusting the amplitude of the frequency spectrum SSL of the left channel frequency spectrum SSL after the noise reduction processing by the noise spectrum reduction unit 53L by the ratio of the amplitude of each (step S17).

スペクトル調整部54Rは、ノイズスペクトル低減部53Lによってノイズ低減処理を行った周波数スペクトルSSL、または、スペクトル調整部54Rによって調整を行った周波数スペクトルSSRに対して、それぞれ、例えば逆フーリエ変換を行うことで、時間領域に変換する(ステップS18)。   The spectrum adjustment unit 54R performs, for example, inverse Fourier transform on the frequency spectrum SSL that has been subjected to noise reduction processing by the noise spectrum reduction unit 53L or the frequency spectrum SSR that has been adjusted by the spectrum adjustment unit 54R, respectively. The time domain is converted (step S18).

上記のような音情報処理部50によるノイズ低減処理によれば、ノイズ低減処理後の周波数スペクトルの各周波数成分の左右比が、処理前後で保たれる。これにより、本来の定位感を保ったままノイズを低減した音声を得ることができる。
また、右チャンネルにおける推定ノイズスペクトルの算出およびノイズスペクトルの低減(左チャンネルにおけるノイズスペクトル推定部52Lとノイズスペクトル低減部53L)を省くことができる。これにより、演算量、および必要なメモリを削減することができる。
According to the noise reduction process by the sound information processing unit 50 as described above, the left / right ratio of each frequency component of the frequency spectrum after the noise reduction process is maintained before and after the process. Thereby, it is possible to obtain a sound with reduced noise while maintaining the original orientation.
Further, it is possible to omit the calculation of the estimated noise spectrum in the right channel and the noise spectrum reduction (the noise spectrum estimation unit 52L and the noise spectrum reduction unit 53L in the left channel). Thereby, it is possible to reduce the amount of calculation and the necessary memory.

ここで、上記実施形態では、左チャンネルにおいて推定ノイズスペクトルの算出およびノイズスペクトルの低減を行い、その情報に基づいて右チャンネルのスペクトル調整を行っている。
しかし、この左右チャンネルの分担は、逆であっても良い。つまり、右チャンネルにおいて推定ノイズスペクトルの算出およびノイズスペクトルの低減を行い、その情報に基づいて左チャンネルのスペクトル調整を行うものであってもよい。さらに、状況に応じて切り替えるように構成しても良い。
Here, in the above embodiment, the estimated noise spectrum is calculated and the noise spectrum is reduced in the left channel, and the right channel spectrum is adjusted based on the information.
However, the sharing of the left and right channels may be reversed. That is, the estimated noise spectrum may be calculated and the noise spectrum reduced in the right channel, and the left channel spectrum may be adjusted based on the information. Furthermore, it may be configured to switch according to the situation.

左右のチャンネルの処理を状況に応じて切り替える構成としては、たとえば、制御部12によってノイズの発生源に対してステレオ集音装置41における左マイク41Lと右マイク41Rのいずれが近いかを判断し、近い方のマイク入力のチャンネルの音情報に対して推定ノイズスペクトルの算出およびノイズスペクトルの低減を行い、その情報に基づいて他方のチャンネルのスペクトル調整を行うように構成してもよい。   For example, the control unit 12 determines whether the left microphone 41L or the right microphone 41R in the stereo sound collector 41 is closer to the noise generation source by switching the processing of the left and right channels depending on the situation. It is also possible to calculate the estimated noise spectrum and reduce the noise spectrum for the sound information of the channel of the closer microphone input, and adjust the spectrum of the other channel based on the information.

また、左右のチャンネルの処理を状況に応じて切り替える他の構成として、AFエンコーダ22の出力信号に基づいて音信号内におけるAF駆動ノイズの発生を検知した際に、音信号入力が小さい側のチャンネルの音情報に対して推定ノイズスペクトルの算出およびノイズスペクトルの低減を行い、その情報に基づいて他方のチャンネルのスペクトル調整を行うように構成しても良い。
これは、ステレオ集音装置41における左マイク41Lと右マイク41Rから入力されるノイズの条件が略同一であれば、音信号入力が小さい方がノイズの割合が大きいと考えられるためである。これによれば、より精度の高いノイズ低減効果が得られる。
Further, as another configuration for switching the processing of the left and right channels depending on the situation, when the occurrence of AF driving noise in the sound signal is detected based on the output signal of the AF encoder 22, the channel on the side where the sound signal input is small The estimated noise spectrum may be calculated for the sound information and the noise spectrum may be reduced, and the spectrum of the other channel may be adjusted based on the information.
This is because if the conditions of noise input from the left microphone 41L and the right microphone 41R in the stereo sound collector 41 are substantially the same, the smaller the sound signal input, the greater the noise ratio. According to this, a more accurate noise reduction effect can be obtained.

さらに、左右のチャンネルの処理を状況に応じて切り替える他の構成として、AF駆動の動作音の変動を検出し、その変動に伴って音信号が変動するチャンネルの音情報に対して推定ノイズスペクトルの算出およびノイズスペクトルの低減を行い、その情報に基づいて他方のチャンネルのスペクトル調整を行うように構成しても良い。
これは、AF駆動の動作音の変動に伴って音信号が変動するチャンネルの音情報にはAF駆動ノイズが含まれている可能性が高いためである。これにより、精度の高いノイズ低減効果が得られる。
また、左右のチャンネルの処理を状況に応じて切り替える更なる構成として、図1において点線で示すように、切り替え用のスイッチ43をカメラ本体10に設けても良い。
Furthermore, as another configuration for switching the processing of the left and right channels depending on the situation, the fluctuation of the operating sound of the AF drive is detected, and the estimated noise spectrum of the sound information of the channel in which the sound signal fluctuates with the fluctuation is detected. You may comprise so that calculation and reduction of a noise spectrum may be performed and the spectrum adjustment of the other channel may be performed based on the information.
This is because there is a high possibility that the sound information of the channel in which the sound signal fluctuates with the fluctuation of the AF driving operation sound includes AF driving noise. Thereby, a highly accurate noise reduction effect can be obtained.
Further, as a further configuration for switching the processing of the left and right channels depending on the situation, a switch 43 for switching may be provided in the camera body 10 as indicated by a dotted line in FIG.

以上、第1実施形態によると、以下の効果を有する。
(1)カメラ1は、その音情報処理部50が、一方のチャンネルの音情報に対してスペクトル減算法でノイズ低減処理すると共に、この情報を用いて他方のチャンネル(右チャンネル)の音情報に対してスペクトル調整処理を行う。
スペクトル調整処理は、ノイズ低減処理前の一方のチャンネルの周波数スペクトルに対する、他方のチャンネルの周波数スペクトルの周波数領域毎の振幅の比で、一方のチャンネルのノイズ低減処理後の周波数スペクトルの周波数領域毎の振幅を調整して他方のチャンネルの周波数スペクトルを得る。
これにより、周波数スペクトルの各周波数成分の左右比が処理前後で保たれ、本来の定位感や臨場感を保ったままノイズを低減した音声を得ることができる。
(2)また、一方のチャンネルにおける推定ノイズスペクトルの算出およびノイズスペクトルの低減を省くことができる。これにより、演算量、および必要なメモリを削減することができる。
As described above, the first embodiment has the following effects.
(1) In the camera 1, the sound information processing unit 50 performs noise reduction processing on the sound information of one channel by the spectral subtraction method, and uses this information to convert the sound information of the other channel (right channel). A spectrum adjustment process is performed on the image.
The spectrum adjustment process is the ratio of the amplitude of the frequency spectrum of the other channel to the frequency spectrum of one channel before the noise reduction process and the frequency spectrum of the frequency spectrum after the noise reduction process of one channel. The frequency spectrum of the other channel is obtained by adjusting the amplitude.
Thereby, the left-right ratio of each frequency component of the frequency spectrum is maintained before and after the processing, and it is possible to obtain a sound with reduced noise while maintaining the original localization feeling and the realistic feeling.
(2) Moreover, calculation of the estimated noise spectrum and noise spectrum reduction in one channel can be omitted. Thereby, it is possible to reduce the amount of calculation and the necessary memory.

(第2実施形態)
つぎに、図7を参照して、本発明の第2実施形態を説明する。
図7は、第2実施形態における音情報処理部500の機能部のブロック図である。
なお、本第2実施形態における音情報処理部500は、前述した第1実施形態における音情報処理部50と置換されるものであり、それ以外の構成は第1実施形態と同様であるため説明は省略する。また、音情報処理部500内の各構成要素についても、前述した第1実施形態における音情報処理部50と同機能のものは同符号を付して説明を省略する。
また、音情報処理部500のノイズスペクトル低減部53L、ノイズスペクトル低減部53Rは、第1実施形態と同様であるので説明及び図示は省略するが、それぞれ、衝撃音ノイズ低減処理部53A及び駆動音ノイズ低減処理部53Bを含む。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to FIG.
FIG. 7 is a block diagram of functional units of the sound information processing unit 500 in the second embodiment.
The sound information processing unit 500 in the second embodiment is replaced with the sound information processing unit 50 in the first embodiment described above, and other configurations are the same as those in the first embodiment. Is omitted. In addition, for each component in the sound information processing unit 500, components having the same functions as those of the sound information processing unit 50 in the first embodiment described above are denoted by the same reference numerals and description thereof is omitted.
Further, since the noise spectrum reduction unit 53L and the noise spectrum reduction unit 53R of the sound information processing unit 500 are the same as those in the first embodiment, the description and illustration thereof are omitted, but the impact sound noise reduction processing unit 53A and the drive sound, respectively, are omitted. A noise reduction processing unit 53B is included.

図7に示す音情報処理部500は、左チャンネル優先処理部50Lと、右チャンネル優先処理部50Rと、平均値算出部56L,56Rと、を備えている。
左チャンネル優先処理部50Lは、前述した第1実施形態における音情報処理部50と同様の構成であって、左右両チャンネルそれぞれに対するスペクトル変換部51L,51Rと、左チャンネルに対するノイズスペクトル推定部52Lと、左チャンネルに対するノイズスペクトル低減部53Lと、右チャンネルに対するスペクトル調整部54Rと、左右両チャンネルに対する逆変換部55L,55Rと、を備えている。そして、左チャンネル優先処理部50Lは、左チャンネルにおいて推定ノイズスペクトルの算出およびノイズスペクトルの低減を行うと共に、その情報に基づいて右チャンネルのスペクトル調整を行って、左チャンネルの音データを平均値算出部56Lに、右チャンネルの音データを平均値算出部56Rに、それぞれ出力する。
The sound information processing unit 500 illustrated in FIG. 7 includes a left channel priority processing unit 50L, a right channel priority processing unit 50R, and average value calculation units 56L and 56R.
The left channel priority processing unit 50L has the same configuration as the sound information processing unit 50 in the first embodiment described above, and includes spectrum conversion units 51L and 51R for both the left and right channels, and a noise spectrum estimation unit 52L for the left channel. A noise spectrum reduction unit 53L for the left channel, a spectrum adjustment unit 54R for the right channel, and inverse conversion units 55L and 55R for both the left and right channels. Then, the left channel priority processing unit 50L calculates the estimated noise spectrum and reduces the noise spectrum in the left channel, performs the right channel spectrum adjustment based on the information, and calculates the average value of the sound data of the left channel. The sound data of the right channel is output to the average value calculation unit 56R to the unit 56L.

右チャンネル優先処理部50Rは、左チャンネル優先処理部50Lとは左右のチャンネルの処理が入れ替わっており、左右両チャンネルそれぞれに対するスペクトル変換部51L,51Rと、右チャンネルに対するノイズスペクトル推定部52Rと、右チャンネルに対するノイズスペクトル低減部53Rと、左チャンネルに対するスペクトル調整部54Lと、左右両チャンネルに対する逆変換部55L,55Rと、を備えている。そして、右チャンネル優先処理部50Rは、右チャンネルにおいて推定ノイズスペクトルの算出およびノイズスペクトルの低減を行うと共にその情報に基づいて左チャンネルのスペクトル調整を行って、左チャンネルの音データを平均値算出部56Lに、右チャンネルの音データを平均値算出部56Rに、それぞれ出力する。   In the right channel priority processing unit 50R, the left and right channel processing is interchanged with the left channel priority processing unit 50L. The spectrum conversion units 51L and 51R for the left and right channels, the noise spectrum estimation unit 52R for the right channel, A noise spectrum reduction unit 53R for the channel, a spectrum adjustment unit 54L for the left channel, and inverse conversion units 55L and 55R for both the left and right channels are provided. Then, the right channel priority processing unit 50R calculates the estimated noise spectrum and reduces the noise spectrum in the right channel and adjusts the spectrum of the left channel based on the information, and converts the sound data of the left channel into an average value calculation unit. The sound data of the right channel is output to the average value calculation unit 56R at 56L.

平均値算出部56L,56Rは、左チャンネル優先処理部50Lと右チャンネル優先処理部50Rの左右チャンネルの出力から、それぞれ平均値を算出する。つまり、平均値算出部56Lは、左チャンネル優先処理部50Lの左チャンネル出力と右チャンネル優先処理部50Rの左チャンネルの出力との平均値を出力する。また、平均値算出部56Rは、左チャンネル優先処理部50Lの右チャンネル出力と右チャンネル優先処理部50Rの右チャンネルの出力との平均値を出力する。   The average value calculation units 56L and 56R calculate average values from the left and right channel outputs of the left channel priority processing unit 50L and the right channel priority processing unit 50R, respectively. That is, the average value calculation unit 56L outputs an average value of the left channel output of the left channel priority processing unit 50L and the output of the left channel of the right channel priority processing unit 50R. The average value calculation unit 56R outputs an average value of the right channel output of the left channel priority processing unit 50L and the right channel output of the right channel priority processing unit 50R.

本第2実施形態における音情報処理部500の処理によれば、たとえば、音源が左右に移動しているような場合であっても、左右対称な処理になり、音源の移動方向に関わらず同様なノイズ低減効果を得ることができる。つまり、左右いずれか一方側のみでノイズスペクトル推定とノイズ低減処理を行うと、音源が左側から右側に移動している場合と右側から左側に移動している場合とで、ノイズ低減効果が変わる可能性があるが、本構成ではこのようなことがない。   According to the processing of the sound information processing unit 500 in the second embodiment, for example, even when the sound source is moving left and right, the processing is symmetric, and the same regardless of the moving direction of the sound source. Noise reduction effect can be obtained. In other words, if noise spectrum estimation and noise reduction processing is performed on only one of the left and right sides, the noise reduction effect can change depending on whether the sound source is moving from the left side to the right side or from the right side to the left side. This is not the case with this configuration.

なお、音情報処理部500は、左チャンネル優先処理部50Lと、右チャンネル優先処理部50Rとを備え、左右のチャンネルにおいてノイズスペクトル推定とノイズ低減処理とを行う。これにより演算量の増加が懸念されるが、これはスペクトル変換におけるサンプリング数を調整して対応すれば良い。   The sound information processing unit 500 includes a left channel priority processing unit 50L and a right channel priority processing unit 50R, and performs noise spectrum estimation and noise reduction processing in the left and right channels. As a result, there is a concern about an increase in the amount of calculation, but this may be dealt with by adjusting the number of samplings in the spectrum conversion.

以上、第2実施形態によると、以下の効果を有する。
(1)音情報処理部500は、左チャンネルにおいて推定ノイズスペクトルの算出およびノイズスペクトルの低減を行うと共にその情報に基づいて右チャンネルのスペクトル調整を行う左チャンネル優先処理部50Lと、右チャンネルにおいて推定ノイズスペクトルの算出およびノイズスペクトルの低減を行うと共にその情報に基づいて左チャンネルのスペクトル調整を行う右チャンネル優先処理部50Rと、両者の出力する左右チャンネルの音データをそれぞれ平均する平均値算出部56L,56Rを備えている。これにより、左右対称な処理になり、音源の移動等に関わらず同様なノイズ低減効果を得ることができる。
As described above, the second embodiment has the following effects.
(1) The sound information processing unit 500 calculates the estimated noise spectrum and reduces the noise spectrum in the left channel, and adjusts the right channel spectrum based on the information, and estimates the right channel. The right channel priority processing unit 50R that calculates the noise spectrum and reduces the noise spectrum and adjusts the spectrum of the left channel based on the information, and the average value calculation unit 56L that averages the sound data of the left and right channels output by both , 56R. Thereby, it becomes a symmetrical process and the same noise reduction effect can be acquired irrespective of the movement of a sound source, etc.

(変形形態)
以上、説明した実施形態に限定されることなく、以下に示すような種々の変形や変更が可能であり、それらも本発明の範囲内である。
(1)本実施形態は、本発明を、1対(2個)のマイク(左マイク41Lおよび右マイク41R)を備えてステレオ録音するカメラ1に適用したものである。しかし、集音部(マイク)の数はこれに限るものではなく、3個以上のマイクを備えた、例えば多チャンネルのサラウンド録音を行うもの等に適用しても良い。
複数の集音部を備える場合には、定められた集音部の音情報に対してノイズ低減処理すると共にその情報を用いて他の集音部の音情報に対してスペクトル調整処理を行うが、処理は必ずしも他の全ての音情報に対して行う必要は無く、一部の集音部の音情報に対しては処理を行わない構成としても良い。
また、複数の集音部をグループに分け、グループ毎に特定の集音部の音情報に対してノイズ低減処理すると共にその情報を用いてグループ内の他の集音部の音情報に対してスペクトル調整処理を行うように構成しても良い。
(Deformation)
The present invention is not limited to the above-described embodiment, and various modifications and changes as described below are possible, and these are also within the scope of the present invention.
(1) In this embodiment, the present invention is applied to a camera 1 that includes a pair of (two) microphones (a left microphone 41L and a right microphone 41R) and performs stereo recording. However, the number of sound collection units (microphones) is not limited to this, and the present invention may be applied to, for example, a multichannel surround recording device including three or more microphones.
When a plurality of sound collection units are provided, noise reduction processing is performed on the sound information of a predetermined sound collection unit, and spectrum adjustment processing is performed on sound information of other sound collection units using the information. The processing does not necessarily have to be performed on all other sound information, and the sound information of some sound collecting units may not be processed.
Moreover, a plurality of sound collection units are divided into groups, and noise reduction processing is performed on sound information of a specific sound collection unit for each group, and the sound information of other sound collection units in the group is used by using the information. You may comprise so that a spectrum adjustment process may be performed.

(2)本実施形態では、録音部40の音情報処理部50が低減処理対象とするノイズは、フォーカシングレンズ21を移動駆動するAF駆動モータ23の駆動によるAF駆動音である。しかし、低減対象とするノイズはこれに限るものではない。たとえば、オートズームの駆動音、手振れ補正レンズの駆動音、およびスイッチ類の操作音等に適用しても良い。 (2) In the present embodiment, the noise to be reduced by the sound information processing unit 50 of the recording unit 40 is an AF drive sound generated by driving the AF drive motor 23 that moves and drives the focusing lens 21. However, the noise to be reduced is not limited to this. For example, the present invention may be applied to auto zoom drive sound, camera shake correction lens drive sound, and switch operation sound.

(3)上記実施形態は、本発明を動画撮影と同時に録音可能なカメラに適用したものであるが、撮影機能を備えない録音装置に適用しても良いものである。
なお、実施形態及び変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。また、本発明は以上説明した実施形態によって限定されることはない。
(3) In the above embodiment, the present invention is applied to a camera capable of recording simultaneously with moving image shooting, but may be applied to a recording apparatus that does not have a shooting function.
In addition, although embodiment and a deformation | transformation form can also be used in combination as appropriate, detailed description is abbreviate | omitted. Further, the present invention is not limited to the embodiment described above.

1:カメラ、10:カメラ本体、20:レンズ鏡筒、40:録音部、41:ステレオ集音装置、41L:左マイク、41R:右マイク、50,500:音情報処理部、50L:左チャンネル優先処理部、50R:右チャンネル優先処理部、51L:スペクトル変換部、51R:スペクトル変換部、52L:ノイズスペクトル推定部、52R:ノイズスペクトル推定部、53L:ノイズスペクトル低減部、53R:ノイズスペクトル低減部、54L:スペクトル調整部、54R:スペクトル調整部、55L:逆変換部、55R:逆変換部、56L:平均値算出部、56R:平均値算出部   1: Camera, 10: Camera body, 20: Lens barrel, 40: Recording unit, 41: Stereo sound collector, 41L: Left microphone, 41R: Right microphone, 50,500: Sound information processing unit, 50L: Left channel Priority processing unit, 50R: Right channel priority processing unit, 51L: Spectrum conversion unit, 51R: Spectrum conversion unit, 52L: Noise spectrum estimation unit, 52R: Noise spectrum estimation unit, 53L: Noise spectrum reduction unit, 53R: Noise spectrum reduction Part, 54L: spectrum adjustment part, 54R: spectrum adjustment part, 55L: inverse conversion part, 55R: inverse conversion part, 56L: average value calculation part, 56R: average value calculation part

Claims (6)

複数の集音部と、
前記複数の集音部のうちの第1集音部により集音された第1音のノイズ推定を行なう第1ノイズ推定部と、
前記第1ノイズ推定部により推定されたノイズを、前記第1音から低減する第1ノイズ低減部と、
前記複数の集音部のうちの第2集音部により集音された第2音とノイズ低減前の前記第1音との関係である第1の関係を求め、ノイズ低減後の前記第1音との関係が前記第1の関係と同じになるように前記第2音を調整する第2調整部と、
を備えることを特徴とする録音装置。
Multiple sound collectors;
A first noise estimation unit that performs noise estimation of the first sound collected by the first sound collection unit of the plurality of sound collection units;
A first noise reduction unit for reducing the noise estimated by the first noise estimation unit from the first sound;
A first relationship that is a relationship between the second sound collected by the second sound collecting unit of the plurality of sound collecting units and the first sound before noise reduction is obtained, and the first after noise reduction is obtained. A second adjustment unit that adjusts the second sound so that the relationship with the sound is the same as the first relationship;
A recording apparatus comprising:
請求項1に記載の録音装置であって、
前記第1の関係は、振幅スペクトルごとの比であること、
を特徴とする録音装置。
The recording device according to claim 1,
The first relationship is a ratio for each amplitude spectrum;
Recording device characterized by.
請求項1または2に記載の録音装置であって、
前記第2集音部により集音された音のノイズ推定を行なう第2ノイズ推定部と、
前記第2ノイズ推定部により推定された前記ノイズを、前記第2音から低減する第2ノイズ低減部と、
前記ノイズ低減後の前記第2音との関係が、前記第1の関係と同じになるように、前記第1音を調整する第1調整部と、
前記第1ノイズ低減部より前記ノイズが低減されたノイズ低減後の第1音と前記第1調整部により調整された調整後の第1音とを平均する第1平均部と、
前記第2ノイズ低減部により前記ノイズが低減された、ノイズ低減後の第2音と、前記第2調整部により調整された調整後の第2音とを平均する第2平均部と、
を備えること、
を特徴とする録音装置。
The recording device according to claim 1 or 2,
A second noise estimation unit that performs noise estimation of the sound collected by the second sound collection unit;
A second noise reduction unit that reduces the noise estimated by the second noise estimation unit from the second sound;
A first adjustment unit that adjusts the first sound so that the relationship with the second sound after the noise reduction is the same as the first relationship;
A first averaging unit that averages the noise-reduced first sound from which the noise has been reduced by the first noise reduction unit and the adjusted first sound adjusted by the first adjustment unit;
A second averaging unit that averages the second sound after the noise has been reduced by the second noise reduction unit and the second sound after the adjustment adjusted by the second adjustment unit;
Providing
Recording device characterized by.
請求項1から3のいずれか1項に記載の録音装置であって、
前記第1音を、前記ノイズ推定又は前記調整前にスペクトル変換する第1変換部と、
前記ノイズ低減又は前記調整後の前記第1音をスペクトル逆変換する第1逆変換部と、
前記第2音を、前記ノイズ推定又は前記調整前にスペクトル変換する第2変換部と、
前記ノイズ低減又は前記調整後の前記第2音をスペクトル逆変換する第2逆変換部と、
を備えること、
を特徴とする録音装置。
The recording apparatus according to any one of claims 1 to 3,
A first converter that performs spectrum conversion on the first sound before the noise estimation or the adjustment;
A first inverse transform unit that inversely transforms the first sound after the noise reduction or the adjustment;
A second converter that performs spectral conversion of the second sound before the noise estimation or the adjustment;
A second inverse transform unit for performing spectrum inverse transform on the second sound after the noise reduction or the adjustment;
Providing
Recording device characterized by.
請求項1から4のいずれか1項に記載の録音装置であって、
右耳用として、前記第1集音部または前記第2集音部のいずれかを一方を選択するとともに、左耳用としていずれか他方を選択する選択部を備えること、
を特徴とする録音装置。
The recording apparatus according to any one of claims 1 to 4,
For the right ear, a selection unit is provided that selects one of the first sound collection unit and the second sound collection unit and selects the other for the left ear,
Recording device characterized by.
複数の集音部のうちの第1集音部により集音された第1音のノイズ推定を行ない、
推定されたノイズを、前記第1音から低減し、
前記複数の集音部のうちの第2集音部により集音された第2音と、ノイズ低減前の前記第1音との関係である第1の関係を求め、ノイズ低減後の前記第1音との関係が前記第1の関係と同じになるように前記第2音を調整する処理を、コンピュータ装置に実行させるプログラム。
Performing noise estimation of the first sound collected by the first sound collection unit of the plurality of sound collection units;
Reducing the estimated noise from the first sound;
A first relationship that is a relationship between the second sound collected by the second sound collecting portion of the plurality of sound collecting portions and the first sound before noise reduction is obtained, and the first sound after noise reduction is obtained. A program that causes a computer device to execute a process of adjusting the second sound so that the relationship with one sound is the same as the first relationship.
JP2012164008A 2012-02-01 2012-07-24 Sound recording device and program Pending JP2014026002A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012164008A JP2014026002A (en) 2012-07-24 2012-07-24 Sound recording device and program
PCT/JP2013/052404 WO2013115385A1 (en) 2012-02-01 2013-02-01 Sound processing device and sound processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012164008A JP2014026002A (en) 2012-07-24 2012-07-24 Sound recording device and program

Publications (1)

Publication Number Publication Date
JP2014026002A true JP2014026002A (en) 2014-02-06

Family

ID=50199718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012164008A Pending JP2014026002A (en) 2012-02-01 2012-07-24 Sound recording device and program

Country Status (1)

Country Link
JP (1) JP2014026002A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016053696A (en) * 2014-09-04 2016-04-14 キヤノン株式会社 Electronic apparatus and control method
JP2016053697A (en) * 2014-09-04 2016-04-14 キヤノン株式会社 Electronic apparatus and control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016053696A (en) * 2014-09-04 2016-04-14 キヤノン株式会社 Electronic apparatus and control method
JP2016053697A (en) * 2014-09-04 2016-04-14 キヤノン株式会社 Electronic apparatus and control method

Similar Documents

Publication Publication Date Title
JP4934968B2 (en) Camera device, camera control program, and recorded voice control method
JP5529635B2 (en) Audio signal processing apparatus and audio signal processing method
US9495950B2 (en) Audio signal processing device, imaging device, audio signal processing method, program, and recording medium
JP5948856B2 (en) Imaging apparatus, autofocus method, and program
WO2007058100A1 (en) In-focus detector
JP6610725B2 (en) Sound processing apparatus and sound processing program
US20150271439A1 (en) Signal processing device, imaging device, and program
US9232146B2 (en) Imaging device with processing to change sound data
JP5299034B2 (en) Imaging device
JP2013017160A (en) Camera and interchangeable lens mountable on camera
JP2009130767A (en) Signal processing apparatus
JP2010135984A (en) Compound-eye imaging apparatus and imaging method
JP6304309B2 (en) Imaging apparatus, autofocus method, and program
JP2010157965A (en) Imaging apparatus
JP2014026002A (en) Sound recording device and program
JP5998483B2 (en) Audio signal processing apparatus, audio signal processing method, program, and recording medium
JP2012114842A (en) Imaging device and drive noise removal device
JP5063489B2 (en) Judgment device, electronic apparatus including the same, and judgment method
US9064487B2 (en) Imaging device superimposing wideband noise on output sound signal
JP2013223223A (en) Recording device
WO2012029098A1 (en) Lens control device and camera system
JP5607458B2 (en) Imaging apparatus and control method thereof
JP2010200253A (en) Imaging apparatus
JP2011205527A (en) Imaging apparatus, method and program
WO2013115385A1 (en) Sound processing device and sound processing program