JP2022038611A - Sound processor, control method, and program - Google Patents

Sound processor, control method, and program Download PDF

Info

Publication number
JP2022038611A
JP2022038611A JP2020143205A JP2020143205A JP2022038611A JP 2022038611 A JP2022038611 A JP 2022038611A JP 2020143205 A JP2020143205 A JP 2020143205A JP 2020143205 A JP2020143205 A JP 2020143205A JP 2022038611 A JP2022038611 A JP 2022038611A
Authority
JP
Japan
Prior art keywords
noise
microphone
lens
unit
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020143205A
Other languages
Japanese (ja)
Other versions
JP2022038611A5 (en
Inventor
吉信 飯田
Yoshinobu Iida
青惟 橋口
Aoi Hashiguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020143205A priority Critical patent/JP2022038611A/en
Priority to US17/410,592 priority patent/US11729548B2/en
Publication of JP2022038611A publication Critical patent/JP2022038611A/en
Publication of JP2022038611A5 publication Critical patent/JP2022038611A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

To effectively reduce noise.SOLUTION: A sound processor comprises: mounting means on which a lens having a noise source is mounted; a first microphone for acquiring environmental sounds; a second microphone for acquiring sounds from the noise source; first transform means for performing Fourier transform on sound signals from the first microphone to generate first sound signals; second transform means for performing Fourier transform on sound signals from the second microphone to generate second sound signals; generation means for generating noise data using the second sound signals and a parameter related to the noise of the noise source; subtraction means for subtracting the noise data from the first sound signals; and third transform means for performing inverse Fourier transform on the sound signals from the subtraction means. The generation means uses the parameter in accordance with a kind of the lens mounted on the mounting means as a parameter.SELECTED DRAWING: Figure 12

Description

本発明は、音声データに含まれるノイズを低減可能な音声処理装置に関する。 The present invention relates to a voice processing device capable of reducing noise contained in voice data.

音声処理装置の一例であるデジタルカメラは、動画データを記録する場合、周囲の音声も併せて記録することができる。また、デジタルカメラは、光学レンズを駆動することで、動画データの記録中に被写体に対してフォーカスを合わせるオートフォーカス機能を持つ。また、デジタルカメラは、動画の記録中に光学レンズを駆動してズームを行う機能を持つ。 When recording moving image data, a digital camera, which is an example of an audio processing device, can also record ambient audio. In addition, the digital camera has an autofocus function that focuses on the subject during recording of moving image data by driving an optical lens. In addition, the digital camera has a function of driving an optical lens to perform zooming while recording a moving image.

このように、動画の記録中に光学レンズを駆動すると、動画とともに記録される音声に光学レンズの駆動音がノイズとして含まれることがある。そこで、従来、デジタルカメラは、光学レンズが駆動する際に発生する摺動音等をノイズとして収音した場合、そのノイズを低減して周囲の音声を記録することができる。特許文献1では、スペクトルサブトラクション法によってノイズを低減するデジタルカメラが開示されている。 As described above, when the optical lens is driven during the recording of the moving image, the driving sound of the optical lens may be included as noise in the sound recorded together with the moving image. Therefore, conventionally, when a digital camera collects a sliding sound or the like generated when an optical lens is driven as noise, the noise can be reduced and the surrounding sound can be recorded. Patent Document 1 discloses a digital camera that reduces noise by a spectral subtraction method.

特開2011-205527号公報Japanese Unexamined Patent Publication No. 2011-205527

しかし、特許文献1では、デジタルカメラは、周囲の音声を記録するマイクによって集音されたノイズからノイズパターンを作成するため、光学レンズの筐体内で発生する摺動音から正確なノイズパターンを取得できない可能性がある。この場合、デジタルカメラは、収音した音声に含まれるノイズを効果的に低減できないおそれがあった。 However, in Patent Document 1, since the digital camera creates a noise pattern from the noise collected by the microphone that records the surrounding sound, an accurate noise pattern is acquired from the sliding noise generated in the housing of the optical lens. It may not be possible. In this case, the digital camera may not be able to effectively reduce the noise contained in the collected sound.

そこで本発明は、効果的にノイズを低減することを目的とする。 Therefore, an object of the present invention is to effectively reduce noise.

ノイズ源を有するレンズが装着される装着手段と、環境音を取得するための第一のマイクと、前記ノイズ源からの音を取得するための第二のマイクと、前記第一のマイクからの音声信号をフーリエ変換して第一の音声信号を生成する第一の変換手段と、前記第二のマイクからの音声信号をフーリエ変換して第二の音声信号を生成する第二の変換手段と、前記第二の音声信号と、前記ノイズ源のノイズに係るパラメータとを用いてノイズデータを生成する生成手段と、前記第一の音声信号から前記ノイズデータを減算する減算手段と、前記減算手段からの音声信号を逆フーリエ変換する第三の変換手段と、を有する音声処理装置であって、前記生成手段は、前記パラメータとして、前記装着手段に装着された前記レンズの種類に応じた前記パラメータを用いることを特徴とする音声処理装置。 From a mounting means to which a lens having a noise source is mounted, a first microphone for acquiring environmental sound, a second microphone for acquiring sound from the noise source, and the first microphone. A first conversion means for Fourier-converting an audio signal to generate a first audio signal, and a second conversion means for Fourier-converting an audio signal from the second microphone to generate a second audio signal. , A generation means for generating noise data using the second voice signal and parameters related to noise of the noise source, a subtraction means for subtracting the noise data from the first voice signal, and the subtraction means. A speech processing device comprising a third conversion means for inverse Fourier transforming an audio signal from the above, wherein the generation means has, as the parameter, the parameter according to the type of the lens mounted on the mounting means. A voice processing device characterized by using.

本発明の音声処理装置は、効果的にノイズを低減することができる。 The voice processing apparatus of the present invention can effectively reduce noise.

第一の実施例における撮像装置の斜視図である。It is a perspective view of the image pickup apparatus in 1st Example. 第一の実施例における撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image pickup apparatus in 1st Example. 第一の実施例における撮像装置の音声入力部の構成を示すブロック図である。It is a block diagram which shows the structure of the audio input part of the image pickup apparatus in the 1st Example. 第一の実施例における撮像装置の音声入力部におけるマイクの配置を示す図である。It is a figure which shows the arrangement of the microphone in the audio input part of the image pickup apparatus in the 1st Example. 第一の実施例におけるノイズパラメータを示す図である。It is a figure which shows the noise parameter in 1st Example. 第一の実施例における、環境音がないと見なせる状況において駆動音が発生した場合における音声の周波数スペクトル、および、ノイズパラメータの周波数スペクトルを示す図である。It is a figure which shows the frequency spectrum of voice, and the frequency spectrum of a noise parameter in the case where the driving sound is generated in the situation which can be considered that there is no environmental sound in 1st Example. 第一の実施例における、環境音がある状況において駆動音が発生した場合における音声の周波数スペクトルを示す図である。It is a figure which shows the frequency spectrum of the voice in the case where the driving sound is generated in the situation which there is an environmental sound in the 1st Example. 第一の実施例におけるノイズパラメータ選択部の構成を示すブロック図である。It is a block diagram which shows the structure of the noise parameter selection part in 1st Example. 第一の実施例における音声ノイズ低減処理にかかわるタイミングチャートである。It is a timing chart related to the voice noise reduction processing in the 1st Example. 第一の実施例における、レンズごとのノイズパラメータを示す図である。It is a figure which shows the noise parameter for each lens in 1st Example. 第一の実施例における、環境音がある状況において駆動音が発生した場合における音声の周波数スペクトルを示す図である。It is a figure which shows the frequency spectrum of the voice in the case where the driving sound is generated in the situation which there is an environmental sound in the 1st Example. 第一の実施例における、撮像装置100の処理を示すフローチャートである。It is a flowchart which shows the process of the image pickup apparatus 100 in 1st Example. 第二の実施例における、撮像装置の姿勢情報を示す図である。It is a figure which shows the posture information of the image pickup apparatus in the 2nd Example. 第二の実施例における、撮像装置の姿勢の変化による周波数スペクトルの変化を示す図である。It is a figure which shows the change of the frequency spectrum by the change of the posture of the image pickup apparatus in the 2nd Example. 第二の実施例における、撮像装置の姿勢情報ごとの補正用ノイズパラメータである。It is a correction noise parameter for each posture information of the image pickup apparatus in the second embodiment. 第二の実施例における、撮像装置の異なるズーム倍率における鏡筒の長さの比較である。In the second embodiment, it is a comparison of the lengths of the lens barrels at different zoom magnifications of the image pickup apparatus. 第二の実施例における、撮像装置の鏡筒の長さの差による周波数スペクトルの変化を示す図である。It is a figure which shows the change of the frequency spectrum by the difference in the length of the lens barrel of the image pickup apparatus in the 2nd Example. 第二の実施例における、撮像装置のズーム倍率ごとの補正用ノイズパラメータである。It is a correction noise parameter for each zoom magnification of the image pickup apparatus in the second embodiment. 第二の実施例における、撮像装置100の処理を示すフローチャートである。It is a flowchart which shows the process of the image pickup apparatus 100 in the 2nd Example. 第三の実施例における撮像装置の音声入力部の構成を示すブロック図である。It is a block diagram which shows the structure of the audio input part of the image pickup apparatus in the 3rd Example.

以下、図面を参照して本発明の実施例を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[第一の実施例]
<撮像装置100の外観図>
図1(a)、(b)に本発明を適用可能な音声処理装置の一例としての撮像装置100の外観図の一例を示す。図1(a)は撮像装置100の前面斜視図の一例である。図1(b)は撮像装置100の背面斜視図の一例である。図1において、レンズマウント301には不図示の光学レンズが装着される。
[First Example]
<External view of the image pickup device 100>
1A and 1B show an example of an external view of an image pickup apparatus 100 as an example of an audio processing apparatus to which the present invention can be applied. FIG. 1A is an example of a front perspective view of the image pickup apparatus 100. FIG. 1B is an example of a rear perspective view of the image pickup apparatus 100. In FIG. 1, an optical lens (not shown) is attached to the lens mount 301.

表示部107は画像データおよび文字情報等を表示する。表示部107は撮像装置100の背面に設けられる。ファインダー外表示部43は、撮像装置100の上面に設けられた表示部である。ファインダー外表示部43は、シャッター速度、絞り値等の撮像装置100の設定値を表示する。接眼ファインダー16は覗き込み型のファインダーである。ユーザは接眼ファインダー16内のフォーカシングスクリーンを観察することで、被写体の光学像の焦点および構図を確認することができる。 The display unit 107 displays image data, character information, and the like. The display unit 107 is provided on the back surface of the image pickup apparatus 100. The display unit 43 outside the viewfinder is a display unit provided on the upper surface of the image pickup apparatus 100. The out-of-finder display unit 43 displays the set values of the image pickup apparatus 100 such as the shutter speed and the aperture value. The eyepiece finder 16 is a peep-type finder. The user can confirm the focus and composition of the optical image of the subject by observing the focusing screen in the eyepiece finder 16.

レリーズスイッチ61はユーザが撮影指示を行うための操作部材である。モード切替スイッチ60はユーザが各種モードを切り替えるための操作部材である。メイン電子ダイヤル71は回転操作部材である。ユーザはこのメイン電子ダイヤル71を回すことで、シャッター速度、絞り値等の撮像装置100の設定値を変更することができる。レリーズスイッチ61、モード切替スイッチ60、メイン電子ダイヤル71は、操作部112に含まれる。 The release switch 61 is an operating member for the user to give a shooting instruction. The mode changeover switch 60 is an operation member for the user to switch between various modes. The main electronic dial 71 is a rotation operation member. The user can change the setting values of the image pickup apparatus 100 such as the shutter speed and the aperture value by turning the main electronic dial 71. The release switch 61, the mode changeover switch 60, and the main electronic dial 71 are included in the operation unit 112.

電源スイッチ72は撮像装置100の電源のオンおよびオフを切り替える操作部材である。サブ電子ダイヤル73は回転操作部材である。ユーザは、サブ電子ダイヤル73によって表示部107に表示された選択枠の移動および再生モードにおける画像送りなどを行える。十字キー74は上、下、左、右部分をそれぞれ押し込み可能な十字キー(4方向キー)である。撮像装置100は十字キー74の押された部分(方向)に応じた処理を実行する。電源スイッチ72、サブ電子ダイヤル73、十字キー74は操作部112に含まれる。 The power switch 72 is an operating member that switches the power of the image pickup apparatus 100 on and off. The sub electronic dial 73 is a rotation operation member. The user can move the selection frame displayed on the display unit 107 by the sub-electronic dial 73, advance the image in the reproduction mode, and the like. The cross key 74 is a cross key (four-way key) capable of pushing up, down, left, and right portions, respectively. The image pickup apparatus 100 executes processing according to the pressed portion (direction) of the cross key 74. The power switch 72, the sub electronic dial 73, and the cross key 74 are included in the operation unit 112.

SETボタン75は押しボタンである。SETボタン75は、主に、ユーザが表示部107に表示された選択項目を決定するためなどに用いられる。LVボタン76はライブビュー(以下、LV)のオンおよびオフを切り替えるために使用されるボタンである。LVボタン76は、動画記録モードにおいては、動画撮影(記録)の開始および停止の指示に用いられる。拡大ボタン77は撮影モードのライブビュー表示において拡大モードのオンおよびオフ、並びに、拡大モード中の拡大率の変更を行うための押しボタンである。SETボタン75、LVボタン76、拡大ボタン77は操作部112に含まれる。 The SET button 75 is a push button. The SET button 75 is mainly used for the user to determine a selection item displayed on the display unit 107. The LV button 76 is a button used to switch the live view (hereinafter referred to as LV) on and off. The LV button 76 is used to instruct to start and stop moving image recording (recording) in the moving image recording mode. The magnifying button 77 is a push button for turning on and off the magnifying mode and changing the magnifying ratio during the magnifying mode in the live view display of the shooting mode. The SET button 75, the LV button 76, and the enlargement button 77 are included in the operation unit 112.

拡大ボタン77は、再生モードにおいては表示部107に表示された画像データの拡大率を増加させるためのボタンとして機能する。縮小ボタン78は表示部107において拡大表示された画像データの拡大率を低減させるためのボタンである。再生ボタン79は撮影モードと再生モードとを切り替える操作ボタンである。撮像装置100は撮影モード中に再生ボタン79を押すと、撮像装置100が再生モードに移行し、記録媒体110に記録された画像データを表示部107に表示する。縮小ボタン78、再生ボタン79は、操作部112に含まれる。 The enlargement button 77 functions as a button for increasing the enlargement ratio of the image data displayed on the display unit 107 in the reproduction mode. The reduction button 78 is a button for reducing the enlargement ratio of the image data enlarged and displayed on the display unit 107. The play button 79 is an operation button for switching between a shooting mode and a play mode. When the image pickup device 100 presses the play button 79 during the shooting mode, the image pickup device 100 shifts to the play mode and displays the image data recorded on the recording medium 110 on the display unit 107. The reduction button 78 and the play button 79 are included in the operation unit 112.

クイックリターンミラー12(以下、ミラー12)は、撮像装置100に装着された光学レンズから入射した光束を接眼ファインダー16側または撮像部101側のどちらかに入射するよう切り替えるためのミラーである。ミラー12は、露光、ライブビュー撮影、および動画撮影の際に、制御部111によって不図示のアクチュエータを制御されることによりアップダウンされる。ミラー12は通常時は接眼ファインダー16へと光束を入射させるように配されている。ミラー12は、撮影が行われる場合およびライブビュー表示の場合には、撮像部101に光束が入射するように上方に跳ね上がる(ミラーアップ)。またミラー12はその中央部がハーフミラーとなっている。ミラー12の中央部を透過した光束の一部は、焦点検出を行うための焦点検出部(不図示)に入射する。 The quick return mirror 12 (hereinafter referred to as a mirror 12) is a mirror for switching the light beam incident from the optical lens mounted on the image pickup apparatus 100 so as to be incident on either the eyepiece finder 16 side or the image pickup unit 101 side. The mirror 12 is moved up and down by controlling an actuator (not shown) by the control unit 111 during exposure, live view shooting, and moving image shooting. The mirror 12 is normally arranged so that a light flux is incident on the eyepiece finder 16. In the case of shooting and live view display, the mirror 12 jumps upward so that a light flux is incident on the image pickup unit 101 (mirror lockup). Further, the central portion of the mirror 12 is a half mirror. A part of the light flux transmitted through the central portion of the mirror 12 is incident on a focal detection unit (not shown) for performing focus detection.

通信端子10は、撮像装置100に装着された光学レンズ300と撮像装置100とが通信を行う為の通信端子である。端子カバー40は外部機器との接続ケーブルと撮像装置100とを接続する接続ケーブル等のコネクタ(不図示)を保護するカバーである。蓋41は記録媒体110を格納したスロットの蓋である。レンズマウント301は不図示の光学レンズ300を取り付けることができる取り付け部である。 The communication terminal 10 is a communication terminal for communicating between the optical lens 300 mounted on the image pickup apparatus 100 and the image pickup apparatus 100. The terminal cover 40 is a cover that protects a connector (not shown) such as a connection cable for connecting a connection cable to an external device and the image pickup device 100. The lid 41 is a lid of a slot in which the recording medium 110 is stored. The lens mount 301 is a mounting portion to which an optical lens 300 (not shown) can be mounted.

Lマイク201aおよびRマイク201bはユーザの音声等を収音するためのマイクである。撮像装置100の背面から見て、左側にLマイク201aが、右側にRマイク201bが配置される。 The L microphone 201a and the R microphone 201b are microphones for collecting user's voice and the like. When viewed from the back surface of the image pickup apparatus 100, the L microphone 201a is arranged on the left side and the R microphone 201b is arranged on the right side.

<撮像装置100の構成>
図2は本実施例における撮像装置100の構成の一例を示すブロック図である。
<Structure of image pickup device 100>
FIG. 2 is a block diagram showing an example of the configuration of the image pickup apparatus 100 in this embodiment.

光学レンズ300は、撮像装置100に着脱可能なレンズユニットである。例えば光学レンズ300はズームレンズまたはバリフォーカルレンズである。光学レンズ300は光学レンズ、光学レンズを駆動させるためのモータ、および後述する撮像装置100のレンズ制御部102と通信する通信部を有する。光学レンズ300は、通信部によって受信した制御信号に基づいて、光学レンズをモータによって移動させることで、被写体に対するフォーカスおよびズーミング、並びに、手ブレの補正ができる。 The optical lens 300 is a lens unit that can be attached to and detached from the image pickup device 100. For example, the optical lens 300 is a zoom lens or a varifocal lens. The optical lens 300 has an optical lens, a motor for driving the optical lens, and a communication unit that communicates with the lens control unit 102 of the image pickup apparatus 100 described later. The optical lens 300 can focus and zoom on the subject and correct camera shake by moving the optical lens by a motor based on the control signal received by the communication unit.

撮像部101は、光学レンズ300を経て撮像面に結像された被写体の光学像を電気信号に変換するための撮像素子、および撮像素子で生成された電気信号から画像データまたは動画データを生成して出力する画像処理部とを有する。撮像素子は、例えばCCD(Charge Coupled Device)、およびCMOS(Complementary Metal Oxide Semiconductor)である。本実施例では、撮像部101において静止画像データや動画データを含む画像データを生成して撮像部101から出力する一連の処理を「撮影」という。撮像装置100では、画像データは、DCF(Design rule for Camera File system)規格に従って、後述する記録媒体110に記録される。 The image pickup unit 101 generates image data or moving image data from an image pickup element for converting an optical image of a subject imaged on an image pickup surface through an optical lens 300 into an electric signal, and an electric signal generated by the image pickup element. It has an image processing unit to output the image. The image pickup device is, for example, a CCD (Charge Coupled Device) and a CMOS (Complementary Metal Oxide Semiconductor). In this embodiment, a series of processes in which the image pickup unit 101 generates image data including still image data and moving image data and outputs the image data from the image pickup unit 101 is referred to as “shooting”. In the image pickup apparatus 100, the image data is recorded on the recording medium 110 described later in accordance with the DCF (Design rule for Camera File system) standard.

レンズ制御部102は撮像部101から出力されたデータ、および後述する制御部111から出力された制御信号に基づいて、通信端子10を介して光学レンズ300に制御信号を送信し、光学レンズ300を制御する。また、レンズ制御部102は、撮像装置100に装着されている光学レンズ300からレンズ情報を受信する。レンズ情報は、例えば、レンズの種類、レンズの型番、およびノイズ源の種類等である。 The lens control unit 102 transmits a control signal to the optical lens 300 via the communication terminal 10 based on the data output from the image pickup unit 101 and the control signal output from the control unit 111 described later, and causes the optical lens 300 to operate. Control. Further, the lens control unit 102 receives lens information from the optical lens 300 mounted on the image pickup apparatus 100. The lens information is, for example, the type of lens, the model number of the lens, the type of noise source, and the like.

情報取得部103は、撮像装置100の傾きおよび撮像装置100の筐体内の温度などを検出する。例えば情報取得部103は撮像装置100の傾きを加速度センサまたはジャイロセンサによって検出する。また、例えば情報取得部103は撮像装置100の筐体内の温度を温度センサによって検出する。 The information acquisition unit 103 detects the tilt of the image pickup device 100, the temperature inside the housing of the image pickup device 100, and the like. For example, the information acquisition unit 103 detects the inclination of the image pickup device 100 by an acceleration sensor or a gyro sensor. Further, for example, the information acquisition unit 103 detects the temperature inside the housing of the image pickup apparatus 100 by a temperature sensor.

音声入力部104は、マイクによって取得された音声から音声データを生成する。音声入力部104は、マイクによって撮像装置100の周辺の音声を取得し、取得された音声に対してアナログデジタル変換(A/D変換)、各種の音声処理を行い、音声データを生成する。本実施例では、音声入力部104はマイクを有する。音声入力部104の詳細な構成例については後述する。 The voice input unit 104 generates voice data from the voice acquired by the microphone. The voice input unit 104 acquires voice around the image pickup device 100 by a microphone, performs analog-digital conversion (A / D conversion) and various voice processing on the acquired voice, and generates voice data. In this embodiment, the voice input unit 104 has a microphone. A detailed configuration example of the voice input unit 104 will be described later.

揮発性メモリ105は、撮像部101において生成された画像データ、並びに音声入力部104によって生成された音声データを一時的に記録する。また、揮発性メモリ105は、表示部107に表示される画像データの一時的な記録領域、および制御部111の作業領域等としても使用される。 The volatile memory 105 temporarily records the image data generated by the imaging unit 101 and the audio data generated by the audio input unit 104. The volatile memory 105 is also used as a temporary recording area for image data displayed on the display unit 107, a work area for the control unit 111, and the like.

表示制御部106は、撮像部101から出力された画像データ、対話的な操作のための文字並びに、メニュー画面等を表示部107に表示するよう制御する。また、表示制御部106は静止画撮影および動画撮影の際、撮像部101から出力されたデジタルデータを逐次表示部107に表示するよう制御することで、表示部107を電子ビューファインダとして機能させることができる。例えば表示部107は、液晶ディスプレイまたは有機ELディスプレイである。また、表示制御部106は、撮像部101から出力された画像データおよび動画データ、対話的な操作のための文字、並びにメニュー画面等を、後述する外部出力部115を介して外部のディスプレイに表示させるよう制御することもできる。 The display control unit 106 controls to display the image data output from the image pickup unit 101, characters for interactive operation, a menu screen, and the like on the display unit 107. Further, the display control unit 106 controls the display unit 107 to display the digital data output from the image pickup unit 101 on the sequential display unit 107 at the time of still image shooting and moving image shooting, so that the display unit 107 functions as an electronic viewfinder. Can be done. For example, the display unit 107 is a liquid crystal display or an organic EL display. Further, the display control unit 106 displays image data and moving image data output from the image pickup unit 101, characters for interactive operation, a menu screen, and the like on an external display via an external output unit 115, which will be described later. It can also be controlled to cause.

符号化処理部108は、揮発性メモリ105に一時的に記録された画像データおよび音声データをそれぞれ符号化することができる。例えば、符号化処理部108は、画像データをJPEG規格またはRAW画像フォーマットに従って符号化およびデータ圧縮された動画データを生成することができる。例えば、符号化処理部108は、動画データをMPEG2規格またはH.264/MPEG4-AVC規格に従って符号化およびデータ圧縮された動画データを生成することができる。また例えば、符号化処理部108は、音声データをAC3AAC規格、ATRAC規格、またはADPCM方式に従って符号化およびデータ圧縮された音声データを生成することができる。また、符号化処理部108は、例えばリニアPCM方式に従って音声データをデータ圧縮しないように符号化してもよい。 The coding processing unit 108 can encode the image data and the audio data temporarily recorded in the volatile memory 105, respectively. For example, the coding processing unit 108 can generate moving image data in which image data is encoded and data-compressed according to a JPEG standard or a RAW image format. For example, the coding processing unit 108 uses the MPEG2 standard or H.M. It is possible to generate video data encoded and data-compressed according to the 264 / MPEG4-AVC standard. Further, for example, the coding processing unit 108 can generate voice data in which voice data is coded and data-compressed according to the AC3AAC standard, ATRAC standard, or ADPCM method. Further, the coding processing unit 108 may encode the voice data so as not to compress the voice data according to, for example, the linear PCM method.

記録制御部109は、データを記録媒体110に記録すること、および記録媒体110から読み出すことができる。例えば、記録制御部109は、符号化処理部108によって生成された静止画像データ、動画データ、および音声データを記録媒体110に記録すること、および記録媒体110から読み出すことができる。記録媒体110は例えばSDカード、CFカード、XQDメモリーカード、HDD(磁気ディスク)、光学式ディスク、および半導体メモリである。記録媒体110は、撮像装置100に着脱可能なように構成してもよいし、撮像装置100に内蔵されていてもよい。すなわち、記録制御部109は少なくとも記録媒体110にアクセスする手段を有していればよい。 The recording control unit 109 can record data on the recording medium 110 and read the data from the recording medium 110. For example, the recording control unit 109 can record the still image data, the moving image data, and the audio data generated by the coding processing unit 108 on the recording medium 110, and can read the data from the recording medium 110. The recording medium 110 is, for example, an SD card, a CF card, an XQD memory card, an HDD (magnetic disk), an optical disk, and a semiconductor memory. The recording medium 110 may be configured to be detachable from the image pickup device 100, or may be built in the image pickup device 100. That is, the recording control unit 109 may have at least a means for accessing the recording medium 110.

制御部111は、入力された信号、および後述のプログラムに従ってデータバス116を介して撮像装置100の各構成要素を制御する。制御部111は、各種制御を実行するためのCPU、ROM、およびRAMを有する。なお、制御部111が撮像装置100全体を制御する代わりに、複数のハードウェアが分担して撮像装置全体を制御してもよい。制御部111が有するROMには、各構成要素を制御するためのプログラムが格納されている。また制御部111が有するRAMは演算処理等に利用される揮発性メモリである。 The control unit 111 controls each component of the image pickup apparatus 100 via the data bus 116 according to the input signal and the program described later. The control unit 111 has a CPU, a ROM, and a RAM for executing various controls. Instead of the control unit 111 controlling the entire image pickup device 100, a plurality of hardware may share control of the entire image pickup device 100. The ROM included in the control unit 111 stores a program for controlling each component. Further, the RAM included in the control unit 111 is a volatile memory used for arithmetic processing and the like.

操作部112は、撮像装置100に対する指示をユーザから受け付けるためのユーザインタフェースである。操作部112は、例えば撮像装置100の電源をオン状態またはオフ状態にするための電源スイッチ72、撮影を指示するためのレリーズスイッチ61、画像データまたは動画データの再生を指示するための再生ボタン、およびモード切替スイッチ60等を有する。 The operation unit 112 is a user interface for receiving an instruction to the image pickup apparatus 100 from the user. The operation unit 112 includes, for example, a power switch 72 for turning on or off the power of the image pickup apparatus 100, a release switch 61 for instructing shooting, a play button for instructing playback of image data or moving image data, and the like. And has a mode changeover switch 60 and the like.

操作部112はユーザの操作に応じて、制御信号を制御部111に出力する。また、表示部107に形成されるタッチパネルも操作部112に含めることができる。なお、レリーズスイッチ61は、SW1およびSW2を有する。レリーズスイッチ61が、いわゆる半押し状態となることにより、SW1がオンとなる。これにより、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮像の準備動作を行うための準備指示を受け付ける。また、レリーズスイッチ61が、いわゆる全押し状態となることにより、SW2がオンとなる。このようなユーザ操作により、撮像動作を行うための撮像指示を受け付ける。また、操作部112は後述するスピーカ114から再生される音声データの音量を調整することができる操作部材(例えばボタン)を含む。 The operation unit 112 outputs a control signal to the control unit 111 according to the operation of the user. Further, the touch panel formed on the display unit 107 can also be included in the operation unit 112. The release switch 61 has SW1 and SW2. When the release switch 61 is in the so-called half-pressed state, SW1 is turned on. As a result, it receives preparation instructions for performing preparatory operations for imaging such as AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing. Further, when the release switch 61 is in the so-called fully pressed state, SW2 is turned on. By such a user operation, an image pickup instruction for performing an image pickup operation is received. Further, the operation unit 112 includes an operation member (for example, a button) capable of adjusting the volume of audio data reproduced from the speaker 114, which will be described later.

音声出力部113は、音声データをスピーカ114、および外部出力部115に出力することができる。音声出力部113に入力される音声データは、記録制御部109により記録媒体110から読み出された音声データ、不揮発性メモリ117から出力される音声データ、および符号化処理部から出力される音声データである。スピーカ114は、音声データを再生することができる電気音響変換器である。 The audio output unit 113 can output audio data to the speaker 114 and the external output unit 115. The audio data input to the audio output unit 113 is audio data read from the recording medium 110 by the recording control unit 109, audio data output from the non-volatile memory 117, and audio data output from the coding processing unit. Is. The speaker 114 is an electroacoustic converter capable of reproducing audio data.

外部出力部115は、画像データ、動画データ、および音声データなどを外部機器に出力することができる。外部出力部115は、例えば映像端子、マイク端子、およびヘッドホン端子等で構成される。 The external output unit 115 can output image data, moving image data, audio data, and the like to an external device. The external output unit 115 is composed of, for example, a video terminal, a microphone terminal, a headphone terminal, and the like.

データバス116は、音声データ、動画データ、および画像データ等の各種データ、各種制御信号を撮像装置100の各ブロックへ伝達するためのデータバスである。 The data bus 116 is a data bus for transmitting various data such as audio data, moving image data, and image data, and various control signals to each block of the image pickup apparatus 100.

不揮発性メモリ117は不揮発性メモリであり、制御部111で実行される後述のプログラム等が格納される。また、不揮発性メモリ117には、音声データが記録されている。この音声データは例えば、被写体に合焦した場合に出力される合焦音、撮影を指示された場合に出力される電子シャッター音、撮像装置100を操作された場合に出力される操作音等の電子音の音声データである。 The non-volatile memory 117 is a non-volatile memory, and stores a program or the like described later executed by the control unit 111. In addition, voice data is recorded in the non-volatile memory 117. This audio data includes, for example, a focusing sound output when the subject is in focus, an electronic shutter sound output when shooting is instructed, an operation sound output when the image pickup device 100 is operated, and the like. It is voice data of electronic sound.

<撮像装置100の動作>
これから、本実施例の撮像装置100の動作について説明する。
<Operation of image pickup device 100>
From now on, the operation of the image pickup apparatus 100 of this Example will be described.

本実施例の撮像装置100は、ユーザが電源スイッチ72を操作して電源をオンされたことに応じて、不図示の電源から、撮像装置の各構成要素に電力を供給する。例えば電源はリチウムイオン電池またはアルカリマンガン乾電池等の電池である。 The image pickup apparatus 100 of the present embodiment supplies electric power to each component of the image pickup apparatus from a power source (not shown) in response to the user operating the power switch 72 to turn on the power. For example, the power source is a battery such as a lithium ion battery or an alkaline manganese dry battery.

制御部111は、電力が供給されたことに応じてモード切替スイッチ60の状態に基づいて、例えば、撮影モードおよび再生モードのどのモードで動作するかを判断する。動画記録モードでは、制御部111は撮像部101から出力された動画データと音声入力部104から出力された音声データとを1つの音声付き動画データとして記録する。再生モードでは、制御部111は記録媒体110に記録された画像データまたは動画データを記録制御部109によって読み出し、表示部107に表示するよう制御する。 The control unit 111 determines, for example, which mode of the shooting mode and the reproduction mode operates based on the state of the mode changeover switch 60 according to the power supply. In the moving image recording mode, the control unit 111 records the moving image data output from the imaging unit 101 and the audio data output from the audio input unit 104 as one moving image data with audio. In the reproduction mode, the control unit 111 controls the recording control unit 109 to read out the image data or the moving image data recorded on the recording medium 110 and display the image data or the moving image data on the display unit 107.

まず、動画記録モードについて説明する。動画記録モードでは、まず制御部111は、撮像装置100を撮影待機状態に移行させるように制御信号を撮像装置100の各構成要素に送信する。例えば、制御部111は、撮像部101および音声入力部104に以下のような動作をさせるよう制御する。 First, the moving image recording mode will be described. In the moving image recording mode, first, the control unit 111 transmits a control signal to each component of the image pickup device 100 so as to shift the image pickup device 100 to the shooting standby state. For example, the control unit 111 controls the image pickup unit 101 and the voice input unit 104 to perform the following operations.

撮像部101は、光学レンズ300を経て撮像面に結像された被写体の光学像を電気信号に変換し、撮像素子で生成された電気信号から動画データを生成する。そして、撮像部101は動画データを表示制御部106に送信し、表示部107によって表示する。ユーザは表示部107に表示された動画データを見ながら撮影の準備を行うことができる。 The image pickup unit 101 converts the optical image of the subject imaged on the image pickup surface through the optical lens 300 into an electric signal, and generates moving image data from the electric signal generated by the image pickup element. Then, the image pickup unit 101 transmits the moving image data to the display control unit 106, and the display unit 107 displays the moving image data. The user can prepare for shooting while viewing the moving image data displayed on the display unit 107.

音声入力部104は、複数のマイクから入力されたアナログ音声信号をそれぞれA/D変換し、複数のデジタル音声信号を生成する。そして音声入力部104はその複数のデジタル音声信号から複数のチャンネルの音声データを生成する。音声入力部104は生成された音声データを音声出力部113に送信し、スピーカ114から音声データを再生させる。ユーザは、スピーカ114から再生された音声データを聞きながら、音声付き動画データに記録される音声データの音量を操作部112によって調整することができる。 The audio input unit 104 A / D-converts analog audio signals input from a plurality of microphones to generate a plurality of digital audio signals. Then, the voice input unit 104 generates voice data of a plurality of channels from the plurality of digital voice signals. The voice input unit 104 transmits the generated voice data to the voice output unit 113, and reproduces the voice data from the speaker 114. The user can adjust the volume of the audio data recorded in the moving image data with audio by the operation unit 112 while listening to the audio data reproduced from the speaker 114.

次に、ユーザによってLVボタン76が押下されたことに応じて、制御部111は、撮像装置100の各構成要素に撮影開始の指示信号を送信する。例えば、制御部111は、撮像部101、音声入力部104、符号化処理部108、および記録制御部109に以下のような動作をさせるよう制御する。 Next, in response to the user pressing the LV button 76, the control unit 111 transmits an instruction signal for starting shooting to each component of the image pickup apparatus 100. For example, the control unit 111 controls the image pickup unit 101, the voice input unit 104, the coding processing unit 108, and the recording control unit 109 to perform the following operations.

撮像部101は、光学レンズ300を経て撮像面に結像された被写体の光学像を電気信号に変換し、撮像素子で生成された電気信号から動画データを生成する。そして、撮像部101は動画データを表示制御部106に送信し、表示部107によって表示する。また、また撮像部101は生成された動画データを揮発性メモリ105へ送信する。 The image pickup unit 101 converts the optical image of the subject imaged on the image pickup surface through the optical lens 300 into an electric signal, and generates moving image data from the electric signal generated by the image pickup element. Then, the image pickup unit 101 transmits the moving image data to the display control unit 106, and the display unit 107 displays the moving image data. Further, the imaging unit 101 transmits the generated moving image data to the volatile memory 105.

音声入力部104は、複数のマイクから入力されたアナログ音声信号をそれぞれA/D変換し、複数のデジタル音声信号を生成する。そして音声入力部104はその複数のデジタル音声信号からマルチチャンネルの音声データを生成する。そして、音声入力部104は生成された音声データを揮発性メモリ105へ送信する。 The audio input unit 104 A / D-converts analog audio signals input from a plurality of microphones to generate a plurality of digital audio signals. Then, the voice input unit 104 generates multi-channel voice data from the plurality of digital voice signals. Then, the voice input unit 104 transmits the generated voice data to the volatile memory 105.

符号化処理部108は、揮発性メモリ105に一時的に記録された動画データおよび音声データを読み出してそれぞれ符号化する。制御部111は、符号化処理部108によって符号化された動画データおよび音声データからデータストリームを生成し、記録制御部109に出力する。記録制御部109は、UDFまたはFAT等のファイルシステムに従って、入力されたデータストリームを音声付き動画データとして記録媒体110に記録していく。 The coding processing unit 108 reads out the moving image data and the audio data temporarily recorded in the volatile memory 105 and encodes them respectively. The control unit 111 generates a data stream from the moving image data and the audio data encoded by the coding processing unit 108, and outputs the data stream to the recording control unit 109. The recording control unit 109 records the input data stream as moving image data with audio on the recording medium 110 according to a file system such as UDF or FAT.

撮像装置100の各構成要素は以上の動作を動画撮影中において継続する。 Each component of the image pickup apparatus 100 continues the above operation during movie shooting.

そして、ユーザからLVボタン76が押下されたことに応じて、制御部111は、撮像装置100の各構成要素に撮影終了の指示信号を送信する。例えば、制御部111は撮像部101、音声入力部104、符号化処理部108、および記録制御部109に以下のような動作をさせるよう制御する。 Then, in response to the user pressing the LV button 76, the control unit 111 transmits an instruction signal for the end of shooting to each component of the image pickup apparatus 100. For example, the control unit 111 controls the image pickup unit 101, the voice input unit 104, the coding processing unit 108, and the recording control unit 109 to perform the following operations.

撮像部101は、動画データの生成を停止する。音声入力部104は、音声データの生成を停止する。 The image pickup unit 101 stops the generation of moving image data. The voice input unit 104 stops the generation of voice data.

符号化処理部108は、揮発性メモリ105に記録されている残りの動画データおよび音声データを読み出して符号化する。制御部111は、符号化処理部108によって符号化された動画データおよび音声データからデータストリームを生成し、記録制御部109に出力する。 The coding processing unit 108 reads out and encodes the remaining moving image data and audio data recorded in the volatile memory 105. The control unit 111 generates a data stream from the moving image data and the audio data encoded by the coding processing unit 108, and outputs the data stream to the recording control unit 109.

記録制御部109は、UDFまたはFAT等のファイルシステムに従って、データストリームを音声付き動画データのファイルとして記録媒体110に記録していく。そして、記録制御部109は、データストリームの入力が停止したことに応じて、音声付き動画データを完成させる。音声付き動画データの完成をもって、撮像装置100の記録動作は停止する。 The recording control unit 109 records the data stream on the recording medium 110 as a file of moving image data with audio according to a file system such as UDF or FAT. Then, the recording control unit 109 completes the moving image data with audio in response to the stoppage of the input of the data stream. When the moving image data with sound is completed, the recording operation of the image pickup apparatus 100 is stopped.

制御部111は、記録動作が停止したことに応じて、撮影待機状態に移行させるように制御信号を撮像装置100の各構成要素に送信する。これにより、制御部111は撮像装置100を撮影待機状態に戻るよう制御する。 The control unit 111 transmits a control signal to each component of the image pickup apparatus 100 so as to shift to the shooting standby state when the recording operation is stopped. As a result, the control unit 111 controls the image pickup apparatus 100 to return to the shooting standby state.

次に、再生モードについて説明する。再生モードでは、制御部111は、再生状態に移行させるように制御信号を撮像装置100の各構成要素に送信する。例えば、制御部111は符号化処理部108、記録制御部109、表示制御部106、および音声出力部113に以下のような動作をさせるよう制御する。 Next, the reproduction mode will be described. In the reproduction mode, the control unit 111 transmits a control signal to each component of the image pickup apparatus 100 so as to shift to the reproduction state. For example, the control unit 111 controls the coding processing unit 108, the recording control unit 109, the display control unit 106, and the voice output unit 113 to perform the following operations.

記録制御部109は、記録媒体110に記録された音声付き動画データを読み出して読みだした音声付き動画データを符号化処理部108に送信する。 The recording control unit 109 reads out the moving image data with sound recorded on the recording medium 110 and transmits the read moving image data with sound to the coding processing unit 108.

符号化処理部108は、音声付き動画データから画像データ、および音声データを復号化する。符号化処理部108は、復号化された動画データを表示制御部106へ、復号化された音声データを音声出力部113へ、それぞれ送信する。 The coding processing unit 108 decodes the image data and the audio data from the moving image data with audio. The coding processing unit 108 transmits the decoded moving image data to the display control unit 106 and the decoded audio data to the audio output unit 113, respectively.

表示制御部106は、復号化された画像データを表示部107によって表示する。音声出力部113は、復号化された音声データをスピーカ114によって再生する。 The display control unit 106 displays the decoded image data by the display unit 107. The voice output unit 113 reproduces the decoded voice data by the speaker 114.

以上のように、本実施例の撮像装置100は画像データ、および音声データを記録および再生することができる。 As described above, the image pickup apparatus 100 of this embodiment can record and reproduce image data and audio data.

本実施例では、音声入力部104は、マイクから入力された音声信号のレベルの調整処理等の音声処理を実行する。本実施例では、音声入力部104は動画記録が開始されたことに応じてこの音声処理を実行する。なお、この音声処理は、撮像装置100の電源がオンにされてから実行されてもよい。また、この音声処理は、撮影モードが選択されたことに応じて実行されてもよい。また、この音声処理は、動画記録モードおよび音声メモ機能等の音声の記録に関連するモードが選択されたことに応じて実行されてもよい。また、この音声処理は、音声信号の記録が開始したことに応じて実行されてもよい。 In this embodiment, the voice input unit 104 executes voice processing such as adjustment processing of the level of the voice signal input from the microphone. In this embodiment, the voice input unit 104 executes this voice processing in response to the start of video recording. Note that this audio processing may be executed after the power of the image pickup apparatus 100 is turned on. Further, this audio processing may be executed depending on the shooting mode selected. Further, this voice processing may be executed depending on the selection of a mode related to voice recording such as a moving image recording mode and a voice memo function. Further, this voice processing may be executed in response to the start of recording of the voice signal.

<音声入力部104の構成>
図3は本実施例における音声入力部104の詳細な構成の一例を示すブロック図である。
<Structure of voice input unit 104>
FIG. 3 is a block diagram showing an example of a detailed configuration of the voice input unit 104 in this embodiment.

本実施例において、音声入力部104は、Lマイク201a、Rマイク201b、およびノイズマイク201cの3つのマイクを有する。Lマイク201aおよびRマイク201bはそれぞれ第一のマイクの一例である。本実施例では、撮像装置100は環境音をLマイク201aおよびRマイク201bによって収音し、Lマイク201aおよびRマイク201bから入力された音声信号をステレオ方式で記録する。例えば環境音は、ユーザの音声、動物の鳴き声、雨音、および楽曲等の撮像装置100の筐体外および光学レンズ300の筐体外において発生する音である。 In this embodiment, the voice input unit 104 has three microphones, an L microphone 201a, an R microphone 201b, and a noise microphone 201c. The L microphone 201a and the R microphone 201b are examples of the first microphone, respectively. In this embodiment, the image pickup apparatus 100 picks up the ambient sound by the L microphone 201a and the R microphone 201b, and records the audio signals input from the L microphone 201a and the R microphone 201b in a stereo system. For example, the environmental sound is a user's voice, an animal's bark, a rain sound, and a sound generated outside the housing of the image pickup device 100 and the housing of the optical lens 300 such as music.

また、ノイズマイク201cは第2のマイクの一例である。ノイズマイク201cは、撮像装置100の筐体内、および光学レンズ300の筐体内で発生する、所定の騒音源(ノイズ源)からの駆動音等の騒音(ノイズ)を収音するためのマイクである。ノイズ源は例えば、超音波モータ(Ultrasonic Motor、以下USM)およびステッピングモータ(Stepper Motor、以下STM)などのモータである。騒音(ノイズ)は例えば、USMおよびSTM等のモータの駆動によって発生する振動音である。例えば、モータは被写体に合焦するためのAF処理において駆動する。撮像装置100は撮像装置100の筐体内、および光学レンズ300の筐体内で発生する駆動音等の騒音(ノイズ)をノイズマイク201cによって取得し、取得したノイズの音声データを用いて、後述するノイズパラメータを生成する。なお、本実施例では、Lマイク201a、Rマイク201b、およびノイズマイク201cは無指向性のマイクである。本実施例における、Lマイク201a、Rマイク201b、およびノイズマイク201cの配置例は図4を用いて後述する。 The noise microphone 201c is an example of the second microphone. The noise microphone 201c is a microphone for collecting noise such as drive sound from a predetermined noise source (noise source) generated in the housing of the image pickup apparatus 100 and the housing of the optical lens 300. .. The noise source is, for example, a motor such as an ultrasonic motor (USM) and a stepper motor (STM). Noise (noise) is, for example, vibration noise generated by driving a motor such as USM and STM. For example, the motor is driven in an AF process for focusing on the subject. The image pickup device 100 acquires noise such as driving sound generated in the housing of the image pickup device 100 and the housing of the optical lens 300 by the noise microphone 201c, and uses the acquired noise voice data to generate noise described later. Generate parameters. In this embodiment, the L microphone 201a, the R microphone 201b, and the noise microphone 201c are omnidirectional microphones. An arrangement example of the L microphone 201a, the R microphone 201b, and the noise microphone 201c in this embodiment will be described later with reference to FIG.

Lマイク201a、Rマイク201b、およびノイズマイク201cは、それぞれ収音した音声からアナログ音声信号を生成し、A/D変換部202に入力する。ここで、Lマイク201aから入力される音声信号をLch、Rマイク201bから入力される音声信号をRch、およびノイズマイク201cから入力される音声信号をNchと記載する。 The L microphone 201a, the R microphone 201b, and the noise microphone 201c each generate an analog audio signal from the collected sound and input it to the A / D conversion unit 202. Here, the audio signal input from the L microphone 201a is referred to as Lch, the audio signal input from the R microphone 201b is referred to as Rch, and the audio signal input from the noise microphone 201c is referred to as Nch.

A/D変換部202は、Lマイク201a、Rマイク201b、およびノイズマイク201cから入力されたアナログ音声信号をデジタル音声信号に変換する。A/D変換部202は変換されたデジタル音声信号をFFT部203に出力する。本実施例においてA/D変換部202はサンプリング周波数を48kHz、およびビット深度を16bitとして標本化処理を実行することで、アナログ音声信号をデジタル音声信号に変換する。 The A / D conversion unit 202 converts the analog audio signal input from the L microphone 201a, the R microphone 201b, and the noise microphone 201c into a digital audio signal. The A / D conversion unit 202 outputs the converted digital audio signal to the FFT unit 203. In this embodiment, the A / D conversion unit 202 converts an analog audio signal into a digital audio signal by executing sampling processing with a sampling frequency of 48 kHz and a bit depth of 16 bits.

FFT部203は、A/D変換部202から入力された時間領域のデジタル音声信号に高速フーリエ変換処理を施し、周波数領域のデジタル音声信号に変換する。本実施例において、周波数領域のデジタル音声信号は、0Hzから48kHzまでの周波数帯域において、1024ポイントの周波数スペクトルを有する。また、周波数領域のデジタル音声信号は、0Hzからナイキスト周波数である24kHzまでの周波数帯域においては、513ポイントの周波数スペクトルを有する。本実施例では、撮像装置100は、FFT部203から出力された音声データのうち、0Hzから24kHzまでの513ポイントの周波数スペクトルを利用して、ノイズ低減の処理を行う。 The FFT unit 203 performs a fast Fourier transform process on the digital audio signal in the time domain input from the A / D conversion unit 202, and converts it into a digital audio signal in the frequency domain. In this embodiment, the digital audio signal in the frequency domain has a frequency spectrum of 1024 points in the frequency band from 0 Hz to 48 kHz. Further, the digital audio signal in the frequency domain has a frequency spectrum of 513 points in the frequency band from 0 Hz to 24 kHz, which is the Nyquist frequency. In this embodiment, the image pickup apparatus 100 performs noise reduction processing by using the frequency spectrum of 513 points from 0 Hz to 24 kHz in the audio data output from the FFT unit 203.

ここで、高速フーリエ変換されたLchの周波数スペクトルを、Lch_Before[0]~Lch_Before[512]の513ポイントの配列データで表す。これらの配列データを総称する場合、Lch_Beforeと記載する。また、高速フーリエ変換されたRchの周波数スペクトルを、Rch_Before[0]~Rch_Before[512]の513ポイントの配列データで表す。これらの配列データを総称する場合、Rch_Beforeと記載する。ここで、本実施例では、Lch_Before[0]は0Hzの音声の周波数スペクトル、およびLch_Before[512]は24kHzの音声の周波数スペクトルとする。なお、Lch_Beforeおよび、Rch_Beforeはそれぞれ第1の周波数スペクトルデータの一例である。 Here, the frequency spectrum of the Lch subjected to the fast Fourier transform is represented by the array data of 513 points from Lch_Before [0] to Lch_Before [512]. When these sequence data are generically referred to, they are described as Lch_Before. Further, the frequency spectrum of the Rch subjected to the fast Fourier transform is represented by the array data of 513 points from Rch_Before [0] to Rch_Before [512]. When these sequence data are generically referred to, they are described as Rch_Before. Here, in this embodiment, Lch_Before [0] is the frequency spectrum of the voice of 0 Hz, and Lch_Before [512] is the frequency spectrum of the voice of 24 kHz. Note that Lch_Before and Rch_Before are examples of the first frequency spectrum data, respectively.

また、高速フーリエ変換されたNchの周波数スペクトルを、Nch_Before[0]~Nch_Before[512]の513ポイントの配列データで表す。これらの配列データを総称する場合、Nch_Beforeと記載する。なお、Nch_Beforeは第2の周波数スペクトルデータの一例である。 Further, the frequency spectrum of the Nch subjected to the fast Fourier transform is represented by the array data of 513 points from Nch_Before [0] to Nch_Before [512]. When these sequence data are generically referred to, they are described as Nch_Before. Note that Nch_Before is an example of the second frequency spectrum data.

ノイズデータ生成部204は、Nch_Beforeに基づいて、Lch_BeforeおよびRch_Beforeに含まれるノイズを低減するためのデータを生成する。本実施例では、ノイズデータ生成部204は、Lch_Before[0]~Lch_Before[512]に含まれるノイズをそれぞれ低減するためのNL[0]~NL[512]の配列データをノイズパラメータを用いて生成する。また、ノイズデータ生成部204は、Rch_Before[0]~Rch_Before[512]に含まれるノイズをそれぞれ低減するためのNR[0]~NR[512]の配列データを生成する。NL[0]~NL[512]の配列データにおける周波数のポイントは、Lch_Before[0]~Lch_Before[512]の配列データにおける周波数のポイントと同じである。また、NR[0]~NR[512]の配列データにおける周波数のポイントは、Rch_Before[0]~Rch_Before[512]の配列データにおける周波数のポイントと同じである。 The noise data generation unit 204 generates data for reducing noise contained in Lch_Before and Rch_Before based on Nch_Before. In this embodiment, the noise data generation unit 204 generates array data of NL [0] to NL [512] for reducing noise contained in Lch_Before [0] to Lch_Before [512] by using noise parameters. do. Further, the noise data generation unit 204 generates array data of NR [0] to NR [512] for reducing noise contained in Rch_Before [0] to Rch_Before [512], respectively. The frequency points in the sequence data of NL [0] to NL [512] are the same as the frequency points in the sequence data of Lch_Before [0] to Lch_Before [512]. Further, the frequency points in the sequence data of NR [0] to NR [512] are the same as the frequency points in the sequence data of Rch_Before [0] to Rch_Before [512].

なお、NL[0]~NL[512]の配列データを総称する場合、NLと記載する。また、NR[0]~NR[512]を総称する場合、NRと記載する。NLおよびNRはそれぞれ第3の周波数スペクトルデータの一例である。 In addition, when the sequence data of NL [0] to NL [512] is generically referred to, it is described as NL. When NR [0] to NR [512] are generically referred to, they are described as NR. NL and NR are examples of the third frequency spectrum data, respectively.

ノイズパラメータ記録部205には、ノイズデータ生成部204がNch_BeforeからをNLおよびNRを生成するためのノイズパラメータが記録されている。 The noise parameter recording unit 205 records noise parameters for the noise data generation unit 204 to generate NL and NR from Nch_Before.

本実施例では、撮像装置100に対して、複数の種類のレンズが装着可能である。複数の種類のレンズは、焦点距離やレンズの構成、モータの種類などが互いに異なっている。そのため、各レンズが発生するノイズの特性が異なる。ノイズパラメータ記録部205は、複数の種類のレンズに対応した複数のノイズパラメータを記録している。例えば、ノイズパラメータ記録部205は、第一の種類のレンズに対応した第一のノイズパラメータと、第二の種類のレンズに対応した第二のノイズパラメータとを記録している。Nch_BeforeからNLを生成するためのノイズパラメータを総称する場合、PLxと記載する。Nch_BeforeからNRを生成するためのノイズパラメータを総称する場合、PRxと記載する。 In this embodiment, a plurality of types of lenses can be attached to the image pickup apparatus 100. Multiple types of lenses differ from each other in focal length, lens configuration, motor type, and the like. Therefore, the characteristics of the noise generated by each lens are different. The noise parameter recording unit 205 records a plurality of noise parameters corresponding to a plurality of types of lenses. For example, the noise parameter recording unit 205 records the first noise parameter corresponding to the first type lens and the second noise parameter corresponding to the second type lens. When the noise parameters for generating NL from Nch_Before are generically referred to as PLx. When the noise parameters for generating NR from Nch_Before are generically referred to as PRx.

PLxおよびPRxはそれぞれNLおよびNRと同じ配列数を有する。例えば、PL1は、PL1[0]~PL1[512]の配列データである。また、PL1の周波数ポイントは、Lch_Beforeの周波数ポイントと同じである。また例えばPR1は、PR1[0]~PR1[512]の配列データである。PR1の周波数ポイントは、Rch_Beforeと同じ周波数ポイントである。ノイズパラメータは図5を用いて後述する。 PLx and PRx have the same number of sequences as NL and NR, respectively. For example, PL1 is array data of PL1 [0] to PL1 [512]. Further, the frequency point of PL1 is the same as the frequency point of Lch_Before. Further, for example, PR1 is sequence data of PR1 [0] to PR1 [512]. The frequency point of PR1 is the same frequency point as Rch_Before. The noise parameters will be described later with reference to FIG.

ノイズパラメータ選択部206は、ノイズパラメータ記録部205に記録されているノイズパラメータから、ノイズデータ生成部204において使用されるノイズパラメータを決定する。ノイズパラメータ選択部206は、Lch_Before、Rch_Before、Nch_Before、およびレンズ制御部102から受信したレンズ情報等のデータに基づいて、ノイズデータ生成部204において用いられるノイズパラメータを決定する。ノイズパラメータ選択部206の動作については図8を用いて詳しく後述する。 The noise parameter selection unit 206 determines the noise parameter used in the noise data generation unit 204 from the noise parameter recorded in the noise parameter recording unit 205. The noise parameter selection unit 206 determines the noise parameter used in the noise data generation unit 204 based on data such as lens information received from Lch_Before, Rch_Before, Nch_Before, and the lens control unit 102. The operation of the noise parameter selection unit 206 will be described in detail later with reference to FIG.

なお、本実施例では、ノイズパラメータ記録部205には、ノイズパラメータとして513ポイントの周波数スペクトルそれぞれに対する係数がすべて記録されている。しかし、513ポイントの全ての周波数に対する係数ではなく、少なくともノイズを低減するために必要な周波数ポイントの係数が記録されていればよい。例えば、ノイズパラメータ記録部205は、ノイズパラメータとして、典型的な可聴周波数と考えられている20Hz~20kHzの周波数スペクトルそれぞれに対する係数を記録し、他の周波数スペクトルの係数を記録しなくてもよい。また例えば、ノイズパラメータとして、係数の値がゼロである周波数スペクトルに対する係数はノイズパラメータ記録部205に記録されていなくてもよい。 In this embodiment, the noise parameter recording unit 205 records all the coefficients for each frequency spectrum of 513 points as noise parameters. However, it is sufficient that at least the coefficient of the frequency point necessary for reducing noise is recorded instead of the coefficient for all frequencies of 513 points. For example, the noise parameter recording unit 205 may record coefficients for each of the frequency spectra of 20 Hz to 20 kHz, which are considered to be typical audible frequencies, as noise parameters, and may not record coefficients of other frequency spectra. Further, for example, as a noise parameter, the coefficient for the frequency spectrum in which the value of the coefficient is zero may not be recorded in the noise parameter recording unit 205.

減算処理部207は、Lch_BeforeおよびRch_BeforeからNLおよびNRをそれぞれ減算する。例えば、減算処理部207はLch_BeforeからNLを減算するL減算器207a、およびRch_BeforeからNRを減算するR減算器207bを有する。L減算器207aはLch_BeforeからNLを減算し、Lch_After[0]~Lch_After[512]の513ポイントの配列データを出力する。R減算器207bはRch_BeforeからNRを減算し、Rch_After[0]~Rch_After[512]の513ポイントの配列データを出力する。本実施例では、減算処理部207はスペクトルサブトラクション法によって減算処理を実行する。 The subtraction processing unit 207 subtracts NL and NR from Lch_Before and Rch_Before, respectively. For example, the subtraction processing unit 207 has an L subtractor 207a that subtracts NL from Lch_Before, and an R subtractor 207b that subtracts NR from Rch_Before. The L subtractor 207a subtracts NL from Lch_Before and outputs 513 point sequence data of Lch_After [0] to Lch_After [512]. The R subtractor 207b subtracts NR from Rch_Before and outputs 513 point sequence data of Rch_After [0] to Rch_After [512]. In this embodiment, the subtraction processing unit 207 executes the subtraction processing by the spectral subtraction method.

iFFT部208は、減算処理部207から入力された周波数領域のデジタル音声信号を逆高速フーリエ変換(逆フーリエ変換)して時間領域のデジタル音声信号に変換する。 The iFFT unit 208 converts the digital audio signal in the frequency domain input from the subtraction processing unit 207 into a digital audio signal in the time domain by performing an inverse fast Fourier transform (inverse Fourier transform).

音声処理部209は、イコライザ、オートレベルコントローラ、およびステレオ感の強調処理等の時間領域のデジタル音声信号に対する音声処理を実行する。音声処理部209は、音声処理を行った音声データを揮発性メモリ105へ出力する。 The audio processing unit 209 executes audio processing for a digital audio signal in the time domain, such as an equalizer, an auto-level controller, and a stereo feeling enhancement process. The voice processing unit 209 outputs the voice-processed voice data to the volatile memory 105.

なお、本実施例では撮像装置100は第一のマイクとして2つのマイクを有するが、撮像装置100は第一のマイクを1つのマイクまたは3つ以上のマイクとしてもよい。例えば撮像装置100は、音声入力部104に第一のマイクとして1つのマイクを有する場合、1つのマイクによって取得された音声データをモノラル方式で記録する。また例えば撮像装置100は、音声入力部104に第一のマイクとして3つ以上のマイクを有する場合、3つ以上のマイクによって取得された音声データをサラウンド方式で記録する。 In this embodiment, the image pickup apparatus 100 has two microphones as the first microphone, but the image pickup apparatus 100 may use the first microphone as one microphone or three or more microphones. For example, when the image pickup apparatus 100 has one microphone as the first microphone in the voice input unit 104, the voice data acquired by one microphone is recorded in a monaural manner. Further, for example, when the image pickup apparatus 100 has three or more microphones as the first microphone in the voice input unit 104, the sound data acquired by the three or more microphones is recorded in a surround system.

なお、本実施例では、Lマイク201a、Rマイク201b、およびノイズマイク201cは無指向性のマイクとしたが、これらのマイクは指向性マイクであってもよい。 In this embodiment, the L microphone 201a, the R microphone 201b, and the noise microphone 201c are omnidirectional microphones, but these microphones may be directional microphones.

<音声入力部104のマイクの配置>
ここで、本実施例の音声入力部104のマイクの配置例を説明する。図4はLマイク201a、Rマイク201b、およびノイズマイク201cの配置例を示している。
<Arrangement of microphones in voice input unit 104>
Here, an example of arranging the microphone of the voice input unit 104 of this embodiment will be described. FIG. 4 shows an arrangement example of the L microphone 201a, the R microphone 201b, and the noise microphone 201c.

図4は、Lマイク201a、Rマイク201b、およびノイズマイク201cが取り付けられた撮像装置100の部分の断面図の一例である。この撮像装置100の部分は、外装部302、マイクブッシュ303、および固定部304により構成される。 FIG. 4 is an example of a cross-sectional view of a portion of the image pickup apparatus 100 to which the L microphone 201a, the R microphone 201b, and the noise microphone 201c are attached. The portion of the image pickup apparatus 100 is composed of an exterior portion 302, a microphone bush 303, and a fixed portion 304.

外装部302は、マイクに環境音を入力するための穴(以下、マイク穴という)を有する。本実施例では、マイク穴はLマイク201a、およびRマイク201bの上方に形成される。一方、ノイズマイク201cは、撮像装置100の筐体内および光学レンズ300の筐体内において発生する駆動音を取得するために設けられており、環境音を取得する必要はない。したがって、本実施例では、外装部302にはノイズマイク201cの上方にマイク穴は形成されない。 The exterior portion 302 has a hole (hereinafter referred to as a microphone hole) for inputting an environmental sound into the microphone. In this embodiment, the microphone hole is formed above the L microphone 201a and the R microphone 201b. On the other hand, the noise microphone 201c is provided to acquire the driving sound generated in the housing of the image pickup apparatus 100 and the housing of the optical lens 300, and it is not necessary to acquire the environmental sound. Therefore, in this embodiment, the microphone hole is not formed above the noise microphone 201c in the exterior portion 302.

撮像装置100の筐体内および光学レンズ300の筐体内において発生する駆動音は、マイク穴を介してLマイク201a、およびRマイク201bにより取得される。環境音が小さい状態で撮像装置100および光学レンズ300の筐体内において駆動音等が発生した場合、を各マイクが取得する音声は、主としてこの駆動音となる。そのため、Lマイク201a、Rマイク201bからの音声レベルよりも、ノイズマイク201cからの音声レベルの方が大きい。つまり、この場合、各マイクから出力される音声信号のレベルの関係は、以下のようになる。
Lch≒Rch<Nch
また、環境音が大きくなると、マイク201cからの、撮像装置100または光学レンズ300で発生した駆動音の音声レベルよりも、Lマイク201a、Rマイク201bからの環境音の音声レベルの方が大きくなる。そのため、この場合、各マイクから出力される音声信号のレベルの関係は、以下のようになる。
Lch≒Rch>Nch
なお、本実施例では、外装部302に形成されるマイク穴の形状は楕円状であるが、円状または方形状等の他の形状でもよい。また、マイク201a上のマイク穴の形状とマイク201b上のマイク穴の形状とは、互いに異なっていてもよい。
The drive sound generated in the housing of the image pickup apparatus 100 and the housing of the optical lens 300 is acquired by the L microphone 201a and the R microphone 201b through the microphone holes. When a driving sound or the like is generated in the housing of the image pickup apparatus 100 and the optical lens 300 in a state where the environmental sound is small, the sound acquired by each microphone is mainly the driving sound. Therefore, the sound level from the noise microphone 201c is higher than the sound level from the L microphone 201a and the R microphone 201b. That is, in this case, the relationship between the levels of the audio signals output from each microphone is as follows.
Lch ≒ Rch <Nch
Further, when the environmental sound becomes louder, the sound level of the environmental sound from the L microphone 201a and the R microphone 201b becomes louder than the sound level of the drive sound generated by the image pickup device 100 or the optical lens 300 from the microphone 201c. .. Therefore, in this case, the relationship between the levels of the audio signals output from each microphone is as follows.
Lch ≒ Rch> Nch
In this embodiment, the shape of the microphone hole formed in the exterior portion 302 is elliptical, but it may be another shape such as a circular shape or a square shape. Further, the shape of the microphone hole on the microphone 201a and the shape of the microphone hole on the microphone 201b may be different from each other.

なお、本実施例では、ノイズマイク201cは、Lマイク201aとRマイク201bに近接するように配置される。また、本実施例では、ノイズマイク201cは、Lマイク201aとRマイク201bの間に配置される。これにより、撮像装置100の筐体内および光学レンズ300の筐体内において発生する駆動音等からノイズマイク201cによって生成される音声信号は、この駆動音等からLマイク201aおよびRマイク201bによって生成される音声信号と似た信号になる。 In this embodiment, the noise microphone 201c is arranged so as to be close to the L microphone 201a and the R microphone 201b. Further, in this embodiment, the noise microphone 201c is arranged between the L microphone 201a and the R microphone 201b. As a result, the audio signal generated by the noise microphone 201c from the drive sound or the like generated in the housing of the image pickup apparatus 100 and the housing of the optical lens 300 is generated by the L microphone 201a and the R microphone 201b from the drive sound or the like. It becomes a signal similar to an audio signal.

マイクブッシュ303は、Lマイク201a、Rマイク201b、およびノイズマイク201cを固定するための部材である。固定部304は、マイクブッシュ303を外装部302に固定する部材である。 The microphone bush 303 is a member for fixing the L microphone 201a, the R microphone 201b, and the noise microphone 201c. The fixing portion 304 is a member that fixes the microphone bush 303 to the exterior portion 302.

なお、本実施例では、外装部302および固定部304はPC材等のモールド部材で構成される。また、外装部302および固定部304はアルミまたはステンレス等の金属部材で構成されてもよい。また、本実施例では、マイクブッシュ303は、エチレンプロピレンジエンゴム等のゴム材で構成される。 In this embodiment, the exterior portion 302 and the fixing portion 304 are made of a mold member such as a PC material. Further, the exterior portion 302 and the fixing portion 304 may be made of a metal member such as aluminum or stainless steel. Further, in this embodiment, the Mike Busch 303 is made of a rubber material such as ethylene propylene diene rubber.

<ノイズパラメータ>
図5はノイズパラメータ記録部205に記録されているノイズパラメータの一例である。図5に示すノイズパラメータは、ある1つのレンズから発生するノイズに対するノイズパラメータである。ノイズパラメータは撮像装置100の筐体内、および光学レンズ300の筐体内において発生した駆動音をノイズマイク201cが取得することにより生成した音声信号を補正するためのパラメータである。図5に示すように、本実施例では、ノイズパラメータ記録部205にはPLxおよびPRxが記録されている。本実施例では、駆動音の発生源は光学レンズ300の筐体内であるとして説明する。光学レンズ300の筐体内で発生した駆動音はレンズマウント301を介して撮像装置100の筐体内に伝達し、Lマイク201a、Rマイク201b、およびノイズマイク201cによって取得される。
<Noise parameter>
FIG. 5 is an example of noise parameters recorded in the noise parameter recording unit 205. The noise parameter shown in FIG. 5 is a noise parameter for noise generated from a certain lens. The noise parameter is a parameter for correcting the audio signal generated by the noise microphone 201c acquiring the driving sound generated in the housing of the image pickup apparatus 100 and the housing of the optical lens 300. As shown in FIG. 5, in this embodiment, PLx and PRx are recorded in the noise parameter recording unit 205. In this embodiment, the source of the driving sound will be described as being inside the housing of the optical lens 300. The drive sound generated in the housing of the optical lens 300 is transmitted to the housing of the image pickup apparatus 100 via the lens mount 301, and is acquired by the L microphone 201a, the R microphone 201b, and the noise microphone 201c.

駆動音の種類によって、駆動音の周波数が異なる。そのため、本実施例では、撮像装置100は、駆動音(ノイズ)の種類に対応した複数のノイズパラメータを記録する。そして、これら複数のノイズパラメータのうちの何れかを用いてノイズデータを生成する。本実施例では、撮像装置100は、恒常的なノイズとしてホワイトノイズに対するノイズパラメータを記録する。また、撮像装置100は、例えば光学レンズ300内のギアがかみ合わさることによって発生する短期的なノイズに対するノイズパラメータを記録する。また、撮像装置100は、長期的なノイズとして、例えばレンズ300の筐体内における摺動音に対するノイズパラメータを記録する。他にも、撮像装置100は光学レンズ300の種類ごと、並びに、情報取得部103によって検出される撮像装置100の筐体内の温度および撮像装置100の傾きごとにノイズパラメータを記録してもよい。 The frequency of the drive sound differs depending on the type of drive sound. Therefore, in this embodiment, the image pickup apparatus 100 records a plurality of noise parameters corresponding to the types of drive sounds (noise). Then, noise data is generated using any one of these plurality of noise parameters. In this embodiment, the image pickup apparatus 100 records a noise parameter with respect to white noise as constant noise. Further, the image pickup apparatus 100 records noise parameters for short-term noise generated by, for example, meshing of gears in the optical lens 300. Further, the image pickup apparatus 100 records noise parameters for sliding noise in the housing of the lens 300, for example, as long-term noise. In addition, the image pickup apparatus 100 may record noise parameters for each type of the optical lens 300, and for each temperature inside the housing of the image pickup apparatus 100 and the inclination of the image pickup apparatus 100 detected by the information acquisition unit 103.

<ノイズデータの生成方法>
図6および図7を用いて、ノイズデータ生成部204におけるノイズデータの生成処理を説明する。ここではLchのデータに関するノイズデータの生成処理について説明するが、Rchのデータに関するノイズデータの生成方法も同様である。
<How to generate noise data>
The noise data generation process in the noise data generation unit 204 will be described with reference to FIGS. 6 and 7. Here, the noise data generation process for the Lch data will be described, but the noise data generation method for the Rch data is also the same.

まず、環境音がないと見なせる状況において、ノイズパラメータを生成する処理について説明する。図6(a)は、環境音がないと見なせる状況において光学レンズ300の筐体内で駆動音が発生した場合におけるLch_Beforeの周波数スペクトルの一例である。図6(b)は、環境音がないと見なせる状況において光学レンズ300の筐体内で駆動音が発生した場合におけるNch_Beforeの周波数スペクトルの一例である。横軸は0ポイント目から512ポイント目までの周波数を示す軸、縦軸は周波数スペクトルの振幅を示す軸である。 First, a process of generating a noise parameter will be described in a situation where it can be considered that there is no environmental sound. FIG. 6A is an example of the frequency spectrum of Lch_Before when a driving sound is generated in the housing of the optical lens 300 in a situation where it can be considered that there is no environmental sound. FIG. 6B is an example of the frequency spectrum of Nch_Before when a driving sound is generated in the housing of the optical lens 300 in a situation where it can be considered that there is no environmental sound. The horizontal axis is the axis showing the frequency from the 0th point to the 512th point, and the vertical axis is the axis showing the amplitude of the frequency spectrum.

環境音がないと見なせる状況のため、Lch_BeforeおよびNch_Beforeでは、同じ周波数帯域の周波数スペクトルの振幅が大きくなる。また、光学レンズ300の筐体内において駆動音が発生しているため、同じ駆動音に対する各周波数スペクトルの振幅はLch_BeforeよりもNch_Beforeのほうが大きい傾向になる。 In Lch_Before and Nch_Before, the amplitude of the frequency spectrum in the same frequency band becomes large because the situation can be regarded as having no environmental sound. Further, since the driving sound is generated in the housing of the optical lens 300, the amplitude of each frequency spectrum with respect to the same driving sound tends to be larger in Nch_Before than in Lch_Before.

図6(c)は本実施例におけるPLxの一例である。本実施例では、PLxは、Lch_Beforeの各周波数スペクトルの振幅をNch_Beforeの各周波数スペクトルの振幅で除算したことによって算出された各周波数スペクトルの係数である。この除算の結果を、Lch_Before/Nch_Beforeと記載する。すなわち、PLxはLch_BeforeおよびNch_Beforeの振幅の比である。ノイズパラメータ記録部205は、Lch_Before/Nch_Beforeの値をノイズパラメータPLxとして記録している。前述のように、同じ駆動音に対する周波数スペクトルの振幅はLch_BeforeよりもNch_Beforeのほうが大きい傾向にあるため、ノイズパラメータPLxの各係数の値は1よりも小さい値になる傾向になる。ただし、Nch_Before[n]の値が所定の閾値より小さい場合、ノイズパラメータ記録部205はPLx[n]=0としてノイズパラメータPLxを記録する。 FIG. 6C is an example of PLx in this embodiment. In this embodiment, PLx is a coefficient of each frequency spectrum calculated by dividing the amplitude of each frequency spectrum of Lch_Before by the amplitude of each frequency spectrum of Nch_Before. The result of this division is described as Lch_Before / Nch_Before. That is, PLx is the ratio of the amplitudes of Lch_Before and Nch_Before. The noise parameter recording unit 205 records the value of Lch_Before / Nch_Before as the noise parameter PLx. As described above, since the amplitude of the frequency spectrum for the same drive sound tends to be larger in Nch_Before than in Lch_Before, the value of each coefficient of the noise parameter PLx tends to be smaller than 1. However, when the value of Nch_Before [n] is smaller than a predetermined threshold value, the noise parameter recording unit 205 records the noise parameter PLx with PLx [n] = 0.

次に、生成されたノイズパラメータをNch_Beforeに適用する処理について説明する。図7(a)は環境音が存在している状況において光学レンズ300の筐体内で駆動音が発生した場合におけるLch_Beforeの周波数スペクトルの一例である。図7(b)は環境音が存在している状況において光学レンズ300の筐体内で駆動音が発生した場合におけるNch_Beforeの周波数スペクトルの一例である。横軸は0ポイント目から512ポイント目までの周波数を示す軸、縦軸は周波数スペクトルの振幅を示す軸である。 Next, the process of applying the generated noise parameter to Nch_Before will be described. FIG. 7A is an example of the frequency spectrum of Lch_Before when the driving sound is generated in the housing of the optical lens 300 in the presence of the environmental sound. FIG. 7B is an example of the frequency spectrum of Nch_Before when the driving sound is generated in the housing of the optical lens 300 in the presence of the environmental sound. The horizontal axis is the axis showing the frequency from the 0th point to the 512th point, and the vertical axis is the axis showing the amplitude of the frequency spectrum.

図7(c)は環境音が存在している状況において光学レンズ300の筐体内で駆動音が発生した場合におけるNLの一例である。ノイズデータ生成部204は、Nch_Beforeの各周波数スペクトルと、PLxの各係数とを乗算し、NLを生成する。NLは、このように生成された周波数スペクトルである。 FIG. 7C is an example of NL in the case where the driving sound is generated in the housing of the optical lens 300 in the presence of the environmental sound. The noise data generation unit 204 multiplies each frequency spectrum of Nch_Before by each coefficient of PLx to generate NL. NL is the frequency spectrum thus generated.

図7(d)は環境音が存在している状況において光学レンズ300の筐体内で駆動音が発生した場合におけるLch_Afterの一例である。減算処理部207は、Lch_BeforeからNLを減算し、Lch_Afterを生成する。Lch_Afterは、このように生成された周波数スペクトルである。 FIG. 7D is an example of Lch_After when a driving sound is generated in the housing of the optical lens 300 in a situation where an environmental sound is present. The subtraction processing unit 207 subtracts NL from Lch_Before to generate Lch_After. Lch_After is a frequency spectrum thus generated.

これにより、撮像装置100は、光学レンズ300の筐体内の駆動音が原因であるノイズを低減し、ノイズの少ない環境音を記録することができる。 As a result, the image pickup apparatus 100 can reduce the noise caused by the driving sound in the housing of the optical lens 300 and record the environmental sound with less noise.

<ノイズパラメータ選択部206の説明>
図8は、ノイズパラメータ選択部206の詳細な構成の一例を示すブロック図である。
<Explanation of noise parameter selection unit 206>
FIG. 8 is a block diagram showing an example of a detailed configuration of the noise parameter selection unit 206.

ノイズパラメータ選択部206には、Lch_Before、Rch_Before、Nch_Before、レンズ情報、およびレンズ制御信号が入力される。 Lch_Before, Rch_Before, Nch_Before, lens information, and a lens control signal are input to the noise parameter selection unit 206.

Nchノイズ検出部2061は、光学レンズ300の筐体内で発生した駆動音によるノイズをNch_Beforeから検出する。なお、本実施例では、Nchノイズ検出部2061はNch_Beforeの513ポイントのデータを利用してノイズを検出する。 The Nch noise detection unit 2061 detects noise due to the driving sound generated in the housing of the optical lens 300 from Nch_Before. In this embodiment, the Nch noise detection unit 2061 detects noise by using the data of 513 points of Nch_Before.

環境音検出部2062は、環境音のレベルをLch_BeforeおよびRch_Beforeから検出する。 The environmental sound detection unit 2062 detects the level of the environmental sound from Lch_Before and Rch_Before.

ノイズ判定部2063は、レンズ情報およびレンズ制御信号、Nchノイズ検出部2061から入力されるデータ、ならびに環境音検出部から入力されるデータに基づいて、ノイズデータ生成部204が用いるノイズパラメータを決める。ノイズ判定部2063は、ノイズパラメータ記録部205に記録されたノイズパラメータのうち、レンズ制御部102からのレンズ情報が示すレンズの種類に対応したノイズパラメータを、ノイズデータ生成部204が用いるノイズパラメータとして決定する。ノイズ判定部2063は、決定したノイズパラメータの種類を示すデータをノイズデータ生成部204に出力する。 The noise determination unit 2063 determines the noise parameters used by the noise data generation unit 204 based on the lens information and the lens control signal, the data input from the Nch noise detection unit 2061, and the data input from the environmental sound detection unit. Among the noise parameters recorded in the noise parameter recording unit 205, the noise determination unit 2063 uses the noise parameters corresponding to the lens type indicated by the lens information from the lens control unit 102 as the noise parameters used by the noise data generation unit 204. decide. The noise determination unit 2063 outputs data indicating the type of the determined noise parameter to the noise data generation unit 204.

Nch微分部2064はNch_Beforeに対して微分処理を実行する。Nch微分部2064はNch_Beforeを微分処理した結果を示すデータを短期雑音検出部2065に出力する。短期雑音検出部2065は、Nch微分部2064から入力されたデータに基づいて、短期的なノイズが発生しているか否かを検出する。短期雑音検出部2065は、短期的なノイズが発生しているか否かを示すデータをノイズ判定部2063に出力する。なお、Nch微分部2064および短期雑音検出部2065はNchノイズ検出部2061に含まれる。 The Nch differential unit 2064 executes the differential process on Nch_Before. The Nch differentiation unit 2064 outputs data indicating the result of differential processing of Nch_Before to the short-term noise detection unit 2065. The short-term noise detection unit 2065 detects whether or not short-term noise is generated based on the data input from the Nch differentiation unit 2064. The short-term noise detection unit 2065 outputs data indicating whether or not short-term noise is generated to the noise determination unit 2063. The Nch differentiation unit 2064 and the short-term noise detection unit 2065 are included in the Nch noise detection unit 2061.

Nch積分部2066は、Nch_Beforeに対して積分処理を実行する。Nch積分部2066はNch_Beforeを微分処理した結果を示すデータを長期雑音検出部2067に出力する。長期雑音検出部2067は、Nch積分部2066から入力されたデータに基づいて、長期的なノイズが発生しているか否かを検出する。長期雑音検出部2067は、長期的なノイズが発生しているか否かを示すデータをノイズ判定部2063に出力する。なお、Nch積分部2066および長期雑音検出部2067はNchノイズ検出部2061に含まれる。 The Nch integration unit 2066 executes an integration process on Nch_Before. The Nch integration unit 2066 outputs data indicating the result of differential processing of Nch_Before to the long-term noise detection unit 2067. The long-term noise detection unit 2067 detects whether or not long-term noise is generated based on the data input from the Nch integration unit 2066. The long-term noise detection unit 2067 outputs data indicating whether or not long-term noise is generated to the noise determination unit 2063. The Nch integration unit 2066 and the long-term noise detection unit 2067 are included in the Nch noise detection unit 2061.

環境音抽出部2068は、環境音を抽出する。本実施例では、環境音抽出部2068はノイズラメータに基づいて、ノイズの影響が少ない周波数のデータを抽出する。例えば、環境音抽出部2068はノイズパラメータが所定の値以下である周波数のデータを抽出する。そして、環境音抽出部2068は抽出した周波数のデータに基づいて、環境音の大きさを示すデータを出力する。なお、環境音抽出部2068は環境音検出部2062に含まれる。 The environmental sound extraction unit 2068 extracts the environmental sound. In this embodiment, the environmental sound extraction unit 2068 extracts frequency data that is less affected by noise based on the noise meter. For example, the environmental sound extraction unit 2068 extracts frequency data having a noise parameter of a predetermined value or less. Then, the environmental sound extraction unit 2068 outputs data indicating the magnitude of the environmental sound based on the extracted frequency data. The environmental sound extraction unit 2068 is included in the environmental sound detection unit 2062.

環境音判定部2069は、環境音の大きさを判定する。環境音判定部2069は、判定した環境音の大きさを示すデータをNchノイズ検出部2061およびノイズ判定部2063に入力する。Nchノイズ検出部2061は、環境音判定部2069から入力された環境音の大きさを示すデータに基づいて、後述する第一の閾値および第二の閾値を変更する。なお、環境音判定部2069は環境音検出部2062に含まれる。 The environmental sound determination unit 2069 determines the loudness of the environmental sound. The environmental sound determination unit 2069 inputs data indicating the loudness of the determined environmental sound to the Nch noise detection unit 2061 and the noise determination unit 2063. The Nch noise detection unit 2061 changes the first threshold value and the second threshold value, which will be described later, based on the data indicating the loudness of the environmental sound input from the environmental sound determination unit 2069. The environmental sound determination unit 2069 is included in the environmental sound detection unit 2062.

<ノイズ低減処理のタイミングチャート>
本実施例におけるノイズ低減処理に関して、図9を用いて説明する。
<Timing chart of noise reduction processing>
The noise reduction processing in this embodiment will be described with reference to FIG.

図9(a)~(i)はノイズデータ生成部204、ノイズパラメータ選択部206、および減算処理部207における音声処理のタイミングチャートの一例である。本実施例では説明の簡易化のため、Lchの音声処理について説明するが、Rchの音声処理も同様である。図9(a)~(i)におけるグラフの横軸はすべて時間軸である。 9 (a) to 9 (i) are examples of timing charts of voice processing in the noise data generation unit 204, the noise parameter selection unit 206, and the subtraction processing unit 207. In this embodiment, the Lch voice processing will be described for the sake of simplification of the description, but the same applies to the Rch voice processing. The horizontal axes of the graphs in FIGS. 9 (a) to 9 (i) are all time axes.

図9(a)はレンズ制御信号の一例を示す。レンズ制御信号はレンズ制御部102が光学レンズ300に駆動するよう指示する信号である。本実施例では、レンズ制御信号のレベルはHighとLowの2値で表される。レンズ制御信号のレベルがHighである場合、レンズ制御部102は光学レンズ300に駆動するよう指示している状態である。レンズ制御信号のレベルがLowである場合、レンズ制御部102は光学レンズ300に駆動を指示していない状態である。 FIG. 9A shows an example of a lens control signal. The lens control signal is a signal instructing the lens control unit 102 to drive the optical lens 300. In this embodiment, the level of the lens control signal is represented by two values, High and Low. When the level of the lens control signal is High, the lens control unit 102 is instructing the optical lens 300 to drive the lens 300. When the level of the lens control signal is Low, the lens control unit 102 is in a state in which the optical lens 300 is not instructed to drive.

図9(b)はLch_Before[n]の値の一例を示すグラフである。縦軸はLch_Before[n]の値を示す軸である。本実施例では、Lch_Before[n]はFFT部203から出力されるLch_Beforeのうち、光学レンズ300の駆動音を示す信号が特徴的に表れるn番目の周波数ポイントの信号である。なお、本実施例では、n番目の周波数ポイントの信号について説明するが、ほかの周波数に対しても同様に音声処理が実行される。また、信号Xおよび信号Yで示す信号はノイズが含まれる信号である。本実施例では信号Xは短期的なノイズが含まれる信号を示す。信号Yは長期的なノイズが含まれるノイズ信号を示す。 FIG. 9B is a graph showing an example of the value of Lch_Before [n]. The vertical axis is an axis indicating the value of Lch_Before [n]. In this embodiment, Lch_Before [n] is a signal at the nth frequency point in which the signal indicating the driving sound of the optical lens 300 is characteristically displayed among the Lch_Before output from the FFT unit 203. In this embodiment, the signal at the nth frequency point will be described, but voice processing is similarly executed for other frequencies. Further, the signals represented by the signal X and the signal Y are signals containing noise. In this embodiment, the signal X indicates a signal including short-term noise. The signal Y indicates a noise signal including long-term noise.

図9(c)は環境音抽出部2068において抽出された環境音の大きさの一例を示すグラフである。縦軸は取得された環境音から生成された音声信号のレベルを示す。閾値Th1および閾値Th2は、環境音判定部2069において用いられる2つの閾値である。 FIG. 9C is a graph showing an example of the magnitude of the environmental sound extracted by the environmental sound extraction unit 2068. The vertical axis shows the level of the audio signal generated from the acquired environmental sound. The threshold value Th1 and the threshold value Th2 are two threshold values used in the environmental sound determination unit 2069.

図9(d)はNch_Before[n]の値の一例を示すグラフである。Nch_Before[n]は、FFT部203から出力されるNch_Beforeのうち、光学レンズ300の駆動音を示す信号が特徴的に表れるn番目の周波数ポイントの信号である。縦軸は、Nch_Before[n]の値を示す軸である。Nch_Before[n]には、図9(b)における、信号Xおよび信号Yで示したノイズ信号がLch_Beforeよりも特徴的に表れる。 FIG. 9D is a graph showing an example of the value of Nch_Before [n]. Nch_Before [n] is a signal at the nth frequency point in which the signal indicating the driving sound of the optical lens 300 is characteristically displayed among the Nch_Before output from the FFT unit 203. The vertical axis is an axis indicating the value of Nch_Before [n]. In Nch_Before [n], the noise signal shown by the signal X and the signal Y in FIG. 9B appears more characteristically than in Lch_Before.

図9(e)はNdiff[n]の値の一例を示すグラフである。Ndiff[n]は、Nch微分部2064から出力されるNdiffのうち、n番目の周波数ポイントの信号の値を示したものである。縦軸は、Ndiff[n]の値を示す軸である。Nch_Before[n]の所定時間あたりの値の変化量が大きい場合、Ndiff[n]の値が大きくなる。短期雑音検出部2065は、短期的なノイズを検出するために、第一の閾値である閾値Th_Ndiff[n]を持つ。閾値Th_Ndiff[n]は、環境音判定部2069から入力された環境音の大きさを示すデータおよびレンズ制御信号に基づいて、レベル1~3の間で変化する。閾値Th_Ndiff[n]の初期値はレベル2とする。また閾値Th_Ndiff[n]のレベルは横の破線で表される。 FIG. 9 (e) is a graph showing an example of the value of Ndiff [n]. Ndiff [n] indicates the value of the signal at the nth frequency point in the Ndiff output from the Nch differential unit 2064. The vertical axis is an axis indicating the value of Ndiff [n]. When the amount of change in the value of Nch_Before [n] per predetermined time is large, the value of Ndiff [n] becomes large. The short-term noise detection unit 2065 has a threshold value Th_Ndiff [n], which is a first threshold value, in order to detect short-term noise. The threshold value Th_Ndiff [n] changes between levels 1 to 3 based on the data indicating the magnitude of the environmental sound input from the environmental sound determination unit 2069 and the lens control signal. The initial value of the threshold value Th_Ndiff [n] is level 2. The level of the threshold value Th_Ndiff [n] is represented by a horizontal broken line.

図9(f)はNint[n]の値の一例を示すグラフである。本実施例では、Nint[n]は、Nch積分部2066から出力されるNintのうち、n番目の周波数ポイントの信号の値を示したものである。縦軸は、Nint[n]の値を示す軸である。Nch_Before[n]が継続的に大きい場合、Nint[n]の値が大きくなる。長期雑音検出部2067は、長期的なノイズを検出するために、第二の閾値である閾値Th_Nint[n]を持つ。閾値Th_Nint[n]は、環境音判定部2069から入力された環境音の大きさを示すデータおよびレンズ制御信号に基づいてレベル1~3の間で変化する。閾値Th_Nint[n]の初期値はレベル2とする。また閾値Th_Nint[n]のレベルは横の破線で表される。 FIG. 9 (f) is a graph showing an example of the value of Nint [n]. In this embodiment, Nint [n] indicates the value of the signal at the nth frequency point of the Nint output from the Nch integrating unit 2066. The vertical axis is an axis indicating the value of Nint [n]. When Nch_Before [n] is continuously large, the value of Nint [n] becomes large. The long-term noise detection unit 2067 has a threshold value Th_Nint [n], which is a second threshold value, in order to detect long-term noise. The threshold value Th_Nint [n] changes between levels 1 to 3 based on the data indicating the loudness of the environmental sound input from the environmental sound determination unit 2069 and the lens control signal. The initial value of the threshold value Th_Nint [n] is level 2. The level of the threshold value Th_Nint [n] is represented by a horizontal broken line.

図9(g)はノイズパラメータ選択部206によって選択されたノイズパラメータの一例を表す。本実施例では、無地部はPL1のノイズパラメータのみが選択されていることを示す。斜線部はPL1およびPL2のノイズパラメータが選択されていることを示す。格子縞部はPL1およびPL3のノイズパラメータが選択されていることを示す。 FIG. 9 (g) shows an example of the noise parameter selected by the noise parameter selection unit 206. In this embodiment, the plain portion indicates that only the noise parameter of PL1 is selected. The shaded area indicates that the noise parameters of PL1 and PL2 are selected. The plaid portion indicates that the noise parameters of PL1 and PL3 are selected.

図9(h)はNL[n]の値の一例を示すグラフである。本実施例では、NL[n]は、ノイズデータ生成部204で生成されるNLのうち、n番目の周波数ポイントの信号の値を示したものである。縦軸は、NL[n]の値を示す軸である。 FIG. 9 (h) is a graph showing an example of the value of NL [n]. In this embodiment, NL [n] indicates the value of the signal at the nth frequency point among the NLs generated by the noise data generation unit 204. The vertical axis is an axis indicating the value of NL [n].

図9(i)はLch_After[n]の値の一例を示すグラフである。本実施例では、Lch_After[n]は、減算処理部207から出力されるLch_Afterのうち、n番目の周波数ポイントの信号の値を示したものである。縦軸は、Lch_After[n]の値を示す軸である。 FIG. 9 (i) is a graph showing an example of the value of Lch_After [n]. In this embodiment, Lch_After [n] indicates the value of the signal at the nth frequency point of the Lch_After output from the subtraction processing unit 207. The vertical axis is an axis indicating the value of Lch_After [n].

次にそれぞれの動作に関してタイミングを時刻t701~t709を用いて説明する。 Next, the timing of each operation will be described using the times t701 to t709.

時刻t701において、レンズ制御部102は光学レンズ300およびノイズパラメータ選択部206に、レンズ制御信号としてHighの信号を出力する(図9(a))。時刻t701において、光学レンズ300の筐体内で駆動音が発生する可能性が高いため、短期雑音検出部2065は閾値Th_Ndiff[n]をレベル1に下げる(図9(e))。また時刻t701において、光学レンズ300の筐体内で駆動音が発生する可能性が高いため、長期雑音検出部2067は閾値Th_Nint[n]をレベル1に下げる(図9(f))。 At time t701, the lens control unit 102 outputs a High signal as a lens control signal to the optical lens 300 and the noise parameter selection unit 206 (FIG. 9A). Since there is a high possibility that a driving sound is generated in the housing of the optical lens 300 at time t701, the short-term noise detection unit 2065 lowers the threshold value Th_Ndiff [n] to level 1 (FIG. 9 (e)). Further, at time t701, since there is a high possibility that a driving sound is generated in the housing of the optical lens 300, the long-term noise detection unit 2067 lowers the threshold value Th_Nint [n] to level 1 (FIG. 9 (f)).

時刻t702において、光学レンズ300が駆動し、ギアのかみ合う音などの短期的な駆動音が発生する。ノイズマイク201cがその短期的な駆動音を収音したことにより、Ndiff[n]の値が閾値Th_Ndiff[n]を超える(図9(e))。これに応じて、ノイズパラメータ選択部206はノイズパラメータPL1およびPL2を選択する(図9(g))。ノイズデータ生成部204はNch_Before[n]、およびノイズパラメータPL1およびPL2に基づいてNL[n]を生成する(図9(h))。減算処理部207は、Lch_Before[n]からNL[n]を減算し、Lch_After[n]を出力する(図9(i))。この場合、Lch_After[n]は恒常的なノイズおよび短期的なノイズが低減された音声信号になる。 At time t702, the optical lens 300 is driven, and a short-term driving sound such as a gear meshing sound is generated. The value of Ndiff [n] exceeds the threshold value Th_Ndiff [n] due to the noise microphone 201c picking up the short-term drive sound (FIG. 9 (e)). In response to this, the noise parameter selection unit 206 selects the noise parameters PL1 and PL2 (FIG. 9 (g)). The noise data generation unit 204 generates NL [n] based on Nch_Before [n] and the noise parameters PL1 and PL2 (FIG. 9 (h)). The subtraction processing unit 207 subtracts NL [n] from Lch_Before [n] and outputs Lch_After [n] (FIG. 9 (i)). In this case, Lch_After [n] becomes an audio signal in which constant noise and short-term noise are reduced.

時刻t703において、光学レンズ300が連続的な駆動を開始し、光学レンズ300の筐体内において摺動音などの長期的な駆動音が発生する。ノイズマイク201cがその長期的な駆動音を収音したことにより、Nint[n]の値が閾値Th_Nint[n]を超える(図9(f))。これに応じて、ノイズパラメータ選択部206はノイズパラメータPL1およびPL3を選択する(図9(g))。ノイズデータ生成部204はNch_Before[n]、および、ノイズパラメータPL1およびPL3に基づいてNL[n]を生成する(図9(h))。減算処理部207は、Lch_Before[n]からNL[n]を減算し、Lch_After[n]を出力する(図9(i))。この場合、Lch_After[n]は恒常的なノイズおよび長期的なノイズが低減された音声信号になる。 At time t703, the optical lens 300 starts continuous driving, and a long-term driving sound such as a sliding sound is generated in the housing of the optical lens 300. The value of Nint [n] exceeds the threshold value Th_Nint [n] due to the noise microphone 201c picking up the long-term driving sound (FIG. 9 (f)). In response to this, the noise parameter selection unit 206 selects the noise parameters PL1 and PL3 (FIG. 9 (g)). The noise data generation unit 204 generates NL [n] based on Nch_Before [n] and the noise parameters PL1 and PL3 (FIG. 9 (h)). The subtraction processing unit 207 subtracts NL [n] from Lch_Before [n] and outputs Lch_After [n] (FIG. 9 (i)). In this case, Lch_After [n] becomes an audio signal in which constant noise and long-term noise are reduced.

時刻t704において、光学レンズ300が連続的な駆動を停止する。ノイズマイク201cがその長期的な駆動音を収音しなくなるため、Nint[n]の値が閾値Th_Nint[n]以下になる(図9(f))。これに応じて、ノイズパラメータ選択部206はノイズパラメータPL1を選択する(図9(g))。ノイズデータ生成部204は、Nch_Before[n]、および、ノイズパラメータPL1に基づいてNL[n]を生成する(図9(h))。減算処理部207は、Lch_Before[n]からNL[n]を減算し、Lch_After[n]を出力する(図9(i))。この場合、Lch_After[n]は恒常的なノイズが低減された音声信号になる。 At time t704, the optical lens 300 stops continuous driving. Since the noise microphone 201c does not collect the long-term driving sound, the value of Nint [n] becomes equal to or less than the threshold value Th_Nint [n] (FIG. 9 (f)). In response to this, the noise parameter selection unit 206 selects the noise parameter PL1 (FIG. 9 (g)). The noise data generation unit 204 generates NL [n] based on Nch_Before [n] and the noise parameter PL1 (FIG. 9 (h)). The subtraction processing unit 207 subtracts NL [n] from Lch_Before [n] and outputs Lch_After [n] (FIG. 9 (i)). In this case, Lch_After [n] becomes an audio signal with constant noise reduced.

時刻t705においてレンズ制御部102は、光学レンズ300およびノイズパラメータ選択部206にレンズ制御信号としてLowの信号を出力する(図9(a))。この場合、光学レンズ300の筐体内において駆動音が発生する可能性が低くなるため、短期雑音検出部2065は閾値Th_Ndiff[n]をレベル2に上げる(図9(e))。また、この場合、光学レンズ300の筐体内において駆動音が発生する可能性が低くなるため、長期雑音検出部2067は閾値Th_Nint[n]をレベル2に上げる(図9(f))。 At time t705, the lens control unit 102 outputs a Low signal as a lens control signal to the optical lens 300 and the noise parameter selection unit 206 (FIG. 9A). In this case, since the possibility that a driving sound is generated in the housing of the optical lens 300 is low, the short-term noise detection unit 2065 raises the threshold value Th_Ndiff [n] to level 2 (FIG. 9 (e)). Further, in this case, since the possibility that the driving sound is generated in the housing of the optical lens 300 is low, the long-term noise detection unit 2067 raises the threshold value Th_Nint [n] to level 2 (FIG. 9 (f)).

時刻t706において、環境音抽出部2068において抽出された環境音の大きさが閾値Th1を超える。環境音が大きい場合、ユーザには音声信号に含まれるノイズが感じられにくくなるため、短期雑音検出部2065は閾値Th_Ndiff[n]をレベル3に上げる(図9(e))。また、環境音が大きい場合、ユーザには音声信号に含まれるノイズが感じられにくくなるため、長期雑音検出部2067は閾値Th_Nint[n]をレベル3に上げる(図9(f))。 At time t706, the loudness of the environmental sound extracted by the environmental sound extraction unit 2068 exceeds the threshold value Th1. When the ambient sound is loud, the noise contained in the audio signal is less likely to be perceived by the user, so the short-term noise detection unit 2065 raises the threshold value Th_Ndiff [n] to level 3 (FIG. 9 (e)). Further, when the environmental sound is loud, the noise contained in the audio signal is less likely to be perceived by the user, so that the long-term noise detection unit 2067 raises the threshold value Th_Nint [n] to level 3 (FIG. 9 (f)).

時刻t707において、レンズ制御部102は光学レンズ300およびノイズパラメータ選択部206に、レンズ制御信号としてHighの信号を出力する(図9(a))。この場合、光学レンズ300の筐体内において駆動音が発生する可能性が高いため、短期雑音検出部2065は閾値Th_Ndiff[n]をレベル2に下げる(図9(e))。また、この場合、光学レンズ300の筐体内において駆動音が発生する可能性が高いため、長期雑音検出部2067は閾値Th_Nint[n]をレベル2に下げる(図9(f))。 At time t707, the lens control unit 102 outputs a High signal as a lens control signal to the optical lens 300 and the noise parameter selection unit 206 (FIG. 9A). In this case, since there is a high possibility that a driving sound is generated in the housing of the optical lens 300, the short-term noise detection unit 2065 lowers the threshold value Th_Ndiff [n] to level 2 (FIG. 9 (e)). Further, in this case, since there is a high possibility that a driving sound is generated in the housing of the optical lens 300, the long-term noise detection unit 2067 lowers the threshold value Th_Nint [n] to level 2 (FIG. 9 (f)).

時刻t708において、環境音抽出部2068において抽出された環境音の大きさが閾値Th2を超える。ここで、ノイズパラメータ選択部206はNchノイズ検出部2061から入力されるデータにかかわらずノイズパラメータPL1のみを選択する。このように、環境音がとても大きい場合、音声信号に含まれるノイズがユーザには感じづらいため、撮像装置100は、恒常的なノイズのみを低減することで、さらに短期雑音および長期雑音を低減する処理を実行した場合よりも自然な環境音を記録する。 At time t708, the loudness of the environmental sound extracted by the environmental sound extraction unit 2068 exceeds the threshold value Th2. Here, the noise parameter selection unit 206 selects only the noise parameter PL1 regardless of the data input from the Nch noise detection unit 2061. As described above, when the environmental sound is very loud, it is difficult for the user to perceive the noise contained in the audio signal. Therefore, the image pickup apparatus 100 further reduces the short-term noise and the long-term noise by reducing only the constant noise. Record more natural environmental sounds than when processing is performed.

以上のように、撮像装置100は第2のマイクであるノイズマイク201cを利用してノイズ低減処理を実行することで、ノイズが低減された環境音を記録することができる。 As described above, the image pickup apparatus 100 can record the environmental sound with reduced noise by executing the noise reduction processing using the noise microphone 201c which is the second microphone.

また、撮像装置100は、ノイズマイク201cの出力信号を用いてノイズが発生していることを検出し、ノイズの発生を検出したタイミングに合わせてノイズパラメータを設定している。そのため、撮像装置100は、ノイズの発生に同期して、適切にノイズパラメータを設定し、適切にノイズを低減することが可能となる。 Further, the image pickup apparatus 100 detects that noise is generated by using the output signal of the noise microphone 201c, and sets the noise parameter according to the timing at which the generation of noise is detected. Therefore, the image pickup apparatus 100 can appropriately set the noise parameter in synchronization with the generation of noise and appropriately reduce the noise.

また、撮像装置100は、環境音の大きさが閾値Th2以下である場合、Nchノイズ検出部206によって検出されたノイズに応じてノイズ低減処理を実行し、環境音が閾値Th2より大きい場合、恒常的なノイズのみを低減する。これにより、撮像装置100は、環境音の大きさに応じて、ユーザにとって違和感の少ないようにノイズ低減された環境音を記録することが可能となる。 Further, when the loudness of the environmental sound is equal to or less than the threshold value Th2, the image pickup apparatus 100 executes noise reduction processing according to the noise detected by the Nch noise detection unit 206, and when the environmental sound is larger than the threshold value Th2, it is constant. Noise is reduced. This makes it possible for the image pickup apparatus 100 to record noise-reduced environmental sounds according to the loudness of the environmental sounds so that the user does not feel uncomfortable.

なお、本実施例では、撮像装置100は、光学レンズ300の筐体内で発生する駆動音を低減したが、撮像装置100内で発生する駆動音を低減してもよい。撮像装置100内で発生する駆動音は例えば、基板の音鳴き、および無線電波ノイズである。なお、基板の音鳴きは、例えば基板上のコンデンサに電圧を印加した際に生じる基板のきしみによって発生する音である。 In this embodiment, the image pickup device 100 reduces the drive sound generated in the housing of the optical lens 300, but the drive sound generated in the image pickup device 100 may be reduced. The driving sound generated in the image pickup apparatus 100 is, for example, the noise of the substrate and the radio wave noise. The squeal of the substrate is, for example, a sound generated by a squeak of the substrate generated when a voltage is applied to a capacitor on the substrate.

なお、環境音判定部2069の閾値Th1および閾値Th2、短期雑音検出部2065の閾値Th_Ndiff[n]、並びに、長期雑音検出部2067の閾値Th_Nint[n]は発生する駆動音と環境音とに基づいて決定される。そのため、撮像装置100は、光学レンズ300の種類および撮像装置100の傾き等によって、これらの閾値をそれぞれ変更してもよい。 The threshold values Th1 and Th2 of the environmental sound determination unit 2069, the threshold value Th_Ndiff [n] of the short-term noise detection unit 2065, and the threshold value Th_Nint [n] of the long-term noise detection unit 2067 are based on the generated driving sound and the environmental sound. Will be decided. Therefore, the image pickup apparatus 100 may change these threshold values depending on the type of the optical lens 300, the inclination of the image pickup apparatus 100, and the like.

<レンズごとのノイズパラメータ>
まず、光学レンズ300を交換した場合において、それぞれのレンズに対して同じノイズパラメータを適用した場合ついて図7および図11を用いて説明する。図7と図11とでは、撮像装置100には互いに異なるレンズが装着されているものとする。なお、図7および図11では同じ環境音が発生している状況とする。
<Noise parameter for each lens>
First, when the optical lens 300 is replaced, the case where the same noise parameter is applied to each lens will be described with reference to FIGS. 7 and 11. In FIGS. 7 and 11, it is assumed that the image pickup apparatus 100 is equipped with different lenses. In addition, it is assumed that the same environmental sound is generated in FIGS. 7 and 11.

図7(a)および図11(a)では、Lch_Beforeの各周波数スペクトルの振幅が示されている。図7(b)および図11(b)では、Nch_Beforeの各周波数スペクトルの振幅が示されている。ここで、それぞれの周波数スペクトルを比較すると、少なくとも一部において互いに異なることが読み取れる。これは、Lマイク201a、Rマイク201b、およびノイズマイク201cのそれぞれに収音されるノイズが、レンズの形状および構造、並びに、レンズに含まれる駆動体等のノイズ源の数および位置によって異なるためである。 7 (a) and 11 (a) show the amplitude of each frequency spectrum of Lch_Before. 7 (b) and 11 (b) show the amplitude of each frequency spectrum of Nch_Before. Here, when comparing the respective frequency spectra, it can be read that they are different from each other in at least a part. This is because the noise picked up by each of the L microphone 201a, the R microphone 201b, and the noise microphone 201c differs depending on the shape and structure of the lens and the number and position of noise sources such as the drive body included in the lens. Is.

図7(c)および図11(c)では、NLの各周波数スペクトルの振幅が示されている。ここでは、撮像装置100に装着されているレンズに関わりなく、同じノイズパラメータが利用されてNLが生成される。 7 (c) and 11 (c) show the amplitude of each frequency spectrum of NL. Here, the same noise parameter is used to generate the NL regardless of the lens mounted on the image pickup apparatus 100.

図7(d)および図11(d)では、Lch_Afterの各周波数スペクトルの振幅が示されている。Lch_Afterは環境音として記録される音声信号であるから、理想的には図7(d)および図11(d)に示される周波数スペクトルは同じになる。しかし、図7(d)および図11(d)のそれぞれの周波数スペクトルを比較すると、少なくとも一部において互いに異なることが読み取れる。これは、Lch_Beforeから減算されるNLの周波数スペクトルがそれぞれのレンズで発生したノイズの周波数スペクトルと異なるからである。NLの周波数スペクトルがノイズの周波数スペクトルと異なる理由は、ノイズパラメータがレンズから発生するノイズに合わせて作られたパラメータではなく、ある種類のノイズに対する汎用的なパラメータであるためである。すなわち、種々のレンズから発生するノイズに対して同じノイズパラメータを適用した場合、記録媒体110に環境音として記録される音声データは、撮像装置100に装着されるレンズごとに異なる音声データとなってしまう。 7 (d) and 11 (d) show the amplitude of each frequency spectrum of Lch_After. Since Lch_After is an audio signal recorded as an environmental sound, ideally, the frequency spectra shown in FIGS. 7 (d) and 11 (d) are the same. However, when comparing the frequency spectra of FIGS. 7 (d) and 11 (d), it can be read that they are different from each other in at least a part. This is because the frequency spectrum of NL subtracted from Lch_Before is different from the frequency spectrum of the noise generated in each lens. The reason why the frequency spectrum of NL is different from the frequency spectrum of noise is that the noise parameter is not a parameter created for the noise generated from the lens, but a general-purpose parameter for a certain kind of noise. That is, when the same noise parameter is applied to the noise generated from various lenses, the audio data recorded as the environmental sound on the recording medium 110 becomes different audio data for each lens mounted on the image pickup apparatus 100. It ends up.

そこで本実施例では、撮像装置100はノイズパラメータをレンズごとに異ならせることで、ノイズを効果的に低減し、環境音をより正確に記録する。図10は光学レンズ300として撮像装置100に装着可能なレンズごとのノイズパラメータの一例である。図10では、PL2およびPR2のノイズパラメータがデフォルト値およびレンズごとに示されている。本実施例のノイズパラメータ記録部205は、レンズごとのノイズパラメータを予め記録している。なお、ノイズパラメータ記録部205は、他のレンズパラメータであるPLxおよびPRxについても同様に、レンズごとに記録している。 Therefore, in this embodiment, the image pickup apparatus 100 effectively reduces the noise and records the environmental sound more accurately by making the noise parameter different for each lens. FIG. 10 is an example of noise parameters for each lens that can be attached to the image pickup apparatus 100 as the optical lens 300. In FIG. 10, the noise parameters of PL2 and PR2 are shown by default values and for each lens. The noise parameter recording unit 205 of this embodiment records the noise parameters for each lens in advance. The noise parameter recording unit 205 also records the other lens parameters PLx and PRx for each lens.

なお、本実施例では、ノイズパラメータ記録部205は、予めノイズパラメータが記録されているレンズ以外のレンズ用のノイズパラメータをデフォルト値として記録している。なぜなら、撮像装置100は、予めノイズパラメータが記録されていないレンズから発声するノイズに対しては汎用性のあるノイズパラメータを適用することで、レンズから伝搬されるノイズをある程度は低減できるからである。 In this embodiment, the noise parameter recording unit 205 records the noise parameter for a lens other than the lens in which the noise parameter is recorded in advance as a default value. This is because the image pickup apparatus 100 can reduce the noise propagated from the lens to some extent by applying the general-purpose noise parameter to the noise uttered from the lens in which the noise parameter is not recorded in advance. ..

これから、光学レンズ300を交換する場合における撮像装置100の処理を図12のフローチャートを用いて説明する。この撮像装置100の処理は、例えば、ユーザによって電源スイッチ72が操作され、電源をオンされたことをトリガに開始される。 From now on, the processing of the image pickup apparatus 100 in the case of exchanging the optical lens 300 will be described with reference to the flowchart of FIG. The processing of the image pickup apparatus 100 is started, for example, when the power switch 72 is operated by the user and the power is turned on.

ステップS1201では、制御部111は、不図示の電源から、撮像装置100の各構成要素に電力を供給するよう制御する。 In step S1201, the control unit 111 controls to supply electric power to each component of the image pickup apparatus 100 from a power source (not shown).

ステップS1202では、レンズ制御部102は、光学レンズ300からレンズ情報を受信する。レンズ情報は、例えば、レンズの種類、レンズの型番、およびノイズ源の種類等である。制御部111は受信したレンズ情報を不揮発性メモリ117に記録する。 In step S1202, the lens control unit 102 receives lens information from the optical lens 300. The lens information is, for example, the type of lens, the model number of the lens, the type of noise source, and the like. The control unit 111 records the received lens information in the non-volatile memory 117.

ステップS1203では、レンズ制御部102は、レンズが交換されたか否かを判断する。例えば、レンズ制御部102は、ステップS1202の処理より前に不揮発性メモリ117に記録されていたレンズ情報と、ステップS1202において受信したレンズ情報とを比較する。2つのレンズ情報が一致すると判断した場合、レンズ制御部102はレンズが交換されていないと判断する。2つのレンズ情報が不一致であると判断した場合、レンズ制御部102はレンズが交換されたと判断する。また、例えば、ステップS1202の処理より前に不揮発性メモリ117にレンズ情報が記録されていない場合、レンズ制御部102はレンズが交換されたと判断する。レンズ制御部102がレンズが交換されたと判断した場合、ステップS1204の処理が実行される。レンズ制御部102がレンズが交換されていないと判断した場合、ステップS1208の処理が実行される。 In step S1203, the lens control unit 102 determines whether or not the lens has been replaced. For example, the lens control unit 102 compares the lens information recorded in the non-volatile memory 117 prior to the processing in step S1202 with the lens information received in step S1202. When it is determined that the two lens information match, the lens control unit 102 determines that the lenses have not been exchanged. If it is determined that the two lens information do not match, the lens control unit 102 determines that the lenses have been exchanged. Further, for example, when the lens information is not recorded in the non-volatile memory 117 before the process of step S1202, the lens control unit 102 determines that the lens has been replaced. When the lens control unit 102 determines that the lens has been replaced, the process of step S1204 is executed. If the lens control unit 102 determines that the lens has not been replaced, the process of step S1208 is executed.

ステップS1204では、ノイズパラメータ選択部206は、レンズ制御部102からレンズ情報を受信する。 In step S1204, the noise parameter selection unit 206 receives lens information from the lens control unit 102.

ステップS1205では、ノイズパラメータ選択部206は、撮像装置100に装着されている光学レンズ300用のノイズパラメータがノイズパラメータ記録部205に記録されているか否かを判断する。例えば、ノイズパラメータ選択部206は、ステップS1204において受信したレンズ情報に含まれるレンズの型番に基づいて、そのレンズ用のノイズパラメータがノイズパラメータ記録部205に記録されているか否かを判断する。ノイズパラメータ選択部206が、光学レンズ300のノイズパラメータがノイズパラメータ記録部205に登録されていると判断した場合、ステップS1206の処理が実行される。ノイズパラメータ選択部206が、光学レンズ300のノイズパラメータがノイズパラメータ記録部205に登録されていないと判断した場合、ステップS1207の処理が実行される。 In step S1205, the noise parameter selection unit 206 determines whether or not the noise parameter for the optical lens 300 mounted on the image pickup apparatus 100 is recorded in the noise parameter recording unit 205. For example, the noise parameter selection unit 206 determines whether or not the noise parameter for the lens is recorded in the noise parameter recording unit 205 based on the model number of the lens included in the lens information received in step S1204. When the noise parameter selection unit 206 determines that the noise parameter of the optical lens 300 is registered in the noise parameter recording unit 205, the process of step S1206 is executed. When the noise parameter selection unit 206 determines that the noise parameter of the optical lens 300 is not registered in the noise parameter recording unit 205, the process of step S1207 is executed.

ステップS1206では、ノイズパラメータ選択部206は、光学レンズ300用のノイズパラメータを利用することを決定し、そのノイズパラメータを利用するようにノイズデータ生成部204に指示する。例えば、ノイズパラメータ選択部206は、光学レンズ300の型番を示すデータをノイズデータ生成部204に送信する。なお、この場合、ノイズデータ生成部204は、ノイズパラメータをノイズパラメータ記録部205から読み込む際に、ノイズパラメータ選択部206から指示された光学レンズ300用のノイズパラメータを読み込む。 In step S1206, the noise parameter selection unit 206 determines to use the noise parameter for the optical lens 300, and instructs the noise data generation unit 204 to use the noise parameter. For example, the noise parameter selection unit 206 transmits data indicating the model number of the optical lens 300 to the noise data generation unit 204. In this case, when the noise parameter is read from the noise parameter recording unit 205, the noise data generation unit 204 reads the noise parameter for the optical lens 300 instructed by the noise parameter selection unit 206.

ステップS1207では、ノイズパラメータ選択部206は、デフォルトのノイズパラメータを利用することを決定し、そのノイズパラメータを利用するようにノイズデータ生成部204に指示する。例えば、ノイズパラメータ選択部206は、デフォルト値を示すデータをノイズデータ生成部204に送信する。なお、この場合、ノイズデータ生成部204は、ノイズパラメータをノイズパラメータ記録部205から読み込む際に、ノイズパラメータ選択部206から指示されたデフォルト値のノイズパラメータを読み込む。 In step S1207, the noise parameter selection unit 206 determines to use the default noise parameter, and instructs the noise data generation unit 204 to use the noise parameter. For example, the noise parameter selection unit 206 transmits data indicating a default value to the noise data generation unit 204. In this case, when the noise parameter is read from the noise parameter recording unit 205, the noise data generation unit 204 reads the noise parameter of the default value instructed by the noise parameter selection unit 206.

ステップS1208では、制御部111は、電源オフするか否かを判断する。例えば、制御部111は、電源スイッチがオフになるよう操作された場合、電源オフすると判断する。制御部111が電源オフすると判断した場合、ステップS1212の処理が実行される。制御部111が電源オフしないと判断した場合、ステップS1209の処理が実行される。 In step S1208, the control unit 111 determines whether or not to turn off the power. For example, the control unit 111 determines that the power is turned off when the power switch is operated to be turned off. If the control unit 111 determines that the power is turned off, the process of step S1212 is executed. If the control unit 111 determines that the power is not turned off, the process of step S1209 is executed.

ステップS1209では、制御部111は、動画記録を開始するか否かを判断する。例えば、制御部111は、レリーズスイッチ61を押下されたことに応じて、動画記録を開始すると判断する。逆に、制御部111は、レリーズスイッチ61を押下されていない場合、動画記録を開始しないと判断する。制御部111が動画記録を開始すると判断した場合、ステップS1209の処理が実行される。制御部111が動画記録を開始しないと判断した場合、ステップS1203の処理が実行される。 In step S1209, the control unit 111 determines whether or not to start video recording. For example, the control unit 111 determines that the moving image recording is started in response to the pressing of the release switch 61. On the contrary, the control unit 111 determines that the moving image recording is not started when the release switch 61 is not pressed. If the control unit 111 determines to start video recording, the process of step S1209 is executed. If the control unit 111 determines that the moving image recording is not started, the process of step S1203 is executed.

ステップS1210では、制御部111は動画記録する。例えば、前述したように、制御部111は記録媒体110に音声付き動画データを記録する。この動画記録中の音声処理では、ステップS1206の処理またはステップS1207の処理において決定されたノイズパラメータが利用される。 In step S1210, the control unit 111 records a moving image. For example, as described above, the control unit 111 records the moving image data with audio on the recording medium 110. In the audio processing during the moving image recording, the noise parameters determined in the processing of step S1206 or the processing of step S1207 are used.

ステップS1211では、制御部111は動画記録を終了するか否かを判断する。例えば、制御部111は、レリーズスイッチ61を押下されたことに応じて、動画記録を終了すると判断する。逆に、制御部111は、レリーズスイッチ61を押下されていない場合、動画記録を終了しないと判断する。制御部111が動画記録を終了すると判断した場合、ステップS1203の処理が実行される。制御部111が動画記録を終了しないと判断した場合、ステップS1210の処理が実行される。 In step S1211, the control unit 111 determines whether or not to end the moving image recording. For example, the control unit 111 determines that the moving image recording is finished in response to the pressing of the release switch 61. On the contrary, the control unit 111 determines that the moving image recording is not finished when the release switch 61 is not pressed. When the control unit 111 determines that the moving image recording is finished, the process of step S1203 is executed. If the control unit 111 determines that the moving image recording is not completed, the process of step S1210 is executed.

ステップS1212において、制御部111はレンズ情報を不揮発性メモリ117に記録する。本ステップにおいて記録されたレンズ情報は、ステップS1203の処理が次に実行される場合に利用される。 In step S1212, the control unit 111 records the lens information in the non-volatile memory 117. The lens information recorded in this step is used when the process of step S1203 is executed next.

以上、光学レンズ300を交換する場合における撮像装置100の処理を説明した。 The processing of the image pickup apparatus 100 when the optical lens 300 is replaced has been described above.

このように、撮像装置100に装着された光学レンズ300に応じてノイズパラメータを変更することで、効果的なノイズ低減処理を行うことができる。 As described above, by changing the noise parameter according to the optical lens 300 mounted on the image pickup apparatus 100, effective noise reduction processing can be performed.

なお、本実施例では、ノイズパラメータはレンズごとに記録されていたが、ノイズ源の種類ごとに記録してもよい。例えば、撮像装置100はUSMが用いられているレンズおよびSTMが用いられているレンズのそれぞれのレンズ用のノイズパラメータを用意する。この場合、ノイズパラメータ選択部206は、レンズ制御部102から受信したレンズ情報に含まれるノイズ源の種類からUSM用のノイズパラメータまたはSTM用のノイズパラメータを利用するようノイズデータ生成部204に指示する。 In this embodiment, the noise parameter is recorded for each lens, but it may be recorded for each type of noise source. For example, the image pickup apparatus 100 prepares noise parameters for each lens of the lens in which USM is used and the lens in which STM is used. In this case, the noise parameter selection unit 206 instructs the noise data generation unit 204 to use the noise parameter for USM or the noise parameter for STM from the type of noise source included in the lens information received from the lens control unit 102. ..

[第二の実施例]
第一の実施例では、撮像装置100は装着されたレンズの種類に応じたノイズパラメータを使用した。第二の実施例では、装着されたレンズの種類に応じたノイズパラメータを使用することに加え、撮像装置100の姿勢およびレンズの状態に応じたノイズパラメータを使用する処理について説明する。
[Second Example]
In the first embodiment, the image pickup apparatus 100 uses noise parameters according to the type of the mounted lens. In the second embodiment, in addition to using the noise parameter according to the type of the mounted lens, the process of using the noise parameter according to the posture of the image pickup apparatus 100 and the state of the lens will be described.

第二の実施例では、第一の実施例と同様の撮像装置100を用いて説明する。なお、撮像装置100の構成については第一の実施例と同様であるため、説明を省略する。 In the second embodiment, the same image pickup apparatus 100 as in the first embodiment will be used. Since the configuration of the image pickup apparatus 100 is the same as that of the first embodiment, the description thereof will be omitted.

図13は、本実施例における撮像装置100の姿勢情報を示す図である。本実施例では、撮像装置100の撮像方向が地面に対して水平な状態を角度0°とする。また、撮像装置100の撮像方向が地面に対して上向きに垂直である場合を角度90°とする。また、撮像装置100の撮像方向が地面に対して下向きに垂直である場合を角度-90°とする。ここで、角度θは撮像装置100の撮像方向の角度を示す。本実施例では、撮像装置100は情報取得部103によって撮像装置100の姿勢情報を取得する。例えば、情報取得部103は撮像装置100の傾きを加速度センサまたはジャイロセンサによって検出する。 FIG. 13 is a diagram showing posture information of the image pickup apparatus 100 in this embodiment. In this embodiment, an angle of 0 ° is defined as a state in which the image pickup direction of the image pickup apparatus 100 is horizontal to the ground. Further, the case where the image pickup direction of the image pickup apparatus 100 is perpendicular to the ground upward is defined as an angle of 90 °. Further, the case where the image pickup direction of the image pickup apparatus 100 is perpendicular to the ground downward is defined as an angle −90 °. Here, the angle θ indicates the angle in the image pickup direction of the image pickup apparatus 100. In this embodiment, the image pickup device 100 acquires the posture information of the image pickup device 100 by the information acquisition unit 103. For example, the information acquisition unit 103 detects the inclination of the image pickup device 100 by an acceleration sensor or a gyro sensor.

本実施例では、撮像装置100の撮像方向の範囲を5つに分ける。範囲aは60°~90°、範囲bは30°~60°、範囲cは-30°~30°、範囲dは-60°~-30°、範囲eは-90°~-60°とする。例えば、撮像装置100の撮像方向である角度θが50°である場合は範囲bとなる。なお、本実施例では撮像装置100の撮像方向の範囲を5つに分けたが、撮像装置100の撮像方向の範囲は複数であればよい。 In this embodiment, the range of the image pickup device 100 in the image pickup direction is divided into five. Range a is 60 ° to 90 °, range b is 30 ° to 60 °, range c is -30 ° to 30 °, range d is -60 ° to -30 °, and range e is -90 ° to -60 °. do. For example, when the angle θ, which is the image pickup direction of the image pickup apparatus 100, is 50 °, the range b is set. In this embodiment, the range of the image pickup direction of the image pickup apparatus 100 is divided into five, but the range of the image pickup direction of the image pickup apparatus 100 may be a plurality.

本実施例におけるノイズ源である、レンズ内のモータにかかる重力は、撮像装置100の姿勢に応じて変化する。重力が変化すると、レンズを保持している保持機構の保持力が変化し、この保持機構を駆動するモータの動きも変化する。そのため、モータを駆動した時に発生する駆動音も重力に応じて変化し、各マイクが収音するノイズの周波数特性も重力に応じて変化する。 The gravity applied to the motor in the lens, which is a noise source in this embodiment, changes according to the posture of the image pickup apparatus 100. When gravity changes, the holding force of the holding mechanism that holds the lens changes, and the movement of the motor that drives this holding mechanism also changes. Therefore, the driving sound generated when the motor is driven also changes according to gravity, and the frequency characteristic of the noise collected by each microphone also changes according to gravity.

図14(a)は、撮像装置100の姿勢を示す角度θが0°および50°である場合におけるLch_Beforeを示す。本実施例では、Lch_Before[400]~Lch_Before[450]の周波数スペクトルの振幅が変化する。ここで、Lch_Before[400]~Lch_Before[450]において、角度θが0°における周波数スペクトルの振幅のピーク値をA、および角度θが50°における周波数スペクトルの振幅のピーク値をA’とする。 FIG. 14A shows Lch_Before when the angles θ indicating the posture of the image pickup apparatus 100 are 0 ° and 50 °. In this embodiment, the amplitude of the frequency spectrum of Lch_Before [400] to Lch_Before [450] changes. Here, in Lch_Before [400] to Lch_Before [450], the peak value of the amplitude of the frequency spectrum at an angle θ of 0 ° is A, and the peak value of the amplitude of the frequency spectrum at an angle θ of 50 ° is A'.

図14(b)は、撮像装置100の姿勢を示す角度θが0°および50°である場合におけるNch_Beforeを示す。本実施例では、Nch_Before[400]~Nch_Before[450]の周波数スペクトルの振幅が変化する。本実施例では、Lch_BeforeおよびNch_Beforeにおいて、振幅が変化する周波数スペクトルの位置は同じであるとする。ここで、Nch_Before[400]~Nch_Before[450]において、角度θが0°における周波数スペクトルの振幅のピーク値をB、および角度θが50°における周波数スペクトルの振幅のピーク値をB’とする。 FIG. 14B shows Nch_Before when the angles θ indicating the posture of the image pickup apparatus 100 are 0 ° and 50 °. In this embodiment, the amplitude of the frequency spectrum of Nch_Before [400] to Nch_Before [450] changes. In this embodiment, it is assumed that the positions of the frequency spectra whose amplitudes change are the same in Lch_Before and Nch_Before. Here, in Nch_Before [400] to Nch_Before [450], the peak value of the amplitude of the frequency spectrum at an angle θ of 0 ° is B, and the peak value of the amplitude of the frequency spectrum at an angle θ of 50 ° is B'.

ここで、撮像装置100の姿勢が変化したことによるLch_Beforeの周波数スペクトルの振幅のピーク値の変化量|A’-A|と、Nch_Beforeの周波数スペクトルの振幅のピーク値の変化量|B’-B|とを比較する。図14を参照すれば、|B’-B|>|A’-A|であることが読み取れる。これは、ノイズマイク201cに収音されたノイズの音量の変化量が、Lマイク201aに収音されたノイズの音量の変化量よりも大きいことを示している。そこで本実施例では、撮像装置100は、ノイズを効果的に低減するために、撮像装置100の姿勢が変化したことに応じて、周波数スペクトルの振幅が変化する範囲において、ノイズパラメータを補正する。 Here, the amount of change in the peak value of the amplitude of the frequency spectrum of Lch_Before due to the change in the posture of the image pickup apparatus 100 | A'-A | and the amount of change in the peak value of the amplitude of the frequency spectrum of Nch_Before | B'-B. Compare with |. With reference to FIG. 14, it can be read that | B'-B |> | A'-A |. This indicates that the amount of change in the volume of the noise picked up by the noise microphone 201c is larger than the amount of change in the volume of the noise picked up by the L microphone 201a. Therefore, in the present embodiment, in order to effectively reduce the noise, the image pickup apparatus 100 corrects the noise parameter in the range in which the amplitude of the frequency spectrum changes according to the change in the posture of the image pickup apparatus 100.

図15は、撮像装置100の姿勢情報ごとの補正用ノイズパラメータを示す。本実施例では、Lch_Before、Rch_Before、およびNch_Beforeの周波数スペクトルの振幅は、N=400~450の範囲において変化するものとして説明する。他方、本実施例では、Lch_Before、Rch_Before、およびNch_Beforeの周波数スペクトルの振幅は、その他のNの範囲において、ノイズパラメータを補正する必要がない程度に十分小さい変化であるとする。図15に示すように、補正する必要のある周波数スペクトルのみが補正用のノイズパラメータとしてノイズパラメータ記録部205に記録される。例えば、角度θが50°である場合、ノイズパラメータ選択部206は、利用するノイズパラメータとともに、範囲bの補正用ノイズパラメータを利用するようノイズデータ生成部204に指示する。なお、ノイズパラメータ選択部206は、角度θが範囲cにある場合、ノイズパラメータの補正は必要ないと判断し、補正用ノイズパラメータに関する指示をノイズデータ生成部204に指示しなくともよい。 FIG. 15 shows correction noise parameters for each posture information of the image pickup apparatus 100. In this embodiment, the amplitudes of the frequency spectra of Lch_Before, Rch_Before, and Nch_Before will be described as varying in the range of N = 400 to 450. On the other hand, in this embodiment, it is assumed that the amplitudes of the frequency spectra of Lch_Before, Rch_Before, and Nch_Before are sufficiently small changes in the other N ranges so that the noise parameters do not need to be corrected. As shown in FIG. 15, only the frequency spectrum that needs to be corrected is recorded in the noise parameter recording unit 205 as a noise parameter for correction. For example, when the angle θ is 50 °, the noise parameter selection unit 206 instructs the noise data generation unit 204 to use the correction noise parameter in the range b together with the noise parameter to be used. When the angle θ is in the range c, the noise parameter selection unit 206 determines that the noise parameter correction is not necessary, and may not instruct the noise data generation unit 204 to instruct the noise parameter for correction.

図16は、レンズ倍率が異なる場合における、ズームレンズの長さの比較である。図16に示すように、ズームレンズは鏡筒の伸縮およびレンズ位置の移動によって焦点距離を変化させることができる。これにより、レンズの形状および構造が変化するため、ノイズ源であるモータから各マイクまでのノイズの伝搬経路、および伝搬距離が変化し、マイクに収音されるノイズの周波数スペクトルが変化する。本実施例では、撮像装置100はレンズ制御部102が光学レンズ300からレンズ情報としてズーム倍率を受信することで、光学レンズ300のズーム倍率を取得する。 FIG. 16 is a comparison of the lengths of zoom lenses when the lens magnifications are different. As shown in FIG. 16, the zoom lens can change the focal length by expanding and contracting the lens barrel and moving the lens position. As a result, the shape and structure of the lens change, so that the noise propagation path and propagation distance from the motor, which is the noise source, to each microphone change, and the frequency spectrum of the noise picked up by the microphone changes. In this embodiment, the image pickup apparatus 100 acquires the zoom magnification of the optical lens 300 by receiving the zoom magnification as lens information from the optical lens 300 by the lens control unit 102.

図17(a)は、光学レンズ300のズーム倍率が1倍および5倍である場合におけるLch_Beforeを示す。本実施例では、Lch_Before[200]~Lch_Before[250]の周波数スペクトルの振幅が変化する。ここで、Lch_Before[200]~Lch_Before[250]において、ズーム倍率が5倍における周波数スペクトルの振幅のピーク値をC、およびズーム倍率が1倍における周波数スペクトルの振幅のピーク値をC’とする。 FIG. 17A shows Lch_Before when the zoom magnification of the optical lens 300 is 1x and 5x. In this embodiment, the amplitude of the frequency spectrum of Lch_Before [200] to Lch_Before [250] changes. Here, in Lch_Before [200] to Lch_Before [250], the peak value of the amplitude of the frequency spectrum when the zoom magnification is 5 times is C, and the peak value of the amplitude of the frequency spectrum when the zoom magnification is 1 times is C'.

図17(b)は、光学レンズ300のズーム倍率が1倍および5倍である場合におけるNch_Beforeを示す。本実施例では、Nch_Before[200]~Nch_Before[250]の周波数スペクトルの振幅が変化する。ここで、Nch_Before[200]~Nch_Before[250]において、ズーム倍率が5倍における周波数スペクトルの振幅のピーク値をD、およびズーム倍率が1倍における周波数スペクトルの振幅のピーク値をD’とする。 FIG. 17B shows Nch_Before when the zoom magnification of the optical lens 300 is 1x and 5x. In this embodiment, the amplitude of the frequency spectrum of Nch_Before [200] to Nch_Before [250] changes. Here, in Nch_Before [200] to Nch_Before [250], the peak value of the amplitude of the frequency spectrum when the zoom magnification is 5 times is D, and the peak value of the amplitude of the frequency spectrum when the zoom magnification is 1 times is D'.

ここで、光学レンズ300のズーム倍率が変化したことによるLch_Beforeの周波数スペクトルの振幅のピーク値の変化量|C’-C|と、Nch_Beforeの周波数スペクトルの振幅のピーク値の変化量|D’-D|とを比較する。図17を参照すれば、|D’-D|>|C’-C|であることが読み取れる。これは、撮像装置100の姿勢が変化した場合と同様に、ノイズマイク201cに収音されたノイズの音量の変化量が、Lマイク201aに収音されたノイズの音量の変化量よりも大きいことを示している。そこで本実施例では、撮像装置100は、ノイズを効果的に低減するために、光学レンズ300のズーム倍率が変化したことに応じて、周波数スペクトルの振幅が変化する範囲において、ノイズパラメータを補正する。 Here, the amount of change in the peak value of the amplitude of the frequency spectrum of Lch_Before due to the change in the zoom magnification of the optical lens 300 | C'-C | and the amount of change in the peak value of the amplitude of the frequency spectrum of Nch_Before | Compare with D |. With reference to FIG. 17, it can be read that | D'-D |> | C'-C |. This is because the amount of change in the volume of the noise picked up by the noise microphone 201c is larger than the amount of change in the volume of the noise picked up by the L microphone 201a, as in the case where the posture of the image pickup apparatus 100 changes. Is shown. Therefore, in the present embodiment, in order to effectively reduce noise, the image pickup apparatus 100 corrects the noise parameter in a range in which the amplitude of the frequency spectrum changes according to the change in the zoom magnification of the optical lens 300. ..

図18は、光学レンズ300のズーム倍率ごとの補正用ノイズパラメータを示す。本実施例では、Lch_Before、Rch_Before、およびNch_Beforeの周波数スペクトルの振幅は、N=200~250の範囲において変化するものとして説明する。他方、本実施例では、Lch_Before、Rch_Before、およびNch_Beforeの周波数スペクトルの振幅は、その他のNの範囲において、ノイズパラメータを補正する必要がない程度に十分小さい変化であるとする。図18に示すように、補正する必要のある周波数スペクトルのみが補正用ノイズパラメータとしてノイズパラメータ記録部205に記録される。例えば、ズーム倍率が2.3倍である場合、ノイズパラメータ選択部206は、利用するノイズパラメータとともに、ズーム倍率が2~3倍の補正用ノイズパラメータを利用するようノイズデータ生成部204に指示する。なお、ノイズパラメータ選択部206は、ズーム倍率が1倍である場合、ノイズパラメータの補正は必要ないと判断し、補正用ノイズパラメータに関する指示をノイズデータ生成部204に指示しなくともよい。 FIG. 18 shows a correction noise parameter for each zoom magnification of the optical lens 300. In this embodiment, the amplitudes of the frequency spectra of Lch_Before, Rch_Before, and Nch_Before will be described as varying in the range of N = 200-250. On the other hand, in this embodiment, it is assumed that the amplitudes of the frequency spectra of Lch_Before, Rch_Before, and Nch_Before are sufficiently small changes in the other N ranges so that the noise parameters do not need to be corrected. As shown in FIG. 18, only the frequency spectrum that needs to be corrected is recorded in the noise parameter recording unit 205 as a noise parameter for correction. For example, when the zoom magnification is 2.3 times, the noise parameter selection unit 206 instructs the noise data generation unit 204 to use the correction noise parameter having a zoom magnification of 2 to 3 times together with the noise parameter to be used. .. The noise parameter selection unit 206 determines that correction of the noise parameter is not necessary when the zoom magnification is 1x, and may not instruct the noise data generation unit 204 to instruct the noise parameter for correction.

これから、動画記録中における撮像装置100のノイズパラメータの補正処理を図19のフローチャートを用いて説明する。この撮像装置100の処理は、例えば、ユーザによってレリーズスイッチ61を押下されたことをトリガに開始される。 From now on, the correction processing of the noise parameter of the image pickup apparatus 100 during the moving image recording will be described with reference to the flowchart of FIG. The processing of the image pickup apparatus 100 is started, for example, when the release switch 61 is pressed by the user.

ステップS1901では、ノイズパラメータ選択部206は、撮像装置100に装着されている光学レンズ300用のノイズパラメータを利用すると決定する。 In step S1901, the noise parameter selection unit 206 determines to use the noise parameter for the optical lens 300 mounted on the image pickup apparatus 100.

ステップS1902では、ノイズパラメータ選択部206は、ノイズを検出したか否かを判断する。ノイズパラメータ選択部206がノイズを検出したと判断した場合、ステップS1903の処理が実行される。ノイズパラメータ選択部206がノイズを検出していないと判断した場合、ステップS1909の処理が実行される。 In step S1902, the noise parameter selection unit 206 determines whether or not noise has been detected. If it is determined that the noise parameter selection unit 206 has detected noise, the process of step S1903 is executed. If it is determined that the noise parameter selection unit 206 has not detected noise, the process of step S1909 is executed.

ステップS1903では、ノイズパラメータ選択部206は、情報取得部103から撮像装置100の姿勢情報を取得する。 In step S1903, the noise parameter selection unit 206 acquires the posture information of the image pickup apparatus 100 from the information acquisition unit 103.

ステップS1904では、ノイズパラメータ選択部206は、レンズ制御部102から光学レンズ300のズーム倍率を取得する。 In step S1904, the noise parameter selection unit 206 acquires the zoom magnification of the optical lens 300 from the lens control unit 102.

ステップS1905では、ノイズパラメータ選択部206は、ステップS1903において取得した姿勢情報およびステップS1904において取得したズーム倍率に基づいて、補正用ノイズパラメータを決定する。 In step S1905, the noise parameter selection unit 206 determines the correction noise parameter based on the attitude information acquired in step S1903 and the zoom magnification acquired in step S1904.

ステップS1906では、ノイズパラメータ選択部206は、ノイズデータ生成部204にノイズ低減処理に利用する補正用ノイズパラメータを指示する。なお、ノイズデータ生成部204は光学レンズ300用のノイズパラメータおよび補正用パラメータを利用してノイズデータを生成する。 In step S1906, the noise parameter selection unit 206 instructs the noise data generation unit 204 of the correction noise parameter to be used for the noise reduction processing. The noise data generation unit 204 generates noise data by using the noise parameter for the optical lens 300 and the correction parameter.

ステップS1907では、音声入力部104は、ノイズ低減処理を施した音声データを揮発性メモリ105に記録する。なお、制御部111は、この音声データを利用して、記録媒体110に音声付き動画データを記録する。 In step S1907, the voice input unit 104 records the noise-reduced voice data in the volatile memory 105. The control unit 111 uses this audio data to record moving image data with audio on the recording medium 110.

ステップS1908では、制御部111は動画記録を終了するか否かを判断する。例えば、制御部111は、レリーズスイッチ61を押下されたことに応じて、動画記録を終了すると判断する。逆に、制御部111は、レリーズスイッチ61を押下されていない場合、動画記録を終了しないと判断する。制御部111が動画記録を終了すると判断した場合、ステップS1909の処理が実行される。制御部111が動画記録を開始しないと判断した場合、本フローチャートの処理は終了する。 In step S1908, the control unit 111 determines whether or not to end the moving image recording. For example, the control unit 111 determines that the moving image recording is finished in response to the pressing of the release switch 61. On the contrary, the control unit 111 determines that the moving image recording is not finished when the release switch 61 is not pressed. When the control unit 111 determines that the moving image recording is finished, the process of step S1909 is executed. When the control unit 111 determines that the moving image recording is not started, the processing of this flowchart ends.

以上、撮像装置100のノイズパラメータの補正処理を説明した。 The correction processing of the noise parameter of the image pickup apparatus 100 has been described above.

このように、動画記録中においてノイズパラメータを補正することで、効果的なノイズ低減処理を行うことができる。 In this way, by correcting the noise parameter during video recording, effective noise reduction processing can be performed.

なお、本実施例では、一例として、撮像装置100の姿勢に応じて、Lch_Before[200]~Lch_Before[250]およびNch_Before[200]~Nch_Before[250]の周波数スペクトルの振幅が変化するとした。しかし、撮像装置100の姿勢に応じて変化する周波数スペクトルの位置は、レンズの形状および構造等に依存するため、光学レンズ300の種類ごとに異なる。同様に、光学レンズ300のズーム倍率に応じて変化する周波数スペクトルの位置は、レンズの形状および構造等に依存するため、周波数スペクトルの位置は光学レンズ300の種類ごとに異なる。すなわち、補正用ノイズパラメータは、光学レンズ300の種類に応じて、本実施例に示した周波数スペクトル以外の位置におけるノイズパラメータになる。 In this embodiment, as an example, it is assumed that the amplitudes of the frequency spectra of Lch_Before [200] to Lch_Before [250] and Nch_Before [200] to Nch_Before [250] change according to the posture of the image pickup apparatus 100. However, since the position of the frequency spectrum that changes according to the posture of the image pickup apparatus 100 depends on the shape and structure of the lens and the like, it differs depending on the type of the optical lens 300. Similarly, since the position of the frequency spectrum that changes according to the zoom magnification of the optical lens 300 depends on the shape and structure of the lens, the position of the frequency spectrum differs depending on the type of the optical lens 300. That is, the correction noise parameter is a noise parameter at a position other than the frequency spectrum shown in this embodiment, depending on the type of the optical lens 300.

なお、他にも、撮像装置100は、ユーザの手に把持されている状態か、三脚等に固定されている状態か、に応じてノイズパラメータを変更してもよい。これは、ユーザの手に把持されている状態と固定されている状態とでは、伝達関数等の違いによりマイクに入力されるノイズの周波数スペクトルが異なるための補正である。 In addition, the image pickup device 100 may change the noise parameter depending on whether it is held by the user's hand or fixed to a tripod or the like. This is a correction because the frequency spectrum of the noise input to the microphone differs depending on the transfer function or the like between the state of being held by the user's hand and the state of being fixed.

また、これ以外にも、各マイクにより収音されるノイズの周波数スペクトルに影響を及ぼすような、装置の状態を検出し、検出結果に応じてノイズパラメータを補正する構成としてもよい。具体的には、ノイズ源から各マイクまでの音声の伝達経路や伝達関数に影響する、音声処理装置に関する状態を検出し、検出された状態に応じてノイズパラメータを補正する。 In addition to this, the configuration may be such that the state of the device that affects the frequency spectrum of the noise picked up by each microphone is detected and the noise parameter is corrected according to the detection result. Specifically, it detects a state related to the voice processing device that affects the voice transmission path and transmission function from the noise source to each microphone, and corrects the noise parameter according to the detected state.

[第三の実施例]
ここで、図20は第二の実施例における音声入力部104の構成例を示すブロック図である。図3に示す音声入力部104の構成と異なる部分は、減算処理部207およびiFFT部208である。ここで、図3と同様の処理部に関する説明は省略する。
[Third Example]
Here, FIG. 20 is a block diagram showing a configuration example of the voice input unit 104 in the second embodiment. The parts different from the configuration of the voice input unit 104 shown in FIG. 3 are the subtraction processing unit 207 and the iFFT unit 208. Here, the description of the same processing unit as in FIG. 3 will be omitted.

iFFT部208aは、FFT部203から入力されたLch_Before、およびRch_Beforeをそれぞれ逆高速フーリエ変換して、周波数領域のデジタル音声信号を時間領域のデジタル音声信号へそれぞれ変換する。また、iFFT部208bは、NL,およびNRをそれぞれ逆高速フーリエ変換して、周波数領域のデジタル音声信号を時間領域のデジタル音声信号へ変換する。 The iFFT unit 208a performs inverse fast Fourier transforms on Lch_Before and Rch_Before input from the FFT unit 203, respectively, and converts the digital audio signal in the frequency domain into the digital audio signal in the time domain, respectively. Further, the iFFT unit 208b performs inverse fast Fourier transforms of NL and NR, respectively, and converts the digital audio signal in the frequency domain into the digital audio signal in the time domain.

減算処理部207は、iFFT部208aから入力されたデジタル音声信号から、iFFT部208bから入力されたデジタル音声信号を減算する。減算処理部207における演算処理は、デジタル音声信号を時間領域において減算する波形減算方式である。 The subtraction processing unit 207 subtracts the digital audio signal input from the iFFT unit 208b from the digital audio signal input from the iFFT unit 208a. The arithmetic processing in the subtraction processing unit 207 is a waveform subtraction method for subtracting a digital audio signal in the time domain.

この第三の実施例における波形減算方式は、第一の実施例または第二の実施例におけるスペクトラルサブトラクション法の代わりに適用することができる。 The waveform subtraction method in the third embodiment can be applied instead of the spectral subtraction method in the first embodiment or the second embodiment.

なお、波形減算を行う場合、撮像装置100はノイズパラメータとして、デジタル音声信号の位相に関するパラメータも記録してもよい。 When performing waveform subtraction, the image pickup apparatus 100 may also record a parameter related to the phase of the digital audio signal as a noise parameter.

[その他の実施例]
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or recording medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

なお、本発明は上記実施例そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施例に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施例に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施例にわたる構成要素を適宜組み合わせてもよい。

The present invention is not limited to the above embodiment as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof. In addition, various inventions can be formed by an appropriate combination of the plurality of components disclosed in the above examples. For example, some components may be removed from all the components shown in the examples. In addition, components from different embodiments may be combined as appropriate.

Claims (20)

ノイズ源を有するレンズが装着される装着手段と、
環境音を取得するための第一のマイクと、
前記ノイズ源からの音を取得するための第二のマイクと、
前記第一のマイクからの音声信号をフーリエ変換して第一の音声信号を生成する第一の変換手段と、
前記第二のマイクからの音声信号をフーリエ変換して第二の音声信号を生成する第二の変換手段と、
前記第二の音声信号と、前記ノイズ源のノイズに係るパラメータとを用いてノイズデータを生成する生成手段と、
前記第一の音声信号から前記ノイズデータを減算する減算手段と、
前記減算手段からの音声信号を逆フーリエ変換する第三の変換手段と、を有する音声処理装置であって、
前記生成手段は、前記パラメータとして、前記装着手段に装着された前記レンズの種類に応じた前記パラメータを用いる
ことを特徴とする音声処理装置。
A mounting means on which a lens having a noise source is mounted, and
With the first microphone to get the ambient sound,
A second microphone for acquiring sound from the noise source,
The first conversion means for generating the first audio signal by Fourier transforming the audio signal from the first microphone,
A second conversion means that Fourier transforms the audio signal from the second microphone to generate a second audio signal,
A generation means for generating noise data using the second audio signal and parameters related to noise of the noise source, and
A subtraction means for subtracting the noise data from the first audio signal,
A speech processing device comprising a third transforming means for inverse Fourier transforming a speech signal from the subtracting means.
The voice processing device is characterized in that the generation means uses the parameter according to the type of the lens mounted on the mounting means as the parameter.
前記生成手段は、前記装着手段に装着された前記レンズの種類に関する情報に基づいて、前記ノイズデータを生成するために用いる前記パラメータを決めることを特徴とする請求項1に記載の音声処理装置。 The voice processing apparatus according to claim 1, wherein the generation means determines the parameters used for generating the noise data based on information about the type of the lens mounted on the mounting means. 前記レンズが交換されたことを検出する検出手段と、
前記検出手段によって前記レンズが交換されたことが検出されたことに応じて、前記交換によって前記装着手段に装着されたレンズの種類に応じた前記パラメータを前記生成手段が用いる前記パラメータとして決定する決定手段と、をさらに有する
ことを特徴とする請求項1または2に記載の音声処理装置。
A detection means for detecting that the lens has been replaced, and
In response to the detection that the lens has been replaced by the detection means, the determination according to the type of the lens mounted on the mounting means by the replacement is determined as the parameter used by the generation means. The voice processing apparatus according to claim 1 or 2, further comprising means.
前記決定手段は、記録手段に記録された複数の前記パラメータから、前記装着手段に装着されているレンズの種類に対応した前記パラメータを、前記ノイズデータを生成するために用いるパラメータとして決定する
ことを特徴とする請求項3に記載の音声処理装置。
The determination means determines from the plurality of parameters recorded in the recording means that the parameters corresponding to the type of the lens mounted on the mounting means are used as parameters for generating the noise data. The voice processing device according to claim 3.
前記決定手段は、前記装着手段に装着されているレンズに対応した前記パラメータが記録手段に記録されていない場合、デフォルト値の前記パラメータを、前記ノイズデータを生成するために用いるパラメータとして決定する
ことを特徴とする請求項3または4に記載の音声処理装置。
When the parameter corresponding to the lens mounted on the mounting means is not recorded on the recording means, the determining means determines the parameter having a default value as a parameter used to generate the noise data. The voice processing apparatus according to claim 3 or 4.
前記ノイズ源はモータであり、前記レンズが有する前記モータの種類が、前記レンズの種類によって異なることを特徴とする請求項1から5のいずれか1項に記載の音声処理装置。 The voice processing device according to any one of claims 1 to 5, wherein the noise source is a motor, and the type of the motor included in the lens differs depending on the type of the lens. 前記レンズの種類は前記レンズの型番であることを特徴とする請求項1から6のいずれか1項に記載の音声処理装置。 The voice processing device according to any one of claims 1 to 6, wherein the type of the lens is a model number of the lens. 音声処理装置であって、
環境音を取得するための第一のマイクと、
ノイズ源からの音を取得するための第二のマイクと、
前記音声処理装置に関する状態を検出する検出手段と、
前記第一のマイクからの音声信号をフーリエ変換して第一の音声信号を生成する第一の変換手段と、
前記第二のマイクからの音声信号をフーリエ変換して第二の音声信号を生成する第二の変換手段と、
前記第二の音声信号と、前記ノイズ源のノイズに係るパラメータとを用いてノイズデータを生成する生成手段と、
前記第一の音声信号から前記ノイズデータを減算する減算手段と、
前記減算手段からの音声信号を逆フーリエ変換する第三の変換手段と、を有し
前記生成手段は、前記検出手段によって検出された前記音声処理装置の状態に応じて前記パラメータを補正する
ことを特徴とする音声処理装置。
It ’s a voice processing device,
With the first microphone to get the ambient sound,
With a second microphone to get the sound from the noise source,
A detection means for detecting a state related to the voice processing device, and
The first conversion means for generating the first audio signal by Fourier transforming the audio signal from the first microphone,
A second conversion means that Fourier transforms the audio signal from the second microphone to generate a second audio signal,
A generation means for generating noise data using the second audio signal and parameters related to noise of the noise source, and
A subtraction means for subtracting the noise data from the first audio signal,
It has a third conversion means for inverse Fourier transforming the voice signal from the subtraction means, and the generation means corrects the parameter according to the state of the voice processing device detected by the detection means. Characterized voice processing device.
前記音声処理装置に関する状態は、前記音声処理装置の姿勢であり、
前記検出手段は、加速度センサおよびジャイロセンサの少なくともいずれかであることを特徴とする請求項8に記載の音声処理装置。
The state relating to the voice processing device is the posture of the voice processing device.
The voice processing device according to claim 8, wherein the detection means is at least one of an acceleration sensor and a gyro sensor.
前記ノイズ源を有するレンズを装着する装着手段をさらに有し、
前記検出手段は、前記音声処理装置に関する情報として、前記装着手段に装着された前記レンズの鏡筒の長さに係る情報を検出し、
前記生成手段は、前記検出手段によって検出した前記レンズの鏡筒の長さに係る情報に応じて前記パラメータを補正する
ことを特徴とする請求項8または9に記載の音声処理装置。
Further having a mounting means for mounting the lens having the noise source,
The detection means detects information related to the length of the lens barrel of the lens mounted on the mounting means as information on the voice processing device.
The voice processing apparatus according to claim 8 or 9, wherein the generation means corrects the parameters according to the information related to the length of the lens barrel of the lens detected by the detection means.
前記レンズの鏡筒の長さに係る情報は前記レンズのズーム倍率であることを特徴とする請求項10に記載の音声処理装置。 The audio processing device according to claim 10, wherein the information relating to the length of the lens barrel of the lens is the zoom magnification of the lens. 前記生成手段は、少なくとも一部の周波数スペクトルにおいて、前記パラメータを補正することを特徴とする請求項8から11のいずれか1項に記載の音声処理装置。 The voice processing apparatus according to any one of claims 8 to 11, wherein the generation means corrects the parameter in at least a part of the frequency spectrum. 前記生成手段は、前記ノイズ源からノイズが発生しているか否かを検出し、
前記ノイズ源からノイズが発生していることが検出された場合、前記生成手段は前記パラメータを補正し、
前記ノイズ源からノイズが発生していることが検出されない場合、前記生成手段は前記パラメータを補正しない
ことを特徴とする請求項8から12のいずれか1項に記載の音声処理装置。
The generation means detects whether or not noise is generated from the noise source, and determines whether or not noise is generated.
When it is detected that noise is generated from the noise source, the generation means corrects the parameter and corrects the parameter.
The voice processing apparatus according to any one of claims 8 to 12, wherein when it is not detected that noise is generated from the noise source, the generation means does not correct the parameter.
前記生成手段は、第一の種類のノイズに対応した第一のパラメータと、第二の種類のノイズに対応した第二のパラメータとを含む、複数の前記パラメータの少なくとも何れかと前記第二の音声信号とを用いて、前記ノイズデータを生成することを特徴とする請求項1から13のいずれか1項に記載の音声処理装置。 The generation means includes at least one of the plurality of the parameters and the second voice, including a first parameter corresponding to the first kind of noise and a second parameter corresponding to the second kind of noise. The voice processing apparatus according to any one of claims 1 to 13, wherein the noise data is generated by using a signal. 前記複数のパラメータの情報を記録する記録手段を有することを特徴とする請求項14に記載の音声処理装置。 The voice processing apparatus according to claim 14, further comprising a recording means for recording information of the plurality of parameters. 前記第一のマイクは複数のマイクで構成され、
前記記録手段は前記第一のマイクを構成するマイクごとに前記パラメータを記録する
ことを特徴とする請求項15に記載の音声処理装置。
The first microphone is composed of a plurality of microphones.
The voice processing device according to claim 15, wherein the recording means records the parameters for each microphone constituting the first microphone.
前記生成手段は、前記複数のパラメータのうち、前記第二の音声信号に含まれるノイズの種類に対応したパラメータと、前記第二の音声信号とを用いて前記ノイズデータを生成する
ことを特徴とする請求項14から16のいずれか1項に記載の音声処理装置。
The generation means is characterized in that the noise data is generated by using the parameter corresponding to the type of noise included in the second voice signal among the plurality of parameters and the second voice signal. The voice processing apparatus according to any one of claims 14 to 16.
ノイズ源を有するレンズが装着される装着手段と、
環境音を取得するための第一のマイクと、
前記ノイズ源からの音を取得するための第二のマイクと、を有する音声処理装置の制御方法であって、
前記第一のマイクからの音声信号をフーリエ変換して第一の音声信号を生成するステップと、
前記第二のマイクからの音声信号をフーリエ変換して第二の音声信号を生成するステップと、
前記第二の音声信号と、前記ノイズ源のノイズに係るパラメータとを用いてノイズデータを生成する生成ステップと、
前記第一の音声信号から前記ノイズデータを減算する減算ステップと、
前記減算ステップにおいて生成された音声信号を逆フーリエ変換するステップと、を有し、
前記生成ステップでは、前記パラメータとして、前記装着手段に装着された前記レンズの種類に応じた前記パラメータが用いられる
ことを特徴とする制御方法。
A mounting means on which a lens having a noise source is mounted, and
With the first microphone to get the ambient sound,
A method of controlling a voice processing device having a second microphone for acquiring sound from the noise source.
The step of Fourier transforming the audio signal from the first microphone to generate the first audio signal,
The step of Fourier transforming the audio signal from the second microphone to generate the second audio signal,
A generation step of generating noise data using the second audio signal and parameters related to noise of the noise source.
A subtraction step of subtracting the noise data from the first audio signal,
It has a step of inverse Fourier transforming the audio signal generated in the subtraction step.
A control method characterized in that, in the generation step, the parameter corresponding to the type of the lens mounted on the mounting means is used as the parameter.
環境音を取得するための第一のマイクと、
ノイズ源からの音を取得するための第二のマイクと、を有する音声処理装置の制御方法であって、
前記音声処理装置に関する状態を検出する検出ステップと、
前記第一のマイクからの音声信号をフーリエ変換して第一の音声信号を生成するステップと、
前記第二のマイクからの音声信号をフーリエ変換して第二の音声信号を生成するステップと、
前記第二の音声信号と、前記ノイズ源のノイズに係るパラメータとを用いてノイズデータを生成する生成ステップと、
前記第一の音声信号から前記ノイズデータを減算する減算ステップと、
前記減算ステップにおいて生成された音声信号を逆フーリエ変換する第三の変換ステップと、を有し、
前記生成ステップでは、前記検出ステップによって検出された前記音声処理装置の状態に応じて前記パラメータを補正する
ことを特徴とする制御方法。
With the first microphone to get the ambient sound,
A method of controlling a voice processing device having a second microphone for acquiring sound from a noise source.
A detection step for detecting a state related to the voice processing device, and
The step of Fourier transforming the audio signal from the first microphone to generate the first audio signal,
The step of Fourier transforming the audio signal from the second microphone to generate the second audio signal,
A generation step of generating noise data using the second audio signal and parameters related to noise of the noise source.
A subtraction step of subtracting the noise data from the first audio signal,
It has a third transformation step of inverse Fourier transforming the audio signal generated in the subtraction step.
The control method, characterized in that, in the generation step, the parameter is corrected according to the state of the voice processing device detected by the detection step.
コンピュータを請求項1から17のいずれか1項に記載の音声処理装置の各手段として機能させるための、コンピュータが読み取り可能なプログラム。

A computer-readable program for operating a computer as each means of the voice processing device according to any one of claims 1 to 17.

JP2020143205A 2020-08-27 2020-08-27 Sound processor, control method, and program Pending JP2022038611A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020143205A JP2022038611A (en) 2020-08-27 2020-08-27 Sound processor, control method, and program
US17/410,592 US11729548B2 (en) 2020-08-27 2021-08-24 Audio processing apparatus, control method, and storage medium, each for performing noise reduction using audio signals input from plurality of microphones

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020143205A JP2022038611A (en) 2020-08-27 2020-08-27 Sound processor, control method, and program

Publications (2)

Publication Number Publication Date
JP2022038611A true JP2022038611A (en) 2022-03-10
JP2022038611A5 JP2022038611A5 (en) 2023-08-18

Family

ID=80498108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020143205A Pending JP2022038611A (en) 2020-08-27 2020-08-27 Sound processor, control method, and program

Country Status (1)

Country Link
JP (1) JP2022038611A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024057962A1 (en) * 2022-09-13 2024-03-21 JDI Design and Development 合同会社 Inspection method, inspection device, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024057962A1 (en) * 2022-09-13 2024-03-21 JDI Design and Development 合同会社 Inspection method, inspection device, and program

Similar Documents

Publication Publication Date Title
JP4910293B2 (en) Electronic camera, noise reduction device, and noise reduction control program
JP2006270591A (en) Electronic camera, data reproducing device and program
US11657794B2 (en) Audio processing apparatus for reducing noise using plurality of microphones, control method, and recording medium
JP4639902B2 (en) Imaging apparatus, audio recording method, and program
JP5998483B2 (en) Audio signal processing apparatus, audio signal processing method, program, and recording medium
JP2022038611A (en) Sound processor, control method, and program
JP6637926B2 (en) Voice processing device and control method thereof
JP5063489B2 (en) Judgment device, electronic apparatus including the same, and judgment method
US10531188B2 (en) Sound collecting device and sound collecting method
JP5267808B2 (en) Sound output system and sound output method
US11729548B2 (en) Audio processing apparatus, control method, and storage medium, each for performing noise reduction using audio signals input from plurality of microphones
JP2022039940A (en) Speech processing device, control method, and program
JP2022054318A (en) Sound processor, control method, and program
JP2022054317A (en) Sound processor, control method, and program
JP2022054316A (en) Sound processor, control method, and program
JP2022054315A (en) Sound processor, control method, and program
JP2022038610A (en) Sound processor, control method, and program
US12027176B2 (en) Apparatus and method for reducing noise corresponding to a noise source using noise data
US20220383890A1 (en) Apparatus and method
JP6985821B2 (en) Speech processing device and its control method
US20220383891A1 (en) Sound processing apparatus and control method
JP6929137B2 (en) Speech processing device and its control method
JP2023030453A (en) Sound processing device, control method, and program
JP2011205526A (en) Imaging apparatus, method, and program
JP6931296B2 (en) Speech processing device and its control method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20200918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230809

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240531