JP2011097419A - Photographing device, optical device, and program - Google Patents

Photographing device, optical device, and program Download PDF

Info

Publication number
JP2011097419A
JP2011097419A JP2009250337A JP2009250337A JP2011097419A JP 2011097419 A JP2011097419 A JP 2011097419A JP 2009250337 A JP2009250337 A JP 2009250337A JP 2009250337 A JP2009250337 A JP 2009250337A JP 2011097419 A JP2011097419 A JP 2011097419A
Authority
JP
Japan
Prior art keywords
signal
noise
change
determination unit
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009250337A
Other languages
Japanese (ja)
Other versions
JP5423319B2 (en
Inventor
Mitsuhiro Okazaki
光宏 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009250337A priority Critical patent/JP5423319B2/en
Priority to US12/913,907 priority patent/US8698911B2/en
Publication of JP2011097419A publication Critical patent/JP2011097419A/en
Application granted granted Critical
Publication of JP5423319B2 publication Critical patent/JP5423319B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographing device capable of reducing noise of a sound signal satisfactorily, and to provide an optical device and a program. <P>SOLUTION: The photographing device 100 includes: a photographing portion 110 for photographing an image by an optical system 111; a microphone 230 for converting a sound wave into an electric signal; a detecting portion 191 for detecting at least either a sensor signal detected by a sensor for detecting a photographing state or a control signal for controlling photographing; a determining portion 251 for using at least either the sensor signal or the control signal to determine whether to find a change in a photographing operation; and a reduction processing portion 250 for differing processing for reducing noise of an electric signal between when the determining portion 251 determines that there is a change in the photographing operation and when the determining portion 251 does not determine that a change in the photographing operation. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、音信号からノイズを周波数領域で減算する撮影装置、光学装置、及びプログラムに関する。   The present invention relates to a photographing apparatus, an optical apparatus, and a program for subtracting noise from a sound signal in a frequency domain.

音信号から、モータ駆動によるノイズを周波数領域で減算することで、その音信号に発生したノイズを低減させる撮影装置が、特許文献1に開示されている。   Japanese Patent Application Laid-Open No. 2004-151867 discloses a photographing apparatus that reduces noise generated in a sound signal by subtracting noise due to motor driving from the sound signal in the frequency domain.

特開2006−203376号公報JP 2006-203376 A

ところで、ノイズには、モータの駆動開始等に振幅が大きく瞬間的に発生するノイズと、そのノイズに続いて、モータが駆動している期間に定常的に発生するノイズとがある。そして、特許文献1に開示された撮影装置は、振幅が大きく瞬間的に発生するノイズと、モータが駆動している期間に定常的に発生するノイズとを区別せずにノイズ低減処理を実行していたため、振幅が大きく瞬間的に発生するノイズを低減させることができないという問題があった。   By the way, noise includes noise that has a large amplitude at the start of driving of the motor and the like, and noise that occurs steadily during the period when the motor is driven, following the noise. The imaging apparatus disclosed in Patent Document 1 executes noise reduction processing without distinguishing between noise that has a large amplitude and that is generated instantaneously and noise that is constantly generated during a period in which the motor is driven. Therefore, there is a problem that noise that has a large amplitude and cannot be instantaneously reduced cannot be reduced.

本発明は、音信号のノイズを低減させることができる撮影装置、光学装置、及びプログラムを提供することを課題とする。   It is an object of the present invention to provide an imaging device, an optical device, and a program that can reduce noise in a sound signal.

本発明は、上記の課題を解決するためになされたものであり、光学系による像を撮影する撮影部と、音波を電気信号に変換するマイクと、撮影状態を検出するセンサにより検出されたセンサ信号、及び、撮影を制御するための制御信号のうち少なくとも一方を検出する信号検出部と、前記センサ信号及び前記制御信号のうち少なくとも一方を用いて、撮影動作に変化があるか否かを判断する判断部と、前記判断部が撮影動作に変化があると判断したときと、前記判断部が撮影動作に変化があると判断しないときとで、前記電気信号のノイズを低減させる処理を異ならせるノイズ処理部とを含むことを特徴とする撮影装置である。   The present invention has been made to solve the above-described problem, and is a sensor detected by a photographing unit that photographs an image by an optical system, a microphone that converts sound waves into an electrical signal, and a sensor that detects a photographing state. A signal detection unit that detects at least one of a signal and a control signal for controlling shooting and at least one of the sensor signal and the control signal is used to determine whether or not there is a change in shooting operation And a process for reducing noise of the electrical signal is different between when the determination unit determines that there is a change in the shooting operation and when the determination unit does not determine that there is a change in the shooting operation. An imaging apparatus including a noise processing unit.

また、本発明は、光学系による像を形成する光学系と、音波を電気信号に変換するマイクと、撮影状態を検出するセンサにより検出されたセンサ信号、及び、撮影を制御するための制御信号のうち少なくとも一方を検出する信号検出部と、前記センサ信号及び前記制御信号のうち少なくとも一方を用いて、撮影動作に変化があるか否かを判断する判断部と、前記判断部が撮影動作に変化があると判断したときと、前記判断部が撮影動作に変化があると判断しないときとで、前記電気信号のノイズを低減させる処理を異ならせるノイズ処理部とを含むことを特徴とする光学装置である。   The present invention also provides an optical system that forms an image by an optical system, a microphone that converts sound waves into an electrical signal, a sensor signal that is detected by a sensor that detects a shooting state, and a control signal for controlling shooting. A signal detection unit that detects at least one of the sensor signal, a determination unit that determines whether there is a change in the shooting operation using at least one of the sensor signal and the control signal, and the determination unit that performs the shooting operation. An optical system comprising: a noise processing unit that makes a process for reducing noise of the electrical signal different when it is determined that there is a change and when the determination unit does not determine that there is a change in a shooting operation. Device.

また、本発明は、コンピュータに、撮影時に取得された音響信号、及び、撮影状態を検出するセンサにより検出されたセンサ信号及び撮影を制御するための制御信号のうち少なくとも一方を受け取る入力手順と、前記センサ信号及び前記制御信号のうち少なくとも一方を用いて、撮影動作に変化があったか否かを判断する判断手順と、撮影動作に変化があったと判断したときと、前記判断部が撮影動作に変化があったと判断しないときとで、前記音響信号のノイズを低減させる処理を異ならせるノイズ処理手順とを実行させるためのプログラムである。   Further, the present invention provides an input procedure for receiving at least one of an acoustic signal acquired at the time of shooting, a sensor signal detected by a sensor that detects a shooting state, and a control signal for controlling shooting in a computer, Using at least one of the sensor signal and the control signal, a determination procedure for determining whether or not there is a change in the shooting operation, and when the determination unit determines that there is a change in the shooting operation, the determination unit changes to the shooting operation This is a program for executing a noise processing procedure for different processing for reducing noise of the acoustic signal when it is not determined that there has been.

本発明によれば、音信号のノイズを好適に低減し得る撮影装置、光学装置、及びプログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device, optical apparatus, and program which can reduce suitably the noise of a sound signal can be provided.

本発明の第1の実施形態における撮像装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態におけるAFエンコーダの出力の一例と、マイク出力信号に発生した衝撃音ノイズ及び駆動音ノイズの一例を示す図である。It is a figure which shows an example of the output of the AF encoder in the 1st Embodiment of this invention, and an example of the impact sound noise and the drive sound noise which generate | occur | produced in the microphone output signal. 本発明の第1の実施形態における制御信号の波形の一例を示す図である。It is a figure which shows an example of the waveform of the control signal in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるマイク出力信号(周期音)に発生した衝撃音ノイズ及び駆動音ノイズの一例を示す図である。It is a figure which shows an example of the impact sound noise and drive sound noise which generate | occur | produced in the microphone output signal (periodic sound) in the 1st Embodiment of this invention. 本発明の第1の実施形態における区間Aのマイク出力信号を、時間領域で除去した一例を示す図である。It is a figure which shows an example which removed the microphone output signal of the area A in the 1st Embodiment of this invention in the time domain. 本発明の第1の実施形態における区間Aに、当該区間より前のマイク出力信号を補間した一例を示す図である。It is a figure which shows an example which interpolated the microphone output signal before the said area to the area A in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるマイク出力信号から衝撃音ノイズ及び駆動音ノイズが低減されたノイズ低減処理信号の一例を示す図である。It is a figure which shows an example of the noise reduction process signal from which the impact sound noise and the drive sound noise were reduced from the microphone output signal in the 1st Embodiment of this invention. 本発明の第1の実施形態における区間Aの終了点である時刻tcと、ハニング窓関数との位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of the time tc which is the end point of the area A in the 1st Embodiment of this invention, and a Hanning window function. 本発明の第1の実施形態における区間Aの終了点である時刻tcと、ハニング窓関数との位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of the time tc which is the end point of the area A in the 1st Embodiment of this invention, and a Hanning window function. 本発明の第1の実施形態における区間Aの終了点である時刻tcと、ハニング窓関数との位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of the time tc which is the end point of the area A in the 1st Embodiment of this invention, and a Hanning window function. 本発明の第1の実施形態における減算係数の一例を示す図である。It is a figure which shows an example of the subtraction coefficient in the 1st Embodiment of this invention. 本発明の第2の実施形態におけるマイク出力信号(非周期音)に発生した衝撃音ノイズ及び駆動音ノイズの一例を示す図である。It is a figure which shows an example of the impact sound noise and drive sound noise which generate | occur | produced in the microphone output signal (non-periodic sound) in the 2nd Embodiment of this invention. 本発明の第2の実施形態における時間領域で区間Tcを除去した後のマイク出力信号の一例を示す図である。It is a figure which shows an example of the microphone output signal after removing the area Tc in the time domain in the 2nd Embodiment of this invention. 本発明の第2の実施形態における複製されたマイク出力信号の一例を示す図である。It is a figure which shows an example of the copied microphone output signal in the 2nd Embodiment of this invention. 本発明の第2の実施形態におけるクロスフェードにおける重み付けの一例を示す図である。It is a figure which shows an example of the weighting in the cross fade in the 2nd Embodiment of this invention. 本発明の第2の実施形態におけるマイク出力信号から衝撃音ノイズ及び駆動音ノイズが低減されたノイズ低減処理信号の一例を示す図である。It is a figure which shows an example of the noise reduction process signal from which the impact sound noise and the drive sound noise were reduced from the microphone output signal in the 2nd Embodiment of this invention.

[第1の実施形態]
本発明の第1の実施形態について図面を参照して詳細に説明する。図1には、撮像装置の構成を示すブロック図が示されている。撮像装置(撮影装置)100は、光学系による像を撮像(撮影)し、得られた画像データを記憶媒体200に記憶させる。また、撮像装置100は、収音された音からノイズを低減させ、得られた音信号を記憶媒体200に記憶させる。
[First embodiment]
A first embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the imaging apparatus. The imaging device (imaging device) 100 captures (captures) an image by an optical system and stores the obtained image data in the storage medium 200. Further, the imaging apparatus 100 reduces noise from the collected sound and stores the obtained sound signal in the storage medium 200.

撮像装置100は、撮像部110と、画像処理部140と、表示部150と、バッファメモリ130と、操作部180と、記憶部160と、CPU(Central Processing Unit)190と、マイク230と、音信号処理部240と、低減処理部250と、通信部170を備える。   The imaging apparatus 100 includes an imaging unit 110, an image processing unit 140, a display unit 150, a buffer memory 130, an operation unit 180, a storage unit 160, a CPU (Central Processing Unit) 190, a microphone 230, and a sound. A signal processing unit 240, a reduction processing unit 250, and a communication unit 170 are provided.

撮像部110は、光学系111と、撮像素子119と、A/D(Analog/Digital)変換部120とを備え、設定された撮像条件(例えば絞り値、露出値等)に従って、CPU190により制御される。また、撮像部110は、光学系111による光学像を撮像素子119に結像させて、A/D変換部120によってデジタル信号に変換された当該光学像に基づく画像データを生成する。   The imaging unit 110 includes an optical system 111, an imaging element 119, and an A / D (Analog / Digital) conversion unit 120, and is controlled by the CPU 190 according to set imaging conditions (for example, an aperture value, an exposure value, etc.). The In addition, the imaging unit 110 forms an optical image by the optical system 111 on the imaging element 119 and generates image data based on the optical image converted into a digital signal by the A / D conversion unit 120.

光学系111は、ズームレンズ114と、焦点調整レンズ(以下、「AF(Auto Focus)レンズ」という)112と、手振れ補正レンズ(以下、「VR(Vibration Reduction)レンズ」という)113と、レンズ駆動部116と、ズームエンコーダ115と、AFエンコーダ117と、像ぶれ補正部118を備える。光学系111は、ズームレンズ114、AFレンズ112、及びVRレンズ113を通過した入射光を、撮像素子119の受光面に導いて、光学像を形成する。なお、光学系111は、撮像装置100に取り付けられて一体とされていてもよいし、撮像装置100に着脱可能に取り付けられてもよい。   The optical system 111 includes a zoom lens 114, a focus adjustment lens (hereinafter referred to as “AF (Auto Focus) lens”) 112, a camera shake correction lens (hereinafter referred to as “VR (Vibration Reduction) lens”) 113, and a lens drive. A unit 116, a zoom encoder 115, an AF encoder 117, and an image blur correction unit 118. The optical system 111 guides incident light that has passed through the zoom lens 114, the AF lens 112, and the VR lens 113 to the light receiving surface of the image sensor 119, thereby forming an optical image. Note that the optical system 111 may be attached to and integrated with the imaging apparatus 100, or may be detachably attached to the imaging apparatus 100.

ズームエンコーダ115は、撮影状態として、ズームレンズ114の駆動方向を検出し、ズームレンズ114の駆動方向に応じた信号を、センサ信号としてCPU190に出力する。ここで、ズームレンズ114の駆動方向に応じた信号とは、ズームレンズ114が、光学系111内において停止されている状態、無限端方向に駆動されている状態(ズームレンズ114を駆動するためのモータ、カム等が、例えば、時計回り(CW)に回転)、又は至近端方向に駆動されている状態(ズームレンズ114を駆動するためのモータ、カム等が、例えば、反時計回り(CCW)に回転)のいずれかの状態にあることを示す信号であってもよい。すなわち、ズームレンズ114の駆動方向の検出とは、ズームレンズ114を駆動するためのモータ、カム等の回転方向の検出であってもよい。なお、このズームレンズ114を駆動するためのモータ、カム等は、レンズ駆動部116に備えられてもよい。また、ズームエンコーダ115は、検出したズームレンズ114の駆動方向及び駆動量に基づいて、ズームレンズ114の位置を表わすズームポジションを検出し、センサ信号としてCPU190に出力する。   The zoom encoder 115 detects the driving direction of the zoom lens 114 as a photographing state, and outputs a signal corresponding to the driving direction of the zoom lens 114 to the CPU 190 as a sensor signal. Here, the signal according to the driving direction of the zoom lens 114 means that the zoom lens 114 is stopped in the optical system 111 or is driven in the infinite direction (for driving the zoom lens 114). The motor, cam, etc. are rotated clockwise (CW), for example, or driven in the direction of the closest end (the motor, cam, etc. for driving the zoom lens 114 are, for example, counterclockwise (CCW) ) May be a signal indicating that it is in any state of rotation). That is, the detection of the driving direction of the zoom lens 114 may be detection of the rotation direction of a motor, a cam or the like for driving the zoom lens 114. Note that a motor, a cam, and the like for driving the zoom lens 114 may be provided in the lens driving unit 116. Further, the zoom encoder 115 detects a zoom position representing the position of the zoom lens 114 based on the detected driving direction and driving amount of the zoom lens 114, and outputs it to the CPU 190 as a sensor signal.

AFエンコーダ117は、撮影状態として、AFレンズ112の駆動方向を検出し、AFレンズ112の駆動方向に応じた信号を、センサ信号としてCPU190に出力する。ここで、AFレンズ112の駆動方向に応じた信号とは、AFレンズ112が、光学系111内において停止されている状態、無限端方向に駆動されている状態(AFレンズ112を駆動するためのモータ、カム等が、例えば、時計回り(CW)に回転)、又は至近端方向に駆動されている状態(AFレンズ112を駆動するためのモータ、カム等が、例えば、反時計回り(CCW)に回転)のいずれかの状態にあることを示す信号であってもよい。すなわち、AFレンズ112の駆動方向の検出とは、AFレンズ112を駆動するためのモータ、カム等の回転方向の検出であってもよい。なお、このAFレンズ112を駆動するためのモータ、カム等は、レンズ駆動部116に備えられてもよい。また、AFエンコーダ117は、検出したAFレンズ112の駆動方向及び駆動量に基づいて、AFレンズ112の位置を表わすフォーカスポジションを検出し、センサ信号としてCPU190に出力する。   The AF encoder 117 detects the driving direction of the AF lens 112 as a photographing state, and outputs a signal corresponding to the driving direction of the AF lens 112 to the CPU 190 as a sensor signal. Here, the signal corresponding to the driving direction of the AF lens 112 is a state in which the AF lens 112 is stopped in the optical system 111 or is driven in an infinite direction (for driving the AF lens 112). The motor, cam, etc. are rotated clockwise (CW), for example, or are driven in the direction of the closest end (the motor, cam, etc. for driving the AF lens 112 are, for example, counterclockwise (CCW) ) May be a signal indicating that it is in any state of rotation). That is, the detection of the driving direction of the AF lens 112 may be detection of the rotation direction of a motor, a cam, or the like for driving the AF lens 112. Note that a motor, a cam, and the like for driving the AF lens 112 may be provided in the lens driving unit 116. The AF encoder 117 detects a focus position representing the position of the AF lens 112 based on the detected driving direction and driving amount of the AF lens 112, and outputs it to the CPU 190 as a sensor signal.

像ぶれ補正部118は、撮影状態として、光学系111による像のぶれを検出し、センサ信号としてCPU190に出力する。そして、像ぶれ補正部118は、後述するCPU190から入力される制御信号に基づいて、当該ぶれを打ち消す方向にVRレンズ113を駆動する。なお、像ぶれ補正部118は、VRレンズ113の位置を検出し、センサ信号としてCPU190に出力してもよい。   The image blur correction unit 118 detects image blur due to the optical system 111 as a photographing state, and outputs it to the CPU 190 as a sensor signal. Then, the image blur correction unit 118 drives the VR lens 113 in a direction to cancel the blur based on a control signal input from a CPU 190 described later. Note that the image blur correction unit 118 may detect the position of the VR lens 113 and output it to the CPU 190 as a sensor signal.

レンズ駆動部116は、後述するCPU190から入力される制御信号に基づいて、AFレンズ112及びズームレンズ114の位置を制御する。レンズ駆動部116は、撮影において駆動されるアクチュエータを備える。ここで、撮影において駆動されるアクチュエータとは、例えば、AFレンズ112及びズームレンズ114などを駆動するモータであってもよい。そして、このアクチュエータは、撮像装置100、又は撮像装置100から着脱可能な光学系(レンズ鏡筒)のいずれかに備えられてもよい。   The lens driving unit 116 controls the positions of the AF lens 112 and the zoom lens 114 based on a control signal input from a CPU 190 described later. The lens driving unit 116 includes an actuator that is driven in photographing. Here, the actuator driven in photographing may be, for example, a motor that drives the AF lens 112, the zoom lens 114, and the like. The actuator may be provided in either the imaging device 100 or an optical system (lens barrel) that is detachable from the imaging device 100.

撮像素子119は、例えば、光電変換面を備え、その受光面に結像した光学像を電気信号に変換して、A/D変換部120に出力する。   The image sensor 119 includes, for example, a photoelectric conversion surface, converts an optical image formed on the light receiving surface into an electrical signal, and outputs the electrical signal to the A / D conversion unit 120.

また、撮像素子119は、操作部180を介して撮影指示を受け付けた際に得られる画像データを、静止画又は動画の画像データとして、A/D変換部120を介して記憶媒体200に記憶させる。一方、撮像素子119は、操作部180を介して撮像指示を受け付けていない状態において、連続的に得られる画像データをスルー画データとして、A/D変換部120を介してCPU190及び表示部150に出力する。   Further, the image sensor 119 stores the image data obtained when a shooting instruction is received via the operation unit 180 in the storage medium 200 via the A / D conversion unit 120 as still image data or moving image data. . On the other hand, the image sensor 119 receives continuously acquired image data as through image data in the state in which an imaging instruction is not received via the operation unit 180, and sends it to the CPU 190 and the display unit 150 via the A / D converter 120. Output.

A/D変換部120は、撮像素子119によって変換された電気信号をデジタル化して、デジタル信号である画像データをバッファメモリ部130に出力する。   The A / D converter 120 digitizes the electrical signal converted by the image sensor 119 and outputs image data that is a digital signal to the buffer memory unit 130.

操作部180は、例えば、電源スイッチ、シャッタボタン、マルチセレクタ(十字キー)、又はその他の操作キーを備え、ユーザによって操作されることでユーザの操作入力を受け付け、操作入力に応じた信号をCPU190に出力する。   The operation unit 180 includes, for example, a power switch, a shutter button, a multi-selector (cross key), or other operation keys. The operation unit 180 receives a user operation input when operated by the user, and outputs a signal corresponding to the operation input to the CPU 190. Output to.

画像処理部140は、記憶部160に記憶されている画像処理条件を参照して、バッファメモリ部130に一時的に記憶されている画像データに対して、画像処理をする。画像処理された画像データは、通信部170を介して記憶媒体200に記憶される。なお、画像処理部140は、記憶媒体200に記憶されている画像データに対して、画像処理をしてもよい。   The image processing unit 140 performs image processing on the image data temporarily stored in the buffer memory unit 130 with reference to the image processing conditions stored in the storage unit 160. The image data subjected to the image processing is stored in the storage medium 200 via the communication unit 170. Note that the image processing unit 140 may perform image processing on the image data stored in the storage medium 200.

表示部150は、例えば液晶ディスプレイであって、撮像部100によって得られた画像データ、及び操作画面等を表示する。   The display unit 150 is, for example, a liquid crystal display, and displays image data obtained by the imaging unit 100, an operation screen, and the like.

バッファメモリ部130は、撮像部110によって撮像された画像データを、一時的に記憶する。また、バッファメモリ部130は、マイク230が収音した音に応じた音信号を、一時的に記憶する。   The buffer memory unit 130 temporarily stores image data captured by the imaging unit 110. The buffer memory unit 130 temporarily stores a sound signal corresponding to the sound collected by the microphone 230.

マイク230は、音を収音し、その音波を電気信号(アナログ信号)に変換して出力する。すなわち、マイク230は、収音した音に応じた音信号(以下、「マイク出力信号」という)を、音信号処理部240を介してバッファメモリ部130に出力する。   The microphone 230 picks up sound, converts the sound wave into an electric signal (analog signal), and outputs it. That is, the microphone 230 outputs a sound signal (hereinafter referred to as “microphone output signal”) corresponding to the collected sound to the buffer memory unit 130 via the sound signal processing unit 240.

そして、マイク出力信号には、動作部が発した音によって、衝撃音ノイズ又は駆動音ノイズの少なくとも一方が重畳される可能性がある。ここでいう動作部とは、一例としては、上述したズームレンズ114、VRレンズ113、AFレンズ112、または、操作部180のことであり、撮像装置100が備える構成のうち、動作することにより、または、動作されることにより、音が生じる(または、音が生じる可能性がある)構成である。   Then, there is a possibility that at least one of the impact sound noise and the drive sound noise is superimposed on the microphone output signal due to the sound generated by the operation unit. An example of the operation unit referred to here is the zoom lens 114, the VR lens 113, the AF lens 112, or the operation unit 180 described above. By operating in the configuration of the imaging apparatus 100, Or it is the structure which a sound produces (or a sound may produce) by being operated.

また、この動作部とは、撮像装置100が備えている構成のうち、動作することにより生じた音、または、動作されることにより生じた音が、マイク230により収音される(または、収音される可能性のある)構成である。   In addition, the operation unit refers to a sound generated by the operation or a sound generated by the operation of the configuration of the imaging apparatus 100 collected by the microphone 230 (or collected). It may be sounded).

また、ここでいう駆動音ノイズとは、動作部が動作している区間(期間)に、マイク出力信号に定常的に発生するノイズである。また、衝撃音ノイズとは、撮影動作に変化がある場合に、すなわち、動作部の動作開始、動作終了、動作方向の反転、又は動作部が操作された場合に、駆動音ノイズよりも振幅が大きく、瞬間的にマイク出力信号に発生するノイズである。   The driving sound noise here is noise that is constantly generated in the microphone output signal during the period (period) in which the operating unit is operating. In addition, the impact sound noise has an amplitude larger than that of the drive sound noise when there is a change in the shooting operation, that is, when the operation unit starts, ends, reverses the operation direction, or the operation unit is operated. It is a large and instantaneous noise generated in the microphone output signal.

例えば、衝撃音ノイズは、光学系111が備えるギア(不図示)が噛み合うことにより発生するノイズであってもよい。また、衝撃音ノイズは、例えば、ズームレンズ114の移動範囲を制限する端部に、ズームレンズ114の機構が当たることにより発生するノイズであってもよい。   For example, the impact sound noise may be noise generated when a gear (not shown) included in the optical system 111 is engaged. Further, the impact noise noise may be, for example, noise generated when the mechanism of the zoom lens 114 hits an end that limits the movement range of the zoom lens 114.

記憶部160は、CPU190によってシーン判定の際に参照される判定条件や、シーン判定によって判断されたシーン毎に対応付けられた撮像条件等を記憶する。   The storage unit 160 stores determination conditions referred to when the CPU 190 determines a scene, imaging conditions associated with each scene determined by the scene determination, and the like.

また、記憶部160は、特定の音情報を含む信号(以下、「推定ノイズ信号」という)と、動作部とを対応づけて、予め記憶する。ここで、特定の音情報とは、例えば、予め録音された駆動音ノイズの波形情報あってもよい。そして、推定ノイズ信号は、フーリエ変換された信号であってもよい。   In addition, the storage unit 160 stores a signal including specific sound information (hereinafter referred to as “estimated noise signal”) and an operation unit in association with each other. Here, the specific sound information may be, for example, drive sound noise waveform information recorded in advance. The estimated noise signal may be a Fourier-transformed signal.

音信号処理部240は、マイク230が出力したマイク出力信号をデジタル化し、バッファメモリ部130に記憶させる。   The sound signal processing unit 240 digitizes the microphone output signal output from the microphone 230 and stores the digitized signal in the buffer memory unit 130.

CPU190は、撮像装置全体を制御するが、一例としては、設定された撮像条件(例えば絞り値、露出値等)に従って、撮像部110を制御する。また、CPU190は、撮ズームエンコーダ115から入力されるズームポジション、および、AFエンコーダ117から入力されるフォーカスポジションと、操作部180から入力される操作入力に基づいて、ズームエンコーダ115およびAFエンコーダ117の位置を制御する制御信号を生成する。CPU190は、この制御信号に基づいて、レンズ駆動部116を介してズームエンコーダ115およびAFエンコーダ117の位置を制御する。   The CPU 190 controls the entire imaging apparatus. As an example, the CPU 190 controls the imaging unit 110 according to set imaging conditions (for example, an aperture value, an exposure value, and the like). Further, the CPU 190 determines whether the zoom encoder 115 and the AF encoder 117 are based on the zoom position input from the photographic zoom encoder 115, the focus position input from the AF encoder 117, and the operation input input from the operation unit 180. A control signal for controlling the position is generated. The CPU 190 controls the positions of the zoom encoder 115 and the AF encoder 117 via the lens driving unit 116 based on this control signal.

また、このCPU190は、検出部191を備える。この検出部191は、撮像装置100が備える動作部が動作するタイミングを検出する。そして、検出部191は、動作部を動作させる制御信号に基づいて、動作部が動作するタイミングを検出してもよい。この制御信号とは、動作部を動作させる駆動部に対して、動作部を動作させるようにする制御信号、または、この駆動部を駆動させる制御信号である。   The CPU 190 includes a detection unit 191. The detection unit 191 detects the timing at which the operation unit included in the imaging apparatus 100 operates. And the detection part 191 may detect the timing which an operation | movement part operate | moves based on the control signal which operates an operation | movement part. This control signal is a control signal for operating the operating unit with respect to the driving unit for operating the operating unit, or a control signal for driving the driving unit.

たとえば、検出部191は、ズームレンズ114、VRレンズ113、又はAFレンズ112を駆動させるために、レンズ駆動部116若しくは像ぶれ補正部118に入力される制御信号に基づいて、又はCPU190で生成される制御信号に基づいて、動作部が動作するタイミングを検出してもよい。
また、CPU190が制御信号を生成する場合に、検出部191は、CPU190内部で実行される処理やコマンドに基づいて、動作部が動作するタイミングを検出してもよい。
また、検出部191は、操作部180から入力されるズームレンズ114、または、AFレンズ112を駆動させることを示す信号に基づいて、動作部が動作するタイミングを検出してもよい。
For example, the detection unit 191 is generated by the CPU 190 based on a control signal input to the lens driving unit 116 or the image blur correction unit 118 in order to drive the zoom lens 114, the VR lens 113, or the AF lens 112. The timing at which the operating unit operates may be detected based on the control signal.
Further, when the CPU 190 generates a control signal, the detection unit 191 may detect the timing at which the operation unit operates based on processing and commands executed in the CPU 190.
The detection unit 191 may detect the timing at which the operation unit operates based on a signal indicating that the zoom lens 114 or the AF lens 112 is input from the operation unit 180.

また、この検出部191は、動作部が動作されたことを示す信号に基づいて、動作部が動作するタイミングを検出してもよい。   The detection unit 191 may detect the timing at which the operating unit operates based on a signal indicating that the operating unit has been operated.

たとえば、検出部191は、ズームエンコーダ115又はAFエンコーダ117の出力に基づいて、ズームレンズ114又はAFレンズ112が駆動されたことを検出することにより、動作部が動作するタイミングを検出してもよい。
また、検出部191は、像ぶれ補正部118からの出力に基づいて、VRレンズ113が駆動されたことを検出することにより、動作部が動作するタイミングを検出してもよい。
また、この検出部191は、操作部180からの入力に基づいて、操作部180が操作されたことを検出することにより、動作部が動作するタイミングを検出してもよい。
For example, the detection unit 191 may detect the timing at which the operation unit operates by detecting that the zoom lens 114 or the AF lens 112 is driven based on the output of the zoom encoder 115 or the AF encoder 117. .
The detection unit 191 may detect the timing at which the operation unit operates by detecting that the VR lens 113 is driven based on the output from the image blur correction unit 118.
The detection unit 191 may detect the timing at which the operation unit operates by detecting that the operation unit 180 has been operated based on an input from the operation unit 180.

そして、検出部191は、撮像装置100が備える動作部が動作するタイミングを検出し、このタイミングを示す信号を、低減処理部250の後述する判断部251に出力する。   Then, the detection unit 191 detects the timing at which the operation unit included in the imaging apparatus 100 operates, and outputs a signal indicating this timing to the determination unit 251 described later of the reduction processing unit 250.

次に、低減処理部250の詳細について説明する。
低減処理部250は、判断部251を備える。判断部251は、タイミングを示す信号に基づいて、撮影動作に変化があるか否かを判断する。そして、低減処理部250は、判断部251が撮影動作に変化があると判断したときと、判断部251が撮影動作に変化があると判断しないときとで、衝撃音ノイズ及び駆動音ノイズを低減させる処理を異ならせる。例えば、判断部251は、タイミングを示す信号に基づいて、衝撃音が発生していると判断できるとき、撮影動作に変化があると判断してもよい。また、判断部251は、タイミングを示す信号に基づいて、定常音が発生していると判断できるとき、撮影動作に変化がない、と判断してもよい。また、判断部251は、タイミングを示す情報に基づいて、撮影動作をしていないと判断できるとき、又は、衝撃音も定常音も発生していないと判断できるとき、ノイズが発生していない、と判断してもよい。
Next, details of the reduction processing unit 250 will be described.
The reduction processing unit 250 includes a determination unit 251. The determination unit 251 determines whether there is a change in the shooting operation based on a signal indicating timing. The reduction processing unit 250 reduces the impact noise and the driving sound noise when the determination unit 251 determines that there is a change in the shooting operation and when the determination unit 251 does not determine that there is a change in the shooting operation. Different processing. For example, the determination unit 251 may determine that there is a change in the shooting operation when it can be determined that an impact sound is generated based on a signal indicating timing. Further, the determination unit 251 may determine that there is no change in the photographing operation when it can be determined that a steady sound is generated based on a signal indicating timing. Further, when the determination unit 251 can determine that the photographing operation is not performed based on the information indicating the timing, or when it can be determined that neither the impact sound nor the steady sound is generated, no noise is generated. You may judge.

具体的には、低減処理部250は、その判断により異ならせる処理として、衝撃音ノイズに対しては、時間領域でノイズ低減処理を実行することで、衝撃音ノイズを低減させる。一方、駆動音ノイズに対しては、例えばスペクトル減算法により、周波数領域でノイズ低減処理を実行することで、駆動音ノイズを低減させる。そして、低減処理部250は、ノイズが低減されたマイク出力信号を、ノイズ減算処理信号(音データ)として通信部170に出力する。  Specifically, the reduction processing unit 250 reduces the impact noise by performing noise reduction processing in the time domain for the impact sound noise as a process that varies depending on the determination. On the other hand, for drive sound noise, the drive sound noise is reduced by executing noise reduction processing in the frequency domain, for example, by spectral subtraction. Then, the reduction processing unit 250 outputs the microphone output signal with reduced noise to the communication unit 170 as a noise subtraction processing signal (sound data).

通信部170は、カードメモリ等の取り外しが可能な記憶媒体200と接続され、この記憶媒体200への情報(画像データ、及びノイズ減算処理信号等)の書込み、読み出し、あるいは消去を行う。   The communication unit 170 is connected to a removable storage medium 200 such as a card memory, and writes, reads, or deletes information (image data, noise subtraction processing signal, etc.) to the storage medium 200.

記憶媒体200は、撮像装置100に対して着脱可能に接続される記憶部であって、例えば、撮像部100によって生成された画像データ、及びノイズ減算処理信号等を記憶する。なお、記憶媒体200は、撮像装置100と一体であってもよい。   The storage medium 200 is a storage unit that is detachably connected to the imaging apparatus 100, and stores, for example, image data generated by the imaging unit 100, a noise subtraction processing signal, and the like. Note that the storage medium 200 may be integrated with the imaging device 100.

次に、動作部が動作するタイミングの一例として、AFレンズ112が動作するタイミングと、マイク出力信号に発生する衝撃音ノイズ及び駆動音ノイズとの関係について説明する。   Next, as an example of the timing at which the operating unit operates, the relationship between the timing at which the AF lens 112 operates and the impact sound noise and drive sound noise generated in the microphone output signal will be described.

図2には、AFエンコーダの出力の一例と、マイク出力信号に発生した衝撃音ノイズ及び駆動音ノイズの一例が示されている。図2(A)及び(B)の横軸は、時刻を示す。図2(A)の縦軸は、AFエンコーダの出力として、AFレンズ112の駆動方向を示す。すなわち、動作部としてのAFレンズ112が、光学系111内において停止、無限端方向に駆動(AFレンズ112を駆動するためのモータ、カム等が、例えば、時計回り(CW)に回転)、又は至近端方向に駆動(AFレンズ112を駆動するためのモータ、カム等が、例えば、反時計回り(CCW)に回転)のいずれかの状態にあることを示す。また、図2(B)の縦軸は、マイク230が出力したマイク出力信号を示す。   FIG. 2 shows an example of the output of the AF encoder and an example of the impact sound noise and the drive sound noise generated in the microphone output signal. The horizontal axes in FIGS. 2A and 2B indicate time. The vertical axis in FIG. 2A indicates the driving direction of the AF lens 112 as the output of the AF encoder. That is, the AF lens 112 as the operation unit stops in the optical system 111 and is driven in an infinite direction (a motor, a cam or the like for driving the AF lens 112 is rotated clockwise (CW), for example), or This indicates that it is in any state of driving in the direction of the closest end (a motor, a cam or the like for driving the AF lens 112 rotates counterclockwise (CCW), for example). The vertical axis in FIG. 2B indicates a microphone output signal output from the microphone 230.

例えば、時刻t1において、AFレンズ112を駆動するためのモータ、カム等が、停止から時計回りの回転に変化(駆動開始)したとする(図2(A)を参照)。これに起因して、マイク出力信号に衝撃音ノイズが発生し、それに続いて、駆動音ノイズが発生していることが、図2(B)に示されている。そして、AFレンズ112を駆動するためのモータ、カム等が回転(駆動)を続けて、時刻t2で停止(駆動終了)したとする。これにより、時刻t2において、衝撃音ノイズが発生していることが、図2(B)に示されている。   For example, it is assumed that a motor, a cam, and the like for driving the AF lens 112 are changed from a stop to a clockwise rotation (drive start) at time t1 (see FIG. 2A). FIG. 2B shows that, due to this, impact sound noise is generated in the microphone output signal, and subsequently drive sound noise is generated. Then, it is assumed that a motor, a cam, and the like for driving the AF lens 112 continue to rotate (drive) and stop (drive end) at time t2. Thereby, it is shown in FIG. 2B that the impact sound noise is generated at time t2.

さらに、例えば、時刻t3において、AFレンズ112を駆動するためのモータ、カム等が、停止から時計回りの回転に変化(駆動開始)したとする(図2(A)を参照)。これに起因して、時刻t3において、マイク出力信号に衝撃音ノイズが発生し、それに続いて、駆動音ノイズが発生していることが、図2(B)に示されている。そして、AFレンズ112を駆動するためのモータ、カム等が回転(駆動)を続けて、時刻t4で回転方向(駆動方向)が反転したとする。これにより、時刻t4において、衝撃音ノイズが発生していることが、図2(B)に示されている。さらに、AFレンズ112を駆動するためのモータ、カム等が回転(駆動)を続けて、時刻t5で停止(駆動終了)したとする。これにより、時刻t5において、衝撃音ノイズが発生していることが、図2(B)に示されている。   Furthermore, for example, at time t3, it is assumed that the motor, cam, and the like for driving the AF lens 112 change (start driving) from the stop to the clockwise rotation (see FIG. 2A). As a result, at time t3, it is shown in FIG. 2B that impact sound noise is generated in the microphone output signal and subsequently drive noise is generated. Then, it is assumed that the motor, cam, and the like for driving the AF lens 112 continue to rotate (drive), and the rotation direction (drive direction) is reversed at time t4. As a result, it is shown in FIG. 2B that impact noise is generated at time t4. Furthermore, it is assumed that a motor, a cam, and the like for driving the AF lens 112 continue to rotate (drive) and stop (drive end) at time t5. Thereby, it is shown in FIG. 2B that the impact sound noise is generated at time t5.

図2に示された一例のように、AFレンズ112による衝撃音ノイズ及び駆動音ノイズは、AFレンズ112が動作するタイミング(t1,t2,t3,t4,t5)に同期して発生する。そして、検出部191は、AFレンズ112が動作するタイミング(t1,t2,t3,t4,t5)を検出し、このタイミングを示す信号を、判断部251に出力する。さらに、判断部251は、このタイミングを示す信号に基づいて、そのタイミング(t1,t2,t3,t4,t5)で撮影動作に変化があったと判断する。同様に、判断部251は、タイミングを示す信号に基づいて、時刻t1〜t2、t3〜t4、t4〜t5に駆動音ノイズ(定常音)が発生し、撮影動作に変化がない旨の判断をする。同様に、判断部251は、タイミングを示す信号に基づいて、時刻t2〜t3に駆動停止しており(撮影動作をしていない)、ノイズが発生していない旨の判断をする。   As in the example shown in FIG. 2, the impact noise noise and the driving noise noise generated by the AF lens 112 are generated in synchronization with the timing (t1, t2, t3, t4, t5) at which the AF lens 112 operates. The detection unit 191 detects the timing (t1, t2, t3, t4, t5) at which the AF lens 112 operates, and outputs a signal indicating this timing to the determination unit 251. Further, the determination unit 251 determines that the photographing operation has changed at the timing (t1, t2, t3, t4, t5) based on the signal indicating this timing. Similarly, the determination unit 251 determines that drive sound noise (steady sound) is generated at times t1 to t2, t3 to t4, and t4 to t5 based on a signal indicating timing, and the photographing operation does not change. To do. Similarly, based on the signal indicating the timing, the determination unit 251 determines that the drive is stopped at times t2 to t3 (no shooting operation is performed) and noise is not generated.

次に、ノイズ低減処理の詳細を説明する。
以下、第1の実施形態において、マイク230に収音された音(マイク出力信号)には、基本周期があるものとする。そして、マイク230に収音された音に基本周期がない場合については、第2の実施形態に後述する。以下、検出部191が検出したタイミングが、動作部が動作を開始したタイミングである場合について、説明する。
Next, details of the noise reduction processing will be described.
Hereinafter, in the first embodiment, it is assumed that the sound (microphone output signal) collected by the microphone 230 has a basic period. The case where the sound collected by the microphone 230 has no basic period will be described later in the second embodiment. Hereinafter, a case where the timing detected by the detection unit 191 is the timing when the operation unit starts operation will be described.

図3には、制御信号の波形の一例が示されている。ここで、制御信号は、時刻t1からレベルが上昇している。このような場合、検出部191は、例えば、制御信号のレベルが上昇した時刻t1を、動作部の動作開始時刻t1とする。また、図4には、マイク出力信号(周期音)に発生した衝撃音ノイズ及び駆動音ノイズの一例が示されている。そして、図3と同様に、時刻t1において、マイク出力信号に衝撃音ノイズが発生している。さらに、時刻t1より後において、動作部が動作している区間には、マイク出力信号に駆動音ノイズが発生している。   FIG. 3 shows an example of the waveform of the control signal. Here, the level of the control signal has increased since time t1. In such a case, the detection unit 191 sets, for example, the time t1 when the level of the control signal has risen as the operation start time t1 of the operation unit. FIG. 4 shows an example of impact sound noise and drive sound noise generated in the microphone output signal (periodic sound). As in FIG. 3, impact noise is generated in the microphone output signal at time t1. Further, after the time t1, driving noise is generated in the microphone output signal in a section in which the operating unit is operating.

低減処理部250は、検出部191が検出したタイミングを含む区間(以下、「区間A」という。図2(A)のタイミングt1,t2,t3,t4,t5を参照。)のマイク出力信号(時間軸に対して規定された信号)を、時間領域で除去する。例えば、低減処理部250は、区間Aのマイク出力信号を時間領域で除去するために、区間Aのマイク出力信号の値を、全て「0」(無音)にする。   The reduction processing unit 250 is a microphone output signal (referred to as “section A” hereinafter, timings t1, t2, t3, t4, and t5 in FIG. 2A) including the timing detected by the detection unit 191. The signal defined with respect to the time axis is removed in the time domain. For example, the reduction processing unit 250 sets all the values of the microphone output signal in the section A to “0” (silence) in order to remove the microphone output signal in the section A in the time domain.

図5には、区間Aのマイク出力信号を、時間領域で除去した一例が示されている。以下、区間Aの終了点を時刻tcとする。ここで、低減処理部250は、除去する区間の長さを、マイク出力信号の基本周期の整数倍としてもよい。このようにすれば、図6を用いて後述する信号補間処理において、除去する区間の長さが、その区間に補間される信号の波長の整数倍となるので、信号補間処理を容易にすることができる。   FIG. 5 shows an example in which the microphone output signal in section A is removed in the time domain. Hereinafter, the end point of the section A is defined as time tc. Here, the reduction processing unit 250 may set the length of the section to be removed as an integer multiple of the basic period of the microphone output signal. In this way, in the signal interpolation processing described later with reference to FIG. 6, the length of the section to be removed is an integral multiple of the wavelength of the signal interpolated in that section, thus facilitating the signal interpolation processing. Can do.

本実施例では、説明を簡単にするために、マイク出力信号の振幅が値「0」となっている時刻から、振幅が再び値「0」となっている時刻までの時間を、マイク出力信号の基本周期とする方法を用いた。そして、低減処理部250は、マイク出力信号の振幅が値「0」となっている時刻から、振幅が再び値「0」となっている時刻までの区間、又はその区間の整数倍の区間を除去してもよい。このようにすれば、図6を用いて後述する信号補間処理において、補間された信号と、その前後の信号とが振幅「0」で連続するので、信号の不連続点を作らないようにすることができる。   In the present embodiment, for the sake of simplicity of explanation, the time from the time when the amplitude of the microphone output signal is “0” to the time when the amplitude is again “0” is expressed as the microphone output signal. The basic period method was used. Then, the reduction processing unit 250 selects a section from the time when the amplitude of the microphone output signal is “0” to the time when the amplitude is “0” again, or a section that is an integral multiple of the section. It may be removed. In this way, in the signal interpolation processing described later with reference to FIG. 6, the interpolated signal and the signals before and after the signal are continuous with an amplitude of “0”, so that no signal discontinuity is created. be able to.

なお、音の基本周期を求める方法としては、自己相関関数法、ケプストラム法等がある。この自己相関関数法は、音信号の自己相関関数のピークを検出して、基本周期を求める方法である。また、ケプストラム法は、音信号のスペクトルの対数を逆フーリエ変換して求めたケプストラムのピークを検出して、基本周期を求める方法である。   As a method for obtaining the fundamental period of sound, there are an autocorrelation function method, a cepstrum method, and the like. This autocorrelation function method is a method for obtaining a fundamental period by detecting a peak of an autocorrelation function of a sound signal. The cepstrum method is a method for obtaining a fundamental period by detecting a peak of a cepstrum obtained by inverse Fourier transform of a logarithm of a spectrum of a sound signal.

図6には、区間Aに、当該区間より前のマイク出力信号を補間した一例が示されている。低減処理部250は、区間Aに、当該区間より前のマイク出力信号を補間する(信号補間処理)。ここで、区間Aに補間されるマイク出力信号の区間(以下、「区間B」という)は、区間Aと同じ長さの区間であって、区間Aより前に位置する区間である。例えば、低減処理部250は、区間Aの直前に位置する区間を、区間Bとしてもよい。そして、低減処理部250は、区間Bのマイク出力信号を、区間Aに補間する。これにより、低減処理部250は、区間Aのノイズを時間領域で除去する。   FIG. 6 shows an example in which the microphone output signal before the section is interpolated in the section A. The reduction processing unit 250 interpolates the microphone output signal before the section in the section A (signal interpolation process). Here, the section of the microphone output signal interpolated in section A (hereinafter referred to as “section B”) is a section having the same length as section A and positioned before section A. For example, the reduction processing unit 250 may set the section located immediately before the section A as the section B. Then, the reduction processing unit 250 interpolates the microphone output signal in the section B into the section A. Thereby, the reduction process part 250 removes the noise of the area A in a time domain.

次に、低減処理部250は、駆動音ノイズの発生している区間(時刻tc以降で、動作部が動作している区間。図2(A)のタイミングt1〜t2,t3〜t4,t4〜t5を参照。)に対しては、例えばスペクトル減算法により、マイク出力信号を周波数に対して規定された信号として、周波数領域でノイズ低減処理を実行することで、駆動音ノイズを低減させる。図7には、マイク出力信号から衝撃音ノイズ及び駆動音ノイズが低減されたノイズ低減処理信号の一例が示されている。なお、低減処理部250は、区間Aに対しても、例えばスペクトル減算法により、周波数領域でノイズ低減処理を実行してもよい。   Next, the reduction processing unit 250 is a section in which driving noise is generated (a section in which the operation unit is operating after the time tc. Timings t1 to t2, t3 to t4, t4 to t4 in FIG. 2A). (See t5.) For example, by using a spectral subtraction method, the microphone output signal is a signal defined with respect to frequency, and noise reduction processing is performed in the frequency domain, thereby reducing drive noise. FIG. 7 shows an example of a noise reduction processing signal in which impact sound noise and driving sound noise are reduced from the microphone output signal. Note that the reduction processing unit 250 may perform noise reduction processing for the section A in the frequency domain, for example, using a spectral subtraction method.

そして、低減処理部250は、マイク出力信号から衝撃音ノイズ及び駆動音ノイズが低減されたマイク出力信号を、ノイズ減算処理信号(音データ)として通信部170に出力する。これにより、ノイズ減算処理信号は、記憶媒体200に記憶される。   Then, the reduction processing unit 250 outputs the microphone output signal in which the impact sound noise and the driving sound noise are reduced from the microphone output signal to the communication unit 170 as a noise subtraction processing signal (sound data). As a result, the noise subtraction processing signal is stored in the storage medium 200.

なお、検出部191が検出したタイミングが、動作部が動作を終了したタイミングである場合、低減処理部250は、動作部が動作を終了したタイミングを含む区間のマイク出力信号を、動作部が動作を開始したタイミングを含む区間に対する場合と同様に、時間領域で除去する。そして、低減処理部250は、当該除去された区間より後の区間のマイク出力信号を、除去された区間に補間する。さらに、低減処理部250は、例えばスペクトル減算法によって、周波数領域でノイズ低減処理を実行することで、駆動音ノイズを低減させる。なお、ノイズが発生していないと判断部251により判断された時刻t2〜t3については、低減処理部250は、ノイズ低減処理を行わなくてもよい。   When the timing detected by the detection unit 191 is the timing when the operation unit ends the operation, the reduction processing unit 250 uses the microphone output signal of the section including the timing when the operation unit ends the operation as the operation unit operates. As in the case of the section including the timing at which start is started, removal is performed in the time domain. And the reduction process part 250 interpolates the microphone output signal of the area after the said removed area in the removed area. Further, the reduction processing unit 250 reduces the drive sound noise by performing noise reduction processing in the frequency domain, for example, using a spectral subtraction method. Note that the reduction processing unit 250 does not have to perform the noise reduction processing for the times t2 to t3 when the determination unit 251 determines that no noise is generated.

<減算係数について>
低減処理部250は、予め定められた区間を信号処理の単位として、ノイズの減算処理を実行する。ここで、予め定められた区間は、信号処理の単位(フレーム)であって、一定の間隔で繰り返される区間であってもよい。そして、これらの予め定められた区間は、他の予め定められた区間と半分ずつ順にオーバーラップしていてもよい。
<About subtraction coefficient>
The reduction processing unit 250 performs noise subtraction processing using a predetermined section as a unit of signal processing. Here, the predetermined section is a unit (frame) of signal processing, and may be a section repeated at a constant interval. And these predetermined sections may overlap with other predetermined sections in order of half.

そして、低減処理部250は、予め定められた区間ごとにマイク出力信号を窓関数で重み付けする。さらに、低減処理部250は、窓関数で重み付けされたマイク出力信号から、推定ノイズを周波数領域で減算することで、マイク出力信号に発生したノイズを低減させる。   Then, the reduction processing unit 250 weights the microphone output signal with a window function for each predetermined section. Further, the reduction processing unit 250 reduces noise generated in the microphone output signal by subtracting the estimated noise in the frequency domain from the microphone output signal weighted by the window function.

ここで、区間の一部のみにノイズが発生している場合、その区間に対して、推定ノイズをそのまま減算してしまうと、ノイズを低減し過ぎてしまう場合がある。このため、低減処理部250は、推定ノイズを減算係数で重み付けし、重み付けされた推定ノイズを、窓関数で重み付けされたマイク出力信号から周波数領域で減算してもよい。そして、予め定められた区間に対応する減算係数は、その区間に対応する窓関数と、区間Aの終了点である時刻tcとの相対位置に応じて、次のように定められる。   Here, when noise is generated only in a part of the section, if the estimated noise is directly subtracted from the section, the noise may be excessively reduced. For this reason, the reduction processing unit 250 may weight the estimated noise with a subtraction coefficient, and subtract the weighted estimated noise in the frequency domain from the microphone output signal weighted with the window function. Then, the subtraction coefficient corresponding to the predetermined section is determined as follows according to the relative position between the window function corresponding to the section and the time tc which is the end point of the section A.

以下、窓関数は、一例として、ハニング窓(ハニングウィンドウ)関数であるとして説明する。図8〜10には、区間Aの終了点である時刻tcと、窓関数との位置関係の一例が示されている。この時刻tcは、図5及び6に示された時刻tcである。そして、図8〜10において、予め定められた区間T1〜T4に対応する窓関数を、それぞれ窓関数W1〜W4とする。   Hereinafter, the window function will be described as an example of a Hanning window function. 8 to 10 show an example of the positional relationship between the time tc, which is the end point of the section A, and the window function. This time tc is the time tc shown in FIGS. 8 to 10, window functions corresponding to predetermined sections T1 to T4 are defined as window functions W1 to W4, respectively.

例えば、図8に示された例であれば、区間T1が時刻tcを含まず、かつ、時刻tcより前に位置する場合、区間T1に対応する減算係数は、この相対位置に応じて、定められてもよい。また、区間T2が時刻tcを含む場合、区間T2に対応する減算係数は、区間T2における、窓関数W2の面積と、時刻tc以降の窓関数W2の面積(図8の斜線部分)との比に基づいて、定められてもよい。区間T3に対応する減算係数も、同様である(図9を参照)。また、図10において、区間T4が時刻tcを含まず、かつ、時刻tcより後に位置する場合、区間T4に対応する減算係数は、この相対位置に応じて、定められてもよい。   For example, in the example shown in FIG. 8, when the section T1 does not include the time tc and is positioned before the time tc, the subtraction coefficient corresponding to the section T1 is determined according to this relative position. May be. When the section T2 includes the time tc, the subtraction coefficient corresponding to the section T2 is a ratio between the area of the window function W2 in the section T2 and the area of the window function W2 after the time tc (shaded portion in FIG. 8). May be determined based on The same applies to the subtraction coefficient corresponding to the section T3 (see FIG. 9). In FIG. 10, when the section T4 does not include the time tc and is located after the time tc, the subtraction coefficient corresponding to the section T4 may be determined according to the relative position.

なお、減算係数は、検出部191が動作部の動作開始タイミングを検出した場合と同様に、検出部191が動作部の動作終了タイミングを検出した場合にも、窓関数と時刻tcとの相対位置に応じて、定められてもよい。   Note that the subtraction coefficient is the relative position between the window function and the time tc when the detection unit 191 detects the operation end timing of the operation unit, as in the case where the detection unit 191 detects the operation start timing of the operation unit. May be determined according to

図11には、このようにして定められた減算係数の一例が示されている。図8〜10に示された例であれば、例えば、区間T1に対応する減算係数は、値「0」と、区間T2に対応する減算係数は、値「0.3」と、区間T3に対応する減算係数は、値「0.9」と、区間T4に対応する減算係数は、値「1」になる。なお、これらの値は、一例である。   FIG. 11 shows an example of the subtraction coefficient thus determined. In the example shown in FIGS. 8 to 10, for example, the subtraction coefficient corresponding to the section T1 is the value “0”, the subtraction coefficient corresponding to the section T2 is the value “0.3”, and the section T3 The corresponding subtraction coefficient is the value “0.9”, and the subtraction coefficient corresponding to the section T4 is the value “1”. Note that these values are examples.

[第2の実施形態]
本発明の第2の実施形態について図面を参照して詳細に説明する。第2の実施形態では、マイク230に収音された音(マイク出力信号)に基本周期がない点が、第1の実施例と異なる。以下、第1の実施形態との相違点のみ説明する。
[Second Embodiment]
A second embodiment of the present invention will be described in detail with reference to the drawings. The second embodiment is different from the first embodiment in that the sound (microphone output signal) collected by the microphone 230 has no basic period. Only differences from the first embodiment will be described below.

図12には、マイク出力信号(非周期音)に発生した衝撃音ノイズ及び駆動音ノイズの一例が示されている。図12において、検出部191は、動作部が動作を開始したことにより、動作部の動作開始を示すタイミングを検出したとする。そして、図12には、このタイミングを含む区間Tcにおいて、マイク出力信号に衝撃音ノイズが発生していることが示されている。さらに、衝撃音ノイズが発生した後であって、動作部が動作している区間には、マイク出力信号に駆動音ノイズが発生していることが示されている。また、区間Tcの直前の区間であって、長さが「区間Tc+(区間Tf)×2」である区間T5が示されている。ここで、区間Tc及びTfのそれぞれの長さは、予め定められていてもよい。   FIG. 12 shows an example of impact sound noise and drive sound noise generated in the microphone output signal (non-periodic sound). In FIG. 12, it is assumed that the detection unit 191 detects timing indicating the operation start of the operation unit due to the operation unit starting the operation. FIG. 12 shows that impact noise is generated in the microphone output signal in the section Tc including this timing. Further, it is shown that driving sound noise is generated in the microphone output signal after the impact sound noise is generated and in the section in which the operation unit is operating. Further, a section T5 immediately before the section Tc and having a length of “section Tc + (section Tf) × 2” is shown. Here, the lengths of the sections Tc and Tf may be determined in advance.

まず、低減処理部250は、マイク出力信号から区間Tcを除去する。図13には、時間領域で区間Tcを除去した後のマイク出力信号の一例が示されている。さらに、低減処理部250は、区間Tcの直前の区間であって、長さが「区間Tc+(区間Tf)×2」である区間T5の中点が、区間Tcの中点と一致するように、区間T5のマイク出力信号を複製する。図14には、このように複製されたマイク出力信号の一例が示されている。   First, the reduction processing unit 250 removes the section Tc from the microphone output signal. FIG. 13 shows an example of the microphone output signal after the section Tc is removed in the time domain. Further, the reduction processing unit 250 makes the midpoint of the section T5, which is the section immediately before the section Tc and whose length is “section Tc + (section Tf) × 2”, coincide with the midpoint of the section Tc. The microphone output signal of section T5 is duplicated. FIG. 14 shows an example of the microphone output signal duplicated in this way.

そして、低減処理部250は、時間領域で区間Tcを除去した後のマイク出力信号(図13を参照)と、複製されたマイク出力信号(図14を参照)とをクロスフェードさせることで、両信号を連続的に接続する。   Then, the reduction processing unit 250 crossfades the microphone output signal (see FIG. 13) after removing the section Tc in the time domain, and the duplicated microphone output signal (see FIG. 14). Connect signals continuously.

図15には、クロスフェードにおける重み付けの一例が示されている。図15に示されている実線は、時間領域で区間Tcを除去した後のマイク出力信号(図13を参照)に対する重み付けを示す。一方、破線は、複製されたマイク出力信号(図14を参照)に対する重み付けを示す。低減処理部250は、このような重み付けでクロスフェードさせることで、両信号を連続的に接続してもよい。   FIG. 15 shows an example of weighting in crossfading. The solid line shown in FIG. 15 shows the weighting for the microphone output signal (see FIG. 13) after removing the section Tc in the time domain. On the other hand, the broken line indicates the weighting for the duplicated microphone output signal (see FIG. 14). The reduction processing unit 250 may continuously connect both signals by crossfading with such weighting.

次に、低減処理部250は、駆動音ノイズの発生している区間(区間Tc以降で、動作部が動作している区間)に対しては、第1の実施例と同様に、例えばスペクトル減算法により、周波数領域でノイズ低減処理を実行することで、駆動音ノイズを低減させる。図16には、マイク出力信号から衝撃音ノイズ及び駆動音ノイズが低減されたノイズ低減処理信号の一例が示されている。   Next, the reduction processing unit 250 performs, for example, spectral subtraction for the section in which the driving sound noise is generated (section after the section Tc and in which the operating section is operating), as in the first embodiment. By using this method, noise reduction processing is executed in the frequency domain, thereby reducing drive sound noise. FIG. 16 shows an example of a noise reduction processing signal in which impact sound noise and driving sound noise are reduced from the microphone output signal.

このようにすれば、撮像装置(撮影装置)は、その判断により異ならせる処理として、衝撃音ノイズを時間領域で低減させ、衝撃音ノイズが低減されたマイク出力信号をクロスフェードさせるので、マイク出力信号に基本周期がない場合でも、駆動音ノイズばかりでなく衝撃音ノイズを低減させることができる。   In this way, the imaging device (imaging device) reduces the impact sound noise in the time domain and crossfades the microphone output signal in which the impact sound noise is reduced as a process to be varied depending on the judgment. Even when the signal has no fundamental period, not only driving noise but also impact noise can be reduced.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

例えば、検出部191は、ズームレンズ114が光学系111内を移動することにより、ズームレンズ114の移動範囲を制限する端部に当たるタイミングを、ズームレンズ114の移動量に基づいて推定してもよい。これにより、検出部191は、ズームレンズ114の移動範囲を制限する端部に当たることにより発生する衝撃音ノイズの発生タイミングを、推定することができる。   For example, the detection unit 191 may estimate the timing at which the zoom lens 114 hits the end that limits the movement range of the zoom lens 114 as the zoom lens 114 moves in the optical system 111 based on the amount of movement of the zoom lens 114. . Thereby, the detection unit 191 can estimate the generation timing of the impact noise generated by hitting the end that limits the movement range of the zoom lens 114.

また、例えば、検出部191は、タイミングを示す信号と、マイク出力信号とを併用して、動作部が動作するタイミングを検出してもよい。例えば、衝撃音ノイズは、高周波数成分を含むため、検出部191は、マイク出力信号を高域通過フィルタに通し、通過したマイク出力信号のパワーの強弱に基づいて、動作部が動作するタイミングを検出してもよい。   For example, the detection unit 191 may detect the timing at which the operation unit operates by using a signal indicating timing and a microphone output signal in combination. For example, since the impact noise includes a high frequency component, the detection unit 191 passes the microphone output signal through a high-pass filter, and determines the timing at which the operation unit operates based on the strength of the power of the microphone output signal that has passed. It may be detected.

また、例えば、光学系111が撮像装置100に着脱可能である場合、マイク230、音信号処理部240、又は低減処理部250のいずれかは、光学系(レンズ等)による像を形成する光学系111を備えた光学装置(例えば、レンズ鏡筒)に備えられてもよい。   Further, for example, when the optical system 111 is detachable from the imaging apparatus 100, any one of the microphone 230, the sound signal processing unit 240, and the reduction processing unit 250 forms an image by the optical system (such as a lens). It may be provided in an optical device (for example, a lens barrel) provided with 111.

また、例えば、低減処理部250は、区間Aのマイク出力信号の値を全て「0」にする処理を省いて、区間Aのマイク出力信号を区間Bのマイク出力信号で置換してもよい。   For example, the reduction processing unit 250 may omit the process of setting all the values of the microphone output signals in the section A to “0” and replace the microphone output signals in the section A with the microphone output signals in the section B.

また、例えば、低減処理部250は、マイク出力信号に対して、SNG(Spectral Noise Gating)処理を実行してもよい。   In addition, for example, the reduction processing unit 250 may perform SNG (Spectral Noise Gating) processing on the microphone output signal.

また、例えば、減算係数は、窓関数における面積比によらず、例えば、区間における時刻tcの位置に応じて定められてもよい。   For example, the subtraction coefficient may be determined according to the position of the time tc in the section, for example, without depending on the area ratio in the window function.

また、例えば、低減処理部250は、検出部191が検出したタイミングに対して、予め定められた遅延時間を加算し、これにより得られたタイミングを含む区間のマイク出力信号を、時間領域で除去してもよい。   Further, for example, the reduction processing unit 250 adds a predetermined delay time to the timing detected by the detection unit 191, and removes the microphone output signal of the section including the timing obtained thereby in the time domain. May be.

なお、上記の説明においては、低減処理部250が、マイク230により収音された音信号に対して信号処理する場合について説明したが、本実施形態による上述した低減処理部250の処理は、このようにリアルタイムに収音された音信号に対してのみ適用されるものではない。   In the above description, the case where the reduction processing unit 250 performs signal processing on the sound signal collected by the microphone 230 has been described. However, the processing of the above-described reduction processing unit 250 according to the present embodiment is not limited to this. Thus, the present invention is not applied only to a sound signal collected in real time.

たとえば、既に録音されている音信号に対しても、この音信号と関連付けて、この音信号を録音した装置が備えている動作部が動作することを示すタイミングが、たとえば、記憶媒体200などの記憶部に記録されている場合にも、本実施形態による低減処理部250は、上述した信号処理を同様に、実行することができる。   For example, for a sound signal that has already been recorded, the timing indicating that the operation unit of the device that has recorded the sound signal is operated in association with the sound signal. Even when recorded in the storage unit, the reduction processing unit 250 according to the present embodiment can similarly perform the signal processing described above.

また、検出部191、判断部251、又は低減処理部250による手順であって、図2〜16を用いて上述した手順を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものであってもよい。   Further, the procedure by the detection unit 191, the determination unit 251, or the reduction processing unit 250, which is a program for realizing the procedure described above with reference to FIGS. An execution process may be performed by causing a computer system to read and execute a program recorded on a recording medium. Here, the “computer system” may include hardware such as an OS (Operating System) and peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above.
Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

100…撮像装置、110…撮像部、190…CPU、191…検出部、170…通信部、200…記憶媒体、230…マイク、240…音信号処理部、250…低減処理部、251…判断部 DESCRIPTION OF SYMBOLS 100 ... Imaging device, 110 ... Imaging part, 190 ... CPU, 191 ... Detection part, 170 ... Communication part, 200 ... Storage medium, 230 ... Microphone, 240 ... Sound signal processing part, 250 ... Reduction processing part, 251 ... Determination part

Claims (11)

光学系による像を撮影する撮影部と、
音波を電気信号に変換するマイクと、
撮影状態を検出するセンサにより検出されたセンサ信号、及び、撮影を制御するための制御信号のうち少なくとも一方を検出する信号検出部と、
前記センサ信号及び前記制御信号のうち少なくとも一方を用いて、撮影動作に変化があるか否かを判断する判断部と、
前記判断部が撮影動作に変化があると判断したときと、前記判断部が撮影動作に変化があると判断しないときとで、前記電気信号のノイズを低減させる処理を異ならせるノイズ処理部とを含むことを特徴とする撮影装置。
A photographing unit for photographing an image by an optical system;
A microphone that converts sound waves into electrical signals;
A signal detection unit for detecting at least one of a sensor signal detected by a sensor for detecting a shooting state and a control signal for controlling shooting;
A determination unit that determines whether or not there is a change in a shooting operation using at least one of the sensor signal and the control signal;
A noise processing unit for differentiating processing for reducing noise of the electrical signal when the determination unit determines that there is a change in the shooting operation and when the determination unit does not determine that there is a change in the shooting operation; An imaging device comprising:
請求項1に記載された撮影装置であって、
前記ノイズ処理部は、前記判断部が撮影動作に変化があると判断したとき、前記電気信号を時間領域でノイズ低減処理を行い、前記判断部が撮影動作に変化があると判断しないとき、前記電気信号を周波数領域でノイズ低減処理を行うことを特徴とする撮影装置。
An imaging apparatus according to claim 1,
The noise processing unit performs noise reduction processing on the electrical signal in a time domain when the determination unit determines that there is a change in shooting operation, and when the determination unit does not determine that there is a change in shooting operation, An imaging apparatus, wherein an electrical signal is subjected to noise reduction processing in a frequency domain.
請求項1に記載された撮影装置であって、
前記ノイズ処理部は、前記判断部が撮影動作に変化があると判断したとき、前記電気信号を時間軸に対して規定された信号としてノイズ低減処理を行い、前記判断部が撮影動作に変化があると判断しないとき、前記電気信号を周波数に対して規定された信号としてノイズ低減処理を行うことを特徴とする撮影装置。
An imaging apparatus according to claim 1,
When the determination unit determines that there is a change in the shooting operation, the noise processing unit performs noise reduction processing using the electrical signal as a signal defined with respect to a time axis, and the determination unit changes the shooting operation. When it is not determined that there is an image pickup apparatus, noise reduction processing is performed using the electrical signal as a signal defined with respect to frequency.
請求項1から請求項3までの何れか1項に記載された撮影装置であって、
前記ノイズ処理部は、前記電気信号のうち撮影動作に変化があると判断された時刻を含む時間領域についてノイズ低減処理を行った後、
前記電気信号を周波数に対して規定された信号としてノイズ低減処理を行うことを特徴とする撮影装置。
It is an imaging device given in any 1 paragraph of Claims 1-3,
The noise processing unit performs noise reduction processing for a time region including a time at which it is determined that there is a change in the shooting operation of the electrical signal,
An imaging apparatus, wherein noise reduction processing is performed using the electrical signal as a signal defined with respect to frequency.
請求項1から請求項4までの何れか1項に記載された撮影装置であって、
前記判断部は、衝撃音を生じさせる撮影動作の変化があるか否かを判断することを特徴とする撮影装置。
It is an imaging device given in any 1 paragraph of Claims 1-4,
The determination unit is configured to determine whether or not there is a change in a photographing operation that causes an impact sound.
請求項1から請求項5までの何れか1項に記載された撮影装置であって、
前記判断部が判断する撮影動作の変化は、撮影において駆動されるアクチュエータの動作変化、撮影者が操作可能な操作部の動作変化のうち少なくとも一方であることを特徴とする撮影装置。
An imaging apparatus according to any one of claims 1 to 5, wherein
The imaging device change determined by the determination unit is at least one of an operation change of an actuator driven in imaging and an operation change of an operation unit operable by a photographer.
請求項1から請求項6までの何れか1項に記載された撮影装置であって、
前記判断部は、前記電気信号を用いて撮影動作に変化があるか否かを判断することを特徴とする撮影装置。
It is an imaging device given in any 1 paragraph of Claims 1-6,
The determination unit determines whether there is a change in a shooting operation using the electrical signal.
請求項1から請求項7までの何れか1項に記載された撮影装置であって、
前記判断部は、撮影動作の開始、及び、撮影動作の終了の少なくとも一方について判断し、
前記ノイズ処理部は、前記判断部が撮影動作の開始であると判断したとき、撮影動作の開始前の前記電気信号を用いてノイズ低減処理を行い、前記判断部が撮影動作の終了であると判断したとき、撮影動作の終了後の前記電気信号を用いてノイズ低減処理を行うことを特徴とする撮影装置。
It is an imaging device given in any 1 paragraph of Claims 1-7,
The determination unit determines at least one of the start of the shooting operation and the end of the shooting operation,
When the determination unit determines that the photographing operation is started, the noise processing unit performs noise reduction processing using the electrical signal before the start of the photographing operation, and the determination unit determines that the photographing operation is finished. When the determination is made, a noise reduction process is performed using the electrical signal after the end of the shooting operation.
光学系による像を形成する光学系と、
音波を電気信号に変換するマイクと、
撮影状態を検出するセンサにより検出されたセンサ信号、及び、撮影を制御するための制御信号のうち少なくとも一方を検出する信号検出部と、
前記センサ信号及び前記制御信号のうち少なくとも一方を用いて、撮影動作に変化があるか否かを判断する判断部と、
前記判断部が撮影動作に変化があると判断したときと、前記判断部が撮影動作に変化があると判断しないときとで、前記電気信号のノイズを低減させる処理を異ならせるノイズ処理部とを含むことを特徴とする光学装置。
An optical system for forming an image by the optical system;
A microphone that converts sound waves into electrical signals;
A signal detection unit for detecting at least one of a sensor signal detected by a sensor for detecting a shooting state and a control signal for controlling shooting;
A determination unit that determines whether or not there is a change in a shooting operation using at least one of the sensor signal and the control signal;
A noise processing unit for differentiating processing for reducing noise of the electrical signal when the determination unit determines that there is a change in the shooting operation and when the determination unit does not determine that there is a change in the shooting operation; An optical device comprising:
請求項9に記載された光学装置であって、
前記ノイズ処理部は、前記判断部が撮影動作に変化があると判断したとき、前記電気信号を時間軸に対して規定された信号としてノイズ低減処理を行い、前記判断部が撮影動作に変化があると判断しないとき、前記電気信号を周波数に対して規定された信号としてノイズ低減処理を行うことを特徴とする光学装置。
The optical device according to claim 9, comprising:
When the determination unit determines that there is a change in the shooting operation, the noise processing unit performs noise reduction processing using the electrical signal as a signal defined with respect to a time axis, and the determination unit changes the shooting operation. When it is not determined that there is an optical device, noise reduction processing is performed using the electrical signal as a signal defined with respect to frequency.
コンピュータに、
撮影時に取得された音響信号、及び、撮影状態を検出するセンサにより検出されたセンサ信号及び撮影を制御するための制御信号のうち少なくとも一方を受け取る入力手順と、
前記センサ信号及び前記制御信号のうち少なくとも一方を用いて、撮影動作に変化があったか否かを判断する判断手順と、
撮影動作に変化があったと判断したときと、前記判断部が撮影動作に変化があったと判断しないときとで、前記音響信号のノイズを低減させる処理を異ならせるノイズ処理手順とを実行させるためのプログラム。
On the computer,
An input procedure for receiving at least one of an acoustic signal acquired at the time of shooting, a sensor signal detected by a sensor for detecting a shooting state, and a control signal for controlling shooting;
A determination procedure for determining whether or not there has been a change in photographing operation using at least one of the sensor signal and the control signal;
A noise processing procedure for performing different processing for reducing noise of the acoustic signal between when it is determined that there is a change in the shooting operation and when the determination unit does not determine that there is a change in the shooting operation program.
JP2009250337A 2009-10-28 2009-10-30 Imaging device, optical device, and program Expired - Fee Related JP5423319B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009250337A JP5423319B2 (en) 2009-10-30 2009-10-30 Imaging device, optical device, and program
US12/913,907 US8698911B2 (en) 2009-10-28 2010-10-28 Sound recording device, imaging device, photographing device, optical device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009250337A JP5423319B2 (en) 2009-10-30 2009-10-30 Imaging device, optical device, and program

Publications (2)

Publication Number Publication Date
JP2011097419A true JP2011097419A (en) 2011-05-12
JP5423319B2 JP5423319B2 (en) 2014-02-19

Family

ID=44113850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009250337A Expired - Fee Related JP5423319B2 (en) 2009-10-28 2009-10-30 Imaging device, optical device, and program

Country Status (1)

Country Link
JP (1) JP5423319B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001176215A (en) * 1999-12-16 2001-06-29 Sony Corp Method and device for processing audio signal
JP2001267974A (en) * 2000-03-23 2001-09-28 Fujitsu Ltd Signal processing filter system
JP2004080788A (en) * 2002-08-15 2004-03-11 Hewlett-Packard Development Co Lp Camera and method to reduce noise in camera
JP2006203376A (en) * 2005-01-19 2006-08-03 Casio Comput Co Ltd Electronic camera, noise reducing device and noise reducing method
JP2006243644A (en) * 2005-03-07 2006-09-14 Nippon Telegr & Teleph Corp <Ntt> Method for reducing noise, device, program, and recording medium
JP2006270591A (en) * 2005-03-24 2006-10-05 Nikon Corp Electronic camera, data reproducing device and program
JP2006279185A (en) * 2005-03-28 2006-10-12 Casio Comput Co Ltd Imaging apparatus, and sound recording method and program
JP2008053802A (en) * 2006-08-22 2008-03-06 Sony Corp Recorder, noise removing method, and noise removing device
JP2008058343A (en) * 2006-08-29 2008-03-13 Casio Comput Co Ltd Mechanism driving sound reduction apparatus and mechanism driving sound reduction method
JP2008197209A (en) * 2007-02-09 2008-08-28 Nikon Corp Camera

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001176215A (en) * 1999-12-16 2001-06-29 Sony Corp Method and device for processing audio signal
JP2001267974A (en) * 2000-03-23 2001-09-28 Fujitsu Ltd Signal processing filter system
JP2004080788A (en) * 2002-08-15 2004-03-11 Hewlett-Packard Development Co Lp Camera and method to reduce noise in camera
JP2006203376A (en) * 2005-01-19 2006-08-03 Casio Comput Co Ltd Electronic camera, noise reducing device and noise reducing method
JP2006243644A (en) * 2005-03-07 2006-09-14 Nippon Telegr & Teleph Corp <Ntt> Method for reducing noise, device, program, and recording medium
JP2006270591A (en) * 2005-03-24 2006-10-05 Nikon Corp Electronic camera, data reproducing device and program
JP2006279185A (en) * 2005-03-28 2006-10-12 Casio Comput Co Ltd Imaging apparatus, and sound recording method and program
JP2008053802A (en) * 2006-08-22 2008-03-06 Sony Corp Recorder, noise removing method, and noise removing device
JP2008058343A (en) * 2006-08-29 2008-03-13 Casio Comput Co Ltd Mechanism driving sound reduction apparatus and mechanism driving sound reduction method
JP2008197209A (en) * 2007-02-09 2008-08-28 Nikon Corp Camera

Also Published As

Publication number Publication date
JP5423319B2 (en) 2014-02-19

Similar Documents

Publication Publication Date Title
US8698911B2 (en) Sound recording device, imaging device, photographing device, optical device, and program
JP2006270591A (en) Electronic camera, data reproducing device and program
US8860822B2 (en) Imaging device
JP2004080788A (en) Camera and method to reduce noise in camera
JP5024470B2 (en) Imaging apparatus, signal processing apparatus, and recording medium
JP4826402B2 (en) Recording device, noise removal method, noise removal device
JP5435082B2 (en) Noise reduction processing device, camera, and noise reduction processing program
JP5361398B2 (en) Imaging device
JP2011114465A (en) Voice processing apparatus and electronic camera
JP2013117585A (en) Imaging unit, information processing unit and control method thereof, program, and sound processing unit
US20120250885A1 (en) Signal-processing device, imaging apparatus, and signal-processing program
JP5428762B2 (en) Imaging apparatus and program
JP5423319B2 (en) Imaging device, optical device, and program
JP5158054B2 (en) Recording device, imaging device, and program
JP2014022953A (en) Signal processing device, image pickup device, and noise reduction processing method and program
JP2013250449A (en) Noise reduction device, and imaging device and program
JP6061476B2 (en) Audio processing device
JP2012185445A (en) Signal processor, imaging apparatus and program
JP2011095305A (en) Sound recording device, imaging device and program
JP5736839B2 (en) Signal processing apparatus, imaging apparatus, and program
JP2013178458A (en) Signal processing device and signal processing program
JP2014041300A (en) Signal processing device, imaging device, and program
JP2013250448A (en) Noise reduction device, and imaging device and program
JP2013178456A (en) Signal processor, camera and signal processing program
JP2006211437A (en) Electronic camera and device and method for reducing noise

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131111

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5423319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees