JP6071188B2 - Audio signal processing device - Google Patents

Audio signal processing device Download PDF

Info

Publication number
JP6071188B2
JP6071188B2 JP2011265066A JP2011265066A JP6071188B2 JP 6071188 B2 JP6071188 B2 JP 6071188B2 JP 2011265066 A JP2011265066 A JP 2011265066A JP 2011265066 A JP2011265066 A JP 2011265066A JP 6071188 B2 JP6071188 B2 JP 6071188B2
Authority
JP
Japan
Prior art keywords
unit
audio
sound
signal
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011265066A
Other languages
Japanese (ja)
Other versions
JP2013117635A (en
Inventor
裕一 市来
裕一 市来
櫻井 博史
博史 櫻井
堀間 勝利
勝利 堀間
木村 哲哉
哲哉 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011265066A priority Critical patent/JP6071188B2/en
Publication of JP2013117635A publication Critical patent/JP2013117635A/en
Application granted granted Critical
Publication of JP6071188B2 publication Critical patent/JP6071188B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本発明は、音声信号処理装置に関する。   The present invention relates to an audio signal processing device.

従来、音声信号処理装置として撮像装置が知られており、撮像装置においては、撮像した画像から動画データを生成し、同時に集音した音声を動画データの音声信号として記録することができるものが知られている。   Conventionally, an imaging device is known as an audio signal processing device, and an imaging device that can generate moving image data from a captured image and simultaneously record the collected sound as an audio signal of the moving image data is known. It has been.

このような撮像装置においては、撮像のために、レンズや絞りなどが駆動したことにより生じる駆動音(ノイズ、雑音)が集音されてしまった場合などに、その駆動音を低減する信号処理を行うものが登場してきている。例えば、特許文献1には、駆動部の非動作中の音声に基づいて、線形予測法により予測波形信号を生成し、駆動部の動作中の音声信号と、生成した予測波形信号とを所定の割合で合成する技術と所定の比率で合成する技術が開示されている。合成比率は、1:0から0:1に徐々に変化するようにしており、いわゆるクロスフェードさせながら合成しているといえる。   In such an imaging device, when driving sound (noise, noise) generated by driving a lens or a diaphragm is collected for imaging, signal processing for reducing the driving sound is performed. Things to do are appearing. For example, in Patent Document 1, a predicted waveform signal is generated by a linear prediction method based on a voice during non-operation of the drive unit, and a voice signal during operation of the drive unit and the generated predicted waveform signal are set to a predetermined value. A technique for synthesizing at a ratio and a technique for synthesizing at a predetermined ratio are disclosed. The synthesis ratio is gradually changed from 1: 0 to 0: 1, and it can be said that synthesis is performed while performing so-called crossfading.

特開2011−002723号公報JP 2011-002723 A

しかしながら、特許文献1に示すような方式で雑音低減を行う場合、予測波形信号を生成する際に、演算負荷が増大してしまうという問題があった。   However, when noise reduction is performed by the method shown in Patent Document 1, there is a problem in that the calculation load increases when generating a predicted waveform signal.

そこで、本発明は、このような問題に鑑み、駆動部の駆動していない期間の音声信号に基づいて信号を生成し、その生成された信号に基づいて駆動音を低減する処理を行う場合、演算量を低減することができる音声信号処理装置を提供することを目的とする。   Therefore, in view of such a problem, the present invention generates a signal based on an audio signal during a period when the driving unit is not driven, and performs a process of reducing driving sound based on the generated signal. An object of the present invention is to provide an audio signal processing device capable of reducing the amount of calculation.

このような目的を達成するために、本発明の音声信号処理装置は、駆動部を有する音声信号処理装置であって、前記駆動部の駆動を制御する制御手段と、前記音声信号処理装置の周囲の音声を示す、所定のサンプリング周波数でデジタル化された音声信号を取得する取得手段と、前記取得手段により取得された音声信号を処理する音声処理手段であって、前記駆動部が駆動していないときに前記取得手段により取得された音声信号のデータ量を減少させた信号に基づいて補正音信号を生成し、前記駆動部が駆動したときに前記取得手段により取得された音声信号と前記補正音信号とを所定の合成比率で合成した信号を用いて、前記駆動部が駆動したときに前記取得手段により取得された音声信号における、前記駆動部の駆動による駆動音を低減する音声処理手段とを有し、前記音声処理手段は、前記駆動部が駆動していないときに前記取得手段により取得された音声信号の音声レベルに基づいて、前記駆動部が駆動していないときに前記取得手段により取得された音声信号の音声レベルが小さいほど前記補正音信号の合成比率を大きくするように、前記合成比率を決定することを特徴とする。   In order to achieve such an object, an audio signal processing device of the present invention is an audio signal processing device having a drive unit, and includes a control unit that controls driving of the drive unit, and a periphery of the audio signal processing device. An acquisition means for acquiring an audio signal digitized at a predetermined sampling frequency, and an audio processing means for processing the audio signal acquired by the acquisition means, wherein the drive unit is not driven Sometimes a correction sound signal is generated based on a signal obtained by reducing the data amount of the sound signal acquired by the acquisition means, and the sound signal and the correction sound acquired by the acquisition means when the driving unit is driven. Using the signal synthesized with a predetermined synthesis ratio, the driving sound due to the driving of the driving unit is reduced in the audio signal acquired by the acquiring unit when the driving unit is driven. And when the drive unit is not driven based on the audio level of the audio signal acquired by the acquisition unit when the drive unit is not driven. Further, the synthesis ratio is determined so that the synthesis ratio of the corrected sound signal is increased as the voice level of the voice signal acquired by the acquisition means is smaller.

本発明によれば、駆動部の駆動していない期間の音声信号に基づいて信号を生成し、その生成された信号に基づいて駆動音を低減する処理を行う場合、演算量を低減することができる。   According to the present invention, when a signal is generated based on an audio signal during a period in which the drive unit is not driven and the process of reducing the drive sound is performed based on the generated signal, the amount of calculation can be reduced. it can.

撮像装置100の構成を示す図である。1 is a diagram illustrating a configuration of an imaging apparatus 100. FIG. 本実施例の雑音低減処理の動作の制御を説明するためのフロー図である。It is a flowchart for demonstrating control of the operation | movement of the noise reduction process of a present Example. 本実施例の音声処理部121の機能ブロック示す図である。It is a figure which shows the functional block of the audio | voice processing part 121 of a present Example.

以下、図面を参照して本発明の実施例を詳細に説明するが、この発明は以下の実施の形態に限定されるものではない。   Hereinafter, examples of the present invention will be described in detail with reference to the drawings. However, the present invention is not limited to the following embodiments.

本実施例では、音声信号処理装置の一例として撮像装置を例にとって説明するが、撮像装置でなくとも、駆動部を有し、音声信号処理を行うことができる装置であればどのような装置であっても良い。例えば、携帯電話、コンピュータ、ゲーム機などであっても良い。   In this embodiment, an image pickup apparatus will be described as an example of an audio signal processing apparatus. However, any apparatus may be used as long as the apparatus has a drive unit and can perform audio signal processing, instead of the image pickup apparatus. There may be. For example, a mobile phone, a computer, a game machine, etc. may be used.

本実施例の撮像装置100は、撮像レンズ、絞り、シャッターなどを駆動させるためのアクチュエータなどの駆動部を有し、また、周囲の音声を集音する為の集音部(マイクユニット)を有する。本実施例の撮像装置100は、このような構成を有し、駆動部の駆動している期間の音声信号に対して、駆動部の駆動していない期間の音声信号に基づいて生成された補正音信号を所定の割合で合成することにより、駆動部の駆動音を低減することができる。   The imaging apparatus 100 according to the present embodiment includes a driving unit such as an actuator for driving an imaging lens, a diaphragm, a shutter, and the like, and a sound collecting unit (microphone unit) for collecting surrounding sounds. . The imaging apparatus 100 according to the present embodiment has such a configuration, and the correction generated based on the audio signal during the period when the drive unit is not driven with respect to the audio signal during the period when the drive unit is driven. By synthesizing the sound signals at a predetermined ratio, it is possible to reduce the drive sound of the drive unit.

本実施例の撮像装置100の特徴的な動作の一つは、補正音信号を生成する際の処理にある。   One of the characteristic operations of the imaging apparatus 100 according to the present embodiment is processing when generating a corrected sound signal.

音声は、音声入力部であるたとえばマイクユニットによりアナログ音声信号として取得され、たとえば、A/D変換回路で48kHzのサンプリング周波数でサンプリングされてデジタル音声信号に変換される。そして、音声処理部にて、音量調整処理や周波数フィルタによる周波数制限処理などが施されてRAMに記憶される。   The voice is acquired as an analog voice signal by, for example, a microphone unit which is a voice input unit, and is sampled at a sampling frequency of 48 kHz by, for example, an A / D conversion circuit and converted into a digital voice signal. Then, the sound processing unit performs volume adjustment processing, frequency restriction processing using a frequency filter, and the like, and stores them in the RAM.

そして、駆動部が駆動する場合には、RAMに記憶されている駆動部の駆動していない期間の音声信号に基づいて補正音信号を生成し、RAMに記憶されている駆動部の駆動している期間の音声信号に対して所定の割合で合成する。   And when a drive part drives, a correction sound signal is produced | generated based on the audio | voice signal of the period which the drive part memorize | stored memorize | stored in RAM, the drive part memorize | stored in RAM drives It synthesize | combines with the predetermined ratio with respect to the audio | voice signal of a certain period.

補正音信号を生成のする際には、まず、RAMに記憶されている駆動部の駆動していない期間の音声信号を読出し、例えば、3サンプリング毎の加算平均値を算出してサンプリング数を1/3に減少させる。すなわち、48kHzの音声信号を16kHzに変換し、サンプリング数を減少させるような処理を行う。   When generating the corrected sound signal, first, the sound signal stored in the RAM during the period when the driving unit is not driven is read, and, for example, an average value for every three samplings is calculated and the sampling number is set to 1. Reduce to / 3. In other words, the 48 kHz audio signal is converted to 16 kHz, and processing is performed to reduce the number of samplings.

そして、サンプリング数を減少させた駆動部の駆動していない期間の音声信号に基づいて補正音信号を生成する。ここで生成された補正音信号は16kHzの音声信号となり、記録される音声信号とサンプリング周波数をあわせるため、サンプリング数を3倍にして、48kHzの信号に変換する。サンプリング数の増やし方の一つとしては、生成された16kHzの補間信号の各サンプルを直線補間する方法がある。また、その後、さらに、ローパスフィルタを掛け補正音信号の急峻な変化を抑制するようにしても良い。
なお、サンプリング数の増やし方はこれ以外の方法であっても良い。
And a correction sound signal is produced | generated based on the audio | voice signal of the period which the drive part which reduced the number of sampling is not driving. The corrected sound signal generated here is a 16 kHz audio signal, and in order to match the recorded audio signal and the sampling frequency, the sampling number is tripled and converted to a 48 kHz signal. One way to increase the number of samples is to linearly interpolate each sample of the generated 16 kHz interpolated signal. Further, after that, a rapid change in the correction sound signal may be suppressed by applying a low-pass filter.
Note that other methods may be used to increase the number of samplings.

また、本実施例の撮像装置100のさらに特徴的な動作の一つは、生成された補正音信号を駆動部の駆動している期間の音声信号に合成する際の処理にもある。   Further, one of the more characteristic operations of the imaging apparatus 100 according to the present embodiment is also a process for synthesizing the generated corrected sound signal with the sound signal during the period during which the drive unit is driven.

すなわち、補正音信号の基となる駆動部の駆動音の含まれていない期間の音声のレベルに応じて、補正音信号の合成比率を変更するのである。なお、駆動部の駆動音の含まれていない期間の音声のレベルが大きくなるにつれて、補正音信号の合成割合を低下させ、駆動部の駆動音の含まれていない期間の音声のレベルが小さくなるにつれて、補正音信号の合成割合を増加させる。   That is, the synthesis ratio of the correction sound signal is changed according to the sound level during the period in which the drive sound of the drive unit that is the basis of the correction sound signal is not included. It should be noted that as the sound level of the drive unit that does not include the driving sound increases, the correction sound signal synthesis ratio is decreased, and the sound level of the drive unit that does not include the drive sound decreases. As a result, the synthesis rate of the corrected sound signal is increased.

本実施例の撮像装置100は、このような動作を行うことにより、駆動部の駆動していない期間の音声信号に基づいて予測波形信号を生成する演算量を低減することができる。さらに、生成された補正音信号に含まれる可能性のあるノイズ(16kHzのナイキスト周波数以上の周波数の音声が折り返し歪みを起こすことで発生するノイズ)を目立たなくすることができる。   By performing such an operation, the imaging apparatus 100 according to the present embodiment can reduce the amount of calculation for generating the predicted waveform signal based on the audio signal during the period when the driving unit is not driven. Furthermore, noise that may be included in the generated corrected sound signal (noise generated when a voice having a frequency equal to or higher than the Nyquist frequency of 16 kHz causes aliasing distortion) can be made inconspicuous.

以下、このような撮像装置についてについて説明する。   Hereinafter, such an imaging apparatus will be described.

<全体構成>
図1は、本実施例の撮像装置100の構成を示すブロック図である。
<Overall configuration>
FIG. 1 is a block diagram illustrating a configuration of the imaging apparatus 100 according to the present exemplary embodiment.

撮像装置100は、CPU101、RAM102、FlashROM103、操作部104を有する。また、撮像装置100は、撮像部110、画像処理部111、音声入力部120、音声処理部121、表示部130、表示制御部131、音声出力部132、記録媒体140、記録再生部141、通信部150を有する。また、撮像装置100は、符号化復号化処理部160を有する。   The imaging apparatus 100 includes a CPU 101, a RAM 102, a flash ROM 103, and an operation unit 104. The imaging apparatus 100 includes an imaging unit 110, an image processing unit 111, an audio input unit 120, an audio processing unit 121, a display unit 130, a display control unit 131, an audio output unit 132, a recording medium 140, a recording / playback unit 141, and a communication. Part 150. In addition, the imaging apparatus 100 includes an encoding / decoding processing unit 160.

図1において、CPU101は、FlashROM103に記録された撮像装置100の制御プログラムをRAM102に展開し、RAM102をワークメモリとして使用しながら、撮像装置100の各ブロックを制御するものである。操作部104は、例えば、電源ボタン、記録ボタン、ズーム調整ボタン、オートフォーカスボタンなどの撮影に関連する各種操作を入力するスイッチ類を有する。また、メニュー表示ボタン、決定ボタン、その他カーソルキー、ポインティングデバイス、タッチパネル等を備え、ユーザによりこれらのキーやボタン、タッチパネルが操作されるとCPU101に操作信号を送信する。   In FIG. 1, a CPU 101 develops a control program for the image capturing apparatus 100 recorded in the Flash ROM 103 in a RAM 102 and controls each block of the image capturing apparatus 100 while using the RAM 102 as a work memory. The operation unit 104 includes switches for inputting various operations related to shooting such as a power button, a record button, a zoom adjustment button, and an autofocus button. In addition, a menu display button, a determination button, other cursor keys, a pointing device, a touch panel, and the like are provided, and an operation signal is transmitted to the CPU 101 when the user operates these keys, buttons, or touch panel.

撮像部110は、レンズにより取り込まれた被写体の光学像を、絞りにより光量を制御して、CCDセンサやCMOSセンサ等の撮像素子により画像信号に変換し、得られたアナログ画像信号をデジタル画像信号に変換して一時的にRAM102に記憶するものである。RAM102に記憶されたデジタル画像信号は、その後、画像処理部111に送信される。画像処理部111は、次の処理を実行するプログラムを搭載したマイクロコンピュータである。画像処理部111は、デジタル画像信号のホワイトバランスや色、明るさなどをユーザに設定された設定値や画像の特性から自動的に判定した設定値に基づいて調整する画質調整処理を行い、処理をしたデジタル画像信号を再びRAM102に記憶させるものである。なお、画像処理部111の処理は、CPU101がFlashROM103に記録された前述の処理を実行する為のプログラムをRAM102に展開して実行するようにしてもよい。なお、撮像部110は、撮像レンズ、絞り、シャッターおよび、これらを駆動させるアクチュエータなどの様々な駆動部を有する。また、撮像装置100が交換レンズ式の撮像装置である場合には、撮像部110は、レンズユニットを交換可能に装着することができる装着部を有する。レンズユニットは、撮像素子に被写体の光学像を導くものであり、装着部は異なる種類のレンズユニットを交換して装着することができる。   The imaging unit 110 converts an optical image of a subject captured by a lens into an image signal using an imaging element such as a CCD sensor or a CMOS sensor by controlling a light amount by a diaphragm, and converts the obtained analog image signal into a digital image signal. And temporarily stored in the RAM 102. The digital image signal stored in the RAM 102 is then transmitted to the image processing unit 111. The image processing unit 111 is a microcomputer equipped with a program that executes the following processing. The image processing unit 111 performs an image quality adjustment process for adjusting the white balance, color, brightness, and the like of the digital image signal based on a setting value set by the user or a setting value automatically determined from the characteristics of the image. The digital image signal that has been processed is stored in the RAM 102 again. Note that the processing of the image processing unit 111 may be executed by the CPU 101 developing a program for executing the above-described processing recorded in the flash ROM 103 on the RAM 102. The imaging unit 110 includes various driving units such as an imaging lens, a diaphragm, a shutter, and an actuator that drives these lenses. When the imaging device 100 is an interchangeable lens type imaging device, the imaging unit 110 includes a mounting unit that can replace the lens unit. The lens unit guides the optical image of the subject to the image sensor, and the mounting unit can be mounted by exchanging different types of lens units.

音声入力部120は、たとえば、内蔵された無指向性のマイクにより、撮像装置100の周囲の音声を集音(収音)し、得られたアナログ音声信号をA/D変換部によりデジタル化してデジタル音声信号を取得するものである。本実施例においては、例えば、アナログ音声信号を48kHzのサンプリング周波数でサンプリングしてデジタル音声信号に変換するものとする。そして、音声入力部120で取得されたデジタル音声信号は、音声処理部121に送信される。音声処理部121は、次の処理を実行するプログラムを搭載したマイクロコンピュータである。音声処理部121では、記録時においては、レベルの適正化処理や周波数制限処理、雑音低減処理等の処理を行い、処理をしたデジタル音声信号をRAM102に記憶させるものである。また、必要に応じて、音声信号を圧縮する処理を行う。音声圧縮方式については、AC3、AAC等の公知の一般的な音声圧縮方式を用いており、本発明の特徴とは関係ないので説明を省略する。また、再生時においては、記録媒体140から記録再生部141によって読出された音声ファイルや動画ファイルに含まれる圧縮音声データ復号する処理も行う。なお、音声処理部121の処理は、CPU101がFlashROM103に記録された前述の処理を実行する為のプログラムをRAM102に展開して実行するようにしてもよい。   The voice input unit 120 collects (collects) sounds around the imaging apparatus 100 using, for example, a built-in omnidirectional microphone, and digitizes the obtained analog voice signal by the A / D conversion unit. A digital audio signal is acquired. In the present embodiment, for example, an analog audio signal is sampled at a sampling frequency of 48 kHz and converted into a digital audio signal. The digital audio signal acquired by the audio input unit 120 is transmitted to the audio processing unit 121. The voice processing unit 121 is a microcomputer equipped with a program that executes the following processing. At the time of recording, the audio processing unit 121 performs processing such as level optimization processing, frequency limiting processing, noise reduction processing, and the like, and stores the processed digital audio signal in the RAM 102. Moreover, the process which compresses an audio | voice signal is performed as needed. As the audio compression method, a known general audio compression method such as AC3, AAC or the like is used, and the description is omitted because it is not related to the feature of the present invention. At the time of reproduction, a process of decoding compressed audio data included in an audio file or a moving image file read from the recording medium 140 by the recording / reproducing unit 141 is also performed. The processing of the audio processing unit 121 may be executed by the CPU 101 developing a program for executing the above-described processing recorded in the flash ROM 103 on the RAM 102.

なお、本実施例の音声処理部121は、後述するように、撮像部110等の駆動部の駆動音を低減する処理を実行することができる。たとえば、本実施例においては、駆動部の駆動している期間の音声信号を、その期間の前および/または後の期間の音声信号に基づいて補正音声信号を生成し、生成した補正音声信号を駆動部の駆動している期間の音声信号に合成する処理を行うことができる。   Note that the audio processing unit 121 according to the present exemplary embodiment can execute processing for reducing driving sound of a driving unit such as the imaging unit 110 as described later. For example, in the present embodiment, a corrected audio signal is generated based on an audio signal in a period during which the drive unit is driven, based on an audio signal in a period before and / or after that period. It is possible to perform a process of synthesizing with an audio signal during a period in which the driving unit is driven.

また、表示制御部131は、表示部130に画像を表示するための表示制御を行うマイクロコンピュータであって、メモリ104に一時的に記憶されたデジタル画像信号を読み出して、表示部130に表示させる処理を行う。また、記録媒体140から記録再生部141によって読出された動画ファイルや静止画ファイルに含まれる画像データの画像を表示部130に表示させる処理も行う。表示部130は、たとえば撮像装置100に搭載された液晶パネルや有機ELパネル等であっても良いし、撮像装置100とは別の表示装置(たとえば、テレビ、モニタ、プロジェクタ)であってもよい。なお、表示制御部131の処理は、CPU101がFlashROM103に記録された前述の処理を実行する為のプログラムをRAM102に展開して実行するようにしてもよい。   The display control unit 131 is a microcomputer that performs display control for displaying an image on the display unit 130. The display control unit 131 reads a digital image signal temporarily stored in the memory 104 and displays the digital image signal on the display unit 130. Process. In addition, the display unit 130 also displays an image of image data included in a moving image file or a still image file read from the recording medium 140 by the recording / playback unit 141. The display unit 130 may be, for example, a liquid crystal panel or an organic EL panel mounted on the imaging device 100, or may be a display device (for example, a television, a monitor, or a projector) different from the imaging device 100. . Note that the processing of the display control unit 131 may be executed by the CPU 101 developing a program for executing the above-described processing recorded in the flash ROM 103 on the RAM 102.

符号化復号化処理部160は、次の処理を実行するプログラムを搭載したマイクロコンピュータである。符号化復号化処理部160では、記録時においては、画像処理部111により処理されRAM102に記憶されたデジタル画像信号に基づいて、画像圧縮処理を行い、圧縮された動画データや静止画データを生成し、RAM102に一時的に記憶する処理を行う。また、再生時においては、記録媒体140から読出された画像ファイルの圧縮された動画データや静止画データを復号してデジタル画像信号を抽出し、RAM102に記憶していく処理を行う。なお、CPU101がFlashROM103に記録された前述の処理を実行する為のプログラムをRAM102に展開して実行するようにしてもよい。   The encoding / decoding processing unit 160 is a microcomputer equipped with a program for executing the following processing. At the time of recording, the encoding / decoding processing unit 160 performs image compression processing based on the digital image signal processed by the image processing unit 111 and stored in the RAM 102 to generate compressed moving image data and still image data. Then, a process of temporarily storing in the RAM 102 is performed. Further, at the time of reproduction, a process is performed in which the compressed moving image data and still image data of the image file read from the recording medium 140 is decoded to extract a digital image signal and stored in the RAM 102. Note that a program for executing the above-described processing recorded in the flash ROM 103 by the CPU 101 may be loaded into the RAM 102 and executed.

次に、記録再生部141は、次の処理を実行するプログラムを搭載したマイクロコンピュータである。記録再生部141では、動画記録時においては、RAM102に記憶されている、符号化復号化処理部160により生成された圧縮動画データ、音声処理部121で生成された音声データ、撮影日等の各種情報とともに、動画ファイルとして記録媒体140に書き込む。また静止画記録時においては、ROM102に記憶されている静止画データを撮影日等の各種情報とともに静止画ファイルとして記録媒体140に記録する。動画ファイルを記録媒体140に記録する際は、圧縮動画データと音声データとからなるデータストリームを形成し、順次記録媒体140に記録していき、ファイルヘッダ等を付加してFATやexFAT等のファイルフォーマットに適合した形で動画ファイルを記録媒体に記録する。また、再生時においては、記録媒体140に記録された動画ファイルや静止画ファイルを前述のファイルフォーマットに従って読出す。読出された動画ファイルや静止画ファイルは、CPU101によりヘッダが解析され、圧縮された動画データ、静止画データが抽出される。抽出された圧縮動画データ、静止画データは、RAM102に記憶されて、符号化復号化処理部160により復号される。なお、記録再生部141の処理は、CPU101がFlashROM103に記録された前述の処理を実行する為のプログラムをRAM102に展開して実行するようにしてもよい。   Next, the recording / reproducing unit 141 is a microcomputer equipped with a program for executing the following processing. In the recording / playback unit 141, when recording a moving image, various types of data such as the compressed moving image data generated by the encoding / decoding processing unit 160, the audio data generated by the audio processing unit 121, and the shooting date are stored in the RAM 102. Along with the information, it is written in the recording medium 140 as a moving image file. At the time of recording a still image, the still image data stored in the ROM 102 is recorded on the recording medium 140 as a still image file together with various information such as the shooting date. When recording a moving image file on the recording medium 140, a data stream composed of compressed moving image data and audio data is formed and sequentially recorded on the recording medium 140, and a file header or the like is added to a file such as FAT or exFAT. Record a video file on a recording medium in a form that conforms to the format. Further, at the time of reproduction, the moving image file and still image file recorded on the recording medium 140 are read according to the aforementioned file format. The read moving image file and still image file are analyzed for headers by the CPU 101, and compressed moving image data and still image data are extracted. The extracted compressed moving image data and still image data are stored in the RAM 102 and decoded by the encoding / decoding processing unit 160. Note that the processing of the recording / playback unit 141 may be executed by the CPU 101 developing a program for executing the above-described processing recorded in the flash ROM 103 in the RAM 102.

また、記録媒体140は、撮像装置に内蔵された記録媒体でも、取外し可能な記録媒体でもよい。例えば、ハードディスク、光ディスク、光磁気ディスク、CD−R、DVD−R、磁気テープ、不揮発性の半導体メモリ、フラッシュメモリ、などのあらゆる方式の記録媒体を含む。取り外し可能な記録媒体を用いる場合には、記録再生部141は、それらの取り外し可能な記録媒体を受け入れるためのインタフェースを含む。   Further, the recording medium 140 may be a recording medium built in the imaging apparatus or a removable recording medium. For example, the recording medium includes all types of recording media such as a hard disk, an optical disk, a magneto-optical disk, a CD-R, a DVD-R, a magnetic tape, a nonvolatile semiconductor memory, and a flash memory. When using removable recording media, the recording / reproducing unit 141 includes an interface for receiving the removable recording media.

次に音声出力部132は、例えばスピーカや音声出力端子(アナログ端子/デジタル端子)である。例えばスピーカであれば、CPU101によりflashROM103に記録されている所定のデジタル音声信号の出力が指示されたときにデジタル音声信号をアナログ音声外部に変換し、外部に音声として出力する。また、動画ファイルに格納された音声データの示すデジタル音声信号をアナログ音声信号に変換し、外部に音声として出力する。また、音声出力端子であれば、動画ファイルに格納された音声データの示すデジタル音声信号をアナログ音声信号に変換して外部装置(外付けスピーカなど)に出力するか、デジタル音声信号をそのまま外部装置(光デジタル端子搭載のオーディオコンポなど)に出力する。   Next, the audio output unit 132 is, for example, a speaker or an audio output terminal (analog terminal / digital terminal). For example, in the case of a speaker, when an output of a predetermined digital audio signal recorded in the flash ROM 103 is instructed by the CPU 101, the digital audio signal is converted to the outside of the analog audio and output to the outside as an audio. Also, the digital audio signal indicated by the audio data stored in the moving image file is converted into an analog audio signal and output to the outside as audio. If it is an audio output terminal, the digital audio signal indicated by the audio data stored in the video file is converted into an analog audio signal and output to an external device (external speaker or the like), or the digital audio signal is directly output to the external device. Output to an audio component equipped with an optical digital connector.

また、通信部150は、撮像装置100とは異なる外部装置との間で、制御信号や動画ファイル、静止画ファイル、各種データ等を送受信するものであり、有線接続、無線接続を問わず接続可能である。なお、通信方式はどのような方式であっても良い。   The communication unit 150 transmits and receives control signals, moving image files, still image files, various data, and the like with an external device different from the imaging device 100, and can be connected regardless of wired connection or wireless connection. It is. Note that any communication method may be used.

<動画撮影動作>
ここで、本実施例の撮像装置100の動画撮影動作について説明する。
<Movie shooting operation>
Here, the moving image shooting operation of the imaging apparatus 100 of the present embodiment will be described.

本実施例の撮像装置100は、ユーザが操作部104の電源ボタンを操作し、操作部104のモード切り換えスイッチが、例えば、「動画撮影モード」、「再生モード」等のどのモードであるかを操作部104からの指示信号により確認する。そして、「動画撮影モード」であると判定すると以下の動作を開始する。   In the imaging apparatus 100 according to the present exemplary embodiment, the user operates the power button of the operation unit 104, and the mode switching switch of the operation unit 104 indicates which mode, for example, “movie shooting mode” or “playback mode”. This is confirmed by an instruction signal from the operation unit 104. Then, if it is determined that the video recording mode is set, the following operation is started.

CPU101は、撮像装置100の各ブロックに、動画撮影の準備をさせる。操作部104から撮影開始の指示が入力されるまでは、CPU101は、撮像部110により得られたデジタル画像信号をRAM102に記憶させ、RAM102に記憶されたデジタル画像信号を読出させて表示部130に画像を表示させように表示制御部131を制御する。なお、画像処理部111により処理され、RAM102に記憶されたデジタル画像信号を読出させて表示部130に画像を表示させるように表示制御部131を制御しても良い。   The CPU 101 causes each block of the imaging apparatus 100 to prepare for moving image shooting. Until an instruction to start shooting is input from the operation unit 104, the CPU 101 stores the digital image signal obtained by the imaging unit 110 in the RAM 102, reads the digital image signal stored in the RAM 102, and causes the display unit 130 to read the digital image signal. The display control unit 131 is controlled to display an image. The display control unit 131 may be controlled so that the digital image signal processed by the image processing unit 111 and stored in the RAM 102 is read and an image is displayed on the display unit 130.

なお、本実施形態では、撮像部110から出力されるデジタル画像信号のフレームレートは、30フレーム/秒であるとする。また、本実施形態では、記録する動画のサイズ(画素数)を複数のサイズから選択した一つのサイズに設定することができる。   In the present embodiment, it is assumed that the frame rate of the digital image signal output from the imaging unit 110 is 30 frames / second. In this embodiment, the size (number of pixels) of a moving image to be recorded can be set to one size selected from a plurality of sizes.

この状態で、CPU101は、操作部104により撮影開始の指示が入力されたか否かを判定する。撮影開始の指示があると、CPU101は、撮像部110により得られたデジタル画像信号をRAM102に記憶させ、RAM102に記憶されたデジタル画像信号に対して設定値に基づいて画質調整処理を施すように画像処理部111を制御する。CPU101は動画撮影を継続している間、30フレーム/秒で撮像部110により出力されるデジタル画像信号を順次、画像処理部111に処理させる。そして、CPU101は、画像処理部111で処理されたデジタル画像信号を、順次RAM102に記憶させる。   In this state, the CPU 101 determines whether or not an instruction to start shooting is input from the operation unit 104. When there is an instruction to start shooting, the CPU 101 stores the digital image signal obtained by the imaging unit 110 in the RAM 102 and performs image quality adjustment processing on the digital image signal stored in the RAM 102 based on the set value. The image processing unit 111 is controlled. The CPU 101 causes the image processing unit 111 to sequentially process the digital image signals output from the imaging unit 110 at 30 frames / second while moving image shooting is continued. Then, the CPU 101 sequentially stores the digital image signals processed by the image processing unit 111 in the RAM 102.

次に、CPU101は、RAM102に記憶された複数フレームのデジタル画像信号を順次符号化して動画データを生成するように符号化復号化処理部160を制御する。CPU101は、このとき、各フレーム画像をフレーム内予測符号化フレーム、フレーム間予測符号化フレームとして圧縮符号化をするように符号化復号化処理部160を制御する。そして、CPU101は、符号化復号化処理部160で符号化された各フレーム画像を順次RAM102に記憶させていく。   Next, the CPU 101 controls the encoding / decoding processing unit 160 to sequentially encode the digital image signals of a plurality of frames stored in the RAM 102 to generate moving image data. At this time, the CPU 101 controls the encoding / decoding processing unit 160 so that each frame image is compression-encoded as an intra-frame prediction encoding frame and an inter-frame prediction encoding frame. Then, the CPU 101 sequentially stores each frame image encoded by the encoding / decoding processing unit 160 in the RAM 102.

一方、撮影開始の指示があると、CPU101は、音声に関する処理をするようにも各ブロックを制御する。CPU101は、音声入力部120から出力されるアナログ音声信号を順次音声処理部121に転送し、デジタル信号への変換、音質調整処理等を施すように音声処理部121を制御する。また、音声圧縮の設定がされている場合には、CPU101は設定に従って、例えばAC3、AACの音声圧縮方式で音声信号を圧縮するように音声処理部121を制御する。そして、CPU101は、音声処理部121で処理した音声データをRAM102に順次記憶させていく。また、本実施例の音声処理部121は、撮影時に、撮像レンズ、絞り、シャッターおよび、これらを駆動させるアクチュエータなどの様々な駆動部による雑音を低減する処理をこのとき実行する。この処理については後述する。   On the other hand, when there is an instruction to start shooting, the CPU 101 controls each block so as to perform processing related to sound. The CPU 101 sequentially transfers the analog audio signals output from the audio input unit 120 to the audio processing unit 121 and controls the audio processing unit 121 to perform conversion into a digital signal, sound quality adjustment processing, and the like. When the audio compression is set, the CPU 101 controls the audio processing unit 121 to compress the audio signal according to the AC3 or AAC audio compression method, for example, according to the setting. Then, the CPU 101 sequentially stores the audio data processed by the audio processing unit 121 in the RAM 102. In addition, the sound processing unit 121 of the present embodiment executes a process of reducing noise by various driving units such as an imaging lens, a diaphragm, a shutter, and an actuator for driving them at the time of shooting. This process will be described later.

次にCPU101は、RAM102に記憶された動画データ、音声データを順次、記録媒体140に記録するように、記録再生部141を制御する。このとき例えば、15フレーム分(0.5秒分)の動画データと、0.5秒分の音声データとを一組にし、必要な各種情報を付加したデータストリームを形成し、ファイルシステムに従って記録媒体140に記録するように、記録再生部141を制御する。なお、30フレーム分(1秒分)の動画データと、1秒分の音声データを一組としても良い。CPU101は、これらの動作を動画撮影の停止の指示があるまで継続する。   Next, the CPU 101 controls the recording / reproducing unit 141 so that the moving image data and audio data stored in the RAM 102 are sequentially recorded on the recording medium 140. At this time, for example, a set of 15 frames (0.5 seconds) of moving image data and 0.5 seconds of audio data is combined to form a data stream with various necessary information added, and recorded according to the file system The recording / reproducing unit 141 is controlled to record on the medium 140. Note that 30 frames (one second) of moving image data and one second of audio data may be combined. The CPU 101 continues these operations until there is an instruction to stop moving image shooting.

そして、操作部104により撮影停止の指示が入力されると、CPU101は、画像処理部111の処理を停止させ、RAM102に記憶されたデジタル画像信号の符号化が終了した時点で符号化復号化処理部160の符号化処理を停止させる。そして、CPU101は、RAM102に記憶されている符号化済みの動画データ、音声データを最後まで記録媒体140に記録してから動作を停止するように記録再生部141を制御する。なお、必要に応じて、記録終了後に、動画ファイルの動画データの先頭のフレームや先頭から数フレームの画像データを符号化復号化処理部160に送信して復号させ、復号されたデジタル画像信号の画素数を間引いたサムネイル画像データを生成して、動画ファイルに関連づけて記録するようにしても良い。   When an instruction to stop shooting is input from the operation unit 104, the CPU 101 stops the processing of the image processing unit 111 and performs encoding / decoding processing when encoding of the digital image signal stored in the RAM 102 is completed. The encoding process of the unit 160 is stopped. Then, the CPU 101 controls the recording / reproducing unit 141 to stop the operation after recording the encoded moving image data and audio data stored in the RAM 102 to the recording medium 140 to the end. If necessary, after the end of recording, the first frame of the moving image data of the moving image file and several frames from the beginning are transmitted to the encoding / decoding processing unit 160 to be decoded, and the decoded digital image signal Thumbnail image data with the number of pixels thinned out may be generated and recorded in association with a moving image file.

この処理が終了すると、CPU101は、再び動画撮影の準備状態に各ブロックを戻す。   When this process ends, the CPU 101 returns each block to the moving image shooting preparation state again.

<雑音低減処理>
ここで、本実施例の撮像装置100の動画撮影時における雑音低減処理動作について、図2のフローチャート及び、図3の音声処理部121の機能ブロック図を用いて説明する。なお、以下の例においては、撮像部110の絞りの駆動雑音を低減する例について説明するが、これが撮像レンズまたはシャッターの駆動音であっても、同様の雑音低減処理を行うものとする。
<Noise reduction processing>
Here, the noise reduction processing operation at the time of moving image shooting of the imaging apparatus 100 of the present embodiment will be described with reference to the flowchart of FIG. 2 and the functional block diagram of the audio processing unit 121 of FIG. In the following example, an example of reducing the driving noise of the diaphragm of the imaging unit 110 will be described. However, even if this is a driving sound of the imaging lens or shutter, the same noise reduction processing is performed.

この雑音低減処理は、前述したように、動画撮影処理中に順次、音声処理部121で実行される処理である。本実施例における雑音低減処理は、前述したように、雑音の発生する期間である、駆動部の駆動している期間の音声信号を、駆動部の駆動する前およびまたは後の期間の音声信号に基づいて生成された補正音信号に置き換える処理である。本実施例においては、補正音信号の基になる音声信号の集音される期間、すなわち、駆動部の駆動する前または後の期間をサンプリング期間と呼ぶものとする。このサンプリング期間は、例えば駆動部の駆動する前または後の期間の0.2秒の期間であるが、これよりも長くても短くても構わない。   As described above, this noise reduction process is a process executed sequentially by the audio processing unit 121 during the moving image shooting process. As described above, in the noise reduction processing in the present embodiment, the audio signal in the period in which the drive unit is driven, which is the period in which noise is generated, is converted into the audio signal in the period before and / or after the drive unit is driven. This is a process of replacing with a corrected sound signal generated based on this. In the present embodiment, a period during which the audio signal that is the basis of the correction sound signal is collected, that is, a period before or after the drive unit is driven is referred to as a sampling period. This sampling period is, for example, a period of 0.2 seconds before or after the driving of the drive unit, but it may be longer or shorter than this.

なお、本実施例においては、通常記録される音声信号は、アナログ音声信号からデジタル音声信号に変換する際に48kHzでサンプリングされている。しかし、補正音信号を生成する際には、演算量を低減させるために、サンプリング期間の48kHzでサンプリングされたデジタル音声信号のサンプリング数を減少させる。具体例を挙げると、3サンプル毎の加算平均を求めて、その平均値からなる16kHzのデジタル音声信号に変換してから補正音信号を生成する。本実施例では、記録音声を48kHzとし、サンプリング数を減少させる際には、3サンプル毎の加算平均値を用いるものとする。しかし、記録音声は48kHzに限られるものではないし、サンプリング数を減少させる際にも、2サンプル毎の加算平均を用いても、4サンプル毎の加算平均を用いても構わない。また、サンプリング数を減少させる処理も加算平均を用いなくても良い。例えば、3サンプルおきのサンプリング値を用いるだけでも良い。   In the present embodiment, the normally recorded audio signal is sampled at 48 kHz when converted from an analog audio signal to a digital audio signal. However, when the correction sound signal is generated, the number of samplings of the digital audio signal sampled at 48 kHz in the sampling period is reduced in order to reduce the calculation amount. As a specific example, a correction sound signal is generated after an average of every three samples is obtained and converted to a 16 kHz digital audio signal having the average value. In this embodiment, the recording sound is 48 kHz, and when the number of samplings is reduced, an average value for every three samples is used. However, the recording voice is not limited to 48 kHz, and when the number of samplings is reduced, the addition average for every two samples or the average for every four samples may be used. In addition, the process of reducing the number of samplings may not use the averaging. For example, only sampling values every three samples may be used.

なお、図2のフローチャートは、前述した動画撮影動作中に、CPU101の制御により実行される雑音低減処理に関する動作を示すものである。なお、雑音低減処理は、一度、音声処理部121により音声信号の音量の最適化処理等が施され、RAM102に記憶されている音声信号を用いて行うものとして説明する。   Note that the flowchart of FIG. 2 shows an operation related to noise reduction processing executed under the control of the CPU 101 during the moving image shooting operation described above. Note that the noise reduction processing will be described assuming that the audio processing unit 121 performs processing for optimizing the volume of the audio signal once and uses the audio signal stored in the RAM 102.

(S210)
まず、CPU101は、例えば撮像部110により得られた画像信号の輝度等を解析し、撮像部110の絞りの駆動が必要であるか否かを判定する。CPU101は、絞りの駆動が必要でない場合には(S210でNo)、音声処理部121に雑音低減処理を実行させない。一方、CPU101は、絞りの駆動が必要な場合には(S210でYes)、音声処理部121に雑音低減処理を実行させる。
(S210)
First, the CPU 101 analyzes, for example, the luminance of the image signal obtained by the imaging unit 110 and determines whether or not the diaphragm of the imaging unit 110 needs to be driven. The CPU 101 does not cause the audio processing unit 121 to execute noise reduction processing when driving of the diaphragm is not necessary (No in S210). On the other hand, when the diaphragm needs to be driven (Yes in S210), the CPU 101 causes the audio processing unit 121 to perform noise reduction processing.

(S220)
CPU101は、絞りの駆動が必要な場合には(S210でYes)、撮像部110の絞り(駆動部)を駆動させ、絞り(駆動部)の駆動した期間を決定する。
(S220)
When it is necessary to drive the aperture (Yes in S210), the CPU 101 drives the aperture (drive unit) of the imaging unit 110 and determines the period during which the aperture (drive unit) is driven.

(S221)
S220で絞り(駆動部)の駆動した期間が決定されると、絞り(駆動部)の駆動した期間の音声信号を補間するための補正音信号を生成するための音声信号を取得するためのサンプリング期間が決定される。そして、CPU101は、RAM102に記憶された音声信号のサンプリング期間に対応する48kHzでサンプリングされた音声信号を読出して、音声処理部121に送信する。またCPU101は、音声処理部121に送信したサンプリング期間に対応する48kHzでサンプリングされた音声信号のサンプリング数を減少させるように音声処理部121のデータ圧縮部310を制御する。この処理は、前述したように、いわば、48kHzのサンプリング周波数の音声信号を16kHzのサンプリング周波数の音声信号に変換する処理である。これは、具体例として前述したように、3サンプル毎の加算平均を求めて、その平均値からなる16kHzのデジタル音声信号に変換してから補正音信号を生成する処理等である。
(S221)
When the period during which the diaphragm (driving unit) is driven is determined in S220, sampling is performed to obtain an audio signal for generating a correction sound signal for interpolating the audio signal during the period during which the diaphragm (driving unit) is driven. The period is determined. Then, the CPU 101 reads out an audio signal sampled at 48 kHz corresponding to the audio signal sampling period stored in the RAM 102 and transmits the audio signal to the audio processing unit 121. Further, the CPU 101 controls the data compression unit 310 of the audio processing unit 121 so as to reduce the number of samplings of the audio signal sampled at 48 kHz corresponding to the sampling period transmitted to the audio processing unit 121. As described above, this process is a process of converting a sound signal having a sampling frequency of 48 kHz into a sound signal having a sampling frequency of 16 kHz. As described above as a specific example, this is, for example, a process of obtaining a correction sound signal after obtaining an average of every three samples and converting it to a 16 kHz digital sound signal composed of the average value.

(S222)
次に、CPU101は、サンプリング数を減少させたサンプリング期間の音声信号の、音声レベルを測定し、得られた音声レベルのうち、最大音声レベルの上位N個の音声レベルの平均値を取得するように音声処理部121のレベル制御部320を制御する。
(S222)
Next, the CPU 101 measures the audio level of the audio signal during the sampling period with the sampling number decreased, and obtains the average value of the top N audio levels of the maximum audio level among the obtained audio levels. The level control unit 320 of the audio processing unit 121 is controlled.

(S230)
次に、CPU101は、雑音低減処理を実行するか否かを判定するために、S222で記憶した最大音声レベルの上位N個の音声レベルの平均値が閾値レベルよりも小さいか否かを判定する。S222で記憶した最大音声レベルの上位N個の音声レベルの平均値が閾値レベルよりも小さい場合(S230Yes)は、雑音低減処理を実行するように音声処理部121を制御する。S222で記憶した最大音声レベルの上位N個の音声レベルの平均値が閾値レベルよりも小さくない場合(S230でNo)は、雑音低減処理を実行しないように音声処理部121を制御する。
(S230)
Next, the CPU 101 determines whether or not the average value of the top N audio levels of the maximum audio level stored in S222 is smaller than the threshold level in order to determine whether or not to perform noise reduction processing. . When the average value of the top N audio levels of the maximum audio level stored in S222 is smaller than the threshold level (Yes in S230), the audio processing unit 121 is controlled to execute the noise reduction process. If the average value of the top N audio levels stored in S222 is not smaller than the threshold level (No in S230), the audio processing unit 121 is controlled not to execute the noise reduction process.

ここで、閾値レベルは、駆動部の駆動による駆動音よりも大きい音声レベルを示しており、S250における所定のレベルよりも大きいレベルである。このような動作によれば、駆動音の発生する前または後の周囲の音声レベルが大きいときには、雑音低減処理をそもそも行わなくても、駆動音が周囲の音声によってマスキングされるため、目立たなくなるため雑音低減処理を行わないようにすることができる。また、前述したように、補正音信号を生成した際に発生する可能性のあるノイズ(16kHzのナイキスト周波数以上の周波数の音声が折り返し歪みを起こすことで発生するノイズ)が低減後の信号に含まれる可能性を排除することができる。   Here, the threshold level indicates an audio level that is higher than the driving sound generated by driving the driving unit, and is a level that is higher than the predetermined level in S250. According to such an operation, when the surrounding sound level before or after the generation of the driving sound is high, the driving sound is masked by the surrounding sound even if noise reduction processing is not performed in the first place. It is possible to prevent noise reduction processing. In addition, as described above, noise that may be generated when the corrected sound signal is generated (noise generated when the sound having a frequency equal to or higher than the Nyquist frequency of 16 kHz causes aliasing distortion) is included in the reduced signal. The possibility of being lost.

(S240)
S222で記憶した最大音声レベルの上位N個の音声レベルの平均値が閾値レベルよりも小さい場合(S230Yes)は、CPU101は、以下のように音声処理部121を制御する。CPU101は、S221でデータ圧縮部310によりサンプリング数を減少させたサンプリング期間の音声信号に基づいて、補正音信号を生成するように音声処理部121の補正音生成部330を制御する。
(S240)
When the average value of the top N audio levels of the maximum audio level stored in S222 is smaller than the threshold level (S230 Yes), the CPU 101 controls the audio processing unit 121 as follows. The CPU 101 controls the correction sound generation unit 330 of the sound processing unit 121 to generate a correction sound signal based on the sound signal of the sampling period in which the number of sampling is decreased by the data compression unit 310 in S221.

補正音信号の生成方法は、いくつかあるが、例えば、特開2011−002723号公報に記載されているように、線形予測法を用いて、サンプリング期間の音声信号に基づいて生成してもよい。ここでいう線形予測法は、例えばn次のFIRフィルタを用いて、1サンプル目からnサンプル目までのサンプリング値に基づいて、n+1サンプル目のサンプリング値を算出するものである。これを、順次実行することで、n+2サンプル目、n+3サンプル目、のサンプリング値を順次算出していくものである。なお、線形予測法は、時間的に前方方向であっても、後方方向であってもどちらの方向にも適用可能である。   There are several methods for generating a corrected sound signal. For example, as described in JP 2011-002723 A, a correction sound signal may be generated based on a sound signal in a sampling period using a linear prediction method. . Here, the linear prediction method is to calculate the sampling value of the (n + 1) th sample based on the sampling values from the first sample to the nth sample using, for example, an nth-order FIR filter. By sequentially executing this, sampling values of the (n + 2) th sample and the (n + 3) th sample are sequentially calculated. Note that the linear prediction method can be applied to either the forward direction or the backward direction in terms of time.

本実施例においては、このような方法を用いているが、これ以外の方法を用いて補正音信号を生成してもよい。   In this embodiment, such a method is used, but the correction sound signal may be generated using a method other than this method.

本実施例の撮像装置100は、このように、サンプリング数を減少させた音声信号を用いて補正音信号を生成するために、補正音信号を生成するための処理の負荷を低減することができる。   As described above, the imaging apparatus 100 according to the present embodiment generates a corrected sound signal using an audio signal whose sampling number is reduced, and thus can reduce the processing load for generating the corrected sound signal. .

(S241)
次に、CPU101は、S240でいわば16kHzの音声信号に基づいて生成された16kHの補正音信号のサンプル数を増加させて、記録音声と同様の48kHzの補正音信号を生成するように音声処理部121のデータ伸張部340を制御する。これは、前述したように、生成された16kHzの補間信号の各サンプルを直線補間してもよいし、その後、さらに、ローパスフィルタを掛け補正音信号の急峻な変化を抑制するようにしても良い。
(S241)
Next, the CPU 101 increases the number of samples of the 16 kHz corrected sound signal generated based on the 16 kHz sound signal in S240, and generates a 48 kHz corrected sound signal similar to the recorded sound. 121 controls the data decompression unit 340. As described above, each sample of the generated 16 kHz interpolation signal may be linearly interpolated or may be further subjected to a low-pass filter to suppress a steep change in the correction sound signal. .

(S250)
次に、CPU101は、S241で生成した48kHzの補正音信号を、絞り(駆動部)の駆動している期間の音声信号に対してどの程度の割合で合成するかを決定するように音声処理部121の合成比率判定部350を制御する。そのために、S222で記憶した最大音声レベルの上位N個の音声レベルの平均値の、所定の音声レベルに対する割合を使用する。ここでいう所定のレベルは、例えば、本実施例の音声入力部により集音される絞り(駆動部)の駆動音の想定される音声レベル等を用いる。このレベルは例えば、撮像装置100の起動時に、絞り(駆動部)を駆動させることで取得しても良いし、予め記憶しておいても良い。すなわち、所定の音声レベルは、駆動部毎に異なる音声レベルを示すこともある。
(S250)
Next, the CPU 101 determines how much the 48 kHz corrected sound signal generated in S241 is to be combined with the sound signal during the period during which the diaphragm (drive unit) is driven. 121 controls the composite ratio determination unit 350. Therefore, the ratio of the average value of the top N audio levels of the maximum audio level stored in S222 to the predetermined audio level is used. As the predetermined level here, for example, an assumed sound level of the driving sound of the diaphragm (drive unit) collected by the sound input unit of the present embodiment is used. This level may be acquired, for example, by driving the diaphragm (drive unit) when the imaging apparatus 100 is activated, or may be stored in advance. That is, the predetermined sound level may indicate a different sound level for each drive unit.

本実施例においては、S222で記憶した最大音声レベルの上位N個の音声レベルの平均値をPとし、所定の音声レベルをQとすると、補正音信号の合成比率Xは、X=1−(P÷Q)とする。一方で、駆動部の駆動している期間の音声信号の合成比率Yは、Y=1−Xとする。   In the present embodiment, if the average value of the top N audio levels stored in S222 is P and the predetermined audio level is Q, the composite ratio X of the corrected sound signal is X = 1− ( P ÷ Q). On the other hand, the synthesis ratio Y of the audio signal during the period during which the drive unit is driven is Y = 1−X.

すなわち、サンプリング期間の音声信号の音声レベルが大きいほど、サンプリング期間の音声信号に基づいて生成された補正音信号を、絞り(駆動部)の駆動している期間の音声信号に対して合成する比率(合成比率)を下げていくのである。このように、CPU101は、サンプリング期間の音声信号の音声レベルに応じて、補正音信号の合成比率を変更する。なお、補正音信号は、サンプリング期間の音声信号に基づいて生成されるので、言い換えれば、生成された補正音信号の音声レベルに応じて、補正音信号の合成比率を変更することになる。   That is, as the sound level of the sound signal in the sampling period increases, the ratio of the correction sound signal generated based on the sound signal in the sampling period is synthesized with the sound signal in the period during which the diaphragm (drive unit) is driven (Composition ratio) will be lowered. Thus, the CPU 101 changes the synthesis ratio of the corrected sound signal according to the sound level of the sound signal during the sampling period. Since the corrected sound signal is generated based on the audio signal during the sampling period, in other words, the composite ratio of the corrected sound signal is changed according to the sound level of the generated corrected sound signal.

このように合成比率を決定することでで、生成された補正音信号に含まれる可能性のあるノイズ(16kHzのナイキスト周波数以上の周波数の音声が折り返し歪みを起こすことで発生するノイズ)を目立たなくすることができる。   By determining the synthesis ratio in this way, noise that may be included in the generated corrected sound signal (noise generated when a voice having a frequency equal to or higher than the Nyquist frequency of 16 kHz causes aliasing distortion) is inconspicuous. can do.

(S251)
次に、CPU101は、S250で決定した、合成比率Xで、S241で生成した補正音信号を、合成比率Yで、絞り(駆動部)の駆動している期間の音声信号を互いに合成するように音声信号処理部121の合成部360を制御する。
(S251)
Next, the CPU 101 synthesizes the corrected sound signals generated in S241 with the synthesis ratio X determined in S250 and the audio signals during the period during which the diaphragm (driving unit) is driven with the synthesis ratio Y. The synthesis unit 360 of the audio signal processing unit 121 is controlled.

その後、CPU101は、絞り(駆動部)の駆動している期間の音声信号のとして、合成部360で合成した合成音声信号が記録されるように、RAM102に記憶されている、絞り(駆動部)の駆動している期間の音声信号を上書きする。   After that, the CPU 101 stores the aperture (drive unit) stored in the RAM 102 so that the synthesized audio signal synthesized by the synthesis unit 360 is recorded as the audio signal during the drive period of the aperture (drive unit). Overwrite the audio signal during the driving period.

(S260)
最後に、CPU101は、撮影終了の指示が操作部104から入力されたか否かを判定し、終了の指示が入力されていれば、雑音低減処理を終了し、終了していなければ、処理をS210に戻し、制御を継続する。
(S260)
Finally, the CPU 101 determines whether or not a shooting end instruction is input from the operation unit 104. If the end instruction is input, the noise reduction process ends. If not, the process proceeds to step S210. Return to, and continue control.

以上のように、CPU101は、動画撮影動作中に、雑音低減処理を実行するように音声処理部121を制御する。   As described above, the CPU 101 controls the audio processing unit 121 to execute the noise reduction process during the moving image shooting operation.

本実施例の撮像装置100は、このような構成により、駆動部の駆動していない期間の音声信号に基づいて信号を生成し、その生成された信号に基づいて駆動音を低減する処理を行う場合、演算量を低減することができる。   With this configuration, the imaging apparatus 100 according to the present exemplary embodiment generates a signal based on an audio signal during a period in which the driving unit is not driven, and performs a process of reducing driving sound based on the generated signal. In this case, the amount of calculation can be reduced.

また、本実施例の撮像装置100は、加えて、生成された補正音信号に含まれる可能性のあるノイズ(16kHzのナイキスト周波数以上の周波数の音声が折り返し歪みを起こすことで発生するノイズ)を目立たなくすることができる。これは、サンプリング期間の音声信号の音声レベルが大きい場合には、駆動部の駆動音が目立ちにくいため、補正音信号の合成比率を下げてもよく、合成比率を下げることにより補正音信号に発生する折り返し歪みノイズを低減することができるからである。また、サンプリング期間の音声信号の音声レベルが小さい場合には、そもそも、補正音信号に発生する折り返し歪みノイズが小さくなるため、合成比率を上げても、補正音信号に発生する折り返し歪みノイズが大きくなりにくいからである。   In addition, the imaging apparatus 100 according to the present embodiment additionally includes noise that may be included in the generated corrected sound signal (noise generated when a sound having a frequency equal to or higher than the Nyquist frequency of 16 kHz causes aliasing distortion). It can be inconspicuous. This is because when the audio level of the audio signal during the sampling period is high, the drive sound of the drive unit is not noticeable, so the synthesis ratio of the correction sound signal may be lowered, or the correction sound signal is generated by lowering the synthesis ratio. This is because the aliasing distortion noise can be reduced. In addition, when the audio level of the audio signal during the sampling period is small, the aliasing distortion noise generated in the correction sound signal is reduced in the first place. Therefore, even if the synthesis ratio is increased, the aliasing distortion noise generated in the correction sound signal is large. Because it is difficult to become.

このよう本実施例の撮像装置100は、サンプリング期間の音声信号のデータ量を間引いてから補正音信号を生成しても、補正音信号に発生する折り返し歪みノイズの影響を低減しつつ、駆動部の駆動音を低減することができるのである。   As described above, the imaging apparatus 100 according to the present embodiment reduces the influence of the aliasing distortion noise generated in the corrected sound signal even if the corrected sound signal is generated after the data amount of the audio signal in the sampling period is thinned out, and the drive unit The driving noise can be reduced.

なお、本実施例のS222においては、S221でサンプリング数を減少させたサンプリング期間の音声信号の、音声レベルを測定し、得られた音声レベルのうち、最大音声レベルの上位N個の音声レベルの平均値を取得した。しかし、S221でサンプリング数を減少させる前のサンプリング期間の音声信号の、音声レベルを測定し、得られた音声レベルのうち、最大音声レベルの上位N個の音声レベルの平均値を取得しても良い。   In S222 of the present embodiment, the audio level of the audio signal during the sampling period in which the number of samplings is reduced in S221 is measured, and among the obtained audio levels, the highest N audio levels of the maximum audio level are measured. Average values were obtained. However, even if the audio level of the audio signal in the sampling period before the decrease in the number of samples is measured in S221 and the average value of the top N audio levels of the maximum audio level among the obtained audio levels is acquired. good.

なお、本実施例のS222においては、S221でサンプリング数を減少させたサンプリング期間の音声信号の、音声レベルを測定し、得られた音声レベルのうち、最大音声レベルの上位N個の音声レベルの平均値を取得した。しかし、本実施例においては、データ圧縮部310でデータ量を1/3に間引かれた結果、48kHzの音声信号が実質的に16kHzの音声信号に変換されている。そこで、S222において、16kHzのナイキスト周波数である8kHzより高い周波数成分をハイパスフィルタにより抽出し、最大音声レベルの上位N個の音声レベルの平均値を取得しても良い。そうすると、S230の雑音低減処理の実行の有無の判断、及びS250の合成比率の計算においても、8kHzより高い周波数成分の最大音声レベルの上位N個の音声レベルの平均値を使用することになる。すなわち、補正音信号における折り返し歪みノイズの発生元で有る、間引き後のサンプリング期間の音声信号のナイキスト周波数より高い周波数の音声信号の音声レベルを用いてS230の雑音低減処理の実行の有無の判断、及びS250の合成比率の計算を行うことになる。このような構成とすることにより、本実施例の撮像装置100は、補正音信号に発生する折り返し歪みノイズの影響が低い場合には補正音信号の合成比率を増加させることができるので、より効果の高い雑音低減処理を行うことができる。   In S222 of the present embodiment, the audio level of the audio signal during the sampling period in which the number of samplings is reduced in S221 is measured, and among the obtained audio levels, the highest N audio levels of the maximum audio level are measured. Average values were obtained. However, in this embodiment, as a result of the data amount being reduced to 1/3 by the data compression unit 310, the 48 kHz audio signal is substantially converted to a 16 kHz audio signal. Therefore, in S222, frequency components higher than 8 kHz, which is the Nyquist frequency of 16 kHz, may be extracted by a high-pass filter, and the average value of the top N audio levels of the maximum audio level may be acquired. Then, the average value of the top N audio levels of the maximum audio level of the frequency component higher than 8 kHz is used also in the determination of whether or not the noise reduction process in S230 is executed and the calculation of the synthesis ratio in S250. That is, determination of whether or not the noise reduction process of S230 is performed using the audio level of the audio signal having a frequency higher than the Nyquist frequency of the audio signal in the sampling period after the thinning, which is the generation source of the aliasing distortion noise in the corrected sound signal And the synthesis ratio of S250 is calculated. By adopting such a configuration, the imaging apparatus 100 according to the present embodiment can increase the synthesis ratio of the correction sound signal when the influence of the aliasing distortion noise generated in the correction sound signal is low. High noise reduction processing can be performed.

また、本実施例のS250で算出された補正音信号の合成比率X、駆動部の駆動している期間の音声信号の合成比率Yは、駆動部の駆動している期間の前方における合成比率であってもよい。この場合、駆動部の駆動している期間の後方においては、補正音信号の合成比率は、Xから徐々に0に近づき、駆動部の駆動している期間の音声信号の合成比率は、Yから徐々に1に近づくように変化させても良い。また、合成比率Xと合成比率Yは、駆動部の駆動している期間において、常に一定の値でもよい。   Further, the correction sound signal synthesis ratio X calculated in S250 of the present embodiment, and the audio signal synthesis ratio Y during the driving period of the drive unit are the synthesis ratios in front of the driving period of the driving unit. There may be. In this case, after the period during which the drive unit is driven, the synthesis ratio of the correction sound signal gradually approaches 0 from X, and the synthesis ratio of the audio signal during the period during which the drive unit is driven is changed from Y. You may change so that it may approach 1 gradually. Further, the composition ratio X and the composition ratio Y may always be constant values during the period during which the drive unit is driven.

また、本実施例の撮像装置100が例えばレンズ交換式の撮像装置である場合、CPU101は、撮像部110のレンズユニットが装着部に装着された際に、レンズユニットと通信を行い、レンズユニットの記録媒体に記録された識別情報を取得する。そして、識別情報に基づいて、レンズユニットの種類を特定し、その種類に対応した、S230における閾値レベル、S250における所定の音声レベルを設定し、図2の処理を行うようにしてもよい。すなわち、レンズユニット毎に異なる所定の音声レベルをせっていすることができる。このようにすることにより、装着されたレンズユニット毎に異なる駆動音に対応した雑音低減処理を実行することができる。   In addition, when the imaging apparatus 100 according to the present exemplary embodiment is, for example, an interchangeable lens type imaging apparatus, the CPU 101 communicates with the lens unit when the lens unit of the imaging unit 110 is mounted on the mounting unit. The identification information recorded on the recording medium is acquired. Then, based on the identification information, the type of the lens unit may be specified, the threshold level in S230 and the predetermined audio level in S250 corresponding to the type may be set, and the processing of FIG. 2 may be performed. That is, a predetermined audio level that differs for each lens unit can be set. By doing in this way, the noise reduction process corresponding to a drive sound which changes with every mounted lens unit can be performed.

なお、本実施例の撮像装置100は、例えば、デジタルカメラ、携帯電話、スマートフォンなど動画撮影中に静止画撮影を行うことができる装置であればどのような装置であっても良い。また、上述の実施形態の機能を実現するソフトウェアのプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。ここでいうコンピュータは、たとえば、携帯電話、スマートフォン、パーソナルコンピュータなどを含む。   Note that the imaging apparatus 100 according to the present embodiment may be any apparatus as long as it can perform still image shooting during moving image shooting, such as a digital camera, a mobile phone, and a smartphone. Further, the present invention includes a case where a software program that implements the functions of the above-described embodiments is supplied to a system or apparatus having a computer that can execute the program and the program is executed. A computer here includes a mobile phone, a smart phone, a personal computer, etc., for example.

[その他の実施形態]
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
[Other Embodiments]
Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included.

また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。   Also, when a software program that realizes the functions of the above-described embodiments is supplied from a recording medium directly to a system or apparatus having a computer that can execute the program using wired / wireless communication, and the program is executed Are also included in the present invention. Accordingly, the program code itself supplied and installed in the computer in order to implement the functional processing of the present invention by the computer also realizes the present invention. That is, the computer program itself for realizing the functional processing of the present invention is also included in the present invention. In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS.

Claims (7)

駆動部を有する音声信号処理装置であって、
前記駆動部の駆動を制御する制御手段と、
前記音声信号処理装置の周囲の音声を示す、所定のサンプリング周波数でデジタル化された音声信号を取得する取得手段と、
前記取得手段により取得された音声信号を処理する音声処理手段であって、前記駆動部が駆動していないときに前記取得手段により取得された音声信号のデータ量を減少させた信号に基づいて補正音信号を生成し、前記駆動部が駆動したときに前記取得手段により取得された音声信号と前記補正音信号とを所定の合成比率で合成した信号を用いて、前記駆動部が駆動したときに前記取得手段により取得された音声信号における、前記駆動部の駆動による駆動音を低減する音声処理手段とを有し、
前記音声処理手段は、前記駆動部が駆動していないときに前記取得手段により取得された音声信号の音声レベルに基づいて、前記駆動部が駆動していないときに前記取得手段により取得された音声信号の音声レベルが小さいほど前記補正音信号の合成比率を大きくするように、前記合成比率を決定することを特徴とする音声信号処理装置。
An audio signal processing device having a drive unit,
Control means for controlling the drive of the drive unit;
Obtaining means for obtaining an audio signal digitized at a predetermined sampling frequency, which indicates the audio around the audio signal processing device;
Audio processing means for processing the audio signal acquired by the acquisition means, and correcting based on a signal obtained by reducing the data amount of the audio signal acquired by the acquisition means when the driving unit is not driven When the drive unit is driven using a signal generated by generating a sound signal and combining the audio signal acquired by the acquisition unit when the drive unit is driven and the corrected sound signal at a predetermined synthesis ratio. Audio processing means for reducing drive sound due to driving of the drive unit in the audio signal acquired by the acquisition means;
The sound processing unit is configured to acquire the sound acquired by the acquisition unit when the drive unit is not driven based on the sound level of the audio signal acquired by the acquisition unit when the drive unit is not driven. The audio signal processing apparatus, wherein the synthesis ratio is determined such that the synthesis ratio of the corrected sound signal is increased as the audio level of the signal is smaller.
駆動部を有する音声信号処理装置であって、
前記駆動部の駆動を制御する制御手段と、
前記音声信号処理装置の周囲の音声を示す、所定のサンプリング周波数でデジタル化された音声信号を取得する取得手段と、
前記取得手段により取得された音声信号を処理する音声処理手段であって、前記駆動部が駆動していないときに前記取得手段により取得された音声信号のデータ量を減少させた信号に基づいて補正音信号を生成し、前記駆動部が駆動したときに前記取得手段により取得された音声信号と前記補正音信号とを所定の合成比率で合成した信号を用いて、前記駆動部が駆動したときに前記取得手段により取得された音声信号における、前記駆動部の駆動による駆動音を低減する音声処理手段とを有し、
前記音声処理手段は、前記駆動部が駆動していないときに前記取得手段により取得された音声信号の音声レベルに基づいて、前記駆動部が駆動していないときに前記取得手段により取得された音声信号の音声レベルが大きいほど前記補正音信号の合成比率を小さくするように、前記合成比率を決定することを特徴とする音声信号処理装置。
An audio signal processing device having a drive unit,
Control means for controlling the drive of the drive unit;
Obtaining means for obtaining an audio signal digitized at a predetermined sampling frequency, which indicates the audio around the audio signal processing device;
Audio processing means for processing the audio signal acquired by the acquisition means, and correcting based on a signal obtained by reducing the data amount of the audio signal acquired by the acquisition means when the driving unit is not driven When the drive unit is driven using a signal generated by generating a sound signal and combining the audio signal acquired by the acquisition unit when the drive unit is driven and the corrected sound signal at a predetermined synthesis ratio. Audio processing means for reducing drive sound due to driving of the drive unit in the audio signal acquired by the acquisition means;
The sound processing unit is configured to acquire the sound acquired by the acquisition unit when the drive unit is not driven based on the sound level of the audio signal acquired by the acquisition unit when the drive unit is not driven. The audio signal processing apparatus, wherein the synthesis ratio is determined such that the higher the audio level of the signal, the smaller the synthesis ratio of the corrected sound signal.
前記音声処理手段は、前記駆動部が駆動していないときに前記取得手段により取得された音声信号の音声レベルと、前記駆動部の駆動音の音声レベルとに基づいて、前記合成比率を決定することを特徴とする請求項1または2に記載の音声信号処理装置。   The audio processing unit determines the synthesis ratio based on the audio level of the audio signal acquired by the acquisition unit and the audio level of the driving sound of the driving unit when the driving unit is not driven. The audio signal processing apparatus according to claim 1 or 2, 前記音声処理手段は、前記補正音信号を生成する場合、前記駆動部が駆動していないときに前記取得手段により取得された音声信号のサンプル数を間引くことでデータ量を減少させることを特徴とする請求項1から3のいずれか1項に記載の音声信号処理装置。   When generating the corrected sound signal, the sound processing means reduces the amount of data by thinning out the number of samples of the sound signal acquired by the acquiring means when the driving unit is not driven. The audio signal processing device according to any one of claims 1 to 3. 駆動部を有する音声信号処理装置であって、
前記駆動部の駆動を制御する制御手段と、
前記音声信号処理装置の周囲の音声を示す、所定のサンプリング周波数でデジタル化された音声信号を取得する取得手段と、
前記取得手段により取得された音声信号を処理する音声処理手段であって、前記駆動部が駆動していないときに前記取得手段により取得された音声信号のデータ量を減少させた信号に基づいて補正音信号を生成し、前記駆動部が駆動したときに前記取得手段により取得された音声信号と前記補正音信号とを所定の合成比率で合成した信号を用いて、前記駆動部が駆動したときに前記取得手段により取得された音声信号における、前記駆動部の駆動による駆動音を低減する音声処理手段とを有し、
前記音声処理手段は、前記駆動部が駆動していないときに前記取得手段により取得された音声信号のサンプル数を間引き、前記所定のサンプリング周波数よりも低いサンプリング周波数の信号とし、前記低いサンプリング周波数の信号に基づいて前記補正音信号を生成し、
前記音声処理手段は、前記駆動部が駆動していないときに前記取得手段により取得された音声信号の前記低いサンプリング周波数のナイキスト周波数より高い周波数の音声信号の音声レベルに基づいて、前記合成比率を決定することを特徴とする音声信号処理装置。
An audio signal processing device having a drive unit,
Control means for controlling the drive of the drive unit;
Obtaining means for obtaining an audio signal digitized at a predetermined sampling frequency, which indicates the audio around the audio signal processing device;
Audio processing means for processing the audio signal acquired by the acquisition means, and correcting based on a signal obtained by reducing the data amount of the audio signal acquired by the acquisition means when the driving unit is not driven When the drive unit is driven using a signal generated by generating a sound signal and combining the audio signal acquired by the acquisition unit when the drive unit is driven and the corrected sound signal at a predetermined synthesis ratio. Audio processing means for reducing drive sound due to driving of the drive unit in the audio signal acquired by the acquisition means;
The audio processing unit thins out the number of samples of the audio signal acquired by the acquisition unit when the driving unit is not driven, and obtains a signal having a sampling frequency lower than the predetermined sampling frequency. Generating the corrected sound signal based on the signal,
The sound processing means calculates the synthesis ratio based on a sound level of a sound signal having a frequency higher than the Nyquist frequency of the low sampling frequency of the sound signal acquired by the acquiring means when the driving unit is not driven. An audio signal processing apparatus characterized by determining.
被写体の光学像を取得する撮像手段と、
前記撮像手段に対して光学像を導くレンズユニットを交換可能に取り付ける装着手段とを有し、
前記音声処理手段は、前記レンズユニットの駆動部が駆動していないときに前記取得手段により取得された音声信号の音声レベルと、前記レンズユニット毎に異なる所定の音声レベルとに基づいて、前記合成比率を決定することを特徴とする請求項1から5のいずれか1項に記載の音声信号処理装置。
Imaging means for acquiring an optical image of a subject;
A mounting unit that replaceably attaches a lens unit that guides an optical image to the imaging unit;
The voice processing unit is configured to perform the synthesis based on a voice level of the voice signal acquired by the acquisition unit when the driving unit of the lens unit is not driven and a predetermined voice level that is different for each lens unit. The audio signal processing apparatus according to claim 1, wherein the ratio is determined.
前記音声処理手段は、前記駆動部が駆動していないときに前記取得手段により取得された音声信号の音声レベルが閾値レベルよりも大きい場合には、前記駆動音を低減する処理を行わないことを特徴とする請求項1から6のいずれか1項に記載の音声信号処理装置。   The sound processing means does not perform the process of reducing the driving sound when the sound level of the sound signal acquired by the acquiring means is larger than a threshold level when the driving unit is not driven. The sound signal processing apparatus according to claim 1, wherein the sound signal processing apparatus is a sound signal processing apparatus.
JP2011265066A 2011-12-02 2011-12-02 Audio signal processing device Active JP6071188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011265066A JP6071188B2 (en) 2011-12-02 2011-12-02 Audio signal processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011265066A JP6071188B2 (en) 2011-12-02 2011-12-02 Audio signal processing device

Publications (2)

Publication Number Publication Date
JP2013117635A JP2013117635A (en) 2013-06-13
JP6071188B2 true JP6071188B2 (en) 2017-02-01

Family

ID=48712229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011265066A Active JP6071188B2 (en) 2011-12-02 2011-12-02 Audio signal processing device

Country Status (1)

Country Link
JP (1) JP6071188B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4550652B2 (en) * 2005-04-14 2010-09-22 株式会社東芝 Acoustic signal processing apparatus, acoustic signal processing program, and acoustic signal processing method
JP2006350246A (en) * 2005-06-20 2006-12-28 Nhk Engineering Services Inc Speech/pause sections detecting device
JP2008077707A (en) * 2006-09-19 2008-04-03 Sony Corp Recorder, noise removing method and noise removing apparatus
JP5279629B2 (en) * 2009-06-19 2013-09-04 キヤノン株式会社 Imaging device

Also Published As

Publication number Publication date
JP2013117635A (en) 2013-06-13

Similar Documents

Publication Publication Date Title
JP4639907B2 (en) Imaging apparatus, audio recording method, and program
JP5092983B2 (en) Movie playback device, imaging device, and program
JP2006279185A (en) Imaging apparatus, and sound recording method and program
JP2012151705A (en) Moving image processing system, moving image processing method, and program
JP4639965B2 (en) Imaging apparatus, image processing method, and program
JP5034605B2 (en) Imaging apparatus, noise removal method, and program
JP5538918B2 (en) Audio signal processing apparatus and audio signal processing system
JP6406949B2 (en) Image processing apparatus and image processing method
JP2011250340A (en) Imaging apparatus and control method of same
JP4639902B2 (en) Imaging apparatus, audio recording method, and program
JP4901673B2 (en) Imaging apparatus, recording apparatus, reproducing apparatus, imaging method, recording method, reproducing method, and program
JP5839795B2 (en) Imaging apparatus and information processing system
JP2013118518A (en) Imaging apparatus
JP2010021710A (en) Imaging device, image processor, and program
JP6071188B2 (en) Audio signal processing device
RU2584687C2 (en) Image processing device
JP2018074523A (en) Imaging device, control method thereof, program, and recording medium
JP5979843B2 (en) Audio signal processing apparatus, audio signal processing method, and program
JP2017175584A (en) Imaging apparatus and voice recording device
JP5171369B2 (en) Sound collection environment determination device, electronic apparatus including the same, and sound collection environment determination method
JP2007019593A (en) Contour emphasizing signal generating circuit, image signal processing apparatus, imaging apparatus, contour emphasizing signal generating method, and program
JP6452362B2 (en) Imaging apparatus and imaging method
US20220383891A1 (en) Sound processing apparatus and control method
KR101946574B1 (en) Apparatus and method for reproducing image and computer-readable storage medium
JP6103803B2 (en) Audio signal processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161227

R151 Written notification of patent or utility model registration

Ref document number: 6071188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151