JP2015138204A - Data processing device, imaging device and data processing program - Google Patents

Data processing device, imaging device and data processing program Download PDF

Info

Publication number
JP2015138204A
JP2015138204A JP2014010759A JP2014010759A JP2015138204A JP 2015138204 A JP2015138204 A JP 2015138204A JP 2014010759 A JP2014010759 A JP 2014010759A JP 2014010759 A JP2014010759 A JP 2014010759A JP 2015138204 A JP2015138204 A JP 2015138204A
Authority
JP
Japan
Prior art keywords
data
section
unit
processing
converted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014010759A
Other languages
Japanese (ja)
Inventor
康介 岡野
Kosuke Okano
康介 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014010759A priority Critical patent/JP2015138204A/en
Publication of JP2015138204A publication Critical patent/JP2015138204A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a data processing device that can appropriately reduce noise.SOLUTION: A data processing device comprises: a first conversion unit that allows a part of segment of a first segment and a second segment to overlap, divides input data into data on the first segment and data on the second segment and converts the data on the first segment and the data on the second segment into data on a frequency area; a change unit that changes a prescribed frequency component of the data on the first segment converted by the first conversion unit; a second conversion unit that converts the data on the first segment changed by the change unit and the data on the second segment converted by the first conversion unit into data on a time area; an addition unit that adds the data on the first segment and the data on the second segment converted by the second conversion unit by allowing a part of the segment to overlap; and a correction unit that corrects the data added by the addition unit on the basis of the data on the first segment and the data on the second segment which are converted by the second conversion unit.

Description

本発明は、データ処理装置、撮像装置、及びデータ処理プログラムに関する。   The present invention relates to a data processing device, an imaging device, and a data processing program.

音データに含まれるノイズを低減する技術がある(例えば、非特許文献1参照)。非特許文献1に記載された技術には、スペクトル減算法と呼ばれるノイズ低減処理が記載されている。   There is a technique for reducing noise included in sound data (see Non-Patent Document 1, for example). The technique described in Non-Patent Document 1 describes a noise reduction process called a spectral subtraction method.

S. F. Boll, “Suppression of Acoustic Noise in Speech Using Spectral Subtraction.” IEEE TRANSACTION ON ACOUSTICS, SPEECH, AND SIGNAL PROCESSING, vol.ASSP-27, pp.113-120, APRIL,1979.S. F. Boll, “Suppression of Acoustic Noise in Speech Using Spectral Subtraction.” IEEE TRANSACTION ON ACOUSTICS, SPEECH, AND SIGNAL PROCESSING, vol.ASSP-27, pp.113-120, APRIL, 1979.

スペクトル減算法は、入力信号を複数の区間に分割し、区間毎の分割信号に対して周波数変換、周波数領域処理(ノイズ低減処理)、逆変換を順に行い、連続する区間の逆変換された分割信号を接続することにより、処理信号を得る手法である。このスペクトル減算法では、入力信号を複数の区間に分割した際の各分割信号の極性が、周波数領域処理において元の極性と異なる極性となることがある。そのため、各分割信号を接続した際に、接続した部分の処理信号のレベルが不用意に低下してしまうことがある。   The spectral subtraction method divides an input signal into a plurality of sections, performs frequency conversion, frequency domain processing (noise reduction processing), and inverse conversion on the divided signals for each section in order, and performs inverse conversion of continuous sections. This is a technique for obtaining a processed signal by connecting signals. In this spectral subtraction method, the polarity of each divided signal when the input signal is divided into a plurality of sections may be different from the original polarity in frequency domain processing. For this reason, when each divided signal is connected, the level of the processing signal at the connected portion may be inadvertently lowered.

本発明の目的は、ノイズを適切に低減させることができるデータ処理装置、撮像装置、及びデータ処理プログラムを提供することにある。   An object of the present invention is to provide a data processing device, an imaging device, and a data processing program capable of appropriately reducing noise.

本発明は、以下のような解決手段により前記課題を解決する。
本発明の一実施形態は、第1区間と第2区間との一部の区間を重複させて、入力データを前記第1区間のデータと前記第2区間のデータとに分割し、前記第1区間のデータと前記第2区間のデータとを周波数領域のデータに変換する第1変換部と、前記第1変換部により変換された前記第1区間のデータの所定の周波数成分を変更する変更部と、前記変更部により変更された前記第1区間のデータと前記第1変換部により変換された前記第2区間のデータとを時間領域のデータに変換する第2変換部と、前記第2変換部により変換された前記第1区間のデータと前記第2変換部により変換された前記第2区間のデータとを、一部の区間を重複させて加算する加算部と、前記第2変換部により変換された前記第1区間のデータと前記第2変換部により変換された前記第2区間のデータとに基づいて、前記加算部により加算されたデータを補正する補正部と、を備えることを特徴とするデータ処理装置である。
また、本発明の一実施形態は、第1区間と第2区間との一部の区間を重複させて、入力データを前記第1区間のデータと前記第2区間のデータとに分割し、前記第1区間のデータを周波数領域のデータに変換する第1変換部と、前記第1変換部により変換された前記第1区間のデータの所定の周波数成分を変更する変更部と、前記変更部により変更された前記第1区間のデータを時間領域のデータに変換する第2変換部と、前記第2変換部により変換された前記第1区間のデータと前記第2区間のデータとを、一部の区間を重複させて加算する加算部と、前記第2変換部により変換された前記第1区間のデータと前記第2区間のデータとに基づいて、前記加算部により加算されたデータを補正する補正部と、を備えることを特徴とするデータ処理装置である。
また、本発明の一実施形態は、上記のデータ処理装置を備えることを特徴とする撮像装置である。
また、本発明の一実施形態は、コンピュータにおいて実行されるデータ処理プログラムであって、前記コンピュータを、第1区間と第2区間との一部の区間を重複させて、入力データを前記第1区間のデータと前記第2区間のデータとに分割し、前記第1区間のデータと前記第2区間のデータとを周波数領域のデータに変換する第1変換手段と、前記第1変換手段により変換された前記第1区間のデータの所定の周波数成分を変更する変更手段と、前記変更手段により変更された前記第1区間のデータと前記第1変換手段により変換された前記第2区間のデータとを時間領域のデータに変換する第2変換手段と、前記第2変換手段により変換された前記第1区間のデータと前記第2変換手段により変換された前記第2区間のデータとを、一手段の区間を重複させて加算する加算手段と、前記第2変換手段により変換された前記第1区間のデータと前記第2変換手段により変換された前記第2区間のデータとに基づいて、前記加算手段により加算されたデータを補正する補正手段と、して機能させるデータ処理プログラムである。
The present invention solves the above problems by the following means.
In one embodiment of the present invention, a part of the first section and the second section are overlapped to divide input data into the data of the first section and the data of the second section, and the first section A first converter that converts the data of the section and the data of the second section into data in the frequency domain, and a changing section that changes a predetermined frequency component of the data of the first section converted by the first converter A second conversion unit that converts the data of the first section changed by the change unit and the data of the second section converted by the first conversion unit into time-domain data, and the second conversion An addition unit that adds the data of the first section converted by the unit and the data of the second section converted by the second conversion unit by overlapping some sections, and the second conversion unit The converted data of the first section and the second conversion unit Based on the more it converted the second section data, a correction unit which corrects the data added by the adding unit, a data processing apparatus comprising: a.
In one embodiment of the present invention, a part of the first section and the second section are overlapped to divide the input data into the data of the first section and the data of the second section, A first converter that converts data in the first section into data in the frequency domain, a change section that changes a predetermined frequency component of the data in the first section converted by the first converter, and the change section The second conversion unit that converts the changed data of the first section into time domain data, the data of the first section and the data of the second section converted by the second conversion unit are partially Based on the data of the first section and the data of the second section converted by the second conversion section, the data added by the adding section is corrected based on the addition section that overlaps and adds the sections. And a correction unit. It is a management apparatus.
Moreover, one Embodiment of this invention is an imaging device provided with said data processing apparatus.
Moreover, one embodiment of the present invention is a data processing program executed in a computer, wherein the computer overlaps a part of the first section and the second section, and inputs data to the first section. A first converter that divides the data in the section and the data in the second section and converts the data in the first section and the data in the second section into data in the frequency domain; and the conversion by the first converter Changing means for changing a predetermined frequency component of the data of the first section, the data of the first section changed by the changing means, and the data of the second section converted by the first conversion means, The second conversion means for converting the data into time domain data, the first section data converted by the second conversion means, and the second section data converted by the second conversion means Based on the addition means for overlapping and adding, the data of the first section converted by the second conversion means and the data of the second section converted by the second conversion means A data processing program that functions as a correction unit that corrects the data added by the unit.

本発明によれば、動作ノイズを適切に低減させることができるデータ処理装置、撮像装置、及びデータ処理プログラムを提供することができる。   According to the present invention, it is possible to provide a data processing device, an imaging device, and a data processing program that can appropriately reduce operation noise.

第1実施形態におけるデータ処理装置100の構成を示すブロック図である。It is a block diagram which shows the structure of the data processor 100 in 1st Embodiment. フレームシフトをLf/2とした場合の処理区間、フレーム長、フレームシフト及びオーバーラップの関係を示す模式図である。It is a schematic diagram which shows the relationship between the process area at the time of setting a frame shift to Lf / 2, a frame length, a frame shift, and an overlap. 窓関数を乗算する前後における音データの一例を示す波形図である。It is a wave form diagram which shows an example of the sound data before and behind multiplying a window function. 分割した音データに窓関数を乗算した場合の一例を示す波形図である。It is a wave form diagram which shows an example at the time of multiplying the divided sound data by the window function. 周波数領域処理を行った後の処理信号及び処理後の音データの波形図である。It is a wave form diagram of a processing signal after performing frequency domain processing, and sound data after processing. データ処理装置100による周波数領域処理の手順を示すフローチャートである。3 is a flowchart illustrating a procedure of frequency domain processing by the data processing apparatus 100. データ処理装置100による周波数領域処理の具体例を示す説明図である。It is explanatory drawing which shows the specific example of the frequency domain process by the data processor. フレームシフトをLf/3とした場合の処理区間、フレーム長、フレームシフト及びオーバーラップの関係を示す模式図である。It is a schematic diagram which shows the relationship between the process area, frame length, frame shift, and overlap when a frame shift is Lf / 3. 第1実施形態のデータ処理装置100を備えた撮像装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device 1 provided with the data processor 100 of 1st Embodiment.

以下、図面を参照して、本発明の実施形態について説明する。
[第1実施形態]
図1は、第1実施形態におけるデータ処理装置100の構成を示すブロック図である。本実施形態のデータ処理装置100は、音データS(入力データ)に対してデータ処理を実行し、処理後の音データS´を出力する。例えば、データ処理装置100は、記憶媒体に記録されている音データを取得し、取得した音データに対してデータ処理を実行する。ここで、記憶媒体とは、フラッシュメモリカード、磁気ディスク、光学ディスク等の可搬媒体である。
Embodiments of the present invention will be described below with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram illustrating a configuration of a data processing device 100 according to the first embodiment. The data processing apparatus 100 according to the present embodiment performs data processing on the sound data S (input data) and outputs the processed sound data S ′. For example, the data processing apparatus 100 acquires sound data recorded on a storage medium, and executes data processing on the acquired sound data. Here, the storage medium is a portable medium such as a flash memory card, a magnetic disk, or an optical disk.

データ処理装置100は、記憶媒体から音データを読み出すための読み出し部(不図示)を内部に備えた構成としてもよい。また、データ処理装置100は、有線通信又は無線通信等により接続可能な外部装置(読み出し装置)を備えた構成としてもよい。また、記憶媒体に代えて、フラッシュメモリを搭載してUSB(Universal Serial Bus)コネクタを介して接続可能なUSBメモリ、又はハードディスク等の記憶装置としてもよい。   The data processing apparatus 100 may be configured to include a reading unit (not shown) for reading sound data from the storage medium. In addition, the data processing apparatus 100 may include an external device (reading device) that can be connected by wired communication or wireless communication. Further, instead of the storage medium, a flash memory may be mounted and a USB memory that can be connected via a USB (Universal Serial Bus) connector, or a storage device such as a hard disk.

記憶媒体には、録音された音の音データが記憶されている。記憶媒体には、少なくとも録音機能を有する装置により収音された音の音データが記憶されている。また、記憶媒体には、録音された音の音データにおいて、ノイズが含まれる区間又はノイズが含まれない区間を示す情報が、音データと関連付けられて記憶されている。   Sound data of the recorded sound is stored in the storage medium. The storage medium stores sound data of sound collected by at least a device having a recording function. The storage medium stores information indicating a section including noise or a section not including noise in the sound data of the recorded sound in association with the sound data.

例えば、録音された音の音データにおいて、ノイズが含まれる区間は、この音データを録音(記録)した装置の動作部が動作している区間であってもよい。一方、録音された音の音データにおいて、ノイズが含まれない区間は、この音データを録音した装置の動作部が動作していない区間であってもよい。また、録音された音の音データにおいて、ノイズが含まれる区間を示す情報、又はノイズが含まれない区間を示す情報は、この音データの音を録音した装置の動作部が動作したタイミングを示すデータであってもよい。   For example, in the sound data of the recorded sound, the section including noise may be a section in which the operation unit of the device that recorded (recorded) the sound data is operating. On the other hand, in the sound data of the recorded sound, the section that does not include noise may be a section in which the operation unit of the device that recorded the sound data is not operating. In addition, in the sound data of the recorded sound, information indicating a section including noise or information indicating a section not including noise indicates the timing at which the operation unit of the device that recorded the sound data is operated. It may be data.

ここで、音データを録音した装置の動作部とは、当該装置が備える構成のうち、動作により音が生じる(或いは、音が生じる可能性がある)構成をいう。例えば、音データを録音した装置が撮像装置の場合、その撮像装置が備える、ズームレンズ、防振用レンズ(以下、「VRレンズ」ともいう)、焦点調整レンズ(以下、「AFレンズ」ともいう)、操作部等である。即ち、ノイズとは、撮像装置の備えるズームレンズ、VRレンズ、AFレンズ、操作部等が動作することで生じた音が録音されたものである。   Here, the operation unit of the device that records the sound data refers to a configuration in which sound is generated (or that sound may be generated) by the operation among the configurations of the device. For example, when the device that records the sound data is an imaging device, the imaging device includes a zoom lens, an anti-vibration lens (hereinafter also referred to as “VR lens”), and a focus adjustment lens (hereinafter also referred to as “AF lens”). ), An operation unit or the like. That is, the noise is a recording of sound generated by the operation of the zoom lens, VR lens, AF lens, operation unit, and the like included in the imaging apparatus.

撮像装置は、動作部であるズームレンズ、VRレンズ、又はAFレンズを駆動する駆動部の動作を、駆動制御信号により制御する。即ち、撮像装置は、駆動制御信号の出力値を制御することにより、上述の動作部を動作させる。撮像装置は、駆動制御信号の出力レベル(High/Low)を、動作部が動作したタイミングを示す信号として、録音した音の音データと関連付けて記憶媒体に記憶させてもよい。例えば、駆動制御信号の出力レベルがHighであれば、動作部が動作したタイミングを示す信号となり、出力レベルがLowであれば、動作部が動作していないタイミングを示す信号となる。従って、駆動制御信号の出力レベルがHighであれば、ノイズが含まれる区間と判定することができる。また、駆動制御信号の出力レベルがLowであれば、ノイズが含まれていない区間と判定することができる。なお、動作部を備えた撮像装置の構成については、後述する。   The imaging apparatus controls the operation of the drive unit that drives the zoom lens, the VR lens, or the AF lens, which is the operation unit, using a drive control signal. That is, the imaging apparatus operates the above-described operation unit by controlling the output value of the drive control signal. The imaging apparatus may store the output level (High / Low) of the drive control signal in the storage medium in association with the sound data of the recorded sound as a signal indicating the timing at which the operation unit operates. For example, if the output level of the drive control signal is High, the signal indicates the timing at which the operating unit operates, and if the output level is Low, the signal indicates the timing at which the operating unit is not operating. Therefore, if the output level of the drive control signal is High, it can be determined that the section includes noise. If the output level of the drive control signal is Low, it can be determined that the section does not contain noise. Note that the configuration of the imaging device including the operation unit will be described later.

データ処理装置100は、音データに対してデータ処理を実行する。例えば、データ処理装置100は、録音された音の音データと、その音データに関連付けられた動作部が動作するタイミングを示す信号とに基づいて、音データに含まれるノイズを低減する処理を実行する。   The data processing apparatus 100 performs data processing on sound data. For example, the data processing apparatus 100 performs a process of reducing noise included in the sound data based on the sound data of the recorded sound and a signal indicating the timing at which the operation unit associated with the sound data operates. To do.

続いて、データ処理装置100の構成について説明する。図1に示すように、データ処理装置100は、データ処理部110と、記憶部120と、を備える。   Next, the configuration of the data processing apparatus 100 will be described. As shown in FIG. 1, the data processing apparatus 100 includes a data processing unit 110 and a storage unit 120.

記憶部120は、後述する周波数領域処理前の音データ、窓関数、分割された各フレームの処理前データ、フレーム毎に逆変換された処理データ、処理後の音データ(処理後データ)、各演算式、データ処理プログラム等に関するデータが記憶される。記憶部120の所定領域に記憶されたこれらのデータは、後述するデータ処理部110において、適宜に書き込み及び読み出しが行われる。   The storage unit 120 includes sound data before frequency domain processing to be described later, a window function, pre-processing data of each divided frame, processing data inversely converted for each frame, processed sound data (post-processing data), Data relating to arithmetic expressions, data processing programs, and the like is stored. These data stored in the predetermined area of the storage unit 120 are appropriately written and read by the data processing unit 110 described later.

データ処理部110は、変換部111(第1変換部)と、判定部112と、ノイズ低減部113(変更部)と、逆変換部114(第2変換部)と、加算部115と、補正係数算出部116と、補正部117と、を備える。   The data processing unit 110 includes a conversion unit 111 (first conversion unit), a determination unit 112, a noise reduction unit 113 (change unit), an inverse conversion unit 114 (second conversion unit), an addition unit 115, and a correction. A coefficient calculation unit 116 and a correction unit 117 are provided.

変換部111は、入力した音データSを、処理区間においてオーバーラップする複数のフレーム(短時間区間)に分割し、分割した音データSをフレーム毎に周波数スペクトル(周波数領域データ)に変換する。具体的には、変換部111は、入力した音データSを、処理区間においてオーバーラップする複数のフレームの処理前データに分割し、処理対象となるフレームを抽出する。変換部111は、処理対象となるフレームの処理前データに窓関数を乗算する。そして、変換部111は、窓関数を乗算した処理前データをフーリエ変換して、処理対象となるフレームに対応する周波数スペクトルを生成する。なお、変換部111において、窓関数を乗算した処理前データを、高速フーリエ変換(FFT:Fast Fourier Transform)により、周波数スペクトルに変換してもよい。   The converter 111 divides the input sound data S into a plurality of overlapping frames (short-term sections) in the processing section, and converts the divided sound data S into a frequency spectrum (frequency domain data) for each frame. Specifically, the conversion unit 111 divides the input sound data S into pre-processing data of a plurality of frames that overlap in the processing section, and extracts a frame to be processed. The conversion unit 111 multiplies the pre-processing data of the frame to be processed by the window function. Then, the transform unit 111 performs Fourier transform on the pre-processing data multiplied by the window function, and generates a frequency spectrum corresponding to the frame to be processed. In addition, in the conversion unit 111, the pre-processing data multiplied by the window function may be converted into a frequency spectrum by Fast Fourier Transform (FFT).

ここで、音データから処理前データを分割する際の条件について説明する。図2は、フレームシフトをLf/2とした場合の処理区間、フレーム長、フレームシフト及びオーバーラップの関係を示す模式図である。   Here, conditions for dividing pre-processing data from sound data will be described. FIG. 2 is a schematic diagram showing the relationship between the processing section, the frame length, the frame shift, and the overlap when the frame shift is Lf / 2.

図2は、音データを、第k−1フレーム、第kフレーム、第k+1フレームの処理前データに分割する例を示している。図2において、フレームシフトは、隣接する2つの処理前データが時間的にオーバーラップする区間を示す。本実施形態において、フレームシフトは、フレーム長Lfの半分(Lf/2)である。フレームシフトがLf/2の場合、フレーム長Lfの半分となる半フレームが処理区間(オーバーラップ区間)となる。   FIG. 2 shows an example in which sound data is divided into pre-processing data of the (k−1) th frame, the kth frame, and the (k + 1) th frame. In FIG. 2, the frame shift indicates a section in which two adjacent pre-processing data temporally overlap. In the present embodiment, the frame shift is half the frame length Lf (Lf / 2). When the frame shift is Lf / 2, a half frame that is half of the frame length Lf is a processing section (overlap section).

変換部111は、Lf/2のフレームシフトで分割した処理前データに対して窓関数を乗算する。窓関数とは、有限の特定区間以外で値が0(ゼロ)になる関数である。本例では、各フレームの開始タイミングと終了タイミングとの間が有限の特定区間となる。即ち、窓関数とは、フレーム内においてある値をとり、フレーム外においては値が0(ゼロ)になる関数である。   The converter 111 multiplies the pre-processed data divided by the Lf / 2 frame shift by a window function. The window function is a function whose value becomes 0 (zero) outside a finite specific interval. In this example, a finite specific section is between the start timing and end timing of each frame. That is, the window function is a function that takes a certain value in the frame and becomes 0 (zero) outside the frame.

図3は、窓関数を乗算する前後における音データの一例を示す波形図である。図3(a)は窓関数を乗算する前の音データWiの一例を示す。図3(b)は、窓関数を乗算した後の音データWoの一例を示す。図3(a)に示すように、窓関数を乗算する前の波形Wiは、時刻t0から時刻t2までの間において、振幅Aが一定である。一方、窓関数を乗算した後の波形Woは、時刻t0及び時刻t2において、振幅Aが0(ゼロ)であり、時刻t1において、振幅Aが最大である。なお、本例において、時刻t0から時刻t2までの間が1フレームである。窓関数を乗算せずにフーリエ変換した場合、逆フーリエ変換後の音データが、各フレーム間で不連続な波形となることがある。窓関数を乗算してフーリエ変換することにより、逆フーリエ変換後の音データが、各フレーム間で不連続な波形となるのを低減することができる。   FIG. 3 is a waveform diagram showing an example of sound data before and after multiplication by a window function. FIG. 3A shows an example of sound data Wi before being multiplied by the window function. FIG. 3B shows an example of the sound data Wo after being multiplied by the window function. As shown in FIG. 3A, the waveform Wi before being multiplied by the window function has a constant amplitude A from time t0 to time t2. On the other hand, the waveform Wo after being multiplied by the window function has an amplitude A of 0 (zero) at time t0 and time t2, and has a maximum amplitude A at time t1. In this example, one frame is from time t0 to time t2. When Fourier transform is performed without multiplication by the window function, the sound data after inverse Fourier transform may have a discontinuous waveform between frames. By multiplying the window function and performing Fourier transform, it is possible to reduce the sound data after the inverse Fourier transform from having a discontinuous waveform between the frames.

図4は、分割した音データに窓関数を乗算した場合の一例を示す波形図である。音データSに対して、図3(b)に示すような窓関数を乗算することにより、図4に示すような処理前データSk−1、S、Sk+1が生成される。本例では、音データSに、値が0〜1の窓関数を乗算することにより音データSを分割している。そのため、例えば、処理前データSk−1の後半のデータと処理前データSの前半のデータを比較すると、同じ時間に対応するサンプリング点の極性(+/−)は、全サンプリング点で一致する。 FIG. 4 is a waveform diagram showing an example when the divided sound data is multiplied by a window function. By multiplying the sound data S by a window function as shown in FIG. 3B, pre-processing data S k−1 , S k , and S k + 1 as shown in FIG. 4 are generated. In this example, the sound data S is divided by multiplying the sound data S by a window function having a value of 0 to 1. Therefore, for example, when comparing the latter half of the pre-processing data S k-1 and the first half of the pre-processing data S k , the polarity (+/−) of the sampling points corresponding to the same time is the same at all sampling points. To do.

なお、図4に示す処理前データSk−1は、例えば、本実施形態において第1区間のデータに対応する。また、処理前データSは、例えば、本実施形態において第2区間のデータに対応する。即ち、変換部111において、第1区間と第2区間との一部の区間をオーバーラップさせて、音データ(入力データ)を第1区間のデータと第2区間のデータとに分割した場合、例えば、処理前データSk−1は第1区間のデータに対応し、処理前データSは第2区間のデータに対応する。 Note that the pre-processing data S k-1 shown in FIG. 4 corresponds to the data of the first section in the present embodiment, for example. Also, pre-processing data S k, for example, correspond to the data of the second section in this embodiment. That is, when the conversion unit 111 overlaps a part of the first section and the second section and divides the sound data (input data) into the data of the first section and the data of the second section, For example, the pre-processing data S k-1 corresponds to the data in the first section, and the pre-processing data S k corresponds to the data in the second section.

判定部112は、音データに関連付けられた駆動制御信号の出力レベル(High/Low)に基づいて、音データの各フレームが、ノイズが含まれる区間のフレームであるか、又はノイズが含まれない区間のフレームであるかを判定する。判定部112において、音データのフレームが、ノイズが含まれる区間のフレームであると判定された場合、そのフレームの音データは、ノイズ低減部113へ送られる。一方、判定部112において、音データのフレームが、ノイズの含まれない区間のフレームであると判定された場合、そのフレームの音データは、逆変換部114へ送られる。   Based on the output level (High / Low) of the drive control signal associated with the sound data, the determination unit 112 determines whether each frame of the sound data is a frame in a section including noise or does not include noise. It is determined whether it is a frame of the section. When the determination unit 112 determines that the sound data frame is a frame in a section including noise, the sound data of the frame is sent to the noise reduction unit 113. On the other hand, when the determination unit 112 determines that the sound data frame is a frame in a section not including noise, the sound data of the frame is transmitted to the inverse conversion unit 114.

例えば、判定部112において、上述した第1区間のフレームが、ノイズが含まれる区間のフレームであると判定された場合、第1区間のデータは、ノイズ低減部113へ送られる。また、判定部112において、上述した第2区間のフレームが、ノイズが含まれない区間のフレームであると判定された場合、第2区間のデータは、逆変換部114へ送られる。   For example, when the determination unit 112 determines that the frame of the first section described above is a frame of a section including noise, the data of the first section is sent to the noise reduction unit 113. If the determination unit 112 determines that the frame of the second section described above is a frame of a section that does not include noise, the data of the second section is sent to the inverse conversion unit 114.

なお、判定部112は、1フレームの途中まで駆動制御信号の出力レベルがHighの場合、又は1フレームの途中から駆動制御信号の出力レベルがHighとなった場合には、そのフレームをノイズが含まれる区間のフレームであると判定する。   The determination unit 112 includes noise in the frame when the output level of the drive control signal is High until the middle of one frame, or when the output level of the drive control signal becomes High from the middle of one frame. It is determined that it is a frame of a section.

ノイズ低減部113は、変換部111において変換された周波数スペクトルに含まれる所定の周波数成分を変更する処理(以下、「周波数領域処理」ともいう)を実行する。ノイズ低減部113による周波数領域処理については後述する。   The noise reduction unit 113 executes processing for changing a predetermined frequency component included in the frequency spectrum converted by the conversion unit 111 (hereinafter also referred to as “frequency domain processing”). The frequency domain processing by the noise reduction unit 113 will be described later.

逆変換部114は、ノイズ低減部113で周波数領域処理された周波数スペクトル(又は、ノイズ低減部113で周波数領域処理されていない周波数スペクトル)を、処理区間毎に時間領域の処理データに逆変換する。逆変換部114における逆変換処理については後述する。   The inverse transform unit 114 inversely transforms the frequency spectrum that has been frequency domain processed by the noise reduction unit 113 (or the frequency spectrum that has not been frequency domain processed by the noise reduction unit 113) into processing data in the time domain for each processing interval. . The inverse transformation process in the inverse transformation unit 114 will be described later.

加算部115は、処理区間においてオーバーラップする2つの処理データを加算して、処理後データを生成する。なお、変換部111において、分割した2つの処理前データの一部をオーバーラップさせた処理区間と、加算部115において、加算する2つの処理データの一部をオーバーラップさせた処理区間とは、同じ大きさの区間となる。   The adder 115 adds two pieces of processing data that overlap in the processing section, and generates post-processing data. Note that the processing section in which a part of two divided pre-processing data is overlapped in the conversion unit 111 and the processing section in which a part of two processing data to be added are overlapped in the addition unit 115 are: It becomes the section of the same size.

ここで、上述した変換部111、ノイズ低減部113、及び逆変換部114の処理について具体的に説明する。本実施形態のノイズ低減部113で実行される周波数領域処理は、周波数スペクトルにおける全周波数成分の振幅の大きさを揃え、フーリエ変換した際の位相情報を使用して逆変換することにより処理データを生成する処理である。   Here, processing of the conversion unit 111, the noise reduction unit 113, and the inverse conversion unit 114 described above will be specifically described. In the frequency domain processing executed by the noise reduction unit 113 of the present embodiment, the amplitudes of all frequency components in the frequency spectrum are aligned, and the processing data is processed by performing inverse transformation using phase information when Fourier transform is performed. It is a process to generate.

ここでは、変換部111において、図4に示す第kフレームの処理前データSをフーリエ変換した場合について説明する。
まず、変換部111において、第kフレームの処理前データSを、式(1)によりフーリエ変換して、式(2)に示す振幅情報と、式(3)に示す位相情報とに分離する。式中の「n」は、1フレームにおけるサンプリング点の番号(1≦n≦Lf)である。式中の「s」は、周波数成分のビン番号である。
Here, the conversion unit 111, a case of Fourier transform preprocessing data S k of the k-th frame shown in FIG.
First, in the conversion unit 111, the pre-process data S k of the k-th frame is Fourier-transformed according to Expression (1), and separated into amplitude information shown in Expression (2) and phase information shown in Expression (3). . “N” in the equation is the number of sampling points in one frame (1 ≦ n ≦ Lf). “S” in the equation is the bin number of the frequency component.

Figure 2015138204
Figure 2015138204
Figure 2015138204
Figure 2015138204
Figure 2015138204
Figure 2015138204

次に、ノイズ低減部113において、式(2)の振幅情報を、式(4)により、周波数に依存しない定数に変更する。この処理を全周波数成分について実行することにより、振幅情報の大きさが揃えられる。この周波数領域処理において、各フレームにおける全周波数成分のパワーの和は変化しない。この周波数領域処理は、本実施形態におけるノイズ低減処理である。   Next, in the noise reduction unit 113, the amplitude information of Expression (2) is changed to a constant independent of frequency by Expression (4). By executing this processing for all frequency components, the magnitudes of the amplitude information are made uniform. In this frequency domain processing, the sum of the powers of all frequency components in each frame does not change. This frequency domain process is a noise reduction process in the present embodiment.

なお、他のノイズ低減処理として、例えば、前述したスペクトル減算法を用いてもよい。スペクトル減算法によるノイズ低減処理は、ノイズの含まれるフレームの周波数スペクトルから、推定ノイズスペクトルを、周波数ビン毎(周波数成分毎)にそれぞれ減算することにより、音データのノイズを低減させるものである。   As another noise reduction process, for example, the aforementioned spectral subtraction method may be used. The noise reduction processing by the spectrum subtraction method is to reduce noise of sound data by subtracting an estimated noise spectrum for each frequency bin (for each frequency component) from a frequency spectrum of a frame including noise.

Figure 2015138204
Figure 2015138204

次に、逆変換部114において、式(5)により、周波数領域処理後の振幅情報と、周波数領域処理前の位相情報とを組み合わせて逆変換する。   Next, the inverse transform unit 114 performs inverse transform by combining the amplitude information after the frequency domain processing and the phase information before the frequency domain processing according to Expression (5).

Figure 2015138204
Figure 2015138204

逆変換部114で逆変換された処理データを、後段の加算部115において、処理区間毎にオーバーラップさせて加算することにより、処理後データが生成される。
次に、周波数領域処理された処理後データのパワーの和が、周波数領域処理前の処理前データのパワーの和に対して変化することについて説明する。
The post-processing data is generated by adding the processing data inversely converted by the inverse conversion unit 114 in the subsequent addition unit 115 by overlapping each processing section.
Next, it will be described that the power sum of the processed data subjected to the frequency domain processing changes with respect to the power sum of the pre-processed data before the frequency domain processing.

図4では、値が0〜1の窓関数を乗算することにより音データSを分割したので、処理前データSk−1の後半のデータと処理前データSの前半のデータにおいて、同じ時間に対応するサンプリング点の極性(+/−)は、全サンプリング点で一致する。そのため、処理前データSk−1の後半のデータと処理前データSの前半のデータとがオーバーラップする区間(処理区間)における音データのパワーは、式(6)により求められる。式(6)において、「FS」は、フレームシフト(=Lf/2)値を示す。例えば、フレーム長Lfのサンプリング数が1024であれば、FSは512となる。 In FIG. 4, since the sound data S is divided by multiplying the window function having a value of 0 to 1 , the same time is used in the latter half of the pre-processing data S k-1 and the first half of the pre-processing data S k. The polarity (+/−) of the sampling point corresponding to is the same at all sampling points. Therefore, the power of the sound data in a section (processing section) where the latter half of the pre-processing data S k−1 and the first half of the pre-processing data S k overlap is obtained by Expression (6). In Equation (6), “FS” indicates a frame shift (= Lf / 2) value. For example, if the sampling number of the frame length Lf is 1024, the FS is 512.

Figure 2015138204
Figure 2015138204

ここで、周波数領域処理された、第k−1フレーム、第kフレームにおける処理データを、それぞれ処理データS´k−1、S´とすると、それぞれのフレームがオーバーラップする区間の音データのパワーは、式(7)により求められる。 Here, assuming that the processing data in the k− 1th frame and the kth frame that have been subjected to frequency domain processing are processing data S ′ k−1 and S ′ k , respectively, The power is obtained by the equation (7).

Figure 2015138204
Figure 2015138204

各フレームにおいて全周波数成分のパワーの和が変化しないように周波数領域処理された処理データS´k−1、S´と、周波数領域処理する前の処理前データSk−1、Sとがオーバーラップする区間におけるパワーの和の変化量は、式(8)により求められる。 Process data S ′ k−1 , S ′ k that have been frequency domain processed so that the sum of the powers of all frequency components does not change in each frame, and pre-processing data S k−1 , S k before frequency domain processing, The amount of change in the sum of the power in the interval where the values overlap is obtained by equation (8).

Figure 2015138204
Figure 2015138204

式(8)において、周波数領域処理する前の処理前データでは、オーバーラップする区間のパワーを示す│Sk−1(n+FS)││S(n)│が、必ず正値となる。一方、周波数領域処理された処理後データでは、第k−1フレーム、第kフレームのオーバーラップする区間での相関が弱くなる、或いは極性(+/−)に相違が生じることがある。そのため、式(9)に示すように、オーバーラップする区間におけるパワーは全体として小さくなることが考えられる。式(9)では、第k−1フレーム、第kフレームのオーバーラップする区間での相関がゼロに近づくにつれて、式(9)もゼロ(0)に近づくことを示している。 In Expression (8), in the pre-processing data before the frequency domain processing, | S k-1 (n + FS) || S k (n) | indicating the power of the overlapping section is always a positive value. On the other hand, in post-processed data that has been subjected to frequency domain processing, the correlation between overlapping sections of the (k-1) th frame and the (k-1) th frame may be weak, or the polarity (+/-) may be different. Therefore, as shown in Expression (9), it is conceivable that the power in the overlapping section is reduced as a whole. Equation (9) shows that equation (9) also approaches zero (0) as the correlation in the overlapping section of the (k−1) th frame and the kth frame approaches zero.

Figure 2015138204
Figure 2015138204

なお、相関が弱くなるとは、2つの波形の相関係数の大きさが1より小さくなること(2つの波形の近似性が低くなること)をいう。相関係数は、例えば、−1から1の間に正規化された値によって表される。相関係数が0であるとは、2つの波形に相関が全くない状態を表す。また、相関係数の大きさが1であるとは、2つの波形が完全に相関している状態を表す。2つの波形の相関係数が1より小さくなると、オーバーラップする区間において、2つの処理データを加算した処理後データのパワーが、周波数領域処理前よりも低下することがある。同様に、周波数領域処理の前後で極性(+/−)に相違が生じた場合も、オーバーラップする区間において、2つの処理データを加算した処理後データのパワーが、周波数領域処理前よりも低下することがある。   Note that the weakening of the correlation means that the correlation coefficient between the two waveforms is smaller than 1 (the closeness of the two waveforms is reduced). The correlation coefficient is represented by a value normalized between −1 and 1, for example. A correlation coefficient of 0 represents a state where there is no correlation between the two waveforms. A correlation coefficient of 1 means that two waveforms are completely correlated. When the correlation coefficient of the two waveforms is smaller than 1, the power of the processed data obtained by adding the two processed data in the overlapping section may be lower than that before the frequency domain processing. Similarly, even when the polarity (+/−) differs before and after the frequency domain processing, the power of the processed data obtained by adding the two processed data is lower than that before the frequency domain processing in the overlapping section. There are things to do.

そのため、ノイズ低減部113において、各フレームにおけるパワーの和が変化しないような周波数領域処理を行っても、2つの処理データを加算した処理後データのパワーの和は、周波数領域処理前よりも全体として低下する傾向にある。   Therefore, even if the noise reduction unit 113 performs frequency domain processing so that the sum of power in each frame does not change, the sum of the power of the processed data obtained by adding the two processing data is larger than that before the frequency domain processing. Tend to decline.

図5は、図4に示す処理前データSk−1、S、Sk+1に、周波数領域処理を行った後の処理データS´k−1、S´、S´k+1、及び処理後の音データS´示す波形図である。図5に示す各フレームの処理データS´k−1、S´、S´k+1と、図4に示す処理前データSk−1、S、Sk+1とを比較すると、図4に示す処理前データでは、同時間に対応する隣接フレームにおいて、オーバーラップする両データの極性(+/−)は一致している。一方、図5に示す処理データでは、同時間に対応する隣接フレームにおいて、オーバーラップする両データの極性は必ずしも一致していない。 5, pre-processing data S k-1, S k shown in FIG. 4, the S k + 1, the process data S'k-1 after the frequency domain processing, S'k, S'k + 1 , and after treatment It is a wave form diagram which shows sound data S '. Processing data S'k-1 of each frame shown in FIG. 5, S'k, and S'k + 1, the pre-processing shown in FIG. 4 the data S k-1, S k, is compared with the S k + 1, shown in FIG. 4 In the pre-processing data, in the adjacent frames corresponding to the same time, the polarities (+/−) of the overlapping data are the same. On the other hand, in the processing data shown in FIG. 5, the polarities of the overlapping data do not necessarily match in the adjacent frames corresponding to the same time.

また、図4に示す処理前データSk−1、S、Sk+1では、窓関数により各フレームの両端において振幅が絞られている。これに対して、図5に示す処理データS´k−1、S´、S´k+1では、各フレームの両端において振幅が大きくなっており、窓関数を乗算した効果が薄くなっている。そのため、オーバーラップする2つの処理データを加算した場合に、各フレームの両端付近においても、両データの極性が一致していなければ、処理後データのパワーの和は、周波数領域処理前よりも低下する傾向にある。 Further, in the pre-processing data S k−1 , S k , and S k + 1 shown in FIG. 4, the amplitude is narrowed at both ends of each frame by the window function. On the other hand, in the processing data S ′ k−1 , S ′ k , and S ′ k + 1 shown in FIG. 5, the amplitude is increased at both ends of each frame, and the effect of multiplying the window function is reduced. For this reason, when two overlapping processing data are added, the sum of the power of the processed data is lower than that before the frequency domain processing if the polarities of the two data do not match even near both ends of each frame. Tend to.

再び図1の説明に戻り、データ処理部110の補正係数算出部116、及び補正部117について説明する。
補正係数算出部116は、処理区間における加算後の処理後データのパワーの和と、同じ処理区間における加算前の隣接する複数の処理データのパワーの和を加算した値とに基づいて補正係数を算出する。
Returning to the description of FIG. 1 again, the correction coefficient calculation unit 116 and the correction unit 117 of the data processing unit 110 will be described.
The correction coefficient calculation unit 116 calculates the correction coefficient based on the sum of the power of the processed data after the addition in the processing section and the value obtained by adding the sum of the powers of a plurality of adjacent processing data before the addition in the same processing section. calculate.

補正係数算出部116は、処理対象となるフレームの処理後データに対して、補正係数の算出が必要と判定した場合にのみ補正係数を算出する。補正係数算出部116は、判定部112において、処理対象となるフレームが、ノイズが含まれる区間のフレームであると判定された場合に、補正係数の算出が必要と判定する。また、補正係数算出部116は、判定部112において、処理対象となるフレームが、ノイズが含まれない区間のフレームであると判定された場合に、補正係数の算出が不要と判定する。   The correction coefficient calculation unit 116 calculates the correction coefficient only when it is determined that the correction coefficient needs to be calculated for the processed data of the frame to be processed. The correction coefficient calculation unit 116 determines that the correction coefficient needs to be calculated when the determination unit 112 determines that the frame to be processed is a frame in a section including noise. The correction coefficient calculation unit 116 determines that calculation of the correction coefficient is unnecessary when the determination unit 112 determines that the frame to be processed is a frame in a section not including noise.

以下、図4に示す処理前データSk−1、S、及び図5に示す処理データS´k−1、S´を例にして説明する。
図4及び図5では、フレームシフトがLf/2であるため、隣接する2つのフレームの処理データを、処理区間(半フレーム)でオーバーラップさせて加算することにより、処理後データとなる音データS´を得ている。そのため、処理区間における加算後の処理後データのパワーの和と、同じ処理区間における加算前の隣接する2つの処理データのパワーの和を加算した値とが等しくなるように補正係数を算出する。両データのパワーの和が等しくなるようにするための補正係数CCは、式(10)により求められる。
Hereinafter, FIG. 4 preprocessing shown in the data S k-1, S k, and processing the data S'k-1 shown in FIG. 5 will be explained with reference to an example S'k.
4 and 5, since the frame shift is Lf / 2, the sound data that becomes the post-processing data is obtained by adding the processing data of two adjacent frames overlapping in the processing section (half frame). S 'is obtained. For this reason, the correction coefficient is calculated so that the sum of the power of the processed data after the addition in the processing section is equal to the value obtained by adding the sum of the powers of two adjacent processing data before the addition in the same processing section. A correction coefficient CC for making the sum of the powers of both data equal is obtained by equation (10).

Figure 2015138204
Figure 2015138204

式(10)において、分数式の分母は、処理区間における加算後の処理後データのパワーの和(加算値の2乗)を示す。また、分子は、同じ処理区間における加算前の隣接する2つの処理データのパワーの和を加算した値(2乗した値の加算値)を示す。両データのパワーは、振幅の2乗に相当するため、分数式により得られた解の平方根を取ったものが処理後データを補正するための補正係数CCとなる。   In Expression (10), the denominator of the fractional expression indicates the sum of the power of the processed data after the addition in the processing section (the square of the added value). The numerator indicates a value obtained by adding the sums of powers of two adjacent processing data before addition in the same processing section (added value of squared values). Since the power of both data corresponds to the square of the amplitude, a value obtained by taking the square root of the solution obtained by the fractional expression is a correction coefficient CC for correcting the processed data.

補正部117は、処理区間における加算後の処理後データのパワーの和と、同じ処理区間における加算前の隣接する2つの処理データのパワーの和を加算した値とが等しくなるように、処理区間における加算後の処理後データを補正係数CCに基づいて補正する。   The correction unit 117 sets the processing interval so that the sum of the powers of the processed data after the addition in the processing interval is equal to the sum of the powers of the two adjacent processing data before the addition in the same processing interval. The post-processing data after the addition in is corrected based on the correction coefficient CC.

補正後の処理区間における処理後データS´corrected(n)は、式(11)により求められる。補正部117における処理後データの補正は、処理区間(本例では半フレーム)毎に行われる。   The post-processing data S ′ corrected (n) in the post-correction processing section is obtained by Expression (11). The correction of post-processing data in the correction unit 117 is performed for each processing section (half frame in this example).

Figure 2015138204
Figure 2015138204

なお、補正係数算出部116において、処理区間における加算後の処理後データの振幅の和と、同じ処理区間における加算前の隣接する複数の前記処理データの振幅の和を加算した値とに基づいて補正係数を算出してもよい。フレームシフトがLf/2である場合に、両データの振幅の和を等しくするための補正係数CCは、式(12)により求められる。   Based on the sum of the amplitudes of the processed data after the addition in the processing interval and the sum of the amplitudes of a plurality of adjacent processing data before the addition in the same processing interval in the correction coefficient calculation unit 116. A correction coefficient may be calculated. When the frame shift is Lf / 2, the correction coefficient CC for equalizing the sum of the amplitudes of both data is obtained by Expression (12).

Figure 2015138204
Figure 2015138204

式(12)で求められる補正係数CCにより処理後データを補正した場合も、両データのパワーの和を等しくするための補正係数CCにより処理後データを補正した場合と同様の効果を得ることができる。また、式(12)によれば、補正係数CCの演算量を抑制することができる。   Even when the post-processing data is corrected by the correction coefficient CC obtained by Expression (12), the same effect as that obtained when the post-processing data is corrected by the correction coefficient CC for equalizing the sum of the powers of both data can be obtained. it can. Further, according to the equation (12), the calculation amount of the correction coefficient CC can be suppressed.

次に、データ処理装置100による周波数領域処理の一連の動作について説明する。図6は、データ処理装置100による周波数領域処理の手順を示すフローチャートである。図6に示すフローチャートの処理は、記憶部120(図1参照)に記憶されたデータ処理プログラムに基づいて、データ処理部110により実行される。   Next, a series of operations of frequency domain processing by the data processing apparatus 100 will be described. FIG. 6 is a flowchart showing the procedure of frequency domain processing by the data processing apparatus 100. The process of the flowchart shown in FIG. 6 is executed by the data processing unit 110 based on the data processing program stored in the storage unit 120 (see FIG. 1).

図6に示すステップS1において、変換部111は、入力した音データSを、処理区間においてオーバーラップする複数のフレームに分割し、処理対象となるフレームを抽出する。   In step S1 shown in FIG. 6, the conversion unit 111 divides the input sound data S into a plurality of frames that overlap in the processing section, and extracts a frame to be processed.

ステップS2において、変換部111は、処理対象となるフレームの処理前データに窓関数を乗算する。
ステップS3において、変換部111は、窓関数を乗算した処理前データを、フーリエ変換により周波数スペクトルに変換する。
In step S2, the conversion unit 111 multiplies the pre-processing data of the frame to be processed by the window function.
In step S3, the conversion unit 111 converts the pre-processing data multiplied by the window function into a frequency spectrum by Fourier transformation.

ステップS4において、判定部112は、処理前データに関連付けられた駆動制御信号の出力レベル(High/Low)に基づいて、処理対象となるフレームが、ノイズが含まれる区間のフレームであるか、ノイズが含まれない区間のフレームであるかを判定する。このステップS4の判定がYESであれば、処理はステップS5へ移行する。また、ステップS4の判定がNOであれば、処理はステップS6へ移行する。   In step S4, the determination unit 112 determines whether the frame to be processed is a frame in a section including noise based on the output level (High / Low) of the drive control signal associated with the pre-processing data, It is determined whether the frame is in a section not included. If the determination in step S4 is YES, the process proceeds to step S5. If the determination in step S4 is NO, the process proceeds to step S6.

ステップS5において、ノイズ低減部113は、ステップS3で変換された周波数スペクトルに対して、周波数領域処理(ノイズ低減処理)を実行する。
なお、ステップS5において、例えば、スペクトル減算法によるノイズ低減処理を行った場合に、周波数領域に変換されたノイズデータからノイズデータを減算した後、所定のデータを加算してもよい。ここで、所定のデータとは、例えば、擬似乱数を生成するプログラムにより生成されたランダムノイズであってもよい。周波数領域に変換されたノイズデータからノイズデータを減算した場合、想定されるノイズの大きさ以上に減算し過ぎる場合、若しくは、想定されるノイズの大きさよりも大きな値を意図的に減算させる場合がある。そのような場合に、所定のデータを加算する処理を追加することにより、減算し過ぎた音を補間することができる。
In step S5, the noise reduction unit 113 performs frequency domain processing (noise reduction processing) on the frequency spectrum converted in step S3.
In step S5, for example, when noise reduction processing by a spectral subtraction method is performed, predetermined data may be added after subtracting the noise data from the noise data converted into the frequency domain. Here, the predetermined data may be, for example, random noise generated by a program that generates pseudo-random numbers. When noise data is subtracted from the noise data converted to the frequency domain, it may be excessively subtracted beyond the expected noise magnitude, or a value larger than the expected noise magnitude may be intentionally subtracted. is there. In such a case, by adding a process of adding predetermined data, it is possible to interpolate a sound that has been subtracted excessively.

ステップS6において、逆変換部114は、ステップS5で周波数領域処理されたフレームの周波数スペクトル、又は周波数領域処理されていないフレームの周波数スペクトルを、時間領域の処理データに逆変換する。   In step S6, the inverse transform unit 114 inversely transforms the frequency spectrum of the frame subjected to the frequency domain processing in step S5 or the frequency spectrum of the frame not subjected to the frequency domain processing into processing data in the time domain.

ステップS7において、加算部115は、処理区間においてオーバーラップする2つの処理データを加算して、処理後データを生成する。例えば、処理対象となるフレームが、図4に示す第k−1フレーム及び第kフレームであれば、図5に示す処理データS´k−1の後半部分と、処理データS´の前半部分とを、処理区間(半フレーム)でオーバーラップさせて加算する。 In step S <b> 7, the addition unit 115 adds two pieces of processing data that overlap in the processing section, and generates post-processing data. For example, the process target frame, if the k-1 frame and a k-th frame shown in FIG. 4, and the second half portion of the processing data S'k-1 shown in FIG. 5, the first half of the process data S'k Are overlapped in the processing section (half frame) and added.

ステップS8において、補正係数算出部116は、ステップS4における判定部112での判定結果に基づいて、処理対象となるフレームについて補正係数の算出が必要か否かを判定する。このステップS8の判定がYESであれば、処理はステップS9へ移行する。また、ステップS8の判定がNOであれば、処理はステップS11へ移行する。   In step S8, the correction coefficient calculation unit 116 determines whether correction coefficient calculation is necessary for a frame to be processed based on the determination result in the determination unit 112 in step S4. If the determination in step S8 is YES, the process proceeds to step S9. If the determination in step S8 is NO, the process proceeds to step S11.

ステップS9において、補正係数算出部116は、処理区間における加算後の処理後データのパワーの和と、同じ処理区間における加算前の隣接する2つの処理データのパワーの和を加算した値とが等しくなるように補正係数を算出する。例えば、処理対象となるフレームが、図4に示す第k−1フレーム及び第kフレームであれば、補正係数CCは、式(10)により求められる。   In step S9, the correction coefficient calculation unit 116 equals the sum of the powers of the processed data after the addition in the processing interval and the sum of the powers of two adjacent processing data before the addition in the same processing interval. The correction coefficient is calculated as follows. For example, if the frame to be processed is the (k−1) th frame and the kth frame shown in FIG. 4, the correction coefficient CC is obtained by Expression (10).

ステップS10において、補正部117は、処理区間における加算後の処理後データのパワーの和と、同じ処理区間における加算前の隣接する2つの処理データのパワーの和を加算した値とが等しくなるように、処理区間における加算後の処理後データを補正係数CCに基づいて補正する。例えば、処理対象となるフレームが、図4に示す第k−1フレーム及び第kフレームであれば、補正後の処理区間(第k−1フレームの後半部分、及び第kフレームの前半部分)における処理後データは、例えば、式(11)により求められる。補正された処理後データは、音データS´としてデータ処理部110から出力される。なお、補正係数算出部116において、補正係数が算出されないフレームについては、加算部115で加算された処理データが音データS´としてデータ処理部110から出力される。   In step S10, the correction unit 117 makes the sum of the powers of the processed data after the addition in the processing section equal to the value obtained by adding the sums of the powers of two adjacent processing data before the addition in the same processing section. Further, the post-processing data after the addition in the processing section is corrected based on the correction coefficient CC. For example, if the frame to be processed is the k-1 frame and the k frame shown in FIG. 4, in the corrected processing section (the second half of the k-1 frame and the first half of the k frame). The post-processing data is obtained by, for example, equation (11). The corrected post-processing data is output from the data processing unit 110 as sound data S ′. For the frames for which the correction coefficient calculation unit 116 does not calculate the correction coefficient, the processing data added by the addition unit 115 is output from the data processing unit 110 as sound data S ′.

ステップS11において、変換部111は、入力した音データSのすべてのフレームについて処理が終了したか否かを判定する。このステップS11の判定がYESであれば、本フローチャートの処理を終了する。また、ステップS11の判定がNOであれば、処理はステップS1へ戻る。   In step S11, the conversion unit 111 determines whether or not the processing has been completed for all frames of the input sound data S. If the determination in step S11 is YES, the process of this flowchart is terminated. If the determination in step S11 is NO, the process returns to step S1.

次に、本実施形態のデータ処理装置100による周波数領域処理(ノイズ低減処理)の具体例について説明する。   Next, a specific example of frequency domain processing (noise reduction processing) by the data processing apparatus 100 according to the present embodiment will be described.

図7は、データ処理装置100による周波数領域処理の具体例を示す説明図である。図7において、横軸は時間を示す。図7(a)及び(c)において、縦軸はデータの値を示す。図7(b)において、縦軸はデータの出力レベルを示す。図7(d)において、縦軸は処理前データのパワーの和を1としたときの処理後データのパワーの和の比率を示す。   FIG. 7 is an explanatory diagram showing a specific example of frequency domain processing by the data processing apparatus 100. In FIG. 7, the horizontal axis indicates time. 7A and 7C, the vertical axis indicates the data value. In FIG. 7B, the vertical axis indicates the data output level. In FIG. 7D, the vertical axis indicates the ratio of the sum of the power of the processed data when the sum of the power of the data before the processing is 1.

図7(a)は、入力データとなる音データSの波形図である。ここでは、値が−0.5〜0.5の擬似乱数データを音データSとして使用した。
図7(b)は、駆動制御信号の出力レベルの変化を示す。本例では、駆動制御信号の出力レベルがHighの区間を、音データSにノイズが含まれる区間と仮定した。また、駆動制御信号の出力レベルがLowの区間を、音データSにノイズが含まれていない区間と仮定した。本例では、駆動制御信号の出力レベルがHighとなる区間(以下、「出力レベルがHighの処理区間」ともいう)において、ノイズ低減部113(図1参照)による周波数領域処理を実施した。
FIG. 7A is a waveform diagram of the sound data S serving as input data. Here, pseudo-random data having a value of −0.5 to 0.5 is used as the sound data S.
FIG. 7B shows a change in the output level of the drive control signal. In this example, it is assumed that the section in which the output level of the drive control signal is High is a section in which noise is included in the sound data S. Further, the section where the output level of the drive control signal is Low is assumed to be a section where the sound data S does not contain noise. In this example, frequency domain processing by the noise reduction unit 113 (see FIG. 1) is performed in a section where the output level of the drive control signal is High (hereinafter also referred to as “processing section where the output level is High”).

図7(c)は、周波数領域処理された音データS´の波形図である。図7(c)に示す波形図は、補正部117(図1参照)において補正係数による補正を行っていない音データS´の波形図である。   FIG. 7C is a waveform diagram of the sound data S ′ subjected to frequency domain processing. The waveform diagram shown in FIG. 7C is a waveform diagram of the sound data S ′ that is not corrected by the correction coefficient in the correction unit 117 (see FIG. 1).

図7(d)は、処理前データのパワーの和に対する処理後データのパワーの和の大きさを示すグラフである。本例では、フレーム長Lfのサンプリング数を1024とし、フレームシフト(FS)を512とした。図7(d)では、処理前データのパワーの和を1としたときの、処理後データのパワーの和の大きさを半フレーム(サンプリング数512)毎にグラフ化している。   FIG. 7D is a graph showing the magnitude of the sum of the power of the processed data relative to the sum of the power of the pre-processed data. In this example, the sampling number of the frame length Lf is 1024, and the frame shift (FS) is 512. In FIG. 7D, the sum of the power of the processed data when the sum of the power of the unprocessed data is 1 is graphed for each half frame (sampling number 512).

図7(d)に示す実線は、処理区間において、補正係数による補正を行っていない処理後データの結果を示すグラフである。また、図7(d)に示す破線は、処理区間において、補正係数による補正を行った処理後データの結果を示すグラフである。図7(d)において、駆動制御信号の出力レベルがLowとなる区間はグラフが重複するため、すべて実線で示している。   The solid line shown in FIG. 7D is a graph showing the result of the processed data that is not corrected by the correction coefficient in the processing section. Moreover, the broken line shown in FIG.7 (d) is a graph which shows the result of the data after a process which corrected with the correction coefficient in the process area. In FIG. 7D, since the graphs overlap in a section where the output level of the drive control signal is Low, all are shown by solid lines.

図7(d)に示すように、補正係数による補正を行っていない処理後データでは、出力レベルがHighの処理区間において、パワーの和が全体的に低下する傾向があることが確認された。一方、補正係数による補正を行った処理後データでは、出力レベルがHighの処理区間において、パワーの和がほとんど低下しないことが確認された。   As shown in FIG. 7D, it was confirmed that the post-processing data that is not corrected by the correction coefficient has a tendency that the sum of power tends to decrease as a whole in the processing section where the output level is High. On the other hand, in the post-processing data corrected by the correction coefficient, it was confirmed that the power sum hardly decreases in the processing section where the output level is high.

以上説明したように、第1実施形態のデータ処理装置100では、処理後データのパワーの和、及び加算前の隣接する複数の処理データのパワーの和に基づいて補正係数を算出し、この補正係数に基づいて加算後の処理後データを補正するため、音データに含まれる環境音のレベル低下を抑制しつつ、動作部が動作したときに発生する動作ノイズを適切に低減させることができる。   As described above, in the data processing apparatus 100 according to the first embodiment, the correction coefficient is calculated based on the sum of the power of the processed data and the sum of the powers of a plurality of adjacent processed data before the addition. Since the post-processing data after the addition is corrected based on the coefficient, it is possible to appropriately reduce the operation noise generated when the operation unit operates while suppressing the decrease in the level of the environmental sound included in the sound data.

また、第1実施形態のデータ処理装置100では、動作部が動作したタイミングを示す信号として、駆動制御信号の出力レベル(High/Low)を使用するため、ノイズが含まれる区間をより正確に判定することができる。   In the data processing apparatus 100 according to the first embodiment, since the output level (High / Low) of the drive control signal is used as a signal indicating the timing at which the operation unit operates, a section including noise is more accurately determined. can do.

なお、第1実施形態では、フレームシフトをLf/2とした場合(図2参照)について説明したが、フレームシフトは、Lf/3であってもよい。図8は、フレームシフトをLf/3とした場合の処理区間、フレーム長、フレームシフト及びオーバーラップの関係を示す模式図である。図8では、音データを、第k−2フレーム、第k−1フレーム、第kフレーム、第k+1フレームの処理前データに分割する例を示している。図8において、フレームシフトは、隣接する3つの処理前データが時間的にオーバーラップする区間を示す。図8に示す実施形態において、フレームシフトは、フレーム長Lfの半分(Lf/3)である。フレームシフトがLf/3の場合、フレーム長Lfの2/3となる2/3フレームが処理区間(オーバーラップ区間)となる。   In the first embodiment, the case where the frame shift is set to Lf / 2 (see FIG. 2) has been described, but the frame shift may be Lf / 3. FIG. 8 is a schematic diagram showing the relationship between the processing section, the frame length, the frame shift, and the overlap when the frame shift is Lf / 3. FIG. 8 shows an example in which sound data is divided into pre-processing data of the (k-2) th frame, the (k-1) th frame, the kth frame, and the (k + 1) th frame. In FIG. 8, the frame shift indicates a section in which three adjacent pre-processing data temporally overlap. In the embodiment shown in FIG. 8, the frame shift is half the frame length Lf (Lf / 3). When the frame shift is Lf / 3, a 2/3 frame that is 2/3 of the frame length Lf is a processing section (overlap section).

フレームシフトをLf/3とした場合は、隣接する3つのフレームの処理データを、処理区間(2/3フレーム)でオーバーラップさせて加算することにより、処理後データとなる音データS´を得ることができる。そのため、処理区間における加算後の処理後データのパワーの和と、同じ処理区間における加算前の隣接する3つの処理データのパワーの和を加算した値とが等しくなるように補正係数を算出する。両データのパワーの和が等しくなるようにするための補正係数CCは、式(13)により求められる。   When the frame shift is set to Lf / 3, the processing data of the three adjacent frames are overlapped and added in the processing section (2/3 frame) to obtain the sound data S ′ as post-processing data. be able to. Therefore, the correction coefficient is calculated so that the sum of the powers of the processed data after the addition in the processing interval is equal to the value obtained by adding the sums of the powers of the three adjacent processing data before the addition in the same processing interval. A correction coefficient CC for making the sum of the powers of both data equal is obtained by equation (13).

Figure 2015138204
Figure 2015138204

また、本例において、補正部117は、処理区間における加算後の処理後データのパワーの和と、同じ処理区間における加算前の隣接する3つの処理データのパワーの和を加算した値とが等しくなるように、処理区間における加算後の処理後データを補正係数CCに基づいて補正する。補正後の処理区間における処理後データS´corrected(n)は、式(14)により求められる。補正部117における処理後データの補正は、処理区間(本例では2/3フレーム)毎に行われる。   Further, in this example, the correction unit 117 equals the sum of the powers of the processed data after the addition in the processing interval and the sum of the powers of the three adjacent processing data before the addition in the same processing interval. In this way, the post-processing data after the addition in the processing section is corrected based on the correction coefficient CC. The post-processing data S ′ corrected (n) in the post-correction processing section is obtained by Expression (14). The correction of post-processing data in the correction unit 117 is performed for each processing section (2/3 frame in this example).

Figure 2015138204
Figure 2015138204

なお、フレームシフトをLf/3とした場合に、補正係数算出部116において、処理区間における加算後の処理後データの振幅の和と、同じ処理区間における加算前の隣接する複数の前記処理データの振幅の和を加算した値とに基づいて補正係数を算出してもよい。フレームシフトがLf/3である場合に、両データの振幅の和を等しくするための補正係数CCは、式(15)により求められる。   When the frame shift is set to Lf / 3, the correction coefficient calculation unit 116 adds the sum of the amplitudes of the processed data after the addition in the processing section and a plurality of adjacent processing data before the addition in the same processing section. The correction coefficient may be calculated based on a value obtained by adding the sum of amplitudes. When the frame shift is Lf / 3, the correction coefficient CC for equalizing the sum of the amplitudes of both data is obtained by Expression (15).

Figure 2015138204
Figure 2015138204

式(15)で求められる補正係数CCにより処理後データを補正した場合も、両データのパワーの和を等しくするための補正係数CCにより処理後データを補正した場合と同様の効果を得ることができる。また、式(15)によれば、補正係数CCの演算量を抑制することができる。   Even when the post-processing data is corrected by the correction coefficient CC obtained by the equation (15), the same effect as when the post-processing data is corrected by the correction coefficient CC for equalizing the sum of the powers of both data can be obtained. it can. Further, according to the equation (15), the calculation amount of the correction coefficient CC can be suppressed.

[第2実施形態]
図9は、第1実施形態のデータ処理装置100を備えた撮像装置1の構成を示すブロック図である。なお、図9において、図1に示す各部に対応する構成には同じ符号を付し、その説明を適宜に省略する。
[Second Embodiment]
FIG. 9 is a block diagram illustrating a configuration of the imaging apparatus 1 including the data processing apparatus 100 according to the first embodiment. In FIG. 9, the same reference numerals are given to the components corresponding to the respective parts shown in FIG. 1, and the description thereof will be omitted as appropriate.

撮像装置1は、撮像部10と、CPU90と、操作部80と、画像処理部40と、表示部50と、記憶部60と、バッファメモリ部30と、通信部70と、マイク21と、A/D変換部22と、音データ処理部23と、データ処理部110と、バス300と、を備える。撮像装置1において、データ処理部110、及び記憶部60の一部は、第1実施形態のデータ処理装置100に対応する。   The imaging device 1 includes an imaging unit 10, a CPU 90, an operation unit 80, an image processing unit 40, a display unit 50, a storage unit 60, a buffer memory unit 30, a communication unit 70, a microphone 21, and an A. / D conversion unit 22, sound data processing unit 23, data processing unit 110, and bus 300. In the imaging device 1, a part of the data processing unit 110 and the storage unit 60 corresponds to the data processing device 100 of the first embodiment.

撮像部10は、光学系11と、撮像素子19と、A/D変換部20と、を備える。撮像部10は、設定された撮像条件(例えば、絞り値、露出値等)に従ってCPU90により制御される。撮像部10は、光学系11による光学像を撮像素子19に結像させ、A/D変換部20によりデジタル信号に変換された、当該光学像に基づく画像データを生成する。   The imaging unit 10 includes an optical system 11, an imaging element 19, and an A / D conversion unit 20. The imaging unit 10 is controlled by the CPU 90 according to the set imaging conditions (for example, aperture value, exposure value, etc.). The imaging unit 10 forms an optical image by the optical system 11 on the imaging element 19 and generates image data based on the optical image converted into a digital signal by the A / D conversion unit 20.

光学系11は、ズームレンズ14と、VRレンズ13と、AFレンズ12と、ズームエンコーダ15と、レンズ駆動部16と、AFエンコーダ17と、防振制御部18と、を備える。光学系11を通過した光学像は、撮像素子19の受光面に導かれる。   The optical system 11 includes a zoom lens 14, a VR lens 13, an AF lens 12, a zoom encoder 15, a lens driving unit 16, an AF encoder 17, and an image stabilization control unit 18. The optical image that has passed through the optical system 11 is guided to the light receiving surface of the image sensor 19.

レンズ駆動部16は、CPU90(後述)から入力される駆動制御信号に基づいて、ズームレンズ14又はAFレンズ12の位置を制御する。防振制御部18は、CPU90から入力される駆動制御信号に基づいて、VRレンズ13の位置を制御する。防振制御部18において、VRレンズ13の位置を検出していてもよい。   The lens driving unit 16 controls the position of the zoom lens 14 or the AF lens 12 based on a drive control signal input from a CPU 90 (described later). The image stabilization control unit 18 controls the position of the VR lens 13 based on a drive control signal input from the CPU 90. The image stabilization controller 18 may detect the position of the VR lens 13.

ズームエンコーダ15は、ズームレンズ14の位置を表わすズームポジションを検出し、検出したズームポジションをCPU90に出力する。AFエンコーダ17は、AFレンズ12の位置を表わすフォーカスポジションを検出し、検出したフォーカスポジションをCPU90に出力する。
なお、上述した光学系11は、撮像装置1に取り付けられて一体とされていてもよいし、撮像装置1に着脱可能に取り付けられてもよい。
The zoom encoder 15 detects a zoom position representing the position of the zoom lens 14 and outputs the detected zoom position to the CPU 90. The AF encoder 17 detects a focus position representing the position of the AF lens 12 and outputs the detected focus position to the CPU 90.
The optical system 11 described above may be attached to and integrated with the imaging apparatus 1 or may be attached to the imaging apparatus 1 so as to be detachable.

撮像素子19は、受光面に結像した光学像を電気信号に変換して、A/D変換部20に出力する。また、撮像素子19は、操作部80を介して撮影指示を受け付けた際に得られる画像データを、撮影された静止画の撮影画像データとして、A/D変換部20や画像処理部40を介して、記憶媒体200に記憶させる。一方、撮像素子19は、例えば、操作部80を介して撮像指示を受け付けていない状態において、連続的に得られる画像データをスルー画データとして、A/D変換部20や画像処理部40を介して、CPU90及び表示部50に出力する。A/D変換部20は、撮像素子19によって変換された電子信号をアナログ/デジタル変換し、この変換したデジタル信号である画像データを出力する。   The image sensor 19 converts the optical image formed on the light receiving surface into an electrical signal and outputs the electrical signal to the A / D converter 20. In addition, the image sensor 19 uses the image data obtained when a shooting instruction is received via the operation unit 80 as shot image data of a shot still image via the A / D conversion unit 20 and the image processing unit 40. And stored in the storage medium 200. On the other hand, for example, the imaging device 19 uses continuously obtained image data as through image data through the A / D conversion unit 20 and the image processing unit 40 in a state where an imaging instruction is not received via the operation unit 80. To the CPU 90 and the display unit 50. The A / D converter 20 performs analog / digital conversion on the electronic signal converted by the image sensor 19 and outputs image data that is the converted digital signal.

操作部80は、電源スイッチ、シャッターボタン、その他の操作キー等を含む。操作部80は、ユーザの操作入力を受け付け、CPU90に出力する。画像処理部40は、記憶部160に記憶されている画像処理条件を参照して、バッファメモリ部30、又は記憶媒体200に記録されている画像データに対して画像処理を行う。表示部50は、液晶ディスプレイにより構成される。表示部50は、撮像部10によって得られた画像データ、操作画面等を表示する。記憶部60は、主に撮像条件等を記憶する。マイク21は、音を収音し、収音した音に応じた音データに変換する。この音データは、アナログデータである。A/D変換部22は、マイク21によって変換されたアナログデータである音データを、デジタルデータである音データに変換する。   The operation unit 80 includes a power switch, a shutter button, other operation keys, and the like. The operation unit 80 receives a user operation input and outputs it to the CPU 90. The image processing unit 40 refers to the image processing conditions stored in the storage unit 160 and performs image processing on the image data recorded in the buffer memory unit 30 or the storage medium 200. The display unit 50 is configured by a liquid crystal display. The display unit 50 displays image data, an operation screen, and the like obtained by the imaging unit 10. The storage unit 60 mainly stores imaging conditions and the like. The microphone 21 collects sound and converts it into sound data corresponding to the collected sound. This sound data is analog data. The A / D converter 22 converts the sound data that is analog data converted by the microphone 21 into sound data that is digital data.

音データ処理部23は、A/D変換部22が変換したデジタルデータである音データに対して、記憶媒体200に記憶させるためのデータ処理を実行する。また、音データ処理部23は、動作部が動作するタイミングを示す信号を、音データに関連付けて記憶媒体200に記憶させる。この動作部が動作するタイミングを示す信号は、タイミング検出部91(後述)が検出した情報である。なお、音データ処理部23が記憶媒体200に記憶させる音データは、例えば、動画に関連づけて記憶される音の音データ、記憶媒体200に記憶されている静止画像に対して音声を付加するために録音された音の音データ、ボイスレコーダとして録音された音の音データ等である。   The sound data processing unit 23 performs data processing for storing the sound data, which is digital data converted by the A / D conversion unit 22, in the storage medium 200. In addition, the sound data processing unit 23 stores a signal indicating the timing at which the operation unit operates in the storage medium 200 in association with the sound data. The signal indicating the timing at which the operation unit operates is information detected by the timing detection unit 91 (described later). The sound data stored in the storage medium 200 by the sound data processing unit 23 is, for example, for adding sound to sound data stored in association with a moving image or still images stored in the storage medium 200. The sound data of the sound recorded on the sound, the sound data of the sound recorded as a voice recorder, and the like.

バッファメモリ部30は、撮像部10で撮像された画像データ、音データ処理部23によりデータ処理された音データ及び情報等を、一時的に記憶する。通信部70は、カードメモリ等の取り外しが可能な記憶媒体200と接続される。通信部70は、この記憶媒体200への情報の書込み、読み出し、或いは消去を行う。記憶媒体200は、撮像装置1に対して着脱可能に接続される記憶部である。記憶媒体200は、撮像部10によって生成された(撮影された)画像データ、音データ処理部23によりデータ処理された音データ及び情報等を記憶する。   The buffer memory unit 30 temporarily stores image data picked up by the image pickup unit 10, sound data and information processed by the sound data processing unit 23, and the like. The communication unit 70 is connected to a removable storage medium 200 such as a card memory. The communication unit 70 writes, reads, or erases information to and from the storage medium 200. The storage medium 200 is a storage unit that is detachably connected to the imaging apparatus 1. The storage medium 200 stores image data generated (captured) by the imaging unit 10, sound data and information processed by the sound data processing unit 23, and the like.

CPU90は、撮像装置1の全体を制御する。CPU90は、例えば、ズームエンコーダ15から入力されるズームポジション、AFエンコーダ17から入力されるフォーカスポジションと、操作部80から入力される操作入力等に基づいて、ズームレンズ14及びAFレンズ12の位置を制御する駆動制御信号を生成する。CPU90は、この駆動制御信号に基づいて、レンズ駆動部16を介してズームレンズ14及びAFレンズ12の位置を制御する。また、CPU90は、タイミング検出部91を備える。タイミング検出部91は、撮像装置1が備える動作部が動作するタイミングを検出する。   The CPU 90 controls the entire imaging apparatus 1. The CPU 90 determines the positions of the zoom lens 14 and the AF lens 12 based on, for example, the zoom position input from the zoom encoder 15, the focus position input from the AF encoder 17, and the operation input input from the operation unit 80. A drive control signal to be controlled is generated. The CPU 90 controls the positions of the zoom lens 14 and the AF lens 12 via the lens driving unit 16 based on this drive control signal. In addition, the CPU 90 includes a timing detection unit 91. The timing detection unit 91 detects the timing at which the operation unit included in the imaging device 1 operates.

ここで、動作部とは、例えば、ズームレンズ14、VRレンズ13、AFレンズ12、又は、操作部80である。即ち、動作部とは、撮像装置1が備える構成のうち、動作することにより、又は動作されることにより、音が生じる(又は、音が生じる可能性がある)構成である。   Here, the operation unit is, for example, the zoom lens 14, the VR lens 13, the AF lens 12, or the operation unit 80. That is, the operation unit is a configuration in which sound is generated (or that sound may be generated) by operating or operating among the configurations of the imaging apparatus 1.

タイミング検出部91は、動作部を動作させる制御信号に基づいて、動作部が動作するタイミングを検出する。制御信号とは、動作部の動作を制御する制御信号、又は動作部(例えば、ズームレンズ14、VRレンズ13、AFレンズ12等)を駆動する駆動部(例えば、レンズ駆動部16、防振制御部18)を制御する駆動制御信号である。タイミング検出部91は、ズームレンズ14、VRレンズ13、又は、AFレンズ12を駆動させるためにレンズ駆動部16又は防振制御部18に入力される駆動制御信号に基づいて、又はCPU90で生成される駆動制御信号に基づいて、動作部が動作するタイミングを検出する。本実施形態では、ズームレンズ、VRレンズ、又はAFレンズの上述した駆動制御信号を、動作部が動作したタイミングを示す信号としている。   The timing detection unit 91 detects the timing at which the operation unit operates based on a control signal that operates the operation unit. The control signal is a control signal for controlling the operation of the operating unit, or a driving unit (for example, the lens driving unit 16, anti-vibration control) for driving the operating unit (for example, the zoom lens 14, the VR lens 13, the AF lens 12, etc.). This is a drive control signal for controlling the unit 18). The timing detection unit 91 is generated by the CPU 90 based on a drive control signal input to the lens driving unit 16 or the image stabilization control unit 18 in order to drive the zoom lens 14, the VR lens 13, or the AF lens 12. The timing at which the operating unit operates is detected based on the drive control signal. In the present embodiment, the above-described drive control signal of the zoom lens, VR lens, or AF lens is used as a signal indicating the timing at which the operation unit operates.

また、CPU90が駆動制御信号を生成する場合に、タイミング検出部91は、CPU90内部で実行される処理やコマンドに基づいて、動作部が動作するタイミングを検出してもよい。また、タイミング検出部91は、操作部80から入力されるズームレンズ14、又は、AFレンズ12を駆動させることを示す信号に基づいて、動作部が動作するタイミングを検出してもよい。また、このタイミング検出部91は、動作部が動作したことを示す信号に基づいて、動作部が動作するタイミングを検出してもよい。   Further, when the CPU 90 generates a drive control signal, the timing detection unit 91 may detect the timing at which the operation unit operates based on processing and commands executed inside the CPU 90. The timing detection unit 91 may detect the timing at which the operation unit operates based on a signal indicating that the zoom lens 14 or the AF lens 12 input from the operation unit 80 is driven. In addition, the timing detection unit 91 may detect the timing at which the operation unit operates based on a signal indicating that the operation unit has operated.

例えば、タイミング検出部91は、ズームエンコーダ15又はAFエンコーダ17の出力に基づいて、ズームレンズ14又はAFレンズ12が動作したことを検出することにより、動作部が動作するタイミングを検出してもよい。また、タイミング検出部91は、防振制御部18からの出力に基づいて、VRレンズ13が動作したことを検出することにより、動作部が動作するタイミングを検出してもよい。また、このタイミング検出部91は、操作部80からの入力に基づいて、操作部80が操作されたことを検出することにより、動作部が動作するタイミングを検出してもよい。そして、タイミング検出部91は、撮像装置1が備える動作部が動作するタイミングを検出し、この検出したタイミングを示す信号を、音データ処理部23に出力する。   For example, the timing detection unit 91 may detect the timing at which the operation unit operates by detecting the operation of the zoom lens 14 or the AF lens 12 based on the output of the zoom encoder 15 or the AF encoder 17. . The timing detection unit 91 may detect the timing at which the operation unit operates by detecting that the VR lens 13 has operated based on the output from the image stabilization control unit 18. Further, the timing detection unit 91 may detect the timing at which the operation unit operates by detecting that the operation unit 80 is operated based on an input from the operation unit 80. Then, the timing detection unit 91 detects the timing at which the operation unit included in the imaging device 1 operates, and outputs a signal indicating the detected timing to the sound data processing unit 23.

バス300は、撮像部10と、CPU90と、操作部80と、画像処理部40と、表示部50と、記憶部160と、バッファメモリ部30と、通信部70と、音データ処理部23と、に接続される。バス300は、上記各部から出力されたデータや制御信号等を転送する。   The bus 300 includes an imaging unit 10, a CPU 90, an operation unit 80, an image processing unit 40, a display unit 50, a storage unit 160, a buffer memory unit 30, a communication unit 70, and a sound data processing unit 23. Connected to. The bus 300 transfers data, control signals, and the like output from the above units.

このように構成された撮像装置1は、記憶媒体200に記憶されている音データに対して、第1実施形態で説明した周波数領域処理(ノイズ低減処理)を実行することができる。ここで、記憶媒体200に記憶されている音データは、撮像装置1が収音して記録した音データであってもよいし、他の撮像装置が収音して記録した音データであってもよい。   The imaging apparatus 1 configured as described above can perform the frequency domain processing (noise reduction processing) described in the first embodiment on the sound data stored in the storage medium 200. Here, the sound data stored in the storage medium 200 may be sound data recorded and recorded by the imaging apparatus 1 or sound data recorded and recorded by another imaging apparatus. Also good.

これにより、撮像装置1は、音データから動作ノイズを低減した際に、環境音のレベル低下が生じることを抑制することができる。そのため、撮像装置1は、動画を再生した際に、撮影時の雰囲気を適切に再現することができる。また、撮像装置1は、動画を再生した際に、ノイズ低減した箇所をユーザに感知されにくくなり、ユーザに違和感を与えることがない。
このように、第2実施形態の撮像装置1においては、音データにおける環境音のレベル低下を抑制しつつ、動作ノイズを適切に低減することができる。
Thereby, the imaging device 1 can suppress the environmental sound level from being lowered when the operation noise is reduced from the sound data. Therefore, the imaging device 1 can appropriately reproduce the atmosphere at the time of shooting when playing back a moving image. In addition, when the moving image is reproduced, the imaging apparatus 1 is less likely to be perceived by the user at the noise-reduced portion and does not give the user a sense of incongruity.
As described above, in the imaging device 1 according to the second embodiment, it is possible to appropriately reduce operation noise while suppressing a decrease in the level of environmental sound in the sound data.

(変形形態)
以上説明した実施形態に限定されることなく、本発明は以下に示すような種々の変形や変更が可能であり、それらも本発明の範囲内である。
例えば、上記実施形態では、1つのオーバーラップ区間(処理区間)に対して、1つの補正係数を算出する例について説明した。これに限らず、1つのオーバーラップ区間を更に細かく分割し、分割した区間毎に補正係数を算出して、前記区間毎に処理後データを補正するようにしてもよい。これによれば、隣接する2つのフレームの処理データにおける相関関係が、オーバーラップ区間で変化している場合でも、処理後データをより適切に補正することができる。
(Deformation)
Without being limited to the embodiment described above, the present invention can be variously modified and changed as described below, and these are also within the scope of the present invention.
For example, in the above embodiment, an example in which one correction coefficient is calculated for one overlap section (processing section) has been described. However, the present invention is not limited to this, and one overlap section may be further finely divided, a correction coefficient may be calculated for each divided section, and post-process data may be corrected for each section. According to this, even when the correlation between the processing data of two adjacent frames changes in the overlap interval, the processed data can be corrected more appropriately.

また、複数のオーバーラップ区間において算出した補正係数を平滑化し、その補正係数に基づいて処理後データを補正してもよい。これによれば、隣接するオーバーラップ区間において、補正係数が急激に変化するのを抑制できるため、より良好な音データを得ることができる。   Further, the correction coefficient calculated in a plurality of overlap sections may be smoothed and the post-process data may be corrected based on the correction coefficient. According to this, since the correction coefficient can be prevented from changing suddenly in adjacent overlap sections, better sound data can be obtained.

また、補正係数算出部116で算出した補正係数が規定値よりも小さい場合には、補正部117において処理後データの補正を行わないようにしてもよい。即ち、処理前データに関連付けられた駆動制御信号の出力レベルがHigh(動作部が動作したタイミングを示す信号)であっても、周波数領域処理によるパワーの低下が小さい場合には、処理後データの補正を行わないことにより、処理速度を向上させることができる。   Further, when the correction coefficient calculated by the correction coefficient calculation unit 116 is smaller than the specified value, the correction unit 117 may not correct the processed data. That is, even if the output level of the drive control signal associated with the pre-processing data is High (a signal indicating the timing at which the operation unit operates), if the power reduction due to the frequency domain processing is small, the post-processing data By not performing correction, the processing speed can be improved.

また、補正部117において、加算部115で加算される前の、隣接する2つの処理データの和(第1の和)と、加算部115で加算された処理後データとに基づいて、第1の和と加算された処理後データとが所定の範囲内に含まれるように加算部115で加算された処理後データに対して補正を行うようにしてもよい。ここで、所定の範囲は、例えば、第1の和と加算された処理後データとの差が±5%となる範囲である。即ち、補正部117において、第1の和と加算された処理後データとの差が0(ゼロ)となるように補正することが好ましいが、これに限定されることなく、第1の和と加算された処理後データとが所定の範囲内に含まるように加算部115で加算された処理後データに対して補正を行うようにしてもよい。   Further, in the correction unit 117, based on the sum of the two adjacent processing data (first sum) before addition by the addition unit 115 and the processed data added by the addition unit 115, the first The post-processing data added by the adding unit 115 may be corrected so that the sum of the two and the added post-processing data are included in a predetermined range. Here, the predetermined range is, for example, a range in which the difference between the first sum and the added processed data is ± 5%. That is, the correction unit 117 preferably corrects the difference between the first sum and the added processed data to be 0 (zero). However, the present invention is not limited to this. You may make it correct | amend with respect to the post-process data added by the addition part 115 so that the added post-process data may be included in a predetermined range.

また、上記実施形態では、変換部111において、分割した処理前データを周波数領域のデータに変換した後、判定部112においてノイズが含まれる区間のフレームか否かを判定する例について説明した。これに限らず、先に判定部112において音データにノイズが含まれる区間のフレームがあるか否かを判定し、次に変換部111において分割したフレームの処理前データを周波数領域のデータに変換してもよい。   In the above embodiment, an example has been described in which the conversion unit 111 converts the pre-processed data into frequency domain data, and then the determination unit 112 determines whether the frame is in a section including noise. Not limited to this, the determination unit 112 first determines whether there is a frame in a section in which noise is included in the sound data, and then converts the pre-processed data of the frame divided by the conversion unit 111 into data in the frequency domain. May be.

更に、上記変形例において、判定部112でノイズが含まれる区間のフレームであると判定されたフレームの処理前データのみを変換部111に入力し、ノイズが含まれない区間のフレームであると判定されたフレームの処理前データについては、加算部115に入力させるようにしてもよい。例えば、処理前データSk−1にノイズが含まれ、処理前データSにはノイズが含まれないとする。この場合、窓関数を乗算した2つの処理前データのうち、処理前データSk−1のみを変換部111に入力し、処理前データSを加算部115に入力する。変換部111では、処理前データSk−1を周波数領域のデータに変換し、ノイズ低減部113で周波数領域処理(ノイズ低減処理)を行い、更に逆変換部114で時間領域のデータ(処理データS´k−1)に変換する。そして、加算部115において、周波数領域処理された処理データS´k−1と、周波数領域のデータに変換しなかった処理前データSとを加算することにより、処理後データを生成する。 Furthermore, in the above modification, only the pre-processing data of the frame determined by the determination unit 112 as a section in which noise is included is input to the conversion unit 111, and is determined to be a frame in a section not including noise. The pre-process data of the frame that has been processed may be input to the adder 115. For example, it is assumed that the pre - processing data S k-1 includes noise and the pre-processing data S k does not include noise. In this case, of the two pre-processing data multiplied by the window function, only the pre-processing data S k−1 is input to the conversion unit 111 and the pre-processing data S k is input to the addition unit 115. The conversion unit 111 converts the pre-processing data S k-1 into frequency domain data, the noise reduction unit 113 performs frequency domain processing (noise reduction processing), and the inverse conversion unit 114 further performs time domain data (processing data). S ′ k−1 ). Then, the adder 115 adds post - processing data S ′ k−1 that has been subjected to frequency domain processing and pre-processing data S k that has not been converted to frequency domain data, thereby generating post-processing data.

また、上記実施形態においては、動作部が動作したタイミングを示す信号に基づいて、ノイズが含まれる区間を判定する例について説明した。これに限らず、記憶媒体200に記憶されている音データに対してノイズ解析処理を行うことにより、ノイズが含まれる区間を特定するようにしてもよい。   Moreover, in the said embodiment, the example which determines the area containing noise based on the signal which shows the timing which the operation | movement part operated was demonstrated. However, the present invention is not limited thereto, and noise analysis processing may be performed on sound data stored in the storage medium 200 to specify a section including noise.

また、第2実施形態の撮像装置1において、記憶媒体200に記憶されている音データに対してのみ、上述したデータ処理部110による周波数領域処理を実行することに限定されない。例えば、撮像装置1は、マイク21により収音された音データに対してデータ処理部110によるノイズ低減を実行してから、処理後の音データを記憶媒体200に記憶させてもよい。即ち、撮像装置1は、マイク21により収音された音データに対して、リアルタイムにデータ処理部110によるノイズ低減を実行してもよい。   Further, in the imaging device 1 of the second embodiment, the present invention is not limited to performing the frequency domain processing by the data processing unit 110 described above only on the sound data stored in the storage medium 200. For example, the imaging apparatus 1 may store the processed sound data in the storage medium 200 after performing noise reduction on the sound data collected by the microphone 21 by the data processing unit 110. That is, the imaging device 1 may perform noise reduction by the data processing unit 110 on the sound data collected by the microphone 21 in real time.

なお、データ処理部110によりデータ処理された音データが記憶媒体200に記憶される場合、撮像素子19により撮像された画像データと、時間的に関連付けられて記憶されてもよいし、音データを含む動画として記憶されてもよい。   In addition, when the sound data subjected to data processing by the data processing unit 110 is stored in the storage medium 200, the sound data may be stored in association with the image data captured by the image sensor 19 in terms of time. It may be stored as a moving image.

また、上記実施形態においては、音データに含まれるノイズとして、主に光学系11が動作することにより生じる音について説明したが、ノイズはこれに限られるものではない。例えば、操作部80に備えられているボタン等が押下された場合に生じる音の場合も、同様である。この場合も、操作部80に備えられているボタン等が押下されたことを検出する信号が、CPU90のタイミング検出部91に入力される。よって、タイミング検出部91は、光学系11が駆動する場合と同様に、操作部80等の動作するタイミングを検出することができる。即ち、操作部80等の動作するタイミングを示す情報を、動作部が動作するタイミングを示す情報としてもよい。   Moreover, in the said embodiment, although the sound mainly produced by the operation | movement of the optical system 11 was demonstrated as noise contained in sound data, noise is not restricted to this. For example, the same applies to a sound generated when a button or the like provided on the operation unit 80 is pressed. Also in this case, a signal for detecting that a button or the like provided in the operation unit 80 is pressed is input to the timing detection unit 91 of the CPU 90. Therefore, the timing detection unit 91 can detect the timing at which the operation unit 80 or the like operates, as in the case where the optical system 11 is driven. That is, information indicating the timing at which the operation unit 80 or the like operates may be information indicating the timing at which the operation unit operates.

また、動作部は、光学系11が備える各レンズ、又は、操作部80に限られるものではなく、動作することによって音が発生する(或いは音が発生する可能性がある)他の構成であってもよい。例えば、動作部は、ポップアップ時に音が発生するポップアップ式の光源(例えば、撮影用の光源、閃光装置(フラッシュ)等)であってもよい。   In addition, the operation unit is not limited to each lens included in the optical system 11 or the operation unit 80, and may have other configurations in which sound is generated (or that sound may be generated) by operation. May be. For example, the operation unit may be a pop-up type light source (for example, a light source for photographing, a flash device (flash), etc.) that generates sound at the time of pop-up.

また、上記実施形態においては、データ処理装置100又は撮像装置1が、撮像装置(例えば撮像装置1)により収音された音の音データに対してデータ処理部110による処理を実行する例について説明したが、撮像装置以外の装置に収音された音の音データに対してデータ処理部110による処理を実行してもよい。   Moreover, in the said embodiment, the data processing apparatus 100 or the imaging device 1 demonstrates the example which performs the process by the data processing part 110 with respect to the sound data of the sound collected by the imaging device (for example, imaging device 1). However, the processing by the data processing unit 110 may be executed on sound data of sound collected by a device other than the imaging device.

また、第2実施形態においては、データ処理装置100(データ処理部110)が、撮像装置1に備えられている構成について説明した。これに限らず、データ処理装置100(データ処理部110)は、例えば、録音装置、携帯電話、パーソナルコンピュータ、タブレット型端末、電子玩具、又は、通信端末等の他の装置に備えられていてもよい。   In the second embodiment, the configuration in which the data processing apparatus 100 (data processing unit 110) is provided in the imaging apparatus 1 has been described. For example, the data processing device 100 (data processing unit 110) may be provided in another device such as a recording device, a mobile phone, a personal computer, a tablet terminal, an electronic toy, or a communication terminal. Good.

なお、図1及び図9におけるデータ処理部110、又はデータ処理部110が備える各部は、専用のハードウェアにより実現されるものであってもよいし、メモリ及びマイクロプロセッサにより実現させるものであってもよい。その場合に、データ処理部110、又はデータ処理部110が備える各部の機能を実現するためのプログラムをメモリにロードして実行することにより、その機能を実現させるものであってもよい。   1 and 9, the data processing unit 110 or each unit included in the data processing unit 110 may be realized by dedicated hardware, or may be realized by a memory and a microprocessor. Also good. In this case, the function may be realized by loading the data processing unit 110 or a program for realizing the function of each unit included in the data processing unit 110 into a memory and executing the program.

また、図1、図13におけるデータ処理部110、又はデータ処理部110が備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、データ処理部110、又はデータ処理部110が備える各部による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含む。   Further, the data processing unit 110 in FIG. 1 or FIG. 13 or a program for realizing the function of each unit included in the data processing unit 110 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is recorded. The processing by the data processing unit 110 or each unit included in the data processing unit 110 may be performed by being read and executed by a computer system. The “computer system” here includes an OS and hardware such as peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置をいう。更に「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものを含む。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、更に前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。   The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Further, the “computer-readable recording medium” is a program that dynamically holds a program for a short time, like a communication line when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. And those that hold a program for a certain period of time, such as a volatile memory inside a computer system that becomes a server or a client in that case. The program may be for realizing a part of the above-described functions, and may be capable of realizing the above-described functions in combination with a program already recorded in the computer system.

また、上記実施形態及び変形形態は適宜に組み合わせて用いることができるが、各実施形態の構成は図示と説明により明らかであるため、詳細な説明を省略する。更に、本発明は以上説明した実施形態によって限定されることはない。   Moreover, although the said embodiment and modification can be used in combination suitably, since the structure of each embodiment is clear by illustration and description, detailed description is abbreviate | omitted. Furthermore, the present invention is not limited by the embodiment described above.

1:撮像装置、100:データ処理装置、110:データ処理部、111:変換部、112:判定部、113:ノイズ低減部、114:逆変換部、115:加算部、116:補正係数算出部、117:補正部、120:記憶部   1: imaging device, 100: data processing device, 110: data processing unit, 111: conversion unit, 112: determination unit, 113: noise reduction unit, 114: inverse conversion unit, 115: addition unit, 116: correction coefficient calculation unit 117: Correction unit, 120: Storage unit

Claims (12)

第1区間と第2区間との一部の区間を重複させて、入力データを前記第1区間のデータと前記第2区間のデータとに分割し、前記第1区間のデータと前記第2区間のデータとを周波数領域のデータに変換する第1変換部と、
前記第1変換部により変換された前記第1区間のデータの所定の周波数成分を変更する変更部と、
前記変更部により変更された前記第1区間のデータと前記第1変換部により変換された前記第2区間のデータとを時間領域のデータに変換する第2変換部と、
前記第2変換部により変換された前記第1区間のデータと前記第2変換部により変換された前記第2区間のデータとを、一部の区間を重複させて加算する加算部と、
前記第2変換部により変換された前記第1区間のデータと前記第2変換部により変換された前記第2区間のデータとに基づいて、前記加算部により加算されたデータを補正する補正部と、
を備えることを特徴とするデータ処理装置。
The first section and the second section are partially overlapped to divide the input data into the first section data and the second section data, and the first section data and the second section A first conversion unit for converting the data of
A changing unit that changes a predetermined frequency component of the data of the first section converted by the first converting unit;
A second conversion unit that converts the data of the first section changed by the change unit and the data of the second section converted by the first conversion unit into data in the time domain;
An addition unit that adds the data of the first section converted by the second conversion unit and the data of the second section converted by the second conversion unit by overlapping some sections;
A correction unit that corrects the data added by the addition unit based on the data of the first section converted by the second conversion unit and the data of the second section converted by the second conversion unit; ,
A data processing apparatus comprising:
請求項1に記載のデータ処理装置であって、
前記変更部は、前記第1変換部により変換された前記第1区間のデータから所定の周波数成分を減算する処理を行うこと、
を特徴とするデータ処理装置。
The data processing apparatus according to claim 1,
The changing unit performs a process of subtracting a predetermined frequency component from the data of the first section converted by the first conversion unit;
A data processing apparatus.
請求項1又は請求項2に記載のデータ処理装置であって、
前記入力データは、前記入力データを記憶した装置の動作部が動作したタイミングを示すデータと関連付けられ、
前記第1区間のデータは、前記タイミングを示すデータと関連付けて記憶されており、
前記変更部は、前記タイミングを示すデータに基づいて、前記入力データのうち前記タイミングを示すデータが関連付けられている区間のデータの所定の周波数成分を変更すること、
を特徴とするデータ処理装置。
The data processing apparatus according to claim 1 or 2,
The input data is associated with data indicating the timing at which the operation unit of the device storing the input data is operated,
The data of the first section is stored in association with the data indicating the timing,
The changing unit is configured to change a predetermined frequency component of data in a section associated with the data indicating the timing among the input data based on the data indicating the timing;
A data processing apparatus.
請求項1から請求項3のいずれかに記載のデータ処理装置であって、
前記補正部は、前記加算部により加算される前の、前記第2変換部により変換された前記第1区間のデータ及び前記第2変換部により変換された前記第2区間のデータと、前記加算部により加算されたデータとを比較し、比較した結果に基づいて前記加算部により加算されたデータを補正すること、
を特徴とするデータ処理装置。
A data processing device according to any one of claims 1 to 3,
The correction unit adds the data of the first section converted by the second conversion unit and the data of the second section converted by the second conversion unit before the addition by the addition unit, and the addition Comparing the data added by the adder, and correcting the data added by the adder based on the comparison result;
A data processing apparatus.
請求項1から請求項4のいずれかに記載のデータ処理装置であって、
前記第1変換部で変換する際に、前記第1区間と前記第2区間との一部を重複させた区間と、前記加算部で加算する際に、前記第1区間と前記第2区間との一部を重複させた区間とは同じ大きさの区間であること、
を特徴とするデータ処理装置。
A data processing apparatus according to any one of claims 1 to 4, wherein
When converting by the first conversion unit, a section obtained by overlapping a part of the first section and the second section, and when adding by the adding section, the first section and the second section The section that overlaps a part of is the same size section,
A data processing apparatus.
請求項1から請求項5のいずれかに記載のデータ処理装置であって、
前記補正部は、前記加算部により加算される前の、前記第2変換部により変換された前記第1区間のデータと前記第2変換部により変換された前記第2区間のデータとの和である第1の和と、前記加算部に加算されたデータとに基づいて、前記第1の和と前記加算されたデータとが所定の範囲内に含まれるように前記加算部により加算されたデータを補正すること、
を特徴とするデータ処理装置。
A data processing apparatus according to any one of claims 1 to 5,
The correction unit is a sum of the data of the first section converted by the second conversion unit and the data of the second section converted by the second conversion unit before being added by the addition unit. Data added by the adder so that the first sum and the added data are included in a predetermined range based on a certain first sum and the data added to the adder Correcting,
A data processing apparatus.
請求項1から請求項6のいずれかに記載のデータ処理装置において、
前記加算部により加算されたデータのパワーの和と、前記加算部により加算される前の前記第1区間のデータと前記第2区間のデータとのパワーの和とに基づいて補正係数を算出する補正係数算出部を備え、
前記補正部は、前記加算部により加算されたデータのパワーの和と、前記加算部により加算される前の前記第1区間のデータと前記第2区間のデータとのパワーの和を加算した値とが所定の範囲となるように、前記加算部により加算されたデータを前記補正係数算出部により算出された前記補正係数に基づいて補正すること、
を特徴とするデータ処理装置。
The data processing apparatus according to any one of claims 1 to 6,
A correction coefficient is calculated based on the sum of the powers of the data added by the adder and the sum of the powers of the data in the first section and the data in the second section before being added by the adder. A correction coefficient calculator,
The correction unit is a value obtained by adding the sum of the powers of the data added by the adding unit and the sum of the powers of the data of the first section and the data of the second section before being added by the adding unit. And correcting the data added by the adding unit based on the correction coefficient calculated by the correction coefficient calculating unit, such that
A data processing apparatus.
請求項1から請求項6のいずれかに記載のデータ処理装置において、
前記加算部により加算されたデータの和と、前記加算部により加算される前の前記第1区間のデータと前記第2区間のデータとの和とに基づいて補正係数を算出する補正係数算出部を備え、
前記補正部は、前記加算部により加算されたデータの和と、前記加算部により加算される前の前記第1区間のデータと前記第2区間のデータとの和を加算した値とが所定の範囲となるように、前記加算部により加算されたデータを前記補正係数算出部により算出された前記補正係数に基づいて補正すること、
を特徴とするデータ処理装置。
The data processing apparatus according to any one of claims 1 to 6,
A correction coefficient calculation unit that calculates a correction coefficient based on the sum of the data added by the addition unit and the sum of the data of the first section and the data of the second section before being added by the addition section With
The correction unit has a predetermined value obtained by adding a sum of the data added by the adding unit and a sum of the data of the first interval and the data of the second interval before being added by the adding unit. Correcting the data added by the adding unit based on the correction coefficient calculated by the correction coefficient calculating unit so as to be in a range;
A data processing apparatus.
請求項1から請求項8のいずれかに記載のデータ処理装置において、
前記入力データは、前記入力データを記録した装置の動作部が動作したタイミングを示す信号と関連付けられ、
前記第1変換部は、前記動作部が動作したタイミングを示す信号に基づいて、前記入力データを前記第1区間のデータと前記第2区間のデータとに分割すること、
を特徴とするデータ処理装置。
The data processing device according to any one of claims 1 to 8,
The input data is associated with a signal indicating a timing at which an operation unit of the apparatus that recorded the input data is operated,
The first conversion unit divides the input data into data of the first section and data of the second section based on a signal indicating a timing at which the operation unit operates.
A data processing apparatus.
第1区間と第2区間との一部の区間を重複させて、入力データを前記第1区間のデータと前記第2区間のデータとに分割し、前記第1区間のデータを周波数領域のデータに変換する第1変換部と、
前記第1変換部により変換された前記第1区間のデータの所定の周波数成分を変更する変更部と、
前記変更部により変更された前記第1区間のデータを時間領域のデータに変換する第2変換部と、
前記第2変換部により変換された前記第1区間のデータと前記第2区間のデータとを、一部の区間を重複させて加算する加算部と、
前記第2変換部により変換された前記第1区間のデータと前記第2区間のデータとに基づいて、前記加算部により加算されたデータを補正する補正部と、
を備えることを特徴とするデータ処理装置。
The first section and the second section are partially overlapped to divide the input data into the first section data and the second section data, and the first section data is frequency domain data. A first conversion unit for converting to
A changing unit that changes a predetermined frequency component of the data of the first section converted by the first converting unit;
A second conversion unit for converting the data of the first section changed by the change unit into data of a time domain;
An adder that adds the data of the first section and the data of the second section converted by the second conversion section by overlapping some sections;
A correction unit that corrects the data added by the addition unit based on the data of the first section and the data of the second section converted by the second conversion unit;
A data processing apparatus comprising:
請求項1から請求項10のいずれかに記載のデータ処理装置を備えることを特徴とする撮像装置。   An imaging apparatus comprising the data processing apparatus according to claim 1. コンピュータにおいて実行されるデータ処理プログラムであって、
前記コンピュータを、
第1区間と第2区間との一部の区間を重複させて、入力データを前記第1区間のデータと前記第2区間のデータとに分割し、前記第1区間のデータと前記第2区間のデータとを周波数領域のデータに変換する第1変換手段と、
前記第1変換手段により変換された前記第1区間のデータの所定の周波数成分を変更する変更手段と、
前記変更手段により変更された前記第1区間のデータと前記第1変換手段により変換された前記第2区間のデータとを時間領域のデータに変換する第2変換手段と、
前記第2変換手段により変換された前記第1区間のデータと前記第2変換手段により変換された前記第2区間のデータとを、一手段の区間を重複させて加算する加算手段と、
前記第2変換手段により変換された前記第1区間のデータと前記第2変換手段により変換された前記第2区間のデータとに基づいて、前記加算手段により加算されたデータを補正する補正手段と、
して機能させるデータ処理プログラム。
A data processing program executed on a computer,
The computer,
The first section and the second section are partially overlapped to divide the input data into the first section data and the second section data, and the first section data and the second section First conversion means for converting the data of the above into frequency domain data;
Changing means for changing a predetermined frequency component of the data of the first section converted by the first converting means;
Second conversion means for converting the data of the first section changed by the changing means and the data of the second section converted by the first conversion means into time domain data;
Adding means for adding the first section data converted by the second conversion means and the second section data converted by the second conversion means by overlapping one section;
Correcting means for correcting the data added by the adding means based on the data of the first section converted by the second converting means and the data of the second section converted by the second converting means; ,
A data processing program that makes it function.
JP2014010759A 2014-01-23 2014-01-23 Data processing device, imaging device and data processing program Pending JP2015138204A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014010759A JP2015138204A (en) 2014-01-23 2014-01-23 Data processing device, imaging device and data processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014010759A JP2015138204A (en) 2014-01-23 2014-01-23 Data processing device, imaging device and data processing program

Publications (1)

Publication Number Publication Date
JP2015138204A true JP2015138204A (en) 2015-07-30

Family

ID=53769219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014010759A Pending JP2015138204A (en) 2014-01-23 2014-01-23 Data processing device, imaging device and data processing program

Country Status (1)

Country Link
JP (1) JP2015138204A (en)

Similar Documents

Publication Publication Date Title
JP5594133B2 (en) Audio signal processing apparatus, audio signal processing method, and program
US8698911B2 (en) Sound recording device, imaging device, photographing device, optical device, and program
US20150271439A1 (en) Signal processing device, imaging device, and program
JP6610725B2 (en) Sound processing apparatus and sound processing program
JP6182895B2 (en) Processing apparatus, processing method, program, and processing system
US8860822B2 (en) Imaging device
US9734840B2 (en) Signal processing device, imaging apparatus, and signal-processing program
JP2013011873A (en) Noise reduction processing apparatus, camera, and noise reduction processing program
JP2015138204A (en) Data processing device, imaging device and data processing program
JP2012185445A (en) Signal processor, imaging apparatus and program
JP2014026032A (en) Signal processing device, imaging device, and program
JP2014022953A (en) Signal processing device, image pickup device, and noise reduction processing method and program
JP6061476B2 (en) Audio processing device
JP2013178458A (en) Signal processing device and signal processing program
JP2022038611A5 (en)
JP6381367B2 (en) Audio processing apparatus, audio processing method, and program
JP6381366B2 (en) Audio processing apparatus, audio processing method, and program
US20160099006A1 (en) Electronic device, method, and computer program product
JP2011095305A (en) Sound recording device, imaging device and program
JP2015087602A (en) Signal processing device, imaging device and program
JP2022148507A (en) Sound processing apparatus, control method, and program
JP2012168477A (en) Noise estimation device, signal processor, imaging apparatus, and program
JP2015087601A (en) Signal processing device, imaging device and program
JP5246134B2 (en) Signal processing apparatus and imaging apparatus
JP2012118316A (en) Signal processor, imaging apparatus, and signal processing program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161003

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161003