JP2018207313A - Audio processing device and method of controlling the same - Google Patents
Audio processing device and method of controlling the same Download PDFInfo
- Publication number
- JP2018207313A JP2018207313A JP2017111162A JP2017111162A JP2018207313A JP 2018207313 A JP2018207313 A JP 2018207313A JP 2017111162 A JP2017111162 A JP 2017111162A JP 2017111162 A JP2017111162 A JP 2017111162A JP 2018207313 A JP2018207313 A JP 2018207313A
- Authority
- JP
- Japan
- Prior art keywords
- microphone
- frequency spectrum
- unit
- spectrum data
- gain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Stereophonic Arrangements (AREA)
- Details Of Audible-Bandwidth Transducers (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
本発明は駆動機構を有する装置における音声処理技術に関するものである。 The present invention relates to an audio processing technique in an apparatus having a drive mechanism.
デジタルカメラやビデオカメラに代表される撮像装置は、動被写体を撮像して、その結果得られる動画像のデータを記録すると共に、被写体の周囲の音声も併せて記録することができる。以降、記録の目的となる被写体の周囲の音声を、以下、「周囲環境音」と称する。 An imaging device represented by a digital camera or a video camera can capture a moving subject, record the moving image data obtained as a result, and also record the sound around the subject. Hereinafter, the sound around the subject to be recorded is hereinafter referred to as “ambient environmental sound”.
また、撮像装置は、光学レンズを移動させることで、撮像中に動被写体をフォーカスしたりズームしたりすることができる。ここで、光学レンズの移動はメカニカルに行われるものであり、そのレンズの移動の際には駆動音が発生する。この駆動音が、周囲環境音に重畳してしまうと、音声付動画像としての品位が損なわれてしまう。このため、従来から、このような駆動騒音を低減させることが望まれている。 Further, the imaging apparatus can focus or zoom the moving subject during imaging by moving the optical lens. Here, the movement of the optical lens is mechanically performed, and a driving sound is generated when the lens is moved. If this driving sound is superimposed on the ambient environmental sound, the quality of the moving image with sound is impaired. For this reason, it has been conventionally desired to reduce such driving noise.
装置の駆動部等から発生する駆動騒音を低減させる方法を開示する文献として特許文献1が知られている。この特許文献1は、撮像装置内に通常の音声信号取得用のマイクの他にノイズ検出用マイクを搭載するものである。特許文献1によると撮像装置は、装置の外部の音声を録音する第一のマイクと、装置の内部で発生するノイズを録音するための第二のマイクを備えている。また、第一のマイクは装置の外側を向き、第二のマイクは装置の内側を向く構成とすることで、装置内部で発生するノイズを検出している。しかしながら、特許文献1に開示された技術は、要するに録音したい音声チャンネルに対して必要なマイクのほかに、ノイズを検出するためのマイクを追加するというものである。つまり、録音目的のマイク以外のマイクを搭載することになるので、コストや面積の問題が発生する。また、特許文献1ではモノラル音声録音を行う構成となっているが、例えば、ステレオ音声録音を行うためには、ステレオ用に2つ、ノイズ用に1つの計3つのマイクが必要となっています。
本発明はかかる問題に鑑みなされたものであり、ステレオ音声録音を行うための2つのマイクを備える構成に対して、新たにマイクを追加することなく、ステレオの収音とノイズ検出を行うことが可能な技術を提供しようとするものである。 The present invention has been made in view of such a problem, and it is possible to perform stereo sound collection and noise detection without adding a new microphone to a configuration including two microphones for performing stereo sound recording. It is intended to provide possible technology.
この課題を解決するため、例えば本発明の音声処理装置は以下の構成を備える。すなわち、
筐体と、
駆動部と、
前記筐体の第1の所定位置に設けられた第1の開口部を介して音声が伝搬されるように前記筐体の内部に収容された第1のマイクと、
前記筐体の、前記前記第1の所定位置に関連した第2の所定位置に設けられた、前記第1の開口部よりも面積が小さい第2の開口部を介して音声が伝搬される第2のマイクであって、前記第2のマイクと前記2の開口部との間の第2の空間の容積が、前記第1のマイクと前記第1の開口部との間の第1の空間の容積よりも大きくなるように前記筐体の内部に収容された前記第2のマイクと、
前記第1のマイクから得られた時系列の音声データを第1の周波数スペクトルデータに、前記第2のマイクから得られた時系列の音声データを第2の周波数スペクトルデータに変換する変換手段と、
前記変換手段により得られた前記第1の周波数スペクトルデータと前記第2の周波数スペクトルデータから、周波数毎の前記駆動部による騒音の量を算出する算出手段と、
前記第1の周波数スペクトルデータ、第2の周波数スペクトルデータ、並びに、前記算出手段により算出された前記騒音の量に基づいて、前記騒音が抑制された、左チャネルの周波数スペクトルデータと、右チャネルの周波数スペクトルデータとを生成する生成手段と、
前記生成手段で生成された左右のチャネルのそれぞれの周波数スペクトルデータを、時系列の左右チャネルのそれぞれの音声データに逆変換する逆変換手段とを有する。
In order to solve this problem, for example, the speech processing apparatus of the present invention has the following configuration. That is,
A housing,
A drive unit;
A first microphone housed in the housing such that sound is propagated through a first opening provided at a first predetermined position of the housing;
The sound is propagated through a second opening having a smaller area than the first opening provided at a second predetermined position of the housing related to the first predetermined position. 2, wherein the volume of the second space between the second microphone and the second opening is the first space between the first microphone and the first opening. The second microphone housed inside the housing to be larger than the volume of
Conversion means for converting time-series audio data obtained from the first microphone into first frequency spectrum data and time-series audio data obtained from the second microphone into second frequency spectrum data; ,
Calculating means for calculating the amount of noise by the driving unit for each frequency from the first frequency spectrum data and the second frequency spectrum data obtained by the converting means;
Based on the first frequency spectrum data, the second frequency spectrum data, and the amount of the noise calculated by the calculation means, the frequency spectrum data of the left channel in which the noise is suppressed, and the right channel Generating means for generating frequency spectrum data;
Inverse conversion means for inversely converting the frequency spectrum data of the left and right channels generated by the generation means into audio data of the time-series left and right channels.
本発明によれば、ステレオ集音するための2つのマイクの構成のままで、新たなマイクを追加せずに、ノイズを低減したステレオ音声信号を得ることができる。 According to the present invention, it is possible to obtain a stereo audio signal with reduced noise without adding a new microphone, with the configuration of two microphones for collecting stereo sound.
以下図面に従って本発明に係る実施形態を詳細に説明する。本実施形態では、撮像装置に収容される音声処理装置ついて説明する。 Embodiments according to the present invention will be described below in detail with reference to the drawings. In the present embodiment, a voice processing device accommodated in an imaging device will be described.
図1は実施形態の撮像装置100の構成を示すブロック図である。撮像装置100は、撮像部101、音声入力部102、メモリ103、表示制御部104、表示部105を有する。また、撮像装置100は、符号化処理部106、記録再生部107、記録媒体108、制御部109、操作部110、音声出力部111、スピーカ112、外部出力部113、並びに、これらを接続するバス114を有する。
FIG. 1 is a block diagram illustrating a configuration of an
撮像部101は、撮影光学レンズにより取り込まれた被写体の光学像を撮像素子により画像信号に変換し、アナログデジタル変換、画像調整処理などを行い、画像データを生成する。撮影光学レンズは、内蔵型の光学レンズであっても、着脱式の光学レンズであっても良い。また、撮像素子は、CCD、CMOS等に代表される光電変換素子であればよい。
The
音声入力部102は、内蔵または音声端子を介して接続されたマイクにより、音声処理装置外(実施形態では撮像装置外)からの周辺の音声を集音し、電気信号を生成する。また、音声入力部102は、アナログデジタル変換、音声処理などを行い音声データを生成する。マイクは、指向性、無指向性を問わないが、本実施形態では無指向性のマイクを使用するものとする。
The
メモリ103は、撮像部101により得られた画像データや、音声入力部102により得られた音声データを一時的に記憶するために利用される。
The
表示制御部104は、撮像部101により得られた画像データに係る画像や、撮像装置100の操作画面、メニュー画面等を表示部105や、不図示の映像端子を介して外部のディスプレイに表示する。表示部105の種類は問わないが、例えば液晶表示器である。
The
符号化処理部106は、メモリ103に一時的に記憶された画像データや音声データを読み出して所定の符号化を行い、圧縮画像データ、圧縮音声データ等を生成する。また、音声データに関しては圧縮しないようにしてもよい。圧縮画像データは、例えば、MPEG2やH.264/MPEG4−AVCなど、どのような圧縮方式で圧縮されたものであってもよい。また、圧縮音声データも、AC3(A)AC、ATRAC、ADPCMなどのような圧縮方式で圧縮されたものであってもよい。また、符号化処理部106は、上記の符号化データ(圧縮画像データ、圧縮音声データ)の復号処理も行う。
The
記録再生部107は、記録媒体108に対して、符号化処理部106で生成された圧縮画像データ、圧縮音声データまたは音声データ、各種データを記録したり、記録媒体108から読出したりする。ここで、記録媒体108は、画像データ、音声データ等を記録する不揮発性の記録媒体である。例えば、磁気ディスク、光学式ディスク、半導体メモリなどであり、その種類は問わない。また、記録媒体108は、本装置100に対して固定であっても、脱着可能であっても構わない。
The recording / reproducing
制御部109は、バス114を介して、撮像装置100の各ブロックに制御信号を送信することで撮像装置100の各ブロックを制御するものであり、各種制御を実行するためのCPUやメモリなどから構成される。制御部109で使用するメモリは、各種制御プログラムを格納するROM、演算処理のためのワークエリアとして利用するRAM等であり、制御部109の外付けのメモリも含む。
The
操作部110は、ボタン、ダイヤル、タッチパネル、或いはそれらの組み合わせであり、ユーザの操作に応じて、指示信号を制御部109に送信する。操作部110は、具体的には、動画記録開始、終了を指示するための撮影ボタン、光学的もしくは電子的に画像に対してズーム動作する指示するためのズームレバー、各種調整をするための十字キー、決定キーなどを有する。
The
音声出力部111は、記録再生部107により再生された音声データや圧縮音声データ、または制御部109により出力される音声データをスピーカ112や音声端子などに出力する。外部出力部113は、記録再生部107により再生された圧縮映像データや圧縮音声データ、音声データなどを外部機器に出力する。データバス114は、音声データや画像データ等の各種データ、各種制御信号を撮像装置100の各ブロックに供給する。
The
以上が実施形態における撮像装置100の構成の説明である。次に、実施形態における撮像装置の通常の動作について説明する。
The above is the description of the configuration of the
本実施形態の撮像装置100は、ユーザが操作部110を操作して電源を投入する指示が出されたことに応じて、不図示の電源供給部からの電力が、撮像装置の各ブロックに供給される。
In the
電源が供給されると、制御部109は、操作部110のモード切り換えスイッチが、例えば、撮影モード、再生モード等のどのモードを指定しているかを、操作部110からの指示信号により確認する。撮影モードにおける動画記録モードでは、撮像部101により得られた画像データと音声入力部102により得られた音声データとを1つの画像ファイルとして保存する。再生モードでは、記録媒体108に記録された画像ファイルを記録再生部107により再生して表示部105に表示させ、スピーカ112より出力することになる。
When the power is supplied, the
撮影モードでは、まず、制御部109は、撮影待機状態に移行させるように制御信号を撮像装置100の各ブロックに送信し、以下のような動作をさせる。
In the shooting mode, first, the
撮像部101は、撮影光学レンズにより取り込まれた被写体の光学像を撮像素子により動画像信号に変換し、アナログデジタル変換、画像調整処理などを行い、動画像データを生成する。そして、撮像部101は、得られた動画像データを表示処理部104に送信し、表示部105に表示させる。なお、撮像部101は、1フレームが水平1920画素×垂直1080画素、フレームレートが30フレーム/秒の動画像信号を出力する。ユーザはこの様にして表示された画面を見ながら撮影の準備を行う。
The
音声入力部102は、複数のマイクにより得られたアナログ音声信号をデジタル信号に変換し、得られた複数のデジタル音声信号を処理して、マルチチャンネルの音声データを生成する。そして、得られた音声データを音声出力部111に送信し、接続されたスピーカ112や不図示のイヤホンから音声として出力させる。ユーザは、この様にして出力された音声を聞きながら記録音量を決定するためのマニュアルボリュームの調整をすることもできる。
The
次に、ユーザが操作部110の記録ボタンを操作することにより撮影開始の指示信号が制御部109に送信されると、制御部109は、撮像装置100の各ブロックに撮影開始の指示信号を送信し、撮影モードにおける動画像記録モードに移行する。具体的な、制御部109の処理は以下の通りである。
Next, when a shooting start instruction signal is transmitted to the
撮像部101は、撮影光学レンズにより取り込まれた被写体の光学像を撮像素子により動画像信号に変換し、アナログデジタル変換、画像調整処理などを行い、動画像データを生成する。そして、得られた動画像データを表示処理部104に送信し、表示部105に表示させる。また、撮像部101は、得られた画像データをメモリ103へ送信する。
The
音声入力部102は、複数のマイクにより得られたアナログ音声信号をデジタル信号に変換し、得られた複数のデジタル音声信号を処理して、マルチチャンネルの音声データを生成する。そして、得られた音声データをメモリ103に送信する。また、マイクが一つの場合には、得られたアナログ音声信号をデジタル変換し音声データを生成し、音声データをメモリ103に送信する。
The
符号化処理部106は、メモリ103に一時的に記憶された動画像データや音声データを読み出して所定の符号化を行い、圧縮動画像データ、圧縮音声データ等を生成し、再びメモリ103に格納する。
The
制御部109は、メモリ103に格納された圧縮動画像データ、圧縮音声データを合成し、データストリームを形成し、記録再生部107に出力する。音声データを圧縮しない場合には、制御部109は、メモリ103に格納された音声データと圧縮動画像データとを合成し、データストリームを形成して記録再生部107に出力する。
The
記録再生部107は、UDF、FAT等のファイルシステム管理のもとに、データストリームを一つの動画ファイルとして記録媒体108に書き込んでいく。
The recording /
撮像装置100は、上記の処理を動画記録状態中、継続することになる。そして、ユーザが操作部110の記録ボタンを操作することにより撮影終了の指示信号が制御部109に送信されると、制御部109は、撮像装置100の各ブロックに撮影終了の指示信号を送信し、以下のような動作をさせる。
The
撮像部101、音声入力部102は、それぞれ動画像データ、音声データの生成を停止する。符号化処理部106は、メモリに記憶されている残りの画像データと音声データとを読出して所定の符号化を行い、圧縮動画像データ、圧縮音声データ等を生成し終えたら動作を停止する。音声データを圧縮しない場合には、当然、圧縮動画像データの生成が終わったら動作を停止する。
The
そして、制御部109は、これらの最後の圧縮動画像データと、圧縮音声データまたは音声データとを合成し、データストリームを形成し、記録再生部107に出力する。
Then, the
記録再生部107は、UDF、FAT等のファイルシステム管理のもとに、データストリームを一つの動画ファイルとして記録媒体108に書き込んでいく。そして、データストリームの供給が停止したら、動画ファイルを完成させて、記録動作を停止させる。
The recording /
制御部109は、記録動作が停止すると、撮影待機状態に移行させるように制御信号を撮像装置100の各ブロックに送信して、撮影待機状態に戻る。
When the recording operation stops, the
次に、再生モードについて説明する。ユーザが操作部110を操作して再生モードにした場合、制御部109は、再生状態に移行させるように制御信号を撮像装置100の各ブロックに送信し、以下のような動作をさせる。
Next, the playback mode will be described. When the user operates the
記録媒体108に記録された圧縮動画像データと圧縮音声データとからなる動画ファイルを記録再生部107が読出して、読出された圧縮動画像データ、圧縮音声データを符号化処理部106に送る。
The recording /
符号化処理部106は、圧縮動画像データ、圧縮音声データを復号し、それぞれを表示制御部104、音声出力部111に送信する。表示制御部104は、復号された動画像データを表示部105に表示させる。音声出力部111は、復号された音声データを内蔵のスピーカ112、または、取付けられた外部スピーカに出力して、音響として再生させる。
The
本実施形態の撮像装置100は以上のように、動画像、音声の記録再生を行うことができる。
As described above, the
本実施形態では、音声入力部102において、音声信号を得る際に、マイクにより得られた音声信号のレベル調整処理等の処理をしている。この処理は、装置が起動してから常に行われてもよいし、撮影モードが選択されてから行われてもよい。或いは、音声の記録に関連するモードが選択されてから行われても良い。また、音声の記録に関連するモードにおいて、音声の記録が開始したことに応じて上記の処理を行ってもよい。本実施形態では、動画像撮影の開始されたタイミングで上記の処理を行うものとして説明する。
In the present embodiment, when obtaining an audio signal, the
図2は本実施形態の撮像装置100の撮像部101、音声入力部102のブロック構成図である。
FIG. 2 is a block configuration diagram of the
撮像部101は、被写体の光学像を取り込む光学レンズ201、光学レンズ201により取り込まれた被写体の光学像を電気信号(画像信号)に変換させる撮像素子202を有する。さらに、撮像部101は、撮像素子202により得られたアナログ画像信号をデジタル画像信号に変換し、画質調整処理をして画像データを形成し、メモリに送信する画像処理部203を有している。さらに、撮像部101は、光学レンズ201を移動させるための位置センサ、モータ等の公知の駆動メカニズムを有する光学レンズ制御部204を有している。本実施形態では、撮像部101に光学レンズ201、光学レンズ制御部204が内蔵されているように記載しているが、光学レンズ201は、レンズマウントを介して撮像装置100に着脱自在な交換レンズであっても良い。また、光学レンズ制御部204は、交換レンズ内に設けられるようにしても良い。
The
ここで、ズーム動作、フォーカス調整などの指示を、ユーザが操作部110を操作して入力すると、制御部109は、光学レンズ制御部204に光学レンズ201を移動させるための制御信号(駆動信号)を送信する。光学レンズ制御部204は、この制御信号に応じて、不図示の位置センサで光学レンズ201の位置を確認し、不図示のモータ等で光学レンズ201の移動を行う。また、画像処理部203により得られた画像や被写体との距離を制御部109が確認し、自動的に調整する場合は、光学レンズを駆動させる制御信号を送信することになる。また、画像のブレを防止する、いわゆる防振機能を備えている場合には、制御部109は、不図示の振動センサにより検出された振動に基づいて、光学レンズ201を移動させるための制御信号を光学レンズ制御部204に送信することになる。
Here, when a user operates the
このときに、光学レンズ201の移動による駆動騒音や光学レンズ201を移動させるためのモータの駆動騒音が発生することになる。制御部109からの光学レンズ201を駆動させる制御信号に応じて、光学レンズ制御部204が光学レンズ201を駆動させる。従って、制御部109は、駆動騒音が発生するタイミングを知る(検出するまたは、決定する)ことができる。
At this time, driving noise due to movement of the
本実施形態において、光学レンズ201の制御により、例えば最大で50倍、最小で1倍のズーミングを光学的に行うことができる。これを本実施形態では光学ズームと言う。勿論、光学ズームの倍率は前記以上でも前記以下でも構わないものとする。光学ズームは、制御部109からの指示で、光学レンズ制御部204が、光学レンズ201の光学レンズを移動させることで、被写体の光学像をズーミングさせるものである。また、画像処理部203は、撮像素子202により得られた画像信号の一部をズームインした画像信号を出力する電子ズーム機能を備えている。また、撮像素子202により得る画像の範囲を広くし、画像処理部203で画像サイズをズームアウトした画像信号を出力する電子ズーム機能を備えている。
In the present embodiment, under the control of the
以上が実施形態における撮像部101の構成とその動作である。次に、音声入力部102の構成と動作を説明する。
The above is the configuration and operation of the
実施形態の撮像装置100は、参照符号205a,205bで示す2つのマイクを有する。これらマイク205a、205bは空気(媒体)を伝播する振動を電気信号に変換し、音声信号を出力するものである。マイク205aがメイン(MAIN)マイク、マイク205bがサブ(SUB)マイク205bであって、以降、この名称で表現する。
The
詳細は後述する説明で明らかにするが、メインマイク205aは、ステレオ音声の一方のチャネルに対応するマイクとして機能し、且つ、音声処理装置外(実施形態では撮像装置100外)から音声を主として取得するためのマイクである。また、サブマイク205bは、ステレオ音声のもう一方のチャネルに対応するマイクとして機能する位置に配置される。サブマイク205bは、メインマイク205aと比較して、音声処理装置内(撮像装置100)の駆動部からの駆動騒音を主として取得するためのマイクである。
As will be described in detail later, the
メインマイク205aはアナログの音声信号をMch(メインチャネル)、サブマイク205bはアナログの音声信号をSch(サブチャネル)として出力する。本実施形態において第一の音声入力部をメインマイク205a、第一の音声信号をMchとする。また、第二の音声入力部をサブマイク205b、第二の音声信号をSchとする。本実施形態では2チャンネルで構成されたステレオ方式とするため、メインマイク205aとサブマイク205bの配置位置は、撮像部101の正立に構えた際の水平方向に所定距離隔てた位置に設けられている。なお、実施形態では、マイク数を2としているが、それ以上のマイクを保持する構成でも構わない。
The
メインマイク205a,サブマイク205bにより得られたアナログ音声信号はA/D変換部206に供給され、ここでそれぞれの音声信号がデジタルの音声データに変換される。本実施形態におけるA/D変換部206は、48KHzのサンプリングレートでサンプリングを行い、1サンプリング当たり16bitのデジタルデータを生成するものとする。
The analog audio signals obtained by the
A/D変換部206で得られた、予め設定された音声信号の期間(フレーム)の時系列のデジタルの音声データはFFT部207に供給され、ここで高速フーリエ変換され、周波数毎の周波数スペクトルデータに変換される。本実施形態において、周波数スペクトルは、0Hzから48kHzまでにおいて1024ポイントの周波数スペクトルデータとして変換され、ナイキスト周波数である24kHzまでにおいては512ポイントの周波数スペクトルを持つものとする。メインマイク205aからの周波数スペクトルデータをMain[0]〜[511]、サブマイク205bからの周波数スペクトルデータをSub[0]〜[511]と表す。また、本実施形態において、第一の音声スペクトルデータをMain[0]〜[511]、第二の音声スペクトルデータをSub[0]〜[511]と表すものとする。なお、各スペクトルデータの添え字が「0」が最低周波数を、「511」が最大周波数を表すものとする。
The time-sequential digital audio data obtained by the A /
駆動音演算処理部209は、駆動部を駆動させるための、制御部109からの制御信号に応じて、FFT部207により得た周波数スペクトルデータの周波数成分毎の、駆動騒音の減算量を決定する。この駆動騒音は、光学レンズ201が駆動されることにより発生される。なお、本実施形態における駆動部はズーム動作、フォーカス調整により駆動する光学レンズ201を指すものとする。駆動音演算処理部209は、周波数スペクトル毎の減算量を表すNC_Gain[0]〜[511]と、駆動騒音検出信号を出力する。
The drive sound
詳細は後述する説明から明らかになるが、感度差補正部208は、駆動音演算処理部209からの、1フレーム前の駆動騒音検出信号に応じて、現フレームのMain[0]〜[511]に対するSub[0]〜[511]の感度を補正し、補正後の周波数スペクトルデータMain[0]〜[511]、Sub[0]〜[511]を出力する。
Although details will become clear from the description to be described later, the sensitivity
風雑音演算処理部210は、FFT部207からの周波数スペクトルデータから、風雑音を検出し、減算量を決定する。そして、風雑音演算処理部210は、決定した風雑音の周波数スペクトルデータWC_Gain[0]〜[511]と、風雑音レベル信号を出力する。
The wind noise
ステレオゲイン演算処理部211は、FFT部207からの周波数スペクトルデータに対し、ステレオのLch(左チャネル)及びRch(右チャネル)それぞれのゲインを決定する。そして、ステレオゲイン演算処理部211は、各チャネルの、決定した周波数スペクトルの成分毎のゲインを表すGain_L[0]〜[511]とGain_R[0]〜[511]を出力する。ここで、左チャンネルのゲインがGain_L[0]〜[511]、右チャンネルのゲインがGain_R[0]〜[511]である。
Stereo gain
トータルゲイン演算部212は、駆動音演算処理部209、風雑音演算処理部210、および、ステレオゲイン演算処理部211において決定したNC_Gain[0]〜[511]、WC_Gain[0]〜[511]、Gain_L[0]〜[511]、Gain_R[0]〜[511]を合算し、Total_Gain_L[0]〜[511]、Total_Gain_R[0]〜[511]を出力する。具体的には、次式の通りである。実施形態では、このトータルゲイン演算部212は、トータルゲイン決定部として機能する。
Total_Gain_R[]=NC_Gain[]+WC_Gain[]+Gain_R[]
Total_Gain_L[]=NC_Gain[]+WC_Gain[]+Gain_L[]
The total
Total_Gain_R [] = NC_Gain [] + WC_Gain [] + Gain_R []
Total_Gain_L [] = NC_Gain [] + WC_Gain [] + Gain_L []
L/Rch生成部213は、MAIN[0]〜[511]の周波数毎の周波数スペクトルと、トータルゲイン演算部212で決定したTotal_Gain_L[0]〜[511]、Total_Gain_R[0]〜[511]を用いて、LchとRchの周波数スペクトルデータを生成する(詳細後述)。つまり、本実施形態におけるL/Rch生成部213はステレオ生成部として機能する。
The L /
iFFT部214は、L/Rch生成部213で生成された各チャネルの周波数スペクトルデータに対して逆高速フーリエ変換を行い、それぞれのチャネルの時系列の音声信号に戻す。
The
音声処理部215は、イコライザ等の処理を実施する。オートレベルコントローラは、時系列の音声信号の振幅を所定のレベルに調整する(以後、ALC部216)。
The
以上の構成により、音声入力部102は、音声信号に所定の処理を行い音声データを形成し、メモリ103へ送信することになる。
With the above configuration, the
次に、本実施形態の撮像装置100の記録動作について図4を用いて説明する。同図は実施形態の撮像装置100の記録のシーケンスを示すフローチャートである。
Next, a recording operation of the
S401にて、ユーザによる操作部110の操作により記録(REC)開始が指示されることで、本処理が開始される。S402にて、制御部109は音声録音するために音声のパスを接続する。音声パスが確立した後、S403にて、制御部109は、本実施形態で説明する制御を含めた信号処理の初期設定をおこない、処理を開始する。この信号処理の内容に関しては後述する。以降、RECシーケンスが終了するまで、本実施形態で説明する制御を含めた信号処理は実施される。
In S401, the recording (REC) start is instructed by the operation of the
記録処理シーケンス中、制御部109は、ユーザによる操作部110への操作を監視する。そして、ユーザにより、操作部110の一部であるズームレバーが操作された場合、S404からS405に処理を進め、制御部109は撮像部101を制御し、ズーム処理を行う。このズーム処理は、S406にて、ユーザがズームレバーの操作を止めたと判定されるまで継続する。ズーム処理中は、先に説明したように、レンズ201の移動による駆動騒音が発生し、その騒音が周囲環境音に重畳して録音されてしまう点に注意されたい。
During the recording processing sequence, the
そして、制御部109は、ユーザによる操作部110の操作や、記録媒体108の状況によって、記録終了が指示されたと判断した場合、S407からS408に処理を進める。S408にて、制御部109は音声パスを切断し、次いで、S409にて信号処理も終了する。
If the
次に、本実施形態の撮像装置100の音声入力部102の詳細を図6を用いて説明する。同図は、本実施形態の音声入力部102の詳細な構成を示すブロック図である。
Next, details of the
本実施形態における音声入力部102は、前述の通り、空気中を伝播する音声振動を電気信号に変換し、音声信号を出力するメインマイク205aとサブマイク205bを有する。また前述の通り、A/D変換部206は、アナログ音声信号を、48KHz、16bitのサンプリングを行い、アナログ音声信号からデジタル音声データに変換する。
As described above, the
感度差補正部208は、メインマイク205aからの周波数スペクトルデータMain[0]〜[511]と、サブマイク205bからの周波数スペクトルデータSub[0]〜[511]との感度差を補正する。このため、感度差補正部208は、感度補正積分器2081、感度補正検出部2082、補正量演算部2083、感度補正ゲインテーブル2084、感度差補正ゲイン部2085を含む。
The sensitivity
感度補正積分器2081は、メインマイク205aからの周波数スペクトルデータMain[0]〜[511]、及び、サブマイク205bからの周波数スペクトルデータSub[0]〜[511]に対し、時間軸方向のレベル変化に時定数を持たせる。
The
感度補正検出部2082は、感度補正積分器2081にて時定数を持たせた周波数スペクトルデータであるMain[0]〜[511]とSub[0]〜[511]のレベル差『Main[n]−Sub[n]』を、全周波数ポイントについて求める。ここで、差分は正負の符号が発生することに注意されたい。
The sensitivity
補正量演算部2083は、感度補正検出部2082からの差分レベルが負の場合(Main[n]<Sub[n]の場合に等価)、Main[n]=Sub[n]となるようにするため、Sub[n]の補正量を算出する。
When the difference level from the sensitivity
なお、感度補正検出部2082からの差分レベルが正の場合(Main[n]≧Sub[n]の場合に等価)、Sub[n]を補正する必要が無い。したがって、この場合、補正量演算部2083はSub[n]の補正量として0を出力する。
When the difference level from the sensitivity
感度補正ゲインテーブル2084は、補正量演算部2083にて算出された各周波数スペクトルSub[0]〜[511]の具体的な補正量が格納している。
The sensitivity correction gain table 2084 stores specific correction amounts of the frequency spectra Sub [0] to [511] calculated by the correction
感度差補正ゲイン部2085は、実際に、感度補正ゲインテーブル2084を基に各周波数スペクトルSub[0]〜[511]のレベル補正を実行する。
The sensitivity difference
ここで上記の時定数については、感度補正の追従を限りなく遅くする事を目的とするので数十秒単位とする。また、感度補正積分器2081は、後述する駆動検出部2095により駆動騒音の検出を表す駆動騒音検出信号を受けた場合、その動作を停止する。これは、光学レンズ201が駆動している不安定な期間における積分を排除する事を意図する。
Here, the above time constant is set to a unit of several tens of seconds because the purpose is to delay the follow-up of the sensitivity correction as much as possible. Further, when the
以上が実施形態における感度差補正部208を構成する各処理部の説明である。次に、駆動音演算処理部209について説明する。
The above is the description of each processing unit constituting the sensitivity
駆動音演算処理部209は、メインマイク205a、サブマイク205bからの周波数スペクトルデータであるMain[0]〜[511]、Sub[0]〜[511]から、駆動騒音の減算量NC_Gain[0]〜[511]を決定し、駆動騒音を検出した事を示す駆動騒音検出信号を出力する。このため、駆動音演算処理部209は、Mch−Sch演算部2091、駆動騒音除去ゲイン演算部2092、時間毎振幅変動検出部2093、時間毎位相変動検出部2094、駆動検出部2095、フレーム間振幅差検出部2096、駆動音減算量積分器2097を有する。
The driving sound
Mch−Sch演算部2091は、メインマイク205aからの周波数スペクトルデータMain[0]〜[511]から、サブマイク205bからの周波数スペクトルデータSub[0]〜[511]を差し引いた値を、駆動騒音の減算量として出力する。
The Mch-
ただし、周波数スペクトルnポイント目において、Main[n]>Sub[n]の場合には、減算量[n]は0とする。つまり、Mch−Sch演算部2091は、周波数スペクトルnポイント目において、Main[n]−Sub[n]<0であることを条件に負の値を減算量[n]として出力する。
However, if Main [n]> Sub [n] at the nth point of the frequency spectrum, the subtraction amount [n] is 0. That is, the Mch-
また、Main[n]に対してSub[n]が十分に大きく、Main[n]−Sub[n]が予め設定した閾値(負の値)を下回る場合、Mch−Sch演算部2091は、駆動騒音を検出したことを示す検出信号[n]を出力し、否の場合には検出信号を出力しない。なお、実際には、騒音検出を"1"、非検出を"0"として表しても良い。
In addition, when Sub [n] is sufficiently larger than Main [n] and Main [n] −Sub [n] falls below a preset threshold value (negative value), the Mch-
また、駆動騒音検出の判定は、減算関係を逆にして、Sub[n]−Main[n]と閾値(正の値を持つ)との比較で行っても良い。この場合、Mch−Sch演算部2091は、この演算の結果が閾値を上回った場合に駆動騒音検出を示す信号を出力することになる。
The determination of driving noise detection may be performed by comparing Sub [n] −Main [n] and a threshold value (having a positive value) with the subtraction relationship reversed. In this case, the Mch-
駆動検出部2095は、Mch−Sch演算部2091からの1フレーム分の検出信号[0]〜[511]を受け、その中に、1以上の検出信号が存在した場合、該当のフレームにおいては駆動騒音を検出した事を表す駆動騒音検出信号を出力する。
The
Mch−Sch演算部2091及び駆動検出部2095による処理は、正の閾値をThと定義したとき、次式を満たす「i」(iは0から511のいずれか)が存在するか否かの判定を行い、その判定結果を駆動騒音検出を示す信号として出力していると、と言える。
Main[i]+Th<Sub[i]
The processing by the Mch-
Main [i] + Th <Sub [i]
時間毎振幅変動検出部2093は、メインマイク205aからの周波数スペクトルデータMain[0]〜[511]、サブマイク205bからの周波数スペクトルデータSub[0]〜[511]に対し、時間方向のフレーム間での振幅変動量の検出を行う。具体的には、時間毎振幅変動検出部2093は、現在のフレームの周波数スペクトルのnポイント目の成分値と、前フレームの周波数スペクトルのnポイント目の成分値との差分値を求め、出力する。そして、nポイント目での変動量が予め設定された閾値を超えた場合、時間毎振幅変動検出部2093は、時間毎振幅変動量[n]を出力し、閾値以下の場合には0を出力する。
The hourly amplitude
時間毎位相変動検出部2094は、後述の位相差判定部2111から取得する位相情報に基づき、メインマイク205aからの周波数スペクトルデータMain[0]〜[511]、サブマイク205bからの周波数スペクトルデータSub[0]〜[511]の位相変動量の検出を行う。例えば周波数スペクトルnポイント目において前記変動量が予め定められた閾値を超えた場合は、時間毎位相変動検出部2094は、時間毎位相変動量[n]を出力する。また、変動量が閾値以下の場合、時間毎位相変動検出部2094は、時間毎位相変動量[n]を出力しない、又は、時間毎位相変動量[n]=0として出力する。
The hourly phase
フレーム間振幅差検出部2096は、駆動検出部2095からの駆動騒音検出信号に基づき、サブマイク205bからの周波数スペクトルデータであるSub[0]〜[511]の時間方向のフレーム間での振幅差の検出を行う。例えば周波数スペクトルnポイント目において、駆動騒音検出信号があり、前フレームと現フレームとの振幅差が予め定められた閾値を超えた場合は、フレーム間振幅差検出部2096は、フレーム間振幅差量[n]を出力する。また、差が閾値以下の場合、フレーム間振幅差検出部2096は、フレーム間振幅差量[n]を出力しない、もしくは、フレーム間振幅差量[n]=0として出力する。
Based on the drive noise detection signal from the
駆動騒音除去ゲイン演算部2092は、同一フレームにおいて、前述のMch−Sch演算部2095からの減算量[0]〜[511]、時間毎振幅変動検出部2093からの時間毎振幅変動量[0]〜[511]、時間毎位相変動検出部2094からの時間毎位相変動量[0]〜[511]、フレーム間振幅差検出部2096からのフレーム間振幅差量[0]〜[511]其々の結果に対し、予め定められた系数を乗算して、加算した駆動騒音除去量[0]〜[511]を算出し、出力する。
In the same frame, the drive noise elimination gain calculation unit 2092 subtracts [0] to [511] from the above-described Mch-
駆動音減算量積分器2097は、駆動騒音除去ゲイン演算部2092から出力された駆動騒音除去量[0]〜[511]に対し、時間方向の変動量に時定数を持たせ、駆動騒音除去ゲインNC_Gain[0]〜[511](正負の符号付き)を出力する。
The drive sound
以上が実施形態の駆動音演算処理部209の構成と動作である。次に、風雑音演算処理部210について説明する。
The above is the configuration and operation of the drive sound
風雑音演算処理部210は、メインマイク205aからの周波数スペクトルデータMain[0]〜[511]、サブマイク205bからの周波数スペクトルデータSub[0]〜[511]から風雑音を検出し、減算量を表すWC_Gain[0]〜[511]と、風雑音レベル信号を出力する。風雑音演算処理部210は、風検出部2101、風雑音ゲイン演算部2102、風雑音減算量積分器2103を有する。
The wind noise
風検出部2101は、メインマイク205aからの周波数スペクトルMain[0]〜[511]、及び、サブマイク205bからの周波数スペクトルSub[0]〜[511]のうちから、それぞれの低周波数域の所定数のポイントの相関に応じて風雑音レベルの検出を行う。例えば低域の10ポイントにおいて、次式に従い風雑音レベルを求め、出力する。なお、ここでの"n"は、実施形態の場合には0乃至9であるが、この数は適宜変更しても構わない。
風雑音レベル=Σ(Main[n]−Sub[n])/(Main[n]+Sub[n])
なお、上式のΣは、n=0乃至9の合算を示している。
The
Wind noise level = Σ (Main [n] −Sub [n]) / (Main [n] + Sub [n])
Note that Σ in the above equation indicates the sum of n = 0 to 9.
また、風雑音ゲイン演算部2102は、図17に示すような特性線分を持つテーブルを有する。図示のように、1つの線分は、或る周波数以下ではゲインが負、その周波数以上ではゲインが0となる。そして、ゲインが負から0となる周波数の位置が互いに異なる複数の線分を含む。そして、風雑音ゲイン演算部2102は、風雑音レベルに従った1つの線分を用いて、風雑音ゲイン[0]〜[511]を決定し、出力する。なお、実施形態では、風雑音ゲイン[0]〜[511]をテーブルを用いて決定するものとしたが、風雑音レベルを引数とする関数を用いて、風雑音ゲイン[0]〜[511]を決定しても良い。
The wind noise
風雑音減算量積分器2103は、風雑音ゲイン演算部2102から出力された風雑音ゲイン[0]〜[511]に対し、時間方向の変動量に時定数を持たせ、風雑音ゲインWC_Gain[0]〜[511](正負の符号付き)を出力する。
The wind noise
以上が実施形態における風雑音演算処理部210の構成と動作である。次に、実施形態におけるステレオゲイン演算処理部211を説明する。
The above is the configuration and operation of the wind noise
ステレオゲイン演算処理部211は、メインマイク205aからの周波数スペクトルデータMain[0]〜[511]、サブマイク205bからの周波数スペクトルデータSub[0]〜[511]から、ステレオのLchのゲインGain_L[0]〜[511]と、RchのゲインGain_R[0]〜[511]を生成し、出力する。このために、ステレオゲイン演算処理部211は、位相差判定部2111、ステレオゲイン演算部2112、ステレオ抑制部2113、左ゲイン積分器2114,右ゲイン積分器2115を有する。
The stereo gain
位相差判定部2111は、周波数スペクトルデータMain[0]〜[511]に対するSub[0]〜[511]の位相情報を算出する。
The phase
例えば、周波数スペクトルデータにおける各ポイントの位相ベクトルをV()として表した場合の、周波数ポイントnの位相情報[n]は次式に従って算出される。
位相情報[n]=|V(Main[n]) ×V(Sub[n])|/(|V(Main[n]) |・|V(Sub[n])|)
ここで、右辺の"|x|"はベクトルxの絶対値(スカラー)を表し、分母の"・"はスカラーどうしの積、分子の"×"は2つのベクトルの正弦である外積を表している。
For example, when the phase vector of each point in the frequency spectrum data is expressed as V (), the phase information [n] at the frequency point n is calculated according to the following equation.
Phase information [n] = | V (Main [n]) × V (Sub [n]) | / (| V (Main [n]) | · | V (Sub [n]) |)
Here, “| x |” on the right side represents the absolute value (scalar) of the vector x, “·” in the denominator represents the product of the scalars, and “x” in the numerator represents the outer product that is the sine of the two vectors. Yes.
位相差判定部2111は上式に従って算出した位相情報[0]〜[511]を出力する。
The phase
ステレオゲイン演算部2112は、位相差判定部2111からの位相情報[0]〜[511]からステレオゲイン[0]〜[511]の演算を行う。例えば周波数ポイントnにおいて、次式に従って各チャネルのゲインを得る。
Lch生成用のステレオゲイン=1+位相情報[n]×強調係数
Rch生成用のステレオゲイン=1−位相情報[n]×強調係数
ステレオゲイン演算部2112は、上式にて算出されたLch,Rchのステレオゲイン[n]を出力する。ここで、強調係数は周波数に応じて変更されるものであり、上限を1、下限を0とするものである。
The stereo
Stereo gain for Lch generation = 1 + phase information [n] × stereo gain for enhancement coefficient Rch = 1−phase information [n] × enhancement coefficient The stereo
ステレオ抑制部2113は、駆動音演算処理部209内のMch−Sch演算部2091からの駆動騒音を検出したことを示す検出信号を受けた場合に強調係数を0にする。また、ステレオ抑制部2113は、風雑音演算処理部210内の風検出部2101からの風雑音レベルに応じて強調係数を0にする。
The
左ゲイン積分器2114は、ステレオゲイン演算部2112から出力された、Lch生成用のステレオゲイン[0]〜[511]に対し、時間方向の変動量に所定の時定数を持たせ、それをステレオゲインGainL[0]〜[511](正負の符号付き)として出力する。
The left gain integrator 2114 gives a predetermined time constant to the amount of fluctuation in the time direction with respect to the stereo gain [0] to [511] for generating Lch output from the stereo
右ゲイン積分器2115は、ステレオゲイン演算部2112から出力された、Rch生成用のステレオゲイン[0]〜[511]に対し、時間方向の変動量に所定の時定数を持たせ、それをステレオゲインGainR[0]〜[511](正負の符号付き)として出力する。
The
以上が実施形態のステレオゲイン演算処理部211の構成と動作である。次に、実施形態におけるトータルゲイン演算部212を説明する。
The above is the configuration and operation of the stereo gain
トータルゲイン演算部212は、駆動音演算処理部209、風雑音演算処理部210、および、ステレオゲイン演算処理部211において決定したNC_Gain[0]〜[511]、WC_Gain[0]〜[511]、Gain_L[0]〜[511]、Gain_R[0]〜[511]を合算し、Total_Gain_L[0]〜[511]、Total_Gain_R[0]〜[511]を出力する。具体的には次式である。
Total_Gain_L[]=NC_Gain[] + WC_Gain[] + Gain_L[]
Total_Gain_R[]=NC_Gain[] + WC_Gain[] + Gain_R[]
The total
Total_Gain_L [] = NC_Gain [] + WC_Gain [] + Gain_L []
Total_Gain_R [] = NC_Gain [] + WC_Gain [] + Gain_R []
次に、L/Rch生成部213を説明する。このL/Rch生成部213は、周波数スペクトルデータMAIN[0]〜[511]から、トータルゲイン演算部212で決定したTotal_Gain_L[0]〜[511]、Total_Gain_R[0]〜[511]を用いて、LchとRchの出力用の周波数スペクトルデータを作成する。L/Rch生成部213は、Mch/Sch選択部2131、L/Rchゲイン加算部2132を有する。
Next, the L /
Mch/Sch選択部2131は、風検出部2101による風雑音レベルに応じて、周波数スペクトルデータMain[0]〜[511]に合成することになるSub[0]〜[511]の周波数ポイントの範囲を選択する。また、Mch/Sch選択部2131は、風雑音レベルに応じて、合成する境界位置を低周波数ポイントから高周波数ポイントへと変化させる。また、風を検出されない場合、Mch/Sch選択部2131は合成を行わず、周波数スペクトルデータMain[0]〜[511]をそのまま出力する。
The Mch /
L/Rchゲイン加算部2132は、Mch/Sch選択部2132から出力された周波数スペクトルデータMain[0]〜[511]に対して、トータルゲイン演算部212で決定したTotal_Gain_L[0]〜[511]、Total_Gain_R[0]〜[511]を用いて、左右チャネル(LchとRch)の周波数スペクトルデータを作成する。
The L / Rch
以上が実施形態のL/Rch生成部213の構成と動作である。
The above is the configuration and operation of the L /
iFFT部214は、L/Rch生成部213で生成された各チャネルの周波数スペクトルデータを逆変換(逆FFT変換)し、元の時系列の音声信号に戻す。音声処理部215は、イコライザ等の処理を実施する。ALC(オートレベルコントローラ)216は、時系列の音声信号の振幅を所定のレベルに調整する。
The
以上の構成を備え、音声入力部102は、音声信号に所定の処理を行い音声データを形成して、メモリ103へ送信し、格納することになる。
With the above configuration, the
ここで、本実施形態の音声入力部102の一部を構成するメカ構成について、図3(a)、3(b)を用いて説明する。
Here, a mechanical configuration constituting a part of the
図3(a)は、本実施形態の撮像装置の筐体の外観図である。撮影対象に撮像装置が向いた状態で、撮影者から見て右側の所定位置の参照符号"a"がメインマイク205aの入力穴(開口部)、左側の対向する位置の参照符号"b"がサブマイク205bの入力穴となる。図3(b)においての拡大図は、音声入力部102の一部であるメインマイク205aとサブマイク205bのメカ構成部である。図3(b)は、前記メカ構成を示す断面図である。マイク穴を構成する外装部102−1、メインマイク205aを保持するメインマイクブッシュ102−2a、サブマイク205bを保持するサブマイクブッシュ102−2b、其々のマイクブッシュを外装部へ押し付け保持をする押し付け部103により構成される。外装部102−1、押し付け部103についてはPC材等のモールド部材で構成されるが、アルミ、ステンレス等の金属部材であっても問題ない。また、メインマイクブッシュ102−2a、サブマイクブッシュ102−2bについては、エチレンプロピレンジエンゴム等のゴム材にて構成される。
FIG. 3A is an external view of the housing of the imaging apparatus according to the present embodiment. With the imaging device facing the object to be imaged, the reference symbol “a” at a predetermined position on the right side when viewed from the photographer is the input hole (opening) of the
ここで、外装部におけるマイク穴の径について説明する。サブマイク205bへのマイク穴の径(開口している面積)は、メインマイク205aへのマイク穴の径(同面積)に対して小さく、所定の倍率にて縮小された構成をとる。マイク穴形状については円状か楕円状が望ましいが、方形状でも構わない。また、其々の穴形状について、同形状でも別形状でも構わない。前記構成は、撮像装置内部でマイクに空気伝搬して伝わる駆動騒音についてサブマイク205bのマイク穴側から外部へ漏れにくくなる事を目的とする。
Here, the diameter of the microphone hole in the exterior part will be described. The diameter (open area) of the microphone hole to the
次に、外装部102−1とマイクブッシュで構成されるマイク前面の空間について説明する。外装部102−1とサブマイクブッシュ102−2bで構成されるサブマイク205bの前面の空間の容積は、外装部102−1とメインマイクブッシュ102−2aで構成されるメインマイク205aの前面の空間のそれより大きく、所定の倍率の容積を確保する構成をとる。この構成は、サブマイク205bの前面の空間において、空間内の気圧変化が大きくなり、駆動騒音が強調される事を目的とする。
Next, the space in front of the microphone constituted by the exterior part 102-1 and the microphone bush will be described. The volume of the space in front of the
前述の通り、マイク入力のメカ構成におけるサブマイク205b入力は、メインマイク205a入力に対して、駆動騒音の振幅が大きく強調される構成をとる。各マイクへ入力される駆動騒音の音声レベルの関係は、メインマイク205a<サブマイク205bとなる。一方、マイク穴の前面から空気伝搬により各マイクへ入力される、装置外からの音声(本来の集音目的である周辺環境音)のレベル関係は、メインマイク205a≧サブマイク205bの関係となることに注意されたい。
As described above, the
ここで、本実施形態の音声入力部102でのステレオゲイン演算処理部211の動作について、図7から図9を用いて説明する。
Here, the operation of the stereo gain
図7は、撮像装置100に内蔵されたマイクに対する外部からの音声の経路と、内蔵の光学レンズ201の駆動時の音声の経路の一例を示している。この時のマイクは、図2に示すメインマイク205aおよびサブマイク205bが該当する。図7のように周囲環境音の音源と撮像装置100との距離は、メインマイク205aとサブマイク205b間の距離に対して十分に大きい。よって、周囲環境音の音源からのメインマイク205aへの音声の伝播経路と、周囲環境音の音源とサブマイク205bへの音声の伝播経路は殆ど同一と考えて良い。しかし、撮像装置内蔵の光学レンズ201は、メインマイク205aとサブマイク205bに近接している。また、光学レンズ201の移動を行うためのモータからマイクへの距離が均等でなかったり、撮像装置内での音声の経路が異なる可能性もある。故に、光学レンズ駆動系からメインマイク205a、サブマイク205bそれぞれへの音声経路(距離)は大きく異なってしまう。つまり、周囲環境音と駆動騒音とでは、MchとSchの音声レベルの差分に大きな差が出る事となる。それ故、周囲環境音と光学レンズの駆動騒音は大きく差が出て、これらを容易に区別することができる。
FIG. 7 shows an example of a sound path from the outside to the microphone built in the
一方、本来、周囲環境音は左右のどちら側から発生したかはMchとSchでは大きさでは判断することは難しい。そこで、周囲環境音は音声信号の位相を利用して判断することができる。詳細について説明する。 On the other hand, it is difficult for Mch and Sch to determine from the left or right side whether the ambient environmental sound is originally generated. Therefore, the ambient environmental sound can be determined using the phase of the audio signal. Details will be described.
図8(a)〜(c)は、或る周波数スペクトルデータMain[n]とSub[n]の関係を示している。 FIGS. 8A to 8C show the relationship between certain frequency spectrum data Main [n] and Sub [n].
ステレオゲイン演算処理部211は、メインマイク205aからの周波数スペクトルデーMain[0]〜[511]、サブマイク205bからの周波数スペクトルデータSub[0]〜[511]から、ステレオのLchのゲインGain_L[0]〜[511]、RchのゲインGain_R[0]〜[511]を出力する。ステレオゲイン演算処理部211は以下の構成を備えている。
The stereo gain
位相差判定部2111は、周波数スペクトルデータMain[0]〜[511]に対する周波数スペクトルデータSub[0]〜[511]の位相情報を算出する。
The phase
例えば周波数ポイントnの周囲環境音が、メインマイク205a側から発生した場合、V(Main[n])とV(Sub[n])の関係は図8(a)のような関係になる。本実施形態でのマイク配置においても、周波数スペクトルの大きさは変わってしまっても、位相は変わることはない。そこで、位相情報を、V(Main[n]) とV(Sub[n])の外積(|V(Main[n]) ×V(Sub[n]) |)を用いることで得る。
位相情報[n]=|V(Main[n]) ×V(Sub[n]) |/(|V(Main[n]) |・|V(Sub[n]) |)
位相差判定部2111は、上式にて算出された位相情報[n]を出力する。ここで求められる位相情報[n]は、すなわち、V(Main[n])とV(Sub[n])のsinθであり、周囲環境音がメインマイク205a側(撮像装置100を構えるユーザの右側)から発生した場合は、0<位相情報[n]≦1となる。
For example, when the ambient environmental sound at the frequency point n is generated from the
Phase information [n] = | V (Main [n]) × V (Sub [n]) | / (| V (Main [n]) |. | V (Sub [n]) |)
The phase
また、周波数ポイントnの周囲環境音が、サブマイク205b側から発生した場合、V(Main[n])とV(Sub[n])の関係は図8(b)のような周波数スペクトルの関係になる。本実施形態でのマイク配置においても、周波数スペクトルの大きさは変わってしまっても、位相は変わることはない。
When the ambient environmental sound at the frequency point n is generated from the
そこで、位相情報をV(Main[n]) とV(Sub[n]) の外積(|V(Main[n]) ×V(Sub[n]) |)を用いることで得る。
位相情報[n]=|V(Main[n]) ×V(Sub[n]) |/(|V(Main[n]) |・|V(Sub[n]) |)
位相差判定部2111は、上式にて算出された位相情報[n]を出力する。ここで求められる位相情報[n]は、すなわち、V(Main[n])とV(Sub[n])のsinθであり、周囲環境音がサブマイク205b側からの場合、0>位相情報[n]≧−1となる。
Therefore, the phase information is obtained by using the outer product of V (Main [n]) and V (Sub [n]) (| V (Main [n]) × V (Sub [n]) |).
Phase information [n] = | V (Main [n]) × V (Sub [n]) | / (| V (Main [n]) |. | V (Sub [n]) |)
The phase
また周波数ポイントnの周囲環境音がメインマイク205a、サブマイク205bと同じ距離、すなわち光学レンズ201の中心から発生した場合、V(Main[n])とV(Sub[n])の関係は図8(c)のような周波数スペクトルの関係になる。本実施形態でのマイク配置においても、周波数スペクトルの大きさは変わってしまっても、位相は変わることはない。
When the ambient environmental sound at the frequency point n is generated from the same distance as the
位相情報は、V(Main[n]) とV(Sub[n]) の外積(|V(Main[n]) ×V(Sub[n]) |)を用いることで得ることができる。
位相情報[n]=|V(Main[n]) ×V(Sub[n]) |/(|V(Main[n]) |・|V(Sub[n]) |)
位相差判定部2111は、上式にて算出された位相情報[n]を出力する。ここで求められる位相情報[n]は、V(Main[n])とV(Sub[n])のsinθであり、周囲環境音が、サブマイク205b側からは位相情報[n]≒0となる。
The phase information can be obtained by using the outer product (| V (Main [n]) × V (Sub [n]) |) of V (Main [n]) and V (Sub [n]).
Phase information [n] = | V (Main [n]) × V (Sub [n]) | / (| V (Main [n]) |. | V (Sub [n]) |)
The phase
ステレオゲイン演算部2112は、上記のようにして決定した位相情報[0]〜[511]を用いて、ステレオゲイン[0]〜[511]の演算を行っている。例えば周波数ポイントnにおいて、ステレオゲイン演算部2112は次式に従って各チャネルのゲインを算出する。
Lch生成用のステレオゲイン=1+位相情報[n]×強調係数
Rch生成用のステレオゲイン=1−位相情報[n]×強調係数
そして、ステレオゲイン演算部2112は、上式にて算出された各チャネルのステレオゲイン[n]を出力する。
The stereo
Stereo gain for Lch generation = 1 + phase information [n] × enhancement coefficient Rch generation stereo gain = 1−phase information [n] × enhancement coefficient Further, the stereo
図9はステレオゲイン演算部2112で用いられる各周波数ポイントにおける強調係数を示した図である。
FIG. 9 is a diagram showing enhancement coefficients at each frequency point used in the
横軸を周波数ポイント、縦軸を強調係数とした時、もっとも強調したい周波数の強調係数を最大値の1.0として、位相差がでにくい低域と位相差が判断できない高域の強調係数は最小値の0とする。 When the horizontal axis is the frequency point and the vertical axis is the emphasis coefficient, the emphasis coefficient of the frequency to be most emphasized is 1.0 as the maximum value. The minimum value is 0.
例えばもっとも強調したい1kHz〜5kHzは強調係数を1.0とし、200Hz以下は0とする。 For example, the emphasis coefficient is 1.0 for 1 kHz to 5 kHz that is most emphasized, and 0 for 200 Hz or less.
位相差が判断できない高域の強調係数は、メインマイク205aとサブマイク205bの距離で決定する。例えば、メインマイク205aとサブマイク205bの距離が15mmの時、音速を340m/sとすると、15mmの間に半波長が入る11.3kHz以上になると、正しい位相情報が取れず、左右が反転してしまう可能性がある。また、15mmの間に1/4波長の入る5.7kHz以上は正確性が低い。そこで図9に示すような周波数に応じた強調係数のかけ方を行う。
The high-frequency enhancement coefficient for which the phase difference cannot be determined is determined by the distance between the
ここで、本実施形態の音声入力部102での駆動音演算処理部209、トータルゲイン演算部212、L/Rch生成部213の動作について、図5、図10から図13を用いて説明する。
Here, operations of the drive sound
図10は、メインマイク205aとサブマイク205bそれぞれの各周波数の振幅スペクトルデータの例を示している。
FIG. 10 shows an example of amplitude spectrum data of each frequency of the
FFT部207により、各チャネルの音声信号は0Hzから48kHzまでにおいて1024ポイントの周波数スペクトルとして変換される。変換後の周波数スペクトルデータは、ナイキスト周波数である24kHzまでにおいては512ポイントの周波数スペクトルを持つものとする。
The
先に図3(a),(b)を用いて説明したように、実施形態の撮像装置100のマイク入力のメカ構成によれば、サブマイク205bは、メインマイク205aに対して、駆動騒音の振幅が大きく強調された信号を生成する。つまり振幅スペクトルにおいて、
周囲環境音レベル:メインマイク205a≧サブマイク205b
駆動騒音レベル:メインマイク205a<サブマイク205b
との関係となる。
As described above with reference to FIGS. 3A and 3B, according to the microphone input mechanical configuration of the
Ambient environmental sound level:
Driving noise level:
It becomes the relationship.
図10に、メインマイク205aからの振幅スペクトルデータMain[]、サブマイク205bからの振幅スペクトルデータSub[]の一例を示す。また、同図における「Main−Sub」は、Mch−Sch演算部2091にて演算される、Main[]からSub[]を差し引いた減算量[0]〜[511]を示している。
FIG. 10 shows an example of amplitude spectrum data Main [] from the
例えば、SchにおけるNポイント目の周辺の振幅スペクトルを着目すると、Sch>Mchであり、つまり駆動騒音が支配的なポイントである事が言える。この時、Main−Subには、Nポイント目周辺にて予め定められたズーム検出閾値を超える(下回る)減算量が算出され、Nポイント目周辺は「駆動騒音」とされる振幅スペクトルと検出される。一方、MchにおけるN2ポイント目の振幅スペクトルを着目すると、Sch≦Mchである。つまり周囲環境音が支配的なポイントであることが言える。この時、Main−Subには、ズーム検出閾値を超える減算量は算出されないため、N2ポイント目周辺の振幅スペクトルは駆動騒音とは検出されることはない。上記演算を[0]〜[511]の振幅スペクトル全ての範囲において実行する。 For example, focusing on the amplitude spectrum around the Nth point in Sch, it can be said that Sch> Mch, that is, the driving noise is the dominant point. At this time, in Main-Sub, a subtraction amount that exceeds (below) a predetermined zoom detection threshold around the Nth point is calculated, and an amplitude spectrum that is “driving noise” is detected around the Nth point. The On the other hand, paying attention to the amplitude spectrum at the N2th point in Mch, Sch ≦ Mch. In other words, it can be said that ambient sound is the dominant point. At this time, since the subtraction amount exceeding the zoom detection threshold is not calculated in Main-Sub, the amplitude spectrum around the N2th point is not detected as drive noise. The above calculation is performed in the entire range of the amplitude spectrum of [0] to [511].
図11は、サブマイク205bの周波数Nポイント目の時系列の振幅スペクトルを示す図である。
FIG. 11 is a diagram showing a time-series amplitude spectrum at the frequency N point of the
図示の「Sub ch」は、Nポイント目の振幅スペクトルデータが時系列にて変動する事を示す。 “Sub ch” in the figure indicates that the amplitude spectrum data of the Nth point fluctuates in time series.
Sch|tn−t(n-1)|は、SchNポイント目の振幅スペクトルに対し、時間毎振幅変動検出部2093により演算される時間方向のフレーム間での振幅変動量を示し、時間毎変動量[n]として出力される。例えば、t1からt2にてSchの振幅スペクトルに着目すると、時間方向での変動量は大きくなっており、Sch|tn−t(n-1)|には、t1からt2において、変動量検出閾値を超える時間毎変動量が算出される。この演算を[0]〜[511]の振幅スペクトルの全てのポイントにおいて実行する。
Sch | t n -t (n- 1) | , compared amplitude spectrum of SchN point th represents the amplitude change amount between the time direction of the frame is calculated by the time each amplitude
図12(a),(b)は、メインマイク205aからの振幅スペクトル、サブマイク205bからの振幅スペクトルにおける、周波数Nポイント目の時系列の位相を示す図である。
FIGS. 12A and 12B are diagrams showing time-series phases at the Nth frequency in the amplitude spectrum from the
同図(a)は複素数平面Im,Reにより、時間方向における「周囲環境音」の位相の変化を示しており、実線部はMchを、点線部はSchを表している。t0,t1,t2,t3,t4については、時間方向の推移を示す。 FIG. 6A shows changes in the phase of the “ambient environmental sound” in the time direction by the complex planes Im and Re. The solid line portion represents Mch and the dotted line portion represents Sch. About t0, t1, t2, t3, t4, the transition of a time direction is shown.
同図(b)は、「駆動騒音」の位相の変化を示している。 FIG. 4B shows the phase change of “driving noise”.
ここにおいて、周囲環境音については、MchとSchの位相は、t0からt4の時間の推移において一定である。駆動騒音については、MchとSchの位相はt0からt4の時間の推移において大きく変動している。其々の時間方向での位相の変動は時間毎位相変動検出部2094にて検出され、時間毎位相変動量[n]として出力される。時間毎位相変動検出部2094は、この演算を[0]〜[511]の振幅スペクトルの全て周波数ポイントについて実行する。
Here, for ambient sound, the phases of Mch and Sch are constant over time from t0 to t4. Regarding the driving noise, the phases of Mch and Sch greatly fluctuate in the transition of time from t0 to t4. The phase fluctuation in each time direction is detected by the hourly phase
図13(a)、(b)は、Mch−Sch演算部2091の動作タイミングチャートの一例を表している。
FIGS. 13A and 13B show an example of an operation timing chart of the Mch-
同図(a)におけるMain[N]、Sub[N]、Main[N]−Sub[N]は、それぞれ周波数Nポイント目のMchの振幅スペクトルデータ、Schの振幅スペクトルデータ、Mch振幅スペクトルからSch振幅スペクトルを差し引いた減算量[N]を示している。Main[N]−Sub[N]は、Mch−Sch演算部2091にて演算を行われた結果を出力している。
Main [N], Sub [N], and Main [N] -Sub [N] in FIG. 4A are Mch amplitude spectrum data, Sch amplitude spectrum data, and Mch amplitude spectrum at the frequency N point, respectively. The subtraction amount [N] obtained by subtracting the amplitude spectrum is shown. Main [N] -Sub [N] outputs the result of the operation performed by the Mch-
ここで、同図(a)のt1からt2の期間を着目すると、Sub[N]の振幅スペクトルは、Main[N]に対して大きく上回っており、Main[N]−Sub[N]の演算結果はズーム閾値を上回る結果となっており、駆動騒音として検出され、減算量[N]が出力される。 Here, focusing on the period from t1 to t2 in FIG. 9A, the amplitude spectrum of Sub [N] is significantly higher than that of Main [N], and the calculation of Main [N] −Sub [N] is performed. The result exceeds the zoom threshold, and is detected as drive noise, and a subtraction amount [N] is output.
図13(b)におけるMain[N2]、Sub[N2]、Main[N2]−Sub[N2]は、それぞれ周波数N2ポイント目のMchの振幅スペクトル、Schの振幅スペクトル、Mch振幅スペクトルからSch振幅スペクトルを差し引いた減算量[n]を示す。ここで、同図(b)のt1からt2の期間を着目すると、Main[N2]とSub[N2]が同レベルで変動しており、Main[N2]−Sub[N2]の演算結果もズーム閾値を上回る結果はない。周波数N2ポイント目において駆動騒音は検出されない結果となる。Mch−Sch演算部2091は上記タイミングチャートで示した演算を[0]〜[511]の振幅スペクトル全てにおいて実行する。
Main [N2], Sub [N2], and Main [N2] -Sub [N2] in FIG. 13B are the Mch amplitude spectrum, the Sch amplitude spectrum, and the Mch amplitude spectrum at the frequency N2 point, respectively. Represents the subtraction amount [n]. Here, focusing on the period from t1 to t2 in FIG. 5B, Main [N2] and Sub [N2] fluctuate at the same level, and the calculation result of Main [N2] -Sub [N2] is also zoomed. There is no result exceeding the threshold. The driving noise is not detected at the frequency N2 point. The Mch-
図5はL/Rch生成部213のタイミングチャートの一例を表す。ズーム駆動動作は、制御部109からの制御を受け、t1からt2のタイミングにおいて、光学レンズ201が駆動動作となる。Mchスペクトルは、図5において抽出した特定の周波数Nポイント目のスペクトルを表す。Lch,Rchについては、トータルゲイン演算部212で決定したTotal_Gain_L、Total_Gain_RをMchに加算することで生成される。同図のタイミングチャートに示されるように、例えば、Mchに対し、Total_Gain_Lを下げ、Total_Gain_Rを上げることで、Rchが強調することができ、1chの入力で2chのステレオ信号を生成する事が可能である。
FIG. 5 shows an example of a timing chart of the L /
また、t1からt2における光学レンズの駆動動作中においても、Total_Gain_L、Total_Gain_Rを下げることで、Lch,Rchに対し、駆動騒音を除去することが可能である。 Further, even during the driving operation of the optical lens from t1 to t2, it is possible to remove drive noise from Lch and Rch by lowering Total_Gain_L and Total_Gain_R.
ここで、ここで、本実施形態の音声入力部102での感度差補正部208の動作について、図14を用いて説明する。
Here, the operation of the sensitivity
図14は、感度差補正部208の動作タイミングチャートの一例を示している。同図において、ズーム検出は駆動検出部2095の駆動騒音の検出結果を示す。入力スペクトルNPointは、周波数Nポイント目のMchの振幅スペクトル、Schの振幅スペクトルを示す。実線部はMchを、点線部はSchを示わしている。
FIG. 14 shows an example of an operation timing chart of the sensitivity
入力スペクトル(積分)NPointは、周波数Nポイント目の感度補正積分器2081のMch、Schの積分結果を示す。感度調整出力スペクトルNPointは、周波数Nポイント目の感度差補正ゲイン部2085によりレベル補正されたMchの振幅スペクトル、Schの振幅スペクトルを示す。実線部はMchを、点線部はSchを示す。
Input spectrum (integration) NPoint indicates the integration result of Mch and Sch of the
図14において、t0はREC開始のタイミングであり、t0からt1にかけては数10秒程度の充分長い時間を表わしている。タイミングt2からt3にかけては、ズーム検出がONされており、駆動検出部2095により駆動騒音が発生していることを表す。
In FIG. 14, t0 is the REC start timing, and represents a sufficiently long time of about several tens of seconds from t0 to t1. From timing t2 to t3, the zoom detection is ON, and the
入力スペクトルNPointは、MchとSchはREC開始時t0においてレベル差が生じている。それに対し、入力スペクトル(積分)NPointは、感度補正積分器2081により、積分されt0からt1にかけてゆっくりとレベル差に追従していく。感度調整出力スペクトルNPointも入力スペクトル(積分)NPointの積分結果に対し、t0からt1にかけて充分に時間を掛けて感度差補正ゲイン部2085にてゲイン補正をしていく。これは、感度差補正部208は、メインマイク205aとサブマイク205bの感度補正を目的としているので、数十秒程度の充分な時間を掛けてのレベル補正で良く、過渡的な応答性を必要としない。
In the input spectrum NPoint, there is a level difference between Mch and Sch at the start of REC t0. On the other hand, the input spectrum (integration) NPoint is integrated by the
また、タイミングt2からt3にかけてのズーム検出ON期間においては、感度補正積分器2081が停止状態となる。よって、駆動騒音が発生することにより、Mchの振幅スペクトル、Schの振幅スペクトルに大きなレベル差が発生するが、感度補正積分器2081が停止状態にあるので、レベル差に追従することなく、値は保持される。前述したが、感度差補正部208は、メインマイク205aとサブマイク205bの感度補正を目的としているので、駆動騒音による過渡的なレベル差分に対する応答は必要としない。感度差補正部208は上記タイミングチャートで示した補正を[0]〜[511]の振幅スペクトル全てにおいて実行する。
Further, in the zoom detection ON period from timing t2 to t3, the
ここで、本実施形態の音声入力部102での風雑音演算処理部210の動作について、図15から図17を用いて説明する。
Here, the operation of the wind noise
図15は、音声入力部102の一部であるサブマイク205bに対し、風防材102−3を構成したメカ構成を示す断面図である。
FIG. 15 is a cross-sectional view illustrating a mechanical configuration in which the windshield material 102-3 is configured for the
マイク穴を構成する外装部102−1は、メインマイク205aを保持するメインマイクブッシュ102−2a、サブマイク205bを保持するサブマイクブッシュ102−2b、其々のマイクブッシュを外装部へ押し付け保持をする押し付け部103により構成される。外装部102−1、押し付け部103についてはPC材等のモールド部材で構成されるが、アルミ、ステンレス等の金属部材であっても問題ない。また、メインマイクブッシュ102−2a、サブマイクブッシュ102−2bについては、エチレンプロピレンジエンゴム等のゴム材にて構成される。
The exterior part 102-1 constituting the microphone hole presses and holds the main microphone bush 102-2a for holding the
ここで、外装部102−1におけるマイク穴の穴径について説明する。サブマイク205bへのマイク穴の径は、メインマイク205aへのマイク穴の径に対して小さい。実施形態では、サブマイク205bのマイク孔の径(直径)は、メインマイク205aのマイク穴のそれの1/3の寸法としている。マイク穴形状については円状、楕円状が望ましいが、方形状でも構わない。また、其々の穴形状について、同形状でも別形状でも構わない。
Here, the hole diameter of the microphone hole in the exterior part 102-1 will be described. The diameter of the microphone hole to the
次に、外装部102−1とマイクブッシュ102−2a、102−2bで構成されるマイク前面の空間と、クッション材の配置について説明する。外装部102−1とサブマイクブッシュ102−2bで構成されるサブマイク205bの前面の空間の容積は、外装部102−1とメインマイクブッシュ102−2aで構成されるメインマイク205a前面の空間のそれより大きく、3倍確保する構成をとる。
Next, the space in front of the microphone constituted by the exterior portion 102-1 and the microphone bushes 102-2a and 102-2b and the arrangement of the cushion material will be described. The volume of the space in front of the
外装部102−1とサブマイクブッシュ102−2bで構成されるサブマイク205bの前面の空間においては、風防材102−3として、風防クッション材やシールマイクを配置する。いずれも風の周波数に対応した0〜4kHz程度の低周波帯の信号成分をフィルタする部材として構成される。風防材102−3により低周波帯が支配的である風雑音のサブマイク205bへの空気伝搬の影響を大幅に軽減する事が可能である。
In the space in front of the
図16は、風雑音入力時のメインマイク205aからの周波数スペクトルデータMain[0]〜[511]と、サブマイク205bからの周波数スペクトルデータSub[0]〜[511]を示している。風雑音入力時、風雑音成分は点線部の低周波帯域において存在している。風検出部2101は、メインマイク205aからの周波数スペクトルMain[0]〜[511]、サブマイク205bからの周波数スペクトルSub[0]〜[511]のうちから、低域周波数帯の例えば10ポイントの相関をみて風雑音レベルの検出を行っている。風検出部2101は、例えば低域の周波数ポイントnにおいて、次式に従って風雑音レベルを算出し、出力する。
風雑音レベル=Σ(Main[n]−Sub[n])/(Main[n]+Sub[n])
なお、上式は、低周波成分の10ポイントとしているで、nは0乃至9の範囲内である。また、実施形態では、低域周波数帯を10ポイントとしたが、この数は一例である。撮像装置の設計に応じて適宜設定することが望まれる。
FIG. 16 shows the frequency spectrum data Main [0] to [511] from the
Wind noise level = Σ (Main [n] −Sub [n]) / (Main [n] + Sub [n])
In the above equation, 10 points of low frequency components are used, and n is in the range of 0 to 9. In the embodiment, the low frequency band is 10 points, but this number is an example. It is desirable to set appropriately according to the design of the imaging device.
図17は、風雑音ゲイン演算部2102にて演算される、風検出部2101からの風雑音レベルに対する風雑音ゲイン[0]〜[511]の周波数関係を示す。風検出部2101からの風雑音レベルが大きい程、風雑音ゲインはマイナス側へシフトし、点線の示すカットオフ周波数を高周波帯域へシフトする。前記カットオフの周波数により風雑音ゲイン[0]〜[511]は決定される。
FIG. 17 shows the frequency relationship of the wind noise gain [0] to [511] with respect to the wind noise level from the
次に、本実施形態の音声入力部102でのMch/Sch選択部213の動作について、図18(a),(b)を用いて説明する。
Next, the operation of the Mch /
図18(a)は、Mch/Sch選択部2131にて合成される、メインマイク205aからの周波数スペクトルデータMain[0]〜[511](図示のMain ch)とサブマイク205bからの周波数スペクトルデータSub[0]〜[511](図示のSub ch)との、風雑音レベルに応じた合成比率と周波数の関係を示している。
FIG. 18A shows frequency spectrum data Main [0] to [511] (Main channel in the figure) from the
ここで図3(a)は、図3(b)記載のメインマイク205aとサブマイク205bのメカ構成に対応した実施形態を示す。ここでMch/Sch選択部2131は、図18(a)に示すように、風雑音レベルに基づき、Main chを1.0から0.5の比率で、また、Sub chを0から0.5の比率で合成する。
Here, FIG. 3A shows an embodiment corresponding to the mechanical configuration of the
風雑音レベルが大きい程、Main chにおいては1.0から0.5へ合成比率を下げ、Sub chにおいては0から0.5へ合成比率を上げ、Main chとSub chを合成するクロスオーバーの周波数(合成の上限周波数)を上げていく。そして、Mch/Sch選択部2131は、風雑音レベルに依存する上限周波数以下ではMain chとSub chとを図示の比率で合成し、上限周波数を上回る周波数ではMain chを選択して出力する。風雑音レベルが0の場合は、Schの合成比率は0となる。ここで、図3(b)で記載の通り、サブマイク205bへのマイク穴の径は、メインマイク205aへのマイク穴の径に対して小さく、1/3に縮小された構成をとる。よって、サブマイク205bへの風雑音の影響度はメインマイク205aよりも弱い。よって、風検出部2101からの風雑音レベルに応じて、Mchに対しSchを合成する事により、風雑音の軽減に効果を果たす。
The higher the wind noise level, the lower the synthesis ratio from 1.0 to 0.5 at Main ch, and the synthesis ratio from 0 to 0.5 at Sub ch, and the crossover of synthesizing Main ch and Sub ch. Increase the frequency (upper limit frequency of synthesis). Then, the Mch /
次に図18(b)は、図15に示すようにサブマイク205bに対し、風防材102−3を構成したメカ構成に対応した実施形態を示す。ここでMch/Sch選択部2131は風雑音レベルから、Mchを1.0から0の比率で、Schを0から1.0の比率で合成する。つまり、風雑音レベルが大きい程、Mchにおいては1.0から0へ合成比率を下げ、Schにおいては0から1.0へ合成比率を上げ、MchとSchを合成するクロスオーバーの周波数を上げていく。風雑音レベルが0の場合は、Schの合成比率は0となる。ここで図3(a)や図15で記載の通り、サブマイク205bへのマイク穴の径は、メインマイク205aへのマイク穴の径に対して小さく、1/3に縮小された構成をとる。かつ、外装部102−1とサブマイクブッシュ102−2bで構成されるサブマイク205b前面の空間には、風防材102−3を設けている。よって、サブマイク205bへの風雑音の影響度はメインマイク205aに対し、更に小さくできる。よって、風検出部2101からの風雑音レベルに応じて、MchからSchに切り替えていく事で、風雑音の軽減に効果を果たす。
Next, FIG.18 (b) shows embodiment corresponding to the mechanical structure which comprised the windshield material 102-3 with respect to the
ここで、本実施形態の音声入力部102でのステレオ抑制部2113の具体的動作について図19、図20を用いて説明する。
Here, a specific operation of the
図19は、ステレオ抑制部2113について、駆動騒音検出時と風雑音検出時に応じて、ステレオ効果の強調に用いる強調係数を変更するタイミングチャートを示している。図19において、Main[N]は、周波数Nポイント目のMchの振幅スペクトルデータを示す。また、駆動騒音検出信号は、駆動検出部2095により駆動騒音を検出した事を示す検出信号を示す。また、風雑音検出信号は、風検出部2101により風雑音を検出した事を示す風雑音レベル(予め設定された閾値以上の風雑音レベル)を示す。GainL[N]、GainR[N]は、ステレオゲイン演算処理部2112により決定された周波数Nポイント目のMchの振幅スペクトルに加算するステレオのLch及び、Rchのゲインを示す。
FIG. 19 shows a timing chart for changing the enhancement coefficient used for enhancing the stereo effect in the
ステレオ抑制部2113は、Mch−Sch演算部2091からの駆動騒音を検出したことを示す検出信号を受けて、強調係数を0にする。また、風検出部2101からの風雑音を検出した事を示す風雑音レベルを受けて、強調係数を周波数に応じて0にする。
The
ここで、タイミングt1からt2の期間を着目すると、Main[N]の振幅スペクトルは大きく変動しており、Mch−Sch演算部2091からの検出信号は、駆動騒音有りとして検出を示している。この期間、GainL[N]、GainR[N]は0に固定されている。つまりステレオ抑制部2113が強調係数を0にした事を表している。また、タイミングt3からt4の期間を着目すると、Main[N]の振幅スペクトルは大きく変動しており、風検出部2101からの風雑音検出信号は検出を示している。この期間、GainL[N]、GainR[N]は0に固定されている。つまりステレオ抑制部2113が強調係数を0にした事を表している。
Here, focusing on the period from the timing t1 to the timing t2, the amplitude spectrum of Main [N] greatly fluctuates, and the detection signal from the Mch-
図20は、風検出部2101からの風雑音レベル検出時において、Mch/Sch選択部2131にてメインマイク205aからの周波数スペクトルMain[0]〜[511]とサブマイク205bからの周波数スペクトルSub[0]〜[511]が合成される比率と、周波数に対し、ステレオ抑制部2113にて強調係数を0にする周波数の関係を示す図である。ここでMch/Sch選択部2131は風雑音レベルから、風雑音レベルが大きい程、Mchにおいては1.0から0.5へ合成比率を下げ、Schにおいては0から0.5へ合成比率を上げ、MchとSchを合成するクロスオーバーの周波数を上げていく。風雑音レベルの場合、前記クロスオーバーの周波数は500Hzである。これに対しステレオ抑制部2113は、前記クロスオーバーの周波数よりも高い周波数750Hzまで強調係数を0に固定する。ステレオ抑制部2113は、風検出部2101からの風雑音レベルが大きい程、強調係数を0に固定する周波数を上げていく。GainL、GainRのステレオゲインによる強調により、風雑音も強調されることを防ぐ。
FIG. 20 shows the frequency spectrum Main [0] to [511] from the
ここで、本実施形態の音声入力部102での駆動音減算量積分器2097、風雑音減算量積分器2103、右ゲイン積分器2114、左ゲイン積分器2115の動作について図21を用いて説明する。
Here, operations of the drive sound
図21は、周波数Nポイント目のMchの振幅スペクトルデータについての、それぞれ決定される駆動騒音除去ゲインNC_GAIN[N]、風雑音減算量WC_GAIN[N]、Lch生成用ステレオゲインL_GAIN[N]、Rch生成用ステレオゲインR_GAIN[N]のそれぞれに対する時定数を示す。これらは、駆動音減算量積分器2097、風雑音減算量積分器2103、左ゲイン積分器2114,右ゲイン積分器2115により決定される。駆動騒音減算量積分器の時定数は、右ゲイン積分器2115、左ゲイン積分器2114の時定数に対して遅く、風雑音減算量積分器の時定数は右ゲイン積分器2115、左ゲイン積分器2114の時定数に対して遅い。駆動騒音と風雑音は、それぞれ駆動騒音成分であり、時系列でのばらつきも大きく、時定数を遅くしてそれぞれ駆動騒音減算と風雑音減算の追従を遅くすることで前記ばらつきを抑える。また、ステレオゲインについては、時定数を早くすることで、発音する被写体の移動に対する追従を早くする。
FIG. 21 shows the determined drive noise elimination gain NC_GAIN [N], wind noise subtraction amount WC_GAIN [N], Lch generation stereo gain L_GAIN [N], Rch for the Mch amplitude spectrum data at the Nth frequency point. A time constant for each of the generating stereo gains R_GAIN [N] is shown. These are determined by a driving sound
本実施形態においては、2系統の音声が入力される場合について説明したが、それ以上のチャンネル数であっても適用することができる。 In the present embodiment, the case where two lines of audio are input has been described, but the present invention can be applied even when the number of channels is more than that.
また、本実施形態においては、撮像装置について説明したが、本実施形態の音声入力部102の音声処理は、外部の音声を記録、または入力するような装置つまり、音声記録装置であればどのような装置であっても適用することができる。例えば、ICレコーダ、携帯電話等に適用しても良い。
In the present embodiment, the imaging apparatus has been described. However, the audio processing of the
また、実施形態では、図6に示す構成をハードウェアにより実現する例を説明したが、例えば、同図のマイクやAD変換部等を除く処理部の多くを、プロセッサが実行するプロシージャやサブルーチン等のプログラムで実現しても構わない。 In the embodiment, the example in which the configuration illustrated in FIG. 6 is realized by hardware has been described. However, for example, procedures, subroutines, and the like that are executed by the processor in many of the processing units other than the microphone and the AD conversion unit in FIG. This program may be realized.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100…撮像装置、101…撮像部、102…音声入力部、103…メモリ、104…表示制御部、105…表示部、106…符号化処理部、107…記録再生部、108…記録媒体、109…制御部、110…操作部、111…音声出力部、112…スピーカ、113…外部出力部、114…データバス、201…光学レンズ、202…撮像素子、203…画像処理部、204…光学レンズ制御部、205…マイク、205a…メインマイク、205b…サブマイク、206…A/D変換部、207…FFT部、208…感度差補正部、209…駆動音演算処理部、210…風雑音演算処理部、211…ステレオゲイン演算処理部、212…トータルゲイン演算部、213…L/Rch生成部、214…iFFT部、215…音声処理部、216…ALC部、102−1…外装部、102−2a…メインマイクブッシュ、102−2b…サブマイクブッシュ、102−3…風防材
DESCRIPTION OF
Claims (7)
駆動部と、
前記筐体の第1の所定位置に設けられた第1の開口部を介して音声が伝搬されるように前記筐体の内部に収容された第1のマイクと、
前記筐体の、前記前記第1の所定位置に関連した第2の所定位置に設けられた、前記第1の開口部よりも面積が小さい第2の開口部を介して音声が伝搬される第2のマイクであって、前記第2のマイクと前記2の開口部との間の第2の空間の容積が、前記第1のマイクと前記第1の開口部との間の第1の空間の容積よりも大きくなるように前記筐体の内部に収容された前記第2のマイクと、
前記第1のマイクから得られた時系列の音声データを第1の周波数スペクトルデータに、前記第2のマイクから得られた時系列の音声データを第2の周波数スペクトルデータに変換する変換手段と、
前記変換手段により得られた前記第1の周波数スペクトルデータと前記第2の周波数スペクトルデータから、周波数毎の前記駆動部による騒音の量を算出する算出手段と、
前記第1の周波数スペクトルデータ、第2の周波数スペクトルデータ、並びに、前記算出手段により算出された前記騒音の量に基づいて、前記騒音が抑制された、左チャネルの周波数スペクトルデータと、右チャネルの周波数スペクトルデータとを生成する生成手段と、
前記生成手段で生成された左右のチャネルのそれぞれの周波数スペクトルデータを、時系列の左右チャネルのそれぞれの音声データに逆変換する逆変換手段と
を有することを特徴とする音声処理装置。 A housing,
A drive unit;
A first microphone housed in the housing such that sound is propagated through a first opening provided at a first predetermined position of the housing;
The sound is propagated through a second opening having a smaller area than the first opening provided at a second predetermined position of the housing related to the first predetermined position. 2, wherein the volume of the second space between the second microphone and the second opening is the first space between the first microphone and the first opening. The second microphone housed inside the housing to be larger than the volume of
Conversion means for converting time-series audio data obtained from the first microphone into first frequency spectrum data and time-series audio data obtained from the second microphone into second frequency spectrum data; ,
Calculating means for calculating the amount of noise by the driving unit for each frequency from the first frequency spectrum data and the second frequency spectrum data obtained by the converting means;
Based on the first frequency spectrum data, the second frequency spectrum data, and the amount of the noise calculated by the calculation means, the frequency spectrum data of the left channel in which the noise is suppressed, and the right channel Generating means for generating frequency spectrum data;
An audio processing apparatus comprising: inverse conversion means for inversely converting the frequency spectrum data of the left and right channels generated by the generation means into the audio data of the time-series left and right channels.
前記第2のマイクを保持する第2のマイクブッシュとを有し、
前記第1の空間は、前記筐体と前記第1のマイクブッシュにより構成され、
前記第2の空間は、前記筐体と前記第2のマイクブッシュにより構成されることを特徴とする請求項1に記載の音声処理装置。 A first microphone bush for holding the first microphone;
A second microphone bush for holding the second microphone;
The first space is constituted by the casing and the first microphone bush,
The audio processing apparatus according to claim 1, wherein the second space includes the casing and the second microphone bush.
前記音声処理装置は、筐体と、駆動部と、前記筐体の第1の所定位置に設けられた第1の開口部を介して音声が伝搬されるように前記筐体の内部に収容された第1のマイクと、前記筐体の、前記前記第1の所定位置に関連した第2の所定位置に設けられた、前記第1の開口部よりも面積が小さい第2の開口部を介して音声が伝搬される第2のマイクであって、前記第2のマイクと前記2の開口部との間の第2の空間の容積が、前記第1のマイクと前記第1の開口部との間の第1の空間の容積よりも大きくなるように前記筐体の内部に収容された前記第2のマイクとを有し、
前記方法は、
前記第1のマイクから得られた時系列の音声データを第1の周波数スペクトルデータに、前記第2のマイクから得られた時系列の音声データを第2の周波数スペクトルデータに変換する変換工程と、
前記変換工程により得られた前記第1の周波数スペクトルデータと前記第2の周波数スペクトルデータから、周波数毎の前記駆動部による騒音の量を算出する算出工程と、
前記第1の周波数スペクトルデータ、第2の周波数スペクトルデータ、並びに、前記算出工程により算出された前記騒音の量に基づいて、前記騒音が抑制された、左チャネルの周波数スペクトルデータと、右チャネルの周波数スペクトルデータとを生成する生成工程と、
前記生成工程で生成された左右のチャネルのそれぞれの周波数スペクトルデータを、時系列の左右チャネルのそれぞれの音声データに逆変換する逆変換工程と
を有することを特徴とする音声処理装置の制御方法。 A method for controlling a speech processing apparatus,
The sound processing device is accommodated in the housing so that sound is propagated through a housing, a drive unit, and a first opening provided at a first predetermined position of the housing. The first microphone and a second opening of the casing that is provided at a second predetermined position related to the first predetermined position and having a smaller area than the first opening. A second microphone through which sound is propagated, wherein a volume of a second space between the second microphone and the second opening is determined by the first microphone and the first opening. The second microphone housed in the housing to be larger than the volume of the first space between
The method
A conversion step of converting time-series audio data obtained from the first microphone into first frequency spectrum data, and converting time-series audio data obtained from the second microphone into second frequency spectrum data; ,
From the first frequency spectrum data and the second frequency spectrum data obtained by the conversion step, a calculation step for calculating the amount of noise by the driving unit for each frequency;
Based on the first frequency spectrum data, the second frequency spectrum data, and the amount of the noise calculated by the calculation step, the frequency spectrum data of the left channel in which the noise is suppressed, and the right channel Generating step of generating frequency spectrum data;
And a reverse conversion step of reversely converting the frequency spectrum data of the left and right channels generated in the generation step into the audio data of the time-series left and right channels, respectively.
前記音声処理装置は、
前記音声処理装置は、筐体と、駆動部と、前記筐体の第1の所定位置に設けられた第1の開口部を介して音声が伝搬されるように前記筐体の内部に収容された第1のマイクと、前記筐体の、前記前記第1の所定位置に関連した第2の所定位置に設けられた、前記第1の開口部よりも面積が小さい第2の開口部を介して音声が伝搬される第2のマイクであって、前記第2のマイクと前記2の開口部との間の第2の空間の容積が、前記第1のマイクと前記第1の開口部との間の第1の空間の容積よりも大きくなるように前記筐体の内部に収容された前記第2のマイクとを有し、
前記プログラムは、前記プロセッサに、請求項6に記載の方法の各工程を実行させるためのプログラム。 A program that is read and executed by a processor of a sound processing device,
The voice processing device
The sound processing device is accommodated in the housing so that sound is propagated through a housing, a drive unit, and a first opening provided at a first predetermined position of the housing. The first microphone and a second opening of the casing that is provided at a second predetermined position related to the first predetermined position and having a smaller area than the first opening. A second microphone through which sound is propagated, wherein a volume of a second space between the second microphone and the second opening is determined by the first microphone and the first opening. The second microphone housed in the housing to be larger than the volume of the first space between
The said program is a program for making the said processor perform each step of the method of Claim 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017111162A JP6929137B2 (en) | 2017-06-05 | 2017-06-05 | Speech processing device and its control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017111162A JP6929137B2 (en) | 2017-06-05 | 2017-06-05 | Speech processing device and its control method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018207313A true JP2018207313A (en) | 2018-12-27 |
JP2018207313A5 JP2018207313A5 (en) | 2020-08-06 |
JP6929137B2 JP6929137B2 (en) | 2021-09-01 |
Family
ID=64958447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017111162A Active JP6929137B2 (en) | 2017-06-05 | 2017-06-05 | Speech processing device and its control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6929137B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113655983A (en) * | 2021-07-27 | 2021-11-16 | 深圳市冠旭电子股份有限公司 | Audio playing method and device, audio playing equipment and readable storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012080427A (en) * | 2010-10-05 | 2012-04-19 | Canon Inc | Voice processing device and imaging device |
US20120154610A1 (en) * | 2010-12-16 | 2012-06-21 | Microsemi Semiconductor Corp. | Motor noise reduction circuit |
JP2012142745A (en) * | 2010-12-28 | 2012-07-26 | Sony Corp | Audio signal processing device, audio signal processing method and program |
JP2012169782A (en) * | 2011-02-10 | 2012-09-06 | Canon Inc | Sound processing device and method, and imaging device |
JP2016025514A (en) * | 2014-07-22 | 2016-02-08 | シャープ株式会社 | Sound collection device |
-
2017
- 2017-06-05 JP JP2017111162A patent/JP6929137B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012080427A (en) * | 2010-10-05 | 2012-04-19 | Canon Inc | Voice processing device and imaging device |
US20120154610A1 (en) * | 2010-12-16 | 2012-06-21 | Microsemi Semiconductor Corp. | Motor noise reduction circuit |
JP2012142745A (en) * | 2010-12-28 | 2012-07-26 | Sony Corp | Audio signal processing device, audio signal processing method and program |
JP2012169782A (en) * | 2011-02-10 | 2012-09-06 | Canon Inc | Sound processing device and method, and imaging device |
JP2016025514A (en) * | 2014-07-22 | 2016-02-08 | シャープ株式会社 | Sound collection device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113655983A (en) * | 2021-07-27 | 2021-11-16 | 深圳市冠旭电子股份有限公司 | Audio playing method and device, audio playing equipment and readable storage medium |
CN113655983B (en) * | 2021-07-27 | 2023-09-08 | 深圳市冠旭电子股份有限公司 | Audio playing method and device, audio playing equipment and readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6929137B2 (en) | 2021-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5801026B2 (en) | Image sound processing apparatus and imaging apparatus | |
JP6637926B2 (en) | Voice processing device and control method thereof | |
KR101739942B1 (en) | Method for removing audio noise and Image photographing apparatus thereof | |
JP2008263498A (en) | Wind noise reducing device, sound signal recorder and imaging apparatus | |
JP5020845B2 (en) | Audio processing device | |
US11657794B2 (en) | Audio processing apparatus for reducing noise using plurality of microphones, control method, and recording medium | |
JP5349062B2 (en) | SOUND PROCESSING DEVICE, ELECTRONIC DEVICE HAVING SAME, AND SOUND PROCESSING METHOD | |
JP5529638B2 (en) | Audio processing apparatus, audio processing method, and imaging apparatus | |
JP5903631B2 (en) | Noise canceling device | |
JP6929137B2 (en) | Speech processing device and its control method | |
JP6985821B2 (en) | Speech processing device and its control method | |
JP6931296B2 (en) | Speech processing device and its control method | |
JP6886352B2 (en) | Speech processing device and its control method | |
JP6877246B2 (en) | Speech processing device and its control method | |
JP2015114444A (en) | Voice processing device and voice processing method | |
US12027176B2 (en) | Apparatus and method for reducing noise corresponding to a noise source using noise data | |
US12094483B2 (en) | Sound processing apparatus and control method | |
JP2010134260A (en) | Electronic apparatus and voice processing method | |
US11729548B2 (en) | Audio processing apparatus, control method, and storage medium, each for performing noise reduction using audio signals input from plurality of microphones | |
JP2009005157A (en) | Sound signal correction device | |
JP2023026918A (en) | Voice processing unit, control method of voice processing unit, and program | |
JP2023030453A (en) | Sound processing device, control method, and program | |
JP2014232267A (en) | Signal processing device, imaging device and program | |
JP2022054316A (en) | Sound processor, control method, and program | |
JP2022054317A (en) | Sound processor, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200525 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200525 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210810 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6929137 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |