JP2010081395A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2010081395A
JP2010081395A JP2008248818A JP2008248818A JP2010081395A JP 2010081395 A JP2010081395 A JP 2010081395A JP 2008248818 A JP2008248818 A JP 2008248818A JP 2008248818 A JP2008248818 A JP 2008248818A JP 2010081395 A JP2010081395 A JP 2010081395A
Authority
JP
Japan
Prior art keywords
noise
signal
sound
unit
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008248818A
Other languages
Japanese (ja)
Inventor
Masahiro Yoshida
昌弘 吉田
Tomoki Oku
智岐 奥
Kazuma Hara
一眞 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008248818A priority Critical patent/JP2010081395A/en
Publication of JP2010081395A publication Critical patent/JP2010081395A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Stereophonic Arrangements (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic apparatus in which when sound signals collected under water are played back, the sound signals can be suppressed from becoming against user intention. <P>SOLUTION: The electronic apparatus including a noise influence reduction section (processing sections 64R, 64L) which has a function for recording and/or playing back collected sound signals, in which an underwater mode and a normal mode are switched in accordance with a determination result by a sound collection environment determination section 63 and which reduces the influence of noise coming from a recorder body during sound collection. The electronic apparatus is characterized in that, when recording collected sound signals under the underwater mode or when playing back recorded sound signals under the underwater mode, the noise influence reduction section uses information from a noise determination information generation section 62 to reduce the influence of noise coming from the recorder body during sound collection. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、音声信号の記録及び/又は再生が可能な電子機器(例えば、撮像装置やICレコーダ等)に関する。   The present invention relates to an electronic device (for example, an imaging device or an IC recorder) capable of recording and / or reproducing an audio signal.

近年、空気中のみならず水中においても集音することができる撮像装置やICレコーダなどの電子機器が種々提案されている。これらの電子機器は、防水構造や防水ハウジングに収納可能な構造とすることで、空気中のみならず水中においても集音することを可能としている。   In recent years, various electronic devices such as an imaging device and an IC recorder that can collect sound not only in the air but also in the water have been proposed. These electronic devices can collect sound not only in the air but also in water by adopting a waterproof structure or a structure that can be stored in a waterproof housing.

しかしながら、水中における集音特性は空気中における集音特性と大きく異なるため、電子機器を用いて水中で集音した音声信号は、空気中で集音した音声信号とは大きく異なるものとなる。そのため、水中で集音した音声信号を再生した場合に、非常に聞き取り難くなったり耳障りになったりするなど、ユーザの意図に反した音声信号となってしまうことが問題となっていた。   However, since the sound collection characteristic in water is significantly different from the sound collection characteristic in air, an audio signal collected in water using an electronic device is significantly different from an audio signal collected in air. For this reason, when an audio signal collected in water is reproduced, it becomes a problem that the audio signal is contrary to the user's intention, such as being very difficult to hear or annoying.

この問題に対して、集音している環境が水中か否かを判定し、その判定結果に応じて利得制御部及び可変フィルタ部を制御し、マイクロホンからの集音信号の利得及び周波数特性を変化させるビデオカメラが、特許文献1において提案されている。   In response to this problem, it is determined whether or not the environment in which sound is collected is underwater, and the gain control unit and variable filter unit are controlled according to the determination result, and the gain and frequency characteristics of the sound collection signal from the microphone are determined. A video camera to be changed is proposed in Patent Document 1.

特開平7−30790号公報Japanese Patent Laid-Open No. 7-30790

上述した特許文献1では、利得及び周波数特性を空気中と水中に応じ最適に調整するとしか記載されておらず、どのような調整をすれば、水中で集音した音声信号を再生した場合に、非常に聞き取り難くなったり耳障りになったりするなどの問題を解決することができるかについては何ら開示されていなかった。   In the above-mentioned Patent Document 1, it is only described that the gain and frequency characteristics are optimally adjusted according to the air and the water, and what kind of adjustment should be made when reproducing the sound signal collected in the water, There was no disclosure about whether it would be possible to solve problems such as being extremely difficult to hear or becoming annoying.

本発明は、上記の状況に鑑み、水中で集音した音声信号を再生した際に、ユーザの意図に反した音声信号となってしまうことを抑制することが可能な電子機器を提供することを目的とする。   In view of the above situation, the present invention provides an electronic device capable of suppressing an audio signal that is contrary to a user's intention when an audio signal collected in water is reproduced. Objective.

本発明者等は、前記目的を達成すべく鋭意検討を重ねた。その結果、水中で集音した音声信号を再生した際にユーザの意図に反した音声信号となってしまうのは、電子機器内部のマイクロホンを包む空気層と電機機器外部の水との境界において、水を伝搬して外部から到来する音は媒質の相違から大きく反射することで、外部から到来する本来必要な音はマイクロホンで感知し難くなり、逆に電子機器本体が発するノイズは電子機器内部にこもって大きな音として集音されてしまうためであるとの知見を得た。   The inventors of the present invention have made extensive studies to achieve the above object. As a result, when the audio signal collected in water is reproduced, the audio signal is contrary to the user's intention, at the boundary between the air layer surrounding the microphone inside the electronic device and the water outside the electric device. Sound that travels from the water and reflects from the outside is greatly reflected due to the difference in the medium, making it difficult to detect the sound that is necessary from the outside by using a microphone. The knowledge that it was because it was collected as a loud sound was collected.

本発明はかかる知見に基づきなされたものであり、本発明に係る電子機器は、集音した音声信号の記録及び/又は再生機能を有し、水中モードと通常モードを有し、集音時に記録機器本体から到来するノイズの影響を低減するノイズ影響低減部を備え、集音した音声信号を水中モードにて記録する際、又は、記録した音声信号を水中モードにて再生する際のいずれかにおいて、前記ノイズ影響低減部が、集音時に記録機器本体から到来するノイズの影響を低減する構成としている。   The present invention has been made on the basis of such knowledge, and the electronic apparatus according to the present invention has a recording and / or reproduction function of a collected sound signal, has an underwater mode and a normal mode, and records at the time of sound collection. A noise effect reduction unit that reduces the effect of noise coming from the device main body, and when recording the collected audio signal in underwater mode or when reproducing the recorded audio signal in underwater mode The noise influence reducing unit is configured to reduce the influence of noise coming from the recording device main body during sound collection.

このような構成によると、水中で集音された音声信号に対して、集音時に記録機器本体から到来するノイズの影響を低減する音声処理を施すことができ、水中で集音した音声信号を再生した際に、ユーザの意図に反した音声信号となってしまうことを抑制することができる。なお、通常モードでは、集音時に記録機器本体から到来するノイズの影響を低減する必要性が乏しく、また、通常モードでは、集音時に記録機器本体から到来するノイズの影響を低減することが困難であることから、集音した音声信号の記録及び再生機能を有する場合は、集音した音声信号を通常モードにて記録する際、及び、記録した音声信号を通常モードにて再生する際のいずれにおいても、前記ノイズ影響低減部が、集音時に記録機器本体から到来するノイズの影響を低減せず、集音した音声信号の記録又は再生機能を有する場合は、集音した音声信号を通常モードにて記録する際、又は、記録した音声信号を通常モードにて再生する際のいずれかにおいて、前記ノイズ影響低減部が、集音時に記録機器本体から到来するノイズの影響を低減しないようにすることが望ましい。   According to such a configuration, it is possible to perform sound processing for reducing the influence of noise coming from the recording device main body at the time of sound collection on the sound signal collected underwater, and the sound signal collected underwater It is possible to suppress an audio signal that is contrary to the user's intention during reproduction. In normal mode, there is little need to reduce the effect of noise coming from the recording device during sound collection. In normal mode, it is difficult to reduce the effect of noise coming from the recording device during sound collection. Therefore, if you have a recording and playback function for the collected audio signal, either when recording the collected audio signal in the normal mode or when reproducing the recorded audio signal in the normal mode However, if the noise effect reduction unit does not reduce the effect of noise coming from the recording device main body during sound collection and has a function of recording or reproducing the collected sound signal, the collected sound signal is converted to the normal mode. When recording at the time of recording, or when reproducing the recorded audio signal in the normal mode, the noise effect reducing unit is affected by the noise coming from the recording device main body during sound collection. It is preferable to avoid reduced.

また、前記ノイズ影響低減部が、複数のマイクロホンで集音した音声信号の相対位相差及び/又は相対レベル差を利用して、記録機器本体が発するノイズを判定する判定部と、前記判定部の判定結果に基づき、記録機器本体から到来するノイズの影響を低減する音声処理を行う処理部とを備えるようにしてもよい。この場合、複数のマイクロホンで集音した音声信号を周波数領域の信号に変換する変換部を備え、前記判定部が、前記周波数領域の信号の所定の周波数帯域毎に、相対位相差及び/又は相対レベル差を解析し、予め設定した閾値以上の相対位相差及び/又は相対レベル差を有する周波数帯域成分を機器本体が発したノイズ成分であると判定してもよい。さらに、前記処理部が、前記判定部によってノイズと判定された周波数帯域の信号若しくは前記判定部によってノイズと判定された周波数帯域の信号を含む複数の帯域の信号を減衰させることにより、及び/又は、前記判定部によってノイズと判定された周波数帯域以外の信号若しくは前記判定部によってノイズと判定された周波数帯域の信号を含む複数の帯域以外の信号を増幅させることにより、記録機器本体から到来するノイズの影響を低減するようにしてもよい。   Further, the noise influence reducing unit uses a relative phase difference and / or a relative level difference of audio signals collected by a plurality of microphones to determine noise generated by the recording device body, and A processing unit that performs audio processing for reducing the influence of noise coming from the recording device main body based on the determination result may be provided. In this case, a conversion unit that converts audio signals collected by a plurality of microphones into a signal in the frequency domain is provided, and the determination unit has a relative phase difference and / or relative frequency for each predetermined frequency band of the signal in the frequency domain. The level difference may be analyzed, and a frequency band component having a relative phase difference and / or a relative level difference equal to or greater than a preset threshold value may be determined as a noise component generated by the device body. Further, the processing unit attenuates a signal in a plurality of bands including a signal in a frequency band determined as noise by the determination unit or a signal in a frequency band determined as noise by the determination unit, and / or , Noise arriving from the recording device main body by amplifying a signal other than the frequency band determined as noise by the determination unit or a signal other than a plurality of bands including a signal in the frequency band determined as noise by the determination unit You may make it reduce the influence of this.

また、上記各構成において、音声信号が水中で集音されたものであるか否かを判定する集音環境判定部を備え、前記集音環境判定部の判定結果に応じて水中モードと通常モードとを切り替えるようにしてもよい。これにより、水中モードと通常モードの自動切り替えが可能となる。   Further, in each of the above configurations, a sound collection environment determination unit that determines whether or not the audio signal is collected in water, and depending on a determination result of the sound collection environment determination unit, underwater mode and normal mode And may be switched. Thereby, automatic switching between the underwater mode and the normal mode becomes possible.

また、上記各構成の電子機器の一例としては、映像を撮影するカメラを備える撮像装置が挙げられる。   Moreover, as an example of the electronic device having each configuration described above, an imaging apparatus including a camera that captures an image can be given.

本発明の構成によると、水中で集音された音声信号に対して、集音時に記録機器本体から到来するノイズの影響を低減する音声処理を施すことができ、水中で集音した音声信号を再生した際に、ユーザの意図に反した音声信号となってしまうことを抑制することができる。   According to the configuration of the present invention, an audio signal collected underwater can be subjected to audio processing that reduces the influence of noise coming from the recording device main body at the time of sound collection. It is possible to suppress an audio signal that is contrary to the user's intention during reproduction.

本発明の実施形態について図面を参照して以下に説明する。ここでは、本発明に係る電子機器として、音声信号の記録・再生とともに画像信号の記録・再生も可能な撮像装置を例に挙げて説明する。   Embodiments of the present invention will be described below with reference to the drawings. Here, as an example of an electronic apparatus according to the present invention, an imaging apparatus capable of recording / reproducing an image signal as well as recording / reproducing an audio signal will be described.

<<撮像装置>>
(撮像装置の基本構成)
まず、撮像装置の基本構成について図1を参照して説明する。図1は、本発明に係る撮像装置の一内部構成例を示すブロック図である。
<< Imaging device >>
(Basic configuration of imaging device)
First, the basic configuration of the imaging apparatus will be described with reference to FIG. FIG. 1 is a block diagram illustrating an internal configuration example of an imaging apparatus according to the present invention.

図1に示す撮像装置は、入射される光を電気信号に変換するCCD(Charge Coupled Device)またはCMOS(Complimentary Metal Oxide Semiconductor)センサなどの固体撮像素子(イメージセンサ)1と、被写体の光学像をイメージセンサ1に結像させるズームレンズとズームレンズの焦点距離すなわち光学ズーム倍率を変化させるモータとズームレンズの焦点を被写体に合わせるためのモータとを有するレンズ部2と、イメージセンサ1から出力されるアナログ信号である画像信号をデジタル信号に変換するAFE(Analog Front End)3と、撮像装置の前方の左右方向から入力された音声を独立して電気信号に変換するステレオマイク4と、AFE3からのデジタル信号となる画像信号に対して、階調補正等の各種画像処理を施す画像処理部5と、ステレオマイク4からのアナログ信号である音声信号に対してデジタル信号に変換するとともに音声補正処理を施す音声処理部6と、画像処理部5から出力される画像信号及び音声処理部6から出力される音声信号のそれぞれに対してMPEG(Moving Picture Experts Group)圧縮方式などの圧縮符号化処理を施す圧縮処理部7と、圧縮処理部7で圧縮符号化された圧縮符号化信号をSDカードなどの外部メモリ22に記録するドライバ部8と、ドライバ部8で外部メモリ22から読み出した圧縮符号化信号を伸長して復号する伸長処理部9と、伸長処理部9で復号されて得られた画像信号をアナログ信号に変換するビデオ出力回路部10と、ビデオ出力回路部10で変換された信号を出力するビデオ出力端子11と、ビデオ出力回路部10からの信号に基づく画像の表示を行うLCD(Liquid Crystal Display)等を有するディスプレイ部12と、伸長処理部9からの音声信号をアナログ信号に変換する音声出力回路部13と、音声出力回路部13で変換された信号を出力する音声出力端子14と、音声出力回路部13からの音声信号に基づいて音声を再生出力するスピーカ部15と、各ブロックの動作タイミングを一致させるためのタイミング制御信号を出力するタイミングジェネレータ(TG)16と、撮像装置内全体の駆動動作を制御するCPU(Central Processing Unit)17と、各動作のための各プログラムを記憶するとともにプログラム実行時のデータの一時保管を行うメモリ18と、ユーザからの指示が入力される操作部19と、CPU17と各ブロックとの間でデータのやりとりを行うためのバス回線20と、メモリ18と各ブロックとの間でデータのやりとりを行うためのバス回線21と、を備える。なお、CPU17は、画像処理部5で検出した画像信号に応じて、レンズ部2内の各モータを駆動して焦点、絞りの制御を行う。   The image pickup apparatus shown in FIG. 1 has a solid-state image pickup device (image sensor) 1 such as a CCD (Charge Coupled Device) or CMOS (Complimentary Metal Oxide Semiconductor) sensor that converts incident light into an electric signal, and an optical image of a subject. The image sensor 1 outputs a zoom lens that forms an image on the image sensor 1, a motor that changes the focal length of the zoom lens, that is, a motor that changes the optical zoom magnification, and a motor that focuses the zoom lens on the subject. AFE (Analog Front End) 3 that converts an image signal, which is an analog signal, into a digital signal, a stereo microphone 4 that independently converts audio input from the left and right directions in front of the imaging device into an electrical signal, An image processing unit 5 that performs various image processing such as gradation correction on an image signal that is a digital signal; The audio signal that is an analog signal from the audio signal 4 is converted into a digital signal and subjected to audio correction processing, the image signal output from the image processor 5 and the audio output from the audio processor 6 A compression processing unit 7 that performs compression encoding processing such as an MPEG (Moving Picture Experts Group) compression method on each of the signals, and an external memory such as an SD card that stores the compression encoded signal compressed by the compression processing unit 7 22, the driver unit 8 that records in the memory 22, the decompression processing unit 9 that decompresses and decodes the compression-coded signal read from the external memory 22 by the driver unit 8, and the image signal obtained by decoding by the decompression processing unit 9 is analog Based on a video output circuit unit 10 for converting to a signal, a video output terminal 11 for outputting a signal converted by the video output circuit unit 10, and a signal from the video output circuit unit 10 A display unit 12 having an LCD (Liquid Crystal Display) or the like for displaying an image, an audio output circuit unit 13 for converting an audio signal from the decompression processing unit 9 into an analog signal, and a signal converted by the audio output circuit unit 13 A sound output terminal 14 that outputs the sound, a speaker unit 15 that reproduces and outputs sound based on the sound signal from the sound output circuit unit 13, and a timing generator that outputs a timing control signal for matching the operation timing of each block ( TG) 16, a CPU (Central Processing Unit) 17 that controls the drive operation of the entire imaging apparatus, a memory 18 that stores each program for each operation and temporarily stores data at the time of program execution, and a user A bus for exchanging data between the operation unit 19 to which an instruction from the CPU 17 is input and the CPU 17 and each block It comprises a line 20, a bus line 21 for exchanging data between the memory 18 and each block. The CPU 17 controls the focus and the diaphragm by driving each motor in the lens unit 2 in accordance with the image signal detected by the image processing unit 5.

(撮像装置の基本動作)
次に、図1に示す撮像装置の動画撮影時の基本動作について図1を参照して説明する。まず、撮像装置は、レンズ部2より入射される光をイメージセンサ1において光電変換することによって、電気信号である画像信号を取得する。そして、イメージセンサ1は、タイミングジェネレータ16から入力されるタイミング制御信号に同期して、所定のフレーム周期(例えば、1/60秒)で順次AFE3に画像信号を出力する。
(Basic operation of the imaging device)
Next, the basic operation of the image pickup apparatus shown in FIG. 1 during moving image shooting will be described with reference to FIG. First, the imaging apparatus acquires an image signal that is an electrical signal by photoelectrically converting light incident from the lens unit 2 in the image sensor 1. Then, in synchronization with the timing control signal input from the timing generator 16, the image sensor 1 sequentially outputs image signals to the AFE 3 at a predetermined frame period (for example, 1/60 seconds).

そして、AFE3によってアナログ信号からデジタル信号へと変換された画像信号は、画像処理部5に入力される。画像処理部5は、入力される画像信号を、輝度信号と色差信号とからなる画像信号に変換するとともに、階調補正や輪郭強調等の各種画像処理を施す。また、メモリ18はフレームメモリとして動作し、画像処理部5が処理を行う際に画像信号を一時的に保持する。   Then, the image signal converted from the analog signal to the digital signal by the AFE 3 is input to the image processing unit 5. The image processing unit 5 converts the input image signal into an image signal composed of a luminance signal and a color difference signal, and performs various image processing such as gradation correction and contour enhancement. The memory 18 operates as a frame memory, and temporarily holds an image signal when the image processing unit 5 performs processing.

また、このとき画像処理部5に入力される画像信号に基づき、レンズ部2において、各種レンズの位置が調整されてフォーカスの調整が行われたり、絞りの開度が調整されて露出の調整が行われたりする。このフォーカスや露出の調整は、それぞれ最適な状態となるように所定のプログラムに基づいて自動的に行われたり、ユーザの指示に基づいて手動で行われたりする。   At this time, based on the image signal input to the image processing unit 5, the lens unit 2 adjusts the position of various lenses to adjust the focus, or adjusts the opening of the diaphragm to adjust the exposure. It is done. This adjustment of focus and exposure is automatically performed based on a predetermined program so as to be in an optimum state, or manually performed based on a user instruction.

一方、ステレオマイク4において電気信号に変換される音声信号は、音声処理部6に入力される。音声処理部6は、入力される音声信号をデジタル信号に変換するとともにノイズ除去や音声信号の強度制御などの音声補正処理を施す。なお、音声処理部6の構成については後述する。   On the other hand, an audio signal converted into an electrical signal in the stereo microphone 4 is input to the audio processing unit 6. The sound processing unit 6 converts an input sound signal into a digital signal and performs sound correction processing such as noise removal and sound signal intensity control. The configuration of the audio processing unit 6 will be described later.

そして、画像処理部5から出力される画像信号と、音声処理部6から出力される音声信号とがともに圧縮処理部7に入力され、圧縮処理部7において所定の圧縮方式で圧縮される。このとき、画像信号と音声信号とが時間的に関連付けられ、再生時に画像と音とがずれないように構成される。そして、圧縮された画像信号及び音声信号はドライバ部8を介して外部メモリ22に記録される。   Then, both the image signal output from the image processing unit 5 and the audio signal output from the audio processing unit 6 are input to the compression processing unit 7 and compressed by the compression processing unit 7 using a predetermined compression method. At this time, the image signal and the audio signal are associated with each other in time, and the image and the sound are not shifted during reproduction. The compressed image signal and audio signal are recorded in the external memory 22 via the driver unit 8.

また、音声のみを記録する場合であれば、音声信号が圧縮処理部7において所定の圧縮方式で圧縮され、外部メモリ22に記録されることとなる。   If only audio is recorded, the audio signal is compressed by the compression processing unit 7 using a predetermined compression method and recorded in the external memory 22.

外部メモリ22に記録された圧縮符号化信号は、ユーザの指示に基づく操作部19の出力信号に応じて、伸長処理部9に読み出される。伸長処理部9は、圧縮符号化信号を伸長及び復号し、画像信号及び音声信号を生成する。そして、画像信号をビデオ出力回路部10、音声信号を音声出力回路部13にそれぞれ出力する。そして、ビデオ出力回路部10や音声出力回路部13において、画像信号及び音声信号がディスプレイ部12やスピーカ部15において再生可能な形式に変換されて出力される。   The compression-coded signal recorded in the external memory 22 is read out to the decompression processing unit 9 in accordance with the output signal of the operation unit 19 based on a user instruction. The decompression processing unit 9 decompresses and decodes the compressed encoded signal, and generates an image signal and an audio signal. The image signal is output to the video output circuit unit 10 and the audio signal is output to the audio output circuit unit 13. Then, in the video output circuit unit 10 and the audio output circuit unit 13, the image signal and the audio signal are converted into a format reproducible on the display unit 12 and the speaker unit 15 and output.

また、画像信号の記録を行わずにディスプレイ部12に表示される画像をユーザが確認する、所謂プレビューモードである場合に、圧縮処理部7が圧縮処理を行わないようにし、画像処理部5が圧縮処理部7ではなくビデオ出力回路部10に画像信号を出力するようにしてもよい。また、画像信号を記録する際に、ドライバ部8を介して外部メモリ22に記録する動作と並行して、ビデオ出力回路10を介してディスプレイ部12に画像信号を出力するようにしても構わない。   Further, in a so-called preview mode in which the user confirms an image displayed on the display unit 12 without recording an image signal, the compression processing unit 7 is prevented from performing compression processing, and the image processing unit 5 The image signal may be output not to the compression processing unit 7 but to the video output circuit unit 10. Further, when recording an image signal, the image signal may be output to the display unit 12 via the video output circuit 10 in parallel with the operation of recording in the external memory 22 via the driver unit 8. .

なお、図1に示す構成では、ディスプレイ部12やスピーカ部15が撮像装置に搭載されているが、ディスプレイ部12やスピーカ部15を撮像装置と別体とし、撮像装置に設けられる端子(ビデオ出力端子11、音声出力端子14)とケーブル等を用いて接続されるような構成であっても構わない。   In the configuration shown in FIG. 1, the display unit 12 and the speaker unit 15 are mounted on the imaging device. However, the display unit 12 and the speaker unit 15 are separated from the imaging device, and terminals (video output) provided in the imaging device. The terminal 11 and the audio output terminal 14) may be connected using a cable or the like.

(ステレオマイクの配置)
次に、図1に示す撮像装置が備えるステレオマイク4の配置例について図面を参照して説明する。図2は、図1に示す撮像装置を装置上面から見た概略外観図である。モニタユニット23に、ディスプレイ部12と、ステレオマイク4を構成している右側マイク4R及び左側マイク4Lとが設けられている。右側マイク4R及び左側マイク4Lは、ディスプレイ部12の背面にマイク間隔2cmで設けられている。
(Stereo microphone placement)
Next, an arrangement example of the stereo microphone 4 included in the imaging apparatus illustrated in FIG. 1 will be described with reference to the drawings. FIG. 2 is a schematic external view of the image pickup apparatus shown in FIG. The monitor unit 23 is provided with a display unit 12 and a right microphone 4R and a left microphone 4L constituting the stereo microphone 4. The right microphone 4R and the left microphone 4L are provided on the back surface of the display unit 12 with a microphone interval of 2 cm.

(音声処理部の基本構成)
次に、図1に示す撮像装置が備える音声処理部6の基本構成について図3を参照して説明する。図3は、音声処理部6の基本構成を示すブロック図である。
(Basic configuration of the audio processing unit)
Next, the basic configuration of the audio processing unit 6 included in the imaging apparatus shown in FIG. 1 will be described with reference to FIG. FIG. 3 is a block diagram showing a basic configuration of the audio processing unit 6.

図3に示すように、音声処理部6は、FFT(Fast Fourier Transform)部61R及び61Lと、ノイズ判定情報生成部62と、集音環境判定部63と、処理部64R及び64Lと、IFFT(Inverse Fast Fourier Transform)部65R及び65Lとを備えている。   As shown in FIG. 3, the audio processing unit 6 includes FFT (Fast Fourier Transform) units 61R and 61L, a noise determination information generation unit 62, a sound collection environment determination unit 63, processing units 64R and 64L, and IFFT ( Inverse Fast Fourier Transform) sections 65R and 65L.

FFT部61Rは、ステレオマイク4の右側マイク4R(図2参照)から入力されるRch音声信号を48kHzでサンプリングしてデジタル信号に変換した後、2048サンプル毎にFFT処理にて周波数領域の信号SR[F]に変換する。また、FFT部61Lは、ステレオマイク4の左側マイク4L(図2参照)から入力されるLch音声信号を48kHzでサンプリングしてデジタル信号に変換した後、2048サンプル毎にFFT処理にて周波数領域の信号SL[F]に変換する。   The FFT unit 61R samples the Rch audio signal input from the right microphone 4R (see FIG. 2) of the stereo microphone 4 at 48 kHz and converts it to a digital signal, and then performs frequency domain signal SR by FFT processing every 2048 samples. Convert to [F]. Further, the FFT unit 61L samples the Lch audio signal input from the left microphone 4L (see FIG. 2) of the stereo microphone 4 at 48 kHz and converts it to a digital signal, and then performs FFT processing for each 2048 sample in the frequency domain. Conversion to signal SL [F].

ノイズ判定情報生成部62は、FFT部61Rから出力される周波数領域の信号SR[F]及びFFT部61Lから出力される周波数領域の信号SL[F]を用いて、撮像装置本体が発するノイズであるか否かの判定に必要な情報を生成する。また、集音環境判定部63は、音声処理部6に入力される音声信号が水中で集音されたものであるか否かを判定する。   The noise determination information generation unit 62 is noise generated by the imaging apparatus main body using the frequency domain signal SR [F] output from the FFT unit 61R and the frequency domain signal SL [F] output from the FFT unit 61L. Information necessary to determine whether or not there is generated. The sound collection environment determination unit 63 determines whether or not the sound signal input to the sound processing unit 6 is collected in water.

音声処理部6に入力される2つの音声信号が水中で集音されたものであると集音環境判定部63が判定した場合、処理部64Rは、ノイズ判定情報生成部62から出力される情報を用いて、周波数領域の信号SR[F]に対して、集音時に撮像装置本体から到来するノイズの影響を低減する音声処理を行い、処理部64Lは、ノイズ判定情報生成部62から出力される情報を用いて、周波数領域の信号SL[F]に対して、集音時に撮像装置本体から到来するノイズの影響を低減する音声処理を行う。一方、音声処理部6に入力される2つの音声信号が水中で集音されたものでないと集音環境判定部63が判定した場合、処理部64R及び64Lは、集音時に撮像装置本体から到来するノイズの影響を低減する音声処理を行わない。   When the sound collection environment determination unit 63 determines that the two sound signals input to the sound processing unit 6 are collected underwater, the processing unit 64R is information output from the noise determination information generation unit 62. Is used for the frequency domain signal SR [F] to reduce the influence of noise arriving from the imaging apparatus main body during sound collection, and the processing unit 64L is output from the noise determination information generation unit 62. Is used for the frequency domain signal SL [F] to reduce the influence of noise coming from the imaging apparatus body during sound collection. On the other hand, when the sound collection environment determination unit 63 determines that the two sound signals input to the sound processing unit 6 are not collected in water, the processing units 64R and 64L arrive from the imaging apparatus main body during sound collection. Audio processing that reduces the effect of noise is not performed.

このような構成により、水中で集音された音声信号に対して、集音時に撮像装置本体から到来するノイズの影響を低減する音声処理を施すことができ、水中で集音した音声信号を再生した際に、ユーザの意図に反した音声信号となってしまうことを抑制することができる。   With such a configuration, it is possible to perform audio processing to reduce the effect of noise coming from the imaging device main body during sound collection on sound signals collected in water, and reproduce sound signals collected in water When it does, it can suppress that it becomes an audio | voice signal contrary to a user's intention.

なお、集音環境判定部63の判定結果をディスプレイ部12に表示したり、表示用LED(Light Emitting Diode)を集音環境判定部63の判定結果に応じて発光、点滅させたりして、集音環境判定部63の判定結果をユーザに通知するようにしてもよい。このような構成によると、ユーザは集音環境判定部63が正しい判定を行っているか否かを容易に確認することができる。   In addition, the determination result of the sound collection environment determination unit 63 is displayed on the display unit 12, and a display LED (Light Emitting Diode) is lit and blinks in accordance with the determination result of the sound collection environment determination unit 63. The determination result of the sound environment determination unit 63 may be notified to the user. According to such a configuration, the user can easily confirm whether or not the sound collection environment determination unit 63 makes a correct determination.

また、撮像装置が空気中にあるときに適した撮影モードである通常撮影モードと、撮像装置が水中にあるときに適した撮影モードである水中撮影モードとを、ユーザが操作部19の操作によって手動で切り替えることができる構成としても構わない。この場合においても、集音環境判定部63が、音声処理部6に入力される音声信号が水中で集音されたものであるか否かを判定するようにしてもよく、集音環境判定部63の判定結果により自動設定された撮影モードと操作部19の操作により手動設定された撮影モードのどちらを優先させても構わない。なお、自動設定された撮影モードと手動設定された撮影モードのどちらを優先するかを操作部19の操作によって変更可能にしていることが望ましい。   Further, the user can operate the operation unit 19 to select a normal shooting mode that is a shooting mode suitable when the imaging device is in the air and an underwater shooting mode that is a shooting mode suitable when the imaging device is in water. A configuration that can be manually switched may be used. Also in this case, the sound collection environment determination unit 63 may determine whether or not the sound signal input to the sound processing unit 6 is collected in water. Either the shooting mode automatically set based on the determination result 63 or the shooting mode manually set by operating the operation unit 19 may be prioritized. In addition, it is desirable that it is possible to change by the operation of the operation unit 19 whether to give priority to the automatically set shooting mode or the manually set shooting mode.

また、音声処理部6において、処理部64R及び64Lの他に、音声補正処理を行う処理部を備えることとしても構わない。また、この処理部64R及び64L以外の処理部が、水中で集音されたものでないと判定された音声信号に対して音声補正処理を施すものであっても構わないし、入力される全ての音声信号に対して音声補正処理を施すものであっても構わない。   Further, the audio processing unit 6 may include a processing unit that performs audio correction processing in addition to the processing units 64R and 64L. In addition, the processing units other than the processing units 64R and 64L may perform a sound correction process on an audio signal determined not to be collected underwater, or all input audio You may perform an audio | voice correction process with respect to a signal.

(ノイズ判定情報生成部、集音環境判定部、処理部の実施例)
上述したノイズ判定情報生成部62、集音環境判定部63、並びに処理部64R及び64Lの各実施例について以下に図面を参照して順に説明する。なお、以下の説明において、上述した基本構成と同一の部分については同一の符号を付し、その詳細な説明を省略する。
(Examples of noise determination information generation unit, sound collection environment determination unit, and processing unit)
Examples of the noise determination information generation unit 62, the sound collection environment determination unit 63, and the processing units 64R and 64L described above will be described in order with reference to the drawings. In the following description, the same parts as those in the basic configuration described above are denoted by the same reference numerals, and detailed description thereof is omitted.

<ノイズ判定情報生成部の第1実施例>
最初に、ノイズ判定情報生成部62の第1実施例について図4及び図5を参照して説明する。図4は、ノイズ判定情報生成部62の第1実施例を採用した場合の音声処理装置6の構成を示すブロック図である。ノイズ判定情報生成部62の第1実施例では、ノイズ判定情報生成部62が相対位相差情報生成部621を備えている。また、図5は、撮像装置本体のノイズ源及び本来の集音対象である音源からの音の伝搬の様子を示す図である。
<First Example of Noise Determination Information Generation Unit>
First, a first example of the noise determination information generation unit 62 will be described with reference to FIGS. 4 and 5. FIG. 4 is a block diagram showing the configuration of the audio processing device 6 when the first embodiment of the noise determination information generating unit 62 is adopted. In the first embodiment of the noise determination information generation unit 62, the noise determination information generation unit 62 includes a relative phase difference information generation unit 621. FIG. 5 is a diagram illustrating a state of sound propagation from the noise source of the imaging apparatus main body and the sound source that is the original sound collection target.

2つのマイクロホンでそれぞれ集音した2つの音声信号の相対位相差を一意に決定するためには、2つのマイクロホンの間隔が半波長に相当する周波数以下の音声信号である必要がある。そのため、2つのマイクロホンの間隔が図5に示すように2cmの場合、空気中での音速を340m/sとすれば、相対位相差情報生成部621は、8.5kHz以下の帯域の音声信号についてのみ相対位相差情報を生成することができる。   In order to uniquely determine the relative phase difference between the two audio signals collected by the two microphones, the interval between the two microphones needs to be an audio signal having a frequency equal to or lower than a half wavelength. Therefore, when the distance between the two microphones is 2 cm as shown in FIG. 5, the relative phase difference information generation unit 621 is configured to process the audio signal in the band of 8.5 kHz or less if the speed of sound in the air is 340 m / s. Only relative phase difference information can be generated.

撮像装置本体が発するモータ音などのノイズは、撮像装置の筐体内の空洞(空気中)を伝搬して、マイクロホン4R及び4Lそれぞれに到達する。このとき、右側マイクロホン4Rに到達したノイズの位相と左側マイクロホン4Lに到達したノイズの位相との差である相対位相差Δφ0は、下記の(1)式で表すことができる。ただし、Freqは、相対位相差を求めているノイズの周波数である。
Δφ0=2π×(Freq×20/340000) …(1)
Noise such as motor sound emitted from the imaging apparatus main body propagates through a cavity (in the air) in the casing of the imaging apparatus and reaches each of the microphones 4R and 4L. At this time, the relative phase difference Δφ0 that is the difference between the phase of the noise reaching the right microphone 4R and the phase of the noise reaching the left microphone 4L can be expressed by the following equation (1). Here, Freq is the frequency of the noise for which the relative phase difference is obtained.
Δφ0 = 2π × (Freq × 20/340000) (1)

一方、水中を伝搬して右側マイクロホン4Rに到達した音の位相と左側マイクロホン4Lに到達した音の位相との差(相対位相差)は、図5に示すように水中を伝搬してくる音が撮像装置の側面から到来した場合に最も大きくなり、その場合の相対位相差Δφ1は、水中での音速が空気中での音速の約5倍であるため、下記の(2)式で表すことができる。ただし、Freqは、相対位相差を求めている音の周波数である。また、水中を伝搬した音は、その後、モニタユニット23に入りマイクロホン4R及び4Lに到達するまでに空気中を伝搬することになるが、このモニタユニット23に入りマイクロホン4R及び4Lに到達するまでの伝搬経路長は2つの経路でほぼ同じであり、また、モニタユニット23内(空気中)での伝搬経路長が水中での伝搬経路長に比べて極めて短いため、水中を伝搬してくる音の相対位相差を考える上では、モニタユニット23内(空気中)での伝搬経路を無視して構わない。また、図5(a)に示すように、本来の集音対象である音源が空気中に有る場合もあるが、音源から空気中−水中の境界面までの伝搬経路長は2つの経路でほぼ同じであるため、水中を伝搬してくる音の相対位相差を考える上では、音源から空気中−水中の境界面までの伝搬経路を無視して構わない。
Δφ1=2π×{Freq×20/(340000×5)} …(2)
On the other hand, the difference (relative phase difference) between the phase of the sound that has propagated through the water and reached the right microphone 4R and the phase of the sound that has reached the left microphone 4L is as follows. When it comes from the side of the imaging device, it becomes the largest, and the relative phase difference Δφ1 in this case is expressed by the following equation (2) because the sound speed in water is about five times the sound speed in air. it can. Where Freq is the frequency of the sound whose relative phase difference is being calculated. The sound propagated in the water then propagates in the air until it enters the monitor unit 23 and reaches the microphones 4R and 4L, but it enters the monitor unit 23 until it reaches the microphones 4R and 4L. The propagation path length is almost the same for the two paths, and the propagation path length in the monitor unit 23 (in the air) is extremely short compared to the propagation path length in water. In considering the relative phase difference, the propagation path in the monitor unit 23 (in the air) may be ignored. In addition, as shown in FIG. 5A, the sound source that is the original sound collection target may be in the air, but the propagation path length from the sound source to the air-water boundary surface is almost equal to the two routes. Since they are the same, the propagation path from the sound source to the air-water interface may be ignored when considering the relative phase difference of the sound propagating in the water.
Δφ1 = 2π × {Freq × 20 / (340000 × 5)} (2)

相対位相差情報生成部621は、周波数領域の信号SR[F]と周波数領域の信号SL[F]との位相差を比較して、右側マイクロホン4Rに到達した音の位相と左側マイクロホン4Lに到達した音の位相との差である相対位相差の情報を生成する。なお、相対位相差比較部621は、FFT部61R及び61Lの解像度である2048/48000[Hz]毎に相対位相差を得ている。   The relative phase difference information generation unit 621 compares the phase difference between the frequency domain signal SR [F] and the frequency domain signal SL [F], and the phase of the sound reaching the right microphone 4R and the left microphone 4L. Relative phase difference information that is a difference from the phase of the sound is generated. Note that the relative phase difference comparison unit 621 obtains a relative phase difference for each 2048/48000 [Hz], which is the resolution of the FFT units 61R and 61L.

水中を伝搬してくる音の相対位相差はΔφ1以下であり、撮像装置本体が発するノイズの相対位相差はΔφ0(=5×Δφ1)であるため、相対位相差情報生成部621によって得られた相対位相差がΔφ1以下である周波数成分は水中を伝達してくる音の周波数成分であると判定することができる。   Since the relative phase difference of the sound propagating through the water is Δφ1 or less and the relative phase difference of the noise generated by the imaging apparatus main body is Δφ0 (= 5 × Δφ1), the relative phase difference information generation unit 621 has obtained. A frequency component having a relative phase difference of Δφ1 or less can be determined to be a frequency component of sound transmitted through water.

<ノイズ判定情報生成部の第2実施例>
次に、ノイズ判定情報生成部62の第2実施例について図6を参照して説明する。図6は、ノイズ判定情報生成部62の第2実施例を採用した場合の音声処理装置6の構成を示すブロック図である。ノイズ判定情報生成部62の第2実施例では、ノイズ判定情報生成部62が相対レベル差情報生成部622を備えている。
<Second Example of Noise Determination Information Generation Unit>
Next, a second embodiment of the noise determination information generation unit 62 will be described with reference to FIG. FIG. 6 is a block diagram showing a configuration of the audio processing device 6 when the second embodiment of the noise determination information generation unit 62 is adopted. In the second embodiment of the noise determination information generation unit 62, the noise determination information generation unit 62 includes a relative level difference information generation unit 622.

水中では音の減衰が非常に小さい事が知られている。また、一般的に音源に近いほど音の距離減衰は大きい事が知られている。そのため、水中を伝搬してマイクロホン4R及び4Lそれぞれに到達する外部からの音に対する減衰は小さく、右側マイクロホン4Rと左側マイクロホン4Lとの間での信号レベル差は殆ど生じない。一方、撮像装置の筐体内の空洞(空気中)を伝搬してマイクロホン4R及び4Lそれぞれに到達するノイズは、空気中を伝搬する事、ノイズ源とマイクロホン4R及び4Lとが近距離であること、筐体内部での反射時の吸音による減衰などがある事から、右側マイクロホン4Rと左側マイクロホン4Lとの間での信号レベル差が大きくなる。   It is known that sound attenuation is very small underwater. In general, it is known that the closer the sound source is, the greater the distance attenuation of the sound. Therefore, the attenuation with respect to the sound from the outside which propagates in water and reaches each of the microphones 4R and 4L is small, and the signal level difference between the right microphone 4R and the left microphone 4L hardly occurs. On the other hand, noise that propagates through the cavity (in the air) in the housing of the imaging device and reaches each of the microphones 4R and 4L propagates in the air, and the noise source and the microphones 4R and 4L are in a short distance. Since there is attenuation due to sound absorption during reflection inside the housing, the signal level difference between the right microphone 4R and the left microphone 4L increases.

相対レベル差情報生成部622は、周波数領域の信号SR[F]と周波数領域の信号SL[F]とのレベル差を比較して、右側マイクロホン4Rに到達した音のレベルと左側マイクロホン4Lに到達した音のレベルとの差である相対レベル差の情報を生成する。なお、相対レベル差情報生成部622は、FFT部61R及び61Lの解像度である2048/48000[Hz]毎に相対レベル差を得ている。   The relative level difference information generation unit 622 compares the level difference between the frequency domain signal SR [F] and the frequency domain signal SL [F] to reach the right microphone 4R and the left microphone 4L. Relative level difference information that is a difference from the sound level is generated. The relative level difference information generation unit 622 obtains a relative level difference for each of 2048/48000 [Hz], which is the resolution of the FFT units 61R and 61L.

水中を伝搬してくる音の相対レベル差は大きく、撮像装置本体が発するノイズの相対レベル差は小さいため、相対レベル差情報生成部622によって得られた相対レベル差が予め設定した閾値以上である周波数成分は水中を伝達してくる音の周波数成分であると判定することができる。   Since the relative level difference of the sound propagating through the water is large and the relative level difference of the noise generated by the imaging apparatus main body is small, the relative level difference obtained by the relative level difference information generation unit 622 is equal to or greater than a preset threshold value. It can be determined that the frequency component is the frequency component of the sound transmitted through the water.

なお、ノイズ判定情報生成部62の第1実施例と第2実施例の組み合わせも可能である。すなわち、ノイズ判定情報生成部62が、相対位相差及び相対レベル差の情報を生成することも可能である。相対位相差、相対レベル差の両方を用いて判定を行うことで判定の精度を上げることが可能となる。   A combination of the first embodiment and the second embodiment of the noise determination information generation unit 62 is also possible. That is, the noise determination information generation unit 62 can also generate information on the relative phase difference and the relative level difference. By performing determination using both the relative phase difference and the relative level difference, the determination accuracy can be improved.

<集音環境判定部の第1実施例>
次に、集音環境判定部63の第1実施例について図7を参照して説明する。図7は、集音環境判定部63の第1実施例を採用した場合の音声処理装置6の構成を示すブロック図である。集音環境判定部63の第1実施例では、集音環境判定部63が圧力判定部631を備えている。
<First Example of Sound Collection Environment Determination Unit>
Next, a first embodiment of the sound collection environment determination unit 63 will be described with reference to FIG. FIG. 7 is a block diagram showing the configuration of the sound processing device 6 when the first embodiment of the sound collection environment determination unit 63 is adopted. In the first embodiment of the sound collection environment determination unit 63, the sound collection environment determination unit 63 includes a pressure determination unit 631.

集音環境判定部63の第1実施例を採用する場合、図1に示す撮像装置に新たに圧力センサを設ける。圧力判定部631は、圧力センサの検出信号を入力し、撮像装置外部の圧力が予め設定した閾値以上である場合に、撮像装置が水中で使用されており、音声処理部6に入力される音声信号が水中で集音されたものであると判定し、撮像装置外部の圧力が予め設定した閾値未満である場合に、撮像装置が空気中で使用されており、音声処理部6に入力される音声信号が空気中で集音されたものであると判定する。   When the first embodiment of the sound collection environment determination unit 63 is adopted, a pressure sensor is newly provided in the imaging apparatus shown in FIG. The pressure determination unit 631 receives the detection signal of the pressure sensor, and when the pressure outside the imaging device is equal to or higher than a preset threshold, the imaging device is used in water and the sound input to the audio processing unit 6 When it is determined that the signal is collected in water and the pressure outside the imaging device is less than a preset threshold, the imaging device is used in the air and is input to the audio processing unit 6. It is determined that the audio signal is collected in the air.

<集音環境判定部の第2実施例>
次に、集音環境判定部63の第2実施例について図8を参照して説明する。図8は、集音環境判定部63の第2実施例を採用した場合の音声処理装置6の構成を示すブロック図である。集音環境判定部63の第2実施例では、集音環境判定部63が周波数特性判定部632を備えている。
<Second Example of Sound Collection Environment Determination Unit>
Next, a second embodiment of the sound collection environment determination unit 63 will be described with reference to FIG. FIG. 8 is a block diagram showing the configuration of the sound processing device 6 when the second embodiment of the sound collection environment determination unit 63 is adopted. In the second embodiment of the sound collection environment determination unit 63, the sound collection environment determination unit 63 includes a frequency characteristic determination unit 632.

ここで、空気中で白色雑音を再生し、それを空気中で集音した場合の周波数特性を図9に示す。また、空気中で白色雑音を再生し、それを水中で集音した場合の周波数特性を図10に示す。   Here, frequency characteristics when white noise is reproduced in the air and collected in the air are shown in FIG. FIG. 10 shows frequency characteristics when white noise is reproduced in the air and collected in water.

空気中で集音した場合の周波数特性は、図9に示す通りほぼフラットな特性となる。一方、水中で集音した場合の周波数特性は、一般的に、信号レベルが大きければ、図10に示す通り高周波帯域の信号が大きく減衰する。これは、伝搬されてくる音が、空気中−水中、水中−集音機器の筐体内部(空気中)の2つの境界において反射により減衰し、水中で新たに発生した波の音や筐体内部で新たに発生した音などの一般的に低い音が残るためである。   When the sound is collected in the air, the frequency characteristic is substantially flat as shown in FIG. On the other hand, as for the frequency characteristics when sound is collected in water, generally, if the signal level is large, the signal in the high frequency band is greatly attenuated as shown in FIG. This is because the propagated sound is attenuated by reflection at the two boundaries in the air-underwater, underwater-inside the housing of the sound collecting device (in the air), and the sound of the waves newly generated in the water and the case This is because generally low sounds such as newly generated sounds remain inside.

このように、撮像装置を水中で使用している場合には、撮像装置を空気中で使用している場合では起こりえないような、低帯域の音と中帯域の音及び高帯域の音とのレベル差が生じるため、そのレベル差を利用して判定を行う。   In this way, when the imaging device is used underwater, low-band sounds, medium-band sounds, and high-band sounds that cannot occur when the imaging device is used in air, Therefore, the determination is performed using the level difference.

以下、周波数特性判定部632が実行する判定方法について説明する。Rch音声信号及びLch音声信号を対象として、低帯域(例えば、数十(70)Hz〜3kHz)、中帯域(例えば、6kHz〜9kHz)、高帯域(例えば、12kHz〜15kHz)の各帯域で信号レベルの平均値を算出する。なお、各帯域の具体的数値は上記の例に限らず、各帯域相互の大小関係が正しければ問題ない。また、低帯域と中帯域が一部重複していてもよく、中帯域と高帯域が一部重複していてもよい。   Hereinafter, a determination method executed by the frequency characteristic determination unit 632 will be described. Targeting Rch audio signals and Lch audio signals, signals in each of a low band (for example, several tens (70) Hz to 3 kHz), a middle band (for example, 6 kHz to 9 kHz), and a high band (for example, 12 kHz to 15 kHz) Calculate the average level. In addition, the specific numerical value of each band is not limited to the above example, and there is no problem if the magnitude relationship between the bands is correct. Further, the low band and the middle band may partially overlap, and the middle band and the high band may partially overlap.

その各帯域における信号レベルの平均値から算出することが可能な、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1、中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2、及び、高帯域に対する中帯域の信号レベル比(中帯域/高帯域)R3は、ステレオマイク4を空気中から水中に挿入し再び空気中に戻した場合図11に示すような時間変化を示す。図11中の期間T1及びT3はステレオマイク4が空気中に位置する期間であり図11中の期間T2はステレオマイク4が水中に位置する期間である。高帯域に対する中帯域の信号レベル比(中帯域/高帯域)R3は、空気中、水中に関係なく、ほぼ一定値である。これに対し、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2は、空気中では小さい値であるが、水中では受音感度が変化し、空気中の場合と比べて大幅に大きな値になる。   The signal level ratio of the low band to the high band (low band / high band) R1 and the signal level ratio of the low band to the medium band (low band / medium band) that can be calculated from the average value of the signal level in each band ) R2 and the signal level ratio (medium band / high band) R3 of the medium band to the high band change with time as shown in FIG. 11 when the stereo microphone 4 is inserted from the air into the water and returned to the air again. Indicates. Periods T1 and T3 in FIG. 11 are periods in which the stereo microphone 4 is located in the air, and periods T2 in FIG. 11 are periods in which the stereo microphone 4 is located in water. The signal level ratio (medium band / high band) R3 of the medium band to the high band is a substantially constant value regardless of whether in the air or underwater. On the other hand, the low-band signal level ratio (low band / high band) R1 to the high band and the low-band signal level ratio (low band / middle band) R2 to the medium band are small values in the air. The sensitivity of sound reception changes in water, which is a much larger value than in air.

このことを利用して、周波数特性判定部632は、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2を各帯域における信号レベルの平均値から算出し、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2が予め設定した閾値以上に大きくなった場合に、音声処理部6に入力される音声信号が水中で集音されたものであると判定する。判定精度は劣ることになるが、中帯域における信号レベルの平均値及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2を算出せず、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1が予め設定した閾値以上に大きくなった場合に音声処理部6に入力される音声信号が水中で集音されたものであると判定すること、或いは、高帯域における信号レベルの平均値及び高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1を算出せず、中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2が予め設定した閾値以上に大きくなった場合に音声処理部6に入力される音声信号が水中で集音されたものであると判定することも可能である。   By utilizing this, the frequency characteristic determination unit 632 obtains a low-band signal level ratio (low band / high band) R1 for the high band and a low-band signal level ratio (low band / middle band) R2 for the medium band. Calculated from the average value of the signal level in each band, the low band signal level ratio (low band / high band) R1 to the high band and the low band signal level ratio (low band / middle band) R2 to the medium band are preset. When it becomes larger than the threshold value, it is determined that the audio signal input to the audio processing unit 6 is collected in water. Although the determination accuracy is inferior, the average value of the signal level in the medium band and the signal level ratio of the low band to the medium band (low band / medium band) R2 are not calculated, and the signal level ratio of the low band to the high band ( When the low band / high band (R1) is greater than or equal to a preset threshold value, it is determined that the audio signal input to the audio processing unit 6 is collected in water, or the signal in the high band The average value of the level and the signal level ratio of the low band to the high band (low band / high band) R1 are not calculated, and the signal level ratio of the low band to the medium band (low band / medium band) R2 is equal to or greater than a preset threshold value. It is also possible to determine that the audio signal input to the audio processing unit 6 is collected in water when the signal becomes larger.

なお、水中においても、気泡の音や筐体のこすれ音によって突発的なノイズが発生し、中帯域及び高帯域の信号レベルが瞬間的に大きくなり、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2が瞬間的に小さな値になる可能性がある。そのため、周波数特性判定部632が判定に使用する高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2は、一定時間において平均をとった値を用いることが望ましい。   Even underwater, sudden noise occurs due to the sound of bubbles and the rubbing sound of the housing, and the signal level of the middle band and the high band increases instantaneously, and the signal level ratio of the low band to the high band (low There is a possibility that the signal level ratio (low band / medium band) R2 of the low band with respect to the band (high band) R1 and the medium band instantaneously becomes a small value. Therefore, the low-band signal level ratio (low band / high band) R1 to the high band and the low-band signal level ratio (low band / middle band) R2 to the high band used for the determination by the frequency characteristic determination unit 632 are constant. It is desirable to use an averaged value over time.

また、閾値に関しては、ヒステリシス特性を持たせ、空気中であると判定している間は閾値を高く、水中であると判定している間は閾値を低く設定することが望ましい。   Further, regarding the threshold value, it is desirable to provide a hysteresis characteristic and set the threshold value high while determining that it is in the air, and setting the threshold value low while determining that it is underwater.

<処理部の第1実施例>
次に、処理部64R及び64Lの第1実施例について図12を参照して説明する。図12は、処理部64R及び64Lの第1実施例を採用した場合の音声処理装置6の構成を示すブロック図である。処理部64R及び64Lの第1実施例では、処理部64Rが低減処理部641Rを備え、処理部64Lが低減処理部641Lを備えている。
<First Example of Processing Unit>
Next, a first embodiment of the processing units 64R and 64L will be described with reference to FIG. FIG. 12 is a block diagram showing the configuration of the audio processing device 6 when the first embodiment of the processing units 64R and 64L is employed. In the first embodiment of the processing units 64R and 64L, the processing unit 64R includes a reduction processing unit 641R, and the processing unit 64L includes a reduction processing unit 641L.

低減処理部641R及び641Lは、音声処理部6に入力される音声信号が水中で集音されたものであると集音環境判定部63が判定した場合、ノイズ判定情報生成部62からのノイズ判定情報と閾値(例えばノイズ判定情報生成部62の第1実施例を採用した場合は 上述した(2)式のΔφ1)とを比較して周波数領域の信号SR[F]及びSL[F]が撮像装置本体が発するノイズであるか否かを、FFT部61R及び61Lの解像度である2048/48000[Hz]毎に判定し、撮像装置本体が発するノイズであると判定された周波数成分を−20dB低減し、撮像装置本体が発するノイズであると判定されなかった周波数成分を低減しない処理を行う。   When the sound collection environment determination unit 63 determines that the sound signal input to the sound processing unit 6 is collected in water, the reduction processing units 641R and 641L perform noise determination from the noise determination information generation unit 62. The signals SR [F] and SL [F] in the frequency domain are imaged by comparing the information with a threshold value (for example, Δφ1 in the above-described equation (2) when the first embodiment of the noise determination information generation unit 62 is adopted). It is determined for each 2048/48000 [Hz], which is the resolution of the FFT units 61R and 61L, whether or not the noise is generated by the apparatus main body, and the frequency component determined to be noise generated by the imaging apparatus main body is reduced by -20 dB. Then, processing that does not reduce the frequency component that has not been determined to be noise generated by the imaging apparatus main body is performed.

処理部64R及び64Lの第1実施例を採用する場合、ノイズ判定情報生成部62の第1実施例を採用すると、周波数領域の信号SR[F]及びSL[F]間で位相差の大きい周波数成分に対してのみ低減処理が行われるため、仮に集音環境判定部63が誤判定しても、撮影している正面方向の音を低減することなく、集音環境の誤判定による悪影響が小さいという利点がある。   When the first embodiment of the processing units 64R and 64L is adopted, if the first embodiment of the noise determination information generation unit 62 is adopted, the frequency having a large phase difference between the signals SR [F] and SL [F] in the frequency domain. Since the reduction process is performed only on the components, even if the sound collection environment determination unit 63 makes an erroneous determination, the adverse effect of the sound collection environment erroneous determination is small without reducing the sound in the front direction of shooting. There is an advantage.

<処理部の第2実施例>
次に、処理部64R及び64Lの第2実施例について図13を参照して説明する。図13は、処理部64R及び64Lの第2実施例を採用した場合の音声処理装置6の構成を示すブロック図である。処理部64R及び64Lの第2実施例では、処理部64Rが強調処理部642Rを備え、処理部64Lが強調処理部642Lを備えている。
<Second Embodiment of Processing Unit>
Next, a second embodiment of the processing units 64R and 64L will be described with reference to FIG. FIG. 13 is a block diagram showing the configuration of the audio processing device 6 when the second embodiment of the processing units 64R and 64L is adopted. In the second embodiment of the processing units 64R and 64L, the processing unit 64R includes an enhancement processing unit 642R, and the processing unit 64L includes an enhancement processing unit 642L.

強調処理部642R及び642Lは、音声処理部6に入力される音声信号が水中で集音されたものであると集音環境判定部63が判定した場合、ノイズ判定情報生成部62からのノイズ判定情報と閾値(例えばノイズ判定情報生成部62の第1実施例を採用した場合は 上述した(2)式のΔφ1)とを比較して周波数領域の信号SR[F]及びSL[F]が撮像装置本体が発するノイズであるか否かを、FFT部61R及び61Lの解像度である2048/48000[Hz]毎に判定し、撮像装置本体が発するノイズであると判定されなかった周波数成分を強調(増幅)し、撮像装置本体が発するノイズであると判定された周波数成分を強調しない処理を行う。なお、強調の度合いは、周波数にかかわらず一律としてもよく、周波数に応じて変化する(図10の周波数特性を考慮し低帯域では強調を弱め、中帯域/高帯域では強調を強める)ようにしてもよい。   When the sound collection environment determination unit 63 determines that the sound signal input to the sound processing unit 6 is collected underwater, the enhancement processing units 642R and 642L perform noise determination from the noise determination information generation unit 62. The signals SR [F] and SL [F] in the frequency domain are imaged by comparing the information with a threshold value (for example, Δφ1 in the above-described equation (2) when the first embodiment of the noise determination information generation unit 62 is adopted). It is determined for each 2048/48000 [Hz], which is the resolution of the FFT units 61R and 61L, whether or not the noise is generated by the apparatus main body, and frequency components that are not determined to be noise generated by the imaging apparatus main body are emphasized ( The frequency component determined to be noise generated by the imaging apparatus body is not emphasized. Note that the degree of emphasis may be uniform regardless of the frequency, and varies depending on the frequency (in consideration of the frequency characteristics in FIG. May be.

処理部64R及び64Lがノイズと判定した周波数成分以外は、水中を伝搬してきた本来の水中音の周波数成分である。水中を伝搬してきた本来の水中音は水と空気との境界面で反射し、音は大きく減衰している。そのため、処理部64R及び64Lの第2実施例を採用し、ノイズと判定した周波数成分以外を強調(増幅)することにより、本来の水中音を有るべきレベルに近づけることができる。   The frequency components other than the frequency components determined by the processing units 64R and 64L as noise are the frequency components of the original underwater sound that has propagated through the water. The original underwater sound that has propagated in the water is reflected at the boundary between water and air, and the sound is greatly attenuated. Therefore, by adopting the second embodiment of the processing units 64R and 64L and emphasizing (amplifying) components other than the frequency components determined to be noise, the original underwater sound can be brought close to a desired level.

なお、処理部64の第1実施例と第2実施例の組み合わせも可能である。すなわち、撮像装置本体が発するノイズであると判定された周波数成分を低減し、撮像装置本体が発するノイズであると判定されなかった周波数成分を強調(増幅)する処理を行うようにすることも可能である。   A combination of the first embodiment and the second embodiment of the processing unit 64 is also possible. In other words, it is possible to reduce the frequency component determined to be noise generated by the imaging device main body and to perform processing to emphasize (amplify) the frequency component not determined to be noise generated by the imaging device main body. It is.

<処理部の第3実施例>
次に、処理部64R及び64Lの第3実施例について図14を参照して説明する。図14は、処理部64R及び64Lの第3実施例を採用した場合の音声処理装置6の構成を示すブロック図である。処理部64R及び64Lの第3実施例では、処理部64Rが閾値可変処理部643Rを備え、処理部64Lが閾値可変処理部643Lを備えている。なお、処理部64R及び64Lの第3実施例を採用する場合、図14に示すように、ノイズ判定情報生成部62の第1実施例を採用する。
<Third Example of Processing Unit>
Next, a third embodiment of the processing units 64R and 64L will be described with reference to FIG. FIG. 14 is a block diagram showing the configuration of the audio processing device 6 when the third embodiment of the processing units 64R and 64L is adopted. In the third embodiment of the processing units 64R and 64L, the processing unit 64R includes a threshold variable processing unit 643R, and the processing unit 64L includes a threshold variable processing unit 643L. In addition, when employ | adopting 3rd Example of the process parts 64R and 64L, as shown in FIG. 14, 1st Example of the noise determination information generation part 62 is employ | adopted.

閾値可変処理部643R及び643Lは、音声処理部6に入力される音声信号が水中で集音されたものであると集音環境判定部63が判定した場合、ノイズ判定情報生成部62からのノイズ判定情報と第1の閾値(上述した(2)式のΔφ1)とを比較して周波数領域の信号SR[F]及びSL[F]が撮像装置本体が発するノイズであるか否かを、FFT部61R及び61Lの解像度である2048/48000[Hz]毎に判定し、撮像装置本体が発するノイズであると判定された周波数成分を−20dB低減し、撮像装置本体が発するノイズであると判定されなかった周波数成分を低減しない処理を行う。   When the sound collection environment determination unit 63 determines that the sound signal input to the sound processing unit 6 is collected in water, the threshold variable processing units 643R and 643L are configured to receive noise from the noise determination information generation unit 62. By comparing the determination information with the first threshold value (Δφ1 in the above-described equation (2)), it is determined whether the frequency domain signals SR [F] and SL [F] are noises generated by the imaging apparatus main body. It is determined every 2048/48000 [Hz] that is the resolution of the units 61R and 61L, the frequency component determined to be noise generated by the imaging device main body is reduced by -20 dB, and is determined to be noise generated by the imaging device main body. Processing that does not reduce the frequency component that has not been performed is performed.

また、閾値可変処理部643R及び643Lは、音声処理部6に入力される音声信号が空気中で集音されたものであると集音環境判定部63が判定した場合、FFT部61R及び61Lの解像度である2048/48000[Hz]毎に、相対位相差情報生成部621からの相対位相差情報と第2の閾値(下記に示す(3)式のΔφ2)とを比較して、相対位相差情報生成部621からの相対位相差情報が第2の閾値(下記に示す(3)式のΔφ2)より大きければ、周波数領域の信号SR[F]及びSL[F]が音源方向角θR又はθL(図15参照)が30°より大きい音源(不要音)によるものであると判定し、音源方向角θR又はθLが30°より大きい音源(不要音)によるものであると判定された周波数成分を−20dB低減し、相対位相差情報生成部621からの相対位相差情報が第2の閾値(下記に示す(3)式のΔφ2)以下であれば、周波数領域の信号SR[F]及びSL[F]が音源方向角θR又はθL(図15参照)が30°以内の音源によるものであると判定し、音源方向角θR又はθLが30°以内の音源によるものであると判定された周波数成分を低減しない処理を行う。これにより、撮像装置正面方向から左右それぞれ30°以内の方向に指向性を持たせることができる。ただし、(3)式中のFreqは、相対位相差情報との比較対象の周波数である。
Δφ2=2π×(Freq×20×sin30°/340000) …(3)
Further, when the sound collection environment determination unit 63 determines that the sound signal input to the sound processing unit 6 has been collected in the air, the threshold variable processing units 643R and 643L have the FFT units 61R and 61L. For each resolution of 2048/48000 [Hz], the relative phase difference information from the relative phase difference information generation unit 621 is compared with the second threshold value (Δφ2 in the expression (3) shown below) to determine the relative phase difference. If the relative phase difference information from the information generation unit 621 is larger than the second threshold value (Δφ2 in the expression (3) shown below), the signals SR [F] and SL [F] in the frequency domain are the sound source direction angles θR or θL. It is determined that the sound source (see FIG. 15) is due to a sound source (unnecessary sound) greater than 30 °, and the frequency component determined to be due to a sound source (unnecessary sound) whose sound source direction angle θR or θL is greater than 30 ° is determined. -20dB lower, relative If the relative phase difference information from the phase difference information generation unit 621 is equal to or less than the second threshold value (Δφ2 in the following equation (3)), the frequency domain signals SR [F] and SL [F] are the sound source direction angle θR. Alternatively, it is determined that θL (see FIG. 15) is due to a sound source within 30 °, and processing that does not reduce the frequency component determined that the sound source direction angle θR or θL is due to a sound source within 30 ° is performed. Thereby, directivity can be given to directions within 30 ° on the left and right sides from the front direction of the imaging apparatus. However, Freq in the equation (3) is a frequency to be compared with the relative phase difference information.
Δφ2 = 2π × (Freq × 20 × sin 30 ° / 340000) (3)

処理部64の第3実施例を採用すると、水中撮影モードにおけるノイズ低減処理と通常撮影モードにおける指向性処理との切り替えを、回路規模又はソフトウェア規模を大きくすることなく、閾値(第1の閾値、第2の閾値)の切り替えのみで実現することができる。   When the third embodiment of the processing unit 64 is adopted, switching between the noise reduction processing in the underwater shooting mode and the directivity processing in the normal shooting mode can be performed without increasing the circuit scale or the software scale. This can be realized only by switching the second threshold).

<<再生時の適用例>>
上述した図1に示す撮像装置は、集音した音声信号を記録する際に、集音時に撮像装置本体から到来するノイズの影響を低減する処理を実行している。しかしながら、本発明はこれに限定されず、集音した音声信号を再生する際に、集音時に撮像装置本体から到来するノイズの影響を低減する処理を実行するようにしてもよい。
<< Application example during playback >>
The above-described imaging apparatus shown in FIG. 1 executes processing for reducing the influence of noise coming from the imaging apparatus main body during sound collection when recording the collected audio signal. However, the present invention is not limited to this, and when reproducing the collected audio signal, a process for reducing the influence of noise coming from the imaging apparatus main body during sound collection may be executed.

集音した音声信号を再生する際に、集音時に撮像装置本体から到来するノイズの影響を低減する処理を実行する撮像装置を図16に示す。なお、図16において図1と実質上同一の部分には同一の符号を付している。   FIG. 16 shows an imaging apparatus that executes processing for reducing the influence of noise coming from the imaging apparatus main body during sound collection when reproducing the collected audio signal. In FIG. 16, parts that are substantially the same as those in FIG.

図16に示す撮像装置が図1に示す撮像装置と異なる点は、音声処理部6の代わりに音声処理部6aを設け、さらに、伸長処理部9と音声出力回路部13との間に音声処理部6bを設けている点である。   The imaging apparatus shown in FIG. 16 differs from the imaging apparatus shown in FIG. 1 in that an audio processing unit 6a is provided instead of the audio processing unit 6, and audio processing is performed between the expansion processing unit 9 and the audio output circuit unit 13. The point is that a portion 6b is provided.

音声処理部6aは、音声処理部6と異なり、ステレオマイク4からのアナログ信号である音声信号に対してA/D変換は行うが、FFT処理、ノイズ判定情報生成処理、集音環境判定処理、集音時に撮像装置本体から到来するノイズの影響を低減する処理、及びIFFT処理を行わない構成である。   Unlike the audio processing unit 6, the audio processing unit 6 a performs A / D conversion on an audio signal that is an analog signal from the stereo microphone 4, but performs FFT processing, noise determination information generation processing, sound collection environment determination processing, This is a configuration that does not perform processing for reducing the influence of noise coming from the imaging apparatus main body during sound collection and IFFT processing.

音声処理部6bは、FFT部がA/D変換処理を行わない点を除き、音声処理部6と同様の構成である。音声処理部6bにおいて行われる音声処理は、基本的に音声処理部6において行われる音声処理と同様であるので、ここでは説明を省略する。   The audio processing unit 6b has the same configuration as the audio processing unit 6 except that the FFT unit does not perform A / D conversion processing. Since the audio processing performed in the audio processing unit 6b is basically the same as the audio processing performed in the audio processing unit 6, the description thereof is omitted here.

音声処理部6bの集音環境判定部によって水中で集音されたと判定された場合は、水中で集音された音声信号の再生に適した再生モードである水中再生モードとなり、音声処理部6bの集音環境判定部によって空気中で集音されたと判定された場合は、空気中で集音された音声信号の再生に適した再生モードである通常再生モードとなるが、これに代えて、又は、これに加えて、水中再生モードと通常再生モードとをユーザが操作部19の操作によって手動で切り替えることができる構成としても構わない。後者のように、手動切り替えの構成を付加した場合、自動設定された再生モードと操作部19の操作により手動設定された再生モードのどちらを優先させても構わない。なお、自動設定された再生モードと手動設定された再生モードのどちらを優先するかを操作部19の操作によって変更可能にしていることが望ましい。   When the sound collection environment determination unit of the sound processing unit 6b determines that the sound is collected in water, the sound processing unit 6b enters the underwater reproduction mode, which is a reproduction mode suitable for reproduction of the sound signal collected in water. When it is determined that the sound is collected in the air by the sound collection environment determining unit, the normal playback mode is selected as a playback mode suitable for playing back the sound signal collected in the air. In addition to this, a configuration may be adopted in which the user can manually switch between the underwater reproduction mode and the normal reproduction mode by operating the operation unit 19. When the manual switching configuration is added as in the latter case, either the automatically set playback mode or the manually set playback mode by operating the operation unit 19 may be prioritized. Note that it is preferable that the operation unit 19 can be changed to give priority to the automatically set reproduction mode or the manually set reproduction mode.

なお、集音環境(集音時に図16に示す撮像装置が置かれている環境)と再生環境(再生時に図16に示す撮像装置が置かれている環境)とが異なっている可能性があるため、音声処理部6bの集音環境判定部には、上述した集音環境判定部の第1実施例を採用しないようにする。   Note that there is a possibility that the sound collection environment (the environment in which the imaging device shown in FIG. 16 is placed at the time of sound collection) and the reproduction environment (the environment in which the imaging device shown in FIG. 16 is placed at the time of reproduction) are different. For this reason, the sound collection environment determination unit of the sound processing unit 6b is not adapted to the first embodiment of the sound collection environment determination unit described above.

<<変形例>>
上述した図1又は図16に示す撮像装置では、水中で集音されたと判定した場合に、集音した音声信号(集音した音声信号を記録、再生したものを含む)に対して、集音時に機器本体から到来するノイズの影響を低減する音声処理を行ったが、それに加えて、スムージング処理、ズーム処理中における利得の抑制、メモリ18に予め記憶している音声データ或いは前フレームデータの利用、及び、オートゲインコントロールのレスポンス速度を上げることによるクリックノイズの抑制の少なくとも一つを行うようにしてもよい。
<< Modification >>
In the imaging apparatus shown in FIG. 1 or FIG. 16 described above, when it is determined that the sound is collected in water, the sound collection is performed on the collected sound signal (including the recorded and reproduced sound signal). Audio processing that sometimes reduces the effects of noise coming from the device body was performed, but in addition, smoothing processing, suppression of gain during zoom processing, use of audio data or pre-frame data stored in advance in the memory 18 In addition, at least one of suppression of click noise by increasing the response speed of auto gain control may be performed.

また、上述した図1又は図16に示す撮像装置では、水中で集音されたと判定した場合に、集音した音声信号(集音した音声信号を記録、再生したものを含む)に対して、集音時に記録機器本体から到来するノイズの影響を低減する音声処理を行ったが、それに加えて、水中で集音されたと判定された場合に撮影した映像信号(撮影した映像信号を記録、再生したものを含む)に対して水中環境に適した特性補正や撮影時のカメラ制御に対して水中環境に適した特性補正を行ってもよい。   In the imaging apparatus shown in FIG. 1 or FIG. 16 described above, when it is determined that the sound is collected in water, the collected sound signal (including the recorded and reproduced sound signal) is collected. In addition to performing audio processing to reduce the effects of noise coming from the recording device during sound collection, the video signal that was shot when it was determined that the sound was collected in water (recorded and played video signals were recorded) Characteristic correction suitable for the underwater environment and characteristic correction suitable for the underwater environment may be performed for camera control during shooting.

また、上述した図1又は図16に示す撮像装置では、ステレオマイク4を用いたが、複数のマイクロホンで構成される他のマイク(例えば、5.1chサラウンド録音対応マイク)を用いても構わない。   Moreover, in the imaging device shown in FIG. 1 or FIG. 16 described above, the stereo microphone 4 is used, but another microphone (for example, a 5.1ch surround recording-compatible microphone) including a plurality of microphones may be used. .

また、本発明にかかる電子機器は、音声信号の記録及び/又は再生が可能であればよいので、映像に関連するブロックは特に必要ない。したがって、本発明は、撮像装置以外の電子機器、例えば、音声記録装置、音声再生装置、音声記録再生装置(例えばICレコーダ)等にも適用することができる。   In addition, since the electronic apparatus according to the present invention only needs to be able to record and / or reproduce an audio signal, a block related to an image is not particularly necessary. Therefore, the present invention can also be applied to electronic devices other than the imaging device, for example, an audio recording device, an audio reproducing device, an audio recording / reproducing device (for example, an IC recorder), and the like.

また、本発明に係る集音環境判定装置を搭載した電子機器は、防水構造であることが望ましいが、防水構造でなくても例えば防水ハウジングに収納し防水仕様の外部マイクによって集音した音声信号を入力するというような使用法を採用することが可能である。   In addition, the electronic device equipped with the sound collection environment determination device according to the present invention preferably has a waterproof structure, but even if it is not waterproof, for example, an audio signal stored in a waterproof housing and collected by a waterproof external microphone It is possible to adopt a usage such as inputting.

また、例えば、音声処理部6bの各部としてコンピュータを機能させるためのプログラムを含む再生ソフトウェアを、パーソナルコンピュータ上で動作させることで、本発明に係る電子機器を実現することもできる。   For example, the electronic device according to the present invention can be realized by operating reproduction software including a program for causing a computer to function as each unit of the audio processing unit 6b on a personal computer.

処理部の第1実施例では、撮像装置本体が発するノイズであると判定された周波数成分を−20dB低減し、撮像装置本体が発するノイズであると判定されなかった周波数成分を低減しない処理を行ったが、この処理に代えて、図17に示すように、撮像装置本体が発するノイズであると判定された周波数成分を大きく低減(図17に示す例では−12dB)し、撮像装置本体が発するノイズであると判定された周波数成分の前後の周波数成分を少し低減(図17に示す例では−6dB)し、それ以外の周波数成分を低減しない処理を行ってもよい。これにより、連続する周波数間で減衰量の相違が大きくなって、不自然な音となったりミュージカルノイズが発生することを抑制することができる。   In the first embodiment of the processing unit, the frequency component determined to be noise generated by the imaging apparatus main body is reduced by -20 dB, and the frequency component not determined to be noise generated by the imaging apparatus main body is not reduced. However, instead of this processing, as shown in FIG. 17, the frequency component determined to be noise generated by the imaging apparatus main body is greatly reduced (−12 dB in the example shown in FIG. 17), and the imaging apparatus main body emits. A process may be performed in which the frequency components before and after the frequency component determined to be noise are slightly reduced (−6 dB in the example illustrated in FIG. 17) and other frequency components are not reduced. As a result, it is possible to suppress the occurrence of unnatural sound or musical noise due to a large difference in attenuation amount between consecutive frequencies.

同様に、処理部の第2実施例では、撮像装置本体が発するノイズであると判定されなかった周波数成分を強調(増幅)し、撮像装置本体が発するノイズであると判定された周波数成分を強調しない処理を行ったが、この処理に代えて、撮像装置本体が発するノイズであると判定されなかった周波数成分を大きく強調(増幅)し、撮像装置本体が発するノイズであると判定されなかった周波数成分の前後の周波数成分を少し強調(増幅)し、それ以外の周波数成分を強調(増幅)しない処理を行ってもよい。   Similarly, in the second embodiment of the processing unit, frequency components that are not determined to be noise generated by the imaging apparatus main body are emphasized (amplified), and frequency components that are determined to be noise generated by the imaging apparatus main body are emphasized. However, instead of this processing, the frequency component that was not determined to be noise generated by the imaging device main body was greatly emphasized (amplified), and the frequency that was not determined to be noise generated by the imaging device main body Processing may be performed in which the frequency components before and after the component are slightly emphasized (amplified) and the other frequency components are not emphasized (amplified).

は、本発明に係る撮像装置の一内部構成例を示すブロック図である。These are block diagrams which show the example of 1 internal structure of the imaging device which concerns on this invention. は、図1に示す撮像装置を装置上面から見た概略外観図である。FIG. 2 is a schematic external view of the image pickup apparatus shown in FIG. 1 viewed from the upper surface of the apparatus. は、図1に示す撮像装置が備える音声処理部の基本構成を示すブロック図である。These are block diagrams which show the basic composition of the audio | voice processing part with which the imaging device shown in FIG. 1 is provided. は、ノイズ判定情報生成部の第1実施例を採用した場合の音声処理装置の構成を示すブロック図であるThese are block diagrams which show the structure of the audio | voice processing apparatus at the time of employ | adopting 1st Example of a noise determination information generation part. は、撮像装置本体のノイズ源及び本来の集音対象である音源からの音の伝搬の様子を示す図である。These are figures which show the mode of the propagation of the sound from the noise source of an imaging device main body, and the sound source which is the original sound collection object. は、ノイズ判定情報生成部の第2実施例を採用した場合の音声処理装置の構成を示すブロック図であるThese are block diagrams which show the structure of the audio | voice processing apparatus at the time of employ | adopting 2nd Example of a noise determination information generation part. は、集音環境判定部の第1実施例を採用した場合の音声処理装置の構成を示すブロック図であるThese are block diagrams which show the structure of the audio | voice processing apparatus at the time of employ | adopting 1st Example of a sound collection environment determination part. は、集音環境判定部の第2実施例を採用した場合の音声処理装置の構成を示すブロック図であるThese are block diagrams which show the structure of the audio processing apparatus at the time of employ | adopting 2nd Example of the sound collection environment determination part. は、空気中における音声の周波数特性を示す図である。These are figures which show the frequency characteristic of the sound in the air. は、水中における音声の周波数特性を示す図である。FIG. 4 is a diagram illustrating frequency characteristics of sound in water. は、空気中と水中における音声の周波数特性の相違を示す図である。These are figures which show the difference in the frequency characteristic of the sound in the air and underwater. は、処理部の第1実施例を採用した場合の音声処理装置の構成を示すブロック図である。These are block diagrams which show the structure of the audio | voice processing apparatus at the time of employ | adopting 1st Example of a process part. は、処理部の第2実施例を採用した場合の音声処理装置の構成を示すブロック図である。These are block diagrams which show the structure of the audio | voice processing apparatus at the time of employ | adopting 2nd Example of a process part. は、処理部の第3実施例を採用した場合の音声処理装置の構成を示すブロック図である。These are block diagrams which show the structure of the audio | voice processing apparatus at the time of employ | adopting 3rd Example of a process part. は、音源方向角を示す図である。These are figures which show a sound source direction angle. は、本発明に係る撮像装置の他の内部構成例を示すブロック図である。These are the block diagrams which show the other internal structural example of the imaging device which concerns on this invention. は、処理部の減衰処理例を示す図である。FIG. 10 is a diagram illustrating an example of attenuation processing of a processing unit.

符号の説明Explanation of symbols

1 固体撮像素子(イメージセンサ)
2 レンズ部
3 AFE
4 ステレオマイク
4L、4R マイク
5 画像処理部
6、6a、6b 音声処理部
7 圧縮処理部
8 ドライバ部
9 伸長処理部
10 ビデオ出力回路部
11 ビデオ出力端子
12 ディスプレイ部
13 音声出力回路部
14 音声出力端子
15 スピーカ部
16 タイミングジェネレータ(TG)
17 CPU
18 メモリ
19 操作部
20、21 バス回線
22 外部メモリ
23 モニタユニット
61R、61L FFT部
62 ノイズ判定情報生成部
63 集音環境判定部
64R、64L 処理部
65R、65L IFFT部
621 相対位相差情報生成部
622 相対レベル差情報生成部
631 圧力判定部
632 周波数特性判定部
641R、641L 低減処理部
642R、642L 強調処理部
643R、643L 閾値可変処理部
1 Solid-state image sensor (image sensor)
2 Lens part 3 AFE
4 stereo microphone 4L, 4R microphone 5 image processing unit 6, 6a, 6b audio processing unit 7 compression processing unit 8 driver unit 9 expansion processing unit 10 video output circuit unit 11 video output terminal 12 display unit 13 audio output circuit unit 14 audio output Terminal 15 Speaker unit 16 Timing generator (TG)
17 CPU
18 memory 19 operation unit 20, 21 bus line 22 external memory 23 monitor unit 61R, 61L FFT unit 62 noise determination information generation unit 63 sound collection environment determination unit 64R, 64L processing unit 65R, 65L IFFT unit 621 relative phase difference information generation unit 622 Relative level difference information generation unit 631 Pressure determination unit 632 Frequency characteristic determination unit 641R, 641L Reduction processing unit 642R, 642L Enhancement processing unit 643R, 643L Threshold variable processing unit

Claims (6)

集音した音声信号の記録及び/又は再生機能を有し、
水中モードと通常モードを有し、
集音時に記録機器本体から到来するノイズの影響を低減するノイズ影響低減部を備え、
集音した音声信号を水中モードにて記録する際、又は、記録した音声信号を水中モードにて再生する際のいずれかにおいて、前記ノイズ影響低減部が、集音時に記録機器本体から到来するノイズの影響を低減することを特徴とする電子機器。
It has a recording and / or playback function for collected audio signals
It has an underwater mode and a normal mode,
Equipped with a noise effect reduction unit that reduces the effect of noise coming from the recording device body during sound collection,
When the collected audio signal is recorded in the underwater mode, or when the recorded audio signal is played back in the underwater mode, the noise effect reducing unit receives noise from the recording device main body at the time of collecting the sound. Electronic devices characterized by reducing the influence of
前記ノイズ影響低減部が、
複数のマイクロホンで集音した音声信号の相対位相差及び/又は相対レベル差を利用して、記録機器本体が発するノイズを判定する判定部と、
前記判定部の判定結果に基づき、記録機器本体から到来するノイズの影響を低減する音声処理を行う処理部とを備える請求項1に記載の電子機器。
The noise influence reducing unit is
A determination unit that determines noise generated by the recording device main body using a relative phase difference and / or a relative level difference of audio signals collected by a plurality of microphones;
The electronic device according to claim 1, further comprising: a processing unit that performs audio processing that reduces an influence of noise coming from the recording device main body based on a determination result of the determination unit.
複数のマイクロホンで集音した音声信号を周波数領域の信号に変換する変換部を備え、
前記判定部が、前記周波数領域の信号の所定の周波数帯域毎に、相対位相差及び/又は相対レベル差を解析し、予め設定した閾値以上の相対位相差及び/又は相対レベル差を有する周波数帯域成分を機器本体が発したノイズ成分であると判定する請求項2に記載の電子機器。
A conversion unit that converts audio signals collected by a plurality of microphones into signals in the frequency domain,
The determination unit analyzes a relative phase difference and / or a relative level difference for each predetermined frequency band of the signal in the frequency domain, and has a relative phase difference and / or a relative level difference equal to or greater than a preset threshold. The electronic device according to claim 2, wherein the component is determined to be a noise component emitted by the device main body.
前記処理部が、前記判定部によってノイズと判定された周波数帯域の信号若しくは前記判定部によってノイズと判定された周波数帯域の信号を含む複数の帯域の信号を減衰させることにより、及び/又は、前記判定部によってノイズと判定された周波数帯域以外の信号若しくは前記判定部によってノイズと判定された周波数帯域の信号を含む複数の帯域以外の信号を増幅させることにより、記録機器本体から到来するノイズの影響を低減する請求項3に記載の電子機器。   The processing unit attenuates a signal in a plurality of bands including a signal in a frequency band determined as noise by the determination unit or a signal in a frequency band determined as noise by the determination unit, and / or Influence of noise coming from the recording device main body by amplifying signals other than the frequency band determined as noise by the determination unit or signals other than a plurality of bands including the signal in the frequency band determined as noise by the determination unit The electronic device according to claim 3, wherein the electronic device is reduced. 音声信号が水中で集音されたものであるか否かを判定する集音環境判定部を備え、前記集音環境判定部の判定結果に応じて水中モードと通常モードとを切り替える請求項1〜4のいずれか1項に記載の電子機器。   A sound collection environment determination unit that determines whether or not an audio signal is collected in water, and switches between an underwater mode and a normal mode according to a determination result of the sound collection environment determination unit. 5. The electronic device according to any one of 4 above. 映像を撮影するカメラを備える撮像装置である請求項1〜5のいずれか1項に記載の電子機器。   The electronic apparatus according to claim 1, wherein the electronic apparatus includes a camera that captures a video.
JP2008248818A 2008-09-26 2008-09-26 Electronic apparatus Pending JP2010081395A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008248818A JP2010081395A (en) 2008-09-26 2008-09-26 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008248818A JP2010081395A (en) 2008-09-26 2008-09-26 Electronic apparatus

Publications (1)

Publication Number Publication Date
JP2010081395A true JP2010081395A (en) 2010-04-08

Family

ID=42211306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008248818A Pending JP2010081395A (en) 2008-09-26 2008-09-26 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2010081395A (en)

Similar Documents

Publication Publication Date Title
JP2010081417A (en) Imaging apparatus, and mode suitability determining method
JP5056157B2 (en) Noise reduction circuit
US8050142B2 (en) Sound collection environment deciding device, sound processing device, electronic appliance, sound collection environment deciding method and sound processing method
JP2008263498A (en) Wind noise reducing device, sound signal recorder and imaging apparatus
US10535363B2 (en) Audio processing apparatus and control method thereof
JP5349062B2 (en) SOUND PROCESSING DEVICE, ELECTRONIC DEVICE HAVING SAME, AND SOUND PROCESSING METHOD
JP2008245254A (en) Audio processing apparatus
US8514300B2 (en) Imaging apparatus for reducing driving noise
JP2011002723A (en) Audio signal processor
US11657794B2 (en) Audio processing apparatus for reducing noise using plurality of microphones, control method, and recording medium
JP5529638B2 (en) Audio processing apparatus, audio processing method, and imaging apparatus
JP4542396B2 (en) Recording device
JP5171369B2 (en) Sound collection environment determination device, electronic apparatus including the same, and sound collection environment determination method
JP2010081395A (en) Electronic apparatus
JP6929137B2 (en) Speech processing device and its control method
JP6985821B2 (en) Speech processing device and its control method
JP5171370B2 (en) Audio processing apparatus, electronic apparatus, and audio processing method
JP6886352B2 (en) Speech processing device and its control method
JP6931296B2 (en) Speech processing device and its control method
JP2010134260A (en) Electronic apparatus and voice processing method
JP2014199343A (en) Imaging apparatus, signal processing device and method, and program
US11729548B2 (en) Audio processing apparatus, control method, and storage medium, each for performing noise reduction using audio signals input from plurality of microphones
US20220383891A1 (en) Sound processing apparatus and control method
JP5495753B2 (en) Imaging device
JP6877246B2 (en) Speech processing device and its control method