JP2009258423A - Sound processing device, electronic appliance, and sound processing method - Google Patents

Sound processing device, electronic appliance, and sound processing method Download PDF

Info

Publication number
JP2009258423A
JP2009258423A JP2008107920A JP2008107920A JP2009258423A JP 2009258423 A JP2009258423 A JP 2009258423A JP 2008107920 A JP2008107920 A JP 2008107920A JP 2008107920 A JP2008107920 A JP 2008107920A JP 2009258423 A JP2009258423 A JP 2009258423A
Authority
JP
Japan
Prior art keywords
unit
sound
audio signal
signal
underwater
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008107920A
Other languages
Japanese (ja)
Other versions
JP5171370B2 (en
Inventor
Kazuma Hara
一眞 原
Makoto Yamanaka
誠 山中
Masahiro Yoshida
昌弘 吉田
Tomoki Oku
智岐 奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008107920A priority Critical patent/JP5171370B2/en
Priority to US12/328,353 priority patent/US8050142B2/en
Publication of JP2009258423A publication Critical patent/JP2009258423A/en
Application granted granted Critical
Publication of JP5171370B2 publication Critical patent/JP5171370B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sound processing device or a sound processing method, capable of effectively providing a sound signal intended by a user while reducing the size and cost thereof, and an electronic appliance provided with the sound processing device. <P>SOLUTION: A sound processing part 7 provided on an imaging device comprises a sound collection environment deciding part 72 which decides whether an input sound signal is collected in air or in water; and an in-water characteristic correction part 73 which performs in-water characteristic correction processing to the input sound signal based on the deciding result of the deciding part 72. A sound signal collected in water is corrected by the in-water characteristic correction part 73, whereby a sound signal to be output can be made close to the sound signal intended by the user. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、水中で集音された音声信号を処理する音声処理装置や音声処理方法、音声処理装置を搭載した撮像装置などの電子機器に関する。   The present invention relates to an audio processing apparatus and an audio processing method for processing an audio signal collected in water, and an electronic apparatus such as an imaging apparatus equipped with the audio processing apparatus.

近年、空気中のみならず水中においても集音することができるビデオカメラやICレコーダなどの電子機器が種々提案されている。これらの電子機器は防水構造を備え、空気中のみならず水中においても集音することを可能としている。   In recent years, various electronic devices such as video cameras and IC recorders that can collect sound not only in the air but also in the water have been proposed. These electronic devices have a waterproof structure and can collect sound not only in the air but also in the water.

しかしながら、水中における音の集音特性は空気中における集音特性と大きく異なるため、電子機器を用いて水中で集音した音声信号は、空気中で集音した音声信号とは大きく異なるものとなる。そのため、水中で集音した音声信号を再生した場合に、非常に聞き取り難くなったり耳障りになったりするなど、ユーザの意図に反した音声信号となってしまうことが問題となっていた。   However, since the sound collection characteristic of sound in water is significantly different from the sound collection characteristic in air, an audio signal collected in water using an electronic device is significantly different from an audio signal collected in air. . For this reason, when an audio signal collected in water is reproduced, it becomes a problem that the audio signal is contrary to the user's intention, such as being very difficult to hear or annoying.

この問題に対して、集音している環境が水中か否かを判定するとともに、判定結果に応じて利得制御とフィルタリングを行うビデオカメラが、特許文献1において提案されている。このビデオカメラは圧力センサを備えており、水圧の有無によって水中であるか否かを判定する。
特開平7−30790号公報
For this problem, Patent Document 1 proposes a video camera that determines whether or not the environment in which sound is collected is underwater and performs gain control and filtering according to the determination result. This video camera is provided with a pressure sensor and determines whether or not it is underwater based on the presence or absence of water pressure.
Japanese Patent Laid-Open No. 7-30790

しかしながら、圧力センサなどの特殊な装置を追加する構成とすると、電子機器が大型化するとともにコストが高くなる問題が生じる。特に、防水構造を備える必要があるために大型化している電子機器のさらなる大型化を招来してしまうことが問題となる。   However, when a special device such as a pressure sensor is added, there arises a problem that the electronic device is increased in size and cost is increased. In particular, there is a problem that an electronic device that has been increased in size due to the need to have a waterproof structure will be further increased in size.

さらに、圧力センサを用いる構成とすると、音声信号の記録時にしか水中か否かを判定することができない。そのため、音声信号に処理を行わずに記録した音声信号を再生する場合、音声信号が水中で集音されたものか否かを判定することが不可能となる。したがって、必要に応じて処理を施して再生するなどの動作を行うことができないことが問題となる。   Furthermore, if it is set as the structure using a pressure sensor, it can be determined whether it is underwater only at the time of recording of an audio | voice signal. For this reason, when reproducing an audio signal recorded without processing the audio signal, it is impossible to determine whether the audio signal is collected in water. Therefore, there is a problem that it is not possible to perform an operation such as processing and reproducing as necessary.

また、水中を伝播して集音された音は、水中における音の集音特性の影響で聞き取り難くなったり耳障りになったりする。そのため、この影響を効果的に低減するような音声補正処理が求められている。   In addition, the sound collected through propagation in the water becomes difficult to hear or is harsh due to the influence of the sound collection characteristics of the sound in the water. Therefore, there is a need for a sound correction process that effectively reduces this influence.

そこで、本発明は、小型化及び低コスト化を図るとともに、ユーザが意図する音声信号を効果的に得ることを可能とした音声処理装置や音声処理方法、音声処理装置を備えた電子機器を提供することを目的とする。   Therefore, the present invention provides an audio processing apparatus, an audio processing method, and an electronic apparatus including an audio processing apparatus that can achieve downsizing and cost reduction and can effectively obtain an audio signal intended by a user. The purpose is to do.

上記目的を達成するために、本発明における音声処理装置は、入力される音声信号の処理を行う音声処理装置において、入力される音声信号に基づいて、当該音声信号が水中で集音されたものであるか否かを判定する集音環境判定部と、水中の音の集音特性の影響を音声信号から低減させる水中特性補正処理を、入力される音声信号に施す水中特性補正部と、を備え、当該集音環境判定部で入力される音声信号が水中で集音されたものであると判定される場合に、前記水中特性補正部が、入力される音声信号に前記水中特性補正処理を施すことを特徴とする。   In order to achieve the above object, an audio processing apparatus according to the present invention is an audio processing apparatus for processing an input audio signal, wherein the audio signal is collected underwater based on the input audio signal. A sound collection environment determination unit that determines whether or not the sound signal is underwater, and an underwater characteristic correction unit that performs an underwater characteristic correction process for reducing the influence of the sound collection characteristic of the underwater sound from the audio signal. And when the sound signal input by the sound collection environment determination unit is determined to be collected in water, the underwater characteristic correction unit performs the underwater characteristic correction process on the input sound signal. It is characterized by giving.

また、上記構成の音声処理装置において、前記水中特性補正部が、入力される音声信号を減衰させる減衰部を備え、当該減衰部により音声信号の第1周波数以下の成分を減衰させる処理が、前記水中特性補正処理に含まれることとしても構わない。   Further, in the audio processing device having the above-described configuration, the underwater characteristic correction unit includes an attenuation unit that attenuates an input audio signal, and the process of attenuating a component having a frequency equal to or lower than the first frequency of the audio signal by the attenuation unit includes: It may be included in the underwater characteristic correction process.

このように構成すると、水中の音の集音特性によって強度が集中する音声信号の低周波帯域成分を低減することが可能となる。したがって、水中の音の集音特性の影響を低減し、ユーザの意図する音声信号に近づけることが可能となる。なお、第1周波数以下の成分を減衰させる処理には、上限を第1周波数とする所定の帯域の成分を減衰させる処理も含まれるものとする。   If comprised in this way, it will become possible to reduce the low frequency band component of the audio | voice signal where intensity | strength concentrates with the sound collection characteristic of the sound in water. Therefore, it is possible to reduce the influence of the sound collection characteristics of the underwater sound and bring it closer to the sound signal intended by the user. Note that the process of attenuating components below the first frequency includes a process of attenuating components in a predetermined band whose upper limit is the first frequency.

また、上記構成の音声処理装置において、前記水中特性補正部が、入力される音声信号を増幅させる増幅部を備え、当該増幅部により音声信号の第2周波数以上の成分を増幅させる処理が、前記水中特性補正処理に含まれることとしても構わない。   Further, in the audio processing device having the above-described configuration, the underwater characteristic correction unit includes an amplification unit that amplifies an input audio signal, and the amplification unit amplifies a component having a second frequency or higher of the audio signal. It may be included in the underwater characteristic correction process.

このように構成すると、水中の音の集音特性によって強度が減衰する音声信号の高周波帯域成分を増幅することが可能となる。したがって、水中の音の集音特性の影響を低減し、ユーザの意図する音声信号に近づけることが可能となる。なお、第2周波数以上の成分を増幅させる処理には、下限を第2周波数とする所定の帯域の成分を増幅させる処理も含まれるものとする。   If comprised in this way, it will become possible to amplify the high frequency band component of the audio | voice signal to which an intensity | strength attenuate | damps by the sound collection characteristic of the sound in water. Therefore, it is possible to reduce the influence of the sound collection characteristics of the underwater sound and bring it closer to the sound signal intended by the user. Note that the process of amplifying a component of the second frequency or higher includes a process of amplifying a component in a predetermined band whose lower limit is the second frequency.

また、上記構成の音声処理装置において、前記水中特性補正部が、入力される音声信号を平滑化する平滑部を備え、当該平滑部により音声信号を平滑化する処理が、前記水中特性補正処理に含まれることとしても構わない。   Further, in the audio processing device having the above-described configuration, the underwater characteristic correction unit includes a smoothing unit that smoothes the input audio signal, and the process of smoothing the audio signal by the smoothing unit is the underwater characteristic correction process. It may be included.

このように構成すると、水中の音の集音特性によって強調される擦り切れ音ノイズや、周波数軸方向や時間軸方向に現れるとともに強度が周囲より突出するノイズなど、を低減することが可能となる。したがって、水中の音の集音特性の影響を低減し、ユーザの意図する音声信号に近づけることが可能となる。   If comprised in this way, it becomes possible to reduce the fray noise emphasized by the sound collection characteristic of the underwater sound, noise that appears in the frequency axis direction and the time axis direction, and whose intensity protrudes from the surroundings. Therefore, it is possible to reduce the influence of the sound collection characteristics of the underwater sound and bring it closer to the sound signal intended by the user.

また、上記構成の音声処理装置において、入力される音声信号の強度を所定の時間単位で監視及び調整するAGC部をさらに備えるとともに、前記水中特性補正部が、前記AGC部の所定の時間の長さを制御するレスポンス速度制御部を備え、当該レスポンス速度制御部により前記AGC部の前記所定の時間の長さを短くする処理が、前記水中特性補正処理に含まれることとしても構わない。   The speech processing apparatus having the above configuration further includes an AGC unit that monitors and adjusts the intensity of the input audio signal in a predetermined time unit, and the underwater characteristic correction unit includes a predetermined length of time of the AGC unit. A response speed control unit for controlling the length, and a process of shortening the predetermined time length of the AGC unit by the response speed control unit may be included in the underwater characteristic correction process.

このように構成すると、水中の音の集音特性によって強調されるノイズに対して迅速に反応し、ノイズの強度を低減させることが可能となる。特に、クリックノイズのように突発的に発生するノイズに対しても迅速に対応し、強度を低減させることが可能となる。したがって、水中の音の集音特性の影響を低減し、ユーザの意図する音声信号に近づけることが可能となる。   If comprised in this way, it will react rapidly with respect to the noise emphasized by the sound collection characteristic of the sound in water, and it will become possible to reduce the intensity | strength of noise. In particular, it is possible to respond quickly to suddenly generated noise such as click noise, and to reduce the strength. Therefore, it is possible to reduce the influence of the sound collection characteristics of the underwater sound and bring it closer to the sound signal intended by the user.

また、上記構成の音声処理装置において、前記水中特性補正部が、入力される音声信号に所定の信号を合成する合成部を備え、当該合成部により前記所定の信号を音声信号に合成する処理が、前記水中特性補正処理に含まれることとしても構わない。   Further, in the audio processing device having the above-described configuration, the underwater characteristic correction unit includes a synthesis unit that synthesizes a predetermined signal with an input audio signal, and the synthesis unit synthesizes the predetermined signal with the audio signal. It may be included in the underwater characteristic correction process.

また、上記構成の音声処理装置において、前記水中特性補正部が、入力される音声信号の第3周波数以上かつ第4周波数以下の周波数の範囲の成分に基づいて、当該周波数の範囲以外の周波数の成分である他の成分を復元する復元部をさらに備え、前記復元部によって復元された前記他の成分が前記合成部により音声信号に合成される処理が、前記水中特性補正処理に含まれることとしても構わない。また、上記構成の音声処理装置において、前記他の周波数の成分が、前記第3周波数より周波数が小さい成分及び前記第4周波数より周波数が大きい成分の少なくとも一つの成分を含むこととしても構わない。   Further, in the audio processing device having the above-described configuration, the underwater characteristic correction unit may have a frequency other than the frequency range based on a component in a frequency range that is greater than or equal to the third frequency and less than or equal to the fourth frequency of the input audio signal. The underwater characteristic correction process includes a restoration unit that restores another component, which is a component, and the synthesis of the other component restored by the restoration unit into an audio signal by the synthesis unit. It doesn't matter. In the audio processing device having the above-described configuration, the other frequency component may include at least one of a component having a frequency lower than the third frequency and a component having a frequency higher than the fourth frequency.

このように構成すると、水中の音の集音特性の影響を受けにくい成分である第3周波数以上かつ第4周波数以下の成分に基づいて復元を行い、水中の音の集音特性の影響を受けやすい他の成分に対して、復元した他の成分を合成させることが可能となる。したがって、水中の音の集音特性の影響を低減し、ユーザの意図する音声信号に近づけることが可能となる。   If comprised in this way, it will restore | restore based on the component more than 3rd frequency and below 4th frequency which is a component which is hard to be influenced by the sound collection characteristic of underwater sound, and it will be influenced by the sound collection characteristic of underwater sound. It becomes possible to synthesize the restored other components with respect to the other components that are easy. Therefore, it is possible to reduce the influence of the sound collection characteristics of the underwater sound and bring it closer to the sound signal intended by the user.

また、上記構成の音声処理装置において、前記水中特性補正部が、前記合成部に供給されて合成される代替成分を供給する代替成分供給部をさらに備え、前記合成部により代替成分が音声信号に合成される処理が、前記水中特性補正処理に含まれることとしても構わない。   In the speech processing device having the above configuration, the underwater characteristic correction unit further includes an alternative component supply unit that supplies an alternative component that is supplied to the synthesis unit and synthesized, and the synthesis unit converts the alternative component into an audio signal. Processing to be combined may be included in the underwater characteristic correction processing.

このように構成すると、水中の音の集音特性の影響を受けやすい音声信号の成分に対して、任意の代替成分を合成させることが可能となる。したがって、水中の音の集音特性の影響を低減し、ユーザの意図する音声信号に近づけることが可能となる。   If comprised in this way, it will become possible to synthesize | combine arbitrary alternative components with respect to the component of the audio | voice signal which is easy to be influenced by the sound collection characteristic of the sound in water. Therefore, it is possible to reduce the influence of the sound collection characteristics of the underwater sound and bring it closer to the sound signal intended by the user.

また、上記構成の音声処理装置において、複数のチャネルの音声信号が入力されるとともに、入力される前記複数のチャネルの音声信号の中から最も強度が小さい音声信号を選択して出力する最小信号選択部をさらに備え、前記合成部により、当該最小信号選択部から出力される音声信号が、前記複数のチャネルの音声信号のそれぞれに合成される処理が、前記水中特性補正処理に含まれることとしても構わない。   In the audio processing apparatus having the above-described configuration, the minimum signal selection is performed such that the audio signals of a plurality of channels are input and the audio signal having the lowest intensity is selected and output from the input audio signals of the plurality of channels. A process in which the synthesis unit synthesizes an audio signal output from the minimum signal selection unit with each of the audio signals of the plurality of channels is included in the underwater characteristic correction process. I do not care.

このように構成すると、複数のマイクを用いて複数のチャネルの音声信号を集音する場合に、いずれかのマイクに強度が大きいノイズが発生したとしても、強度が最も小さい音声信号(即ち、強度が大きいノイズが含まれていないと見込まれる音声信号)をそれぞれのチャネルの音声信号に合成することができる。そのため、音声信号に含まれるノイズを低減することが可能となる。したがって、水中の音の集音特性の影響を低減し、ユーザの意図する音声信号に近づけることが可能となる。   With this configuration, when collecting sound signals of a plurality of channels using a plurality of microphones, even if a noise having a large intensity occurs in any of the microphones, the sound signal having the smallest intensity (that is, the intensity) Can be synthesized into the audio signals of the respective channels. Therefore, it is possible to reduce noise contained in the audio signal. Therefore, it is possible to reduce the influence of the sound collection characteristics of the underwater sound and bring it closer to the sound signal intended by the user.

また、本発明における電子機器は、集音して得た音声信号を補正する補正機能を備えた電子機器において、前記補正機能を実現する音声処理部として、上記のいずれかの音声処理装置を備えることを特徴とする。   An electronic device according to the present invention includes any one of the above-described audio processing devices as an audio processing unit that realizes the correction function in an electronic device having a correction function for correcting an audio signal obtained by collecting sound. It is characterized by that.

また、この電子機器が、画像信号を作成する撮像部をさらに備えた撮像装置であることとしても構わないし、入力される音声信号を再生する再生装置としても構わない。このように構成したとしても、上記の音声処理装置は、音声信号に基づいて水中で集音されたものであるか否かの判定を行うことができる。そのため、再生装置に搭載し、再生時に判定を行うことができる。   In addition, the electronic apparatus may be an imaging apparatus that further includes an imaging unit that creates an image signal, or may be a playback apparatus that plays back an input audio signal. Even if comprised in this way, said audio | voice processing apparatus can determine whether it is what was collected in water based on an audio | voice signal. Therefore, it can be installed in a playback device and can be determined during playback.

また、上記構成の電子機器において、自機器の動作を制御する制御部をさらに備えるとともに、前記音声処理部に備えられる前記水中特性補正部が、前記制御部が自機器を動作させる際に出力する制御情報に基づいて動作するとともに入力される音声信号の所定の周波数帯の成分を減衰させる所定信号減衰部を備え、当該所定信号減衰部により前記所定の周波数帯の成分を減衰させる処理が、前記水中特性補正処理に含まれることとしても構わない。   Moreover, in the electronic device having the above-described configuration, the electronic device further includes a control unit that controls the operation of the own device, and the underwater characteristic correction unit provided in the sound processing unit outputs when the control unit operates the own device. A process of operating based on the control information and attenuating a component of a predetermined frequency band of an input audio signal, and a process of attenuating the component of the predetermined frequency band by the predetermined signal attenuation unit, It may be included in the underwater characteristic correction process.

このように構成すると、水中の音の集音特性によって強調される所定の周波数帯のノイズ、特に、電子機器の動作に伴って発生する自己発生駆動音によるノイズを低減することが可能となる。さらに、ノイズが発生する場合にのみ音声信号の所定の周波数帯の成分を低減することが可能となる。したがって、水中の音の集音特性の影響を低減し、ユーザの意図する音声信号に近づけることが可能となる。   If comprised in this way, it will become possible to reduce the noise of the predetermined | prescribed frequency band emphasized by the sound collection characteristic of the sound in water, especially the noise by the self-generated drive sound which generate | occur | produces with operation | movement of an electronic device. Furthermore, it is possible to reduce the component of the predetermined frequency band of the audio signal only when noise is generated. Therefore, it is possible to reduce the influence of the sound collection characteristics of the underwater sound and bring it closer to the sound signal intended by the user.

また、本発明における音声処理方法は、入力される音声信号に基づいて、当該音声信号が水中で集音されたものであるか否かを判定する第1ステップと、当該第1ステップにおいて、入力される音声信号が水中で集音されたものであると判定される場合に、水中の音の集音特性の影響を音声信号から低減させる水中特性補正処理を、入力される音声信号に施す第2ステップと、を備えることを特徴とする。   The audio processing method according to the present invention includes a first step for determining whether or not the audio signal is collected in water based on the input audio signal, and input in the first step. When it is determined that the sound signal to be collected has been collected underwater, an underwater characteristic correction process for reducing the influence of the sound collection characteristic of the sound in water from the sound signal is performed on the input sound signal. Two steps.

本発明の構成とすることによって、入力される音声信号に基づいて音声信号の集音された環境を判定し、水中で集音された音声信号であると判定される場合に、水中の音の集音特性による影響を音声信号から低減させることが可能となる。したがって、水中で集音したとしても水中における音の集音特性の影響を低減することができるため、良好な音声信号を得ることが可能となる。即ち、ユーザの意図する音声信号に近づけることが可能となる。さらに、入力される音声信号に基づいて集音環境の判定を行うため、圧力センサ等の判定を行うための特殊な装置を設ける必要がなくなる。そのため、小型化及び低コスト化を図ることが可能となる。   With the configuration of the present invention, an environment in which an audio signal is collected is determined based on an input audio signal, and when it is determined that the audio signal is collected in water, It is possible to reduce the influence of the sound collection characteristic from the audio signal. Therefore, even if the sound is collected in water, it is possible to reduce the influence of the sound collection characteristics of the sound in water, so that a good audio signal can be obtained. That is, it is possible to approximate the audio signal intended by the user. Furthermore, since the sound collection environment is determined based on the input audio signal, it is not necessary to provide a special device for determining the pressure sensor or the like. Therefore, it is possible to reduce the size and cost.

以下、本発明における音声処理装置や、この音声処理装置を備える電子機器の実施形態について、図面を参照して説明する。また、最初に、音声処理装置を備える電子機器として、音声信号の記録とともに画像信号の記録も可能な撮像装置を例に挙げて説明する。   Hereinafter, embodiments of a sound processing device and an electronic apparatus including the sound processing device according to the present invention will be described with reference to the drawings. First, an imaging apparatus capable of recording an audio signal as well as an audio signal will be described as an example of an electronic apparatus including the audio processing apparatus.

<<撮像装置>>
(撮像装置の基本構成)
まず、撮像装置の基本構成について、図1に基づいて説明する。図1は、本発明の実施形態における撮像装置の基本構成について示すブロック図である。
<< Imaging device >>
(Basic configuration of imaging device)
First, the basic configuration of the imaging apparatus will be described with reference to FIG. FIG. 1 is a block diagram illustrating a basic configuration of an imaging apparatus according to an embodiment of the present invention.

図1に示すように、撮像装置1は、入射される光を電気信号に変換するCCD(Charge Coupled Devices)またはCMOS(Complementary Metal Oxide Semiconductor)センサなどの固体撮像素子から成るイメージセンサ2と、被写体の光学像をイメージセンサ2に結像させるとともに光量などの調整を行うレンズ部3と、を備える。また、図示していないが、レンズ部3にはズームレンズと、ズームレンズの焦点距離である光学ズーム倍率を変化させるモータと、が備えられる。   As shown in FIG. 1, an imaging apparatus 1 includes an image sensor 2 including a solid-state imaging device such as a CCD (Charge Coupled Devices) or a CMOS (Complementary Metal Oxide Semiconductor) sensor that converts incident light into an electrical signal, and a subject. And the lens unit 3 that adjusts the amount of light and the like. Although not shown, the lens unit 3 includes a zoom lens and a motor that changes an optical zoom magnification that is a focal length of the zoom lens.

さらに、撮像装置1は、イメージセンサ2から出力されるアナログ信号である画像信号をデジタル信号に変換するAFE(Analog Front End)4と、撮像装置1の前方の左右方向から入力される音声をそれぞれ独立して電気信号に変換するステレオマイク5と、AFE4から出力されるデジタル信号となる画像信号に対して階調補正処理などの各種画像処理を施す画像処理部6と、ステレオマイク5から出力されるアナログの音声信号をデジタル信号に変換するとともに音声補正処理を施す音声処理部7と、画像処理部6から出力される画像信号と音声処理部7から出力される音声信号のそれぞれに対してMPEG(Moving Picture Experts Group)圧縮方式などの動画用の圧縮符号化処理を施す圧縮処理部8と、圧縮処理部8で圧縮符号化された圧縮符号化信号を記録する外部メモリ9と、圧縮符号化信号を外部メモリ9に記録したり読み出したりするドライバ部10と、ドライバ部10において外部メモリ9から読み出した圧縮符号化信号を伸長して復号する伸長処理部11と、を備える。   Further, the imaging apparatus 1 has an AFE (Analog Front End) 4 that converts an image signal that is an analog signal output from the image sensor 2 into a digital signal, and audio that is input from the left and right directions in front of the imaging apparatus 1. A stereo microphone 5 that independently converts to an electric signal, an image processing unit 6 that performs various image processing such as gradation correction processing on an image signal that is a digital signal output from the AFE 4, and a stereo microphone 5 MPEG for each of an audio processing unit 7 that converts an analog audio signal to a digital signal and performs audio correction processing, an image signal output from the image processing unit 6 and an audio signal output from the audio processing unit 7 (Moving Picture Experts Group) A compression processing unit 8 that performs compression encoding processing for moving images such as a compression method, and a compression code that is compression encoded by the compression processing unit 8 An external memory 9 for recording signals, a driver unit 10 for recording and reading compressed encoded signals in the external memory 9, and a decompression for expanding and decoding the compressed encoded signals read from the external memory 9 in the driver unit 10 And a processing unit 11.

また、撮像装置1は、伸長処理部11で復号されて得られる画像信号をディスプレイなどの表示装置(不図示)で表示するためにアナログ信号に変換する画像出力回路部12と、伸長処理部11で復号されて得られる音声信号をスピーカなどの再生装置(不図示)で再生するためにアナログ信号に変換する音声出力回路部13と、を備える。   The imaging apparatus 1 also includes an image output circuit unit 12 that converts an image signal obtained by decoding by the expansion processing unit 11 into an analog signal for display on a display device (not shown) such as a display, and an expansion processing unit 11. And an audio output circuit unit 13 that converts an audio signal obtained by decoding into an analog signal for reproduction by a reproduction device (not shown) such as a speaker.

また、撮像装置1は、撮像装置1内全体の動作を制御するCPU(Central Processing Unit)14と、各処理を行うための各プログラムを記憶するとともにプログラム実行時のデータの一時保管を行うメモリ15と、撮像を開始するボタンや撮像条件などを調整するボタン等ユーザからの指示が入力される操作部16と、各部の動作タイミングを一致させるためのタイミング制御信号を出力するタイミングジェネレータ(TG)部17と、CPU14と各ブロックとの間でデータのやりとりを行うためのバス回線18と、メモリ15と各ブロックとの間でデータのやりとりを行うためのバス回線19と、を備える。   The imaging apparatus 1 also stores a CPU (Central Processing Unit) 14 that controls the overall operation of the imaging apparatus 1 and a memory 15 that stores each program for performing each process and temporarily stores data when the program is executed. And a timing generator (TG) unit that outputs a timing control signal for matching the operation timing of each unit, such as a button for starting imaging, a button for adjusting imaging conditions, etc. 17, a bus line 18 for exchanging data between the CPU 14 and each block, and a bus line 19 for exchanging data between the memory 15 and each block.

なお、外部メモリ9は画像信号や音声信号を記録することができればどのようなものでも構わない。例えば、SD(Secure Digital)カードのような半導体メモリ、DVDなどの光ディスク、ハードディスクなどの磁気ディスクなどをこの外部メモリ9として使用することができる。また、外部メモリ9を撮像装置1から着脱自在としても構わない。   The external memory 9 may be anything as long as it can record image signals and audio signals. For example, a semiconductor memory such as an SD (Secure Digital) card, an optical disk such as a DVD, a magnetic disk such as a hard disk, or the like can be used as the external memory 9. Further, the external memory 9 may be detachable from the imaging device 1.

(撮像装置の基本動作)
次に、撮像装置1の基本動作について図1を用いて説明する。まず、撮像装置1は、レンズ部3より入射される光をイメージセンサ2において光電変換することによって、電気信号である画像信号を取得する。そして、イメージセンサ2は、TG部17から入力されるタイミング制御信号に同期して、所定のフレーム周期(例えば、1/60秒)で順次AFE4に画像信号を出力する。
(Basic operation of the imaging device)
Next, the basic operation of the imaging apparatus 1 will be described with reference to FIG. First, the imaging device 1 acquires an image signal that is an electrical signal by photoelectrically converting light incident from the lens unit 3 in the image sensor 2. Then, the image sensor 2 sequentially outputs image signals to the AFE 4 in a predetermined frame period (for example, 1/60 seconds) in synchronization with the timing control signal input from the TG unit 17.

そして、AFE4によってアナログ信号からデジタル信号へと変換された画像信号は、画像処理部6に入力される。画像処理部6では、入力される画像信号を、輝度信号と色差信号とからなる画像信号に変換するとともに、階調補正や輪郭強調等の各種画像処理を施す。また、メモリ15はフレームメモリとして動作し、画像処理部6が処理を行なう際に画像信号を一時的に保持する。   Then, the image signal converted from the analog signal to the digital signal by the AFE 4 is input to the image processing unit 6. The image processing unit 6 converts the input image signal into an image signal composed of a luminance signal and a color difference signal, and performs various image processing such as gradation correction and contour enhancement. The memory 15 operates as a frame memory, and temporarily holds an image signal when the image processing unit 6 performs processing.

また、このとき画像処理部6に入力される画像信号に基づき、レンズ部3において、各種レンズの位置が調整されてフォーカスの調整が行われたり、絞りの開度が調整されて露出の調整が行われたりする。このフォーカスや露出の調整は、それぞれ最適な状態となるように所定のプログラムに基づいて自動的に行われたり、ユーザの指示に基づいて手動で行われたりする。   At this time, based on the image signal input to the image processing unit 6, the lens unit 3 adjusts the position of various lenses to adjust the focus, or adjusts the aperture and adjusts the exposure. It is done. This adjustment of focus and exposure is automatically performed based on a predetermined program so as to be in an optimum state, or manually performed based on a user instruction.

一方、ステレオマイク5において電気信号に変換される音声信号は、音声処理部7に入力される。音声処理部7は、入力される音声信号をデジタル信号に変換するとともにノイズ除去や音声信号の強度制御などの音声補正処理を施す。さらに、入力される音声信号が水中で集音されたものであるか否かを判定し、その判定結果に基づいて水中特性補正処理を施す。なお、音声処理部7の構成や水中特性補正処理の詳細については後述する。   On the other hand, an audio signal converted into an electrical signal in the stereo microphone 5 is input to the audio processing unit 7. The sound processing unit 7 converts an input sound signal into a digital signal and performs sound correction processing such as noise removal and sound signal intensity control. Further, it is determined whether or not the input audio signal is collected in water, and underwater characteristic correction processing is performed based on the determination result. Details of the configuration of the audio processing unit 7 and the underwater characteristic correction process will be described later.

そして、画像処理部6から出力される画像信号と、音声処理部7から出力される音声信号と、がともに圧縮処理部8に入力され、圧縮処理部8において所定の圧縮方式で圧縮される。このとき、画像信号と音声信号とが時間的に関連付けられ、再生時に画像と音とがずれないように構成される。そして、圧縮された画像信号及び音声信号はドライバ部10を介して外部メモリ9に記録される。   The image signal output from the image processing unit 6 and the audio signal output from the audio processing unit 7 are both input to the compression processing unit 8 and compressed by the compression processing unit 8 using a predetermined compression method. At this time, the image signal and the audio signal are associated with each other in time, and the image and the sound are not shifted during reproduction. The compressed image signal and audio signal are recorded in the external memory 9 via the driver unit 10.

また、音声のみを記録する場合であれば、音声信号が圧縮処理部8において所定の圧縮方法で圧縮され、外部メモリ9に記録されることとなる。   In the case of recording only audio, the audio signal is compressed by the compression processing unit 8 by a predetermined compression method and recorded in the external memory 9.

外部メモリ9に記録された圧縮符号化信号は、ユーザの指示に基づいて伸長処理部11に読み出される。伸長処理部11は、圧縮符号化信号を伸長及び復号し、画像信号及び音声信号を生成する。そして、画像信号を画像出力回路部12、音声信号を音声出力回路部13にそれぞれ出力する。そして、画像出力回路部12や音声出力回路部13において、表示装置やスピーカにおいて再生可能な形式に変換されて出力される。   The compressed encoded signal recorded in the external memory 9 is read out to the decompression processing unit 11 based on a user instruction. The decompression processing unit 11 decompresses and decodes the compressed encoded signal, and generates an image signal and an audio signal. The image signal is output to the image output circuit unit 12 and the audio signal is output to the audio output circuit unit 13. Then, in the image output circuit unit 12 and the audio output circuit unit 13, it is converted into a format that can be reproduced by a display device or a speaker and output.

なお、表示装置やスピーカは、撮像装置1と一体となっているものであっても構わないし、別体となっており撮像装置1に備えられる端子とケーブル等を用いて接続されるようなものであっても構わない。   The display device and the speaker may be integrated with the imaging device 1 or may be separated and connected to a terminal provided in the imaging device 1 with a cable or the like. It does not matter.

また、画像信号の記録を行わずに表示装置などに表示される画像をユーザが確認する、所謂プレビューモードである場合に、画像処理部6から出力される画像信号を圧縮せずに画像出力回路部12に出力することとしても構わない。また、画像信号を記録する際に、圧縮処理部8で圧縮して外部メモリ9に記録する動作と並行して、画像出力回路部12を介して表示装置などに画像信号を出力することとしても構わない。   Further, in a so-called preview mode in which the user confirms an image displayed on a display device or the like without recording an image signal, the image output circuit without compressing the image signal output from the image processing unit 6 It may be output to the unit 12. Further, when recording an image signal, the image signal may be output to a display device or the like via the image output circuit unit 12 in parallel with the operation of compressing the image signal by the compression processing unit 8 and recording the image signal in the external memory 9. I do not care.

(音声処理部の基本構成)
次に、図1に示した音声処理部7の基本構成について図面を参照して説明する。図2は、本発明の実施形態における撮像装置の音声処理部の基本構成について示すブロック図である。
(Basic configuration of the audio processing unit)
Next, the basic configuration of the audio processing unit 7 shown in FIG. 1 will be described with reference to the drawings. FIG. 2 is a block diagram illustrating the basic configuration of the audio processing unit of the imaging apparatus according to the embodiment of the present invention.

図2に示すように、音声処理部7は、図1のステレオマイク5から入力される2つの音声信号(Rch、Lch)をそれぞれデジタル信号に変換するA/D変換部71と、A/D変換部71から出力される2つの音声信号に基づいて集音環境を判定する集音環境判定部72と、A/D変換部71から出力される2つの音声信号が入力されるとともに集音環境判定部72の判定結果に基づいて入力される音声信号に水中特性補正処理を施す水中特性補正部73と、を備える。   As shown in FIG. 2, the audio processing unit 7 includes an A / D conversion unit 71 that converts two audio signals (Rch and Lch) input from the stereo microphone 5 of FIG. A sound collection environment determination unit 72 that determines a sound collection environment based on the two sound signals output from the conversion unit 71, and two sound signals output from the A / D conversion unit 71 and the sound collection environment An underwater characteristic correction unit 73 that performs underwater characteristic correction processing on an audio signal input based on the determination result of the determination unit 72.

集音環境判定部72は、入力される音声信号が水中で集音されたものであるか否かを判定し、判定結果を水中特性補正部73に出力する。そして、入力される音声信号が水中で集音されたものであると集音環境判定部72が判定する場合、水中特性補正部73は、水中における音の集音特性の影響を音声信号から低減させる水中特性補正処理を、入力される音声信号に施して出力する。一方、入力される音声信号が水中で集音されたものではないと集音環境判定部72が判定する場合、水中特性補正部73は、入力される音声信号に水中特性補正処理を施すことなく出力する。   The sound collection environment determination unit 72 determines whether or not the input audio signal is collected in water, and outputs the determination result to the underwater characteristic correction unit 73. When the sound collection environment determination unit 72 determines that the input sound signal is collected underwater, the underwater characteristic correction unit 73 reduces the influence of the sound collection characteristic of the sound underwater from the sound signal. The underwater characteristic correction process to be performed is applied to the input audio signal and output. On the other hand, when the sound collection environment determination unit 72 determines that the input audio signal is not collected underwater, the underwater characteristic correction unit 73 does not perform the underwater characteristic correction process on the input audio signal. Output.

以上のように構成することによって、水中で集音された音声信号に対して水中特性補正処理を施し、補正した音声信号を外部メモリ9に記録したりスピーカなどに出力したりすることが可能となる。したがって、ユーザの意図した音声信号を得ることが可能となる。   By configuring as described above, it is possible to perform underwater characteristic correction processing on an audio signal collected underwater and record the corrected audio signal in the external memory 9 or output it to a speaker or the like. Become. Therefore, an audio signal intended by the user can be obtained.

なお、集音環境判定部72が、入力される音声信号に基づいて集音された環境を判定する際に、その判定結果を撮像装置1に備えられるディスプレイに表示したり、表示用LED(Light Emitting Diode)を発光、点滅させたりして、ユーザに通知することとしても構わない。このように構成すると、正確に判定が行われていることをユーザに通知することが可能となる。   When the sound collection environment determination unit 72 determines the environment in which sound is collected based on the input audio signal, the determination result is displayed on a display provided in the imaging apparatus 1 or a display LED (Light Emitting Diode) may be emitted or flashed to notify the user. If comprised in this way, it will become possible to notify a user that determination is performed correctly.

また、ユーザが操作部16の操作によって、水中特性補正処理を行わない通常モードと、水中特性補正処理を行う水中モードと、を設定することができる構成としても構わない。この場合においても、集音環境が水中か否かを判定することとしても構わなく、判定結果と、設定されたモードと、のどちらかを優先させることとしても構わない。   The user may set a normal mode in which the underwater characteristic correction process is not performed and an underwater mode in which the underwater characteristic correction process is performed by the operation of the operation unit 16. Also in this case, it may be determined whether or not the sound collection environment is underwater, and either the determination result or the set mode may be prioritized.

また、音声信号に基づいて集音環境の判定を行い、音声信号に対して水中特性補正処理を施すものとしたが、音声信号に加えて(または音声信号に代えて)画像信号に対して水中特性補正処理を施すこととしても構わない。また、音声信号に加えて(または音声信号に代えて)画像信号に基づいて水中か否かの判定を行うこととしても構わない。例えば、水の光学特性(光吸収など)による影響を低減させる補正や、水の光学特性を利用した判定を行うこととしても構わない。   In addition, the sound collection environment is determined based on the audio signal and the underwater characteristic correction process is performed on the audio signal. However, in addition to the audio signal (or instead of the audio signal), the underwater characteristic correction process is performed on the image signal. A characteristic correction process may be performed. Further, in addition to the audio signal (or instead of the audio signal), it may be determined whether it is underwater based on the image signal. For example, correction for reducing the influence of optical characteristics (such as light absorption) of water or determination using the optical characteristics of water may be performed.

また、音声処理部7において、水中特性補正部73の他に、音声補正処理を行う処理部を備えることとしても構わない。また、この処理部が、水中で集音されたものではないと判定された音声信号に対して音声補正処理を施すものであっても構わないし、入力される全ての音声信号に対して音声補正処理を施すものであっても構わない。   In addition, the sound processing unit 7 may include a processing unit that performs sound correction processing in addition to the underwater characteristic correction unit 73. In addition, the processing unit may perform a sound correction process on a sound signal determined not to be collected in water, or sound correction may be performed on all input sound signals. Processing may be performed.

また、上述した基本構成は撮像装置1に関するものであるが、集音機能を備えた電子機器であれば、どのような電子機器にも適用することができる。例えば、撮像機能を備えず集音機能のみを備えたICレコーダなどにも適用することが可能である。この場合、画像信号を取得及び処理する部分を示すブロック(レンズ部3や、イメージセンサ2、画像処理部6、画像出力回路部12など)を備えないこととしても構わない。また、集音機能を備えず、入力される音声信号を再生する再生機能を備えた電子機器にも適用することができる。なお、この再生機能を備えた電子機器の詳細については後述する。   The basic configuration described above relates to the imaging apparatus 1, but can be applied to any electronic device as long as the electronic device has a sound collecting function. For example, the present invention can also be applied to an IC recorder or the like that is not provided with an imaging function but has only a sound collection function. In this case, the blocks (the lens unit 3, the image sensor 2, the image processing unit 6, the image output circuit unit 12, etc.) that indicate the part that acquires and processes the image signal may not be provided. Further, the present invention can also be applied to an electronic device that does not have a sound collection function but has a reproduction function for reproducing an input audio signal. Note that details of the electronic device having the reproduction function will be described later.

(集音環境判定部)
上述した集音環境判定部72及び水中特性補正部73のそれぞれの実施例について、以下に図面を参照してそれぞれ説明する。最初に、集音環境判定部72のそれぞれの実施例について説明し、その後に水中特性補正部73のそれぞれの実施例について説明する。また、以下の説明において、上述した基本構成と同様の部分については同じ符号を付し、その詳細な説明については省略する。
(Sound collection environment judgment part)
Examples of the above-described sound collection environment determination unit 72 and underwater characteristic correction unit 73 will be described below with reference to the drawings. First, each example of the sound collection environment determination unit 72 will be described, and then each example of the underwater characteristic correction unit 73 will be described. Moreover, in the following description, the same code | symbol is attached | subjected about the part similar to the basic composition mentioned above, and the detailed description is abbreviate | omitted.

<集音環境判定部の第1実施例>
最初に、図2に示した集音環境判定部72の第1実施例について図面を参照して説明する。図3は、本発明の実施形態における音声処理部に備えられる集音環境判定部の第1実施例について示すブロック図である。図3に示すように音声処理部7aは、A/D変換部71と、集音環境判定部72aと、水中特性補正部73と、を備える。
<First Example of Sound Collection Environment Determination Unit>
First, a first embodiment of the sound collection environment determination unit 72 shown in FIG. 2 will be described with reference to the drawings. FIG. 3 is a block diagram showing a first example of the sound collection environment determination unit provided in the sound processing unit according to the embodiment of the present invention. As shown in FIG. 3, the audio processing unit 7 a includes an A / D conversion unit 71, a sound collection environment determination unit 72 a, and an underwater characteristic correction unit 73.

また、集音環境判定部72aは、空気中で集音された音声信号の周波数特性と、水中で集音された音声信号の周波数特性と、の差異に基づいて、入力される音声信号が集音された環境を判定する周波数特性判定部721を備える。   The sound collection environment determination unit 72a collects the input sound signal based on the difference between the frequency characteristic of the sound signal collected in the air and the frequency characteristic of the sound signal collected in water. A frequency characteristic determination unit 721 for determining a sounded environment is provided.

ここで、周波数特性判定部721について図面を参照して説明する。図4は、空気中で集音された音声信号の周波数特性の一例を示すグラフであり、図5は、水中で集音された音声信号の周波数特性の一例を示すグラフである。図4及び図5に示すグラフでは、横軸を周波数、縦軸を利得(減衰量)として示す。   Here, the frequency characteristic determination unit 721 will be described with reference to the drawings. FIG. 4 is a graph showing an example of frequency characteristics of an audio signal collected in the air, and FIG. 5 is a graph showing an example of frequency characteristics of an audio signal collected in water. In the graphs shown in FIGS. 4 and 5, the horizontal axis represents frequency and the vertical axis represents gain (attenuation).

図4及び図5に示すように、水中で集音すると、空気中で集音する場合と比較して高周波帯域の減衰が大きく、低周波帯域に強度が集中することとなる。そこで、周波数特性判定部721はこの周波数特性の差異を利用して、集音環境判定部72aに入力される音声信号が水中で集音されたものであるか否かを判定する。   As shown in FIGS. 4 and 5, when sound is collected in water, attenuation in the high frequency band is larger than in the case where sound is collected in air, and intensity is concentrated in the low frequency band. Therefore, the frequency characteristic determination unit 721 determines whether or not the audio signal input to the sound collection environment determination unit 72a is collected in water using the difference in frequency characteristics.

この周波数特性判定部721によって集音環境判定部72aに入力される音声信号が水中で集音されたものであると判定される場合、水中特性補正部73が、入力される音声信号に水中特性補正処理を施して出力する。一方、水中で集音されたものではないと判定される場合には、水中特性補正部73が、入力される音声信号に水中特性補正処理を施すことなく出力する。   When it is determined by the frequency characteristic determination unit 721 that the audio signal input to the sound collection environment determination unit 72a is collected in water, the underwater characteristic correction unit 73 adds the underwater characteristic to the input audio signal. Perform correction processing and output. On the other hand, when it is determined that the sound is not collected underwater, the underwater characteristic correction unit 73 outputs the input audio signal without performing underwater characteristic correction processing.

集音環境判定部72aを本実施例のように構成すると、集音した音声信号に基づいて集音環境の判定を行うことが可能となる。そのため、集音環境を判定するための特別な装置や専用部品を用いずに集音環境の判定を行うことが可能となる。また、空気中と水中との周波数特性の差異が大きいために判定の高精度化を図ることが可能となり、誤判定を抑制することが可能となる。   If the sound collection environment determination unit 72a is configured as in the present embodiment, the sound collection environment can be determined based on the collected sound signal. Therefore, it is possible to determine the sound collection environment without using a special device or a dedicated part for determining the sound collection environment. Moreover, since the difference in frequency characteristics between the air and the water is large, it is possible to increase the accuracy of the determination, and it is possible to suppress erroneous determination.

なお、集音環境判定部72aが実行する判定方法を以下に示す方法としても構わない。本例の方法では、A/D変換部71から出力された二つの音声信号を対象として、低帯域(例えば、数十(70)Hz〜3kHz)、中帯域(例えば、6kHz〜9kHz)、高帯域(例えば、12kHz〜15kHz)の各帯域で信号レベルの平均値を算出する。なお、各帯域は上記具体例に限らず、各帯域相互の大小関係が正しければ問題ない。また、低帯域と中帯域が一部重複していてもよく、中帯域と高帯域が一部重複していてもよい。   The determination method executed by the sound collection environment determination unit 72a may be the following method. In the method of this example, two audio signals output from the A / D converter 71 are targeted, and a low band (for example, several tens (70) Hz to 3 kHz), a medium band (for example, 6 kHz to 9 kHz), and a high band. The average value of the signal level is calculated in each band (for example, 12 kHz to 15 kHz). Each band is not limited to the above specific example, and there is no problem as long as the magnitude relationship between the bands is correct. Further, the low band and the middle band may partially overlap, and the middle band and the high band may partially overlap.

その各帯域における信号レベルの平均値から算出することが可能な、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1、中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2、及び、高帯域に対する中帯域の信号レベル比(中帯域/高帯域)R3は、ステレオマイク5を空気中から水中に挿入し再び空気中に戻した場合図6に示すような時間変化を示す。図6中の期間T1及びT3はステレオマイク5が空気中に位置する期間であり図6中の期間T2はステレオマイク5が水中に位置する期間である。高帯域に対する中帯域の信号レベル比(中帯域/高帯域)R3は、空気中、水中に関係なく、ほぼ一定値である。これに対し、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2は、空気中では小さい値であるが、水中では集音感度が変化し、空気中の場合と比べて大幅に大きな値になる。   The signal level ratio of the low band to the high band (low band / high band) R1 and the signal level ratio of the low band to the medium band (low band / medium band) that can be calculated from the average value of the signal level in each band ) R2 and the signal level ratio (medium band / high band) R3 of the medium band to the high band change with time as shown in FIG. 6 when the stereo microphone 5 is inserted from the air into the water and returned to the air again. Indicates. Periods T1 and T3 in FIG. 6 are periods in which the stereo microphone 5 is located in the air, and periods T2 in FIG. 6 are periods in which the stereo microphone 5 is located in the water. The signal level ratio (medium band / high band) R3 of the medium band to the high band is a substantially constant value regardless of whether in the air or underwater. On the other hand, the low-band signal level ratio (low band / high band) R1 to the high band and the low-band signal level ratio (low band / middle band) R2 to the medium band are small values in the air. The sound collection sensitivity changes underwater, which is significantly larger than that in air.

このことを利用して、集音環境判定部72aは、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2を各帯域における信号レベルの平均値から算出し、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2が閾値以上に大きくなった場合に水中であると判定する。判定精度は劣ることになるが、中帯域における信号レベルの平均値及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2を算出せず、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1が閾値以上に大きくなった場合に水中であると判定すること、或いは、高帯域における信号レベルの平均値及び高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1を算出せず、中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2が閾値以上に大きくなった場合に水中であると判定することも可能である。   By utilizing this, the sound collection environment determination unit 72a uses a low-band signal level ratio (low band / high band) R1 to a high band and a low-band signal level ratio (low band / middle band) R2 to a medium band. Is calculated from the average value of the signal level in each band, and the signal level ratio of the low band to the high band (low band / high band) R1 and the signal level ratio of the low band to the medium band (low band / medium band) R2 are threshold values. When it becomes larger than the above, it is determined to be underwater. Although the determination accuracy is inferior, the average value of the signal level in the medium band and the signal level ratio of the low band to the medium band (low band / medium band) R2 are not calculated, and the signal level ratio of the low band to the high band ( Low band / high band) When R1 is greater than or equal to the threshold value, it is determined that the water is underwater, or the average value of the signal level in the high band and the signal level ratio of the low band to the high band (low band / high band) ) R1 is not calculated, and it is also possible to determine that it is underwater when the signal level ratio of the low band to the medium band (low band / medium band) R2 becomes larger than the threshold value.

なお、水中においても、気泡の音や筐体のこすれ音によって突発的なノイズが発生し、中帯域及び高帯域の信号レベルが瞬間的に大きくなり、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2が瞬間的に小さな値になる可能性がある。そのため、集音環境判定部72aが判定に使用する高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2は、一定時間において平均をとった値を用いることが望ましい。   Even underwater, sudden noise occurs due to the sound of bubbles and the rubbing sound of the housing, and the signal level of the middle band and the high band increases instantaneously, and the signal level ratio of the low band to the high band (low There is a possibility that the signal level ratio (low band / medium band) R2 of the low band with respect to the band (high band) R1 and the medium band instantaneously becomes a small value. Therefore, the low-band signal level ratio (low band / high band) R1 to the high band and the low-band signal level ratio (low band / middle band) R2 to the high band used by the sound collection environment determination unit 72a for determination are: It is desirable to use an average value over a certain period of time.

また、閾値に関しては、ヒステリシス特性を持たせ、空気中であると判定している間は閾値を高く、水中であると判定している間は閾値を低く設定することが望ましい。   Further, regarding the threshold value, it is desirable to provide a hysteresis characteristic and set the threshold value high while determining that it is in the air, and setting the threshold value low while determining that it is underwater.

<集音環境判定部の第2実施例>
次に、図2に示した集音環境判定部72の第2実施例について図面を参照して説明する。図7は、本発明の実施形態における音声処理部に備えられる集音環境判定部の第2実施例について示すブロック図である。図7に示すように、音声処理部7bは、A/D変換部71と、集音環境判定部72bと、水中特性補正部73と、を備える。
<Second Example of Sound Collection Environment Determination Unit>
Next, a second embodiment of the sound collection environment determination unit 72 shown in FIG. 2 will be described with reference to the drawings. FIG. 7 is a block diagram showing a second example of the sound collection environment determination unit provided in the sound processing unit according to the embodiment of the present invention. As shown in FIG. 7, the audio processing unit 7 b includes an A / D conversion unit 71, a sound collection environment determination unit 72 b, and an underwater characteristic correction unit 73.

また、集音環境判定部72bは、空気中で集音された音声信号の伝播特性と、水中で集音された音声信号の伝播特性と、の差異に基づいて、入力される音声信号が集音された環境を判定する伝播特性判定部722を備える。   The sound collection environment determination unit 72b collects the input sound signal based on the difference between the propagation characteristic of the sound signal collected in the air and the propagation characteristic of the sound signal collected in water. A propagation characteristic determining unit 722 is provided for determining a sounded environment.

伝播特性判定部722が判定に用いる音声信号の伝播特性として、例えば、音速の差異がある。空気中での音速は344m/s程度であり、水中での音速は1500m/s程度となる。本例ではこの音速の差異に基づいて集音環境を判定する。また、このように判定を行う場合、例えば、レンズ部3に備えられる光学ズーム倍率を変化させるモータの駆動音を用いることができる。このように判定を行う場合について以下に説明する。   As a propagation characteristic of the audio signal used for the determination by the propagation characteristic determination unit 722, for example, there is a difference in sound speed. The speed of sound in the air is about 344 m / s, and the speed of sound in water is about 1500 m / s. In this example, the sound collection environment is determined based on the difference in sound speed. Further, when making such a determination, for example, a driving sound of a motor that changes the optical zoom magnification provided in the lens unit 3 can be used. The case where determination is performed in this way will be described below.

CPU14は、モータ駆動制御信号をレンズ部3に備えられるモータに対して出力することで、モータの駆動を制御する。モータが駆動すると、図1に示す撮像装置1における駆動音(自己発生駆動音)としてステレオマイク5によって集音される。一方、CPU14はモータの駆動タイミングの時間管理を行い、その時間情報を集音環境判定部72bの伝播特性判定部722に出力する。伝播特性判定部722は、入力される音声信号に含まれる自己発生駆動音の集音時間と、モータの駆動タイミングに関する時間情報と、に基づいて自己発生駆動音の伝播速度を測定する。伝播特性判定部722は得られる伝播速度に基づいて、集音環境判定部72bに入力される音声信号が水中で集音されたものであるか否かを判定する。   The CPU 14 controls the drive of the motor by outputting a motor drive control signal to the motor provided in the lens unit 3. When the motor is driven, sound is collected by the stereo microphone 5 as drive sound (self-generated drive sound) in the imaging apparatus 1 shown in FIG. On the other hand, the CPU 14 performs time management of the motor drive timing, and outputs the time information to the propagation characteristic determination unit 722 of the sound collection environment determination unit 72b. The propagation characteristic determination unit 722 measures the propagation speed of the self-generated drive sound based on the sound collection time of the self-generated drive sound included in the input audio signal and the time information regarding the motor drive timing. Based on the obtained propagation speed, the propagation characteristic determination unit 722 determines whether or not the audio signal input to the sound collection environment determination unit 72b is collected in water.

この伝播特性判定部722によって集音環境判定部72bに入力される音声信号が水中で集音されたものであると判定される場合、水中特性補正部73が、入力される音声信号に水中特性補正処理を施して出力する。一方、水中で集音されたものではないと判定される場合には、水中特性補正部73が、入力された音声信号に水中特性補正処理を施すことなく出力する。   When it is determined by the propagation characteristic determination unit 722 that the audio signal input to the sound collection environment determination unit 72b is collected in water, the underwater characteristic correction unit 73 adds the underwater characteristic to the input audio signal. Perform correction processing and output. On the other hand, if it is determined that the sound is not collected underwater, the underwater characteristic correction unit 73 outputs the input audio signal without performing underwater characteristic correction processing.

集音環境判定部72bを本実施例のように構成すると、第1実施例と同様に集音した音声信号に基づいて集音環境の判定を行うことが可能となる。そのため、集音環境を判定するための特別な装置や専用部品を用いずに集音環境の判定を行うことが可能となる。また、自己発生駆動音を自己が集音することによって判定を行うことができるため、精度よく時間管理を行うことによって正確な判定を行うことが可能となる。   If the sound collection environment determination unit 72b is configured as in the present embodiment, the sound collection environment can be determined based on the collected sound signal as in the first embodiment. Therefore, it is possible to determine the sound collection environment without using a special device or a dedicated part for determining the sound collection environment. In addition, since the determination can be made by collecting the self-generated driving sound by itself, it is possible to make an accurate determination by accurately managing the time.

<集音環境判定部の第3実施例>
次に、図2に示した集音環境判定部72の第3実施例について図面を参照して説明する。図8は、本発明の実施形態における音声処理部に備えられる集音環境判定部の第3実施例について示すブロック図である。図8に示すように、音声処理部7cは、A/D変換部71と、集音環境判定部72cと、水中特性補正部73と、を備える。
<Third Example of Sound Collection Environment Determination Unit>
Next, a third embodiment of the sound collection environment determination unit 72 shown in FIG. 2 will be described with reference to the drawings. FIG. 8 is a block diagram showing a third example of the sound collection environment determination unit provided in the sound processing unit according to the embodiment of the present invention. As shown in FIG. 8, the audio processing unit 7 c includes an A / D conversion unit 71, a sound collection environment determination unit 72 c, and an underwater characteristic correction unit 73.

また、集音環境判定部72cは、入力される音声信号の集音環境を空気中及び水中における音声信号の周波数特性の差異に基づいて判定する第1判定部723と、入力される音声信号の集音環境を空気中及び水中における音声信号の伝播特性の差異に基づいて判定する第2判定部724と、第1判定部723と第2判定部724との判定結果に基づいて総合的な判定を行うとともに水中特性補正部73に判定結果を出力する総合判定部725と、を備える。   The sound collection environment determination unit 72c includes a first determination unit 723 that determines the sound collection environment of the input audio signal based on the difference in frequency characteristics of the audio signal in air and water, and the input audio signal Comprehensive determination based on the determination results of the second determination unit 724, the first determination unit 723, and the second determination unit 724 that determine the sound collection environment based on the difference in the propagation characteristics of the audio signal in the air and in the water And a comprehensive determination unit 725 that outputs a determination result to the underwater characteristic correction unit 73.

第1判定部723は、図3に示す周波数特性判定部721と同様に、空気中で集音された音声信号の周波数特性と、水中で集音された音声信号の周波数特性と、の差異を利用して判定を行う。また、第2判定部724は、図7に示す伝播特性判定部722と同様に、CPU14から入力される時間情報と、ステレオマイク5を介して入力される音声信号に含まれる自己発生駆動音の集音時間と、に基づいて伝播速度を測定し、これを利用して判定を行う。また、総合判定部725は、第1判定部723及び第2判定部724がともに音声信号が水中で集音されたものであると判定した場合にのみ、集音環境判定部72cに入力される音声信号が水中で集音されたものであると判定する。   Similar to the frequency characteristic determination unit 721 shown in FIG. 3, the first determination unit 723 determines the difference between the frequency characteristic of the audio signal collected in the air and the frequency characteristic of the audio signal collected in water. Make a judgment using it. Similarly to the propagation characteristic determination unit 722 shown in FIG. 7, the second determination unit 724 generates the time information input from the CPU 14 and the self-generated driving sound included in the audio signal input via the stereo microphone 5. The propagation velocity is measured based on the sound collection time, and the determination is made using this. The overall determination unit 725 is input to the sound collection environment determination unit 72c only when both the first determination unit 723 and the second determination unit 724 determine that the audio signal is collected in water. It is determined that the audio signal is collected underwater.

総合判定部725によって集音環境判定部72cに入力される音声信号が水中で集音されたものであると判定される場合、水中特性補正部73が、入力される音声信号に水中特性補正処理を施して出力する。また、第1判定部723及び第2判定部724が異なる判定をしたり、ともに水中で集音されたものでないと判定したりする場合には、水中特性補正部73が、入力される音声信号に水中特性補正処理を施さずに出力する。   When it is determined by the overall determination unit 725 that the audio signal input to the sound collection environment determination unit 72c is collected in water, the underwater characteristic correction unit 73 performs underwater characteristic correction processing on the input audio signal. To output. In addition, when the first determination unit 723 and the second determination unit 724 make different determinations or determine that both are not collected in water, the underwater characteristic correction unit 73 receives the input audio signal. Are output without underwater characteristics correction.

集音環境判定部72cを本実施例のように構成すると、第1及び第2実施例と同様に集音した音声信号に基づいて集音環境の判定を行うことが可能となる。そのため、集音環境を判定するための特別な装置や専用部品を用いずに集音環境の判定を行うことが可能となる。また、複数の判定方法に基づいて判定を行うことができるため、より正確に判定を行うことが可能となる。   When the sound collection environment determination unit 72c is configured as in the present embodiment, it is possible to determine the sound collection environment based on the collected sound signal as in the first and second embodiments. Therefore, it is possible to determine the sound collection environment without using a special device or a dedicated part for determining the sound collection environment. Moreover, since determination can be performed based on a plurality of determination methods, determination can be performed more accurately.

なお、第1判定部723及び第2判定部724における判定方法の組み合わせについては、上述した組み合わせに限るものではない。例えば、上述したような周波数特性または伝播特性に基づいた判定方法と、これ以外の他の判定方法であり入力される音声信号に基づいて判定する判定方法と、を組み合わせることとしても構わない。また、同様の判定方法を組み合わせても構わない。   In addition, about the combination of the determination method in the 1st determination part 723 and the 2nd determination part 724, it is not restricted to the combination mentioned above. For example, the determination method based on the frequency characteristic or the propagation characteristic as described above may be combined with a determination method that is another determination method that is determined based on an input audio signal. Moreover, you may combine the same determination method.

さらに、入力される音声信号に基づいて判定する判定方法と、入力される音声信号に基づかない判定方法(例えば、従来技術として記載した圧力センサなど)の組み合わせとすることも可能である。このように構成する場合、入力される音声信号に基づいて判定する判定方法を組み合わせた場合には及ばないが、圧力センサなどの専用部品を複数組み合わせて判定する場合と比較して、小型化及び低コスト化を図ることができる。即ち、判定の精度を高めることができるとともに、小型化及び低コスト化を図ることができる。   Furthermore, it is possible to use a combination of a determination method based on an input audio signal and a determination method that is not based on an input audio signal (for example, a pressure sensor described as the prior art). In the case of such a configuration, it is not possible to combine the determination method based on the input audio signal, but compared with the case of determining by combining a plurality of dedicated parts such as a pressure sensor, Cost reduction can be achieved. That is, it is possible to increase the accuracy of determination, and to reduce the size and cost.

また、本例では二つの判定部(第1判定部723及び第2判定部724)を備える構成について示しているが、判定部を2以上備える構成としても構わない。   In addition, in this example, a configuration including two determination units (a first determination unit 723 and a second determination unit 724) is illustrated, but a configuration including two or more determination units may be employed.

<集音環境判定部の第4実施例>
次に、図2に示した集音環境判定部72の第4実施例について図面を参照して説明する。図9は、本発明の実施形態における音声処理部に備えられる集音環境判定部の第4実施例について示すブロック図である。図9に示すように、音声処理部7dは、A/D変換部71と、集音環境判定部72dと、水中特性補正部73と、を備える。
<Fourth Example of Sound Collection Environment Determination Unit>
Next, a fourth embodiment of the sound collection environment determination unit 72 shown in FIG. 2 will be described with reference to the drawings. FIG. 9 is a block diagram showing a fourth example of the sound collection environment determination unit provided in the sound processing unit according to the embodiment of the present invention. As shown in FIG. 9, the sound processing unit 7 d includes an A / D conversion unit 71, a sound collection environment determination unit 72 d, and an underwater characteristic correction unit 73.

また、集音環境判定部72dは、入力される音声信号の集音環境を空気中及び水中における音声信号の伝播特性の差異に基づいて判定する伝播特性判定部726を備える。ただし、伝播特性判定部726は、図7に示す第2実施例の伝播特性判定部722や、図8に示す第3実施例の第2判定部724とは異なる方法で判定を行う。   The sound collection environment determination unit 72d includes a propagation characteristic determination unit 726 that determines the sound collection environment of the input sound signal based on the difference in the propagation characteristics of the sound signal in air and water. However, the propagation characteristic determination unit 726 performs determination using a method different from the propagation characteristic determination unit 722 of the second embodiment illustrated in FIG. 7 and the second determination unit 724 of the third embodiment illustrated in FIG. 8.

伝播特性判定部726の判定方法について、図10を用いて説明する。図10は、ステレオマイクの模式図である。図10に示すように、音源が発する音がステレオマイク5に集音される際に、マイク5Lとマイク5Rとの間に行路差dが生じる。そして、この行路差dに起因して到達時間の差(行路差dを音速で除算した値)が生じる。また、この到達時間の差が異なることにより、マイク5Rから入力される音声信号(Rch)とマイク5Lから入力される音声信号(Lch)との間に位相差が生じる。   A determination method of the propagation characteristic determination unit 726 will be described with reference to FIG. FIG. 10 is a schematic diagram of a stereo microphone. As shown in FIG. 10, when the sound emitted from the sound source is collected by the stereo microphone 5, a path difference d is generated between the microphone 5L and the microphone 5R. Then, due to this path difference d, a difference in arrival time (a value obtained by dividing the path difference d by the speed of sound) occurs. Further, the difference in arrival time causes a phase difference between the audio signal (Rch) input from the microphone 5R and the audio signal (Lch) input from the microphone 5L.

そして、上述したように空気中と水中とでは音速が異なる。そのため、音声信号(Rch)と音声信号(Lch)との間に生じる位相差が、空気中で集音された音声信号と水中で集音された音声信号とによって異なるものとなる。そこで、伝播特性判定部726はこの位相差の差異に基づいて、集音環境判定部72dに入力される音声信号が水中で集音されたものであるか否かを判定する。   As described above, the speed of sound differs between air and water. Therefore, the phase difference generated between the audio signal (Rch) and the audio signal (Lch) differs depending on the audio signal collected in the air and the audio signal collected in the water. Therefore, the propagation characteristic determination unit 726 determines whether the sound signal input to the sound collection environment determination unit 72d is collected in water based on the difference in phase difference.

伝播特性判定部726によって集音環境判定部72dに入力される音声信号が水中で集音されたものであると判定される場合、水中特性補正部73が、入力される音声信号に水中特性補正処理を施して出力する。一方、水中で集音されたものではないと判定される場合には、水中特性補正部73が、入力される音声信号に水中特性補正処理を施すことなく出力する。   When it is determined by the propagation characteristic determination unit 726 that the audio signal input to the sound collection environment determination unit 72d is collected in water, the underwater characteristic correction unit 73 corrects the underwater characteristic to the input audio signal. Process and output. On the other hand, when it is determined that the sound is not collected underwater, the underwater characteristic correction unit 73 outputs the input audio signal without performing underwater characteristic correction processing.

集音環境判定部72dを本実施例のように構成すると、第1〜第3実施例と同様に集音した音声信号に基づいて集音環境の判定を行うことが可能となる。そのため、集音環境を判定するための特別な装置や専用部品を用いずに集音環境の判定を行うことが可能となる。また、多チャネルのマイクアレイを使用し、2以上の複数のマイク間の位相差を得ることとすると、さらに判定の精度を向上させることが可能となる。   When the sound collection environment determination unit 72d is configured as in the present embodiment, it is possible to determine the sound collection environment based on the collected sound signal as in the first to third embodiments. Therefore, it is possible to determine the sound collection environment without using a special device or a dedicated part for determining the sound collection environment. If a multi-channel microphone array is used and a phase difference between two or more microphones is obtained, the accuracy of determination can be further improved.

なお、撮像装置1が発生させる音に対して判定を行うこととしても構わない。このように構成すると、音源とそれぞれのマイクとの位置とが固定されるために精度良く判定を行うことが可能となる。また、図8に示す第3実施例の集音環境判定部72cのように、他の判定方法と組み合わせることとしても構わない。   Note that the determination may be made on the sound generated by the imaging apparatus 1. If comprised in this way, since the position of a sound source and each microphone is fixed, it becomes possible to determine with sufficient precision. Further, it may be combined with other determination methods as in the sound collection environment determination unit 72c of the third embodiment shown in FIG.

<集音環境判定部の第5実施例>
次に、図2に示した集音環境判定部72の第5実施例について図面を参照して説明する。図11は、本発明の実施形態における音声処理部に備えられる集音環境判定部の第5実施例について示すブロック図である。図11に示すように、音声処理部7eは、A/D変換部71と、集音環境判定部72eと、水中特性補正部73と、を備える。
<Fifth Example of Sound Collection Environment Determination Unit>
Next, a fifth embodiment of the sound collection environment determination unit 72 shown in FIG. 2 will be described with reference to the drawings. FIG. 11 is a block diagram illustrating a fifth example of the sound collection environment determination unit provided in the sound processing unit according to the embodiment of the present invention. As shown in FIG. 11, the sound processing unit 7 e includes an A / D conversion unit 71, a sound collection environment determination unit 72 e, and an underwater characteristic correction unit 73.

また、集音環境判定部72eは、音声信号(Rch)における集音環境の判定を行うRch判定部727と、音声信号(Lch)における集音環境の判定を行うLch判定部728と、Rch判定部727とLch判定部728との判定結果に基づいて総合的な判定を行うとともに水中特性補正部73に判定結果を出力する総合判定部729と、を備える。   The sound collection environment determination unit 72e includes an Rch determination unit 727 that determines a sound collection environment in the audio signal (Rch), an Lch determination unit 728 that determines a sound collection environment in the audio signal (Lch), and an Rch determination. A comprehensive determination unit 729 that performs comprehensive determination based on the determination results of the unit 727 and the Lch determination unit 728 and outputs the determination result to the underwater characteristic correction unit 73.

Rch判定部727及びLch判定部728は、上述した実施例の周波数特性判定部721や、伝播特性判定部722などと同様のものとすることができる。また、総合判定部729は、Rch判定部727及びLch判定部728がともに水中で集音された音声信号であると判定した場合にのみ、集音環境判定部72eに入力される音声信号が水中で集音されたものであると判定する。   The Rch determination unit 727 and the Lch determination unit 728 can be the same as the frequency characteristic determination unit 721 and the propagation characteristic determination unit 722 of the above-described embodiment. Further, only when the Rch determination unit 727 and the Lch determination unit 728 determine that the overall determination unit 729 is an audio signal collected in water, the overall determination unit 729 receives the audio signal input to the sound collection environment determination unit 72e. It is determined that the sound is collected at.

総合判定部729によって集音環境判定部72eに入力される音声信号が水中で集音されたものであると判定される場合、水中特性補正部73が、入力される音声信号に水中特性補正処理を施して出力する。また、Rch判定部727及びLch判定部728が異なる判定をしたり、ともに水中で集音されたものでないと判定したりする場合には、水中特性補正部73が、入力される音声信号に水中特性補正処理を施さずに出力する。   When the overall determination unit 729 determines that the audio signal input to the sound collection environment determination unit 72e is collected in water, the underwater characteristic correction unit 73 performs underwater characteristic correction processing on the input audio signal. To output. In addition, when the Rch determination unit 727 and the Lch determination unit 728 make different determinations or determine that both are not collected in water, the underwater characteristic correction unit 73 adds an underwater characteristic to the input audio signal. Output without performing characteristic correction processing.

さらに、総合判定部729は、Rch判定部727及びLch判定部728の判定結果が異なる場合、ユーザにその旨を通知するために警告信号を出力する。この警告信号は、例えば、撮像装置1に備えられるディスプレイなどの表示装置に「集音環境判定エラー」等の文字情報を表示するものであっても構わないし、撮像装置1に警告用の表示用LEDを備えるとともにこれを点灯させて通知しても構わない。   Furthermore, when the determination results of the Rch determination unit 727 and the Lch determination unit 728 are different, the overall determination unit 729 outputs a warning signal to notify the user to that effect. For example, the warning signal may be used to display character information such as “sound collection environment determination error” on a display device such as a display provided in the imaging device 1. It may be provided with an LED and lighted up for notification.

このような警告信号を出力してユーザに通知することとすると、例えば、撮像装置1を水中から空気中に移動させる際に、ステレオマイク5の一方のマイクの水切れが不十分である場合が発生したとしても、そのことをユーザに対して通知することができる。これにより、ユーザは集音環境判定が適切に行われていることを確認することができる。また、水切りが不十分なマイクが存在することをユーザに通知することが可能となるため、それぞれのマイクが、異なる集音環境で音声を継続して集音することを抑制することが可能となる。   If such a warning signal is output and notified to the user, for example, when the imaging device 1 is moved from the water to the air, there is a case where one of the microphones of the stereo microphone 5 is insufficiently drained. Even if it does, it can be notified to the user. Thereby, the user can confirm that sound collection environment determination is performed appropriately. In addition, since it is possible to notify the user that there is a microphone with insufficient draining, it is possible to suppress that each microphone continuously collects sound in different sound collection environments. Become.

また、集音環境判定部72eを本実施例のように構成すると、第1〜第4実施例と同様に集音した音声信号に基づいて集音環境の判定を行うことが可能となる。そのため、集音環境を判定するための特別な装置や専用部品を用いずに集音環境の判定を行うことが可能となる。   If the sound collection environment determination unit 72e is configured as in the present embodiment, it is possible to determine the sound collection environment based on the collected sound signal as in the first to fourth embodiments. Therefore, it is possible to determine the sound collection environment without using a special device or a dedicated part for determining the sound collection environment.

なお、第1〜第5実施例の集音環境判定部72a〜72eにおいて、多チャネルのマイクアレイ(例えば、5.1chサラウンド録音対応マイク)を用いることとして、複数のマイクから入力されるそれぞれの音声信号に基づいて判定を行うこととしても構わない。また、所定のマイクから入力される音声信号に基づいて判定を行うこととしても構わない。ただし、第4実施例及び第5実施例の集音環境判定部72d,72eは、少なくとも二つのマイクから入力される音声信号に基づいて判定を行うこととする。   In addition, in the sound collection environment determination units 72a to 72e of the first to fifth embodiments, a multi-channel microphone array (for example, a 5.1ch surround recording compatible microphone) is used, and each of the input from a plurality of microphones is used. The determination may be made based on the audio signal. Further, the determination may be made based on an audio signal input from a predetermined microphone. However, the sound collection environment determination units 72d and 72e of the fourth embodiment and the fifth embodiment perform determination based on audio signals input from at least two microphones.

また、第1〜第3実施例の集音環境判定部72a〜72cについて、一つのチャネルのマイクから入力される音声信号に基づいて判定を行うこととしても構わなく、モノラルマイクを用いることとしても構わない。   In addition, the sound collection environment determination units 72a to 72c of the first to third embodiments may be determined based on an audio signal input from one channel microphone, or may be a monaural microphone. I do not care.

また、第2及び第3実施例の集音環境判定部72b,72cのように自己発生駆動音を利用して判定を行う場合について、レンズ部3に備えられるモータの駆動音を利用する場合を例に挙げて説明したが、他の音を利用しても構わない。   Further, in the case where the determination is made using the self-generated drive sound as in the sound collection environment determination units 72b and 72c of the second and third embodiments, the drive sound of the motor provided in the lens unit 3 is used. Although described as an example, other sounds may be used.

(水中特性補正部)
以下において、図2に示した水中特性補正部73のそれぞれの実施例について図面を参照して説明する。なお、以下では簡単のため、ステレオマイク5で集音される音声信号をチャネルの区別なく1つの音声信号としてまとめて記載するが、水中特性補正処置部73による水中特性補正処理がチャネル毎に施されることとしても構わない。
(Underwater characteristic correction unit)
Hereinafter, each example of the underwater characteristic correction unit 73 shown in FIG. 2 will be described with reference to the drawings. In the following, for the sake of simplicity, the audio signals collected by the stereo microphone 5 are collectively described as one audio signal without distinguishing the channels, but underwater characteristic correction processing by the underwater characteristic correction processing unit 73 is performed for each channel. It does not matter if it is done.

<水中特性補正部の第1実施例>
最初に、図2に示した水中特性補正部73の第1実施例について図面を参照して説明する。図12は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第1実施例について示すブロック図である。図12に示すように、音声処理部7fは、A/D変換部71と、集音環境判定部72と、水中特性補正部73aと、を備える。
<First Example of Underwater Characteristic Correction Unit>
First, a first embodiment of the underwater characteristic correction unit 73 shown in FIG. 2 will be described with reference to the drawings. FIG. 12 is a block diagram illustrating a first example of the underwater characteristic correction unit provided in the sound processing unit according to the embodiment of the present invention. As shown in FIG. 12, the audio processing unit 7f includes an A / D conversion unit 71, a sound collection environment determination unit 72, and an underwater characteristic correction unit 73a.

また、水中特性補正部73aは、入力される音声信号中の所定の周波数以下となる低周波帯域成分を抽出して出力するLPF(Low Pass Filter)7301と、入力される音声信号中の所定の周波数以上となる高周波帯域成分を抽出して出力するHPF(High Pass Filter)7302と、集音環境判定部72の判定結果に基づいてLPF7301から出力される低周波帯域成分を減衰させる減衰部7303と、減衰部7303から出力される低周波帯域成分とHPF7302から出力される高周波帯域成分とを合成して音声信号を出力する合成部7304と、を備える。   The underwater characteristic correction unit 73a also extracts an LPF (Low Pass Filter) 7301 that extracts and outputs a low frequency band component that is equal to or lower than a predetermined frequency in the input audio signal, and a predetermined frequency in the input audio signal. An HPF (High Pass Filter) 7302 that extracts and outputs a high frequency band component that is equal to or higher than the frequency, an attenuation unit 7303 that attenuates a low frequency band component output from the LPF 7301 based on the determination result of the sound collection environment determination unit 72, and A synthesizing unit 7304 for synthesizing the low frequency band component output from the attenuating unit 7303 and the high frequency band component output from the HPF 7302 to output an audio signal.

集音環境判定部72は、上述したような方法で、入力される音声信号が水中で集音されたものであるか否かを判定する。一方、水中特性補正部73aは、LPF7301において入力される音声信号の低周波帯域成分を抽出するとともに、HPF7302において入力される音声信号の高周波帯域成分を抽出する。減衰部7303は、入力される音声信号が水中で集音されたものであると集音環境判定部72が判定する場合に、LPF7301から出力される低周波帯域成分の減衰を行う。また、入力される音声信号が水中で集音されたものではないと集音環境判定部72が判定する場合は、低周波帯域成分を減衰せずに出力する。そして、合成部7304において低周波帯域成分と高周波帯域成分とを合成して音声信号を出力する。   The sound collection environment determination unit 72 determines whether or not the input audio signal is collected in water by the method described above. On the other hand, the underwater characteristic correction unit 73 a extracts a low frequency band component of the audio signal input in the LPF 7301 and extracts a high frequency band component of the audio signal input in the HPF 7302. The attenuation unit 7303 attenuates the low frequency band component output from the LPF 7301 when the sound collection environment determination unit 72 determines that the input audio signal is collected in water. When the sound collection environment determination unit 72 determines that the input audio signal is not collected in water, the low frequency band component is output without being attenuated. Then, the synthesis unit 7304 synthesizes the low frequency band component and the high frequency band component and outputs an audio signal.

図4及び図5に示したように、空気中で集音された音声信号の周波数特性と、水中で集音された音声信号の周波数特性と、は異なる。特に、水中で集音される音声信号は、空気中で集音される音声信号と比較して低周波帯域に強度が集中する。そのため、再生時に非常に聞き取り難くなったり耳障りになったりするなどして、ユーザの意図する音声信号とかけ離れたものとなる場合がある。   As shown in FIGS. 4 and 5, the frequency characteristic of the sound signal collected in the air is different from the frequency characteristic of the sound signal collected in the water. In particular, the intensity of an audio signal collected in water is concentrated in a low frequency band as compared to an audio signal collected in air. For this reason, it may be very difficult to hear at the time of reproduction, or it may become annoying, and may be far from the audio signal intended by the user.

しかしながら、本実施例のように水中特性補正部73aを構成すると、水中で集音された音声信号の低周波帯域成分を減衰させることができる。したがって、水中で集音された音声信号から、水中の音の集音特性による影響を低減することが可能となる。即ち、効果的にユーザの意図する音声信号に近づけることが可能となる。   However, when the underwater characteristic correction unit 73a is configured as in the present embodiment, it is possible to attenuate the low frequency band component of the audio signal collected in water. Therefore, it is possible to reduce the influence of the sound collection characteristics of the sound in water from the sound signal collected in water. That is, it is possible to effectively approximate the audio signal intended by the user.

なお、LPF7301及びHPF7302のカットオフ周波数をある周波数λ1としても構わない。また、周波数λ1を例えば2kHzとしても構わない。また、減衰部7303による利得の減衰量を、例えば20dBとしても構わない。 Note that the cutoff frequency of the LPF 7301 and the HPF 7302 may be set to a certain frequency λ 1 . Further, the frequency λ 1 may be set to 2 kHz, for example. In addition, the amount of gain attenuation by the attenuation unit 7303 may be set to 20 dB, for example.

また、本例ではLPF7301、HPF7302を用いて、周波数λ1以下の成分を全て減衰させる構成としたが、所定の周波数帯の成分を減衰させる構成としても構わない。このような構成とするために、例えば、LPF7301を、上限の周波数λ1、下限の周波数λaとした周波数帯の成分を通過させるBPF(Band Pass Filter)に置き換え、このBPFを通過した成分を減衰部7303で減衰させる構成としても構わない。さらにこの場合、例えば、HPF7302を、周波数λ1以上及び周波数λa以下の成分を通過させるBEF(Band Elimination Filter)に置き換えても構わない。 In this example, the LPF 7301 and the HPF 7302 are used to attenuate all components having a frequency of λ 1 or less, but a configuration in which components in a predetermined frequency band are attenuated may be used. In order to achieve such a configuration, for example, the LPF 7301 is replaced with a BPF (Band Pass Filter) that passes a component of a frequency band having an upper limit frequency λ 1 and a lower limit frequency λ a, and the component that has passed this BPF A configuration in which the attenuation unit 7303 attenuates may be used. Further, in this case, for example, the HPF 7302 may be replaced with a BEF (Band Elimination Filter) that passes components having a frequency of λ 1 or more and a frequency λ a or less.

<水中特性補正部の第2実施例>
次に、図2に示した水中特性補正部73の第2実施例について図面を参照して説明する。図13は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第2実施例について示すブロック図である。図13に示すように、音声処理部7gは、A/D変換部71と、集音環境判定部72と、水中特性補正部73bと、を備える。
<Second Example of Underwater Characteristic Correction Unit>
Next, a second embodiment of the underwater characteristic correction unit 73 shown in FIG. 2 will be described with reference to the drawings. FIG. 13 is a block diagram illustrating a second example of the underwater characteristic correction unit provided in the sound processing unit according to the embodiment of the present invention. As shown in FIG. 13, the audio processing unit 7g includes an A / D conversion unit 71, a sound collection environment determination unit 72, and an underwater characteristic correction unit 73b.

また、水中特性補正部73bは、入力される音声信号中の所定の周波数以下となる低周波帯域成分を抽出して出力するLPF7305と、入力される音声信号中の所定の周波数以上となる高周波帯域成分を抽出して出力するHPF7306と、集音環境判定部72の判定結果に基づいてHPF7306から出力される高周波帯域成分を増幅させる増幅部7307と、増幅部7307から出力される高周波帯域成分とLPF7305から出力される低周波帯域成分とを合成して音声信号を出力する合成部7308と、を備える。   The underwater characteristic correction unit 73b extracts an LPF 7305 that extracts and outputs a low frequency band component that is equal to or lower than a predetermined frequency in the input audio signal, and a high frequency band that is equal to or higher than the predetermined frequency in the input audio signal. The HPF 7306 that extracts and outputs the components, the amplifying unit 7307 that amplifies the high frequency band component output from the HPF 7306 based on the determination result of the sound collection environment determining unit 72, the high frequency band component that is output from the amplifying unit 7307, and the LPF 7305 And a synthesizing unit 7308 that synthesizes the low frequency band component output from the synthesizer and outputs an audio signal.

集音環境判定部72は、上述したような方法で、入力される音声信号が水中で集音されたものであるか否かを判定する。一方、水中特性補正部73bは、LPF7305において入力される音声信号の低周波帯域成分を抽出するとともに、HPF7306において入力される音声信号の高周波帯域成分を抽出する。そして、増幅部7307は、入力される音声信号が水中で集音されたものであると集音環境判定部72が判定する場合に、HPF7306から出力される高周波帯域成分の増幅を行う。また、入力される音声信号が水中で集音されたものであると集音環境判定部72が判定しない場合は、高周波帯域成分を増幅せずに出力する。そして、合成部7308において低周波帯域成分及び高周波帯域成分を合成して音声信号を出力する。   The sound collection environment determination unit 72 determines whether or not the input audio signal is collected in water by the method described above. On the other hand, the underwater characteristic correction unit 73b extracts the low frequency band component of the audio signal input in the LPF 7305 and extracts the high frequency band component of the audio signal input in the HPF 7306. The amplification unit 7307 then amplifies the high frequency band component output from the HPF 7306 when the sound collection environment determination unit 72 determines that the input audio signal is collected in water. Further, when the sound collection environment determination unit 72 does not determine that the input audio signal is collected in water, the high frequency band component is output without being amplified. Then, the synthesis unit 7308 synthesizes the low frequency band component and the high frequency band component and outputs an audio signal.

上述したように、空気中で集音された音声信号の周波数特性と、水中で集音された音声信号の周波数特性と、は異なる。特に、水中で集音される音声信号は、空気中で集音される音声信号と比較して高周波帯域が大きく減衰する。そのため、再生時に非常に聞き取り難くなったり耳障りになったりするなどして、ユーザの意図する音声信号とかけ離れたものとなる場合がある。   As described above, the frequency characteristic of an audio signal collected in air is different from the frequency characteristic of an audio signal collected in water. In particular, an audio signal collected in water has a high attenuation in the high frequency band compared to an audio signal collected in air. For this reason, it may be very difficult to hear at the time of reproduction, or it may become annoying, and may be far from the audio signal intended by the user.

しかしながら、水中特性補正部73bを本実施例のように構成すると、水中で集音された音声信号の高周波帯域成分を増幅させることができる。したがって、水中で集音された音声信号から、水中の音の集音特性による影響を低減することが可能となる。即ち、効果的にユーザの意図する音声信号に近づけることが可能となる。   However, if the underwater characteristic correction unit 73b is configured as in the present embodiment, it is possible to amplify the high frequency band component of the audio signal collected in water. Therefore, it is possible to reduce the influence of the sound collection characteristics of the sound in water from the sound signal collected in water. That is, it is possible to effectively approximate the audio signal intended by the user.

なお、LPF7305及びHPF7306のカットオフ周波数をある周波数λ2としても構わない。また、周波数λ2を例えば4kHzとしても構わない。また、増幅部7307による利得の増幅量を、例えば15dBとしても構わない。 Note that the cutoff frequency of the LPF 7305 and the HPF 7306 may be a certain frequency λ 2 . Further, the frequency λ 2 may be set to 4 kHz, for example. Further, the gain amplification amount by the amplifying unit 7307 may be set to 15 dB, for example.

また、本例ではLPF7305、HPF7306を用いて、周波数λ2以上の成分を全て増幅させる構成としたが、所定の周波数帯の成分を増幅させる構成としても構わない。例えば、HPF7306を、下限の周波数λ2、上限の周波数λbとした周波数帯の成分を通過させるBPFに置き換え、このBPFを通過した成分を増幅部7307で増幅させる構成としても構わない。さらにこの場合、例えば、LPF7305を、周波数λ2以上及び周波数λb以下の成分を通過させるBEFに置き換えても構わない。 In this example, the LPF 7305 and the HPF 7306 are used to amplify all components having a frequency of λ 2 or more. However, a configuration in which components in a predetermined frequency band are amplified may be used. For example, the HPF 7306 may be replaced with a BPF that passes a component of a frequency band having a lower limit frequency λ 2 and an upper limit frequency λ b, and the amplification unit 7307 may amplify the component that has passed this BPF. Further, in this case, for example, the LPF 7305 may be replaced with a BEF that passes components having a frequency of λ 2 or more and a frequency λ b or less.

<水中特性補正部の第3実施例>
次に、図2に示した水中特性補正部73の第3実施例について図面を参照して説明する。図14は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第3実施例について示すブロック図である。図14に示すように、音声処理部7hは、A/D変換部71と、集音環境判定部72と、水中特性補正部73cと、を備える。
<Third Example of Underwater Characteristic Correction Unit>
Next, a third embodiment of the underwater characteristic correction unit 73 shown in FIG. 2 will be described with reference to the drawings. FIG. 14 is a block diagram showing a third example of the underwater characteristic correction unit provided in the sound processing unit according to the embodiment of the present invention. As shown in FIG. 14, the sound processing unit 7h includes an A / D conversion unit 71, a sound collection environment determination unit 72, and an underwater characteristic correction unit 73c.

また、水中特性補正部73cは、集音環境判定部72の判定結果とCPU14から出力される制御情報とに基づいて、入力される音声信号中の所定の周波数帯の成分を減衰させる所定信号減衰部7309を備える。なお、この所定信号減衰部7309に、例えば、ノッチフィルタなどの所定の周波数帯の成分を減衰させるフィルタなどを備えても構わない。   Further, the underwater characteristic correction unit 73c attenuates a predetermined signal band that attenuates a component of a predetermined frequency band in the input audio signal based on the determination result of the sound collection environment determination unit 72 and the control information output from the CPU 14. Part 7309. The predetermined signal attenuating unit 7309 may be provided with a filter that attenuates components in a predetermined frequency band such as a notch filter.

集音環境判定部72は、上述したような方法で、入力される音声信号が水中で集音されたものであるか否かを判定して所定信号減衰部7309に入力する。また、CPU14は、上述したレンズ部3の光学ズーム倍率を変化させるモータを駆動させるモータ駆動制御信号をレンズ部3に出力するとともに、その駆動情報を示す制御情報を所定信号減衰部7309に出力する。所定信号減衰部7309は、制御情報に基づいてレンズ部3のモータの駆動を検知する。   The sound collection environment determination unit 72 determines whether or not the input sound signal is collected in water by the method described above, and inputs the sound signal to the predetermined signal attenuation unit 7309. Further, the CPU 14 outputs a motor drive control signal for driving the motor that changes the optical zoom magnification of the lens unit 3 described above to the lens unit 3, and outputs control information indicating the drive information to the predetermined signal attenuating unit 7309. . The predetermined signal attenuation unit 7309 detects the driving of the motor of the lens unit 3 based on the control information.

そして、入力される音声信号が水中で集音されたものであると集音環境判定部72が判定するとともに、モータが駆動していることを示す制御情報がCPU14から出力された場合に所定信号減衰部7309が動作し、入力される音声信号の所定の周波数帯の成分を減衰させる。   Then, the sound collection environment determination unit 72 determines that the input audio signal is collected underwater, and a predetermined signal when control information indicating that the motor is driven is output from the CPU 14. The attenuator 7309 operates and attenuates a component of a predetermined frequency band of the input audio signal.

水中特性補正部73cを本実施例のように構成すると、例えばモータなどを駆動させる際に発生する自己発生駆動音ノイズを減衰させることが可能となる。この自己発生駆動音ノイズについて図15に示す。図15は、水中で集音された音声信号に含まれる自己発生駆動音ノイズについて示したグラフである。また図15は図4及び図5と同様のグラフであり、低周波帯域を拡大して示したものである。   If the underwater characteristic correction unit 73c is configured as in the present embodiment, it is possible to attenuate self-generated driving noise generated when, for example, a motor is driven. This self-generated driving sound noise is shown in FIG. FIG. 15 is a graph showing self-generated driving sound noise included in an audio signal collected in water. FIG. 15 is a graph similar to FIG. 4 and FIG. 5 and shows the low frequency band in an enlarged manner.

図15には、自己発生駆動音ノイズ(図中の破線で囲まれた部分)が0.5kHzを中心として発生する場合について示している。このような自己発生駆動音ノイズの周波数は撮像装置1に用いる装置によって決まるため、予めどのような周波数帯に自己発生駆動音ノイズが発生するかを知ることができる。したがって、その周波数帯の成分(図15の場合、0.5kHz周辺の信号)を減衰させるように所定信号減衰部7309を設定することにより、自己発生駆動音ノイズを減衰させることが可能となる。   FIG. 15 shows a case where self-generated driving noise (portion surrounded by a broken line in the figure) is generated around 0.5 kHz. The frequency of the self-generated drive sound like noise because, depending on the device used in the imaging apparatus 1, the self-generating drive sound noise can know generated in advance what frequency band. Therefore, by setting the predetermined signal attenuating unit 7309 to attenuate the frequency band component (in the case of FIG. 15, a signal around 0.5 kHz), the self-generated driving sound noise can be attenuated.

特に、水中で集音すると自己発生駆動音ノイズなどのノイズ信号に対する集音感度が高くなり、強調され易くなる。そのため、空気中で集音する場合には自己発生駆動音ノイズが耳障りにならないが、水中で集音した場合には耳障りになるということが生じる。   In particular, when sound is collected in water, the sound collection sensitivity to noise signals such as self-generated drive sound noise is increased and the sound is easily emphasized. For this reason, the self-generated driving sound noise does not become harsh when collecting sound in the air, but it becomes harsh when sound is collected in water.

しかしながら、本実施例のように、水中で集音した音声信号と判定される場合に自己発生駆動音ノイズを減衰させることとすると、強調されやすいノイズ信号を効果的に低減することが可能となる。したがって、水中で集音された音声信号から、水中の音の集音特性による影響を低減することが可能となる。即ち、効果的にユーザの意図する音声信号に近づけることが可能となる。   However, if the self-generated driving sound noise is attenuated when it is determined that the sound signal is collected underwater as in the present embodiment, it is possible to effectively reduce a noise signal that is easily emphasized. . Therefore, it is possible to reduce the influence of the sound collection characteristics of the sound in water from the sound signal collected in water. That is, it is possible to effectively approximate the audio signal intended by the user.

また、撮像装置1を駆動させる際に、自己発生駆動音ノイズの周波数帯の成分を減衰させることにより、自己発生駆動音ノイズを選択的に減衰させることが可能となる。したがって、減衰に伴う音声信号の劣化を極力抑制することが可能となる。   Further, when the imaging apparatus 1 is driven, the self-generated driving sound noise can be selectively attenuated by attenuating the frequency band component of the self-generating driving sound noise. Therefore, it is possible to suppress deterioration of the audio signal due to attenuation as much as possible.

なお、CPU14から出力される制御情報を、上述した時間情報と同様のものとすると、一つの情報に基づいて、集音環境の判定と水中特性補正処理とをそれぞれ行うことが可能となる。そのため、CPU14や音声処理部7hの構成及び動作を簡略化することが可能となる。このとき、CPU14からの制御情報が集音環境判定部72の方に入力されることとして、集音環境判定部72からの信号のみに基づいて、所定信号減衰部7309が動作の要否を決定されるように構成しても構わない。   If the control information output from the CPU 14 is the same as the time information described above, it is possible to perform sound collection environment determination and underwater characteristic correction processing based on one piece of information. Therefore, it is possible to simplify the configuration and operation of the CPU 14 and the sound processing unit 7h. At this time, as the control information from the CPU 14 is input to the sound collection environment determination unit 72, the predetermined signal attenuation unit 7309 determines whether or not the operation is necessary based on only the signal from the sound collection environment determination unit 72. You may comprise as follows.

また、自己発生駆動音ノイズは、レンズ部3に備えられるモータの駆動に起因するものとは限らない。即ち、他の装置に起因して発生する自己発生駆動音ノイズであっても、低減することが可能である。   Further, the self-generated driving noise is not necessarily caused by driving of a motor provided in the lens unit 3. That is, even self-generated driving noise generated due to other devices can be reduced.

<水中特性補正部の第4実施例>
次に、図2に示した水中特性補正部の第4実施例について図面を参照して説明する。図16は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第4実施例について示すブロック図である。図16に示すように、音声処理部7kは、A/D変換部71と、集音環境判定部72と、水中特性補正部73dと、を備える。
<Fourth Example of Underwater Characteristic Correction Unit>
Next, a fourth embodiment of the underwater characteristic correction unit shown in FIG. 2 will be described with reference to the drawings. FIG. 16 is a block diagram illustrating a fourth example of the underwater characteristic correction unit provided in the sound processing unit according to the embodiment of the present invention. As shown in FIG. 16, the audio processing unit 7k includes an A / D conversion unit 71, a sound collection environment determination unit 72, and an underwater characteristic correction unit 73d.

また、水中特性補正部73dは、集音環境判定部72の判定結果に基づいて、入力される音声信号中の平滑化を行う平滑部7310を備える。なお、この平滑部7310に、例えば、平滑化フィルタなどの平滑化処理を行うフィルタなどを備えても構わない。   Further, the underwater characteristic correction unit 73d includes a smoothing unit 7310 that performs smoothing in the input audio signal based on the determination result of the sound collection environment determination unit 72. Note that the smoothing unit 7310 may include, for example, a filter that performs a smoothing process such as a smoothing filter.

集音環境判定部72は、上述したような方法で、入力される音声信号が水中で集音されたものであるか否かを判定して平滑部7310に入力する。そして、入力される音声信号が水中で集音されたものであると集音環境判定部72が判定する場合に、平滑部7310が動作し、入力される音声信号の平滑化を行う。   The sound collection environment determination unit 72 determines whether or not the input audio signal is collected underwater by the method as described above, and inputs the sound signal to the smoothing unit 7310. When the sound collection environment determination unit 72 determines that the input audio signal is collected in water, the smoothing unit 7310 operates to smooth the input audio signal.

水中特性補正部73dを本実施例のように構成すると、擦り切れ音ノイズを低減させることが可能となる。この擦り切れ音ノイズについて図17に示す。図17は、水中で集音された音声信号に含まれる擦り切れ音ノイズと平滑部の処理について示したグラフである。また図17は図4、図5及び図15と同様のグラフである。   If the underwater characteristic correction unit 73d is configured as in the present embodiment, it is possible to reduce fraying noise. This fraying noise is shown in FIG. FIG. 17 is a graph showing fraying noise and smoothing processing included in an audio signal collected in water. FIG. 17 is a graph similar to FIG. 4, FIG. 5 and FIG.

図17(a)に示すように、擦り切れ音ノイズ(図中の破線で囲まれた部分)が発生すると、不特定の周波数の信号の強度が局所的に減衰する。そこで、平滑部7310が入力される音声信号に対して平滑化を行うことにより、擦り切れ音ノイズを抑制する。図17(b)に、平滑化後の音声信号(実線)と、比較用の平滑化前の音声信号(破線)と、を併せて示す。図17(b)に示すように、平滑化を行うことで局所的に減衰する部分の減衰量を低減することが可能となる。即ち、擦り切れ音ノイズを低減することが可能となる。   As shown in FIG. 17A, when fray noise (a portion surrounded by a broken line in the figure) is generated, the intensity of a signal having an unspecified frequency is locally attenuated. Therefore, the smoothing unit 7310 performs smoothing on the input audio signal to suppress fraying noise. FIG. 17 (b) also shows the audio signal after smoothing (solid line) and the audio signal for comparison before smoothing (broken line). As shown in FIG. 17B, it is possible to reduce the attenuation amount of the locally attenuated portion by performing smoothing. That is, it becomes possible to reduce fraying noise.

上述のように、水中で集音するとノイズ信号に対する集音感度が高くなり、強調され易くなる。即ち、擦り切れ音ノイズは水中で集音した音声信号で特に強調され易くなる。そのため、空気中で集音する場合には擦り切れ音ノイズが耳障りにならないが、水中で集音した場合には耳障りになるということが生じる。   As described above, when sound is collected in water, the sound collection sensitivity with respect to the noise signal is increased and the sound signal is easily emphasized. That is, the fray noise is particularly easily emphasized by an audio signal collected in water. For this reason, fraying noise is not harsh when collecting sound in the air, but it becomes harsh when collecting sound in water.

しかしながら、本実施例のように、水中で集音した音声信号であると集音環境判定部72において判定される場合に擦り切れ音ノイズを低減することとすると、強調されやすいノイズ信号を効果的に低減することが可能となる。したがって、水中で集音された音声信号から、水中の音の集音特性による影響を低減することが可能となる。即ち、効果的にユーザの意図する音声信号に近づけることが可能となる。   However, when the sound collection environment determination unit 72 determines that the sound signal is collected underwater as in this embodiment, the noise signal that is easily emphasized is effectively reduced. It becomes possible to reduce. Therefore, it is possible to reduce the influence of the sound collection characteristics of the sound in water from the sound signal collected in water. That is, it is possible to effectively approximate the audio signal intended by the user.

なお、擦り切れ音ノイズに限らず、周波数軸方向に現れるノイズ全般に対して、本実施例を適用することが可能である。例えば、フォーカスやズームなどに伴う所定の周波数のノイズ(自己発生駆動音ノイズ)に対して、上述した所定信号減衰部7309を用いる代わりに、本実施例の平滑部7310を用いて対処することができる。   It should be noted that this embodiment can be applied not only to fray noise but also to noise that appears in the frequency axis direction in general. For example, noise of a predetermined frequency (self-generated driving sound noise) associated with focus, zoom, or the like can be dealt with using the smoothing unit 7310 of this embodiment instead of using the above-described predetermined signal attenuation unit 7309. it can.

また、平滑部7310で行われる平滑化処理として、加算平均値を用いた方法を利用することができる。この方法で用いられる加算平均値x´[f]は、周波数f(Hz)を中心としたある周波数幅Fa(Hz)に含まれる各周波数i(Hz)の信号値x[i]を加算して、合計値をFaで除算することによって求められる。具体的には、以下の式(1)に示す計算式によって求められる。   Further, as a smoothing process performed by the smoothing unit 7310, a method using an addition average value can be used. The addition average value x ′ [f] used in this method is obtained by adding the signal value x [i] of each frequency i (Hz) included in a certain frequency width Fa (Hz) with the frequency f (Hz) as the center. Then, the total value is obtained by dividing by Fa. Specifically, it is obtained by the calculation formula shown in the following formula (1).

Figure 2009258423
Figure 2009258423

そして、得られる加算平均値x´[f]が、信号値x[f]よりも小さくなる場合に、周波数fにおける信号値として加算平均値x´[f]の値の方を採用する。一方、加算平均値x´[f]が信号値x[f]よりも大きくなる場合には、信号値x[f]の値の方をそのまま採用する。平滑部7310がこのような平滑化処理を行う場合の模式図を図18に示す。図18は、フォーカス音によるノイズと平滑部の処理とについて示したグラフである。破線が平滑化処理前の信号値を表し、実線が平滑化処理後の信号値を表すものとする。   When the obtained average value x ′ [f] is smaller than the signal value x [f], the value of the average value x ′ [f] is employed as the signal value at the frequency f. On the other hand, when the addition average value x ′ [f] is larger than the signal value x [f], the value of the signal value x [f] is adopted as it is. FIG. 18 shows a schematic diagram when the smoothing unit 7310 performs such smoothing processing. FIG. 18 is a graph showing the noise due to the focus sound and the processing of the smoothing unit. A broken line represents a signal value before the smoothing process, and a solid line represents a signal value after the smoothing process.

図18に示すように、平滑化処理前の信号では、いくつかの帯域において強度が急激に大きくなっている。また、このようなノイズは低周波帯域の信号である場合が多いため、上述のように水中で強調されやすい信号となる。そのため、このような帯域の信号が聴覚上ノイズとして聞こえることとなる。しかしながら、本実施例のように平滑化処理を行うこととすると、実線で示すような信号とすることが可能となる。即ち、強度が急激に大きくなる帯域の信号値を低減して、ノイズを低減することが可能となる。   As shown in FIG. 18, in the signal before the smoothing process, the intensity rapidly increases in some bands. In addition, since such noise is often a signal in a low frequency band, it becomes a signal that is easily emphasized in water as described above. Therefore, a signal in such a band is heard as noise on hearing. However, if smoothing processing is performed as in the present embodiment, a signal as indicated by a solid line can be obtained. That is, it is possible to reduce the noise by reducing the signal value in the band where the intensity suddenly increases.

なお、式(1)において、x´[f]を算出する際にx[f−(Fa/2)+1]〜x[f+(Fa/2)]のFa(個)の各値を合計することとしているが、x[f−(Fa/2)]〜x[f+(Fa/2)−1]の各値を合計することとしても構わない。また、上述した例はFaが偶数である場合のものであるが、Faを奇数として、x[f−(Fa/2)+1/2]〜x[f+(Fa/2)−1/2]の各値を合計するとともにFaで除算して加算平均値x´[f]を算出することとしても構わない。   In formula (1), when calculating x ′ [f], each value of Fa (pieces) of x [f− (Fa / 2) +1] to x [f + (Fa / 2)] is summed. However, the values of x [f− (Fa / 2)] to x [f + (Fa / 2) −1] may be summed. Moreover, although the example mentioned above is a thing when Fa is an even number, when Fa is an odd number, x [f- (Fa / 2) +1/2] to x [f + (Fa / 2) -1/2]. These values may be summed and divided by Fa to calculate the addition average value x ′ [f].

さらに、周波数軸上に現れるノイズだけでなく、時間軸方向に現れるノイズに対しても、平滑化処理を行うことによって対処することが可能である。この場合、上述した式(1)と同様の、加算平均値を用いた処理を適用することが可能である。ただし、この場合は時間軸方向に対して加算平均値をとることとする。   Furthermore, not only noise appearing on the frequency axis but also noise appearing in the time axis direction can be dealt with by performing a smoothing process. In this case, it is possible to apply a process using the addition average value similar to the above-described equation (1). In this case, however, the average value is taken in the time axis direction.

求める加算平均値x´[t]は、時間t(sec)を中心としてある時間幅Ta(sec)に含まれる各時間k(sec)の信号値x[k]を加算して、合計値をTaで除算することによって求められる。具体的には、以下の式(2)に示す計算式によって求められる。   The calculated average value x ′ [t] is obtained by adding the signal values x [k] of each time k (sec) included in a certain time width Ta (sec) with the time t (sec) as the center, It is obtained by dividing by Ta. Specifically, it is obtained by the calculation formula shown in the following formula (2).

Figure 2009258423
Figure 2009258423

上述した周波数軸方向に現れるノイズを低減する場合と同様に、得られる加算平均値x´[t]が、信号値x[t]よりも小さくなる場合に、時間tにおける信号値として加算平均値x´[t]の値の方を採用する。一方、加算平均値x´[t]が信号値x[t]よりも大きくなる場合には、信号値x[t]の値の方をそのまま採用する。このような平滑化処理を行うことで、例えば、撮像装置の筐体が何かと接触することによって、突発的で大きなノイズが発生したとしても、発生するノイズを低減することが可能となる。   As in the case of reducing the noise appearing in the frequency axis direction described above, when the obtained average value x ′ [t] is smaller than the signal value x [t], the average value is obtained as the signal value at time t. The value of x ′ [t] is adopted. On the other hand, when the addition average value x ′ [t] is larger than the signal value x [t], the value of the signal value x [t] is adopted as it is. By performing such smoothing processing, for example, even if sudden and large noise occurs due to contact of the housing of the imaging apparatus with something, it is possible to reduce the generated noise.

なお、式(2)において、x´[t]を算出する際にx[t−(Ta/2)+1]〜x[t+(Ta/2)]のTa(個)の各値を合計することとしているが、x[t−(Ta/2)]〜x[t+(Ta/2)−1]の各値を合計することとしても構わない。また、上述した例はTaが偶数である場合のものであるが、Taを奇数として、x[t−(Ta/2)+1/2]〜x[t+(Ta/2)−1/2]の各値を合計するとともにTaで除算して加算平均値x´[t]を算出することとしても構わない。   In equation (2), when calculating x ′ [t], the respective values of Ta (pieces) of x [t− (Ta / 2) +1] to x [t + (Ta / 2)] are summed. However, the values of x [t− (Ta / 2)] to x [t + (Ta / 2) −1] may be summed. Moreover, although the example mentioned above is a thing when Ta is an even number, Ta is an odd number, and x [t− (Ta / 2) +1/2] to x [t + (Ta / 2) −1/2]. These values may be summed and divided by Ta to calculate the addition average value x ′ [t].

また、周波数軸方向、時間軸方向に対して行う平滑化処理の例として、加算平均値を利用する場合について示したが、本実施例はこの方法に限られない。特に、平滑化処理を実行できるものであれば、他の方法を用いても構わない。   In addition, as an example of the smoothing process performed in the frequency axis direction and the time axis direction, the case where the addition average value is used has been described, but the present embodiment is not limited to this method. In particular, other methods may be used as long as smoothing processing can be performed.

<水中特性補正部の第5実施例>
次に、図2に示した水中特性補正部73の第5実施例について図面を参照して説明する。図19は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第5実施例について示すブロック図である。図19に示すように、音声処理部7mは、入力される音声信号の利得を自動的に制御するAGC(Automatic Gain Control)部74と、AGC部74から出力される音声信号が入力されるA/D変換部71と、集音環境判定部72と、水中特性補正部73eと、を備える。また、水中特性補正部73eは、集音環境判定部72の判定結果に基づいて、AGC部74のレスポンス速度を制御するレスポンス速度制御部7311を備える。なお、本実施例について示す図19にのみAGC部74を示しているが、他の実施例においてAGC部74を備えることとして構わない。
<Fifth Example of Underwater Characteristic Correction Unit>
Next, a fifth embodiment of the underwater characteristic correction unit 73 shown in FIG. 2 will be described with reference to the drawings. FIG. 19 is a block diagram illustrating a fifth example of the underwater characteristic correction unit provided in the sound processing unit according to the embodiment of the present invention. As shown in FIG. 19, the audio processing unit 7m has an AGC (Automatic Gain Control) unit 74 that automatically controls the gain of the input audio signal, and an A signal to which the audio signal output from the AGC unit 74 is input. / D conversion part 71, the sound collection environment determination part 72, and the underwater characteristic correction | amendment part 73e are provided. In addition, the underwater characteristic correction unit 73 e includes a response speed control unit 7311 that controls the response speed of the AGC unit 74 based on the determination result of the sound collection environment determination unit 72. Although only the AGC unit 74 is shown in FIG. 19 showing the present embodiment, the AGC unit 74 may be provided in other embodiments.

AGC部74は、入力される音声信号の強度を監視するとともに、音声信号の強度が設定値より大きくなる場合は減衰を行い、音声信号の強度が設定値より小さくなる場合には増幅を行う。AGC部74はこのように動作することにより、音声信号の強度を制御して後段の処理に適した強度に近づける。   The AGC unit 74 monitors the intensity of the input audio signal, attenuates when the intensity of the audio signal is greater than a set value, and amplifies when the intensity of the audio signal is less than the set value. By operating in this way, the AGC unit 74 controls the intensity of the audio signal to approach the intensity suitable for subsequent processing.

AGC部74の具体的な動作例について、図20を参照して説明する。図20は、AGC部の動作の具体例について示したグラフである。図中の波は音声信号を模式的に示したものである。また、その波の上下に記載した破線は、音声信号の振幅(強度)の時間変化を示したものである。また、図20では、区間Iにおける音声信号の強度が設定値と等しいものであり、区間IIにおける強度が区間Iにおける強度より小さく、区間IIIにおける強度が区間Iにおける強度よりも大きいものであるとする。   A specific operation example of the AGC unit 74 will be described with reference to FIG. FIG. 20 is a graph showing a specific example of the operation of the AGC unit. The wave in the figure schematically shows an audio signal. Moreover, the broken lines described above and below the wave indicate the time change of the amplitude (intensity) of the audio signal. In FIG. 20, the intensity of the audio signal in the section I is equal to the set value, the intensity in the section II is smaller than the intensity in the section I, and the intensity in the section III is larger than the intensity in the section I. To do.

図20に示すように、区間IIにおいて音声信号の強度が設定値より小さくなったことがAGC部74によって確認されると、強度を設定値と同等にするための上昇率が区間(一)において設定される。そして、区間(二)では、区間(一)において設定された上昇率で音声信号が増幅され、区間(二)の終了時に音声信号の強度が設定値と同等になるように調整される。一方、区間IIIになり、音声信号の強度が設定値より大きくなったことがAGC部74によって確認されると、強度を設定値と同等にするための下降率が区間(三)において設定される。そして、区間(四)では、区間(三)において設定された下降率で音声信号が減衰され、区間(四)の終了時に音声信号の強度が設定値と同等になるように調整される。   As shown in FIG. 20, when the AGC unit 74 confirms that the intensity of the audio signal has become smaller than the set value in the section II, the rate of increase for making the intensity equal to the set value is in the section (one). Is set. In the section (2), the audio signal is amplified at the rate of increase set in the section (1), and the intensity of the audio signal is adjusted to be equal to the set value at the end of the section (2). On the other hand, when the AGC unit 74 confirms that the intensity of the audio signal has become larger than the set value in the section III, a decrease rate for setting the intensity equal to the set value is set in the section (3). . In the section (4), the audio signal is attenuated at the rate of decrease set in the section (3), and the intensity of the audio signal is adjusted to be equal to the set value at the end of the section (4).

また、集音環境判定部72は上述したような方法で、入力される音声信号が水中で集音されたものであるか否かを判定してレスポンス速度制御部7311に入力する。そして、入力される音声信号が水中で集音されたものであると集音環境判定部72が判定する場合に、レスポンス速度制御部7311が、AGC部74におけるレスポンス速度を、水中と判定されない場合と比較して速くする制御を行う。例えば、AGC部74が図20に示すような制御を行う場合、レスポンス制御部7311が、区間(一)、(二)、(三)及び(四)の区間をそれぞれ短くする制御を行う。   In addition, the sound collection environment determination unit 72 determines whether or not the input audio signal is collected underwater by the method as described above, and inputs it to the response speed control unit 7311. When the sound collection environment determination unit 72 determines that the input audio signal is collected in water, the response speed control unit 7311 does not determine that the response speed in the AGC unit 74 is underwater. Control to make faster than. For example, when the AGC unit 74 performs control as shown in FIG. 20, the response control unit 7311 performs control to shorten the sections (1), (2), (3), and (4).

水中特性補正部73eを本実施例のように構成すると、クリックノイズなどの突発ノイズを低減させることが可能となる。この突発ノイズについて図21に示す。図21は、水中で集音された音声信号に含まれる突発ノイズとレスポンス速度制御部の処理について示したグラフである。図21に示すグラフにおいては、横軸を時間、縦軸を利得として示す。また、図21(a)は、レスポンス速度制御部7311がAGC部74のレスポンス速度を速くする制御を行わない状態(水中であると判定されない場合と同じレスポンス速度とした状態)を示すグラフであり、図21(b)は、レスポンス速度を速くするように制御した状態を示すグラフである。   When the underwater characteristic correction unit 73e is configured as in the present embodiment, it is possible to reduce sudden noise such as click noise. This sudden noise is shown in FIG. FIG. 21 is a graph showing sudden noise included in an audio signal collected in water and processing of the response speed control unit. In the graph shown in FIG. 21, the horizontal axis represents time and the vertical axis represents gain. FIG. 21A is a graph showing a state in which the response speed control unit 7311 does not perform control to increase the response speed of the AGC unit 74 (a state in which the response speed is the same as that in the case where it is not determined to be underwater). FIG. 21B is a graph showing a state in which control is performed to increase the response speed.

図21(a)に示すように、突発ノイズ(図中の破線で囲まれた部分)が発生すると、時間軸方向において信号の強度が局所的に増大する部分が生じる。この局所的な信号の強度の増大を抑制するために、レスポンス速度制御部7311が、AGC部74のレスポンス速度を速くするように制御する。図21(b)に、レスポンス速度を速くした場合の音声信号のグラフ(実線)と、比較用のレスポンス速度を速くする前の音声信号(破線)のグラフと、を併せて示す。図21(b)に示すように、レスポンス速度を速くすると、ノイズに対して迅速にAGCが行われるようになる。したがって、局所的な信号強度の増大を抑制することが可能となる。即ち、突発ノイズを低減することが可能となる。   As shown in FIG. 21A, when sudden noise (portion surrounded by a broken line in the figure) occurs, a portion where the signal intensity locally increases in the time axis direction is generated. In order to suppress this local increase in signal strength, the response speed control unit 7311 controls the AGC unit 74 to increase the response speed. FIG. 21B shows a graph of the audio signal (solid line) when the response speed is increased and a graph of the audio signal (dashed line) before increasing the response speed for comparison. As shown in FIG. 21B, when the response speed is increased, AGC is quickly performed against noise. Therefore, it is possible to suppress an increase in local signal strength. That is, sudden noise can be reduced.

上述のように、水中で集音するとノイズ信号に対する集音感度が高くなり、強調され易くなる。即ち、突発ノイズは水中で集音した音声信号で特に強調され易くなる。そのため、空気中で集音する場合には突発ノイズが耳障りにならないが、水中で集音した場合には耳障りになるということが生じる。   As described above, when sound is collected in water, the sound collection sensitivity with respect to the noise signal is increased and the sound signal is easily emphasized. That is, sudden noise is particularly easily emphasized by an audio signal collected in water. For this reason, sudden noise does not become harsh when collecting sound in the air, but it becomes harsh when collected in water.

しかしながら、本実施例のように、水中で集音した音声信号であると集音環境判定部72において判定される場合に、突発ノイズを低減することとすると、強調されやすいノイズ信号を効果的に低減することが可能となる。したがって、水中で集音された音声信号から、水中の音の集音特性による影響を低減することが可能となる。即ち、効果的にユーザの意図する音声信号に近づけることが可能となる。   However, in the case where the sound collection environment determination unit 72 determines that the sound signal is collected underwater as in the present embodiment, if the sudden noise is reduced, a noise signal that is easily emphasized can be effectively used. It becomes possible to reduce. Therefore, it is possible to reduce the influence of the sound collection characteristics of the sound in water from the sound signal collected in water. That is, it is possible to effectively approximate the audio signal intended by the user.

なお、突発ノイズによって局所的に信号の強度が減少する場合についても、同様に低減することができる。この場合は、AGC部74によって迅速に信号が増幅されることで、信号強度の減少が抑制される。   In addition, the case where the signal intensity locally decreases due to sudden noise can be similarly reduced. In this case, the signal is rapidly amplified by the AGC unit 74, thereby suppressing a decrease in signal strength.

<水中特性補正部の第6実施例>
次に、図2に示した水中特性補正部73の第6実施例について図面を参照して説明する。図22は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第6実施例について示すブロック図である。図22に示すように、音声処理部7nは、A/D変換部71と、集音環境判定部72と、水中特性補正部73fと、を備える。
<Sixth Example of Underwater Characteristic Correction Unit>
Next, a sixth embodiment of the underwater characteristic correction unit 73 shown in FIG. 2 will be described with reference to the drawings. FIG. 22 is a block diagram showing a sixth example of the underwater characteristic correction unit provided in the sound processing unit according to the embodiment of the present invention. As shown in FIG. 22, the audio processing unit 7n includes an A / D conversion unit 71, a sound collection environment determination unit 72, and an underwater characteristic correction unit 73f.

また、水中特性補正部73fは、入力される音声信号中の所定の周波数以下となる低周波帯域成分を抽出して出力するLPF7312と、入力される音声信号中の所定の周波数帯となる中周波帯域成分を抽出して出力するBPF7313と、入力される音声信号中の所定の周波数以上となる高周波帯域成分を抽出して出力するHPF7314と、集音環境判定部72から出力される混合係数αをLPF7312から出力される低周波帯域成分に積算する係数積算部7315と、BPF7313から出力される中周波帯域成分に基づいて音声信号を復元して復元信号を出力する復元部7316と、復元部7316から出力される復元信号から低周波帯域を抽出して復元低周波帯域成分を出力するLPF7317と、集音環境判定部72から出力される混合係数(1−α)をLPF7317から出力される復元低周波帯域成分に積算する係数積算部7318と、係数積算部7315から出力される低周波帯域成分と係数積算部7318から出力される復元低周波帯域成分とを合成して合成低周波帯域成分を出力する合成部7319と、合成部7319から出力される合成低周波帯域成分とBPF7313から出力される中周波帯域成分とHPF7314から出力される高周波帯域成分とを合成して音声信号を出力する合成部7320と、を備える。   The underwater characteristic correction unit 73f also extracts an LPF 7312 that extracts and outputs a low frequency band component that is equal to or lower than a predetermined frequency in the input audio signal, and an intermediate frequency that is a predetermined frequency band in the input audio signal. A BPF 7313 that extracts and outputs a band component, an HPF 7314 that extracts and outputs a high-frequency band component that is equal to or higher than a predetermined frequency in the input audio signal, and a mixing coefficient α that is output from the sound collection environment determination unit 72. From the coefficient integrating unit 7315 that integrates the low frequency band component output from the LPF 7312, the restoring unit 7316 that restores the audio signal based on the medium frequency band component output from the BPF 7313, and outputs the restored signal, and the restoring unit 7316 An LPF 7317 that extracts a low frequency band from an output restoration signal and outputs a restored low frequency band component, and an output from the sound collection environment determination unit 72 The coefficient integration unit 7318 for integrating the mixed coefficient (1-α) to be output to the restored low frequency band component output from the LPF 7317, and the low frequency band component output from the coefficient integration unit 7315 and the restoration output from the coefficient integration unit 7318 A synthesis unit 7319 that synthesizes the low frequency band component and outputs a synthesized low frequency band component, a synthesized low frequency band component output from the synthesis unit 7319, an intermediate frequency band component output from the BPF 7313, and an HPF 7314. And a synthesizing unit 7320 that synthesizes the high frequency band component and outputs an audio signal.

集音環境判定部72は、上述したような方法で、入力される音声信号が水中で集音されたものであるか否かを判定する。一方、水中特性補正部73fは、LPF7312において入力される音声信号の低周波帯域成分を抽出する。また、BPF7313において入力される音声信号の中周波帯域成分を抽出するとともに、HPF7314において入力される音声信号の高周波帯域成分を抽出する。   The sound collection environment determination unit 72 determines whether or not the input audio signal is collected in water by the method described above. On the other hand, the underwater characteristic correction unit 73f extracts a low frequency band component of the audio signal input in the LPF 7312. Further, the medium frequency band component of the audio signal input by the BPF 7313 is extracted, and the high frequency band component of the audio signal input by the HPF 7314 is extracted.

集音環境判定部72において、入力される音声信号が水中で集音されたものであると判定される場合は、係数積算部7315が、LPF7312から出力される低周波帯域成分に混合係数αを積算して出力する。また、BPF7313から出力される中周波帯域成分は、復元部7316によって復元されるとともに復元信号として出力される。このとき復元部7316は、入力される中周波帯域成分に対して非線形処理を施す。非線形処理とは、例えば、二乗処理や、全波整流処理(絶対値処理)、半波整流処理などである。   When the sound collection environment determination unit 72 determines that the input audio signal is collected underwater, the coefficient integration unit 7315 adds the mixing coefficient α to the low frequency band component output from the LPF 7312. Accumulate and output. Further, the medium frequency band component output from the BPF 7313 is restored by the restoration unit 7316 and output as a restoration signal. At this time, the restoration unit 7316 performs nonlinear processing on the inputted intermediate frequency band component. Non-linear processing includes, for example, squaring processing, full-wave rectification processing (absolute value processing), half-wave rectification processing, and the like.

二乗処理を用いる場合、復元部7316はBPF7313から出力される中周波帯域成分を二乗する。このとき、中周波帯域成分にステレオマイク5で集音される音声のピッチ信号の高調波成分(基本周波数の倍音成分)が含まれているため、二乗することによって各高調波成分の差及び和に相当する周波数の信号が生成される。したがって、中周波帯域成分より低周波側の帯域と、高周波側の帯域と、に調波成分(基本周波数である基本波成分や、高調波成分)が生成される。したがって、中周波帯域成分から低周波帯域成分や高周波帯域成分を復元することが可能となる。なお、二乗処理を行う場合、生成される調波成分の振幅が本来求めたい調波成分の二乗になる。これに対して、二乗した信号に対して正規化を行い、それによって振幅を調整することとしても構わない。   When the squaring process is used, the restoration unit 7316 squares the medium frequency band component output from the BPF 7313. At this time, since the harmonic component (overtone component of the fundamental frequency) of the pitch signal of the sound collected by the stereo microphone 5 is included in the medium frequency band component, the difference and sum of each harmonic component is obtained by squaring. A signal having a frequency corresponding to is generated. Therefore, harmonic components (fundamental harmonic components and fundamental wave components that are fundamental frequencies) are generated in the lower frequency band and the higher frequency band than the medium frequency band component. Therefore, it is possible to restore the low frequency band component and the high frequency band component from the medium frequency band component. When the squaring process is performed, the amplitude of the generated harmonic component becomes the square of the harmonic component originally desired. On the other hand, normalization may be performed on the squared signal to thereby adjust the amplitude.

全波整流処理(絶対値処理)、半波整流処理についても同様に行うことができる。例えば、全波整流を用いる場合、中周波帯域成分の絶対値を算出して復元を行う。また、上述の復元方法について、例えば、特開平8−130494号公報、特開平8−278800号公報、特開平9−55778号公報などに記載されている方法を用いても構わない。   The full wave rectification process (absolute value process) and the half wave rectification process can be performed in the same manner. For example, when using full-wave rectification, the absolute value of the medium frequency band component is calculated and restored. As the above restoration method, for example, the methods described in JP-A-8-130494, JP-A-8-278800, JP-A-9-55778 may be used.

復元部7316は、上述のような方法を用いることで復元を行い、復元信号を出力する。LPF7317は、入力される復元信号から低周波帯域成分を抽出することで復元低周波帯域成分を生成し、出力する。そして、復元低周波帯域成分は係数積算部7318に入力され、混合係数(1−α)が積算される。また、混合係数(1−α)が積算された復元低周波帯域成分と、混合係数αが積算された低周波帯域成分と、は合成部7319で合成され、一つの合成低周波帯域成分として出力される。   The restoration unit 7316 performs restoration by using the method as described above, and outputs a restoration signal. The LPF 7317 generates and outputs a restored low frequency band component by extracting the low frequency band component from the inputted restored signal. Then, the restored low frequency band component is input to the coefficient integration unit 7318, and the mixing coefficient (1-α) is integrated. Further, the restored low frequency band component integrated with the mixing coefficient (1-α) and the low frequency band component integrated with the mixing coefficient α are combined by the combining unit 7319 and output as one combined low frequency band component. Is done.

そして、合成部7319から出力される合成低周波帯域成分と、BPF7313から出力される中周波帯域成分と、HPF7314から出力される高周波帯域成分と、が合成部7320で合成され、一つの音声信号として出力される。   Then, the synthesized low frequency band component output from the synthesizing unit 7319, the intermediate frequency band component output from the BPF 7313, and the high frequency band component output from the HPF 7314 are synthesized by the synthesizing unit 7320 as one audio signal. Is output.

水中特性補正部73fを本実施例のように構成すると、低周波帯域成分の信号を改善することが可能となる。この改善方法について図23を用いて説明する。図23は、水中で集音された音声信号と空気中で集音された音声信号とを併せて示した模式的なグラフであり、図4、図5、図15及び図17と同様のグラフである。   When the underwater characteristic correction unit 73f is configured as in the present embodiment, it is possible to improve the signal of the low frequency band component. This improvement method will be described with reference to FIG. FIG. 23 is a schematic graph showing both an audio signal collected in water and an audio signal collected in the air, and is a graph similar to FIGS. 4, 5, 15, and 17. It is.

上述したように、水中で集音した音声信号(実線)は、空中で集音した音声信号(破線)と比較して、低周波帯域に強度が集中するとともに高周波帯域の強度が大きく減衰する。そのため、水中で集音した音声信号は、空気中で集音した音声信号とは異なるものとなる。しかしながら、図23に示すように、周波数λ3と周波数λ4との間の中周波帯域においては、水中で集音した音声信号と空気中で集音した音声信号とが同様のものとなる。即ち、この帯域については集音環境の影響を受けにくく、水中で集音された音声信号であったとしても良好な信号となり易い。そのため、この帯域の信号に基づいて復元される他の帯域の信号が、水中で集音されたそのままの信号よりも良好な信号となり易くなる。 As described above, the sound signal collected in water (solid line) concentrates in the low frequency band and attenuates the intensity in the high frequency band greatly compared to the sound signal collected in the air (broken line). Therefore, an audio signal collected in water is different from an audio signal collected in air. However, as shown in FIG. 23, in the middle frequency band between the frequency λ 3 and the frequency λ 4 , the sound signal collected in water and the sound signal collected in air are the same. That is, this band is not easily affected by the sound collection environment, and even if it is a sound signal collected in water, it is likely to be a good signal. Therefore, a signal in another band restored based on the signal in this band is likely to be a better signal than an intact signal collected in water.

したがって、本実施例のように、水中で集音した音声信号であると集音環境判定部72において判定される場合に、合成部7319から出力される合成低周波帯域成分に復元低周波帯域成分を含ませることとすると、合成部7320から出力される音声信号を改善することが可能となる。したがって、水中で集音された音声信号から、水中の音の集音特性による影響を低減することが可能となる。即ち、効果的にユーザの意図する音声信号に近づけることが可能となる。   Therefore, when the sound collection environment determination unit 72 determines that the sound signal is collected in water as in the present embodiment, it is restored to the synthesized low frequency band component output from the synthesis unit 7319. Is included, it is possible to improve the audio signal output from the synthesis unit 7320. Therefore, it is possible to reduce the influence of the sound collection characteristics of the sound in water from the sound signal collected in water. That is, it is possible to effectively approximate the audio signal intended by the user.

なお、上述した合成を可能とするために、LPF7312及びLPF7317のカットオフ周波数をλ3として、HPFのカットオフ周波数をλ4としても構わない。また、BPF7313の低周波側のカットオフ周波数をλ3として、高周波側のカットオフ周波数をλ4としても構わない。また、λ3を例えば2kHzとして、λ4を例えば6kHzとしても構わない。 In order to enable the above-described synthesis, the cutoff frequency of the LPF 7312 and the LPF 7317 may be set to λ 3 and the cutoff frequency of the HPF may be set to λ 4 . Further, the cutoff frequency on the low frequency side of the BPF 7313 may be λ 3 and the cutoff frequency on the high frequency side may be λ 4 . Further, λ 3 may be set to 2 kHz, for example, and λ 4 may be set to 6 kHz, for example.

また、集音環境判定部72が、水中で集音されたものであると判定する場合に混合係数αを小さくし、水中で集音されたものではないと判定する場合に混合係数αを大きくしても構わない。さらに、集音環境判定部72が、水中で集音されたものではないと判定する場合に混合係数αを1にしても構わない。混合係数αを1にすると、LPF7312から出力される低周波帯域成分が係数積算部7315及び合成部7319をそのまま通過し、合成部7320に入力される。即ち、合成部7319から出力される合成低周波帯域成分が、低周波帯域成分と等しいものとなる。また、このとき復元部7316において復元処理を行わないこととしても構わない。   In addition, when the sound collection environment determination unit 72 determines that the sound is collected in water, the mixing coefficient α is decreased, and when it is determined that the sound is not collected in water, the mixing coefficient α is increased. It doesn't matter. Furthermore, the mixing coefficient α may be set to 1 when the sound collection environment determination unit 72 determines that the sound is not collected in water. When the mixing coefficient α is 1, the low frequency band component output from the LPF 7312 passes through the coefficient accumulating unit 7315 and the combining unit 7319 as it is and is input to the combining unit 7320. That is, the combined low frequency band component output from the combining unit 7319 is equal to the low frequency band component. At this time, the restoration unit 7316 may not perform the restoration process.

また、入力される音声信号の強度などに基づいて入力される音声信号の劣化の程度を判断し、混合係数αの値を変化させることとしても構わない。さらに、劣化の程度が大きいと判断される場合に、混合係数αを小さくしても構わない。また、混合係数αが0を取りうることとしても構わない。   Further, the degree of deterioration of the input audio signal may be determined based on the intensity of the input audio signal, and the value of the mixing coefficient α may be changed. Further, when it is determined that the degree of deterioration is large, the mixing coefficient α may be reduced. Further, the mixing coefficient α may be 0.

また、図22に示す水中特性補正部73fでは、中周波帯域成分から低周波帯域成分を復元する構成としたが、同様に、高周波帯域成分を復元して復元高周波帯域成分を作り、HPF7314から出力される高周波帯域成分に所定の割合で合成することとしても構わない。   Further, the underwater characteristic correction unit 73f shown in FIG. 22 is configured to restore the low frequency band component from the medium frequency band component, but similarly, restores the high frequency band component to create a restored high frequency band component, which is output from the HPF 7314. It is also possible to synthesize the high frequency band component to be synthesized at a predetermined ratio.

この構成について図24に示す。図24は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第6実施例の別例について示すブロック図である。図24に示す水中特性補正部73faでは、LPF7312と、BPF7313と、HPF7314と、復元部7316と、復元部7316から出力される復元信号から高周波帯域成分を抽出して復元高周波帯域成分を出力するHPF7321と、集音環境判定部72から出力される混合係数α1をHPF7314から出力される高周波帯域成分に積算する係数積算部7322と、集音環境判定部72から出力される混合係数(1−α1)をHPF7321から出力される復元高周波帯域成分に積算する係数積算部7323と、係数積算部7322から出力される高周波帯域成分と係数積算部7323から出力される復元高周波帯域成分とを合成して合成高周波帯域成分を出力する合成部7324と、合成部7324から出力される合成高周波帯域成分とBPF7313から出力される中周波帯域成分とLPF7312から出力される低周波帯域成分とを合成して音声信号を出力する合成部7325と、を備える。 This configuration is shown in FIG. FIG. 24 is a block diagram illustrating another example of the sixth example of the underwater characteristic correction unit provided in the sound processing unit according to the embodiment of the present invention. In the underwater characteristic correction unit 73fa shown in FIG. 24, an HPF 7321 that extracts a high-frequency band component from the restoration signal output from the LPF 7312, the BPF 7313, the HPF 7314, the restoration unit 7316, and the restoration unit 7316 and outputs the restored high-frequency band component. A coefficient integration unit 7322 that integrates the mixing coefficient α 1 output from the sound collection environment determination unit 72 with the high frequency band component output from the HPF 7314, and a mixing coefficient (1-α that is output from the sound collection environment determination unit 72 1 ) a coefficient integrating unit 7323 for integrating the restored high frequency band component output from the HPF 7321, a high frequency band component output from the coefficient integrating unit 7322, and a restored high frequency band component output from the coefficient integrating unit 7323 A synthesizing unit 7324 that outputs a synthetic high frequency band component, and a synthetic high frequency output from the synthesizing unit 7324 Comprises a combining unit 7325 for outputting an audio signal by synthesizing the low frequency band component output from the frequency band component and LPF7312 in output from the frequency components and BPF7313.

この水中特性補正部73faは、低周波帯域成分ではなく高周波帯域成分の復元及び合成を行う点において、水中特性補正部73fと相違する。しかしながら、他の動作については同様のものとなるため、説明を省略する。   The underwater characteristic correction unit 73fa is different from the underwater characteristic correction unit 73f in that the high frequency band component is restored and combined instead of the low frequency band component. However, since other operations are the same, description thereof is omitted.

また、低周波帯域成分及び高周波帯域成分を復元して復元低周波帯域成分及び復元高周波帯域成分をそれぞれ作り、LPF7312から出力される低周波帯域成分と、HPF7314から出力される高周波帯域成分と、にそれぞれ所定の割合で合成させる構成としても構わない。   Further, the low frequency band component and the high frequency band component are restored to create the restored low frequency band component and the restored high frequency band component, respectively, and the low frequency band component output from the LPF 7312 and the high frequency band component output from the HPF 7314 Each of them may be combined at a predetermined ratio.

この構成について図25に示す。図25は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第6実施例の別例について示すブロック図である。図25に示す水中特性補正部73fbでは、LPF7312と、BPF7313と、HPF7314と、復元部7316と、LPF7317と、HPF7321と、係数積算部7315と、係数積算部7322と、係数積算部7318と、係数積算部7323と、合成部7319と、合成部7324と、合成部7319から出力される合成低周波帯域成分とBPF7313から出力される中周波帯域成分と合成部7324から出力される合成高周波帯域成分とを合成して音声信号を出力する合成部7326と、を備える。   This configuration is shown in FIG. FIG. 25 is a block diagram illustrating another example of the sixth example of the underwater characteristic correction unit provided in the sound processing unit according to the embodiment of the present invention. 25, the LPF 7312, the BPF 7313, the HPF 7314, the restoration unit 7316, the LPF 7317, the HPF 7321, the coefficient integration unit 7315, the coefficient integration unit 7322, the coefficient integration unit 7318, and the coefficient Integration unit 7323, synthesis unit 7319, synthesis unit 7324, synthesized low frequency band component output from synthesis unit 7319, medium frequency band component output from BPF 7313, and synthesized high frequency band component output from synthesis unit 7324 And a synthesizing unit 7326 that outputs an audio signal.

この水中特性補正部73fbは、低周波帯域成分及び高周波帯域成分の両方の復元及び合成を行う点において、水中特性補正部73fや水中特性補正部73faと相違する。しかしながら、他の動作については同様のものとなるため、説明を省略する。   The underwater characteristic correction unit 73fb is different from the underwater characteristic correction unit 73f and the underwater characteristic correction unit 73fa in that both low frequency band components and high frequency band components are restored and combined. However, since other operations are the same, description thereof is omitted.

水中で集音される音声信号は、低周波帯域成分も高周波帯域成分も、空気中で集音された音声信号のそれとは異なり、水中の音の集音特性の影響を大きく受けたものとなる。そのため、水中特性補正部73f,73fa及び73fbについて、音声信号の高周波帯域成分及び低周波帯域成分のいずれかまたは両方に復元した成分を合成させる構成とすることにより、水中の音の集音特性の影響を低減することが可能となる。即ち、効果的にユーザの意図する音声信号に近づけることが可能となる。   The sound signal collected in the water is greatly influenced by the sound collection characteristics of the sound in the water, unlike the sound signal collected in the air, both in the low frequency band component and the high frequency band component. . For this reason, the underwater characteristic correction units 73f, 73fa, and 73fb are configured to synthesize a component restored to one or both of the high-frequency band component and the low-frequency band component of the audio signal. The influence can be reduced. That is, it is possible to effectively approximate the audio signal intended by the user.

<水中特性補正部の第7実施例>
次に、図2に示した水中特性補正部73の第7実施例について図面を参照して説明する。図26は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第7実施例について示すブロック図である。図26に示すように、音声処理部7pは、A/D変換部71と、集音環境判定部72と、水中特性補正部73gと、を備える。
<Seventh Example of Underwater Characteristic Correction Unit>
Next, a seventh embodiment of the underwater characteristic correction unit 73 shown in FIG. 2 will be described with reference to the drawings. FIG. 26 is a block diagram showing a seventh example of the underwater characteristic correction unit provided in the sound processing unit according to the embodiment of the present invention. As shown in FIG. 26, the audio processing unit 7p includes an A / D conversion unit 71, a sound collection environment determination unit 72, and an underwater characteristic correction unit 73g.

水中特性補正部73gは、入力される音声信号から所定の周波数の成分を抽出して所定周波帯域成分を出力する所定成分抽出部7327と、入力される音声信号から所定成分抽出部7327が抽出する周波数の成分を低減して非所定周波帯域成分を出力する所定成分低減部7328と、代替成分を出力する代替成分供給部7329と、所定成分抽出部7327から出力される所定周波帯域成分に集音環境判定部72から出力される混合係数βを積算する係数積算部7330と、代替成分供給部から出力される代替成分に集音環境判定部72から出力される混合係数(1−β)を積算する係数積算部7331と、係数積算部7330から出力される所定周波帯域成分と係数積算部7331から出力される代替成分とを合成して合成所定周波帯域成分を出力する合成部7332と、合成部7332から出力される合成所定周波帯域成分と所定成分低減部から出力される非所定周波帯域成分とを合成して音声信号を出力する合成部7333と、を備える。   The underwater characteristic correction unit 73g extracts a predetermined frequency component from the input audio signal and outputs a predetermined frequency band component, and the predetermined component extraction unit 7327 extracts the input audio signal. A predetermined component reduction unit 7328 that outputs a non-predetermined frequency band component by reducing frequency components, an alternative component supply unit 7329 that outputs an alternative component, and a predetermined frequency band component output from the predetermined component extraction unit 7327 collects sound. A coefficient integration unit 7330 that integrates the mixing coefficient β output from the environment determination unit 72, and a mixing coefficient (1-β) output from the sound collection environment determination unit 72 is integrated into the alternative component output from the alternative component supply unit And combining the predetermined frequency band component output from the coefficient integration unit 7330 and the alternative component output from the coefficient integration unit 7331 to generate a combined predetermined frequency band component. A synthesizing unit 7332 for outputting the minute, a synthesizing unit 7333 for synthesizing the synthesized predetermined frequency band component output from the synthesizing unit 7332 and the non-predetermined frequency band component output from the predetermined component reducing unit, and outputting an audio signal; Is provided.

集音環境判定部72は、上述したような方法で、入力される音声信号が水中で集音されたものであるか否かを判定する。一方、水中特性補正部73gは、所定成分抽出部7327において、入力される音声信号の所定周波帯域成分を抽出する。また、所定成分低減部7328において、入力される音声信号の所定周波帯域成分を低減し、非所定周波帯域成分を得る。さらに、代替成分供給部7329から、所定周波帯域成分と同様の周波帯域の成分である代替成分が出力される。そして、所定成分抽出部7327によって抽出される所定周波帯域成分は係数積算部7330に入力され、代替成分供給部7329から出力される代替成分は係数積算部7331に入力される。   The sound collection environment determination unit 72 determines whether or not the input audio signal is collected in water by the method described above. On the other hand, the underwater characteristic correction unit 73g extracts a predetermined frequency band component of the input audio signal in the predetermined component extraction unit 7327. Further, the predetermined component reduction unit 7328 reduces the predetermined frequency band component of the input audio signal to obtain a non-predetermined frequency band component. Further, the substitute component supply unit 7329 outputs a substitute component that is a component in the same frequency band as the predetermined frequency band component. The predetermined frequency band component extracted by the predetermined component extraction unit 7327 is input to the coefficient integration unit 7330, and the alternative component output from the alternative component supply unit 7329 is input to the coefficient integration unit 7331.

集音環境判定部72において、入力される音声信号が水中で集音されたものであると判定される場合は、係数積算部7330が、入力される所定周波帯域成分に混合係数βを積算して出力する。また、係数積算部7331は、入力される代替成分に混合係数(1−β)を積算して出力する。そして、混合係数βが積算された所定周波帯域成分と、混合係数(1−β)が積算された代替成分と、は合成部7332で合成され、一つの合成所定周波帯域成分として出力される。   When the sound collection environment determination unit 72 determines that the input audio signal is collected in water, the coefficient integration unit 7330 adds the mixing coefficient β to the input predetermined frequency band component. Output. In addition, the coefficient accumulating unit 7331 accumulates and outputs the mixing coefficient (1-β) to the input substitute component. The predetermined frequency band component integrated with the mixing coefficient β and the alternative component integrated with the mixing coefficient (1-β) are combined by the combining unit 7332 and output as one combined predetermined frequency band component.

そして、合成部7332から出力される合成所定周波帯域成分と、所定成分低減部7328から出力される非所定周波帯域成分と、が合成部7333で合成され、一つの音声信号として出力される。   The synthesized predetermined frequency band component output from the synthesizing unit 7332 and the non-predetermined frequency band component output from the predetermined component reducing unit 7328 are synthesized by the synthesizing unit 7333 and output as one audio signal.

代替成分供給部7329から出力される代替成分は、例えば、予め集音することによって得られた代替信号から、所定周波帯域成分と同様の周波数の成分を抽出することによって得られる。この代替成分は、ユーザが代替したいと考える信号であり、任意のものである。例えば、空気中の静音時に集音して得られるものであっても構わない。また、水泡が弾けるような音であっても構わないし、人工的な音や無音であっても構わない。   The substitute component output from the substitute component supply unit 7329 is obtained, for example, by extracting a component having the same frequency as the predetermined frequency band component from the substitute signal obtained by collecting sound in advance. This substitute component is a signal that the user wants to substitute and is arbitrary. For example, it may be obtained by collecting sound during silence in the air. Further, the sound may be such that a water bubble can be played, or may be an artificial sound or silence.

水中特性補正部73gを本実施例のように構成すると、所定周波帯域成分の信号を改善することが可能となる。特に、水中で集音を行う際に強度が集中する低周波帯域成分や、強度が大きく減衰する高周波帯域成分、感度が高くなり耳障りとなりやすい自己発生駆動音が含まれる所定周波帯域成分など、の成分に、水中の音の集音特性の影響を受けていない(ノイズが小さいなど、水中の音の集音特性の影響をあまり受けていないものも含む)代替成分を合成させることができる。したがって、水中で集音された音声信号から、水中の音の集音特性による影響を低減することが可能となる。即ち、効果的にユーザの意図する音声信号に近づけることが可能となる。   If the underwater characteristic correction unit 73g is configured as in the present embodiment, it is possible to improve the signal of the predetermined frequency band component. In particular, low-frequency band components that concentrate when collecting sound in water, high-frequency band components that attenuate greatly, and predetermined frequency bands that contain self-generated drive sound that is sensitive and easily harsh. Alternative components that are not affected by the sound collection characteristics of the underwater sound (including those that are not significantly affected by the sound collection characteristics of the underwater sound such as low noise) can be synthesized. Therefore, it is possible to reduce the influence of the sound collection characteristics of the sound in water from the sound signal collected in water. That is, it is possible to effectively approximate the audio signal intended by the user.

なお、所定成分抽出部7327及び所定成分低減部7328の組み合わせを、カットオフ周波数の等しいLPF及びHPFの組み合わせとしても構わない。また、所定成分抽出部7327をBPFとして、所定成分低減部7328を、BPFによって抽出される周波数帯の成分を遮断するBEFとしても構わない。   Note that the combination of the predetermined component extraction unit 7327 and the predetermined component reduction unit 7328 may be a combination of LPF and HPF having the same cutoff frequency. Further, the predetermined component extraction unit 7327 may be a BPF, and the predetermined component reduction unit 7328 may be a BEF that blocks a frequency band component extracted by the BPF.

また、第3実施例と同様に、自己発生駆動音(例えばモータの駆動音)が発生したことを代替成分供給部7329や集音環境判定部72が検出し、自己発生駆動音の発生に応じて代替成分の合成を行うこととしても構わない。また、このときの代替成分を、耳障りにならない程度に抑制された自己発生駆動音としても構わない。   As in the third embodiment, the alternative component supply unit 7329 and the sound collection environment determination unit 72 detect that a self-generated driving sound (for example, a motor driving sound) has occurred, and respond to the generation of the self-generated driving sound. It is also possible to synthesize alternative components. Further, the substitute component at this time may be self-generated driving sound that is suppressed to such an extent that it does not become harsh.

また、予め集音して得られた代替信号から代替成分を作成する場合に、空気中である程度の時間以上集音して得られる音声信号から、代替成分に使用すると好適となる部分(例えば、ノイズなどの信号が含まれず、一定の強度で安定している部分など)を取り出して組み合わせ、代替信号を作成しても構わない。このような代替信号から代替成分を作成して合成する構成とすると、より効果的にユーザの意図する音声信号を得ることが可能となる。   Further, when creating an alternative component from an alternative signal obtained by collecting sound in advance, a portion that is suitable for use as an alternative component from an audio signal obtained by collecting sound in air for a certain period of time (for example, A substitute signal may be created by taking out and combining a portion that does not include a signal such as noise and is stable at a constant intensity. When such a substitute signal is created and synthesized from such a substitute signal, a voice signal intended by the user can be obtained more effectively.

また、複数の代替成分を記録するとともに、これらをランダムで出力して合成することとしても構わない。このような構成とすると、格納する代替成分の総時間を短くすることができる。そのため、代替成分のデータ量が低減されて、代替成分を記録する装置の小型化を図ることが可能となる。また、代替成分が所定のパターンの繰り返しではなくなるため、自然な音声信号を得ることが可能となる。   In addition, a plurality of alternative components may be recorded, and these may be randomly output and combined. With such a configuration, it is possible to shorten the total time of the alternative components to be stored. Therefore, the data amount of the substitute component is reduced, and the apparatus for recording the substitute component can be downsized. In addition, since the substitute component is not a repetition of a predetermined pattern, a natural audio signal can be obtained.

また、代替成分供給部7329に代替成分を格納することとしても構わないし、図1に示すメモリ15や外部メモリ9に代替成分を格納することとしても構わない。また、代替信号を格納するとともに、代替成分供給部7329によって適宜必要となる代替成分を代替信号から抽出して、係数積算部7331に出力する構成としても構わない。   Further, the alternative component may be stored in the alternative component supply unit 7329, or the alternative component may be stored in the memory 15 or the external memory 9 shown in FIG. Further, the alternative signal may be stored, and an alternative component that is appropriately required by the alternative component supply unit 7329 may be extracted from the alternative signal and output to the coefficient integration unit 7331.

また、集音環境判定部72が、水中で集音されたものであると判定する場合に混合係数βを小さくし、水中で集音されたものではないと判定する場合に混合係数βを大きくしても構わない。さらに、集音環境判定部72が水中で集音されたものではないと判定する場合に、混合係数βを1にしても構わない。混合係数βを1とすると、所定成分抽出部7327から出力される所定周波帯域成分が、係数積算部7330及び合成部7332をそのまま通過して合成部7333に入力される。即ち、合成部7332から出力される合成所定周波帯域成分が、所定周波帯域成分と等しいものとなる。また、このとき代替成分供給部7329から代替成分が出力されないこととしても構わない。   Further, when the sound collection environment determination unit 72 determines that the sound is collected in water, the mixing coefficient β is decreased, and when it is determined that the sound is not collected in water, the mixing coefficient β is increased. It doesn't matter. Furthermore, the mixing coefficient β may be set to 1 when the sound collection environment determination unit 72 determines that the sound is not collected in water. When the mixing coefficient β is 1, the predetermined frequency band component output from the predetermined component extraction unit 7327 passes through the coefficient integration unit 7330 and the synthesis unit 7332 as it is and is input to the synthesis unit 7333. That is, the combined predetermined frequency band component output from the combining unit 7332 is equal to the predetermined frequency band component. At this time, the substitute component may not be output from the substitute component supply unit 7329.

また、入力される音声信号の強度などに基づいて入力される音声信号の劣化の程度を判断し、混合係数βの値を変化させることとしても構わない。さらに、劣化の程度が大きいと判断される場合に、混合係数βを小さくしても構わない。また、混合係数βが0を取りうることとしても構わない。   Also, the degree of deterioration of the input audio signal may be determined based on the intensity of the input audio signal, and the value of the mixing coefficient β may be changed. Further, when it is determined that the degree of deterioration is large, the mixing coefficient β may be reduced. Further, the mixing coefficient β may be 0.

また、本例では所定成分抽出部7327によって抽出される所定の周波数の成分に、代替成分を合成することとしたが、全ての周波数帯域において代替成分または代替信号を合成する構成としても構わない。   In this example, the alternative component is synthesized with the component of the predetermined frequency extracted by the predetermined component extraction unit 7327. However, the configuration may be such that the alternative component or the alternative signal is synthesized in all frequency bands.

<水中特性補正部の第8実施例>
次に、図2に示した水中特性補正部73の第8実施例について図面を参照して説明する。図27は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第8実施例について示すブロック図である。図27に示すように、音声処理部7qは、A/D変換部71と、集音環境判定部72と、水中特性補正部73hと、を備える。また、音声処理部7qには、0ch〜nch(ただし、nは自然数)のn+1チャネルの音声信号が入力されるものとする。
<Eighth Example of Underwater Characteristic Correction Unit>
Next, an eighth embodiment of the underwater characteristic correction unit 73 shown in FIG. 2 will be described with reference to the drawings. FIG. 27 is a block diagram showing an eighth example of the underwater characteristic correction unit provided in the sound processing unit according to the embodiment of the present invention. As shown in FIG. 27, the audio processing unit 7q includes an A / D conversion unit 71, a sound collection environment determination unit 72, and an underwater characteristic correction unit 73h. Also, it is assumed that n + 1 channel audio signals of 0ch to nch (where n is a natural number) are input to the audio processing unit 7q.

水中特性補正部73hには、入力される複数チャネルの音声信号の中から強度が最小となる音声信号を選択して出力する最小信号選択部7334と、入力される複数チャネルの音声信号のそれぞれに混合係数(1−γ)を積算する係数積算部7335〜7337と、最小信号選択部7334から出力される音声信号に混合係数γを積算する係数積算部7338と、係数積算部7335〜7337のそれぞれから出力される音声信号と係数積算部7338から出力される音声信号とをそれぞれ合成してそれぞれのチャネルの音声信号として出力する合成部7339〜7341と、を備える。   The underwater characteristic correction unit 73h selects a minimum-signal selection unit 7334 that selects and outputs the audio signal having the minimum intensity from the input multiple-channel audio signals, and the input multiple-channel audio signals. A coefficient integration unit 7335-7337 that integrates the mixing coefficient (1-γ), a coefficient integration unit 7338 that integrates the mixing coefficient γ into the audio signal output from the minimum signal selection unit 7334, and a coefficient integration unit 7335-7337, respectively. Synthesizer 7339 to 7341 for synthesizing the audio signal output from the audio signal and the audio signal output from the coefficient accumulating unit 7338 and outputting them as audio signals of the respective channels.

集音環境判定部72は、上述したような方法で、入力される音声信号が水中で集音されたものであるか否かを判定する。一方、水中特性補正部73hは、最小信号選択部7334において、入力される複数の音声信号の中から強度が最も小さい音声信号を選択する。選択された音声信号は、係数積算部7338に入力される。また、水中特性補正部73hに入力されるそれぞれのチャネルの音声信号は、係数積算部7335〜7337のそれぞれにも入力される。   The sound collection environment determination unit 72 determines whether or not the input audio signal is collected in water by the method described above. On the other hand, the underwater characteristic correction unit 73h selects the audio signal having the lowest intensity from the plurality of input audio signals in the minimum signal selection unit 7334. The selected audio signal is input to the coefficient integration unit 7338. The audio signals of the respective channels input to the underwater characteristic correction unit 73h are also input to the coefficient integration units 7335 to 7337, respectively.

集音環境判定部72において、入力される音声信号が水中で集音されたものであると判定される場合は、係数積算部7338が、最小信号選択部7334から出力される音声信号に混合係数γを積算して出力する。また、係数積算部7335〜7337は、入力されるそれぞれのチャネルの音声信号に混合係数(1−γ)を積算して出力する。そして、混合係数γが積算された音声信号と、混合係数(1−γ)が積算されたそれぞれのチャネルの音声信号と、は合成部7339〜7341でそれぞれ合成され、それぞれのチャネルの音声信号として出力される。   When the sound collection environment determination unit 72 determines that the input audio signal is collected in water, the coefficient integration unit 7338 adds the mixing coefficient to the audio signal output from the minimum signal selection unit 7334. γ is integrated and output. In addition, the coefficient accumulating units 7335 to 7337 accumulate and output the mixing coefficient (1-γ) to the input audio signals of the respective channels. Then, the audio signal integrated with the mixing coefficient γ and the audio signal of each channel integrated with the mixing coefficient (1−γ) are synthesized by the synthesizing units 7339 to 7341, respectively, as the audio signal of each channel. Is output.

水中特性補正部73hを本実施例のように構成すると、いずれかのチャネルのマイクで集音した音声信号に強度が大きいノイズが含まれたとしても、そのノイズを低減することが可能となる。特に、水中ではマイクに水圧がかかるため、集音して得られる音声信号中に強度が大きいノイズがランダムで発生することがある。しかしながら、本実施例のように、所定の割合(混合係数γ及び(1−γ))で、最も強度が小さい音声信号をそれぞれのチャネルの音声信号に合成することとすると、いずれかのチャネルの音声信号に含まれる強度が大きいノイズを、他のチャネルの音声信号(最も強度が小さい音声信号、即ち強度が大きいノイズが含まれないと見込まれるチャネルの音声信号)を合成することによって低減することができる。したがって、水中で集音された音声信号から、水中の音の集音特性による影響を低減することが可能となる。即ち、効果的にユーザの意図する音声信号に近づけることが可能となる。   When the underwater characteristic correction unit 73h is configured as in the present embodiment, even if a high-intensity noise is included in an audio signal collected by a microphone of any channel, the noise can be reduced. In particular, since the water pressure is applied to the microphone in the water, noise with a high intensity may be randomly generated in the audio signal obtained by collecting the sound. However, as in this embodiment, when the audio signal with the lowest intensity is synthesized with the audio signal of each channel at a predetermined ratio (mixing coefficient γ and (1-γ)), To reduce the high-intensity noise included in the audio signal by synthesizing the audio signal of the other channel (the audio signal of the lowest intensity, that is, the audio signal of the channel expected to contain no noise of high intensity). Can do. Therefore, it is possible to reduce the influence of the sound collection characteristics of the sound in water from the sound signal collected in water. That is, it is possible to effectively approximate the audio signal intended by the user.

なお、γ=1としても構わない。γ=1とすると、全てのチャネルの音声信号が最も強度が小さい音声信号に統一されることとなる。即ち、モノラルの音声信号とすることが可能となり、強度が大きくノイズを含んでいると見込まれるチャネルの音声信号を排除することが可能となる。   Note that γ = 1 may be used. If γ = 1, the audio signals of all channels are unified to the audio signal having the lowest intensity. In other words, it is possible to obtain a monaural audio signal, and it is possible to eliminate an audio signal of a channel that is expected to have a high intensity and include noise.

また、集音環境判定部72が、水中で集音されたものであると判定する場合に混合係数γを大きくし、水中で集音されたものではないと判定する場合に混合係数γを小さくしても構わない。さらに、集音環境判定部72が水中で集音されたものではないと判定する場合に、混合係数γを0にしても構わない。混合係数γを0にすると、入力されるそれぞれのチャネルの音声信号が係数積算部7335〜7337及び合成部7339〜7341をそのまま通過して出力される。また、このとき最小信号選択部7334において音声信号が選択及び出力されないこととしても構わない。   Further, when the sound collection environment determination unit 72 determines that the sound is collected in water, the mixing coefficient γ is increased, and when it is determined that the sound is not collected in water, the mixing coefficient γ is decreased. It doesn't matter. Furthermore, the mixing coefficient γ may be set to 0 when the sound collection environment determination unit 72 determines that the sound is not collected in water. When the mixing coefficient γ is set to 0, the input audio signal of each channel passes through the coefficient integrating units 7335 to 7337 and the combining units 7339 to 7341 and is output as it is. At this time, the minimum signal selection unit 7334 may not select and output the audio signal.

また、入力される音声信号の強度に基づいて混合係数γの値を変化させることとしても構わない。さらに、係数積算部7335〜7337毎に、混合係数を設定することとしても構わない。この場合、それぞれのチャネルの音声信号毎に合成される割合が調整されることとなる。   Further, the value of the mixing coefficient γ may be changed based on the intensity of the input audio signal. Furthermore, a mixing coefficient may be set for each coefficient integration unit 7335 to 7337. In this case, the ratio of synthesis for each audio signal of each channel is adjusted.

また、上述した例では音声信号全体に対する合成について述べたが、音声信号の所定の周波数帯の成分のみに対して合成を行うこととしても構わない。このように構成する場合、最小信号選択部7334及び係数積算部7335〜7337に、各チャネルの音声信号の所定の周波数帯の成分がそれぞれ入力されることとなる。また、合成部7339〜7341からは、それぞれの音声信号の所定の周波数帯の成分が出力されることとなる。このとき、最小信号選択部7334及び係数積算部7335〜7337の前段に、所定の周波数帯の成分を抽出する所定成分抽出部を備えることとしても構わない。また、合成部7339〜7341の後段に、合成後の所定の周波数帯の成分を各チャネルの音声信号に合成させる合成部を備えることとしても構わない。   In the above-described example, the synthesis of the entire audio signal has been described. However, the synthesis may be performed only on the components of the predetermined frequency band of the audio signal. When configured in this manner, components of a predetermined frequency band of the audio signal of each channel are input to the minimum signal selection unit 7334 and the coefficient integration units 7335 to 7337, respectively. In addition, the synthesis units 7339 to 7341 output components of predetermined frequency bands of the respective audio signals. At this time, a predetermined component extraction unit that extracts a component of a predetermined frequency band may be provided before the minimum signal selection unit 7334 and the coefficient integration units 7335 to 7337. Further, a synthesis unit that synthesizes a component of a predetermined frequency band after synthesis into the audio signal of each channel may be provided in the subsequent stage of the synthesis units 7339 to 7341.

<水中特性補正部の実施例の組み合わせ>
上述した実施例の水中特性補正部73a〜73hについては、組み合わせて実施することが可能である。組み合わせる場合、それぞれの実施例の効果を得ることができる。組み合わせ方について、同時に実施する組み合わせ方(例えば、第1実施例と第2実施例とを組み合わせる場合、図12のHPF7302と合成部7304の間に図13の増幅部7303を備えるなど)でも構わないし、多段で組み合わせる組み合わせ方(例えば、第1実施例と第4実施例とを組み合わせる場合、図12の合成部7304の出力側に図16の平滑部7310を接続するなど)でも構わない。
<Combination of Examples of Underwater Characteristic Correction Unit>
About the underwater characteristic correction | amendment parts 73a-73h of the Example mentioned above, it is possible to implement in combination. When combined, the effects of the respective embodiments can be obtained. As for the combination method, a combination method performed simultaneously (for example, when the first embodiment and the second embodiment are combined, the amplification unit 7303 in FIG. 13 is provided between the HPF 7302 and the synthesis unit 7304 in FIG. 12, etc.) may be used. Further, it may be combined in multiple stages (for example, when the first embodiment and the fourth embodiment are combined, the smoothing unit 7310 in FIG. 16 is connected to the output side of the combining unit 7304 in FIG. 12).

<<再生時の適用例>>
上述の実施形態は、集音時に集音環境を判定して音声信号に水中特性補正処理を行う音声処理装置や電子機器に関するものである。しかしながら、本発明はこれに限らず、再生時に集音環境を判定して水中特性補正処理を行う再生機能を備える電子機器にも適用することができる。
<< Application example during playback >>
The above-described embodiment relates to a sound processing device and an electronic device that determine a sound collection environment during sound collection and perform underwater characteristic correction processing on a sound signal. However, the present invention is not limited to this, and can also be applied to an electronic apparatus having a reproduction function for determining a sound collection environment during reproduction and performing underwater characteristic correction processing.

図28に、再生時に集音環境を判定して水中特性補正処理を行うことが可能な撮像装置1aを示す。図28は、本発明の別の実施形態における撮像装置の基本構成について示すブロック図であり、図1に相当するものである。なお、図1と同様の部分については同じ符号を付し、その詳細な説明については省略する。   FIG. 28 shows an imaging apparatus 1a capable of determining the sound collection environment during reproduction and performing underwater characteristic correction processing. FIG. 28 is a block diagram showing a basic configuration of an imaging apparatus according to another embodiment of the present invention, and corresponds to FIG. The same parts as those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted.

図28に示す撮像装置1aは、音声処理部7の代わりに音声処理部7rを備える点と、伸長処理部11から入力される信号を処理して音声出力回路部13に出力する音声処理部7sをさらに備える点を除き、図1の撮像装置1と同様の構成となる。   The imaging apparatus 1a illustrated in FIG. 28 includes a voice processing unit 7r instead of the voice processing unit 7, and a voice processing unit 7s that processes a signal input from the expansion processing unit 11 and outputs the processed signal to the voice output circuit unit 13. The configuration is the same as that of the imaging device 1 of FIG.

また、音声処理部7rは、集音環境判定部72と、水中特性補正部73と、を備えない構成となる点を除き、図2に示す音声処理部7と同様の構成となる。また、音声処理部7sは、A/D変換部71を備えない構成となる点を除き、図2に示す音声処理部7と同様の構成となる。そして、本例では、音声処理部7sに備えられる集音環境判定部及び水中特性補正部において、音声信号が水中で集音されたものであるか否かの判定と、その判定に基づいた水中特性補正処理とが行われる。集音環境判定部及び水中特性補正部の構成や、判定方法及び補正方法は上述したそれぞれの実施例と同様であるため、詳細な説明については省略する。   The sound processing unit 7r has the same configuration as the sound processing unit 7 shown in FIG. 2 except that the sound collection environment determination unit 72 and the underwater characteristic correction unit 73 are not provided. The audio processing unit 7s has the same configuration as the audio processing unit 7 shown in FIG. 2 except that the audio processing unit 7s does not include the A / D conversion unit 71. In this example, in the sound collection environment determination unit and the underwater characteristic correction unit provided in the sound processing unit 7s, it is determined whether or not the sound signal is collected in water, and underwater based on the determination. A characteristic correction process is performed. Since the configuration of the sound collection environment determination unit and the underwater characteristic correction unit, the determination method, and the correction method are the same as those in the above-described embodiments, detailed description thereof is omitted.

このように構成することで、再生する音声信号に基づいて集音環境が水中であるか否かを判定し、集音環境が水中であると判定される場合に水中特性補正を音声信号に施して再生することが可能となる。したがって、水中特性補正処理を行わずに記録した音声信号に対しても、集音環境の判定と水中特性補正処理とを行うことが可能となる。   With this configuration, it is determined whether or not the sound collection environment is underwater based on the audio signal to be reproduced, and when it is determined that the sound collection environment is underwater, the underwater characteristic correction is performed on the audio signal. Can be played. Therefore, it is possible to perform the sound collection environment determination and the underwater characteristic correction process even for the audio signal recorded without performing the underwater characteristic correction process.

なお、音声処理部7rが、集音環境判定部と水中特性補正部とを備える構成として、音声処理部7r,7sのどちらにおいても、集音環境の判定と水中特性補正処理とを行うことができる構成としても構わない。このように構成すると、集音時及び再生時の任意の時期において、集音環境の判定と水中特性補正処理とを行うことが可能となる。   Note that the sound processing unit 7r includes a sound collection environment determination unit and an underwater characteristic correction unit, and both the sound processing units 7r and 7s perform sound collection environment determination and underwater characteristic correction processing. It does not matter as a possible configuration. With this configuration, it is possible to determine the sound collection environment and perform underwater characteristic correction processing at any time during sound collection and playback.

また、再生機能のみを備える再生装置(例えば、光ディスクなどに記録された画像信号及び音声信号を再生する再生装置など)に、本例を適用することとしても構わない。このような構成としても、音声信号に基づいた集音環境の判定と水中特性補正処理とを行うことができる。   Further, the present example may be applied to a playback apparatus having only a playback function (for example, a playback apparatus that plays back an image signal and an audio signal recorded on an optical disk or the like). Even with such a configuration, it is possible to perform sound collection environment determination and underwater characteristic correction processing based on the audio signal.

また、音声処理部7sに備えられる集音環境判定部として、図7及び図8に示した集音環境判定部72b,72cを用いる場合や、水中特性補正部として図14に示す水中特性補正部73cを用いる場合、CPU14から集音環境判定部72b,72c及び水中特性補正部73cが時間情報を受け取る構成とせず、音声信号に付加されたインデックスなどから自己発生駆動音の発生を検出することとしても構わない。さらにこの場合、音声処理部7rがCPU14から時間情報を取得して、音声信号に付加することとしても構わない。   In addition, when the sound collection environment determination units 72b and 72c shown in FIGS. 7 and 8 are used as the sound collection environment determination unit provided in the sound processing unit 7s, the underwater characteristic correction unit shown in FIG. 14 is used as the underwater characteristic correction unit. In the case of using 73c, the sound collection environment determination units 72b and 72c and the underwater characteristic correction unit 73c are not configured to receive time information from the CPU 14, and the generation of self-generated driving sound is detected from an index or the like added to the audio signal. It doesn't matter. Furthermore, in this case, the audio processing unit 7r may acquire time information from the CPU 14 and add it to the audio signal.

このように構成すると、撮像装置1aで集音及び記録されていない音声信号を、撮像装置1aを用いて再生する場合でも、集音環境の判定及び水中特性補正処理を行うことが可能となる。   With this configuration, it is possible to perform sound collection environment determination and underwater characteristic correction processing even when a sound signal that has not been collected and recorded by the imaging device 1a is reproduced using the imaging device 1a.

<<変形例>>
なお、図2に示した音声処理部7の集音環境判定部72や水中特性補正部73において処理される音声信号を、時間軸の信号としても構わないし、周波数軸の信号としても構わない。
<< Modification >>
Note that the audio signal processed in the sound collection environment determination unit 72 and the underwater characteristic correction unit 73 of the audio processing unit 7 shown in FIG. 2 may be a time axis signal or a frequency axis signal.

また、本発明の実施形態における撮像装置1,1aについて、音声処理部7,7sの集音環境判定部72や水中特性補正部73などのそれぞれの動作を、マイコンなどの制御装置が行うこととしても構わない。さらに、このような制御装置によって実現される機能の全部または一部をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部または一部を実現するようにしても構わない。   In addition, regarding the imaging devices 1 and 1a in the embodiment of the present invention, a control device such as a microcomputer performs the operations of the sound collection environment determination unit 72 and the underwater characteristic correction unit 73 of the sound processing units 7 and 7s. It doesn't matter. Further, all or part of the functions realized by such a control device is described as a program, and the program is executed on a program execution device (for example, a computer) to realize all or part of the functions. It doesn't matter if you do.

また、上述した場合に限らず、図1及び図28の撮像装置1,1a、図2の音声処理部7は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。また、ソフトウェアを用いて撮像装置1,1aや音声処理部7を構成する場合、ソフトウェアによって実現される部位についてのブロック図は、その部位の機能ブロック図を表すこととする。   In addition to the case described above, the imaging devices 1 and 1a in FIGS. 1 and 28 and the audio processing unit 7 in FIG. 2 can be realized by hardware or a combination of hardware and software. When the imaging devices 1 and 1a and the sound processing unit 7 are configured using software, a block diagram of a part realized by software represents a functional block diagram of the part.

以上、本発明における実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えて実行することができる。   As mentioned above, although embodiment in this invention was described, the range of this invention is not limited to this, It can add and implement various changes in the range which does not deviate from the main point of invention.

本発明は、水中で集音された音声信号を処理する音声処理装置や音声処理方法、音声処理装置を搭載した電子機器に関するものである。特に、撮像装置やICレコーダなどの集音可能な電子機器に適用することとすると好適である。   The present invention relates to an audio processing device, an audio processing method, and an electronic apparatus equipped with an audio processing device that processes an audio signal collected in water. In particular, the present invention is preferably applied to an electronic device capable of collecting sound such as an imaging device or an IC recorder.

は、本発明の実施形態における撮像装置の基本構成について示すブロック図である。These are block diagrams shown about the basic composition of the imaging device in the embodiment of the present invention. は、本発明の実施形態における撮像装置の音声処理部の基本構成について示すブロック図である。These are block diagrams shown about the basic composition of the voice processing part of the imaging device in the embodiment of the present invention. は、本発明の実施形態における音声処理部に備えられる集音環境判定部の第1実施例について示すブロック図である。These are block diagrams shown about the 1st Example of the sound collection environment determination part with which the audio | voice processing part in embodiment of this invention is equipped. は、空気中で集音された音声信号の周波数特性の一例を示すグラフである。These are graphs which show an example of the frequency characteristic of the audio | voice signal collected in the air. は、水中で集音された音声信号の周波数特性の一例を示すグラフである。These are graphs which show an example of the frequency characteristic of the audio | voice signal collected underwater. は、空気中と水中における音声の周波数特性の相違を示す図である。These are figures which show the difference in the frequency characteristic of the sound in the air and underwater. は、本発明の実施形態における音声処理部に備えられる集音環境判定部の第2実施例について示すブロック図である。These are block diagrams shown about the 2nd Example of the sound collection environment determination part with which the audio | voice processing part in embodiment of this invention is equipped. は、本発明の実施形態における音声処理部に備えられる集音環境判定部の第3実施例について示すブロック図である。These are block diagrams shown about the 3rd Example of the sound collection environment determination part with which the audio | voice processing part in embodiment of this invention is equipped. は、本発明の実施形態における音声処理部に備えられる集音環境判定部の第4実施例について示すブロック図である。These are block diagrams shown about the 4th Example of the sound collection environment determination part with which the audio | voice processing part in embodiment of this invention is equipped. は、ステレオマイクの模式図である。These are schematic diagrams of a stereo microphone. は、本発明の実施形態における音声処理部に備えられる集音環境判定部の第5実施例について示すブロック図である。These are block diagrams shown about the 5th Example of the sound collection environment determination part with which the audio | voice processing part in embodiment of this invention is equipped. は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第1実施例について示すブロック図である。These are block diagrams shown about the 1st Example of the underwater characteristic correction | amendment part with which the audio | voice processing part in embodiment of this invention is equipped. は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第2実施例について示すブロック図である。These are block diagrams shown about the 2nd Example of the underwater characteristic correction | amendment part with which the audio | voice processing part in embodiment of this invention is equipped. は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第3実施例について示すブロック図である。These are block diagrams shown about the 3rd Example of the underwater characteristic correction | amendment part with which the audio | voice processing part in embodiment of this invention is equipped. は、水中で集音された音声信号に含まれる自己発生駆動音ノイズについて示したグラフである。These are the graphs shown about the self-generated drive sound noise contained in the audio | voice signal collected underwater. は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第4実施例について示すブロック図である。These are block diagrams shown about the 4th Example of the underwater characteristic correction | amendment part with which the audio | voice processing part in embodiment of this invention is equipped. は、水中で集音された音声信号に含まれる擦り切れ音ノイズと平滑部の処理とについて示したグラフである。These are graphs showing the fray noise noise included in the audio signal collected in water and the processing of the smoothing unit. は、水中で集音された音声信号に含まれるノイズと平滑部の処理とについて示したグラフである。These are the graphs shown about the noise contained in the audio | voice signal collected underwater, and the process of a smooth part. は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第5実施例について示すブロック図である。These are block diagrams shown about the 5th Example of the underwater characteristic correction | amendment part with which the audio | voice processing part in embodiment of this invention is equipped. は、AGC部の動作の具体例について示したグラフである。These are graphs showing a specific example of the operation of the AGC unit. は、水中で集音された音声信号に含まれる突発ノイズとレスポンス速度制御部の処理について示したグラフである。These are the graphs which showed about the sudden noise contained in the audio | voice signal collected underwater, and the process of a response speed control part. は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第6実施例について示すブロック図である。These are block diagrams shown about the 6th Example of the underwater characteristic correction | amendment part with which the audio | voice processing part in embodiment of this invention is equipped. は、水中で集音された音声信号と空気中で集音された音声信号とを併せて示した模式的なグラフである。[Fig. 4] is a schematic graph showing an audio signal collected in water and an audio signal collected in air. は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第6実施例の別例について示すブロック図である。These are block diagrams shown about another example of 6th Example of the underwater characteristic correction | amendment part with which the audio | voice processing part in embodiment of this invention is equipped. は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第6実施例の別例について示すブロック図である。These are block diagrams shown about another example of 6th Example of the underwater characteristic correction | amendment part with which the audio | voice processing part in embodiment of this invention is equipped. は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第7実施例について示すブロック図である。These are block diagrams shown about the 7th Example of the underwater characteristic correction | amendment part with which the audio | voice processing part in embodiment of this invention is equipped. は、本発明の実施形態における音声処理部に備えられる水中特性補正部の第8実施例について示すブロック図である。These are block diagrams shown about the 8th Example of the underwater characteristic correction | amendment part with which the audio | voice processing part in embodiment of this invention is equipped. は、本発明の別の実施形態における撮像装置の基本構成について示すブロック図である。These are block diagrams shown about the basic composition of the imaging device in another embodiment of the present invention.

符号の説明Explanation of symbols

1,1a 撮像装置
2 イメージセンサ
3 レンズ部
4 AFE
5 ステレオマイク
6 画像処理部
7,7a〜7h,7k,7m,7n,7p〜7s 音声処理部
71 A/D変換部
72、72a〜72e 集音環境判定部
721 周波数特性判定部
722、726 伝播特性判定部
723 第1判定部
724 第2判定部
725、729 総合判定部
727 Rch判定部
728 Lch判定部
73、73a〜73g、73fa、73fb 水中特性補正部
7301,7305,7312,7317 LPF
7302,7306,7314,7321 HPF
7303 減衰部
7304、7308,7319,7320,7324〜7326 合成部
7332,7333,7339〜7341 合成部
7307 増幅部
7309 所定信号減衰部
7310 平滑部
7311 レスポンス速度制御部
7313 BPF
7315,7318,7322,7323,7330,7331 係数積算部
7335〜7338 係数積算部
7316 復元部
7327 所定成分抽出部
7328 所定成分低減部
7329 代替成分供給部
7334 最小信号選択部
74 AGC部
8 圧縮処理部
9 外部メモリ
10 ドライバ部
11 伸長処理部
12 画像出力回路部
13 音声出力回路部
14 CPU
15 メモリ
16 操作部
17 TG部
18 バス
19 バス
1, 1a Imaging device 2 Image sensor 3 Lens unit 4 AFE
5 Stereo microphone 6 Image processing unit 7, 7a to 7h, 7k, 7m, 7n, 7p to 7s Audio processing unit 71 A / D conversion unit 72, 72a to 72e Sound collection environment determination unit 721 Frequency characteristic determination unit 722, 726 Propagation Characteristic determination unit 723 First determination unit 724 Second determination unit 725, 729 Total determination unit 727 Rch determination unit 728 Lch determination unit 73, 73a to 73g, 73fa, 73fb Underwater characteristic correction unit 7301, 7305, 7312, 7317 LPF
7302, 7306, 7314, 7321 HPF
7303 Attenuator 7304, 7308, 7319, 7320, 7324-7326 Synthesizer 7332, 7333, 7339-7341 Synthesizer 7307 Amplifier 7309 Predetermined signal attenuator 7310 Smoother 7311 Response speed controller 7313 BPF
7315, 7318, 7322, 7323, 7330, 7331 Coefficient accumulating unit 7335-7338 Coefficient accumulating unit 7316 Restoring unit 7327 Predetermined component extracting unit 7328 Predetermined component reducing unit 7329 Alternative component supplying unit 7334 Minimum signal selecting unit 74 AGC unit 8 Compression processing unit 9 External memory 10 Driver unit 11 Decompression processing unit 12 Image output circuit unit 13 Audio output circuit unit 14 CPU
15 Memory 16 Operation section 17 TG section 18 Bus 19 Bus

Claims (9)

入力される音声信号の処理を行う音声処理装置において、
入力される音声信号に基づいて、当該音声信号が水中で集音されたものであるか否かを判定する集音環境判定部と、
水中の音の集音特性の影響を音声信号から低減させる水中特性補正処理を、入力される音声信号に施す水中特性補正部と、
を備え、
当該集音環境判定部で入力される音声信号が水中で集音されたものであると判定される場合に、前記水中特性補正部が、入力される音声信号に前記水中特性補正処理を施すことを特徴とする音声処理装置。
In an audio processing device that processes input audio signals,
A sound collection environment determination unit that determines whether the sound signal is collected in water based on the input sound signal;
An underwater characteristic correction unit that performs an underwater characteristic correction process on the input audio signal to reduce the influence of the sound collection characteristic of the underwater sound from the audio signal;
With
When the sound signal input by the sound collection environment determination unit is determined to be collected in water, the underwater characteristic correction unit performs the underwater characteristic correction processing on the input sound signal. A voice processing apparatus characterized by the above.
前記水中特性補正部が、入力される音声信号を減衰させる減衰部を備え、
当該減衰部により音声信号の第1周波数以下の成分を減衰させる処理が、前記水中特性補正処理に含まれることを特徴とする請求項1に記載の音声処理装置。
The underwater characteristic correction unit includes an attenuation unit that attenuates an input audio signal,
The audio processing apparatus according to claim 1, wherein a process of attenuating a component having a frequency equal to or lower than the first frequency of the audio signal by the attenuation unit is included in the underwater characteristic correction process.
前記水中特性補正部が、入力される音声信号を増幅させる増幅部を備え、
当該増幅部により音声信号の第2周波数以上の成分を増幅させる処理が、前記水中特性補正処理に含まれることを特徴とする請求項1または請求項2に記載の音声処理装置。
The underwater characteristic correction unit includes an amplification unit that amplifies an input audio signal,
The audio processing apparatus according to claim 1 or 2, wherein the amplifying unit includes a process of amplifying a component having a frequency equal to or higher than a second frequency of the audio signal in the underwater characteristic correction process.
前記水中特性補正部が、入力される音声信号を平滑化する平滑部を備え、
当該平滑部により音声信号を平滑化する処理が、前記水中特性補正処理に含まれることを特徴とする請求項1〜請求項3のいずれかに記載の音声処理装置。
The underwater characteristic correction unit includes a smoothing unit that smoothes an input audio signal,
The audio processing apparatus according to claim 1, wherein a process of smoothing an audio signal by the smoothing unit is included in the underwater characteristic correction process.
入力される音声信号の強度を所定の時間単位で監視及び調整するAGC部をさらに備えるとともに、
前記水中特性補正部が、前記AGC部の所定の時間の長さを制御するレスポンス速度制御部を備え、
当該レスポンス速度制御部により前記AGC部の前記所定の時間の長さを短くする処理が、前記水中特性補正処理に含まれることを特徴とする請求項1〜請求項4のいずれかに記載の音声処理装置。
An AGC unit for monitoring and adjusting the intensity of the input audio signal in a predetermined time unit is further provided.
The underwater characteristic correction unit includes a response speed control unit that controls a predetermined length of time of the AGC unit,
The voice according to any one of claims 1 to 4, wherein the underwater characteristic correction process includes a process of shortening the predetermined time length of the AGC unit by the response speed control unit. Processing equipment.
前記水中特性補正部が、入力される音声信号に所定の信号を合成する合成部を備え、
当該合成部により前記所定の信号を音声信号に合成する処理が、前記水中特性補正処理に含まれることを特徴とする請求項1〜請求項5のいずれかに記載の音声処理装置。
The underwater characteristic correction unit includes a synthesis unit that synthesizes a predetermined signal with an input audio signal,
The audio processing apparatus according to claim 1, wherein a process of synthesizing the predetermined signal into an audio signal by the synthesizing unit is included in the underwater characteristic correction process.
集音して得た音声信号を補正する補正機能を備えた電子機器において、
前記補正機能を実現する音声処理部として、請求項1〜請求項6のいずれかに記載の音声処理装置を備えることを特徴とする電子機器。
In an electronic device having a correction function for correcting an audio signal obtained by collecting sound,
An electronic apparatus comprising the voice processing device according to claim 1 as a voice processing unit that realizes the correction function.
自機器の動作を制御する制御部をさらに備えるとともに、
前記音声処理部に備えられる前記水中特性補正部が、前記制御部が自機器を動作させる際に出力する制御情報に基づいて動作するとともに入力される音声信号の所定の周波数帯の成分を減衰させる所定信号減衰部を備え、
当該所定信号減衰部により前記所定の周波数帯の成分を減衰させる処理が、前記水中特性補正処理に含まれることを特徴とする請求項7に記載の電子機器。
While further comprising a control unit for controlling the operation of the device itself,
The underwater characteristic correction unit provided in the audio processing unit operates based on control information output when the control unit operates its own device, and attenuates a component in a predetermined frequency band of an input audio signal. A predetermined signal attenuation unit;
The electronic device according to claim 7, wherein a process of attenuating the component of the predetermined frequency band by the predetermined signal attenuating unit is included in the underwater characteristic correction process.
入力される音声信号に基づいて、当該音声信号が水中で集音されたものであるか否かを判定する第1ステップと、
当該第1ステップにおいて、入力される音声信号が水中で集音されたものであると判定される場合に、水中の音の集音特性の影響を音声信号から低減させる水中特性補正処理を、入力される音声信号に施す第2ステップと、
を備えることを特徴とする音声処理方法。
A first step for determining whether or not the audio signal is collected in water based on the input audio signal;
In the first step, when it is determined that the input audio signal is collected underwater, an underwater characteristic correction process for reducing the influence of the sound collection characteristic of the underwater sound from the audio signal is input. A second step applied to the audio signal to be performed;
An audio processing method comprising:
JP2008107920A 2007-12-06 2008-04-17 Audio processing apparatus, electronic apparatus, and audio processing method Expired - Fee Related JP5171370B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008107920A JP5171370B2 (en) 2008-04-17 2008-04-17 Audio processing apparatus, electronic apparatus, and audio processing method
US12/328,353 US8050142B2 (en) 2007-12-06 2008-12-04 Sound collection environment deciding device, sound processing device, electronic appliance, sound collection environment deciding method and sound processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008107920A JP5171370B2 (en) 2008-04-17 2008-04-17 Audio processing apparatus, electronic apparatus, and audio processing method

Publications (2)

Publication Number Publication Date
JP2009258423A true JP2009258423A (en) 2009-11-05
JP5171370B2 JP5171370B2 (en) 2013-03-27

Family

ID=41385934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008107920A Expired - Fee Related JP5171370B2 (en) 2007-12-06 2008-04-17 Audio processing apparatus, electronic apparatus, and audio processing method

Country Status (1)

Country Link
JP (1) JP5171370B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011176440A (en) * 2010-02-23 2011-09-08 Kyocera Corp Portable electronic equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0730790A (en) * 1993-07-08 1995-01-31 Hitachi Ltd Vtr with built-in camera provided with waterproof structure
JPH11215583A (en) * 1998-01-26 1999-08-06 Oki Electric Ind Co Ltd Sonar system
JP2007214852A (en) * 2006-02-09 2007-08-23 Sanyo Electric Co Ltd Camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0730790A (en) * 1993-07-08 1995-01-31 Hitachi Ltd Vtr with built-in camera provided with waterproof structure
JPH11215583A (en) * 1998-01-26 1999-08-06 Oki Electric Ind Co Ltd Sonar system
JP2007214852A (en) * 2006-02-09 2007-08-23 Sanyo Electric Co Ltd Camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011176440A (en) * 2010-02-23 2011-09-08 Kyocera Corp Portable electronic equipment

Also Published As

Publication number Publication date
JP5171370B2 (en) 2013-03-27

Similar Documents

Publication Publication Date Title
JP5263767B2 (en) Imaging device and mode suitability determination method
US8050142B2 (en) Sound collection environment deciding device, sound processing device, electronic appliance, sound collection environment deciding method and sound processing method
JP2008287041A (en) Imaging device, audio processing circuit, noise reduction circuit, noise reduction method and program
JP2008263498A (en) Wind noise reducing device, sound signal recorder and imaging apparatus
KR101739942B1 (en) Method for removing audio noise and Image photographing apparatus thereof
JP2011028061A (en) Sound recording apparatus and method, and imaging apparatus
JP2008245254A (en) Audio processing apparatus
JP2008263483A (en) Wind noise reducing device, sound signal recorder, and imaging apparatus
JP5349062B2 (en) SOUND PROCESSING DEVICE, ELECTRONIC DEVICE HAVING SAME, AND SOUND PROCESSING METHOD
US11657794B2 (en) Audio processing apparatus for reducing noise using plurality of microphones, control method, and recording medium
JP5529638B2 (en) Audio processing apparatus, audio processing method, and imaging apparatus
JP2009005133A (en) Wind noise reducing apparatus and electronic device with the wind noise reducing apparatus
JP5171370B2 (en) Audio processing apparatus, electronic apparatus, and audio processing method
JP2011119783A (en) Audio signal processing device
JP5171369B2 (en) Sound collection environment determination device, electronic apparatus including the same, and sound collection environment determination method
JP5645373B2 (en) Audio processing apparatus and audio processing method
JP5162858B2 (en) Audio recording apparatus, audio recording method, and program
JP5495753B2 (en) Imaging device
JP2019161334A (en) Speech processing unit
JP5340127B2 (en) Audio signal processing apparatus and control method of audio signal processing apparatus
US20220383891A1 (en) Sound processing apparatus and control method
JP2010134260A (en) Electronic apparatus and voice processing method
JP2009005157A (en) Sound signal correction device
JP2010081395A (en) Electronic apparatus
JP2011248309A (en) Acoustic processing device and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121225

R151 Written notification of patent or utility model registration

Ref document number: 5171370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160111

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160111

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees