JP2010134260A - Electronic apparatus and voice processing method - Google Patents

Electronic apparatus and voice processing method Download PDF

Info

Publication number
JP2010134260A
JP2010134260A JP2008311159A JP2008311159A JP2010134260A JP 2010134260 A JP2010134260 A JP 2010134260A JP 2008311159 A JP2008311159 A JP 2008311159A JP 2008311159 A JP2008311159 A JP 2008311159A JP 2010134260 A JP2010134260 A JP 2010134260A
Authority
JP
Japan
Prior art keywords
sound
water
processing unit
signal
collected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008311159A
Other languages
Japanese (ja)
Inventor
Tomoki Oku
智岐 奥
Makoto Yamanaka
誠 山中
Masahiro Yoshida
昌弘 吉田
Kazuma Hara
一眞 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008311159A priority Critical patent/JP2010134260A/en
Publication of JP2010134260A publication Critical patent/JP2010134260A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic apparatus reducing a sense of incongruity in reproduction of voice collected underwater. <P>SOLUTION: The electronic apparatus includes a voice processing part 7 having a recording and/or reproducing function of gathered voice signals, and in recording voice signals gathered underwater and/or reproducing the voice signals, the voice signals are processed according to acoustic sense characteristics of a human in the water. The voice processing part 7 includes a correction processing part 72 correcting frequency characteristics of the voice signals in accordance with human acoustic sense characteristics in the water. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、音声信号の記録及び/又は再生が可能な電子機器(例えば、撮像装置やICレコーダ等)及び音声信号の記録及び/又は再生の際に実施される音声信号処理方法に関する。   The present invention relates to an electronic device (for example, an imaging apparatus or an IC recorder) capable of recording and / or reproducing an audio signal, and an audio signal processing method performed when recording and / or reproducing an audio signal.

近年の技術開発の発展に伴い、水中での音の収録が可能となっている。水中での音の収録は、例えばハイドロホン(水中マイクロホン)を用いて実施される。ハイドロホンは、特殊な防水加工が施されているため直接水中に入れて使用することができる。また、一般的なハイドロホンは水中でフラットな可聴帯域の集音特性を持っており、さらにハイドロホンの中には人間が聞くことのできない高帯域の音まで集音することができるものもある。また、水深数m〜数十m程度の深さでの撮影及び集音が可能な防水タイプの民生用デジタルカメラやムービーカメラも開発されている。   With the development of technology in recent years, it is possible to record underwater sounds. Recording of sound in water is performed using, for example, a hydrophone (underwater microphone). Hydrophones are specially waterproofed and can be used directly in the water. In addition, general hydrophones have sound collection characteristics that are flat and audible in water, and some hydrophones can collect even high-frequency sounds that humans cannot hear. . In addition, waterproof digital cameras and movie cameras that can shoot and collect sound at a depth of several to several tens of meters have been developed.

一方、人間の聴覚特性は、水中と空気中では大きく異なり、水中においては特に3kHzから8kHz付近の聴感が非常に悪いということが知られている(図1参照) 。なお、図1は、空気中の40phonに相当する水中の等感レベルと空気中の等感レベルのレベル差を示す図であり、非特許文献1に開示されている。ここで、図1に示すグラフの内容について詳細に説明する。「phon」とは、「音量」のことであり、人間が感じる音の大きさを示している。また、「等感レベル」とは、全周波数帯域で同じ「音量」であると感じられるレベルを意味している。等感レベルは、周波数によって異なる場合がある。すなわち、或る周波数で40phonと感じるレベルと、他の周波数で40phonと感じるレベルは異なる場合がある。また、図1に示すグラフの縦軸の単位dBは、「音圧レベル」の単位であり、信号レベルそのものを示している。したがって、図1に示すグラフは、空気中での等感レベルが40phonとなる音響信号を水中において放射したときに、水中では空気中よりも特に3kHzから8kHz付近の聴感特性が悪いことを示している。例えば、周波数6kHz付近では、人間が40phonと感じる信号レベルが、空気中より水中の方が約28dB程度高いことを示している。   On the other hand, human auditory characteristics differ greatly between water and air, and it is known that the audibility in the vicinity of 3 kHz to 8 kHz is very poor in water (see FIG. 1). FIG. 1 is a diagram illustrating a level difference between an underwater equivalent feeling level corresponding to 40 phon in air and an equal feeling level in air, which is disclosed in Non-Patent Document 1. Here, the contents of the graph shown in FIG. 1 will be described in detail. “Phon” means “volume” and indicates the volume of sound felt by humans. Further, the “equivalence level” means a level at which the same “volume” is felt in all frequency bands. The level of equivalence may vary with frequency. That is, the level that feels 40 phon at a certain frequency may be different from the level that feels 40 phon at another frequency. Further, the unit dB on the vertical axis of the graph shown in FIG. 1 is a unit of “sound pressure level” and indicates the signal level itself. Therefore, the graph shown in FIG. 1 shows that when an acoustic signal having an isosensitivity level of 40 phon in air is radiated in water, the audibility characteristics in the vicinity of 3 kHz to 8 kHz are worse in water than in air. Yes. For example, in the vicinity of a frequency of 6 kHz, the signal level that a human feels as 40 phon is about 28 dB higher in water than in air.

上述した人間の聴覚特性のため、水中に潜ったときは、音がこもったような感覚になり、中域の音が聞き取りにくくなるが、このようなこもった音が人間にとって「水中らしい」と感じる音になる。   Due to the above-mentioned human auditory characteristics, when submerged in the water, it feels like it was muffled, making it difficult to hear mid-range sounds, but such muffled sounds are “underwater” for humans. It feels like a sound.

桑原信也、他3名、「水中聴覚に基づく周波数特性補正による明瞭度の改善」、海洋音響学会講演論文集、2004年5、p.89−92Nobuya Kuwabara and 3 others, “Improvement of intelligibility by correcting frequency characteristics based on underwater hearing”, Ocean Acoustics Society Proceedings, 2004, 5, p. 89-92

ところが、水中で収録された音声は、撮影者が実際に水中に潜ったときに聴いた音声と異なる場合があり、違和感がある。このような違和感は、水中における集音装置(マイク)の集音特性と水中における人間の聴覚特性とが異なっている場合に生じる。例えば、一般的なハイドロホンで集音した音声は、すべての可聴帯域の音が同じ感度で集音されるが、撮影者が水中に潜って聴いた音は、中域が聞こえにくく、こもった音になるので、一般的なハイドロホンを用いて水中で音声を集音し記録した場合、上述した違和感が生じることになる。   However, the sound recorded underwater may be different from the sound heard when the photographer actually submersed in the water, which is uncomfortable. Such a sense of incongruity occurs when the sound collection characteristics of the sound collection device (microphone) in water are different from the human auditory characteristics in water. For example, the sound collected by a general hydrophone is collected with the same sensitivity for all the audible bands, but the sound that the photographer dive in the water is difficult to hear the midrange. Therefore, when the sound is collected and recorded underwater using a general hydrophone, the above-mentioned uncomfortable feeling occurs.

本発明は、上記の状況に鑑み、水中で収録された音声を再生した際の違和感を低減することができる電子機器及び音声信号処理方法を提供することを目的とする。   In view of the above situation, an object of the present invention is to provide an electronic device and an audio signal processing method capable of reducing a sense of incongruity when audio recorded in water is reproduced.

上記の目的を達成するために、本発明に係る電子機器は、集音した音声信号の記録及び/又は再生機能を有し、水中で集音した音声信号を記録する際、及び/又は、水中で集音され記録された音声信号を再生する際において、水中における人間の聴覚特性に合わせて音声信号を処理する音声処理部を備える構成とする。   In order to achieve the above object, an electronic device according to the present invention has a recording and / or reproduction function of a collected audio signal, and records an audio signal collected in water and / or underwater. When reproducing the sound signal collected and recorded in step S1, the sound processing unit is configured to process the sound signal in accordance with the human auditory characteristics in water.

また、前記音声処理部の一例として、水中で集音した音声信号を記録する際、及び/又は、水中で集音され記録された音声信号を再生する際において、水中における人間の聴覚特性に合わせて音声信号の周波数特性を補正する音声補正処理部が挙げられる。   Further, as an example of the audio processing unit, when recording an audio signal collected in water and / or reproducing an audio signal collected and recorded in water, the audio processing unit is matched with human auditory characteristics in water. An audio correction processing unit that corrects the frequency characteristics of the audio signal.

また、前記音声処理部の他の例として、水中で集音した音声信号を記録する際において、水中における人間の聴覚特性に合わせて音声圧縮符号化における符号ビット割り当ての重み付けを水中以外で集音した音声信号を記録する場合から変更する音声処理部が挙げられる。   As another example of the sound processing unit, when recording a sound signal collected underwater, the weighting of code bit allocation in sound compression coding according to human auditory characteristics in water is performed outside of water. An audio processing unit that changes from the case of recording the audio signal is included.

また、前記音声処理部の更に他の例として、上述した二つの例を組み合わせた音声処理部が挙げられる。上述した二つの例を組み合わせた音声処理部は、水中で集音した音声信号を記録する際において、水中における人間の聴覚特性に合わせて音声信号の周波数特性を補正し且つ水中における人間の聴覚特性に合わせて音声圧縮符号化における符号ビット割り当ての重み付けを水中以外で集音した音声信号を記録する場合から変更する音声補正処理部、又は、水中で集音した音声信号を記録する際において、水中における人間の聴覚特性に合わせて音声圧縮符号化における符号ビット割り当ての重み付けを水中以外で集音した音声信号を記録する場合から変更し且つ水中で集音され記録された音声信号を再生する際において、水中における人間の聴覚特性に合わせて音声信号の周波数特性を補正する音声補正処理部である。   Still another example of the voice processing unit is a voice processing unit that combines the two examples described above. The audio processing unit combining the above two examples corrects the frequency characteristics of the audio signal in accordance with the human auditory characteristics in the water and records the human auditory characteristics in the water when recording the audio signal collected in the water. In accordance with the audio correction processing unit for changing the weighting of the code bit allocation in the audio compression coding from when recording the audio signal collected outside the water, or when recording the audio signal collected underwater, When reproducing audio signals collected and recorded underwater, the weighting of code bit allocation in audio compression coding is changed from when recording audio signals collected outside the water according to human auditory characteristics The sound correction processing unit corrects the frequency characteristics of the sound signal in accordance with the human auditory characteristics in water.

また、音声信号が水中で集音されたものであるか否かを判定する集音環境判定部を備え、前記集音環境判定部によって音声信号が水中で集音されたものであると判定された場合にのみ、前記音声処理部が水中における人間の聴覚特性に合わせて音声信号を処理するようにしてもよい。   A sound collecting environment determining unit that determines whether or not the sound signal is collected in water, and the sound collecting environment determining unit determines that the sound signal is collected in water; In this case, the audio processing unit may process the audio signal in accordance with the human auditory characteristics in water.

また、上記各構成の電子機器の一例としては、映像を撮影するカメラを備える撮像装置が挙げられる。   Moreover, as an example of the electronic device having each configuration described above, an imaging apparatus including a camera that captures an image can be given.

また、上記の目的を達成するために、本発明に係る音声信号処理方法は、水中で集音した音声信号を記録する際、及び/又は、水中で集音され記録された音声信号を再生する際のいずれかにおいて、水中における人間の聴覚特性に合わせて音声信号を処理するステップを備えるようにする。   In order to achieve the above object, the audio signal processing method according to the present invention records an audio signal collected in water and / or reproduces an audio signal collected and recorded in water. In any case, a step of processing an audio signal in accordance with human auditory characteristics in water is provided.

本発明の構成によると、水中で集音した音声信号を記録する際、及び/又は、水中で集音され記録された音声信号を再生する際のいずれかにおいて、水中における人間の聴覚特性に合わせて音声信号が処理されるので、撮影者が実際に水中に潜ったときに聴いた音声に近づけることができ、水中で収録された音声を再生した際の違和感を低減することができる。   According to the configuration of the present invention, when recording an audio signal collected in water and / or reproducing an audio signal collected and recorded in water, it is matched with the human auditory characteristics in water. Since the audio signal is processed, it can be brought close to the sound heard when the photographer actually dive in the water, and the uncomfortable feeling when reproducing the sound recorded in the water can be reduced.

本発明の実施形態について図面を参照して以下に説明する。ここでは、本発明に係る電子機器として撮像装置を例に挙げて説明する。   Embodiments of the present invention will be described below with reference to the drawings. Here, an imaging apparatus will be described as an example of the electronic apparatus according to the invention.

<撮像装置の基本構成>
まず、撮像装置の基本構成について図2を参照して説明する。図2は、本発明に係る撮像装置の一内部構成例を示すブロック図である。
<Basic configuration of imaging device>
First, the basic configuration of the imaging apparatus will be described with reference to FIG. FIG. 2 is a block diagram illustrating an internal configuration example of the imaging apparatus according to the present invention.

図2に示す撮像装置は、入射される光を電気信号に変換するCCD(Charge Coupled Device)またはCMOS(Complimentary Metal Oxide Semiconductor)センサなどの固体撮像素子(イメージセンサ)1と、被写体の光学像をイメージセンサ1に結像させるズームレンズとズームレンズの焦点距離すなわち光学ズーム倍率を変化させるモータとズームレンズの焦点を被写体に合わせるためのモータとを有するレンズ部2と、イメージセンサ1から出力されるアナログ信号である画像信号をデジタル信号に変換するAFE(Analog Front End)3と、AFE3からのデジタル信号となる画像信号に対して、階調補正等の各種画像処理を施す画像処理部4と、画像処理部4から出力される画像信号に対してMPEG(Moving Picture Experts Group)圧縮方式などの圧縮符号化処理を施す画像圧縮処理部5と、音声を電気信号に変換するハイドロホン(水中マイク)6と、ハイドロホン6からのアナログ信号である音声信号に対して音声処理(少なくともアナログ−デジタル変換処理とMPEG圧縮方式などの圧縮符号化処理とを含む音声処理)を行う音声処理部7と、画像圧縮処理部5で圧縮符号化された圧縮符号化画像信号及び音声処理部7で圧縮符号化された圧縮符号化音声信号からなる圧縮符号化信号をSDカードなどの外部メモリ22に記録するドライバ部8と、ドライバ部8で外部メモリ22から読み出した圧縮符号化信号を伸長して復号する伸長処理部9と、伸長処理部9で復号されて得られた画像信号をアナログ信号に変換するビデオ出力回路部10と、ビデオ出力回路部10で変換された信号を出力するビデオ出力端子11と、ビデオ出力回路部10からの信号に基づく画像の表示を行うLCD(Liquid Crystal Display)等を有するディスプレイ部12と、伸長処理部9からの音声信号をアナログ信号に変換する音声出力回路部13と、音声出力回路部13で変換された信号を出力する音声出力端子14と、音声出力回路部13からの音声信号に基づいて音声を再生出力するスピーカ部15と、各ブロックの動作タイミングを一致させるためのタイミング制御信号を出力するタイミングジェネレータ(TG)16と、撮像装置内全体の駆動動作を制御するCPU(Central Processing Unit)17と、各動作のための各プログラムを記憶するとともにプログラム実行時のデータの一時保管を行うメモリ18と、撮影者からの指示が入力される操作部19と、CPU17と各ブロックとの間でデータのやりとりを行うためのバス回線20と、メモリ18と各ブロックとの間でデータのやりとりを行うためのバス回線21とを備える。なお、CPU17は、画像処理部4で検出した画像信号に応じて、レンズ部2内の各モータを駆動して焦点、絞りの制御を行う。   The imaging apparatus shown in FIG. 2 is a solid-state imaging device (image sensor) 1 such as a CCD (Charge Coupled Device) or CMOS (Complimentary Metal Oxide Semiconductor) sensor that converts incident light into an electrical signal, and an optical image of a subject. The image sensor 1 outputs a zoom lens that forms an image on the image sensor 1, a motor that changes the focal length of the zoom lens, that is, a motor that changes the optical zoom magnification, and a motor that focuses the zoom lens on the subject. An AFE (Analog Front End) 3 that converts an image signal that is an analog signal into a digital signal; an image processing unit 4 that performs various image processing such as gradation correction on the image signal that is a digital signal from the AFE 3; A compression coding process such as MPEG (Moving Picture Experts Group) compression method is applied to the image signal output from the image processing unit 4. An image compression processing unit 5 that performs the processing, a hydrophone (underwater microphone) 6 that converts sound into an electric signal, and sound processing (at least analog-to-digital conversion processing and MPEG) on the sound signal that is an analog signal from the hydrophone 6 A sound processing unit 7 that performs compression processing such as a compression method), a compression-encoded image signal that is compression-encoded by the image compression processing unit 5, and a compression that is compression-encoded by the sound processing unit 7. A driver unit 8 that records a compressed encoded signal composed of an encoded audio signal in an external memory 22 such as an SD card, and an expansion processing unit 9 that expands and decodes the compressed encoded signal read from the external memory 22 by the driver unit 8 A video output circuit unit 10 for converting an image signal obtained by decoding by the decompression processing unit 9 into an analog signal, and a signal converted by the video output circuit unit 10. A video output terminal 11, a display unit 12 having an LCD (Liquid Crystal Display) or the like that displays an image based on a signal from the video output circuit unit 10, and an audio signal from the expansion processing unit 9 is converted into an analog signal. Audio output circuit unit 13, audio output terminal 14 that outputs a signal converted by audio output circuit unit 13, speaker unit 15 that reproduces and outputs audio based on the audio signal from audio output circuit unit 13, and each block Stores a timing generator (TG) 16 that outputs a timing control signal for matching the operation timings of the two, a CPU (Central Processing Unit) 17 that controls the drive operation of the entire imaging apparatus, and a program for each operation. And a memory 18 for temporarily storing data during program execution, an operation unit 19 for inputting an instruction from the photographer, It comprises a PU17 a bus line 20 for exchanging data with each block, and a bus line 21 for exchanging data between the memory 18 and each of the blocks. The CPU 17 controls the focus and the diaphragm by driving each motor in the lens unit 2 according to the image signal detected by the image processing unit 4.

<撮像装置の基本動作>
次に、図2に示す撮像装置の動画像撮影時の基本動作について図2を参照して説明する。まず、撮像装置は、レンズ部2より入射される光をイメージセンサ1において光電変換することによって、電気信号である画像信号を取得する。そして、イメージセンサ1は、タイミングジェネレータ16から入力されるタイミング制御信号に同期して、所定のフレーム周期(例えば、1/60秒)で順次AFE3に画像信号を出力する。なお、CPU17は、設定された撮影モードに応じたカメラ制御(AF、AE、ISO感度等)をイメージセンサ1及びレンズ部2に対して行う。
<Basic operation of imaging device>
Next, a basic operation of the imaging apparatus shown in FIG. 2 when shooting a moving image will be described with reference to FIG. First, the imaging apparatus acquires an image signal that is an electrical signal by photoelectrically converting light incident from the lens unit 2 in the image sensor 1. Then, in synchronization with the timing control signal input from the timing generator 16, the image sensor 1 sequentially outputs image signals to the AFE 3 at a predetermined frame period (for example, 1/60 seconds). The CPU 17 performs camera control (AF, AE, ISO sensitivity, etc.) on the image sensor 1 and the lens unit 2 in accordance with the set shooting mode.

そして、AFE3によってアナログ信号からデジタル信号へと変換された画像信号は、画像処理部4に入力される。画像処理部4は、入力される画像信号を、輝度信号と色差信号とからなる画像信号に変換するとともに、階調補正や輪郭強調等の各種画像処理を施す。また、メモリ18はフレームメモリとして動作し、画像処理部4が処理を行う際に画像信号を一時的に保持する。そして、画像処理部4から出力される画像信号が画像圧縮処理部5に入力され、画像圧縮処理部5において所定の圧縮方式で圧縮される。   Then, the image signal converted from the analog signal to the digital signal by the AFE 3 is input to the image processing unit 4. The image processing unit 4 converts the input image signal into an image signal composed of a luminance signal and a color difference signal, and performs various image processing such as gradation correction and contour enhancement. The memory 18 operates as a frame memory, and temporarily holds an image signal when the image processing unit 4 performs processing. Then, the image signal output from the image processing unit 4 is input to the image compression processing unit 5 and is compressed by the predetermined compression method in the image compression processing unit 5.

また、このとき画像処理部4に入力される画像信号に基づき、レンズ部2において、各種レンズの位置が調整されてフォーカスの調整が行われたり、絞りの開度が調整されて露出の調整が行われたりする。このフォーカスや露出の調整は、それぞれ最適な状態となるように所定のプログラムに基づいて自動的に行われたり、撮影者の指示に基づいて手動で行われたりする。   At this time, based on the image signal input to the image processing unit 4, the lens unit 2 adjusts the position of various lenses to adjust the focus, or adjusts the opening of the diaphragm to adjust the exposure. It is done. This adjustment of focus and exposure is automatically performed based on a predetermined program so as to be in an optimum state, or manually performed based on a photographer's instruction.

一方、ハイドロホン6において電気信号に変換される音声信号は、音声処理部7に入力される。音声処理部7は、入力される音声信号をデジタル信号に変換し、場合によってはノイズ除去や音声信号の強度制御などの音声補正処理を施した後、所定の圧縮方式で圧縮される。   On the other hand, an audio signal converted into an electric signal in the hydrophone 6 is input to the audio processing unit 7. The sound processing unit 7 converts an input sound signal into a digital signal, and in some cases, performs sound correction processing such as noise removal and sound signal intensity control, and then compressed by a predetermined compression method.

そして、画像圧縮処理部5から出力される圧縮符号化画像信号と、音声処理部7から出力される圧縮符号化音声信号とが時間的に関連付けられ、再生時に画像と音とがずれないように構成される。そして、圧縮された画像信号及び音声信号はドライバ部8を介して外部メモリ22に記録される。   The compression-encoded image signal output from the image compression processing unit 5 and the compression-encoded audio signal output from the audio processing unit 7 are temporally related so that the image and sound do not shift during reproduction. Composed. The compressed image signal and audio signal are recorded in the external memory 22 via the driver unit 8.

外部メモリ22に記録された圧縮符号化信号は、撮影者の指示に基づく操作部19の出力信号に応じて、伸長処理部9に読み出される。伸長処理部9は、圧縮符号化信号を伸長及び復号し、画像信号及び音声信号を生成する。そして、画像信号をビデオ出力回路部10、音声信号を音声出力回路部13にそれぞれ出力する。そして、ビデオ出力回路部10や音声出力回路部13において、画像信号及び音声信号がディスプレイ部12やスピーカ部15において再生可能な形式に変換されて出力される。   The compression-coded signal recorded in the external memory 22 is read by the decompression processing unit 9 in accordance with the output signal from the operation unit 19 based on the photographer's instruction. The decompression processing unit 9 decompresses and decodes the compressed encoded signal, and generates an image signal and an audio signal. The image signal is output to the video output circuit unit 10 and the audio signal is output to the audio output circuit unit 13. Then, in the video output circuit unit 10 and the audio output circuit unit 13, the image signal and the audio signal are converted into a format reproducible on the display unit 12 and the speaker unit 15 and output.

また、画像信号の記録を行わずにディスプレイ部12に表示される画像を撮影者が確認する、所謂プレビューモードである場合に、画像圧縮処理部5が圧縮処理を行わないようにし、画像処理部4が画像圧縮処理部5ではなくビデオ出力回路部10に画像信号を出力するようにしてもよい。また、画像信号を記録する際に、ドライバ部8を介して外部メモリ22に記録する動作と並行して、ビデオ出力回路10を介してディスプレイ部12に画像信号を出力するようにしても構わない。   Further, in a so-called preview mode in which the photographer confirms an image displayed on the display unit 12 without recording an image signal, the image compression processing unit 5 is prevented from performing the compression processing, and the image processing unit 4 may output the image signal to the video output circuit unit 10 instead of the image compression processing unit 5. Further, when recording an image signal, the image signal may be output to the display unit 12 via the video output circuit 10 in parallel with the operation of recording in the external memory 22 via the driver unit 8. .

なお、図2に示す構成では、ディスプレイ部12やスピーカ部15が撮像装置に搭載されているが、ディスプレイ部12やスピーカ部15を撮像装置と別体とし、撮像装置に設けられる端子(ビデオ出力端子11、音声出力端子14)とケーブル等を用いて接続されるような構成であっても構わない。   In the configuration shown in FIG. 2, the display unit 12 and the speaker unit 15 are mounted on the imaging device. However, the display unit 12 and the speaker unit 15 are separated from the imaging device, and terminals (video output) provided in the imaging device. The terminal 11 and the audio output terminal 14) may be connected using a cable or the like.

<音声処理部の第1実施例>
最初に、音声処理部7の第1実施例について図3〜図5を参照して説明する。図3は、音声処理部7の第1実施例を採用した場合の音声処理部7の構成を示すブロック図である。音声処理部7の第1実施例では、音声処理部7が、ハイドロホン6から出力されるアナログ音声信号をデジタル音声信号に変換するA/D変換部71と、A/D変換部71から出力されるデジタル音声信号に対して補正処理を施す補正処理部72と、補正処理部72から出力される音声信号に対してMPEG圧縮方式などの圧縮符号化処理を施す音声圧縮処理部73とを備えている。また、図4(a)は水中で白色雑音を再生した場合における補正処理部72の入力信号の周波数特性を示す図であり、図4(b)は水中で白色雑音を再生した場合における補正処理部72の出力信号の周波数特性を示す図である。
<First Example of Audio Processing Unit>
First, a first embodiment of the voice processing unit 7 will be described with reference to FIGS. FIG. 3 is a block diagram showing the configuration of the voice processing unit 7 when the first embodiment of the voice processing unit 7 is adopted. In the first embodiment of the audio processing unit 7, the audio processing unit 7 converts an analog audio signal output from the hydrophone 6 into a digital audio signal, and outputs from the A / D conversion unit 71. A correction processing unit 72 that performs correction processing on the digital audio signal to be processed, and an audio compression processing unit 73 that performs compression encoding processing such as MPEG compression on the audio signal output from the correction processing unit 72. ing. 4A is a diagram showing the frequency characteristics of the input signal of the correction processing unit 72 when white noise is reproduced in water, and FIG. 4B is a correction process when white noise is reproduced in water. 7 is a diagram illustrating frequency characteristics of an output signal of a unit 72. FIG.

上述したように、一般的なハイドロホンは、水中においてフラットな集音特性を持っているのに対し、水中における人間の聴覚特性は、図1に示すような特性になる。そこで、補正処理部72は、ハイドロホン6から出力されるアナログ音声信号をA/D変換したデジタル音声信号に対して3kHzから8kHzの信号レベルを数dBから30dB程度低減させ、水中における人間の聴覚特性に近い周波数特性に補正する。これにより、図4に示すような補正処理部72の入出力信号の周波数特性を得ることができ、水中で収録された音声を再生した際の違和感を低減することができる。   As described above, a general hydrophone has a flat sound collecting characteristic in water, whereas a human auditory characteristic in water has a characteristic as shown in FIG. Therefore, the correction processing unit 72 reduces the signal level of 3 kHz to 8 kHz by about several dB to 30 dB with respect to the digital audio signal obtained by A / D converting the analog audio signal output from the hydrophone 6, thereby allowing human hearing underwater. Correct to a frequency characteristic close to the characteristic. Thereby, the frequency characteristic of the input / output signal of the correction processing unit 72 as shown in FIG. 4 can be obtained, and the uncomfortable feeling when reproducing the sound recorded in water can be reduced.

音声処理部7の第1実施例を採用した場合の音声処理部7が継続的に行う動作の概略をまとめると、図5に示すフローチャートのようになる。すなわち、音声処理部7の第1実施例を採用した場合の音声処理部7は、ハイドロホン6から出力されるアナログ音声信号をデジタル音声信号に変換するA/D変換処理を施し(ステップ#10)、当該A/D変換処理で得られたデジタル音声信号に対して3kHzから8kHzの信号レベルを数dBから30dB程度低減させ、水中における人間の聴覚特性に近い周波数特性に補正する補正処理を施し(ステップ#20)、当該補正処理で得られた音声信号に対してMPEG圧縮方式などの圧縮符号化処理を施す(ステップ#30)という一連の動作を継続的に行っている。   A summary of operations continuously performed by the voice processing unit 7 in the case where the first embodiment of the voice processing unit 7 is adopted is summarized as a flowchart shown in FIG. That is, the audio processing unit 7 when the first example of the audio processing unit 7 is adopted performs A / D conversion processing for converting the analog audio signal output from the hydrophone 6 into a digital audio signal (step # 10). ) The digital audio signal obtained by the A / D conversion process is subjected to a correction process for reducing the signal level from 3 kHz to 8 kHz by about several dB to 30 dB and correcting the frequency characteristic close to human auditory characteristics in water. (Step # 20) A series of operations of performing compression encoding processing such as MPEG compression on the audio signal obtained by the correction processing (Step # 30) is continuously performed.

なお、図2に示す撮像装置ではハイドロホン6を用いているが、集音装置はハイドロホンに限らない。水中における集音装置の集音特性が図4(b)に示す特性とみなせるように、補正処理部72の補正処理の設定を変更する。これにより、ハイドロホン以外の集音装置を用いた場合でも、補正処理部72が、水中における人間の聴覚特性に近い周波数特性に補正することになる。   In addition, although the hydrophone 6 is used in the imaging device shown in FIG. 2, the sound collecting device is not limited to the hydrophone. The correction processing setting of the correction processing unit 72 is changed so that the sound collection characteristic of the sound collection device in water can be regarded as the characteristic shown in FIG. As a result, even when a sound collecting device other than the hydrophone is used, the correction processing unit 72 corrects the frequency characteristics close to human auditory characteristics in water.

また、ハイドロホン6が人間が聞くことのできない高帯域の音まで集音することができるものである場合、補正処理部72が、人間が聞くことのできない高帯域の音の信号レベルを低減する補正処理もあわせて行うようにしてもよい。   In addition, when the hydrophone 6 can collect a high-band sound that cannot be heard by humans, the correction processing unit 72 reduces the signal level of the high-band sound that cannot be heard by humans. Correction processing may also be performed.

<音声処理部の第2実施例>
次に、音声処理部7の第2実施例について図6及び図7を参照して説明する。図6は、音声処理部7の第2実施例を採用した場合の音声処理部7の構成を示すブロック図である。音声処理部7の第2実施例では、音声処理部7が、ハイドロホン6から出力されるアナログ音声信号をデジタル音声信号に変換するA/D変換部71と、A/D変換部71から出力される音声信号に対してMPEG圧縮方式などの圧縮符号化処理を施す音声圧縮処理部73と、音声信号が水中で集音されたものであるか否かを判定する集音環境判定部74とを備えている。
<Second Embodiment of Audio Processing Unit>
Next, a second embodiment of the audio processing unit 7 will be described with reference to FIGS. FIG. 6 is a block diagram showing the configuration of the audio processing unit 7 when the second embodiment of the audio processing unit 7 is adopted. In the second embodiment of the audio processing unit 7, the audio processing unit 7 converts an analog audio signal output from the hydrophone 6 into a digital audio signal, and an output from the A / D conversion unit 71. An audio compression processing unit 73 that performs compression encoding processing such as an MPEG compression method on the audio signal to be recorded, and a sound collection environment determination unit 74 that determines whether or not the audio signal is collected in water It has.

一般的に、音声圧縮符号化では、人間の聴覚心理を考慮し、最も聴感感度のよい帯域に多くの符号ビットを割り当てるように重み付けをし、量子化誤差が小さくなるように音声信号を圧縮している。空気中においては3kHz〜4kHzが最も聴感感度のよい帯域であるため、一般的に、3kHz〜4kHzに最も符号ビットを割り当てるように重み付けされている。一方、水中においては、図1に示すような聴覚特性になるため、特に3kHz〜8kHz付近の聴感感度は悪くなる。   In general, speech compression coding considers human auditory psychology, weights so that many code bits are assigned to the band with the best hearing sensitivity, and compresses the speech signal so that the quantization error is reduced. ing. In the air, since 3 kHz to 4 kHz is the band with the highest audibility, generally, the weight is assigned so that the most sign bit is assigned to 3 kHz to 4 kHz. On the other hand, in water, the auditory characteristics shown in FIG. 1 are obtained, so that the auditory sensitivity particularly in the vicinity of 3 kHz to 8 kHz is deteriorated.

そこで、音声処理部7の第2実施例では、音声圧縮処理部73が、水中で集音した音声信号を記録する場合に、水中における人間の聴覚特性に合わせて3kHz〜8kHzへの符号ビット割り当てを少なくし、他の帯域への符号ビット割り当てが多くなるように符号ビット割り当ての重み付けを、空気中で集音した音声信号を記録する場合から変更する。   Therefore, in the second embodiment of the audio processing unit 7, when the audio compression processing unit 73 records an audio signal collected underwater, code bit allocation to 3 kHz to 8 kHz according to human auditory characteristics in water is performed. And the weighting of the code bit assignment is changed from the case of recording a sound signal collected in the air so that the code bit assignment to other bands is increased.

上述した符号ビット割り当ての重み付けの変更を実現するために、音声処理部7の第2実施例では、音声圧縮処理部73が、圧縮符号化部731と、水中用符号ビット重み付けテーブル格納部732と、空気中用符号ビット重み付けテーブル格納部733とを備える構成にしている。   In order to realize the above-described change in the weighting of the code bit assignment, in the second embodiment of the sound processing unit 7, the sound compression processing unit 73 includes a compression coding unit 731 and an underwater code bit weighting table storage unit 732. And a code bit weighting table storage unit 733 for the air.

ハイドロホン6によって集音された音声信号が水中で集音されたものであると集音環境判定部74が判定した場合、圧縮符号化部731は、水中用符号ビット重み付けテーブル格納部732に格納されている水中用符号ビット重み付けテーブル(3kHz〜8kHzへの符号ビット割り当てが少なく、他の帯域への符号ビット割り当てが多いテーブル)を用いて圧縮符号化処理を行う。一方、ハイドロホン6によって集音された音声信号が空気中で集音されたものであると集音環境判定部74が判定した場合、圧縮符号化部731は、空気中用符号ビット重み付けテーブル格納部733に格納されている空気中用符号ビット重み付けテーブル(3kHz〜4kHzに最も符号ビットを割り当てているテーブル)を用いて圧縮符号化処理を行う。   When the sound collection environment determination unit 74 determines that the sound signal collected by the hydrophone 6 is collected underwater, the compression encoding unit 731 stores the code signal in the underwater code bit weighting table storage unit 732. Compression coding processing is performed using the underwater code bit weighting table (a table in which code bit allocation to 3 kHz to 8 kHz is small and code bit allocation to other bands is large). On the other hand, when the sound collection environment determination unit 74 determines that the sound signal collected by the hydrophone 6 is collected in the air, the compression coding unit 731 stores the code bit weighting table for air. The compression coding process is performed using a code bit weighting table for air stored in the unit 733 (a table in which code bits are most allocated to 3 kHz to 4 kHz).

なお、図6では、集音環境判定部74がA/D変換部71から出力されるデジタル音声信号を入力する実施例、すなわち、集音環境判定部74がA/D変換部71から出力されるデジタル音声信号に基づいて集音環境を判定する実施例を図示しているが、集音環境判定部74はこの実施例に限定されない。集音環境判定部74の実施例の詳細について後述する。   In FIG. 6, an embodiment in which the sound collection environment determination unit 74 inputs a digital audio signal output from the A / D conversion unit 71, that is, the sound collection environment determination unit 74 is output from the A / D conversion unit 71. Although the embodiment for determining the sound collection environment based on the digital audio signal is illustrated, the sound collection environment determination unit 74 is not limited to this embodiment. Details of the embodiment of the sound collection environment determination unit 74 will be described later.

音声処理部7の第2実施例を採用した場合の音声処理部7が継続的に行う動作の概略をまとめると、図7に示すフローチャートのようになる。すなわち、音声処理部7の第2実施例を採用した場合の音声処理部7は、ハイドロホン6から出力されるアナログ音声信号をデジタル音声信号に変換するA/D変換処理を施し(ステップ#110)、ハイドロホン6によって集音された音声信号が水中で集音されたものであるか否かを判定し(ステップ#120)、ハイドロホン6によって集音された音声信号が水中で集音されたものであると判定された場合(ステップ#120のYES)は水中用符号ビット重み付けテーブルを用いて上記A/D変換処理で得られたデジタル音声信号に対して圧縮符号化処理を施し(ステップ#130)、ハイドロホン6によって集音された音声信号が水中で集音されたものであると判定されなかった場合(ステップ#120のNO)は空気中用符号ビット重み付けテーブルを用いて上記A/D変換処理で得られたデジタル音声信号に対して圧縮符号化処理を施す(ステップ#140)という一連の動作を継続的に行っている。   A summary of operations continuously performed by the voice processing unit 7 when the second embodiment of the voice processing unit 7 is adopted is summarized as a flowchart shown in FIG. That is, the sound processing unit 7 when the second embodiment of the sound processing unit 7 is adopted performs A / D conversion processing for converting the analog sound signal output from the hydrophone 6 into a digital sound signal (step # 110). ), It is determined whether or not the sound signal collected by the hydrophone 6 is collected in water (step # 120), and the sound signal collected by the hydrophone 6 is collected in water. If it is determined that the digital audio signal is determined (YES in step # 120), the digital audio signal obtained by the A / D conversion process is subjected to the compression encoding process using the underwater code bit weighting table (step S120). # 130) If it is not determined that the sound signal collected by the hydrophone 6 is collected in water (NO in step # 120), the code bit for air is used. Using weighting table is performed continuously a series of operations that performs compression coding processing on the digital audio signal obtained by the A / D conversion processing (step # 140).

なお、図2に示す撮像装置ではハイドロホン6を用いているが、集音装置はハイドロホンに限らない。ハイドロホン以外の集音装置を用いた場合でも、その集音装置によって集音された音声信号が水中で集音されたものであると集音環境判定部74が判定した場合、圧縮符号化部731が、水中用符号ビット重み付けテーブル格納部732に格納されている水中用符号ビット重み付けテーブル(3kHz〜8kHzへの符号ビット割り当てが少なく、他の帯域への符号ビット割り当てが多いテーブル)を用いて圧縮符号化処理を行うようにすればよい。   In addition, although the hydrophone 6 is used in the imaging device shown in FIG. 2, the sound collecting device is not limited to the hydrophone. Even when a sound collecting device other than the hydrophone is used, if the sound collecting environment determining unit 74 determines that the sound signal collected by the sound collecting device is collected in water, the compression encoding unit 731 is an underwater code bit weighting table stored in the underwater code bit weighting table storage unit 732 (a table in which code bit allocation to 3 kHz to 8 kHz is small and code bit allocation to other bands is large). A compression encoding process may be performed.

<音声処理部の第3実施例>
防水タイプのデジタルカメラやムービーカメラで撮影する場合、音声を収音した場所が空気中であったり、水中であったりする場合がある。特に、水面付近で撮影している場合は、撮影中に水の中(水中)と水の外(空気中)を頻繁に行き来することが予想される。上述した音声処理部の第2実施例はこのような場面に対応できるが、上述した音声処理部の第1実施例はこのような場面に対応できない。
<Third embodiment of voice processing unit>
When shooting with a waterproof digital camera or movie camera, the location where the sound is collected may be in the air or in the water. In particular, when shooting near the surface of the water, it is expected to frequently go back and forth between the water (underwater) and the outside (in the air) during the shooting. The second embodiment of the voice processing unit described above can cope with such a scene, but the first embodiment of the voice processing unit described above cannot cope with such a scene.

そこで、音声処理部7の第3実施例では、上述した音声処理部の第1実施例を変形して、上述した音声処理部の第2実施例と同様に、音声を収音した場所が空気中であったり、水中であったりする場合にも対応できるようにする。以下、音声処理部7の第3実施例について図8及び図9を参照して説明する。   Therefore, in the third embodiment of the sound processing unit 7, the first embodiment of the sound processing unit described above is modified so that the place where the sound is collected is air as in the second embodiment of the sound processing unit described above. Be able to cope with the situation in the middle or underwater. Hereinafter, a third embodiment of the voice processing unit 7 will be described with reference to FIGS.

図8は、音声処理部7の第3実施例を採用した場合の音声処理部7の構成を示すブロック図である。音声処理部7の第3実施例では、音声処理部7が、ハイドロホン6から出力されるアナログ音声信号をデジタル音声信号に変換するA/D変換部71と、音声信号が水中で集音されたものであるか否かを判定する集音環境判定部74と、音声信号が水中で集音されたものであると集音環境判定部74によって判定された場合にA/D変換部71から出力されるデジタル音声信号に対して補正処理を施す補正処理部72と、A/D変換部71から出力され補正処理部72を経由せずに又は補正処理部72を経由して入力された音声信号に対してMPEG圧縮方式などの圧縮符号化処理を施す音声圧縮処理部73とを備えている。   FIG. 8 is a block diagram showing the configuration of the voice processing unit 7 when the third embodiment of the voice processing unit 7 is adopted. In the third embodiment of the sound processing unit 7, the sound processing unit 7 has an A / D conversion unit 71 that converts an analog sound signal output from the hydrophone 6 into a digital sound signal, and the sound signal is collected in water. From the A / D conversion unit 71 when the sound collection environment determination unit 74 determines whether the sound signal is collected underwater or not. A correction processing unit 72 that performs correction processing on the output digital audio signal, and a sound that is output from the A / D conversion unit 71 and that is input without passing through the correction processing unit 72 or through the correction processing unit 72 And an audio compression processing unit 73 that performs compression encoding processing such as MPEG compression on the signal.

なお、図8では、集音環境判定部74がA/D変換部71から出力されるデジタル音声信号を入力する実施例、すなわち、集音環境判定部74がA/D変換部71から出力されるデジタル音声信号に基づいて集音環境を判定する実施例を図示しているが、集音環境判定部74はこの実施例に限定されない。集音環境判定部74の実施例の詳細について後述する。   In FIG. 8, an embodiment in which the sound collection environment determination unit 74 inputs a digital audio signal output from the A / D conversion unit 71, that is, the sound collection environment determination unit 74 is output from the A / D conversion unit 71. Although the embodiment for determining the sound collection environment based on the digital audio signal is illustrated, the sound collection environment determination unit 74 is not limited to this embodiment. Details of the embodiment of the sound collection environment determination unit 74 will be described later.

音声処理部7の第3実施例を採用した場合の音声処理部7が継続的に行う動作の概略をまとめると、図9に示すフローチャートのようになる。すなわち、音声処理部7の第3実施例を採用した場合の音声処理部7は、ハイドロホン6から出力されるアナログ音声信号をデジタル音声信号に変換するA/D変換処理を施し(ステップ#210)、ハイドロホン6によって集音された音声信号が水中で集音されたものであるか否かを判定し(ステップ#220)、ハイドロホン6によって集音された音声信号が水中で集音されたものであると判定された場合(ステップ#220のYES)はステップ#210のA/D変換処理で得られたデジタル音声信号に対して3kHzから8kHzの信号レベルを数dBから30dB程度低減させ、水中における人間の聴覚特性に近い周波数特性に補正する補正処理を施し(ステップ#230)、その後、当該補正処理で得られた音声信号に対してMPEG圧縮方式などの圧縮符号化処理を施し(ステップ#240)、一方、ハイドロホン6によって集音された音声信号が水中で集音されたものであると判定されなかった場合(ステップ#220のNO)はステップ#210のA/D変換処理で得られたデジタル音声信号に対してMPEG圧縮方式などの圧縮符号化処理を施す(ステップ#240)という一連の動作を継続的に行っている。   A summary of operations continuously performed by the voice processing unit 7 in the case where the third embodiment of the voice processing unit 7 is adopted is summarized as a flowchart shown in FIG. That is, the sound processing unit 7 when the third embodiment of the sound processing unit 7 is adopted performs A / D conversion processing for converting the analog sound signal output from the hydrophone 6 into a digital sound signal (step # 210). ), It is determined whether or not the sound signal collected by the hydrophone 6 is collected in water (step # 220), and the sound signal collected by the hydrophone 6 is collected in water. If it is determined that the signal level is YES (YES in step # 220), the signal level from 3 kHz to 8 kHz is reduced by several dB to 30 dB with respect to the digital audio signal obtained by the A / D conversion process in step # 210. Then, a correction process for correcting the frequency characteristics close to human auditory characteristics in water is performed (step # 230), and then the audio signal obtained by the correction process is subjected to M When compression encoding processing such as the EG compression method is performed (step # 240), on the other hand, when it is not determined that the audio signal collected by the hydrophone 6 is collected in water (step # 220) NO) continuously performs a series of operations of performing compression encoding processing such as MPEG compression on the digital audio signal obtained by the A / D conversion processing in step # 210 (step # 240).

なお、図2に示す撮像装置ではハイドロホン6を用いているが、集音装置はハイドロホンに限らない。水中における集音装置の集音特性が図4(b)に示す特性とみなせるように、補正処理部72の補正処理の設定を変更する。これにより、ハイドロホン以外の集音装置を用いた場合でも、補正処理部72が、水中における人間の聴覚特性に近い周波数特性に補正することになる。   In addition, although the hydrophone 6 is used in the imaging device shown in FIG. 2, the sound collecting device is not limited to the hydrophone. The correction processing setting of the correction processing unit 72 is changed so that the sound collection characteristic of the sound collection device in water can be regarded as the characteristic shown in FIG. As a result, even when a sound collecting device other than the hydrophone is used, the correction processing unit 72 corrects the frequency characteristics close to human auditory characteristics in water.

また、ハイドロホン6が人間が聞くことのできない高帯域の音まで集音することができるものである場合、補正処理部72が、人間が聞くことのできない高帯域の音の信号レベルを低減する補正処理もあわせて行うようにしてもよい。   In addition, when the hydrophone 6 can collect a high-band sound that cannot be heard by humans, the correction processing unit 72 reduces the signal level of the high-band sound that cannot be heard by humans. Correction processing may also be performed.

また、ハイドロホン6によって集音された音声信号が空気中で集音されたものであると判定された場合にのみ実行される空気中において集音された音声信号に適した補正処理を行う補正処理部を音声処理部7内に設けてもよく、ハイドロホン6によって集音された音声信号が水中で集音されたものであると判定された場合及びハイドロホン6によって集音された音声信号が空気中で集音されたものであると判定された場合の双方で実行される水中において集音された音声信号及び空気中において集音された音声信号の双方に適した補正処理を行う補正処理部を音声処理部7内に設けてもよい。   Further, the correction is performed only when it is determined that the sound signal collected by the hydrophone 6 is collected in the air, and the correction process suitable for the sound signal collected in the air is performed. A processing unit may be provided in the sound processing unit 7. When it is determined that the sound signal collected by the hydrophone 6 is collected in water, and the sound signal collected by the hydrophone 6. Correction to perform correction processing suitable for both the sound signal collected in water and the sound signal collected in the air, which are executed both when it is determined that the sound is collected in the air A processing unit may be provided in the audio processing unit 7.

また、音声処理部の第3実施例は音声処理部の第2実施例と組み合わせて実行することが可能である。   The third embodiment of the voice processing unit can be executed in combination with the second embodiment of the voice processing unit.

<集音環境判定部の第1実施例>
次に、音声処理部7の第2実施例及び第3実施例で用いる集音環境判定部74の第1実施例について図10を参照して説明する。図10は、集音環境判定部74の第1実施例を採用した場合の集音環境判定部74の構成を示すブロック図である。集音環境判定部74の第1実施例では、集音環境判定部74が周波数特性判定部741を備えている。
<First Example of Sound Collection Environment Determination Unit>
Next, a first example of the sound collection environment determination unit 74 used in the second and third examples of the sound processing unit 7 will be described with reference to FIG. FIG. 10 is a block diagram showing the configuration of the sound collection environment determination unit 74 when the first embodiment of the sound collection environment determination unit 74 is adopted. In the first embodiment of the sound collection environment determination unit 74, the sound collection environment determination unit 74 includes a frequency characteristic determination unit 741.

ここで、空気中で白色雑音を再生し、それを空気中で集音した場合の周波数特性を図11に示す。また、空気中で白色雑音を再生し、それを水中で集音した場合の周波数特性を図12に示す。なお、図11及び図12に示す周波数特性は、空気中で一般的に使用されるエレクトレットコンデンサマイクロホン(Electret Condenser Microphone)やMEMS(Micro Electro Mechanical System)マイクロホンなどのハウジングに防水構造を施した集音装置で集音して得られたものである。   Here, FIG. 11 shows frequency characteristics when white noise is reproduced in the air and collected in the air. FIG. 12 shows frequency characteristics when white noise is reproduced in the air and collected in water. The frequency characteristics shown in FIG. 11 and FIG. 12 are sound collections in which a waterproof structure is applied to a housing such as an electret condenser microphone (Electret Condenser Microphone) or a MEMS (Micro Electro Mechanical System) microphone generally used in the air. It was obtained by collecting sound with the device.

空気中で集音した場合の周波数特性は、図11に示す通りほぼフラットな特性となる。一方、水中で集音した場合の周波数特性は、一般的に、信号レベルが大きければ、図12に示す通り高周波帯域の信号が大きく減衰する。これは、伝搬されてくる音が、空気中−水中、水中−集音機器の筐体内部(空気中)の2つの境界において反射により減衰し、水中で新たに発生した波の音や筐体内部で新たに発生した音などの一般的に低い音が残るためである。   When the sound is collected in the air, the frequency characteristic is substantially flat as shown in FIG. On the other hand, as for the frequency characteristics when sound is collected in water, generally, if the signal level is large, the signal in the high frequency band is greatly attenuated as shown in FIG. This is because the propagated sound is attenuated by reflection at the two boundaries in the air-underwater, underwater-inside the housing of the sound collecting device (in the air), and the sound of the waves newly generated in the water and the case This is because generally low sounds such as newly generated sounds remain inside.

このように、撮像装置を水中で使用している場合には、撮像装置を空気中で使用している場合では起こりえないような、低帯域の音と中帯域の音及び高帯域の音とのレベル差が生じるため、そのレベル差を利用して判定を行う。なお、ハイドロホンマイクを用いて水中で集音した場合は水中−集音機器の筐体内部(空気中)の境界は存在しないので、低帯域の音と中帯域の音及び高帯域の音とのレベル差は、図11及び図12の場合よりも小さくなる。しかしながら、音源が空気中である限り、伝搬されてくる音が空気中−水中の境界において反射により減衰するので、低帯域の音と中帯域の音及び高帯域の音とのレベル差を利用した集音環境判定が可能である。   In this way, when the imaging device is used underwater, low-band sounds, medium-band sounds, and high-band sounds that cannot occur when the imaging device is used in air, Therefore, the determination is performed using the level difference. Note that when the sound is collected underwater using a hydrophone microphone, there is no boundary between the underwater and the housing of the sound collecting device (in the air). The level difference is smaller than in the case of FIGS. However, as long as the sound source is in the air, the transmitted sound is attenuated by reflection at the air-water boundary, so the difference in level between the low-band sound, the mid-band sound, and the high-band sound is used. Sound collection environment judgment is possible.

周波数特性判定部741が、音声信号を対象として、低帯域(例えば、数十(70)Hz〜3kHz)、中帯域(例えば、6kHz〜9kHz)、高帯域(例えば、12kHz〜15kHz)の各帯域で信号レベルの平均値を算出する。なお、各帯域の具体的数値は上記の例に限らず、各帯域相互の大小関係が正しければ問題ない。また、低帯域と中帯域が一部重複していてもよく、中帯域と高帯域が一部重複していてもよい。   The frequency characteristic determination unit 741 targets each of an audio signal as a low band (for example, several tens (70) Hz to 3 kHz), a medium band (for example, 6 kHz to 9 kHz), and a high band (for example, 12 kHz to 15 kHz). To calculate the average signal level. In addition, the specific numerical value of each band is not limited to the above example, and there is no problem if the magnitude relationship between the bands is correct. Further, the low band and the middle band may partially overlap, and the middle band and the high band may partially overlap.

その各帯域における信号レベルの平均値から算出することが可能な、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1、中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2、及び、高帯域に対する中帯域の信号レベル比(中帯域/高帯域)R3は、マイクを空気中から水中に挿入し再び空気中に戻した場合図13に示すような時間変化を示す(図13はハイドロホン以外のマイクを用いた場合のデータを示している)。図13中の期間T1及びT3はマイクが空気中に位置する期間であり図13中の期間T2はマイクが水中に位置する期間である。高帯域に対する中帯域の信号レベル比(中帯域/高帯域)R3は、空気中、水中に関係なく、ほぼ一定値である。これに対し、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2は、空気中では小さい値であるが、水中では受音感度が変化し、空気中の場合と比べて大幅に大きな値になる。   The signal level ratio of the low band to the high band (low band / high band) R1 and the signal level ratio of the low band to the medium band (low band / medium band) that can be calculated from the average value of the signal level in each band ) R2 and the signal level ratio (medium band / high band) R3 of the medium band to the high band show time changes as shown in FIG. 13 when the microphone is inserted from the air into the water and returned to the air again. (FIG. 13 shows data when a microphone other than the hydrophone is used). Periods T1 and T3 in FIG. 13 are periods in which the microphone is located in the air, and periods T2 in FIG. 13 are periods in which the microphone is located in the water. The signal level ratio (medium band / high band) R3 of the medium band to the high band is a substantially constant value regardless of whether in the air or underwater. On the other hand, the low-band signal level ratio (low band / high band) R1 to the high band and the low-band signal level ratio (low band / middle band) R2 to the medium band are small values in the air. The sensitivity of sound reception changes in water, which is a much larger value than in air.

このことを利用して、周波数特性判定部741は、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2を各帯域における信号レベルの平均値から算出し、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2が予め設定した閾値以上に大きくなった場合に、音声処理部7に入力される音声信号が水中で集音されたものであると判定する。判定精度は劣ることになるが、中帯域における信号レベルの平均値及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2を算出せず、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1が予め設定した閾値以上に大きくなった場合に音声処理部7に入力される音声信号が水中で集音されたものであると判定すること、或いは、高帯域における信号レベルの平均値及び高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1を算出せず、中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2が予め設定した閾値以上に大きくなった場合に音声処理部7に入力される音声信号が水中で集音されたものであると判定することも可能である。   By utilizing this, the frequency characteristic determination unit 741 obtains a low-band signal level ratio (low band / high band) R1 for the high band and a low-band signal level ratio (low band / middle band) R2 for the medium band. Calculated from the average value of the signal level in each band, the low band signal level ratio (low band / high band) R1 to the high band and the low band signal level ratio (low band / middle band) R2 to the medium band are preset. When it becomes larger than the above threshold, it is determined that the audio signal input to the audio processing unit 7 is collected in water. Although the determination accuracy is inferior, the average value of the signal level in the medium band and the signal level ratio of the low band to the medium band (low band / medium band) R2 are not calculated, and the signal level ratio of the low band to the high band ( When the low band / high band (R1) is greater than or equal to a preset threshold value, it is determined that the audio signal input to the audio processing unit 7 is collected in water, or the signal in the high band The average value of the level and the signal level ratio of the low band to the high band (low band / high band) R1 are not calculated, and the signal level ratio of the low band to the medium band (low band / medium band) R2 is equal to or greater than a preset threshold It is also possible to determine that the audio signal input to the audio processing unit 7 has been collected underwater.

なお、水中においても、気泡の音や筐体のこすれ音によって突発的なノイズが発生し、中帯域及び高帯域の信号レベルが瞬間的に大きくなり、高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2が瞬間的に小さな値になる可能性がある。そのため、周波数特性判定部741が判定に使用する高帯域に対する低帯域の信号レベル比(低帯域/高帯域)R1及び中帯域に対する低帯域の信号レベル比(低帯域/中帯域)R2は、一定時間において平均をとった値を用いることが望ましい。   Even underwater, sudden noise occurs due to the sound of bubbles and the rubbing sound of the housing, and the signal level of the middle band and the high band increases instantaneously, and the signal level ratio of the low band to the high band (low There is a possibility that the signal level ratio (low band / medium band) R2 of the low band with respect to the band (high band) R1 and the medium band instantaneously becomes a small value. Therefore, the low band signal level ratio (low band / high band) R1 to the high band and the low band signal level ratio (low band / middle band) R2 to the high band used by the frequency characteristic determination unit 741 are constant. It is desirable to use an averaged value over time.

また、閾値に関しては、ヒステリシス特性を持たせ、空気中であると判定している間は閾値を高く、水中であると判定している間は閾値を低く設定することが望ましい。   Further, regarding the threshold value, it is desirable to provide a hysteresis characteristic and set the threshold value high while determining that it is in the air, and setting the threshold value low while determining that it is underwater.

<集音環境判定部の第2実施例>
次に、音声処理部7の第2実施例及び第3実施例で用いる集音環境判定部74の第2実施例について図14を参照して説明する。図14は、集音環境判定部74の第2実施例を採用した場合の集音環境判定部74の構成を示すブロック図である。集音環境判定部74の第2実施例では、集音環境判定部74が伝搬特性判定部742を備えている。伝搬特性判定部742は、空気中で集音された音声信号の伝搬特性と、水中で集音された音声信号の伝搬特性との差異に基づいて、入力される音声信号が集音された環境を判定する。
<Second Example of Sound Collection Environment Determination Unit>
Next, a second example of the sound collection environment determination unit 74 used in the second and third examples of the sound processing unit 7 will be described with reference to FIG. FIG. 14 is a block diagram showing a configuration of the sound collection environment determination unit 74 when the second embodiment of the sound collection environment determination unit 74 is adopted. In the second embodiment of the sound collection environment determination unit 74, the sound collection environment determination unit 74 includes a propagation characteristic determination unit 742. The propagation characteristic determination unit 742 is an environment in which an input audio signal is collected based on a difference between the propagation characteristic of an audio signal collected in the air and the propagation characteristic of an audio signal collected in water. Determine.

伝搬特性判定部742が判定に用いる音声信号の伝搬特性として、例えば、音速の差異がある。空気中での音速は344m/s程度であり、水中での音速は1500m/s程度となる。本例ではこの音速の差異に基づいて集音環境を判定する。また、このように判定を行う場合、例えば、レンズ部2に備えられる光学ズーム倍率を変化させるモータの駆動音を用いることができる。このように判定を行う場合について以下に説明する。   As a propagation characteristic of an audio signal used for the determination by the propagation characteristic determination unit 742, for example, there is a difference in sound speed. The speed of sound in the air is about 344 m / s, and the speed of sound in water is about 1500 m / s. In this example, the sound collection environment is determined based on the difference in sound speed. Further, when making such a determination, for example, a driving sound of a motor that changes the optical zoom magnification provided in the lens unit 2 can be used. The case where determination is performed in this way will be described below.

CPU17は、レンズ部2内の光学ズーム倍率を変化させるモータの駆動を操作部19の出力に応じて制御する。さらにCPU17は、レンズ部2内の光学ズーム倍率を変化させるモータの駆動タイミングについて時間管理を行い、その情報を伝搬特性判定部742に提供する。レンズ部2内の光学ズーム倍率を変化させるモータの駆動音は、図2に示す撮像装置における駆動音(自己発生駆動音)としてハイドロホン6によって集音される。そして、伝搬特性判定部742において、CPU17から提供されたレンズ部2内の光学ズーム倍率を変化させるモータの駆動タイミングに関する時間情報と、ハイドロホン6によって集音された自己発生駆動音(レンズ部2内の光学ズーム倍率を変化させるモータの駆動音)の集音時間とに基づいて、自己発生駆動音の伝達速度が測定される。図2に示す撮像装置において、空気中での自己発生駆動音の伝達速度はあらかじめ得られる事から、空気中で集音されたか水中で集音されたかを判定することが可能である。   The CPU 17 controls the driving of the motor that changes the optical zoom magnification in the lens unit 2 according to the output of the operation unit 19. Further, the CPU 17 performs time management on the driving timing of the motor that changes the optical zoom magnification in the lens unit 2, and provides the information to the propagation characteristic determination unit 742. The drive sound of the motor that changes the optical zoom magnification in the lens unit 2 is collected by the hydrophone 6 as drive sound (self-generated drive sound) in the imaging apparatus shown in FIG. Then, in the propagation characteristic determination unit 742, the time information regarding the drive timing of the motor that changes the optical zoom magnification in the lens unit 2 provided from the CPU 17, and the self-generated driving sound collected by the hydrophone 6 (the lens unit 2). The transmission speed of the self-generated driving sound is measured based on the sound collecting time of the driving sound of the motor that changes the optical zoom magnification. In the imaging apparatus shown in FIG. 2, since the transmission speed of the self-generated driving sound in the air is obtained in advance, it is possible to determine whether the sound is collected in the air or in the water.

<集音環境判定部の第3実施例>
次に、音声処理部7の第2実施例及び第3実施例で用いる集音環境判定部74の第3実施例について図15を参照して説明する。図15は、集音環境判定部74の第3実施例を採用した場合の集音環境判定部74の構成を示すブロック図である。集音環境判定部74の第3実施例では、集音環境判定部74が伝搬特性判定部743を備えている。伝搬特性判定部743は、入力される音声信号が集音された環境を、空気中及び水中における音声信号の伝搬特性の差異に基づいて判定する。ただし、伝搬特性判定部743は、図14に示す第2実施例の伝搬特性判定部742とは異なる方法で判定を行う。
<Third Example of Sound Collection Environment Determination Unit>
Next, a third example of the sound collection environment determination unit 74 used in the second and third examples of the sound processing unit 7 will be described with reference to FIG. FIG. 15 is a block diagram showing the configuration of the sound collection environment determination unit 74 when the third embodiment of the sound collection environment determination unit 74 is adopted. In the third embodiment of the sound collection environment determination unit 74, the sound collection environment determination unit 74 includes a propagation characteristic determination unit 743. The propagation characteristic determination unit 743 determines the environment where the input audio signal is collected based on the difference in the propagation characteristics of the audio signal in air and underwater. However, the propagation characteristic determination unit 743 performs determination using a method different from the propagation characteristic determination unit 742 of the second embodiment illustrated in FIG.

伝搬特性判定部743の判定方法について、図16を用いて説明する。水中判定部の第3実施例を実施する場合、ハイドロホン6を例えば図16に示すようにマイク6Lとマイク6Rからなるステレオマイクにする。図16に示すように、音源が発する音がステレオマイクに集音される際に、マイク6Lとマイク6Rとの間に行路差dが生じる。そして、この行路差dに起因して到達時間の差(行路差dを音速で除算した値)が生じる。また、この到達時間の差が異なることにより、マイク6Rから音声処理部7に入力された音声信号(Rch)とマイク6Lから音声処理部7に入力された音声信号(Lch)との間に位相差が生じる。   A determination method of the propagation characteristic determination unit 743 will be described with reference to FIG. When the third embodiment of the underwater determination unit is implemented, the hydrophone 6 is a stereo microphone including a microphone 6L and a microphone 6R as shown in FIG. 16, for example. As shown in FIG. 16, when the sound emitted by the sound source is collected by the stereo microphone, a path difference d is generated between the microphone 6L and the microphone 6R. Then, due to this path difference d, a difference in arrival time (a value obtained by dividing the path difference d by the speed of sound) occurs. In addition, the difference in arrival time is different between the audio signal (Rch) input from the microphone 6R to the audio processing unit 7 and the audio signal (Lch) input from the microphone 6L to the audio processing unit 7. A phase difference occurs.

そして、上述したように空気中と水中とでは音速が異なる。そのため、音声信号(Rch)と音声信号(Lch)との間に生じる位相差が、空気中で集音された音声信号と水中で集音された音声信号とによって異なるものとなる。そこで、伝搬特性判定部743はこの位相差の差異に基づいて、集音環境判定部74に入力される音声信号が水中で集音されたものであるか否かを判定する。   As described above, the speed of sound differs between air and water. Therefore, the phase difference generated between the audio signal (Rch) and the audio signal (Lch) differs depending on the audio signal collected in the air and the audio signal collected in the water. Therefore, the propagation characteristic determination unit 743 determines whether or not the sound signal input to the sound collection environment determination unit 74 is collected in water based on the difference in phase difference.

なお、ハイドロホン6をステレオマイクにする代わりに他チャンネルのマイクアレイ(例えば5.1chサラウンド録音対応マイク)にしても本実施例の実施が可能である。   It should be noted that the present embodiment can be implemented even if the hydrophone 6 is replaced with a stereo microphone instead of a microphone array of another channel (for example, a 5.1ch surround recording compatible microphone).

<集音環境判定部の第4実施例>
次に、集音環境判定部74の第4実施例について図17を参照して説明する。図17は、集音環境判定部74の第4実施例を採用した場合の集音環境判定部74の構成を示すブロック図である。集音環境判定部74の第4実施例では、集音環境判定部74が圧力判定部744を備えている。
<Fourth Example of Sound Collection Environment Determination Unit>
Next, a fourth embodiment of the sound collection environment determination unit 74 will be described with reference to FIG. FIG. 17 is a block diagram showing the configuration of the sound collection environment determination unit 74 when the fourth embodiment of the sound collection environment determination unit 74 is adopted. In the fourth embodiment of the sound collection environment determination unit 74, the sound collection environment determination unit 74 includes a pressure determination unit 744.

集音環境判定部74の第4実施例を採用する場合、図2に示す撮像装置に新たに圧力センサを設ける。圧力判定部744は、圧力センサの検出信号を入力し、撮像装置外部の圧力が予め設定した閾値以上である場合に、撮像装置が水中で使用されており、音声処理部7に入力される音声信号が水中で集音されたものであると判定し、撮像装置外部の圧力が予め設定した閾値未満である場合に、撮像装置が空気中で使用されており、音声処理部7に入力される音声信号が空気中で集音されたものであると判定する。   When the fourth embodiment of the sound collection environment determination unit 74 is employed, a pressure sensor is newly provided in the imaging apparatus shown in FIG. The pressure determination unit 744 receives the detection signal of the pressure sensor, and when the pressure outside the imaging device is equal to or higher than a preset threshold, the imaging device is used in water, and the audio input to the audio processing unit 7 When it is determined that the signal is collected in water and the pressure outside the imaging device is less than a preset threshold, the imaging device is used in the air and is input to the audio processing unit 7 It is determined that the audio signal is collected in the air.

<集音環境判定部の第5実施例>
次に、集音環境判定部74の第5実施例について図18を参照して説明する。図18は、集音環境判定部74の第5実施例を採用した場合の集音環境判定部74の構成を示すブロック図である。集音環境判定部74の第5実施例では、集音環境判定部74が映像判定部745を備えている。
<Fifth Example of Sound Collection Environment Determination Unit>
Next, a fifth embodiment of the sound collection environment determination unit 74 will be described with reference to FIG. FIG. 18 is a block diagram showing the configuration of the sound collection environment determination unit 74 when the fifth embodiment of the sound collection environment determination unit 74 is adopted. In the fifth embodiment of the sound collection environment determination unit 74, the sound collection environment determination unit 74 includes a video determination unit 745.

映像判定部745は、画像処理部4から入力した映像信号を解析し、撮像装置が水中で使用されているかを判定する。映像判定部745は、例えば、画像処理部4から入力しホワイトバランス調整前の映像信号を画像処理部4から入力し、そのホワイトバランス調整前の映像信号の色分布を解析して、撮像装置が水中で使用されているかを判定する。   The video determination unit 745 analyzes the video signal input from the image processing unit 4 and determines whether the imaging device is used in water. The video determination unit 745 receives, for example, the video signal input from the image processing unit 4 and before white balance adjustment from the image processing unit 4, analyzes the color distribution of the video signal before white balance adjustment, and the imaging apparatus Determine if it is used underwater.

なお、映像判定部745を音声処理部7内に設けるのではなく画像処理部4内に設け、集音環境判定部74が映像判定部745の判定結果を入力するようにしてもよい。   Note that the video determination unit 745 may be provided not in the audio processing unit 7 but in the image processing unit 4, and the sound collection environment determination unit 74 may input the determination result of the video determination unit 745.

<変形例>
上述した図2に示す撮像装置は、集音した音声信号を記録する際に、水中における人間の聴覚特性に合わせて音声信号を処理することができる処理部を備えている。しかしながら、本発明はこれに限定されず、集音した音声信号を再生する際に、水中における人間の聴覚特性に合わせて音声信号を処理することができる処理部を備えるようにしてもよい。
<Modification>
The above-described imaging device shown in FIG. 2 includes a processing unit that can process an audio signal in accordance with human auditory characteristics in water when recording the collected audio signal. However, the present invention is not limited to this, and when a collected audio signal is reproduced, a processing unit that can process the audio signal in accordance with human auditory characteristics in water may be provided.

集音した音声信号を再生する際に、水中で集音した音声信号を再生する際に、水中における人間の聴覚特性に合わせて音声信号を処理することができる処理部を備える撮像装置を図19に示す。なお、図19において図2と実質上同一の部分には同一の符号を付している。   FIG. 19 illustrates an imaging apparatus including a processing unit that can process an audio signal in accordance with human auditory characteristics in water when reproducing the collected audio signal when reproducing the collected audio signal. Shown in In FIG. 19, the same reference numerals are given to substantially the same parts as those in FIG.

図19に示す撮像装置が図2に示す撮像装置と異なる点は、音声処理部7の代わりに音声処理部7aを設け、さらに、伸長処理部9と音声出力回路部13との間に音声処理部7bを設けている点である。   The imaging apparatus shown in FIG. 19 is different from the imaging apparatus shown in FIG. 2 in that an audio processing unit 7a is provided instead of the audio processing unit 7, and audio processing is performed between the expansion processing unit 9 and the audio output circuit unit 13. The point is that a portion 7b is provided.

音声処理部7aは、音声処理部7と異なり、水中で集音した音声信号を記録する際に、水中における人間の聴覚特性に合わせて音声信号を処理することができる処理部を備えていない構成である。   Unlike the audio processing unit 7, the audio processing unit 7 a does not include a processing unit that can process an audio signal in accordance with human auditory characteristics in water when recording an audio signal collected in water. It is.

音声処理部7bは、A/D変換処理及び圧縮符号化処理を行わない点を除き、音声処理部7と同様の構成である。音声処理部7bにおいて行われる音声処理は、基本的に音声処理部7において行われる音声処理と同様であるので、ここでは説明を省略する。なお、音声処理部7bは、圧縮符号化処理を行わないので、上述した音声処理部の第2実施例を実施することはできない。   The audio processing unit 7b has the same configuration as the audio processing unit 7 except that the A / D conversion process and the compression encoding process are not performed. Since the audio processing performed in the audio processing unit 7b is basically the same as the audio processing performed in the audio processing unit 7, the description thereof is omitted here. In addition, since the audio | voice processing part 7b does not perform a compression encoding process, 2nd Example of the audio | voice processing part mentioned above cannot be implemented.

なお、集音環境(集音時に図19に示す撮像装置が置かれている環境)と再生環境(再生時に図19に示す撮像装置が置かれている環境)とが異なっている可能性があるため、音声処理部7bの集音環境判定部には、上述した集音環境判定部の第4実施例を採用しないようにする。   Note that there is a possibility that the sound collection environment (the environment in which the imaging device shown in FIG. 19 is placed at the time of sound collection) and the reproduction environment (the environment in which the imaging device shown in FIG. 19 is placed at the time of reproduction) are different. Therefore, the fourth embodiment of the sound collection environment determination unit described above is not adopted in the sound collection environment determination unit of the sound processing unit 7b.

また、上述した図2又は図19に示す撮像装置では、集音した音声信号の記録時、集音し記録した音声信号の再生時のいずれか一方のみでしか、水中における人間の聴覚特性に合わせて音声信号を処理していないが、集音した音声信号の記録時、集音し記録した音声信号の再生時の双方において、水中における人間の聴覚特性に合わせて音声信号を処理してもよい。この場合、例えば、集音した音声信号の記録時に、水中における人間の聴覚特性に合わせて音声圧縮符号化における符号ビット割り当ての重み付けを水中以外で集音した音声信号を記録する場合から変更し、集音し記録した音声信号の再生時に、水中における人間の聴覚特性に合わせて音声信号の周波数特性を補正してもよく、水中における人間の聴覚特性に合わせて音声信号の周波数特性を補正する処理を2段階に分け、集音した音声信号の記録時に第1段階の補正を行い、集音し記録した音声信号の再生時に第2段階の補正を行うようにしてもよい。   Further, in the imaging apparatus shown in FIG. 2 or FIG. 19 described above, it is possible to match the human auditory characteristics in water only when recording the collected audio signal or reproducing the collected audio signal. The sound signal may not be processed, but the sound signal may be processed in accordance with the human auditory characteristics in water both when recording the collected sound signal and when reproducing the collected and recorded sound signal. . In this case, for example, when recording the collected audio signal, the weighting of the code bit allocation in the audio compression encoding is changed from the case of recording the audio signal collected outside the underwater according to the human auditory characteristics in the water, When playing back the collected and recorded audio signal, the frequency characteristics of the audio signal may be corrected according to the human auditory characteristics underwater, or the frequency characteristics of the audio signal are corrected according to the human auditory characteristics underwater. May be divided into two stages, and the first stage correction may be performed when recording the collected audio signal, and the second stage correction may be performed when reproducing the collected and recorded audio signal.

また、本発明にかかる電子機器は、音声信号の記録及び/又は再生が可能であればよいので、映像に関連するブロックは特に必要ない。したがって、本発明は、撮像装置以外の電子機器、例えば、音声記録装置、音声再生装置、音声記録再生装置(例えばICレコーダ)等にも適用することができる。   In addition, since the electronic apparatus according to the present invention only needs to be able to record and / or reproduce an audio signal, a block related to an image is not particularly necessary. Therefore, the present invention can also be applied to electronic devices other than the imaging device, for example, an audio recording device, an audio reproducing device, an audio recording / reproducing device (for example, an IC recorder), and the like.

また、本発明に係る集音環境判定装置を搭載した電子機器は、防水構造であることが望ましいが、防水構造でなくても例えば防水ハウジングに収納し外部のハイドロホンによって集音した音声信号を入力するというような使用法を採用することが可能である。   In addition, it is desirable that the electronic device equipped with the sound collection environment determination device according to the present invention has a waterproof structure, but even if the electronic device is not waterproof, for example, an audio signal stored in an waterproof housing and collected by an external hydrophone It is possible to adopt a usage such as inputting.

また、例えば、音声処理部7bの各部としてコンピュータを機能させるためのプログラムを含む再生ソフトウェアを、パーソナルコンピュータ上で動作させることで、本発明に係る電子機器を実現することもできる。   In addition, for example, the electronic device according to the present invention can be realized by operating reproduction software including a program for causing a computer to function as each unit of the audio processing unit 7b on a personal computer.

また、上述した場合に限らず、図2及び図19の撮像装置や音声処理部7、7a、7bは、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。また、ソフトウェアを用いて図2及び図19の撮像装置や音声処理部7、7a、7bを構成する場合、ソフトウェアによって実現される部位についてのブロック図は、その部位の機能ブロック図を表すこととする。   In addition to the above-described case, the imaging apparatus and the sound processing units 7, 7 a, and 7 b shown in FIGS. 2 and 19 can be realized by hardware or a combination of hardware and software. In addition, when the image capturing apparatus and the sound processing units 7, 7 a, and 7 b of FIGS. 2 and 19 are configured using software, the block diagram of the part realized by the software represents a functional block diagram of the part. To do.

以上、本発明に係る実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えて実行することができる。   As mentioned above, although embodiment which concerns on this invention was described, the range of this invention is not limited to this, A various change can be added and implemented in the range which does not deviate from the main point of invention.

は、水中の等感レベルと空気中の等感レベルのレベル差を示す図である。These are figures which show the level difference of the isosensitive level in water, and the isosensitive level in air. は、本発明に係る撮像装置の一内部構成例を示すブロック図である。These are block diagrams which show the example of 1 internal structure of the imaging device which concerns on this invention. は、音声処理部の第1実施例の構成を示すブロック図である。These are block diagrams which show the structure of 1st Example of an audio | voice processing part. は、水中で白色雑音を再生した場合における補正処理部の入出力信号の周波数特性を示す図である。These are figures which show the frequency characteristic of the input-output signal of a correction process part at the time of reproducing | regenerating white noise in water. は、第1実施例の音声処理部が継続的に行う動作の概略を示すフローチャートである。These are the flowcharts which show the outline of the operation | movement which the audio | voice processing part of 1st Example performs continuously. は、音声処理部の第2実施例の構成を示すブロック図である。These are block diagrams which show the structure of 2nd Example of an audio | voice processing part. は、第2実施例の音声処理部が継続的に行う動作の概略を示すフローチャートである。These are the flowcharts which show the outline of the operation | movement which the audio | voice processing part of 2nd Example performs continuously. は、音声処理部の第3実施例の構成を示すブロック図である。These are block diagrams which show the structure of 3rd Example of an audio | voice processing part. は、第3実施例の音声処理部が継続的に行う動作の概略を示すフローチャートである。These are the flowcharts which show the outline of the operation | movement which the audio | voice processing part of 3rd Example performs continuously. は、集音環境判定部の第1実施例の構成を示すブロック図である。These are block diagrams which show the structure of 1st Example of a sound collection environment determination part. は、空気中における音声の周波数特性を示す図である。These are figures which show the frequency characteristic of the sound in the air. は、水中における音声の周波数特性を示す図である。FIG. 4 is a diagram illustrating frequency characteristics of sound in water. は、空気中と水中における音声の周波数特性の相違を示す図である。These are figures which show the difference in the frequency characteristic of the sound in the air and underwater. は、集音環境判定部の第2実施例の構成を示すブロック図である。These are block diagrams which show the structure of 2nd Example of a sound collection environment determination part. は、集音環境判定部の第3実施例の構成を示すブロック図である。These are block diagrams which show the structure of 3rd Example of a sound collection environment determination part. は、ステレオマイクの模式図である。These are schematic diagrams of a stereo microphone. は、集音環境判定部の第4実施例の構成を示すブロック図である。These are block diagrams which show the structure of 4th Example of a sound collection environment determination part. は、集音環境判定部の第5実施例の構成を示すブロック図である。These are block diagrams which show the structure of 5th Example of a sound collection environment determination part. は、本発明に係る撮像装置の他の内部構成例を示すブロック図である。These are the block diagrams which show the other internal structural example of the imaging device which concerns on this invention.

符号の説明Explanation of symbols

1 固体撮像素子(イメージセンサ)
2 レンズ部
3 AFE
4 画像処理部
5 画像圧縮処理部
6 ハイドロホン
7、7a、7b 音声処理部
8 ドライバ部
9 伸長処理部
10 ビデオ出力回路部
11 ビデオ出力端子
12 ディスプレイ部
13 音声出力回路部
14 音声出力端子
15 スピーカ部
16 タイミングジェネレータ(TG)
17 CPU
18 メモリ
19 操作部
20、21 バス回線
22 外部メモリ
71 A/D変換部
72 補正処理部
73 音声圧縮処理部
731 圧縮符号化部
732 水中用符号ビット重み付けテーブル格納部
733 空気中用符号ビット重み付けテーブル格納部
74 集音環境判定部
741 周波数特性判定部
742、743 伝搬特性判定部
744 圧力判定部
745 映像判定部
1 Solid-state image sensor (image sensor)
2 Lens part 3 AFE
4 Image processing unit 5 Image compression processing unit 6 Hydrophone 7, 7a, 7b Audio processing unit 8 Driver unit 9 Decompression processing unit 10 Video output circuit unit 11 Video output terminal 12 Display unit 13 Audio output circuit unit 14 Audio output terminal 15 Speaker Part 16 Timing generator (TG)
17 CPU
DESCRIPTION OF SYMBOLS 18 Memory 19 Operation part 20, 21 Bus line 22 External memory 71 A / D conversion part 72 Correction processing part 73 Voice compression processing part 731 Compression encoding part 732 Underwater code bit weighting table storage part 733 In-air code bit weighting table Storage unit 74 Sound collection environment determination unit 741 Frequency characteristic determination unit 742, 743 Propagation characteristic determination unit 744 Pressure determination unit 745 Video determination unit

Claims (6)

集音した音声信号の記録及び/又は再生機能を有し、
水中で集音した音声信号を記録する際、及び/又は、水中で集音され記録された音声信号を再生する際において、水中における人間の聴覚特性に合わせて音声信号を処理する音声処理部を備えることを特徴とする電子機器。
It has a recording and / or playback function for collected audio signals
An audio processing unit for processing an audio signal in accordance with human auditory characteristics in water when recording an audio signal collected in water and / or reproducing an audio signal collected and recorded in water; An electronic device comprising the electronic device.
前記音声処理部が、水中で集音した音声信号を記録する際、及び/又は、水中で集音され記録された音声信号を再生する際において、水中における人間の聴覚特性に合わせて音声信号の周波数特性を補正する請求項1に記載の電子機器。   When the sound processing unit records a sound signal collected in water and / or reproduces a sound signal collected and recorded in water, the sound processing unit The electronic device according to claim 1, wherein the frequency characteristic is corrected. 前記音声処理部が、水中で集音した音声信号を記録する際において、水中における人間の聴覚特性に合わせて音声圧縮符号化における符号ビット割り当ての重み付けを水中以外で集音した音声信号を記録する場合から変更する請求項1又は請求項2に記載の電子機器。   When recording the sound signal collected underwater, the sound processing unit records the sound signal collected outside the water with weighting of code bit allocation in sound compression coding in accordance with human auditory characteristics in water. The electronic device according to claim 1 or 2, which is changed from the case. 音声信号が水中で集音されたものであるか否かを判定する集音環境判定部を備え、前記集音環境判定部によって音声信号が水中で集音されたものであると判定された場合にのみ、前記音声処理部が水中における人間の聴覚特性に合わせて音声信号を処理する請求項1〜3のいずれか1項に記載の電子機器。   A sound collection environment determination unit that determines whether or not the sound signal is collected in water, and the sound collection environment determination unit determines that the sound signal is collected in water The electronic device according to claim 1, wherein the audio processing unit processes an audio signal in accordance with human auditory characteristics in water. 映像を撮影するカメラを備える撮像装置である請求項1〜4のいずれか1項に記載の電子機器。   The electronic apparatus according to claim 1, wherein the electronic apparatus includes an imaging device that captures an image. 水中で集音した音声信号を記録する際、又は、水中で集音され記録された音声信号を再生する際のいずれかにおいて、水中における人間の聴覚特性に合わせて音声信号を処理するステップを備えることを特徴とする音声信号処理方法。   When recording an audio signal collected in water or reproducing an audio signal collected and recorded in water, the audio signal is processed according to human auditory characteristics in water An audio signal processing method.
JP2008311159A 2008-12-05 2008-12-05 Electronic apparatus and voice processing method Pending JP2010134260A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008311159A JP2010134260A (en) 2008-12-05 2008-12-05 Electronic apparatus and voice processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008311159A JP2010134260A (en) 2008-12-05 2008-12-05 Electronic apparatus and voice processing method

Publications (1)

Publication Number Publication Date
JP2010134260A true JP2010134260A (en) 2010-06-17

Family

ID=42345607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008311159A Pending JP2010134260A (en) 2008-12-05 2008-12-05 Electronic apparatus and voice processing method

Country Status (1)

Country Link
JP (1) JP2010134260A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113178207A (en) * 2021-04-26 2021-07-27 南通大学 Saturated diving helium speech interpretation method based on word bank learning
US12094482B2 (en) 2021-04-26 2024-09-17 Nantong University Lexicon learning-based heliumspeech unscrambling method in saturation diving

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6236998A (en) * 1985-08-12 1987-02-17 Oki Electric Ind Co Ltd Dynamic type underwater sound wave sender
JPH036964A (en) * 1989-06-02 1991-01-14 Fuosutekusu Kk Underwater communication equipment
JPH0595500A (en) * 1991-10-03 1993-04-16 Hitachi Ltd Voice correction device
JPH0730790A (en) * 1993-07-08 1995-01-31 Hitachi Ltd Camera-integrated VTR with waterproof structure
JP2001346300A (en) * 2000-05-30 2001-12-14 Yamaha Corp Simulated sound generator and method of generating simulated sound
JP2003521750A (en) * 2000-02-02 2003-07-15 ファモイス・テクノロジー・ピーティーワイ・リミテッド Speech system
JP2004341384A (en) * 2003-05-19 2004-12-02 Sharp Corp Digital signal recording/reproducing apparatus and its control program
JP2006010771A (en) * 2004-06-22 2006-01-12 Konica Minolta Photo Imaging Inc Imaging apparatus, imaging system and housing
JP2008166948A (en) * 2006-12-27 2008-07-17 Sharp Corp Underwater video camera and underwater video camera system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6236998A (en) * 1985-08-12 1987-02-17 Oki Electric Ind Co Ltd Dynamic type underwater sound wave sender
JPH036964A (en) * 1989-06-02 1991-01-14 Fuosutekusu Kk Underwater communication equipment
JPH0595500A (en) * 1991-10-03 1993-04-16 Hitachi Ltd Voice correction device
JPH0730790A (en) * 1993-07-08 1995-01-31 Hitachi Ltd Camera-integrated VTR with waterproof structure
JP2003521750A (en) * 2000-02-02 2003-07-15 ファモイス・テクノロジー・ピーティーワイ・リミテッド Speech system
JP2001346300A (en) * 2000-05-30 2001-12-14 Yamaha Corp Simulated sound generator and method of generating simulated sound
JP2004341384A (en) * 2003-05-19 2004-12-02 Sharp Corp Digital signal recording/reproducing apparatus and its control program
JP2006010771A (en) * 2004-06-22 2006-01-12 Konica Minolta Photo Imaging Inc Imaging apparatus, imaging system and housing
JP2008166948A (en) * 2006-12-27 2008-07-17 Sharp Corp Underwater video camera and underwater video camera system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNC201100886221; 桑原 信也: '水中聴覚による周波数特性の補正に基づく明瞭度の改善' 日本音響学会研究発表会議講演論文集 春II , 2003 *
JPN6013011962; 桑原 信也: '水中聴覚による周波数特性の補正に基づく明瞭度の改善' 日本音響学会研究発表会議講演論文集 春II , 2003 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113178207A (en) * 2021-04-26 2021-07-27 南通大学 Saturated diving helium speech interpretation method based on word bank learning
US12094482B2 (en) 2021-04-26 2024-09-17 Nantong University Lexicon learning-based heliumspeech unscrambling method in saturation diving

Similar Documents

Publication Publication Date Title
JP5263767B2 (en) Imaging device and mode suitability determination method
JP2008263498A (en) Wind noise reducing device, sound signal recorder and imaging apparatus
JP2009156888A (en) Speech corrector and imaging apparatus equipped with the same, and sound correcting method
JP6637926B2 (en) Voice processing device and control method thereof
US11657794B2 (en) Audio processing apparatus for reducing noise using plurality of microphones, control method, and recording medium
US8514300B2 (en) Imaging apparatus for reducing driving noise
JP2009005133A (en) Wind noise reducing apparatus and electronic device with the wind noise reducing apparatus
JP5529638B2 (en) Audio processing apparatus, audio processing method, and imaging apparatus
JP2010166516A (en) Acoustic processing device, electronic apparatus with the same and acoustic processing method
JP5063489B2 (en) Judgment device, electronic apparatus including the same, and judgment method
JP2010134260A (en) Electronic apparatus and voice processing method
JP2011130134A (en) Imaging apparatus and imaging system
JP2009098510A (en) Sound recording device
JP5171369B2 (en) Sound collection environment determination device, electronic apparatus including the same, and sound collection environment determination method
JP5495753B2 (en) Imaging device
JP6985821B2 (en) Speech processing device and its control method
JP5171370B2 (en) Audio processing apparatus, electronic apparatus, and audio processing method
US12094483B2 (en) Sound processing apparatus and control method
US11729548B2 (en) Audio processing apparatus, control method, and storage medium, each for performing noise reduction using audio signals input from plurality of microphones
JP2018207313A (en) Audio processing device and method of controlling the same
JP6886352B2 (en) Speech processing device and its control method
JP2010081395A (en) Electronic apparatus
JP6931296B2 (en) Speech processing device and its control method
JP2009005157A (en) Sound signal correction device
JP6877246B2 (en) Speech processing device and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130530

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130530

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131022