JP2011120165A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2011120165A
JP2011120165A JP2009277779A JP2009277779A JP2011120165A JP 2011120165 A JP2011120165 A JP 2011120165A JP 2009277779 A JP2009277779 A JP 2009277779A JP 2009277779 A JP2009277779 A JP 2009277779A JP 2011120165 A JP2011120165 A JP 2011120165A
Authority
JP
Japan
Prior art keywords
directivity
microphones
sound
image
zoom magnification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009277779A
Other languages
Japanese (ja)
Other versions
JP2011120165A5 (en
Inventor
Nobuhiko Ichii
伸彦 市居
Ryo Sakachi
亮 坂地
Naoki Ogasawara
直樹 小笠原
Yurie Sakai
有里江 堺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009277779A priority Critical patent/JP2011120165A/en
Publication of JP2011120165A publication Critical patent/JP2011120165A/en
Publication of JP2011120165A5 publication Critical patent/JP2011120165A5/ja
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus with improved user's usability. <P>SOLUTION: A digital camera 10 performs a zoom process of moving an optical lens in response to a change in the optical zoom magnification, and at the same time, performs a predetermined process, i.e., an electrical directivity changing process, on a voice collected by microphones 5L and 5R, to enhance the directivity of a voice of a main subject 4, and causes an LCD 38 to display a directivity mark indicating the current directivity of the microphones 5L and 5R, whereby the user can recognize a change in the directivity of the microphones 5L and 5R, so that the degree of satisfaction of an operation performed by the user himself/herself can be improved. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、特に複数のマイクロフォンを用いて集音される被写体から発せられた音声に対し、被写体を撮像する撮像態様に応じて、集音された音声に所定の処理を施す撮像装置に関する。   The present invention relates to an image pickup apparatus that applies a predetermined process to collected sound according to an image pickup mode for picking up an image of a subject, particularly for sound emitted from a subject collected using a plurality of microphones.

従来の撮像装置において、動画像を撮像し、かつ動画像撮影時の該撮像装置の回りの音声を集音し、動画像と音声を同期させて記録する機能が搭載されたものが、賞用されている。
特開平5−333452号公報 特許文献1には、撮影により得られた視覚化情報を、それに関連する音声情報に対応付けて情報の整理を容易に行うことができる録音機内蔵型撮影機器が記載されている。特に、機器本体内に録音機とカメラが内蔵されると共に、機器本体に単一指向性のマイクロフォンが設けられ、マイクロフォンは本体機器に対して傾動可能、回動可能に設けられており、ファインダーにマイクロフォンの指向方向に対応した位置にカーソルが設定され、使用者はマイクロフォン回動用のボタンを操作することにより、マイクロフォンが回動し、カーソルがマイクロフォンの回動に応じて指向性を示すため、必要とする音声情報の集音効率の向上を図ることが出来る技術が開示されている。
An award-winning image pickup device is equipped with a function for picking up moving images, collecting sound around the image pickup device during moving image shooting, and recording the moving image and sound in synchronization. Has been.
Japanese Patent Application Laid-Open No. 5-333352 discloses a recording apparatus with a built-in recording device that can easily organize information by associating visualization information obtained by photographing with audio information related thereto. Has been. In particular, a recorder and a camera are built in the device body, and a unidirectional microphone is provided in the device body. The microphone is tiltable and rotatable with respect to the device, Necessary because the cursor is set at a position corresponding to the direction of the microphone, and the user operates the button for rotating the microphone to rotate the microphone and the cursor shows directivity according to the rotation of the microphone. The technique which can aim at the improvement of the sound collection efficiency of the audio | voice information to have been disclosed is disclosed.

しかしながら、従来技術の録音機内蔵型撮像機器は、マイクロフォンが指向性を持っており、回動可能であるが、近年の撮像装置、特にデジタルカメラなどの使用者が持ち運ぶのに便利なコンパクトな撮像装置において、指向性を持ったマイクロフォンを回動可能にさせる構造を採用すると、コストが掛かるとともに、撮像装置が大きくなってしまい、近年の撮像装置に要求される仕様を満たさないものである。   However, in the recording device built-in type imaging device of the prior art, the microphone has directivity and can be rotated, but a compact imaging that is convenient for carrying by a user such as a recent imaging device, especially a digital camera. If a structure in which a microphone having directivity is rotatable is adopted in the apparatus, the cost is increased and the imaging apparatus becomes large, which does not satisfy the specifications required for recent imaging apparatuses.

そこで、複数のチャネルで集音可能な複数のマイクロフォンを採用するデジタルカメラが賞用されている。使用者の多くは、該デジタルカメラで被写体の動画像を撮像する際、該被写体に対して拡大するズーム処理を施して記録する場合も考えられる。そして、音声も同期して、該動画像及び音声が動画像ファイルとして記録される。後々、動画像ファイルを再生する場合、主要被写体は大きく表示され、主要被写体が注目されていることが一目瞭然であるにもかかわらず、同期して再生される音声は、主要被写体から発せられた音声だけでなく他の音源からの音声と混じって再生されるため、使用者は非常に違和感を覚えることとなる。   Therefore, a digital camera that employs a plurality of microphones that can collect sound through a plurality of channels has been used award. Many users may consider a case where a moving image of a subject is captured by the digital camera and recorded by performing zoom processing for enlarging the subject. Then, the moving image and the sound are recorded as a moving image file in synchronization with the sound. Later, when playing back a moving image file, the main subject is displayed in a large size, and it is obvious that the main subject is attracting attention. In addition to being played back with audio from other sound sources, the user feels very uncomfortable.

従って、複数チャネルで集音可能な複数のマイクロフォンを使用して、拡大するズーム処理が施された被写体の動画像を撮像する際に、ズーム処理に応じて主要被写体から発せられる音声がよく聞こえるように音声の指向性を制御することが望ましい。そして、更に、ズーム処理に応じて、現在、記録されている音声の指向性を示す情報を使用者に与えることによって、使用者自身の操作の認識度を高めて、操作による満足度を向上させることが望ましい。   Therefore, when using a plurality of microphones that can collect sound through a plurality of channels and capturing a moving image of a subject that has been subjected to zoom processing, the sound emitted from the main subject can be heard well according to the zoom processing. It is desirable to control the directivity of voice. Further, according to the zoom process, by giving information indicating the directivity of the currently recorded voice to the user, the degree of recognition of the user's own operation is increased, and the satisfaction level by the operation is improved. It is desirable.

本発明は、上記の問題点を解決するもので、複数チャネルで集音可能な複数のマイクロフォンを使用して、拡大するズーム処理が施された被写体の動画像を撮像する際に、ズーム処理に応じて主要被写体から発せられる音声がよく聞こえるように音声の指向性を制御し、更に、ズーム処理に応じて、現在、記録されている音声の指向性を示す情報を使用者に与えることができる撮像装置を提供するものである。   The present invention solves the above-described problem, and uses a plurality of microphones that can collect sound with a plurality of channels to perform zoom processing when capturing a moving image of a subject that has been subjected to zoom processing. Accordingly, the directivity of the sound can be controlled so that the sound emitted from the main subject can be heard well, and information indicating the directivity of the currently recorded sound can be given to the user according to the zoom process. An imaging apparatus is provided.

第1の発明の撮像装置は、被写体を撮像し、画像信号を出力する撮像手段と、音声を複数チャネルで集音する複数のマイクロフォンと、画像信号に基づいた画像を表示手段に出力させる表示制御手段と、表示手段に出力される画像が拡大されて表示されるズーム処理を実行するズーム処理制御手段と、ズーム処理におけるズーム倍率の変更指示を受け付けるズーム倍率変更手段と、複数のマイクロフォンから得られる音声の指向性を制御する指向性制御手段と、複数のマイクロフォンから得られる音声の指向性を示す指向性マークが表示手段の所定位置に表示されるよう、画像に対応する映像信号に重畳させて表示するマーク表示手段と、ズーム倍率の変更指示に応じて、複数のマイクロフォンから得られる音声の指向性及び指向性マークを変更せしめる変更手段とを備える。   An image pickup apparatus according to a first aspect of the present invention is an image pickup unit that picks up an image of a subject and outputs an image signal, a plurality of microphones that collect sound through a plurality of channels, and a display control that outputs an image based on the image signal to a display unit. Obtained from a plurality of microphones, zoom processing control means for executing zoom processing in which an image output to the display means is enlarged and displayed, zoom magnification changing means for receiving a zoom magnification change instruction in zoom processing, and the like. Directivity control means for controlling the directivity of sound and directivity marks indicating the directivity of sound obtained from a plurality of microphones are superimposed on the video signal corresponding to the image so that they are displayed at predetermined positions on the display means. In accordance with the mark display means to display and the zoom magnification change instruction, the sound directivity and directivity mark obtained from a plurality of microphones are displayed. And a further allowed to change means.

第2の発明の撮像装置は、第1の発明に従属し、指向性制御手段は、複数のマイクロフォンから集音される音声を電気的に制御することにより、指向性を制御することを特徴とする。   An image pickup apparatus according to a second invention is dependent on the first invention, and the directivity control means controls directivity by electrically controlling sound collected from a plurality of microphones. To do.

第3の発明の撮像装置は、第1の発明又は第2の発明の撮像装置に従属し、変更手段は、ズーム倍率の変更指示が拡大方向への変更である場合には、拡大される被写体の方向から得られる音声の感度を高くする一方、ズーム倍率の変更指示が縮小方向への変更である場合には、縮小される被写体の方向から得られる音声の感度を低くすることを特徴とする。   The imaging device of the third invention is dependent on the imaging device of the first invention or the second invention, and the changing means is a subject to be enlarged when the zoom magnification change instruction is a change in the enlargement direction. The sensitivity of the sound obtained from the direction of the object is increased while the sensitivity of the sound obtained from the direction of the subject to be reduced is reduced when the zoom magnification change instruction is a change to the reduction direction. .

本発明の撮像装置によれば、複数チャネルで集音可能な複数のマイクロフォンを使用して、拡大するズーム処理が施された被写体の動画像を撮像する際に、ズーム処理に応じて被写体から発せられる音声がよく聞こえるように音声の指向性を制御し、更に、ズーム処理に応じて、現在、記録されている音声の指向性を示す情報を使用者に与えることができる。   According to the imaging apparatus of the present invention, when capturing a moving image of a subject that has been subjected to zoom processing using a plurality of microphones that can collect sound using a plurality of channels, the image is emitted from the subject according to the zoom processing. The directivity of the sound can be controlled so that the sound can be heard well, and information indicating the directivity of the currently recorded sound can be given to the user according to the zoom process.

本実施例に係るデジタルカメラ10と音源の位置関係を示す図解図である。It is an illustration figure which shows the positional relationship of the digital camera 10 concerning a present Example, and a sound source. 本実施例に係るデジタルカメラ10の回路構成の一部を示すブロック図である。It is a block diagram which shows a part of circuit structure of the digital camera 10 concerning a present Example. 本実施例に係るマイクロフォン音声処理部42の回路構成の一部を示すブロック図である。It is a block diagram which shows a part of circuit structure of the microphone audio | voice process part 42 which concerns on a present Example. 本実施例に係る方向判定部102が音声の到来する方向を算出する方法を説明するための図である。It is a figure for demonstrating the method the direction determination part 102 which concerns on a present Example calculates the direction from which an audio | voice comes. 本実施例に係るLCD38に表示される画面の一例を示す図解図である。It is an illustration figure which shows an example of the screen displayed on LCD38 which concerns on a present Example. 本実施例に係るマイクロフォン5L及び5Rの指向性のイメージの一例を示す図解図である。It is an illustration figure which shows an example of the image of the directivity of the microphones 5L and 5R which concern on a present Example. 本実施例に係るデジタルカメラ10の動作の一部を示すフローチャートである。It is a flowchart which shows a part of operation | movement of the digital camera 10 concerning a present Example. 本実施例に係る光学ズーム倍率とレジスタ値の関係の一例を示すルックアップテーブルである。6 is a lookup table showing an example of a relationship between an optical zoom magnification and a register value according to the present embodiment.

以下、本発明の撮像装置の一実施例として、デジタルカメラに実施した形態につき、図面に沿って具体的に説明する。   Hereinafter, as an embodiment of an imaging apparatus of the present invention, a mode implemented in a digital camera will be specifically described with reference to the drawings.

図1は、本実施例のデジタルカメラ10が主要被写体4を撮像する形態であり、かつ音源P、音源Q及び音源Rから発生された音声を集音する形態における、夫々の位置関係を示した図解図である。   FIG. 1 shows a positional relationship in the form in which the digital camera 10 of the present embodiment captures the main subject 4 and the sound generated from the sound source P, the sound source Q, and the sound source R is collected. FIG.

本実施例のデジタルカメラ10が具備するマイクロフォン5L及び5Rを用いて、デジタルカメラ10が具備する光学レンズを含むレンズ群16の光学軸上に位置する主要被写体4から音声が発生する音源P、主要被写体4以外から音声が発生するレンズ群16の光学軸に対して左側に位置する音源Q、及び主要被写体4以外から音声が発生するレンズ群16の光学軸に対して右側に位置する音源Rの、夫々からの音声を、2つのチャネル(Lch、Rch)で集音する。   Using the microphones 5L and 5R included in the digital camera 10 of the present embodiment, the sound source P that generates sound from the main subject 4 located on the optical axis of the lens group 16 including the optical lens included in the digital camera 10, The sound source Q located on the left side of the optical axis of the lens group 16 that generates sound from other than the subject 4 and the sound source R located on the right side of the optical axis of the lens group 16 that generates sound from other than the main subject 4 The sound from each is collected by two channels (Lch, Rch).

図2は、デジタルカメラ10のブロック図を示している。   FIG. 2 shows a block diagram of the digital camera 10.

デジタルカメラ10は、光学レンズを含むレンズ群16及び図示しない絞りを含み、主要被写体4の光学像はCPU22による指示によって、図示しないモータ駆動部に制御されたレンズ群16及び絞りを通して、CMOSイメージャユニット18に取り込まれる。なお、本実施例では、イメージセンサとしてCMOSイメージャユニット18を採用した形態で説明するが、CCDイメージャを採用しても良い。   The digital camera 10 includes a lens group 16 including an optical lens and a diaphragm (not shown), and an optical image of the main subject 4 passes through a lens group 16 and a diaphragm controlled by a motor driving unit (not shown) according to an instruction from the CPU 22. 18 is taken in. In this embodiment, the CMOS imager unit 18 is used as the image sensor. However, a CCD imager may be used.

そして、CPU22に接続された図示しないタイミングジェネレータによって与えられる取り込みパルスによって、CMOSイメージャユニット18から1フレーム分のデジタル撮像信号が出力される。ここで、CMOSイメージャユニット18では、各画素で蓄積した電荷を増幅し、各画素から配線を使用して信号として読み出しを行い、該信号に対して、相関2重サンプリング処理、ゲイン調整、クランプ処理、A/D変換処理を施す。該処理が施されたデジタル撮像信号は、画素毎にR、G、Bのいずれかの色信号を有し、CPU22の制御によって、バス40を介してSDRAM32に一旦格納される。   Then, a digital imaging signal for one frame is output from the CMOS imager unit 18 by a capture pulse provided by a timing generator (not shown) connected to the CPU 22. Here, the CMOS imager unit 18 amplifies the charge accumulated in each pixel, reads out the signal from each pixel as a signal, and performs correlated double sampling processing, gain adjustment, clamping processing on the signal. A / D conversion processing is performed. The digital image signal subjected to the processing has one of R, G, and B color signals for each pixel, and is temporarily stored in the SDRAM 32 via the bus 40 under the control of the CPU 22.

SDRAM32に一旦格納されたデジタル撮像信号は、CPU22の制御によって信号処理回路20へ入力される。信号処理回路20では、入力されたデジタル撮像信号に対して色分離処理を施し、更にYUV変換により、Y、U、V信号に変換する。そして、信号処理回路20で変換されたデジタル画像信号は、バス40を介して、再びSDRAM32へ格納される。本実施例においては、上述したCMOSイメージャユニット18から出力されたデジタル撮像信号が、信号処理回路20でデジタル画像信号に変換処理され、SDRAM32に格納されるまでの処理を、撮像処理と定義する。   The digital image signal once stored in the SDRAM 32 is input to the signal processing circuit 20 under the control of the CPU 22. The signal processing circuit 20 performs color separation processing on the input digital imaging signal, and further converts it into Y, U, and V signals by YUV conversion. The digital image signal converted by the signal processing circuit 20 is stored in the SDRAM 32 again via the bus 40. In the present embodiment, the processing from when the digital imaging signal output from the CMOS imager unit 18 described above is converted into a digital image signal by the signal processing circuit 20 and stored in the SDRAM 32 is defined as imaging processing.

また、SDRAM32に格納されたデジタル画像信号は、CPU22の制御により、必要な場合にはスーパーインボース回路44を介して、LCD38へ出力される。LCD38は、図示しないLCDドライバを含み、LCDドライバはY、U、V信号をRGB信号に変換して、LCD38にデジタル画像信号に基づく画像信号を表示させる。本実施例においては、SDRAM32に格納されたデジタル画像信号が、LCD38に画像信号として表示されるまでの処理を、表示処理と定義する。本実施例では、表示デバイスとしてLCD38を採用した形態を説明するが、有機ELなどの表示デバイスを採用しても良い。   Further, the digital image signal stored in the SDRAM 32 is output to the LCD 38 through the super invoke circuit 44 when necessary under the control of the CPU 22. The LCD 38 includes an LCD driver (not shown). The LCD driver converts Y, U, and V signals into RGB signals, and causes the LCD 38 to display an image signal based on the digital image signal. In the present embodiment, a process until the digital image signal stored in the SDRAM 32 is displayed as an image signal on the LCD 38 is defined as a display process. In the present embodiment, an embodiment in which the LCD 38 is employed as a display device will be described, but a display device such as an organic EL may be employed.

操作部24は、モード選択ボタン24a、静止画撮像ボタン24b、動画撮像ボタン24c、メニューボタン24d、再生開始ボタン24e及びズームボタン24fを備えている。ユーザによってモード選択ボタン24aが操作されることによって、デジタルカメラ10が備える撮影モード及び再生モードのいずれかを選択することができる。   The operation unit 24 includes a mode selection button 24a, a still image capturing button 24b, a moving image capturing button 24c, a menu button 24d, a reproduction start button 24e, and a zoom button 24f. By operating the mode selection button 24a by the user, it is possible to select either the shooting mode or the playback mode provided in the digital camera 10.

さて、ここで、モード選択ボタン24aが操作されることにより、撮影モードが選択されると、上述した撮影処理が所定の解像度及びフレームレートに基づいて繰り返し実行され、かつ、表示処理が順次実行されることにより、LCD38上にスルー画像が表示される。   Now, when the shooting mode is selected by operating the mode selection button 24a, the above shooting process is repeatedly executed based on a predetermined resolution and frame rate, and the display process is sequentially executed. As a result, a through image is displayed on the LCD 38.

このスルー画像が表示されている状態で、ユーザによって静止画撮像ボタン24bが押下されると、上述した撮像処理が静止画撮像用の解像度に基づいて実行される。そして、上述した撮像処理が実行されることにより得られる、SDRAM32に格納されたデジタル画像信号が、CPU22の制御によって、圧縮・伸張処理回路26に入力され、JPEG圧縮処理が施され、再び圧縮静止画像データとしてSDRAM32に格納される。   When the user presses the still image capturing button 24b while the through image is displayed, the above-described imaging processing is executed based on the resolution for still image capturing. Then, the digital image signal stored in the SDRAM 32 obtained by executing the above-described imaging processing is input to the compression / decompression processing circuit 26 under the control of the CPU 22, subjected to JPEG compression processing, and again compressed and stopped. It is stored in the SDRAM 32 as image data.

そして、CPU22に制御された外部メモリカード制御回路30は、SDRAM32に格納されている圧縮静止画像データを、外部メモリカード36にJPEGファイル構造(スタートマーカ、エンドマーカ、ヘッダ情報(サムネイル画像データを含む)、複数のセグメント及び静止画像データを含む)の静止画像ファイルとして記録する。この静止画像ファイルを記録するための一連の撮像処理から記録動作を、静止画撮像処理と定義する。本実施例では、記録媒体として、外部メモリカード36を採用した形態を説明するが、デジタルカメラ10の内部に内部メモリを設けても良い。   The external memory card control circuit 30 controlled by the CPU 22 stores the compressed still image data stored in the SDRAM 32 in the JPEG file structure (start marker, end marker, header information (including thumbnail image data) in the external memory card 36. ), Including a plurality of segments and still image data). A recording operation from a series of imaging processes for recording the still image file is defined as a still image imaging process. In this embodiment, an embodiment in which the external memory card 36 is employed as a recording medium will be described. However, an internal memory may be provided inside the digital camera 10.

また、スルー画像が表示されている状態で、ユーザによって動画像撮影ボタン24cが押下されることにより、上述した撮像処理が動画撮像用の解像度及びフレームレートに基づいて繰り返し実行される。また、CPU22がマイクロフォン音声制御部42を制御することにより、マイクロフォン5L及び5Rから出力されるアナログ音声信号に対して後述する所定の処理を施して、デジタル音声信号して圧縮信号処理26に順次出力させる。図1を参照して説明すると、音源P、音源Q及び音源Rからの音声が、マイクロフォン5L及び5Rに集音される。   In addition, when the moving image capturing button 24c is pressed by the user while the through image is displayed, the above-described imaging processing is repeatedly executed based on the resolution and frame rate for moving image capturing. In addition, the CPU 22 controls the microphone sound control unit 42 to perform predetermined processing (to be described later) on the analog sound signals output from the microphones 5L and 5R, and sequentially outputs the digital sound signals to the compressed signal processing 26. Let Referring to FIG. 1, sounds from the sound source P, the sound source Q, and the sound source R are collected by the microphones 5L and 5R.

また同時に、上述した撮像処理が実行されることにより得られる、SDRAM32に格納されたデジタル画像信号が、CPU22の制御によって圧縮・伸張処理回路26に順次入力され、デジタル音声信号及びデジタル画像信号に対してMPEG−4圧縮処理が施され、再び圧縮動画像・音声データとしてSDRAM32に格納される。   At the same time, the digital image signal stored in the SDRAM 32 obtained by executing the above-described imaging process is sequentially input to the compression / decompression processing circuit 26 under the control of the CPU 22, and the digital audio signal and the digital image signal are processed. MPEG-4 compression processing is performed, and the compressed video / audio data is stored in the SDRAM 32 again.

そして、CPU22に制御された外部メモリカード制御回路30は、SDRAM32に格納されている圧縮動画像・音声データを、外部メモリカード36に順次転送することにより、MP4ファイル構造(ヘッダ情報(サムネイル画像データを含む)、圧縮動画像・音声データであるビデオデータ情報及びオーディオデータ情報を含む)の動画像ファイルとして記録する。この動画像ファイルを記録するための一連の撮像処理から記録動作を、動画像撮像処理と定義する。なお、動画像撮像処理中にも上述した表示処理が順次実行されることにより、LCD38上にリアルタイム記録画像が表示される。   Then, the external memory card control circuit 30 controlled by the CPU 22 sequentially transfers the compressed moving image / audio data stored in the SDRAM 32 to the external memory card 36, thereby the MP4 file structure (header information (thumbnail image data)). (Including video data information and audio data information which are compressed moving image / sound data). A recording operation from a series of imaging processes for recording the moving image file is defined as a moving image imaging process. Note that the display process described above is sequentially executed during the moving image capturing process, whereby a real-time recorded image is displayed on the LCD 38.

なお、スルー画像が表示されている状態、またはリアルタイム記録画像が表示されている状態において、ズームボタン24fが操作されることにより、CPU22は図示しないモータ駆動部を制御して、レンズ群16に含まれる光学レンズを移動せしめる。   It should be noted that the CPU 22 controls a motor drive unit (not shown) and is included in the lens group 16 when the zoom button 24f is operated in a state where a through image is displayed or a real-time recorded image is displayed. Move the optical lens.

ズームボタン24fの操作形態として、光学レンズを広角側へ移動せしめる広角操作と、光学レンズを望遠側へ移動せしめる望遠操作とが存在し、望遠操作が為されると主要被写体4の光学像に基づく画像が拡大されてLCD38上に表示(以後、拡大処理と称す)され、広角操作が為されると主要被写体4が縮小されてLCD38上に表示(以後、縮小処理と称す)される。広角操作は、望遠操作によって拡大された倍率から元の倍率に戻す時に、主に為される。   As the operation mode of the zoom button 24f, there are a wide angle operation for moving the optical lens to the wide angle side and a telephoto operation for moving the optical lens to the telephoto side. When the telephoto operation is performed, it is based on the optical image of the main subject 4. The image is enlarged and displayed on the LCD 38 (hereinafter referred to as an enlargement process). When a wide-angle operation is performed, the main subject 4 is reduced and displayed on the LCD 38 (hereinafter referred to as a reduction process). The wide-angle operation is mainly performed when returning from the magnification magnified by the telephoto operation to the original magnification.

本実施例では、ズームボタン24fが操作されることにより、拡大処理の倍率(以後、光学ズーム倍率と称す)を1倍〜5倍までリニアに変更可能である。望遠操作及び広角操作を光学ズーム操作と定義し、該光学ズーム操作に基づく、上述した処理を撮像ズーム処理と定義する。   In this embodiment, by operating the zoom button 24f, the magnification of the enlargement process (hereinafter referred to as optical zoom magnification) can be linearly changed from 1 to 5 times. A telephoto operation and a wide-angle operation are defined as an optical zoom operation, and the above-described process based on the optical zoom operation is defined as an imaging zoom process.

本実施例では、動画像撮像処理が実行されている状態において、上述した望遠操作が為されると、CPU22は光学ズーム倍率に応じて、マイクロフォン5L及び5Rが集音する音源P、音源Q及び音源Rからの音声に対して、音源Pから音声の感度を上昇させる処理、つまり電気的な指向性変更処理をマイクロフォン音声処理部42で実行させ、指向性変更処理が為されたデジタル音声信号を圧縮信号処理26に順次出力させる。そして、上述したように、デジタル画像信号と及びデジタル音声信号に基づいた動画像ファイルが、外部メモリカード36に記録される。更に、CPU22は光学ズーム倍率に応じて、指向性変更処理が為されたマイクロフォン5L及び5Rの指向性を示す指向性マークを、デジタル画像信号に重畳してリアルタイム記録画像として、LCD38に表示させる。   In the present embodiment, when the above-mentioned telephoto operation is performed in a state where the moving image capturing process is being performed, the CPU 22 causes the sound source P, the sound source Q, and the sound sources P to be collected by the microphones 5L and 5R according to the optical zoom magnification. With respect to the sound from the sound source R, a process for increasing the sensitivity of the sound from the sound source P, that is, an electrical directivity changing process is executed by the microphone sound processing unit 42, and the digital sound signal subjected to the directivity changing process is processed. The compressed signal processing 26 is sequentially output. Then, as described above, the moving image file based on the digital image signal and the digital audio signal is recorded on the external memory card 36. Further, the CPU 22 causes the LCD 38 to display a directivity mark indicating the directivity of the microphones 5L and 5R subjected to the directivity changing process on the LCD 38 as a real-time recorded image by superimposing it on the digital image signal according to the optical zoom magnification.

また、モード選択ボタン24aが操作されることにより、再生モードが選択され、再生開始ボタン24eが押下されると、CPU22は、外部メモリカード制御回路30を制御し、外部メモリカード36に記録されている、最新の静止画像ファイルまたは動画像ファイルのヘッダ情報を読み出して、再生可能なファイルであるか、つまりファイルが壊れていないか否か、JPEG形式ファイルまたはMP4形式のファイルであるか否かを判断し、再生可能なファイルである場合には、該ファイルのフォーマットを解析して、圧縮静止画像データ、または圧縮動画像・音声データを、SDRAM32に一旦格納させ、圧縮・伸張処理回路26で伸張させて、デジタル伸張画像信号に基づく画像信号をLCD38に表示させる。動画像ファイルを再生する場合には、デジタル伸張画像信号に基づく画像信号をLCD38に表示させると共に、デジタル伸張音声信号をD/A変換回路46へ出力させ、アナログ伸張音声信号へ変換させてスピーカ48へ出力させる。   When the playback mode is selected by operating the mode selection button 24a and the playback start button 24e is pressed, the CPU 22 controls the external memory card control circuit 30 and is recorded in the external memory card 36. The header information of the latest still image file or moving image file is read out to determine whether it is a reproducible file, that is, whether the file is not broken, whether it is a JPEG format file or an MP4 format file. If the file is reproducible, the format of the file is analyzed, and the compressed still image data or the compressed moving image / audio data is temporarily stored in the SDRAM 32 and decompressed by the compression / decompression processing circuit 26. Thus, an image signal based on the digital decompressed image signal is displayed on the LCD 38. When playing back a moving image file, an image signal based on the digital expanded image signal is displayed on the LCD 38, and the digital expanded audio signal is output to the D / A conversion circuit 46 to be converted into an analog expanded audio signal to be converted into the speaker 48. To output.

次に、上述した電気的な指向性変更処理を図3及び図4を用いて詳細に説明する。   Next, the electrical directivity changing process described above will be described in detail with reference to FIGS.

図3は、マイクロフォン音声処理部42の内部構成の概略を示すブロック図である。マイクロフォン音声処理部42は、マイクロフォン5L及び5Rによって集音された複数の音源(図1では、音源P、音源Q及び音源Rの3つの音源)からの音声を音源毎に分離抽出する。そして、CPU22から通知される現在の光学ズーム倍率を検出し、光学ズーム倍率に応じて、分離抽出された各音源からの音声に対して、音源Pからの音声の感度が上昇する処理を施す。かかる処理の結果、視聴者が動画像ファイルを再生して視聴すると、主要被写体4からの音声がよりクリアに聴こえることになる。   FIG. 3 is a block diagram showing an outline of the internal configuration of the microphone sound processing unit 42. The microphone sound processing unit 42 separates and extracts sounds from a plurality of sound sources collected by the microphones 5L and 5R (in FIG. 1, three sound sources, a sound source P, a sound source Q, and a sound source R) for each sound source. Then, the current optical zoom magnification notified from the CPU 22 is detected, and processing for increasing the sensitivity of the sound from the sound source P is performed on the sound from each sound source separated and extracted according to the optical zoom magnification. As a result of such processing, when the viewer reproduces and views the moving image file, the sound from the main subject 4 can be heard more clearly.

図3を参照して、更に詳細に説明する。図3において、ADC6L及び6Rから出力されるデジタル音声信号は、時間領域上の信号であり、或る基準時刻からの経過時間をt(tは整数)とすると、当該デジタル音声信号はtの関数として表現できる。以下、ADC6L及び6Rから出力されるデジタル音声信号をそれぞれ原信号Li(t)及び原信号Ri(t)と記載する。   This will be described in more detail with reference to FIG. In FIG. 3, the digital audio signals output from the ADCs 6L and 6R are signals in the time domain, and when the elapsed time from a certain reference time is t (t is an integer), the digital audio signal is a function of t. Can be expressed as Hereinafter, digital audio signals output from the ADCs 6L and 6R are referred to as an original signal Li (t) and an original signal Ri (t), respectively.

FFT(Fast Fourier Transform)部101L及び101Rぞれぞれは、原信号Li(t)及びRi(t)それぞれに対して離散フーリエ変換を施し、周波数スペクトルを生成する。FFT部101L及び101Rそれぞれから出力される周波数スペクトルは、ADC6L及び6Rそれぞれから時間領域上の信号として出力されるデジタル音声信号を周波数領域上の信号に変換したものである。従って、当該周波数スペクトルは、周波数f(fは正の整数)の関数として表現できる。以下、FFT部101L及び101Rから出力される周波数スペクトルを、それぞれ周波数スペクトルL(f)及びR(f)と記載する。   FFT (Fast Fourier Transform) sections 101L and 101R respectively perform discrete Fourier transform on the original signals Li (t) and Ri (t) to generate a frequency spectrum. The frequency spectrum output from each of the FFT units 101L and 101R is obtained by converting a digital audio signal output as a signal in the time domain from each of the ADCs 6L and 6R into a signal in the frequency domain. Therefore, the frequency spectrum can be expressed as a function of the frequency f (f is a positive integer). Hereinafter, the frequency spectra output from the FFT units 101L and 101R are referred to as frequency spectra L (f) and R (f), respectively.

本実施例のデジタルカメラ10では、ADC6L及び6Rそれぞれがアナログ音声信号を、例えば、サンプリング周波数48kHz(キロヘルツ)でデジタル音声信号に変換する。そして、デジタルカメラ10は、生成されたデジタル音声信号の1024サンプル、即ち、約21.3msec(1024×1/48kHz)を1つのフレームとし、このフレーム単位で該デジタル音声信号に音声信号処理を施す。   In the digital camera 10 of this embodiment, the ADCs 6L and 6R each convert an analog audio signal into a digital audio signal at a sampling frequency of 48 kHz (kilohertz), for example. The digital camera 10 uses 1024 samples of the generated digital audio signal, that is, approximately 21.3 msec (1024 × 1/48 kHz) as one frame, and performs audio signal processing on the digital audio signal in units of this frame. .

FFT部101L及び101Rは、デジタル音声信号に対し1フレーム単位で離散フーリエ変換を施す。この際、デジタル音声信号の周波数帯域をΔfの標本間隔でM(Mは2以上の整数)個に細分化するとともに、細分化された周波数帯域毎に周波数スペクトルを算出する。以下、細分化された周波数帯域を細分化帯域と記載する。例えば、デジタル音声信号の全周波数帯域がΔFであるとすると、細分化帯域の個数Mは、M=ΔF/Δfとなる。ここで、理想的には、標本間隔Δfを狭くすることにより、細分化帯域のそれぞれが1つの音源からのデジタル音声信号の成分しか含まないようにすることができる。即ち、各細分化帯域に含まれるデジタル音声信号は、複数ある音源のうちのいずれか一つの音源から発せられた音声に基づくデジタル音声信号の成分であると考えることができる。   The FFT units 101L and 101R perform discrete Fourier transform on the digital audio signal in units of one frame. At this time, the frequency band of the digital audio signal is subdivided into M (M is an integer of 2 or more) at a sampling interval of Δf, and a frequency spectrum is calculated for each subdivided frequency band. Hereinafter, the subdivided frequency band is referred to as a subdivided band. For example, if the total frequency band of the digital audio signal is ΔF, the number M of subdivided bands is M = ΔF / Δf. Here, ideally, by narrowing the sample interval Δf, each of the subdivided bands can include only the component of the digital audio signal from one sound source. That is, the digital audio signal included in each subdivided band can be considered as a component of a digital audio signal based on audio generated from any one of a plurality of sound sources.

複数の細分化帯域をそれぞれ、f0,f1,f2,・・・,fm-1(mは1以上の整数)とすると、周波数スペクトルL(f)及びR(f)は、細分化帯域f0,f1,f2,・・・,fm-1(mは1以上の整数)の周波数スペクトルから構成されることになる。以下、周波数スペクトルL(f)及びR(f)を構成する細分化帯域の周波数スペクトルを、それぞれL(f0),L(f1),L(f2),・・・L(fm-1)、及びR(f0),R(f1),R(f2),・・・R(fm-1)と記載する。   Assuming that the plurality of subdivided bands are f0, f1, f2,..., Fm-1 (m is an integer of 1 or more), the frequency spectra L (f) and R (f) are subdivided bands f0, .., fm-1 (m is an integer of 1 or more). Hereinafter, the frequency spectrums of the subdivided bands constituting the frequency spectra L (f) and R (f) are denoted by L (f0), L (f1), L (f2),... L (fm-1), respectively. And R (f0), R (f1), R (f2),... R (fm-1).

方向判定部102は、FFT部101L及び101Rそれぞれから出力される各細分化帯域の周波数スペクトルから、各細分化帯域に含まれるデジタル音声信号がマイクロフォン5L及び5Rへ到達した時の位相差を算出し、この位相差に基づいて各細分化帯域に含まれるデジタル音声信号の到来方向を判定する。   The direction determination unit 102 calculates the phase difference when the digital audio signal included in each subband reaches the microphones 5L and 5R from the frequency spectrum of each subband output from the FFT units 101L and 101R. Based on this phase difference, the arrival direction of the digital audio signal included in each subdivided band is determined.

図4は、方向判定部102が音声信号の到来する方向を算出する方法を説明するための図である。今、互いに直行するX軸及びY軸を座標軸とする2次元の座標面を想定する。X軸とY軸は原点Oで直交する。原点Oを基準としてX軸正方向を右側、負方向を左側、Y軸正方向を前方、負方向を後方とする。マイクロフォン5L及び5RがそれぞれX軸上の互いに異なる位置であって、Y軸を基準に対称となるように配置され、2つのマイクロフォンの間隔がDであるとする。間隔Dは、例えば数mm程度である。 今、例えば、f0Hzの細分化帯域に含まれる音声が音源Hから発せられたものであり、当該音声が原点Oへ到来する時の入射角を、原点を中心に反時計周りを正としてθ(rad)(ラジアン)であるとする。このときマイクロフォン5L及び5Rへの入射角もθ(rad)と近似することができる。当該音声がマイク5L及び5Rに到達する際の位相差をΔφ(rad)とすると、Δφは、FFT部101L及び101Rそれぞれから出力される周波数スペクトルL(f0)及びR(f0)から算出することができる。   FIG. 4 is a diagram for explaining a method by which the direction determination unit 102 calculates the direction in which the audio signal arrives. Now, a two-dimensional coordinate plane is assumed with the X axis and Y axis orthogonal to each other as coordinate axes. The X axis and the Y axis are orthogonal at the origin O. With the origin O as a reference, the X-axis positive direction is the right side, the negative direction is the left side, the Y-axis positive direction is the front, and the negative direction is the rear. It is assumed that the microphones 5L and 5R are located at different positions on the X axis and are symmetrical with respect to the Y axis, and the distance between the two microphones is D. The distance D is about several mm, for example. Now, for example, a sound included in the subband of f0 Hz is emitted from the sound source H, and the incident angle when the sound arrives at the origin O is set to θ ( rad) (radians). At this time, the incident angle to the microphones 5L and 5R can also be approximated to θ (rad). If the phase difference when the sound reaches the microphones 5L and 5R is Δφ (rad), Δφ is calculated from the frequency spectra L (f0) and R (f0) output from the FFT units 101L and 101R, respectively. Can do.

具体的には、離散フーリエ変換によって算出された周波数スペクトルL(f0)の実部をL_r(f0)、虚部をL_i(f0)とするとL(f0)の位相φlは   Specifically, if the real part of the frequency spectrum L (f0) calculated by the discrete Fourier transform is L_r (f0) and the imaginary part is L_i (f0), the phase φl of L (f0) is

と算出することができる。 Can be calculated.

同様に、周波数スペクトルR(f0)の実部をR_r(f0)、虚部をR_i(f0)とするとR(f0)の位相φrは、   Similarly, if the real part of the frequency spectrum R (f0) is R_r (f0) and the imaginary part is R_i (f0), the phase φr of R (f0) is

と算出することができる。 Can be calculated.

ここで、位相差Δφは、Δφ=φr-φlと算出できるため、下記式(1)により算出することができる。   Here, since the phase difference Δφ can be calculated as Δφ = φr−φl, it can be calculated by the following equation (1).

また、音速をC(mm/sec)、マイクロフォン5Lと5Rとの間隔をD(mm)とすると、Δφは下記式(2)からも算出することができる。   Further, if the sound speed is C (mm / sec) and the distance between the microphones 5L and 5R is D (mm), Δφ can also be calculated from the following equation (2).

よって、上記式(1)と(2)より入射角θは、下記式(3)から算出することができ
る。
Therefore, the incident angle θ can be calculated from the following equation (3) from the above equations (1) and (2).

以上より、細分化帯域f0Hzに含まれる音声が到来する方向である、入射角θを算出することができる。このようにして方向判定部102は、全ての細分化帯域に含まれる音声の入射角を算出する。以下、細分化帯域に含まれる音声の入射角を単に細分化帯域の入射角と記載する。   From the above, it is possible to calculate the incident angle θ, which is the direction in which the voice included in the subdivided band f0 Hz arrives. In this way, the direction determination unit 102 calculates the incident angle of sound included in all the subdivided bands. Hereinafter, the incident angle of sound included in the subdivided band is simply referred to as the incident angle of the subdivided band.

本実施例では、方向判定部102は、周波数スペクトルL(f)の細分化帯域の周波数スペクトルと当該細分化帯域の入射角とを一組として全ての組をズーム倍率判定部103へ出力する。尚、周波数スペクトルR(f)の細分化帯域の周波数スペクトルと当該細分化帯域の入射角とを一組として出力してもかまわない。   In the present embodiment, the direction determination unit 102 outputs all sets to the zoom magnification determination unit 103 by combining the frequency spectrum of the subband of the frequency spectrum L (f) and the incident angle of the subband. Note that the frequency spectrum of the subband of the frequency spectrum R (f) and the incident angle of the subband may be output as a set.

例えば、細分化帯域f0、f1、f2、f3、f4、f5、f6、f7、f8、及びf9の入射角がそれぞれθ0、θ1、θ0、θ0、θ1、θ1、θ1、θ2、θ2、及びθ2(rad)であるとすると、方向判定部102は、(L(f0),θ0)、(L(f1),θ1)、(L(f2),θ0)、(L(f3),θ0)、(L(f4),θ1)、(L(f5),θ1)、(L(f6),θ1)、(L(f7),θ2)、(L(f8),θ2)、(L(f9),θ2)をズーム倍率判定部103へ出力する。   For example, the incident angles of the subdivided bands f0, f1, f2, f3, f4, f5, f6, f7, f8, and f9 are θ0, θ1, θ0, θ0, θ1, θ1, θ1, θ2, θ2, and θ2, respectively. Assuming that (rad), the direction determination unit 102 determines that (L (f0), θ0), (L (f1), θ1), (L (f2), θ0), (L (f3), θ0), (L (f4), θ1), (L (f5), θ1), (L (f6), θ1), (L (f7), θ2), (L (f8), θ2), (L (f9) , Θ2) is output to the zoom magnification determination unit 103.

ズーム倍率判定部103は、方向判定部102から出力される細分化帯域の周波数スペクトルと当該細分化帯域の入射角の組から、入射角毎に細分化帯域の周波数スペクトルを抽出するとともにこれらを合成し、合成周波数スペクトルを生成する。即ち、音声の到来方向毎の合成周波数スペクトルを生成する。以下、入射角θから到来する細分化帯域の周波数スペクトルを合成して生成した合成周波数スペクトルをL(θ)と記載する。   The zoom magnification determining unit 103 extracts the frequency spectrum of the subdivided band for each incident angle from the set of the frequency spectrum of the subdivided band output from the direction determining unit 102 and the incident angle of the subdivided band and combines them. And a synthesized frequency spectrum is generated. That is, a synthesized frequency spectrum is generated for each voice arrival direction. Hereinafter, the synthesized frequency spectrum generated by synthesizing the frequency spectrum of the subdivided band coming from the incident angle θ will be referred to as L (θ).

例えば、ズーム倍率判定部103は、方向判定部102から、(L(f0),θ0)、(L(f1),θ1)、(L(f2),θ0)、(L(f3),θ0)、(L(f4),θ1)、(L(f5),θ1)、(L(f6),θ1)、(L(f7),θ2)、(L(f8),θ2)、(L(f9),θ2)を取得すると、入射角θ0の細分化帯域の周波数スペクトルL(f0)、L(f2)、L(f3)を抽出し、これらを合成し、合成周波数スペクトルL(θ0)を生成する。   For example, the zoom magnification determination unit 103 receives (L (f0), θ0), (L (f1), θ1), (L (f2), θ0), (L (f3), θ0)) from the direction determination unit 102. , (L (f4), θ1), (L (f5), θ1), (L (f6), θ1), (L (f7), θ2), (L (f8), θ2), (L (f9) ), Θ2), the frequency spectrum L (f0), L (f2), L (f3) of the subdivided band with the incident angle θ0 is extracted and synthesized to generate a synthesized frequency spectrum L (θ0). To do.

同様に、L(f1)、L(f4)、L(f5)、L(f6)を抽出して合成し、入射角θ1からの合成周波数スペクトルL(θ1)とする。また、L(f7)、L(f8)、L(f9)を抽出して合成し、入射角θ2からの合成周波数スペクトルL(θ2)とする。   Similarly, L (f1), L (f4), L (f5), and L (f6) are extracted and combined to obtain a combined frequency spectrum L (θ1) from the incident angle θ1. Further, L (f7), L (f8), and L (f9) are extracted and combined to obtain a combined frequency spectrum L (θ2) from the incident angle θ2.

ここで、図1に示す音源P、音源Q及び音源Rからの音声に基づいて、合成周波数スペクトルを上述した方法にて抽出したとする。その場合、音源Pからの合成周波数スペクトルをL(θP)、音源Qからの合成周波数スペクトルをL(θQ)、音源Rからの合成周波数スペクトルをL(θR)とする。音源Pは、デジタルカメラ10のレンズ群16の光学軸方向に位置するため、θP≒90°となる。このように、ズーム倍率判定部103は、音源Pが主要被写体4からの音源であることを認識することができる。また、ズーム倍率判定部103は、音源Qはデジタルカメラ10のレンズ群16の光軸方向に位置する音源Pから反時計回りにある角度分ずれた方向に位置すること、及び音源Rは音源Pから時計回りにある角度分ずれた方向に位置することを認識することができる。   Here, it is assumed that the synthesized frequency spectrum is extracted by the method described above based on the sound from the sound source P, the sound source Q, and the sound source R shown in FIG. In this case, the synthesized frequency spectrum from the sound source P is L (θP), the synthesized frequency spectrum from the sound source Q is L (θQ), and the synthesized frequency spectrum from the sound source R is L (θR). Since the sound source P is located in the optical axis direction of the lens group 16 of the digital camera 10, θP≈90 °. Thus, the zoom magnification determination unit 103 can recognize that the sound source P is a sound source from the main subject 4. In addition, the zoom magnification determination unit 103 determines that the sound source Q is positioned in a direction shifted by an angle that is counterclockwise from the sound source P positioned in the optical axis direction of the lens group 16 of the digital camera 10, and the sound source R is the sound source P. It can be recognized that it is located in a direction that is shifted clockwise by a certain angle.

ズーム倍率判定部103は、合成周波数スペクトルL(θP)、L(θQ)及びL(θR)をゲイン調整部104へ通知する。CPU22は、ズーム倍率に応じてレジスタ値を決定し、ゲイン調整部104に通知することによってゲイン調整部104内に設けられたレジスタ104aのレジスタ値が設定される。   The zoom magnification determination unit 103 notifies the gain adjustment unit 104 of the combined frequency spectrum L (θP), L (θQ), and L (θR). The CPU 22 determines a register value according to the zoom magnification, and notifies the gain adjustment unit 104 to set the register value of the register 104 a provided in the gain adjustment unit 104.

ゲイン調整部104は、レジスタ104aのレジスタ値に対応した、合成周波数スペクトルL(θP)に対応する周波数スペクトルLに対して第1増幅率で増幅処理を行い、合成周波数スペクトルL(θQ)に対応する周波数スペクトルLに対して第2増幅率で増幅処理を行い、合成周波数スペクトルL(θR)に対応する周波数スペクトルLに対して第3増幅率で増幅処理を行う。   The gain adjusting unit 104 amplifies the frequency spectrum L corresponding to the combined frequency spectrum L (θP) corresponding to the register value of the register 104a with the first amplification factor, and corresponds to the combined frequency spectrum L (θQ). The frequency spectrum L to be amplified is subjected to amplification processing at the second amplification factor, and the frequency spectrum L corresponding to the combined frequency spectrum L (θR) is subjected to amplification processing at the third amplification factor.

図6(A)〜(C)に示された、マイクロフォン5L(Lch)及び5R(Rch)の指向性のイメージ図を用いて、具体的に説明する。例えば、光学ズーム倍率が1倍以上〜2.5倍未満に該当するズーム操作が為された場合には、第1増幅率、第2増幅率及び第3増幅率は、あたかも図6(A)に示すようなマイクロフォン5Lの指向性がデジタルカメラ10のレンズ群16の光軸方向を中心軸として反時計回りに略90°、マイクロフォン5Rの指向性がデジタルカメラ10のレンズ群16の光軸方向を中心軸として時計回りに略90°となるような増幅率に設定される。   This will be specifically described with reference to the directivity diagrams of the microphones 5L (Lch) and 5R (Rch) shown in FIGS. For example, when a zoom operation corresponding to an optical zoom magnification of 1 to 2.5 is performed, the first amplification factor, the second amplification factor, and the third amplification factor are as shown in FIG. The directivity of the microphone 5L is approximately 90 ° counterclockwise with the optical axis direction of the lens group 16 of the digital camera 10 as the central axis, and the directivity of the microphone 5R is the optical axis direction of the lens group 16 of the digital camera 10. Is set to an amplification factor of approximately 90 ° clockwise with the center axis of.

光学ズーム倍率が2.5倍以上〜4倍未満に該当するズーム操作が為された場合には、第1増幅率、第2増幅率及び第3増幅率は、あたかも図6(B)に示すようなマイクロフォン5Lの指向性がデジタルカメラ10のレンズ群16の光軸方向を中心軸として反時計回りに略60°、マイクロフォン5Rの指向性がデジタルカメラ10のレンズ群16の光軸方向を中心軸として時計回りに略60°となるような増幅率に設定される。   When a zoom operation corresponding to an optical zoom magnification of 2.5 to 4 is performed, the first gain, the second gain, and the third gain are as shown in FIG. 6B. The directivity of the microphone 5L is approximately 60 ° counterclockwise about the optical axis direction of the lens group 16 of the digital camera 10, and the directivity of the microphone 5R is centered on the optical axis direction of the lens group 16 of the digital camera 10. The gain is set so that the axis is approximately 60 ° clockwise.

光学ズーム倍率が4倍以上に該当するズーム操作が為された場合には、第1増幅率、第2増幅率及び第3増幅率は、あたかも図6(C)に示すようなマイクロフォン5Lの指向性がデジタルカメラ10のレンズ群16の光軸方向を中心軸として反時計回りに略30°、マイクロフォン5Rの指向性がデジタルカメラ10のレンズ群16の光軸方向を中心軸として時計回りに略30°となるような増幅率に設定される。   When a zoom operation corresponding to an optical zoom magnification of 4 times or more is performed, the first amplification factor, the second amplification factor, and the third amplification factor are the directivity of the microphone 5L as shown in FIG. About 30 ° counterclockwise about the optical axis direction of the lens group 16 of the digital camera 10 as a central axis, and directivity of the microphone 5R is about clockwise about the optical axis direction of the lens group 16 of the digital camera 10 as a central axis. The amplification factor is set to be 30 °.

IFFT(Inverse Fast Fourier Transform)部105L及び105Rは、それぞれゲイン調整後の周波数スペクトルL(f)及びR(f)に対し逆フーリエ変換を行い、時間領域上の信号に変換し、それぞれLo(t)及びRo(t)としてバス40に出力する。   IFFT (Inverse Fast Fourier Transform) sections 105L and 105R perform inverse Fourier transform on the gain-adjusted frequency spectra L (f) and R (f), respectively, to convert them into signals in the time domain, respectively Lo (t ) And Ro (t).

以上、指向性変更処理の一例について説明したが、他の方法で指向性を変更するようにしてもかまわない。   Although an example of the directivity changing process has been described above, the directivity may be changed by another method.

また、本実施例のデジタルカメラ10では、上述したような光学ズーム倍率の変更に応じて電気的な指向性変更処理を行った際に、使用者に対してマイクロフォン5L及び5Rの指向性がどのように変更されているかを、使用者に対して示すことができる。具体的には、CPU22がスーパーインボース回路44を制御して、マイクロフォン5L及び5Rの指向性を表す指向性マークをデジタル画像信号に重畳させて、リアルタイム記録画像としてLCD38に出力する。更に詳細に説明すると、CPU22は現在の光学ズーム倍率を検出すると、図8に示すような光学ズーム倍率とレジスタ値の関係を示したルックアップテーブルを参照してレジスタ値を決定し、スーパーインボース回路44内に設けられたレジスタ44aにレジスタ値を設定する。スーパーインボース回路44は、レジスタ44aのレジスタ値に対応した、指向性マークをデジタル画像信号に重畳させる指向性マーク重畳処理を行い、バス40へ出力する。   Further, in the digital camera 10 of the present embodiment, when the electric directivity changing process is performed according to the change of the optical zoom magnification as described above, which directivity of the microphones 5L and 5R is determined with respect to the user. It can be shown to the user whether or not it has been changed. Specifically, the CPU 22 controls the super invoke circuit 44 to superimpose directivity marks representing the directivities of the microphones 5L and 5R on the digital image signal and output the images to the LCD 38 as a real-time recorded image. More specifically, when the CPU 22 detects the current optical zoom magnification, the CPU 22 determines a register value with reference to a lookup table showing the relationship between the optical zoom magnification and the register value as shown in FIG. A register value is set in a register 44 a provided in the circuit 44. The super invoke circuit 44 performs directional mark superimposition processing corresponding to the register value of the register 44 a to superimpose a directional mark on the digital image signal, and outputs the result to the bus 40.

図5(A)〜(C)は、光学ズーム倍率の変更に応じて、LCD38に表示される、指向性を示すマークがデジタル画像信号に重畳されたリアルタイム記録画像の画面を示している。   5A to 5C show real-time recorded image screens in which directivity marks displayed on the LCD 38 are superimposed on the digital image signal in accordance with the change in the optical zoom magnification.

図5(A)は、光学ズーム倍率が1倍の時にLCD38に表示されるリアルタイム記録画像の画面を示しており、図6(A)に示すようなマイクロフォン5L及び5Rの指向性を、使用者に対してイメージさせるような指向性マーク200が、デジタル画像信号に重畳されている。   FIG. 5A shows a real-time recorded image screen displayed on the LCD 38 when the optical zoom magnification is 1, and the directivity of the microphones 5L and 5R as shown in FIG. A directivity mark 200 that makes an image appear on the image is superimposed on the digital image signal.

図5(B)は、光学ズーム倍率が3倍の時にLCD38に表示されるリアルタイム記録画像の画面を示しており、図6(B)に示すようなマイクロフォン5L及び5Rの指向性を、使用者に対してイメージさせるような指向性マーク300がデジタル画像信号に重畳されている。   FIG. 5B shows a real-time recorded image screen displayed on the LCD 38 when the optical zoom magnification is 3 times. The directivity of the microphones 5L and 5R as shown in FIG. A directivity mark 300 that makes an image appear on the image is superimposed on the digital image signal.

図5(C)は、光学ズーム倍率が5倍の時にLCD38に表示されるリアルタイム記録画像の画面を示しており、図6(C)に示すようなマイクロフォン5L及び5Rの指向性を、使用者に対してイメージさせるような指向性マーク400がデジタル画像信号に重畳されている。   FIG. 5C shows a screen of a real-time recorded image displayed on the LCD 38 when the optical zoom magnification is 5. The directivity of the microphones 5L and 5R as shown in FIG. Is superimposed on the digital image signal.

図7は、指向性変更処理および指向性マーク重畳処理の流れの一例を示すフローチャートである。指向性変更処理および指向性マーク重畳処理は、CPU22が図示しないフラッシュメモリに格納されているプログラムを、CPU22が実行することにより実現される処理である。   FIG. 7 is a flowchart illustrating an example of the flow of directivity change processing and directivity mark superimposition processing. The directivity changing process and the directivity mark superimposing process are processes realized by the CPU 22 executing a program stored in a flash memory (not shown).

まず、デジタルカメラ10のモード選択ボタン24aが操作されることにより、動画像撮像モードに移行されると、CPU22は、ステップS1で光学ズーム倍率を検出する。次にステップS3へ進み、ステップS3では、図8に示すルックアップテーブルを用いて、光学ズーム倍率に対応したレジスタ値を決定する。次にステップS5へ進み、ステップS5では、マイクロフォン音声処理部42内のゲイン調整部104aに設けられたレジスタ104aのレジスタ値、及びスーパーインボース回路44に設けられたレジスタ44aのレジスタ値を決定された値に設定する。次にステップS7へ進み、ステップS7では、光学ズーム倍率の変更指示が有ったか否かを判別する。NOと判別された場合は、ステップS7へ戻り、YESと判別されるまで判別を繰り返す。ステップS7においてYESと判別されると、ステップS1へ戻り、上記処理を繰り返す。   First, when the mode selection button 24a of the digital camera 10 is operated to shift to the moving image capturing mode, the CPU 22 detects the optical zoom magnification in step S1. Next, the process proceeds to step S3. In step S3, a register value corresponding to the optical zoom magnification is determined using the lookup table shown in FIG. Next, the process proceeds to step S5. In step S5, the register value of the register 104a provided in the gain adjusting unit 104a in the microphone sound processing unit 42 and the register value of the register 44a provided in the super invoking circuit 44 are determined. Set the value to Next, the process proceeds to step S7, where it is determined whether or not there is an instruction to change the optical zoom magnification. If NO is determined, the process returns to step S7, and the determination is repeated until YES is determined. If YES is determined in the step S7, the process returns to the step S1 to repeat the above process.

以上説明したように、本実施例におけるデジタルカメラ10は、光学ズーム倍率の変更に応じて、光学レンズを移動せしめるズーム処理を実行するのと同時に、マイクロフォン5L及び5Rで集音される音声に対して所定の処理、つまり電気的な指向性変更処理を施すことによって、主要被写体4の音声の指向性を強めて、かつ現在のマイクロフォン5L及び5Rの指向性を示す指向性マークをLCD38に表示させることによって、使用者がマイクロフォン5L及び5Rの指向性の変化を認識することができ、使用者が、自身の操作による満足度をより高めることができる。   As described above, the digital camera 10 according to the present embodiment executes the zoom process for moving the optical lens according to the change in the optical zoom magnification, and at the same time, the sound collected by the microphones 5L and 5R. By performing predetermined processing, that is, electrical directivity changing processing, the directivity mark indicating the directivity of the current microphones 5L and 5R is displayed on the LCD 38 by strengthening the sound directivity of the main subject 4. Thus, the user can recognize the change in the directivity of the microphones 5L and 5R, and the user can further increase the satisfaction level of his / her own operation.

なお、本実施例では、CPU22は光学ズーム倍率の変更に応じて指向性変更処理および指向性マーク重畳処理を実行したが、電子ズーム倍率の変更に応じて該処理を実行してもよい。   In this embodiment, the CPU 22 executes the directivity changing process and the directivity mark superimposing process in accordance with the change in the optical zoom magnification. However, the CPU 22 may execute the process in accordance with the change in the electronic zoom magnification.

また、本実施例では、動画像撮像処理が実行されている状態において、光学ズーム倍率の変更に応じて指向性変更処理および指向性マーク重畳処理を実行したが、スルー画像が表示されている状態において、光学ズーム倍率が変更された場合にも該処理を実行することにより、LCD38上に指向性マークを表示させても良い。   Further, in this embodiment, the directivity changing process and the directivity mark superimposing process are executed in accordance with the change of the optical zoom magnification while the moving image capturing process is being executed, but the through image is being displayed. In this case, the directivity mark may be displayed on the LCD 38 by executing this process even when the optical zoom magnification is changed.

5L ・・・ マイクロフォン
5R ・・・ マイクロフォン
10 ・・・ デジタルカメラ
16 ・・・ レンズ群
18 ・・・ CMOSイメージャユニット
20 ・・・ 信号処理回路
22 ・・・ CPU
24 ・・・ 操作部
30 ・・・ 外部メモリカード制御回路
32 ・・・ SDRAM
36 ・・・ 外部メモリカード
38 ・・・ LCD
42 ・・・ マイクロフォン音声処理部
44 ・・・ スーパーインボース回路
46 ・・・ D/A変換回路
48 ・・・ スピーカ
5L ... Microphone 5R ... Microphone 10 ... Digital camera 16 ... Lens group 18 ... CMOS imager unit 20 ... Signal processing circuit 22 ... CPU
24 ... Operation unit 30 ... External memory card control circuit 32 ... SDRAM
36 ... External memory card 38 ... LCD
42... Microphone audio processing unit 44... Superinvoce circuit 46... D / A conversion circuit 48.

Claims (3)

被写体を撮像し、画像信号を出力する撮像手段と、
音声を複数チャネルで集音する複数のマイクロフォンと、
前記画像信号に基づいた画像を表示手段に出力させる表示制御手段と、
前記表示手段に出力される画像が拡大されて表示されるズーム処理を実行するズーム処理制御手段と、
前記ズーム処理におけるズーム倍率の変更指示を受け付けるズーム倍率変更手段と、
前記複数のマイクロフォンから得られる音声の指向性を制御する指向性制御手段と、
前記複数のマイクロフォンから得られる音声の指向性を示す指向性マークが前記表示手段の所定位置に表示されるよう、前記画像に対応する映像信号に重畳させて表示するマーク表示手段と、
前記ズーム倍率の変更指示に応じて、前記複数のマイクロフォンから得られる音声の指向性及び前記指向性マークを変更せしめる変更手段とを備える、撮像装置。
Imaging means for imaging a subject and outputting an image signal;
Multiple microphones that collect audio on multiple channels;
Display control means for causing the display means to output an image based on the image signal;
Zoom processing control means for executing zoom processing in which an image output to the display means is enlarged and displayed;
Zoom magnification changing means for accepting a zoom magnification change instruction in the zoom processing;
Directivity control means for controlling the directivity of sound obtained from the plurality of microphones;
Mark display means for superimposing and displaying on a video signal corresponding to the image so that a directivity mark indicating the directivity of sound obtained from the plurality of microphones is displayed at a predetermined position of the display means;
An imaging apparatus comprising: a changing unit that changes the directivity of the sound obtained from the plurality of microphones and the directivity mark in response to an instruction to change the zoom magnification.
前記指向性制御手段は、前記複数のマイクロフォンから集音される音声を電気的に制御することにより、前記指向性を制御することを特徴とする、請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the directivity control unit controls the directivity by electrically controlling sound collected from the plurality of microphones. 前記変更手段は、前記ズーム倍率の変更指示が拡大方向への変更である場合には、拡大される被写体の方向から得られる音声の感度を高くする一方、前記ズーム倍率の変更指示が縮小方向への変更である場合には、縮小される被写体の方向から得られる音声の感度を低くすることを特徴とする、請求項1または2記載の撮像装置。   When the zoom magnification change instruction is a change in the enlargement direction, the changing means increases the sensitivity of the sound obtained from the direction of the subject to be enlarged, while the zoom magnification change instruction is in the reduction direction. The imaging apparatus according to claim 1, wherein the sensitivity of the sound obtained from the direction of the subject to be reduced is lowered.
JP2009277779A 2009-12-07 2009-12-07 Imaging apparatus Pending JP2011120165A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009277779A JP2011120165A (en) 2009-12-07 2009-12-07 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009277779A JP2011120165A (en) 2009-12-07 2009-12-07 Imaging apparatus

Publications (2)

Publication Number Publication Date
JP2011120165A true JP2011120165A (en) 2011-06-16
JP2011120165A5 JP2011120165A5 (en) 2011-09-15

Family

ID=44284898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009277779A Pending JP2011120165A (en) 2009-12-07 2009-12-07 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2011120165A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013511750A (en) * 2009-12-28 2013-04-04 歌尓声学股▲ふん▼有限公司 Microphone array noise reduction control method and apparatus
WO2013146893A1 (en) * 2012-03-28 2013-10-03 株式会社ニコン Digital camera
CN113727021A (en) * 2021-08-27 2021-11-30 维沃移动通信(杭州)有限公司 Shooting method and device and electronic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001326990A (en) * 2000-05-16 2001-11-22 Sony Corp Acoustic signal processor and its processing method
JP2002204493A (en) * 2000-10-25 2002-07-19 Matsushita Electric Ind Co Ltd Zoom microphone system
JP2005124090A (en) * 2003-10-20 2005-05-12 Sony Corp Microphone device, reproducing device, and imaging device
JP2005159731A (en) * 2003-11-26 2005-06-16 Canon Inc Imaging apparatus
JP2006287735A (en) * 2005-04-01 2006-10-19 Fuji Photo Film Co Ltd Picture voice recording apparatus and collecting voice direction adjustment method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001326990A (en) * 2000-05-16 2001-11-22 Sony Corp Acoustic signal processor and its processing method
JP2002204493A (en) * 2000-10-25 2002-07-19 Matsushita Electric Ind Co Ltd Zoom microphone system
JP2005124090A (en) * 2003-10-20 2005-05-12 Sony Corp Microphone device, reproducing device, and imaging device
JP2005159731A (en) * 2003-11-26 2005-06-16 Canon Inc Imaging apparatus
JP2006287735A (en) * 2005-04-01 2006-10-19 Fuji Photo Film Co Ltd Picture voice recording apparatus and collecting voice direction adjustment method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013511750A (en) * 2009-12-28 2013-04-04 歌尓声学股▲ふん▼有限公司 Microphone array noise reduction control method and apparatus
WO2013146893A1 (en) * 2012-03-28 2013-10-03 株式会社ニコン Digital camera
CN113727021A (en) * 2021-08-27 2021-11-30 维沃移动通信(杭州)有限公司 Shooting method and device and electronic equipment

Similar Documents

Publication Publication Date Title
JP5801026B2 (en) Image sound processing apparatus and imaging apparatus
JP5117280B2 (en) IMAGING DEVICE, IMAGING METHOD, REPRODUCTION DEVICE, AND REPRODUCTION METHOD
TWI423662B (en) Display control apparatus, display control method and storage medium
KR101753715B1 (en) Image pickup device and method for pickup image same in
JP2013106298A (en) Imaging controller, imaging control method, program for imaging control method, and imaging apparatus
JP5345025B2 (en) Image recording apparatus and method
JP2011071962A (en) Imaging apparatus and playback apparatus
EP2018065A1 (en) Camera apparatus and image recording/reproducing method
JP2009031979A (en) Image processing device and digital camera
JP2006222618A (en) Camera device, camera control program, and recording voice control method
JP5915514B2 (en) Image processing apparatus, image processing method, and program
JP2009065587A (en) Voice-recording device and voice-reproducing device
JP2007043386A (en) Electronic imaging device, control method of electronic imaging device, and image processor
JP2011250340A (en) Imaging apparatus and control method of same
JP4352332B2 (en) Image scoring method and image scoring system
JP2013017160A (en) Camera and interchangeable lens mountable on camera
JP2005159731A (en) Imaging apparatus
JP2017011504A (en) Imaging device, image processing method and program
JP2009171428A (en) Control method and program for digital camera apparatus and electronic zoom
JP2011120165A (en) Imaging apparatus
JP2011035752A (en) Imaging apparatus
JP5063489B2 (en) Judgment device, electronic apparatus including the same, and judgment method
CN102308597B (en) Conference microphone system
JP6835205B2 (en) Shooting sound pickup device, sound pick-up control system, shooting sound pick-up device control method, and shooting sound pick-up control system control method
JP2011188055A (en) Imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110729

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121122

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140204