JP2011114769A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2011114769A
JP2011114769A JP2009271468A JP2009271468A JP2011114769A JP 2011114769 A JP2011114769 A JP 2011114769A JP 2009271468 A JP2009271468 A JP 2009271468A JP 2009271468 A JP2009271468 A JP 2009271468A JP 2011114769 A JP2011114769 A JP 2011114769A
Authority
JP
Japan
Prior art keywords
sensitivity
target
sound
cpu
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009271468A
Other languages
Japanese (ja)
Other versions
JP2011114769A5 (en
Inventor
Motoshi Nakayama
基司 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009271468A priority Critical patent/JP2011114769A/en
Publication of JP2011114769A publication Critical patent/JP2011114769A/en
Publication of JP2011114769A5 publication Critical patent/JP2011114769A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device that can properly collect sounds made by a plurality of objects. <P>SOLUTION: The imaging device comprises imaging means (10, 16, 18) for imaging, detecting means (22, 28) for detecting the number of objects in an image imaged by the imaging means, a plurality of sound collecting means (44, 46, 48) for collecting the sounds made by the objects, sensitivity adjusting means (50, 52, 54, 60) that, when there are a plurality of objects, adjust the sensitivity of the plurality of sound collecting means. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

特許文献1には、操作部により集音の方向の調整を可能とし、撮像被写体とは異なる集音対象に集音部の指向性を設定可能とした撮像装置が知られている。   Japanese Patent Application Laid-Open No. 2004-133867 discloses an imaging apparatus that enables adjustment of the direction of sound collection using an operation unit, and allows the directivity of the sound collection unit to be set for a sound collection target that is different from the imaging subject.

特開2006−287735号公報JP 2006-287735 A

しかしながら、撮像装置との距離や方向が異なる複数の対象が存在する場合は、各対象が発する音を適正に集音することができない。   However, when there are a plurality of targets having different distances and directions from the imaging device, it is not possible to properly collect sounds emitted from the targets.

本発明は、上記課題に鑑みなされたものであり、複数の対象が発する音を適正に集音することが可能な撮像装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an imaging apparatus capable of appropriately collecting sounds emitted from a plurality of objects.

本撮像装置は、画像を撮像する撮像手段(10、16、18)と、前記画像内における対象の数を検出する検出手段(22、28)と、前記対象が発する音を集音する複数の集音手段(44、46、48)と、前記対象の数が複数の場合に、前記複数の集音手段の感度を調整する感度調整手段(50、52、54、60)と、を有する。   The imaging apparatus includes an imaging unit (10, 16, 18) that captures an image, a detection unit (22, 28) that detects the number of objects in the image, and a plurality of sounds that collect sound generated by the object. Sound collecting means (44, 46, 48) and sensitivity adjusting means (50, 52, 54, 60) for adjusting the sensitivity of the plurality of sound collecting means when the number of the objects is plural.

上記撮像装置において、前記検出手段は、前記画像内における前記対象の範囲を検出し、前記対象の範囲に基づいて、前記複数の集音手段の少なくとも一つの指向性を調整する指向性調整手段(56、60)を有してもよい。   In the imaging apparatus, the detection unit detects a range of the target in the image, and adjusts at least one directivity of the plurality of sound collection units based on the range of the target. 56, 60).

上記撮像装置において、前記感度調整手段は、前記対象の数が複数の場合に、前記複数の集音手段が出力する各音信号のレベルが所定の範囲内となるように前記対象に対応する前記複数の集音手段の少なくとも一つの感度を調整してもよい。   In the imaging apparatus, when the number of the objects is plural, the sensitivity adjustment unit corresponds to the object so that the level of each sound signal output from the plurality of sound collecting units is within a predetermined range. At least one sensitivity of the plurality of sound collecting means may be adjusted.

上記撮像装置において、前記検出手段は、前記画像内における前記対象の範囲を検出し、前記感度調整手段は、前記対象の範囲に基づいて、前記対象に対応する前記複数の集音手段の少なくとも一つの感度を調整してもよい。   In the imaging apparatus, the detection unit detects a range of the target in the image, and the sensitivity adjustment unit is based on the range of the target and is at least one of the plurality of sound collecting units corresponding to the target. One sensitivity may be adjusted.

上記撮像装置において、前記検出手段は、前記対象との距離を検出し、前記感度調整手段は、前記対象との距離に基づいて、前記対象に対応する前記複数の集音手段の少なくとも一つの感度を調整してもよい。   In the imaging apparatus, the detecting unit detects a distance to the target, and the sensitivity adjusting unit is based on the distance to the target and at least one sensitivity of the plurality of sound collecting units corresponding to the target. May be adjusted.

上記撮像装置において、前記検出手段は、前記画像内における顔を検出し、前記顔の数に基づいて、前記対象の数を検出してもよい。   In the imaging apparatus, the detection unit may detect a face in the image and detect the number of the objects based on the number of the faces.

上記撮像装置において、前記検出手段は、光学系の像面内に設定された焦点検出位置に対する前記光学系の焦点状態を検出し、前記焦点状態が合焦状態である前記焦点検出位置の数に基づいて、前記対象の数を検出してもよい。   In the imaging apparatus, the detection unit detects a focus state of the optical system with respect to a focus detection position set in an image plane of the optical system, and determines the number of the focus detection positions where the focus state is an in-focus state. Based on this, the number of the objects may be detected.

上記撮像装置において、前記複数の集音手段の感度を調整するパターンを記憶する記憶手段(34)を有し、前記感度調整手段は、前記記憶手段が記憶するパターンに基づいて前記複数の集音手段の感度を調整してもよい。   The imaging apparatus includes a storage unit (34) for storing a pattern for adjusting sensitivity of the plurality of sound collecting units, and the sensitivity adjustment unit is configured to store the plurality of sound collecting units based on the pattern stored in the storage unit. The sensitivity of the means may be adjusted.

本発明によれば、複数の対象が発する音を適正に集音することができる。   ADVANTAGE OF THE INVENTION According to this invention, the sound which a some object emits can be collected appropriately.

図1(a)及び図1(b)は、実施例1に係る撮像装置の外観の一例を示す図である。FIG. 1A and FIG. 1B are diagrams illustrating an example of the appearance of the imaging apparatus according to the first embodiment. 図2は、実施例1に係る撮像装置のブロック図である。FIG. 2 is a block diagram of the imaging apparatus according to the first embodiment. 図3(a)は、実施例1に係るマイクの感度を調整して複数の対象が発する音を集音する処理のフローチャートである。図3(b)は、実施例1にマイクの選択及び感度の調整を行うサブ処理のフローチャートである。FIG. 3A is a flowchart of a process of collecting sounds emitted from a plurality of objects by adjusting the sensitivity of the microphone according to the first embodiment. FIG. 3B is a flowchart of sub-processing for performing microphone selection and sensitivity adjustment in the first embodiment. 図4は、実施例1に係る表示パネルにおける対象の表示の一例を示す図である。FIG. 4 is a diagram illustrating an example of target display on the display panel according to the first embodiment. 図5は、実施例1に係る撮像装置と対象との平面上の位置関係の一例を示す図である。FIG. 5 is a diagram illustrating an example of a positional relationship on a plane between the imaging apparatus according to the first embodiment and a target. 図6は、実施例1に係るマイクの感度の調整を行うサブ処理のフローチャートである。FIG. 6 is a flowchart of the sub-process for adjusting the sensitivity of the microphone according to the first embodiment. 図7は、実施例2に係るマイクの指向性及び感度を調整して複数の対象が発する音を集音する処理のフローチャートである。FIG. 7 is a flowchart of a process of collecting sounds emitted from a plurality of objects by adjusting the directivity and sensitivity of the microphone according to the second embodiment. 図8は、実施例2に係る撮像画像における対象の顔の範囲の一例を示す図である。FIG. 8 is a diagram illustrating an example of a target face range in a captured image according to the second embodiment. 図9は、実施例2に係るマイクの指向性及び感度を調整するサブ処理のフローチャートである。FIG. 9 is a flowchart of the sub-process for adjusting the directivity and sensitivity of the microphone according to the second embodiment. 図10は、実施例2に係る対象の範囲とマイクの指向性との関係を示す図である。FIG. 10 is a diagram illustrating a relationship between the target range and the microphone directivity according to the second embodiment. 図11(a)は、実施例3に係るパターンファイルを生成する処理のフローチャートである。図11(b)は、実施例3に係るパターンに基づいて対象が発する音を集音する処理のフローチャートである。FIG. 11A is a flowchart of a process for generating a pattern file according to the third embodiment. FIG. 11B is a flowchart of a process of collecting sounds emitted by the target based on the pattern according to the third embodiment.

以下、図面を参照して本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1(a)及び図1(b)を参照して、実施例1に係る撮像装置の一例を説明する。図1(a)及び図1(b)は、カメラ100の外観の一例を示す図であって、図1(a)はカメラ100の正面の斜視図、図1(b)はカメラ100の背面の斜視図である。カメラ100は、対象の撮像及び対象が発する音の集音を行う装置である。図1(a)のように、カメラ100は、シャッタスイッチ64、光学系10並びにマイク44、46及び48を有する。図1(b)のように、カメラ100は、背面に表示パネル40、RECボタン66及び操作部68を有する。カメラ100の各部の詳細は後述する。   An example of an imaging apparatus according to the first embodiment will be described with reference to FIGS. 1A and 1B are diagrams illustrating an example of the appearance of the camera 100, where FIG. 1A is a perspective view of the front of the camera 100, and FIG. FIG. The camera 100 is a device that captures an image of a target and collects sound generated by the target. As shown in FIG. 1A, the camera 100 includes a shutter switch 64, the optical system 10, and microphones 44, 46 and 48. As shown in FIG. 1B, the camera 100 includes a display panel 40, a REC button 66, and an operation unit 68 on the back surface. Details of each part of the camera 100 will be described later.

図2を参照して、カメラ100の構成を説明する。図2は、カメラ100のブロック図である。図2において、図1と同一の構成については、同一の符号を付して説明を省略する。図2のように、カメラ100は、光学系10、通信接点14、シャッタ幕16、撮像素子18、AF(Auto Focus)ユニット22、シャッタユニット24、画像処理部26、顔検出部28、メモリ34、表示パネル40、マイク44、46及び48、VCA(Voltage Controlled Amplifier)50、52及び54、指向性制御モータ56、MTX(Multiplexer)58、音制御部60、音記録部62、シャッタスイッチ64、RECボタン66、操作部68、CPU(Central Processing Unit)70、電源部80並びに筐体90を備える。   The configuration of the camera 100 will be described with reference to FIG. FIG. 2 is a block diagram of the camera 100. 2, the same components as those in FIG. 1 are denoted by the same reference numerals and description thereof is omitted. As shown in FIG. 2, the camera 100 includes an optical system 10, a communication contact 14, a shutter curtain 16, an image sensor 18, an AF (Auto Focus) unit 22, a shutter unit 24, an image processing unit 26, a face detection unit 28, and a memory 34. , Display panel 40, microphones 44, 46 and 48, VCA (Voltage Controlled Amplifier) 50, 52 and 54, directivity control motor 56, MTX (Multiplexer) 58, sound control unit 60, sound recording unit 62, shutter switch 64, A REC button 66, an operation unit 68, a CPU (Central Processing Unit) 70, a power supply unit 80, and a housing 90 are provided.

光学系10は、レンズ11、通信接点12、AFモータ(不図示)及び絞り(不図示)を有する。光学系10の通信接点12と筐体90の通信接点14との接続により、光学系10は電源部80からの電源の供給を受け、CPU70と通信を行う。光学系10はCPU70へレンズ情報を送信する。CPU70はレンズ情報に基づいて光学系10のAFモータ及び絞りの制御を行う。   The optical system 10 includes a lens 11, a communication contact 12, an AF motor (not shown), and a diaphragm (not shown). By connecting the communication contact 12 of the optical system 10 and the communication contact 14 of the housing 90, the optical system 10 is supplied with power from the power supply unit 80 and communicates with the CPU 70. The optical system 10 transmits lens information to the CPU 70. The CPU 70 controls the AF motor and diaphragm of the optical system 10 based on the lens information.

シャッタユニット24は、シャッタ幕16を制御して露光を制御する。シャッタユニット24は、測光センサ(不図示)を有し、CPU70にて演算されたシャッタ秒時に合わせてシャッタ幕16の開閉時間を制御する。撮像素子18への露光時間は、シャッタ幕16の開閉時間により決定される。   The shutter unit 24 controls the shutter curtain 16 to control exposure. The shutter unit 24 has a photometric sensor (not shown), and controls the opening / closing time of the shutter curtain 16 according to the shutter time calculated by the CPU 70. The exposure time for the image sensor 18 is determined by the opening / closing time of the shutter curtain 16.

AFユニット22は、複数の焦点検出位置を有し、光学系10のフォーカシングを制御する。AFユニット22は、測距を行う測距センサ(不図示)を有し、光学系10のAFモータを駆動させる。AFユニット22は、対象の動きに応じて光学系10を駆動して対象を追尾する追尾機能も備える。   The AF unit 22 has a plurality of focus detection positions and controls focusing of the optical system 10. The AF unit 22 has a distance measuring sensor (not shown) that performs distance measurement, and drives the AF motor of the optical system 10. The AF unit 22 also has a tracking function for driving the optical system 10 according to the movement of the target to track the target.

撮像素子18は、シャッタ幕16を通過した光学像を電気信号に変換する。撮像素子18は、例えばCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等である。   The image sensor 18 converts the optical image that has passed through the shutter curtain 16 into an electrical signal. The image sensor 18 is, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like.

顔検出部28は、撮像素子18が撮像した画像(以下、撮像画像と記す)の特徴を調べて、撮像画像内における対象110の顔、顔の位置及び顔の範囲を検出する。顔検出部28は、撮像画像における複数の対象の顔を検出する。   The face detection unit 28 checks the characteristics of an image captured by the image sensor 18 (hereinafter referred to as a captured image), and detects the face of the target 110, the position of the face, and the face range in the captured image. The face detection unit 28 detects a plurality of target faces in the captured image.

画像処理部26は、撮像素子18が出力する撮像画像をアナログ信号からデジタル信号へ変換する。画像処理部26は、画像信号に対して所定の画素補間処理や色変換処理を行う。画像処理部26は、画像信号の色情報(赤、緑及び青成分の信号)を輝度情報及び色差情報に変換して、JPEG(Joint Photographic Experts Group)等の所定のフォーマット形式に圧縮する。画像処理部26は、圧縮された所定のフォーマット形式の画像信号を伸張する。   The image processing unit 26 converts the captured image output from the image sensor 18 from an analog signal to a digital signal. The image processing unit 26 performs predetermined pixel interpolation processing and color conversion processing on the image signal. The image processing unit 26 converts color information (red, green, and blue component signals) of the image signal into luminance information and color difference information, and compresses the information into a predetermined format such as JPEG (Joint Photographic Experts Group). The image processing unit 26 expands the compressed image signal in a predetermined format.

マイク44、46及び48は、単一の指向性を有するマイク(ガンマイク)であって、対象が発する音を集音する。マイク44、46及び48は、それぞれカメラ100の右、正面及び左方向の音を集音する。VCA50、52及び54は、印加される電圧に応じて増幅率を変化させてマイク44、46及び48の感度を調節し、マイク44、46及び48が出力する音信号のレベルを調節する。音制御部60は、VCA50、52及び54が出力する音信号のレベルを検出して、VCA50、52及び54に印加される電圧を調整する。音制御部60は、指向性制御モータ56を制御する。指向性制御モータ56は、音制御部60の制御に基づいて、マイク44、46及び48の指向性を調整する。   The microphones 44, 46, and 48 are microphones (gun microphones) having a single directivity, and collect sound generated by the target. The microphones 44, 46 and 48 collect sound in the right, front and left directions of the camera 100, respectively. The VCAs 50, 52 and 54 adjust the sensitivity of the microphones 44, 46 and 48 by changing the amplification factor according to the applied voltage, and adjust the level of the sound signal output from the microphones 44, 46 and 48. The sound control unit 60 detects the level of the sound signal output from the VCAs 50, 52, and 54 and adjusts the voltage applied to the VCAs 50, 52, and 54. The sound control unit 60 controls the directivity control motor 56. The directivity control motor 56 adjusts the directivity of the microphones 44, 46 and 48 based on the control of the sound control unit 60.

MTX58は、VCA50、52及び54によりレベルが調整された各音信号に所定の重み付けをして足し合わせて、左右成分を有する音信号を生成する。音記録部62は、MTX58が出力する音信号をアナログ信号からデジタル信号へ変換して、MP3(Motion Picture Experts Group Audio Layer 3)等の所定のフォーマット形式の音信号に変換する。CPU70は、音信号と画像信号とを同期させた信号をメモリ34に記録する。   The MTX 58 generates a sound signal having left and right components by adding a predetermined weight to each sound signal whose level is adjusted by the VCAs 50, 52, and 54 and adding them together. The sound recording unit 62 converts the sound signal output from the MTX 58 from an analog signal to a digital signal, and converts the sound signal into a sound signal in a predetermined format such as MP3 (Motion Picture Experts Group Audio Layer 3). The CPU 70 records a signal obtained by synchronizing the sound signal and the image signal in the memory 34.

メモリ34は、画像処理部26が出力する画像信号及び音記録部62が出力する音信号を記憶する。メモリ34は、マイク44、46及び48の感度や指向性等を調整するパターンファイルを記憶する。パターンファイルの詳細は後述する。表示パネル40は、画像処理部26により伸張された画像信号や操作用のカーソル等を表示する。   The memory 34 stores the image signal output from the image processing unit 26 and the sound signal output from the sound recording unit 62. The memory 34 stores a pattern file for adjusting the sensitivity and directivity of the microphones 44, 46 and 48. Details of the pattern file will be described later. The display panel 40 displays an image signal expanded by the image processing unit 26, an operation cursor, and the like.

シャッタスイッチ64は、ユーザが静止画の撮像を行うときにオンするスイッチである。RECボタン66は、ユーザが動画の撮像及び集音を開始するときにオン、終了するときにオフするボタンである。操作部68は、ユーザがカメラ100の操作を行うためのキーやボタン等である。   The shutter switch 64 is a switch that is turned on when the user captures a still image. The REC button 66 is a button that is turned on when the user starts capturing and collecting a moving image and turned off when the user ends. The operation unit 68 is a key or button for the user to operate the camera 100.

光学系10、シャッタ幕16及び撮像素子18は、画像を撮像する。顔検出部28及びAFユニット22は、撮像画像内における対象の位置、対象の範囲、対象との距離及び対象の顔を検出する。   The optical system 10, the shutter curtain 16, and the image sensor 18 capture an image. The face detection unit 28 and the AF unit 22 detect the position of the target in the captured image, the range of the target, the distance from the target, and the target face.

図3(a)を参照して、実施例1に係るマイクの感度を調整して複数の対象が発する音を集音する処理を説明する。図3(a)は、マイクの感度を調整して対象が発する音を集音する処理のフローチャートである。   With reference to Fig.3 (a), the process which adjusts the sensitivity of the microphone which concerns on Example 1 and collects the sound which a several object emits is demonstrated. FIG. 3A is a flowchart of a process of collecting sounds emitted from the target by adjusting the sensitivity of the microphone.

まず、CPU70はシャッタユニット24及びAFユニット22に指示して、撮像画像内における対象の位置情報を検出する(ステップS10)。CPU70は、光学系10の像面内に設定された焦点検出位置の焦点状態が合焦状態となる位置(以下、合焦位置と記す)又は顔検出部28が検出する対象の顔の位置に基づいて、撮像画像内における対象の位置を検出する。ここでは、コントラスト検出AF方式により、CPU70が撮像画像内における合焦位置を検出して、撮像画像内における対象の位置を検出する例を説明する。まず、シャッタユニット24が有する測光センサが、対象の色情報又は輝度情報を検知する。AFユニット22が、光学系10を駆動しながら対象の色情報又は輝度情報を随時取得し、光学系10の焦点状態の情報と対象の色情報又は輝度情報との関係を取得する。CPU70は、取得した関係から、対象の位置(距離)を検出する。なお、AFユニット22は、光学系10を駆動しながら顔検出部28から対象の顔の情報を随時取得し、光学系10の焦点状態の情報と対象の顔との関係を取得するようにして、CPU70は、取得した関係から、対象の顔の位置を検出するようにしてもよい。また、検出した合焦位置を動画の撮像処理に用いてもよい。   First, the CPU 70 instructs the shutter unit 24 and the AF unit 22 to detect target position information in the captured image (step S10). The CPU 70 sets the focus state of the focus detection position set in the image plane of the optical system 10 to a position where the focus state is set to the in-focus state (hereinafter referred to as the focus position) or the position of the target face detected by the face detection unit 28. Based on this, the position of the target in the captured image is detected. Here, an example will be described in which the CPU 70 detects the in-focus position in the captured image and detects the position of the target in the captured image using the contrast detection AF method. First, a photometric sensor included in the shutter unit 24 detects target color information or luminance information. The AF unit 22 acquires the color information or luminance information of the target as needed while driving the optical system 10, and acquires the relationship between the focus state information of the optical system 10 and the target color information or luminance information. The CPU 70 detects the target position (distance) from the acquired relationship. The AF unit 22 acquires information on the target face from the face detection unit 28 as needed while driving the optical system 10, and acquires the relationship between the focus state information of the optical system 10 and the target face. The CPU 70 may detect the position of the target face from the acquired relationship. Further, the detected in-focus position may be used for moving image capturing processing.

図4は、撮像及び集音の対象を対象A及びBとして、対象A及びBを撮像するときのカメラ100の背面図であって、表示パネル40における対象A及びBの表示の一例である。表示パネル40の表示は、撮像画像と一致する。図4中の枠91及び93は、それぞれCPU70がステップS10により検出した対象A及びBの位置を示しており、それぞれ対象A及びBの顔の位置に対応している。   FIG. 4 is a rear view of the camera 100 when the objects A and B are imaged with the objects A and B as the targets of imaging and sound collection, and is an example of the display of the objects A and B on the display panel 40. The display on the display panel 40 matches the captured image. Frames 91 and 93 in FIG. 4 indicate the positions of the objects A and B detected by the CPU 70 in step S10, and correspond to the positions of the faces of the objects A and B, respectively.

図3(a)の説明に戻る。CPU70は、ステップS10により検出した撮像画像内における対象の位置情報を、REC前位置情報としてメモリ34に記憶する(ステップS12)。CPU70は、検出した撮像画像内における対象の位置情報に基づいて、カメラ100に対する対象の方向を認識する(ステップS14)。   Returning to the description of FIG. The CPU 70 stores the target position information in the captured image detected in step S10 in the memory 34 as pre-REC position information (step S12). The CPU 70 recognizes the direction of the target with respect to the camera 100 based on the detected position information of the target in the captured image (step S14).

ここで、図5を参照して、ステップS14について説明する。図5は、カメラ100と対象A及びBとの平面上の位置関係を示す図であり、カメラ100並びに対象A及びBをX−Y平面上に配置した例である。例えば、図4のように対象A及びBが表示パネル40に表示され、CPU70が対象A及びBの位置を検出する場合、CPU70は図5のようにカメラ100に対する対象A及びBの方向を認識する。図5において、カメラ100はX−Y平面の原点に位置し、カメラ100の左から右に向かう方向がX軸の正の方向及びカメラ100の背面から前面に向かう方向がY軸の正の方向にそれぞれ対応する。破線で示す領域160、162及び164はそれぞれマイク44、46及び48により集音可能な領域を示す。図5のように、CPU70は、対象A及びBの方向はカメラ100に対してそれぞれ左斜め前方及び右斜め前方と認識する。対象A及びBは、それぞれ領域164及び160内に位置している。   Here, step S14 will be described with reference to FIG. FIG. 5 is a diagram illustrating a positional relationship between the camera 100 and the objects A and B on the plane, and is an example in which the camera 100 and the objects A and B are arranged on the XY plane. For example, when the objects A and B are displayed on the display panel 40 as shown in FIG. 4 and the CPU 70 detects the positions of the objects A and B, the CPU 70 recognizes the directions of the objects A and B with respect to the camera 100 as shown in FIG. To do. In FIG. 5, the camera 100 is located at the origin of the XY plane, the direction from left to right of the camera 100 is the positive direction of the X axis, and the direction from the back to the front of the camera 100 is the positive direction of the Y axis. Correspond to each. Areas 160, 162, and 164 indicated by broken lines indicate areas that can be collected by the microphones 44, 46, and 48, respectively. As illustrated in FIG. 5, the CPU 70 recognizes the directions of the objects A and B as being diagonally left front and right diagonally forward with respect to the camera 100, respectively. Objects A and B are located in regions 164 and 160, respectively.

図3(a)の説明に戻る。CPU70は、対象が発する音を集音するマイクを選択して、選択したマイクの感度を調整するサブ処理を行う(ステップS16)。ステップS16に対応するサブ処理の詳細は後述する。   Returning to the description of FIG. The CPU 70 performs a sub process of selecting a microphone that collects the sound emitted by the target and adjusting the sensitivity of the selected microphone (step S16). Details of the sub-process corresponding to step S16 will be described later.

CPU70は、RECボタンがオンされているか否かを判定する(ステップS18)。CPU70は、RECボタンがオンされている場合にYesと判定する。ステップS18がNoの場合、CPU70はステップS10に戻る。ステップS18がYesの場合、CPU70は動画の撮像を開始して、対象が発する音を集音する(ステップS19)。CPU70は、ステップS10と同様に、撮像画像内における対象の位置情報を検出する(ステップS20)。CPU70は、検出した対象の位置情報を、REC後位置情報としてそれぞれメモリ34に記憶する(ステップS22)。   The CPU 70 determines whether or not the REC button is turned on (step S18). The CPU 70 determines Yes when the REC button is turned on. If step S18 is No, the CPU 70 returns to step S10. When step S18 is Yes, CPU70 starts imaging of a moving image, and collects the sound which an object emits (step S19). Similar to step S10, the CPU 70 detects the position information of the target in the captured image (step S20). The CPU 70 stores the detected position information of the target in the memory 34 as post-REC position information (step S22).

CPU70は、REC前位置情報とREC後位置情報とが一致するか否かを判定する(ステップS24)。すなわち、CPU70は、動画の撮像及び集音の開始後に、対象がそれぞれ移動したか否かを判定する。対象がいずれも移動しない場合、REC前位置情報とREC後位置情報とが一致し、対象の少なくとも一つが移動した場合、REC前位置情報とREC後位置情報とが異なる。CPU70は、REC前位置情報とREC後位置情報とが一致する場合にYesと判定する。CPU70は、ステップS24がYesの場合、ステップS32に進む。ステップS24がNoの場合、対象がREC前位置情報に対応する位置から移動しているため、CPU70は、REC後位置情報に基づいてカメラ100に対する対象の方向を認識し直す(ステップS26)。CPU70は、対象が発する音を集音するためのマイクを選択して、選択したマイクの感度を調整するサブ処理を行う(ステップS28)。ステップS28に対応するサブ処理は、ステップS16と同様であるため、詳細は後述する。   The CPU 70 determines whether or not the pre-REC position information and the post-REC position information match (step S24). In other words, the CPU 70 determines whether or not each of the objects has moved after the start of moving image capturing and sound collection. When none of the objects move, the pre-REC position information and the post-REC position information match, and when at least one of the objects moves, the pre-REC position information and the post-REC position information are different. The CPU 70 determines Yes when the pre-REC position information and the post-REC position information match. If step S24 is Yes, the CPU 70 proceeds to step S32. When step S24 is No, since the object has moved from the position corresponding to the pre-REC position information, the CPU 70 recognizes the direction of the object relative to the camera 100 based on the post-REC position information (step S26). The CPU 70 selects a microphone for collecting the sound emitted by the target, and performs sub-processing for adjusting the sensitivity of the selected microphone (step S28). The sub-process corresponding to step S28 is the same as step S16, and will be described in detail later.

CPU70は、REC前位置情報をREC後位置情報に更新する(ステップS30)。CPU70は、RECボタンがオフされているか否かを判定する(ステップS32)。CPU70は、RECボタンがオフされている場合にYesと判定する。ステップS32がYesの場合、CPU70は処理を終了する。ステップS32がNoの場合、CPU70はステップS19に戻って処理を繰り返す。以上が図3(a)の説明である。   The CPU 70 updates the pre-REC position information to the post-REC position information (step S30). The CPU 70 determines whether or not the REC button is turned off (step S32). The CPU 70 determines Yes when the REC button is turned off. If step S32 is Yes, the CPU 70 ends the process. If step S32 is No, the CPU 70 returns to step S19 and repeats the process. The above is the description of FIG.

図3(b)を参照して、図3(a)のステップS16及びステップS28に対応するマイクの選択及び感度調整を行うサブ処理を説明する。図3(b)は、マイクの選択及び感度の調整を行うサブ処理のフローチャートである。   With reference to FIG. 3B, sub-processing for performing microphone selection and sensitivity adjustment corresponding to steps S16 and S28 of FIG. 3A will be described. FIG. 3B is a flowchart of sub-processing for selecting a microphone and adjusting sensitivity.

CPU70は、図3(a)のステップS14又はステップS26で認識したカメラ100に対する対象の方向に基づいて、マイク44、46及び48のいずれかを選択する(ステップS34)。例えば図5のように、対象A及びBが領域164及び160内に位置する場合、CPU70は集音可能な領域が領域164であるマイク48及び集音可能な領域が領域160であるマイク44を選択する。   The CPU 70 selects one of the microphones 44, 46, and 48 based on the direction of the object with respect to the camera 100 recognized in step S14 or step S26 of FIG. 3A (step S34). For example, as illustrated in FIG. 5, when the objects A and B are located in the areas 164 and 160, the CPU 70 sets the microphone 48 whose sound collection area is the area 164 and the microphone 44 whose sound collection area is the area 160. select.

CPU70は、対象の数が複数であるか否かを判定する(ステップS36)。例えば、CPU70は、コントラスト検出AF方式により検出した合焦位置や顔検出部28が検出した顔の数から対象の数を推定して、対象の数が複数であるか否かを判定する。CPU70は、対象の数が複数の場合にYesと判定する。   The CPU 70 determines whether or not there are a plurality of targets (step S36). For example, the CPU 70 estimates the number of objects from the in-focus position detected by the contrast detection AF method and the number of faces detected by the face detection unit 28, and determines whether the number of objects is plural. The CPU 70 determines Yes when the number of objects is plural.

CPU70は、ステップS36がYesの場合、選択したマイクの感度を調整するサブ処理を行って(ステップS38)、処理を終了する。CPU70は、ステップS36がNoの場合、処理を終了する。   If step S36 is Yes, the CPU 70 performs a sub process for adjusting the sensitivity of the selected microphone (step S38), and ends the process. CPU70 complete | finishes a process, when step S36 is No.

図6を参照して、図3(b)のステップS38に対応するマイクの感度の調整を行うサブ処理を説明する。図6は、マイクの感度の調整を行うサブ処理のフローチャートである。以下、検出した音信号のレベルを平均化する周期(単位はフレームとする)を格納するための変数をXとする。変数Xは、ユーザが任意の値を設定できるようにしてもよいし、出荷時にあらかじめ設定されてもよい。   With reference to FIG. 6, the sub-process for adjusting the sensitivity of the microphone corresponding to step S38 in FIG. 3B will be described. FIG. 6 is a flowchart of sub processing for adjusting the sensitivity of the microphone. Hereinafter, let X be a variable for storing a period (unit: frame) for averaging the levels of the detected sound signal. The variable X may be set to an arbitrary value by the user, or may be set in advance at the time of shipment.

CPU70は、メモリ34に記憶された変数Xを確認し、値が設定されているか否かを判定する(ステップS40)。CPU70は、変数Xに値が設定されている場合にYesと判定する。   The CPU 70 confirms the variable X stored in the memory 34 and determines whether or not a value has been set (step S40). The CPU 70 determines Yes when a value is set in the variable X.

CPU70は、ステップS40がYesの場合、選択した各マイクで対象が発する音を集音して、Xフレームの区間に1フレーム周期で検出した音信号のレベルの平均値を算出する(ステップS42)。マイクごとに算出した音信号のレベルの平均値を、メモリ34にそれぞれ記憶する。例えば、変数Xが900の場合、Xフレームの区間とは30秒間である。30秒間のフレームごとに音信号を検出して総和を求め、その総和をXで除算することにより、30秒あたりの音信号のレベルの平均値を算出する。なお、音信号のレベルの平均値を算出する方法は、他の方法でもよい。例えば、音信号のレベルをXフレームの区間に任意のフレーム周期で検出するようにして、音信号のレベルの平均値を算出してもよい。以下、各マイクについて記憶した音信号のレベルの平均値の一つを値Yとする。   When step S40 is Yes, the CPU 70 collects the sound emitted by the target with each selected microphone, and calculates the average value of the level of the sound signal detected in one frame period in the X frame section (step S42). . The average value of the sound signal level calculated for each microphone is stored in the memory 34. For example, when the variable X is 900, the section of the X frame is 30 seconds. The sound signal is detected for each frame for 30 seconds to obtain the sum, and the sum is divided by X to calculate the average value of the sound signal level per 30 seconds. Note that other methods may be used to calculate the average value of the sound signal levels. For example, the average value of the sound signal levels may be calculated by detecting the level of the sound signal in an X frame interval at an arbitrary frame period. Hereinafter, one of the average values of the sound signal levels stored for each microphone is referred to as a value Y.

CPU70は、ステップS40がNoの場合、選択した各マイクで対象が発する音を集音して、先頭フレームにおける音信号のレベルを検出する。マイクごとに検出した音信号のレベルを、メモリ34にそれぞれ記憶する。例えば、1秒が30フレームである場合、2〜30フレームに対応する音信号のレベルは検出せず、先頭フレームに対応する音信号のレベルのみを検出する。なお、先頭フレーム以外のフレームの音信号のレベルを検出してもよい。以下、各マイクについて記憶した音信号のレベルの一つを、ステップS42の場合と同様に値Yとする。   When Step S40 is No, the CPU 70 collects the sound emitted by the target with each selected microphone and detects the level of the sound signal in the first frame. The level of the sound signal detected for each microphone is stored in the memory 34. For example, when one second is 30 frames, the level of the sound signal corresponding to 2 to 30 frames is not detected, but only the level of the sound signal corresponding to the first frame is detected. Note that the level of the sound signal in a frame other than the first frame may be detected. Hereinafter, one of the levels of the sound signal stored for each microphone is set to a value Y as in step S42.

CPU70は、メモリ34に記憶された値Yが所定のレベルと等しいか否かを判定し(ステップS46)、値Yが所定のレベルと等しい場合にYesと判定する。ここでは、一例として、所定のレベルをマイクに予め設定されている最大入力レベル(130dBとする)の60%に相当する78dBとしている。CPU70は、ステップS46がYesの場合、ステップS54に進む。CPU70は、ステップS46がNoの場合に、値Yが78dBより大きいか否かを判定し(ステップS48)、値Yが78dBより大きい場合にYesと判定する。CPU70は、ステップS48がYesの場合に、対応するVCAの制御により、マイクの感度を下げる(ステップS50)。CPU70は、ステップS48がNoの場合に、マイクの感度を上げる(ステップS52)。CPU70は、選択したマイクの調整が全て終了したか否かを判定して(ステップS54)、全て終了した場合Yesと判定する。ステップS54がNoの場合、ステップS46に戻って、感度の調整が終了していない各マイクに対応する値Yについて、選択した各マイクの感度の調整を行う。ステップS54がYesの場合、処理を終了する。以上により、選択した各マイクの感度を調整して、各マイクが出力する音信号のレベルを互いに同一とすることができる。   The CPU 70 determines whether or not the value Y stored in the memory 34 is equal to a predetermined level (step S46), and determines Yes if the value Y is equal to the predetermined level. Here, as an example, the predetermined level is 78 dB corresponding to 60% of the maximum input level (130 dB) preset in the microphone. If step S46 is Yes, the CPU 70 proceeds to step S54. The CPU 70 determines whether or not the value Y is greater than 78 dB when Step S46 is No (Step S48), and determines Yes when the value Y is greater than 78 dB. When step S48 is Yes, the CPU 70 lowers the sensitivity of the microphone by controlling the corresponding VCA (step S50). When step S48 is No, the CPU 70 increases the sensitivity of the microphone (step S52). The CPU 70 determines whether or not all of the selected microphones have been adjusted (step S54). If step S54 is No, the process returns to step S46, and the sensitivity of each selected microphone is adjusted for the value Y corresponding to each microphone for which sensitivity adjustment has not been completed. If step S54 is Yes, the process ends. As described above, the sensitivity of each selected microphone can be adjusted, and the levels of the sound signals output from each microphone can be made the same.

実施例1によれば、図3(b)のステップS36のYesのように、対象の数が複数の場合に、図6のステップS50又はS52のように、音制御部60並びにVCA50、52及び54がマイク44、46及び48の感度を調整する。これにより、対象が複数の場合に、複数の対象が発する音を適正に集音して、明瞭な音を取得することができる。図6のステップS46、48、50及び52では、マイクが出力する音信号のレベルが所定のレベルと同一となるように、複数のマイクの少なくとも一つの感度を調整する例を説明した。他に例えば、複数のマイクが出力する音信号のレベルが所定の範囲内となるように、複数のマイクの少なくとも一つの感度を調整してもよい。また、選択した複数のマイクの音信号のいずれかのレベルを所定のレベルとして、ステップS46、48、50及び52の処理と同様の処理をしてもよい。   According to the first embodiment, when there are a plurality of objects as in step S36 of FIG. 3B, the sound control unit 60 and the VCAs 50, 52, and the like, as in step S50 or S52 of FIG. 54 adjusts the sensitivity of the microphones 44, 46 and 48. Thereby, when there are a plurality of objects, it is possible to appropriately collect sounds generated by the plurality of objects and obtain a clear sound. In steps S46, S48, S50, and S52 in FIG. 6, the example in which at least one sensitivity of the plurality of microphones is adjusted so that the level of the sound signal output from the microphones is the same as the predetermined level has been described. In addition, for example, at least one sensitivity of the plurality of microphones may be adjusted so that the level of the sound signal output from the plurality of microphones is within a predetermined range. Further, the same processing as the processing in steps S46, S48, S50, and S52 may be performed by setting any one of the sound signals of the plurality of selected microphones as a predetermined level.

実施例1によれば、図3(b)のステップS36の説明のように、顔検出部28が、撮像画像内における顔の数を検出して、顔の数から対象の数を推定して、対象の数を検出する。これにより、対象が複数の人である場合に、複数の人を認識して、複数の人が発する声を適正に集音することができる。例えば、複数の人が撮像装置の手前と奥とに配置されて会話を行う場合に、マイクの感度を調整して、会話の音信号のレベルを同一又は所定の範囲内とすることができる。よって、会話を聞き取りやすく的確に集音することができる。また、実施例1によれば、図3(b)のステップS36の説明のように、焦点状態が合焦状態である焦点検出位置の数に基づいて、対象の数を検出する。これにより、任意の対象について、複数の対象を認識して、複数の対象が発する音を適正に集音することができる。合焦位置を検出する例としてコントラスト検出AF方式を挙げたが、他に例えば位相差検出AF方式を用いてもよい。顔の検出と合焦位置の検出とを組み合わせて対象の数を検出するようにしてもよい。   According to the first embodiment, as described in step S36 in FIG. 3B, the face detection unit 28 detects the number of faces in the captured image, and estimates the number of objects from the number of faces. , Detect the number of objects. Thereby, when an object is a plurality of people, a plurality of people can be recognized and the voice which a plurality of people utters can be collected appropriately. For example, when a plurality of people are arranged in front of and behind the imaging apparatus and have a conversation, the sensitivity of the microphone can be adjusted so that the level of the sound signal of the conversation is the same or within a predetermined range. Therefore, it is possible to collect sound accurately and easily to hear the conversation. Further, according to the first embodiment, as described in step S36 in FIG. 3B, the number of objects is detected based on the number of focus detection positions where the focus state is the in-focus state. Thereby, about an arbitrary object, a plurality of objects can be recognized and the sound which a plurality of objects emit can be collected appropriately. The contrast detection AF method has been described as an example of detecting the in-focus position. Alternatively, for example, a phase difference detection AF method may be used. The number of objects may be detected by combining face detection and in-focus position detection.

実施例1によれば、図3(a)、図3(b)及び図6に示す処理により、複数の対象が動く場合においても、マイクが出力する音信号のレベルが所定のレベルと同一となるように、複数のマイクの少なくとも一つの感度を調整して、複数の対象が発する音を適正に集音することができる。   According to the first embodiment, the level of the sound signal output from the microphone is the same as the predetermined level even when a plurality of objects move by the processes shown in FIGS. 3A, 3B, and 6. As described above, it is possible to appropriately collect sounds generated by a plurality of objects by adjusting at least one sensitivity of the plurality of microphones.

実施例1において、図2を参照して、カメラ100の構成を説明した。図2に示す画像処理部26、顔検出部28、音制御部60、音記録部62の機能をCPU70で実行されるソフトウェアにより構成してもよい。   In the first embodiment, the configuration of the camera 100 has been described with reference to FIG. The functions of the image processing unit 26, the face detection unit 28, the sound control unit 60, and the sound recording unit 62 illustrated in FIG. 2 may be configured by software executed by the CPU 70.

図7を参照して、実施例2に係るマイクの指向性及び感度を調整して複数の対象が発する音を集音する処理を説明する。図7は、マイクの指向性及び感度を調整して複数の対象が発する音を集音する処理のフローチャートである。   With reference to FIG. 7, a process of collecting sounds emitted by a plurality of objects by adjusting the directivity and sensitivity of the microphone according to the second embodiment will be described. FIG. 7 is a flowchart of a process of collecting sounds emitted from a plurality of objects by adjusting the directivity and sensitivity of the microphone.

ステップS60、S62及びS64は、それぞれ図3(a)のステップS10、S12及びS14と同様の処理であるため、説明を省略する。CPU70は、撮像画像内における対象の範囲を認識する(ステップS66)。   Steps S60, S62, and S64 are the same processes as steps S10, S12, and S14 of FIG. The CPU 70 recognizes the target range in the captured image (step S66).

ここで、図8を参照して、ステップS66について説明する。対象の範囲を認識する一例として、対象の顔の範囲を認識する場合を説明する。図8は、撮像画像における対象の顔の範囲の一例を示す図であって、図4に示す対象A及びBの表示に顔検出部28が検出したそれぞれの顔150及び152の範囲を示す矩形を付加した図である。CPU70は、図8のように対象Aの顔150が縦横の画素数が6である矩形内に含まれる場合に、顔150の範囲を6と認識する。同様に、CPU70は、対象Bの顔152の範囲を4と認識する。このように、図8では一辺の画素数が同じ矩形の範囲に顔の範囲が含まれる場合に、一辺の画素数を顔の範囲と定義している。なお、顔の範囲の定義は他の方法でもよい。例えば、縦横の画素数が異なる矩形の範囲に顔の範囲が含まれる場合に、矩形内の総画素数を顔の範囲と定義してもよい。また、矩形の代わりに例えば円形として、円形の半径若しくは直径又は円形内の画素数を顔の範囲と定義してもよい。   Here, step S66 will be described with reference to FIG. As an example of recognizing the target range, a case of recognizing the target face range will be described. FIG. 8 is a diagram illustrating an example of the range of the target face in the captured image, and a rectangle indicating the range of each of the faces 150 and 152 detected by the face detection unit 28 in the display of the targets A and B shown in FIG. It is the figure which added. The CPU 70 recognizes the range of the face 150 as 6 when the face 150 of the target A is included in a rectangle having six vertical and horizontal pixels as shown in FIG. Similarly, the CPU 70 recognizes the range of the face 152 of the target B as 4. In this way, in FIG. 8, when the face range is included in a rectangular range having the same number of pixels on one side, the number of pixels on one side is defined as the face range. Note that other methods may be used to define the face range. For example, when the face range is included in a rectangular range having different vertical and horizontal pixel numbers, the total number of pixels in the rectangle may be defined as the face range. Further, instead of a rectangle, for example, a circle may be used, and the radius or diameter of the circle or the number of pixels in the circle may be defined as the face range.

図7の説明に戻る。CPU70は、対象が発する音を集音するマイクを選択して、選択したマイクの指向性及び感度を調整するサブ処理を行う(ステップS68)。ステップS68に対応するサブ処理の詳細は後述する。   Returning to the description of FIG. The CPU 70 selects a microphone that collects the sound emitted from the target, and performs sub-processing for adjusting the directivity and sensitivity of the selected microphone (step S68). Details of the sub-process corresponding to step S68 will be described later.

CPU70は、RECボタンがオンされているか否かを判定する(ステップS70)。CPU70は、RECボタンがオンされている場合にYesと判定する。ステップS70がNoの場合、CPU70はステップS60に戻る。ステップS70がYesの場合、CPU70はステップS71、S72、S74、S76及びS78の処理を行う。ステップS71、S72、S74、S76及びS78は、それぞれ図3(a)のステップS19、S20、S22、S24及びS26と同様の処理であるため、説明を省略する。   The CPU 70 determines whether or not the REC button is turned on (step S70). The CPU 70 determines Yes when the REC button is turned on. If step S70 is No, the CPU 70 returns to step S60. When step S70 is Yes, the CPU 70 performs the processes of steps S71, S72, S74, S76, and S78. Steps S71, S72, S74, S76, and S78 are the same processes as steps S19, S20, S22, S24, and S26 of FIG.

CPU70は、ステップS78に続いて、対象がREC前位置情報に対応する位置から移動しているため、CPU70は、ステップS66と同様に、対象の範囲を認識し直す(ステップS80)。CPU70は、認識し直した対象の方向及び範囲に基づいて、対象が発する音を集音するマイクを選択して、選択したマイクの指向性及び感度を調整するサブ処理を行う(ステップS82)。ステップS82に対応するサブ処理の詳細はステップS68と同様のため後述する。   Since the target has moved from the position corresponding to the pre-REC position information subsequent to step S78, the CPU 70 recognizes the target range again as in step S66 (step S80). The CPU 70 selects a microphone that collects the sound emitted by the object based on the direction and range of the re-recognized object, and performs sub-processing for adjusting the directivity and sensitivity of the selected microphone (step S82). The details of the sub-process corresponding to step S82 are the same as step S68 and will be described later.

CPU70は、REC前位置情報をREC後位置情報に更新する(ステップS84)。CPU70は、RECボタンがオフされているか否かを判定する(ステップS86)。CPU70は、RECボタンがオフされている場合にYesと判定する。ステップS86がYesの場合、CPU70は処理を終了する。ステップS86がNoの場合、CPU70はステップS71に戻って処理を繰り返す。以上が図7の説明である。   The CPU 70 updates the pre-REC position information to the post-REC position information (step S84). The CPU 70 determines whether or not the REC button is turned off (step S86). The CPU 70 determines Yes when the REC button is turned off. If step S86 is Yes, the CPU 70 ends the process. If step S86 is No, the CPU 70 returns to step S71 and repeats the process. The above is the description of FIG.

図9を参照して、ステップS68及びS82に対応するマイクの指向性及び感度を調整するサブ処理を説明する。図9は、マイクの指向性及び感度を調整するサブ処理のフローチャートである。   With reference to FIG. 9, the sub-process for adjusting the directivity and sensitivity of the microphone corresponding to steps S68 and S82 will be described. FIG. 9 is a flowchart of sub-processing for adjusting the directivity and sensitivity of the microphone.

CPU70は、図7のステップS64又はステップS78で認識したカメラ100に対する対象の方向に基づいて、マイクを選択する(ステップS88)。CPU70は、図7のステップS66又はステップS80で認識した対象の範囲に基づいて、選択したマイクの指向性を調整する(ステップS90)。   CPU70 selects a microphone based on the direction of the object with respect to the camera 100 recognized by step S64 or step S78 of FIG. 7 (step S88). The CPU 70 adjusts the directivity of the selected microphone based on the target range recognized in step S66 or step S80 in FIG. 7 (step S90).

ステップS90について、図10を参照して説明する。図10は、対象の範囲とマイクの指向性との関係を示す図である。図10は、図5と同様に、カメラ100並びに対象A及びBをX−Y平面上に配置した例を示しており、破線で示す領域160、162及び164はそれぞれマイク44、46及び48により集音可能な領域を示す。角度θ1及びθ2で表される範囲は、マイク48の指向性を模式的に示しており、指向性制御モータにより調整することができる。同様に、角度θ3及びθ4で表される範囲は、マイク44の指向性を模式的に示している。角度θ2で表される範囲は対象Aの範囲に比べて広いため、マイク48は対象Aが発する音以外に、角度θ2で表される範囲内の対象Aの周辺の音も集音してしまう。したがって、マイク48は対象Aが発する音を的確に集音することができない。一方、角度θ1で表される範囲は対象Aの範囲とほぼ一致している。よって、マイク46の指向性の範囲を角度θ1で表される範囲に調整することにより、対象Aが発する音を的確に集音することができる。同様に、角度θ3で表される範囲は対象Bの範囲とほぼ一致しているため、マイク44の指向性の範囲を角度θ3で表される範囲に調整することにより、対象Bが発する音を的確に集音することができる。   Step S90 will be described with reference to FIG. FIG. 10 is a diagram illustrating the relationship between the target range and the microphone directivity. FIG. 10 shows an example in which the camera 100 and the objects A and B are arranged on the XY plane, similarly to FIG. Indicates the area where sound can be collected. The ranges represented by the angles θ1 and θ2 schematically show the directivity of the microphone 48 and can be adjusted by the directivity control motor. Similarly, the ranges represented by the angles θ3 and θ4 schematically show the directivity of the microphone 44. Since the range represented by the angle θ2 is wider than the range of the target A, the microphone 48 collects sounds around the target A within the range represented by the angle θ2 in addition to the sound emitted by the target A. . Therefore, the microphone 48 cannot accurately collect the sound generated by the object A. On the other hand, the range represented by the angle θ1 substantially coincides with the range of the object A. Therefore, by adjusting the directivity range of the microphone 46 to the range represented by the angle θ1, the sound emitted from the target A can be collected accurately. Similarly, since the range represented by the angle θ3 substantially coincides with the range of the target B, the sound emitted from the target B is adjusted by adjusting the directivity range of the microphone 44 to the range represented by the angle θ3. Sound can be collected accurately.

図9の説明に戻る。CPU70は、図3(a)のステップS36と同様に、対象の数が複数であるか否かを判定する(ステップS94)。CPU70は、対象の数が複数の場合にYesと判定する。CPU70は、ステップS71がNoの場合に処理を終了する。CPU70は、ステップS94がYesの場合に、検出した対象の範囲が所定の基準値と等しいか否かを判定する(ステップS96)。所定の基準値はユーザが設定してもよいし、あらかじめ設定されてもよい。CPU70は、検出した対象の範囲と所定の基準値とが等しい場合Yesと判定する。CPU70は、ステップS96がNoの場合、検出した対象の範囲が所定の基準値より大きいか否かを判定する(ステップS98)。CPU70は、検出した対象の範囲が所定の基準値より大きい場合Yesと判定する。CPU70は、ステップS98がYesの場合、対応するVCAの制御により、ステップS88で選択したマイクの感度を下げる(ステップS100)。CPU70は、ステップS74がNoの場合、対応するVCAの制御により、ステップS68で選択したマイクの感度を上げる(ステップS102)。   Returning to the description of FIG. The CPU 70 determines whether or not the number of objects is plural (step S94), similarly to step S36 of FIG. The CPU 70 determines Yes when the number of objects is plural. CPU70 complete | finishes a process, when step S71 is No. When step S94 is Yes, the CPU 70 determines whether or not the detected target range is equal to a predetermined reference value (step S96). The predetermined reference value may be set by the user or may be set in advance. The CPU 70 determines Yes when the detected target range is equal to the predetermined reference value. When Step S96 is No, the CPU 70 determines whether or not the detected target range is larger than a predetermined reference value (Step S98). The CPU 70 determines Yes when the detected target range is larger than a predetermined reference value. When step S98 is Yes, the CPU 70 lowers the sensitivity of the microphone selected in step S88 by controlling the corresponding VCA (step S100). When step S74 is No, the CPU 70 increases the sensitivity of the microphone selected in step S68 by controlling the corresponding VCA (step S102).

ここで、図8を参照して、ステップS96、S98、S100及びS102について説明する。例えばユーザが、対象の範囲が5である対象が発する音を適正なレベルで記録したいと考え、所定の基準値を5と設定したとする。対象Aの範囲は所定の基準値より大きい6であるため、カメラ100は対象Aとの距離が近いと推定する。この場合、マイク48の感度を下げることにより、対象Aが発する音をより小さいレベルで集音することができる。一方、対象Bの範囲は所定の基準値より小さい4であるため、カメラ100は対象Bとの距離が大きいと推定する。この場合、マイク48の感度を上げることにより、対象Bが発する音をより大きいレベルで集音することができる。このように、集音される音信号のレベルと対象の範囲が所定の基準値である対象が発する音信号のレベルとを互いに同一とすることができる。   Here, steps S96, S98, S100, and S102 will be described with reference to FIG. For example, it is assumed that the user wants to record a sound emitted by a target whose target range is 5 at an appropriate level and sets a predetermined reference value as 5. Since the range of the target A is 6, which is larger than the predetermined reference value, the camera 100 estimates that the distance to the target A is short. In this case, by reducing the sensitivity of the microphone 48, it is possible to collect the sound emitted by the object A at a lower level. On the other hand, since the range of the target B is 4 which is smaller than the predetermined reference value, the camera 100 estimates that the distance to the target B is large. In this case, by increasing the sensitivity of the microphone 48, it is possible to collect sound generated by the target B at a higher level. In this way, the level of the sound signal collected and the level of the sound signal emitted by the object whose target range is the predetermined reference value can be made the same.

図9の説明に戻る。CPU70は、ステップS88で選択した全てのマイクの感度の調整が終了したか否かを判定する(ステップS104)。CPU70は、ステップS88で選択した全てのマイクの感度の調整が終了した場合Yesと判定する。CPU70は、ステップS104がNoの場合、ステップS96に戻る。CPU70は、ステップS104がYesの場合、処理を終了する。   Returning to the description of FIG. The CPU 70 determines whether or not the adjustment of the sensitivity of all the microphones selected in step S88 has been completed (step S104). CPU70 determines with Yes, when adjustment of the sensitivity of all the microphones selected by step S88 is complete | finished. If step S104 is No, the CPU 70 returns to step S96. CPU70 complete | finishes a process, when step S104 is Yes.

実施例2によれば、図9のステップS90及び図10のように、対象の顔の範囲とマイクの指向性の範囲とが一致するように、音制御部60及び指向性制御モータ56がマイク44、46及び48の少なくとも一つの指向性を調整する。これにより、対象の周辺の音が集音されることを抑制することができるため、対象が発する音を的確に集音することができる。   According to the second embodiment, as shown in step S90 of FIG. 9 and FIG. 10, the sound control unit 60 and the directivity control motor 56 are arranged so that the target face range and the directivity control range of the microphone coincide with each other. The directivity of at least one of 44, 46 and 48 is adjusted. Thereby, since it is possible to suppress the collection of sounds around the object, it is possible to accurately collect the sound emitted by the object.

実施例2において、図9のステップS94のYesのように対象の数が複数の場合に、図9のステップS96、S98、S100及びS102のように、対象の顔の範囲に基づいて、マイクの少なくとも一つの感度を調整する例を説明した。すなわち、対象の顔の範囲が所定の範囲より大きい場合にマイクの少なくとも一つの感度を下げて、対象の顔の範囲が所定の範囲より小さい場合にマイクの少なくとも一つの感度を上げる。これにより、撮像装置が認識する複数の対象の顔の範囲が互いに異なる場合であっても、対応するマイクの感度を調整して、集音される音信号のレベルを同一とすることができる。他に例えば、対応するマイクの感度を調整して、集音される音信号のレベルが所定の範囲内となるようにしてもよい。図9のフローチャートでは、対象の範囲の値と所定の基準値とを比較して、感度を調整する例を説明した。他に例えば、対象の範囲が最も大きい対象以外の対象の音を集音可能なマイクの感度を上げて、マイクが出力する各音信号のレベルが同一又は所定の範囲内となるように調整してもよい。逆に、対象の範囲が最も小さい対象以外の対象の音を集音可能なマイクの感度を上げて、マイクが出力する各音信号のレベルが同一又は所定の範囲内となるように調整してもよい。   In the second embodiment, when there are a plurality of objects as shown in Yes in step S94 in FIG. 9, the microphones are selected based on the range of the target face as in steps S96, S98, S100, and S102 in FIG. An example of adjusting at least one sensitivity has been described. That is, when the target face range is larger than the predetermined range, at least one sensitivity of the microphone is decreased, and when the target face range is smaller than the predetermined range, at least one sensitivity of the microphone is increased. As a result, even when the ranges of the plurality of target faces recognized by the imaging device are different from each other, the levels of the sound signals to be collected can be made the same by adjusting the sensitivity of the corresponding microphones. In addition, for example, the sensitivity of the corresponding microphone may be adjusted so that the level of the collected sound signal falls within a predetermined range. In the flowchart of FIG. 9, the example in which the sensitivity is adjusted by comparing the value of the target range with a predetermined reference value has been described. In addition, for example, increase the sensitivity of the microphone that can collect the sound of the target other than the target with the largest target range, and adjust the level of each sound signal output by the microphone to be the same or within a predetermined range. May be. Conversely, increase the sensitivity of the microphone that can collect the sound of the target other than the target with the smallest target range, and adjust the level of each sound signal output by the microphone to be the same or within the predetermined range. Also good.

撮像装置が認識する対象の顔の範囲の大小は、撮像装置と対象との距離に反比例する。すなわち、撮像装置が認識する対象の顔の範囲が大きければ、撮像装置と対象との距離は近く、撮像装置が認識する対象の顔の範囲が小さければ、撮像装置と対象との距離は遠い。したがって、対象の顔の範囲の代わりに、対象との距離に基づいて、マイクの少なくとも一つの感度を調整するようにしてもよい。例えば、対象との距離が所定の距離より大きい場合にマイクの少なくとも一つの感度を下げて、対象との距離が所定の距離より小さい場合にマイクの少なくとも一つの感度を上げる。対象との距離は、AFユニットにより検出された合焦位置から推定してもよい。   The size of the target face range recognized by the imaging device is inversely proportional to the distance between the imaging device and the target. That is, the distance between the imaging device and the target is close if the target face range recognized by the imaging device is large, and the distance between the imaging device and the target is long if the target face range recognized by the imaging device is small. Therefore, at least one sensitivity of the microphone may be adjusted based on the distance to the target instead of the target face range. For example, at least one sensitivity of the microphone is decreased when the distance to the target is larger than a predetermined distance, and at least one sensitivity of the microphone is increased when the distance to the target is smaller than the predetermined distance. The distance to the target may be estimated from the focus position detected by the AF unit.

図11(a)を参照して、実施例3に係るパターンファイルを生成する処理を説明する。図10はパターンファイルを生成する処理のフローチャートである。パターンファイルとは、記憶した対象の位置情報に基づいて、マイクの感度を調整するための制御情報のパターンを記したデータである。パターンファイルのデータの形式は、特にファイルでなくともよい。マイクの感度を調整するための制御情報とは、CPU70が音制御部60へ送信するコマンド、VCAに印加する電圧値等である。   With reference to FIG. 11A, a process for generating a pattern file according to the third embodiment will be described. FIG. 10 is a flowchart of processing for generating a pattern file. The pattern file is data describing a pattern of control information for adjusting the sensitivity of the microphone based on the stored position information of the object. The format of the pattern file data need not be a file. The control information for adjusting the sensitivity of the microphone is a command transmitted from the CPU 70 to the sound control unit 60, a voltage value applied to the VCA, and the like.

CPU70は、RECボタンがオンであるか否かを確認する(ステップS110)。CPU70は、RECボタンがオンの場合にYesと判定する。ステップS110がNoの場合、処理を終了する。ステップS110がYesの場合、CPU70は、図3(a)のステップS10及びS20並びに図7のステップS60及びS72と同様に、対象の位置情報を検出する(ステップS112)。CPU70は、メモリ34に対象の位置情報を記憶する(ステップS114)。CPU70は、RECボタンがオフであるか否かを確認する(ステップS116)。CPU70は、RECボタンがオフの場合、Yesと判定する。ステップS116がNoの場合、CPU70は、ステップS112に戻り、RECボタンがオフになるまで、対象の位置情報の検出及び記憶を繰り返し行う。CPU70は、ステップS116がYesの場合、記憶した対象の位置情報に基づいて、パターンファイルを生成して(ステップS110)、処理を終了する。   The CPU 70 confirms whether or not the REC button is on (step S110). The CPU 70 determines Yes when the REC button is on. If step S110 is No, the process ends. When Step S110 is Yes, the CPU 70 detects the target position information in the same manner as Steps S10 and S20 in FIG. 3A and Steps S60 and S72 in FIG. 7 (Step S112). The CPU 70 stores the target position information in the memory 34 (step S114). The CPU 70 confirms whether or not the REC button is off (step S116). If the REC button is off, the CPU 70 determines Yes. When step S116 is No, the CPU 70 returns to step S112 and repeatedly detects and stores the target position information until the REC button is turned off. When step S116 is Yes, the CPU 70 generates a pattern file based on the stored position information of the target (step S110), and ends the process.

図11(b)を参照して、実施例3に係るパターンに基づいて対象が発する音を集音する処理を説明する。図11(b)は、パターンに基づいて対象が発する音を集音する処理のフローチャートである。   With reference to FIG.11 (b), the process which collects the sound which an object emits based on the pattern which concerns on Example 3 is demonstrated. FIG. 11B is a flowchart of the process of collecting the sound emitted by the target based on the pattern.

CPU70は、パターンファイルを再生するか否かを判定する(ステップS120)。CPU70は、ユーザによるパターンファイルの再生の開始の指示がある場合にYesと判定する。ユーザによるパターンファイルの再生の開始の指示は、例えば表示パネル40に表示される操作画面を操作部68の操作により行う。ステップS120がYesの場合、CPU70は表示パネル40にパターンを表示する(ステップS122)。ここで、表示されるパターンは、例えば図4のように、対象の位置に重ねられた枠91及び93である。CPU70は、パターンに基づいてマイクの感度を調節しながら対象が発する音の集音を行う(ステップS124)。CPU70は、パターンファイルの再生を終了するか否かを判定する(ステップS126)。CPU70は、ユーザによるパターンファイルの再生の終了の指示がある場合にYesと判定する。CPU70は、ステップS126がNoの場合に、ステップS122に戻り、パターンの表示及びパターンによる集音を継続する。CPU70は、ステップS126がYesの場合に処理を終了する。   The CPU 70 determines whether or not to reproduce the pattern file (step S120). The CPU 70 determines Yes when there is an instruction to start reproduction of the pattern file by the user. The instruction to start the reproduction of the pattern file by the user is performed by operating the operation unit 68 on an operation screen displayed on the display panel 40, for example. When step S120 is Yes, CPU70 displays a pattern on the display panel 40 (step S122). Here, the displayed patterns are frames 91 and 93 superimposed on the target position, for example, as shown in FIG. The CPU 70 collects the sound emitted by the object while adjusting the sensitivity of the microphone based on the pattern (step S124). The CPU 70 determines whether or not to end the reproduction of the pattern file (step S126). The CPU 70 determines Yes when there is an instruction to end the reproduction of the pattern file by the user. When Step S126 is No, the CPU 70 returns to Step S122 and continues the pattern display and the sound collection by the pattern. CPU70 complete | finishes a process, when step S126 is Yes.

実施例3によれば、図11(a)のステップS114のように、メモリ34がマイク44、46及び48の感度を調整するパターンを記憶し、図11(b)のステップS124のように、音制御部60及びVCA50、52及び54がパターンに基づいてマイク44、46及び48の感度を調整する。これにより、対象が所定の動作を行いながら音を発するシーンや複数の対象の位置関係が同じ場合のシーンの集音を繰り返し行う場合に、対象の位置検出を繰り返し行うことなく、効率よく行うことができる。   According to the third embodiment, the memory 34 stores a pattern for adjusting the sensitivity of the microphones 44, 46, and 48 as in step S114 in FIG. 11A, and as in step S124 in FIG. The sound control unit 60 and the VCAs 50, 52, and 54 adjust the sensitivities of the microphones 44, 46, and 48 based on the pattern. This makes it possible to perform sound collection efficiently without repeatedly detecting the target position when repeatedly collecting sound from a scene that emits sound while the target performs a predetermined operation or when the positional relationship of multiple targets is the same. Can do.

実施例1から3において、撮像装置の一例として、カメラを例に説明した。撮像装置は、他にビデオカメラやカメラ付き携帯電話等でもよい。   In Embodiments 1 to 3, a camera has been described as an example of an imaging apparatus. The imaging device may be a video camera, a mobile phone with a camera, or the like.

以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims. It can be changed.

10 光学系
18 撮像素子
22 AFユニット
24 シャッタユニット
26 画像処理部
28 顔検出部
34 メモリ
40 表示パネル
44、46、48 マイク
50、52、54 VCA
56 指向性制御モータ
60 音制御部
62 音記録部
66 RECボタン
70 CPU
100 撮像装置

DESCRIPTION OF SYMBOLS 10 Optical system 18 Image pick-up element 22 AF unit 24 Shutter unit 26 Image processing part 28 Face detection part 34 Memory 40 Display panel 44, 46, 48 Microphone 50, 52, 54 VCA
56 Directivity control motor 60 Sound control unit 62 Sound recording unit 66 REC button 70 CPU
100 Imaging device

Claims (8)

画像を撮像する撮像手段と、
前記画像内における対象の数を検出する検出手段と、
前記対象が発する音を集音する複数の集音手段と、
前記対象の数が複数の場合に、前記複数の集音手段の感度を調整する感度調整手段と、
を有することを特徴とする撮像装置。
An imaging means for capturing an image;
Detecting means for detecting the number of objects in the image;
A plurality of sound collecting means for collecting sounds emitted by the object;
A sensitivity adjusting means for adjusting the sensitivity of the plurality of sound collecting means when the number of objects is plural;
An imaging device comprising:
前記検出手段は、前記画像内における前記対象の範囲を検出し、
前記対象の範囲に基づいて、前記複数の集音手段の少なくとも一つの指向性を調整する指向性調整手段を有することを特徴とする請求項1記載の撮像装置。
The detecting means detects a range of the object in the image;
The imaging apparatus according to claim 1, further comprising directivity adjusting means for adjusting at least one directivity of the plurality of sound collecting means based on the target range.
前記感度調整手段は、前記対象の数が複数の場合に、前記複数の集音手段が出力する各音信号のレベルが所定の範囲内となるように前記対象に対応する前記複数の集音手段の少なくとも一つの感度を調整することを特徴とする請求項1又は2記載の撮像装置。   When the number of the objects is plural, the sensitivity adjusting means includes the plurality of sound collecting means corresponding to the objects so that the level of each sound signal output from the plurality of sound collecting means is within a predetermined range. The image pickup apparatus according to claim 1, wherein at least one sensitivity is adjusted. 前記検出手段は、前記画像内における前記対象の範囲を検出し、
前記感度調整手段は、前記対象の範囲に基づいて、前記対象に対応する前記複数の集音手段の少なくとも一つの感度を調整することを特徴とする請求項1から3のいずれか一項記載の撮像装置。
The detecting means detects a range of the object in the image;
The said sensitivity adjustment means adjusts at least one sensitivity of the said several sound collection means corresponding to the said object based on the range of the said object, The Claim 1 characterized by the above-mentioned. Imaging device.
前記検出手段は、前記対象との距離を検出し、
前記感度調整手段は、前記対象との距離に基づいて、前記対象に対応する前記複数の集音手段の少なくとも一つの感度を調整することを特徴とする請求項1から3のいずれか一項記載の撮像装置。
The detecting means detects a distance to the object;
The said sensitivity adjustment means adjusts at least 1 sensitivity of the said several sound collection means corresponding to the said object based on the distance with the said object, The any one of Claim 1 to 3 characterized by the above-mentioned. Imaging device.
前記検出手段は、前記画像内における顔を検出し、前記顔の数に基づいて、前記対象の数を検出することを特徴とする請求項1から5のいずれか一項記載の撮像装置。   The imaging device according to claim 1, wherein the detection unit detects a face in the image and detects the number of the objects based on the number of the faces. 前記検出手段は、光学系の像面内に設定された焦点検出位置に対する前記光学系の焦点状態を検出し、前記焦点状態が合焦状態である前記焦点検出位置の数に基づいて、前記対象の数を検出することを特徴とする請求項1から5のいずれか一項記載の撮像装置。   The detection means detects a focus state of the optical system with respect to a focus detection position set in an image plane of the optical system, and based on the number of the focus detection positions where the focus state is a focused state, the target The imaging device according to claim 1, wherein the number of the imaging devices is detected. 前記複数の集音手段の感度を調整するパターンを記憶する記憶手段を有し、
前記感度調整手段は、前記記憶手段が記憶するパターンに基づいて前記複数の集音手段の感度を調整することを特徴とする請求項1から7のいずれか一項記載の撮像装置。

Storing means for storing a pattern for adjusting sensitivity of the plurality of sound collecting means;
The imaging apparatus according to claim 1, wherein the sensitivity adjusting unit adjusts the sensitivity of the plurality of sound collecting units based on a pattern stored in the storage unit.

JP2009271468A 2009-11-30 2009-11-30 Imaging device Pending JP2011114769A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009271468A JP2011114769A (en) 2009-11-30 2009-11-30 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009271468A JP2011114769A (en) 2009-11-30 2009-11-30 Imaging device

Publications (2)

Publication Number Publication Date
JP2011114769A true JP2011114769A (en) 2011-06-09
JP2011114769A5 JP2011114769A5 (en) 2013-05-23

Family

ID=44236749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009271468A Pending JP2011114769A (en) 2009-11-30 2009-11-30 Imaging device

Country Status (1)

Country Link
JP (1) JP2011114769A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2527277A1 (en) 2011-05-23 2012-11-28 Kyocera Document Solutions Inc. Sheet size setting device, sheet feeder and image forming apparatus
JP2015198413A (en) * 2014-04-03 2015-11-09 日本電信電話株式会社 Sound collection system and sound emitting system

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05111090A (en) * 1991-10-14 1993-04-30 Nippon Telegr & Teleph Corp <Ntt> Sound receiving device
JPH1051889A (en) * 1996-08-05 1998-02-20 Toshiba Corp Device and method for gathering sound
JPH10162118A (en) * 1996-11-29 1998-06-19 Canon Inc Device and method for image processing
JP2000165983A (en) * 1998-11-25 2000-06-16 Robert Bosch Gmbh Method for controlling sensitivity of microphone
JP2000209689A (en) * 1999-01-12 2000-07-28 Canon Inc Sound processor, its control method and recording medium
JP2003259479A (en) * 2002-03-04 2003-09-12 Matsushita Electric Ind Co Ltd Microphone device
JP2005236644A (en) * 2004-02-19 2005-09-02 Canon Inc Recording/reproducing device and method
JP2006039254A (en) * 2004-07-28 2006-02-09 Sanyo Electric Co Ltd Camera
JP2006340151A (en) * 2005-06-03 2006-12-14 Matsushita Electric Ind Co Ltd Acoustic echo canceling device, telephone using it, and acoustic echo canceling method
JP2008288785A (en) * 2007-05-16 2008-11-27 Yamaha Corp Video conference apparatus
JP2009027246A (en) * 2007-07-17 2009-02-05 Yamaha Corp Television conference apparatus
JP2009156888A (en) * 2007-12-25 2009-07-16 Sanyo Electric Co Ltd Speech corrector and imaging apparatus equipped with the same, and sound correcting method
JP2009157242A (en) * 2007-12-27 2009-07-16 Fujifilm Corp Imaging apparatus

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05111090A (en) * 1991-10-14 1993-04-30 Nippon Telegr & Teleph Corp <Ntt> Sound receiving device
JPH1051889A (en) * 1996-08-05 1998-02-20 Toshiba Corp Device and method for gathering sound
JPH10162118A (en) * 1996-11-29 1998-06-19 Canon Inc Device and method for image processing
JP2000165983A (en) * 1998-11-25 2000-06-16 Robert Bosch Gmbh Method for controlling sensitivity of microphone
JP2000209689A (en) * 1999-01-12 2000-07-28 Canon Inc Sound processor, its control method and recording medium
JP2003259479A (en) * 2002-03-04 2003-09-12 Matsushita Electric Ind Co Ltd Microphone device
JP2005236644A (en) * 2004-02-19 2005-09-02 Canon Inc Recording/reproducing device and method
JP2006039254A (en) * 2004-07-28 2006-02-09 Sanyo Electric Co Ltd Camera
JP2006340151A (en) * 2005-06-03 2006-12-14 Matsushita Electric Ind Co Ltd Acoustic echo canceling device, telephone using it, and acoustic echo canceling method
JP2008288785A (en) * 2007-05-16 2008-11-27 Yamaha Corp Video conference apparatus
JP2009027246A (en) * 2007-07-17 2009-02-05 Yamaha Corp Television conference apparatus
JP2009156888A (en) * 2007-12-25 2009-07-16 Sanyo Electric Co Ltd Speech corrector and imaging apparatus equipped with the same, and sound correcting method
JP2009157242A (en) * 2007-12-27 2009-07-16 Fujifilm Corp Imaging apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2527277A1 (en) 2011-05-23 2012-11-28 Kyocera Document Solutions Inc. Sheet size setting device, sheet feeder and image forming apparatus
JP2015198413A (en) * 2014-04-03 2015-11-09 日本電信電話株式会社 Sound collection system and sound emitting system

Similar Documents

Publication Publication Date Title
JP4042710B2 (en) Autofocus device and program thereof
US8724981B2 (en) Imaging apparatus, focus position detecting method, and computer program product
TWI514847B (en) Image processing device, image processing method, and recording medium
US8228419B2 (en) Method of controlling digital photographing apparatus for out-focusing operation and digital photographing apparatus adopting the method
KR20040045638A (en) Method to control operation of digital camera for user to easily take an identification photograph
JP4637045B2 (en) Imaging device
JP2007232793A (en) Imaging apparatus
JP2009065577A (en) Imaging apparatus and method
JP2014531829A (en) Remotely controllable digital video camera system
KR20120115127A (en) Image processing device capable of generating wide-range image
US8654204B2 (en) Digtal photographing apparatus and method of controlling the same
JP4957825B2 (en) Imaging apparatus and program
JP2011175281A (en) Imaging apparatus and program therefor
US20130293768A1 (en) Imaging apparatus, imaging method, imaging program and computer readable information recording medium
US8712231B2 (en) Camera body, and camera system
JP5100410B2 (en) Imaging apparatus and control method thereof
JP2006319903A (en) Mobile apparatus provided with information display screen
JP4591120B2 (en) Imaging apparatus, autofocus control method, and autofocus control program
JP2010068071A (en) Imaging device and method, image processor and method, and image processing program
JP2011114769A (en) Imaging device
US10104291B2 (en) Imaging device
US9064487B2 (en) Imaging device superimposing wideband noise on output sound signal
JPWO2019181024A1 (en) Imaging device, imaging method, and program
US20110032390A1 (en) Digital photographing apparatus and moving picture capturing method performed by the same
JP2011188055A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150106