JP2010183252A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2010183252A
JP2010183252A JP2009023762A JP2009023762A JP2010183252A JP 2010183252 A JP2010183252 A JP 2010183252A JP 2009023762 A JP2009023762 A JP 2009023762A JP 2009023762 A JP2009023762 A JP 2009023762A JP 2010183252 A JP2010183252 A JP 2010183252A
Authority
JP
Japan
Prior art keywords
image
unit
directivity
imaging
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009023762A
Other languages
Japanese (ja)
Other versions
JP5412858B2 (en
Inventor
Hiroshi Takeuchi
宏 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009023762A priority Critical patent/JP5412858B2/en
Publication of JP2010183252A publication Critical patent/JP2010183252A/en
Application granted granted Critical
Publication of JP5412858B2 publication Critical patent/JP5412858B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus which can obtain an image and a voice. <P>SOLUTION: The imaging apparatus includes an imaging portion taking an image, a voice obtaining portion which can obtain a voice corresponding to an image by changing a directivity, a determining portion determining an object included in the image, and a control portion which controls so that the directivity of the voice obtaining portion may change according to a determination result of the determining portion. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像と音声とを取得することができる撮像装置に関する。   The present invention relates to an imaging apparatus capable of acquiring an image and sound.

従来、デジタルカメラやビデオカメラ等において、動画撮像の際に画像と音声とを同時に記録することができるだけでなく、撮影状況に応じてマイクロフォンの指向性を制御する様々な技術が開発されている。   2. Description of the Related Art Conventionally, in a digital camera, a video camera, and the like, various techniques for controlling the directivity of a microphone according to a shooting situation have been developed, in addition to being able to record an image and sound simultaneously when capturing a moving image.

例えば、特許文献1では、周囲音がある状況において、デジタルカメラやビデオカメラ等の動きに影響されることなく、選択した所望の被写体からの音声を強調又は抑圧して録音する技術が開示されている。   For example, Patent Document 1 discloses a technique for recording a sound from a selected desired subject with emphasis or suppression without being affected by the movement of a digital camera or a video camera in a situation where there is ambient sound. Yes.

しかしながら、従来技術は、デジタルカメラ等が向けられた被写体までの撮影距離や焦点距離等の焦点情報に基づいて、マイクロフォンの指向性を被写体に向くように、また特許文献1は、選択された被写体を追跡するように制御することはできるが、被写体の対象(以後、「シーン」という)の種類や場面に応じてマイクロフォンの指向性を変化させることはできない。   However, according to the conventional technology, the directivity of the microphone is directed to the subject based on the focus information such as the shooting distance and the focal length to the subject to which the digital camera or the like is directed. However, the directivity of the microphone cannot be changed in accordance with the type and scene of the subject (hereinafter referred to as “scene”).

上記従来技術が有する問題に鑑み、本発明の目的は、画像と音声とを取得することができる撮像装置を提供することにある。   SUMMARY OF THE INVENTION In view of the above-described problems of the related art, an object of the present invention is to provide an imaging apparatus that can acquire images and sounds.

上記課題を解決するために、本発明の撮像装置は、画像を撮像する撮像部と、画像に対応する音声を指向性を変化させて取得可能な音声取得部と、画像に含まれる被写体を判定する判定部と、判定部の判定結果に応じて音声取得部の指向性が変化するように制御する制御部とを含む。   In order to solve the above-described problems, an imaging apparatus according to the present invention determines an imaging unit that captures an image, a sound acquisition unit that can acquire sound corresponding to the image by changing directivity, and a subject included in the image. And a control unit that controls the directivity of the voice acquisition unit to change according to the determination result of the determination unit.

また、撮影者により操作可能な操作部と、操作部の状態に応じて撮影条件を変更する撮影条件変更部とを含み、制御部は、判定部の判定結果、及び、操作部の状態に基づいて制御を行っても良い。   In addition, an operation unit that can be operated by the photographer and a shooting condition changing unit that changes the shooting condition according to the state of the operation unit, the control unit is based on the determination result of the determination unit and the state of the operation unit May be controlled.

また、制御部は、操作部の状態よりも判定部の判定結果を優先して制御を行っても良い。   Further, the control unit may perform control by giving priority to the determination result of the determination unit over the state of the operation unit.

また、判定部は、画像から求めた特徴量に基づいてパターン認識をすることにより、画像に含まれる被写体を判定しても良い
また、判定部は、あらかじめ複数の被写体についての複数の画像を用いて、複数の画像各々の特徴量と複数の被写体の各々の対象とを、各対象を特徴付けるパターンに基づいて関係付ける複数の統計パラメータを有し、複数の統計パラメータを用いた統計処理によって、撮像部によって撮像された画像における被写体の対象を特徴付けるパターンを認識しても良い。
The determination unit may determine a subject included in the image by performing pattern recognition based on a feature amount obtained from the image. The determination unit uses a plurality of images for a plurality of subjects in advance. And having a plurality of statistical parameters that relate each feature quantity of each of the plurality of images and each target of the plurality of subjects based on a pattern characterizing each target, and imaging by statistical processing using the plurality of statistical parameters The pattern characterizing the subject of the subject in the image captured by the unit may be recognized.

また、統計処理は、ニューラルネットであっても良い。   The statistical processing may be a neural network.

また、音声取得部は、音声の指向性を変更するための指向性変更回路を含んでも良い。   The voice acquisition unit may include a directivity changing circuit for changing the directivity of the voice.

また、音声取得部は、それぞれ指向性の異なる複数のマイクロフォンを含み、制御部は、判定部の判定結果に応じて複数のマイクロフォンのゲインを制御しても良い。   The voice acquisition unit may include a plurality of microphones having different directivities, and the control unit may control the gains of the plurality of microphones according to the determination result of the determination unit.

本発明によれば、画像と音声とを取得し得る撮像装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which can acquire an image and an audio | voice can be provided.

本発明の第1の実施形態に係るデジタルカメラ1の構成例を示す模式図1 is a schematic diagram showing a configuration example of a digital camera 1 according to a first embodiment of the present invention. 本発明の第1の実施形態に係るデジタルカメラ1の被写体側から見た図と機能ブロック図The figure and functional block diagram which were seen from the to-be-photographed object side of the digital camera 1 which concerns on the 1st Embodiment of this invention 本発明の第1の実施形態に係るデジタルカメラ1における撮像処理の手順を示すフローチャート6 is a flowchart showing the procedure of imaging processing in the digital camera 1 according to the first embodiment of the present invention. 本発明の第1の実施形態に係るデジタルカメラ1における階層型ニューラルネットの概念図1 is a conceptual diagram of a hierarchical neural network in a digital camera 1 according to a first embodiment of the present invention. 本発明の第2の実施形態に係るデジタルカメラ1における階層型ニューラルネットの概念図FIG. 3 is a conceptual diagram of a hierarchical neural network in a digital camera 1 according to a second embodiment of the present invention. 本発明の第3の実施形態に係るデジタルカメラ50の構成例を示す模式図Schematic diagram showing a configuration example of a digital camera 50 according to the third embodiment of the present invention. 本発明の第3の実施形態に係るデジタルカメラ50の被写体側から見た図と機能ブロック図The figure seen from the to-be-photographed object side and the functional block diagram of the digital camera 50 concerning the 3rd Embodiment of this invention 本発明の第4の実施形態に係るデジタルカメラ1の被写体側から見た図と機能ブロック図The figure and functional block diagram which were seen from the to-be-photographed object side of the digital camera 1 which concerns on the 4th Embodiment of this invention 本発明の第4の実施形態に係るデジタルカメラ1における撮像処理の手順を示すフローチャートThe flowchart which shows the procedure of the imaging process in the digital camera 1 which concerns on the 4th Embodiment of this invention. 本発明の第5の実施形態に係るデジタルカメラ1の被写体側から見た図と機能ブロック図The figure and functional block diagram which were seen from the to-be-photographed object side of the digital camera 1 which concerns on the 5th Embodiment of this invention 本発明の第5の実施形態に係るデジタルカメラ1における撮像処理の手順を示すフローチャートThe flowchart which shows the procedure of the imaging process in the digital camera 1 which concerns on the 5th Embodiment of this invention.

以下、図面を用いて本発明の実施形態について説明する。以下の実施形態では、本発明のカメラの一例として、一眼レフタイプのデジタルカメラを用いて説明する。
≪第1の実施形態≫
図1は、本発明の第1の実施形態に係るデジタルカメラ1の構成を示す図である。図1に示すように、デジタルカメラ1は、カメラ本体1aと交換レンズ部1bとから構成される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following embodiments, a single-lens reflex digital camera will be described as an example of the camera of the present invention.
<< First Embodiment >>
FIG. 1 is a diagram showing a configuration of a digital camera 1 according to the first embodiment of the present invention. As shown in FIG. 1, the digital camera 1 includes a camera body 1a and an interchangeable lens unit 1b.

交換レンズ部1bは、撮像レンズ2、絞り3、焦点距離検出部4、距離検出部5、絞り制御部6及びレンズ側CPU7から成る。一方、カメラ本体1aは、ペンタプリズム8、再結像レンズ9、測光センサ10、クイックリターンミラー11、サブミラー12、焦点板13、シャッタ14、接眼レンズ15、撮像素子16、表示部17、本体側CPU18、焦点検出部19、画像処理部20、シャッタ制御部21、記憶部22、マイクロフォン23a〜23bの各部を備える。デジタルカメラ1の各構成要素は、交換レンズ部1bのレンズ側CPU7又はカメラ本体1aの本体側CPU18と情報伝達可能に接続される。そして、レンズ側CPU7と本体側CPU18とは、接続点を介して接続されている。なお、図1はデジタルカメラ1の主要部分のみを示す。例えば、図1において、本体側CPU18の指令に従って、撮像素子16に撮影指示のタイミングパルスを発するタイミングジェネレータ等は省略されている。   The interchangeable lens unit 1b includes an imaging lens 2, an aperture 3, a focal length detection unit 4, a distance detection unit 5, an aperture control unit 6, and a lens side CPU 7. On the other hand, the camera body 1a includes a pentaprism 8, a re-imaging lens 9, a photometric sensor 10, a quick return mirror 11, a sub mirror 12, a focusing screen 13, a shutter 14, an eyepiece lens 15, an image sensor 16, a display unit 17, and a body side. Each unit includes a CPU 18, a focus detection unit 19, an image processing unit 20, a shutter control unit 21, a storage unit 22, and microphones 23a to 23b. Each component of the digital camera 1 is connected to the lens side CPU 7 of the interchangeable lens unit 1b or the body side CPU 18 of the camera body 1a so as to be able to transmit information. The lens side CPU 7 and the main body side CPU 18 are connected via a connection point. FIG. 1 shows only the main part of the digital camera 1. For example, in FIG. 1, a timing generator that emits timing pulses for shooting instructions to the image sensor 16 in accordance with commands from the main body CPU 18 is omitted.

撮像レンズ2は、複数の光学レンズにより構成され、被写体からの光束を撮像素子16の受光面に結像する。   The imaging lens 2 is composed of a plurality of optical lenses, and forms an image of a light beam from a subject on the light receiving surface of the imaging element 16.

測光センサ10は、図1に示すようにクイックリターンミラー11が下がった状態で、焦点板13に結像されるファインダ像の画面を細かく分割(例えば、5分割等)して、測光する測光センサであり、画面内の明るさや色等といった測光情報を検出する。測光センサ10は、撮像レンズ2からの光束に基づいて計測される輝度に基づいて、コントラスト方式による撮像レンズ2の焦点状態であるコントラストAF情報を検出するとともに、再結像レンズ9によって結像され、撮像素子16による被写体の撮像前の構図確認用で、表示部17に表示される低解像度画像(スルー画)を生成する。   The photometric sensor 10 performs photometry by finely dividing the screen of the finder image formed on the focusing screen 13 (for example, dividing into five, etc.) with the quick return mirror 11 lowered as shown in FIG. And photometric information such as brightness and color in the screen is detected. The photometric sensor 10 detects contrast AF information that is a focus state of the imaging lens 2 by a contrast method based on the luminance measured based on the light flux from the imaging lens 2 and is imaged by the re-imaging lens 9. A low-resolution image (through image) displayed on the display unit 17 is generated for composition confirmation before imaging of the subject by the imaging element 16.

焦点検出部19は、例えば、位相差方式による焦点検出を行い、結像される被写体像の複数の測定点における、撮像レンズ2の焦点状態であるデフォーカス量を検出する。本体側CPU18は、取得したそのような焦点状態に基づいて、レンズ側CPU7を介して、撮像レンズ駆動部(不図示)や絞り制御部6に、撮像レンズ2及び絞り3をそれぞれ駆動させて、撮像素子16の受光面に被写体を結像させる。本体側CPU18は、その時の焦点距離、被写体までの撮像距離及び絞り値を、レンズ側CPU7を介して、焦点距離検出部4、距離検出部5及び絞り制御部6からそれぞれ取得する。なお、レンズ側CPU7及び本体側CPU18は、一般的なコンピュータのCPUを使用することができる。レンズ側CPU7及び本体側CPU18のそれぞれには、各不図示のメモリが備えられ、各構成要素を制御するためのプログラムがあらかじめ記録されているものとする。   For example, the focus detection unit 19 performs focus detection by a phase difference method, and detects a defocus amount that is a focus state of the imaging lens 2 at a plurality of measurement points of the subject image to be formed. The main body side CPU 18 causes the imaging lens driving unit (not shown) and the diaphragm control unit 6 to drive the imaging lens 2 and the diaphragm 3 via the lens side CPU 7 based on the obtained focus state, respectively. The subject is imaged on the light receiving surface of the image sensor 16. The main body side CPU 18 acquires the focal length, the imaging distance to the subject, and the aperture value at that time from the focal length detection unit 4, the distance detection unit 5, and the aperture control unit 6 via the lens side CPU 7, respectively. The lens side CPU 7 and the main body side CPU 18 can use CPUs of general computers. Each of the lens side CPU 7 and the main body side CPU 18 is provided with a memory (not shown), and a program for controlling each component is recorded in advance.

なお、位相差方式の焦点検出又はコントラスト方式の焦点検出のいずれかの焦点検出を行うかは、ユーザによる操作設定に応じて決めても良い。或いは、デジタルカメラ1は、位相差方式の焦点検出とコントラスト方式の焦点検出とを組み合わせて撮影レンズ2の焦点状態を検出する構成としても良い。   Note that whether to perform focus detection of phase difference type focus detection or contrast type focus detection may be determined according to an operation setting by the user. Alternatively, the digital camera 1 may be configured to detect the focus state of the photographing lens 2 by combining phase detection focus detection and contrast focus detection.

クイックリターンミラー11は、撮影を行わない場合には、図1に示すように、撮影レンズ2および絞り3を通過してきた光束の方向に対して45°の角度に配置される。そして、撮影レンズ2および絞り3を通過した光束は、クイックリターンミラー11で反射され、焦点板13上に結像してファインダ像が投影される。その投影されたファインダ像は、ペンタプリズム8を介して、測光センサ10及び接眼レンズ15に導かれる。ユーザは、接眼レンズ15を介して被写体の像を目視することにより構図確認を行う。同時に、上述したように、再結像レンズ9を介して、測光センサ10の撮像面上にも再結像される。また、クイックリターンミラー11を透過した一部の光束は、サブミラー12を介して焦点検出部19に導かれる。   When the photographing is not performed, the quick return mirror 11 is disposed at an angle of 45 ° with respect to the direction of the light beam that has passed through the photographing lens 2 and the diaphragm 3 as shown in FIG. The light beam that has passed through the photographic lens 2 and the diaphragm 3 is reflected by the quick return mirror 11 and forms an image on the focusing screen 13 to project a finder image. The projected finder image is guided to the photometric sensor 10 and the eyepiece 15 via the pentaprism 8. The user confirms the composition by viewing the subject image through the eyepiece 15. At the same time, as described above, the image is re-imaged on the imaging surface of the photometric sensor 10 via the re-imaging lens 9. Further, a part of the light beam that has passed through the quick return mirror 11 is guided to the focus detection unit 19 via the sub mirror 12.

一方、撮影時には、本体側CPU18の指示に基づいて、クイックリターンミラー11は、撮像レンズ2からの光束の光路から退避して、シャッタ制御部21によってシャッタ14が開放されると、撮影レンズ2からの光束は撮像素子16に導かれる。   On the other hand, at the time of shooting, the quick return mirror 11 is retracted from the optical path of the light beam from the imaging lens 2 based on an instruction from the main body side CPU 18, and the shutter 14 is opened by the shutter control unit 21. Are guided to the image sensor 16.

撮像素子16は、本体側CPU18の指令を受けて、タイミングジェネレータ(不図示)が発するタイミングパルスに基づいて動作し、前方に設けられた撮像レンズ2によって結像された被写体を撮像する。撮像素子16には、CCDやCMOSの半導体のイメージセンサ等を適宜選択して用いることができる。なお、本実施形態では、撮像素子16は、静止画像の場合には全画素による撮像を行い、動画の場合には間引き読み出しによる撮像を行うものとする。   The image sensor 16 operates based on a timing pulse generated by a timing generator (not shown) in response to a command from the main body side CPU 18 and images a subject imaged by the imaging lens 2 provided in front. As the image sensor 16, a CCD or CMOS semiconductor image sensor or the like can be appropriately selected and used. In the present embodiment, the imaging element 16 performs imaging with all pixels in the case of a still image, and performs imaging by thinning readout in the case of a moving image.

一方、デジタルカメラ1のカメラ本体1aには、静止画像や動画の撮像時における音声取得のためのマイクロフォン23a〜23bが設けられている。図2(a)は、デジタルカメラ1を被写体側から見た図である。なお、図1における構成要素と同じものには、同じ符号を付している。図2(a)に示されるように、マイクロフォン23a〜23bは、カメラ本体1aの全面の右上で水平に並んで設けられている。そして、本実施形態では、図2(b)に示すように、マイクロフォン23aは指向性の狭い特性を有し、マイクロフォン23bは広い指向性を有している。なお、図2(b)は、デジタルカメラ1の機能ブロック図である。マイクロフォン23a〜23bは、デジタルカメラ1による静止画像又は動画撮影時において、撮像される被写体のシーンに応じて、マイクロフォン23a〜23bのいずれか又はその両方を用いて、周囲音や所定の被写体からの音声を効果的に捉える。   On the other hand, the camera body 1a of the digital camera 1 is provided with microphones 23a to 23b for acquiring sound when capturing a still image or a moving image. FIG. 2A is a diagram of the digital camera 1 as viewed from the subject side. In addition, the same code | symbol is attached | subjected to the same thing as the component in FIG. As shown in FIG. 2A, the microphones 23a to 23b are provided horizontally in the upper right of the entire surface of the camera body 1a. In this embodiment, as shown in FIG. 2B, the microphone 23a has a narrow directivity characteristic, and the microphone 23b has a wide directivity. FIG. 2B is a functional block diagram of the digital camera 1. The microphones 23a to 23b can be used to pick up ambient sound or a predetermined subject using either one or both of the microphones 23a to 23b depending on the scene of the subject to be captured when the digital camera 1 captures a still image or a moving image. Capture audio effectively.

操作部材30は、ユーザによる部材操作の内容に応じた操作信号を本体側CPU18に出力する。操作部材30には、例えば、電源釦、撮影モード等のモード設定釦及びレリーズ釦等の操作部材を有する。なお、操作部材30は、表示部17の画面の前面に設けられるタッチパネル形式の釦であっても良い。また、表示部17には、液晶モニタ等を適宜選択して用いることができる。   The operation member 30 outputs an operation signal corresponding to the content of the member operation by the user to the main body side CPU 18. The operation member 30 includes, for example, operation members such as a power button, a mode setting button such as a shooting mode, and a release button. The operation member 30 may be a touch panel type button provided in front of the screen of the display unit 17. In addition, a liquid crystal monitor or the like can be appropriately selected and used for the display unit 17.

撮像素子16によって撮像された画像データは、A/D変換部(不図示)によってデジタル信号に変換されて画像処理部20に取り込まれる。図2(b)に示すように、画像処理部20は、画像データ処理部28と画像特徴量演算部29とから構成されるデジタルフロントエンド回路であって、転送されてきた画像データは画像データ処理部28と画像特徴量演算部29とに入力される。画像データ処理部28では、画像データに対して補間処理やホワイトバランス処理等の画像処理を施し、記憶部22に記録するとともに、表示部17に静止画像や動画等として表示する。   Image data picked up by the image pickup device 16 is converted into a digital signal by an A / D converter (not shown) and taken into the image processor 20. As shown in FIG. 2B, the image processing unit 20 is a digital front-end circuit composed of an image data processing unit 28 and an image feature amount calculation unit 29. The transferred image data is image data. The data is input to the processing unit 28 and the image feature amount calculation unit 29. The image data processing unit 28 performs image processing such as interpolation processing and white balance processing on the image data, records the image data in the storage unit 22, and displays the image data on the display unit 17 as a still image, a moving image, or the like.

一方、画像特徴量演算部29は、撮像された画像を、50×50又は100×100等の複数の領域に分割して、領域毎にR/G、B/G及び輝度等の画像特徴量の積算値を算出し、算出された各領域におけるそれらの画像特徴量から、それらの平均値や分散値等を求める。画像特徴量演算部29によって算出されたそれらの平均値や分散値等の画像特徴量は、本体側CPU18へ転送される。   On the other hand, the image feature amount calculation unit 29 divides the captured image into a plurality of regions such as 50 × 50 or 100 × 100, and image feature amounts such as R / G, B / G, and luminance for each region. And an average value, a variance value, and the like are obtained from the calculated image feature amounts in the respective regions. The image feature quantities calculated by the image feature quantity computing unit 29 such as the average value and the variance value are transferred to the main body CPU 18.

本体側CPU18は、画像特徴量演算部29によって求められた画像特徴量に基づいて、撮像された被写体のシーンを判定するシーン判定部26と、シーン判定部26によって判定されたシーンに応じて、マイクロフォン23a〜23bの指向性を制御する指向性制御部27とから構成される。なお、本実施形態では、上述したように、本体側CPU18に備えられたメモリ(不図示)に、各構成要素を制御するためのプログラムとともに、シーン判定部26によるシーン判定及び指向性制御部27による指向性制御を行うためのプログラムが、あらかじめ記録されているものとする。   The main body side CPU 18 determines a scene of the captured subject based on the image feature amount obtained by the image feature amount calculation unit 29, and the scene determined by the scene determination unit 26. The directivity control unit 27 controls the directivity of the microphones 23a to 23b. In the present embodiment, as described above, a scene determination and directivity control unit 27 by the scene determination unit 26 is stored in a memory (not shown) provided in the main body CPU 18 together with a program for controlling each component. It is assumed that a program for performing directivity control by using is recorded in advance.

A/D変換部24a〜24bは、本実施形態において、増幅回路をアナログフロントエンドに備えたものであり、マイクロフォン23a〜23bから転送されてくるアナログの音声信号を、増幅してからデジタル信号に変換する。A/D変換部24a〜24bの増幅回路の増幅率は、本体側CPU18の指向性制御部27によって制御される。デジタル信号に変換されたマイクロフォン23a〜23bからの音声信号は、ミキサ25によって合成され、画像データ処理部28によって処理された画像と関連付けられて記憶部22に記録される。   In the present embodiment, the A / D converters 24a to 24b are provided with an amplifier circuit in the analog front end, and amplify the analog audio signal transferred from the microphones 23a to 23b and then convert it into a digital signal. Convert. The amplification factors of the amplification circuits of the A / D conversion units 24a to 24b are controlled by the directivity control unit 27 of the main body side CPU 18. The audio signals from the microphones 23 a to 23 b converted into digital signals are combined by the mixer 25 and recorded in the storage unit 22 in association with the image processed by the image data processing unit 28.

次に、本実施形態に係るデジタルカメラ1の撮像手順について、図3のフローチャートを参照しながら説明する。なお、以下の説明では、ユーザがデジタルカメラ1を用いて、動画を撮像するものとして説明する。即ち、ユーザによって、あらかじめ操作部材30のモード設定釦によって、動画モードが選択設定されているものとする。   Next, the imaging procedure of the digital camera 1 according to the present embodiment will be described with reference to the flowchart of FIG. In the following description, it is assumed that the user uses the digital camera 1 to capture a moving image. That is, it is assumed that the moving image mode is selected and set in advance by the user using the mode setting button of the operation member 30.

ユーザにより操作部材30の電源釦が押されると、レンズ側CPU7及び本体側CPU18は、それぞれの不図示のメモリに記憶されている制御プログラムを読み込み、デジタルカメラ1のカメラ本体1a及び交換レンズ部1bをそれぞれ初期化する。本体側CPU18は、レンズ側CPU7を介して、焦点検出部4、距離検出部5及び絞り制御部6から焦点距離、撮像距離及び絞り値をそれぞれ取得するとともに、測光センサ10及び焦点検出部19から撮像レンズ2の焦点状態を取得する。同時に、本体側CPU18は、動画の撮像でのシーンに応じて、マイクロフォン23a〜23bによる音声録音の指向性を制御するプログラム、シーン判定部26が撮像した画像に基づいてシーン判定するために用いる、ニューラルネットによる統計処理で必要な統計パラメータのデータ、及び各シーンに応じた各A/D変換部24a〜24bの増幅率である指向性データを、それぞれ記憶部22から読み込む。なお、本実施形態では、統計パラメータのデータ及び指向性データは、記憶部22にあらかじめ記録されているものとする。そして、ステップS10からの処理が行われる。   When the power button of the operation member 30 is pressed by the user, the lens side CPU 7 and the main body side CPU 18 read the control programs stored in the respective memory (not shown), and the camera main body 1a and the interchangeable lens portion 1b of the digital camera 1 are read. Is initialized respectively. The main body side CPU 18 acquires the focal length, the imaging distance, and the aperture value from the focus detection unit 4, the distance detection unit 5, and the aperture control unit 6 via the lens side CPU 7, and from the photometric sensor 10 and the focus detection unit 19. The focus state of the imaging lens 2 is acquired. At the same time, the main body side CPU 18 is used to determine a scene based on a program that controls the directivity of voice recording by the microphones 23a to 23b and an image captured by the scene determination unit 26 according to a scene in capturing a moving image. Data of statistical parameters necessary for statistical processing by the neural network and directivity data which are amplification factors of the A / D conversion units 24a to 24b corresponding to each scene are read from the storage unit 22, respectively. In the present embodiment, it is assumed that statistical parameter data and directivity data are recorded in the storage unit 22 in advance. And the process from step S10 is performed.

ステップS10:本体側CPU18は、ユーザによって操作部材30のレリーズ釦が押されて撮像開始指示の信号を受信すると、タイミングジェネレータ(不図示)を介して、クイックリターンミラー11を、撮像レンズ2を通過してくる被写体からの光束の光路上から退避させて、シャッタ制御部21にシャッタ14を開放させるとともに、所定のフレームレート(例えば、30fps)で、撮像素子16に被写体を間引き読み出しによる動画撮像を開始させる。   Step S10: When the user presses the release button of the operation member 30 and receives an imaging start instruction signal, the main body side CPU 18 passes the quick return mirror 11 through the imaging lens 2 via a timing generator (not shown). The shutter control unit 21 opens the shutter 14 by retracting from the optical path of the luminous flux from the incoming subject, and at the predetermined frame rate (for example, 30 fps), the imaging device 16 performs moving image imaging by thinning and reading out the subject. Let it begin.

ステップS11:本体側CPU18は、上記フレームレートで取得された各フレームの画像を、撮像素子16に順次出力させて、A/D変換部(不図示)にアナログからデジタルの信号に変換させ、画像処理部20に転送する。画像処理部20は、転送されてきた画像を、画像データ処理部28及び画像特徴量演算部29に入力する。画像データ処理部28は、その画像に対して、補間処理やホワイトバランス処理等の画像処理を施す。一方、画像特徴量演算部29は、画像を、例えば、50×50の領域に分割して、各領域において複数の画像特徴量を算出し、各領域で求めた複数の画像特徴量を用いて、その画像における各画像特徴量の平均値と分散値とを算出する。画像特徴量演算部29は、算出したそれら画像特徴量の平均値と分散値とを、本体側CPU18のシーン判定部26へ転送する。   Step S11: The main body side CPU 18 sequentially outputs the image of each frame acquired at the above frame rate to the image sensor 16 and causes the A / D converter (not shown) to convert it from an analog signal to a digital signal. Transfer to the processing unit 20. The image processing unit 20 inputs the transferred image to the image data processing unit 28 and the image feature amount calculation unit 29. The image data processing unit 28 performs image processing such as interpolation processing and white balance processing on the image. On the other hand, the image feature quantity computing unit 29 divides the image into, for example, 50 × 50 areas, calculates a plurality of image feature quantities in each area, and uses the plurality of image feature quantities obtained in each area. Then, an average value and a variance value of each image feature amount in the image are calculated. The image feature amount calculation unit 29 transfers the calculated average value and variance value of the image feature amounts to the scene determination unit 26 of the main body side CPU 18.

なお、本実施形態における複数の画像特徴量とは、R/G、B/G、輝度、画像の水平走査線(X軸)方向の動きベクトルX及び画像の垂直走査線(Y軸)方向の動きベクトルYである。また、本実施形態における、動きベクトルX及び動きベクトルYの算出は、演算対象の画像とその1フレーム前の画像とを用い、分割した領域毎に相関を計算することによって求める。ただし、最初のフレームの画像に対しては、動きベクトルX及び動きベクトルYを求めることができないので、それらの平均値及び分散値は、例えば0と設定する。   The plurality of image feature amounts in the present embodiment are R / G, B / G, luminance, motion vector X in the horizontal scanning line (X axis) direction of the image, and vertical scanning line (Y axis) direction of the image. This is a motion vector Y. In the present embodiment, the motion vector X and the motion vector Y are calculated by calculating the correlation for each divided area using the image to be calculated and the image one frame before. However, since the motion vector X and the motion vector Y cannot be obtained for the image of the first frame, their average value and variance value are set to 0, for example.

ステップS12:本体側CPU18のシーン判定部26は、ステップS11で画像特徴量演算部29が算出した複数の画像特徴量の平均値及び分散値と、あらかじめ読み込んだ統計パラメータのデータとを用いて、図4に示すような、ニューラルネットによる統計処理を行い、画像に撮像されているシーンが、ポートレート、風景、スナップ、スポーツ、舞台撮影又はその他等のいずれかを判定する。   Step S12: The scene determination unit 26 of the main body side CPU 18 uses the average and variance values of the plurality of image feature amounts calculated by the image feature amount calculation unit 29 in step S11, and the statistical parameter data read in advance, Statistical processing using a neural network as shown in FIG. 4 is performed, and it is determined whether the scene captured in the image is portrait, landscape, snap, sports, stage shooting, or the like.

ここで、図4は、ニューラルネット、特に階層型ニューラルネットによる統計処理の概念図を示す。この階層型ニューラルネットにおいて、ステップS11で算出した各画像特徴量の平均値及び分散値を入力して、後述する統計パラメータを用いた重み付け処理によって、各シーンの適応度を示す値(例えば、ポートレート適応度=0.8、風景適応度=0.2及び他の適応度が全て0というような値)が算出される。そして、シーン判定部26は、その適応度の値の大きさに応じて、その画像のシーンが何であるかを判定する。なお、本実施形態では、適応度を示す値は、その合計が1になるように規格化された値を用いる。   Here, FIG. 4 shows a conceptual diagram of statistical processing by a neural network, particularly a hierarchical neural network. In this hierarchical neural network, an average value and a variance value of each image feature amount calculated in step S11 are input, and a value (for example, a port) indicating the adaptability of each scene is obtained by weighting processing using statistical parameters described later. Rate fitness = 0.8, landscape fitness = 0.2, and other fitness values are all 0). Then, the scene determination unit 26 determines what the scene of the image is according to the value of the fitness value. In this embodiment, the value indicating the fitness is a value normalized so that the sum is 1.

次に、統計パラメータのデータについて簡単に説明する。統計パラメータは、上述したように、入力される各画像特徴量の平均値及び分散値と各シーンとを、ニューラルネットという統計処理を介して、重ね合わせ処理よって求められる適応度に基づいて関係付けるために必要となるパラメータである。その統計パラメータを求めるためには、まず、あらかじめ複数の任意の被写体を撮像した画像を用意し、画像特徴量演算部29と同様の処理に基づいて、各画像におけるR/G等の画像特徴量の平均値と分散値とを求める。これと同時に、あらかじめ各画像に撮像されている被写体のシーンが何であるかを決定する(例えば、ある画像のシーンがポートレートであるならば、ポートレート適応度を1として、他のシーンの適応度を0とする。これを教師値という)。そして、それら複数の画像の各々の各画像特徴量の平均値及び分散値と、あらかじめ決められた統計パラメータの初期値とを、図4に示す階層型ニューラルネットに代入して、各画像に対する各シーンの適応度を求める。各画像において求めた各シーン適応度と上記教師値とを比較することによって、各画像におけるシーンの適応度の値が教師値に近づくように統計パラメータを調整(これを学習過程という)し、最適な統計パラメータのデータを求める。求められた統計パラメータのデータが、記憶部22に記録される。   Next, statistical parameter data will be briefly described. As described above, the statistical parameter associates the average value and variance value of each input image feature amount with each scene based on the fitness obtained by the superimposition process through a statistical process called a neural network. This is a necessary parameter. In order to obtain the statistical parameters, first, an image obtained by imaging a plurality of arbitrary subjects is prepared in advance, and an image feature amount such as R / G in each image is based on the same processing as the image feature amount calculation unit 29. The average value and the variance value are obtained. At the same time, the scene of the subject captured in each image is determined in advance (for example, if the scene of a certain image is a portrait, the portrait adaptability is set to 1, and the adaptation of other scenes is determined. Degree is 0. This is called teacher value). Then, the average value and variance value of each image feature amount of each of the plurality of images and the initial value of the statistical parameter determined in advance are substituted into the hierarchical neural network shown in FIG. Find the fitness of the scene. By comparing each scene fitness obtained in each image with the above teacher value, the statistical parameter is adjusted so that the scene fitness value in each image approaches the teacher value (this is called the learning process) The data of various statistical parameters. The obtained statistical parameter data is recorded in the storage unit 22.

ステップS13:本体側CPU18の指向性制御部27は、ステップS12におけるシーン判定部26によるシーン判定が適正か否かを判定する。本実施形態では、指向性制御部27は、図4に示す各適応度の値のうち、一番大きい値が閾値0.5以上有り且つ2番目に大きな適応度の値との差が閾値0.2以上の場合、シーン判定部26によるシーン判定は適正であると判定し、ステップS14(YES側)へ移行する。一方、一番大きな適応度の値が閾値0.5より小さい又は2番目に大きな適応度の値との差が閾値0.2より小さい場合、シーン判定部26によるシーン判定は適正ではないとして「不定」と判定して、ステップS15(NO側)へ移行する。   Step S13: The directivity control unit 27 of the main body side CPU 18 determines whether or not the scene determination by the scene determination unit 26 in step S12 is appropriate. In this embodiment, the directivity control unit 27 has a threshold value of 0.5 or more as the largest value among the fitness values shown in FIG. .2 or more, it is determined that the scene determination by the scene determination unit 26 is appropriate, and the process proceeds to step S14 (YES side). On the other hand, if the largest fitness value is smaller than the threshold value 0.5 or the difference from the second largest fitness value is smaller than the threshold value 0.2, the scene determination by the scene determination unit 26 is not appropriate. It determines with "indefinite", and transfers to step S15 (NO side).

例えば、ステップS12において、フレームの画像に対するシーン判定部26の判定が、ポートレート適応度=0.8、風景適応度=0.1、スナップ適応度=0.1及びそれ以外の適応度が0の場合には、シーン判定部26は、被写体のシーンはポートレートであると判定し、指向性制御部27は、その判定が適正であると判定する。一方、ポートレート適応度=0.5、風景適応度=0.4、スナップ適応度=0.1及びそれ以外の適応度が0の場合には、シーン判定部26は、被写体のシーンはポートレートであると判定するが、指向性制御部27は、その判定は適正でないとして「不定」と判定する。   For example, in step S12, the scene determination unit 26 determines the portrait fitness = 0.8, the landscape fitness = 0.1, the snap fitness = 0.1, and the other fitness is 0 in step S12. In this case, the scene determination unit 26 determines that the scene of the subject is a portrait, and the directivity control unit 27 determines that the determination is appropriate. On the other hand, when the portrait adaptability = 0.5, the landscape adaptability = 0.4, the snap adaptability = 0.1, and the other adaptability is 0, the scene determination unit 26 determines that the subject scene is a port. Although the rate is determined to be a rate, the directivity control unit 27 determines that the determination is not appropriate and determines “undefined”.

ステップS14:指向性制御部27は、シーン判定部26によるシーン判定の結果と指向性データとに基づいて、マイクロフォン23a〜23bの各々における指向性を制御するための各A/D変換部24a〜24bの増幅率を決定する。   Step S14: The directivity control unit 27 controls each directivity in each of the microphones 23a to 23b based on the result of the scene determination by the scene determination unit 26 and the directivity data. The amplification factor of 24b is determined.

ここで、指向性データは、各シーンに応じたマイクロフォン23a〜23bを制御するためのA/D変換部24a〜24bの各々に対する増幅率が一覧表として記載されたものである。例えば、ポートレートのシーンの場合には、被写体が人物であることから、A/D変換部24a及びA/D変換部24bの増幅率をそれぞれ100対0として、指向性の狭いマイクロフォン23aのみを用いて、その人物だけの音声を録音する。また、風景のシーンの場合には、A/D変換部24a及びA/D変換部24bの増幅率をそれぞれ0対100として、指向性の広いマイクロフォン23bを用いて周囲音を録音する。また、スポーツや演劇撮像のシーンの場合には、例えば、増幅率をそれぞれ70対30として、指向性の狭いマイクロフォン23aで競技者や演技者からの音声を主に録音するとともに、指向性の広いマイクロフォン23bで観客の音声も録音する。最後に、その他の場合には、例えば、増幅率をそれぞれ50対50として、特定の音声とともに、周囲音も録音する。   Here, the directivity data is a list of amplification factors for each of the A / D conversion units 24a to 24b for controlling the microphones 23a to 23b corresponding to each scene. For example, in the case of a portrait scene, since the subject is a person, the amplification factor of the A / D conversion unit 24a and the A / D conversion unit 24b is set to 100 to 0, and only the microphone 23a having a narrow directivity is used. Use to record the voice of that person only. In the case of a landscape scene, the A / D conversion unit 24a and the A / D conversion unit 24b have an amplification factor of 0 to 100, respectively, and ambient sounds are recorded using the microphone 23b having a wide directivity. Further, in the case of a scene of sports or theater shooting, for example, the amplification factor is 70 to 30 respectively, and the voice from the player or the performer is mainly recorded by the microphone 23a having a narrow directivity, and the directivity is wide. The voice of the audience is also recorded with the microphone 23b. Finally, in other cases, for example, the amplification factor is 50 to 50, respectively, and ambient sounds are recorded along with specific sounds.

ステップS15:指向性制御部27は、ステップS13において、シーン判定部26によるシーン判定の結果を「不定」と判定した場合には、A/D変換部24a〜24bの各々の増幅率を0対100として、指向性の広いマイクロフォン23bのみによる音声の録音を行う。   Step S15: If the directivity control unit 27 determines that the result of the scene determination by the scene determination unit 26 is “indefinite” in step S13, the amplification factor of each of the A / D conversion units 24a to 24b is set to zero. As 100, sound is recorded only by the microphone 23b having a wide directivity.

ステップS16:指向性制御部27は、ステップS14又はステップS15で決定した増幅率を、各A/D変換部24a〜24bに設定し、マイクロフォン23a〜23bの指向性を制御して音声を録音する。   Step S16: The directivity control unit 27 sets the amplification factor determined in step S14 or step S15 in each of the A / D conversion units 24a to 24b, and controls the directivity of the microphones 23a to 23b to record the sound. .

ステップS17:本体側CPU18は、ステップS11で画像データ処理部28によって処理された画像と、ステップS16でマイクロフォン23a〜23bによって録音された音声データとを関連付けて、記憶部22に順次記録する。   Step S17: The main body side CPU 18 associates the image processed by the image data processing unit 28 in Step S11 with the audio data recorded by the microphones 23a to 23b in Step S16, and sequentially records them in the storage unit 22.

ステップS18:本体側CPU18は、ユーザが押していたレリーズ釦が元の位置に戻される、或いは、ユーザが再度レリーズ釦を押すことによって、動画撮像の終了指令の信号を受信したか否かを判定する。撮像終了指令の信号を受信したと判定した場合(YES側)には、本体側CPU18は、タイミングジェネレータ(不図示)を介して、シャッタ制御部21にシャッタ14を閉じるとともに、クイックリターンミラー11を、撮像レンズ2からの光束の光路上である元の位置に戻して、一連の動画撮像を終了する。一方、本体側CPU18が、動画撮像の終了指令が出されていないと判定した場合には、ステップS11へ移行して、次のフレームの画像を取得して、ステップS11〜ステップS17の処理をユーザによって終了指令が出されるまで行い、一連の動画撮像を終了する。   Step S18: The main body CPU 18 determines whether or not the release button that the user has pressed is returned to the original position, or the user has pressed the release button again to receive a moving image capturing end command signal. . If it is determined that an image capture end command signal has been received (YES side), the main body side CPU 18 closes the shutter 14 to the shutter control unit 21 via the timing generator (not shown), and opens the quick return mirror 11. Then, the image is returned to the original position on the optical path of the light beam from the imaging lens 2, and a series of moving image imaging is completed. On the other hand, if the main body CPU 18 determines that the moving image imaging end command has not been issued, the process proceeds to step S11 to acquire an image of the next frame, and the processing of steps S11 to S17 is performed by the user. Until a termination command is issued, and a series of moving image capturing is terminated.

このように本実施形態では、所定のフレームレートで撮像される動画の各フレームの画像毎に、撮影対象である被写体のシーンの種類や場面を判定し、その判定結果に応じてマイクロフォンの指向性を自動的に制御することで、シーンに応じて録音したい音声の方向が変化してしまう場合でも、最良な状態で音声を録音することができる。
≪第2の実施形態≫
本発明の第2の実施形態に係るデジタルカメラは、第1の実施形態に係るデジタルカメラ1と同じである。したがって、本実施形態におけるデジタルカメラとして、図1及び図2に示す第1の実施形態と同じデジタルカメラ1を用い、各構成要素についての詳細な説明は省略する。また、本実施形態に係るデジタルカメラ1の撮像手順についても、図3に示すステップS10〜ステップS18のフローチャートと同じである。
As described above, in this embodiment, for each frame image of a moving image captured at a predetermined frame rate, the scene type and scene of the subject to be captured are determined, and the microphone directivity is determined according to the determination result. By controlling automatically, even when the direction of the voice to be recorded changes according to the scene, the voice can be recorded in the best state.
<< Second Embodiment >>
The digital camera according to the second embodiment of the present invention is the same as the digital camera 1 according to the first embodiment. Therefore, the same digital camera 1 as in the first embodiment shown in FIGS. 1 and 2 is used as the digital camera in this embodiment, and detailed description of each component is omitted. Also, the imaging procedure of the digital camera 1 according to the present embodiment is the same as the flowchart of steps S10 to S18 shown in FIG.

しかしながら、本実施形態におけるデジタルカメラ1が、第1の実施形態のデジタルカメラと異なる点は、ステップS12における、階層型ニューラルネットによる統計処理において入力される画像特徴量のパラメータの数が増加する点にある。即ち、図5に示すように、入力される画像特徴量として、画像特徴量演算部29が画像から求めるR/G、B/G、輝度、動きベクトルX及び動きベクトルYの画像特徴量各々の平均値及び分散値の統計的な特徴量だけでなく、焦点検出部4による焦点距離、距離検出部5による撮影距離、焦点検出部19による複数の測定点における位相差方式によって検出された撮像レンズ2の焦点状態であるデフォーカス量(焦点検出値)の分散値、及び撮像された画像において顔検出された顔サイズのパラメータを、新たに追加して行われる。   However, the digital camera 1 in the present embodiment is different from the digital camera in the first embodiment in that the number of image feature amount parameters input in the statistical processing by the hierarchical neural network in step S12 increases. It is in. That is, as shown in FIG. 5, each of the image feature values of R / G, B / G, luminance, motion vector X, and motion vector Y obtained from the image by the image feature value calculation unit 29 is input as the image feature value. In addition to the statistical feature values of the average value and the variance value, the imaging lens detected by the phase difference method at a plurality of measurement points by the focal length by the focus detector 4, the shooting distance by the distance detector 5, and the focus detector 19 This is performed by newly adding a dispersion value of the defocus amount (focus detection value) that is the focus state of 2 and a face size parameter in which the face is detected in the captured image.

なお、これら画像特徴量の追加に伴って、記憶部22にあらかじめ記憶される統計パラメータのデータは、第1の実施形態における画像特徴量とともに、本実施形態で追加された焦点距離、撮影距離、焦点検出値の分散及び顔サイズを用いて行った、学習過程に基づいて算出されたものを使用する。また、焦点検出値として、位相差方式によって検出される値を用いたが、山登り方式によって検出される値を用いても良い。さらに、画像における顔検出の方法は、任意の公知の手法を使用して行うことができる。   With the addition of these image feature amounts, the statistical parameter data stored in advance in the storage unit 22 includes the image feature amount in the first embodiment, the focal length, the shooting distance, What is calculated based on the learning process, which is performed using the variance of the focus detection values and the face size, is used. Further, although the value detected by the phase difference method is used as the focus detection value, a value detected by the hill-climbing method may be used. Furthermore, the method for detecting a face in an image can be performed using any known method.

このように本実施形態では、所定のフレームレートで撮像される動画の各フレームの画像毎に、撮影対象である被写体のシーンの種類や場面を判定し、その判定結果に応じてマイクロフォンの指向性を自動的に制御することで、シーンに応じて録音したい音声の方向が変化してしまう場合でも、最良な状態で音声を録音することができる。   As described above, in this embodiment, for each frame image of a moving image captured at a predetermined frame rate, the scene type and scene of the subject to be captured are determined, and the microphone directivity is determined according to the determination result. By controlling automatically, even when the direction of the voice to be recorded changes according to the scene, the voice can be recorded in the best state.

また、階層型ニューラルネットにおいて入力される特徴量が増えることにより、シーン判定部26によるシーン判定をより正確に行うことができる。
≪第3の実施形態≫
本発明の第3の実施形態に係るデジタルカメラ50は、図6及び図7に示すように、第1又は第2の実施形態に係るデジタルカメラ1の構成と基本的には同じである。したがって、本実施形態におけるデジタルカメラ50の構成を示す図6及び図7において、第1又は第2の実施形態に係るデジタルカメラ1と同じ構成要素については詳細な説明を省略する。また、本実施形態に係るデジタルカメラ50の撮像手順についても、図3に示すステップS10〜ステップS18のフローチャートと同じであり、詳細な説明は省略する。
Moreover, the scene determination by the scene determination unit 26 can be performed more accurately by increasing the feature amount input in the hierarchical neural network.
<< Third Embodiment >>
A digital camera 50 according to the third embodiment of the present invention is basically the same as the configuration of the digital camera 1 according to the first or second embodiment, as shown in FIGS. Therefore, in FIGS. 6 and 7 showing the configuration of the digital camera 50 in this embodiment, detailed description of the same components as those of the digital camera 1 according to the first or second embodiment is omitted. The imaging procedure of the digital camera 50 according to the present embodiment is also the same as the flowchart of steps S10 to S18 shown in FIG.

ただし、本実施形態に係るデジタルカメラ50と第1の実施形態に係るデジタルカメラ1と異なる点は、図6及び図7に示すように、マイクロフォン23cが1つのみである。マイクロフォン23cには、不図示であるが、マイクロフォン23cが受信する音声の帯域を複数のバンドパスフィルタによって複数の帯域に分割して、その分割された各帯域のゲインを、指向性制御部27からの指示に基づいて調節することによって、マイクロフォン23cの指向性を変更する指向性変更回路が設けられている。したがって、本実施形態では、統計パラメータのデータとともに、各シーンに応じたA/D変換部24cの増幅率と指向性変更回路(不図示)によるマイクロフォン23cの各帯域に対応したバンドパスフィルタ毎のゲインとを一覧にした指向性データが、記憶部22にあらかじめ記録されているものとする。   However, the difference between the digital camera 50 according to the present embodiment and the digital camera 1 according to the first embodiment is that there is only one microphone 23c, as shown in FIGS. Although not shown, the microphone 23c divides the audio band received by the microphone 23c into a plurality of bands by a plurality of band pass filters, and the gain of each divided band is obtained from the directivity control unit 27. A directivity changing circuit that changes the directivity of the microphone 23c by adjusting based on the instruction is provided. Therefore, in this embodiment, together with the statistical parameter data, the amplification factor of the A / D converter 24c corresponding to each scene and the bandpass filter corresponding to each band of the microphone 23c by the directivity changing circuit (not shown). It is assumed that directivity data listing gains is recorded in the storage unit 22 in advance.

即ち、ステップS13において、シーン判定部26によるシーン判定が「不定」でないと判定された場合、ステップS14(NO側)において、指向性制御部27は、シーン判定部26によるシーン判定結果と記憶部22に記憶されている指向性データとに基づいて、A/D変換部24cの増幅率及び指向性変更回路(不図示)によるマイクロフォン23cの各帯域に対応するバンドパスフィルタ毎のゲインを設定して、マイクロフォン23cの指向性を制御する。一方、「不定」と判定された場合、ステップS15(YES側)において、指向性制御部27は、A/D変換部24cの増幅率とともに、指向性変更回路(不図示)にマイクロフォン23cの全ての帯域を用いるように各バンドパスフィルタのゲインを設定し、最も広い指向性となるように制御する。   That is, when it is determined in step S13 that the scene determination by the scene determination unit 26 is not “indefinite”, in step S14 (NO side), the directivity control unit 27 stores the scene determination result by the scene determination unit 26 and the storage unit. Based on the directivity data stored in 22, the gain of each bandpass filter corresponding to each band of the microphone 23 c by the amplification factor of the A / D converter 24 c and the directivity changing circuit (not shown) is set. Then, the directivity of the microphone 23c is controlled. On the other hand, if it is determined as “indefinite”, in step S15 (YES side), the directivity control unit 27 sends all the microphones 23c to the directivity changing circuit (not shown) together with the amplification factor of the A / D conversion unit 24c. The gain of each band-pass filter is set so as to use this band, and control is performed so as to obtain the widest directivity.

このように本実施形態では、所定のフレームレートで撮像される動画のフレーム画像毎に、撮影対象である被写体のシーンの種類や場面を判定し、その判定結果に応じてマイクロフォンの指向性を自動的に制御することで、シーンに応じて録音したい音声の方向が変化してしまう場合でも、最良な状態で音声を録音することができる。   As described above, in this embodiment, for each frame image of a moving image captured at a predetermined frame rate, the type and scene of the subject to be photographed are determined, and the directivity of the microphone is automatically set according to the determination result. By controlling automatically, even when the direction of the voice to be recorded changes according to the scene, the voice can be recorded in the best state.

また、マイクロフォン23cが1つで済むことから、デジタルカメラ50の回路規模を小さくすることが可能となる。
≪第4の実施形態≫
本発明の第4の実施形態に係るデジタルカメラは、第1の実施形態に係るデジタルカメラ1と基本的に同じである。ただし、図8(b)に示すように、本実施形態におけるデジタルカメラ1における機能ブロックの構成が、図2(b)に示す第1の実施形態係るデジタルカメラ1の機能ブロックの構成と異なる。即ち、本実施形態に係るデジタルカメラ1では、ユーザが操作部材30のモード設定釦を用いて、ポートレートや風景等の撮像モードを選択設定することによって、指向性制御部27が、その設定された撮像モードに対応するシーンに応じた各A/D変換部24a〜24bの増幅率を指向性に基づいて決定し、マイクロフォン23a〜23bの指向性を制御する。これが、第1の実施形態のデジタルカメラと異なる点である。なお、本実施形態と第1の実施形態とのデジタルカメラ1において、同じ構成要素については、同じ符号を付し詳細な説明は省略する。
In addition, since only one microphone 23c is required, the circuit scale of the digital camera 50 can be reduced.
<< Fourth Embodiment >>
A digital camera according to the fourth embodiment of the present invention is basically the same as the digital camera 1 according to the first embodiment. However, as shown in FIG. 8B, the configuration of functional blocks in the digital camera 1 in the present embodiment is different from the configuration of functional blocks in the digital camera 1 according to the first embodiment shown in FIG. That is, in the digital camera 1 according to the present embodiment, the directivity control unit 27 is set by the user selecting and setting an imaging mode such as portrait or landscape using the mode setting button of the operation member 30. The amplification factors of the A / D converters 24a to 24b corresponding to the scene corresponding to the imaging mode are determined based on the directivity, and the directivity of the microphones 23a to 23b is controlled. This is a difference from the digital camera of the first embodiment. In the digital camera 1 of the present embodiment and the first embodiment, the same constituent elements are denoted by the same reference numerals and detailed description thereof is omitted.

次に、本実施形態に係るデジタルカメラ1の撮像手順について、図9のフローチャートを参照しながら説明する。なお、以下の説明では、ユーザがデジタルカメラ1を用いて、動画を撮像するものとして説明する。即ち、ユーザによって、あらかじめ操作部材30のモード設定釦によって、動画モードが選択設定されているものとする。   Next, the imaging procedure of the digital camera 1 according to the present embodiment will be described with reference to the flowchart of FIG. In the following description, it is assumed that the user uses the digital camera 1 to capture a moving image. That is, it is assumed that the moving image mode is selected and set in advance by the user using the mode setting button of the operation member 30.

ユーザにより操作部材30の電源釦が押されると、レンズ側CPU7及び本体側CPU18は、それぞれの不図示のメモリに記憶されている制御プログラムを読み込み、デジタルカメラ1のカメラ本体1a及び交換レンズ部1bをそれぞれ初期化する。本体側CPU18は、レンズ側CPU7を介して、焦点検出部4、距離検出部5及び絞り制御部6から焦点距離、撮像距離及び絞り値をそれぞれ取得するとともに、測光センサ10及び焦点検出部19から撮像レンズ2の焦点状態を取得する。同時に、本体側CPU18は、ユーザによる操作部材30のモード選択釦によって設定される撮像モードに応じて、マイクロフォン23a〜23bによる音声録音の指向性を制御するプログラムとともに、各シーンに応じた各A/D変換部24a〜24bの増幅率である指向性データを、記憶部22から読み込む。なお、本実施形態において、指向性データは、記憶部22にあらかじめ記録されているものとする。また、本実施形態における指向性データは、第1の実施形態及び第2の実施形態の指向性データと同じものである。そして、ステップS20からの処理が行われる。   When the power button of the operation member 30 is pressed by the user, the lens side CPU 7 and the main body side CPU 18 read the control programs stored in the respective memory (not shown), and the camera main body 1a and the interchangeable lens portion 1b of the digital camera 1 are read. Is initialized respectively. The main body side CPU 18 acquires the focal length, the imaging distance, and the aperture value from the focus detection unit 4, the distance detection unit 5, and the aperture control unit 6 via the lens side CPU 7, and from the photometric sensor 10 and the focus detection unit 19. The focus state of the imaging lens 2 is acquired. At the same time, the main body side CPU 18 controls each A / A corresponding to each scene together with a program for controlling the directivity of voice recording by the microphones 23a to 23b according to the imaging mode set by the mode selection button of the operation member 30 by the user. Directivity data that is the amplification factors of the D conversion units 24 a to 24 b is read from the storage unit 22. In the present embodiment, it is assumed that the directivity data is recorded in advance in the storage unit 22. In addition, the directivity data in the present embodiment is the same as the directivity data in the first embodiment and the second embodiment. And the process from step S20 is performed.

ステップS20:ユーザは、操作部材30のモード選択釦を用いて、撮像モードを選択設定する。   Step S20: The user uses the mode selection button of the operation member 30 to select and set the imaging mode.

ステップS21:本体側CPU18は、ユーザによって設定された撮像モードを識別し、本体側CPU18の指向性制御部27は、識別された撮像モードに対応するシーンに応じた各A/D変換部24a〜24bの増幅率を、指向性データに基づいて決定する。   Step S21: The main body side CPU 18 identifies the imaging mode set by the user, and the directivity control unit 27 of the main body side CPU 18 determines the A / D conversion units 24a to 24a according to the scene corresponding to the identified imaging mode. The amplification factor of 24b is determined based on the directivity data.

ステップS22:指向性制御部27は、ステップS21で決定した増幅率を、各A/D変換部24a〜24bの増幅回路に設定し、マイクロフォン23a〜23bの指向性を制御する。   Step S22: The directivity control unit 27 sets the amplification factor determined in step S21 in the amplification circuits of the A / D conversion units 24a to 24b, and controls the directivity of the microphones 23a to 23b.

ステップS23:本体側CPU18は、ユーザによって操作部材30のレリーズ釦が押されて撮像開始指示の信号を受信すると、タイミングジェネレータ(不図示)を介して、クイックリターンミラー11を、撮像レンズ2を通過してくる被写体からの光束の光路上から退避させて、シャッタ制御部21にシャッタ14を開放させるとともに、所定のフレームレート(例えば、30fps)で、撮像素子16に被写体を間引き読み出しによる動画撮像を開始させる。   Step S23: When the user presses the release button of the operation member 30 and receives an imaging start instruction signal, the main body side CPU 18 passes the quick return mirror 11 through the imaging lens 2 via a timing generator (not shown). The shutter control unit 21 opens the shutter 14 by retracting from the optical path of the luminous flux from the incoming subject, and at the predetermined frame rate (for example, 30 fps), the imaging device 16 performs moving image imaging by thinning and reading out the subject. Let it begin.

ステップS24:本体側CPU18は、上記フレームレートで取得された各フレームの画像を、撮像素子16に順次出力させて、A/D変換部(不図示)にアナログからデジタルの信号に変換させ、画像処理部20に転送する。画像処理部20は、転送されてきた画像を、画像データ処理部28に入力して、その画像に対して、補間処理やホワイトバランス処理等の画像処理を施す。   Step S24: The main body side CPU 18 sequentially outputs the image of each frame acquired at the above frame rate to the image sensor 16 and causes the A / D conversion unit (not shown) to convert the signal from analog to digital. Transfer to the processing unit 20. The image processing unit 20 inputs the transferred image to the image data processing unit 28, and performs image processing such as interpolation processing and white balance processing on the image.

ステップS25:本体側CPU18は、ステップS24で画像データ処理部28によって処理された画像と、ステップS22で指向性が制御されたマイクロフォン23a〜23bによって録音された音声データとを関連付けて、記憶部22に順次記録する。   Step S25: The main body side CPU 18 associates the image processed by the image data processing unit 28 in Step S24 with the audio data recorded by the microphones 23a to 23b whose directivities are controlled in Step S22, and stores the storage unit 22. Record sequentially.

ステップS26:本体側CPU18は、ユーザが押していたレリーズ釦が元の位置に戻される、或いは、ユーザが再度レリーズ釦を押すことによって、動画撮像の終了指令の信号を受信したか否かを判定する。撮像終了指令の信号を受信したと判定した場合(YES側)には、本体側CPU18は、タイミングジェネレータ(不図示)を介して、シャッタ制御部21にシャッタ14を閉じるとともに、クイックリターンミラー11を、撮像レンズ2からの光束の光路上である元の位置に戻して、一連の動画撮像を終了する。一方、本体側CPU18が、動画撮像の終了指令が出されていないと判定した場合には、ステップS24へ移行して、次のフレームの画像を取得して、ステップS24〜ステップS25の処理をユーザによって終了指令が出されるまで行い、一連の動画撮像を終了する。   Step S26: The main body CPU 18 determines whether or not the release button that the user has pressed is returned to the original position, or the user has pressed the release button again to receive a moving image capturing end command signal. . If it is determined that an image capture end command signal has been received (YES side), the main body side CPU 18 closes the shutter 14 to the shutter control unit 21 via the timing generator (not shown), and opens the quick return mirror 11. Then, the image is returned to the original position on the optical path of the light beam from the imaging lens 2, and a series of moving image imaging is completed. On the other hand, if the main body CPU 18 determines that the moving image imaging end command has not been issued, the process proceeds to step S24, an image of the next frame is acquired, and the processes in steps S24 to S25 are performed by the user. Until a termination command is issued, and a series of moving image capturing is terminated.

このように本実施形態では、あらかじめユーザによって操作部材30のモード選択釦で設定される撮像モードに対応する被写体のシーンに応じて、マイクロフォンの指向性を制御することにより、最良な状態で音声を録音することができる。   As described above, in the present embodiment, by controlling the directivity of the microphone in accordance with the scene of the subject corresponding to the imaging mode set by the user in advance with the mode selection button of the operation member 30, the sound can be heard in the best state. You can record.

また、操作部材30のモード選択釦による撮像モードによって、マイクロフォン23a〜23bの指向性の制御が行われることから、デジタルカメラ1の回路規模を小さくすることができる。
≪第5の実施形態≫
本発明の第5の実施形態に係るデジタルカメラは、基本的に、図1及び図2の第1の実施形態に係るデジタルカメラと、図8に示す第4の実施形態のデジタルカメラとを組み合わせたものであり、図10に示すような機能ブロックとなる。
In addition, since the directivity of the microphones 23a to 23b is controlled by the imaging mode using the mode selection button of the operation member 30, the circuit scale of the digital camera 1 can be reduced.
<< Fifth Embodiment >>
A digital camera according to the fifth embodiment of the present invention is basically a combination of the digital camera according to the first embodiment shown in FIGS. 1 and 2 and the digital camera according to the fourth embodiment shown in FIG. This is a functional block as shown in FIG.

したがって、本実施形態に係るデジタルカメラ1は、最初に、ユーザが操作部材30のモード設定釦を用いて、ポートレートや風景等の撮像モードを選択設定することによって、その設定された撮像モードに対応するシーンに応じた各A/D変換部24a〜24bの増幅率が設定され、マイクロフォン23a〜23bの指向性が制御される。その後、デジタルカメラ1は、撮像される動画の各フレームの画像毎にシーン判定を行うことによって、その判定結果に応じて、A/D変換部24a〜24bの増幅率を適宜変更して、マイクロフォン23a〜23bの指向性を制御される。この点が、第1の実施形態及び第4の実施形態のデジタルカメラ1と異なる点である。なお、本実施形態と第1の実施形態とのデジタルカメラ1において、同じ構成要素については、同じ符号を付して詳細な説明は省略する。   Therefore, in the digital camera 1 according to the present embodiment, first, the user selects and sets an imaging mode such as portrait or landscape using the mode setting button of the operation member 30, so that the set imaging mode is obtained. The amplification factors of the A / D converters 24a to 24b corresponding to the corresponding scenes are set, and the directivity of the microphones 23a to 23b is controlled. Thereafter, the digital camera 1 performs scene determination for each image of each frame of the moving image to be captured, appropriately changes the amplification factors of the A / D conversion units 24a to 24b according to the determination result, and The directivity of 23a-23b is controlled. This point is different from the digital camera 1 of the first embodiment and the fourth embodiment. Note that in the digital camera 1 of the present embodiment and the first embodiment, the same components are denoted by the same reference numerals and detailed description thereof is omitted.

次に、本実施形態に係るデジタルカメラ1の撮像手順について、図11のフローチャートを参照しながら説明する。なお、以下の説明では、ユーザがデジタルカメラ1を用いて、動画を撮像するものとして説明する。即ち、ユーザによって、あらかじめ操作部材30のモード設定釦によって、動画モードが選択設定されているものとする。   Next, the imaging procedure of the digital camera 1 according to the present embodiment will be described with reference to the flowchart of FIG. In the following description, it is assumed that the user uses the digital camera 1 to capture a moving image. That is, it is assumed that the moving image mode is selected and set in advance by the user using the mode setting button of the operation member 30.

ユーザにより操作部材30の電源釦が押されると、レンズ側CPU7及び本体側CPU18は、それぞれの不図示のメモリに記憶されている制御プログラムを読み込み、デジタルカメラ1のカメラ本体1a及び交換レンズ部1bをそれぞれ初期化する。本体側CPU18は、レンズ側CPU7を介して、焦点検出部4、距離検出部5及び絞り制御部6から焦点距離、撮像距離及び絞り値をそれぞれ取得するとともに、測光センサ10及び焦点検出部19から撮像レンズ2の焦点状態を取得する。同時に、本体側CPU18は、ユーザによる操作部材30のモード選択釦によって設定される撮像モード、又はシーン判定部26によるシーン判定に応じて、マイクロフォン23a〜23bによる音声録音の指向性を制御するプログラム、シーン判定部26が撮像した画像に基づいてシーン判定するために用いる、ニューラルネットによる統計処理で必要な統計パラメータのデータ、及び各シーンに応じた各A/D変換部24a〜24bの増幅率である指向性データを、それぞれ記憶部22から読み込む。なお、本実施形態では、統計パラメータのデータ及び指向性データは、記憶部22にあらかじめ記録されているものとする。また、本実施形態における指向性データは、第1の実施形態、第2の実施形態及び第4の実施形態の指向性データと同じものである。そして、ステップS30からの処理が行われる。   When the power button of the operation member 30 is pressed by the user, the lens side CPU 7 and the main body side CPU 18 read the control programs stored in the respective memory (not shown), and the camera main body 1a and the interchangeable lens portion 1b of the digital camera 1 are read. Is initialized respectively. The main body side CPU 18 acquires the focal length, the imaging distance, and the aperture value from the focus detection unit 4, the distance detection unit 5, and the aperture control unit 6 via the lens side CPU 7, and from the photometric sensor 10 and the focus detection unit 19. The focus state of the imaging lens 2 is acquired. At the same time, the main body side CPU 18 controls a sound recording directivity by the microphones 23a to 23b according to an imaging mode set by a mode selection button of the operation member 30 by the user or a scene determination by the scene determination unit 26, The statistical parameter data necessary for the statistical processing by the neural network and the amplification factor of each A / D conversion unit 24a to 24b used to determine the scene based on the image captured by the scene determination unit 26 and each scene. Certain directivity data is read from the storage unit 22. In the present embodiment, it is assumed that statistical parameter data and directivity data are recorded in the storage unit 22 in advance. The directivity data in the present embodiment is the same as the directivity data in the first embodiment, the second embodiment, and the fourth embodiment. And the process from step S30 is performed.

ステップS30:ユーザは、操作部材30のモード選択釦を用いて、撮像モードを選択設定する。   Step S30: The user selects and sets the imaging mode using the mode selection button of the operation member 30.

ステップS31:本体側CPU18は、ユーザによって設定された撮像モードを識別し、本体側CPU18の指向性制御部27は、識別された撮像モードに対応するシーンに応じた各A/D変換部24a〜24bの増幅率を、指向性データに基づいて決定する。   Step S31: The main body side CPU 18 identifies the imaging mode set by the user, and the directivity control unit 27 of the main body side CPU 18 determines each A / D conversion unit 24a to 24 according to the scene corresponding to the identified imaging mode. The amplification factor of 24b is determined based on the directivity data.

ステップS32:指向性制御部27は、ステップS31で決定した増幅率を、各A/D変換部24a〜24bの増幅回路に設定し、マイクロフォン23a〜23bの指向性を制御する。   Step S32: The directivity control unit 27 sets the amplification factor determined in step S31 in the amplification circuits of the A / D conversion units 24a to 24b, and controls the directivity of the microphones 23a to 23b.

ステップS33:本体側CPU18は、ユーザによって操作部材30のレリーズ釦が押されて撮像開始指示の信号を受信すると、タイミングジェネレータ(不図示)を介して、クイックリターンミラー11を、撮像レンズ2を通過してくる被写体からの光束の光路上から退避させて、シャッタ制御部21にシャッタ14を開放させるとともに、所定のフレームレート(例えば、30fps)で、撮像素子16に被写体を間引き読み出しによる動画撮像を開始させる。   Step S33: When the user presses the release button of the operation member 30 and receives an imaging start instruction signal, the main body side CPU 18 passes the imaging lens 2 through the quick return mirror 11 via a timing generator (not shown). The shutter control unit 21 opens the shutter 14 by retracting from the optical path of the luminous flux from the incoming subject, and at the predetermined frame rate (for example, 30 fps), the imaging device 16 performs moving image imaging by thinning and reading out the subject. Let it begin.

ステップS34:本体側CPU18は、上記フレームレートで取得された各フレームの画像を、撮像素子16に順次出力させて、A/D変換部(不図示)にアナログからデジタルの信号に変換させ、画像処理部20に転送する。画像処理部20は、転送されてきた画像を、画像データ処理部28及び画像特徴量演算部29に入力する。画像データ処理部28は、その画像に対して、補間処理やホワイトバランス処理等の画像処理を施す。一方、画像特徴量演算部29は、画像を、例えば、50×50の領域に分割して、各領域においてR/G、B/G、輝度、動きベクトルX及び動きベクトルYの画像特徴量を算出し、各領域で求めたそれらの画像特徴量から、その画像における各画像特徴量の平均値と分散値とを算出する。画像特徴量演算部29は、それら画像特徴量の平均値と分散値とを、本体側CPU18のシーン判定部26へ転送する。   Step S34: The main body side CPU 18 sequentially outputs the image of each frame acquired at the above frame rate to the image sensor 16 and causes the A / D conversion unit (not shown) to convert the signal from analog to digital. Transfer to the processing unit 20. The image processing unit 20 inputs the transferred image to the image data processing unit 28 and the image feature amount calculation unit 29. The image data processing unit 28 performs image processing such as interpolation processing and white balance processing on the image. On the other hand, the image feature amount calculation unit 29 divides the image into, for example, 50 × 50 regions, and calculates image feature amounts of R / G, B / G, luminance, motion vector X, and motion vector Y in each region. The average value and the variance value of each image feature amount in the image are calculated from those image feature amounts calculated and obtained in each region. The image feature amount calculation unit 29 transfers the average value and the variance value of the image feature amounts to the scene determination unit 26 of the main body side CPU 18.

ステップS35:本体側CPU18のシーン判定部26は、ステップS34で画像特徴量演算部29が算出した複数の画像特徴量の平均値及び分散値と、あらかじめ読み込んだ統計パラメータのデータとを用いて、図4に示すような、ニューラルネットによる統計処理を行い、画像に撮像されているシーンが、ポートレート、風景、スナップ、スポーツ、舞台撮影又はその他等のいずれかを判定する。   Step S35: The scene determination unit 26 of the main body CPU 18 uses the average value and variance value of the plurality of image feature amounts calculated by the image feature amount calculation unit 29 in step S34, and the statistical parameter data read in advance, Statistical processing using a neural network as shown in FIG. 4 is performed, and it is determined whether the scene captured in the image is portrait, landscape, snap, sports, stage shooting, or the like.

ステップS36:本体側CPU18の指向性制御部27は、ステップS35におけるシーン判定部26によるシーン判定が適正か否かを判定する。本実施形態では、指向性制御部27は、図4に示す各適応度の値のうち、一番大きな適応度の値が閾値0.5以上有り且つ2番目に大きな適応度の値の3倍以上の値である場合、シーン判定部26によるシーン推定は適正であると判定し、ステップS37(YES側)へ移行する。一方、一番大きな適応度の値が閾値0.5より小さい又は2番目に大きな適応度の値の3倍より小さい値である場合、指向性制御部27は、シーン判定部26によるシーン判定が適正ではないとして「不定」と判定して、ステップS38(NO側)へ移行する。   Step S36: The directivity control unit 27 of the main body side CPU 18 determines whether or not the scene determination by the scene determination unit 26 in step S35 is appropriate. In the present embodiment, the directivity control unit 27 has the highest fitness value of the threshold value 0.5 or more among the fitness values shown in FIG. 4 and is three times the second largest fitness value. If it is the above value, it is determined that the scene estimation by the scene determination unit 26 is appropriate, and the process proceeds to step S37 (YES side). On the other hand, when the largest fitness value is smaller than the threshold value 0.5 or smaller than three times the second largest fitness value, the directivity control unit 27 performs scene determination by the scene determination unit 26. Since it is not appropriate, it is determined as “undefined”, and the process proceeds to step S38 (NO side).

ステップS37:指向性制御部27は、シーン判定部26によるシーン判定の結果と指向性データに基づいて、マイクロフォン23a〜23bの各々における指向性を制御するためのA/D変換部24a〜24bの増幅率を決定する。   Step S37: The directivity control unit 27 controls the directivity of each of the microphones 23a to 23b based on the result of the scene determination by the scene determination unit 26 and the directivity data. Determine the amplification factor.

ステップS38:指向性制御部27は、ステップS35において、シーン判定部26によるシーン判定の結果を「不定」と判定した場合には、ステップS32で設定された撮像モードに応じた増幅率を用いる決定を行う。   Step S38: When the directivity control unit 27 determines that the result of the scene determination by the scene determination unit 26 is “indefinite” in step S35, the directivity control unit 27 determines to use the amplification factor according to the imaging mode set in step S32. I do.

ステップS39:指向性制御部27は、ステップS37又はステップS38で決定した増幅率を、各A/D変換部24a〜24bに設定して、マイクロフォン23a〜23bの指向性を制御して音声を録音する。   Step S39: The directivity control unit 27 sets the amplification factor determined in step S37 or step S38 in each of the A / D conversion units 24a to 24b, and controls the directivity of the microphones 23a to 23b to record the sound. To do.

ステップS40:本体側CPU18は、ステップS34で画像データ処理部28によって処理された画像と、ステップS39でマイクロフォン23a〜23bによって録音された音声データとを関連付けて、記憶部22に順次記録する。   Step S40: The main body side CPU 18 associates the image processed by the image data processing unit 28 in step S34 with the audio data recorded by the microphones 23a to 23b in step S39, and sequentially records them in the storage unit 22.

ステップS41:本体側CPU18は、ユーザが押していたレリーズ釦が元の位置に戻される、或いは、ユーザが再度レリーズ釦を押すことによって、動画撮像の終了指令の信号を受信したか否かを判定する。撮像終了指令の信号を受信したと判定した場合(YES側)には、本体側CPU18は、タイミングジェネレータ(不図示)を介して、シャッタ制御部21にシャッタ14を閉じるとともに、クイックリターンミラー11を、撮像レンズ2からの光束の光路上である元の位置に戻して、一連の動画撮像を終了する。一方、本体側CPU18が、動画撮像の終了指令が出されていないと判定した場合には、ステップS11へ移行して、次のフレームの画像を取得して、ステップS34〜ステップS40の処理をユーザによって終了指令が出されるまで行い、一連の動画撮像を終了する。   Step S41: The main body CPU 18 determines whether or not the release button that the user has pressed is returned to the original position, or the user has pressed the release button again to receive a moving image imaging end command signal. . If it is determined that an image capture end command signal has been received (YES side), the main body side CPU 18 closes the shutter 14 to the shutter control unit 21 via the timing generator (not shown), and opens the quick return mirror 11. Then, the image is returned to the original position on the optical path of the light beam from the imaging lens 2, and a series of moving image imaging is completed. On the other hand, if the main body CPU 18 determines that the moving image capturing end command has not been issued, the process proceeds to step S11 to acquire an image of the next frame, and the processing of steps S34 to S40 is performed by the user. Until a termination command is issued, and a series of moving image capturing is terminated.

このように本実施形態では、あらかじめユーザによって操作部材30のモード選択釦で設定される撮像モードによって決まるマイクロフォンの指向性、又は撮像される動画の各フレームの画像毎に、撮影対象である被写体のシーンの種類や場面の判定結果に応じて決まるマイクロフォンの指向性を選択しながら制御することによって、シーンに応じて録音したい音声の方向が変化してしまう場合でも、最良な状態で音声を録音することができる。
≪実施形態の補足事項≫
第1の実施形態、第2の実施形態、第4の実施形態及び第5の実施形態において、マイクロフォン23a〜23bの位置は、図2(a)、図8(a)及び図10(a)に示すように、被写体側から見た場合、カメラ本体1aの右上に2つ水平に並んで配置されたが、本発明はこれに限定されない。任意の位置にマイクロフォンを配置しても良い。
As described above, in the present embodiment, the directivity of the microphone determined by the imaging mode set in advance by the mode selection button of the operation member 30 by the user, or the subject to be imaged for each frame image of the captured video. By selecting and controlling the directivity of the microphone that is determined according to the type of scene and the scene judgment result, even if the direction of the sound to be recorded changes according to the scene, the sound is recorded in the best condition. be able to.
≪Supplementary items for the embodiment≫
In the first embodiment, the second embodiment, the fourth embodiment, and the fifth embodiment, the positions of the microphones 23a to 23b are as shown in FIGS. 2 (a), 8 (a), and 10 (a). As shown in FIG. 2, when viewed from the subject side, two are arranged horizontally in the upper right of the camera body 1a, but the present invention is not limited to this. A microphone may be arranged at an arbitrary position.

なお、第1の実施形態、第2の実施形態、第4の実施形態及び第5の実施形態において、音声の録音は2つの指向性の異なるマイクロフォン23a〜23bで行ったが、本発明はこれに限定されず、3つ以上の指向性の異なるマイクロフォンを用いて行っても良い。   In the first embodiment, the second embodiment, the fourth embodiment, and the fifth embodiment, sound recording was performed with two microphones 23a to 23b having different directivities. However, the present invention may be performed using three or more microphones having different directivities.

なお、第1の実施形態、第2の実施形態、第4の実施形態及び第5の実施形態において、指向性データは、各シーンに応じたA/D変換部24a〜24bの各々に対する増幅率の一覧として、例えば、ポートレートのシーンの場合には、被写体が人物であることから、A/D変換部24a及びA/D変換部24bの増幅率をそれぞれ100対0等とするとしたが、本発明はこれに限定されず、各シーンに応じて、マイクロフォン23a〜23bの指向性を制御するための各A/D変換部24a〜24bの増幅率の組み合わせは、シーンに応じて適宜決めることが好ましい。   In the first embodiment, the second embodiment, the fourth embodiment, and the fifth embodiment, the directivity data is an amplification factor for each of the A / D conversion units 24a to 24b according to each scene. For example, in the case of a portrait scene, since the subject is a person, the amplification factors of the A / D conversion unit 24a and the A / D conversion unit 24b are set to 100 to 0, respectively. The present invention is not limited to this, and a combination of amplification factors of the A / D converters 24a to 24b for controlling the directivity of the microphones 23a to 23b is appropriately determined according to the scene. Is preferred.

なお、第1の実施形態、第2の実施形態及び第5の実施形態において、動画を撮像する場合について説明したが、本発明はこれに限定されず、静止画像の撮像の場合にも適用可能である。ただし、その場合には、静止画像を撮像する前に、マイクロフォン23a〜23bの指向性を制御するために、シーン判定部26によるシーン判定に応じたA/D変換部24a〜24bの増幅率をあらかじめ決めておくことが好ましい。即ち、例えば、測光センサ10によって撮像されるスルー画に基づいて、シーン判定部26がシーン判定を行い、その判定結果と記憶部22に記憶されている指向性データとに基づいて、指向性制御部27が、静止画像の撮像前に、A/D変換部24a〜24bの増幅率を決定する。   In the first embodiment, the second embodiment, and the fifth embodiment, the case of capturing a moving image has been described. However, the present invention is not limited to this, and can also be applied to the case of capturing a still image. It is. However, in that case, in order to control the directivity of the microphones 23a to 23b before capturing a still image, the amplification factors of the A / D conversion units 24a to 24b corresponding to the scene determination by the scene determination unit 26 are set. It is preferable to decide in advance. That is, for example, the scene determination unit 26 performs scene determination based on a through image captured by the photometric sensor 10, and directivity control is performed based on the determination result and directivity data stored in the storage unit 22. The unit 27 determines the amplification factors of the A / D conversion units 24a to 24b before capturing a still image.

なお、第1の実施形態ないし第3の実施形態及び第5の実施形態において、画像特徴量演算部29はフレーム画像を50×50の領域に分割して、画像特徴量を求める演算を行ったが、本発明はこれに限定されない。例えば、フレーム画像を100×100等の任意の数の領域に分割して演算を行っても良い。   In the first to third embodiments and the fifth embodiment, the image feature amount calculation unit 29 divides the frame image into 50 × 50 regions and performs a calculation for obtaining the image feature amount. However, the present invention is not limited to this. For example, the calculation may be performed by dividing the frame image into an arbitrary number of regions such as 100 × 100.

なお、第1の実施形態ないし第3の実施形態及び第5の実施形態において、図4又は図5の階層型ニューラルネットの出力結果である各シーンの適応度の値が、全て足した値が1になるように規格化した値を用いたが、本発明はこれに限定されない。例えば、各適応度の値を百分率で表しても良いし、規格化されていない値で表しても良い。   In the first to third embodiments and the fifth embodiment, the values of the fitness values of the respective scenes, which are the output results of the hierarchical neural network of FIG. 4 or FIG. Although the value normalized to 1 is used, the present invention is not limited to this. For example, each fitness value may be expressed as a percentage or may be expressed as a non-standardized value.

なお、第1の実施形態ないし第3の実施形態及び第5の実施形態において、指向性制御部27によるシーン判定部26のシーン判定の可否を判定するために、基準となる閾値として0.5、0.2又は3倍の値を用いたが、本発明はこれに限定されず、任意の値を適宜選択して用いることが好ましい。   In the first to third embodiments and the fifth embodiment, 0.5 is used as a reference threshold value for determining whether or not the scene determination unit 26 can determine the scene by the directivity control unit 27. However, the present invention is not limited to this, and any value is preferably selected and used.

なお、第1の実施形態ないし第3の実施形態及び第5の実施形態において、図4又は図5に示すような、入力パラメータが10個又は14個の階層型ニューラルネットに基づいて、シーン判定部26は画像のシーン判定をおこなったが、本発明はこれに限定されず、エッジ量等の他の画像特徴量を入力パラメータとして用いても良い。   In the first to third embodiments and the fifth embodiment, scene determination is performed based on a hierarchical neural network having 10 or 14 input parameters as shown in FIG. 4 or FIG. Although the unit 26 determines the scene of the image, the present invention is not limited to this, and another image feature amount such as an edge amount may be used as an input parameter.

なお、第1の実施形態ないし第3の実施形態及び第5の実施形態において、各シーンの適応度として、ポートレート適応度、風景適応度、スナップ適応度、スポーツ適応度、舞台撮影適応度、その他適応度の6つを用いたが、本発明はこれに限定されず、他の任意のシーンの適応度を追加しても良い。   In the first to third embodiments and the fifth embodiment, as the fitness of each scene, portrait fitness, landscape fitness, snap fitness, sports fitness, stage shooting fitness, Although six other fitness values are used, the present invention is not limited to this, and other arbitrary scene fitness values may be added.

なお、第3の実施形態及び第5の実施形態において、シーン判定部26は、10個の画像特徴量であるR/G、B/G、輝度、動きベクトルX及び動きベクトルYの各々の平均値及び分散値を入力パラメータとした、図4に示す階層型ニューラルネットによる統計処理に基づいて、画像のシーン判定を行ったが、本発明はこれに限定されない。例えば、シーン判定部26は、焦点検出部4による焦点距離、距離検出部5による撮影距離、焦点検出部19による複数の測定点における位相差方式によって検出された撮像レンズ2の焦点状態である焦点検出値の分散値、及びフレーム画像において顔検出された顔サイズを加えた、図5に示す14個の入力パラメータによる階層型ニューラルネットによる統計処理に基づいて、シーン判定を行っても良い。   In the third embodiment and the fifth embodiment, the scene determination unit 26 calculates the average of R / G, B / G, luminance, motion vector X, and motion vector Y, which are 10 image feature amounts. The scene determination of the image is performed based on the statistical processing by the hierarchical neural network shown in FIG. 4 using the value and the variance as input parameters, but the present invention is not limited to this. For example, the scene determination unit 26 is a focal point that is the focal state of the imaging lens 2 detected by the phase difference method at a plurality of measurement points by the focal point detection unit 4, the focal length by the focal point detection unit 4, the photographing distance by the distance detection unit 5. The scene determination may be performed based on statistical processing by a hierarchical neural network using the 14 input parameters shown in FIG. 5 to which the variance value of the detection values and the face size detected in the frame image are added.

なお、第3の実施形態において、マイクロフォン23cの位置は、図7(a)に示すように、被写体側から見た場合、カメラ本体1aの右上に配置されたが、本発明はこれに限定されない。任意の位置にマイクロフォンを配置しても良い。   In the third embodiment, as shown in FIG. 7A, the position of the microphone 23c is arranged at the upper right of the camera body 1a when viewed from the subject side. However, the present invention is not limited to this. . A microphone may be arranged at an arbitrary position.

なお、第3の実施形態において、各シーンに応じたA/D変換部24cの増幅率及び指向性変更回路(不図示)によるマイクロフォン23cの各帯域に対応するバンドパスフィルタのゲインの値の組み合わせは、シーンに応じて適宜決めることが好ましい。   In the third embodiment, the combination of the gain value of the band pass filter corresponding to each band of the microphone 23c by the amplification factor and directivity changing circuit (not shown) of the A / D conversion unit 24c corresponding to each scene. Is preferably determined according to the scene.

なお、第3の実施形態において、動画を撮像する場合について説明したが、本発明はこれに限定されず、静止画像の撮像の場合にも適用可能である。ただし、その場合には、静止画像を撮像する前に、マイクロフォン23cの指向性を制御するために、シーン判定部26によるシーン判定に応じたA/D変換部24cの増幅率及び指向性変更回路(不図示)によるマイクロフォン23cの各帯域に対応するバンドパスフィルタのゲインをあらかじめ決めておくことが好ましい。即ち、例えば、測光センサ10によって撮像されるスルー画に基づいて、シーン判定部26がシーン判定を行い、その判定結果と記憶部22に記憶されている指向性データとに基づいて、指向性制御部27が、静止画像の撮像前に、A/D変換部24cの増幅率及び指向性変更回路(不図示)によるマイクロフォン23cの各帯域に対応するバンドパスフィルタのゲインを決定する。   In the third embodiment, the case of capturing a moving image has been described. However, the present invention is not limited to this, and can also be applied to the case of capturing a still image. However, in that case, in order to control the directivity of the microphone 23c before capturing a still image, the amplification factor and directivity changing circuit of the A / D conversion unit 24c according to the scene determination by the scene determination unit 26 It is preferable to determine in advance the gain of the bandpass filter corresponding to each band of the microphone 23c (not shown). That is, for example, the scene determination unit 26 performs scene determination based on a through image captured by the photometric sensor 10, and directivity control is performed based on the determination result and directivity data stored in the storage unit 22. The unit 27 determines the gain of the band pass filter corresponding to each band of the microphone 23c by the amplification factor and directivity changing circuit (not shown) of the A / D conversion unit 24c before capturing a still image.

なお、第4の実施形態において、動画を撮像する場合について説明したが、本発明はこれに限定されず、静止画像の撮像の場合にも適用可能である。   In the fourth embodiment, the case of capturing a moving image has been described. However, the present invention is not limited to this, and can also be applied to the case of capturing a still image.

なお、本発明は、スチルカメラ、ビデオカメラ、デジタルカメラが内蔵された携帯電話等に対しても適用可能である
本発明は、その精神またはその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈されてはならない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。
The present invention can also be applied to a still camera, a video camera, a mobile phone with a built-in digital camera, etc. The present invention can be applied in various other forms without departing from the spirit or main features thereof. Can be implemented. For this reason, the above-described embodiment is merely an example in all respects and should not be construed in a limited manner. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

1 デジタルカメラ、1a カメラ本体、1b 交換レンズ部1b、2 撮像レンズ、3絞り、4 焦点距離検出部、5 距離検出部、6 絞り制御部、7 レンズ側CPU、8 ペンタプリズム、9 再結像レンズ、10 測光センサ、11 クイックリターンミラー、12 サブミラー、13 焦点板、14 シャッタ、15 接眼レンズ、16 撮像素子、17 表示部、18 本体側CPU、19 焦点検出部、20 画像処理部、21 シャッタ制御部、22 記憶部、23a〜23b マイクロフォン DESCRIPTION OF SYMBOLS 1 Digital camera, 1a Camera body, 1b Interchangeable lens part 1b, 2 Imaging lens, 3 Aperture, 4 Focal length detection part, 5 Distance detection part, 6 Aperture control part, 7 Lens side CPU, 8 Penta prism, 9 Re-imaging Lens, 10 Photometric sensor, 11 Quick return mirror, 12 Sub mirror, 13 Focus plate, 14 Shutter, 15 Eyepiece, 16 Image sensor, 17 Display unit, 18 Main body side CPU, 19 Focus detection unit, 20 Image processing unit, 21 Shutter Control unit, 22 storage unit, 23a-23b microphone

特開2006−222618号公報JP 2006-222618 A

Claims (8)

画像を撮像する撮像部と、
前記画像に対応する音声を指向性を変化させて取得可能な音声取得部と、
前記画像に含まれる被写体を判定する判定部と、
前記判定部の判定結果に応じて前記音声取得部の指向性が変化するように制御する制御部とを含むことを特徴とする撮像装置。
An imaging unit that captures an image;
A sound acquisition unit capable of acquiring sound corresponding to the image by changing directivity;
A determination unit for determining a subject included in the image;
And a control unit that controls the directivity of the voice acquisition unit to change according to the determination result of the determination unit.
請求項1に記載された撮像装置であって、
撮影者により操作可能な操作部と、
前記操作部の状態に応じて撮影条件を変更する撮影条件変更部とを含み、
前記制御部は、前記判定部の判定結果、及び、前記操作部の状態に基づいて制御を行うことを特徴とする撮像装置。
The imaging apparatus according to claim 1, wherein
An operation unit that can be operated by the photographer;
A shooting condition changing unit that changes shooting conditions according to the state of the operation unit,
The said control part performs control based on the determination result of the said determination part, and the state of the said operation part, The imaging device characterized by the above-mentioned.
請求項2に記載された撮像装置であって、
前記制御部は、前記操作部の状態よりも前記判定部の判定結果を優先して制御を行うことを特徴とする撮像装置。
An imaging apparatus according to claim 2,
The image pickup apparatus, wherein the control unit performs control with priority given to a determination result of the determination unit over a state of the operation unit.
請求項1から請求項3までの何れか1項に記載された撮像装置であって、
前記判定部は、前記画像から求めた特徴量に基づいてパターン認識をすることにより、前記画像に含まれる前記被写体を判定する
ことを特徴とする撮像装置。
An imaging apparatus according to any one of claims 1 to 3, wherein
The said determination part determines the said to-be-photographed object contained in the said image by performing pattern recognition based on the feature-value calculated | required from the said image. The imaging device characterized by the above-mentioned.
請求項4に記載された撮像装置であって、
前記判定部は、あらかじめ複数の被写体についての複数の画像を用いて、前記複数の画像各々の前記特徴量と前記複数の被写体の各々の対象とを、前記各対象を特徴付けるパターンに基づいて関係付ける複数の統計パラメータを有し、前記複数の統計パラメータを用いた統計処理によって、前記撮像部によって撮像された前記画像における前記被写体の対象を特徴付けるパターンを認識することを特徴とする撮像装置。
ことを特徴とする撮像装置。
An imaging apparatus according to claim 4, wherein
The determination unit uses a plurality of images of a plurality of subjects in advance, and associates the feature amount of each of the plurality of images with each target of the plurality of subjects based on a pattern characterizing each target. An imaging apparatus having a plurality of statistical parameters and recognizing a pattern characterizing the subject of the subject in the image captured by the imaging unit by statistical processing using the plurality of statistical parameters.
An imaging apparatus characterized by that.
請求項5に記載された撮像装置であって、
前記統計処理は、ニューラルネットであることを特徴とする撮像装置。
An imaging apparatus according to claim 5, wherein
The image processing apparatus, wherein the statistical processing is a neural network.
請求項1から請求項6までの何れか1項に記載された撮像装置であって、
前記音声取得部は、前記音声の指向性を変更するための指向性変更回路を含むことを特徴とする撮像装置。
An imaging apparatus according to any one of claims 1 to 6, comprising:
The imaging apparatus, wherein the voice acquisition unit includes a directivity changing circuit for changing the directivity of the voice.
請求項1から請求項6までの何れか1項に記載された撮像装置であって、
前記音声取得部は、それぞれ指向性の異なる複数のマイクロフォンを含み、
前記制御部は、前記判定部の判定結果に応じて前記複数のマイクロフォンのゲインを制御することを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 6,
The voice acquisition unit includes a plurality of microphones having different directivities,
The image pickup apparatus, wherein the control unit controls gains of the plurality of microphones according to a determination result of the determination unit.
JP2009023762A 2009-02-04 2009-02-04 Imaging device Active JP5412858B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009023762A JP5412858B2 (en) 2009-02-04 2009-02-04 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009023762A JP5412858B2 (en) 2009-02-04 2009-02-04 Imaging device

Publications (2)

Publication Number Publication Date
JP2010183252A true JP2010183252A (en) 2010-08-19
JP5412858B2 JP5412858B2 (en) 2014-02-12

Family

ID=42764457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009023762A Active JP5412858B2 (en) 2009-02-04 2009-02-04 Imaging device

Country Status (1)

Country Link
JP (1) JP5412858B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013146893A1 (en) * 2012-03-28 2013-10-03 株式会社ニコン Digital camera
JP2017139646A (en) * 2016-02-04 2017-08-10 リコーイメージング株式会社 Imaging apparatus
JP2020088653A (en) * 2018-11-27 2020-06-04 キヤノン株式会社 Signal processing apparatus, control method of the same, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09200601A (en) * 1996-01-12 1997-07-31 Canon Inc Image pickup recording device
JP2006203879A (en) * 2004-12-24 2006-08-03 Sony Taiwan Ltd Camera system
JP2007013255A (en) * 2005-06-28 2007-01-18 Sony Corp Signal processing apparatus and method, program, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09200601A (en) * 1996-01-12 1997-07-31 Canon Inc Image pickup recording device
JP2006203879A (en) * 2004-12-24 2006-08-03 Sony Taiwan Ltd Camera system
JP2007013255A (en) * 2005-06-28 2007-01-18 Sony Corp Signal processing apparatus and method, program, and recording medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013146893A1 (en) * 2012-03-28 2013-10-03 株式会社ニコン Digital camera
JP2017139646A (en) * 2016-02-04 2017-08-10 リコーイメージング株式会社 Imaging apparatus
JP2020088653A (en) * 2018-11-27 2020-06-04 キヤノン株式会社 Signal processing apparatus, control method of the same, and program
JP7245034B2 (en) 2018-11-27 2023-03-23 キヤノン株式会社 SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD, AND PROGRAM

Also Published As

Publication number Publication date
JP5412858B2 (en) 2014-02-12

Similar Documents

Publication Publication Date Title
JP5564987B2 (en) Subject tracking device and imaging device
RU2562918C2 (en) Shooting device, shooting system and control over shooting device
US20190086768A1 (en) Automatic focusing apparatus and control method therefor
JP5738080B2 (en) Imaging apparatus and control method thereof
US20050212950A1 (en) Focal length detecting method, focusing device, image capturing method and image capturing apparatus
US20070242942A1 (en) Camera
JP2005241805A (en) Automatic focusing system and its program
US20050099522A1 (en) Variable length encoding method and variable length decoding method
JP2009188490A (en) Image processing apparatus, and program
JP2009033238A (en) Imaging apparatus
JP5267609B2 (en) Imaging apparatus and program thereof
US20100026819A1 (en) Method and apparatus for compensating for motion of an autofocus area, and autofocusing method and apparatus using the same
JP2003307669A (en) Camera
JP5100410B2 (en) Imaging apparatus and control method thereof
JP2015106116A (en) Imaging apparatus
JP5412858B2 (en) Imaging device
JPWO2019065555A1 (en) Imaging device, information acquisition method and information acquisition program
JP2003319407A (en) Imaging apparatus
JP2010062987A (en) Imaging apparatus and method
JP2009272799A (en) Imaging device and program
JP2005136480A (en) Photographing apparatus
JP4771524B2 (en) Imaging apparatus and program thereof
JP2020148980A (en) Imaging device and focus adjustment method
JP2006243609A (en) Autofocus device
JP2005215495A (en) Image photographing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131028

R150 Certificate of patent or registration of utility model

Ref document number: 5412858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250