JP2004320287A - Digital camera - Google Patents

Digital camera Download PDF

Info

Publication number
JP2004320287A
JP2004320287A JP2003109886A JP2003109886A JP2004320287A JP 2004320287 A JP2004320287 A JP 2004320287A JP 2003109886 A JP2003109886 A JP 2003109886A JP 2003109886 A JP2003109886 A JP 2003109886A JP 2004320287 A JP2004320287 A JP 2004320287A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
means
digital camera
information
characteristic
step
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003109886A
Other languages
Japanese (ja)
Other versions
JP4196714B2 (en )
Inventor
Hideomi Hibino
Hirotake Nozaki
Masa Ota
雅 太田
秀臣 日比野
弘剛 野崎
Original Assignee
Nikon Corp
Nikon Gijutsu Kobo:Kk
株式会社ニコン
株式会社ニコン技術工房
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of extracting featured points and easily selecting desired featured points after display of the featured points and to provide a digital camera capable of surely recoding information related to the selected featured points. <P>SOLUTION: The digital camera is provided with: an extract means for extracting prescribed featured points from image data; a reception means for receiving an instruction from a user; a selection means for selecting the respective featured points in a prescribed order according to the instruction received by the reception means when a plurality of the featured points are extracted; and a display means for displaying particularized part information for particularizing the featured points selected by the selection means. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】 [0001]
【発明の属する技術分野】 BACKGROUND OF THE INVENTION
本発明は、人物の特徴点を識別し、その識別結果に応じて動作するデジタルカメラに関する。 The present invention identifies the feature points of the person, a digital camera that operates in accordance with the identification result.
【0002】 [0002]
【従来の技術】 BACKGROUND OF THE INVENTION
従来から、指紋あるいは虹彩の特徴点を予め登録しておいてこれと照合することで本人を認証するシステムを初めとして画像データから人物を識別する技術はこれまで多く知られている。 Conventionally, a technique for identifying a person from the image data as initially a system for authenticating a person by matching it with previously registered feature points of the fingerprint or iris is known many heretofore. 特開平9−251534号公報には目、鼻、口等を抽出して特徴点として登録しこれと入力した画像から抽出した特徴点とを比較して当人として識別する方法が詳細に記述されており、特開平10−232934号公報にはこの様にして抽出した特徴点を登録する場合の辞書画像の精度を上げる方法が開示されている。 Japanese Patent Publication No. Hei 9-251534 eyes, nose, how to identify the person in question to extract the mouth or the like is registered as a feature point by comparing the feature points extracted from an image type which is described in detail and has, a method of increasing the accuracy of the dictionary image of registering the feature points extracted in this way is disclosed in JP-a-10-232934. これらの技術をカメラに応用した例を以下に挙げる。 It cited example of applying these technologies to camera below.
【0003】 [0003]
特開2001−201779号公報には予めカメラの使用者を参照情報として登録しておき、カメラ使用者がカメラを自分の顔に向けて撮影することで入力した識別情報と一致した場合にのみカメラ動作を可能とするカメラが開示されている。 Patent may be registered as reference information in advance camera user for 2001-201779 discloses a camera only when the camera user matches the identification information input by photographing toward the camera in his face camera to enable operation is disclosed. 特開2001−309225号公報には顔認識アルゴリズムにより認識された顔の座標、寸法、目の位置、頭のポーズ等のデータが画像メモリに画像データとともに記録されるカメラが開示されている。 JP 2001-309225 Patent face coordinates recognized by the face recognition algorithm in Japanese, the dimensions, the eye position, the camera is disclosed that data pose such head is recorded together with the image data in the image memory. 特開2001−326841号公報には予め正規の使用者を識別するための識別情報(顔、指紋、掌紋)を記憶しておく画像撮像装置(デジタルカメラ)が開示されている。 JP 2001-326841 Patent identification information for identifying the pre-authorized user in JP (facial, fingerprint, palm print) image pickup device for storing (digital camera) is disclosed. 特開2002−232761号公報には撮影した画像に予め読み込んでおいた被写体の識別情報を関連付けて記録する画像記録装置が開示されている。 JP-A-2002-232761 discloses an image recording apparatus is disclosed for recording in association with identification information of the subject that had been previously loaded to a captured image. 特開2002−333652号公報には予め記憶された容貌情報と撮影顔情報を比較し記録信号を発生する撮影装置が開示されている。 JP imaging apparatus for generating a comparison recording signal photographed face information stored in advance appearance information. 2002-333652 JP is disclosed. この容貌情報は優先度とともに記録される。 The appearance information is recorded together with the priority.
【0004】 [0004]
【発明が解決しようとする課題】 [Problems that the Invention is to Solve
本発明においては上述したこれまでの発明においては達成されていなかった、特徴点を抽出し表示した後に容易に所望の特徴点を選択する方法や、これら選択した特徴点に関する情報を確実に記録することのできるデジタルカメラを提供することを目的とする。 In the invention so far described above in the present invention has not been achieved, and a method of easily selecting a desired feature points after displaying extracted feature points, to reliably record information about these selected feature point and to provide a digital camera capable of.
【0005】 [0005]
【問題点を解決する為の手段】 In order to solve the problems]
上記問題点の解決のために、請求項1の発明は、画像データから所定の特徴部位を抽出する抽出手段と、ユーザからの指示を受け付ける受付手段と、前記特徴点が複数抽出された場合に前記受付手段が受け付けた指示によりそれぞれの特徴部位を所定の順番で選択する選択手段と、前記選択手段により選択された前記特徴部位を特定する特徴部位情報を表示する表示手段とを備えたことを特徴とする。 In order to solve the above problems, a first aspect of the invention, an extraction means for extracting a predetermined feature portion from image data, a receiving unit for receiving an instruction from the user, when the feature points are more extracted selection means for selecting the respective characteristic portions in a predetermined order by an instruction in which the reception unit receives, further comprising a display means for displaying the feature portion information identifying the characteristic site selected by said selection means and features. これにより、ユーザは容易に所望の人物等を特定して選択することが出来る。 Thus, the user can be selected easily identify desired person or the like. 請求項2の発明で、前記表示手段は前記画像データに重畳して前記特徴部位情報を表示しており、請求項3の発明では、更に、前記抽出手段によって抽出された前記特徴部位から顔の大きさを判別する判別手段を備え、前記選択手段は前記判別手段が判別した顔の大きい順に選択され、請求項4の発明では、更に、前記抽出手段によって抽出された前記特徴部位までの距離を判別する判別手段を備え、前記選択手段は前記判別手段が判別した距離の近い順に選択するようにされているので容易に所望の被写体を選択することが出来る。 In the invention of claim 2, wherein the display means is displaying the characteristic site information superimposed on the image data, in the invention of claim 3, further comprising a characteristic portion of a face extracted by the extraction means comprising a discriminating means for discriminating the size, said selecting means is selected in descending order of the face where the discriminating means has discriminated, in the invention of claim 4, further the distance to the characteristic portions extracted by said extraction means comprising a discriminating means for discriminating for said selection means the so discriminating means is adapted to choose close in distance is determined can be selected easily desired subject. 請求項5の発明では、更に、前記抽出手段によって抽出された前記特徴部位を含んだ所定エリアをフォーカスを検出するためのフォーカスエリアとして設定するフォーカスエリア設定手段を備え、請求項6の発明では更に、前記抽出手段によって抽出された前記特徴部位を含んだ所定エリアを測光エリアとして設定する測光エリア設定手段を備えたことを特徴としている。 In the invention of claim 5, further comprising a focus area setting means for setting a predetermined area including the feature portion extracted by the extraction means as a focus area for detecting focus, even in the invention of claim 6 It is characterized by having a photometric area setting means for setting a predetermined area including the feature portion extracted by the extraction means as a photometry area.
【0006】 [0006]
請求項7の発明は、画像データから所定の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した前記特徴部位を表示する表示手段と、前記表示手段が表示している前記特徴部位に関する情報を受け付ける受付手段と、前記特徴部位と前記特徴部位に関する情報を記憶する記憶手段とを備えたことを特徴としている。 Information invention of claim 7, extraction means for extracting from the image data a predetermined characteristic portions, and a display means for displaying the feature portion extracted by the extracting unit, related to the characteristic site of the display means is displaying It is characterized by comprising: a receiving means for receiving, and storage means for storing information relating to the characteristic site and the characteristic site. すなわち、入力された特徴部位に関する情報を特徴部位とともに記憶媒体に記憶している。 That stores with the characteristic site in the storage medium information about the characteristic site entered. 請求項8の発明は、画像データから所定の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した前記特徴部位を表示する表示手段と、前記表示手段が表示している前記特徴部位に関する情報を入力する入力手段と、前記特徴部位と前記特徴部位に関する情報とを前記画像データと関連付けて記録するよう指示する指示手段と、前記指示手段によって関連付けられた前記特徴部位と前記特徴部位に関する情報と前記画像データとを記憶する記憶手段とを備えたことを特徴としている。 Information eighth aspect of the present invention, an extraction means for extracting from the image data a predetermined characteristic portions, and a display means for displaying the feature portion extracted by the extracting unit, related to the characteristic site of the display means is displaying input means for inputting the and instruction means for instructing to record the information on the characteristic portion and the characteristic portions in association with the image data, and the information on the characteristic portion and the characteristic site associated by said instructing means is characterized by comprising storage means for storing said image data. すなわち、入力された特徴部位に関する情報を特徴部位とともに抽出した画像データと関連付けてメモリカード等の記憶媒体に記憶しているので特徴部位に関する情報に基づいてあとから検索する場合等に有効である。 That is effective when such searching later on the basis of the information about the characteristic portions so in association with the input image data information regarding characteristic site and extracted with characteristic part stored in the storage medium such as a memory card.
【0007】 [0007]
請求項9の発明によれば、前記特徴部位に関する情報とは前記特徴部位に関する人名等の固有名情報であり、請求項10の発明によれば、前記特徴部位に関する情報とは複数の特徴部位が同時に抽出されたときに選択の優先度を定めた優先順位情報であって、請求項11の発明は、更に、前記優先順位情報を識別する識別手段と、前記識別手段が識別した優先順位に基づいて順に選択する選択手段とを備えたことを特徴としている。 According to the invention of claim 9, wherein the information about the characteristic site is unique name information of names concerning the characteristic portions, according to the invention of claim 10, wherein the information about the characteristic portions are a plurality of characteristic site a priority information that defines the priority of selection when it is extracted at the same time, the invention of claim 11, further identifying means for identifying the priority information, based on the priority in which the identifying means has identified It is characterized by comprising selecting means for selecting sequentially Te. 請求項12の発明では、更に、前記表示手段に表示されている所定の被写体までの距離を測定するための測距エリアを設定する測距エリア設定手段を備え、前記優先順位情報とは、前記複数の特徴部位の中から前記測距エリア設定手段が測距エリアを設定する際の優先順位であり、請求項13の発明では、更に、前記表示手段に表示されている所定の被写体の明るさを測定するための測光エリアを設定する測光エリア設定手段を備え、前記優先順位情報とは、前記複数の特徴部位の中から前記測光エリア設定手段が測光エリアを設定する際の優先順位である。 In the invention of claim 12, further comprising a ranging area setting means for setting a ranging area for measuring the distance to a predetermined object displayed on the display unit, and the priority information, the a priority when the ranging area setting means from among a plurality of characteristic site sets the ranging area, in the invention of claim 13, further, the brightness of a given subject displayed on the display means comprising a photometry area setting means for setting the photometry area for measuring the priority information, the photometric area setting means from among the plurality of characteristic site is the priority in setting the photometry area.
【0008】 [0008]
請求項14の発明によって、前記特徴部位に関する情報とは前記特徴部位を含む画像データを記録する際の色処理情報あるいは輪郭補正処理情報の少なくとも一つの情報であり、請求項15の発明では、前記特徴部位に関する情報とは前記特徴部位を含む画像データを再生する際の色処理情報あるいは輪郭補正処理情報の少なくとも一つの情報である。 The invention of claim 14, wherein the information about the characteristic site is at least one information of a color processing information or the contour correction information when recording the image data including the feature portion, in the invention of claim 15, wherein the information about the characteristic site is at least one of the information of the color processing information or the contour correction process information upon reproducing the image data including the characteristic site. また、請求項16の発明で、更に、前記表示手段に表示している特徴部位あるいはその特徴部位に関する情報の少なくとも一つが前記記録手段に記録済みであったならば記録済みであることを識別表示する識別表示手段を備え、請求項17の発明では、前記特徴部位に関する情報とは前記画像データから前記特徴部位を抽出したときの前記画像データ内における位置情報であることを特徴としている。 Further, in the invention of claim 16, further identification that at least one characteristic portion or information related to the characteristic part is displayed on the display means is recorded if were recorded in the recording means It includes an identification means for, in the invention of claim 17 is characterized in that said information about the characteristic site is position information in the image data within the time of extracting the feature region from the image data.
【0009】 [0009]
請求項18の発明は、第1の特徴部位と前記第1の特徴部位に関する第1の固有名情報とが記憶された記憶手段と、画像データから所定の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した第2の特徴部位に関する第2の固有名情報を入力する入力手段と、前記第1の固有名情報と前記第2の固有名情報とが同一であって且つ、前記第2の特徴部位が前記第1の特徴部位と異なった場合に前記第2の特徴部位を前記記憶手段に追加して記憶する記憶手段とを備えたことを特徴としている。 The invention of claim 18 includes a storage unit for the first unique name information relating to the first feature portion first feature portion is stored, extracting means for extracting a predetermined feature portion from image data, the input means for inputting a second unique name information about the second characteristic portion extracting means has extracted, and the first unique name information and the second unique name information are the same, the second characterized sites are characterized by having a storage means for storing in addition to the storage means the second feature portion when different from the first feature portion. すなわち、予め記憶手段に記憶されている人名等の固有名情報と同一であって、抽出された特徴部位が異なっていたときにはその特徴部位を新たに追加して記憶していくことで徐々にその人物を判別する際の精度を向上させることが出来る。 That gradually thereof by gradually stored to add the characteristic portion newly when had previously storing means to be identical to the unique name information such names stored, extracted features sites different thereby improving the accuracy in determining a person.
【0010】 [0010]
請求項19の発明は、第1の特徴部位と前記第1の特徴部位に関する固有名情報とが記憶された第1の記憶手段と、第2の特徴部位と前記固有名情報とが画像データと関連付けられて記憶された第2の記憶手段と、前記第2の特徴部位が前記第1の特徴部位と異なった場合に前記第2の特徴部位を前記第1の記憶手段に追加して記憶する記憶手段とを備えたことを特徴としている。 The invention of claim 19, the first storage means, the second feature portion and the unique name information and the image data and the unique name information relating to the first feature portion first feature portion is stored second storage means that are associated with memory, and stores the adding the second feature portion in the first storage means when the second characteristic portion is different from the first characteristic portion It is characterized in that a storage means. すなわち、予め画像データと特徴部位およびそれに関する人名情報等の固有名情報が記録されたメモリカードから同一の固有名情報に関する特徴部位を内蔵メモリに追加して記憶させることで徐々にその人物を判別する際の精度を向上させることが出来る。 That gradually determine the person by and stored in addition to the internal memory characteristic site for the same specific name information from a memory card unique name information is recorded such as a pre-image data and the characteristic site and its related personal name information accuracy can be improved when.
【0011】 [0011]
請求項20の発明は、第1の特徴部位と前記第1の特徴部位に関する固有名情報とが記憶された第1の記憶手段と、第2の特徴部位点と前記固有名情報とが画像データと関連付けられて記憶された第2の記憶手段と、前記第1の特徴部位が前記第2の特徴部位と異なった場合に前記第1の特徴部位を前記第2の記憶手段に追加して記憶するよう指示する指示手段とを備えた。 The invention of claim 20, the first storage means and, the second feature portion points and the unique name information image data and the unique name information relating to the first feature portion first feature portion is stored second storage means stored in association, the first feature site by adding the first feature portion in the second storage means if different from the second characteristic part storage and and a instruction means for instructing to. すなわちこの場合は逆に予め画像データと特徴部位およびそれに関する人名情報等の固有名情報が記録された内蔵メモリから同一の固有名情報に関する特徴部位をメモリカードに追加して記憶させることでメモリカードに記録されていない特徴部位も追加記録されるのでメモリカードにおいても徐々にその人物に関する特徴部位の数を増加させることが出来る。 That memory cards be stored by adding the characteristic site for the same specific name information from the internal memory the unique name information is recorded such as a pre-image data and the characteristic site and its related names information conversely this case the memory card since the characteristic part not recorded is also additionally recorded gradually it can increase the number of characteristic portions relating to the person also in the memory card.
【0012】 [0012]
請求項21の発明は、画像データを表示する表示手段と、前記画像データ内から所定の特徴部位を抽出する抽出手段と、複数の特徴部位を予め記憶する記憶手段と、前記抽出手段によって抽出された特徴部位が前記記憶手段に記憶されている複数の特徴部位のいずれかと一致するかどうか判別する判別手段と、前記判別手段によって判別された判別結果を前記表示手段に識別表示する識別表示手段とを備えたことを特徴とする。 The invention of claim 21 includes a display means for displaying the image data, extraction means for extracting a predetermined feature portion from within the image data, storage means for previously storing a plurality of characteristic portions are extracted by said extracting means and one of the plurality of the characteristic part, wherein part is stored in the storage means and determination means for determining whether or not to match, and identification means for identifying and displaying the determination result of the determination by said determination means to said display means has characterized by comprising a. すなわち、抽出された特徴部位が既に記憶されているかどうかを直ちに判別することが出来る。 That is, the extracted characteristic site is already whether it is possible to immediately determine stored. 請求項22の発明では、前記記憶手段は更に、前記特徴部位に関する固有名情報あるいは複数の特徴部位が同時に抽出されたときに選択の優先度を定めた優先順位情報の少なくとも一つの情報を記憶し、前記識別表示手段は前記判別手段が一致していると判別した特徴点に対してその特徴部位に関する前記記憶手段に記憶されている情報を前記表示手段に表示することを特徴としている。 In the present invention of claim 22, wherein the storage means further stores at least one of the information priority information defining the priority selection when unique name information or more characteristic portion relates to the characteristic site is extracted at the same time the identification means is characterized by displaying the information stored in the storage means relating to the characteristic portion to the feature points is determined that the determination means coincides with the display means.
【0013】 [0013]
請求項23の発明は、画像データから所定の被写体の特徴点を抽出する抽出手段と、前記抽出した特徴部位と前記画像データとを関連付けて管理する管理手段とを備えたことを特徴としている。 The invention of claim 23 is characterized by comprising extraction means for extracting feature points from the image data a predetermined subject, and a management means for managing in association with the characteristic part the extracted and the image data. これにより、画像データとそこから抽出した特徴部位とを同時に記録することが出来る。 Thus, a feature portion extracted image data and from which at the same time can be recorded.
【0014】 [0014]
【発明の実施の形態】 DETAILED DESCRIPTION OF THE INVENTION
以下、図面を参照して本発明の実施の形態を説明する。 Hereinafter, with reference to the drawings illustrating the embodiments of the present invention.
図1は、本発明のデジタルカメラについてその主要な機能を説明したブロック図である。 Figure 1 is a block diagram for explaining the main functions for the digital camera of the present invention.
【0015】 [0015]
撮影レンズ101はその焦点距離を連続的に変えるためのズームレンズ、ピントを調整するフォーカシングレンズ、撮影時の手ブレを補正するVR(Vibration Reduction)レンズから構成されている。 Photographing lens 101 is composed of a focusing lens, VR (Vibration Reduction) lenses for correcting the camera shake during shooting to adjust zoom lens for changing the focal length continuously, the focus. これらのレンズはドライバ113により駆動される。 These lenses are driven by driver 113. ここでドライバ113はズームレンズのズーム駆動機構及びその駆動回路と、フォーカシングレンズのフォーカス駆動機構及びその駆動回路と、VRレンズ駆動機構及びその駆動回路とを備えていて、それぞれCPU112により制御される。 Here driver 113 comprise a zoom driving mechanism and a driving circuit of the zoom lens, a focus driving mechanism and a driving circuit of the focusing lens, and a VR lens drive mechanism and its drive circuit, which is controlled by the respective CPU 112. 検出器121はフォーカシングレンズの位置およびズームレンズ位置を検出しCPU112にそれぞれのレンズ位置を伝える。 Detector 121 conveys a respective lens located to detect the position and the zoom lens position of the focusing lens CPU 112.
【0016】 [0016]
撮影レンズ101は撮像素子103の撮像面上に被写体像を結像する。 Photographing lens 101 forms a subject image on the imaging surface of the image sensor 103. 撮像素子103は撮像面上に結像された被写体像の光強度に応じた電気信号を出力する光電変換撮像素子であり、CCD型やMOS型の固体撮像素子が用いられる。 Image sensor 103 is a photoelectric conversion image pickup device that outputs an electric signal corresponding to the light intensity of the object image formed on the imaging surface, CCD type or MOS type solid-state imaging element is used. 撮像素子103は信号取り出しのタイミングをコントロールするドライバ115により駆動される。 The image sensor 103 is driven by driver 115 to control the timing of the signal extraction. 撮影レンズ101と撮像素子103との間には絞り102が設けられている。 Aperture 102 is provided between the photographing lens 101 and the image sensor 103. 絞り102は、絞り機構とその駆動回路を備えたドライバ114により駆動される。 Stop 102 is driven by driver 114 with aperture mechanism and its driving circuit. 固体撮像素子103からの撮像信号はアナログ信号処理回路104に入力され、アナログ信号処理回路104において相関二重サンプリング処理(CDS)等の処理が行われる。 Imaging signals from the solid-state imaging element 103 is input to the analog signal processing circuit 104, processing such as correlated double sampling (CDS) in an analog signal processing circuit 104 is performed. アナログ信号処理回路104で処理された撮像信号は、A/D変換器135によりアナログ信号からデジタル信号に変換される。 Imaging signal processed by the analog signal processing circuit 104 is converted from an analog signal to a digital signal by the A / D converter 135.
【0017】 [0017]
A/D変換された信号はデジタル信号処理回路106において輪郭強調やガンマ補正などの種々の画像処理が施される。 A / D converted signal various image processing such as edge enhancement, gamma correction in the digital signal processing circuit 106 is performed. 輪郭強調用のパラメータは予め複数用意されていて画像データに応じて最適のパラメータが選択される。 Parameters for edge enhancement optimum parameters are selected in accordance with the image data have been beforehand plurality prepared. このデジタル信号処理回路106には記録のための処理を施す輝度/色差信号生成回路等も含まれていて、これらを生成するためのパラメータも予め複数用意されている。 This is the digital signal processing circuit 106 also includes such processes performed luminance / color difference signal generation circuit for recording, also parameters for generating them are previously plurality prepared. これらの複数の色変換用パラメータから撮影された画像の応じて最良の色再現を得るために最適のパラメータが選択される。 Optimal parameters for the best color reproduction according to the plurality of captured images from the color conversion parameter is selected. これら輪郭強調や色再現のための複数のパラメータは後述する記憶部1127に記憶されていて、ここから最適のパラメータをCPU112が選択する。 Multiple parameters for these edge enhancement and color reproduction have been stored in the storage unit 1127 to be described later, the parameters of the optimal CPU112 is selected from here. バッファメモリ105は撮像素子103で撮像された複数フレーム分のデータを記憶することが出来るフレームメモリであり、A/D変換された信号は一旦このバッファメモリ105に記憶される。 Buffer memory 105 is a frame memory capable of storing data for a plurality of frames captured by the image sensor 103, A / D converted signal is temporarily stored in the buffer memory 105. デジタル信号処理回路106ではバッファメモリ105に記憶されたデータを読み込んで上述した各処理を行い、処理後のデータは再びバッファメモリ105に記憶される。 Reads the data stored in the digital signal processing circuit 106 in the buffer memory 105 performs the respective processes described above, the processed data is stored in the buffer memory 105 again. CPU112はデジタル信号処理回路106およびドライバ113〜115等と接続され、カメラ撮影動作のシーケンス制御を行う。 CPU112 is connected to the digital signal processing circuit 106 and the driver 113 to 115, and performs a sequence control of the camera photographing operation. CPU112のAE演算部1121では撮像素子からの画像信号に基づいて自動露出演算を行い、AWB演算部1122ではホワイトバランス用パラメータを設定するための演算が行われる。 Perform automatic exposure calculation based on the image signal from the imaging device in the AE calculation unit 1121 of the CPU 112, operation for setting the parameters for white balance in the AWB operation unit 1122 is performed. 特徴点抽出演算部1123では所定のアルゴリズムに則って画像データの中から人物の形状、位置、サイズ等の特徴点を記憶部1127に記憶するとともに検出した顔や眼幅等の大きさとそのときの検出器121によって検出したズームレンズの焦点距離とから抽出したそれぞれの人物までのおよその距離も演算し抽出日時とともに記憶部1127に記憶する。 The shape of a person from the image data in accordance with the feature point extraction calculation section 1123 in a predetermined algorithm, the position of the face and eye width and the like has been detected stores the feature point in the storage unit 1127 such as a size magnitude and at that time approximate distances to each character extracted from the focal length of the detected zoom lens by the detector 121 is also stored in the storage unit 1127 together with the operation to extract time. ここで、図22を用いてこの距離演算方法を説明する。 Here, the distance calculation method will be described with reference to FIG. 22. 図22は抽出した眼幅を基に人物までの距離を演算する場合を示している。 Figure 22 shows a case of calculating the distance to the person based on the extracted pupil distance. Aは一般成人の実際の眼幅の平均値、aは抽出された撮像素子上に結像した眼幅、Lは撮像レンズから人物までの距離、fはレンズの焦点距離である。 The average value of the actual pupil distance of A is generally adults, a is extracted imaging device on the imaged eye-width, L is the distance from the imaging lens to the person, f is the focal length of the lens. この図から次の比例式が容易に導かれる。 The following proportional expression from this figure can be easily led.
【0018】 [0018]
A/L=a/f A / L = a / f
ここから、人物までの距離Lは、L=(A/a)・fとなる。 The distance L from here, to the person becomes L = (A / a) · f. 記憶部1127にはこの様にして抽出された特徴点やそれに基づいて演算した特徴点迄の距離が一旦記憶される。 Distance to the feature point calculated based on it which feature points and extraction in this manner is temporarily stored in the storage unit 1127. それら記憶された特徴点の中からユーザは残しておきたい特徴点を選択して登録する。 Among them stored feature point user registers by selecting the feature point you want to keep. この登録する内容や登録方法については図13を基に後で詳細に説明する。 Later it is described in detail on the basis of FIG. 13 for the contents and registration method of this registration.
【0019】 [0019]
バンドパスフィルタ(BPF)1124は、撮像領域に設けられた焦点検出エリア内の撮像信号に基づいて、所定帯域の高周波成分を抽出する。 Band pass filter (BPF) 1124, based on the imaging signals from the focus detection area provided in an imaging area, to extract a high frequency component of a predetermined band. BPF1124の出力は次の評価値演算部1125に入力され、ここで高周波成分の絶対値を積分し焦点評価値として算出される。 The output of BPF1124 is input to the next evaluation value calculation section 1125, where it is calculated the absolute value of the high frequency components as integrated focus evaluation value. AF演算部1126はこれらの焦点評価値に基づいてコントラスト法によりAF演算を行う。 AF calculation unit 1126 performs an AF operation by contrast method based on these focus evaluation value. CPU112はAF演算部1126の演算結果を用いて撮影レンズ101のフォーカシングレンズを調整し、合焦動作を行わせる。 CPU112 adjusts the focusing lens of the photographic lens 101 using the operation result of the AF calculation unit 1126 to perform the focusing operation.
【0020】 [0020]
CPU112に接続された操作部116には、カメラの電源をオンオフする電源スイッチ1161、レリーズ釦に連動してオンオフする半押しスイッチ1162及び全押しスイッチ1163、撮影モードの各種の内容を選択するための設定釦1164、再生画像等を更新するアップダウン(U/D)釦1165等が設けられている。 The operation unit 116 connected to the CPU 112, the power switch 1161 for turning on and off the power of the camera, the half-press switch 1162 and the full press switch 1163 is turned on and off in conjunction with the release button, for selecting various contents of shooting modes setting button 1164, an up-down updating the reproduced image or the like (U / D) button 1165 and the like. 設定釦1164では抽出した特徴点に対して名称を付けるためにU/D釦1165を併用してアルファベットやひらがな、カタカナ、簡単な漢字等を選択して設定することもできる。 Alphabet and hiragana to give a name for the setting button in 1164 extracted feature point in a combination of U / D button 1165, Katakana can also be set by selecting the simple Chinese characters. U/D釦1165はこれ以外にも、複数抽出された人物から所望の人物を選択したり、撮影時には手動でズームレンズをテレあるいはワイド側に駆動するためにも使用される。 U / D button 1165 is other than the above, to select a desired person from a plurality extracted person, at the time of photographing is also used to drive manually zoom lens in the telephoto or wide-angle side.
【0021】 [0021]
被写体輝度が低い場合にはストロボ122を発光させる。 It causes the electronic flash 122 when the subject brightness is low. このストロボにはストロボ使用時に撮影した人物の瞳が赤く撮影されるのを防止あるいは軽減する赤目防止のためや低輝度時に被写体輝度を予め測定するために撮影前に予め補助光を発光するプリ発光機能も備わっている。 Pre-emission to emit pre auxiliary light before recording to previously measured object brightness upon order and low luminance of red-eye prevention to prevent or reduce the pupil of the person taken during flash use is photographed in red in this flash function is also provided. 123はカメラの何らかの異常時に音声で警告するためのブザー等の発音体である。 123 is a sounding body such as a buzzer for warning voice to some abnormality of the camera. 記憶部1127には前述した特徴点情報以外にAF演算の結果から検出される評価値のピーク値や対応するレンズ位置等も記憶される。 Lens position such that the peak value and the corresponding evaluation values ​​detected from the result of AF calculation in addition to the feature point information described above is also stored in the storage unit 1127. デジタル信号処理回路106で各種処理が施された画像データは、一旦バッファメモリ105に記憶された後に、記録・再生信号処理回路110を介してメモリカード等の外部記憶媒体111に記録される。 Digital signal processing circuit 106 image data on which various processing has been performed, the temporarily after being stored in the buffer memory 105, is recorded in the external storage medium 111 such as a memory card through a reproduction signal processing circuit 110. 画像データを記憶媒体111に記録する際には、一般的に所定の圧縮形式、例えば、JPEG方式でデータ圧縮が行われる。 When recording image data in the storage medium 111 is generally a predetermined compression format, for example, data compressed by the JPEG system is performed. 記録・再生信号処理回路110では、画像データを外部記憶媒体111に記録する際のデータ圧縮及び外部記憶媒体111や他のカメラから転送されてきた圧縮された画像データの伸長処理を行う。 In the recording and reproduction signal processing circuit 110 performs the decompression process of the compressed image data transferred from the data compression and external storage medium 111 and another camera when recording the image data in the external storage medium 111. 121はそれぞれデジタルカメラ等の他の外部機器と無線あるいは有線で接続してデータ通信を行うインタフェース回路である。 121 is an interface circuit for performing data communication with each connected by other external devices wirelessly or wired, such as a digital camera. これら各インタフェースは同時に複数個備わっていても良い。 Each of these interfaces may be provided with a plurality at the same time.
【0022】 [0022]
モニタ109は撮像された被写体画像を表示したり撮影や再生させる際に各種の設定メニューを表示するための液晶(LCD)表示装置である。 Monitor 109 is a liquid crystal (LCD) display device for displaying various setting menus when displaying or capturing and reproducing a subject image captured. ここでは記憶媒体111に記録されている画像データや他のカメラから転送されてきた画像データを再生表示する際にも用いられる。 Here it is also used at the time of reproducing and displaying the image data transferred from the image data or other camera that is recorded in the storage medium 111. モニタ109に画像を表示する場合には、バッファメモリ105に記憶された画像データを読み出し、D/A変換器108によりデジタル画像データをアナログ映像信号に変換する。 When displaying the image on the monitor 109 reads the image data stored in the buffer memory 105, converts the digital image data into an analog video signal by the D / A converter 108. そして、そのアナログ映像信号を用いてモニタ109に画像を表示する。 Then, to display an image on the monitor 109 using the analog video signal.
【0023】 [0023]
このカメラで採用しているAF制御方式のコントラスト法について説明する。 The contrast method of the AF control method adopted by this camera will be described. この方式では、像のボケの程度とコントラストの間には相関があり、焦点があったときに像のコントラストは最大になることを利用して焦点あわせを行う。 In this method, there is a correlation between the extent and the contrast of the image blur, the contrast of the image when there is a focus performs focusing by using the fact that a maximum. コントラストの大小は撮像信号の高周波成分の大小により評価することが出来る。 Contrast of magnitude can be assessed by the magnitude of the high frequency component of the image signal. すなわち、BPF1124により撮像信号の高周波成分を抽出し、評価値演算部1125で高周波成分の絶対値を積分した物を焦点評価値とする。 That is, it extracts a high frequency component of the image signal by BPF1124, a material obtained by integrating the absolute value of the high frequency component in the evaluation value computing unit 1125 and the focus evaluation value. 前述したように、AF演算部1126はこの焦点評価値に基づいてAF演算を行う。 As described above, the AF calculation unit 1126 performs an AF operation based on the focus evaluation value. CPU112はAF演算部1126の演算結果を用いて撮影レンズ101のフォーカシングレンズ位置を調整し、合焦動作を行わせる。 CPU112 adjusts the focusing lens position of the photographing lens 101 by using the operation result of AF calculation unit 1126 to perform the focusing operation.
【0024】 [0024]
図2、図3に顔認識機能を備えたデジタルカメラの全体の動作フローを示す。 Figure 2 shows an overall operation flow of the digital camera having a face recognition function in FIG. 図2においてまずステップS101でデジタルカメラの電源が電源SW1161によりオンされたことを検出するとステップS102でデジタルカメラの動作モードを確認する。 First power supply of the digital camera at step S101 confirms the operation mode of the digital camera in Step S102 detects that it has been turned on by the power SW1161 in Figure 2. ここでは設定釦S1164によって被写体を撮影する撮影モードに設定されているかメモリカードに記録されている画像データを再生表示する再生モードに設定されているかを判別する。 Here, it is judged whether it is set to the reproduction mode for reproducing and displaying the image data recorded in either the memory card is set to the photographing mode for photographing an object by setting button S1164. 再生モードに設定されていたならば図3ステップS117に進み、撮影モードに設定されていたならばステップS103に進む。 Once set to playback mode proceeds to FIG. 3 step S117, the if has been set to the shooting mode proceeds to step S103. ステップS103ではLCDモニタ109に撮影する被写体画像を動画で表示する。 In step S103 for displaying a subject image to be photographed on the LCD monitor 109 with video. ステップS104では表示されている画像に対して所定のアルゴリズムに従って特徴点を抽出する特徴点抽出処理を行うよう設定されているかどうか判別する。 Whether to determine the image that is displayed in step S104 is set to perform feature point extraction processing for extracting feature points in accordance with a predetermined algorithm. この設定には設定釦1164を使用する。 In this setting to use the setting button 1164. 特徴点抽出処理をするように設定されていなかったならばステップS113に進み通常の撮影動作をする。 If not set to the feature point extraction process to the normal photographing operation proceeds to step S113. 特徴点抽出処理をするよう設定されていたならばステップS105に進んでLCDモニタ109に表示している動画像データの1コマあるいは2〜3コマ毎に表示画像から特徴点とその位置情報を抽出する。 Extracting feature points from the display image for each frame or 2-3 frames of the moving image data displayed on the LCD monitor 109 proceeds to step S105 if has been set to the feature point extraction process and the position information to. この抽出される特徴点としては人物の顔、眼、瞳、眉、鼻、口、耳、手、足、眼鏡等の輪郭やその向き、位置、大きさがある。 Face of a person as a characteristic point which the extracted, eye, pupil, eyebrows, nose, mouth, ears, hands, feet, contours and its direction such as glasses, position and magnitude. さらに、髪型、骨格、着衣の種類も抽出することによって、男女の性別や人種を判別したり、年齢についても判断することが出来る。 In addition, hairstyle, skeleton, by the clothing of the type also extracted, or to determine the sex and race of men and women, it can be determined also for age. また、人間だけでなく、犬、猫、鳥等の動物や家屋、自動車等一般の被写体に対しても抽出することが出来る。 In addition, human beings as well as dogs, cats, animals and houses, such as a bird, can also be extracted for, such as an automobile general subject. 以下の説明では主として人間に対して特徴点を抽出する。 Extracting feature points primarily to humans in the following description.
【0025】 [0025]
ステップS106では抽出した複数の特徴点に対して、予めデジタルカメラの記憶部1127に登録されている特徴点と一致するものがあるかどうか判別する。 For a plurality of characteristic points In step S106 extracts, to determine whether there is a match with the feature points registered in advance in the digital camera of the storage unit 1127. 一致する特徴点がなかったならばステップS107でLCDモニタ109に表示している画像に対して特徴点が検出されたことを示すマーカを重畳して表示する。 If a match was no feature points feature points on the image being displayed on the LCD monitor 109 in step S107 is displayed by superimposing a marker indicating that it has been detected. もし登録してある特徴点と一致する特徴点が検出された場合にはステップS108で登録済みであることを区別出来るように他の特徴点と異なるマーカで重畳表示する。 The superimpose a marker different from the other feature points to be able distinguish it is already registered in step S108 if the feature point that matches the feature point is registered if it is detected. 図15に表示結果の1例を示す。 It shows an example of display result in Figure 15. ここでは画面内の5名の人物のうち1名は遠くにいて小さすぎるため顔としての特徴点が検出されず、残り4名に対して顔の特徴点が検出され、さらにそのうち1名が登録済みであることが判別されたことを示している。 Here not detected feature point as the face for one person is too small have far out of five persons in the screen is detected feature points of the face with respect to the remaining four, further one of whom is registered It indicates that has been determined that you have. 単に特徴点が検出されただけの3名に対してはそれぞれの顔を波線で囲っていて、既に登録済みの1名に対しては実線で囲っている。 Simply have surrounded by a wavy line each face for three only feature points are detected, they are surrounded by a solid line already against registered one person. さらに、特徴点に対応した人名等の個人名情報も特徴点情報として同時に登録されていた場合には図15に示すようにそれも同時に表示する。 Furthermore, it is also simultaneously displayed as shown in FIG. 15 in the case which has been registered at the same time as an individual name information also feature information of names or the like corresponding to the feature point. これにより被写体の確認をより一層確実にすることが出来る。 This makes it possible to more reliably confirm the subject.
【0026】 [0026]
また、本実施例では、後述するAEエリアやAFエリアを選択する際の優先順位も特徴点情報として登録している。 Further, in this embodiment, it is registered as a priority feature point information in selecting the AE area and the AF area to be described later. 図13に記憶部1127における特徴点に関する記録状態の一例を示す。 It shows an example of recording condition relates to the feature point in the storage unit 1127 in FIG. 13. 図13において特徴点としてA氏、B子、Cちゃんというようにそれぞれ名前が付けられた特徴点と、名前が付けられていない特徴点が名称無しとして順に登録されている。 Mr. A as the feature point in FIG. 13, B terminal, and the feature points to the name respectively assigned as referred C neatly, feature points that are not named are registered in this order as without name. A氏の登録内容は更に前述したAEエリアやAFエリアを選択する際の優先順位が1に設定されている。 Priority in selecting the AE area and the AF area registration contents were further above Mr. A is set to 1. これにより例えばA氏とCちゃんが同時に撮影画面内に抽出されたとしたらA氏を含むエリアが優先してAEエリアあるいはAFエリアに設定される。 Thus for example, Mr. A and C Chan is set to the AE area or AF area in preference area including Mr. A if we were extracted simultaneously shooting screen. この優先順位は任意に変更することが出来る。 This priority can be arbitrarily changed. A氏の特徴点情報としてA氏の特徴点を登録した日にちが登録日として次に記録されている。 Dates of the registered feature points of Mr. A as the feature point information of Mr. A is then recorded as the registration date. ここで(1)で示される登録日は最初にA氏を登録した日にちで(2)、(3)は(1)と異なった状態たとえば横向き、後ろ向き、眼鏡着用等の状態で撮影されたA氏の他の特徴点を追加して登録した日にちを示している。 Wherein (1) registration date indicated by the first in date registered Mr. A (2), (3) it was taken as different states for example sideways, backwards in a state such as wearing glasses (1) A It shows the dates that have been registered to add other characteristic points of Mr.
【0027】 [0027]
このように、眼鏡や髭の有無等によって同一人物としての特徴点を複数登録することで抽出した特徴点に対して人物を識別する確度が向上する。 Thus, accuracy is improved for identifying a person on the extracted feature points by register multiple feature points as the same person by glasses or the presence or absence of beard like. この特徴点についてもその内容をLCDモニタ109に表示するとともに任意に追加あるいは削除することが出来る。 Optionally added or can be deleted and displays the contents on the LCD monitor 109 for this feature point. 優先度、登録日以外に簡単なコメントやこの特徴点が検出された場合に有効な記録時あるいは再生時の処理方法(ホワイトバランス設定や輪郭補償処理設定等)、特徴点までの距離等についても記録するようにしても良い。 Priority, simple comments or the effective recording time or reproduction processing method when the feature point is detected in addition to the registration date (white balance setting and contour compensation processing settings, etc.), also the distance or the like to the feature point it may be recorded. このようにして登録するよう設定された特徴点の実際のデータは下の特徴点データエリアに順に記録される。 Such actual data of the set feature points to to register on are recorded sequentially in the feature point data area below.
【0028】 [0028]
ステップS109〜ステップS114では抽出した特徴点に応じた特有の処理をするときのステップを示している。 Step S109~ and shows the steps associated with a specific process corresponding to step S114 extracted feature points in. もちろん特徴点が検出された場合であってもこれらの各ステップのうちからどのステップを採用するかは設定釦1164を使って任意に選択可能となっている。 Of course even when the feature point is detected to be adopted which steps from among the these steps has become arbitrarily selected using the setting button 1164. 以降ではこれら全てのステップを選択するよう設定された場合について説明する。 In the following case will be described that is configured to select all of these steps. ステップS109では表示されている抽出結果を登録する。 Step S109 and registers the extracted result is displayed in. このステップS109の登録については図4で詳細に説明する。 Registration of this step S109 will be described in more detail in FIG. 4. 登録が終了したならばステップS110の撮影画角設定のステップに進む。 If the registration has been completed proceed to the shooting angle setting of the step of the step S110. このステップS110の設定をすることにより、撮影画面の中に複数の人物がいた場合でも自動的に目的の被写体を判別してその人物をズームアップして画面中央に捉えることが出来る。 By the setting of the step S110, it is possible to capture the center of the screen by zooming up the person to determine automatically the subject of interest even when there was a plurality of persons in the shooting screen. この機能は、自分の子供の運動会や発表会での撮影の際に効果的である。 This function is effective at the time of shooting in and recital their children of the athletic meet. このステップS110の詳細については図5で説明する。 Details of this step S110 will be described in FIG. ステップS111では撮影条件の設定を行う。 In step S111 to set the imaging condition. ここでは撮影画面中に複数の人物がいた場合、希望する人物を含む所定エリアをAFエリアやAEエリアに設定したり、人物の大きさや数に応じた絞り設定を行う。 If there was a plurality of persons in the shooting screen here, it sets a predetermined area including the person you wish to AF area or AE area, performs aperture setting corresponding to the size and number of persons. このステップS111の詳細については図6〜図8で説明する。 Details of this step S111 will be described in FIGS. 6-8. ステップS112ではストロボの設定を行う。 In step S112 the setting of the strobe. ステップS112の詳細については図9で説明する。 The details of step S112 will be described in FIG. ここまでのステップS109からステップS112迄は撮影前の設定であり、撮影画面に応じて任意に設定順を変えることが出来るとともに各ステップにおいて一旦設定した内容を再設定することも可能である。 Until step S112 from step S109 up to this point is set before shooting, it is also possible to temporarily reconfigure the set contents in each step together can be changed arbitrarily set order in accordance with the shooting screen.
【0029】 [0029]
ステップS113では被写体の撮影を行う。 In step S113 to photograph the subject. ここでは人物を検出して撮影枚数を自動的に設定したり、人物の撮影時の動作に応じて実際の露光を行う。 Here it can be set automatically detected and the number of shots a person performs actual exposure in accordance with the operation at the time of photographing a person. この撮影ステップについては図10、図11で詳細に説明する。 10 for this imaging step, described in detail in FIG. 11. 撮影終了後はステップS114で記録処理を行う。 After the shooting performs the recording process in step S114. ここでは被写体の顔を検出してホワイトバランスを変えたり顔のシミやほくろ等を自動的に軽減する処理を行う。 Here, it performs a process of automatically reducing the face or changing the white balance spots and the mole or the like by detecting the face of the subject. このステップS114の詳細は図12で行う。 The details of this step S114 is performed in FIG. 12. ステップS115では処理済みの画像データと特徴点情報とを一つのファイルとしてメモリカードに記録する。 Step S115 and processed image data and the feature point information of the recording on the memory card as one file. ステップS116では電源がオフされているかどうか判別する。 In step S116 power is judged whether it is turned off. オフされていなかったならばステップS102に戻ってデジタルカメラの動作モードを判別する。 Determine the operating mode of the digital camera returns to step S102 if not been turned off. 電源スイッチがオフされていたならば本シーケンスを終了する。 Power switch is completed this sequence if had been turned off.
【0030】 [0030]
ステップS102で再生モードに設定されていたならば図3ステップS117でメモリカード111に記録されていた画像データを再生してLCDモニタ109に表示する。 It reproduces the image data recorded in the memory card 111 in FIG. 3 step S117 in step S102 if has been set in the playback mode to display on the LCD monitor 109. この再生画像は静止画であっても動画であっても良い。 The reproduced image may be moving even still image. ステップS118では再生画像に対してステップS104と同様に特徴点抽出処理を行うよう設定されているかどうか判別する。 In step S118 is set to perform similarly feature point extraction processing as in step S104 the reproduction image whether to determine that. 設定されていなかったならばステップS126に進み通常の再生動作を行う。 If you had not been set performs a normal playback operation proceeds to the step S126. 特徴点抽出処理をするように設定されていたならばステップS119に進んで再生画像データに既に何らかの特徴点情報が付加されているかどうか判別する。 To determine whether already some feature point information to the reproduced image data proceeds if has been set to the feature point extraction process of step S119 is added. 特徴点情報が付加されていなかった場合にはステップS120でステップS105と同様に画像データから特徴点を抽出する。 Extracting feature points from Similarly the image data in step S105 in step S120 if the feature point information is not added. 特徴点情報が付加されていた場合にはステップS121に進み、画像データに付加されている特徴点情報を読み出す。 If the characteristic point information has been added the process proceeds to step S121, it reads out the feature point information added to the image data. ステップS121では再生画像に抽出した特徴点あるいは読み出した特徴点や特徴点情報を重畳表示する。 In step S121 superimpose the extracted feature point or read feature point and the feature point information on the reproduced image. 特徴点に代わって前述したマーカ表示やアイコン表示するようにしても良い。 On behalf of the feature point it may be marker display and icon display described above.
【0031】 [0031]
ステップS123では抽出した特徴点あるいは付加されていた特徴点が記録部1127に登録されている特徴点と一致するものがあるかどうか判別する。 Step feature points extracted in S123 or added to have characteristic points to determine whether there is a match with the feature points registered in the recording unit 1127. ここでも前述したステップS106の場合と同様、一致する特徴点がなかったならばステップS124でLCDモニタ109に表示している画像に対して特徴点が検出されたことを示すマーカやアイコンを重畳して表示する。 As in step S106 described above again, it superimposes a marker or an icon indicating that the feature points on the image being displayed on the LCD monitor 109 in step S124 if there was no feature point matching is detected to display Te. もし登録してある特徴点と一致する特徴点が検出された場合にはステップS125で登録済みであることを区別して他の特徴点と異なるマーカで重畳表示する。 If when the feature point that matches the feature point that is registered is detected superimpose at distinguish different from other feature points marker to be registered in step S125. ステップS126では表示されている抽出結果を登録する。 Step S126 and registers the extracted result is displayed in. この登録についても図4で説明する。 This registration is also described in Figure 4. ステップS126での登録が終了したらステップS127で次の画像データを再生するかどうか判別し、U/D釦1165で次の画像を選択されたならばステップS117に戻る。 Registration is determined whether to play the next image data in step S127 when finished in step S126, if it is selected the next image in the U / D button 1165 returns to step S117. 次画像が選択されなかったならばステップS128に進み、電源スイッチ1161がオフされたかどうか判別する。 If the next image is not selected the process proceeds to step S128, the power switch 1161 determines whether it has been turned off. もしオフされていなかったならば図2ステップS102に戻り、オフされていたならば本シーケンスを終了する。 If if was not turned off again to FIG. 2 step S102, the processing of this flowchart is finished if had been turned off.
【0032】 [0032]
《特徴点情報の登録》 "Registration of the feature point information"
図4を使って特徴点情報を登録するステップについて説明する。 Use Figure 4 will be described step of registering the feature point information. この図4の登録のステップは前述した図2ステップ109と図3ステップS126とで共通している。 Registration step of FIG. 4 is common to that of FIG. 2 step 109 and FIG. 3 step S126 described above. 画像データが撮影した画像データの場合にはステップS151においては特徴点抽出演算部1123によって抽出した特徴点と同一の特徴点が記憶部1127に登録されているかどうか判別する。 To determine whether the same feature points and feature points extracted by the feature point extraction calculation section 1123 is registered in the storage unit 1127 in step S151 in the case of the image data which the image data is captured. 画像データが再生画像データの場合には、ステップS151ではその再生画像データに付加されている特徴点と特徴点情報とを読み出し、この読み出した特徴点あるいは特徴点情報と同一の特徴点や特徴点情報が図13で説明した記録形態で記憶部1127に記憶されているかどうか判別する。 When the image data is reproduced image data, it reads out the feature point and the feature point information added to the reproduced image data at step S151, the same feature points and feature points and the feature point or feature point information thus read out information to determine whether it is stored in the storage unit 1127 in the recording mode described in FIG. 13. 再生画像データにその特徴点や特徴点情報が付加されていない場合には撮影画像データの場合と同様に再生画像から特徴点を抽出する。 If the feature points and feature point information to the reproduced image data is not added to extract a feature point from the case as well as a reproduced image of captured image data. ここで画像データに付加されている特徴点情報について図14を基に説明する。 Here will be described the feature point information added to the image data on the basis of FIG. 14. 図14に示すようにDSC002という画像データのファイルには実際の画像データ以外に特徴点情報と特徴点データが付加して記録される。 The image data file called DSC002 As shown in FIG. 14 is recorded by adding the actual feature point information except the image data and the feature point data. 図14の場合には特徴点情報として、A氏とCちゃんの2名について登録されている。 In the case of FIG. 14 is a characteristic point information is registered for two persons of Mr. A and C chan. 登録内容としては、優先度とこの画像データにおいてA氏あるいはCちゃんを抽出した日にちとその特徴点の重心位置、A氏については更にこのDSC002という画像データ以外の画像データから抽出したA氏の他の特徴点が二つあるのでそれについても追加して登録している。 The registration contents, priorities with other A, who extracted centroid position of the feature point and date of extracting Mr. A or C Chan, even for Mr. A from the image data other than image data that this DSC002 in the image data since feature points there are two are registered by adding about it. ここでも図13と同様に簡単なコメントや記録時あるいは再生時の処理方法について記録しておいても良い。 Again, Figure 13 and may be recorded for the processing method at the time or at the time of reproduction as simple comments or recording. 更に特徴点抽出演算部1123で演算した特徴点までの距離を記録しておいても良い。 Furthermore the distance to the feature point calculated by the feature point extraction calculation section 1123 may be recorded. 特徴点情報のデータ内容の変更、追加、削除は任意である。 Changing the data contents of the feature point information, add, delete is optional. これらA氏あるいはCちゃんの実際の特徴点データはその下の特徴点データエリアに順に記録される。 Actual feature data of Mr. A or C chan is recorded sequentially in the feature point data area underneath.
【0033】 [0033]
ステップS151で撮影画像データの特徴点あるいは再生画像データに付加されていた特徴点と特徴点情報が記憶部1127に登録済みであったならばステップS152に進む。 If the feature point that is added to the feature point or reproducing the image data of the photographed image data at step S151 and the feature point information was registered in the storage unit 1127 proceeds to step S152. ここでは登録済み特徴点あるいは特徴点情報を追加あるいは変更するかどうか判別する。 Here, it is determined whether to add or change the registered feature point or feature point information. 具体的には抽出した人物名や優先順位を入力したり変更したりする。 More specifically, to enter or modify the person's name and priorities extracted. ステップS152で追加あるいは変更しなかったならばステップS156に進み、追加あるいは変更入力されたならばステップS153に進む。 If you did not add or change in step S152 proceeds to the step S156, if it is added or changed input, the process proceeds to step S153.
【0034】 [0034]
ステップS151で特徴点とその特徴点情報とを登録していなかったならば、ステップS153に進む。 If did not register the feature points and its feature point information in step S151, the the process proceeds to the step S153. ここでは抽出した特徴点や登録する特徴点情報をLCDモニタ109に表示する。 Here displays the extracted feature point information to the feature point and registered in the LCD monitor 109. ステップS154では表示されている特徴点や特徴点情報を登録するよう指示されたかどうか判断する。 In step S154 displays whether judges whether or instructed to register the feature points and feature point information is. 原則として、新たに検出された特徴点が既に登録されている特徴点と全く同一でない限り新規に抽出した特徴点はステップS155で特徴点と特徴点情報を記憶部1127に追加して記憶する。 In principle, a new feature points extracted newly unless the feature points detected is not already identical to the feature points that are registered are additionally stored feature point and the feature point information in the storage unit 1127 in step S155. この記憶指示は例えば設定釦1164でLCDモニタ109の画面に表示されている登録実行表示を選択することで行うことが出来る(不図示)。 The storage instruction can be done by selecting a registration execution display displayed on the screen of the LCD monitor 109 in setting button 1164 for example (not shown). これにより次第に人物の識別の精度が高くなる。 Thus the accuracy of the identification of the person is increased gradually. 抽出された特徴点が既に登録されていたり、ユーザにとって全く無関係の特徴点が抽出されていた場合などは新規に登録指示をしないのでステップS156に進む。 Or is registered extracted feature points already, does not the registration instruction to the new like if it was extracted totally unrelated feature point for the user proceeds to step S156. ステップS156では同一画面内の他の特徴点についても登録を行うかどうか判別する。 Also to determine whether to register for other feature points in the step S156 in the same screen. もしも他の特徴点が選択されたならばステップS151に戻ってこれまでと同様の手順で登録する。 If registers the same procedure as far back to the step S151 if the other feature points are selected.
【0035】 [0035]
他の特徴点が選択されなかった場合にはステップS157に進んでデジタルカメラの動作モードを判別する。 If other feature points is not selected to determine the operating mode of the digital camera proceeds to step S157. もし撮影モードに設定されていたならばこの登録のステップを終了する。 If you had been set in if the shooting mode After completion of the step of this registration. 被写体を変更したりして表示画面が変わった場合にはその都度この登録動作を行う。 In the case where the display screen or to change the subject has changed it is carried out in each case the registration operation. カメラの動作モードが再生モードだった場合にはステップS158に進む。 If the operation mode of the camera was a playback mode, the process proceeds to step S158. ここでは今度は設定釦1164でカード記録実行表示が選択された(不図示)かどうか判別する。 Here, it is determined whether this time card recording execution display is selected by the setting button 1164 (not shown). 記録指示が選択された場合には変更あるいは新規に追加された特徴点あるいは特徴点情報を原画像に付加してメモリカードに記録する。 By adding a feature point or feature point information that is added to modify or new original image is recorded on the memory card when the recording instruction is selected. もし選択されなかった場合には付加情報の更新は行わずに本登録のステップを終了する。 The completion of the step of the registration does not update the additional information when not selected it.
【0036】 [0036]
《撮影画角設定》 "Photographing field angle setting"
図2ステップS110の撮影画角の設定について図5を使って説明する。 Use Figure 5 for setting the shooting angle of view 2 step S110 will be described. これは例えば自分の子供のCちゃんをその運動会で撮影したいというような場合に好適な設定シーケンスである。 This is the preferred setting sequence in the case, such as that you want to, for example, taking their the C-chan of the children in the athletic meet. まずステップS171では撮影したい人物(例えばCちゃん)を記憶部1127に記憶されている特徴点情報の中から人物の固有名情報に基づいて設定釦1164を使って選択し優先撮影人物として予め登録する。 Registering in advance as a selected priority shooting person using the setting button 1164 on the basis of the person to first photographing step S171 (e.g., C-chan) from the feature point information stored in the storage unit 1127 to a unique name information of the person . この優先撮影人物として登録された人物に対しては前述した特徴点に付加されている優先順位より優先する。 Priority than the priority that is added to the feature point described above with respect to the person registered as the priority shooting person. ステップS172では撮影画面中に人物(主として顔)が抽出されたかどうか判別する。 Step S172 In a person in the photographing screen (primarily face) it is determined whether it has been extracted. もし抽出されなかった場合にはステップS173に進んでCPU112はドライバ113を駆動してズームレンズを長焦点方向にズーミングアップしていく。 If CPU112 proceeds to step S173 if not extracted continue to zooming up the zoom lens in the long focal direction by driving the driver 113. このズーミングアップは手動であっても自動であっても良い。 The zooming up may be automatic, even manually. ステップS174ではズームレンズが最大ズーム位置に達したかどうか判別して達していなかったならばステップS172に戻って人物が抽出されるまでこれを繰り返す。 Step S174 In the zoom lens repeated until a person returns to step S172 if not reached to determine whether it has reached the maximum zoom position is extracted. ステップS174でズームレンズが最大焦点位置に達したならばステップS175に進みLCDモニタ109上に人物が検出されない旨の警告表示(不図示)して本画角設定のステップを終了する。 Step S174 In the zoom lens is completed steps up if reaching the focal point the step S175 to proceeds warning display indicating that the person on the LCD monitor 109 is not detected (not shown) to the field angle setting. 撮影者が撮影方向を変えて撮影画面が変わったらステップS172からのステップを繰り返す。 Photographer repeats the steps from step S172 When the shooting screen is changed by changing the shooting direction.
【0037】 [0037]
ステップS172で顔が検出されたならばステップS176で図15に示したように抽出した人物の顔にマーカを重畳表示する。 Face is superimposed on a marker to a person's face extracted as shown in FIG. 15 in step S176 if it is detected in step S172. この表示画面を見てユーザは予め設定した人物の顔が撮影画面内に入っているかどうかを確認する。 Look at this display screen the user is the face of a person that has been set in advance to confirm whether or not contained in the shooting screen. もし入っていなかったならば画面を移動させて所望の人物を容易に画面内に捉えることが出来る。 Desired person easily can be viewed on the screen and the screen by moving the if did not contain if. ステップS177では画面内の設定した人物が所定の大きさ以上かどうか判別する。 Setting the person step S177 in the screen to determine whether a predetermined size or larger. もし所定の大きさ以上だった場合には本ステップを終了し、所定の大きさ以下だった場合にはステップS178に進む。 If the case was more than a predetermined size to exit this step, the process proceeds to step S178 when it was less than a predetermined size. ステップS178ではCPU112はズームレンズを自動的にズーミングアップしていく。 In step S178 CPU112 it is going to automatically zooming up the zoom lens. このとき前述したVRレンズも同時にドライバ113で駆動して抽出した被写体の重心が画面中央近傍から外れないようにする。 At this time so that the center of gravity of the object extracted by driving in VR lens at the same time the driver 113 described above does not come off from the screen near the center.
【0038】 [0038]
ステップS179では設定した人物の顔の大きさが所定の大きさ以上になったかどうか判別する。 Step S179 the size of the face of the person who set the it is determined whether or not equal to or greater than a predetermined magnitude. もし所定の大きさ以上でなかったならばステップS177に戻りズームレンズとVRレンズの駆動を継続する。 If continuing the driving of the zoom lens and the VR lens return if not the predetermined size or larger in step S177. ステップS180で最大ズーム位置に達したならばステップS181に進んで警告する。 Once it reached the maximum zoom position to alert the process proceeds to step S181 in step S180. この警告はLCDモニタ109上に警告表示する(不図示)とともにブザー123でも音声で警告して本シーケンスを終了する。 This warning the sequence is finished by warning sound a warning display on the LCD monitor 109 (not shown) even buzzer 123. ステップS179で所望の人物の顔の大きさが所定の大きさ以上になった場合には本シーケンスを終了する。 The size of the face of a desired person in the step S179 is in the case of equal to or greater than a predetermined size to end this sequence. ここで所定の大きさについては例えば全画面の約10%というように予めその大きさを設定釦1164を用いて設定しておく。 Here, the predetermined size is set by using a setting button 1164 in advance its size and so about 10 percent, for example full screen. また、ステップS178でズーミングアップすることはせずに単に所望の人物の顔をVRレンズで画面中央部に移動させるだけに止めておいても良い。 Further, it may be previously stopped just simply moving the face of a desired person in the middle of the screen unit in VR lens without be zooming up at step S178. こうすることでユーザは中心にある所望の被写体を手動で自分の好みの大きさに手動でズーミングアップすることが出来る。 The user is the desired subject in the center manually manually can be zooming up to the size of their own preferences in doing this. この様にして、運動会、演奏会、発表会等の大勢の子供がいる中から自分の子供を確実に見つけて記録することが出来る。 In such a manner to, athletic meet, concert, their children from there are a large number of children, such as a recital reliably find and can be recorded. また、ここまでの説明では顔が小さかった場合について自動的にズーミングアップするようにしていたがこの逆に顔が大きすぎた場合に所定の顔の大きさになるように自動的にズームダウンするようにしても良い。 Further, where the above description had been so automatically zooming up the case face is smaller automatically zoom down so that the size of the predetermined face when the face is too large to reverse it may be so. 同様に、ステップS174で最大ズーム位置になった後ユーザによって画面が変えられたならば顔が抽出されるまで今度は逆にズームダウンするようにしても良い。 Similarly, the maximum turn by the user after becoming a zoom position to if the screen has been changed face is extracted may be zoom-down reversed at step S174. これらの場合のシーケンスもズームアップする場合とほぼ同様であるので説明は省略する。 Description will be almost the same as also zoom up sequence when they are omitted.
【0039】 [0039]
《撮影条件の設定》 "Setting the shooting conditions"
図2ステップS111の撮影条件の設定について図6〜図8を使って説明する。 Setting imaging conditions in FIG. 2, step S111 using 6 to 8 will be described. 図6は複数被写体が抽出されたときにそれぞれの被写体までの距離に応じて絞り値を変えて最適な焦点深度を設定するフローである。 6 is a flow of setting the optimum focal depth by changing the aperture value according to the distance to each object when multiple objects are extracted. ステップS201で人物の顔の輪郭あるいは眼が検出されたかどうか判別する。 Contour or eye of the face of a person to determine whether it has been detected in step S201. どちらも検出されなかった場合にはステップS208に進み、風景等の遠景撮影であると判断してステップS208に進んで絞り値を大きく設定して焦点深度を深くする。 Both proceeds to step S208 if not detected, the depth of focus is set larger the aperture proceeds to step S208 it is determined that the distant view photographing scenery or the like. ステップS201で顔の輪郭あるいは眼が検出された場合にはステップS202に進む。 If the outline or the eyes of the face is detected in step S201 advances to step S202. ステップS202ではそのときのズームレンズ位置(焦点距離)を検出器121で検出し、記憶部1127に記憶する。 In step S202 the zoom lens position at that time (the focal length) is detected by the detector 121, the storage unit 1127. ステップS203では前述したように抽出された顔の輪郭の大きさあるいは眼幅と記憶部1127に記憶されたズームレンズ位置とから被写体までの距離を演算して記憶部1127に記憶する。 Step S203, and calculates the distance from the zoom lens position stored contour size or eye width of the face extracted as described above and the storage unit 1127 to the object stored in the storage unit 1127. ステップS204では撮影画面内の全ての人物に対して距離演算が終了したか判別する。 Distance calculation to determine whether the completed for all persons in the step S204 the photographing screen. もし終了していなかったならばステップS203に戻ってそれぞれの人物に対して距離演算して記憶部1127に記憶する。 If completed for each person returns to step S203 if did not distance calculation to the storage unit 1127.
【0040】 [0040]
抽出した全ての人物に対して距離演算が終了したならばステップS205に進み抽出した人物の数を判別する。 Distance calculation for the extracted every person who is to determine the number of the extracted person proceeds to step S205 if finished. ステップS205で人物の数が所定値以上であると判別されたならば集合写真と判断してステップS208に進んで焦点深度を深くして全ての人物に対して焦点が合うように絞り値を大きく設定する。 Step number of persons in S205 is larger aperture to focus for all persons with the focal depth proceed to judge the group photograph If it is determined that step S208 is not less than the predetermined value set to. 具体的には、ステップS203で検出された各人物までの距離に基づいて全ての人物に対して焦点が合うための最適の焦点深度を求め、それに相当する絞り値を設定する。 Specifically, determine the optimum depth of focus for in focus for all persons on the basis of the distance to each person detected in step S203, it sets the aperture value corresponding thereto. ステップS205で人物の数が所定値以下であると判別されたならば、ステップS206に進んでここでそれぞれの顔の大きさを判別する。 If the number of persons in the step S205 is judged to be equal to or less than the predetermined value, to determine the size of each face where the flow proceeds to step S206. もし顔の大きさが所定の大きさ以上であると判別されたならばステップS207に進み、ポートレート撮影と判断して絞り値を小さくすることで焦点深度を浅く設定する。 If the size of the face proceeds to step S207 if it is judged to be equal to or larger than a predetermined size, it is determined that the portrait be shallower focal depth by decreasing the aperture value. ステップS206で顔の大きさが所定の大きさ以下であると判断されたならば風景を含めた記念写真と判断してステップS208に進み絞り値を大きくして焦点深度を深くする。 The size of the face in the step S206 is deeply greatly to the depth of focus of the aperture proceeds to step S208 it is determined that commemorative photographs, including landscapes If it is determined to be equal to or less than a predetermined size. ここで所定の人数とは3ないし4名程度に予め設定する。 Here, the predetermined number set in advance to about four from 3.
【0041】 [0041]
この様にすることにより、ユーザが撮影モードを予め風景撮影用のモードに設定していた場合に撮影画面内に人物が検出されたならば自動的に人物撮影に適した深度の浅いポートレート撮影用のモードで撮影することが出来る。 By this way, the user is automatically depth shallow portraits suitable for portrait photography if the person in the photographic image plane is detected when you have set the mode for advance landscape photography shooting mode it can be taken in the mode of use. 逆にポートレート撮影用のモードに設定していたときに人物が検出されなかったならば自動的に深度の深い風景撮影用のモードに変更して撮影することが出来る。 If the person when you have set the mode for portrait photography in reverse is not detected automatically you can be taken to change the deep mode for shooting scenery of depth. なお、ここで説明した被写体までの距離の演算方法において、顔の大きさや眼幅は大人や子供で異なり大人同士、子供同士であっても個人差がある。 Note that in the calculation method of the distance to the object that is described here, the size and Mehaba face there are individual differences even adults each other between children differ in adults and children. それ故、あくまでも大人あるいは子供の平均の顔の大きさ、眼幅から求めたおおよその距離である。 Therefore, strictly adult or the size of the average of the face of a child, is the approximate distance was determined from the eye width. 正確な合焦位置は前述したコントラスト法によるピーク位置に基づいて決定される。 The exact focus position is determined based on the peak position by the above-mentioned contrast method.
【0042】 [0042]
次に図7、図16、図17、図18を使用してAFエリアあるいはAEエリアの設定について説明する。 Next, FIG. 7, 16, 17, using Figure 18 describes the configuration of the AF area or AE area. 図7においてはAFエリアの設定ということで説明しているがAEエリアの設定についても全く同様である。 Is exactly the same applies to the set and although the AE area described in that setting of the AF area in FIG. 図7ステップS221においてまず撮影画面内の所定の範囲内に人物がいるかどうか判別する。 First, determine whether there is a person within a predetermined range in the photographing screen in FIG. 7 step S221. 人物の有無の判別方法としてはここでは顔の輪郭が抽出されたかどうかで判別するものとする。 As a discrimination method for the presence or absence of a person it is here assumed to be determined by whether the outline of the face is extracted. もし人物がいなかったならばステップS222に進んで予め設定された中央部等の固定のエリアをAFエリアとする。 If the fixed area of ​​the central portion or the like which is set in advance proceeds to step S222 if the person does not have the AF area. これは、もしも人物が抽出されたとしてもその人物が画面の隅の方にいた場合には撮影者は人物に重点を置いて撮影しようとしてはいないと判断し、これを排除するためである。 This is because also is the person determines that the case was in a corner of the screen is not as trying to shoot with an emphasis on the photographer is a person, to eliminate this as if a person has been extracted. 図16にこの場合の撮影画面例を示す。 Figure 16 shows the imaging screen example in this case. 図において太い波線でマーカ表示されている人物は画面内の細い波線で示す範囲外にいるのでその場合には予め設定された画面中央の太い実線枠内をAFエリアに設定する。 People that are markers displayed in bold broken line in the figure is the case because it is in the outside of the range indicated by a thin broken line of the screen for setting the preset screen center thick solid line frame in the AF area. 多点測距可能な場合にはこのAFエリアは画面中央以外にも設定可能である。 If multi-point distance measurement can be the AF area can be set other than the center of the screen.
【0043】 [0043]
ステップS221で画面所定範囲内に人物が抽出された場合にはステップS223に進み、抽出された人物の顔の数が複数かどうか判別する。 If the person is extracted on the screen a predetermined range at step S221 proceeds to step S223, the number of faces of the extracted person to determine whether multiple. 複数でなかった場合にはステップS228に進み、複数だった場合にはステップS224に進む。 The case was not more than the flow proceeds to step S228, in the case was the multiple process proceeds to step S224. ステップS224では抽出された顔のうち最大の顔を選択してそこをAFエリアとして設定しAFエリアであるという表示をする。 Step S224 of the extracted face the selected maximum face set there as the AF area to an indication that an AF area. 図17にこの場合の撮影画面の表示例を示す。 Figure 17 shows a display example of a shooting screen in this case. ここでは抽出された実線で表示されている最大顔部分がAFエリアとして設定されていることを示している。 Here the maximum face part that is displayed in the extracted solid line indicates that it is set as the AF area. ステップS225では自動的に設定されたAFエリア以外の人物位置をAFエリアに設定するかどうか判別する。 Step S225 In the automatically configured person position other than the AF area to determine whether to set the AF area. もし撮影者が設定釦1164を操作して波線で表示されている他の人物のいずれかを選択したならばその操作に従ってAFエリアを順に移動させる。 If the photographer moves the AF area in the order in accordance with the operation if the selected one of the other persons are displayed in broken lines by operating the setting button 1164. この場合の選択の順番としては、もし前述した優先順が記憶されている人物であったならばその優先順に従って選択されるがそれ以外に抽出された顔の大きさの順に選択されるようにしても良い。 As the order of selection when, if as previously described order of priority are selected in the order of magnitude of is selected according to the priority order Once a person stored extracted otherwise face and it may be. ステップS227で選択が終了したならばステップS228に進み抽出された顔の面積の大きさが第1の所定値以上かどうか判別する。 Selected at step S227 the size of the area of ​​the extracted flow proceeds to step S228 if finished face to determine whether the first predetermined value or more. もし第1の所定値以下だった場合にはステップS229に進んで抽出した顔を内側に含む所定の大きさ(例えば第1の所定値)にAFエリアを設定する。 If the case was first predetermined value or less to set the AF area to a predetermined size including the extracted face proceeds to step S229 inward (for example, the first predetermined value). これは抽出された顔の面積が小さすぎる場合には前述したAF演算の際の精度が悪くなるからである。 This is when the area of ​​the extracted face is too small because the accuracy in the AF operation described above is deteriorated. 図18にこの場合の表示例を示す。 Figure 18 shows a display example of this case.
【0044】 [0044]
ステップS228で抽出された顔の面積が第1の所定値以上だった場合にはステップS230に進んでここで更に第2の所定値以上かどうか判別する。 Area of ​​the extracted face in step S228 is to determine if here any more second predetermined value or more proceeds to step S230 if it was equal to or more than the first predetermined value. もし第2の所定値以上だった場合にはポートレート撮影であると判断してステップS231に進んで顔全体をAFエリアに設定するのでなく更に抽出した目の位置をAFエリアに設定する。 If sets the willing entire face further extracted eye positions not to set the AF area to the portrait it is determined that photographing is a step S231 in the AF area when it was the second predetermined value or more. 図19にこの場合の表示例を示す。 Figure 19 shows a display example of this case. 第2の所定値以下だった場合にはステップS232に進み、先に抽出された顔の面積をAFエリアに設定する。 If it was less than a second predetermined value, the process proceeds to step S232, sets the area of ​​the face which is extracted before the AF area. ここで第1および第2の所定値とは各種被写体を撮影した上で予め最適の値が設定されている。 The value of the pre-optimal in terms of shot various subjects is set as the first and second predetermined values ​​here.
【0045】 [0045]
ここまでの説明においてステップS224では最大の顔を初めに選択するようにしたがこれを前述した登録の優先順位の最も高い人物あるいは撮影画角設定の項で説明した優先撮影人物を初めに表示するようにしても良い。 It was to select the step S224 at maximum face in the description up to this initially displayed on the first priority shooting person who described the highest person or section of the selected camera angle setting registration priority mentioned above this it may be so. あるいは顔の抽出と同時にその人物までの距離を計算して最短距離にいる人物から順に選択するようにしても良い。 Or by calculating the distance to the extraction and the person at the same time the face may be selected from a person in the shortest distance in the order. また、前述した優先撮影人物に対してはその演算された距離に基づいてフォーカスレンズの移動範囲を演算距離の前後の所定範囲のみ移動可能なように制限してやることで、人物に対するAF動作を背景の影響を受けにくくすることが可能となる。 In addition, by'll limit so as to be movable only a predetermined range before and after the movement range calculated distance of the focus lens based on the distance for priority shooting person described above which is the operation of the background of AF operation to the person influence it is possible to less susceptible to. 更にこの優先撮影人物に対してAF追従動作が確実かつ高速になる。 Furthermore AF following operation is ensured and fast for this priority shooting person. そのほか、スポーツ撮影等で連写撮影モードに設定されている場合には、一コマ目の撮影はコントラスト法による評価値ピークに基づいて撮影距離を決定し、2コマ目以降の撮影の場合には前回撮影したときとの人物や顔の輪郭あるいは眼幅の前のコマとの差(変化量)を検出してそのときのズームレンズ位置とあわせて被写体までの距離を演算することも容易に可能である。 In addition, if it is set to continuous shooting mode in sport shooting such as one frame of the captured determines the photographing distance based on the evaluation value peak by contrast method, if the 2nd image shooting the difference between the previous frame of a person or face contour or eye width between the last time imaging (change amount) detected and computing the distance to the subject in conjunction with the zoom lens position at that time also easily permit it is. こうすることで高速に被写体変動に追従することが可能なAF制御を実現することが出来る。 It can be realized capable of AF control to follow the subject fluctuates at high speed by so doing.
【0046】 [0046]
ここまでのAFエリアの設定のシーケンスは前述したようにAEエリアの設定においても全く同様に適用することが出来る。 Setting sequence of the AF area so far can similarly be applied even in the setting of AE area, as described above. もちろんこの場合においても前述した第1の所定値および第2の所定値はAFエリアの時と同様に実験で予め最適値が決定される。 Of course the first predetermined value and second predetermined value described above also in this case the previously optimum value in the same experiment in the case of the AF area is determined.
【0047】 [0047]
次に図8に基づいて撮影モードの変更について説明する。 Next, change of the shooting mode will be described with reference to FIG. ステップS241で撮影モードが人物を撮影するに適した人物撮影モードに設定されているかどうか判別する。 Shooting mode in step S241, it is determined whether it is set to portrait mode suitable for photographing a person. この人物撮影モードにおいては1例として背景をぼかすために絞りは開放に近い値に設定し、ホワイトバランスは肌色を重視した設定にし、測距モードはAFモードに設定される。 This is in portrait mode aperture to blur the background as an example is set to a value close to the open, white balance is set that emphasizes skin color, ranging mode is set to the AF mode. もし人物撮影モードに設定されていたならばステップS242に進み、ここでは人物が抽出されたかどうか判別する。 If Once it is set to portrait mode proceeds to step S242, where to determine whether a person has been extracted. もし抽出されなかったならばステップS243に進み、ブザーやモニタ等で警告するとともにステップS244で遠景撮影に適した風景撮影用モードに変更して本シーケンスを終了する。 If if not extracted proceeds to step S243, and terminates this sequence is changed to landscape imaging mode suitable for distant view photographed in step S244 with a warning buzzer or monitor. この風景撮影用のモードの場合には焦点深度を深くするために絞りは大きな値に設定され、測距モードは焦点深度に応じて無限位置まで合焦する固定位置にフォーカスレンズを駆動する。 In this scene when the imaging mode of the diaphragm in order to deepen the focal depth is set to a large value, the distance measurement mode to drive the focus lens in a fixed position to focus to infinity position in accordance with the depth of focus. ホワイトバランスは通常撮影時に使用される設定にするかあるいは昼間の撮影であったならば木の緑や青空を重視した設定にする。 White balance if was set to or during the day of the shooting, which is used in normal shooting to set with an emphasis on green and blue sky of a tree. ステップS242で人物が検出された場合には本ステップは終了する。 This step if a person is detected in step S242 is terminated. ステップS241で人物撮影モードに設定されていなかった場合にはステップS245に進んでここで人物が検出されたかどうか判別する。 If that has not been set in the portrait mode in step S241 person here proceeds to step S245 to determine whether it has been detected. もし検出されなかった場合には本シーケンスを終了し、検出されたならばステップS246に進んでブザーやモニタで警告するとともに、ステップS247で人物撮影用のモードに変更し本シーケンスを終了する。 If you terminate this sequence if not detected, with a warning buzzer or monitor proceeds to step S246 if it is detected, and change the mode for portrait in step S247 and terminates this sequence.
【0048】 [0048]
《ストロボの設定》 "Strobe setting of"
図9を用いてストロボの発光量を設定する方法について説明する。 It describes a method of setting a light emission amount of the flash with reference to FIG. ステップS251では所定のAEエリア内の被写体に対してAE演算回路1121で測定した被写体輝度が所定値より大きいかどうか判別する。 Subject luminance measured by the AE calculation circuit 1121 with respect to the subject in the predetermined AE area in step S251, it is determined whether or larger than a predetermined value. ここで被写体とは人物に限定されない。 Here not limited to a person and an object. もし被写体輝度が所定値より小さい暗い被写体だった場合にはステップS261に進み、所定値より大きくて被写体が明るかった場合にはステップS252に進む。 If the process proceeds to step S261 when the subject luminance was less dark subject than the predetermined value, the process proceeds to step S252 when the subject was brighter greater than a predetermined value. ステップS252では撮影画面中に人物が抽出されたかどうか判別する。 Step person in during shooting screen S252 it is determined whether it has been extracted. ここでも人物としては顔の輪郭が抽出されたかどうかで判別する。 Again as a person is discriminated by whether the outline of the face is extracted. もし顔の輪郭が抽出されなかった場合にはステップS253に進んでストロボを非発光に設定する。 If in case the contour of the face is not extracted is set to a non-electronic flash proceeds to step S253. この非発光設定に基づいて撮影時にはCPU112はストロボを非発光にするよう制御する。 The time of shooting based on the non-light emission setting CPU112 controls so as to not emit light flash. これにより実際の撮影時にはAE演算部1121の演算結果に基づいたシャッタスピードと絞り値とで被写体が露光される。 Thus at the time of actual photographing object by the aperture value and shutter speed based on the calculation result of the AE calculation section 1121 it is exposed.
【0049】 [0049]
ステップS252で顔の輪郭が抽出された場合にはステップS254に進んで抽出された人物の顔部分の明るさを測定する。 If the outline of the face is extracted in step S252 to measure the brightness of the face portion of the person extracted proceeds to step S254. ステップS255では測定された顔部分の明るさが所定値より明るかったならばステップS253に進み、暗かったならばステップS256に進む。 If step S255 the brightness of the measured face portion in was brighter than a predetermined value, the process proceeds to step S253, if it was dark proceeds to step S256. ステップS256では前述した図6ステップS203の場合と同様に検出した顔の大きさあるいは眼幅とそのときのズームレンズ位置に基づいて抽出した人物までの距離を演算する。 In step S256 calculates the distance to the person extracted based on the zoom lens position of the size or the eye width of the face detected as in the case of FIG. 6 step S203 described above and the time. ステップS257では人物までの距離がストロボの適正露光可能範囲内であるかどうか判別する。 The distance to the person in step S257, it is determined whether the proper exposure range of the flash. もし適正露光可能範囲内であったならばステップS258に進み撮影前に赤目軽減のためのプリ発光をするように設定し、ステップS259で抽出した人物の顔が適正露光となるように演算した距離を基にストロボの発光量を設定する。 Distance if appropriate if there were within the exposure range proceeds to step S258 set to the pre-flash for red-eye reduction before shooting, the face of the person extracted in step S259 is calculated so as to correct exposure to set the light emission amount of the flash based on.
【0050】 [0050]
これにより、CPU112は実際の撮影時に、AE演算部1121によって演算されたシャッタスピードと絞り値とに設定するよう制御する。 Thus, CPU 112 during the actual shooting, and controls to set the aperture value and shutter speed computed by the AE calculation section 1121. これにより人物を除いた画面全体が適正露光状態で撮影される。 Thus the entire screen except for the person is photographed with the proper exposure state. 一方、周辺より暗い状態になっている人物に対しては距離に基づいて設定された発光光量でストロボを発光するよう制御する。 On the other hand, it is controlled so as to emit flash light-emitting amount that is set based on the distance for the person has become darker than the surrounding conditions. これにより人物に対しても適正な露光状態で撮影することが出来る。 This makes it possible to taking pictures at the proper exposure state even for a person. この機能は逆光撮影時に特に効果的である。 This feature is particularly effective at the time of backlit scenes. ストロボ本発光の前にはステップS258の設定に基づいて赤目軽減用のプリ発光をするようCPU112が制御する。 Prior to flash the light emission CPU112 controls to the pre-flash for red-eye reduction on the basis of the setting in step S258. このプリ発光は複数回行うようにしても良い。 This pre-flash may be performed a plurality of times. ステップS257で適正露光可能範囲外であった場合にはステップS259に進んで人物が適正露光しない旨警告表示する(不図示)。 If was proper exposure can range in step S257 advances person to warning display indicating that no appropriate exposure in the step S259 (not shown).
【0051】 [0051]
ステップS251で被写体が暗かった場合にはステップS261に進んでここでも撮影画面中に人物としての顔の輪郭が抽出されたかどうか判別する。 If the subject was dark in step S251 to determine whether the contour of the face of a person is extracted into the imaging screen again proceeds to step S261. もし顔の輪郭が抽出された場合にはステップS262に進んでステップS256の場合と同様に抽出された人物までの距離を演算する。 If in case the contour of the face is extracted to calculate the distance to the person, which is extracted as in step S256 proceeds to step S262. ステップS263では人物までの距離がストロボの適正露光可能範囲内であるかどうか判別する。 The distance to the person in step S263, it is determined whether the proper exposure range of the flash. もし適正露光可能範囲外だった場合にはステップS260に進み人物が適正露光外である旨の警告表示する。 The person proceeds to the step S260 to warn indication is proper exposure outside of the case was if the proper exposure can be out of range. 適正露光可能範囲内だった場合にはステップS264に進み撮影前にストロボをプリ発光するように設定する。 If it was a fair exposable range sets the flash before shooting process proceeds to step S264 to pre-emission. このプリ発光の役割はここではステップS258で述べた赤目軽減用以外に更に、プリ発光による人物からの反射光に基づいて実際の撮影時のストロボ発光量を決定するためのものである。 In this case the role of pre-emission further than for red-eye reduction described in step S258, is used to determine the amount of flash light emission during actual photographing, based on the reflected light from the person by the pre-emission. ステップS265ではプリ発光の際の顔部分からの反射光に基づいて撮影時のストロボの発光量を決定するように設定する。 At step S265 set to determine a light emission amount of the flash at the time of shooting based on the reflected light from the face portion at the time of preliminary light emission. ここでも前と場合と同様、プリ発光は複数回行っても良く、更に赤目軽減用プリ発光と反射光測定用プリ発光とで分けても良い。 As with the previous Again, pre-flash may be performed plural times, or may be further separated by a relief for pre-flash red and the pre-emission reflection light measurement. ステップS260で人物が抽出されなかった場合にはステップS266に進んで被写体輝度をAE演算した結果に基づいてストロボの発光光量を設定する。 If the person is not extracted in step S260 to set the amount of light emission of the strobe based on the result of the object luminance and AE operation proceeds to step S266. ステップS258やステップS264で赤目軽減用にストロボをプリ発光するよう設定する代わりに撮影後に撮影した瞳を検出して赤目部分をソフト的に補正する設定にしても良い。 Step S258 and the flash may be detected and the red-eye portion pupil taken after photographing, instead of setting to pre-emission to the soft corrected setting the for red-eye reduction in step S264.
【0052】 [0052]
《撮影》 "Photographing"
図10、図11、図20、図21を使用して通常とは異なる2種類の撮影方法のシーケンスについて説明する。 10, 11, 20, will be described a sequence of two different imaging methods usually using Figure 21. 図10は全押しSW1163を1回押すと自動的にAFエリアから得られる焦点評価値の複数のピーク位置でそれぞれ撮影する様に構成されたシーケンスである。 Figure 10 is a sequence that is configured so as to shoot by a plurality of peak positions of the focus evaluation values ​​obtained from automatic AF area when pressed once full press SW1163. これにより各ピーク位置に対応した被写体毎に合焦した複数の画像データを得ることができる。 This plurality of image data focused on every object corresponding to each peak position by can be obtained. ステップS301で半押しSW1162がオンされたことを検出するとステップS302でCPU112はフォーカスレンズを至近から無限まで移動させ評価値を演算し評価値のピークを検出する。 Step S301 In Step S302 when it is detected that the half-press SW1162 is turned CPU112 detects the peak of the calculated evaluation value to move the focus lens from the closest to infinite evaluation value. ステップS303ではピークが複数あるかどうか判別する。 Peak In step S303, it is determined whether a plurality. もしピークが一つしかない場合にはステップS306に進み、ピークが複数検出された場合にはステップS304に進む。 If the process proceeds to step S306 when the peak is only one, if the peak is more detected, the process proceeds to step S304. ステップS304では特徴点抽出演算部1123によって人物が抽出されたかどうか判別する。 In step S304 the feature point extraction calculation section 1123 in determining whether a person has been extracted. ここで人物が抽出された場合にはこれまでと同様に抽出した眼幅とズームレンズ位置から抽出された人物迄の距離を演算してその演算して得られた人物までの距離が複数のピークのどれに対応するか判別する。 Here when a person is extracted with calculates a distance to the person extracted from similarly extracted eye width and the zoom lens position and the far the distance a plurality of peaks until the person obtained in this operation to determine corresponding to any of the. ステップS305では最至近にいる人物位置を最初の撮影位置として選択しCPU112はフォーカスレンズを最至近人物位置を示しているピーク位置に駆動する。 Step S305 The person position who is closest in selecting as the first imaging position CPU112 drives the peak position showing the closest person position the focus lens.
【0053】 [0053]
ステップS303でピーク位置が一つしかなかった場合にはステップS306で検出したピーク位置(この場合この位置が最至近ピーク位置となる)を選択する。 Peak positions in step S303 is the case was only one selects a peak position detected in step S306 (in this case this position is the closest peak position). ステップS304でピークが複数検出されて且つ人物が検出されなかった場合にもステップS306に進んで最至近位置を撮影位置として選択する。 Peak in step S304 selects the willing closest position to the step S306 even if and person is more detected is not detected as the photographing position.
【0054】 [0054]
ステップS307では全押しSW1163がオンされたかどうか判別する。 Full press SW1163 step S307, it is determined whether it has been turned on. もしオンされていなかったならばステップS313に進み、オンされたならばステップS308に進む。 If if had not been on the procedure proceeds to step S313, if it is turned on, the process proceeds to step S308. ステップS308では前述したステップS305あるいはステップS306で選択されたピーク位置で露光し、露光終了後蓄積した画像データを読み出す。 Exposing a selected peak positions in step S308 step S305 or step S306 described above in, reads the image data stored after the end of exposure. ステップS309では他の人物位置に相当するピーク位置の有無を判別する。 In step S309 it is determined whether the peak positions corresponding to the other person position. もし他の人物位置に相当するピーク位置が有ったならばステップS308に戻ってその位置で2度目の露光をした後に蓄積した画像データを読み出す。 If the flow returns to step S308 if a peak position is there corresponding to other person position read out image data stored after the second time exposure at that position. 他に人物位置に相当するピーク位置がなかったならばステップS311に進み最至近ピーク位置での露光が終了しているかどうか判別する。 Other If there is no peak position corresponding to the person located in the exposure in the closest peak position proceeds to step S311 to determine whether the termination. もし最至近ピーク位置での露光が終了していなかったならばステップS312に進み、最至近位置で引き続き露光する。 The procedure proceeds to step S312 if the exposure at the closest peak position has not been completed if, to continue the exposure at the closest position. 最至近位置での露光が終了していたならば本シーケンスを終了する。 If the exposure at the closest position has been completed to end the present sequence. ステップS307で全押しSW1163が押されていなかったならばステップS313に進む。 If the full press SW1163 has not been pressed in step S307, the process proceeds to step S313. ステップS313では半押しSW1162が押されているかどうか判別する。 Step S313 In half-press SW1162 is determined whether the pressed. もし半押しSW1162が押されていたならばステップS307に戻り全押しSW1163が押されるまでフォーカスをロックする。 If you lock the focus to the full press SW1163 returns to the step S307, if the half-press SW1162 has been pressed is pressed. ステップS313で半押しSW1162が押されていなかったなら本シーケンスを終了する。 Half-press SW1162 is this sequence is completed if had not been pressed in step S313.
【0055】 [0055]
図20、21を使って実際の撮影例を説明する。 To explain the actual shooting example using FIGS. 20 and 21. 図20は撮影画面内に人物とそれより手前に花が配置されていた場合である。 Figure 20 shows a case where the person and flowers it from the front was arranged in the photographing screen. 通常のAF撮影では最至近優先で合焦するのでこの場合には手前の花に対してピントのあった画像が1枚だけ撮影される。 In normal AF imaging is photographed only one image in focus with respect to the front of the flower when this since focused on the closest distance priority. 図21はこの場合のフォーカスレンズ位置に対応した評価値変化を示している。 Figure 21 shows the change in the evaluation value corresponding to the focus lens position in this case. ここでは画面全体をAFエリアとした場合の評価値変化を示している。 Are shown here evaluation value variation in the case where the entire screen and the AF area. この場合は焦点評価値に二つのピーク(P1、P2)が検出される。 In this case, two peaks in the focus evaluation value (P1, P2) is detected. 通常のAFではP1とP2の大きさには関係なく或る程度以上の大きさであったならば最至近のピークであるP2が選択される。 P2 is the size of the normal in the AF P1 and P2 is a peak of the closest Once a certain degree or more in size regardless is selected. この様に単に被写体のコントラストを検出しているだけではP1に相当する位置x1と、P2に相当する位置x2のどちらに人物がいるのか判定することが出来ない。 Only by detecting the contrast of such a simply subject to the position x1 corresponding to P1, it is impossible to determine whether there is a person in either position x2 corresponding to P2. これに対して人物の顔の大きさあるいは眼幅から人物までの距離を演算することによって位置x1が人物によるピークであると判断することが出来る。 In contrast position x1 by calculating the distance from the size or the eye width of the face of the person to the person it can be determined to be a peak due to the person. それ故、最至近位置x2と人物位置x1との都合2回撮影することでそれぞれにピントのあった画像データを得ることが出来る。 Therefore, it is possible to obtain an image data in focus, each by conveniently twice taking the closest position x2 and the person position x1. あるいは人物ピーク位置でのみ撮影するようにして最至近ピークが人物以外のピークであった場合には撮影しないようにしても良い。 Alternatively closest peaks so as to only shoot the person peak positions may not be captured when peaked other than a person. この時、前述した撮影画角の設定の場合と同様、優先撮影人物を予めカメラに設定しておいてその人物に対応するピークで1回だけ撮影するようにしても良い。 In this case, as in the case of setting the imaging angle of view described above, it may be captured only once peak corresponding to the person in advance by setting in advance the camera priority shooting person.
【0056】 [0056]
これによりたとえ複数の人物がAEエリア内にいたとしても確実に所望の人物に対してピントが合った画像を得ることが出来る。 Thus even if a plurality of persons can be obtained an image in focus relative to reliably desired person even was in the AE area. 人物が複数いた場合には全ての人物について撮影するのでなく、一定の評価値以上のピークに対応する人物位置で撮影するようにしても良い。 If a person had multiple rather than shooting for all the persons, it may be taken with the person position corresponding to a certain evaluation value or more peaks. あるいは最大連続撮影枚数を設定できるようにしても良い。 Or it may be able to set the maximum number of consecutive shots. 前述したように特徴点を基に演算した特徴点までの距離は正確な距離ではないのでこのようにコントラスト法において複数ピークがあった場合などに補助的に人物位置ピークを判定するのに使用することで正確に合焦させることが出来る。 Since the distance to the feature point calculated based on the feature points as described above is not the correct distance used to determine the supplementarily person position peak, for example, if there are multiple peaks in this way contrast method it can make accurate focusing that.
【0057】 [0057]
次に図11を基に目を閉じた状態で撮影されることを防ぐ方法について説明する。 The method then will be described to avoid being shot with closed eyes based on FIG. ステップS321で全押しSW1163が押されたならばステップS322で全押しスイッチが押される前の画像データから特徴点抽出演算部1123により被写体の瞳を検出する。 By the feature point extraction calculation section 1123 from the image data before full press switch is pressed if the full press SW1163 is pressed in step S321 in step S322 to detect the pupil of the subject. ここで被写体が目を閉じていて瞳が検出されないと判断されたならばステップS323で被写体の瞳が検出されるまで実際の露光を遅延させステップS322に戻る。 Here delaying the actual exposure to the pupil of the subject in step S323 if the object is pupil closed eyes is judged not to be detected is detected the flow returns to step S322. 瞳が検出されたならばステップS324で実際に露光を行い、ステップS325で露光した画像データを読み出す。 If pupils are detected actually subjected to exposure in step S324, it reads out the image data exposed in step S325. ステップS326では読み出した画像データから直ちに特徴点抽出演算部1123で瞳を再度検出する。 Step detecting a pupil again immediately feature point extraction calculation section 1123 from S326 in the read image data. この時瞳が検出されなかったならばステップS327でブザー123でもって警告しステップS322に戻って瞳が検出されたことを確認して直ちに再露光する。 In this case the pupil is immediately re-exposure to confirm that the pupil is detected the process returns to step S322 to warn with buzzer 123 in step S327 if not detected. ステップS326で瞳が検出されたならば本シーケンスを終了する。 This sequence is completed, if the pupil is detected in step S326. このように撮影前に被写体が目を開けていることを確認するとともに、撮影後も目を閉じて撮影されてしまったかどうかを直ちに確認している。 With to make sure that the subject before taking the picture in this way is open your eyes, and immediately check whether had been taken to close the eyes even after shooting. これによりもし目を閉じて撮影された場合には直ちに再度撮影することが出来る。 It can be immediately taken again in the case of this by being if taken with eyes closed. あるいは再度撮影する変わりに目を閉じて撮影された場合には撮影後にその部分のみソフト的に補正してやっても良い。 Or may be doing only software corrected the part after the shooting when it is taken with eyes closed in place to shoot again. 補正方法としては撮影後にモニタで被写体の動画を撮影していた際の被写体の開いている目を抽出してこれを閉じている目と置き換えてやればよい。 It may do it by replacing the eye by extracting an eye open of the subject at the time of not recording a movie object in the monitor after shooting is closed this as a correction method.
【0058】 [0058]
この図11の説明では撮影後に目を閉じていたことを検出して再撮影するようにしていたが、ほかにも撮影した被写体の不具合を検出して再度撮影することで最良の画像を得るようにすることが出来る。 Had be detected and re-shoot that had eyes closed after shooting in the description of FIG. 11, to obtain the best image by photographing again detect a defect of a subject it is also taking in addition it can be made. 例えば、撮影時に被写体が動いてしまった場合には再生画像からブレを検出することで判別することが出来る。 For example, when the subject is had moved during shooting can be determined by detecting the vibration from the reproduced image. あるいは、集合写真で顔が隠れてしまったりした場合には撮影前の顔の数と撮影後の顔の数とを比較したり、あるいは顔の輪郭の抽出が不充分であるような場合にも再度撮影するように設定することも可能である。 Alternatively, even if, as in the case of or've hidden face in a group photo is insufficient to compare the number of face after shooting and the number of faces before shooting, or the face of the contour of the extraction it is also possible to set up to shoot again. さらにステップS327の警告においてもブザーでもって警告するだけでなく音声で例えば“目を閉じて撮影されました。”、“ブレて撮影されました。”、“顔が隠れている人がいます。”等具体的に不具合を警告するようにしても良い。 "Was filmed close your eyes." Also voice, for example, not only warning with a buzzer In a further warning of the step S327, "it was filmed Te shake." There are people who are hidden "face. "or the like may also be warning the specific problems.
【0059】 [0059]
《記録処理》 "Recording process"
図12を基に特徴点抽出に伴う記録時の処理について説明する。 12 for processing at the time of recording with the feature point extraction based on will be described. ステップS401ではまず特徴点抽出演算部1123によって人物の顔の輪郭が抽出されたかどうか判別する。 By Step S401 First, in the feature point extraction calculation section 1123 to determine whether the contour of the face of the person is extracted. もし抽出されなかったならば予め設定されている色再現用あるいは輪郭強調用パラメータを使用した記録処理を行う。 If performing recording processing using preset parameters for color reproduction or for edge enhancement and if not extracted. 抽出されたならばステップS402に進んで抽出された顔の数を判別する。 If it is extracted to determine the number of extracted face it proceeds to step S402. 顔の数が所定値以下だったならばステップS406に進み、所定値以上だったならばステップS403に進む。 If the number of faces was below a predetermined value, the process proceeds to step S406, the process proceeds to step S403 if it was more than a predetermined value. ここで所定値とは3〜4程度の値が適している。 Here, the value of 3 to 4 is suitable for the predetermined value. 顔の数が3〜4個よりも多く抽出された場合には集合写真を撮影していると判断してステップS403でデジタル信号処理回路106において色再現用のパラメータを肌色を重視したパラメータを使用するようにする。 Using parameters that emphasize skin color parameters for color reproduction in the digital signal processing circuit 106 at step S403 it is determined that the shooting group photograph in the case where the number of faces is extracted more than 3 to 4 to be in. ステップS404では更に、顔の特定部位を検出しステップS405で特定部位近傍以外の顔の部分の輪郭強調を弱めるように処理する。 In step S404 further processes to weaken the edge enhancement part of the face other than the specific site near in and step S405 detects a specific portion of the face. 特定部位とは例えば眼、鼻、口、耳、髪、眉毛等である。 The specific site, for example the eye, nose, mouth, ears, hair, eyebrows or the like. これによりこれら特定部位近傍以外の部分では周波数特性にローパスフィルタがかけられるので頬や額等にあるしわ、ほくろ、シミ等を目立たなくすることが出来る。 Thus since the low-pass filter is applied to the frequency characteristic wrinkles in cheeks and forehead, etc., mole, it can be inconspicuous stains in a portion other than these specific sites near. ステップS402で顔の数が所定値以下だった場合にはステップS406に進んで顔の大きさを判別する。 The number of faces in the step S402, it is determined the size of the face proceeds to step S406. If it was less than a predetermined value. もし顔が複数検出されていたなら最大の大きさの顔で判別する。 If the face is determined by the maximum size of the face Had been several detected. 顔の面積が所定値より大きかった場合にはポートレート撮影と判断して肌色を重視した処理を行うステップS403に進む。 When the area of ​​the face is greater than the predetermined value, the process proceeds to step S403 to perform the process with an emphasis on skin color is determined that the portrait. 顔の面積が所定値より小さかったならば風景を含めた記念撮影と判断し、通常の記録処理を行う。 Area of ​​the face is determined to ceremonial photograph, including the landscape if smaller than the predetermined value, performs a normal recording process.
【0060】 [0060]
この様にステップS403では顔部分に対してのみ肌色重視処理をしているのでなく、画像データ全体に対して通常の色パラメータの代わりに肌色を重視したパラメータを選択して処理を施している。 Rather than being a skin color emphasis processing only to such the the face portion step S403, is subjected to processing by selecting the parameter that emphasize skin color instead of the usual color parameter for the entire image data. これは肌色以外の部分においてはこの様に肌色を重視したパラメータを採用した処理を施したとしても、元もと肌色成分が少ないので肌色重視処置をした際の影響が少ないからである。 This is in the portion other than the skin color even subjected to a treatment employing the parameters that emphasize skin color in this way, because there is little effect upon the skin color emphasis treatment because the original original skin color component is small. これによりわざわざ顔部分を抜き出してそこに対してのみ肌色重視処理するといった複雑な処理が不要となる。 Complicated processing such thereby skin color emphasis processing only to which an extracted bother face portion becomes unnecessary.
【0061】 [0061]
ここまでの説明において、ステップS405で施した処理とは逆に抽出された眼、鼻、口、耳、髪、眉毛およびその近傍部分に対して輪郭強調を強めに施すことによりくっきりとした顔を表現することもできる。 In the description up to this point, the eye and processing extracted reversed subjected in step S405, nose, mouth, ears, hair, a crisp face by applying a stronger edge enhancement with respect to the eyebrows and its vicinity It can also be expressed. また、あまり小さな顔に対して輪郭強調を施しても効果は小さいので或る程度大きな顔に対してのみ輪郭強調を施すようにしても良い。 Further, it may be subjected to only the edge enhancement with respect to very effective be subjected to edge enhancement for small face is small because some extent large face. またこれらステップS403の肌色処理とステップS405の輪郭強調処理は何れかのみを選択可能としても良い。 Or it may be a contour enhancement process in skin color processing and step S405 of the steps S403 Selectable only one. この肌色処理あるいは輪郭強調処理のパラメータをそれぞれ複数備えていて、これらから適宜選択をして肌色の程度あるいは輪郭強調の程度を最良の状態とすることも容易である。 The parameters of this flesh color processing or edge enhancement processing comprise a plurality respectively, it is easy to be appropriately selected from these the degree of degree or contour enhancement of the skin color best condition. これ以外にも、年齢や男女の性別を判断して老人や女性の場合には色相以外に彩度や輝度を上げるためのパラメータを選択するようにしてもよい。 In addition to this, when it is determined age and sex gender of elderly and women may select the parameters to increase the saturation or luminance other than hue. あるいは、特定の人種に最適な色バランスをそのまま他の人種に適用すると不自然な肌色が再生されてしまうので人種に応じて肌の色を緩和するような色パラメータを選択するのも効果的である。 Alternatively, also to select the color parameter that is unnatural skin color Applying optimum color balance to a particular race as it is to other races to alleviate skin color in accordance with the race so would be reproduced it is effective. このためには、顔や手足、耳、鼻等の骨格形状、瞳や顔の色、唇形状、着衣、髪型等から判断して人種を判別すれば良い。 To do this, face and limbs, ears, skeletal shapes, such as the nose, eyes and facial color, lip shape, clothing, or if it is determined the race to determine from the hairstyle or the like. 更に、ここまでの説明においてはこれらの処理を記録前に行うようにしていたが、これを再生時に行っても良い。 Further, in the description up to this point had performed before recording these processes may be performed this during playback. すなわち、図14で説明した画像ファイルに、前述した特徴点情報と特徴点データ以外に各個人毎の特有の情報やホワイトバランス処理情報や輪郭強調処理情報も同時に記録しておくことで再生時に最適な処理を施すことが出来る。 That is, perfect image files described in Figure 14, during playback by recording specific information and white balance processing information and edge enhancement processing information for each individual every other feature point information and the feature point data described above at the same time Do processing can be subjected.
【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS
【図1】本発明によるデジタルカメラの構成を示すブロック図である。 Is a block diagram showing a configuration of a digital camera according to the invention; FIG.
【図2】本発明によるデジタルカメラの動作シーケンスを説明するフローチャートである。 Is a flowchart illustrating the operation sequence of the digital camera according to the invention, FIG.
【図3】本発明によるデジタルカメラの動作シーケンスを説明するフローチャートである。 Is a flowchart illustrating the operation sequence of the digital camera according to the present invention; FIG.
【図4】特徴点情報を登録する時のシーケンスを説明するフローチャートである。 4 is a flowchart for explaining the sequence when registering the feature point information.
【図5】撮影画角を設定する時のシーケンスを説明するフローチャートである。 5 is a flowchart for explaining the sequence when setting the shooting angle.
【図6】撮影条件を設定する時のシーケンスを説明するフローチャートである。 6 is a flowchart for explaining the sequence when setting a shooting condition.
【図7】他の撮影条件を設定する時のシーケンスを説明するフローチャートである。 7 is a flowchart for explaining the sequence when setting a different photographing conditions.
【図8】他の撮影条件を設定する時のシーケンスを説明するフローチャートである。 8 is a flowchart for explaining the sequence when setting a different photographing conditions.
【図9】ストロボの発光量を設定する時のシーケンスを説明するフローチャートである。 9 is a flowchart for explaining the sequence when setting the light emission amount of the flash.
【図10】撮影シーケンスを説明するフローチャートである。 10 is a flowchart for explaining an imaging sequence.
【図11】他の撮影シーケンスを説明するフローチャートである。 11 is a flowchart illustrating another imaging sequence.
【図12】記録処理シーケンスを説明するフローチャートである。 12 is a flowchart illustrating a recording process sequence.
【図13】特徴点と特徴点情報の記録状態を説明する図である。 13 is a diagram illustrating a recording state of the feature point and the feature point information.
【図14】画像データとそこに付加されている特徴点情報の記録状態を説明する図である。 14 is a diagram illustrating a recording state of the feature point information added thereto and the image data.
【図15】抽出した特徴点に対してそれぞれ区別してマーカ表示している表示例である。 Is a display example that marker presented separately respectively [15] extracted feature points.
【図16】AFエリアあるいはAEエリアの設定を示す表示例である。 16 is a display example showing the setting of the AF area or AE area.
【図17】AFエリアあるいはAEエリアの他の設定を示す表示例である。 17 is a display example showing another configuration of the AF area or AE area.
【図18】AFエリアあるいはAEエリアの他の設定を示す表示例である。 18 is a display example showing another configuration of the AF area or AE area.
【図19】AFエリアあるいはAEエリアの他の設定を示す表示例である。 19 is a display example showing another configuration of the AF area or AE area.
【図20】AFエリアの設定を示す表示例である。 20 is a display example showing the setting of the AF area.
【図21】図20の被写体の位置関係を説明する図である。 21 is a diagram illustrating the positional relationship of the object of Figure 20.
【図22】レンズの焦点距離と眼幅から人物までの距離を求める説明図である。 22 is an explanatory diagram for obtaining a distance from the focal length and the eye width of the lens to the person.
【符号の説明】 DESCRIPTION OF SYMBOLS
101 撮影レンズ102 絞り103 撮像素子104 アナログ信号処理部105 バッファメモリ106 デジタル信号処理部108 D/Aコンバータ109 LCDモニタ110 記録・再生信号処理部111 外部記憶媒体112 CPU 101 photographic lens 102 aperture 103 imaging element 104 the analog signal processing unit 105 the buffer memory 106 the digital signal processing unit 108 D / A converter 109 LCD monitor 110 recording and reproducing signal processor 111 external storage medium 112 CPU
113 レンズ駆動部114 絞り駆動部115 撮像素子駆動部116 操作部材120 インタフェース121 レンズ位置検出部122 ストロボ123 発音体135 A/Dコンバータ1121 AE演算部1122 AWB演算部1124 バンドパスフィルタ1125 加算部1126 AF演算部1127 記憶部1161 電源スイッチ1162 半押しスイッチ1163 全押しスイッチ1164 設定釦1165 アップ/ダウン釦 113 lens driving unit 114 diaphragm driver 115 image pickup device driving section 116 operating member 120 interface 121 lens position detector 122 flash 123 sounding body 135 A / D converter 1121 AE computation section 1122 AWB calculation unit 1124 bandpass filter 1125 adding unit 1126 AF calculation unit 1127 memory unit 1161 the power switch 1162 halfway press switch 1163 full press switch 1164 setting button 1165 up / down button

Claims (23)

  1. 画像データから所定の特徴部位を抽出する抽出手段と、ユーザからの指示を受け付ける受付手段と、前記特徴点が複数抽出された場合に前記受付手段が受け付けた指示によりそれぞれの特徴部位を所定の順番で選択する選択手段と、前記選択手段により選択された前記特徴部位を特定する特徴部位情報を表示する表示手段とを備えたことを特徴とするデジタルカメラ。 Extraction means for extracting a predetermined feature portion from image data, receiving means and a predetermined order each feature site by instructing said reception unit receives when the feature points are more extracted for receiving an instruction from the user in a selection means for selecting, the digital camera comprising the display means for displaying the feature portion information identifying the characteristic site selected by the selecting means.
  2. 請求項1記載のデジタルカメラにおいて、前記表示手段は前記画像データに重畳して前記特徴部位情報を表示することを特徴とするデジタルカメラ。 The digital camera according to claim 1, wherein said display means digital camera and displaying the characteristic site information superimposed on the image data.
  3. 請求項1記載のデジタルカメラにおいて、更に、前記抽出手段によって抽出された前記特徴部位の中から顔の大きさを判別する判別手段を備え、 The digital camera of claim 1, further comprising a discriminating means for discriminating the size of the face from among the characteristic portions extracted by said extraction means,
    前記選択手段は前記判別手段が判別した顔の大きい順に選択することを特徴とするデジタルカメラ。 Digital Camera said selection means, characterized in that the selection in descending order of the face where the discriminating means has discriminated.
  4. 請求項1記載のデジタルカメラにおいて、更に、前記抽出手段によって抽出された前記特徴部位までの距離を判別する判別手段を備え、前記選択手段は前記判別手段が判別した距離の近い順に選択することを特徴とするデジタルカメラ。 The digital camera of claim 1, further comprising a discriminating means for discriminating a distance to the characteristic portions extracted by said extraction means, said selecting means to select the order of closeness of the distance to the discriminating means has discriminated digital camera which is characterized.
  5. 請求項1記載のデジタルカメラにおいて、更に、前記抽出手段によって抽出された前記特徴部位を含んだ所定エリアをフォーカスを検出するためのフォーカスエリアとして設定するフォーカスエリア設定手段を備えたことを特徴とするデジタルカメラ。 The digital camera according to claim 1, further comprising the focus area setting means for setting a predetermined area including the feature portion extracted by the extraction means as a focus area for detecting focus Digital camera.
  6. 請求項1記載のデジタルカメラにおいて、更に、前記抽出手段によって抽出された前記特徴部位を含んだ所定エリアを測光エリアとして設定する測光エリア設定手段を備えたことを特徴とするデジタルカメラ。 The digital camera of claim 1, further digital camera comprising the photometric area setting means for setting a predetermined area including the feature portion extracted by the extraction means as a photometry area.
  7. 画像データから所定の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した前記特徴部位を表示する表示手段と、前記表示手段が表示している前記特徴部位に関する情報を受け付ける受付手段と、前記特徴部位と前記特徴部位に関する情報を記憶する記憶手段とを備えたことを特徴とするデジタルカメラ。 Extraction means for extracting a predetermined feature portion from image data, a display means for displaying the feature portion extracted by the extracting unit, a receiving unit that receives information on the characteristic site of the display means is displaying said digital camera characterized by comprising a storage means for storing information relating to the characteristic site and site characteristics.
  8. 画像データから所定の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した前記特徴部位を表示する表示手段と、前記表示手段が表示している前記特徴部位に関する情報を入力する入力手段と、前記特徴部位と前記特徴部位に関する情報とを前記画像データと関連付けて記録するよう指示する指示手段と、前記指示手段によって関連付けられた前記特徴部位と前記特徴部位に関する情報と前記画像データとを記憶する記憶手段とを備えたことを特徴とするデジタルカメラ。 Extraction means for extracting a predetermined feature portion from image data, a display means for displaying the feature portion extracted by the extracting unit, an input means for inputting information relating to the characteristic site of the display means is displaying, stores the instruction means for instructing the said characteristic portion associated with instruction means and the characteristic site information on the said image data so as to record the information on the characteristic portion and the characteristic portions in association with the image data digital camera is characterized in that a storage means.
  9. 請求項7または請求項8いずれかに記載のデジタルカメラにおいて、前記特徴部位に関する情報とは前記特徴部位に関する固有名情報であることを特徴とするデジタルカメラ。 The digital camera according to claim 7 or claim 8, a digital camera, wherein said information about the characteristic site is unique name information relating to the characteristic site.
  10. 請求項7または請求項8いずれかに記載のデジタルカメラにおいて、前記特徴部位に関する情報とは複数の特徴部位が同時に抽出されたときに選択の優先度を定めた優先順位情報であることを特徴とするデジタルカメラ。 The digital camera according to any one of claims 7 or claim 8, and wherein the information about the characteristic site is priority information that defines the priority of selection when the plurality of characteristic sites are extracted simultaneously digital camera.
  11. 請求項10記載のデジタルカメラにおいて、更に、前記優先順位情報を識別する識別手段と、前記識別手段が識別した優先順位に基づいて順に選択する選択手段とを備えたことを特徴とするデジタルカメラ。 The digital camera according to claim 10, further wherein the priority identification means for identifying order information, a digital camera in which the identifying means is characterized by comprising selecting means for selecting in sequence based on the priority identified.
  12. 請求項10記載のデジタルカメラにおいて、更に、前記表示手段に表示されている所定の被写体までの距離を測定するための測距エリアを設定する測距エリア設定手段を備え、前記優先順位情報とは、前記複数の特徴部位の中から前記測距エリア設定手段が測距エリアを設定する際の優先順位であることを特徴とするデジタルカメラ。 The digital camera according to claim 10, further comprising a ranging area setting means for setting a ranging area for measuring the distance to a predetermined object displayed on the display unit, and the priority information , digital cameras, wherein the ranging area setting means from among the plurality of characteristic site is the priority for setting a ranging area.
  13. 請求項10記載のデジタルカメラにおいて、更に、前記表示手段に表示されている所定の被写体の明るさを測定するための測光エリアを設定する測光エリア設定手段を備え、 The digital camera according to claim 10, further comprising a light measuring area setting means for setting the photometry area for measuring the brightness of a predetermined object displayed on the display means,
    前記優先順位情報とは、前記複数の特徴部位の中から前記測光エリア設定手段が測光エリアを設定する際の優先順位であることを特徴とするデジタルカメラ。 The priority information and a digital camera, characterized in that said photometric area setting means from among the plurality of characteristic site is the priority in setting the photometry area.
  14. 請求項7または請求項8いずれかに記載のデジタルカメラにおいて、前記特徴部位に関する情報とは前記特徴部位を含む画像データを記録する際の色処理情報あるいは輪郭補正処理情報の少なくとも一つの情報であることを特徴とするデジタルカメラ。 The digital camera according to any one of claims 7 or claim 8, wherein the information about the characteristic site is at least one of the information of the color processing information or the contour correction information when recording the image data including the characteristic site digital camera, characterized in that.
  15. 請求項7または請求項8いずれかに記載のデジタルカメラにおいて、前記特徴部位に関する情報とは前記特徴部位を含む画像データを再生する際の色処理情報あるいは輪郭補正処理情報の少なくとも一つの情報であることを特徴とするデジタルカメラ。 The digital camera according to any one of claims 7 or claim 8, wherein the information about the characteristic site is at least one of the information of the color processing information or the contour correction process information upon reproducing the image data including the characteristic site digital camera, characterized in that.
  16. 請求項7記載のデジタルカメラにおいて、更に、前記表示手段に表示している特徴部位あるいはその特徴部位に関する情報の少なくとも一つが前記記録手段に記録済みであったならば記録済みであることを識別表示する識別表示手段を備えたことを特徴とするデジタルカメラ。 The digital camera according to claim 7, further identification that at least one characteristic portion or information related to the characteristic part is displayed on the display means is recorded if were recorded in the recording means digital camera characterized by comprising an identification means for.
  17. 請求項8記載のデジタルカメラにおいて、前記特徴部位に関する情報とは前記画像データから前記特徴部位を抽出したときの前記画像データ内における位置情報であることを特徴とするデジタルカメラ。 The digital camera according to claim 8 wherein the digital camera, wherein said information about the characteristic site is position information in the image data within the time of extracting the feature region from the image data.
  18. 第1の特徴部位と前記第1の特徴部位に関する第1の固有名情報とが記憶された記憶手段と、画像データから所定の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した第2の特徴部位に関する第2の固有名情報を入力する入力手段と、前記第1の固有名情報と前記第2の固有名情報とが同一であって且つ、前記第2の特徴部位が前記第1の特徴部位と異なった場合に前記第2の特徴部位を前記記憶手段に追加して記憶する記憶手段とを備えたことを特徴とするデジタルカメラ。 Storage means for a first unique name information relating to the first feature portion first feature portion is stored, extracting means for extracting a predetermined feature portion from image data, the said extraction means has extracted 2 input means for inputting a second unique name information about the characteristic portions of the first unique name information and the second unique name information and the and the same, the second feature portion is the first digital camera characterized by comprising a storage means for storing in addition to the storage means the second feature portion when different from the characteristic part of.
  19. 第1の特徴部位と前記第1の特徴部位に関する固有名情報とが記憶された第1の記憶手段と、第2の特徴部位と前記固有名情報とが画像データと関連付けられて記憶された第2の記憶手段と、前記第2の特徴部位が前記第1の特徴部位と異なった場合に前記第2の特徴部位を前記第1の記憶手段に追加して記憶する記憶手段とを備えたことを特徴とするデジタルカメラ。 The first storage means and the unique name information about the first feature portion and the first feature portion is stored, and the unique name information and the second characteristic portion is stored in association with the image data and second storage means, said second characteristic portion is provided with a storage means for storing by adding the second feature portion when different from the first characteristic portions in the first storage means digital camera according to claim.
  20. 第1の特徴部位と前記第1の特徴部位に関する固有名情報とが記憶された第1の記憶手段と、第2の特徴部位点と前記固有名情報とが画像データと関連付けられて記憶された第2の記憶手段と、前記第1の特徴部位が前記第2の特徴部位と異なった場合に前記第1の特徴部位を前記第2の記憶手段に追加して記憶するよう指示する指示手段とを備えたことを特徴とするデジタルカメラ。 A first storage means and the unique name information about the first feature portion and the first feature portion is stored, the second feature portion points and the unique name information is stored in association with the image data second storage means, and instructing means for the first feature portion is instructed to add and store the first feature site if different from the second feature portion in the second storage means digital camera comprising the.
  21. 画像データを表示する表示手段と、 Display means for displaying the image data,
    前記画像データ内から所定の特徴部位を抽出する抽出手段と、複数の特徴部位を予め記憶する記憶手段と、前記抽出手段によって抽出された特徴部位が前記記憶手段に記憶されている複数の特徴部位のいずれかと一致するかどうか判別する判別手段と、前記判別手段によって判別された判別結果を前記表示手段に識別表示する識別表示手段とを備えたことを特徴とするデジタルカメラ。 Extracting means and a plurality of characteristic site storage means, the characteristic part extracted by the extracting means is stored in said storage means for previously storing a plurality of the characteristic part extracts a predetermined feature portion from within the image data and discriminating means for discriminating whether it matches with any of the digital camera, characterized in that the discrimination result discriminated by said discrimination means and a identification means for identifying and displaying on the display means.
  22. 請求項21記載のデジタルカメラにおいて、前記記憶手段は更に、前記特徴部位に関する固有名情報あるいは複数の特徴部位が同時に抽出されたときに選択の優先度を定めた優先順位情報の少なくとも一つの情報を記憶し、 The digital camera according to claim 21, wherein said storage means further at least one of the information priority information defining the priority selection when unique name information or more characteristic portion relates to the characteristic site is extracted at the same time stored,
    前記識別表示手段は前記判別手段が一致していると判別した特徴点に対してその特徴部位に関する前記記憶手段に記憶されている情報を前記表示手段に表示することを特徴とするデジタルカメラ。 It said identification means digital camera and displaying the information stored in the storage means relating to the characteristic portion to the feature points is determined that the determination means coincides with the display means.
  23. 画像データから所定の被写体の特徴点を抽出する抽出手段と、 Extraction means for extracting feature points of a predetermined subject from image data,
    前記抽出した特徴部位と前記画像データとを関連付けて管理する管理手段とを備えたことを特徴とするデジタルカメラ。 Digital camera characterized by comprising a management means for managing in association with the image data, wherein the site of the extracted.
JP2003109886A 2003-04-15 2003-04-15 Digital camera Active JP4196714B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003109886A JP4196714B2 (en) 2003-04-15 2003-04-15 Digital camera

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP2003109886A JP4196714B2 (en) 2003-04-15 2003-04-15 Digital camera
US10814142 US20040207743A1 (en) 2003-04-15 2004-04-01 Digital camera system
EP20040252199 EP1471455B1 (en) 2003-04-15 2004-04-15 Digital camera
DE200460030390 DE602004030390D1 (en) 2003-04-15 2004-04-15 digital camera
US12289689 US20090066815A1 (en) 2003-04-15 2008-10-31 Digital camera system
US13067502 US20110242363A1 (en) 2003-04-15 2011-06-06 Digital camera system
US13964648 US9147106B2 (en) 2003-04-15 2013-08-12 Digital camera system

Publications (2)

Publication Number Publication Date
JP2004320287A true true JP2004320287A (en) 2004-11-11
JP4196714B2 JP4196714B2 (en) 2008-12-17

Family

ID=33470890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003109886A Active JP4196714B2 (en) 2003-04-15 2003-04-15 Digital camera

Country Status (1)

Country Link
JP (1) JP4196714B2 (en)

Cited By (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301008A (en) * 2004-04-14 2005-10-27 Casio Comput Co Ltd Photographic image printer and program
JP2005318515A (en) * 2004-03-31 2005-11-10 Fuji Photo Film Co Ltd Digital still camera, image reproducing apparatus, face image display apparatus, and methods of controlling same
JP2006145629A (en) * 2004-11-16 2006-06-08 Fuji Photo Film Co Ltd Imaging apparatus
JP2006165822A (en) * 2004-12-03 2006-06-22 Nikon Corp Electronic camera and program
JP2006201282A (en) * 2005-01-18 2006-08-03 Nikon Corp Digital camera
WO2006117874A1 (en) * 2005-04-26 2006-11-09 Canon Kabushiki Kaisha Image capturing apparatus and its control method
JP2007080184A (en) * 2005-09-16 2007-03-29 Canon Inc Image processor and method
JP2007081681A (en) * 2005-09-13 2007-03-29 Canon Inc Image pickup device and method therefor
WO2007060980A1 (en) * 2005-11-25 2007-05-31 Nikon Corporation Electronic camera and image processing device
JP2007142866A (en) * 2005-11-18 2007-06-07 Fujifilm Corp Imaging apparatus
JP2007148691A (en) * 2005-11-25 2007-06-14 Nikon Corp Image processor
JP2007178543A (en) * 2005-12-27 2007-07-12 Samsung Techwin Co Ltd Imaging apparatus
JP2007194807A (en) * 2006-01-18 2007-08-02 Fujifilm Corp Object-detecting device, image file recording device, and control method therefor
JP2007232793A (en) * 2006-02-27 2007-09-13 Fujifilm Corp Imaging apparatus
JP2007251754A (en) * 2006-03-17 2007-09-27 Nikon Corp Electronic camera
JP2007249132A (en) * 2006-03-20 2007-09-27 Casio Comput Co Ltd Imaging apparatus, automatic focusing method, and program
JP2007295390A (en) * 2006-04-26 2007-11-08 Fujifilm Corp Imaging apparatus, and warning method
JP2007329679A (en) * 2006-06-07 2007-12-20 Fujifilm Corp Apparatus and method for image display
JP2008003335A (en) * 2006-06-23 2008-01-10 Casio Comput Co Ltd Imaging apparatus, focus control method, focus control program
JP2008046342A (en) * 2006-08-15 2008-02-28 Fujifilm Corp Photographing device and in-focus position search method
JP2008058553A (en) * 2006-08-31 2008-03-13 Casio Comput Co Ltd Imaging apparatus, imaging method, and imaging control program
JP2008078802A (en) * 2006-09-19 2008-04-03 Fujifilm Corp Photographing device and photographing method
JP2008089811A (en) * 2006-09-29 2008-04-17 Canon Inc Imaging apparatus and control method therefor
JP2008191683A (en) * 2004-06-03 2008-08-21 Canon Inc Imaging apparatus and imaging method
JP2008193411A (en) * 2007-02-05 2008-08-21 Fujifilm Corp Photographing controller, photographing device, and photographing control method
JP2008206020A (en) * 2007-02-22 2008-09-04 Matsushita Electric Ind Co Ltd Imaging device and lens barrel
JP2008278351A (en) * 2007-05-02 2008-11-13 Casio Comput Co Ltd Photographing apparatus, method and program for selecting object
JP2008276214A (en) * 2007-04-04 2008-11-13 Nikon Corp Digital camera
JP2008306747A (en) * 2008-07-17 2008-12-18 Fujifilm Corp Digital camera
JP2009037263A (en) * 2008-11-04 2009-02-19 Canon Inc Point adjusting device, imaging device, control method for focus adjusting device, program, and recording medium
JP2009077266A (en) * 2007-09-21 2009-04-09 Fujifilm Corp Digital camera, focus area selecting method of digital camera
KR100894485B1 (en) * 2007-07-06 2009-04-22 캐논 가부시끼가이샤 Image capturing apparatus and its control method
JP2009118009A (en) * 2007-11-02 2009-05-28 Sony Corp Imaging apparatus, method for controlling same, and program
JP2009212666A (en) * 2008-03-03 2009-09-17 Canon Inc Image photographing apparatus and image processing apparatus
JP2009219144A (en) * 2009-05-19 2009-09-24 Casio Comput Co Ltd Imaging apparatus, image recording method, and, program
JP2009229571A (en) * 2008-03-19 2009-10-08 Fujinon Corp Autofocus system
JP2009229570A (en) * 2008-03-19 2009-10-08 Fujinon Corp Autofocus system
JP2009246558A (en) * 2008-03-28 2009-10-22 Canon Inc Imaging apparatus, and method for controlling the same
JP2009267787A (en) * 2008-04-25 2009-11-12 Sony Corp Composition determination device, composition determination method, and program
US7672580B2 (en) 2005-03-17 2010-03-02 Canon Kabushiki Kaisha Imaging apparatus and method for controlling display device
JP2010103947A (en) * 2008-10-27 2010-05-06 Canon Inc Image processing apparatus, imaging apparatus, and image processing method
JP2010243843A (en) * 2009-04-07 2010-10-28 Fujifilm Corp Autofocus system
JP2010252052A (en) * 2009-04-15 2010-11-04 Canon Inc Photographing apparatus, photographing method and program
JP2010267278A (en) * 2010-06-22 2010-11-25 Seiko Epson Corp Image processor, digital camera, image data structure, printer with automatic color correction function, method for creating photographic image with face object information, and method for correcting color
JP2010282107A (en) * 2009-06-08 2010-12-16 Canon Inc Imaging apparatus and control method therefor
US7860386B2 (en) 2006-06-09 2010-12-28 Sony Corporation Imaging apparatus, control method of imaging apparatus, and computer program
JP2011002814A (en) * 2009-05-19 2011-01-06 Nikon Corp camera
US7873186B2 (en) 2006-03-10 2011-01-18 Fujifilm Corporation Target-image detecting apparatus and method of controlling same
US7880926B2 (en) 2006-06-20 2011-02-01 Fujifilm Corporation Imaging apparatus performing flash photography for persons
US7884874B2 (en) 2004-03-31 2011-02-08 Fujifilm Corporation Digital still camera and method of controlling same
JP2011095862A (en) * 2009-10-27 2011-05-12 Canon Inc Apparatus and method for processing image and program
US7952618B2 (en) 2006-01-27 2011-05-31 Fujifilm Corporation Apparatus for controlling display of detection of target image, and method of controlling same
WO2011067906A1 (en) * 2009-12-01 2011-06-09 パナソニック株式会社 Imaging device for recognition, and method for controlling same
CN101313565B (en) 2005-11-25 2011-09-21 株式会社尼康 Electronic camera and image processing device
JP2011186874A (en) * 2010-03-10 2011-09-22 Fujifilm Corp Image processing apparatus for color image data and operation control method thereof
US8031228B2 (en) 2006-02-22 2011-10-04 Sanyo Electric Co., Ltd. Electronic camera and method which adjust the size or position of a feature search area of an imaging surface in response to panning or tilting of the imaging surface
JP2011211291A (en) * 2010-03-29 2011-10-20 Sanyo Electric Co Ltd Image processing apparatus, imaging apparatus and display device
JP2011223174A (en) * 2010-04-06 2011-11-04 Canon Inc Imaging device and method for controlling the same
US8106995B2 (en) 2007-10-05 2012-01-31 Fujifilm Corporation Image-taking method and apparatus
US8145049B2 (en) 2006-05-10 2012-03-27 Canon Kabushiki Kaisha Focus adjustment method, focus adjustment apparatus, and control method thereof
US8228391B2 (en) 2007-02-22 2012-07-24 Panasonic Corporation Image pickup apparatus and lens barrel
US8237803B2 (en) 2007-07-09 2012-08-07 Panasonic Coporation Digital single-lens reflex camera including control section that performs camera shake correction and motion detecting section that detects speed of subject
US8253847B2 (en) 2007-04-04 2012-08-28 Nikon Corporation Digital camera having an automatic focus
US8265474B2 (en) 2008-03-19 2012-09-11 Fujinon Corporation Autofocus system
US8385607B2 (en) 2006-11-21 2013-02-26 Sony Corporation Imaging apparatus, image processing apparatus, image processing method and computer program
KR101310230B1 (en) 2007-01-17 2013-09-24 삼성전자주식회사 Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
US8736691B2 (en) 2006-02-20 2014-05-27 Panasonic Corporation Image pickup apparatus to control an exposure time based on motion of a detected optical image
JP2016082279A (en) * 2014-10-10 2016-05-16 リコーイメージング株式会社 Imaging device, imaging method and program
JP2016114811A (en) * 2014-12-16 2016-06-23 株式会社 日立産業制御ソリューションズ Focus controller, imaging apparatus, and method for controlling focus
JP2018036426A (en) * 2016-08-30 2018-03-08 キヤノン株式会社 Imaging apparatus, method for controlling the same, imaging control device, program, and storage medium

Cited By (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4489608B2 (en) * 2004-03-31 2010-06-23 富士フイルム株式会社 Digital still camera, an image reproducing device and face image display apparatus and control method thereof
JP2005318515A (en) * 2004-03-31 2005-11-10 Fuji Photo Film Co Ltd Digital still camera, image reproducing apparatus, face image display apparatus, and methods of controlling same
US7853140B2 (en) 2004-03-31 2010-12-14 Fujifilm Corporation Digital still camera, image reproducing apparatus, face image display apparatus and methods of controlling same including determination device and decision device
US7884874B2 (en) 2004-03-31 2011-02-08 Fujifilm Corporation Digital still camera and method of controlling same
JP2005301008A (en) * 2004-04-14 2005-10-27 Casio Comput Co Ltd Photographic image printer and program
JP4506253B2 (en) * 2004-04-14 2010-07-21 カシオ計算機株式会社 Photo image extraction device and the program
JP2008191683A (en) * 2004-06-03 2008-08-21 Canon Inc Imaging apparatus and imaging method
US7733412B2 (en) 2004-06-03 2010-06-08 Canon Kabushiki Kaisha Image pickup apparatus and image pickup method
US8300139B2 (en) 2004-06-03 2012-10-30 Canon Kabushiki Kaisha Image pickup apparatus and image pickup method
JP2006145629A (en) * 2004-11-16 2006-06-08 Fuji Photo Film Co Ltd Imaging apparatus
JP2006165822A (en) * 2004-12-03 2006-06-22 Nikon Corp Electronic camera and program
JP2006201282A (en) * 2005-01-18 2006-08-03 Nikon Corp Digital camera
JP4674471B2 (en) * 2005-01-18 2011-04-20 株式会社ニコン Digital camera
US7672580B2 (en) 2005-03-17 2010-03-02 Canon Kabushiki Kaisha Imaging apparatus and method for controlling display device
US7636123B2 (en) 2005-04-26 2009-12-22 Canon Kabushiki Kaisha Image capturing apparatus with light emission controlling mechanism and method of controlling the image capturing apparatus
WO2006117874A1 (en) * 2005-04-26 2006-11-09 Canon Kabushiki Kaisha Image capturing apparatus and its control method
JP2007081681A (en) * 2005-09-13 2007-03-29 Canon Inc Image pickup device and method therefor
JP4659569B2 (en) * 2005-09-13 2011-03-30 キヤノン株式会社 Imaging device
US8194935B2 (en) 2005-09-16 2012-06-05 Canon Kabushiki Kaisha Image processing apparatus and method
JP2007080184A (en) * 2005-09-16 2007-03-29 Canon Inc Image processor and method
US7868917B2 (en) 2005-11-18 2011-01-11 Fujifilm Corporation Imaging device with moving object prediction notification
JP4572815B2 (en) * 2005-11-18 2010-11-04 富士フイルム株式会社 An imaging apparatus and an imaging method
JP2007142866A (en) * 2005-11-18 2007-06-07 Fujifilm Corp Imaging apparatus
WO2007060980A1 (en) * 2005-11-25 2007-05-31 Nikon Corporation Electronic camera and image processing device
US8488847B2 (en) 2005-11-25 2013-07-16 Nikon Corporation Electronic camera and image processing device
CN102231801B (en) 2005-11-25 2013-07-10 株式会社尼康 An electronic camera and an image processing apparatus
CN101313565B (en) 2005-11-25 2011-09-21 株式会社尼康 Electronic camera and image processing device
JP2007148691A (en) * 2005-11-25 2007-06-14 Nikon Corp Image processor
JP2007178543A (en) * 2005-12-27 2007-07-12 Samsung Techwin Co Ltd Imaging apparatus
JP2007194807A (en) * 2006-01-18 2007-08-02 Fujifilm Corp Object-detecting device, image file recording device, and control method therefor
JP4521360B2 (en) * 2006-01-18 2010-08-11 富士フイルム株式会社 Object detecting device and an image file recording apparatus and control method thereof
US7952618B2 (en) 2006-01-27 2011-05-31 Fujifilm Corporation Apparatus for controlling display of detection of target image, and method of controlling same
US8736691B2 (en) 2006-02-20 2014-05-27 Panasonic Corporation Image pickup apparatus to control an exposure time based on motion of a detected optical image
US8031228B2 (en) 2006-02-22 2011-10-04 Sanyo Electric Co., Ltd. Electronic camera and method which adjust the size or position of a feature search area of an imaging surface in response to panning or tilting of the imaging surface
US7889985B2 (en) 2006-02-27 2011-02-15 Fujifilm Corporation Imaging apparatus
JP2007232793A (en) * 2006-02-27 2007-09-13 Fujifilm Corp Imaging apparatus
JP4644883B2 (en) * 2006-02-27 2011-03-09 富士フイルム株式会社 Imaging device
US7873186B2 (en) 2006-03-10 2011-01-18 Fujifilm Corporation Target-image detecting apparatus and method of controlling same
JP4742927B2 (en) * 2006-03-17 2011-08-10 株式会社ニコン Electronic camera
JP2007251754A (en) * 2006-03-17 2007-09-27 Nikon Corp Electronic camera
JP2007249132A (en) * 2006-03-20 2007-09-27 Casio Comput Co Ltd Imaging apparatus, automatic focusing method, and program
JP2007295390A (en) * 2006-04-26 2007-11-08 Fujifilm Corp Imaging apparatus, and warning method
US8145049B2 (en) 2006-05-10 2012-03-27 Canon Kabushiki Kaisha Focus adjustment method, focus adjustment apparatus, and control method thereof
JP2007329679A (en) * 2006-06-07 2007-12-20 Fujifilm Corp Apparatus and method for image display
JP4683337B2 (en) * 2006-06-07 2011-05-18 富士フイルム株式会社 The image display apparatus and image display method
US7860386B2 (en) 2006-06-09 2010-12-28 Sony Corporation Imaging apparatus, control method of imaging apparatus, and computer program
US7880926B2 (en) 2006-06-20 2011-02-01 Fujifilm Corporation Imaging apparatus performing flash photography for persons
JP2008003335A (en) * 2006-06-23 2008-01-10 Casio Comput Co Ltd Imaging apparatus, focus control method, focus control program
JP2008046342A (en) * 2006-08-15 2008-02-28 Fujifilm Corp Photographing device and in-focus position search method
JP2008058553A (en) * 2006-08-31 2008-03-13 Casio Comput Co Ltd Imaging apparatus, imaging method, and imaging control program
JP2008078802A (en) * 2006-09-19 2008-04-03 Fujifilm Corp Photographing device and photographing method
JP4621992B2 (en) * 2006-09-19 2011-02-02 富士フイルム株式会社 Imaging apparatus and imaging method
JP2008089811A (en) * 2006-09-29 2008-04-17 Canon Inc Imaging apparatus and control method therefor
US8385607B2 (en) 2006-11-21 2013-02-26 Sony Corporation Imaging apparatus, image processing apparatus, image processing method and computer program
KR101310230B1 (en) 2007-01-17 2013-09-24 삼성전자주식회사 Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
JP2008193411A (en) * 2007-02-05 2008-08-21 Fujifilm Corp Photographing controller, photographing device, and photographing control method
US8150208B2 (en) 2007-02-05 2012-04-03 Fujifilm Corporation Image pickup apparatus having stability checker for specific object feature value, and program and method for control of image pickup including checking stability of specific object feature value
US8411155B2 (en) 2007-02-22 2013-04-02 Panasonic Corporation Image pickup apparatus and lens barrel
JP2008206020A (en) * 2007-02-22 2008-09-04 Matsushita Electric Ind Co Ltd Imaging device and lens barrel
US8228391B2 (en) 2007-02-22 2012-07-24 Panasonic Corporation Image pickup apparatus and lens barrel
JP2008276214A (en) * 2007-04-04 2008-11-13 Nikon Corp Digital camera
US8253847B2 (en) 2007-04-04 2012-08-28 Nikon Corporation Digital camera having an automatic focus
JP2008278351A (en) * 2007-05-02 2008-11-13 Casio Comput Co Ltd Photographing apparatus, method and program for selecting object
KR100894485B1 (en) * 2007-07-06 2009-04-22 캐논 가부시끼가이샤 Image capturing apparatus and its control method
US8928761B2 (en) 2007-07-09 2015-01-06 Panasonic Corporation Digital camera
US8237803B2 (en) 2007-07-09 2012-08-07 Panasonic Coporation Digital single-lens reflex camera including control section that performs camera shake correction and motion detecting section that detects speed of subject
JP2009077266A (en) * 2007-09-21 2009-04-09 Fujifilm Corp Digital camera, focus area selecting method of digital camera
US8106995B2 (en) 2007-10-05 2012-01-31 Fujifilm Corporation Image-taking method and apparatus
JP2009118009A (en) * 2007-11-02 2009-05-28 Sony Corp Imaging apparatus, method for controlling same, and program
US8384792B2 (en) 2007-11-02 2013-02-26 Sony Corporation Imaging apparatus, method for controlling the same, and program
US8223216B2 (en) 2008-03-03 2012-07-17 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2009212666A (en) * 2008-03-03 2009-09-17 Canon Inc Image photographing apparatus and image processing apparatus
US8531547B2 (en) 2008-03-03 2013-09-10 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2009229571A (en) * 2008-03-19 2009-10-08 Fujinon Corp Autofocus system
US8265474B2 (en) 2008-03-19 2012-09-11 Fujinon Corporation Autofocus system
JP2009229570A (en) * 2008-03-19 2009-10-08 Fujinon Corp Autofocus system
US9894280B2 (en) 2008-03-28 2018-02-13 Canon Kabushiki Kaisha Imaging apparatus for displaying selected face in in-focus state and method for controlling imaging apparatus
US8184192B2 (en) 2008-03-28 2012-05-22 Canon Kabushiki Kaisha Imaging apparatus that performs an object region detection processing and method for controlling the imaging apparatus
JP2009246558A (en) * 2008-03-28 2009-10-22 Canon Inc Imaging apparatus, and method for controlling the same
JP2009267787A (en) * 2008-04-25 2009-11-12 Sony Corp Composition determination device, composition determination method, and program
US9679394B2 (en) 2008-04-25 2017-06-13 Sony Corporation Composition determination device, composition determination method, and program
US8594390B2 (en) 2008-04-25 2013-11-26 Sony Corporation Composition determination device, composition determination method, and program
JP2008306747A (en) * 2008-07-17 2008-12-18 Fujifilm Corp Digital camera
JP2010103947A (en) * 2008-10-27 2010-05-06 Canon Inc Image processing apparatus, imaging apparatus, and image processing method
JP2009037263A (en) * 2008-11-04 2009-02-19 Canon Inc Point adjusting device, imaging device, control method for focus adjusting device, program, and recording medium
JP2010243843A (en) * 2009-04-07 2010-10-28 Fujifilm Corp Autofocus system
JP2010252052A (en) * 2009-04-15 2010-11-04 Canon Inc Photographing apparatus, photographing method and program
JP4577445B2 (en) * 2009-05-19 2010-11-10 カシオ計算機株式会社 Imaging device, image recording method, and a program
JP2011002814A (en) * 2009-05-19 2011-01-06 Nikon Corp camera
JP2009219144A (en) * 2009-05-19 2009-09-24 Casio Comput Co Ltd Imaging apparatus, image recording method, and, program
JP2010282107A (en) * 2009-06-08 2010-12-16 Canon Inc Imaging apparatus and control method therefor
JP2011095862A (en) * 2009-10-27 2011-05-12 Canon Inc Apparatus and method for processing image and program
CN102301693A (en) * 2009-12-01 2011-12-28 松下电器产业株式会社 Identification imaging apparatus and a control method
US8860875B2 (en) 2009-12-01 2014-10-14 Panasonic Intellectual Property Corporation Of America Imaging device for recognition and method of controlling the same
JP5400171B2 (en) * 2009-12-01 2014-01-29 パナソニック株式会社 Recognition imaging apparatus and a control method thereof
CN102301693B (en) 2009-12-01 2014-09-24 松下电器产业株式会社 Imaging device for recognition, and method for controlling same
WO2011067906A1 (en) * 2009-12-01 2011-06-09 パナソニック株式会社 Imaging device for recognition, and method for controlling same
JP2011186874A (en) * 2010-03-10 2011-09-22 Fujifilm Corp Image processing apparatus for color image data and operation control method thereof
JP2011211291A (en) * 2010-03-29 2011-10-20 Sanyo Electric Co Ltd Image processing apparatus, imaging apparatus and display device
JP2011223174A (en) * 2010-04-06 2011-11-04 Canon Inc Imaging device and method for controlling the same
JP2010267278A (en) * 2010-06-22 2010-11-25 Seiko Epson Corp Image processor, digital camera, image data structure, printer with automatic color correction function, method for creating photographic image with face object information, and method for correcting color
JP2016082279A (en) * 2014-10-10 2016-05-16 リコーイメージング株式会社 Imaging device, imaging method and program
JP2016114811A (en) * 2014-12-16 2016-06-23 株式会社 日立産業制御ソリューションズ Focus controller, imaging apparatus, and method for controlling focus
JP2018036426A (en) * 2016-08-30 2018-03-08 キヤノン株式会社 Imaging apparatus, method for controlling the same, imaging control device, program, and storage medium

Also Published As

Publication number Publication date Type
JP4196714B2 (en) 2008-12-17 grant

Similar Documents

Publication Publication Date Title
US6301440B1 (en) System and method for automatically setting image acquisition controls
US7453506B2 (en) Digital camera having a specified portion preview section
US7046924B2 (en) Method and computer program product for determining an area of importance in an image using eye monitoring information
US20060210264A1 (en) Imaging apparatus and method for controlling display device
US20090196466A1 (en) Face Detection in Mid-Shot Digital Images
US7630006B2 (en) Detecting red eye filter and apparatus using meta-data
US20050031224A1 (en) Detecting red eye filter and apparatus using meta-data
US20100302595A1 (en) Image Reproducing Apparatus And Imaging Apparatus
US20050174451A1 (en) Digital camera
US20040100567A1 (en) Camera system with eye monitoring
US7456874B1 (en) Image selecting apparatus, camera, and method of selecting image
US20080187185A1 (en) Image pickup apparatus, and device and method for control of image pickup
US20040119851A1 (en) Face recognition method, face recognition apparatus, face extraction method, and image pickup apparatus
US20080218603A1 (en) Imaging apparatus and control method thereof
US20060204106A1 (en) Imaging device, imaging method and imaging program
US7430369B2 (en) Image capture apparatus and control method therefor
US20050179780A1 (en) Face detecting apparatus and method
JP2004334836A (en) Method of extracting image feature, image feature extracting program, imaging device, and image processing device
JP2006211139A (en) Imaging apparatus
JP2005086516A (en) Imaging device, printer, image processor and program
JP2005102175A (en) Digital camera
JP2007067870A (en) Digital camera system and calibration method of photographing condition
JP2001330882A (en) Camera with subject recognizing function
US20090115864A1 (en) Imaging apparatus, method for controlling the same, and program
JP2005128156A (en) Focusing device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060301

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20060412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080529

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080610

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080909

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080922

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141010

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141010

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141010

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250