JP4371219B2 - Digital camera - Google Patents

Digital camera Download PDF

Info

Publication number
JP4371219B2
JP4371219B2 JP2004137960A JP2004137960A JP4371219B2 JP 4371219 B2 JP4371219 B2 JP 4371219B2 JP 2004137960 A JP2004137960 A JP 2004137960A JP 2004137960 A JP2004137960 A JP 2004137960A JP 4371219 B2 JP4371219 B2 JP 4371219B2
Authority
JP
Japan
Prior art keywords
image data
recording
area
image
folder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004137960A
Other languages
Japanese (ja)
Other versions
JP2005323014A (en
Inventor
弘剛 野崎
康之 元木
秀臣 日比野
雅 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2004137960A priority Critical patent/JP4371219B2/en
Priority to US11/096,066 priority patent/US20050248681A1/en
Priority to EP05252664A priority patent/EP1594311A3/en
Priority to EP10178504A priority patent/EP2259573A3/en
Priority to CNA2005100687274A priority patent/CN1694508A/en
Publication of JP2005323014A publication Critical patent/JP2005323014A/en
Application granted granted Critical
Publication of JP4371219B2 publication Critical patent/JP4371219B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、人物の特徴点を識別し、その識別結果に対応したフォルダに撮影画像データを記録することの出来るデジタルカメラに関する。   The present invention relates to a digital camera capable of identifying feature points of a person and recording photographed image data in a folder corresponding to the identification result.

従来から、指紋あるいは虹彩の特徴点を予め登録しておいてこれと照合することで本人を認証するシステムを初めとして画像データから人物を識別する技術はこれまで多く知られている。特開平9−251534号公報には目、鼻、口等を抽出して特徴点として登録しこれと入力した画像から抽出した特徴点とを比較して当人として識別する方法が詳細に記述されており、特開平10−232934号公報にはこの様にして抽出した特徴点を登録する場合の辞書画像の精度を上げる方法が開示されている。これらの技術をカメラに応用した例を以下に挙げる。   2. Description of the Related Art Conventionally, many techniques for identifying a person from image data have been known, including a system that authenticates a person by registering a fingerprint or iris feature point in advance and collating it with the feature point. Japanese Patent Application Laid-Open No. 9-251534 describes in detail how to identify eyes as a person by extracting eyes, nose, mouth, etc., registering them as feature points, and comparing them with feature points extracted from the input image. Japanese Patent Laid-Open No. 10-232934 discloses a method for increasing the accuracy of a dictionary image when registering feature points extracted in this way. Examples of applying these technologies to cameras are given below.

特開2001−309225号公報には顔認識アルゴリズムにより認識された顔の座標、寸法、目の位置、頭のポーズ等のデータが画像メモリに画像データとともに記録されるカメラが開示されている。特開2002−232761号公報には撮影した画像に予め読み込んでおいた被写体の識別情報を関連付けて記録する画像記録装置が開示されている。特開2002−333652号公報には予め記憶された容貌情報と撮影顔情報を比較し記録信号を発生する撮影装置が開示されている。この容貌情報は優先度とともに記録される。   Japanese Patent Application Laid-Open No. 2001-309225 discloses a camera in which data such as face coordinates, dimensions, eye positions, head poses, and the like recognized by a face recognition algorithm are recorded together with image data in an image memory. Japanese Patent Laid-Open No. 2002-232761 discloses an image recording apparatus that records in association with identification information of a subject that has been read in advance on a captured image. Japanese Patent Application Laid-Open No. 2002-333651 discloses a photographing apparatus that generates a recording signal by comparing preliminarily stored appearance information and photographing face information. This appearance information is recorded together with the priority.

一方、記録時に撮影画像を所定のグループにグループ分けして記録することで再生時の
検索を容易にすることのできるデジタルカメラの技術も従来から開示されている。特開2002−211049号公報には関連性ある撮影画像データを撮影時刻によりグループ化して一元的に管理する画像処理装置が開示されている。特開2003−162709号公報には撮影装置のユーザ操作に伴う状態変更に応じて新規フォルダを作成する画像処理装置が開示されている。特開2003−189215号公報には撮影記録モードと撮影画像を管理するフォルダとを関連づけることの出来る記録装置が開示されている。特開2003−338999号公報には画像データにリンク情報を付加してグループ化する画像ファイリング装置が開示されている。
On the other hand, a technique of a digital camera that can facilitate retrieval at the time of reproduction by grouping and recording captured images into a predetermined group at the time of recording has also been disclosed. Japanese Patent Application Laid-Open No. 2002-211049 discloses an image processing apparatus that groups related photographed image data according to photographing time and manages them centrally. Japanese Patent Application Laid-Open No. 2003-162709 discloses an image processing apparatus that creates a new folder in response to a state change associated with a user operation of an image capturing apparatus. Japanese Patent Application Laid-Open No. 2003-189215 discloses a recording apparatus capable of associating a photographic recording mode with a folder for managing photographic images. Japanese Patent Application Laid-Open No. 2003-338999 discloses an image filing apparatus that adds link information to image data and groups them.

上述した被写体を識別するという技術をカメラに応用するという発明は、従来から大規模なコンピュータシステムで行われていた技術を単にカメラ単独でも行えるようにしたというものである。実際にカメラで被写体の識別技術を使用して撮影を行おうとすると従来にないカメラとしての動作シーケンスが必要となってくる。更に、被写体識別技術を上述したフォルダ作成方法と関連づけて開示した技術はこれまでない。   The invention of applying the above-described technique for identifying a subject to a camera is that a technique that has been conventionally performed in a large-scale computer system can be performed by a camera alone. Actually, when an image is taken with a camera using a subject identification technique, an unprecedented operation sequence as a camera is required. Further, there has been no technology disclosed by associating the subject identification technology with the folder creation method described above.

本発明においては上述した新たな動作シーケンスを取り入れることにより主要被写体に
対応したフォルダに画像データを格納することで再生時の検索を容易することの出来るデジタルカメラを提供することを目的とする。
An object of the present invention is to provide a digital camera that can facilitate retrieval during reproduction by storing image data in a folder corresponding to a main subject by incorporating the above-described new operation sequence.

上記問題点の解決のために、請求項1の発明は、画像データから被写体の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した特徴部位に応じて前記画像データを所定のグループに分類する分類手段と、前記抽出手段によって抽出された特徴部位に予め付与されている優先順位を判別する判別手段と、前記分類手段が分類した分類結果に応じて前記画像データを記録媒体に記録する記録手段と、前記分類手段が分類したグループの画像データを格納するエリアが前記記録媒体にあるかどうかを検出する検出手段と、を備え、前記分類手段は、前記抽出手段が同一の画像データから複数の異なる特徴部位を抽出した場合には、前記分類手段は前記判別手段によってより優先順位が高いと判別された特徴部位に対応したグループに前記画像データを分類し、前記検出手段によって前記グループの画像データを格納するエリアが前記記録媒体に無いことが検出された場合に、前記記録手段は次に優先度の高い特徴部位のグループに対応したエリアに前記画像データを記録することを特徴とする。すなわち、優先順位の高い被写体に対応したフォルダがなかったなら次に優先順位の高いフォルダに格納する。
In order to solve the above problems, the invention of claim 1 is characterized in that an extraction means for extracting a feature portion of a subject from image data and classifying the image data into a predetermined group according to the feature portion extracted by the extraction means. A classifying unit, a discriminating unit for discriminating a priority given in advance to the characteristic part extracted by the extracting unit, and a recording for recording the image data on a recording medium according to the classification result classified by the classifying unit And a detecting means for detecting whether or not the recording medium has an area for storing the image data of the group classified by the classification means, and the classification means includes a plurality of extraction means from the same image data. When the feature parts having different levels are extracted, the classification unit assigns the image data to a group corresponding to the feature part determined to have a higher priority by the determination unit. And when the detection means detects that the recording medium does not have an area for storing the image data of the group, the recording means is an area corresponding to the next highest priority feature group. And recording the image data . That is, if there is no folder corresponding to a subject with a high priority, it is stored in the folder with the next highest priority.

請求項2の発明は、前記記録手段は、前記画像データを、同一のグループに属する複数の画像データをまとめて格納するためのエリアを備えた記録媒体上の前記分類手段が分類したグループに対応したエリアに記録することを特徴とする。すなわち、メモリカードに予め作成されているフォルダに画像データを記録する。
The invention of claim 2, wherein the recording means, the image data, on a recording medium having an area for storing multiple images at data belonging to the same group, the group to which the classification means classifies It is characterized by recording in a corresponding area. That is, image data is recorded in a folder created in advance on the memory card.

請求項3に記載の発明は、更に、前記分類手段が分類した画像データをまとめて格納するエリアを前記記録媒体に作成するための作成手段を備えたことを特徴とする。すなわち、抽出し、分類された特徴点に対応したフォルダをメモリカードに自動的に作成することができる。
According to a third aspect of the present invention, the image forming apparatus according to the third aspect further includes a creating unit for creating an area on the recording medium that collectively stores the image data classified by the classifying unit. That is, a folder corresponding to the extracted and classified feature points can be automatically created on the memory card.

以下、図面を参照して本発明の実施の形態を説明する。図1は、本発明のデジタルカメラについてその主要な機能を説明したブロック図である。撮影レンズ101はその焦点距離を連続的に変えるためのズームレンズ、及びピントを調整するフォーカスレンズから構成されている。これらのレンズはドライバ113により駆動される。ここでドライバ113はズームレンズのズーム駆動機構及びその駆動回路と、フォーカスレンズのフォーカス駆動機構及びその駆動回路とを備えていて、それぞれCPU112により制御される。撮影レンズ101は撮像素子103の撮像面上に被写体像を結像する。撮像素子103は撮像面上に結像された被写体像の光強度に応じた電気信号を出力する光電変換撮像素子であり、CCD型やMOS型の固体撮像素子が用いられる。撮像素子103は信号取り出しのタイミングをコントロールするドライバ115により駆動される。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating the main functions of the digital camera of the present invention. The taking lens 101 includes a zoom lens for continuously changing the focal length and a focus lens for adjusting the focus. These lenses are driven by a driver 113. Here, the driver 113 includes a zoom driving mechanism and its driving circuit for the zoom lens, and a focus driving mechanism and its driving circuit for the focus lens, which are controlled by the CPU 112, respectively. The photographing lens 101 forms a subject image on the imaging surface of the image sensor 103. The image sensor 103 is a photoelectric conversion image sensor that outputs an electrical signal corresponding to the light intensity of the subject image formed on the image pickup surface, and a CCD type or MOS type solid state image sensor is used. The image sensor 103 is driven by a driver 115 that controls the timing of signal extraction.

撮影レンズ101と撮像素子103との間には絞り102が設けられている。絞り10
2は、絞り機構とその駆動回路を備えたドライバ114により駆動される。固体撮像素子103からの撮像信号はアナログ信号処理回路104に入力され、アナログ信号処理回路104において相関二重サンプリング処理(CDS)等の処理が行われる。アナログ信号処理回路104で処理された撮像信号は、A/D変換器135によりアナログ信号からデジタル信号に変換される。
A diaphragm 102 is provided between the photographing lens 101 and the image sensor 103. Aperture 10
2 is driven by a driver 114 having an aperture mechanism and its drive circuit. The imaging signal from the solid-state imaging device 103 is input to the analog signal processing circuit 104, and processing such as correlated double sampling processing (CDS) is performed in the analog signal processing circuit 104. The imaging signal processed by the analog signal processing circuit 104 is converted from an analog signal to a digital signal by the A / D converter 135.

A/D変換された信号はデジタル信号処理回路106において輪郭強調、ガンマ補正、ホワイトバランス補正などの種々の画像処理が施される。バッファメモリ105は撮像素子103で撮像された複数フレーム分のデータを記憶することが出来るフレームメモリであり、A/D変換された信号は一旦このバッファメモリ105に記憶される。デジタル信号処理回路106ではバッファメモリ105に記憶されたデータを読み込んで上述した各処理を行い、処理後のデータは再びバッファメモリ105に記憶される。   The A / D converted signal is subjected to various image processing such as edge enhancement, gamma correction, and white balance correction in the digital signal processing circuit 106. The buffer memory 105 is a frame memory that can store data for a plurality of frames imaged by the image sensor 103, and the A / D converted signal is temporarily stored in the buffer memory 105. The digital signal processing circuit 106 reads the data stored in the buffer memory 105 and performs each process described above, and the processed data is stored in the buffer memory 105 again.

CPU112はデジタル信号処理回路106およびドライバ113〜115等と接続さ
れ、カメラが動作する際のシーケンス制御を行う。CPU112のAE演算部1121では撮像素子からの画像信号に基づいて露出演算を行い、AWB演算部1122ではホワイトバランス用パラメータを設定するための演算が行われる。特徴点抽出演算部1123では所定のアルゴリズムに則って画像データの中から被写体の形状、位置、サイズ等の特徴点を抽出する。記憶部1125ではこれら各種演算部で演算された結果を必要に記憶するとともに、特徴点抽出演算部1123によって抽出された特徴点に関する各種情報も記憶する。この情報については後述する。また、抽出された特徴点及びそれの情報についてはユーザが記憶部1125から任意に追加、変更或いは削除することが出来る。
The CPU 112 is connected to the digital signal processing circuit 106 and drivers 113 to 115 and performs sequence control when the camera operates. An AE calculation unit 1121 of the CPU 112 performs an exposure calculation based on an image signal from the image sensor, and an AWB calculation unit 1122 performs a calculation for setting a white balance parameter. The feature point extraction calculation unit 1123 extracts feature points such as the shape, position, and size of the subject from the image data according to a predetermined algorithm. The storage unit 1125 stores the results calculated by these various calculation units as necessary, and also stores various types of information regarding the feature points extracted by the feature point extraction calculation unit 1123. This information will be described later. Further, the extracted feature points and the information thereof can be arbitrarily added, changed, or deleted from the storage unit 1125 by the user.

本実施例におけるデジタルカメラのAF方式はコントラスト法を採用している。このコントラスト方式AFについてここで説明する。この方式において、撮像素子103上の像のボケの程度とコントラストの間には相関があり、焦点があったときに像のコントラストが最大になることを利用して焦点あわせを行う。コントラストの大小は撮像信号の高周波成分の大小により評価することが出来る。すなわち、AF演算部1124は不図示のBP
F(バンドパスフィルタ)により撮像信号の高周波成分を抽出し、この絶対値を積分した値を焦点評価値としてこの焦点評価値に基づいてAF演算を行う。CPU112はAF演算部1124の演算結果を用いて撮影レンズ101のフォーカスレンズ位置を調整し、合焦動作を行わせる。
The AF method of the digital camera in this embodiment employs a contrast method. This contrast AF will be described here. In this method, there is a correlation between the degree of blurring of the image on the image sensor 103 and the contrast, and focusing is performed using the fact that the contrast of the image is maximized when there is a focus. The magnitude of the contrast can be evaluated by the magnitude of the high-frequency component of the imaging signal. In other words, the AF calculation unit 1124 is a BP (not shown)
A high frequency component of the imaging signal is extracted by F (band pass filter), and an AF calculation is performed based on the focus evaluation value using a value obtained by integrating the absolute value as a focus evaluation value. The CPU 112 adjusts the focus lens position of the photographing lens 101 using the calculation result of the AF calculation unit 1124, and performs a focusing operation.

CPU112に接続された操作部材116には、カメラの電源をオンオフする電源スイッチ1161、レリーズ釦に連動してオンオフする半押しスイッチ1162及び全押しスイッチ1163、モニタ109に表示されるカメラを撮影する際の各種メニュー内容を選択するための設定釦1164、再生画像等を更新するアップダウン(U/D)釦1165等が設けられている。設定釦1164では抽出した特徴点に対して名称を付けるためにU/D釦1165を併用してアルファベットやひらがな、カタカナ、簡単な漢字等を選択して設定することもできる。U/D釦1165はそれ以外に、複数抽出された人物から所望の人物を選択したり、撮影時には手動でズームレンズをテレあるいはワイド側に駆動したりするためにも使用される。   The operation member 116 connected to the CPU 112 includes a power switch 1161 for turning on / off the camera, a half-press switch 1162 and a full-press switch 1163 that are turned on / off in conjunction with the release button, and a camera displayed on the monitor 109. A setting button 1164 for selecting various menu contents, an up / down (U / D) button 1165 for updating a reproduced image, and the like are provided. The setting button 1164 can select and set alphabets, hiragana, katakana, simple kanji, etc. in combination with the U / D button 1165 in order to name the extracted feature points. In addition, the U / D button 1165 is used to select a desired person from a plurality of extracted persons, or to manually drive the zoom lens to the telephoto or wide side during photographing.

被写体輝度が低い場合にはストロボ117を発光させる。このストロボにはストロボ使用時に撮影した人物の瞳が赤く撮影されるのを防止あるいは軽減する赤目防止のためや低輝度時に被写体輝度を予め測定するために撮影前に予め補助光を発光するプリ発光機能も備わっている。記憶部1125には前述した特徴点情報以外にAF演算の結果から検出される評価値のピーク値や対応するレンズ位置等も記憶される。デジタル信号処理回路106で各種処理が施された画像データは、一旦バッファメモリ105に記憶された後に、記録・再生信号処理回路110を介してメモリカード等の外部記憶媒体111に記録される。画像データを記憶媒体111に記録する際には、一般的に所定の圧縮形式、例えば、JPEG方式でデータ圧縮が行われる。記録・再生信号処理回路110では、画像データを外部記憶媒体111に記録する際のデータ圧縮及び外部記憶媒体111から再生した圧縮された画像データの伸長処理を行う。   When the subject brightness is low, the flash 117 is caused to emit light. This strobe is a pre-flash that emits auxiliary light in advance before shooting to prevent red-eye to prevent or reduce the redness of the person's eyes when using the strobe and to measure subject brightness in advance at low brightness It also has functions. In addition to the feature point information described above, the storage unit 1125 also stores the peak value of the evaluation value detected from the AF calculation result, the corresponding lens position, and the like. The image data that has been subjected to various processes by the digital signal processing circuit 106 is temporarily stored in the buffer memory 105 and then recorded on an external storage medium 111 such as a memory card via the recording / reproducing signal processing circuit 110. When recording image data in the storage medium 111, data compression is generally performed in a predetermined compression format, for example, the JPEG method. The recording / reproduction signal processing circuit 110 performs data compression when image data is recorded on the external storage medium 111 and decompression processing of the compressed image data reproduced from the external storage medium 111.

モニタ109は撮像された被写体画像を表示したり撮影や再生させる際の各種の設定メニューを表示したりするための液晶(LCD)表示装置である。ここでは記憶媒体111に記録されている画像データを再生表示する際にも用いられる。モニタ109に画像を表示する場合には、バッファメモリ105の一部であるVRAM107に記憶された画像データを読み出し、D/A変換器108によりデジタル画像データをアナログ映像信号に変換する。そして、そのアナログ映像信号を用いてモニタ109に画像を表示する。   The monitor 109 is a liquid crystal (LCD) display device for displaying a captured subject image and displaying various setting menus for shooting and reproduction. Here, it is also used when image data recorded in the storage medium 111 is reproduced and displayed. When displaying an image on the monitor 109, the image data stored in the VRAM 107 which is a part of the buffer memory 105 is read out, and the digital image data is converted into an analog video signal by the D / A converter 108. Then, an image is displayed on the monitor 109 using the analog video signal.

ここで、特徴点を抽出する際のバッファメモリ105とVRAM107との関係について説明する。モニタ109で表示用の画像データを再生する場合には撮像素子からは静止画用の画像データから表示用の画像データに間引いたデータが一定の周期(例えば30フレーム/秒)で連続して出力される。この画像データに所定の処理を施し、モニタ109
の縦横画素数に対応した画素数となるように更にデータを間引いてVRAM107に連続して記録する。このVRAM107のデータはD/A変換器108を通してモニタ109に表示画像として再生される。このVRAM107の画像データは特徴点を抽出するためのデータとしても使用する。特徴点を抽出する場合には、まずVRAM107の画像データをバッファメモリ105に所定のタイミングで再度記録する。ここでバッファメモリ105にはVRAM107に記録されているデータのうち中心部の所定の範囲(たとえば縦、横ともに80%)のみ記録する。
Here, the relationship between the buffer memory 105 and the VRAM 107 when extracting feature points will be described. When image data for display is reproduced on the monitor 109, data obtained by thinning the image data for still image from the image data for still image to the image data for display is continuously output from the image sensor at a constant cycle (for example, 30 frames / second). Is done. The image data is subjected to predetermined processing, and the monitor 109
The data is further thinned out so as to have the number of pixels corresponding to the number of vertical and horizontal pixels, and continuously recorded in the VRAM 107. The data in the VRAM 107 is reproduced as a display image on the monitor 109 through the D / A converter 108. The image data in the VRAM 107 is also used as data for extracting feature points. When extracting feature points, first, image data in the VRAM 107 is recorded again in the buffer memory 105 at a predetermined timing. Here, only a predetermined range (for example, 80% in both the vertical and horizontal directions) of the central portion of the data recorded in the VRAM 107 is recorded in the buffer memory 105.

また、このようにVRAM107から再度バッファメモリ105に画像データを記録す
るのは次の理由による。CPU112の演算処理能力が十分高かったならば前述した30フレーム/秒のレートで特徴点を抽出することができるがデジタルカメラに採用されてい
るCPU112の演算能力はそこまで高くないことが多い。それ故、CPU112の演算
能力に応じて特徴点抽出演算にあったレートでVRAM107からバッファメモリ105に画像データを再度記録することで特徴点を抽出する事が可能となる。なお、その場合であってももちろんVRAM105からは通常のレートでモニタ109の表示用画像データが出力されているので表示更新のレートが遅くなることはない。なお、AE演算、AF演算するための画像データは上述した撮像素子103から出力されVRAM107に間引く前のデータを使用する。
The reason why the image data is recorded again from the VRAM 107 to the buffer memory 105 in this way is as follows. If the arithmetic processing capability of the CPU 112 is sufficiently high, feature points can be extracted at the rate of 30 frames / second as described above, but the arithmetic capability of the CPU 112 employed in the digital camera is often not so high. Therefore, the feature points can be extracted by re-recording the image data from the VRAM 107 to the buffer memory 105 at a rate suitable for the feature point extraction calculation according to the calculation capability of the CPU 112. In this case, of course, the display update image data is output from the VRAM 105 at a normal rate, so the display update rate does not slow down. Note that the image data for performing the AE calculation and the AF calculation is data output from the above-described image sensor 103 and before being thinned out to the VRAM 107.

この様に特徴点抽出機能を備えた本デジタルカメラにおいて、その特徴点抽出機能を利
用することで撮影前後で効果的に被写体のピントを確認することが可能となる。図2〜図7のフローを使用してこれについて説明する。
In this digital camera having the feature point extraction function in this way, the feature point extraction function can be used to effectively check the focus of the subject before and after shooting. This will be described using the flow of FIGS.

まず図2、図3は撮影動作に関連してピントを確認することを説明したフローである。
ステップS101でデジタルカメラの電源がオンされたことを検出したならばステップS102で特徴点を抽出するための抽出モードに設定されているかどうか判別する。この抽出モードの設定方法の一例としては、設定釦1164を操作してLCDモニタ109に表示させた各種撮影モードの中から抽出モードを選択して設定する(不図示)。ステップS102で抽出モードに設定されていなかったならばステップS108に進む。
First, FIGS. 2 and 3 are flowcharts for explaining that the focus is confirmed in relation to the photographing operation.
If it is detected in step S101 that the power source of the digital camera is turned on, it is determined in step S102 whether or not the extraction mode for extracting feature points is set. As an example of the extraction mode setting method, the extraction mode is selected and set from various shooting modes displayed on the LCD monitor 109 by operating the setting button 1164 (not shown). If the extraction mode is not set in step S102, the process proceeds to step S108.

ステップS102でもし抽出モードに設定されていると判別されたならばステップS1
03に進んで所定のタイミングで撮像素子13の出力から被写体の特徴点を抽出し、LCDモニタ109に撮像素子からのスルー画とともに特徴点が抽出された被写体を識別して表示する。識別表示例を図11に示す。図11において画面中央の人物の顔部分を囲っている実線の四角表示がこの人物の顔が抽出されたことを示している。図11の破線内はこの抽出された人物の顔周辺の拡大表示であるが、この詳細については後述する。
If it is determined in step S102 that the extraction mode is set, step S1 is executed.
Proceeding to 03, the feature point of the subject is extracted from the output of the image sensor 13 at a predetermined timing, and the subject from which the feature point is extracted is identified and displayed on the LCD monitor 109 together with the through image from the image sensor. An example of identification display is shown in FIG. In FIG. 11, a solid square display surrounding the face portion of the person at the center of the screen indicates that the face of this person has been extracted. The inside of the broken line in FIG. 11 is an enlarged display around the extracted person's face, details of which will be described later.

ステップS104では抽出した特徴点或いはその特徴点を含む所定エリアをAFエリア
に設定する。被写体が顔のアップなどの場合には更に瞳部分をAFエリアに設定する。また、画面内で複数の特徴点が抽出された場合には、一番面積の大きな特徴点をAFエリアに設定する。或いは前述した記憶部1125に、抽出した特徴点と同一の特徴点が予め記憶されていた場合には、その特徴点に関する情報(例えば優先順位情報等)に応じてAFエリアを設定する。この特徴点情報の詳細については後述する。
In step S104, the extracted feature point or a predetermined area including the feature point is set as the AF area. When the subject is a face up, the pupil portion is further set as the AF area. When a plurality of feature points are extracted in the screen, the feature point having the largest area is set as the AF area. Alternatively, when the same feature point as the extracted feature point is stored in advance in the storage unit 1125, the AF area is set according to information about the feature point (for example, priority order information). Details of the feature point information will be described later.

ステップS105ではAFエリア内の被写体に対してピント確認をするモードの設定に
なっているかどうか判別する。この場合の設定方法も前述した抽出モードの設定の場合と同様、設定釦1164を操作して表示させた撮影モードの設定メニューの中から、抽出被写体のピントを確認する、という項目を選択する(不図示)。このピント確認及び前述した抽出モードの設定や解除は任意のタイミングで行うことが出来る。もしピント確認しない場合にはステップS107に進み、ピント確認する場合にはステップS106に進む。
In step S105, it is determined whether or not the focus confirmation mode is set for the subject in the AF area. The setting method in this case is the same as in the extraction mode setting described above, and an item for confirming the focus of the extracted subject is selected from the shooting mode setting menu displayed by operating the setting button 1164 ( Not shown). The focus confirmation and the above-described extraction mode can be set or canceled at an arbitrary timing. If the focus is not confirmed, the process proceeds to step S107, and if the focus is confirmed, the process proceeds to step S106.

ピント確認のステップS106においては、図11に示すごとく、抽出した特徴点に基
づいて設定されているAFエリアを含んだ所定範囲をLCDモニタ109上の一部エリアに拡大して全画面データに重畳して表示する。このステップS106の詳細フローについては図4で後述する。ステップS107ではAFエリアとして他の特徴点を選択したかどうか判別する。この選択はU/D釦1165を使って行う。もし他の特徴点を選択しない場合にはステップS108に進み、他の特徴点が選択された場合にはステップS104に戻って選択された特徴点を新たにAFエリアとして設定する。ここまでは半押しSW1162は押されていなくとも良い。
In the focus confirmation step S106, as shown in FIG. 11, a predetermined range including the AF area set based on the extracted feature points is enlarged to a partial area on the LCD monitor 109 and superimposed on the entire screen data. And display. The detailed flow of step S106 will be described later with reference to FIG. In step S107, it is determined whether another feature point is selected as the AF area. This selection is performed using the U / D button 1165. If no other feature point is selected, the process proceeds to step S108. If another feature point is selected, the process returns to step S104 to newly set the selected feature point as an AF area. Up to this point, the half-press SW 1162 may not be pressed.

ステップS108では半押しSW1162及び全押しSW1163が押されたかどうか
判別する。もし全押しSW1163が押されていなかったならばステップS102に戻り
、全押しSW1163が押されたと判別されたならば図3ステップS109に進む。
In step S108, it is determined whether the half-press SW 1162 and the full-press SW 1163 are pressed. If the full press SW 1163 has not been pressed, the process returns to step S102. If it is determined that the full press SW 1163 has been pressed, the process proceeds to step S109 in FIG.

ステップS109ではAE演算回路1121の演算結果に応じた所定のシャッタスピー
ドと絞り値とで撮像素子103で被写体の露光を行い、この撮像素子103から出力された画像データをバッファメモリ105に記録する。ステップS110では撮影画像のピント確認をする設定になっているかどうか判別する。この撮影後にピント確認をするかどうかという設定は、前述した抽出モードの設定をするのと同様に撮影前に予め設定釦1164を使用して、撮影後のピント確認を行う、という項目を選択しておく。
In step S <b> 109, the subject is exposed by the image sensor 103 with a predetermined shutter speed and aperture value according to the calculation result of the AE calculation circuit 1121, and the image data output from the image sensor 103 is recorded in the buffer memory 105. In step S110, it is determined whether or not the setting for confirming the focus of the captured image is set. The setting of whether or not to check the focus after shooting is performed by selecting the item of performing the focus check after shooting using the setting button 1164 before shooting as in the case of setting the extraction mode described above. Keep it.

ステップS110でピント確認はしないと判別された場合にはステップS115に進み
、ピント確認をするように設定されていると判別されたならばステップS111に進む。ステップS111のピント確認の詳細は前述したステップS106のピント確認動作と同様、図4で説明する。この時の表示も撮影前のピント確認表示と同様に、図11に示すごとく破線の四角内に拡大表示される。この拡大表示される範囲は、全押しSW1163が押される直前にその位置と大きさを記憶部1125に記憶されていたAFエリアを含んだ所定範囲である。
If it is determined in step S110 that the focus confirmation is not performed, the process proceeds to step S115. If it is determined that the focus confirmation is set, the process proceeds to step S111. Details of the focus confirmation in step S111 will be described with reference to FIG. 4 in the same manner as the focus confirmation operation in step S106 described above. The display at this time is enlarged and displayed in a broken-line square as shown in FIG. 11 as in the focus confirmation display before photographing. This enlarged display range is a predetermined range including the AF area whose position and size are stored in the storage unit 1125 immediately before the full press SW 1163 is pressed.

もちろん、全押しSW1163が押され、撮影した画像データから特徴点を再度抽出し
た後に、抽出した特徴点に対応した被写体を拡大表示するようにしても良い。その場合には、撮影した全画面から新たに特徴点を抽出するのでなく、撮影前に設定されているAFエリアを含んだ所定範囲のみを抽出する。これにより、抽出に要する時間が短縮される。このように撮影後の画像データから被写体を抽出することで主要被写体が移動したような場合であっても確実に主要被写体部分を拡大表示することが出来る。
Of course, the full-press SW 1163 may be pressed to extract the feature points again from the captured image data, and then the subject corresponding to the extracted feature points may be enlarged and displayed. In that case, instead of newly extracting feature points from the entire captured image, only a predetermined range including the AF area set before imaging is extracted. This shortens the time required for extraction. Thus, by extracting the subject from the image data after shooting, the main subject portion can be surely enlarged and displayed even when the main subject moves.

ステップS112では記録指示がされたかどうか確認する。このピント確認の画面に対
する記録指示方法の一例を図12を使って説明する。図12はピント確認を説明している画面を示す図11に、記録指示メニューを重畳表示させた場合を示している図である。全押しSW1163が押されると、図12のようにLCDモニタ109にはAFエリア周辺の拡大画面が撮影全画面に重畳表示されている画面に更に記録指示の選択メニューが重畳表示される。撮影者はここからU/D釦1165を使用してYESあるいはNOのいずれかを選択する。もしYESを選択した場合はステップS115に進みYESあるいはNOのいずれも選択しなかったならばステップS113に進む。ステップS113ではNOが選択されたかどうか判別する。もしNOが選択されたならばステップS116に進んでバッファメモリ105に記録されている画像データを消去する。この消去方法の一例として、メモリカード111にはバッファメモリ105上の画像データを記録せず、次の撮影による画像データをバッファメモリ105に上書き可能にすることで達成される。
In step S112, it is confirmed whether a recording instruction has been issued. An example of a recording instruction method for the focus confirmation screen will be described with reference to FIG. FIG. 12 is a diagram showing a case where the recording instruction menu is superimposed on FIG. 11 showing the screen explaining the focus confirmation. When the full press SW 1163 is pressed, a selection menu for recording instructions is further superimposed on the screen on which the enlarged screen around the AF area is superimposed on the entire photographing screen on the LCD monitor 109 as shown in FIG. From here, the photographer uses the U / D button 1165 to select either YES or NO. If YES is selected, the process proceeds to step S115, and if neither YES nor NO is selected, the process proceeds to step S113. In step S113, it is determined whether or not NO is selected. If NO is selected, the process proceeds to step S116, and the image data recorded in the buffer memory 105 is deleted. As an example of this erasing method, the image data on the buffer memory 105 is not recorded in the memory card 111, but the image data obtained by the next photographing can be overwritten in the buffer memory 105.

ステップS113でNOが選択されなかった場合にはステップS114に進んで撮影が
終了してから一定時間が経過したかどうか判別する。もし一定時間経過していなかったならばステップS112に戻って記録指示を待つ。一定時間経過したならばステップS115に進んでメモリカードへの記録を行う。この様にデフォルトでは図12に示すように二重の四角で囲ったYESが選択されるようになっていて、一旦撮影した画像データは撮影者からの削除指示がない限りはメモリカード111に記録するようにしている。ここで一定時間とは1秒程度であればよいが撮影者の好みに応じてこの時間を変更できるようにしても良い。
If NO is not selected in step S113, the process proceeds to step S114, and it is determined whether or not a predetermined time has elapsed since the photographing was completed. If the predetermined time has not elapsed, the process returns to step S112 to wait for a recording instruction. If the predetermined time has elapsed, the process proceeds to step S115 to record on the memory card. In this way, by default, as shown in FIG. 12, “YES” surrounded by a double square is selected, and once taken image data is recorded in the memory card 111 unless there is an instruction to delete it from the photographer. Like to do. Here, the fixed time may be about 1 second, but this time may be changed according to the photographer's preference.

画像データにホワイトバランス処理、ガンマ処理、或いは圧縮処理等の記録処理を行っ
た後にステップS115においてメモリカード111の所定のフォルダに画像データを記録する。この記録する際のフォルダに関しては図5あるいは図6を使って詳細に後述する。この様にして記録或いは削除が終了したならば一連の撮影動作を終了する。
After performing recording processing such as white balance processing, gamma processing, or compression processing on the image data, the image data is recorded in a predetermined folder of the memory card 111 in step S115. The folder for recording will be described later in detail with reference to FIG. 5 or FIG. When recording or deletion is completed in this way, a series of photographing operations is terminated.

次に図4のフローを使ってこれまで述べてきたピント確認について詳細に説明する。ス
テップS201では撮像素子103で撮影されバッファメモリ105に記録されている画像データの全画角分の画面にAFエリア周辺の所定エリアを拡大した画面をLCDモニタ109に重畳表示する。この表示の一例を図11に示す。図11において画面中央の四角で囲まれた人物の顔部分が抽出された被写体であることを示している。ここではこの抽出された人物の顔部分がAFエリアに設定され、画面右下の破線で囲まれた小画面内にそのAFアリアを含む所定部分が拡大されて表示されている。この重畳表示する位置としてはこの様に右下に限らず、設定釦1164やU/D釦1165を使用して画面内の右上、左下、左上或いは画面中央のいずれかを選択することが出来る。
Next, the focus confirmation described so far will be described in detail using the flow of FIG. In step S <b> 201, a screen obtained by enlarging a predetermined area around the AF area is superimposed on the LCD monitor 109 on a screen corresponding to all angles of view of image data captured by the image sensor 103 and recorded in the buffer memory 105. An example of this display is shown in FIG. FIG. 11 shows that the face portion of the person surrounded by the square at the center of the screen is the extracted subject. Here, the extracted face portion of the person is set as an AF area, and a predetermined portion including the AF area is enlarged and displayed in a small screen surrounded by a broken line at the lower right of the screen. The superimposed display position is not limited to the lower right as described above, and any of the upper right, lower left, upper left, and center of the screen can be selected using the setting button 1164 and the U / D button 1165.

拡大表示は電子的に行い、当初表示する際のズーム倍率はデフォルトでは4〜5倍程度
に設定されている。このズーム操作についても、設定釦1164やU/D釦1164を使用する。LCDモニタ109で表示する際には撮像素子103の画像データを間引いて表示しているがこれを間引かない状態すなわち、LCDの解像度と撮像素子103の解像度が等しくなるまで拡大することが出来る。例えば、LCDモニタ109の画素数が10万画素、撮像素子103の画素数が100万画素とすると通常は1/10の解像度でLCDモニタ109に表示しているが、これを最大で10倍までズームアップすることが出来る。
The enlarged display is performed electronically, and the zoom magnification at the time of initial display is set to about 4 to 5 times by default. Also for this zoom operation, the setting button 1164 and the U / D button 1164 are used. When the image is displayed on the LCD monitor 109, the image data of the image sensor 103 is thinned out and displayed. However, the image data can be enlarged until the resolution of the LCD and the image sensor 103 are equal. For example, if the number of pixels of the LCD monitor 109 is 100,000 pixels and the number of pixels of the image sensor 103 is 1 million pixels, the image is normally displayed on the LCD monitor 109 with a resolution of 1/10. You can zoom up.

ステップS202では前述したように、画面内での小画面の重畳表示位置を選択したか
どうか判別する。もし選択されていなかったならばステップS204に進み、選択されたならばステップS203に進んでここで選択された位置に拡大小画面を移動させる。ステップS204ではズーム指示がされたかどうか判別する。もしズーム指示されていなかったならばステップS206に進み、指示されたならばステップS205でズーム指示されている限り前述したごとく最大ズーム倍率までズームアップする。
In step S202, as described above, it is determined whether or not the superimposed display position of the small screen in the screen has been selected. If it is not selected, the process proceeds to step S204. If it is selected, the process proceeds to step S203, and the enlarged small screen is moved to the position selected here. In step S204, it is determined whether or not a zoom instruction has been issued. If the zoom is not instructed, the process proceeds to step S206. If instructed, the zoom is zoomed up to the maximum zoom magnification as described above as long as the zoom is instructed in step S205.

ステップS206では重畳表示をやめるように設定したかどうか判別する。これは図2
ステップS105のピント確認設定とは逆の解除設定をすることでなされる。もし重畳表示をやめるよう設定されていなかったならばそのままの表示状態で本ルーチンを終了し、やめるよう設定されたならばステップS207で重畳表示をやめて本ルーチンを終了する。
In step S206, it is determined whether or not it is set to stop the superimposed display. This is shown in FIG.
This is done by performing a cancellation setting opposite to the focus confirmation setting in step S105. If it is not set to stop the superimposed display, this routine is terminated in the display state as it is, and if it is set to stop, the superimposed display is stopped in step S207 and this routine is terminated.

次に、図5、図6を使用して図3ステップS115において記録する際のフォルダの選
択方法について詳細に説明する。従来、撮影した画像データは撮影画像の内容に関係なくデジタルカメラによって自動的に作成された撮影日時に基づいた名称を持ったフォルダに格納されていた。しかしながら、後から画像データを再生する際に沢山の再生画像があった場合などには、この様に単に日時のみで分類され、保存されているとあとから所望の画像を検索するのが煩わしくなってしまう。特に同時期に人物撮影をした画像データがたくさんあった場合には見たい人物の画像データを探し出すことが難しい。これを解決するために本実施例では、撮影した画像データの中の主要被写体に対応したフォルダにそれぞれ自動的に撮影した画像データを格納するようにしている。
Next, a folder selection method for recording in step S115 in FIG. 3 will be described in detail with reference to FIGS. Conventionally, photographed image data is stored in a folder having a name based on the photographing date and time automatically created by a digital camera regardless of the contents of the photographed image. However, when there are a lot of reproduced images when the image data is reproduced later, it is troublesome to search for a desired image later if it is classified and stored only by the date and time. End up. In particular, when there are a lot of image data of a person photographed at the same time, it is difficult to find the image data of the person who wants to see. In order to solve this, in this embodiment, the image data automatically captured is stored in a folder corresponding to the main subject in the captured image data.

図5は主要被写体毎に対応しているそれぞれのフォルダに画像データを格納する場合に
ついて説明しているフローである。図5ステップS301においてまず、デジタルカメラに挿入されているメモリカード111内にあるフォルダ名称を読み込む。ステップS302では選択された特徴点に対応したフォルダがメモリカード111内にあるかどうか判別する。もし対応したフォルダが既にメモリカード111内に存在していたならばステップS304に進み、無かったならばステップS303に進む。ステップS303では選択した特徴点に対応したフォルダを新たにメモリカード111に作成しステップS304に進
む。ステップS304では対応したフォルダにそれぞれの画像データを格納して本ステップを終了する。
FIG. 5 is a flowchart illustrating a case where image data is stored in each folder corresponding to each main subject. In step S301 in FIG. 5, first, the folder name in the memory card 111 inserted in the digital camera is read. In step S302, it is determined whether or not a folder corresponding to the selected feature point exists in the memory card 111. If the corresponding folder already exists in the memory card 111, the process proceeds to step S304, and if not, the process proceeds to step S303. In step S303, a folder corresponding to the selected feature point is newly created in the memory card 111, and the process proceeds to step S304. In step S304, each image data is stored in the corresponding folder, and this step is finished.

もし画像データから複数の特徴点が抽出された場合であってもここで説明したように選
択された特徴点にのみ着目し、もしその選択した特徴点に対応したフォルダがなかった場合には新たにフォルダ作成するようにすればよい。
Even if multiple feature points are extracted from the image data, pay attention only to the selected feature points as described here, and if there is no folder corresponding to the selected feature points, a new one is added. You can create a folder.

図6は画像データ内に特徴点が複数抽出された場合の他の実施例について説明したフロ
ーである。ここでは特徴点に付与されている優先順位に基づいて所定のフォルダに画像データを格納する方法について説明する。この場合はまず、記憶部1125にデジタルカメラの使用者が予め被写体に対応した特徴点情報を記録しておく。図8に記憶部1125に記録されている特徴点とそれに対応した特徴点情報の記録状態の一例を示す。
FIG. 6 is a flowchart illustrating another embodiment in which a plurality of feature points are extracted from image data. Here, a method for storing image data in a predetermined folder based on the priority order assigned to the feature points will be described. In this case, first, the feature point information corresponding to the subject is recorded in advance in the storage unit 1125 by the user of the digital camera. FIG. 8 shows an example of a recording state of feature points recorded in the storage unit 1125 and corresponding feature point information.

図8において特徴点としてTARO、HANAKO、JIRO、SABUROというよ
うにそれぞれ名前が付けられた特徴点が設定された優先順位と共に登録されている。TAROに対する特徴点情報としてはまず、前述したAFエリアを選択する際の優先順位があり、これは第1順位に設定されている。これにより例えばTAROとJIROが同時に撮影画面内に抽出されたとしたらTAROを含むエリアが優先してAFエリアに設定される。この優先順位の設定も設定釦1164及びU/D釦1165を使用して予め行う。この優先順位は任意の時点で変更することが出来る。SABUROのように当初は設定しておかなくとも良い。
In FIG. 8, feature points with names such as TARO, HANAKO, JIRO, and SABURO are registered as feature points together with priority levels set. As the feature point information for TARO, there is a priority order when selecting the AF area described above, and this is set to the first order. Thus, for example, if TARO and JIRO are simultaneously extracted in the shooting screen, the area including TARO is preferentially set as the AF area. This priority order is also set in advance using the setting button 1164 and the U / D button 1165. This priority can be changed at any time. It may not be set initially like SABURO.

TAROの特徴点情報としては、TAROの特徴点を登録した日にちが登録日として次
に記録されている。ここで(1)で示される登録日は最初にTAROを登録した日にちで(2)、(3)は(1)と異なった状態たとえば横向き、後ろ向き、眼鏡着用等の状態で撮影されたTAROの他の特徴点を追加して登録した日にちを示している。このように、眼鏡や髭の有無等によって同一人物としての特徴点を複数登録することで抽出した特徴点に対して人物を識別する確度が向上する。この特徴点についてもその登録内容をLCDモニタ109に表示するとともに任意に追加あるいは削除することが出来る。優先度、登録日以外に簡単なコメントやこの特徴点が検出された場合に有効な記録時あるいは再生時の処理方法(ホワイトバランス設定や輪郭補償処理設定等)、特徴点までの距離等についても記録するようにしても良い。
As the feature point information of TARO, the date when the feature point of TARO is registered is recorded next as the registration date. Here, the registration date indicated by (1) is the date of the first registration of TARO (2), (3) is different from (1), for example, the side of the TARO taken in a sideways, backwards, glasses, etc. It shows the date when other feature points were added and registered. In this way, the accuracy of identifying a person with respect to the extracted feature points is improved by registering a plurality of feature points as the same person depending on the presence or absence of glasses or a bag. The registered content of this feature point can be displayed on the LCD monitor 109 and arbitrarily added or deleted. In addition to priorities, simple comments other than the date of registration, processing methods (white balance setting, contour compensation processing setting, etc.) that are effective during recording or playback when this feature point is detected, distance to the feature point, etc. It may be recorded.

このようにして登録するよう設定された特徴点の実際のデータは下の特徴点データエリ
アにTARO(1)、HANAKO(1)のように順に記録される。ここで実際のデータとは抽出された特徴点の内両眼の眼幅、目と鼻との相対位置関係、顔の形状等を所定の大きさに規格化したデータである。
The actual data of the feature points set to be registered in this way are recorded in order as TARO (1) and HANAKO (1) in the lower feature point data area. Here, the actual data is data obtained by normalizing the eye width of both eyes of the extracted feature points, the relative positional relationship between the eyes and the nose, the shape of the face, and the like to a predetermined size.

記録部1125にはこれまで述べた特徴点情報、特徴点データ以外に抽出した実際の被
写体の登録時の縮小画像も記録しておいても良い。これによりLCDモニタ109で被写体を確認しながら被写体情報を確実に追加したり削除したりすることが出来る。
The recording unit 1125 may also record the feature point information and the reduced image at the time of registration of the actual subject extracted in addition to the feature point data described above. Thus, subject information can be reliably added or deleted while confirming the subject on the LCD monitor 109.

図6ステップS401においては記憶部1125に記録されている前述した特徴点情報
の中から抽出した特徴点に対応した優先順位情報を判別する。ステップS402ではメモリカード111内に作成されているフォルダを読み込む。ステップS403ではステップS401で判別した優先順位の中から最優先順位を判別し、その特徴点に対応したフォルダがメモリカード111にあるかどうかを判別する。もし対応したフォルダがあった場合にはステップS407に進む。対応したフォルダがなかった場合にはステップS404に進んでここで次の優先順位の特徴点に対応したフォルダがあるかどうか判別する。もしあった場合にはステップS407に進み、無かったならばステップS405に進む。
In step S401 in FIG. 6, priority information corresponding to the feature points extracted from the above-described feature point information recorded in the storage unit 1125 is determined. In step S402, a folder created in the memory card 111 is read. In step S403, the highest priority is determined from the priority determined in step S401, and it is determined whether or not the folder corresponding to the feature point is in the memory card 111. If there is a corresponding folder, the process proceeds to step S407. If there is no corresponding folder, the process proceeds to step S404, where it is determined whether there is a folder corresponding to the next priority feature point. If there is, the process proceeds to step S407, and if not, the process proceeds to step S405.

ステップS405では抽出した全ての特徴点についてフォルダの有無の判別が終了した
かどうか判別する。もし終了していなかったならばステップS404に戻り、終了していたならばステップS406に進む。ステップS406では抽出した全ての特徴点に対応したフォルダがメモリカード111になかったことから抽出した特徴点の中から最優先順位に相当する特徴点に対応したフォルダを作成してステップS407に進む。ステップS407では抽出した特徴点に対応したフォルダに画像データを書き込んで記録ステップを終了する。
In step S405, it is determined whether the determination of the presence / absence of a folder has been completed for all extracted feature points. If not completed, the process returns to step S404, and if completed, the process proceeds to step S406. In step S406, a folder corresponding to the feature point corresponding to the highest priority is created from the extracted feature points because there is no folder corresponding to all the extracted feature points in the memory card 111, and the process proceeds to step S407. In step S407, image data is written in the folder corresponding to the extracted feature point, and the recording step is terminated.

図6の説明においては、最優先特徴点に対応したフォルダがなかった場合には次の優先
順位の特徴点に対応するフォルダを探していたが、図5で説明したように直ちに最優先特徴点に対応したフォルダを作成しても良い。更に、マニュアルでAFエリアを設定するような場合には、撮影者が複数の被写体の中からAFエリアの被写体として選択した被写体が常に最優先特徴点であるとは限らないのでAFエリアの被写体に対応する特徴点を最優先特徴点としても良い。
In the description of FIG. 6, when there is no folder corresponding to the highest priority feature point, the folder corresponding to the feature point of the next priority is searched. However, as described in FIG. You may create a folder corresponding to. Furthermore, when manually setting the AF area, the subject selected by the photographer as the subject of the AF area from among the plurality of subjects is not always the highest priority feature point. The corresponding feature point may be the highest priority feature point.

また、複数の特徴点が抽出された場合に、全ての抽出した特徴点に対応したフォルダに
それぞれ同一の画像データを格納するようにしても良い。この場合、メモリカード111に対応するフォルダがなかったならばもちろん新たにフォルダを作成する。但し、集合写真等の場合には、フォルダ数が非常に多くなるので最大フォルダ数を決めておくようにする方が好ましい。
Further, when a plurality of feature points are extracted, the same image data may be stored in folders corresponding to all the extracted feature points. In this case, if there is no folder corresponding to the memory card 111, a new folder is created. However, in the case of a group photo or the like, since the number of folders becomes very large, it is preferable to determine the maximum number of folders.

一方、この様に同一画像データを対応したフォルダにそれぞれ格納する方法は、記録容
量が限られているメモリカード111などでは好ましくない。これを回避する記録方法を次に述べる。まず、画像データは特定の一つのフォルダにのみ格納すると共にその画像データを格納したい他のフォルダ名情報も記録する。一方、その他のフォルダにはその画像データが格納されているフォルダ名情報を格納するようにする。この様に画像データが記録されているフォルダ名のみ記録することで不必要に記録容量を減らすことを防止することが出来る。この様にメモリカード111に画像データを記録した場合、メモリカード111から他の大容量メモリ等に画像データを移動してしまうとそれぞれのフォルダに格納されているフォルダ名情報が無意味になる恐れがある。これを回避するには、メモリカード111から他の大容量メモリに画像データを移動する際に、記録されているフォルダ名情報に基づいて各フォルダ毎に同一の画像データを格納するようにすればよい。
On the other hand, such a method of storing the same image data in the corresponding folder is not preferable for the memory card 111 or the like having a limited recording capacity. A recording method for avoiding this will be described below. First, image data is stored only in one specific folder, and other folder name information in which the image data is to be stored is also recorded. On the other hand, the folder name information in which the image data is stored is stored in other folders. By recording only the name of the folder in which the image data is recorded in this way, it is possible to prevent the recording capacity from being unnecessarily reduced. When image data is recorded on the memory card 111 in this way, the folder name information stored in each folder may become meaningless if the image data is moved from the memory card 111 to another large-capacity memory or the like. There is. To avoid this, when moving image data from the memory card 111 to another large-capacity memory, the same image data should be stored for each folder based on the recorded folder name information. Good.

図9にはメモリカード111に書き込まれているフォルダ名とそこに格納される画像デ
ータファイル名をツリー構造にして示す。図9において01NIKONという名称のフォルダは抽出モードに設定されずに撮影されたり、抽出モードに設定されて撮影された画像であっても特徴点がなにも抽出されなかった画像データを格納するためのフォルダである。また、画像データから単に特徴点が抽出されただけで名称が付与されていない被写体のみが撮影されている画像データもここに格納する。もちろん、別途、被写体の名称なしの画像データのみ格納するためのフォルダを作成してそこに格納しても良い。この時、このフォルダ名は04NANASHI、画像データのファイル名はDSC04001等、他のフォルダ及び画像データファイルと区別できるような名称が付与される。
FIG. 9 shows the folder names written in the memory card 111 and the image data file names stored therein in a tree structure. In FIG. 9, a folder named 01NIKON is taken without being set in the extraction mode, or stores image data in which no feature points are extracted even if the image is taken in the extraction mode. Folder. Further, image data in which only a subject to which a feature point is simply extracted and no name is given is captured here. Of course, a separate folder for storing only image data without a subject name may be created and stored there. At this time, the folder name is 04NANASHI, the image data file name is DSC04001, etc., and a name that can be distinguished from other folders and image data files.

図9における02TARO或いは03HANAKOというフォルダはそれぞれTARO
或いはHANAKOという人物を最優先して撮影した画像データを格納するフォルダである。
The folders 02TARO and 03HANAKO in FIG.
Alternatively, it is a folder for storing image data obtained by photographing the person HANAKO with the highest priority.

図10はDSC02002という名称の画像データのファイル構造を示している。画像
データファイルは実際の撮像素子から出力される画像データを記録する画像データエリア
とその画像データ内から抽出された特徴点に関する情報とを記録する特徴点情報エリアとから構成される。特徴点情報エリアにはこの場合画像データから抽出されたTARO及びHANAKOに関する優先度、抽出位置座標、特徴点の大きさとこの画像データを撮影した時のAFエリアに関する情報が記録されている。このうち特徴点の大きさ情報としては検出された特徴点を含む長方形の左上及び右下の座標が記録されている。AFエリア情報としても左上及び右下の座標が記録されていて、今の場合、優先度が第1順位のTAROの位置情報及び大きさ情報と同一の情報が記録されている。
FIG. 10 shows the file structure of image data named DSC02002. The image data file is composed of an image data area for recording image data output from an actual image sensor and a feature point information area for recording information about feature points extracted from the image data. In the feature point information area, the priority, the extracted position coordinates, the size of the feature point, and the information about the AF area when this image data is captured are recorded in this case. Among these, as the size information of the feature points, the coordinates of the upper left and lower right corners of the rectangle including the detected feature points are recorded. As the AF area information, the upper left and lower right coordinates are recorded. In this case, the same information as the position information and size information of the TARO having the first priority is recorded.

図10においては抽出した全ての特徴点情報とAFエリア情報を画像データと共に記録
している。この記録されている特徴点情報を判別することにより、複数のフォルダの中に格納されているそれぞれの画像データの中から特定の人物が撮影されている画像データを検索する場合に便利である。これに対してもちろん単に、最優先特徴点(今の場合、TARO)情報のみを画像データと共に記録するようにしていても良い。同様にAFエリア情報のみを画像データと共に記録しても良い。もちろん最優先特徴点情報及びAFエリア情報を両方とも記録しても良い。
In FIG. 10, all extracted feature point information and AF area information are recorded together with image data. By discriminating the recorded feature point information, it is convenient when searching for image data in which a specific person is photographed from the respective image data stored in a plurality of folders. On the other hand, of course, it is possible to record only the highest priority feature point (in this case, TARO) information together with the image data. Similarly, only AF area information may be recorded together with image data. Of course, both top priority feature point information and AF area information may be recorded.

ここまではデジタルカメラにメモリカード111が1枚のみ装着される場合について説
明してきた。これに対して、その記憶容量が異なるだけでなく外観形状や駆動方法が異なるものなど市場には各種のメモリカード111が存在している。それ故、複数の種類のメモリカード111が使用可能なようにデジタルカメラに複数のメモリカード111の装着口を備える場合がある。そのような場合には上述した画像データの分類に従って記録するメモリカード111を変えるようにしても良い。もちろん、それぞれのメモリカード111に記録する際には分類に応じたフォルダを作成する。
Up to this point, the case where only one memory card 111 is attached to the digital camera has been described. On the other hand, there are various types of memory cards 111 in the market, such as those having not only different storage capacities but also different external shapes and driving methods. Therefore, the digital camera may be provided with a plurality of memory card 111 insertion slots so that a plurality of types of memory cards 111 can be used. In such a case, the memory card 111 to be recorded may be changed according to the above-described image data classification. Of course, when recording on each memory card 111, a folder corresponding to the classification is created.

次に図7を使用して再生画像のピント確認について説明する。ステップS501でデジ
タルカメラの動作モードが再生モードに設定されているかどうか判別する。この設定はこれまでと同様設定釦1164を使用する。ここで再生モードに設定されていると判別されたならば、ステップS502でメモリカード111から記録されている画像データを読み出す。ステップS503ではピント確認をする設定になっているかどうか判別する。ピント確認の設定になっていなかったならばステップS505に進み、ピント確認設定になっていたならばステップS504に進む。ここでのピント確認動作の内容は図2ステップS106と同様である。但し、再生時には画像データからわざわざ特徴点を抽出する必要はなく、図10で説明した、画像データと共に記録されている最優先特徴点情報或いはAFエリア情報を判別して直ちにピント確認用の小画面を重畳して表示させることが出来る。電子ズームによるズームアップももちろん可能である。
Next, the confirmation of the focus of the reproduced image will be described with reference to FIG. In step S501, it is determined whether the operation mode of the digital camera is set to the playback mode. This setting uses the setting button 1164 as before. If it is determined that the playback mode is set, the image data recorded from the memory card 111 is read in step S502. In step S503, it is determined whether or not the focus confirmation is set. If focus confirmation has not been set, the process proceeds to step S505. If focus confirmation has been set, the process proceeds to step S504. The contents of the focus confirmation operation here are the same as in step S106 in FIG. However, it is not necessary to bother extracting feature points from the image data at the time of reproduction. The small screen for focus confirmation immediately after discriminating the top-priority feature point information or AF area information recorded together with the image data explained in FIG. Can be displayed superimposed. Of course, zooming in with electronic zoom is also possible.

ピント確認が終了したらステップS505に進み再生モードが終了したかどうか判別す
る。もし再生モードが終了したと判別されたならば本シーケンスを終了し、まだ再生モードを継続中であると判別されたならばステップS502に戻って撮影者の指示に応じて画像の再生を継続する。
When the focus confirmation is completed, the process proceeds to step S505 to determine whether or not the reproduction mode is completed. If it is determined that the playback mode has ended, this sequence ends. If it is determined that the playback mode is still being continued, the process returns to step S502 to continue playback of the image in accordance with the photographer's instruction. .

本発明によるデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera by this invention. 本発明によるデジタルカメラの動作シーケンスを説明するフローチャートである。5 is a flowchart illustrating an operation sequence of the digital camera according to the present invention. 本発明によるデジタルカメラの動作シーケンスを説明するフローチャートである。5 is a flowchart illustrating an operation sequence of the digital camera according to the present invention. 本発明によるデジタルカメラのピント確認の動作を説明するフローチャートである。5 is a flowchart for explaining an operation of confirming a focus of the digital camera according to the present invention. 本発明によるデジタルカメラの記録動作を説明するフローチャートである。3 is a flowchart illustrating a recording operation of the digital camera according to the present invention. 本発明によるデジタルカメラの他の記録動作を説明するフローチャートである。It is a flowchart explaining other recording operation | movement of the digital camera by this invention. 本発明によるデジタルカメラの再生時の動作シーケンスを説明するフローチャートである。4 is a flowchart for explaining an operation sequence during playback of the digital camera according to the present invention. 本発明によるデジタルカメラの記憶部に記憶される特徴点情報について説明する図である。It is a figure explaining the feature point information memorize | stored in the memory | storage part of the digital camera by this invention. 本発明によるデジタルカメラに装着されるメモリカード内のフォルダとデータファイルの格納状態を説明する図である。It is a figure explaining the storage state of the folder and data file in the memory card with which the digital camera by this invention is mounted | worn. 本発明によるデジタルカメラに装着されるメモリカード内のデータファイルの構造を説明する図である。It is a figure explaining the structure of the data file in the memory card with which the digital camera by this invention is mounted | worn. 本発明によるデジタルカメラの表示部における拡大画面表示例を説明する図である。It is a figure explaining the example of an enlarged screen display in the display part of the digital camera by this invention. 本発明によるデジタルカメラの表示部における記録確認メッセージを重畳表示した図である。It is the figure which superimposed and displayed the recording confirmation message in the display part of the digital camera by this invention.

符号の説明Explanation of symbols

101 撮影レンズ
102 絞り
103 撮像素子
104 アナログ信号処理部
105 バッファメモリ
106 デジタル信号処理部
108 D/Aコンバータ
109 LCDモニタ
110 記録・再生信号処理部
111 外部記憶媒体
112 CPU
113 レンズ駆動部
114 絞り駆動部
115 撮像素子駆動部
107 VRAM
116 操作部材
117 ストロボ
121 レンズ位置検出部
135 A/Dコンバータ
1121 AE演算部
1122 AWB演算部
1123 特徴点抽出演算部
1124 AF演算部
1125 記憶部
1161 電源スイッチ
1162 半押しスイッチ
1163 全押しスイッチ
1164 設定釦
1165 アップ/ダウン釦



DESCRIPTION OF SYMBOLS 101 Shooting lens 102 Diaphragm 103 Image pick-up element 104 Analog signal processing part 105 Buffer memory 106 Digital signal processing part 108 D / A converter 109 LCD monitor 110 Recording / reproduction | regeneration signal processing part 111 External storage medium 112 CPU
113 Lens Drive Unit 114 Aperture Drive Unit 115 Image Sensor Drive Unit 107 VRAM
116 Operation member 117 Strobe 121 Lens position detection unit 135 A / D converter 1121 AE calculation unit 1122 AWB calculation unit 1123 Feature point extraction calculation unit 1124 AF calculation unit 1125 Storage unit 1161 Power switch 1162 Half-press switch 1163 Full-press switch 1164 Setting button 1165 Up / Down button



Claims (3)

画像データから被写体の特徴部位を抽出する抽出手段と、
前記抽出手段が抽出した特徴部位に応じて前記画像データを所定のグループに分類する分類手段と、
前記抽出手段によって抽出された特徴部位に予め付与されている優先順位を判別する判別手段と、
前記分類手段が分類した分類結果に応じて前記画像データを記録媒体に記録する記録手段と、
前記分類手段が分類したグループの画像データを格納するエリアが前記記録媒体にあるかどうかを検出する検出手段と、を備え、
前記分類手段は、前記抽出手段が同一の画像データから複数の異なる特徴部位を抽出した場合には、前記分類手段は前記判別手段によってより優先順位が高いと判別された特徴部位に対応したグループに前記画像データを分類し、
前記検出手段によって前記グループの画像データを格納するエリアが前記記録媒体に無いことが検出された場合に、前記記録手段は次に優先度の高い特徴部位のグループに対応したエリアに前記画像データを記録することを特徴とするデジタルカメラ。
Extracting means for extracting a characteristic part of the subject from the image data;
Classification means for classifying the image data into a predetermined group according to the characteristic part extracted by the extraction means;
A discriminating unit for discriminating a priority given in advance to the characteristic part extracted by the extracting unit;
Recording means for recording the image data on a recording medium according to the classification result classified by the classification means;
Detecting means for detecting whether the recording medium has an area for storing the image data of the group classified by the classification means,
When the extracting unit extracts a plurality of different feature parts from the same image data, the classifying unit assigns the classification unit to a group corresponding to the feature part determined to have a higher priority by the determining unit. Classifying the image data;
When it is detected by the detection means that there is no area for storing the image data of the group in the recording medium, the recording means puts the image data in an area corresponding to a group of feature parts having the next highest priority. A digital camera characterized by recording .
前記記録手段は、前記画像データを、同一のグループに属する複数の画像データをまとめて格納するためのエリアを備えた記録媒体上の前記分類手段が分類したグループに対応したエリアに記録することを特徴とする請求項1に記載のデジタルカメラ。 It said recording means, wherein the image data, on a recording medium having an area for storing multiple images at data belonging to the same group, it is recorded in the area corresponding to the group to which said classification means classifies The digital camera according to claim 1. 更に、前記分類手段が分類した画像データをまとめて格納するエリアを前記記録媒体に作成するための作成手段を備えたことを特徴とする請求項1に記載のデジタルカメラ。   2. The digital camera according to claim 1, further comprising creation means for creating an area for collectively storing image data classified by the classification means in the recording medium.
JP2004137960A 2004-05-07 2004-05-07 Digital camera Expired - Lifetime JP4371219B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004137960A JP4371219B2 (en) 2004-05-07 2004-05-07 Digital camera
US11/096,066 US20050248681A1 (en) 2004-05-07 2005-04-01 Digital camera
EP05252664A EP1594311A3 (en) 2004-05-07 2005-04-28 Digital camera
EP10178504A EP2259573A3 (en) 2004-05-07 2005-04-28 Digital Camera
CNA2005100687274A CN1694508A (en) 2004-05-07 2005-04-29 Digital camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004137960A JP4371219B2 (en) 2004-05-07 2004-05-07 Digital camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009142218A Division JP5040964B2 (en) 2009-06-15 2009-06-15 Digital camera

Publications (2)

Publication Number Publication Date
JP2005323014A JP2005323014A (en) 2005-11-17
JP4371219B2 true JP4371219B2 (en) 2009-11-25

Family

ID=35353286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004137960A Expired - Lifetime JP4371219B2 (en) 2004-05-07 2004-05-07 Digital camera

Country Status (2)

Country Link
JP (1) JP4371219B2 (en)
CN (1) CN1694508A (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288409A (en) * 2006-04-14 2007-11-01 Matsushita Electric Ind Co Ltd Imaging apparatus with image data classifying function and program
JP5055939B2 (en) 2006-10-12 2012-10-24 株式会社ニコン Digital camera
JP5251215B2 (en) * 2007-04-04 2013-07-31 株式会社ニコン Digital camera
JP5413002B2 (en) * 2008-09-08 2014-02-12 ソニー株式会社 Imaging apparatus and method, and program
CN102196161B (en) * 2010-03-02 2014-10-15 佳能企业股份有限公司 Method for digitally magnifying image and graphical user interface operation method
US10230907B2 (en) * 2012-01-12 2019-03-12 Mission Infrared Electro Optics Technology Co., Ltd Thermal imaging device and normative photographing method for thermal image
TWI446087B (en) * 2012-08-03 2014-07-21 Wistron Corp Image capturing device with auto-focus function and auto-focus method
CN103903221B (en) * 2012-12-24 2018-04-27 腾讯科技(深圳)有限公司 A kind of Picture Generation Method, device and system
JP6484682B2 (en) * 2017-09-11 2019-03-13 マクセル株式会社 IMAGING DEVICE AND VIDEO DISPLAY METHOD IN IMAGING DEVICE

Also Published As

Publication number Publication date
CN1694508A (en) 2005-11-09
JP2005323014A (en) 2005-11-17

Similar Documents

Publication Publication Date Title
US20050248681A1 (en) Digital camera
CN101313565B (en) Electronic camera and image processing device
US8379108B2 (en) Electronic camera that detects and extracts faces
EP2549438B1 (en) Apparatus and program for selecting photographic images
JP5055939B2 (en) Digital camera
JP4432886B2 (en) Electronic camera
CN102231801A (en) Electronic camera and image processing device
CN105934940B (en) Image processing apparatus, method and program
JP2007310813A (en) Image retrieving device and camera
CN1694508A (en) Digital camera
JP2005323015A (en) Digital camera
JP4364466B2 (en) Imaging device
JP5181841B2 (en) Imaging apparatus, imaging control program, image reproducing apparatus, and image reproducing program
JP2007150604A (en) Electronic camera
JP2015008385A (en) Image selection device, imaging device, and image selection program
JP2001211418A (en) Electronic camera
JP2005045601A (en) Image photographing apparatus and program
JP5040964B2 (en) Digital camera
JP4254467B2 (en) Digital camera
JP4306399B2 (en) Digital camera
JP4305119B2 (en) Digital camera
JP2011109551A (en) Image capturing apparatus
KR101477535B1 (en) Method and apparatus for searching an image, digital photographing apparatus using thereof
JP2005057623A (en) Image data processor
JP2010039795A (en) Data generation device and electronic camera for recognition, data generation program for recognition, and data generation method for recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070404

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080528

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080529

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20081125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090812

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4371219

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090825

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150911

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150911

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250