JP2007148691A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2007148691A
JP2007148691A JP2005341051A JP2005341051A JP2007148691A JP 2007148691 A JP2007148691 A JP 2007148691A JP 2005341051 A JP2005341051 A JP 2005341051A JP 2005341051 A JP2005341051 A JP 2005341051A JP 2007148691 A JP2007148691 A JP 2007148691A
Authority
JP
Japan
Prior art keywords
face
data
image
image data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005341051A
Other languages
Japanese (ja)
Inventor
Hirotake Nozaki
弘剛 野崎
Yasuyuki Motoki
康之 元木
Akira Omura
晃 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2005341051A priority Critical patent/JP2007148691A/en
Priority to CN2006800438630A priority patent/CN101313565B/en
Priority to PCT/JP2006/323295 priority patent/WO2007060980A1/en
Priority to CN2011102312413A priority patent/CN102231801B/en
Priority to EP06833117A priority patent/EP1962497B1/en
Priority to US12/085,353 priority patent/US8488847B2/en
Publication of JP2007148691A publication Critical patent/JP2007148691A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of easily generating face recognition data of a target person by reading image data resulting from previously photographing the person. <P>SOLUTION: The image processor comprises a controller, a face detector, a face image generator or face recognition data generator, and a recorder. The controller has at least one of an embedded memory, a connecting section to a recording medium, and an external communication means, and acquires photographed image data previously generated by an electronic camera from one of the embedded memory, the recording medium, and a computer connected through the external communication means. The face detector detects a face area in a footage based on the photographed image data. The face image generator clips an image of the face area to generate face image data. The face recognition data generator extracts a feature point of the photographed person's face from a face area portion of the photographed image data, and generates face recognition data based on the feature point. The recorder records the face image data or the face recognition data. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、人物の顔認識機能を備えた画像処理装置に関する。   The present invention relates to an image processing apparatus having a human face recognition function.

従来から、人物の顔を撮影した撮影画像から人物の顔の特徴点を抽出し、認識する人物に関する顔認識データと上記の特徴点との一致度に基づいて顔認識を行う技術が開示されている(特許文献1参照)。かかる顔認識の技術では、予め電子カメラなどに顔認識データを登録する必要がある。特に顔認識の精度を向上させるためにはより多くの顔認識データが必要となるので、複数フレームの撮影画像から顔認識データを生成する必要がある。
特開平6−259534号公報
Conventionally, a technique has been disclosed in which feature points of a person's face are extracted from a photographed image of the person's face, and face recognition is performed based on the degree of coincidence between face recognition data related to the person to be recognized and the above feature points. (See Patent Document 1). Such face recognition technology requires that face recognition data be registered in advance in an electronic camera or the like. In particular, in order to improve the accuracy of face recognition, more face recognition data is required, so it is necessary to generate face recognition data from a plurality of frames of captured images.
JP-A-6-259534

ところで、顔認識データを登録する場合、より多くの撮影画像データから顔認識データを生成できるようにすることが要望されている。例えば、他の電子カメラで撮影した画像データや過去に撮影した画像データから顔認識データを生成できれば、ユーザーの利便性は大幅に向上する。また、顔登録作業では、煩雑な作業を行うことなく顔登録をより簡易に行える手段が要望されている。   By the way, when registering face recognition data, it is desired to be able to generate face recognition data from more photographed image data. For example, if face recognition data can be generated from image data taken with another electronic camera or image data taken in the past, user convenience is greatly improved. Further, in face registration work, there is a demand for means that can more easily perform face registration without performing complicated work.

本発明は上記従来技術の課題を解決するためのものであって、その目的は、予め人物を撮影した画像データを読み込んで、目的とする人物の顔認識データを容易に生成できる画像処理装置を提供することである。   The present invention is to solve the above-described problems of the prior art, and an object of the present invention is to provide an image processing apparatus that can easily generate face recognition data of a target person by reading image data obtained by photographing a person in advance. Is to provide.

第1の発明に係る画像処理装置は、制御部と、顔検出部と、顔画像生成部または顔認識データ生成部と、記録部と、を備える。制御部は、内蔵メモリ、記録媒体との接続部および外部通信手段の少なくとも1つを有するとともに、電子カメラで予め生成された撮影画像データを内蔵メモリ、記録媒体、外部通信手段を介して接続されたコンピュータのいずれかから取得する。顔検出部は、撮影画像データに基づいて、撮影画面内の顔領域を検出する。顔画像生成部は、顔領域の画像を切り出して顔画像データを生成する。顔認識データ生成部は、撮影画像データの顔領域の部分から撮影人物の顔の特徴点を抽出し、特徴点に基づいて顔認識データを生成する。記録部は、顔画像データまたは顔認識データを記録する。   An image processing apparatus according to a first aspect includes a control unit, a face detection unit, a face image generation unit or a face recognition data generation unit, and a recording unit. The control unit includes at least one of a built-in memory, a connection unit with a recording medium, and an external communication unit, and is connected to photographed image data generated in advance by the electronic camera via the built-in memory, the recording medium, and the external communication unit Get from one of the computers. The face detection unit detects a face area in the shooting screen based on the shot image data. The face image generation unit generates face image data by cutting out an image of the face area. The face recognition data generation unit extracts a feature point of the photographed person's face from the face area portion of the photographed image data, and generates face recognition data based on the feature point. The recording unit records face image data or face recognition data.

第2の発明は、第1の発明において、撮影画像データの再生画像に顔領域を識別する表示を合成する画像処理部と、画像処理部の出力画像を表示する表示部と、をさらに備える。
第3の発明は、第2の発明において、ユーザーの入力を受け付ける入力部をさらに備える。顔検出部は、入力部からの入力に基づいて顔領域の検出精度を規定する閾値を変更する。
According to a second invention, in the first invention, the image processing unit further includes an image processing unit that synthesizes a display for identifying a face area on a reproduced image of captured image data, and a display unit that displays an output image of the image processing unit.
According to a third aspect, in the second aspect, the information processing apparatus further includes an input unit that receives a user input. The face detection unit changes a threshold value that defines the detection accuracy of the face area based on the input from the input unit.

第4の発明は、第2の発明において、ユーザーの入力を受け付ける入力部をさらに備える。顔画像生成部または顔認識データ生成部は、撮影画像データから複数の顔領域が検出された場合、入力部からの入力で選択された顔領域について顔画像データまたは顔認識データを生成する。
第5の発明は、第1から第4のいずれかの発明において、制御部は、同一の撮影人物から生成した複数の顔画像データまたは顔認識データをグループ化して記録部に記録する。
4th invention is further equipped with the input part which receives a user's input in 2nd invention. The face image generation unit or the face recognition data generation unit generates face image data or face recognition data for the face region selected by the input from the input unit when a plurality of face regions are detected from the captured image data.
In a fifth aspect based on any one of the first to fourth aspects, the control unit groups and records a plurality of face image data or face recognition data generated from the same photographed person in the recording unit.

第6の発明は、第1から第5のいずれかの発明において、制御部は、撮影画像データの顔領域の部分を所定のサイズに切り出してインデックス画像データを生成するとともに、該インデックス画像データを顔画像データまたは顔認識データに対応付けて記録部に記録する。
第7の発明は、第1から第6のいずれかの発明において、撮影画像データは撮影時の撮影条件を記録した付属データ領域を有する。制御部は、付属データ領域の撮影条件に基づいて撮影条件データを生成するとともに、該撮影条件データを顔画像データまたは顔認識データに対応付けて記録部に記録する。
In a sixth aspect based on any one of the first to fifth aspects, the control unit generates index image data by cutting out the face area portion of the captured image data into a predetermined size, and the index image data The image is recorded in the recording unit in association with the face image data or face recognition data.
In a seventh aspect based on any one of the first to sixth aspects, the photographed image data has an attached data area in which photographing conditions at the time of photographing are recorded. The control unit generates shooting condition data based on the shooting conditions in the attached data area, and records the shooting condition data in the recording unit in association with the face image data or the face recognition data.

第8の発明は、第1から第7のいずれかの発明において、撮影画像データは撮影日時を記録した付属データ領域を有する。制御部は、付属データ領域の撮影日時に基づいて顔画像データまたは顔認識データの取得時期データを生成するとともに、該取得時期データを顔画像データまたは顔認識データに対応付けて記録部に記録する。
ここで、上記発明に関する構成を方法、記録媒体、コンピュータプログラムなどに変換して表現したものも本発明の具体的態様として有効である。
In an eighth aspect based on any one of the first to seventh aspects, the photographed image data has an attached data area in which the photographing date and time are recorded. The control unit generates the acquisition time data of the face image data or the face recognition data based on the shooting date and time of the attached data area, and records the acquisition time data in the recording unit in association with the face image data or the face recognition data. .
Here, a representation of the configuration related to the present invention converted into a method, a recording medium, a computer program, etc. is also effective as a specific aspect of the present invention.

本発明によれば、予め人物を撮影した画像データを読み込んで、目的とする人物の顔認識データを容易に生成することができる。   According to the present invention, it is possible to easily generate face recognition data of a target person by reading image data obtained by photographing a person in advance.

図1は本発明の画像処理装置の一実施形態である電子カメラの構成を示すブロック図である。
電子カメラは、撮影光学系11と、第1レンズ駆動部12と、揺動センサ部13と、像ぶれ補正レンズ14と、第2レンズ駆動部15と、撮像素子16と、アナログ信号処理部17と、A/D変換部18と、内蔵メモリ19と、画像処理部20と、カードI/F21と、入出力I/F22と、操作部材23および液晶モニタ24と、閃光発光部25と、CPU26と、顔登録メモリ27およびデータバス28とを有している。なお、内蔵メモリ19、画像処理部20、カードI/F21、入出力I/F22およびCPU26は、データバス28を介して接続されている。
FIG. 1 is a block diagram showing a configuration of an electronic camera which is an embodiment of an image processing apparatus of the present invention.
The electronic camera includes a photographing optical system 11, a first lens driving unit 12, a swing sensor unit 13, an image blur correction lens 14, a second lens driving unit 15, an image sensor 16, and an analog signal processing unit 17. The A / D converter 18, the built-in memory 19, the image processor 20, the card I / F 21, the input / output I / F 22, the operation member 23 and the liquid crystal monitor 24, the flash light emitter 25, and the CPU 26. And a face registration memory 27 and a data bus 28. The internal memory 19, the image processing unit 20, the card I / F 21, the input / output I / F 22, and the CPU 26 are connected via a data bus 28.

撮影光学系11は、ズームレンズ11aと、合焦位置調節用のフォーカシングレンズ11bとを含む複数のレンズ群で構成されている。撮影光学系11を構成する各レンズは、第1レンズ駆動部12によって光軸方向に駆動調整される。
揺動センサ部13は、電子カメラの縦揺れを検出する縦方向角速度センサと、電子カメラの横揺れを検出する横方向角速度センサとを備えている。揺動センサ部13は電子カメラの揺れを示すカメラ揺動データをCPU26に出力する。このカメラ揺動データは、像ぶれ補正レンズ14の移動量の演算に使用される。
The photographing optical system 11 includes a plurality of lens groups including a zoom lens 11a and a focusing lens 11b for adjusting a focus position. Each lens constituting the photographing optical system 11 is driven and adjusted in the optical axis direction by the first lens driving unit 12.
The swing sensor unit 13 includes a vertical angular velocity sensor that detects the pitch of the electronic camera and a horizontal angular velocity sensor that detects the roll of the electronic camera. The swing sensor unit 13 outputs camera swing data indicating the swing of the electronic camera to the CPU 26. This camera swing data is used to calculate the amount of movement of the image blur correction lens 14.

像ぶれ補正レンズ14は光軸直角方向に揺動可能に構成されている。第2レンズ駆動部15は、像ぶれ補正レンズ14を縦方向に揺動させる縦揺動手段と、像ぶれ補正レンズ14を横方向に揺動させる横揺動手段とで構成される。この第2レンズ駆動部15は、CPU26が演算した像ぶれ補正レンズ14の移動量に基づいて、像ぶれ補正レンズ14を揺動させてぶれ補正を実行する。   The image blur correction lens 14 is configured to be swingable in the direction perpendicular to the optical axis. The second lens driving unit 15 includes a vertical swing unit that swings the image blur correction lens 14 in the vertical direction and a horizontal swing unit that swings the image blur correction lens 14 in the horizontal direction. The second lens driving unit 15 swings the image blur correction lens 14 based on the movement amount of the image blur correction lens 14 calculated by the CPU 26 and executes blur correction.

撮像素子16は、撮影光学系11を通過した光束を光電変換して被写体像のアナログ画像信号を生成する。この撮像素子16は、非レリーズ時(撮影待機時)にも所定間隔毎に被写体を露光し、間引き読み出しによるアナログ画像信号(スルー画像信号)を出力する。スルー画像信号は、後述のAF演算、AE演算および顔検出動作や、ファインダ用画像の生成などに使用される。   The image sensor 16 photoelectrically converts the light beam that has passed through the photographing optical system 11 to generate an analog image signal of the subject image. The image sensor 16 also exposes the subject at predetermined intervals even when the shutter is not released (during shooting standby), and outputs an analog image signal (through image signal) by thinning readout. The through image signal is used for AF calculation, AE calculation, face detection operation, and finder image generation, which will be described later.

アナログ信号処理部17は、相関二重サンプリングを行うCDS回路、アナログ画像信号の出力を増幅するゲイン回路、入力信号の波形を一定の電圧レベルにクランプするクランプ回路等で構成されている。A/D変換部18は撮像素子16のアナログ画像信号をデジタル画像信号に変換する。内蔵メモリ19は、画像処理部20での画像処理の前工程および後工程でデータを一時的に保存する。なお、内蔵メモリ19には後述の撮影画像データを記録可能な記録領域を設けることもできる。   The analog signal processing unit 17 includes a CDS circuit that performs correlated double sampling, a gain circuit that amplifies the output of the analog image signal, a clamp circuit that clamps the waveform of the input signal to a certain voltage level, and the like. The A / D converter 18 converts the analog image signal of the image sensor 16 into a digital image signal. The built-in memory 19 temporarily stores data in the pre-process and post-process of image processing in the image processing unit 20. The built-in memory 19 can be provided with a recording area in which captured image data described later can be recorded.

画像処理部20はデジタル画像信号に所定の画像処理を施す。この画像処理部20はレリーズ時の画像信号に基づいて撮影画像データを生成する。また、画像処理部20はスルー画像信号に基づいてスルー画像データを順次生成する。このスルー画像データの解像度は、撮影画像データの解像度よりも低く設定される。スルー画像データは、CPU26による顔認識処理に使用されるとともに、液晶モニタ24の表示画像(プレビュー画像)としても使用される。さらに、画像処理部20は撮影画像データの圧縮処理なども実行する。さらにまた、画像処理部20は、撮影画像の一部を切り出して解像度を変換する電子ズーム処理を行うことも可能である。   The image processing unit 20 performs predetermined image processing on the digital image signal. The image processing unit 20 generates captured image data based on the image signal at the time of release. Further, the image processing unit 20 sequentially generates through image data based on the through image signal. The resolution of the through image data is set lower than the resolution of the captured image data. The through image data is used for face recognition processing by the CPU 26 and also used as a display image (preview image) on the liquid crystal monitor 24. Furthermore, the image processing unit 20 also performs a process of compressing captured image data. Furthermore, the image processing unit 20 can also perform an electronic zoom process that cuts out a part of the captured image and converts the resolution.

また、画像処理部20は、CPU26の指示により各種表示(顔認識時の枠表示など)のビデオデータを生成し、上記のビデオデータをスルー画像データに重畳させて液晶モニタ24に出力する。これによって、プレビュー画像には上記の各種表示が合成される。
カードI/F21には、記録媒体29を接続するためのコネクタが形成されている。記録媒体29は公知の半導体メモリなどで構成される。そして、カードI/F21は、記録媒体29に対する撮影画像データの書き込み/読み込みを制御する。
In addition, the image processing unit 20 generates video data for various displays (such as a frame display during face recognition) according to instructions from the CPU 26, superimposes the video data on the through image data, and outputs the video data to the liquid crystal monitor 24. As a result, the various displays described above are combined with the preview image.
The card I / F 21 is formed with a connector for connecting the recording medium 29. The recording medium 29 is composed of a known semiconductor memory or the like. The card I / F 21 controls writing / reading of photographed image data with respect to the recording medium 29.

入出力I/F22には、操作部材23および液晶モニタ24が接続されている。操作部材23は入力釦やレリーズ釦などを備えている。操作部材23の入力釦は、例えば、電子カメラの撮影モード(通常撮影モード、再生モード、顔登録モード、顔認識撮影モード等)の切り換え入力などを受け付ける。また、操作部材23のレリーズ釦は、半押しによるAF動作の指示入力と、全押しによるレリーズ入力とを受け付ける。   An operation member 23 and a liquid crystal monitor 24 are connected to the input / output I / F 22. The operation member 23 includes an input button, a release button, and the like. The input button of the operation member 23 accepts, for example, a switching input of a photographing mode (normal photographing mode, reproduction mode, face registration mode, face recognition photographing mode, etc.) of the electronic camera. The release button of the operation member 23 accepts an AF operation instruction input by half pressing and a release input by full pressing.

一方、液晶モニタ24は主として電子カメラの背面部分に配置される。この液晶モニタ24には、撮影画像データの再生画像や電子カメラの各種設定を変更するための設定画面などが表示される。上記の設定画面には後述の顔認識データを編集するための編集画面が含まれる。また、撮影モードでの液晶モニタ24には上記のプレビュー画像を動画表示することが可能である。したがって、ユーザーは、液晶モニタ24のプレビュー画像を確認しつつ被写体のフレーミングを行うことができる。   On the other hand, the liquid crystal monitor 24 is mainly disposed on the back surface portion of the electronic camera. The liquid crystal monitor 24 displays a playback image of the captured image data, a setting screen for changing various settings of the electronic camera, and the like. The setting screen includes an editing screen for editing face recognition data described later. In addition, the preview image can be displayed as a moving image on the liquid crystal monitor 24 in the shooting mode. Therefore, the user can perform framing of the subject while confirming the preview image on the liquid crystal monitor 24.

さらに、入出力I/F22には外部接続端子が形成されている。そして、入出力I/F22は、外部接続端子を介して接続されたコンピュータなどとのデータ送受信をUSB(Universal Serial Bus)やIEEE1394などのシリアル通信規格に準拠して制御する。また、入出力I/F22の外部接続端子には、外部との無線通信を行うための拡張機器である通信ユニット30を接続することも可能である。   Furthermore, an external connection terminal is formed in the input / output I / F 22. The input / output I / F 22 controls data transmission / reception with a computer or the like connected via an external connection terminal in accordance with a serial communication standard such as USB (Universal Serial Bus) or IEEE1394. Further, it is possible to connect a communication unit 30 which is an expansion device for performing wireless communication with the outside to the external connection terminal of the input / output I / F 22.

閃光発光部25は、キセノン発光管、発光のエネルギを蓄えるメインコンデンサ、閃光を被写体に効率良く照射するための反射傘やレンズ部材、発光タイミングや光量を調整する発光制御回路などから構成されている。
CPU26は、不図示のROMに格納されたシーケンスプログラムに従って電子カメラの各部動作を制御する。例えば、CPU26はスルー画像信号に基づいて公知のコントラスト方式のAF(オートフォーカス)演算や、公知のAE(自動露出)演算などを実行する。また、CPU26は、上記のカメラ揺動データに基づいて像ぶれ補正レンズ14の移動量を演算する。
The flash light emitting unit 25 includes a xenon arc tube, a main capacitor for storing light emission energy, a reflector and a lens member for efficiently irradiating the subject with flash light, a light emission control circuit for adjusting light emission timing and light quantity, and the like. .
The CPU 26 controls the operation of each part of the electronic camera according to a sequence program stored in a ROM (not shown). For example, the CPU 26 executes a known contrast AF (autofocus) calculation or a known AE (automatic exposure) calculation based on the through image signal. Further, the CPU 26 calculates the movement amount of the image blur correction lens 14 based on the camera swing data.

さらに、CPU26は顔検出部31、顔認識部32として機能する。顔検出部31は、スルー画像データまたは撮影画像データから特徴点を抽出して被写体の顔領域、顔の大きさ等を検出する。例えば、顔検出部31は、特開2001−16573号公報などに記載された特徴点抽出処理によって顔領域を抽出する。また、上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などが挙げられる。   Further, the CPU 26 functions as a face detection unit 31 and a face recognition unit 32. The face detection unit 31 extracts feature points from through image data or captured image data, and detects a face area, a face size, and the like of the subject. For example, the face detection unit 31 extracts a face region by a feature point extraction process described in Japanese Patent Laid-Open No. 2001-16573. Examples of the feature points include eyebrow, eye, nose, and lip end points, face contour points, head vertices, and chin lower end points.

顔認識部32は、「顔登録モード」では、検出した顔の特徴点に基づいて顔認識データを生成する。例えば、顔認識部32は、検出した顔の特徴点の位置、特徴点から求まる顔パーツの大きさ、各特徴点の相対距離などから登録人物の顔認識データを生成する。
また、顔認識部32は、「顔認識撮影モード」では、撮影画面内の人物の顔が顔認識データの登録人物の顔か否かを判定する顔認識処理を行う。具体的には、まず顔認識部32は検出された顔の特徴点に基づいて、撮影人物の顔の特徴点の位置、各顔パーツの大きさ、各特徴点の相対距離などを演算する。次に顔認識部32は、上記の演算結果と顔認識データとを比較して所定の登録人物の顔と撮影人物の顔との相似度を求める。そして、顔認識部32は上記の相似度が閾値を上回る場合に撮影人物が所定の登録人物に合致すると判定する。
In the “face registration mode”, the face recognition unit 32 generates face recognition data based on the detected feature points of the face. For example, the face recognizing unit 32 generates face recognition data of a registered person from the position of the detected feature point of the face, the size of the face part obtained from the feature point, the relative distance of each feature point, and the like.
Further, in the “face recognition shooting mode”, the face recognition unit 32 performs face recognition processing for determining whether or not a person's face in the shooting screen is a face of a registered person in the face recognition data. Specifically, the face recognition unit 32 first calculates the position of the feature point of the photographed person's face, the size of each face part, the relative distance of each feature point, and the like based on the detected feature points of the face. Next, the face recognition unit 32 compares the above calculation result with the face recognition data, and obtains the similarity between the face of the predetermined registered person and the face of the photographed person. Then, the face recognizing unit 32 determines that the photographed person matches a predetermined registered person when the similarity is greater than the threshold value.

なお、CPU26は、顔認識処理の結果に基づいて、撮影条件または画像処理の設定変更や、撮像素子16へのレリーズ指示などを実行することが可能である。
顔登録メモリ27には、CPU26の顔認識部32が生成した顔認識データが記録される。この顔登録メモリ27には登録人物ごとにグループフォルダが生成されている。グループフォルダには、各登録人物の顔認識データがそれぞれ記録されている。すなわち、顔登録メモリ27の顔認識データは、グループフォルダによって登録人物ごとにグループ化されている。例えば、グループフォルダには、同一の登録人物に関して顔の向き、眼鏡の有無および撮影条件などが異なる複数の顔認識データを記録することが可能である。そして、登録人物を指定することで、CPU26はグループフォルダ内の顔認識データを顔登録メモリ27から一括して読み出すことが可能となっている。
Note that the CPU 26 can execute a change in shooting conditions or image processing settings, a release instruction to the image sensor 16, and the like based on the result of the face recognition process.
In the face registration memory 27, face recognition data generated by the face recognition unit 32 of the CPU 26 is recorded. In the face registration memory 27, a group folder is generated for each registered person. In the group folder, face recognition data of each registered person is recorded. That is, the face recognition data in the face registration memory 27 is grouped for each registered person by the group folder. For example, in the group folder, a plurality of face recognition data with different face orientations, presence / absence of glasses, photographing conditions, and the like can be recorded for the same registered person. Then, by designating the registered person, the CPU 26 can collectively read the face recognition data in the group folder from the face registration memory 27.

また、顔登録メモリ27には、「登録人物の名称」および「顔認識時の処理設定」のデータが記録されている。上記の「登録人物の名称」および「顔認識時の処理設定」は、各登録人物のグループフォルダにそれぞれ対応付けされている。
ここで、「顔認識時の処理設定」には、登録人物が認識された場合に適用される電子カメラの各種制御の設定が記録されている。例えば、「顔認識時の処理設定」には、(1)撮影時の撮影条件の設定、(2)撮影画像データの画像処理の設定、(3)撮影画像データの記録先の設定、(4)撮影画像データの印刷指定の設定、(5)撮影画像データの送信設定、などが含まれる。
The face registration memory 27 stores data of “name of registered person” and “processing setting for face recognition”. The “registered person name” and “processing setting at the time of face recognition” are associated with the group folder of each registered person.
Here, in the “processing setting at the time of face recognition”, settings of various controls of the electronic camera that are applied when a registered person is recognized are recorded. For example, “processing setting for face recognition” includes (1) setting of shooting conditions at the time of shooting, (2) setting of image processing of shot image data, (3) setting of a recording destination of shot image data, (4 And (5) setting for transmission of photographed image data, and the like.

上記(1)の撮影条件の設定には、各登録人物を撮影するときの露出補正値や、被写界深度の設定(浅め、標準の選択)などが含まれる。また、登録人物の検出の際にCPU26が自動的に撮影を行う設定も可能である。上記(2)の画像処理の設定には、撮影画像データのソフトフォーカス処理の有無の設定、エッジ強調の抑制の設定などが含まれる。
上記(3)の記録先の設定では、撮影画像データの記録先となる記録媒体29内の記録フォルダのディレクトリパスを各登録人物ごとに指定できる。すなわち、CPU26は顔登録メモリ27のデータを参照し、各登録人物ごとに異なる記録フォルダに撮影画像データを記録することが可能となる。
The setting of the shooting condition in (1) includes an exposure correction value when shooting each registered person, setting of the depth of field (shallow, standard selection), and the like. It is also possible to set the CPU 26 to automatically take a picture when a registered person is detected. The image processing settings in (2) above include settings for presence / absence of soft focus processing of captured image data, settings for suppressing edge enhancement, and the like.
In the setting of the recording destination in (3) above, the directory path of the recording folder in the recording medium 29 that is the recording destination of the photographed image data can be designated for each registered person. That is, the CPU 26 can record the photographed image data in a different recording folder for each registered person by referring to the data in the face registration memory 27.

上記(4)の印刷指定の設定では、例えば、DPOF(Digital Print Order Format)などの規格による撮影画像データの印刷指定の有無を各登録人物ごとに指定できる。なお、上記(5)の送信設定では、登録人物の撮影時における撮影画像データの送信の要否と、送信先のアドレス情報(電子メールアドレス)とを指定できる。
また、顔登録メモリ27には、「顔登録画像」、「顔認識データの登録時期」および「顔認識データの取得時の撮影条件」のデータが記録されている。上記の「顔登録画像」、「顔認識データの登録時期」および「顔認識データの取得時の撮影条件」のデータは、グループフォルダ内の個々の顔認識データにそれぞれ対応付けされている。
In the print designation setting in (4) above, for example, it is possible to designate, for each registered person, whether or not to print shot image data according to a standard such as DPOF (Digital Print Order Format). In the transmission setting in (5) above, it is possible to designate whether or not the captured image data needs to be transmitted when the registered person is photographed, and address information (e-mail address) of the transmission destination.
The face registration memory 27 stores data of “face registration image”, “face recognition data registration time”, and “shooting conditions at the time of face recognition data acquisition”. The above-mentioned “face registration image”, “face recognition data registration time”, and “imaging conditions when acquiring face recognition data” are associated with individual face recognition data in the group folder.

上記の「顔登録画像」は顔認識データ取得時の撮影画像データであって、所定の画素サイズにリサイズされている。そして、「顔登録画像」は上記の編集画面で液晶モニタ24に表示される。すなわち、「顔登録画像」は、登録人物または顔認識データの識別性、検索性を高めるインデックス画像として機能する。例えば、「顔登録画像」によって、ユーザーは誰のどのような画像(顔正面、横向きなど)から顔認識データが生成されたかを編集画面で確認することも可能となる。   The above “face registration image” is photographed image data at the time of face recognition data acquisition, and is resized to a predetermined pixel size. Then, the “face registration image” is displayed on the liquid crystal monitor 24 in the above editing screen. That is, the “face registration image” functions as an index image that enhances the identifiability and searchability of the registered person or face recognition data. For example, the “face registration image” allows the user to check on the editing screen which face recognition data has been generated from what kind of image (face front, landscape orientation, etc.).

「顔認識データの登録時期」は、その顔認識データの元となる顔登録画像データの撮影日時のデータである。また、「顔認識データの取得時の撮影条件」は、顔登録画像データの撮影条件のデータである。上記の撮影条件には、例えば、撮影光学系11の焦点距離のデータや、撮影時のホワイトバランスおよび露出条件や、撮影時のフラッシュ発光の有無などが含まれる。なお、「顔認識データの登録時期」および「顔認識データの取得時の撮影条件」のデータは、CPU26が顔認識処理で使用する顔認識データを絞り込む場合の判定にも使用される。   “Registration time of face recognition data” is data of photographing date and time of face registration image data that is the basis of the face recognition data. Further, “shooting conditions when acquiring face recognition data” is data of shooting conditions of face registration image data. The above photographing conditions include, for example, focal length data of the photographing optical system 11, white balance and exposure conditions at the time of photographing, presence / absence of flash emission at the time of photographing, and the like. Note that the data of “registration time of face recognition data” and “shooting conditions when acquiring face recognition data” are also used for determination when the CPU 26 narrows down the face recognition data used in the face recognition processing.

以下、本実施形態の電子カメラの動作を「顔登録モード」と「顔認識撮影モード」とに分けて説明する。
(顔登録モードでの動作)
図2は本実施形態の「顔登録モード」の動作を示す流れ図である。この「顔登録モード」は再生モードの一種であって、撮影画像データの再生時において顔認識データを生成するためのモードである。
Hereinafter, the operation of the electronic camera of the present embodiment will be described by dividing it into “face registration mode” and “face recognition shooting mode”.
(Operation in face registration mode)
FIG. 2 is a flowchart showing the operation of the “face registration mode” of the present embodiment. This “face registration mode” is a kind of reproduction mode, and is a mode for generating face recognition data when the captured image data is reproduced.

ステップ101:まず、ユーザーは操作部材23により電子カメラを「再生モード」に設定する。CPU26は記録媒体29や内蔵メモリ19から顔登録画像データ(顔認識データの生成に使用する撮影画像データ)を読み出して、顔登録画像データの再生画像を液晶モニタ24に再生表示する。なお、CPU26は、入出力I/F22の外部接続端子または通信ユニット30を介して接続されたコンピュータ(不図示)から顔登録画像データを読み出すこともできる。   Step 101: First, the user sets the electronic camera to the “playback mode” using the operation member 23. The CPU 26 reads face registration image data (photographed image data used for generating face recognition data) from the recording medium 29 or the built-in memory 19 and reproduces and displays a reproduction image of the face registration image data on the liquid crystal monitor 24. The CPU 26 can also read face registration image data from a computer (not shown) connected via the external connection terminal of the input / output I / F 22 or the communication unit 30.

ステップ102:ユーザーは操作部材23により電子カメラのモードを「顔登録モード」に設定する。
例えば、電子カメラが「再生モード」に設定された状態において、ユーザーはモード選択画面を呼び出す操作を行う。これにより、CPU26はモード選択画面(図3参照)を液晶モニタ24に表示する。そして、ユーザーは操作部材23でモード選択画面上の選択枠を操作し、CPU26に「顔登録モード」の起動を指示する。これにより、CPU26は「顔登録モード」の一連の動作を開始する。
Step 102: The user sets the electronic camera mode to the “face registration mode” using the operation member 23.
For example, in a state where the electronic camera is set to the “playback mode”, the user performs an operation for calling a mode selection screen. As a result, the CPU 26 displays a mode selection screen (see FIG. 3) on the liquid crystal monitor 24. Then, the user operates the selection frame on the mode selection screen with the operation member 23 and instructs the CPU 26 to activate the “face registration mode”. Thereby, the CPU 26 starts a series of operations in the “face registration mode”.

ステップ103:CPU26の顔検出部31は、顔登録画像データ(S101)に公知の顔検出処理を施して撮影画面内の顔領域を検出する。
ステップ104:CPU26は撮影画面での顔領域の位置を画像処理部20に出力する。そして、画像処理部20は再生画像の顔領域の位置に矩形の枠を合成表示する(図4〜図6参照)。これにより、ユーザーは液晶モニタ24で顔検出の状態を確認できる。
Step 103: The face detection unit 31 of the CPU 26 performs a known face detection process on the face registration image data (S101) to detect a face area in the shooting screen.
Step 104: The CPU 26 outputs the position of the face area on the shooting screen to the image processing unit 20. Then, the image processing unit 20 synthesizes and displays a rectangular frame at the position of the face area of the reproduced image (see FIGS. 4 to 6). As a result, the user can confirm the face detection state on the liquid crystal monitor 24.

ステップ105:CPU26は顔検出処理の再試行をユーザーに確認する表示(「OK」および「やり直し」の選択表示)を液晶モニタ24に表示する(図4参照)。登録しようとする人物の顔に枠表示がない場合には、ユーザーは操作部材23で「やり直し」を選択入力する。一方、登録しようとする人物の顔に枠表示がある場合には、ユーザーは操作部材23で「OK」を選択入力する。   Step 105: The CPU 26 displays a display (selection display of “OK” and “Redo”) for confirming the retry of the face detection process with the user on the liquid crystal monitor 24 (see FIG. 4). When there is no frame display on the face of the person to be registered, the user selects and inputs “redo” with the operation member 23. On the other hand, when there is a frame display on the face of the person to be registered, the user selects and inputs “OK” with the operation member 23.

そして、CPU26は、上記の確認表示で「やり直し」(顔検出処理の再試行)が選択されたか否かを判定する。「やり直し」が選択された場合(YES側)にはS106に移行する。一方、「OK」が選択された場合(NO側)にはS107に移行する。
ステップ106:CPU26の顔検出部31は、操作部材23からのユーザーの入力に基づいて、顔領域の検出精度を規定する閾値を変更する。
Then, the CPU 26 determines whether or not “redo” (retry of the face detection process) is selected in the confirmation display. When “Redo” is selected (YES side), the process proceeds to S106. On the other hand, if “OK” is selected (NO side), the process proceeds to S107.
Step 106: The face detection unit 31 of the CPU 26 changes the threshold that defines the detection accuracy of the face area based on the user input from the operation member 23.

例えば、選択したい人物の顔に枠表示がない場合には、ユーザーは上記の閾値を前回よりも低い値に変更する。その後、S103に戻って、顔検出部31は顔登録画像データに顔検出処理を施して撮影画面内の顔領域を再検出する。この場合には、顔領域を正しく検出する正解率は低下する一方で顔候補(枠表示される顔領域)の数は前回より増えるので、顔検出がしにくい状態の顔領域(例えば横向きの顔など)を検出できる可能性がより向上する。   For example, when there is no frame display on the face of the person to be selected, the user changes the threshold value to a value lower than the previous value. Thereafter, returning to S103, the face detection unit 31 performs face detection processing on the face registration image data and redetects the face area in the shooting screen. In this case, the accuracy rate for correctly detecting the face area is reduced, but the number of face candidates (face areas displayed in a frame) is increased from the previous time, so that the face area in which face detection is difficult (for example, a side face) Etc.) is more likely to be detected.

また、顔登録画像に多数の人物が写っており、かつ顔候補が必要以上に検出されている場合には、ユーザーは上記の閾値を前回よりも高い値に変更する。その後、S103に戻って、顔検出部31は顔登録画像データに顔検出処理を施して撮影画面内の顔領域を再検出する。この場合には、顔領域を正しく検出する正解率が高まるので、顔候補の数が絞り込まれて後述の選択作業(S107)が容易となる。   Further, when a large number of persons appear in the face registration image and face candidates are detected more than necessary, the user changes the threshold value to a value higher than the previous value. Thereafter, returning to S103, the face detection unit 31 performs face detection processing on the face registration image data and redetects the face area in the shooting screen. In this case, since the correct answer rate for correctly detecting the face area increases, the number of face candidates is narrowed down and the selection operation (S107) described later becomes easy.

ステップ107:CPU26は顔登録画像のいずれかの顔領域(S103)に選択枠を合成表示する(図5参照)。ユーザーは、操作部材23で選択枠を操作して顔認識データを作成する人物を選択する一方で、CPU26はユーザーの選択入力を受け付ける。なお、S107では、ユーザーは1つの再生画像から複数の顔領域を選択することも可能である。   Step 107: The CPU 26 synthesizes and displays the selection frame in any face area (S103) of the face registration image (see FIG. 5). While the user operates the selection frame with the operation member 23 to select a person who creates face recognition data, the CPU 26 accepts a user's selection input. In S107, the user can also select a plurality of face areas from one reproduced image.

ステップ108:CPU26は、選択された人物が新規の登録人物か否かをユーザーに確認する表示(「新規」および「追加」の選択表示)を液晶モニタ24に表示する(図6参照)。この画面では、ユーザーは入力釦で選択枠を操作して「新規」または「追加」をCPU26に選択入力する。新たな人物の顔を登録する場合には、ユーザーは「新規」を選択入力する。一方、既に登録されている人物の顔をさらに撮影する場合には、ユーザーは「追加」を選択入力する。   Step 108: The CPU 26 displays a display (selection display of “new” and “add”) for confirming to the user whether or not the selected person is a new registered person (see FIG. 6). On this screen, the user selects and inputs “new” or “add” to the CPU 26 by operating the selection frame with the input buttons. When registering a new person's face, the user selects and inputs “new”. On the other hand, when further photographing a face of a person who has already been registered, the user selects and inputs “Add”.

そして、CPU26は、上記の確認表示で「新規」が選択されたか否かを判定する。「新規」が選択された場合(YES側)にはS109に移行する。一方、「追加」が選択された場合(NO側)にはS110に移行する。
ステップ109:S108で「新規」が選択された場合、CPU26は顔登録メモリ27に新規登録人物のグループフォルダを生成する。そして、CPU26は「登録人物の詳細情報画面」(図8参照)を液晶モニタ24に表示するとともに、ユーザーに「登録人物の名称」および「顔認識時の処理設定」の情報の入力を促す。図8の「登録人物の詳細情報画面」で入力された情報は、グループフォルダに対応付けされた状態で顔登録メモリ27に記録される。その後、S111に移行する。
Then, the CPU 26 determines whether or not “new” is selected in the above confirmation display. When “new” is selected (YES side), the process proceeds to S109. On the other hand, if “add” is selected (NO side), the process proceeds to S110.
Step 109: When “New” is selected in S108, the CPU 26 generates a group folder of newly registered persons in the face registration memory 27. Then, the CPU 26 displays a “registered person detailed information screen” (see FIG. 8) on the liquid crystal monitor 24 and prompts the user to input information of “registered person name” and “processing setting for face recognition”. Information input on the “registered person detailed information screen” in FIG. 8 is recorded in the face registration memory 27 in a state of being associated with the group folder. Thereafter, the process proceeds to S111.

なお、ユーザーは「登録人物の名称」および「顔認識時の処理設定」の入力を省略し、後で改めて図8の「登録人物の詳細情報画面」を立ち上げて、これらの情報を顔登録メモリ27に入力することも可能である。
ステップ110:一方、S108で「追加」が選択された場合、CPU26は既に登録されている登録人物の選択画面(図7参照)を液晶モニタ24に表示し、顔認識データを追加する登録人物をユーザーに選択入力させる。
The user omits the input of “Registered Person Name” and “Process Settings for Face Recognition”, and later launches the “Registered Person Detailed Information Screen” in FIG. 8 to register the information as face registration. It is also possible to input to the memory 27.
Step 110: On the other hand, if “add” is selected in S108, the CPU 26 displays a registered person selection screen (see FIG. 7) that has already been registered on the liquid crystal monitor 24, and selects a registered person to add face recognition data to. Let the user select and input.

ステップ111:CPU26の顔認識部32は、顔登録画像データのうちで選択された顔領域(S107)から登録人物の顔認識データを生成する。また、画像処理部20は、顔登録画像データの顔領域をトリミングするとともに、解像度変換で所定のサイズにリサイズしてインデックス画像データを生成する。
ステップ112:CPU26は、顔登録画像データの付属データ領域に記録されている撮影条件および撮影日時のデータを取得する。例えば、顔登録画像データがExif(Exchangeable image file format for digital still cameras)規格に準拠した画像ファイルの場合には、CPU26は画像ファイルにタグ形式で記録されている撮影条件および撮影日時のデータを読み出して取得する。なお、顔登録画像データのデータ形式が上記の付属データ領域を含まない場合にはこの工程は省略される。
Step 111: The face recognition unit 32 of the CPU 26 generates face recognition data of the registered person from the face area (S107) selected from the face registration image data. Further, the image processing unit 20 trims the face area of the face registration image data and resizes the face area to a predetermined size by resolution conversion to generate index image data.
Step 112: The CPU 26 acquires the shooting conditions and shooting date / time data recorded in the attached data area of the face registration image data. For example, when the face registration image data is an image file that conforms to the Exif (Exchangeable image file format for digital still cameras) standard, the CPU 26 reads out the shooting conditions and shooting date / time data recorded in the tag format in the image file. Get. Note that this step is omitted when the data format of the face registration image data does not include the attached data area.

ステップ113:CPU26は、顔認識データ、インデックス画像データ、顔登録画像データの撮影条件および撮影日時を顔登録メモリ27に記録する。上記の各データはそれぞれ対応付けされた状態で、S109またはS110で指定された登録人物のグループフォルダに記録される。上記の各データのうち、インデックス画像データは「顔登録画像」に対応する。また、撮影日時は「顔認識データの登録時期」に対応し、撮影条件は「顔認識データの取得時の撮影条件」に対応する。   Step 113: The CPU 26 records the photographing conditions and photographing date / time of the face recognition data, index image data, and face registration image data in the face registration memory 27. Each of the above data is recorded in the group folder of the registered person specified in S109 or S110 in a state of being associated with each other. Among the above data, the index image data corresponds to “face registration image”. The shooting date / time corresponds to “registration time of face recognition data”, and the shooting condition corresponds to “shooting condition when acquiring face recognition data”.

以上で、「顔登録モード」での一連の動作が終了する。なお、S107で複数の顔領域が指定されている場合には、CPU26は顔領域の数に応じてS108からS113までの処理を繰り返す。
以下、本実施形態の「顔登録モード」の効果を説明する。上記の顔登録モードでは、再生時において記録媒体29などから読み込んだ撮影画像データから顔認識データが生成される(S101、S111)。すなわち、過去に撮影した撮影画像データや、他の電子カメラで撮影された撮影画像データから顔認識データを生成できるので、ユーザーの利便性が大幅に向上する。
Thus, a series of operations in the “face registration mode” is completed. When a plurality of face areas are designated in S107, the CPU 26 repeats the processes from S108 to S113 according to the number of face areas.
Hereinafter, the effect of the “face registration mode” of the present embodiment will be described. In the face registration mode, face recognition data is generated from captured image data read from the recording medium 29 or the like during reproduction (S101, S111). In other words, since the face recognition data can be generated from the photographed image data photographed in the past or the photographed image data photographed by another electronic camera, the convenience for the user is greatly improved.

また、上記の顔登録モードでは、顔検出処理で自動的に検出された顔領域に基づいて顔認識データが生成される(S103、S111)。このとき、ユーザーは検出された顔領域のうちから顔認識データを生成する対象を指定すれば足りるので、顔認識データを容易に生成することができる。
(顔登録モードの動作の変形例)
上記の実施形態では撮影時に顔登録画像から顔認識データを生成する例を説明した。しかし、顔登録画像から顔認識データを生成する代わりに、CPUが顔登録画像から顔領域の部分を切り出して顔画像データを生成し、この顔画像データをメモリや記録媒体に記録するようにしてもよい。そして、コンピュータによる後処理で顔画像データから顔認識データを生成するようにすることもできる。
In the face registration mode, face recognition data is generated based on the face area automatically detected by the face detection process (S103, S111). At this time, since it is sufficient for the user to specify a target for generating face recognition data from the detected face area, the face recognition data can be easily generated.
(Modification of face registration mode operation)
In the above embodiment, the example in which the face recognition data is generated from the face registration image at the time of shooting has been described. However, instead of generating face recognition data from the face registration image, the CPU generates face image data by cutting out the face area portion from the face registration image, and records this face image data in a memory or a recording medium. Also good. Then, face recognition data can be generated from face image data by post-processing by a computer.

ここで、顔画像データは、顔登録画像の顔領域を例えば80×80画素程度のサイズで切り出して生成される。かかる顔画像データの画像に対しては、解像度変換による変倍処理を施さないようにするのが好ましい。また、顔登録画像データの場合と同様に、CPUは、上記の顔画像データに、インデックス画像データ、顔登録画像データの撮影条件および撮影日時を対応付けして記録しておくことが好ましい。さらに、上記の顔画像データについても、CPUは、同一の撮影人物から生成した複数の顔画像データを同一のフォルダ等にグループ化して記録するのが好ましい。   Here, the face image data is generated by cutting out the face area of the face registration image with a size of about 80 × 80 pixels, for example. It is preferable not to perform a scaling process by resolution conversion on the face image data image. As in the case of face registration image data, the CPU preferably records the face image data in association with the index image data, the shooting conditions of the face registration image data, and the shooting date and time. Further, with respect to the face image data, the CPU preferably records a plurality of face image data generated from the same photographed person in the same folder or the like.

(顔認識撮影モードでの動作)
図9は本実施形態の「顔認識撮影モード」の動作を示す流れ図である。この「顔認識撮影モード」は、指定した登録人物が撮影画面に存在する場合に、電子カメラが所定の制御を行って撮影画像データを取得する撮影モードである。
ステップ201:まず、ユーザーは操作部材23により電子カメラの撮影モードを「顔認識撮影モード」に設定する。
(Operation in face recognition shooting mode)
FIG. 9 is a flowchart showing the operation of the “face recognition photographing mode” of the present embodiment. This “face recognition shooting mode” is a shooting mode in which, when a designated registered person exists on the shooting screen, the electronic camera performs predetermined control to acquire shot image data.
Step 201: First, the user sets the photographing mode of the electronic camera to the “face recognition photographing mode” using the operation member 23.

例えば、電子カメラが「通常撮影モード」や「ポートレート撮影モード」に設定された状態において、ユーザーはモード選択画面を呼び出す操作を行う。これにより、CPU26はモード選択画面(図10参照)を液晶モニタ24に表示する。そして、ユーザーは操作部材23でモード選択画面上の選択枠を操作し、CPU26に「顔認識撮影モード」の起動を指示する。これにより、CPU26は「顔認識撮影モード」の一連の動作を開始する。   For example, in a state where the electronic camera is set to “normal shooting mode” or “portrait shooting mode”, the user performs an operation for calling a mode selection screen. As a result, the CPU 26 displays a mode selection screen (see FIG. 10) on the liquid crystal monitor 24. Then, the user operates the selection frame on the mode selection screen with the operation member 23 and instructs the CPU 26 to activate the “face recognition photographing mode”. Thereby, the CPU 26 starts a series of operations in the “face recognition photographing mode”.

ステップ202:CPU26は、登録人物の選択画面(図7参照)を液晶モニタ24に表示する。そして、CPU26は、顔認識対象の登録人物(撮影時に顔認識を行う登録人物)の指定入力を受け付ける。なお、顔認識対象の登録人物を撮影前に予めユーザーがCPU26に指定入力しておくことも可能である。
ここで、「登録人物の選択画面」では、CPU26は1または2以上の登録人物の指定を受け付けることができる。例えば、CPU26は顔登録メモリ27の登録人物の全指定を受け付けることもできる。また、グループフォルダを所定のカテゴリ(例えば、家族、サークルなど)で予めリンクするとともに、ユーザーが選択画面でカテゴリを指定入力することで、CPU26にリンクされた登録人物の一括指定を入力することもできる。
Step 202: The CPU 26 displays a registered person selection screen (see FIG. 7) on the liquid crystal monitor 24. Then, the CPU 26 receives a designation input of a registered person to be face recognized (a registered person who performs face recognition at the time of shooting). It is also possible for the user to designate and input a registered person for face recognition into the CPU 26 in advance before photographing.
Here, in the “registered person selection screen”, the CPU 26 can accept designation of one or more registered persons. For example, the CPU 26 can accept all designations of registered persons in the face registration memory 27. In addition, the group folder may be linked in advance with a predetermined category (for example, family, circle, etc.), and the user may input a batch designation of registered persons linked to the CPU 26 by designating and inputting the category on the selection screen. it can.

ステップ203:CPU26は、撮像素子16を駆動させてスルー画像信号の取得を行う。撮像素子16は所定間隔毎に間引き読み出しでスルー画像信号を出力する。画像処理部20はスルー画像信号に基づいてスルー画像データを生成する。そして、液晶モニタ24にはスルー画像データに基づいてプレビュー画像が動画表示される。
ステップ204:一方、CPU26の顔検出部31は、スルー画像データに公知の顔検出処理を施して撮影画面内の顔領域を検出する。
Step 203: The CPU 26 drives the image sensor 16 to acquire a through image signal. The image sensor 16 outputs a through image signal by thinning readout at predetermined intervals. The image processing unit 20 generates through image data based on the through image signal. A preview image is displayed as a moving image on the liquid crystal monitor 24 based on the through image data.
Step 204: On the other hand, the face detection unit 31 of the CPU 26 performs a known face detection process on the through image data to detect a face area in the shooting screen.

ステップ205:CPU26はS204で撮影画面から顔検出されたか否かを判定する。顔検出された場合(YES側)にはS206に移行する。一方、顔検出されていない場合(NO側)にはS209に移行する。
ステップ206:CPU26は、検出した顔領域の位置を基準としてAF演算を実行する。なお、顔領域を複数検出した場合には、CPU26は、撮影画面の中央に位置する顔領域または最も至近側に位置する顔領域を優先してAF演算を実行する。
Step 205: The CPU 26 determines whether or not a face is detected from the shooting screen in S204. If a face is detected (YES side), the process proceeds to S206. On the other hand, if the face is not detected (NO side), the process proceeds to S209.
Step 206: The CPU 26 performs AF calculation with reference to the detected position of the face area. If a plurality of face areas are detected, the CPU 26 prioritizes the face area located at the center of the shooting screen or the face area located closest to the shooting screen, and executes the AF calculation.

ステップ207:CPU26の顔認識部32は、検出した顔領域(S204)に対して顔認識処理を実行する。そして、顔認識部32は、認識対象の顔(S202)が含まれているか否かを判定する。認識対象の顔が含まれている場合(YES側)にはS208に移行する。一方、認識対象の顔が含まれない場合(NO側)にはS210に移行する。
ステップ208:CPU26は、検出された登録人物に対応する「顔認識時の処理設定」のデータに基づいて、電子カメラの撮影条件の設定や画像処理の設定などを変更する。その後、S210に移行する。
Step 207: The face recognition unit 32 of the CPU 26 executes face recognition processing on the detected face area (S204). Then, the face recognition unit 32 determines whether or not the recognition target face (S202) is included. If the face to be recognized is included (YES side), the process proceeds to S208. On the other hand, if the face to be recognized is not included (NO side), the process proceeds to S210.
Step 208: The CPU 26 changes the setting of the photographing condition of the electronic camera and the setting of the image processing based on the data of “processing setting at the time of face recognition” corresponding to the detected registered person. Thereafter, the process proceeds to S210.

ここで、認識対象の顔が撮影画面内に複数検出されている場合には、CPU26は所定のアルゴリズムで登録人物の優先順位を決定する。そして、CPU26は、優先順位が最も高い登録人物に対応する「顔認識時の処理設定」に基づいて電子カメラの各種設定を変更する。なお、「顔認識時の処理設定」で登録人物の自動撮影が設定されている場合には、CPU26はS211に移行して登録人物を自動的に撮影する。   Here, when a plurality of faces to be recognized are detected in the shooting screen, the CPU 26 determines the priority order of the registered person using a predetermined algorithm. Then, the CPU 26 changes various settings of the electronic camera based on the “processing setting for face recognition” corresponding to the registered person with the highest priority. Note that if the automatic shooting of the registered person is set in the “processing setting for face recognition”, the CPU 26 proceeds to S211 and automatically images the registered person.

ステップ209:一方、この場合には、CPU26はユーザーによるレリーズ釦の半押し操作に応じて、通常撮影時のアルゴリズムでAFエリアを選択してAF演算を実行する。
ステップ210:CPU26はレリーズ釦が全押しされたか否かを判定する。レリーズ釦が全押しされた場合(YES側)にはS211に移行する。一方、レリーズ釦に入力がない場合(NO側)にはCPU26はレリーズ釦の全押し操作を待機する。
Step 209: On the other hand, in this case, the CPU 26 selects the AF area by the algorithm at the time of normal shooting and executes the AF calculation in response to the half-press operation of the release button by the user.
Step 210: The CPU 26 determines whether or not the release button has been fully pressed. When the release button is fully pressed (YES side), the process proceeds to S211. On the other hand, when there is no input to the release button (NO side), the CPU 26 waits for a full pressing operation of the release button.

ステップ211:CPU26は撮像素子16を駆動させて被写体像を撮影する。その後、画像処理部20はレリーズ時の画像信号に基づいて撮影画像データを生成する。なお、認識対象の顔が撮影されている場合には、画像処理部20はS208で設定された画像処理を撮影画像データに施す。
ステップ212:CPU26は撮影画像データを記録媒体29に記録する。なお、認識対象の顔が撮影されている場合、CPU26は顔登録メモリ27で指定されているディレクトリパスに基づいて、所定の記録フォルダに撮影画像データを分類して記録することもできる。以上で、「顔認識撮影モード」での一連の動作が終了する。
Step 211: The CPU 26 drives the image sensor 16 to capture a subject image. Thereafter, the image processing unit 20 generates captured image data based on the image signal at the time of release. Note that when the face to be recognized is photographed, the image processing unit 20 performs the image processing set in S208 on the photographed image data.
Step 212: The CPU 26 records the photographed image data on the recording medium 29. When the face to be recognized is photographed, the CPU 26 can also classify and record the photographed image data in a predetermined recording folder based on the directory path specified in the face registration memory 27. This completes the series of operations in the “face recognition shooting mode”.

以下、本実施形態の「顔認識撮影モード」の効果を説明する。上記の顔認識撮影モードでは、顔認識データに基づいて撮影人物の顔認識が行われる(S207)。そして、認識対象の顔が検出された場合には、その登録人物に対応する設定で撮影時の各種処理などが行われる(S208、S211、S212)。そのため、登録人物の撮影時にユーザーの意図を反映させた処理を自動的に行うことができ、電子カメラを操作するユーザーの利便性が著しく向上する。   Hereinafter, the effect of the “face recognition photographing mode” of the present embodiment will be described. In the face recognition shooting mode, face recognition of the photographed person is performed based on the face recognition data (S207). When a face to be recognized is detected, various processes at the time of shooting are performed with settings corresponding to the registered person (S208, S211 and S212). Therefore, the process reflecting the user's intention can be automatically performed when the registered person is photographed, and the convenience of the user who operates the electronic camera is remarkably improved.

(実施形態の補足事項)
以上、本発明を上記の実施形態によって説明してきたが、本発明の技術的範囲は上記実施形態に限定されるものではなく、例えば以下のような形態であってもよい。
(1)上記実施形態において、「顔登録モード」および「顔検出撮影モード」を、「通常撮影モード」、「ポートレート撮影モード」、「再生モード」などと同様にモードダイヤル等で直接指定して立ち上げられるようにしてもよい。
(Supplementary items of the embodiment)
As mentioned above, although this invention has been demonstrated by said embodiment, the technical scope of this invention is not limited to the said embodiment, For example, the following forms may be sufficient.
(1) In the above embodiment, the “face registration mode” and the “face detection shooting mode” are directly designated by a mode dial or the like in the same manner as the “normal shooting mode”, “portrait shooting mode”, “playback mode”, etc. May be launched.

(2)顔登録メモリの「顔認識データの登録時期」のデータは、元となる顔登録画像データが概ねいつ頃撮影されたかを示すものでも足りる。したがって、「顔認識データの登録時期」については撮影年、撮影月、撮影日のいずれかで記録を打ち切って、詳細な時刻などの記録を省略するようにしてもよい。
(3)「顔認識撮影モード」の顔認識処理(S207)では、顔認識部32はグループ化された顔認識データのうちから判定に使用する顔認識データを所定条件で絞り込むようにしてもよい。例えば、顔認識部32は、「顔認識データの登録時期」に基づいて撮影日時よりも一定期間以上古い顔認識データを除外してもよい。同様に、顔認識部32は「顔認識データの取得時の撮影条件」に基づいて今回の撮影条件と大きく異なる撮影条件で生成された顔認識データを除外してもよい。
(2) The “registration time of face recognition data” data in the face registration memory may be sufficient to indicate when the original face registration image data was captured. Accordingly, the “registration time of the face recognition data” may be terminated by recording at any of the shooting year, shooting month, and shooting date, and recording of detailed time and the like may be omitted.
(3) In the face recognition process (S207) of the “face recognition shooting mode”, the face recognition unit 32 may narrow down the face recognition data used for the determination from the grouped face recognition data under a predetermined condition. . For example, the face recognizing unit 32 may exclude face recognition data that is older than a shooting date and time by a certain period or more based on the “face recognition data registration time”. Similarly, the face recognizing unit 32 may exclude face recognition data generated under shooting conditions that are significantly different from the current shooting conditions based on the “shooting conditions when acquiring face recognition data”.

(4)「顔認識撮影モード」の顔認識処理(S207)では、顔認識部32は撮影光学系11の焦点距離のデータから演算したディストーションの度合いに応じて、顔認識データを補正するようにしてもよい。
(5)「顔登録モード」において、CPU26はユーザーの入力に基づいて顔認識データの顔の向きに関する識別情報を生成し、顔登録メモリ27に上記識別情報も記録するようにしてもよい。
(4) In the face recognition processing (S207) in the “face recognition shooting mode”, the face recognition unit 32 corrects the face recognition data according to the degree of distortion calculated from the focal length data of the shooting optical system 11. May be.
(5) In the “face registration mode”, the CPU 26 may generate identification information related to the face orientation of the face recognition data based on the user input, and record the identification information in the face registration memory 27.

(6)本発明の電子カメラは実施形態の電子カメラの構成と必ずしも一致する必要はない。例えば、内蔵メモリ19と顔登録メモリ27とが共通のメモリで構成されていてもよい。顔登録メモリ27がデータバス28を介してCPU26に接続されていてもよい。また、揺動センサ部13、像ぶれ補正レンズ14および第2レンズ駆動部15からなる光学的なぶれ補正機構が省略されていてもよい。さらに、電子カメラ内に通信ユニット30が内蔵されていてもよい。   (6) The electronic camera of the present invention does not necessarily match the configuration of the electronic camera of the embodiment. For example, the built-in memory 19 and the face registration memory 27 may be configured by a common memory. The face registration memory 27 may be connected to the CPU 26 via the data bus 28. Further, the optical blur correction mechanism including the swing sensor unit 13, the image blur correction lens 14, and the second lens driving unit 15 may be omitted. Furthermore, the communication unit 30 may be built in the electronic camera.

(7)CPU26は顔登録メモリ27内のデータを記録媒体29に記録して、顔登録メモリ27のバックアップを可能としてもよい。また、CPU26は、予め他の電子カメラで生成された顔認識データ等を記録媒体29から取得し、電子カメラ間で顔登録メモリ27のデータを共用できるようにしてもよい。
(8)本発明の画像処理装置は上記実施形態の電子カメラの構成に限定されることはない。例えば、本発明の画像処理装置を、画像データを外部から読み込む手段と、顔認識データを記録する記録部と、上記の「顔登録モード」のプログラムを実行する制御部と、を備えたパーソナルコンピュータ等で構成してもよい(図示を省略する)。
(7) The CPU 26 may record the data in the face registration memory 27 on the recording medium 29 so that the face registration memory 27 can be backed up. Further, the CPU 26 may acquire face recognition data or the like generated in advance by another electronic camera from the recording medium 29 so that the data in the face registration memory 27 can be shared between the electronic cameras.
(8) The image processing apparatus of the present invention is not limited to the configuration of the electronic camera of the above embodiment. For example, the image processing apparatus of the present invention includes a personal computer including means for reading image data from the outside, a recording unit that records face recognition data, and a control unit that executes the program of the “face registration mode”. Or the like (not shown).

本実施形態の電子カメラの構成を示すブロック図The block diagram which shows the structure of the electronic camera of this embodiment 本実施形態の「顔登録モード」での動作を示す流れ図Flow chart showing the operation in the “face registration mode” of the present embodiment 顔登録モードを指定可能なモード選択画面の一例を示す図The figure which shows an example of the mode selection screen which can specify face registration mode 顔検出処理の再試行を確認する表示の一例を示す図The figure which shows an example of the display which confirms the retry of a face detection process 選択枠による顔領域の選択状態を示す図The figure which shows the selection state of the face area by a selection frame 「新規」および「追加」の選択表示の一例を示す図The figure which shows an example of the selection display of "new" and "addition" 登録人物の選択画面の一例を示す図The figure which shows an example of the selection screen of a registered person 登録人物の詳細情報画面の一例を示す図The figure which shows an example of the detailed information screen of a registered person 本実施形態の「顔認識撮影モード」の動作を示す流れ図Flow chart showing the operation of the “face recognition shooting mode” of the present embodiment 顔認識撮影モードを指定可能なモード選択画面の一例を示す図The figure which shows an example of the mode selection screen which can designate face recognition photography mode

符号の説明Explanation of symbols

19…内蔵メモリ、20…画像処理部、21…カードI/F、22…入出力I/F、23…操作部材、24…液晶モニタ、26…CPU、27…顔登録メモリ、29…記録媒体、30…通信ユニット、31…顔検出部、32…顔認識部
DESCRIPTION OF SYMBOLS 19 ... Built-in memory, 20 ... Image processing part, 21 ... Card I / F, 22 ... Input-output I / F, 23 ... Operation member, 24 ... Liquid crystal monitor, 26 ... CPU, 27 ... Face registration memory, 29 ... Recording medium 30 ... Communication unit, 31 ... Face detection unit, 32 ... Face recognition unit

Claims (8)

内蔵メモリ、記録媒体との接続部および外部通信手段の少なくとも1つを有するとともに、電子カメラで予め生成された撮影画像データを前記内蔵メモリ、前記記録媒体、前記外部通信手段を介して接続されたコンピュータのいずれかから取得する制御部と、
前記撮影画像データに基づいて、撮影画面内の顔領域を検出する顔検出部と、
前記顔領域の画像を切り出して顔画像データを生成する顔画像生成部または前記撮影画像データの顔領域の部分から撮影人物の顔の特徴点を抽出し、前記特徴点に基づいて顔認識データを生成する顔認識データ生成部と、
前記顔画像データまたは前記顔認識データを記録する記録部と、
を備えることを特徴とする画像処理装置。
In addition to having at least one of a built-in memory, a connection unit with a recording medium, and an external communication unit, captured image data generated in advance by an electronic camera is connected through the built-in memory, the recording medium, and the external communication unit. A control unit obtained from any of the computers;
A face detection unit for detecting a face area in the shooting screen based on the shot image data;
A face image generation unit that cuts out an image of the face area and generates face image data or extracts a feature point of the face of the photographed person from the face area portion of the photographed image data, and detects face recognition data based on the feature point A face recognition data generation unit for generating;
A recording unit for recording the face image data or the face recognition data;
An image processing apparatus comprising:
前記撮影画像データの再生画像に前記顔領域を識別する表示を合成する画像処理部と、
前記画像処理部の出力画像を表示する表示部と、
をさらに備えることを特徴とする請求項1に記載の画像処理装置。
An image processing unit that synthesizes a display for identifying the face area on the reproduced image of the captured image data;
A display unit for displaying an output image of the image processing unit;
The image processing apparatus according to claim 1, further comprising:
ユーザーの入力を受け付ける入力部をさらに備え、
前記顔検出部は、前記入力部からの入力に基づいて前記顔領域の検出精度を規定する閾値を変更することを特徴とする請求項2に記載の画像処理装置。
It further includes an input unit that accepts user input,
The image processing apparatus according to claim 2, wherein the face detection unit changes a threshold value that defines detection accuracy of the face region based on an input from the input unit.
ユーザーの入力を受け付ける入力部をさらに備え、
前記顔画像生成部または前記顔認識データ生成部は、前記撮影画像データから複数の顔領域が検出された場合、前記入力部からの入力で選択された顔領域について前記顔画像データまたは前記顔認識データを生成することを特徴とする請求項2に記載の画像処理装置。
It further includes an input unit that accepts user input,
The face image generation unit or the face recognition data generation unit, when a plurality of face regions are detected from the captured image data, the face image data or the face recognition for the face region selected by the input from the input unit. The image processing apparatus according to claim 2, wherein data is generated.
前記制御部は、同一の撮影人物から生成した複数の前記顔画像データまたは前記顔認識データをグループ化して前記記録部に記録することを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。   5. The control unit according to claim 1, wherein the control unit groups a plurality of the face image data or the face recognition data generated from the same photographed person and records the grouped data in the recording unit. An image processing apparatus according to 1. 前記制御部は、前記撮影画像データの顔領域の部分を所定のサイズに切り出してインデックス画像データを生成するとともに、該インデックス画像データを前記顔画像データまたは前記顔認識データに対応付けて前記記録部に記録することを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。   The control unit generates index image data by cutting out a part of a face area of the photographed image data to a predetermined size, and associates the index image data with the face image data or the face recognition data. The image processing apparatus according to claim 1, wherein the image processing apparatus records the information in the image processing apparatus. 前記撮影画像データは撮影時の撮影条件を記録した付属データ領域を有し、
前記制御部は、前記付属データ領域の撮影条件に基づいて撮影条件データを生成するとともに、該撮影条件データを前記顔画像データまたは前記顔認識データに対応付けて前記記録部に記録することを特徴とする請求項1から請求項6のいずれか1項に記載の画像処理装置。
The photographed image data has an attached data area in which photographing conditions at the time of photographing are recorded,
The control unit generates shooting condition data based on a shooting condition of the attached data area, and records the shooting condition data in the recording unit in association with the face image data or the face recognition data. The image processing apparatus according to any one of claims 1 to 6.
前記撮影画像データは撮影日時を記録した付属データ領域を有し、
前記制御部は、前記付属データ領域の撮影日時に基づいて前記顔画像データまたは前記顔認識データの取得時期データを生成するとともに、該取得時期データを前記顔画像データまたは前記顔認識データに対応付けて前記記録部に記録することを特徴とする請求項1から請求項7のいずれか1項に記載の画像処理装置。

The photographed image data has an attached data area in which the photographing date and time are recorded,
The control unit generates acquisition time data of the face image data or the face recognition data based on the shooting date and time of the attached data area, and associates the acquisition time data with the face image data or the face recognition data The image processing apparatus according to claim 1, wherein the image processing apparatus records the information in the recording unit.

JP2005341051A 2005-11-25 2005-11-25 Image processor Pending JP2007148691A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2005341051A JP2007148691A (en) 2005-11-25 2005-11-25 Image processor
CN2006800438630A CN101313565B (en) 2005-11-25 2006-11-22 Electronic camera and image processing device
PCT/JP2006/323295 WO2007060980A1 (en) 2005-11-25 2006-11-22 Electronic camera and image processing device
CN2011102312413A CN102231801B (en) 2005-11-25 2006-11-22 Electronic camera and image processing device
EP06833117A EP1962497B1 (en) 2005-11-25 2006-11-22 Electronic camera and image processing device
US12/085,353 US8488847B2 (en) 2005-11-25 2006-11-22 Electronic camera and image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005341051A JP2007148691A (en) 2005-11-25 2005-11-25 Image processor

Publications (1)

Publication Number Publication Date
JP2007148691A true JP2007148691A (en) 2007-06-14

Family

ID=38210052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005341051A Pending JP2007148691A (en) 2005-11-25 2005-11-25 Image processor

Country Status (1)

Country Link
JP (1) JP2007148691A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009131034A1 (en) 2008-04-25 2009-10-29 富士フイルム株式会社 Image recording device and method
JP2010079519A (en) * 2008-09-25 2010-04-08 Canon Inc Image processor, control method for the image processor, and program
JP2011119809A (en) * 2009-12-01 2011-06-16 Nec Corp Imaging apparatus, method and program
JP2012108530A (en) * 2012-01-06 2012-06-07 Casio Comput Co Ltd Imaging apparatus and specific image detection program
JP2012120024A (en) * 2010-12-02 2012-06-21 Seiko Epson Corp Image processing device and image processing method
US8351737B2 (en) 2008-11-11 2013-01-08 Seiko Epson Corporation Image processing apparatus
JP2013149242A (en) * 2011-12-22 2013-08-01 Canon Inc Information processor, control method for the same and program
JP2015099597A (en) * 2014-12-19 2015-05-28 レノボ・イノベーションズ・リミテッド(香港) Imaging device, method, and program
US9721145B2 (en) 2014-03-27 2017-08-01 Fujifilm Corporation Central person determining system, information terminal used in the same, central person determining method, and recording medium for central person determining program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10334213A (en) * 1997-05-27 1998-12-18 Sharp Corp Image processing unit and medium storing image processing unit control program
JP2003092699A (en) * 2001-09-17 2003-03-28 Ricoh Co Ltd Digital camera imaging apparatus
JP2003150603A (en) * 2001-11-12 2003-05-23 Olympus Optical Co Ltd Image processor and program
JP2003196655A (en) * 2001-12-25 2003-07-11 Toyota Motor Corp Eye image detection device
JP2004086625A (en) * 2002-08-27 2004-03-18 Hitoshi Hongo Customer information managing device
JP2004320287A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2004356986A (en) * 2003-05-29 2004-12-16 Casio Comput Co Ltd Photographed picture image sending apparatus and program thereof
JP2005202730A (en) * 2004-01-16 2005-07-28 Toshiba Corp Personal authentication apparatus, personal authentication method and passage control apparatus using biometric matching
JP2005309409A (en) * 2004-03-25 2005-11-04 Fuji Photo Film Co Ltd Red-eye preventing device, program and recording medium with recorded program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10334213A (en) * 1997-05-27 1998-12-18 Sharp Corp Image processing unit and medium storing image processing unit control program
JP2003092699A (en) * 2001-09-17 2003-03-28 Ricoh Co Ltd Digital camera imaging apparatus
JP2003150603A (en) * 2001-11-12 2003-05-23 Olympus Optical Co Ltd Image processor and program
JP2003196655A (en) * 2001-12-25 2003-07-11 Toyota Motor Corp Eye image detection device
JP2004086625A (en) * 2002-08-27 2004-03-18 Hitoshi Hongo Customer information managing device
JP2004320287A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2004356986A (en) * 2003-05-29 2004-12-16 Casio Comput Co Ltd Photographed picture image sending apparatus and program thereof
JP2005202730A (en) * 2004-01-16 2005-07-28 Toshiba Corp Personal authentication apparatus, personal authentication method and passage control apparatus using biometric matching
JP2005309409A (en) * 2004-03-25 2005-11-04 Fuji Photo Film Co Ltd Red-eye preventing device, program and recording medium with recorded program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009131034A1 (en) 2008-04-25 2009-10-29 富士フイルム株式会社 Image recording device and method
US8780226B2 (en) 2008-04-25 2014-07-15 Fujifilm Corporation Image recording device and method which generates multi-image file based on classification
JP2010079519A (en) * 2008-09-25 2010-04-08 Canon Inc Image processor, control method for the image processor, and program
US8351737B2 (en) 2008-11-11 2013-01-08 Seiko Epson Corporation Image processing apparatus
JP2011119809A (en) * 2009-12-01 2011-06-16 Nec Corp Imaging apparatus, method and program
JP2012120024A (en) * 2010-12-02 2012-06-21 Seiko Epson Corp Image processing device and image processing method
JP2013149242A (en) * 2011-12-22 2013-08-01 Canon Inc Information processor, control method for the same and program
JP2012108530A (en) * 2012-01-06 2012-06-07 Casio Comput Co Ltd Imaging apparatus and specific image detection program
US9721145B2 (en) 2014-03-27 2017-08-01 Fujifilm Corporation Central person determining system, information terminal used in the same, central person determining method, and recording medium for central person determining program
JP2015099597A (en) * 2014-12-19 2015-05-28 レノボ・イノベーションズ・リミテッド(香港) Imaging device, method, and program

Similar Documents

Publication Publication Date Title
JP5087856B2 (en) Electronic camera
JP4315148B2 (en) Electronic camera
JP4432886B2 (en) Electronic camera
JP5056061B2 (en) Imaging device
US8488847B2 (en) Electronic camera and image processing device
JP4553346B2 (en) Focus adjustment device and focus adjustment method
JP5623915B2 (en) Imaging device
JP2007148691A (en) Image processor
JP4315212B2 (en) Imaging apparatus, imaging control program, and imaging control method
JP2005348181A (en) Photography system, its control method and program for control
JP2007310813A (en) Image retrieving device and camera
JP2007150604A (en) Electronic camera
JP4360369B2 (en) Electronic camera
JP4894708B2 (en) Imaging device
JP2008017169A (en) Electronic camera
JP2007281647A (en) Electronic camera and image processing apparatus
JP2016019249A (en) Display control device
JP2010068207A (en) Image capturing apparatus, method, program, and image capturing system
JP2005323015A (en) Digital camera
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP2007259004A (en) Digital camera, image processor, and image processing program
JP5423851B2 (en) Electronic camera
JP5093178B2 (en) Electronic camera
JPWO2006016461A1 (en) Imaging device
JP5257097B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110215