JP2010178160A - Electronic camera and program for processing image - Google Patents

Electronic camera and program for processing image Download PDF

Info

Publication number
JP2010178160A
JP2010178160A JP2009019989A JP2009019989A JP2010178160A JP 2010178160 A JP2010178160 A JP 2010178160A JP 2009019989 A JP2009019989 A JP 2009019989A JP 2009019989 A JP2009019989 A JP 2009019989A JP 2010178160 A JP2010178160 A JP 2010178160A
Authority
JP
Japan
Prior art keywords
face
unit
image
image data
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009019989A
Other languages
Japanese (ja)
Other versions
JP5402026B2 (en
Inventor
Masaoki Sano
正興 佐野
Masanaga Nakamura
正永 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009019989A priority Critical patent/JP5402026B2/en
Publication of JP2010178160A publication Critical patent/JP2010178160A/en
Application granted granted Critical
Publication of JP5402026B2 publication Critical patent/JP5402026B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera that also easily classifies images for which face identification is not carried out or face identification function is not applied when imaging the same. <P>SOLUTION: The electronic camera includes: an image sensor; a recording unit; a display; a face detection unit; a face identification unit; a first identification information appending unit; a face classification processing unit; a searching unit; an image display; a selecting condition display; and a selecting condition receiving unit. The face detection unit detects a face. The face identification unit extracts characteristic points thereof. The first identification information appending unit appends the identification information to the image data. The face classification processing unit classifies the image data based on the identification information. The searching unit searches the image data to which the identification information is not appended. The image display displays the image displayed on the display. The selecting condition display displays selecting conditions for selecting face figures. The selecting condition receiving unit receives selection or non-selection of the selecting conditions. The second identification information appending unit append the identification information in response to the selecting conditions to the image data of the displayed image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、電子カメラおよび画像処理プログラムに関する。   The present invention relates to an electronic camera and an image processing program.

従来より、撮影画像から人物の顔の特徴点を抽出し、顔識別を行う顔識別機能を搭載した電子カメラが開示されている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, an electronic camera equipped with a face identification function that extracts a facial feature point of a person from a photographed image and performs face identification has been disclosed (for example, see Patent Document 1).

また、電子カメラで撮影した画像ファイルを読み出し、人物の顔領域を検出して顔認証を行い、個々の人物を識別し、識別結果に基づいて画像を補正する画像補正装置が開示されている(例えば、特許文献2参照)。   Also disclosed is an image correction device that reads an image file taken with an electronic camera, detects a face area of a person, performs face authentication, identifies each person, and corrects the image based on the identification result ( For example, see Patent Document 2).

ところで、顔が写っている画像を人物ごとに分類した上で、特定の人物の画像に対して、まとめて画像処理したい場合がある。しかしながら、上記特許文献1の電子カメラや上記特許文献2の画像補正装置では、顔の領域を検出できたにも拘わらず、顔識別ができなかった場合の取り扱いが問題となる。   By the way, there is a case where it is desired to perform image processing on a specific person image after classifying the image showing the face for each person. However, the electronic camera disclosed in Patent Document 1 and the image correction apparatus disclosed in Patent Document 2 have a problem in handling when face identification cannot be performed even though the face area can be detected.

また、ユーザが画像を見れば顔識別できる場合であっても、電子カメラを用いて顔識別ができなかった画像や、他の撮影モードを優先して撮影し、顔が写っているにも拘わらず顔識別機能を利用しなかった画像の取り扱いについても問題となる。   Even if the user can identify the face by looking at the image, the image cannot be identified using the electronic camera, or the image is taken with priority given to other shooting modes, and the face is reflected. There is also a problem with handling images that do not use the face identification function.

そこで、本発明は、上記事情に鑑み、撮影時に顔識別ができなかった画像や顔識別機能を利用しなかった画像についても分類付けが容易にできる電子カメラを提供することを目的とする。   SUMMARY OF THE INVENTION In view of the above circumstances, an object of the present invention is to provide an electronic camera that can easily classify an image in which face identification cannot be performed at the time of shooting or an image in which a face identification function is not used.

第1の発明に係る電子カメラは、撮像素子と、記録部と、表示部と、顔検出部と、顔認識部と、第1識別情報付加部と、顔分類処理部と、検索部と、画像提示部と、画像提示部と、選択条件提示部と、選択条件受付部と、を備える。撮像素子は、被写体像を光電変換して画像データを生成する。記録部は、画像データを記録する。表示部は、画像データに基づく画像を表示する。顔検出部は、画像データに基づいて顔を検出する。顔認識部は、顔から顔の特徴を表す特徴点を抽出する。第1識別情報付加部は、特徴点に基づいて、顔を識別する識別情報を画像データに付加する。顔分類処理部は、識別情報に基づいて画像データを分類する。検索部は、記録部に記録されている画像データの内、識別情報が付加されていない画像データを検索する。画像提示部は、検索部が見つけ出した、識別情報が付加されていない画像データに基づいて、顔検出部が顔を検出した場合、その画像データに基づく画像を提示画像として表示部に表示させる。選択条件提示部は、提示画像に対し、顔分類処理部に分類されている画像データに基づく顔の人物を選択する選択条件を表示部に表示させる。選択条件受付部は、選択条件の選択若しくは非選択の命令をユーザ入力により受け付ける。第2識別情報付加部は、選択条件受付部が受け付けた選択条件に対応する識別情報を、提示画像の画像データに付加する。   An electronic camera according to a first invention includes an imaging device, a recording unit, a display unit, a face detection unit, a face recognition unit, a first identification information addition unit, a face classification processing unit, a search unit, An image presenting unit, an image presenting unit, a selection condition presenting unit, and a selection condition receiving unit are provided. The imaging device generates image data by photoelectrically converting the subject image. The recording unit records image data. The display unit displays an image based on the image data. The face detection unit detects a face based on the image data. The face recognition unit extracts feature points representing the features of the face from the face. The first identification information adding unit adds identification information for identifying the face to the image data based on the feature points. The face classification processing unit classifies the image data based on the identification information. The search unit searches for image data to which no identification information is added from among the image data recorded in the recording unit. When the face detection unit detects a face based on the image data found by the search unit and without identification information added, the image presentation unit displays an image based on the image data on the display unit as a presentation image. The selection condition presenting unit causes the display unit to display a selection condition for selecting a person with a face based on the image data classified by the face classification processing unit for the presented image. The selection condition reception unit receives a selection condition selection or non-selection instruction by a user input. The second identification information adding unit adds identification information corresponding to the selection condition received by the selection condition receiving unit to the image data of the presented image.

第2の発明は、第1の発明において、選択条件受付部が、選択条件の非選択の命令を受け付けた場合、新たな識別情報を付加するか否かの命令をユーザ入力により受け付ける識別情報可否受付部と、識別情報可否受付部が、新たな識別情報を付加する命令を受け付けた場合、提示画像の画像データに、新たな識別情報を付加する新規登録部と、をさらに備える。   According to a second invention, in the first invention, when the selection condition accepting unit accepts a command for non-selection of the selection condition, the identification information is accepted based on a user input as to whether or not to add new identification information. When the reception unit and the identification information availability reception unit receive a command for adding new identification information, the reception unit and a new registration unit that adds new identification information to the image data of the presented image are further provided.

第3の発明は、第1又は第2の発明において、記録部は、顔分類処理部が分類した前記画像データを格納する顔分類フォルダを備える。   According to a third aspect, in the first or second aspect, the recording unit includes a face classification folder that stores the image data classified by the face classification processing unit.

第4の発明は、第3の発明において、顔分類フォルダに格納されている画像データに対して、ユーザ入力により指定された人物の画像処理を一括して行う一括画像処理部をさらに備える。   According to a fourth aspect, in the third aspect, the image processing apparatus further includes a collective image processing unit that collectively performs image processing of a person specified by user input on the image data stored in the face classification folder.

第5の発明は、第3の発明において、表示部は、ユーザ入力を表示部の表示画面上で行うタッチパネルをさらに備える。   In a fifth aspect based on the third aspect, the display unit further includes a touch panel that performs user input on the display screen of the display unit.

第6の発明は、第5の発明において、表示部の表示態様を制御する表示制御部をさらに備える。表示制御部は、顔検出部が顔を検出した場合、顔の領域を示す顔検出枠を提示画像に重畳表示させる。選択条件提示部は、顔分類フォルダに分類されている画像データに基づいて、人物ごとの縮小画像であるサムネイル画像を選択条件として表示部に一覧表示させる。第2識別情報付加部は、ユーザによるタッチパネルの操作に応じて、顔検出枠に表示されている顔と、その顔と同一人物のサムネイル画像との関連付けを行うことにより、同一人物の識別情報を、提示画像の画像データに付加する。   According to a sixth aspect, in the fifth aspect, the display control unit further controls a display mode of the display unit. When the face detection unit detects a face, the display control unit superimposes and displays a face detection frame indicating the face area on the presentation image. The selection condition presentation unit displays thumbnail images, which are reduced images for each person, as a selection condition on the display unit as a list based on the image data classified in the face classification folder. The second identification information adding unit associates the identification information of the same person by associating the face displayed in the face detection frame with the thumbnail image of the same person according to the operation of the touch panel by the user. And added to the image data of the presented image.

第7の発明は、第6の発明において、表示制御部は、顔検出部が顔を検出したにも拘わらず、顔認識部が、前記特徴点を抽出できなかった場合、顔検出枠の表示態様を変更する。   In a seventh aspect based on the sixth aspect, the display control unit displays a face detection frame when the face recognition unit fails to extract the feature point even though the face detection unit detects a face. Change the aspect.

第8の発明は、第6の発明において、選択条件提示部は、サムネイル画像を一覧表示させる際、新規に作成された顔分類フォルダの人物を示すサムネイル画像を追加して表示させる。   In an eighth aspect based on the sixth aspect, when the selection condition presenting unit displays a list of thumbnail images, the selection condition presenting unit additionally displays a thumbnail image indicating a person in the newly created face classification folder.

第9の発明に係る画像処理プログラムは、コンピュータに画像処理を実行させる画像処理プログラムであって、画像データ読出ステップと、顔分類処理ステップと、検索ステップと、顔検出ステップと、画像提示ステップと、選択条件提示ステップと、選択条件受付ステップと、識別情報付加ステップと、を備える。   An image processing program according to a ninth invention is an image processing program for causing a computer to execute image processing, wherein an image data reading step, a face classification processing step, a search step, a face detection step, an image presentation step, , A selection condition presenting step, a selection condition receiving step, and an identification information adding step.

画像データ読出ステップは、電子カメラで記録された画像データを読み出す。顔分類処理ステップは、顔の特徴を表す特徴点に基づいて顔を識別する識別情報に基づいて画像データを分類する。検索ステップは、画像データ読出ステップで読み出した画像データの内、識別情報が付加されていない画像データを検索する。顔検出ステップは、検索ステップで見つけ出された、識別情報が付加されていない画像データに基づいて、顔を検出する。画像提示ステップは、顔検出ステップで顔を検出した場合、その画像データに基づく画像を提示画像として表示部に表示させる。選択条件提示ステップは、提示画像に対し、顔分類処理ステップで分類されている画像データに基づく顔の人物を選択する選択条件を表示部に表示させる。選択条件受付ステップは、選択条件の選択若しくは非選択の命令をユーザ入力により受け付ける。識別情報付加ステップは、選択条件受付ステップにて受け付けた選択条件に対応する識別情報を、提示画像の画像データに付加する。   In the image data reading step, image data recorded by the electronic camera is read. In the face classification processing step, the image data is classified based on identification information for identifying a face based on a feature point representing the feature of the face. The search step searches for image data to which no identification information is added from the image data read in the image data read step. In the face detection step, a face is detected based on the image data that is found in the search step and has no identification information added thereto. In the image presentation step, when a face is detected in the face detection step, an image based on the image data is displayed on the display unit as a presentation image. In the selection condition presenting step, a selection condition for selecting a person with a face based on the image data classified in the face classification processing step is displayed on the display unit for the presented image. In the selection condition receiving step, a selection condition selection or non-selection command is received by user input. In the identification information addition step, identification information corresponding to the selection condition received in the selection condition reception step is added to the image data of the presented image.

本発明の電子カメラによれば、撮影時に顔識別ができなかった画像や顔識別機能を利用しなかった画像についても分類付けが容易にできる。   According to the electronic camera of the present invention, it is possible to easily classify an image in which face identification cannot be performed at the time of photographing or an image in which the face identification function is not used.

第1実施形態の電子カメラ1の構成を示すブロック図1 is a block diagram illustrating a configuration of an electronic camera 1 according to a first embodiment. CPU23の構成を示すブロック図Block diagram showing the configuration of the CPU 23 Exifの画像ファイルを模式的に表した図Schematic representation of an Exif image file 電子カメラ1の撮影動作を表すフローチャートFlow chart showing photographing operation of electronic camera 1 識別情報の有無をチェックするフローチャートFlow chart for checking presence / absence of identification information 第2識別情報付加部23iによる識別情報の付加処理を説明するフローチャートA flowchart for explaining identification information addition processing by the second identification information addition unit 23i. 図6に示す顔登録処理のサブルーチンSubroutine of face registration processing shown in FIG. 顔登録処理を説明する図The figure explaining face registration processing 顔登録処理を説明する図The figure explaining face registration processing 新規登録する場合の顔登録処理を説明する図The figure explaining the face registration process in the case of newly registering 新規登録する場合の顔登録処理を説明する図The figure explaining the face registration process in the case of newly registering 複数人物の顔登録処理を説明する図The figure explaining the face registration processing of multiple persons 電子カメラ1における画像データの一括画像処理を表すフローチャートFlowchart representing batch image processing of image data in electronic camera 1 人物別再生画面のモードの一例を説明する図The figure explaining an example of the mode of the reproduction screen according to a person モザイク処理の一例を説明する図The figure explaining an example of mosaic processing モザイク処理後のサムネイル表示の一例を説明する図The figure explaining an example of the thumbnail display after mosaic processing 一括アップロードの概念図Conceptual diagram of bulk upload 一括デジタルぼかし処理の一例を示す図Diagram showing an example of batch digital blur processing 一括トリミング処理の一例を示す図Diagram showing an example of batch trimming processing コンピュータの構成を示すブロック図Block diagram showing the configuration of the computer 第2実施形態の画像処理プログラムAの動作を表すフローチャートThe flowchart showing the operation of the image processing program A of the second embodiment.

(第1実施形態)
以下、図面に基づいて本発明の実施の形態を詳細に説明する。
(First embodiment)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、第1実施形態の電子カメラ1の構成を示すブロック図である。図1に示す通り電子カメラ1には、撮影レンズ10と、レンズ駆動部11と、絞り12と、絞り駆動部13と、撮像素子14と、タイミングジェネレータ(TG)15と、アナログフロントエンド部(以下、「AFE」という。)16と、画像信号処理部17と、RAM(Random Access Memory)18と、ROM(Read Only Memory)19と、表示制御部20と、表示装置21と、操作部22と、CPU(Central Processing Unit)23と、記録インターフェース(記録I/F)24と、バス25と、記録媒体26と、通信インターフェース(通信I/F)27とが備えられている。図1において、画像信号処理部17、RAM18、ROM19、表示制御部20、CPU23、記録インターフェース(記録I/F)24および通信インターフェース(通信I/F)27は、バス25を介して互いに接続されている。また、操作部22はCPU23に接続されている。   FIG. 1 is a block diagram illustrating a configuration of an electronic camera 1 according to the first embodiment. As shown in FIG. 1, the electronic camera 1 includes a photographing lens 10, a lens driving unit 11, a diaphragm 12, a diaphragm driving unit 13, an image sensor 14, a timing generator (TG) 15, and an analog front end unit ( (Hereinafter referred to as “AFE”) 16, image signal processing unit 17, RAM (Random Access Memory) 18, ROM (Read Only Memory) 19, display control unit 20, display device 21, and operation unit 22. A CPU (Central Processing Unit) 23, a recording interface (recording I / F) 24, a bus 25, a recording medium 26, and a communication interface (communication I / F) 27. In FIG. 1, an image signal processing unit 17, a RAM 18, a ROM 19, a display control unit 20, a CPU 23, a recording interface (recording I / F) 24 and a communication interface (communication I / F) 27 are connected to each other via a bus 25. ing. The operation unit 22 is connected to the CPU 23.

撮影レンズ10は、ズームレンズと、フォーカスレンズとを含む複数のレンズ群で構成されている。なお、簡単のため、図1では、撮影レンズ10を1枚のレンズとして図示する。撮影レンズ10を構成する各々のレンズは、レンズ駆動部11によって光軸方向に移動する。なお、レンズ駆動部11の入出力はCPU23と接続されている。   The photographing lens 10 includes a plurality of lens groups including a zoom lens and a focus lens. For the sake of simplicity, FIG. 1 shows the photographic lens 10 as a single lens. Each lens constituting the photographing lens 10 is moved in the optical axis direction by the lens driving unit 11. The input / output of the lens driving unit 11 is connected to the CPU 23.

絞り12は、撮影レンズ10からの入射光量を調整する。絞り12の開口量は、絞り駆動部13によって調整される。なお、絞り駆動部13の入出力はCPU23と接続されている。   The diaphragm 12 adjusts the amount of incident light from the photographing lens 10. The opening amount of the diaphragm 12 is adjusted by the diaphragm driving unit 13. The input / output of the aperture driving unit 13 is connected to the CPU 23.

撮像素子14は、撮影レンズ10からの入射光を光電変換することにより、画像データを生成する。   The imaging element 14 generates image data by photoelectrically converting incident light from the photographing lens 10.

また、タイミングジェネレータ(TG)15は、CPU23からの指示に従い撮像素子14およびAFE16の各々へ向けて駆動信号を送出し、それによって両者の駆動タイミングを制御する。   Further, the timing generator (TG) 15 sends drive signals to each of the image sensor 14 and the AFE 16 according to instructions from the CPU 23, thereby controlling the drive timing of both.

AFE16は、撮像素子14が生成する画像データに対して信号処理を施すアナログフロントエンド回路である。このAFE16は、画像データのゲイン調整や、画像信号のA/D変換などを行う。このAFE16が出力する画像データは、画像信号処理部17へ入力される。   The AFE 16 is an analog front end circuit that performs signal processing on image data generated by the image sensor 14. The AFE 16 performs gain adjustment of image data, A / D conversion of an image signal, and the like. The image data output from the AFE 16 is input to the image signal processing unit 17.

画像信号処理部17は、AFE16が出力する画像データをRAM18内に設けられたフレームメモリに一時的に記憶させる。   The image signal processing unit 17 temporarily stores the image data output from the AFE 16 in a frame memory provided in the RAM 18.

また、画像信号処理部17は、フレームメモリに記憶されている画像データに対してホワイトバランス補正処理などの補正処理を行う。   The image signal processing unit 17 performs correction processing such as white balance correction processing on the image data stored in the frame memory.

記録インターフェース(記録I/F)24には、記録媒体26を接続するためのコネクタが形成されている。記録インターフェース(記録I/F)24はCPU23からの指示により、そのコネクタに接続された記録媒体26にアクセスして画像の記録処理を行う。   A connector for connecting the recording medium 26 is formed in the recording interface (recording I / F) 24. The recording interface (recording I / F) 24 accesses the recording medium 26 connected to the connector according to an instruction from the CPU 23 and performs image recording processing.

通信インターフェース(通信I/F)27は、例えば、無線通信でデータのやりとりをする無線LAN(Local Area Network)を実現させるための通信インターフェースである。   The communication interface (communication I / F) 27 is a communication interface for realizing a wireless LAN (Local Area Network) that exchanges data by wireless communication, for example.

表示装置21は、液晶表示モニタ21aを有する。液晶表示モニタ21aは、本発明の表示部の一例に相当する。さらに、表示装置21は、ユーザ入力を液晶表示モニタ21aの表示画面上で行うタッチパネル21bを備える。   The display device 21 includes a liquid crystal display monitor 21a. The liquid crystal display monitor 21a corresponds to an example of the display unit of the present invention. The display device 21 further includes a touch panel 21b that performs user input on the display screen of the liquid crystal display monitor 21a.

タッチパネル21bは、液晶表示モニタ21a上に設けられ、例えば、公知の抵抗膜方式(感圧式)を採用している。これにより、ユーザがタッチパネル21bの表面を指で押圧することによって電子カメラ1を操作することができる。   The touch panel 21b is provided on the liquid crystal display monitor 21a, and employs, for example, a known resistive film method (pressure sensitive method). Thereby, the user can operate the electronic camera 1 by pressing the surface of the touch panel 21b with a finger.

表示制御部20は、液晶表示モニタ21aの表示態様を制御する。また、表示制御部20は、後述する顔検出部23aが顔を検出した場合、顔の領域を示す顔検出枠を画像に重畳表示させる。   The display control unit 20 controls the display mode of the liquid crystal display monitor 21a. In addition, when the face detection unit 23a described later detects a face, the display control unit 20 superimposes and displays a face detection frame indicating a face area on the image.

また、表示制御部20は、顔検出部23aが顔を検出したにも拘わらず、後述する顔認識部23bが、特徴点を抽出できなかった場合、顔検出枠の表示態様を変更する。   In addition, the display control unit 20 changes the display mode of the face detection frame when the face recognition unit 23b described later fails to extract a feature point even though the face detection unit 23a detects a face.

操作部22は、電子カメラ1のレリーズボタンや電源ボタンの操作を受け付けてCPU23に処理の命令を出す。   The operation unit 22 receives an operation of a release button or a power button of the electronic camera 1 and issues a processing command to the CPU 23.

図2は、CPU23の構成を示すブロック図である。CPU23は、電子カメラ1の制御を行うプロセッサである。CPU23は、ROM19に予め格納されたシーケンスプログラムを実行することにより、各処理のパラメータを算出したり、電子カメラ1の各部を制御したりする。また、本実施形態のCPU23は、顔検出部23aと、顔認識部23bと、第1識別情報付加部23cと、顔分類処理部23d、検索部23e、画像提示部23f、選択条件提示部23g、選択条件受付部23h、第2識別情報付加部23iと、識別情報可否部23k、一括画像処理部23l、通信処理部23mとしても機能する。   FIG. 2 is a block diagram showing the configuration of the CPU 23. The CPU 23 is a processor that controls the electronic camera 1. The CPU 23 calculates a parameter of each process and controls each part of the electronic camera 1 by executing a sequence program stored in advance in the ROM 19. In addition, the CPU 23 of this embodiment includes a face detection unit 23a, a face recognition unit 23b, a first identification information addition unit 23c, a face classification processing unit 23d, a search unit 23e, an image presentation unit 23f, and a selection condition presentation unit 23g. Also, the selection condition receiving unit 23h, the second identification information adding unit 23i, the identification information availability unit 23k, the batch image processing unit 23l, and the communication processing unit 23m also function.

顔検出部23aは、液晶表示モニタ21aに表示されたスルー画像や撮影画像から顔を検出する。顔認識部23bは、検出した顔に基づいて顔の器官を構成する特徴点(特徴量)を抽出する。顔検出部23aおよび顔認識部23bは、公知の技術によって行われる。この場合、顔認識部23bは、公知の特徴点抽出処理によって顔の特徴点を抽出する。特徴点としては、例えば、眉、目、鼻、唇、顔の輪郭などが挙げられる。なお、特徴点抽出処理では、例えば、顔の色彩や明度の分散、強度分布などを特徴量として検出することもできる。   The face detection unit 23a detects a face from a through image or a captured image displayed on the liquid crystal display monitor 21a. The face recognizing unit 23b extracts feature points (feature amounts) constituting the facial organ based on the detected face. The face detection unit 23a and the face recognition unit 23b are performed by a known technique. In this case, the face recognition unit 23b extracts facial feature points by a known feature point extraction process. Examples of feature points include eyebrows, eyes, nose, lips, facial contours, and the like. In the feature point extraction process, for example, the face color, brightness dispersion, intensity distribution, and the like can be detected as the feature amount.

第1識別情報付加部23cは、特徴点に基づいて、顔を識別する識別情報を画像データに付加する。ここでは、画像ファイル(画像データ)として、Exif(Exchangeable Image File Format)形式を採用する。   The first identification information adding unit 23c adds identification information for identifying the face to the image data based on the feature points. Here, an Exif (Exchangeable Image File Format) format is adopted as the image file (image data).

図3は、Exifの画像ファイルを模式的に表した図である。第1実施形態では、画像ファイルは、Exif(Exchangeable image file)のファイルフォーマットに準拠している。このExifは、電子カメラの代表的なファイルフォーマットである。Exifには、TIFFファイル(Tagged Image File Format)形式の非圧縮画像ファイルとJPEG(Joint Photographic Experts Group)ファイル形式の圧縮画像ファイルとの2種類のフォーマットが規定されている。図3では、従来から公知のTIFFファイルの構造を表している。   FIG. 3 is a diagram schematically showing an Exif image file. In the first embodiment, the image file conforms to the file format of Exif (Exchangeable image file). This Exif is a typical file format of an electronic camera. Exif defines two types of formats, an uncompressed image file in the TIFF file (Tagged Image File Format) format and a compressed image file in the JPEG (Joint Photographic Experts Group) file format. FIG. 3 shows the structure of a conventionally known TIFF file.

TIFFファイルは、TIFFヘッダで始まる階層的な構造となっている。TIFFファイルでは、TIFFヘッダに続いてイメージファイルディレクトリ(IFD:Image File Directory)が配置されている。また、画像データは、ストリップやタイルと呼ばれるブロック状に分割されて記録される。そして、「Value of IFD領域」には、分割された各画像データに対応するポインタ値がストリップやタイルの数だけ格納されている。   The TIFF file has a hierarchical structure starting with a TIFF header. In the TIFF file, an image file directory (IFD: Image File Directory) is arranged following the TIFF header. The image data is divided and recorded in blocks called strips or tiles. In the “Value of IFD area”, pointer values corresponding to the divided image data are stored for the number of strips and tiles.

IFD領域には、データブロック(IFD Entry)が複数含まれている。ここで、「IFDEntry」の先頭2バイトは、個々の付加情報を表す識別番号が配置されている。そして、この識別番号は、具体的な付加情報(イメージの大きさ、圧縮法の種類、解像度等)に対応付けされている。なお、Exifでは、通常のTIFFでは定義されていない付加情報が定義できる。本実施例では、識別情報を付加情報に追加する。これにより、個々の人物を識別する識別情報は、識別番号に対応付けて記録することができる。なお、識別情報としては、ユーザ入力を行うことにより、人物の名称や人物の略称に置き換えてもよい。また、識別情報は、人物の顔を識別する番号としてシーケンスに管理してもよい。   The IFD area includes a plurality of data blocks (IFD Entry). Here, in the first two bytes of “IFDEntry”, an identification number representing each additional information is arranged. This identification number is associated with specific additional information (image size, compression method type, resolution, etc.). In Exif, additional information that is not defined in normal TIFF can be defined. In this embodiment, identification information is added to the additional information. Thereby, the identification information for identifying each person can be recorded in association with the identification number. The identification information may be replaced with a person name or a person abbreviation by performing user input. The identification information may be managed in a sequence as a number for identifying a person's face.

顔分類処理部23dは、識別情報に基づいて画像データを分類する。なお、CPU23は、顔分類処理部23dが分類した画像データを格納する顔分類フォルダ(顔認証フォルダ)を、記録媒体26内に生成する。CPU23は、識別情報が付加された画像データを記録媒体26に記録する。   The face classification processing unit 23d classifies image data based on the identification information. The CPU 23 generates a face classification folder (face authentication folder) that stores the image data classified by the face classification processing unit 23 d in the recording medium 26. The CPU 23 records the image data to which the identification information is added on the recording medium 26.

検索部23eは、記録媒体26に記録されている画像データの内、識別情報が付加されていない画像データを検索する。   The search unit 23 e searches for image data to which no identification information is added, among the image data recorded on the recording medium 26.

画像提示部23fは、検索部23eが見つけ出した、識別情報が付加されていない画像データに基づいて、顔検出部23aが顔を検出した場合、その画像データに基づく画像を提示画像として液晶表示モニタ21aに表示させる。   When the face detection unit 23a detects a face based on the image data to which the search unit 23e has found and the identification information is not added, the image presentation unit 23f uses the image based on the image data as a presentation image as a display image. 21a is displayed.

選択条件提示部23gは、提示画像に対し、顔分類処理部23dに分類されている画像データに基づく顔の人物を選択する選択条件を液晶表示モニタ21aに表示させる。また、選択条件提示部23gは、顔分類フォルダに分類されている画像データに基づいて、人物ごとの縮小画像であるサムネイル画像を選択条件として液晶表示モニタ21aに一覧表示させる。   The selection condition presentation unit 23g causes the liquid crystal display monitor 21a to display a selection condition for selecting a person with a face based on the image data classified by the face classification processing unit 23d for the presented image. Further, the selection condition presenting unit 23g displays a list of thumbnail images, which are reduced images for each person, as a selection condition on the liquid crystal display monitor 21a based on the image data classified in the face classification folder.

選択条件受付部23gは、選択条件の選択若しくは非選択の命令をユーザ入力により受け付ける。   The selection condition receiving unit 23g receives a selection condition selection or non-selection instruction by a user input.

第2識別情報付加部23iは、選択条件受付部23gが受け付けた選択条件に対応する識別情報を、提示画像の画像データに付加する。また、第2識別情報付加部23iは、ユーザによるタッチパネルの操作に応じて、顔検出枠に表示されている顔と、その顔と同一人物のサムネイル画像との関連付けを行うことにより、同一人物の識別情報を、提示画像の画像データに付加する。   The second identification information adding unit 23i adds identification information corresponding to the selection condition received by the selection condition receiving unit 23g to the image data of the presented image. Further, the second identification information adding unit 23i associates the face displayed in the face detection frame with the thumbnail image of the same person as the face in accordance with the operation of the touch panel by the user. Identification information is added to the image data of the presentation image.

識別情報可否受付部23jは、選択条件受付部23hが、選択条件の非選択の命令を受け付けた場合、新たな識別情報を付加するか否かの命令をユーザ入力により受け付ける。   When the selection condition acceptance unit 23h accepts a command for non-selection of the selection condition, the identification information availability acceptance unit 23j accepts a command as to whether or not to add new identification information by user input.

新規登録部23kは、選択条件受付部23gが選択条件の非選択の命令を受け付けた場合、新たな識別情報を付加するか否かをユーザ入力により選択させ、新たな識別情報を付加する選択の場合、提示画像の画像データに、新たな識別情報を付加する。   When the selection condition accepting unit 23g accepts a selection condition non-selection command, the new registration unit 23k selects whether or not to add new identification information by user input, and selects the new identification information to be added. In this case, new identification information is added to the image data of the presented image.

一括画像処理部23lは、顔分類フォルダに格納されている画像データに対して、ユーザ入力により指定された人物の画像処理を一括して行う。例えば、一括画像処理部23lは、モザイク処理、デジタルぼかし処理、トリミング処理などを行う(詳細は後述する)。なお、顔分類フォルダを設けることにより、一括画像処理が容易となる。   The batch image processing unit 231 performs batch image processing of a person specified by user input on the image data stored in the face classification folder. For example, the batch image processing unit 23l performs mosaic processing, digital blur processing, trimming processing, and the like (details will be described later). Note that providing a face classification folder facilitates batch image processing.

通信処理部23mは、通信インターフェース(通信I/F)27を介して、例えば、外部のサーバに無線通信で画像データを送信する。   The communication processing unit 23m transmits image data by wireless communication to, for example, an external server via the communication interface (communication I / F) 27.

次に、第1実施形態における電子カメラ1の動作の一例を説明する。   Next, an example of the operation of the electronic camera 1 in the first embodiment will be described.

図4は、電子カメラ1の撮影動作を表すフローチャートである。ここでは、まず、顔検出機能から第1識別情報付加機能までの処理について説明する。以下の説明では、顔検出機能、顔認識機能をオンにするとともに、第1識別情報付加機能もオンに設定した場合について説明する。   FIG. 4 is a flowchart showing the photographing operation of the electronic camera 1. Here, first, processing from the face detection function to the first identification information addition function will be described. In the following description, a case will be described in which the face detection function and the face recognition function are turned on, and the first identification information addition function is also turned on.

ステップS101:CPU23は、タイミングジェネレータ(TG)15を介して撮像素子14を駆動させることによりスルー画像の取得を開始する。このスルー画像は、液晶表示モニタ21aに表示される。   Step S101: The CPU 23 starts acquiring a through image by driving the image sensor 14 via the timing generator (TG) 15. This through image is displayed on the liquid crystal display monitor 21a.

ステップS102:CPU23は、半押しされたか否かを判定する。半押しされた場合は(ステップS102:Yes)、ステップS103に移行する。一方、レリーズボタンが所定時間経過しても半押しされない場合は(ステップS102:No)、節電モードが機能してこの処理ルーチンは終了する。   Step S102: The CPU 23 determines whether or not it is half-pressed. When half-pressed (step S102: Yes), the process proceeds to step S103. On the other hand, if the release button is not half-pressed even after a predetermined time has elapsed (step S102: No), the power saving mode functions and this processing routine ends.

ステップS103:CPU23の顔検出部23aは、上述した顔検出処理を施して顔を検出する。この際、顔検出部23aは、撮像素子14で生成する画像データに基づいて色の成分や輝度値を取得する。この場合、顔検出部23aは、肌色成分の領域を特定するなどして、顔を検出する。   Step S103: The face detection unit 23a of the CPU 23 performs the above-described face detection process to detect a face. At this time, the face detection unit 23 a acquires a color component and a luminance value based on image data generated by the image sensor 14. In this case, the face detection unit 23a detects the face by specifying a skin color component region or the like.

ステップS104:CPU23は、ステップS103の顔検出処理で顔を検出したか否かを判定する。顔検出部23aが顔を検出できた場合には(ステップS104:Yes)、顔認識処理(ステップS105)に移行する。   Step S104: The CPU 23 determines whether or not a face has been detected in the face detection process of step S103. When the face detection unit 23a has detected a face (step S104: Yes), the process proceeds to face recognition processing (step S105).

一方、顔検出部23aが顔を検出できなかった場合には(ステップS104:No)、通常の撮影モードとして、ステップS106に移行する。この場合、全押し操作がなされると(ステップS106:Yes)、本画像取得の処理(ステップS107)へ移行する。ステップS107以降の処理については、後述する。   On the other hand, when the face detection unit 23a cannot detect the face (step S104: No), the process proceeds to step S106 as the normal shooting mode. In this case, when the full-press operation is performed (step S106: Yes), the process proceeds to the main image acquisition process (step S107). The processing after step S107 will be described later.

ステップS105:CPU23の顔認識部23bは、検出した顔に基づいて顔の器官を構成する特徴点を抽出する。例えば、顔検出枠の顔の領域に対して、目、鼻、唇、顔の輪郭等の特徴点を個別に抽出する。   Step S105: The face recognition unit 23b of the CPU 23 extracts feature points constituting the facial organ based on the detected face. For example, feature points such as eyes, nose, lips, and face contour are individually extracted from the face area of the face detection frame.

ステップS106:CPU23は、レリーズボタンが全押しされたか否かを判定する。レリーズボタンが全押しされていない場合は(ステップS106:No)、ステップS102に戻る。一方、レリーズボタンが全押しされた場合は(ステップS106:Yes)、ステップS107へ移行する。   Step S106: The CPU 23 determines whether or not the release button has been fully pressed. If the release button has not been fully pressed (step S106: No), the process returns to step S102. On the other hand, when the release button is fully pressed (step S106: Yes), the process proceeds to step S107.

ステップS107:CPU23は、操作部22からの全押し操作を受けて、本画像取得のため、タイミングジェネレータ(TG)15を介して撮像素子14を駆動させる。AFE16では、画像信号のゲイン調整や画像信号のA/D変換が行われる。このAFE16が出力する画像信号は、画像信号処理部17へ入力される。画像信号処理部17は、AFE16が出力する本画像データをフレームメモリに記憶させる。画像信号処理部17は、フレームメモリに記憶されている本画像データに対してホワイトバランス補正処理などの補正処理を行う。   Step S107: Upon receiving the full-press operation from the operation unit 22, the CPU 23 drives the image sensor 14 via the timing generator (TG) 15 for acquiring the main image. The AFE 16 performs gain adjustment of the image signal and A / D conversion of the image signal. The image signal output from the AFE 16 is input to the image signal processing unit 17. The image signal processing unit 17 stores the main image data output from the AFE 16 in the frame memory. The image signal processing unit 17 performs correction processing such as white balance correction processing on the main image data stored in the frame memory.

ステップS108:CPU23の第1識別情報付加部23cは、顔検出された人物の識別情報を画像データに付加する。ここでは、簡単のため、第1識別情報付加部23cは、特徴点に基づいて、顔を識別する識別情報をA、B、C・・・というように顔ごとに登録する。つまり、Exifのヘッダファイルに識別情報を書き込む。特徴点は、別途情報として、Exifのヘッダファイルに識別情報を書き込む。また、識別情報に対して、人物の名前を別途、ユーザ入力してもよい。   Step S108: The first identification information adding unit 23c of the CPU 23 adds the identification information of the person whose face is detected to the image data. Here, for the sake of simplicity, the first identification information adding unit 23c registers identification information for identifying a face for each face such as A, B, C... Based on the feature points. That is, the identification information is written in the header file of Exif. For the feature point, identification information is written in the header file of Exif as separate information. In addition, a person's name may be separately input for the identification information.

また、CPU23は、顔認識部23bが抽出した特徴点に基づいて、既に保存されている画像データに対して、同様の特徴点を有する人物の画像が存在するか否かについて探索する。同様の特徴点を有する人物の画像が存在した場合には、第1識別情報付加部23cは、その特徴点に対応する識別情報(例えば、A)をExifのヘッダファイルに書き込む。   In addition, the CPU 23 searches based on the feature points extracted by the face recognition unit 23b as to whether or not there is an image of a person having similar feature points in the already stored image data. When there is an image of a person having a similar feature point, the first identification information adding unit 23c writes the identification information (for example, A) corresponding to the feature point in the Exif header file.

ステップS109:CPU23は、本画像データを圧縮処理し、識別情報に基づいて、記録媒体26の顔分類フォルダに保存する。   Step S109: The CPU 23 compresses the main image data and stores it in the face classification folder of the recording medium 26 based on the identification information.

次に、撮影時に顔認識ができなかった画像や顔認識機能を利用しなかった画像について、
識別情報を付加する第2識別情報付加機能の処理について説明する。ここでは、まず、記録媒体26に記録されている画像データを読み出し、識別情報が付加されているか否かのチェックを行う。
Next, regarding images that could not be recognized at the time of shooting or images that did not use the face recognition function,
Processing of the second identification information addition function for adding identification information will be described. Here, first, the image data recorded on the recording medium 26 is read, and it is checked whether or not identification information is added.

図5は、識別情報の有無をチェックするフローチャートである。   FIG. 5 is a flowchart for checking the presence or absence of identification information.

ステップS201:CPU23の検索部23eは、記録媒体26から、画像データを1つ読み出す。   Step S201: The search unit 23e of the CPU 23 reads one image data from the recording medium 26.

ステップS202:CPU23は、画像データを参照し、第1識別情報付加部23cが、識別情報を付加したか否かを判定する。判定結果が識別情報なしの場合(ステップS202:No)、この処理ルーチンは、ステップS203に進む。一方、判定結果が識別情報ありの場合(ステップS202:Yes)、この処理ルーチンは、ステップS204に進む。   Step S202: The CPU 23 refers to the image data and determines whether or not the first identification information adding unit 23c has added identification information. If the determination result is that there is no identification information (step S202: No), the processing routine proceeds to step S203. On the other hand, when the determination result includes identification information (step S202: Yes), the processing routine proceeds to step S204.

ステップS203:CPU23は、識別情報が付加されていない画像データをリストに登録する。   Step S203: The CPU 23 registers image data with no identification information added to the list.

ステップS204:CPU23は、検索部23eがすべての画像データをサーチしたか否かを判定する。   Step S204: The CPU 23 determines whether or not the search unit 23e has searched all image data.

検索部23eがすべての画像データをサーチしていない場合(ステップS204:No)、この処理ルーチンは、ステップS201に戻り、次の画像データを読み出す。   When the search unit 23e has not searched for all image data (step S204: No), the processing routine returns to step S201 and reads the next image data.

検索部23eがすべての画像データをサーチした場合(ステップS204:Yes)、この処理ルーチンは、終了する。ステップS201からステップS204の処理がなされることにより、識別情報の付加されていない画像データがリスト化される。   When the search unit 23e has searched all image data (step S204: Yes), this processing routine ends. By performing the processing from step S201 to step S204, image data to which no identification information is added is listed.

次に、第2識別情報付加部23iによる識別情報の付加処理について説明する。   Next, an identification information adding process by the second identification information adding unit 23i will be described.

図6は、第2識別情報付加部23iによる識別情報の付加処理を説明するフローチャートである。   FIG. 6 is a flowchart for explaining identification information adding processing by the second identification information adding unit 23i.

ステップS301:CPU23は、図5のフローチャートの処理で作成されたリストから、画像データを1つ読み出す。   Step S301: The CPU 23 reads one piece of image data from the list created by the process of the flowchart of FIG.

ステップS302:CPU23の顔検出部23aは、顔検出処理を行う。   Step S302: The face detection unit 23a of the CPU 23 performs face detection processing.

ステップS303:顔検出ができた場合(ステップS303:Yes)、この処理ルーチンは、ステップS304に進む。顔検出ができなかった場合(ステップS303:No)、この処理ルーチンは、ステップS305に進む。   Step S303: If face detection is possible (step S303: Yes), the processing routine proceeds to step S304. When face detection cannot be performed (step S303: No), the processing routine proceeds to step S305.

ステップS304:CPU23は、後述する、顔登録処理のサブルーチンを開始する。   Step S304: The CPU 23 starts a subroutine for face registration processing, which will be described later.

ステップS305:CPU23は、リストの画像データをすべてサーチしたか否かを判定する。リストの画像データをすべてサーチしていない場合(ステップS303:No)、この処理ルーチンは、ステップS301に戻る。一方、リストの画像データをすべてサーチした場合(ステップS303:Yes)、この処理ルーチンは、終了する。   Step S305: The CPU 23 determines whether or not all image data in the list has been searched. When all the image data in the list has not been searched (step S303: No), the processing routine returns to step S301. On the other hand, when all the image data in the list has been searched (step S303: Yes), this processing routine ends.

次に、顔登録処理のサブルーチンについて説明する。   Next, a face registration subroutine will be described.

図7は、図6に示す顔登録処理のサブルーチンである。図8、図9は、顔登録処理を説明する図である。   FIG. 7 is a subroutine of the face registration process shown in FIG. 8 and 9 are diagrams illustrating the face registration process.

ステップS401:CPU23の画像提示部23fは、図6のステップS303で顔検出部23aが顔を検出した場合、その画像データに基づく画像を提示画像として液晶表示モニタ21aに表示させる。   Step S401: When the face detection unit 23a detects a face in step S303 in FIG. 6, the image presentation unit 23f of the CPU 23 displays an image based on the image data on the liquid crystal display monitor 21a as a presentation image.

ステップS402:CPU23は、表示制御部20に指示を出し、表示制御部20は、顔検出枠Wを表示する。図8(a)に示すように、液晶表示モニタ21aには人物に対して、顔検出枠Wが表示される。この画像の画像ファイル名を、説明の便宜上、ここでは「001」とする。   Step S402: The CPU 23 issues an instruction to the display control unit 20, and the display control unit 20 displays the face detection frame W. As shown in FIG. 8A, a face detection frame W is displayed for the person on the liquid crystal display monitor 21a. For convenience of explanation, the image file name of this image is “001” here.

ステップS403:CPU23の選択条件提示部23gは、提示画像に対し、顔分類処理部23dに分類されている画像データに基づく顔の人物を選択する選択条件を液晶表示モニタ21aに表示させる。一例として、「001の人物は、登録人物A、B、Cの何れかに該当しますか?」のメッセージを液晶表示モニタ21aに表示する(図8(b))。なお、説明の便宜上、A、B、Cは、登録人物の名前が表示されているものとする。すなわち、予め、ユーザ入力により、識別情報ごとに登録人物名が対応付けられているものとする。   Step S403: The selection condition presentation unit 23g of the CPU 23 causes the liquid crystal display monitor 21a to display a selection condition for selecting a person with a face based on the image data classified by the face classification processing unit 23d for the presented image. As an example, a message “Does 001 correspond to any of registered persons A, B, and C?” Is displayed on the liquid crystal display monitor 21a (FIG. 8B). For convenience of explanation, it is assumed that the names of registered persons are displayed in A, B, and C. That is, it is assumed that a registered person name is associated with each identification information in advance by user input.

ステップS404:CPU23の選択条件受付部23gは、選択条件の選択(A、B、Cの何れか:該当あり)若しくは非選択(該当なし)を、タッチパネル21bを受け付ける。ユーザ入力の命令が、「該当あり」の場合(ステップS404:Yes)、このサブルーチンは、ステップS405に進む。   Step S404: The selection condition accepting unit 23g of the CPU 23 accepts selection (A, B, or C: applicable) or non-selection (not applicable) of the selection condition on the touch panel 21b. If the user input command is “applicable” (step S404: Yes), the subroutine proceeds to step S405.

ステップS405:選択条件提示部23gは、顔分類フォルダに分類されている画像データに基づいて、図9(a)に示す通り、人物ごとの縮小画像であるサムネイル画像を選択条件として液晶表示モニタ21aに一覧表示させる。そして、選択条件提示部23gは、一例として、「関連付けを行います、登録人物の何れかを選択して下さい。」のメッセージを液晶表示モニタ21aに表示させる(図9(b))。   Step S405: Based on the image data classified in the face classification folder, the selection condition presenting unit 23g uses the thumbnail image, which is a reduced image for each person, as the selection condition, as shown in FIG. To display a list. Then, as an example, the selection condition presenting unit 23g displays a message “Perform an association, please select any registered person” on the liquid crystal display monitor 21a (FIG. 9B).

ステップS406:CPU23は、タッチパネル21bを介して、サムネイル画像の選択(例えば、登録人物Aのサムネイル画像を選択)を受け付ける。   Step S406: The CPU 23 accepts selection of a thumbnail image (for example, selection of a thumbnail image of the registered person A) via the touch panel 21b.

ステップS407:CPU23の第2識別情報付加部23iは、選択条件受付部23gが選択条件の選択の命令を受け付けた場合、その選択条件に対応する識別情報を、提示画像の画像データに付加する。つまり、第2識別情報付加部23iは、顔検出枠Wに表示されている顔と、その顔と同一人物Aのサムネイル画像との関連付けを行う。具体的には、サムネイル画像に表示されている登録人物Aの識別情報を、顔検出枠に表示されている同一人物Aの画像データに付加する。こうすることにより、ユーザは、タッチパネル21b上で容易にユーザ入力することができる。さらに、サムネイル画像を選択することで、撮影時に顔識別ができなかった画像や顔識別機能を利用しなかった画像についても識別情報を付加することができる。なお、図9(b)に示したサムネイル画像の表示態様は、一例であって、この表示態様に限定されるものではない。また、タッチパネルの操作に応じて、サムネイル画像を順次表示させてもよい。   Step S407: When the selection condition receiving unit 23g receives a selection condition selection command, the second identification information adding unit 23i of the CPU 23 adds identification information corresponding to the selection condition to the image data of the presented image. That is, the second identification information adding unit 23i associates the face displayed in the face detection frame W with the thumbnail image of the same person A as that face. Specifically, the identification information of the registered person A displayed in the thumbnail image is added to the image data of the same person A displayed in the face detection frame. By doing so, the user can easily perform user input on the touch panel 21b. Furthermore, by selecting a thumbnail image, identification information can be added to an image for which face identification cannot be performed at the time of shooting or an image for which the face identification function is not used. Note that the thumbnail image display mode illustrated in FIG. 9B is merely an example, and is not limited to this display mode. Further, thumbnail images may be sequentially displayed according to the operation of the touch panel.

ステップS408:顔分類処理部23fは、登録人物Aの識別情報に基づいて画像データを分類する。そして、CPU23は、登録人物Aの顔分類フォルダに、画像データを保存する。そして、このサブルーチンは終了し、図7のステップS305に戻る。   Step S408: The face classification processing unit 23f classifies the image data based on the identification information of the registered person A. Then, the CPU 23 stores the image data in the face classification folder of the registered person A. Then, this subroutine ends, and the process returns to step S305 in FIG.

次に、ステップS405の処理において、ユーザ入力の命令が、「該当なし」の場合(ステップS405:No)について、その後の処理を説明する。   Next, in the process of step S405, when the user input command is “not applicable” (step S405: No), the subsequent process will be described.

図10、図11は、新規登録する場合の顔登録処理を説明する図である。   10 and 11 are diagrams for explaining face registration processing in the case of new registration.

ステップS403の処理において、図10(a)に示す通り、表示制御部20は、一例として、「002の人物は、登録人物A、B、Cの何れかに該当しますか?」のメッセージを液晶表示モニタ21aに表示する。ユーザ入力の命令が、「該当なし」の場合(ステップS404:No)、このサブルーチンは、ステップS409に進む。   In the process of step S403, as shown in FIG. 10A, for example, the display control unit 20 displays a message “Does the person of 002 correspond to any of registered persons A, B, and C?” Displayed on the liquid crystal display monitor 21a. If the user input command is “not applicable” (step S404: No), the subroutine proceeds to step S409.

なお、表示制御部20は、顔検出部23aが顔を検出したにも拘わらず、顔認識部23bが、特徴点を抽出できなかった場合、顔検出枠Wの表示態様を変更してもよい。表示制御部20は、例えば、顔検出枠Wの色を緑色から赤色に変更する。これにより、ユーザは、002の人物が、登録されていない人物であることを知ることができる。   Note that the display control unit 20 may change the display mode of the face detection frame W when the face recognition unit 23b fails to extract a feature point even though the face detection unit 23a has detected a face. . For example, the display control unit 20 changes the color of the face detection frame W from green to red. Thereby, the user can know that the person 002 is an unregistered person.

ステップS409:選択条件提示部23gは、図10(b)に示す通り、一例として、「新規登録しますか?」のメッセージを液晶表示モニタ21aに表示させる。なお、新規登録の場合、第1識別情報付加部23cが付加した同一人物の識別情報が存在しないことを意味する。ユーザ入力の命令が、「新規登録」の場合(ステップS409:Yes)、このサブルーチンは、ステップS407に進む。   Step S409: As shown in FIG. 10B, the selection condition presenting unit 23g displays a message “Do you want to newly register?” On the liquid crystal display monitor 21a as an example. In the case of new registration, it means that there is no identification information of the same person added by the first identification information adding unit 23c. When the user input command is “new registration” (step S409: Yes), the subroutine proceeds to step S407.

ステップS407:新規登録部23kは、タッチパネル21bを介してユーザ入力により、新たな識別情報を画像データに付加する。これにより、例えば、撮影時に顔検出しなかった画像であって、識別情報が存在しない場合であっても、識別情報を付加することができる。   Step S407: The new registration unit 23k adds new identification information to the image data by user input via the touch panel 21b. As a result, for example, even if the face is not detected at the time of shooting and the identification information does not exist, the identification information can be added.

ステップS408:顔分類処理部23fは、人物Dの識別情報に基づいて画像データを分類する。この場合、顔分類処理部23fは、人物Dの顔分類フォルダを新規に生成する。CPU23は、その顔分類フォルダ内に画像データを保存する。そして、このサブルーチンは終了し、図7のステップS305に戻る。   Step S408: The face classification processing unit 23f classifies the image data based on the identification information of the person D. In this case, the face classification processing unit 23f newly generates a face classification folder for the person D. The CPU 23 stores the image data in the face classification folder. Then, this subroutine ends, and the process returns to step S305 in FIG.

一方、ステップS409にて、ユーザ入力の命令が、「新規登録せず」の場合(ステップS409:No)、このサブルーチンは終了し、図6のステップS305に戻る。   On the other hand, if the user input command is “not newly registered” in step S409 (step S409: No), this subroutine ends, and the process returns to step S305 in FIG.

なお、人物Dが新規に登録されると、ステップS405の処理において、選択条件提示部23gは、サムネイル画像を一覧表示する際、新規に作成された顔分類フォルダの人物Dのサムネイル画像を一覧表示に追加して表示させる(図11)。これにより、選択条件提示部23gは、最新のサムネイル画像の一覧表示を液晶表示モニタ21aに表示させることができる。   When a person D is newly registered, in the process of step S405, the selection condition presenting unit 23g displays a list of thumbnail images of the person D in the newly created face classification folder when displaying thumbnail images as a list. To be displayed (FIG. 11). As a result, the selection condition presenting unit 23g can display a list display of the latest thumbnail images on the liquid crystal display monitor 21a.

以上より、第2識別情報付加部23iによる識別情報の付加処理がなされる。なお、複数の人物が撮影されている画像の取り扱いについて、以下説明する。   As described above, the identification information adding process is performed by the second identification information adding unit 23i. The handling of images in which a plurality of persons are photographed will be described below.

図12は、複数の人物の顔登録処理を説明する図である。図12(a)は、3人の人物A、B、Cが撮影されている画像である。顔検出枠Wが表示されている。なお、撮影時には、顔識別機能を利用しなかった画像とする。この状態で、一例として、図7のステップS405で登録人物のサムネイル画像表示を行うと、図12(b)のように表示される。
ユーザ入力により、人物A、B、Cが個別に選択されると、003の画像が、登録人物A、B、Cの顔分類フォルダに保存される。なお、記憶容量を考慮して、所謂、仮想フォルダ形式で、1つの画像を3つのフォルダに登録されているように見せる保存形式を採用してもよい。
FIG. 12 is a diagram illustrating face registration processing for a plurality of persons. FIG. 12A is an image in which three persons A, B, and C are photographed. A face detection frame W is displayed. At the time of shooting, an image that does not use the face identification function is used. In this state, as an example, when a thumbnail image of a registered person is displayed in step S405 of FIG. 7, the display is as shown in FIG.
When the persons A, B, and C are individually selected by user input, the image 003 is stored in the face classification folders of the registered persons A, B, and C. In consideration of the storage capacity, a so-called virtual folder format may be adopted in which a storage format that makes one image appear to be registered in three folders may be adopted.

また、人物A、B、Cが、一例として、兄弟であった場合、新たに兄弟単位で保存するように、兄弟フォルダや家族フォルダなどの複数人物単位のフォルダを生成して保存してもよい。   Further, as an example, if the persons A, B, and C are siblings, a folder of a plurality of persons such as a sibling folder and a family folder may be generated and stored so that the person A, B, and C are newly stored in sibling units. .

また、人物A、B、Cの内、一例として、人物A、Bは、顔分類フォルダが作成されており、人物Cのみが顔分類フォルダが作成されていない場合、タッチパネル21bからのユーザ入力により、人物A、Bについては、画像を各々の顔分類フォルダに保存し、人物Cについては、新規に人物Cの顔分類フォルダを作成して、保存するようにしてもよい。   In addition, as an example of the persons A, B, and C, when the face classification folder is created for the persons A and B and only the person C is not created, the user input from the touch panel 21b For the persons A and B, images may be stored in the respective face classification folders, and for the person C, a new face classification folder for the person C may be created and stored.

次に、一括画像処理部23lおよび通信処理部23mの処理について説明する。   Next, processing of the batch image processing unit 23l and the communication processing unit 23m will be described.

図13は、電子カメラ1における画像データの一括画像処理を表すフローチャートである。ここでは、同一の識別情報が付加された画像データに対して、モザイク処理を一括して行う処理と、モザイク処理が施された画像データに対して、外部の画像保管用のサーバに画像をアップロードする処理についてまず説明する。   FIG. 13 is a flowchart showing batch image processing of image data in the electronic camera 1. Here, processing that batches mosaic processing for image data with the same identification information added, and uploading images to an external image storage server for image data that has undergone mosaic processing First, the processing to be performed will be described.

図13に示すフローチャートは、ユーザが人物別再生画面のモードを選択すると開始する。この人物別再生画面のモードを選択することにより、画像データの一括画像処理や画像データのアップロードを行うことができる。   The flowchart shown in FIG. 13 starts when the user selects the mode of the reproduction screen for each person. By selecting the mode of the reproduction screen for each person, batch image processing of image data and image data upload can be performed.

ステップS501:CPU23は、ユーザが人物別再生画面の命令を受け付けると、表示制御部20を介して、液晶表示モニタ21aに人物別再生画面のモードのメニュー表示をさせる。   Step S501: When the user accepts a command for the reproduction screen for each person, the CPU 23 causes the liquid crystal display monitor 21a to display a menu for the mode for the reproduction screen for each person via the display control unit 20.

図14は、人物別再生画面のモードの一例を説明する図である。図14(a)に示すように、液晶表示モニタ21aには、人物別再生画面のモードのメニュー表示がなされる。   FIG. 14 is a diagram illustrating an example of the mode of the playback screen for each person. As shown in FIG. 14A, the liquid crystal display monitor 21a displays a menu for the mode of the reproduction screen for each person.

ステップS502:CPU23は、ユーザ入力により、人物Aの顔分類フォルダaを選択した旨の命令を受け付けると、記録媒体26の顔分類フォルダaから、登録人物Aが写っている画像を読み出す。CPU23は、登録人物Aが写っている画像のサムネイル画像を生成する。   Step S502: Upon receiving a command indicating that the face classification folder a of the person A has been selected by user input, the CPU 23 reads an image showing the registered person A from the face classification folder a of the recording medium 26. The CPU 23 generates a thumbnail image of an image showing the registered person A.

ステップS503:CPU23は、表示制御部20を介して、登録人物Aが写っているサムネイル画像を液晶表示モニタ21aに表示させる。図15(b)は、登録人物Aが写っているサムネイル画像の一例を示す。   Step S503: The CPU 23 displays a thumbnail image showing the registered person A on the liquid crystal display monitor 21a via the display control unit 20. FIG. 15B shows an example of a thumbnail image showing the registered person A.

ステップS504:CPU23は、ユーザ入力により、画像処理選択の命令を受け付けると、表示制御部20を介して、画像処理選択のメニューを液晶表示モニタ21aに表示させる。例えば、ユーザ入力により一括モザイクが選択されると、さらに、一括モザイクの具体的な処理内容がメニュー表示される。ここで、ユーザ入力により、(1)登録人物Aについてモザイク処理を行うケース、(2)登録人物A以外についてモザイク処理を行うケースの2通りを選択することができる。なお、これは一例であって、例えば、画像に写っている登録人物すべてであってもよい。さらに、ユーザ入力により、モザイク処理のレベルを設定することができる。例えば、不図示のバー表示によって、レベル設定を行うようにしてもよい。なお、このモザイク処理は公知の技術によって行われる。   Step S504: Upon receiving an image processing selection command by user input, the CPU 23 causes the liquid crystal display monitor 21a to display an image processing selection menu via the display control unit 20. For example, when a batch mosaic is selected by user input, a specific processing content of the batch mosaic is displayed in a menu. Here, it is possible to select two types by user input: (1) a case where the mosaic process is performed for the registered person A, and (2) a case where the mosaic process is performed for other than the registered person A. Note that this is an example, and for example, all registered persons in the image may be used. Further, the mosaic processing level can be set by user input. For example, the level may be set by a bar display (not shown). This mosaic process is performed by a known technique.

ステップS505:CPU23は、ユーザ入力により一括モザイクの実行の命令を受け付けると、CPU23の一括画像処理部23lは、選択された顔の領域のモザイク処理を行う。このようにして、一括画像処理部23lは、撮影時に顔識別ができなかった画像や顔識別機能を利用しなかった画像についても一括して画像処理することができる。   Step S505: When the CPU 23 receives an instruction to execute a batch mosaic by a user input, the batch image processing unit 23l of the CPU 23 performs a mosaic process on the selected face area. In this way, the collective image processing unit 23l can collectively perform image processing on images for which face identification cannot be performed at the time of shooting and images for which the face identification function is not used.

図15は、モザイク処理の一例を説明する図である。図15(a)は、登録人物Aについてモザイク処理を行った場合の一例を表している。図15(b)は、登録人物A以外についてモザイク処理を行った場合の一例を表している。   FIG. 15 is a diagram illustrating an example of mosaic processing. FIG. 15A shows an example when a mosaic process is performed on the registered person A. FIG. FIG. 15B shows an example when mosaic processing is performed for persons other than the registered person A.

ステップS506:CPU23は、表示制御部20を介して、モザイク処理を行った後の画像を液晶表示モニタ21aにサムネイル表示させる。   Step S506: The CPU 23 causes the liquid crystal display monitor 21a to display thumbnails on the liquid crystal display monitor 21a via the display control unit 20.

図16は、モザイク処理後のサムネイル表示の一例を説明する図である。ここでは、簡単のため、モザイク処理後の画像2枚をサムネイル画像として表示している。ここで、一覧表示されたサムネイル画像について、ユーザ入力によりアップロードしたい画像を選択することができる。すべてのサムネイル画像の元画像をアップロードしてもよい。   FIG. 16 is a diagram illustrating an example of thumbnail display after mosaic processing. Here, for simplicity, two images after mosaic processing are displayed as thumbnail images. Here, for the thumbnail images displayed as a list, an image to be uploaded can be selected by user input. You may upload the original image of all thumbnail images.

ステップS507:CPU23は、ユーザ入力により、サムネイル画像の選択の命令を受け付けると、表示制御部20を介して、一括アップロードのメニュー画面を液晶表示モニタ21aに表示させる。ここで、CPU23は、ユーザ入力により、一括アップロードの選択の命令を受け付けると、この処理ルーチンは、ステップS508に移行する。   Step S507: Upon receiving a thumbnail image selection command by user input, the CPU 23 displays a batch upload menu screen on the liquid crystal display monitor 21a via the display control unit 20. Here, when the CPU 23 receives a batch upload selection command by user input, the processing routine proceeds to step S508.

ステップS508:CPU23は、一括アップロードを開始する。   Step S508: The CPU 23 starts batch upload.

図17は、一括アップロードの概念図である。CPU23の通信処理部23mは、通信インターフェース(通信I/F)27を介して、まず、無線通信で外部の無線LANアクセスポイント100に画像データを送信する。続いて、無線LANアクセスポイント100では、インターネットを介して画像管理サーバ200に画像データを一括アップロードする。   FIG. 17 is a conceptual diagram of batch upload. The communication processing unit 23m of the CPU 23 first transmits image data to the external wireless LAN access point 100 by wireless communication via the communication interface (communication I / F) 27. Subsequently, the wireless LAN access point 100 uploads image data to the image management server 200 via the Internet.

そして、CPU23の通信処理部23mは、アップロード完了の命令を受信することにより、この処理ルーチンは終了する。   Then, when the communication processing unit 23m of the CPU 23 receives the upload completion command, the processing routine ends.

次に、一括デジタルぼかし処理について説明する。ステップS504にて、一括デジタルぼかし処理が選択されると、ステップS509に進み、一括画像処理部23lは、選択された顔の領域の一括デジタルぼかし処理を行う。   Next, the batch digital blur process will be described. If the batch digital blurring process is selected in step S504, the process advances to step S509, and the batch image processing unit 23l performs the batch digital blurring process on the selected face area.

図18は、一括デジタルぼかし処理の一例を示す図である。デジタルぼかし処理については公知の技術により行われる。図18(a)は、登録人物A以外の人物にデジタルぼかし処理を施した場合の一例の図である。図18(b)は、登録人物Aにデジタルぼかし処理を施した場合の一例の図である。このようにして、CPU23の一括画像処理部23lは、選択された人物に対して顔の領域のデジタルぼかし処理を一括で行う。この後の処理は、一括モザイク処理と同様であるので説明を省略する。なお、デジタルぼかし処理としては、ポートレートモードのように背景をぼかす処理を一括で行うようにしてもよい。   FIG. 18 is a diagram illustrating an example of batch digital blurring processing. The digital blur processing is performed by a known technique. FIG. 18A is a diagram illustrating an example of a case where a person other than the registered person A is subjected to digital blurring processing. FIG. 18B is an example of a case where the digital blurring process is performed on the registered person A. In this way, the batch image processing unit 231 of the CPU 23 collectively performs digital blurring processing of the face area on the selected person. Since the subsequent processing is the same as the batch mosaic processing, description thereof is omitted. Note that, as the digital blurring process, the process of blurring the background as in the portrait mode may be performed at once.

次に、一括トリミング処理について説明する。ステップS504にて、一括トリミング処理が選択されると、ステップS510に進み、CPU23の一括画像処理部23lは、選択された顔の領域の一括トリミング処理を行う。   Next, the batch trimming process will be described. When the batch trimming process is selected in step S504, the process advances to step S510, and the batch image processing unit 23l of the CPU 23 performs the batch trimming process on the selected face area.

図19は、一括トリミング処理の一例を示す図である。図19(a)は、トリミングしたい顔を選択した図を表しており、顔検出枠Wが表示されている。ここでは、登録人物Aが選択されている。CPU23の一括画像処理部23lは、選択された登録人物Aについて、公知のトリミング処理により、例えば、図19(b)に示す画像を生成することができる。   FIG. 19 is a diagram illustrating an example of batch trimming processing. FIG. 19A shows a diagram in which a face to be trimmed is selected, and a face detection frame W is displayed. Here, the registered person A is selected. The collective image processing unit 23l of the CPU 23 can generate, for example, the image shown in FIG. 19B for the selected registered person A by a known trimming process.

ここで、CPU23の一括画像処理部23lは、顔分類フォルダに登録されている登録人物Aの画像データに対して、順次、トリミング処理を一括で行う。この後の処理は、一括モザイク処理と同様であるので説明を省略する。   Here, the batch image processing unit 231 of the CPU 23 sequentially performs trimming processing on the image data of the registered person A registered in the face classification folder in a batch. Since the subsequent processing is the same as the batch mosaic processing, description thereof is omitted.

以上、本実施形態の電子カメラ1によれば、撮影時に顔識別ができなかった画像や顔識別機能を利用しなかった画像についても分類付けが容易にできる。例えば、被写体の顔が下向き、斜め向きなど正面を向いていない場合、顔識別機能では顔識別されにくい。しかしながら、本実施形態の電子カメラ1では、顔識別されにくい画像に対しても、分類付けができる。さらに、撮影した画像に対して手間が掛からずに一括で画像処理をすることができる。   As described above, according to the electronic camera 1 of the present embodiment, it is possible to easily classify an image in which face identification cannot be performed at the time of shooting or an image in which the face identification function is not used. For example, when the face of the subject is not facing forward, such as downward or diagonally, it is difficult for the face identification function to identify the face. However, with the electronic camera 1 of the present embodiment, it is possible to classify even images that are difficult to identify faces. Furthermore, it is possible to perform image processing in a lump without taking time and effort for the captured images.

なお、本実施形態では、一括画像処理された画像データを無線通信により、外部の画像管理サーバ200にアップロードしたが、無線通信に限られず、有線LANを用いた有線通信を行ってもよい。また、電子カメラ1からUSBケーブルを外部のパーソナルコンピュータに接続して、一括画像処理された画像データを転送してもよい。   In this embodiment, the image data subjected to batch image processing is uploaded to the external image management server 200 by wireless communication. However, the present invention is not limited to wireless communication, and wired communication using a wired LAN may be performed. Alternatively, the USB cable may be connected from the electronic camera 1 to an external personal computer to transfer the image data subjected to batch image processing.

また、本実施形態では、一括処理された画像データを外部の画像管理サーバ200にアップロードしたが、例えば、電子カメラ1側から外部のプリンタに対して、無線通信などにより、一括プリント指定を行ってもよい。   In this embodiment, the batch-processed image data is uploaded to the external image management server 200. For example, the electronic camera 1 side performs batch print designation to the external printer by wireless communication or the like. Also good.

本実施形態ではExifファイル形式を用いた。これにより汎用性が得られるが、他の形式のファイルに適用してもよい。
(第2実施形態)
次に、本発明の第2実施形態について説明する。第2実施形態では、図20に示すコンピュータ3に電子カメラ1で記録された画像データを読み出し、撮影時に顔識別ができなかった画像や顔識別機能を利用しなかった画像の画像データに対して識別情報の付加を行う。これらの処理に、本発明の一実施形態である画像処理プログラムを用いる。
In this embodiment, the Exif file format is used. This provides versatility, but it may be applied to other types of files.
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the second embodiment, the image data recorded by the electronic camera 1 is read out to the computer 3 shown in FIG. 20, and the image data of the image that could not be identified at the time of photographing or the image that did not use the face identification function was used. Add identification information. The image processing program which is one embodiment of the present invention is used for these processes.

以下、具体的に説明する。図20は、コンピュータの構成を示すブロック図である。図20に示すコンピュータ3には、コンピュータ用CPU30と、メモリ31と、通信インターフェース(I/F)32と、キーボード33と、表示モニタ34とが備えられている。メモリ31には、本発明の一実施形態である画像処理プログラムも格納されている。
第2実施形態では、図21の点線枠内に示す画像処理プログラムAがコンピュータ用CPU30に組み込まれる。すなわち、コンピュータ用CPU30は、本発明の一実施形態である画像処理プログラムAが組み込まれることによって、画像データ読出部30aと、顔分類処理部30bと、検索部30cと、顔検出部30dと、画像提示部30eと、選択条件提示部30fと、選択条件受付部30gと、識別情報付加部30hとが構築される。
This will be specifically described below. FIG. 20 is a block diagram illustrating a configuration of a computer. The computer 3 shown in FIG. 20 includes a computer CPU 30, a memory 31, a communication interface (I / F) 32, a keyboard 33, and a display monitor 34. The memory 31 also stores an image processing program that is an embodiment of the present invention.
In the second embodiment, the image processing program A shown in the dotted frame in FIG. 21 is incorporated in the computer CPU 30. That is, the computer CPU 30 incorporates the image processing program A which is an embodiment of the present invention, so that the image data reading unit 30a, the face classification processing unit 30b, the search unit 30c, the face detection unit 30d, An image presentation unit 30e, a selection condition presentation unit 30f, a selection condition reception unit 30g, and an identification information addition unit 30h are constructed.

画像データ読出部30aは、電子カメラで記録された画像データを読み出す。顔分類処理部30bは、顔の特徴を表す特徴点に基づいて顔を識別する識別情報に基づいて画像データを分類する。検索部30cは、画像データ読出部30aで読み出した画像データの内、識別情報が付加されていない画像データを検索する。顔検出部30dは、検索部30aで見つけ出された、識別情報が付加されていない画像データに基づいて、顔を検出する。画像提示部30eは、顔検出部30dで顔を検出した場合、その画像データに基づく画像を提示画像として表示モニタ34に表示させる。選択条件提示部30fは、提示画像に対し、顔分類処理部30bで分類されている画像データに基づく顔の人物を選択する選択条件を表示モニタ34に表示させる。選択条件受付部30gは、選択条件の選択若しくは非選択の命令をユーザ入力により受け付ける。識別情報付加部30hは、選択条件受付部30gが受け付けた選択条件に対応する識別情報を、提示画像の画像データに付加する。   The image data reading unit 30a reads image data recorded by the electronic camera. The face classification processing unit 30b classifies image data based on identification information for identifying a face based on a feature point representing the feature of the face. The search unit 30c searches for image data to which no identification information is added from among the image data read by the image data reading unit 30a. The face detection unit 30d detects a face based on image data that is found by the search unit 30a and to which no identification information is added. When the face detection unit 30d detects a face, the image presentation unit 30e displays an image based on the image data on the display monitor 34 as a presentation image. The selection condition presenting unit 30f causes the display monitor 34 to display a selection condition for selecting a face person based on the image data classified by the face classification processing unit 30b for the presented image. The selection condition receiving unit 30g receives a selection condition selection or non-selection instruction by a user input. The identification information adding unit 30h adds identification information corresponding to the selection condition received by the selection condition receiving unit 30g to the image data of the presented image.

次に、本発明の一実施形態である画像処理プログラムAの動作について説明する。ここでは、電子カメラ1で記録された画像は、予め、通信インターフェース(I/F)32を介してメモリ31に記憶されているものとする。   Next, the operation of the image processing program A which is an embodiment of the present invention will be described. Here, it is assumed that an image recorded by the electronic camera 1 is stored in advance in the memory 31 via the communication interface (I / F) 32.

図21は、第2実施形態の画像処理プログラムAの動作を表すフローチャートである。このフローチャートは、図20に示すキーボード33から画像処理プログラムAの起動を受け付けると開始する。また、電子カメラで記録された画像データは、予め、通信I/F32を介して、メモリ31に記録されているものとする。   FIG. 21 is a flowchart showing the operation of the image processing program A of the second embodiment. This flowchart starts when the activation of the image processing program A is received from the keyboard 33 shown in FIG. Further, it is assumed that image data recorded by the electronic camera is recorded in the memory 31 via the communication I / F 32 in advance.

ステップS601:画像データ読出部30aは、電子カメラで記録された画像データをメモリ31から読み出す。ステップS601が、画像データ読出ステップの一例に相当する。   Step S601: The image data reading unit 30a reads the image data recorded by the electronic camera from the memory 31. Step S601 corresponds to an example of an image data reading step.

ステップS602:顔分類処理部30bは、顔の特徴を表す特徴点に基づいて顔を識別する識別情報に基づいて画像データを分類する。顔分類処理部30bは、メモリ31内に識別情報ごとに顔分類フォルダを生成し、識別情報が付加されている画像データを保存する。ステップS602が、顔分類処理ステップの一例に相当する。   Step S602: The face classification processing unit 30b classifies image data based on identification information for identifying a face based on a feature point representing the feature of the face. The face classification processing unit 30b generates a face classification folder for each identification information in the memory 31, and stores the image data to which the identification information is added. Step S602 corresponds to an example of a face classification processing step.

ステップS603:CPU30は、識別情報の有無をチェックするサブルーチンを実行する。このサブルーチンは、図5に示した識別情報の有無をチェックするフローチャートと同様の処理を行う。ステップS603が、検索ステップの一例に相当する。   Step S603: The CPU 30 executes a subroutine for checking whether or not there is identification information. This subroutine performs the same processing as the flowchart for checking the presence or absence of the identification information shown in FIG. Step S603 corresponds to an example of a search step.

ステップS604:CPU30は、識別情報の付加のサブルーチンを実行する。このサブルーチンは、図6に示した第2識別情報付加部23iによる識別情報の付加処理を説明するフローチャートと同様の処理を行う。なお、第2識別情報付加部23iの処理が、プログラムAでは、識別情報付加部30hが担っている。また、CPU30は、図7に示した顔登録処理のサブルーチン同様の処理を行う。この際、CPU30は、上述した新規登録の処理を加えてもよい。   Step S604: The CPU 30 executes a subroutine for adding identification information. This subroutine performs the same process as the flowchart for explaining the identification information adding process by the second identification information adding unit 23i shown in FIG. In the program A, the processing of the second identification information adding unit 23i is performed by the identification information adding unit 30h. Further, the CPU 30 performs the same process as the face registration process subroutine shown in FIG. At this time, the CPU 30 may add the above-described new registration process.

以上のステップを経て、この処理ルーチンは終了する。その後、フローチャートには示していないが、CPU30は、第1実施形態で説明した一括画像処理と同様の処理を行う。なお、図6のステップS302が、顔検出ステップの一例に相当する。図7のステップS401が、画像提示ステップの一例に相当する。図7のステップS403が、選択条件提示ステップの一例に相当する。図7のステップS404〜S406が、選択条件受付ステップの一例に相当する。図7のステップS407が、識別情報付加ステップの一例に相当する。   After the above steps, this processing routine is completed. Thereafter, although not shown in the flowchart, the CPU 30 performs processing similar to the batch image processing described in the first embodiment. Note that step S302 in FIG. 6 corresponds to an example of a face detection step. Step S401 in FIG. 7 corresponds to an example of an image presentation step. Step S403 in FIG. 7 corresponds to an example of a selection condition presenting step. Steps S404 to S406 in FIG. 7 correspond to an example of a selection condition receiving step. Step S407 in FIG. 7 corresponds to an example of an identification information adding step.

その後、ユーザ入力により、例えば、外部のブログ用サーバ300に、モザイク処理された画像データがアップロードされる。   Thereafter, the mosaic-processed image data is uploaded to the external blog server 300 by user input, for example.

以上、本実施形態の画像処理プログラムAによれば、撮影時に顔識別ができなかった画像や顔識別機能を利用しなかった画像についても分類付けが容易にできる。さらに、撮影した画像に対して手間が掛からずに一括で画像処理をすることができる。
<実施形態の補足事項>
本実施形態では、所定の一括画像処理として、モザイク処理と、デジタルぼかし処理と、トリミング処理とを取り上げたが、これらは一例であって、3つの処理に限定されるものではない。例えば、赤目を補正する赤目画像処理であってもよい。また、複数の画像処理を組み合わせて行ってもよい。
As described above, according to the image processing program A of the present embodiment, it is possible to easily classify an image in which face identification cannot be performed at the time of shooting or an image in which the face identification function is not used. Furthermore, it is possible to perform image processing in a lump without taking time and effort for the captured images.
<Supplementary items of the embodiment>
In the present embodiment, mosaic processing, digital blurring processing, and trimming processing are taken up as predetermined batch image processing. However, these are examples, and are not limited to three processing. For example, red-eye image processing for correcting red eyes may be used. A plurality of image processes may be combined.

1・・・電子カメラ、3・・・コンピュータ、23a、30c・・・顔検出部、23b・・・顔認識部、23c・・・第1識別情報付加部、23d、30b・・・顔分類処理部、23e、30c・・・検索部、23f、30e・・・画像提示部、23g、30f・・・選択条件提示部、23h、30g・・・選択条件受付部、23i・・・第2識別情報付加部、23j・・・識別情報可否受付部、23k・・・新規登録部、23l・・・一括画像処理部、23m・・・通信処理部、30a・・・画像データ読出部、30h・・・識別情報処理部 DESCRIPTION OF SYMBOLS 1 ... Electronic camera, 3 ... Computer, 23a, 30c ... Face detection part, 23b ... Face recognition part, 23c ... 1st identification information addition part, 23d, 30b ... Face classification Processing unit, 23e, 30c ... search unit, 23f, 30e ... image presentation unit, 23g, 30f ... selection condition presentation unit, 23h, 30g ... selection condition reception unit, 23i ... second Identification information adding unit, 23j: Identification information availability accepting unit, 23k: New registration unit, 23l: Batch image processing unit, 23m: Communication processing unit, 30a: Image data reading unit, 30h ... Identification information processing section

特開2007−281760号公報JP 2007-281760 A 特開2007−88993号公報JP 2007-88993 A

Claims (9)

被写体像を光電変換して画像データを生成する撮像素子と、
前記画像データを記録する記録部と、
前記画像データに基づく画像を表示する表示部と、
前記画像データに基づいて顔を検出する顔検出部と、
前記顔から前記顔の特徴を表す特徴点を抽出する顔認識部と、
前記特徴点に基づいて、前記顔を識別する識別情報を前記画像データに付加する第1識別情報付加部と、
前記識別情報に基づいて前記画像データを分類する顔分類処理部と、
前記記録部に記録されている画像データの内、前記識別情報が付加されていない画像データを検索する検索部と、
前記検索部が見つけ出した、前記識別情報が付加されていない画像データに基づいて、前記顔検出部が顔を検出した場合、その画像データに基づく画像を提示画像として前記表示部に表示させる画像提示部と、
前記提示画像に対し、前記顔分類処理部に分類されている画像データに基づく顔の人物を選択する選択条件を前記表示部に表示させる選択条件提示部と、
前記選択条件の選択若しくは非選択の命令をユーザ入力により受け付ける選択条件受付部と、
前記選択条件受付部が受け付けた選択条件に対応する前記識別情報を、前記提示画像の画像データに付加する第2識別情報付加部と、
を備えることを特徴とする電子カメラ。
An image sensor that photoelectrically converts a subject image to generate image data;
A recording unit for recording the image data;
A display unit for displaying an image based on the image data;
A face detection unit for detecting a face based on the image data;
A face recognition unit for extracting feature points representing the features of the face from the face;
A first identification information adding unit for adding identification information for identifying the face to the image data based on the feature points;
A face classification processing unit that classifies the image data based on the identification information;
A search unit for searching for image data to which the identification information is not added among the image data recorded in the recording unit;
When the face detection unit detects a face based on image data found by the search unit and without the identification information added, an image presentation is displayed on the display unit as an image based on the image data. And
A selection condition presenting unit that causes the display unit to display a selection condition for selecting a person on the face based on the image data classified by the face classification processing unit with respect to the presented image;
A selection condition receiving unit for receiving a selection or non-selection instruction of the selection condition by a user input;
A second identification information adding unit for adding the identification information corresponding to the selection condition received by the selection condition receiving unit to image data of the presented image;
An electronic camera comprising:
請求項1に記載の電子カメラにおいて、
前記選択条件受付部が、前記選択条件の非選択の命令を受け付けた場合、新たな識別情報を付加するか否かの命令をユーザ入力により受け付ける識別情報可否受付部と、
前記識別情報可否受付部が、新たな識別情報を付加する命令を受け付けた場合、前記提示画像の画像データに、新たな識別情報を付加する新規登録部と、をさらに備えることを特徴とする電子カメラ。
The electronic camera according to claim 1,
When the selection condition reception unit receives a non-selection command of the selection condition, an identification information availability reception unit that receives a command as to whether or not to add new identification information by user input,
The electronic apparatus further comprising: a new registration unit that adds new identification information to the image data of the presented image when the identification information availability receiving unit receives a command to add new identification information. camera.
請求項1又は請求項2に記載の電子カメラにおいて、
前記記録部は、前記顔分類処理部が分類した前記画像データを格納する顔分類フォルダを備えることを特徴とする電子カメラ。
The electronic camera according to claim 1 or 2,
The electronic camera according to claim 1, wherein the recording unit includes a face classification folder for storing the image data classified by the face classification processing unit.
請求項3に記載の電子カメラにおいて、
前記顔分類フォルダに格納されている前記画像データに対して、前記ユーザ入力により指定された人物の画像処理を一括して行う一括画像処理部をさらに備えることを特徴とする電子カメラ。
The electronic camera according to claim 3.
An electronic camera, further comprising: a batch image processing unit that batch-processes image processing of a person designated by the user input with respect to the image data stored in the face classification folder.
請求項3に記載の電子カメラにおいて、
前記表示部は、前記ユーザ入力を前記表示部の表示画面上で行うタッチパネルをさらに備えることを特徴とする電子カメラ。
The electronic camera according to claim 3.
The display unit further includes a touch panel that performs the user input on a display screen of the display unit.
請求項5に記載の電子カメラにおいて、
前記表示部の表示態様を制御する表示制御部をさらに備え、
前記表示制御部は、前記顔検出部が顔を検出した場合、前記顔の領域を示す顔検出枠を前記提示画像に重畳表示させ、
前記選択条件提示部は、前記顔分類フォルダに分類されている画像データに基づいて、人物ごとの縮小画像であるサムネイル画像を前記選択条件として前記表示部に一覧表示させ、
前記第2識別情報付加部は、ユーザによる前記タッチパネルの操作に応じて、前記顔検出枠に表示されている顔と、その顔と同一人物のサムネイル画像との関連付けを行うことにより、前記同一人物の識別情報を、前記提示画像の画像データに付加することを特徴とする電子カメラ。
The electronic camera according to claim 5,
A display control unit for controlling a display mode of the display unit;
When the face detection unit detects a face, the display control unit superimposes a face detection frame indicating the face area on the presented image,
The selection condition presenting unit displays a list of thumbnail images, which are reduced images for each person, as the selection condition on the display unit based on the image data classified in the face classification folder,
The second identification information adding unit associates the face displayed in the face detection frame with a thumbnail image of the same person as the face in response to an operation of the touch panel by a user. The identification information is added to the image data of the presented image.
請求項6に記載の電子カメラにおいて、
前記表示制御部は、前記顔検出部が顔を検出したにも拘わらず、前記顔認識部が、前記特徴点を抽出できなかった場合、前記顔検出枠の表示態様を変更することを特徴とする電子カメラ。
The electronic camera according to claim 6.
The display control unit changes a display mode of the face detection frame when the face recognition unit fails to extract the feature point even though the face detection unit detects a face. Electronic camera.
請求項6に記載の電子カメラにおいて、
前記選択条件提示部は、前記サムネイル画像を一覧表示する際、新規に作成された顔分類フォルダの人物を示すサムネイル画像を追加して表示させることを特徴とする電子カメラ。
The electronic camera according to claim 6.
The electronic camera according to claim 1, wherein when the thumbnail image is displayed as a list, the selection condition presenting unit additionally displays a thumbnail image indicating a person in the newly created face classification folder.
コンピュータに画像処理を実行させる画像処理プログラムであって、
電子カメラで記録された画像データを読み出す画像データ読出ステップと、
顔の特徴を表す特徴点に基づいて前記顔を識別する識別情報に基づいて画像データを分類する顔分類処理ステップと、
前記画像データ読出ステップで読み出した画像データの内、前記識別情報が付加されていない画像データを検索する検索ステップと、
前記検索ステップで見つけ出された、前記識別情報が付加されていない画像データに基づいて、顔を検出する顔検出ステップと、
前記顔検出ステップで顔を検出した場合、その画像データに基づく画像を提示画像として表示部に表示させる画像提示ステップと、
前記提示画像に対し、前記顔分類処理ステップで分類されている画像データに基づく顔の人物を選択する選択条件を前記表示部に表示させる選択条件提示ステップと、
前記選択条件の選択若しくは非選択の命令をユーザ入力により受け付ける選択条件受付ステップと、
前記選択条件受付ステップにて受け付けた選択条件に対応する前記識別情報を、前記提示画像の画像データに付加する識別情報付加ステップと、
を備えることを特徴とする画像処理プログラム。
An image processing program for causing a computer to execute image processing,
An image data reading step for reading image data recorded by the electronic camera;
A face classification processing step for classifying image data based on identification information for identifying the face based on a feature point representing a feature of the face;
A search step of searching for image data to which the identification information is not added among the image data read in the image data read step;
A face detection step for detecting a face based on the image data to which the identification information is not added, found in the search step;
An image presentation step of displaying an image based on the image data on the display unit as a presentation image when a face is detected in the face detection step;
A selection condition presenting step for causing the display unit to display a selection condition for selecting a person of the face based on the image data classified in the face classification processing step for the presented image;
A selection condition receiving step for receiving a selection or non-selection command of the selection condition by a user input;
An identification information adding step of adding the identification information corresponding to the selection condition received in the selection condition receiving step to the image data of the presented image;
An image processing program comprising:
JP2009019989A 2009-01-30 2009-01-30 Electronic camera and image processing program Expired - Fee Related JP5402026B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009019989A JP5402026B2 (en) 2009-01-30 2009-01-30 Electronic camera and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009019989A JP5402026B2 (en) 2009-01-30 2009-01-30 Electronic camera and image processing program

Publications (2)

Publication Number Publication Date
JP2010178160A true JP2010178160A (en) 2010-08-12
JP5402026B2 JP5402026B2 (en) 2014-01-29

Family

ID=42708645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009019989A Expired - Fee Related JP5402026B2 (en) 2009-01-30 2009-01-30 Electronic camera and image processing program

Country Status (1)

Country Link
JP (1) JP5402026B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105229999A (en) * 2013-03-28 2016-01-06 日本电气株式会社 Image recording structure, image recording process and program
JP2017126352A (en) * 2012-01-31 2017-07-20 パナソニックIpマネジメント株式会社 Image processing device and image processing method
JP2020014249A (en) * 2019-10-24 2020-01-23 パナソニックIpマネジメント株式会社 Intercom database generation system, intercom indoor device, intercom system, generation method, and program
CN112036241A (en) * 2020-07-27 2020-12-04 北京达佳互联信息技术有限公司 Image processing method and device, electronic equipment and storage medium
JP2021520530A (en) * 2019-04-01 2021-08-19 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Biological detection methods and devices, electronic devices and storage media

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005341394A (en) * 2004-05-28 2005-12-08 Nikon Corp Image sorting apparatus, image sorting program, and electronic camera
JP2006048326A (en) * 2004-08-04 2006-02-16 Toshiba Social Automation Systems Co Ltd Attending-and-leaving-office management system
JP2007272604A (en) * 2006-03-31 2007-10-18 Omron Corp Information processor and information processing method, and program
JP2008165701A (en) * 2007-01-05 2008-07-17 Seiko Epson Corp Image processing device, electronics equipment, image processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005341394A (en) * 2004-05-28 2005-12-08 Nikon Corp Image sorting apparatus, image sorting program, and electronic camera
JP2006048326A (en) * 2004-08-04 2006-02-16 Toshiba Social Automation Systems Co Ltd Attending-and-leaving-office management system
JP2007272604A (en) * 2006-03-31 2007-10-18 Omron Corp Information processor and information processing method, and program
JP2008165701A (en) * 2007-01-05 2008-07-17 Seiko Epson Corp Image processing device, electronics equipment, image processing method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017126352A (en) * 2012-01-31 2017-07-20 パナソニックIpマネジメント株式会社 Image processing device and image processing method
US10366477B2 (en) 2012-01-31 2019-07-30 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
CN105229999A (en) * 2013-03-28 2016-01-06 日本电气株式会社 Image recording structure, image recording process and program
EP2981059A4 (en) * 2013-03-28 2016-09-07 Nec Corp Image recording device, image recoding method, and program
JP2021520530A (en) * 2019-04-01 2021-08-19 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Biological detection methods and devices, electronic devices and storage media
JP7165742B2 (en) 2019-04-01 2022-11-04 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド LIFE DETECTION METHOD AND DEVICE, ELECTRONIC DEVICE, AND STORAGE MEDIUM
JP2020014249A (en) * 2019-10-24 2020-01-23 パナソニックIpマネジメント株式会社 Intercom database generation system, intercom indoor device, intercom system, generation method, and program
CN112036241A (en) * 2020-07-27 2020-12-04 北京达佳互联信息技术有限公司 Image processing method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP5402026B2 (en) 2014-01-29

Similar Documents

Publication Publication Date Title
CN101356805B (en) Image sensing device and its control method, and information processing device, printing device, printing data generating method
JP2010213090A (en) Imaging apparatus, imaging method, and imaging program
JP2010021921A (en) Electronic camera and image processing program
JP5402026B2 (en) Electronic camera and image processing program
CN100534134C (en) Apparatus, method and program for information processing
JP2007133838A (en) Image display method and image display program
JP2006180403A (en) Information processing apparatus
KR101629824B1 (en) Digital image processing apparatus and method for controlling thereof
KR101663226B1 (en) Digital image processing apparatus and digital image processing method
JP6417752B2 (en) Network camera system, information processing method, program
JP2008040851A (en) Information processor, information processing methodology, and computer program
US11825186B2 (en) Program, information processing device, and information processing system
JP4566732B2 (en) Information processing device
JP5195317B2 (en) Camera device, photographing method, and photographing control program
JP5487912B2 (en) Image processing apparatus and image processing program
JP2006237963A (en) Image display device, photographing device and image display method
JP2009071480A (en) Imaging device, imaging method, and program
JPH11262030A (en) Digital still camera and its operation control method
US8643744B2 (en) Image processing apparatus and image file management method
JP2007288409A (en) Imaging apparatus with image data classifying function and program
JP5232109B2 (en) Image management apparatus, image management method and program, and imaging apparatus
JP2012129659A (en) Image pickup device, operation control method, and program
JP5249090B2 (en) Display device
JP2006272729A (en) Image printing device, memory card, image printing method, image printing program and recording medium
KR20110083095A (en) Image processing apparatus for creating and playing image linked with multimedia contents and method for controlling the apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131014

R150 Certificate of patent or registration of utility model

Ref document number: 5402026

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees