JP2009110147A - Image processor and method therefor - Google Patents

Image processor and method therefor Download PDF

Info

Publication number
JP2009110147A
JP2009110147A JP2007280104A JP2007280104A JP2009110147A JP 2009110147 A JP2009110147 A JP 2009110147A JP 2007280104 A JP2007280104 A JP 2007280104A JP 2007280104 A JP2007280104 A JP 2007280104A JP 2009110147 A JP2009110147 A JP 2009110147A
Authority
JP
Japan
Prior art keywords
face
data
image data
registered
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007280104A
Other languages
Japanese (ja)
Other versions
JP5459527B2 (en
Inventor
Yasuhiko Teranishi
康彦 寺西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2007280104A priority Critical patent/JP5459527B2/en
Publication of JP2009110147A publication Critical patent/JP2009110147A/en
Application granted granted Critical
Publication of JP5459527B2 publication Critical patent/JP5459527B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of specifying easily attributes of a person concerned with a face image in a picked-up image. <P>SOLUTION: A face detecting part 101 detects face image data from picked-up image data, during image pick-up by an imaging device 1, and a face recognition part 102 finds similarity between it and registered face image data registered preliminarily in a face registration memory 56. Then, a person corresponding to registered face image data is specified based on the similarity, and meta-data such as a name associated therewith is displayed in association with the face image, during reproduction. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像データから顔画像を検出する画像処理装置およびその方法に関するものである。   The present invention relates to an image processing apparatus and method for detecting a face image from captured data.

デジタルスチルカメラやデジタルビデオカメラで、顔認識技術を応用したものが商品化されている。
特許文献1には、人物の顔を撮像した撮像画像から人物の顔の特徴点を抽出し、当該抽出した特徴点と、予め登録した人物に関する登録顔画像データとの一致度に基づいて顔認識を行う技術が開示されている。
Digital still cameras and digital video cameras that use facial recognition technology have been commercialized.
In Patent Document 1, a feature point of a person's face is extracted from a captured image obtained by capturing a person's face, and face recognition is performed based on the degree of coincidence between the extracted feature point and registered face image data related to a person registered in advance. Techniques for performing are disclosed.

特開平6−259534号公報JP-A-6-259534

ところで、デジタルスチルカメラやデジタルビデオカメラで子供の成長を記録して残したいという要望が強い。その際に、撮像画像内の子供の画像とその子供の年齢等の属性の関係が容易に特定できれば便利である。また、子供が複数いる場合には、どの子供を撮ったものかが分かれば、記録した画像の検索や管理等が容易になる。それ以外でも、一般的に、撮像画像内の顔画像について、その人物の属性が容易に特定できれば便利である。従来、このような要望を満たす機器は無かった。   By the way, there is a strong demand to record the growth of children with digital still cameras and digital video cameras. At this time, it is convenient if the relationship between the child image in the captured image and the attribute such as the age of the child can be easily specified. In addition, when there are a plurality of children, it is easy to search and manage the recorded images if the children are photographed. Other than that, it is generally convenient if the attribute of the person can be easily specified for the face image in the captured image. Conventionally, there has been no device that satisfies such a demand.

本発明はかかる事情に鑑みてなされたものであり、その目的は、撮像画像内の顔画像について、その人物の属性を容易に特定することを可能にする画像処理装置およびその方法を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing apparatus and method for easily specifying an attribute of a person with respect to a face image in a captured image. It is in.

上記目的を達成するために、本発明の画像処理装置は、撮像データ内の顔画像データを検出する顔検出手段と、予め登録された人物の登録顔画像データと、少なくとも当該人物の属性を示す属性データとを対応付けて記憶する記憶手段と、前記顔検出手段が検出した前記顔画像データと、前記記憶手段に記録された登録顔画像データとに基づいて、前記顔検出手段が検出した前記顔画像データが当該登録画像データの人物に対応するものであるか否かを判定する顔認識手段と、前記顔検出手段が検出した前記顔画像データが当該登録画像データの人物に対応するものであると前記顔認識手段が判定した場合に、前記記憶手段から読み出した当該登録された人物の前記属性データと、前記撮像データあるいは前記顔検出手段が検出した前記顔画像データとを関連付ける処理を行う制御手段とを有する。   In order to achieve the above object, an image processing apparatus of the present invention shows face detection means for detecting face image data in imaging data, registered face image data of a person registered in advance, and at least the attribute of the person Based on the storage means for storing attribute data in association with each other, the face image data detected by the face detection means, and the registered face image data recorded in the storage means, the face detection means detects the Face recognition means for determining whether or not face image data corresponds to a person in the registered image data; and the face image data detected by the face detection means corresponds to a person in the registered image data. If the face recognition means determines that there is, the attribute data of the registered person read from the storage means and the image data or the face image detected by the face detection means And a control means for processing for associating the data.

また、本発明の画像処理方法は、撮像データ内の顔画像データを検出する顔検出工程と、前記顔検出工程で検出した前記顔画像データと、予め登録された登録顔画像データとに基づいて、前記顔検出工程で検出した前記顔画像データが前記登録画像データの人物に対応するものであるか否かを判定する顔認識工程と、前記顔検出工程で検出した前記顔画像データが前記登録画像データの人物に対応するものであると前記顔認識工程で判定した場合に、前記登録された人物の前記属性データと、前記撮像データあるいは前記顔検出工程で検出した前記顔画像データとを関連付ける処理を行う制御工程とを有する。   The image processing method of the present invention is based on a face detection process for detecting face image data in imaging data, the face image data detected in the face detection process, and registered face image data registered in advance. A face recognition step for determining whether the face image data detected in the face detection step corresponds to a person in the registered image data; and the face image data detected in the face detection step When it is determined in the face recognition step that the image data corresponds to a person, the attribute data of the registered person is associated with the image data or the face image data detected in the face detection step. And a control process for performing processing.

本発明によれば、撮像画像内の顔画像について、その人物の属性を容易に特定することを可能にする画像処理装置およびその方法を提供することができる。   According to the present invention, it is possible to provide an image processing apparatus and a method thereof that make it possible to easily specify the attributes of a person in a face image in a captured image.

図1は、本発明の実施形態に係る撮像装置(デジタルビデオカメラ)1の構成例を示すブロック図である。
撮像装置1は、例えば、撮像光学系10、撮像素子12、マイク14、アナログ信号処理部16、A/D変換器18、内蔵メモリ20、音声・画像処理部24、HDD
I/F26、HDD28、カードI/F30、カード型記録媒体32、入出力I/F34、液晶モニタ36、スピーカ38、操作部40、出力端子42、内蔵電池50、カレンダー機能付き時計52、CPU54、顔登録メモリ56、外部電池58を有する。
内蔵メモリ20、音声・画像処理部24、HDD I/F26、カードI/F30、入出力I/F34およびCPU54は、データバス22に接続されている。
FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus (digital video camera) 1 according to an embodiment of the present invention.
The imaging apparatus 1 includes, for example, an imaging optical system 10, an imaging element 12, a microphone 14, an analog signal processing unit 16, an A / D converter 18, a built-in memory 20, an audio / image processing unit 24, and an HDD.
I / F 26, HDD 28, card I / F 30, card type recording medium 32, input / output I / F 34, liquid crystal monitor 36, speaker 38, operation unit 40, output terminal 42, built-in battery 50, calendar function clock 52, CPU 54, A face registration memory 56 and an external battery 58 are provided.
The built-in memory 20, sound / image processing unit 24, HDD I / F 26, card I / F 30, input / output I / F 34, and CPU 54 are connected to the data bus 22.

顔検出部101が本発明の顔検出手段、顔認識部102が本発明の顔認識手段、制御部100が本発明の制御手段、顔登録メモリ56が本発明の記憶手段に相当する。
また、本実施形態の撮像データが本発明の撮像データ、本実施形態の顔画像データが本発明の顔画像データ、本実施形態の登録顔画像データが本発明の登録顔画像データ、本実施形態のメタデータが本発明の属性データに相当する。
The face detection unit 101 corresponds to the face detection unit of the present invention, the face recognition unit 102 corresponds to the face recognition unit of the present invention, the control unit 100 corresponds to the control unit of the present invention, and the face registration memory 56 corresponds to the storage unit of the present invention.
Further, the imaging data of the present embodiment is the imaging data of the present invention, the face image data of the present embodiment is the face image data of the present invention, the registered face image data of the present embodiment is the registered face image data of the present invention, and the present embodiment. The metadata corresponds to the attribute data of the present invention.

図1に示すように、入出力I/F34には、液晶モニタ36、スピーカ38、操作部40および出力端子42が接続されている。
液晶モニタ36には、撮像データに応じた再生画像やデジタルビデオカメラの各種設定を変更するための設定画面などが表示される。上記の設定画面には後述の顔認識データを編集するための編集画面が含まれる。
操作部40は、入力釦や録画釦などを備えている。操作部の入力釦は、例えば、デジタルビデオカメラの各種の処理(顔登録の設定処理、顔認識撮像処理、顔登録更新処理等)の切り換え入力などを受け付ける。また、操作部40の録画釦は、録画の開始、終了の指示入力を受け付ける。出力端子42には、テレビモニター等が接続される。
As shown in FIG. 1, a liquid crystal monitor 36, a speaker 38, an operation unit 40, and an output terminal 42 are connected to the input / output I / F 34.
The liquid crystal monitor 36 displays a playback image corresponding to the captured data, a setting screen for changing various settings of the digital video camera, and the like. The setting screen includes an editing screen for editing face recognition data described later.
The operation unit 40 includes an input button, a recording button, and the like. The input button of the operation unit accepts, for example, a switching input of various processes (face registration setting process, face recognition imaging process, face registration update process, etc.) of the digital video camera. In addition, the recording button of the operation unit 40 receives an instruction input for starting and ending recording. A television monitor or the like is connected to the output terminal 42.

音声・画像処理部24は、例えば、内蔵メモリ20から読み出したデジタル撮像信号に所定の画像処理を施す。また、音声・画像処理部24は、所定のフォーマットに基づいてデジタル撮像信号およびデジタル音声信号をデータ圧縮処理して、メタデータと関連付けた記録データを生成する。   For example, the sound / image processing unit 24 performs predetermined image processing on the digital imaging signal read from the built-in memory 20. Further, the audio / image processing unit 24 performs data compression processing on the digital imaging signal and the digital audio signal based on a predetermined format, and generates recording data associated with the metadata.

音声・画像処理部24は、CPU54の指示により各種表示(顔認識時の枠表示など)の画像データを生成し、上記の画像データを内蔵メモリ20から読み出したオリジナルの撮像データに重畳させて液晶モニタ36に出力する。これによって、液晶モニタ36の画面は上記の各種表示が合成されたものになる。
また、音声・画像処理部24は、内蔵メモリ20から読み出したデジタル音声信号を音声圧縮処理してHDD I/F26に出力したり、HDD
I/F26から読み出したデジタル音声信号の復号処理を行う。また、音声・画像処理部24は、再生時に、復号したデジタル音声信号に応じたアナログ音声信号をスピーカ38に出力する。
The sound / image processing unit 24 generates image data for various displays (such as a frame display during face recognition) according to instructions from the CPU 54, and superimposes the image data on the original image data read from the built-in memory 20. Output to the monitor 36. As a result, the screen of the liquid crystal monitor 36 is a combination of the above various displays.
The audio / image processing unit 24 performs audio compression processing on the digital audio signal read from the built-in memory 20 and outputs it to the HDD I / F 26,
The digital audio signal read from the I / F 26 is decoded. The audio / image processing unit 24 outputs an analog audio signal corresponding to the decoded digital audio signal to the speaker 38 during reproduction.

CPU54の制御部100は、撮像装置1の新規購入時や時計用の内蔵電池の交換時等に、カレンダー機能付き時計52の設定がされていないと判断した場合には、液晶モニタ36にカレンダー機能付き時計52の設定を促す表示を行う。ユーザは、操作部40の入力釦を用いて、その時点の年月日を設定する。なお、カレンダー機能付き時計52は、例えば、内蔵電池50が供給する電力によって駆動される。また、撮像装置1の内蔵電池50以外のモジュールは、例えば、外部電池58が供給する電力によって駆動される。   When the control unit 100 of the CPU 54 determines that the calendar function-equipped clock 52 is not set, for example, when the image pickup apparatus 1 is newly purchased or when the internal battery for the clock is replaced, the calendar function is displayed on the liquid crystal monitor 36. A display prompting the user to set the clock 52 is performed. The user sets the current date using the input button of the operation unit 40. Note that the calendar function-equipped watch 52 is driven by, for example, power supplied from the internal battery 50. Further, modules other than the internal battery 50 of the imaging device 1 are driven by power supplied from the external battery 58, for example.

以下、撮像装置1の各種の処理を説明する。
<顔登録の設定処理>
図2は、図1に示す撮像装置1による顔登録の設定処理を説明するためのフローチャートである。
ユーザーが新たな人物の顔画像を登録したい場合には、操作部40の入力釦で顔登録モードを指定(選択)する。CPU54の制御部100は、顔登録モードが指定されたと判断すると(ステップST11)、液晶モニタ36に「対象人物を撮像して下さい」という指示を表示する(ステップST12)。
制御部100の機能は、CPU54が図示しないROMに格納されたプログラムを実行して実現される。その他に、制御部100は、当該プログラムの実行に従って撮像装置1の各動作、例えば、AF(オートフォーカス)演算や、AE(自動露出)演算などの機能を実行する。
Hereinafter, various processes of the imaging apparatus 1 will be described.
<Face registration setting process>
FIG. 2 is a flowchart for explaining face registration setting processing by the imaging apparatus 1 shown in FIG.
When the user wants to register a face image of a new person, the face registration mode is designated (selected) with the input button of the operation unit 40. When determining that the face registration mode has been designated (step ST11), the control unit 100 of the CPU 54 displays an instruction “please image the target person” on the liquid crystal monitor 36 (step ST12).
The function of the control unit 100 is realized by the CPU 54 executing a program stored in a ROM (not shown). In addition, the control unit 100 executes each operation of the imaging apparatus 1, for example, functions such as AF (autofocus) calculation and AE (automatic exposure) calculation according to the execution of the program.

そして、ステップST12の液晶モニタ36の表示に従って、ユーザーが撮像(撮像)を開始する(ステップST13)。これにより、撮像光学系10を通過した光が、撮像素子12により光電変換されて被写体像のアナログ撮像(画像)信号が生成され、これがアナログ信号処理部16で増幅された後に、A/D変換器18でデジタル撮像データに変換されて内蔵メモリ20に書き込まれる。また、外部の音声は、マイク14により電気信号に変換されてアナログ音声信号となり、これがアナログ信号処理部16で増幅された後に、A/D変換器18でデジタル音声データに変換されて内蔵メモリ20に書き込まれる。   Then, according to the display on the liquid crystal monitor 36 in step ST12, the user starts imaging (imaging) (step ST13). Thereby, the light that has passed through the imaging optical system 10 is photoelectrically converted by the imaging device 12 to generate an analog imaging (image) signal of the subject image, which is amplified by the analog signal processing unit 16, and then A / D converted. The digital image data is converted by the device 18 and written into the built-in memory 20. The external sound is converted into an electric signal by the microphone 14 to be an analog sound signal, which is amplified by the analog signal processing unit 16 and then converted into digital sound data by the A / D converter 18 to be stored in the built-in memory 20. Is written to.

次に、CPU54の顔検出部101は、内蔵メモリ20から読み出したデジタル撮像データを基に、撮像画像中の顔領域を探索する(ステップST14)。顔検出部101は、CPU54が、上記プログラムを実行して実現される機能である。
このとき、顔検出部101は、デジタル撮像データから特徴点を抽出して被写体の顔領域、顔の大きさ等を検出する。例えば、顔検出部101は、特開2001−16573号公報などに記載された特徴点抽出処理によって顔領域を抽出する。上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などが用いられる。なお、顔検出部101が顔領域検出に用いるアルゴリズムは上述したものに限定されず、任意のアルゴリズムを用いることができる。
Next, the face detection unit 101 of the CPU 54 searches for a face area in the captured image based on the digital image data read from the built-in memory 20 (step ST14). The face detection unit 101 is a function realized by the CPU 54 executing the above program.
At this time, the face detection unit 101 extracts feature points from the digital image data and detects the face area, the face size, and the like of the subject. For example, the face detection unit 101 extracts a face region by a feature point extraction process described in Japanese Patent Laid-Open No. 2001-16573. Examples of the feature points include eyebrow, eye, nose, lip end points, face contour points, head vertices, and lower chin points. Note that the algorithm used by the face detection unit 101 for face area detection is not limited to that described above, and an arbitrary algorithm can be used.

顔検出部101が撮像画像中の顔領域を検出した場合(ステップST14の“Y”)、音声・画像処理部24が、制御部100からの指示により、上記検出した顔領域の近傍にマーク画像をオリジナルの撮像データの画像に重畳して表示する新たな画像データを生成し、それに応じた画面を液晶モニタ36に表示する(ステップST15)。具体例として、液晶モニタ36には、図3に示す画面200が表示される。
顔検出部101が複数の顔領域を検出した場合には、音声・画像処理部24は、制御部100からの指示により、複数のマーク画像202,204を表示するが、そのうちの一つのマーク画像202の色を他とは異なるようにし、かつ点滅表示させる(ステップST15)。なお、制御部100は、顔検出部101が顔領域を特定できない場合には、一定時間後に顔登録の設定処理を終了する(ステップST14の“N”)。
When the face detection unit 101 detects a face area in the captured image (“Y” in step ST14), the sound / image processing unit 24 uses the instruction from the control unit 100 to mark a mark image near the detected face area. New image data to be displayed superimposed on the image of the original imaging data is generated, and a screen corresponding thereto is displayed on the liquid crystal monitor 36 (step ST15). As a specific example, the screen 200 shown in FIG. 3 is displayed on the liquid crystal monitor 36.
When the face detection unit 101 detects a plurality of face regions, the sound / image processing unit 24 displays a plurality of mark images 202 and 204 in response to an instruction from the control unit 100, and one of the mark images is displayed. The color 202 is made different from the others and blinked (step ST15). If the face detection unit 101 cannot identify the face area, the control unit 100 ends the face registration setting process after a predetermined time (“N” in step ST14).

ユーザーは、ステップST15で液晶モニタ36に表示された画面を見て、点滅中のマーク画像が付された人物画像が登録したい人物のものである場合には、例えば図3に示す操作部40の入力釦で「登録」を選択し(ステップST16の“登録”)、別の人物を登録したい場合には、図3に示す操作部40の入力釦で「別の人を選択」を選択する(ステップST16の“別の人を選択”)。
ステップST16で操作部40の入力釦を用いて「別の人を選択」が選択されると、音声・画像処理部24は、未選択の次の顔領域のマーク画像を点滅させる(ステップST17)。
When the user looks at the screen displayed on the liquid crystal monitor 36 in step ST15 and the person image with the blinking mark image is that of the person he wants to register, for example, the operation unit 40 shown in FIG. When “Register” is selected with the input button (“Register” in step ST16) and another person is to be registered, “Select another person” is selected with the input button of the operation unit 40 shown in FIG. “Select another person” in step ST16).
When “select another person” is selected using the input button of the operation unit 40 in step ST16, the sound / image processing unit 24 blinks the mark image of the next unselected face area (step ST17). .

一方、顔認識部102は、ステップST16で操作部40の入力釦を用いて「登録」が選択された場合には、点滅中のマーク画像に対応した顔領域内の顔画像の特徴点を抽出し、それに基づいて登録顔画像データを生成する(ステップST18)。例えば、顔認識部102は、顔検出部101が検出した顔画像の特徴点の位置、特徴点から求まる顔パーツの大きさ、各特徴点の相対距離等を示す登録人物の登録顔画像データを生成する。
顔認識部102は、予め決められた一定の基準に基づいて、上記生成した登録顔画像データが認識に十分なデータであるか否かを判断し、十分なデータであると判断した場合に、「登録OK」を液晶モニタ36に表示する。
On the other hand, when “Register” is selected using the input button of the operation unit 40 in step ST16, the face recognition unit 102 extracts the feature points of the face image in the face area corresponding to the blinking mark image. Based on this, registered face image data is generated (step ST18). For example, the face recognition unit 102 uses registered face image data of a registered person indicating the position of the feature point of the face image detected by the face detection unit 101, the size of the face part obtained from the feature point, the relative distance of each feature point, and the like. Generate.
The face recognizing unit 102 determines whether or not the generated registered face image data is sufficient data for recognition based on a predetermined standard, and when determining that the registered face image data is sufficient data, “Registration OK” is displayed on the liquid crystal monitor 36.

次にCPU54の制御部100は、「名前を登録しますか?」の表示を液晶モニタ36に表示する。ユーザーは、登録したい場合には、操作部40の入力釦で「はい」を選択して(ステップST19の“Y”)、さらに名前を入力する(ステップST20)。
ステップST20に続いて、あるいはステップST19で「いいえ」を選択した場合に、制御部100は、「生年月日を登録しますか?」の表示を液晶モニタ36に表示する(ステップST21)。ユーザーは、生年月日を登録したい場合には、操作部40の入力釦で「はい」を選択して(ステップST21の“Y”)、さらに生年月日を入力する(ステップST22)。
Next, the control unit 100 of the CPU 54 displays a message “Do you want to register a name?” On the liquid crystal monitor 36. When the user wants to register, the user selects “Yes” with the input button of the operation unit 40 (“Y” in Step ST19), and further inputs a name (Step ST20).
Subsequent to step ST20 or when “No” is selected in step ST19, the control unit 100 displays a message “Do you want to register the date of birth?” On the liquid crystal monitor 36 (step ST21). When the user wants to register the date of birth, the user selects “Yes” with the input button of the operation unit 40 (“Y” in step ST21), and further inputs the date of birth (step ST22).

CPU54は、上述した一連の操作・処理を終了した後に、ステップST18で生成した登録顔認識データと、ステップST20,ST22で入力した名前データあるいは/および生年月日データと、カレンダー機能付き時計52から取得した年月日データ(今回の登録年月日データ)とを関連づけて顔登録メモリ54に記録する(ステップST23)。関連づけとしては、例えば、一つのファイルとしてデータ格納することで行われる。
なお、顔登録メモリ56は、例えば不揮発性の半導体メモリ等で構成され、上述したように、登録顔画像データに関連つけて、その人物の名前データと生年月日データ、さらにその人物の登録顔画像データを更新した登録年月日データ等のメタデータを記録する。また、生年月日データおよび登録年月日データは、生年月日まで含めているが、生まれた年や年月で十分であれば、月日や日を省略しても勿論よい。
After completing the above-described series of operations / processes, the CPU 54 uses the registered face recognition data generated in step ST18, the name data or / and date of birth data input in steps ST20 and ST22, and the calendar function clock 52. The acquired date data (current registration date data) is associated and recorded in the face registration memory 54 (step ST23). As the association, for example, data is stored as one file.
The face registration memory 56 is composed of, for example, a non-volatile semiconductor memory. As described above, the face registration memory 56 is associated with the registered face image data, the person's name data and date of birth data, and the person's registered face. Record metadata such as registered date data that updated the image data. Further, the date of birth data and the date of registration are included up to the date of birth. However, if the year and date of birth are sufficient, the date and date may be omitted.

上述したように撮像装置1によれば、デジタル撮像データから自動的に顔画像を検出して、その登録顔画像データを生成し、それと入力された名前データや生年月日データとを自動的に関連付けて登録する。そのため、登録顔画像データの登録を簡単な操作で容易に行うことができる。   As described above, according to the imaging apparatus 1, a face image is automatically detected from digital imaging data, the registered face image data is generated, and the input name data and date of birth data are automatically generated. Register in association. Therefore, registration of registered face image data can be easily performed with a simple operation.

<顔認識撮像処理>
図4は、図1に示す撮像装置1における顔認識撮像処理を説明するためのフローチャートである。
ユーザーが顔認識撮像モードで撮像したい場合には、操作部40の入力釦で顔認識撮像モードを選択する。CPU54の制御部100は、顔認識撮像モードが選択されたことを検出すると(ステップST31の“Y”)、顔認識撮像モードでの撮像を開始する。これにより、撮像結果に応じたデジタル撮像データが内蔵メモリ20に書き込まれる。
<Face recognition imaging process>
FIG. 4 is a flowchart for explaining the face recognition imaging process in the imaging apparatus 1 shown in FIG.
When the user wants to capture an image in the face recognition imaging mode, the face recognition imaging mode is selected with the input button of the operation unit 40. When detecting that the face recognition imaging mode has been selected (“Y” in step ST31), the control unit 100 of the CPU 54 starts imaging in the face recognition imaging mode. As a result, digital imaging data corresponding to the imaging result is written into the built-in memory 20.

CPU54の顔検出部101は、内蔵メモリ20から読み出したデジタル撮像データを基に、撮像画像中の顔領域を検出(探索)する(ステップST32)。当該顔領域の検出処理は、例えば、前述したステップST14と同様の手法で行われる。
そして、CPU54の顔認識部102は、ステップST32で検出した顔領域内の顔画像データが、顔登録メモリ56に記憶されているいずれかの登録顔画像データと一致しているか否かを判定する顔認識処理を行う(ステップST33)。具体的には、顔認識部102は、顔検出部101で検出された顔の特徴点に基づいて、撮像人物の顔画像の特徴点の位置、各顔パーツの大きさ、各特徴点の相対距離などを演算する。次に顔認識部102は、上記の演算結果と登録顔画像データとを比較して所定の登録人物の顔と撮像人物の顔との相似度を求める。そして、顔認識部102は上記の相似度が閾値を上回る場合に撮像人物が所定の登録人物に合致すると判定する。なお、相似度を基めるアルゴリズムは上述したものに限定されず様々なアルゴリズムを用いることができる。
顔認識部102の機能は、CPU54が図示しないROMに格納されたプログラムを実行して実現される。
The face detection unit 101 of the CPU 54 detects (searches) a face area in the captured image based on the digital imaging data read from the built-in memory 20 (step ST32). The face area detection process is performed, for example, by the same method as in step ST14 described above.
Then, the face recognition unit 102 of the CPU 54 determines whether or not the face image data in the face area detected in step ST <b> 32 matches any registered face image data stored in the face registration memory 56. Face recognition processing is performed (step ST33). Specifically, the face recognition unit 102, based on the feature points of the face detected by the face detection unit 101, the position of the feature point of the face image of the captured person, the size of each face part, and the relative of each feature point Calculate the distance. Next, the face recognition unit 102 calculates the similarity between the face of a predetermined registered person and the face of the imaged person by comparing the above calculation result with the registered face image data. Then, the face recognition unit 102 determines that the imaged person matches a predetermined registered person when the similarity is greater than the threshold value. The algorithm based on the similarity is not limited to the above-described algorithm, and various algorithms can be used.
The function of the face recognition unit 102 is realized by the CPU 54 executing a program stored in a ROM (not shown).

CPU54の制御部100は、ステップST33で一致していると判定した場合には(ステップST34の“Y”)、当該一致の判定に用いられた登録顔画像データと対応付けて顔登録メモリ56に記憶されている名前データあるいは/および生年月日データ等のメタデータを読み出す(ステップST35)。   If the control unit 100 of the CPU 54 determines that they match in step ST33 ("Y" in step ST34), it is associated with the registered face image data used for the match determination in the face registration memory 56. Metadata such as stored name data and / or date of birth data is read (step ST35).

制御部100は、カレンダー機能付き時計52から、その時点の年月日データを読み出す。そして、制御部100は、ステップST35で読み出した生年月日データと、カレンダー機能付き時計52から取得したその時点の年月日データ(撮像年月日データ)とから、その人物の年齢データを算出する(ステップST36)。   The control unit 100 reads the current date data from the calendar function clock 52. And the control part 100 calculates the age data of the person from the date-of-birth date data read in step ST35 and the date data (imaging date data) at that time acquired from the calendar function clock 52. (Step ST36).

また、制御部100は、上記算出した年齢データを基に、就学年齢であると判断した場合には、例えば小学3年といった学年データを生成する。また、制御部100は、カレンダー機能付き時計52から取得した年月日データがその人物の誕生日を示すか否か等の判断を行う。これらは判断は、CPU54が備える演算機能、判断機能を用いて行われる。   In addition, when the control unit 100 determines that the school age is based on the calculated age data, the control unit 100 generates grade data such as the third grade of elementary school, for example. In addition, the control unit 100 determines whether the date data acquired from the calendar function-equipped clock 52 indicates the birthday of the person. These determinations are made using a calculation function and a determination function provided in the CPU 54.

音声・画像処理部24は、制御部100からの指示に基づいて、上述したように顔登録メモリ56から読み出したメタデータである名前データ、上述したように生成した年齢データ、学年データ、誕生日であることを示すデータのうち少なくとも一つを、撮像中の画面の顔領域以外の領域であって、顔領域の近傍の領域に重畳して表示する新たな画像データを生成する(ステップST37)。
当該新たな画像データは、図1に示す入出力I/F34を介して液晶モニタ36、スピーカ38、操作部40および出力端子42の少なくとも一つに出力される。
これにより、液晶モニタ36には、例えば、図5に示すように、各顔画像領域の近傍に、その顔画像に対応した人物の名前と、年齢と、誕生日である否かを示す情報とが示される画面210が表示される。
Based on the instruction from the control unit 100, the sound / image processing unit 24 reads the name data which is the metadata read from the face registration memory 56 as described above, the age data generated as described above, the grade data, the birthday At least one of the data indicating that the image is a region other than the face region of the screen being imaged and is superimposed on the region near the face region to generate new image data to be displayed (step ST37). .
The new image data is output to at least one of the liquid crystal monitor 36, the speaker 38, the operation unit 40, and the output terminal 42 via the input / output I / F 34 shown in FIG.
Thereby, for example, as shown in FIG. 5, in the liquid crystal monitor 36, in the vicinity of each face image area, the name of the person corresponding to the face image, the age, and information indicating whether it is a birthday or not Is displayed.

制御部100は、撮像を開始して顔認識処理が終了した時点から、所定の期間(例えば、1分間)経過したか否かを判断し、経過したと判断した場合(ステップST38の“Y”)には、処理を終了する。
一方、制御部100は、ステップST38で経過していないと判断した場合(ステップST38の“N”)には、検出した全ての顔領域について顔認識処理を終了したかを判断し(ステップST39)、終了していないと判断した場合にはステップST33の処理に戻り、未処理の顔領域についての顔認識処理を開始する。
また、制御部100は、ステップST39において終了したと判断した場合(ステップST38の“N”)には、例えば、ステップST37で生成した重畳後の画像データをHDD28あるいはカード型記録媒体32に書き込む(ステップST40)。
HDD28への書き込みは、HDD I/F26を介して行われる。また、カード型記録媒体32への書き込みはカードI/F30を介して行われる。カード型記録媒体32は、公知の半導体メモリなどで構成される。
The control unit 100 determines whether or not a predetermined period (for example, 1 minute) has elapsed since the start of imaging and the face recognition processing was completed, and when determining that it has elapsed ("Y" in step ST38) ) Terminates the process.
On the other hand, when determining that the time has not elapsed in step ST38 ("N" in step ST38), the control unit 100 determines whether the face recognition processing has been completed for all detected face regions (step ST39). If it is determined that the process has not been completed, the process returns to step ST33 to start face recognition processing for an unprocessed face area.
In addition, when the control unit 100 determines that the processing has been completed in step ST39 (“N” in step ST38), for example, the superimposed image data generated in step ST37 is written in the HDD 28 or the card type recording medium 32 ( Step ST40).
Writing to the HDD 28 is performed via the HDD I / F 26. Further, writing to the card type recording medium 32 is performed via the card I / F 30. The card type recording medium 32 is configured by a known semiconductor memory or the like.

このとき、制御部100は、重畳後の画像データをそのままHDD28あるいはカード型記録媒体32に書き込んで良いか否かをユーザーに確認する表示を液晶モニタ36に出力し、ユーザーが重畳しても良いという選択をした場合に書き込みを開始するようにしてもよい。このとき、重畳後の画像データを液晶モニタ36に表示してユーザーに確認させてもよい。
なお、ユーザーが重畳しない状態での書き込みを選択した場合には、制御部100は、重畳前の撮像データと、名前データや年齢データ等のメタデータとを関連付けて個別にHDD28あるいはカード型記録媒体32に書き込む。
なお、制御部100は、ユーザーからの選択なしに、いずれかの形式で書き込みを行ってもよい。
At this time, the control unit 100 outputs a display for confirming to the user whether or not the superimposed image data can be directly written to the HDD 28 or the card type recording medium 32, and the user may superimpose the data. Writing may be started when the selection is made. At this time, the superimposed image data may be displayed on the liquid crystal monitor 36 to allow the user to confirm.
When the user selects writing without superimposing, the control unit 100 associates the imaging data before superimposition with metadata such as name data and age data individually and associates with the HDD 28 or the card-type recording medium. Write to 32.
Note that the control unit 100 may perform writing in any format without selection from the user.

音声・画像処理部24は、制御部100からの指示により、再生時にHDD28あるいはカード型記録媒体32から読み出した画像データを再生するが、当該画像データに対応付けられたメタデータを再生画面に重畳するか否かをユーザーの指示に応じて選択するようにしてもよい。
なお、制御部100は、メタデータとして、年齢データのかわりに、生年月日データと撮像時の年月日データを記録するようにしても良い。この場合には、制御部100は、再生時に、メタデータの中から生年月日データと撮像時の年月日データを取り出して、撮像時の各人物の年齢データを算出するようにしても良い。
The audio / image processing unit 24 reproduces the image data read from the HDD 28 or the card type recording medium 32 at the time of reproduction according to an instruction from the control unit 100, but superimposes metadata associated with the image data on the reproduction screen. Whether or not to do so may be selected according to a user instruction.
Note that the control unit 100 may record birth date data and date data at the time of imaging as metadata instead of age data. In this case, at the time of reproduction, the control unit 100 may extract birth date data and date data at the time of imaging from the metadata, and calculate age data of each person at the time of imaging. .

上述したように、撮像装置1は、顔認識撮像処理において、登録した人物の顔画像を撮像データから自動的に検出して、その人物のメタデータを表示できる。そのため、その表示されたメタデータを基にユーザーに再生画像に映し出された人物の年齢や名前等の属性を即座に知ることができる。また、撮像装置1は、再生日が誕生日である場合には、その人物の顔画像に誕生日であることを示す装飾画像を表示することで、遊び心、面白みがある再生を行うことができる。。   As described above, in the face recognition imaging process, the imaging apparatus 1 can automatically detect a registered person's face image from the imaging data and display the metadata of the person. Therefore, it is possible to immediately know the attributes such as the age and name of the person displayed in the reproduced image to the user based on the displayed metadata. In addition, when the reproduction date is a birthday, the imaging device 1 can perform a playful and interesting reproduction by displaying a decoration image indicating the birthday on the person's face image. . .

<顔登録更新処理>
図6は、図1に示す撮像装置1における顔登録更新処理を説明するためのフローチャートである。
CPU54の制御部100は、撮像装置1の電源投入されたことを検出すると(ステップST51の“Y”)、カレンダー機能付き時計52からその時点の年月日データを取得する(ステップST52)。
制御部100は、顔登録メモリ56に登録された各々の登録顔画像データに対応付けられた生年月日データ等のメタデータと、その登録顔画像データの登録年月日データとを読み出す。
そして、制御部100は、当該読み出した生年月日データと、カレンダー機能付き時計52から読み出した現時点の年月日データとから、当該登録顔画像データに対応した人物の年齢データを算出する(ステップST53)。
<Face registration update process>
FIG. 6 is a flowchart for explaining face registration update processing in the imaging apparatus 1 shown in FIG.
When the control unit 100 of the CPU 54 detects that the power of the imaging apparatus 1 is turned on (“Y” in step ST51), the control unit 100 acquires date data at that time from the calendar function clock 52 (step ST52).
The control unit 100 reads metadata such as birth date data associated with each registered face image data registered in the face registration memory 56 and registered date data of the registered face image data.
And the control part 100 calculates the age data of the person corresponding to the said registration face image data from the read birth date data and the present date data read from the clock 52 with a calendar function (step). ST53).

制御部100は、上記読み出した登録年月日データと、ステップST52で取得した現在の年月日データとから、登録顔画像データを登録してからの経過日数データを算出する(ステップST54)。   The control unit 100 calculates elapsed date data after registering the registered face image data from the read registration date data and the current date data acquired in step ST52 (step ST54).

制御部100は、ステップST53で算出した年齢データに対応したしきい値を顔登録メモリ56から取得する。
当該しきい値は、当該年齢に対応して出荷時に予め複数規定されており、例えば、生後6ヶ月までは2ヶ月、2歳までは6ヶ月、12歳までは12ヶ月、18歳までは24ヶ月、それ以上であれば999ヶ月(実質的に更新されなくなる)のような数値である。
制御部100は、ステップST54で算出した経過日数データと、上記取得したしきい値とを比較する(ステップST55)。そして、制御部100は、少なくとも一つの登録顔画像データについて、経過日数データが示す日数が多いと判断した場合(顔登録更新が必要な場合:ステップST56の“Y”)には、ステップST57に進む。一方、制御部100は、全ての登録顔画像データについて、経過日数データが示す日数が多くはないと判断した場合(顔登録更新が不要な場合:ステップST56の“N”)には、顔登録更新処理を終了する。
The control unit 100 acquires a threshold value corresponding to the age data calculated in step ST53 from the face registration memory 56.
A plurality of threshold values are preliminarily defined at the time of shipment corresponding to the age. For example, 2 months up to 6 months after birth, 6 months up to 2 years old, 12 months up to 12 years old, 24 up to 18 years old. If it is more than a month, it is a numerical value such as 999 months (substantially no update).
The control unit 100 compares the elapsed day data calculated in step ST54 with the acquired threshold value (step ST55). If the controller 100 determines that the number of days indicated by the elapsed day data is large for at least one registered face image data (if face registration update is required: “Y” in step ST56), the control unit 100 proceeds to step ST57. move on. On the other hand, when it is determined that the number of days indicated by the elapsed days data is not large for all the registered face image data (when face registration update is not required: “N” in step ST56), the control unit 100 performs face registration. The update process ends.

制御部100は、顔登録更新処理が必要な場合(ステップST56の“Y”)、液晶モニタ36に「更新対象人物を撮像して下さい」という指示を表示する(ステップST57)。そして、ユーザーが撮像を開始し、撮像結果に応じたデジタル撮像データが内蔵メモリ20に書き込まれる(ステップST58)。
そして、顔検出部101は、内蔵メモリ20から読み出したデジタル撮像データを基に、撮像画像中の顔領域を検出する(ステップST59)。当該顔領域の検出は、図2に示すステップST14で説明した処理で行われる。
When face registration update processing is required (“Y” in step ST56), control unit 100 displays an instruction “capture the person to be updated” on liquid crystal monitor 36 (step ST57). Then, the user starts imaging, and digital imaging data corresponding to the imaging result is written in the built-in memory 20 (step ST58).
Then, the face detection unit 101 detects a face area in the captured image based on the digital image data read from the built-in memory 20 (step ST59). The detection of the face area is performed by the process described in step ST14 shown in FIG.

顔検出部101が撮像中の画像の中に顔領域を検出された場合(ステップST59の“Y”)、音声・画像処理部24は、上記検出した顔領域の付近にマーク画像を重畳した画像データを生成して、それに応じた画面を液晶モニタ36に表示する。具体例としては、液晶モニタ36には、図7に示す画面220が表示される。
音声・画像処理部24は、顔検出部101が複数の顔領域を検出した場合には、複数のマーク画像220,222を表示し、未選択の一つの顔領域の付近のマーク画像222の色を他とは変えて、かつ点滅させる(ステップST60)。そのとき、点滅させたマーク画像222の顔領域付近にその人物の名前を表示してもよい。
When the face detection unit 101 detects a face area in the image being captured (“Y” in step ST59), the audio / image processing unit 24 superimposes a mark image in the vicinity of the detected face area. Data is generated and a screen corresponding to the data is displayed on the liquid crystal monitor 36. As a specific example, a screen 220 shown in FIG. 7 is displayed on the liquid crystal monitor 36.
When the face detection unit 101 detects a plurality of face regions, the sound / image processing unit 24 displays a plurality of mark images 220 and 222, and the color of the mark image 222 near one unselected face region. Is changed from others and blinks (step ST60). At that time, the name of the person may be displayed near the face area of the blinking mark image 222.

音声・画像処理部24は、複数の顔領域の顔画像の特徴点に基づいて生成した顔画像データが、登録更新するべき(登録後の経過日数データの方が閾値よりも大きい)人物の顔登録メモリ56に記憶された登録顔画像データと最も相似度の高い顔の顔領域のマーク画像を最初に点滅させる。
音声・画像処理部24は、例えば、図7に示すように、液晶モニタ36内に更新対象の人物の顔画像の近傍にそれぞれマーク画像220,222を表示し、上記基準によりマーク画像222を最初に点滅させる。
ユーザーは、点滅中のマーク画像が付された人物が登録更新したい人物である場合には、操作部40の入力釦で「登録更新」を選択する(ステップST61の“登録更新”)。ユーザーは、登録更新したい人物が別の人物である場合には、「別の人を選択」を選択する(ステップST61の“別の人を選択“)。音声・画像処理部24は、「別の人を選択」が選択された場合に、未選択の一つの顔領域近くのマークの色を他とは変えて、かつ点滅させる(ステップST62)。この一つの顔領域は、次に相似度の高い顔の顔領域である。
The voice / image processing unit 24 updates the face image data generated based on the feature points of the face images of the plurality of face regions (the elapsed day data after registration is larger than the threshold value). The mark image of the face area of the face having the highest similarity with the registered face image data stored in the registration memory 56 is first blinked.
For example, as shown in FIG. 7, the audio / image processing unit 24 displays mark images 220 and 222 in the vicinity of the face image of the person to be updated in the liquid crystal monitor 36, respectively. Flash on.
When the person to whom the blinking mark image is added is the person who wants to update the registration, the user selects “registration update” with the input button of the operation unit 40 (“registration update” in step ST61). If the person to be registered / updated is another person, the user selects “select another person” (“select another person” in step ST61). When “select another person” is selected, the sound / image processing unit 24 changes the color of the mark near one face area that has not been selected and blinks (step ST62). This one face area is a face area having the next highest similarity.

顔認識部102は、操作部40の入力釦で「登録更新」が選択された場合(ステップST61の“登録更新”)には、検出した顔の特徴点に基づいて生成した新たな顔画像データで、既に顔登録メモリ56に格納されている登録顔画像データを置き換えて記録する(ステップST63)。また、制御部100は、カレンダー機能付き時計52から取得したその時点の年月日データで、顔登録メモリ56に記録されている登録年月日データを置き換えて記録する。
制御部100は、ステップST56で顔登録更新が必要である場合と判断された全ての登録顔画像データについて顔登録更新が終了したか否かを判断し、終了したと判断した場合(ステップST64の“Y”)は処理を終了し、そうでない場合には未選択の一つの顔領域の付近のマーク画像の色を他とは変えて、かつ点滅させる(ステップST60)。
When “registration update” is selected with the input button of the operation unit 40 (“registration update” in step ST61), the face recognition unit 102 generates new face image data generated based on the detected face feature points. Thus, the registered face image data already stored in the face registration memory 56 is replaced and recorded (step ST63). In addition, the control unit 100 replaces the registered date data recorded in the face registration memory 56 with the current date data acquired from the calendar function clock 52 and records the data.
The control unit 100 determines whether or not face registration update has been completed for all registered face image data determined to require face registration update in step ST56, and determines that it has ended (in step ST64). “Y”) terminates the process, otherwise, the color of the mark image near one unselected face area is changed from the other and blinked (step ST60).

なお、顔登録更新処理は、上述した以外にも、以下に示すように行っても良い。
上述した顔登録更新処理は、図6に示すように撮像装置1の電源投入をトリガーとして開始された。以下に示す例では、顔認識撮像処理中に、顔登録更新処理を行う。
すなわち、顔検出部101は、撮像中に得られたデジタル撮像データから顔領域を検出する。そして、顔認識部102が、顔登録メモリ56に登録された登録顔画像データのうち、上記検出した顔領域に対して顔認識処理を実行して生成した顔画像データとの間で相似度が最も高いものを特定し、その登録顔画像データに対応したメタデータが示すその人物の生年月日データおよび登録年月日データを読み出す。
In addition to the above, the face registration update process may be performed as shown below.
The face registration update process described above was started with the power-on of the imaging apparatus 1 as a trigger as shown in FIG. In the example shown below, face registration update processing is performed during face recognition imaging processing.
That is, the face detection unit 101 detects a face area from digital image data obtained during imaging. Then, the similarity between the face recognition unit 102 and the face image data generated by executing the face recognition process on the detected face area among the registered face image data registered in the face registration memory 56 is similar. The highest one is specified, and the birth date data and registration date data of the person indicated by the metadata corresponding to the registered face image data are read out.

そして、制御部100は、カレンダー機能付き時計52からその時点の年月日データを取得する。次に、制御部100は、当該取得した年月日データと、上記検出した顔領域に対応した人物の生年月日データとから年齢データを算出し、上記年月日データと登録年月日データとから登録(または登録更新)されてからの経過日数データを算出する。
そして、制御部100は、所定の演算処理により、上記算出した相似度、年齢データ、経過日数データを基に、所定の指標値を決定する。当該決定は、演算式を用いてもよいし、予め用意した表データを用いてもよい。ここで、上記指標値は、例えば、相似度が低いほど大きく、年齢が低いほど大きく、経過日数が長いほど大きくなるように決定される。
これにより、顔の変化が大きく、年齢が低く、経過日数が長いほど、顔登録更新処理が行われ易くできる。
And the control part 100 acquires the date data at the time from the timepiece 52 with a calendar function. Next, the control unit 100 calculates age data from the acquired date data and the birth date data of the person corresponding to the detected face area, and the date data and the registration date data are calculated. Elapsed days data since registration (or registration renewal) is calculated.
Then, the control unit 100 determines a predetermined index value based on the calculated similarity, age data, and elapsed day data by a predetermined calculation process. For the determination, an arithmetic expression may be used, or table data prepared in advance may be used. Here, for example, the index value is determined to be larger as the similarity is lower, larger as the age is lower, and larger as the elapsed days are longer.
Thereby, the face registration update process can be performed more easily as the change of the face is larger, the age is lower, and the elapsed days are longer.

制御部100は、上記決定した指標値が、所定のしきい値を超えている場合に、上記顔認識処理で生成した顔画像データと、それを取得したときの年月日データと、それと最も相似度が高い登録顔画像データに対応するメタデータ(名前データ等)とを更新対象として顔登録メモリ56の所定の領域に記録する。
制御部100は、上記決定した指標値が上記しきい値を超えた場合に、撮像終了等のタイミングで液晶モニタ36に、「登録更新候補あり。更新モードにしますか?」の表示をする。ユーザーが操作部40の入力ボタンで、「はい」を選択した場合、音声・画像処理部24は、顔登録メモリ56に記録してある画像データを再生して出力し、さらに
音声・画像処理部24は、上記更新対象の登録顔画像データに対応した顔領域の近傍にマーク画像とそれに対応した名前データを表示する。そして、制御部100は、図7に示すように、液晶モニタ36に「更新しますか?」を示す画面220を表示する。
When the determined index value exceeds a predetermined threshold, the control unit 100 generates the face image data generated by the face recognition process, the date data when it is acquired, Metadata (name data or the like) corresponding to registered face image data having a high degree of similarity is recorded in a predetermined area of the face registration memory 56 as an update target.
When the determined index value exceeds the threshold value, the control unit 100 displays “Registration update candidate available. Do you want to enter the update mode” on the liquid crystal monitor 36 at the timing of the end of imaging or the like. When the user selects “Yes” with the input button of the operation unit 40, the audio / image processing unit 24 reproduces and outputs the image data recorded in the face registration memory 56, and further, the audio / image processing unit 24. A mark image and name data corresponding to the mark image are displayed in the vicinity of the face area corresponding to the registered face image data to be updated. Then, as illustrated in FIG. 7, the control unit 100 displays a screen 220 indicating “Do you want to update?” On the liquid crystal monitor 36.

ユーザーが操作部40の入力釦で、「はい」を選択した場合、制御部100は顔登録メモリ56に記録してある、当該登録人物の登録顔画像データを更新する。すなわち、この登録人物の登録顔画像データを前述の所定の領域に格納している顔画像データで置き換え、登録年月日データを前述の所定の領域に格納している当該顔画像データを取得した年月日データで置き換える。   When the user selects “Yes” with the input button of the operation unit 40, the control unit 100 updates the registered face image data of the registered person recorded in the face registration memory 56. That is, the registered face image data of the registered person is replaced with the face image data stored in the predetermined area, and the face image data in which the registered date data is stored in the predetermined area is acquired. Replace with date data.

撮像装置1によれば、上述したように登録顔画像データの更新の必要性を自動的に判断し、更新が必要な場合に更新を促す操作画面を表示することで、子供等のように成長に伴って顔の特徴が変わるような人物についても、顔認証処理に適した登録顔画像データを用いることができ、顔認識処理で認識エラーが生じる可能性を低くできる。   According to the imaging device 1, as described above, the necessity of updating the registered face image data is automatically determined, and when the update is necessary, an operation screen that prompts the update is displayed, so that it grows up like a child or the like. For a person whose facial features change along with this, registered face image data suitable for the face authentication process can be used, and the possibility of a recognition error occurring in the face recognition process can be reduced.

本発明は上述した実施形態には限定されない。
すなわち、当業者は、本発明の技術的範囲またはその均等の範囲内において、上述した実施形態の構成要素に関し、様々な変更、コンビネーション、サブコンビネーション、並びに代替を行ってもよい。
The present invention is not limited to the embodiment described above.
That is, those skilled in the art may make various modifications, combinations, subcombinations, and alternatives regarding the components of the above-described embodiments within the technical scope of the present invention or an equivalent scope thereof.

上述した実施形態では、本発明のメタデータとして、登録顔画像データに対応した人物の名前データ、生年月日データ、登録年月日データ等を例示したが、それ以外に、例えば、所属団体、趣味、性別等の人物あるいは画像の属性を示すものを用いてもよい。   In the above-described embodiment, as the metadata of the present invention, the name data of the person corresponding to the registered face image data, the date of birth data, the date of registration data, and the like are exemplified. You may use what shows the attribute of a person or an image, such as hobbies and sex.

また、上述した実施形態では、顔認識撮像処理において、検出した顔領域の近傍に顔認証処理で得たメタデータを重畳させる場合、すなわち顔画像データにメタデータを関連付ける場合を例示したが、本発明は、メタデータを撮像データに関連付けるようにしてもよい。   Further, in the above-described embodiment, in the face recognition imaging process, the case where the metadata obtained by the face authentication process is superimposed on the vicinity of the detected face area, that is, the case where the metadata is associated with the face image data is exemplified. The invention may associate metadata with imaging data.

また、上述した実施形態では、撮像装置1として、デジタルビデオカメラを例示したが、例えば、撮像装置1は、デジタルスチルカメラであってもよい。また、本発明の画像処理装置は、撮像装置以外にも、コンピュータがプログラムを実行する機能として実現してもよい。   In the above-described embodiment, a digital video camera is exemplified as the imaging device 1, but the imaging device 1 may be a digital still camera, for example. Further, the image processing apparatus of the present invention may be realized as a function for a computer to execute a program in addition to the imaging apparatus.

また、上述した実施形態では、顔登録処理、顔認識撮像処理および顔登録更新処理の全ての処理を実行可能な撮像装置1を例示したが、顔認識撮像処理および顔登録更新処理の少なくとも一方の処理を行わないようにしてもよい。   In the above-described embodiment, the imaging apparatus 1 that can execute all the processes of the face registration process, the face recognition imaging process, and the face registration update process is illustrated. However, at least one of the face recognition imaging process and the face registration update process is exemplified. Processing may not be performed.

また、上述した実施形態では、撮像データ内で認識された顔画像に対応付けて名前等のメタデータを表示する場合を例示したが、メタデータを撮像データや撮像データ内の所定の顔画像が含まれるフレームを検索したり、そのような撮像データやフレームを所定の目的で管理するために用いてもよい。   In the above-described embodiment, the case where metadata such as a name is displayed in association with the face image recognized in the imaging data is exemplified. However, the metadata is the imaging data or a predetermined face image in the imaging data. It may be used to search for included frames or to manage such imaging data and frames for a predetermined purpose.

また、上述した実施形態では、カレンダー機能付き時計52が年月日データを生成する場合を例示したが、年データ、あるいは年月データを生成し、年あるいは月を単位として処理を行うようにしてもよい。   Further, in the above-described embodiment, the case where the calendar function clock 52 generates year / month / day data is exemplified, but year data or year / month data is generated, and processing is performed in units of year or month. Also good.

また、上述した実施形態では、CPU54が制御部100、顔検出部101および顔認識部102の機能を実行する場合を例示したが、少なくとも一つの機能を専用のハードウェアによって実現してもよい。また、音声・画像処理部24の機能をCPU54がプログラムを実行することで実現してもよい。   In the above-described embodiment, the case where the CPU 54 executes the functions of the control unit 100, the face detection unit 101, and the face recognition unit 102 has been exemplified. However, at least one function may be realized by dedicated hardware. Further, the function of the sound / image processing unit 24 may be realized by the CPU 54 executing a program.

本発明は、撮像データに含まれる顔画像を処理するシステムに適用可能である。   The present invention is applicable to a system that processes a face image included in imaging data.

本発明の実施形態に係る撮像装置(デジタルビデオカメラ)の構成例を示すク図である。1 is a schematic diagram illustrating a configuration example of an imaging apparatus (digital video camera) according to an embodiment of the present invention. 図1に示す撮像装置による顔登録の設定処理を説明するためのフローチャートである。3 is a flowchart for explaining face registration setting processing by the imaging apparatus shown in FIG. 1. 図1に示す撮像装置の顔登録処理に用いられる画面を説明するための図である。It is a figure for demonstrating the screen used for the face registration process of the imaging device shown in FIG. 図1に示す撮像装置1における顔認識撮像処理を説明するためのフローチャートである。3 is a flowchart for explaining face recognition imaging processing in the imaging apparatus 1 shown in FIG. 1. 図1に示す撮像装置の顔認識撮像処理に用いられる画面を説明するための図である。It is a figure for demonstrating the screen used for the face recognition imaging process of the imaging device shown in FIG. 図1に示す撮像装置1における顔登録更新処理を説明するためのフローチャートである。3 is a flowchart for explaining face registration update processing in the imaging apparatus 1 shown in FIG. 1. 図1に示す撮像装置の顔登録更新処理に用いられる画面を説明するための図である。It is a figure for demonstrating the screen used for the face registration update process of the imaging device shown in FIG.

符号の説明Explanation of symbols

1…撮像装置
10…撮影光学系
12…撮像素子
14…マイク
16…アナログ信号処理部
18…A/D変換器
20…内蔵メモリ
22…データバス
24…音声・画像処理部
26…HDD I/F
28…HDD
30…カードI/F
32…カード型記録媒体
34…入出力I/F
36…液晶モニタ
38…スピーカ
40…操作部
42…出力端子
50…内蔵電池
52…カレンダー機能付き時計
54…CPU
56…顔登録メモリ
58…外部電池
100…制御部
101…顔検出部
102…顔認識部


DESCRIPTION OF SYMBOLS 1 ... Imaging device 10 ... Imaging optical system 12 ... Imaging device 14 ... Microphone 16 ... Analog signal processing part 18 ... A / D converter 20 ... Built-in memory 22 ... Data bus 24 ... Audio | voice / image processing part 26 ... HDD I / F
28 ... HDD
30 ... Card I / F
32 ... Card type recording medium 34 ... Input / output I / F
36 ... Liquid crystal monitor 38 ... Speaker 40 ... Operation unit 42 ... Output terminal 50 ... Built-in battery 52 ... Clock 54 with calendar function ... CPU
56 ... Face registration memory 58 ... External battery 100 ... Control unit 101 ... Face detection unit 102 ... Face recognition unit


Claims (4)

撮像データ内の顔画像データを検出する顔検出手段と、
予め登録された人物の登録顔画像データと、少なくとも当該人物の属性を示す属性データとを対応付けて記憶する記憶手段と、
前記顔検出手段が検出した前記顔画像データと、前記記憶手段に記録された登録顔画像データとに基づいて、前記顔検出手段が検出した前記顔画像データが当該登録画像データの人物に対応するものであるか否かを判定する顔認識手段と、
前記顔検出手段が検出した前記顔画像データが当該登録画像データの人物に対応するものであると前記顔認識手段が判定した場合に、前記記憶手段から読み出した当該登録された人物の前記属性データと、前記撮像データあるいは前記顔検出手段が検出した前記顔画像データとを関連付ける処理を行う制御手段と
を有することを特徴とする画像処理装置。
Face detection means for detecting face image data in the image data;
Storage means for storing the registered face image data of a person registered in advance and attribute data indicating at least the attribute of the person in association with each other;
Based on the face image data detected by the face detection means and the registered face image data recorded in the storage means, the face image data detected by the face detection means corresponds to a person of the registered image data. Face recognition means for determining whether or not an object,
The attribute data of the registered person read from the storage means when the face recognition means determines that the face image data detected by the face detection means corresponds to the person of the registered image data And an image processing apparatus comprising: a control unit that performs a process of associating the imaging data or the face image data detected by the face detection unit.
前記制御手段は、前記顔検出手段が検出した前記顔画像データが当該登録画像データの人物に対応するものであると前記顔認識手段が判定した場合に、前記記憶手段から読み出した当該登録された人物の生年月日データと、前記撮像データが生成された年を示す撮像年データとを基に、当該人物の年齢データを算出し、前記登録顔画像データの登録年からの経過年を示す経過年データを算出し、前記算出した経過年データが示す経過年が、前記算出した年齢データに対応して予め決められたしきい値を超えた場合に、前記登録顔画像データの更新を促す処理を行う
ことを特徴とする請求項1に記載の画像処理装置。
The control means, when the face recognition means determines that the face image data detected by the face detection means corresponds to a person in the registered image data, the registered read out from the storage means The process of calculating age data of the person based on the date of birth data of the person and the imaging year data indicating the year in which the imaging data was generated, and the elapsed time from the registration year of the registered face image data Processing to calculate year data and to prompt the update of the registered face image data when the elapsed year indicated by the calculated elapsed year data exceeds a predetermined threshold corresponding to the calculated age data The image processing apparatus according to claim 1, wherein:
前記制御手段は、前記顔検出手段が検出した前記顔画像データが当該登録画像データの人物に対応するものであると前記顔認識手段が判定した場合に、前記記憶手段から読み出した当該登録された人物の生年月日データと、前記撮像データが生成された年を示す撮像年データとを基に、当該人物の年齢データを算出し、当該算出した年齢データを前記撮像データあるいは前記検出した顔画像データと関連付けて表示する処理を行う
ことを特徴とする請求項1に記載の画像処理装置。
The control means, when the face recognition means determines that the face image data detected by the face detection means corresponds to a person in the registered image data, the registered read out from the storage means The age data of the person is calculated based on the date of birth of the person and the imaging year data indicating the year in which the imaging data was generated, and the calculated age data is used as the imaging data or the detected face image. The image processing apparatus according to claim 1, wherein a process of displaying in association with data is performed.
撮像データ内の顔画像データを検出する顔検出工程と、
前記顔検出工程で検出した前記顔画像データと、予め登録された登録顔画像データとに基づいて、前記顔検出工程で検出した前記顔画像データが前記登録画像データの人物に対応するものであるか否かを判定する顔認識工程と、
前記顔検出工程で検出した前記顔画像データが前記登録画像データの人物に対応するものであると前記顔認識工程で判定した場合に、前記登録された人物の前記属性データと、前記撮像データあるいは前記顔検出工程で検出した前記顔画像データとを関連付ける処理を行う制御工程と
を有することを特徴とする画像処理方法。


A face detection step of detecting face image data in the imaging data;
Based on the face image data detected in the face detection step and registered face image data registered in advance, the face image data detected in the face detection step corresponds to a person in the registered image data. A face recognition process for determining whether or not
When the face recognition step determines that the face image data detected in the face detection step corresponds to a person in the registered image data, the attribute data of the registered person and the imaging data or And a control step of performing a process of associating the face image data detected in the face detection step.


JP2007280104A 2007-10-29 2007-10-29 Image processing apparatus and method Active JP5459527B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007280104A JP5459527B2 (en) 2007-10-29 2007-10-29 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007280104A JP5459527B2 (en) 2007-10-29 2007-10-29 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2009110147A true JP2009110147A (en) 2009-05-21
JP5459527B2 JP5459527B2 (en) 2014-04-02

Family

ID=40778601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007280104A Active JP5459527B2 (en) 2007-10-29 2007-10-29 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP5459527B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011082966A (en) * 2009-09-09 2011-04-21 Panasonic Corp Imaging apparatus
JP2013509094A (en) * 2009-10-23 2013-03-07 マイクロソフト コーポレーション Automatic labeling of video sessions
CN103037157A (en) * 2011-09-28 2013-04-10 卡西欧计算机株式会社 Image processing device and image processing method
JP2014022921A (en) * 2012-07-18 2014-02-03 Nikon Corp Electronic apparatus and program
JP2014038429A (en) * 2012-08-14 2014-02-27 Zenrin Datacom Co Ltd Image processor, image processing method and image processing program
JP2014194810A (en) * 2009-08-07 2014-10-09 Google Inc Facial recognition with social network aiding
US8902344B2 (en) 2011-12-28 2014-12-02 Canon Kabushiki Kaisha Display control apparatus, image capture apparatus, display control method, and image capture apparatus control method
JP2017091059A (en) * 2015-11-05 2017-05-25 株式会社ソニー・インタラクティブエンタテインメント Information processing device and log-in control method
WO2021214970A1 (en) * 2020-04-24 2021-10-28 日本電気株式会社 Information processing device, system, facial image updating method, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124681A (en) * 1997-07-04 1999-01-29 Daiichi Kosho:Kk Karaoke (sing-along music) device and communication karaoke system
JP2002170119A (en) * 2000-12-01 2002-06-14 Minolta Co Ltd Image recognition device and method and recording medium
JP2003150932A (en) * 2001-11-12 2003-05-23 Olympus Optical Co Ltd Image processing unit and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124681A (en) * 1997-07-04 1999-01-29 Daiichi Kosho:Kk Karaoke (sing-along music) device and communication karaoke system
JP2002170119A (en) * 2000-12-01 2002-06-14 Minolta Co Ltd Image recognition device and method and recording medium
JP2003150932A (en) * 2001-11-12 2003-05-23 Olympus Optical Co Ltd Image processing unit and program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014194810A (en) * 2009-08-07 2014-10-09 Google Inc Facial recognition with social network aiding
US10515114B2 (en) 2009-08-07 2019-12-24 Google Llc Facial recognition with social network aiding
US10031927B2 (en) 2009-08-07 2018-07-24 Google Llc Facial recognition with social network aiding
US9208177B2 (en) 2009-08-07 2015-12-08 Google Inc. Facial recognition with social network aiding
US8406600B2 (en) 2009-09-09 2013-03-26 Panasonic Corporation Imaging apparatus
JP2011082966A (en) * 2009-09-09 2011-04-21 Panasonic Corp Imaging apparatus
JP2013509094A (en) * 2009-10-23 2013-03-07 マイクロソフト コーポレーション Automatic labeling of video sessions
JP2013074461A (en) * 2011-09-28 2013-04-22 Casio Comput Co Ltd Image processor, image processing method and program
US8989504B2 (en) 2011-09-28 2015-03-24 Casio Computer Co., Ltd. Image processing device that renews identification information of specific subject
CN103037157A (en) * 2011-09-28 2013-04-10 卡西欧计算机株式会社 Image processing device and image processing method
US8902344B2 (en) 2011-12-28 2014-12-02 Canon Kabushiki Kaisha Display control apparatus, image capture apparatus, display control method, and image capture apparatus control method
JP2014022921A (en) * 2012-07-18 2014-02-03 Nikon Corp Electronic apparatus and program
JP2014038429A (en) * 2012-08-14 2014-02-27 Zenrin Datacom Co Ltd Image processor, image processing method and image processing program
JP2017091059A (en) * 2015-11-05 2017-05-25 株式会社ソニー・インタラクティブエンタテインメント Information processing device and log-in control method
WO2021214970A1 (en) * 2020-04-24 2021-10-28 日本電気株式会社 Information processing device, system, facial image updating method, and storage medium
JP7364057B2 (en) 2020-04-24 2023-10-18 日本電気株式会社 Information processing device, system, face image update method and program

Also Published As

Publication number Publication date
JP5459527B2 (en) 2014-04-02

Similar Documents

Publication Publication Date Title
JP5459527B2 (en) Image processing apparatus and method
US8762659B2 (en) Storage apparatus and method, program, and playback apparatus and method
JP2007027990A (en) Apparatus and method, and program for generating caption from moving picture data, and storage medium
JP2013074461A (en) Image processor, image processing method and program
JPH07131746A (en) Electronic camera
JP2010016621A (en) Image data processing apparatus, image data processing method and program, and recording medium
JP4659569B2 (en) Imaging device
WO2011026397A1 (en) Image indication method and digital photo frame
JP4895205B2 (en) Image processing apparatus and program thereof
US9195312B2 (en) Information processing apparatus, conference system, and information processing method
JP2003051977A (en) Imaging device, control method for the imaging device, program and storage medium
JP5320913B2 (en) Imaging apparatus and keyword creation program
JP5111343B2 (en) Playback device
JP2010178259A (en) Digital camera
JP2014182485A (en) Image processing device and method and program, and imaging device provided with image processing device
JP2010193274A (en) Information processing apparatus, image capturing apparatus, program, and computer-readable recording medium with the program recorded thereon
JP2010200056A (en) Recording and reproducing apparatus
JP4009959B2 (en) TV receiver
JP5381133B2 (en) Playback device, imaging device, and program
JP2010171849A (en) Image reproducing apparatus and electronic camera
JP4882525B2 (en) Image reproduction system, digital camera, and image reproduction apparatus
JP2007078985A (en) Data retrieving device and its control method
JP2012118286A (en) Karaoke system adaptive to user attribute
JP5454391B2 (en) Image processing device
JP2004301894A (en) Method and device for voice recording, digital camera, and method and device for image reproduction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100909

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140101

R150 Certificate of patent or registration of utility model

Ref document number: 5459527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150