JP2006113741A - Face detecting device, face detecting method and face detecting program - Google Patents

Face detecting device, face detecting method and face detecting program Download PDF

Info

Publication number
JP2006113741A
JP2006113741A JP2004299159A JP2004299159A JP2006113741A JP 2006113741 A JP2006113741 A JP 2006113741A JP 2004299159 A JP2004299159 A JP 2004299159A JP 2004299159 A JP2004299159 A JP 2004299159A JP 2006113741 A JP2006113741 A JP 2006113741A
Authority
JP
Japan
Prior art keywords
face
image
identification information
unique identification
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004299159A
Other languages
Japanese (ja)
Inventor
Ayumi Isomura
歩 磯村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2004299159A priority Critical patent/JP2006113741A/en
Publication of JP2006113741A publication Critical patent/JP2006113741A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face detecting device capable of identifying a plurality of face images in a photographic image, and to provide a face detecting method and a face detecting program. <P>SOLUTION: A management number acquisition part 12 acquires a management number from information (including a start code, management number and end code or the like) read from an IC card 6 by an IC card reader 3. The management number is unique identification information assigned to every IC card 6. A link part 13 stores face management information obtained by associating the specified face position of a face detecting part 11 with the management number read from the IC card 6 in a management DB 4. Image processing for making it difficult to browse any face section other than the face section corresponding to the designated management number may be performed. Alternately, a face image corresponding to the designated management number may be arranged in the specific composite region of a template image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は顔検出装置、顔検出方法及び顔検出プログラムに係り、特に人物の顔部分を検出する装置、方法及びプログラムに関する。   The present invention relates to a face detection apparatus, a face detection method, and a face detection program, and more particularly, to an apparatus, method, and program for detecting a human face portion.

従来、人物画像の顔部分の画像である顔画像がどの人物であるかを特定する技術が開発されている。例えば特許文献1によると、異物検出部は、テンプレート画像DBに格納されたテンプレート画像を用いて、カメラにより撮影された認識対象者の顔画像に含まれる異物(例えば、眼帯)を検出する。顔画像修正部は、異物検出部により検出された異物に対応する部分を顔画像から削除し、この削除した部分について、異物の内容に応じて顔画像を修正する処理を行う。例えば、異物が眼帯の場合には、顔画像修正部は、眼帯により隠れていない側の眼の画像を抽出してこれを左右反転し、左右反転して得られた眼の画像と眼帯部分が削除された顔画像とを合成することにより、顔画像の修正を行う。顔画判定部は、修正後の顔画像に基づいて、認識対象者が誰であるかを判定する処理を行う。
特開2003−132339号公報
2. Description of the Related Art Conventionally, a technique for identifying which person a face image that is an image of a face portion of a person image has been developed. For example, according to Patent Document 1, the foreign object detection unit detects a foreign object (for example, eye patch) included in the face image of the person to be recognized photographed by the camera, using the template image stored in the template image DB. The face image correction unit deletes a part corresponding to the foreign object detected by the foreign object detection unit from the face image, and performs a process of correcting the face image according to the content of the foreign object for the deleted part. For example, when the foreign object is an eye patch, the face image correction unit extracts an image of the eye on the side that is not hidden by the eye patch and horizontally inverts the eye image and the eye patch part obtained by the left and right inversion. The face image is corrected by combining the deleted face image. The face image determination unit performs processing for determining who the person to be recognized is based on the corrected face image.
JP 2003-132339 A

ところが、特許文献1の技術では、顔画像の抽出元となる撮影画像の中に記録される人物が複数である場合、各人物の顔画像は認識できるが、どの位置の顔画像がどの人物のものであるかを特定することはできない。本発明はこのような問題点に鑑みてなされたもので、撮影画像中の複数の顔画像を識別することが可能な顔検出装置、方法及びプログラムを提供することを目的とする。   However, in the technique of Patent Document 1, when there are a plurality of persons recorded in the photographed image from which the face image is extracted, each person's face image can be recognized, but the face image at which position corresponds to which person's face image. It cannot be specified whether it is a thing. The present invention has been made in view of such problems, and an object of the present invention is to provide a face detection apparatus, method, and program capable of identifying a plurality of face images in a captured image.

上述の課題を解決するため、本願発明に係る顔検出装置は、人物の顔部分を記録した撮影画像を入力する撮影画像入力部と、人物の顔部分を検出する検出部と、ICカードに記憶されている固有の識別情報を読み取る読取部と、検出された顔部分と固有の識別情報とを対応づけるリンク部と、を備える。   In order to solve the above-described problems, a face detection device according to the present invention includes a captured image input unit that inputs a captured image in which a person's face portion is recorded, a detection unit that detects a person's face portion, and a memory stored in an IC card. A reading unit that reads the unique identification information, and a link unit that associates the detected face portion with the unique identification information.

この発明によると、ICカードに記憶されている固有の識別情報と検出された顔部分とを対応づける。即ち、ICカードに記憶された固有の識別情報に基づいて撮影画像及び顔部分を素早く特定できる。   According to the present invention, the unique identification information stored in the IC card is associated with the detected face portion. That is, the captured image and the face portion can be quickly identified based on the unique identification information stored in the IC card.

顔検出装置は、固有の識別情報の指定を受け付ける指定部、指定された固有の識別情報に対応する撮影画像の顔部分に所定の画像処理を行う画像処理部をさらに備えてもよい。   The face detection apparatus may further include a designation unit that receives designation of unique identification information, and an image processing unit that performs predetermined image processing on a face portion of a captured image corresponding to the designated unique identification information.

所定の画像処理は、色変更、画像サイズ変更など特に限定されない。こうすれば、指定された固有の識別情報に対応する顔部分に特別の画像処理を施した面白い画像を提供することができる。   The predetermined image processing is not particularly limited, such as color change and image size change. In this way, it is possible to provide an interesting image obtained by performing special image processing on the face portion corresponding to the specified unique identification information.

顔検出装置は、顔部分を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力部をさらに備え、画像処理部は、指定された固有の識別情報に対応する顔部分の画像である顔画像を撮影画像から抽出する抽出部と、抽出された顔画像をテンプレート画像の合成領域に配置し、合成領域に配置された顔画像とテンプレート画像とを合成した合成画像を作成する合成部とを有していてもよい。   The face detection apparatus further includes a template image input unit that inputs a template image having a composite area, which is a blank area in which the face part is arranged, and the image processing unit includes a face part corresponding to the specified unique identification information. An extraction unit that extracts a face image, which is an image, from a photographed image, and the extracted face image is arranged in a template image synthesis region, and a synthesized image is created by synthesizing the face image arranged in the synthesis region and the template image. You may have a synthetic | combination part.

こうすれば、固有の識別情報に対応する顔部分を合成領域に配置して合成した面白い画像を提供することができる。   In this way, it is possible to provide an interesting image in which the face portion corresponding to the unique identification information is arranged in the synthesis area and synthesized.

顔検出装置は、指定された固有の識別情報に対応する顔部分以外の顔部分に所定の画像処理を行う画像処理部をさらに備えていてもよい。   The face detection apparatus may further include an image processing unit that performs predetermined image processing on a face portion other than the face portion corresponding to the specified unique identification information.

所定の画像処理は、色変更、画像サイズ変更など特に限定されないが、一例として、指定された固有の識別情報に対応する顔部分以外の顔部分の閲覧を困難にする画像処理である。   The predetermined image processing is not particularly limited, such as color change or image size change, but as an example is image processing that makes it difficult to view a face portion other than the face portion corresponding to the specified unique identification information.

こうすれば、指定された固有の識別情報に対応する顔部分以外の顔画像を閲覧・複製することを防ぐことができ、肖像権保護や著作権保護に役立つ。   In this way, it is possible to prevent viewing and copying of face images other than the face portion corresponding to the specified unique identification information, which is useful for portrait rights protection and copyright protection.

リンク部は顔部分が属する撮影画像上の領域に従って顔部分と固有の識別情報とを対応づけてもよい。あるいは、リンク部は固有の識別情報が読み取られた順序に従って顔部分と固有の識別情報とを対応づけてもよい。   The link unit may associate the face part with the unique identification information according to the area on the captured image to which the face part belongs. Alternatively, the link unit may associate the face portion with the unique identification information according to the order in which the unique identification information is read.

また、上述の課題を解決するため、本願発明に係る顔検出方法は、人物の顔部分を記録した撮影画像を入力する撮影画像入力ステップと、人物の顔部分を検出する検出ステップと、ICカードに記憶されている固有の識別情報を読み取る読取ステップと、検出された顔部分と固有の識別情報とを対応づけるリンクステップと、を含む。   In order to solve the above-described problem, a face detection method according to the present invention includes a photographed image input step for inputting a photographed image in which a person's face is recorded, a detection step for detecting a person's face, and an IC card. A reading step for reading the unique identification information stored in the information processing method, and a link step for associating the detected face portion with the unique identification information.

この顔検出方法は、上述の顔検出装置と同様の作用効果を奏する。   This face detection method has the same operational effects as the face detection device described above.

また、上述の課題を解決するため、本願発明に係る顔検出プログラムは、人物の顔部分を記録した撮影画像を入力する撮影画像入力ステップと、人物の顔部分を検出する検出ステップと、ICカードに記憶されている固有の識別情報を読み取る読取ステップと、検出された顔部分と固有の識別情報とを対応づけるリンクステップと、をコンピュータに実行させる。   In order to solve the above-described problem, a face detection program according to the present invention includes a photographed image input step for inputting a photographed image in which a person's face part is recorded, a detection step for detecting a person's face part, and an IC card. The computer is caused to execute a reading step for reading the unique identification information stored in the computer and a linking step for associating the detected face portion with the unique identification information.

この顔検出プログラムは、上述の顔検出装置と同様の作用効果を奏する。この顔検出プログラムは、CD−ROM、DVD、MOその他のコンピュータ読み取り可能な記録媒体に記録して提供してもよい。   This face detection program has the same effects as the above-described face detection apparatus. The face detection program may be provided by being recorded on a CD-ROM, DVD, MO, or other computer-readable recording medium.

この発明によると、ICカードに記憶されている固有の識別情報と検出された顔部分とを対応づける。即ち、ICカードに記憶された固有の識別情報に基づいて撮影画像及び顔部分を素早く特定できる。   According to the present invention, the unique identification information stored in the IC card is associated with the detected face portion. That is, the captured image and the face portion can be quickly identified based on the unique identification information stored in the IC card.

以下、添付した図面を参照し本発明の好ましい実施の形態を説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

<第1実施形態>
[概略構成]
図1は、本発明の好ましい第1の実施形態に係る顔検出装置100の概略機能構成図である。顔検出装置100は、CPUやワンチップマイコンなどによって構成される処理部1、コンパクトフラッシュやスマートメディアなどの各種記録媒体から撮影画像を読み出すメディアリーダ2、ICカード6に埋め込まれたICチップから情報を読み取るICカードリーダ3、ハードディスクなどの各種大容量記憶装置で構成される管理DB4、半導体メモリで構成される記憶部5を有している。処理部1は、記憶部5に記憶されたプログラムである撮影画像入力部10、顔検出部11、管理番号取得部12、リンク部13を適宜記憶部5から読み出して実行する。撮影画像入力部10は、メディアリーダ2から読み出された撮影画像を入力する。撮影画像入力部10は、デジタルスチルカメラ(DSC)7やフィルムスキャナから入力された撮影画像をUSBポートやSCSIポートなどを介して入力してもよいし、ネットワーク接続されたパソコンからFTP(File Transfer Protocol)サーバのファイルアップロード機能などによって撮影画像を入力してもよい。
<First Embodiment>
[Schematic configuration]
FIG. 1 is a schematic functional configuration diagram of a face detection apparatus 100 according to a preferred first embodiment of the present invention. The face detection device 100 includes information from a processing unit 1 constituted by a CPU, a one-chip microcomputer, a media reader 2 that reads a captured image from various recording media such as a compact flash and smart media, and an IC chip embedded in an IC card 6. IC card reader 3, management DB 4 composed of various mass storage devices such as a hard disk, and storage unit 5 composed of semiconductor memory. The processing unit 1 reads the captured image input unit 10, the face detection unit 11, the management number acquisition unit 12, and the link unit 13 that are programs stored in the storage unit 5 from the storage unit 5 as appropriate and executes them. The captured image input unit 10 inputs the captured image read from the media reader 2. The captured image input unit 10 may input a captured image input from a digital still camera (DSC) 7 or a film scanner via a USB port, a SCSI port, or the like, or FTP (File Transfer) from a network-connected personal computer. Protocol) A captured image may be input by a file upload function of a server.

顔検出部11は、記憶部5に記憶された撮影画像から、公知の顔認識技術により人物の顔部分を検出する。撮影画像に複数の人物が記録されている場合は、複数の顔部分を個別に検出する。顔検出部11は、検出された顔部分の位置である顔位置を顔部分ごとに特定して記憶部5に記憶する。   The face detection unit 11 detects a face portion of a person from a captured image stored in the storage unit 5 by a known face recognition technique. When a plurality of persons are recorded in the captured image, a plurality of face portions are individually detected. The face detection unit 11 specifies the face position, which is the position of the detected face part, for each face part and stores the face position in the storage unit 5.

管理番号取得部12は、ICカードリーダ3がICカード6から読み取った情報(スタートコード、管理番号、エンドコードなどを含む)から管理番号を取得する。この管理番号は、ICカード6ごとに割り当てられた固有の識別情報である。リンク部13は、顔検出部11の特定した顔位置とICカード6から読み取った管理番号とを対応づけた顔管理情報を管理DB4に記憶する。対応づけの具体例は後述する。   The management number acquisition unit 12 acquires a management number from information (including a start code, management number, end code, etc.) read from the IC card 6 by the IC card reader 3. This management number is unique identification information assigned to each IC card 6. The link unit 13 stores, in the management DB 4, face management information that associates the face position specified by the face detection unit 11 with the management number read from the IC card 6. A specific example of association will be described later.

[処理の流れ]
次に、図2のフローチャートに基づき、顔検出装置100の実行するリンク処理の流れを説明する。
[Process flow]
Next, the flow of link processing executed by the face detection apparatus 100 will be described based on the flowchart of FIG.

S1では、撮影画像入力部10は撮影画像を入力する。図3は撮影画像入力部10に入力される撮影画像の一例である。撮影画像には、複数の人物Fn(ここではn=1〜4)が記録された団体集合写真である。各人物Fnには、一意的な管理番号の記録されたICカード6が予め配布されているものとする。   In S1, the captured image input unit 10 inputs a captured image. FIG. 3 is an example of a captured image input to the captured image input unit 10. The photographed image is a group group photo in which a plurality of persons Fn (here, n = 1 to 4) are recorded. It is assumed that an IC card 6 on which a unique management number is recorded is distributed in advance to each person Fn.

S2では、顔検出部11は、入力された撮影画像から、人物の顔部分を検出する。図3では、4人の人物F1〜F4の顔部分f1〜f4が検出されている。顔検出部11は、検出された顔部分の位置である顔位置を顔部分ごとに特定して記憶部5に記憶する。顔位置は、例えば撮影画像の左下端を原点Oとした平面座標上の、原点Oから人物Fnの顔部分の中心位置Cnまでの画素数で表される。   In S <b> 2, the face detection unit 11 detects a human face portion from the input captured image. In FIG. 3, the face portions f1 to f4 of the four persons F1 to F4 are detected. The face detection unit 11 specifies the face position, which is the position of the detected face part, for each face part and stores the face position in the storage unit 5. The face position is represented, for example, by the number of pixels from the origin O to the center position Cn of the face portion of the person Fn on a plane coordinate with the lower left corner of the photographed image as the origin O.

S3では、ICカード6から管理番号を取得する。S4では、ICカード6から取得された管理番号と顔位置とを所定の規則に従って対応づけ、管理DB4に記憶する。   In S3, the management number is acquired from the IC card 6. In S4, the management number acquired from the IC card 6 and the face position are associated with each other according to a predetermined rule and stored in the management DB 4.

各人物Fnへ配布されたICカード6に記録されている固有の管理番号と各人物Fnの顔位置Cnとの対応づけの規則は特に限定されず、様々な形態を取りうる。例えば、図4に示すように、複数の人物F1〜F4に割り当てられた撮影位置ごとに複数のICカードリーダ3−1〜3−4を設置する。各人物F1〜F4には予め固有の管理番号が記録されたICカード6−1〜3−4が配布されている。各人物F1〜F4は、自分の立った撮影位置に設置されているICカードリーダ3−1〜3−4に自身の保有するICカード6の情報を読み込ませる。各人物F1〜F4の全員がICカードリーダ3−1〜3−4に情報を読み込ませた後、DSC7で人物F1〜F4を被写体とした撮影画像(図2参照)を記録する。ステップS1では、DSC7の記録した撮影画像を処理部1に入力する。ステップS3では、各ICカードリーダ3−1〜3−4の識別番号3−1〜3−4と各カードリーダ3−1〜3−4から読み込まれた管理番号とを対応づけたカード情報を記憶部5に記憶する。図5(a)はカード情報の一例を示す。   The rules for associating the unique management number recorded on the IC card 6 distributed to each person Fn with the face position Cn of each person Fn are not particularly limited, and can take various forms. For example, as shown in FIG. 4, a plurality of IC card readers 3-1 to 3-4 are installed for each photographing position assigned to a plurality of persons F1 to F4. Each person F1 to F4 is distributed with IC cards 6-1 to 3-4 in which a unique management number is recorded in advance. Each person F1 to F4 causes the IC card readers 3-1 to 3-4 installed at the photographing position where the person stands to read the information of the IC card 6 held by the person. After all of the persons F1 to F4 have the IC card readers 3-1 to 3-4 read the information, the DSC 7 records captured images (see FIG. 2) with the persons F1 to F4 as subjects. In step S <b> 1, the captured image recorded by the DSC 7 is input to the processing unit 1. In step S3, the card information in which the identification numbers 3-1 to 3-4 of the IC card readers 3-1 to 3-4 are associated with the management numbers read from the card readers 3-1 to 3-4 is obtained. Store in the storage unit 5. FIG. 5A shows an example of card information.

一方、図1に示すように、予め記憶部5には、ICカードリーダの識別番号3−1〜3−4とそのカードリーダの設置位置に立った被写体から特定される顔位置が属する互いに重複しない領域である顔基準位置とが対応づけられた顔基準位置テーブル5aが記憶されている。図5(b)は顔基準位置テーブル5aに記憶されている情報の一例である。顔基準位置はカードリーダ3の設置位置で撮影された人物の顔位置が一意的に属する閉領域である。例えば図6に示すように、撮影画像を左上、右上、左下、右下の4つに分割する矩形の領域R1〜R4を顔基準位置とすることができる。   On the other hand, as shown in FIG. 1, the storage unit 5 is previously overlapped with the identification numbers 3-1 to 3-4 of the IC card reader and the face positions specified from the subject standing at the installation position of the card reader. A face reference position table 5a is stored in which the face reference position, which is a non-performing area, is associated with the face reference position. FIG. 5B is an example of information stored in the face reference position table 5a. The face reference position is a closed region to which the face position of the person photographed at the installation position of the card reader 3 uniquely belongs. For example, as shown in FIG. 6, rectangular areas R1 to R4 that divide a captured image into four parts, that is, upper left, upper right, lower left, and lower right, can be used as the face reference position.

リンク部13は、S2で撮影画像から特定された顔位置と顔基準位置テーブル5aとを参照して各顔位置が属する顔基準位置を特定し、撮影画像の識別情報(ファイル名など)と該撮影画像から検出された顔位置と該顔位置の属する顔基準位置とを対応づけた顔位置情報を記憶部5に記憶する。図5(c)は顔位置情報の一例を示す。さらに、リンク部13は、カード情報と顔基準位置テーブル5aと顔位置情報に従って管理番号と顔位置と該顔位置を検出した撮影画像の識別情報とを対応づけ、この対応を顔管理情報として管理DB4に記憶する。図5(d)は顔管理情報の一例を示す。   The link unit 13 identifies the face reference position to which each face position belongs by referring to the face position identified from the photographed image in S2 and the face reference position table 5a, and identifies identification information (file name, etc.) of the photographed image and Face position information in which the face position detected from the captured image is associated with the face reference position to which the face position belongs is stored in the storage unit 5. FIG. 5C shows an example of face position information. Further, the link unit 13 associates the management number, the face position, and the identification information of the photographed image from which the face position is detected according to the card information, the face reference position table 5a, and the face position information, and manages this correspondence as face management information. Store in DB4. FIG. 5D shows an example of face management information.

あるいは、各人物Fnへ配布されたICカード6に記録されている固有の管理番号と各人物の顔位置との対応づけは次のように行ってもよい。図7に示すように、複数の人物F1〜F4に配布されたICカード6を順次読み取るICカードリーダ3を人物の通過位置(アトラクションの入場ゲートなど)に設置する。各人物F1〜F4には予め固有の管理番号が記録されたICカード6が配布されているのは上記と同様である。各人物F1〜F4は、ICカードリーダ3に保有するICカード6の情報を読み込ませる。この後、各人物F1〜F4はそれぞれカードを読み取らせた順序に応じた位置に誘導され、その位置の各人物F1〜F4を記録した撮影画像をS1で入力する。ステップS3では、ICカード6から取得された管理番号とICカード6の各管理番号を読み取った順序とを対応づけたカード情報を記憶部5に記憶する。図8(a)はカード情報の一例を示す。   Alternatively, the correspondence between the unique management number recorded on the IC card 6 distributed to each person Fn and the face position of each person may be performed as follows. As shown in FIG. 7, the IC card reader 3 that sequentially reads the IC cards 6 distributed to a plurality of persons F1 to F4 is installed at a person passing position (such as an entrance gate of an attraction). Similarly to the above, each person F1 to F4 is distributed with an IC card 6 in which a unique management number is recorded in advance. Each person F1 to F4 causes the IC card reader 3 to read the information of the IC card 6 possessed. Thereafter, each of the persons F1 to F4 is guided to a position corresponding to the order in which the cards are read, and a photographed image in which the persons F1 to F4 at the positions are recorded is input in S1. In step S <b> 3, card information in which the management number acquired from the IC card 6 is associated with the order of reading each management number of the IC card 6 is stored in the storage unit 5. FIG. 8A shows an example of card information.

一方、予め記憶部5には、ICカード6の各管理番号を読み取った順序とその各人物が誘導された位置に立った被写体から特定される顔位置が属する互いに重複しない領域である顔基準位置とが対応づけられた顔基準位置テーブル5aが記憶されている。図8(b)は顔基準位置テーブル5aに記憶されている情報の一例である。リンク部13は、S2で検出された顔位置と顔基準位置テーブル5aとを比較し、各顔位置が属する顔基準位置を特定し、各顔位置と該顔位置の属する顔基準位置と撮影画像の識別情報を対応づけた顔位置情報を記憶部5に記憶する。図8(c)は顔位置情報の一例を示す。さらに、リンク部13は、カード情報と顔基準位置テーブル5aと顔位置情報に従って管理番号と顔位置とを対応づけ、この対応を顔管理情報として管理DB4に記憶する。図8(d)は顔管理情報の一例を示す。こうすれば、人物の立つ位置ごとにICカードリーダ3を設置しなくても管理番号と顔位置とを対応づけることができ、設備投資を抑制できる。   On the other hand, in the storage unit 5 in advance, the order of reading each management number of the IC card 6 and the face reference position which is a non-overlapping area to which the face position specified from the subject standing at the position where each person is guided belongs. Is stored in the face reference position table 5a. FIG. 8B is an example of information stored in the face reference position table 5a. The link unit 13 compares the face position detected in S2 with the face reference position table 5a, specifies the face reference position to which each face position belongs, each face position, the face reference position to which the face position belongs, and the captured image. The face position information associated with the identification information is stored in the storage unit 5. FIG. 8C shows an example of face position information. Further, the link unit 13 associates the management number with the face position in accordance with the card information, the face reference position table 5a, and the face position information, and stores this correspondence in the management DB 4 as face management information. FIG. 8D shows an example of face management information. In this way, the management number and the face position can be associated with each other without installing the IC card reader 3 for each position where a person stands, and capital investment can be suppressed.

<第2実施形態>
第1実施形態の顔検出装置100によって得られた顔管理情報に従って撮影画像の特定の顔部分に様々な画像処理を施すことができる。例えば、指定された管理番号に対応する顔部分以外の顔部分にモザイク処理、色変更、明度変更、形状変更などの各種保護処理を行って閲覧できないようにしてもよい。図9は、かかる画像処理を行う撮影画像提供システムの概略機能構成図である。図9に示す撮影画像提供システムは、プリント注文サーバ200及びパソコン300がインターネットなどのネットワーク400を介して互いに接続されることで構成される。また、プリント注文サーバ200は、顔検出装置100とLANなどにより接続されており、顔検出装置100の管理DB4の顔管理情報を共有している。この図では、パソコン300は1つしか図示されていないが、実際は複数のパソコン300がプリント注文サーバ200に接続される。この場合、プリント注文サーバ200は、パソコン200を固有の識別情報(IPアドレスやユーザIDなど)で識別する。
Second Embodiment
Various image processing can be performed on a specific face portion of the photographed image according to the face management information obtained by the face detection apparatus 100 of the first embodiment. For example, the face portion other than the face portion corresponding to the designated management number may be subjected to various protection processes such as mosaic processing, color change, brightness change, and shape change so as not to be browsed. FIG. 9 is a schematic functional configuration diagram of a captured image providing system that performs such image processing. The photographed image providing system shown in FIG. 9 is configured by connecting a print order server 200 and a personal computer 300 to each other via a network 400 such as the Internet. The print order server 200 is connected to the face detection apparatus 100 via a LAN or the like, and shares face management information in the management DB 4 of the face detection apparatus 100. In this figure, only one personal computer 300 is shown, but actually, a plurality of personal computers 300 are connected to the print order server 200. In this case, the print order server 200 identifies the personal computer 200 with unique identification information (IP address, user ID, etc.).

プリント注文サーバ200は、注文部203により所望の撮影画像の選択、写真プリントのサイズ、プリント枚数などの注文を受け付けてプリンタ204によりプリントするが、その際、各パソコン300から送信される管理番号に基づいて注文される撮影画像をプレビュー表示させるデータ(Webページなど)をパソコン300に送信する。このプレビュー表示の中には、パソコン300からプリント注文サーバ200に送信した管理番号に対応する顔部分だけが表示され、他の顔部分はモザイク処理などの各種画像保護処理がされて閲覧できないようにされる。この画像処理は顔検出装置100の画像処理部14により行われる。   The print order server 200 accepts an order such as selection of a desired photographed image, the size of a photographic print, the number of prints, and the like by the order unit 203 and prints it by the printer 204. Data (such as a web page) for displaying a preview of the photographed image ordered based on this is transmitted to the personal computer 300. In this preview display, only the face portion corresponding to the management number transmitted from the personal computer 300 to the print order server 200 is displayed, and other face portions are subjected to various image protection processing such as mosaic processing so that they cannot be viewed. Is done. This image processing is performed by the image processing unit 14 of the face detection apparatus 100.

図10は撮影画像提供システムの実行する画像提供処理のフローチャートである。ICカード6を保有する注文者が、写真プリントの注文時にパソコン300から管理番号をICカードリーダ3でパソコン300に入力し、あるいはICカード6に印刷された管理番号を注文者がキーボードなどの操作部301からパソコン300に手入力し、プリント注文サーバ200に管理番号を送信する(S101)。プリント注文サーバ200の注文部203は、画像処理部14に受信した管理番号を通知して管理番号に対応する顔部分に対する画像保護処理を依頼する(S102)。画像処理部14は、この通知により管理番号の指定を受け付け、指定された管理番号に対応する撮影画像及び顔部分を顔管理情報に従って特定する。顔管理情報により、パソコン300から送信した管理番号に対応する撮影画像を素早く特定できる。画像処理部14は、特定された顔部分以外の顔部分の閲覧が困難又は全く閲覧できない状態になるよう(モザイク処理など)、特定された撮影画像を処理する(S103)。画像処理部14が処理した後の撮影画像を処理画像という。なお、予め全ての顔部分が閲覧困難となる処理を撮影画像に行っておき、指定された管理番号に対応する顔部分だけ閲覧可能となるように復元する処理(モザイク解除など)を行ってもよい。   FIG. 10 is a flowchart of image providing processing executed by the captured image providing system. The orderer who has the IC card 6 inputs a management number from the personal computer 300 to the personal computer 300 with the IC card reader 3 when ordering photo prints, or the orderer operates the keyboard or the like on the management number printed on the IC card 6. Manually input from the unit 301 to the personal computer 300 and transmit the management number to the print order server 200 (S101). The order unit 203 of the print order server 200 notifies the image processing unit 14 of the received management number and requests image protection processing for the face portion corresponding to the management number (S102). The image processing unit 14 receives the designation of the management number by this notification, and specifies the captured image and the face portion corresponding to the designated management number according to the face management information. The captured image corresponding to the management number transmitted from the personal computer 300 can be quickly identified by the face management information. The image processing unit 14 processes the specified captured image so that it is difficult or impossible to browse a face portion other than the specified face portion (mosaic processing or the like) (S103). The captured image after the image processing unit 14 has processed is referred to as a processed image. In addition, processing that makes it difficult to view all the face portions in advance is performed on the captured image, and processing (such as mosaic cancellation) is performed so that only the face portion corresponding to the designated management number can be viewed. Good.

図11(a)〜(d)は、それぞれ管理番号n(n=1〜4)に対応する顔位置(xn,yn)〜(xn,yn)の顔部分fn以外の顔部分の閲覧が困難となるように処理された処理画像の一例である。   In FIGS. 11A to 11D, it is difficult to view the face portions other than the face portion fn of the face positions (xn, yn) to (xn, yn) corresponding to the management numbers n (n = 1 to 4), respectively. It is an example of the process image processed so that it may become.

画像処理部14は処理画像をプリント注文サーバ200に送信する(S104)。Webサーバで構成されたプリント注文サーバの閲覧部202は、処理画像を閲覧するWebページをパソコン300に送信する(S105)。パソコン300は、受信したWebページをWebブラウザなどで表示する(S106)。ただし、このWebページでは、指定した管理番号に対応する顔部分以外の顔部分は閲覧が困難である。即ち、各人物の保有するICカード6に記録された管理番号に対応する顔部分以外の顔画像をパソコン300で自由に閲覧・複製することを防ぐことができ、肖像権保護や著作権保護に役立つ。   The image processing unit 14 transmits the processed image to the print order server 200 (S104). The browsing unit 202 of the print order server configured with the Web server transmits a Web page for browsing the processed image to the personal computer 300 (S105). The personal computer 300 displays the received web page with a web browser or the like (S106). However, in this Web page, it is difficult to view a face portion other than the face portion corresponding to the designated management number. In other words, face images other than the face portion corresponding to the management number recorded on the IC card 6 possessed by each person can be prevented from being freely viewed and duplicated on the personal computer 300, thereby protecting portrait rights and copyright protection. Useful.

<第3実施形態>
画像処理部14の実行する画像処理は画像保護処理に限定されない。例えば、検出された顔部分を抽出し、人物キャラクタの顔部分がくり抜かれた「かきわり」状のテンプレート画像の空白領域にその顔部分を合成した合成画像を作成してもよい。この際、指定された管理番号に対応する顔画像を特定の合成領域に配置するようにしてもよい。
<Third Embodiment>
Image processing executed by the image processing unit 14 is not limited to image protection processing. For example, the detected face portion may be extracted, and a composite image may be created by combining the face portion with a blank area of a “crisp” template image in which the face portion of the human character is cut out. At this time, the face image corresponding to the designated management number may be arranged in a specific composition area.

図12はかかる画像処理を実行する顔検出装置100の概略機能構成図である。顔検出装置100は、テンプレート入力部15をさらに備えている。テンプレート入力部15は、メディアリーダやUSBポートなどで構成され、テンプレート画像の入力を受け付ける。図13に示すように、テンプレート画像は、顔部分を合成する「かきわり」状の空白領域である合成領域(この図ではPn:n=1〜4)を有している。合成領域の形状や数、テンプレート画像の図柄は図示したものに限定されない。   FIG. 12 is a schematic functional configuration diagram of the face detection apparatus 100 that executes such image processing. The face detection apparatus 100 further includes a template input unit 15. The template input unit 15 includes a media reader, a USB port, and the like, and receives template image input. As shown in FIG. 13, the template image has a synthesis area (Pn: n = 1 to 4 in this figure) that is a “clear” -like blank area that synthesizes the face portion. The shape and number of composite areas and the design of the template image are not limited to those shown in the figure.

画像処理部14は、顔抽出部14a及び合成部14bを有する。顔抽出部14aは、顔検出部11の検出した顔部分の画像である顔画像を撮影画像から抽出する。抽出された顔画像は記憶部5に記憶される。合成部14bは、記憶部5の顔画像をテンプレート画像の合成領域に配置して合成した合成画像を作成する。作成された合成画像は、第2実施形態と同様にして、プリント注文サーバ200の閲覧部202がWebページとしてネットワーク400を介してパソコン300に送出してもよいし、プリンタ204でプリントしてもよい。   The image processing unit 14 includes a face extraction unit 14a and a synthesis unit 14b. The face extraction unit 14a extracts a face image that is an image of the face portion detected by the face detection unit 11 from the captured image. The extracted face image is stored in the storage unit 5. The synthesizing unit 14b creates a synthesized image by arranging the face image in the storage unit 5 in the template image synthesizing region. The created composite image may be sent to the personal computer 300 via the network 400 by the browsing unit 202 of the print order server 200 or printed by the printer 204 as in the second embodiment. Good.

本実施形態の顔検出装置100は、図10と同様の処理を行うが、以下の点が異なる。即ち、S103では、合成部14bは、顔抽出部14aの抽出した顔画像の内、プリント注文サーバ200から通知された管理番号に対応する顔部分の画像を特定の合成領域に配置する。通知された管理番号に対応する顔部分の画像に所定の画像処理(顔画像の長さ、形状、色を合成領域に合わせて変更するなど)を行った上で特定の合成領域に配置してもよい。特定の合成領域は例えばテンプレート画像のデザイン上最も目立つ位置であるが、これに限定する必要はない。   The face detection apparatus 100 according to the present embodiment performs the same processing as in FIG. 10 except for the following points. That is, in S103, the compositing unit 14b arranges an image of the face portion corresponding to the management number notified from the print order server 200 among the face images extracted by the face extracting unit 14a in a specific composite region. Perform predetermined image processing (such as changing the length, shape, and color of the face image according to the composition area) on the face part image corresponding to the notified management number, and place it in a specific composition area Also good. The specific synthesis area is, for example, the most conspicuous position in the design of the template image, but is not limited to this.

図14は、指定された管理番号に対応する顔部分を特定の合成位置に配置した一例である。ここでは、合成部14bは、パソコン300から送信・指定された管理番号001に対応する顔部分f1を特定の合成位置即ち最も目立つ合成位置P1に合成された状態を示している。その他の顔部分f2〜f4は残る合成位置P2〜P4にランダムに配置するなどして適宜配置されている。合成部14bは、各合成位置に配置した顔部分をテンプレート画像と合成し、得られた合成画像を処理画像としてプリント注文サーバ200に送信する(S105)。その他の各ステップの処理は第2実施形態と同様であるので説明は省略する。   FIG. 14 is an example in which the face portion corresponding to the designated management number is arranged at a specific composition position. Here, the synthesizing unit 14b shows a state where the face portion f1 corresponding to the management number 001 transmitted / designated from the personal computer 300 is synthesized at a specific synthesis position, that is, the most prominent synthesis position P1. The other face portions f2 to f4 are appropriately arranged, for example, by being randomly arranged at the remaining synthesis positions P2 to P4. The combining unit 14b combines the face portion arranged at each combining position with the template image, and transmits the obtained combined image as a processed image to the print order server 200 (S105). Since the processing of other steps is the same as that of the second embodiment, description thereof is omitted.

以上のようにすれば、集合写真から抽出された人物の顔画像の内、注文者の保有するICカード6の管理番号に対応する顔部分に特別の画像処理を施した面白い画像を提供することができる。特に、指定された管理番号に対応する顔部分をテンプレート画像の特定の合成領域に配置することもできる。   By doing so, it is possible to provide an interesting image obtained by performing special image processing on the face portion corresponding to the management number of the IC card 6 held by the orderer among the face images of the person extracted from the group photo. Can do. In particular, the face portion corresponding to the designated management number can be arranged in a specific composition area of the template image.

第1実施形態に係る顔検出装置の概略機能構成図Schematic functional block diagram of the face detection apparatus according to the first embodiment リンク処理の流れを示すフローチャートFlow chart showing the flow of link processing 撮影画像の一例を示す図The figure which shows an example of the photographed image 人物の立ち位置に配置されたICカードリーダの一例を示す図The figure which shows an example of the IC card reader arrange | positioned in the standing position of a person 記憶部及び管理DBに記憶される情報の概念説明図Conceptual explanatory diagram of information stored in storage unit and management DB 撮影画像上の分割領域を例示した図A diagram exemplifying the divided areas on the captured image ICカードを保有する人物をICカードを読み取らせた順序に応じた位置に誘導する状況を例示した図The figure which illustrated the situation which guides the person who has an IC card to the position according to the order which made the IC card read 記憶部及び管理DBに記憶される情報の概念説明図Conceptual explanatory diagram of information stored in storage unit and management DB 第2実施形態に係る撮影画像提供システムの概略機能構成図Schematic functional configuration diagram of a captured image providing system according to the second embodiment 撮影画像提供システムの実行する画像提供処理のフローチャートFlowchart of image providing process executed by photographed image providing system 管理番号に対応する顔部分以外の顔部分が閲覧困難になるよう処理された撮影画像の一例を示す図The figure which shows an example of the picked-up image processed so that face parts other than the face part corresponding to a management number may become difficult to browse 第3実施形態に係る顔検出装置の概略機能構成図Schematic functional configuration diagram of a face detection apparatus according to the third embodiment テンプレート画像の一例を示す図The figure which shows an example of a template image 合成画像の一例を示す図Diagram showing an example of a composite image

符号の説明Explanation of symbols

1:処理部、2:メディアリーダ、3:ICカードリーダ、4:管理DB、10:撮影画像入力部、11:顔検出部、12:管理番号取得部、13:リンク部、100:顔検出装置 1: processing unit, 2: media reader, 3: IC card reader, 4: management DB, 10: captured image input unit, 11: face detection unit, 12: management number acquisition unit, 13: link unit, 100: face detection apparatus

Claims (10)

人物の顔部分を記録した撮影画像を入力する撮影画像入力部と、
前記人物の顔部分を検出する検出部と、
ICカードに記憶されている固有の識別情報を読み取る読取部と、
前記検出された顔部分と前記固有の識別情報とを対応づけるリンク部と、
を備える顔検出装置。
A captured image input unit for inputting a captured image in which a person's face is recorded;
A detection unit for detecting a face portion of the person;
A reading unit for reading unique identification information stored in the IC card;
A link unit that associates the detected face part with the unique identification information;
A face detection device comprising:
固有の識別情報の指定を受け付ける指定部をさらに備える請求項1に記載の顔検出装置。   The face detection apparatus according to claim 1, further comprising a designation unit that accepts designation of unique identification information. 前記指定された固有の識別情報に対応する撮影画像の顔部分に所定の画像処理を行う画像処理部をさらに備える請求項2に記載の顔検出装置。   The face detection apparatus according to claim 2, further comprising an image processing unit that performs predetermined image processing on a face portion of a captured image corresponding to the specified unique identification information. 前記顔部分を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力部をさらに備え、
前記画像処理部は、前記指定された固有の識別情報に対応する顔部分の画像である顔画像を前記撮影画像から抽出する抽出部と、前記抽出された顔画像を前記テンプレート画像の合成領域に配置し、前記合成領域に配置された顔画像と前記テンプレート画像とを合成した合成画像を作成する合成部とを有する請求項3に記載の顔検出装置。
A template image input unit for inputting a template image having a composite area that is a blank area in which the face portion is arranged;
The image processing unit includes: an extraction unit that extracts a face image that is an image of a face part corresponding to the specified unique identification information from the photographed image; and the extracted face image as a combined region of the template image. The face detection device according to claim 3, further comprising: a combining unit configured to generate a combined image by combining the face image disposed in the combining region and the template image.
前記指定された固有の識別情報に対応する顔部分以外の顔部分に所定の画像処理を行う画像処理部をさらに備える請求項2に記載の顔検出装置。   The face detection apparatus according to claim 2, further comprising an image processing unit that performs predetermined image processing on a face part other than the face part corresponding to the specified unique identification information. 前記所定の画像処理は、前記指定された固有の識別情報に対応する顔部分以外の顔部分の閲覧を困難にする画像処理である請求項5に記載の顔検出装置。   The face detection apparatus according to claim 5, wherein the predetermined image processing is image processing that makes it difficult to view a face portion other than the face portion corresponding to the specified unique identification information. 前記リンク部は前記顔部分が属する撮影画像上の領域に従って前記顔部分と前記固有の識別情報とを対応づける請求項1〜6のいずれかに記載の顔検出装置。   The face detection device according to claim 1, wherein the link unit associates the face part with the unique identification information according to a region on a captured image to which the face part belongs. 前記リンク部は前記固有の識別情報が読み取られた順序に従って前記顔部分と前記固有の識別情報とを対応づける請求項1〜7のいずれかに記載の顔検出装置。   The face detection device according to claim 1, wherein the link unit associates the face portion with the unique identification information according to an order in which the unique identification information is read. 人物の顔部分を記録した撮影画像を入力する撮影画像入力ステップと、
前記人物の顔部分を検出する検出ステップと、
ICカードに記憶されている固有の識別情報を読み取る読取ステップと、
前記検出された顔部分と前記固有の識別情報とを対応づけるリンクステップと、
を含む顔検出方法。
A captured image input step for inputting a captured image in which a person's face is recorded;
A detection step of detecting a face portion of the person;
A reading step of reading unique identification information stored in the IC card;
A link step of associating the detected face part with the unique identification information;
A face detection method including:
人物の顔部分を記録した撮影画像を入力する撮影画像入力ステップと、
前記人物の顔部分を検出する検出ステップと、
ICカードに記憶されている固有の識別情報を読み取る読取ステップと、
前記検出された顔部分と前記固有の識別情報とを対応づけるリンクステップと、
をコンピュータに実行させる顔検出プログラム。
A captured image input step for inputting a captured image in which a person's face is recorded;
A detection step of detecting a face portion of the person;
A reading step of reading unique identification information stored in the IC card;
A link step of associating the detected face part with the unique identification information;
A face detection program that runs a computer.
JP2004299159A 2004-10-13 2004-10-13 Face detecting device, face detecting method and face detecting program Pending JP2006113741A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004299159A JP2006113741A (en) 2004-10-13 2004-10-13 Face detecting device, face detecting method and face detecting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004299159A JP2006113741A (en) 2004-10-13 2004-10-13 Face detecting device, face detecting method and face detecting program

Publications (1)

Publication Number Publication Date
JP2006113741A true JP2006113741A (en) 2006-04-27

Family

ID=36382223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004299159A Pending JP2006113741A (en) 2004-10-13 2004-10-13 Face detecting device, face detecting method and face detecting program

Country Status (1)

Country Link
JP (1) JP2006113741A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033943A (en) * 2006-07-31 2008-02-14 Ricoh Co Ltd Searching media content for object specified using identifier
JP2017107434A (en) * 2015-12-10 2017-06-15 株式会社リコー Program, information processing apparatus, image display method, and image processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033943A (en) * 2006-07-31 2008-02-14 Ricoh Co Ltd Searching media content for object specified using identifier
JP2017107434A (en) * 2015-12-10 2017-06-15 株式会社リコー Program, information processing apparatus, image display method, and image processing system

Similar Documents

Publication Publication Date Title
US7868924B2 (en) Image capturing apparatus, image capturing method, album creating apparatus, album creating method, album creating system and computer readable medium
US7889381B2 (en) Photo service system
US10522189B2 (en) System and method for automatically displaying variable image content in an image product
TW201230789A (en) Image processing system and object of image capturing used therewith
JP2007266658A (en) Data display apparatus and method, and program
US20070076258A1 (en) Album creating system, album creating method and creating program
JP2003264785A (en) Method for identifying and capturing metadata in capture images
JP4265798B2 (en) Image data management method, image data management apparatus, image data management system, program, and recording medium
EP1673930B1 (en) Digital one-time-use camera system
JP2006113741A (en) Face detecting device, face detecting method and face detecting program
JP5109182B2 (en) Image processing system and image processing method
US20050102521A1 (en) Method for obtaining photo property release
JP4235825B2 (en) Photo service system and method
JP4932802B2 (en) Image processing apparatus, method, and program
JP4424072B2 (en) Photo service system
JP4389728B2 (en) Image forming apparatus, image selection screen generation method, and program
JP2005286496A (en) Image processing method, image processing program, and image processing apparatus
JP4239829B2 (en) Electronic album creation apparatus, electronic album creation method, and program
JP7452591B1 (en) Image generation system and image generation method
JP2006119844A (en) Image processor, image processing method and image processing program
JP2010279047A (en) Data display device and method, and program
JP7467834B2 (en) IMAGE PROCESSING SYSTEM, VIEW IMAGE GENERATION DEVICE, TERMINAL DEVICE, INFORMATION PROCESSING DEVICE, AND PROGRAM
JP2007279799A (en) Image exchange device, image exchange method and image exchange processing program
JP4243898B2 (en) ID photo processing system
JP2021149882A (en) Image processing system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070105