JP2009048234A - System and method for face recognition - Google Patents

System and method for face recognition Download PDF

Info

Publication number
JP2009048234A
JP2009048234A JP2007211027A JP2007211027A JP2009048234A JP 2009048234 A JP2009048234 A JP 2009048234A JP 2007211027 A JP2007211027 A JP 2007211027A JP 2007211027 A JP2007211027 A JP 2007211027A JP 2009048234 A JP2009048234 A JP 2009048234A
Authority
JP
Japan
Prior art keywords
face
image
background
unit
rearranged
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007211027A
Other languages
Japanese (ja)
Inventor
Yasushi Hattori
泰 服部
Tomoaki Takano
智章 高野
Hiroki Yamauchi
寛紀 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takumi Vision Co Ltd
Original Assignee
Takumi Vision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takumi Vision Co Ltd filed Critical Takumi Vision Co Ltd
Priority to JP2007211027A priority Critical patent/JP2009048234A/en
Publication of JP2009048234A publication Critical patent/JP2009048234A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face recognition system and a face recognition method having a high recognition rate, by generating an image constituted of only data representing the features of a face after deleting an image of a background other than the face from an image obtained by imaging the face, and by performing a variety of recognition process using the image constituted of only the data representing the features of the face, in the face recognition system for recognizing and discriminating the face. <P>SOLUTION: The face recognition system includes: a face imaging section for imaging the face; a face part cutout section for discriminating and cutting out major parts of the face from the image obtained by the face imaging section; a face part rearranged image generation section for rearranging the face parts cut out by the face part cutout section, on a blank work area and generating the image; and a recognition section for recognizing the image in which the face parts are disposed by the face part rearranged image generation section. Thus, by properly deleting the background from the image, the face recognition system shows efficient recognition process with high accuracy. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、顔を認識する顔認識システムと方法に関する。   The present invention relates to a face recognition system and method for recognizing a face.

近年、建物の入退館管理システムにおいて、入館を許可すべき人か否かの判断を、指紋による個人認証や、パスワードによる個人識別をするといったバイオメトリクス認証システムが普及しつつある。このバイオメトリクス認証システムをさらに発展させて、人間が他人を認証し判別する場合と同様に、入退館管理システムが人を顔により認証し判別することができれば入退館管理システムの利便性が向上する。また、個人を顔により認証し判別する技術を、ロボットに応用すれば、ロボットの機能が飛躍的に高まり、ロボットに受付業務をさせたり、高度な癒しロボットを実現することが可能となる。   In recent years, in a building entrance / exit management system, biometrics authentication systems such as personal authentication based on fingerprints and personal identification based on passwords have been widely used to determine whether or not a person should be permitted to enter a building. If this biometrics authentication system is further developed, the entrance / exit management system will be more convenient if the entrance / exit management system can authenticate and discriminate people by face, as in the case where humans authenticate and discriminate others. improves. In addition, if a technique for authenticating and discriminating an individual by face is applied to a robot, the function of the robot is dramatically improved, and it is possible to allow the robot to perform reception work or to realize an advanced healing robot.

人の顔を認証し判別する顔認証システムにおいては、判別の基準となる人の顔を顔の特徴を抽出して、抽出した特徴を、種々の特徴を要素とする多次元の特徴空間における個々の顔に固有な特徴領域として把握し、この特徴領域を比較することにより、特定の顔か否かを判断する。   In a face authentication system for authenticating and discriminating human faces, facial features are extracted from the human face that serves as the basis for discrimination, and the extracted features are individually stored in a multidimensional feature space having various features as elements. As a characteristic region unique to the face, it is determined whether or not it is a specific face by comparing the characteristic regions.

このような顔認証システムにおいては、人の顔の特徴を目、鼻、口、顔の輪郭という顔のパーツそのものの形状と、このパーツ相互間の配置情報を主な顔に固有な特徴として把握する。   In such a face authentication system, the features of a person's face are grasped as the shape of the facial parts themselves, such as the eyes, nose, mouth, and facial contours, and the arrangement information between these parts as the features unique to the main face. To do.

しかし、顔の特徴を把握するために、人の顔を 撮像すると、必ず、顔以外の背景が画像に含まれる。背景は、人に固有なデータではなく、また、顔を撮像するときの撮像条件によって様々に変化するので、顔に固有な特徴を 抽出する際や、認識処理をする際の障害となる。図に基づいて説明する。   However, when a person's face is imaged in order to grasp the features of the face, a background other than the face is always included in the image. The background is not data unique to a person, and changes variously depending on the imaging conditions when the face is imaged. This is an obstacle to extracting features unique to the face and performing recognition processing. This will be described with reference to the drawings.

図3はCCDカメラで撮像した顔の画像である。
図3において、300は全体の画像であり、301は背景のカーテンの画像であり、303は背景の窓ガラスの画像であり、302は髪の毛である。
この画像の場合には背景として、窓とカーテンが写っている。このように顔を写した画像においては背景や、髪の毛のように、顔の一部であっても一定の形状を保たないものの存在により、顔の輪郭線と背景との境界を正確に把握することは難しく、顔による認識技術分野における課題である。
FIG. 3 is an image of a face taken with a CCD camera.
In FIG. 3, 300 is an entire image, 301 is an image of a background curtain, 303 is an image of a background window glass, and 302 is hair.
In the case of this image, a window and a curtain are shown as a background. In the image showing the face in this way, the boundary between the outline of the face and the background can be accurately grasped due to the presence of a part of the face that does not maintain a certain shape, such as the background or hair. This is a challenge in the face recognition technology field.

この問題を解決するために従来は、背景と顔の境界を可能な 範囲で把握して、単に、背景を無模様化したり、顔にマスクをして、顔の中央部分だけを深く切り出していた。
特開平4−277873
In order to solve this problem, in the past, the boundary between the background and the face was grasped as much as possible, and the background was simply made non-patterned or the face was masked to cut out only the central part of the face. .
JP-A-4-277873

しかしながら背景は、撮像条件によって予想外の変化をするものであり、また、顔の輪郭も髪型等によって種々に変化するので、顔と背景の境界を正確に捉えることには限界があり、従来の方法では背景の排除が完全ではなかった。   However, the background changes unexpectedly depending on the imaging conditions, and the face outline changes variously depending on the hairstyle etc., so there is a limit to accurately capturing the boundary between the face and the background. The method did not completely eliminate the background.

そこで本発明は、顔を認識して判別する顔認識システムにおいて、顔を撮像した画像から、背景を確実に排除して、人の顔に関する特徴的な画像のみを的確に取得し、背景に起因する悪影響を受けることのない、効率的で認識率の高い顔認識システムおよび顔認識方法を提供することを目的とする。   Therefore, the present invention is a face recognition system for recognizing and discriminating a face, by accurately excluding the background from the image obtained by capturing the face, and accurately acquiring only a characteristic image related to the human face. An object of the present invention is to provide an efficient and high recognition rate face recognition system and face recognition method that are not adversely affected.

請求項1に記載の発明は顔を認識する顔認識システムであって、
顔を撮像する顔撮像部と、
前記顔撮像手段により撮像された画像から背景を削除する背景削除部と、
前記背景削除部により背景が削除された画像(以下「顔画像」ともいう)から、顔の主要なパーツ(以下「顔パーツ」ともいう)を判別し、切り出す、顔パーツ切り出し部と、
前記各顔パーツの形状と位置に関する情報(以下「顔パーツ情報」ともいう)を取得する顔パーツ情報取得部と、
前記顔パーツ切り出し部により切り出された前記各顔パーツを前記顔パーツ情報に基づいて無地のワークエリアに再配置して、前記無地のワークエリアに前記顔パーツが再配置された画像(以下「再配置顔画像」ともいう)を作成する顔パーツ再配置画像作成部と、
前記顔パーツ再配置画像作成部により作成された前記再配置顔画像に対して認識処理を行う認識処理部と、を有し、
撮像した画像から背景に関する画像を削除して、認識処理を行うことを特徴とする。
The invention according to claim 1 is a face recognition system for recognizing a face,
A face imaging unit for imaging a face;
A background deletion unit that deletes a background from the image captured by the face imaging unit;
A face part cutout unit that discriminates and cuts out major parts of the face (hereinafter also referred to as “face parts”) from an image (hereinafter also referred to as “face image”) from which the background has been deleted by the background deletion unit;
A face part information acquisition unit for acquiring information on the shape and position of each face part (hereinafter also referred to as “face part information”);
Each face part cut out by the face part cutout unit is rearranged in a plain work area based on the face part information, and the face part is rearranged in the plain work area (hereinafter referred to as “re-arrangement”). A face part rearrangement image creation unit for creating a layout face image),
A recognition processing unit that performs recognition processing on the rearranged face image created by the face part rearranged image creation unit,
A recognition process is performed by deleting an image related to the background from the captured image.

請求項2に記載の発明は顔を認識する顔認識方法であって、
顔を撮像する顔撮像工程と、
前記顔撮像工程により撮像された顔の画像から背景を削除する背景削除工程と、
前記背景削除工程により背景が削除された前記顔画像から、顔の前記顔パーツを判別し、切り出す、顔パーツ切り出し工程と、
前記各顔パーツの形状と位置に関する前記顔パーツ情報を取得する顔パーツ情報取得工程と、
前記顔パーツ切り出し工程により切り出された前記各顔パーツを前記顔パーツ情報に基づいて無地のワークエリアに再配置して、前記無地のワークエリアに前記顔パーツが再配置された前記再配置顔画像を作成する顔パーツ再配置画像作成工程と、
前記顔パーツ再配置画像作成工程により作成された前記再配置顔画像に対して認識処理を行う認識処理工程と、を有し、
撮像した画像から背景に関する画像を削除して、認識処理を行うことを特徴とする。
The invention according to claim 2 is a face recognition method for recognizing a face,
A face imaging process for imaging a face;
A background deletion step of deleting a background from the image of the face imaged by the face imaging step;
From the face image from which the background has been deleted by the background deletion step, the face part of the face is determined and cut out, a face part cutout step,
A facial part information acquisition step of acquiring the facial part information relating to the shape and position of each facial part;
The rearranged face image obtained by rearranging the face parts cut out by the face part cutout process in a plain work area based on the face part information and rearranging the face parts in the plain work area. A face part rearrangement image creation process to create,
A recognition processing step of performing recognition processing on the rearranged face image created by the face part rearrangement image creation step,
A recognition process is performed by deleting an image related to the background from the captured image.

本発明に係る顔認識システムによれば、撮像手段が撮像した画像から顔以外の背景を的確に排除した画像を作成することが可能となる。その結果、その後の、画像の処理において、背景が含まれない画像に対して種々の認識処理を行うことができ、認識率が高く、効率のよい顔認識システムを実現できる。   According to the face recognition system of the present invention, it is possible to create an image in which the background other than the face is accurately excluded from the image captured by the imaging unit. As a result, in subsequent image processing, various recognition processes can be performed on an image that does not include a background, and an efficient face recognition system with a high recognition rate can be realized.

以下、図を参照しつつ、発明を実施するための最良の形態につき説明する。   Hereinafter, the best mode for carrying out the invention will be described with reference to the drawings.

(実施の形態1)
図1は本発明に係る顔認識システムの構成を示すブロック図である。
図1において、101は撮像部であり、102は背景排除部であり、103は顔パーツ切り出し部であり、104は顔パーツ情報取得部であり、105は顔パーツ再配置画像作成部であり、106は認識処理部である。また、107は、背景排除部102、顔パーツ切り出し部103、顔パーツ情報取得部104、顔パーツ再配置画像作成部105および認識処理部106を構成するパソコンである。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of a face recognition system according to the present invention.
In FIG. 1, 101 is an imaging unit, 102 is a background exclusion unit, 103 is a face part cutout unit, 104 is a face part information acquisition unit, 105 is a face part rearranged image creation unit, Reference numeral 106 denotes a recognition processing unit. Reference numeral 107 denotes a personal computer that constitutes the background exclusion unit 102, the facial part cutout unit 103, the facial part information acquisition unit 104, the facial part rearranged image creation unit 105, and the recognition processing unit 106.

次に、各部について説明する。   Next, each part will be described.

撮像部101は顔を撮像する装置であり、例えばCCDカメラにより構成する。ただし、CCDカメラ以外の機器で構成してもよい。   The imaging unit 101 is a device that captures a face, and is configured by, for example, a CCD camera. However, you may comprise with apparatuses other than a CCD camera.

背景排除部102は撮像された画像から、背景を排除し、顔の画像だけを残存させるものである。図に基づいて説明する。   The background exclusion unit 102 excludes the background from the captured image and leaves only the face image. This will be described with reference to the drawings.

図3は撮像部101が撮像した顔の画像である。
図3において、300は全体の画像であり、301は背景のカーテンの画像であり、303は背景の窓ガラスの画像であり、302は髪の毛である。
図4は背景を排除した後の顔の画像である。
背景排除部102は、顔の後ろに写っている窓、カーテン等の背景を削除する。この場合において、顔と背景の境界を精確に把握することは困難であり、背景が残存することを避けるために、図4に示された画像のように、顔の周囲を切り取って背景が残存しないようにする場合が多い。
FIG. 3 is a face image captured by the image capturing unit 101.
In FIG. 3, 300 is an entire image, 301 is an image of a background curtain, 303 is an image of a background window glass, and 302 is hair.
FIG. 4 is an image of the face after removing the background.
The background exclusion unit 102 deletes the background such as a window or curtain that is reflected behind the face. In this case, it is difficult to accurately grasp the boundary between the face and the background, and in order to avoid the remaining of the background, the background remains by cutting out the periphery of the face as in the image shown in FIG. There are many cases to avoid.

顔パーツ切り出し部103は背景が排除された画像から、顔の主要な部分である顔パーツを探し出して、切り出す。   The face part cutout unit 103 searches for a face part that is a main part of the face from the image from which the background is excluded, and cuts out the face part.

次に顔パーツ情報取得部104は、顔パーツ切り出し部103が切り出した各顔パーツの形状と位置を取得する。
図5は顔パーツの形状と位置に関する情報について説明するための説明 図である。
図5において、501と502は顔パーツの形状と位置に関する情報を示すための座標軸(X軸,Y軸)であり、502がX軸、501がY軸である。この図5では、両目を横に結ぶ横線と顔(鼻)の中央を縦断する縦線との交点をXY座標の原点(0,0)としている。Aは唇の右端であり、Bは唇の左端である。a1は位置AのY座標の絶対値であり、a2は位置AのX座標の絶対値であり、b1は位置BのY座標の絶対値であり、b2は位置BのX座標の絶対値である。
Next, the face part information acquisition unit 104 acquires the shape and position of each face part cut out by the face part cutout unit 103.
FIG. 5 is an explanatory diagram for explaining information on the shape and position of a face part.
In FIG. 5, reference numerals 501 and 502 are coordinate axes (X axis, Y axis) for indicating information on the shape and position of the face part, 502 is the X axis, and 501 is the Y axis. In FIG. 5, the intersection of a horizontal line connecting both eyes horizontally and a vertical line that cuts the center of the face (nose) is the origin (0, 0) of the XY coordinates. A is the right edge of the lips and B is the left edge of the lips. a1 is the absolute value of the Y coordinate of position A, a2 is the absolute value of the X coordinate of position A, b1 is the absolute value of the Y coordinate of position B, and b2 is the absolute value of the X coordinate of position B is there.

顔パーツ情報取得部104は顔パーツの形状と位置を把握し、各顔パーツの形状と位置を適当な座標軸を用いて数値化し、顔パーツ情報として保管する。
例えば、唇の右端の位置AはXY座標で(a2,−a1)であり、唇の左端の位置BはXY座標で(―b2,−b1)となる。他の顔パーツに関しても同様に各顔パーツの位置をXY座標を使用して把握して顔パーツ情報を取得する。また、顔パーツの各部分についての位置に関する情報を取得すれば、顔パーツの形状についての情報を取得したことにもなる。
The face part information acquisition unit 104 grasps the shape and position of the face part, digitizes the shape and position of each face part using an appropriate coordinate axis, and stores it as face part information.
For example, the right end position A of the lips is (a2, -a1) in XY coordinates, and the left end position B of the lips is (-b2, -b1) in XY coordinates. Similarly, with respect to other face parts, the position of each face part is grasped using XY coordinates, and face part information is acquired. Further, if information on the position of each part of the face part is acquired, information on the shape of the face part is also acquired.

顔パーツ再配置画像作成部105は、顔パーツ切り出し部103が探し出して切り出した各顔パーツをなにもない白紙のワークエリアに、顔パーツ情報取得部104が取得した各顔パーツの位置に関する情報に基づいて、再配置する。
図6は顔パーツが再配置された画像について説明するための説明図である。
図6において、601はなにもないワークエリアに顔パーツを再配置した再配置顔画像である。602は顔パーツの一つである、鼻に関する顔パーツであり、603は顔パーツの一つである、目に関する顔パーツであり、604は顔パーツの一つである、口に関する顔パーツである。なお、602乃至604は顔パーツの例示であり、これらに限定されるものではない。
再配置顔画像601は各顔パーツの形状に関する情報と各顔パーツ間の形状と位置に関する情報を含んでおり、この情報は、背景などのようにノイズ的なデータではなく、顔に固有なデータのみで構成されたデータである。
The face part rearranged image creation unit 105 finds information about the position of each face part acquired by the face part information acquisition unit 104 in a blank work area that has no face parts searched out by the face parts cutout unit 103. Relocate based on
FIG. 6 is an explanatory diagram for explaining an image in which face parts are rearranged.
In FIG. 6, reference numeral 601 denotes a rearranged face image in which face parts are rearranged in an empty work area. 602 is a face part related to the nose, which is one of the face parts, 603 is a face part related to the eyes, which is one of the face parts, and 604 is a face part related to the mouth, which is one of the face parts. . Note that reference numerals 602 to 604 are examples of face parts, and are not limited to these.
The rearranged face image 601 includes information on the shape of each face part and information on the shape and position between the face parts. This information is not noise data such as the background but data unique to the face. It is data composed only of

認識処理部106は再配置顔画像601に対して、顔を認識するための種々の画像処理を行う。再配置顔画像601はなにもないワークエリアに顔パーツを再配置したものであるので、背景に関する情報は含まれていない。そのため、認識処理部106は再配置顔画像601を処理することにより、背景等の障害となるデータに乱されることが無く、高精度の画像処理を実現できる。   The recognition processing unit 106 performs various image processes for recognizing the face on the rearranged face image 601. Since the rearranged face image 601 is obtained by rearranging the face parts in the empty work area, information regarding the background is not included. For this reason, the recognition processing unit 106 processes the rearranged face image 601, thereby realizing high-accuracy image processing without being disturbed by data such as a background.

次に、本発明に係る顔認識方法について、説明する。
図2は本発明に係る顔認識方法の概略を示すフローチャートである。
図2において、S200は撮像工程であり、S201は背景排除工程であり、S202は顔パーツ切り出し工程であり、S203は顔パーツ情報取得工程であり、S204は顔パーツ再配置顔画像作成工程であり、S205は認識処理工程である。
Next, the face recognition method according to the present invention will be described.
FIG. 2 is a flowchart showing an outline of the face recognition method according to the present invention.
In FIG. 2, S200 is an imaging process, S201 is a background removal process, S202 is a face part cutout process, S203 is a face part information acquisition process, and S204 is a face part rearrangement face image creation process. , S205 is a recognition processing step.

最初に、対象とする顔をCCDカメラ等で撮像して、顔を写した画像を得る(S200)。   First, the target face is imaged with a CCD camera or the like to obtain an image of the face (S200).

次に、顔を写した画像から背景を排除する(S201)。例えば、顔の中心部にマスクをして、マスクされたところ以外を削除することにより背景を取り除く。   Next, the background is excluded from the image showing the face (S201). For example, a mask is applied to the center of the face, and the background is removed by deleting portions other than the masked portion.

そして、背景が排除された顔の画像から、顔を構成する目、鼻、口などの主要なパーツを抽出して、切り出す(S202)。   Then, main parts such as eyes, nose and mouth constituting the face are extracted from the face image from which the background is excluded and cut out (S202).

次に、切り出された各顔パーツの位置を把握し、顔パーツ情報として、取得する(S203)。具体的には、例えば図5に示されているように、どこかを原点としたXY座標に基づいて各顔パーツの形状と位置に関する情報を把握する。ただし、把握する方法はXY座標を用いる方法に限定されるものではなく、各顔パーツの形状と位置を把握できるものであれば、他の方法であってもよい。   Next, the position of each extracted face part is grasped and acquired as face part information (S203). Specifically, for example, as shown in FIG. 5, information on the shape and position of each face part is grasped based on XY coordinates with the origin as the origin. However, the grasping method is not limited to the method using the XY coordinates, and any other method may be used as long as the shape and position of each face part can be grasped.

次に、何もない白紙のワークエリアに切り出した顔パーツを顔パーツ情報に基づいて再配置する(S204)。その結果、背景などの顔に無関係な情報を含んでいない再配置顔画像601(図6、参照)を得ることができる。   Next, the face parts cut out in the blank blank work area are rearranged based on the face part information (S204). As a result, a rearranged face image 601 (see FIG. 6) that does not include information irrelevant to the face such as the background can be obtained.

次に、再配置顔画像601に基づいて、顔を認識するための種々の画像処理を行う(S205)。
再配置顔画像601は顔に固有なデータのみにより構成されているので、背景のようなノイズに邪魔をされない、効率的で、高精度の認識処理を実現できる。
Next, various image processing for recognizing the face is performed based on the rearranged face image 601 (S205).
Since the rearranged face image 601 is composed only of data unique to the face, it is possible to realize an efficient and highly accurate recognition process that is not disturbed by noise such as the background.

顔認識システムの構成を示すブロック図である。It is a block diagram which shows the structure of a face recognition system. 顔認識方法の概略を示すフローチャートである。It is a flowchart which shows the outline of a face recognition method. CCDカメラで撮像した顔の画像である。It is the image of the face imaged with the CCD camera. 背景を排除した後の顔の画像である。It is an image of the face after removing the background. 顔パーツに関する顔パーツ情報について説明するための説明図である。It is explanatory drawing for demonstrating the facial part information regarding a facial part. 顔パーツが再配置された画像について説明するための説明図である。It is explanatory drawing for demonstrating the image by which the face part was rearranged.

符号の説明Explanation of symbols

101 撮像部
102 背景排除部
103 顔パーツ切り出し部
104 顔パーツ情報取得
105 顔パーツ再配置画像作成部
106 認識処理部
107 背景排除部102、顔パーツ切り出し部103、顔パーツ情報取得部104、顔パーツ再配置画像作成部105および認識処理部106を構成するパソコン
DESCRIPTION OF SYMBOLS 101 Image pick-up part 102 Background exclusion part 103 Face part clipping part 104 Face part information acquisition 105 Face part rearrangement image creation part 106 Recognition processing part 107 Background exclusion part 102, Face part clipping part 103, Face part information acquisition part 104, Face parts Personal computer constituting rearranged image creation unit 105 and recognition processing unit 106

Claims (2)

顔を認識する顔認識システムであって、
顔を撮像する顔撮像部と、
前記顔撮像部により撮像された顔の画像から背景を削除する背景削除部と、
前記背景削除部により背景が削除された画像(以下「顔画像」ともいう)から、顔の主要なパーツ(以下「顔パーツ」ともいう)を判別し、切り出す、顔パーツ切り出し部と、
前記各顔パーツの形状と位置に関する情報(以下「顔パーツ情報」ともいう)を取得する顔パーツ情報取得部と、
前記顔パーツ切り出し部により切り出された前記各顔パーツを、前記顔パーツ 情報に基づいて無地のワークエリアに再配置して、前記無地のワークエリアに前記顔パーツが再配置された画像(以下「再配置顔画像」ともいう)を作成する顔パーツ再配置画像作成部と、
前記顔パーツ再配置画像作成部により作成された前記再配置顔画像に対して認識処理を行う認識処理部と、を有し、
撮像した画像から背景に関する画像を削除して、認識処理を行うことを特徴とする顔認識システム。
A face recognition system for recognizing a face,
A face imaging unit for imaging a face;
A background deletion unit that deletes a background from the face image captured by the face imaging unit;
A face part cutout unit that discriminates and cuts out major parts of the face (hereinafter also referred to as “face parts”) from an image (hereinafter also referred to as “face image”) from which the background has been deleted by the background deletion unit;
A face part information acquisition unit for acquiring information on the shape and position of each face part (hereinafter also referred to as “face part information”);
The face parts cut out by the face part cutout unit are rearranged in a plain work area based on the face part information, and the face parts are rearranged in the plain work area (hereinafter, “ A face part rearrangement image creation unit for creating a rearrangement face image),
A recognition processing unit that performs recognition processing on the rearranged face image created by the face part rearranged image creation unit,
A face recognition system, wherein an image related to a background is deleted from a captured image and recognition processing is performed.
顔を認識する顔認識方法であって、
顔を撮像する顔撮像工程と、
前記顔撮像工程により撮像された顔の画像から背景を削除する背景削除工程と、
前記背景削除工程により背景が削除された前記顔画像から、顔の前記顔パーツを判別し、切り出す、顔パーツ切り出し工程と、
前記各顔パーツの形状と位置に関する前記顔パーツ情報を取得する顔パーツ情報取得工程と、
前記顔パーツ切り出し工程により切り出された前記各顔パーツを前記顔パーツ情報に基づいて無地のワークエリアに再配置して、前記無地のワークエリアに前記顔パーツが再配置された前記再配置顔画像を作成する顔パーツ再配置画像作成工程と、
前記顔パーツ再配置画像作成工程により作成された前記再配置顔画像に対して認識処理を行う認識処理工程と、を有し、
撮像した画像から背景に関する画像を削除して、認識処理を行うことを特徴とする顔認識方法。
A face recognition method for recognizing a face,
A face imaging process for imaging a face;
A background deletion step of deleting a background from the image of the face imaged by the face imaging step;
From the face image from which the background has been deleted by the background deletion step, the face part of the face is determined and cut out, a face part cutout step,
A facial part information acquisition step of acquiring the facial part information relating to the shape and position of each facial part;
The rearranged face image obtained by rearranging the face parts cut out by the face part cutout process in a plain work area based on the face part information and rearranging the face parts in the plain work area. A face part rearrangement image creation process to create,
A recognition processing step of performing recognition processing on the rearranged face image created by the face part rearrangement image creation step,
A face recognition method comprising performing recognition processing by deleting an image related to a background from a captured image.
JP2007211027A 2007-08-13 2007-08-13 System and method for face recognition Pending JP2009048234A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007211027A JP2009048234A (en) 2007-08-13 2007-08-13 System and method for face recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007211027A JP2009048234A (en) 2007-08-13 2007-08-13 System and method for face recognition

Publications (1)

Publication Number Publication Date
JP2009048234A true JP2009048234A (en) 2009-03-05

Family

ID=40500423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007211027A Pending JP2009048234A (en) 2007-08-13 2007-08-13 System and method for face recognition

Country Status (1)

Country Link
JP (1) JP2009048234A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017088266A1 (en) * 2015-11-26 2017-06-01 小米科技有限责任公司 Image processing method and apparatus
CN109712215A (en) * 2018-11-19 2019-05-03 武汉库柏特科技有限公司 A kind of wire frame drawing drawing method and system based on robot
JP7372212B2 (en) 2020-06-11 2023-10-31 日本電信電話株式会社 Image processing device, image processing method, and image processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017088266A1 (en) * 2015-11-26 2017-06-01 小米科技有限责任公司 Image processing method and apparatus
CN109712215A (en) * 2018-11-19 2019-05-03 武汉库柏特科技有限公司 A kind of wire frame drawing drawing method and system based on robot
CN109712215B (en) * 2018-11-19 2023-06-23 武汉库柏特科技有限公司 Robot-based line block diagram drawing method and system
JP7372212B2 (en) 2020-06-11 2023-10-31 日本電信電話株式会社 Image processing device, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
US11915517B2 (en) Image processing device, image processing method, face recognition system, program, and storage medium
JP5801601B2 (en) Image recognition apparatus, image recognition apparatus control method, and program
JP5747642B2 (en) Biometric authentication device, biometric authentication system, biometric authentication server, biometric authentication client, and biometric authentication device control method
WO2018001092A1 (en) Face recognition method and apparatus
WO2019071664A1 (en) Human face recognition method and apparatus combined with depth information, and storage medium
WO2015165365A1 (en) Facial recognition method and system
JP6472184B2 (en) Object identification device, object identification method, and program
JP2007317062A (en) Person recognition apparatus and method
WO2013161077A1 (en) Biometric authentication device, biometric authentication program, and biometric authentication method
Bong et al. Palm print verification system
JP2022044654A (en) Information processing apparatus, and suspect information generation method and program
JP5888390B2 (en) Biometric authentication device
Shahin et al. A multimodal hand vein, hand geometry, and fingerprint prototype design for high security biometrics
JP2009048234A (en) System and method for face recognition
JP7247579B2 (en) Information processing device, information processing method and program
CN106845405A (en) A kind of method, device and electronic equipment that identity is recognized by Biological imaging
JP2006277146A (en) Collating method and collating device
Zhong et al. VeinDeep: Smartphone unlock using vein patterns
JP2006133937A (en) Behavior identifying device
JP7251874B2 (en) Face authentication device, face authentication method, program, and recording medium
JP6438693B2 (en) Authentication apparatus, authentication method, and program
Patil et al. Iris recognition using fuzzy system
JP2008059408A (en) Facial image collating device, and facial image authentication system and vein image identification device using it
JP2659046B2 (en) Identity verification device
KR101718244B1 (en) Apparatus and method of processing wide angle image for recognizing face