JP5552519B2 - Construction of face feature vector - Google Patents

Construction of face feature vector Download PDF

Info

Publication number
JP5552519B2
JP5552519B2 JP2012230281A JP2012230281A JP5552519B2 JP 5552519 B2 JP5552519 B2 JP 5552519B2 JP 2012230281 A JP2012230281 A JP 2012230281A JP 2012230281 A JP2012230281 A JP 2012230281A JP 5552519 B2 JP5552519 B2 JP 5552519B2
Authority
JP
Japan
Prior art keywords
feature vector
computer code
image
model feature
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012230281A
Other languages
Japanese (ja)
Other versions
JP2013131209A (en
Inventor
エリック ソレム ジャン
ルーソン マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2013131209A publication Critical patent/JP2013131209A/en
Application granted granted Critical
Publication of JP5552519B2 publication Critical patent/JP5552519B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Description

本開示は、一般に、顔認識の分野に関する。より具体的には、本開示は、複数のタイプの顔認識記述子を組み合わせて、単一の要素である顔特徴ベクトルにするための多数の技術を説明する。顔特徴ベクトルは、顔認識の用途に用いることができる。そのような用途の例として、iPhoto(登録商標)及びAperture(登録商標)において画像(スチル画像及びビデオ画像)を管理し、ソートし、注釈を付けることが挙げられるが、これらに限定されるものではない。(IPHOTO及びAPERTUREはApple Inc.社の登録商標である。)   The present disclosure relates generally to the field of face recognition. More specifically, this disclosure describes a number of techniques for combining multiple types of face recognition descriptors into a single element face feature vector. The face feature vector can be used for face recognition. Examples of such applications include, but are not limited to, managing (sorting and annotating) images (still images and video images) in iPhoto® and Aperture®. is not. (IPHOTO and APERTURE are registered trademarks of Apple Inc.)

一般論として、顔認識演算は、人物の顔を走査し、そこから特定のパラメータのセットを抽出又は検出し、これらのパラメータを、既に識別情報が割り当てられているかそうでなければ知られている既知の顔データのライブラリと照合する。新たな画像のパラメータが比較されるデータ・セットは、モデルによって特徴付け又は記述される場合が多い。実際には、これらのモデルは、パラメータ・セットのグループを定めるものであり、所与のグループに入る全ての画像は、同一人物のものとして分類される。   In general, face recognition operations scan a person's face, extract or detect a specific set of parameters from them, and these parameters are already assigned identification information or otherwise known Check against a library of known face data. The data set to which the new image parameters are compared is often characterized or described by the model. In practice, these models define a group of parameter sets, and all images that fall within a given group are classified as those of the same person.

ロバスト(例えば、画像ノイズ、人物のポーズ、及び場面の照度に対して安定である)且つ正確(例えば、高い認識率をもたらす)であるためには、特定のパラメータ・セットは、典型的な人物内での変動に対して繰り返し可能で不変であると同時に、ある人物を別の人物と区別することが可能な方法で、顔を記述する情報をコード化する必要がある。この必要性は、全ての顔認識システムが直面する中心的な問題である。従って、ロバスト且つ正確な顔認識をもたらすパラメータのセットを定めるための機構(方法、装置、及びシステム)を特定することが有益である。   In order to be robust (eg, stable against image noise, human poses, and scene illumination) and accurate (eg, resulting in a high recognition rate), a particular parameter set is a typical person It is necessary to code the information describing the face in a way that is repeatable and unchanging with respect to variations in the face, and at the same time distinguishing one person from another. This need is a central problem facing all face recognition systems. Thus, it is beneficial to identify a mechanism (method, apparatus, and system) for defining a set of parameters that provides robust and accurate face recognition.

種々の実施形態においては、本発明は、デジタル画像において検出された顔を識別するのに用いることができる新規な顔特徴ベクトルを生成するための装置(例えば、パーソナル・コンピュータ)、方法、及びコンピュータ・プログラム・コードを提供する。本方法は、コンピュータ・プログラム・コードを実施(又は実行)して、(例えば、顔検出技術によって)第1の画像における第1の顔についてランドマーク検出情報を得ることを含む。ランドマーク検出情報を第1及び第2の形状モデルに適用して第1及び第2の形状特徴ベクトルを生成し、第1及び第2のテクスチャ・モデルに適用して第1及び第2のテクスチャ特徴ベクトルを生成することができる。これらの4つの特徴ベクトルの全てを組み合わせて、顔特徴ベクトルを形成することができる。   In various embodiments, the present invention provides an apparatus (eg, a personal computer), method, and computer for generating a novel facial feature vector that can be used to identify a detected face in a digital image.・ Provide program code. The method includes implementing (or executing) the computer program code to obtain landmark detection information for the first face in the first image (eg, by face detection techniques). The landmark detection information is applied to the first and second shape models to generate first and second shape feature vectors, and is applied to the first and second texture models to apply the first and second textures. A feature vector can be generated. All of these four feature vectors can be combined to form a face feature vector.

1つの実施形態においては、第1の形状モデルは、検出された顔の二次元形状モデルであり、第2の形状モデルは、検出された顔の三次元形状モデルである。第1及び第2の形状モデルは、互いに独立に線形又は非線形とすることができる。   In one embodiment, the first shape model is a two-dimensional shape model of the detected face, and the second shape model is a three-dimensional shape model of the detected face. The first and second shape models can be linear or non-linear independently of each other.

別の実施形態においては、ランドマーク検出情報は、第1及び第2のテクスチャ特徴ベクトルを生成するのに用いられる前に、正規化することができる。幾つかの実施形態においては、第1のテクスチャ特徴ベクトルは、正規化されたランドマーク検出情報内の特定の領域に基づくものとすることができる(この領域は、正規化されたランドマーク検出情報の全てより少ない情報を含む)。   In another embodiment, the landmark detection information can be normalized before being used to generate the first and second texture feature vectors. In some embodiments, the first texture feature vector may be based on a specific region in the normalized landmark detection information (this region is normalized landmark detection information). Contains less information than all of

更に別の実施形態においては、正規化されたランドマーク検出情報を用いて第2のテクスチャ特徴ベクトルを生成する前に、正規化されたランドマーク検出情報にモーフィング演算を適用することができる。   In yet another embodiment, a morphing operation can be applied to the normalized landmark detection information before generating the second texture feature vector using the normalized landmark detection information.

更にまた別の実施形態においては、こうした2つの顔特徴ベクトルを比較することによって、類似性測度を決定することができる。この類似性測度を用いて、2つの顔特徴ベクトルが同じ顔を表す可能性が高いかどうかを判定することができる。この実施形態及び類似の実施形態においては、類似性測度は、マハラノビス距離測度に基づくことができる。   In yet another embodiment, the similarity measure can be determined by comparing these two facial feature vectors. This similarity measure can be used to determine whether two face feature vectors are likely to represent the same face. In this and similar embodiments, the similarity measure can be based on the Mahalanobis distance measure.

1つの実施形態による顔特徴ベクトル生成及び実行時顔認識の演算をブロック図形式で示す。FIG. 5 illustrates in face diagram form face feature vector generation and runtime face recognition operations according to one embodiment. FIG. 1つの実施形態による形状モデル及びテクスチャ・モデルの合成をブロック図形式で示す。FIG. 3 illustrates in block diagram form a composition of a shape model and a texture model according to one embodiment. 別の実施形態による顔特徴ベクトル生成の演算をブロック図形式で示す。FIG. 6 illustrates in a block diagram form a face feature vector generation operation according to another embodiment. 1つの実施形態によるローカル画像記述子の演算を示す。Fig. 4 illustrates the computation of a local image descriptor according to one embodiment. 1つの実施形態による密な画像記述子の演算を示す。Fig. 4 illustrates dense image descriptor operations according to one embodiment. 1つの実施形態による密な歪み画像記述子の領域を示す。Fig. 4 illustrates a region of a dense distortion image descriptor according to one embodiment. 1つの実施形態による顔特徴ベクトルの構造を示す。Fig. 4 illustrates the structure of a face feature vector according to one embodiment. 1つの実施形態による顔認識演算をフローチャート形式で示す。2 shows a face recognition operation according to one embodiment in flowchart form. 1つの実施形態による開示された顔特徴ベクトルの識別性能を示す例示的な受信者操作特性(ROC)曲線を示す。FIG. 6 illustrates an exemplary receiver operating characteristic (ROC) curve illustrating the disclosed facial feature vector identification performance according to one embodiment. FIG. 本開示による1つ又はそれ以上の演算を実装するのに用いることができる例示的な電子装置をブロック図形式で示す。1 illustrates in block diagram form an exemplary electronic device that can be used to implement one or more operations in accordance with the present disclosure.

本開示は、顔認識パラメータ・セットを決定して適用するためのシステム、方法、及びコンピュータ可読媒体に関する。一般に、顔認識識別子の固有の組み合わせを特定して、従来技術の認識手法に比べてよりロバスト(例えば、画像ノイズ、人物のポーズ、及び場面の照度に対して安定である)且つより正確(例えば、高い認識率をもたらす)であることが見出された「顔特徴ベクトル」を構築するための技術が開示される。より具体的には、顔特徴ベクトルは、形状記述子とテクスチャ記述子との組み合わせによって生成することができる。1つの実装形態においては、顔特徴ベクトルは、顔の二次元(2D)形状と、顔の三次元(3D)形状と、顔の全体即ちグローバルなテクスチャと、細部即ちローカルなテクスチャ情報(例えば皮膚の色)とを記述する情報を含む。   The present disclosure relates to systems, methods, and computer-readable media for determining and applying a face recognition parameter set. In general, a unique combination of face recognition identifiers is identified to be more robust (eg, stable to image noise, human poses, and scene illumination) and more accurate (eg, compared to prior art recognition methods) A technique for constructing a “facial feature vector” that has been found to yield a high recognition rate. More specifically, the face feature vector can be generated by a combination of a shape descriptor and a texture descriptor. In one implementation, the face feature vector includes a two-dimensional (2D) shape of the face, a three-dimensional (3D) shape of the face, the entire face or global texture, and details or local texture information (eg, skin Information).

以下の説明においては、本発明の概念が完全に理解されるように、多数の具体的な詳細が説明目的で示される。当業者には公知である詳細によって本発明を不明確にしないように、この記述の一部として、本開示の図面の幾つかは、構造及び装置をブロック図の形式で表す。さらに、本開示において用いられる言葉は、主として読みやすさ及び教示の目的で選択されたものであり、本発明の主題を画定又は制限するために選択されたものではなく、こうした本発明の主題を判断するためには特許請求の範囲に頼る必要がある。本開示における「1つの実施形態」又は「一実施形態」への言及は、その実施形態に関連して説明された特定の特徴、構造、又は特性が本発明の少なくとも1つの実施形態に含まれていることを意味しており、「1つの実施形態」又は「一実施形態」への複数の言及が必ずしも全て同一の実施形態を指していると理解すべきではない。   In the following description, numerous specific details are set forth for purposes of explanation in order to provide a thorough understanding of the concepts of the present invention. As part of this description, some of the drawings in this disclosure represent structures and devices in block diagram form in order not to obscure the present invention with details that are well known to those skilled in the art. Further, the language used in this disclosure is selected primarily for readability and teaching purposes, and is not selected to define or limit the subject matter of the present invention. In order to make a decision, it is necessary to rely on the claims. Reference to “one embodiment” or “one embodiment” in this disclosure includes in the at least one embodiment of the invention the particular feature, structure, or characteristic described in connection with that embodiment. It is not to be understood that all references to “one embodiment” or “an embodiment” all refer to the same embodiment.

当然のことながら、いずれかの実際の実装形態の開発においては(いずれかの開発プロジェクトなどで)、開発者の特定の目的(例えば、システム関連及びビジネス関連の制約への適合)を達成するために多数の意思決定が行われなければならず、これらの目的は実装形態ごとに変わることになる。同様に当然のことながら、こうした開発努力は、複雑且つ時間のかかるものとなる可能性があるが、それにも関わらず、本開示の利益を有する顔認識分野の当業者にとっては通常業務に当たることになる。   Of course, in developing any actual implementation (such as in any development project), to achieve a developer's specific purpose (eg, conformance to system-related and business-related constraints). Many decisions must be made and these objectives will vary from implementation to implementation. Similarly, it will be appreciated that such development efforts can be complex and time consuming, but nevertheless will be routine for those skilled in the art of face recognition having the benefit of this disclosure. Become.

図1を参照すると、1つの実施形態による顔特徴ベクトル生成及び実行時顔認識の演算100が、ブロック図形式で示される。始めに、入力画像105が顔検出器110に従って処理され、ランドマーク画像115が生成される。本明細書において用いられるときには、「ランドマーク画像」という用語は、ランドマーク点が検出された顔の画像を指す。ランドマーク特徴は、目、眉、鼻、口、及び頬といった1つ又はそれ以上の顔の特徴の位置を含むことができる。入力画像105は、例えば、デジタル・スチル・カメラ又はビデオ・カメラから得られた画像とすることができる。顔検出器110は、設計者の目的/制約に適したいずれかの方法を用いることができる。例示的な顔検出技術は、知識ベース、特徴不変、テンプレート・マッチング、及び外観ベースの方法を含むが、これらに限定されるものではない。顔を検出するための正確な方法は、以下の説明にとって重要なものではないため、本明細書ではこの演算に関してこれ以上説明しない。限定されるものではないが、1つの実施形態においては、ランドマーク画像115は、検出される特徴が目立つグレースケール画像とすることができる。説明を簡単にするために、以下においては、入力画像(例えば画像105)は単一の顔のみを含むものと仮定される。しかしながら、開示される技術は本来こうした限定を含むものではないことを理解されたい。   Referring to FIG. 1, a face feature vector generation and runtime face recognition operation 100 according to one embodiment is shown in block diagram form. First, the input image 105 is processed according to the face detector 110, and a landmark image 115 is generated. As used herein, the term “landmark image” refers to an image of a face from which landmark points have been detected. Landmark features can include the location of one or more facial features such as eyes, eyebrows, nose, mouth, and cheeks. The input image 105 can be, for example, an image obtained from a digital still camera or a video camera. The face detector 110 can use any method suitable for the designer's objectives / constraints. Exemplary face detection techniques include, but are not limited to, knowledge base, feature invariance, template matching, and appearance based methods. The exact method for detecting the face is not important for the following description, and will not be described further in this specification. Although not limited, in one embodiment, the landmark image 115 can be a grayscale image in which the detected features are noticeable. For ease of explanation, it will be assumed below that the input image (eg, image 105) contains only a single face. However, it should be understood that the disclosed technology does not inherently include such limitations.

ランドマーク画像115は、1つ又はそれ以上の形状モデル120及び1つ又はそれ以上のテクスチャ・モデル125に適用することができる。示されるように、形状モデル120は形状記述子130を生成し、テクスチャ・モデル125はテクスチャ記述子135を生成する。形状モデル120及びテクスチャ・モデル125は、典型的には、既知の画像のライブラリを用いてオフラインで生成され、互いに独立に線形又は非線形とすることができることを認識すべきである。これらのモデルはまた、ランドマーク点がそれ自体の外観モデルを有する「幾何学的制約のある部分に基づくモデル(geometry constrained part-based model)」を含むことができる。記述子130及び135は、ブロック140に従って、開発者の目的及び/又は制約を満たすいずれかの方法で組み合わせることができる。一例として、演算140は、与えられた形状記述子及びテクスチャ記述子の各々を連結することができる。別の実施形態においては、演算140は、記述子要素の線形組み合わせのセットを生成することができる。更に別の実施形態においては、形状記述子130をある方法で組み合せ、テクスチャ記述子135をそれとは異なる方法で組み合わせて、その各々の組み合わせを連結することができる。更に別の実施形態においては、1つ又はそれ以上の記述子をそれぞれのモデルによって生成されたものとして組み合わせ、一方他の記述子は、組み合わされる前に付加的な処理(例えば、次元縮小、平滑化など)を経るようにすることができる。どのように組み合わされた場合でも、演算140の結果は顔特徴ベクトル145である。顔特徴ベクトル145は、ストレージ150内(例えば、永続的な磁気又は固体ディスク・ユニット)に保持することができる。実際上は、顔特徴ベクトル145は、入力画像105内に(例えば、そのメタデータ内に)組み込むこと、及び/又は、画像105を参照する別個のデータ・ストア内に保持することができる。   The landmark image 115 can be applied to one or more shape models 120 and one or more texture models 125. As shown, shape model 120 generates shape descriptor 130 and texture model 125 generates texture descriptor 135. It should be appreciated that the shape model 120 and the texture model 125 are typically generated off-line using a library of known images and can be linear or non-linear independently of each other. These models can also include "geometry constrained part-based models" where the landmark points have their own appearance model. Descriptors 130 and 135 may be combined in any manner that meets the developer's objectives and / or constraints, according to block 140. As an example, operation 140 can concatenate each of the given shape and texture descriptors. In another embodiment, operation 140 can generate a set of linear combinations of descriptor elements. In yet another embodiment, shape descriptors 130 can be combined in one way and texture descriptors 135 can be combined in a different way to concatenate each combination. In yet another embodiment, one or more descriptors are combined as generated by the respective model, while other descriptors are subject to additional processing (eg, dimension reduction, smoothing) before being combined. ). Regardless of how they are combined, the result of operation 140 is a face feature vector 145. The face feature vector 145 can be maintained in the storage 150 (eg, a permanent magnetic or solid disk unit). In practice, the facial feature vector 145 can be incorporated into the input image 105 (eg, in its metadata) and / or kept in a separate data store that references the image 105.

顔特徴ベクトル145は、生成されると、(例えば、画像105内の)対応する画像の顔を識別するために、アプリケーション155によって用いることができる。例えば、アプリケーション155は、関連する顔特徴ベクトル<f>が顔‘F’と関連付けられている又は識別される画像160を取り出すことができる。顔特徴ベクトル145は、取り出されると、顔特徴ベクトル<f>と比較する165ことができ、(例えば何らかの都合のよい測度によって)両者が十分に類似している場合には、画像105は、顔‘F’を含んでいると言うことができる。1つの実施形態においては、アプリケーション155は、ユーザ・レベルのグラフィックス・アプリケーション(例えばiPhoto又はAperture)とすることができる。別の実施形態においては、アプリケーション155は、ユーザ・レベルのアプリケーションによって用いることができる顔認識フレームワークに組み込むことができる。更に別の実施形態においては、アプリケーション155の幾つか又は全てを、専用の画像処理ハードウェアに組み込むことができる。   Once generated, the face feature vector 145 can be used by the application 155 to identify the face of the corresponding image (eg, in the image 105). For example, the application 155 may retrieve an image 160 in which the associated face feature vector <f> is associated with or identified from the face 'F'. Once extracted, the facial feature vector 145 can be compared 165 with the facial feature vector <f>, and if they are sufficiently similar (eg, by some convenient measure), the image 105 is It can be said that it contains 'F'. In one embodiment, the application 155 may be a user level graphics application (eg, iPhoto or Aperture). In another embodiment, application 155 can be incorporated into a face recognition framework that can be used by user-level applications. In yet another embodiment, some or all of the applications 155 can be incorporated into dedicated image processing hardware.

図2を参照すると、形状モデル120は、二次元(2D)モデル200及び三次元(3D)モデル205(それぞれ2D及び3Dの形状記述子210及び215を生成する)を含み、一方、テクスチャ・モデル125は、グローバル・テクスチャ・モデル220及びローカル・テクスチャ・モデル225(それぞれグローバル及びローカルのテクスチャ記述子230及び235を生成する)を含んでいることが分かる。   Referring to FIG. 2, shape model 120 includes a two-dimensional (2D) model 200 and a three-dimensional (3D) model 205 (generating 2D and 3D shape descriptors 210 and 215, respectively), while a texture model. It can be seen that 125 includes a global texture model 220 and a local texture model 225 (which generates global and local texture descriptors 230 and 235, respectively).

1つの実施形態においては、2Dモデル200、3Dモデル205、及びグローバル・テクスチャ・モデル200は、以下の形態の線形モデル、即ち、

Figure 0005552519

とすることができ、ここで、
Figure 0005552519
(これ以降ベクトルiと記載する)は、(モデルが形状モデルであるかテクスチャ・モデルであるかに応じて)画像又は画像点を表し、Bは、基底ベクトル(通常、直交する)のセットを表し、
Figure 0005552519
(これ以降ベクトルcと記載する)は、モデル係数のセットを表し、
Figure 0005552519
(これ以降ベクトルmと記載する)は、(モデルが形状モデルであるかテクスチャ・モデルであるかに応じて)平均形状ベクトル又は平均テクスチャ・ベクトルを表す。(トレーニング)画像のセットが与えられると、例えば、主成分分析(PCA)、独立成分分析(ICA)、線形判別分析(LDA)、弾性バンチ・グラフ・マッチング(EBGM)、トレース変換、アクティブ外観モデル(2M)、ベイズ・フレームワーク、サポート・ベクター・マシン(SVM)、隠れマルコフ・モデル(H8)、及び固有顔といったあらゆる技術を用いて、基底ベクトルB及び平均形状/テクスチャ・ベクトルmを決定することができる。Bを構成する基底ベクトルの数が、モデルの正確性をある程度まで決定する。従って、Bの大きさは、所望の正確性を達成するように設計者が選択することができる。1つの実装形態においては、10個の基底ベクトルで十分な場合があるが、別の実装形態においては、20、50、又は75個の基底ベクトルが必要となる場合がある。 In one embodiment, the 2D model 200, the 3D model 205, and the global texture model 200 are linear models of the form:
Figure 0005552519

And where
Figure 0005552519
(Hereinafter referred to as vector i) represents an image or image point (depending on whether the model is a shape model or a texture model) and B represents a set of basis vectors (usually orthogonal) Represent,
Figure 0005552519
(Hereinafter referred to as vector c) represents a set of model coefficients,
Figure 0005552519
(Hereinafter referred to as vector m) represents an average shape vector or average texture vector (depending on whether the model is a shape model or a texture model). Given a set of (training) images, for example, Principal Component Analysis (PCA), Independent Component Analysis (ICA), Linear Discriminant Analysis (LDA), Elastic Bunch Graph Matching (EBGM), Trace Transformation, Active Appearance Model (2M), base vector B and average shape / texture vector m are determined using any technique such as Bayesian framework, support vector machine (SVM), hidden Markov model (H8), and eigenface be able to. The number of basis vectors that make up B determines the accuracy of the model to some extent. Thus, the size of B can be selected by the designer to achieve the desired accuracy. In one implementation, 10 basis vectors may be sufficient, while in other implementations, 20, 50, or 75 basis vectors may be required.

図3を参照すると、顔特徴ベクトル構築演算300の1つの実施形態に関するブロック図が示される。図1及び図2に関して上述されたように、入力画像105が、ランドマーク画像115を生成する顔検出器110に与えられる。例示された実施形態においては、ランドマーク画像115は、2D及び3Dの形状モデル200及び205に直接与えることができる。これらのモデルを数式1によって特徴づけることができると仮定すると、2D形状モデル200については、ベクトルiはランドマーク画像115を表し、Bは2Dモデルの基底ベクトルのセットを表し、ベクトルcは2Dモデル係数(即ち、2D記述子210)のセットを表し、ベクトルmは平均2D形状ベクトルを表す。同様に、3D形状モデル205については、ベクトルiは同じくランドマーク画像115を表し、Bは3Dモデル基底ベクトルのセットを表し、ベクトルcは3Dモデル係数(即ち、3D記述子215)のセットを表し、ベクトルmは平均3D形状ベクトルを表す。   Referring to FIG. 3, a block diagram for one embodiment of a face feature vector construction operation 300 is shown. As described above with respect to FIGS. 1 and 2, the input image 105 is provided to the face detector 110 that generates the landmark image 115. In the illustrated embodiment, the landmark image 115 can be provided directly to the 2D and 3D shape models 200 and 205. Assuming that these models can be characterized by Equation 1, for the 2D shape model 200, the vector i represents the landmark image 115, B represents the set of basis vectors of the 2D model, and the vector c represents the 2D model. Represents a set of coefficients (ie, 2D descriptor 210), and vector m represents an average 2D shape vector. Similarly, for 3D shape model 205, vector i also represents landmark image 115, B represents a set of 3D model basis vectors, and vector c represents a set of 3D model coefficients (ie, 3D descriptor 215). , Vector m represents an average 3D shape vector.

次に、正規化された画像310を生成するために、ランドマーク画像115に正規化演算305を施すことができる。当業者であれば、正規化演算305は、画像のランドマーク特徴(例えば、眉、目、鼻、口及び顎)を所与のサイズのフレーム内における特定の位置に現れるように調整することができる処理を指すことが分かるであろう。   Next, a normalization operation 305 can be performed on the landmark image 115 to generate a normalized image 310. One of ordinary skill in the art can adjust the image's landmark features (eg, eyebrows, eyes, nose, mouth, and chin) to appear at specific locations within a frame of a given size. It will be understood that this refers to a process that can be performed.

正規化されると、画像310は、グローバル・テクスチャ記述子230を生成するために、グローバル・テクスチャ・モデル220に与えることができる。数式1がグローバル・テクスチャ・モデル220を特徴づけるものである場合には、ベクトルiは正規化された画像310を表し、Bはテクスチャ・モデルの基底ベクトルのセットを表し、ベクトルcはテクスチャ・モデル係数(即ち、グローバル・テクスチャ記述子230)のセットを表し、ベクトルmは平均テクスチャ・ベクトルを表す。   Once normalized, the image 310 can be provided to the global texture model 220 to generate a global texture descriptor 230. If Equation 1 characterizes the global texture model 220, vector i represents the normalized image 310, B represents the set of texture model basis vectors, and vector c represents the texture model. Represents a set of coefficients (ie, global texture descriptor 230), and vector m represents the average texture vector.

2Dモデル200、3Dモデル300、及びグローバル・テクスチャ・モデル220についての基底ベクトル(B)及び平均ベクトル(ベクトルm)をオフラインで決定し、それらを実行時の使用のために格納した後で、数式1をベクトルcについて解くことによって、(2D記述子210、3D記述子215、及びグローバル・テクスチャ記述子230を表す)モデル係数を決定することができる。Bは必ずしも正方行列ではないため、ベクトルcを決定するための数式1の単純な代数的解法を利用できない場合がある。従って、ベクトルcは、多くの最適化手続きのうちのいずれか1つによって実行時に決定することができる。こうした手続きの1つは、以下の関係、即ち、

Figure 0005552519
を評価することである。 After the base vectors (B) and mean vectors (vector m) for the 2D model 200, 3D model 300, and global texture model 220 are determined offline and stored for runtime use, the formula By solving 1 for vector c, the model coefficients (representing 2D descriptor 210, 3D descriptor 215, and global texture descriptor 230) can be determined. Since B is not necessarily a square matrix, the simple algebraic solution of Equation 1 for determining the vector c may not be available. Thus, vector c can be determined at runtime by any one of a number of optimization procedures. One such procedure has the following relationship:
Figure 0005552519
Is to evaluate.

例として、ランドマーク画像115及び正規化された画像305の各々が、(128×128)の要素配列によって表される場合には、ベクトルiは(16,384×1)のベクトルになることが、数式1からわかる。さらに、‘n1’がBにおける基底ベクトルの数を表す場合には、Bは(16,384×n1)の行列であり、ベクトルmは(16,384×1)のベクトルである。この例においては、2D記述子210、3D記述子215、及びグローバル・テクスチャ記述子230は、(n1×1)のベクトルである。1つの実施形態においては、3Dモデル係数は、「3D Object Recognition」という名称の同時係属中の米国特許出願番号第13/299,211号において説明されている技術を用いて得ることができる。   As an example, if each of the landmark image 115 and the normalized image 305 is represented by a (128 × 128) element array, the vector i may be a (16,384 × 1) vector. It can be seen from Equation 1. Further, when ‘n1’ represents the number of basis vectors in B, B is a matrix of (16,384 × n1), and vector m is a vector of (16,384 × 1). In this example, the 2D descriptor 210, the 3D descriptor 215, and the global texture descriptor 230 are (n1 × 1) vectors. In one embodiment, the 3D model coefficients can be obtained using the technique described in co-pending US patent application Ser. No. 13 / 299,211 entitled “3D Object Recognition”.

再び図3を参照すると、正規化された画像310は、ローカル・テクスチャ・モデル225にも与えることができる。図示されるように、ローカル・テクスチャ・モデル225自体は、ローカル画像記述子315、密な画像記述子320、及び密な歪み画像記述子325を含むことができる。   Referring again to FIG. 3, the normalized image 310 can also be provided to the local texture model 225. As shown, the local texture model 225 itself can include a local image descriptor 315, a dense image descriptor 320, and a dense distorted image descriptor 325.

図4aを参照すると、1つの実施形態においては、ローカル画像記述子315は、ランドマーク特徴のうちの1つ又はそれ以上の周囲の小領域又はタイル400のテクスチャに基づくものとすることができる(図4aにおいては例示的な領域の1つのみが挙げられている)。タイルの正確な数は、画像の解像度及び設計者の目的/制約によって決まるが、(128×128)の正規化された画像の場合には、10から20のタイルで十分であることが分かっている。各々のタイルの大きさは、トレーニング・データに基づいて決定することができ、一定数のスケールで変わる可能性があり、その場合における各々の点は、異なる大きさの複数のタイルをもつことがある。実際に用いられる設定は、(確立された設計制約の範囲内で)最良の認識性能をもたらすものに基づくことができることが理解されるであろう。例として、ローカル画像記述子は、勾配ヒストグラム(HoG)、スピードアップ・ロバスト特徴(SURF)、スケール不変な特徴変換(SIFT)、バイナリ・ロバストBinary Robust Independent Elementary Features(BRIEF)、及びOriented BRIEF(ORB)などのベクトル勾配演算子、又は同様のタイプの記述子に従って、生成することができる。図4bを参照すると、1つの実施形態においては、密な画像記述子320は、画像全体に基づいて画像記述子を決定する。例えば、画像305を覆う複数の領域(例えば、5×4のグリッドのような20個の領域405)の各々に、選択された記述子算(例えば、HoG又はSIFT)を適用することができる。ローカル画像記述子315の結果は、j要素記述子である。密な画像記述子の結果は、k要素記述子である。   Referring to FIG. 4a, in one embodiment, the local image descriptor 315 may be based on the texture of one or more surrounding small regions or tiles 400 of landmark features ( Only one exemplary region is listed in FIG. 4a). The exact number of tiles depends on the resolution of the image and the designer's objectives / constraints, but for a (128 × 128) normalized image, 10-20 tiles have been found to be sufficient. Yes. The size of each tile can be determined based on training data and can vary on a fixed number of scales, where each point can have multiple tiles of different sizes. is there. It will be appreciated that the settings used in practice can be based on those that provide the best recognition performance (within established design constraints). As examples, local image descriptors include gradient histograms (HoG), speed-up robust features (SURF), scale-invariant feature transformations (SIFT), binary robust binary robust independent features (BREF), and oriented BRIEF (ORB). ) Or similar type descriptors. Referring to FIG. 4b, in one embodiment, the dense image descriptor 320 determines the image descriptor based on the entire image. For example, a selected descriptor operation (eg, HoG or SIFT) can be applied to each of a plurality of regions (eg, 20 regions 405 such as a 5 × 4 grid) covering the image 305. The result of the local image descriptor 315 is a j element descriptor. The result of the dense image descriptor is a k-element descriptor.

ローカル画像記述子315と密な画像記述子320の両方が、勾配ベクトル記述子を用いるものとして説明されたが、これは必須ではない。例えば、強度に基づく記述子及び画像テクスチャ・ベースなどの他の記述子を用いることもできる。さらに、ローカル画像記述子315が1つの手法(例えば強度)を用い、密な画像記述子320が別の手法(例えば勾配ベクトル)を用いてもよい。   Although both local image descriptor 315 and dense image descriptor 320 have been described as using gradient vector descriptors, this is not required. For example, other descriptors such as intensity-based descriptors and image texture bases may be used. Further, the local image descriptor 315 may use one technique (eg intensity) and the dense image descriptor 320 may use another technique (eg gradient vector).

正規化された画像310を直接的に用いることに加えて、ローカル・テクスチャ・モデル225は、画像310の歪みバージョンを用いてもよい。再び図3を参照すると、正規化された画像310を歪み演算子又は変形演算子330に適用して、歪み画像又は変形画像335を生成することができる。1つの実施形態においては、歪み演算子330は、歪み画像335が対象者の顔の真正面像に近づくように、面外回転によって顔を調整する。図5を参照すると、密な画像記述子320を生成することについて説明された演算と同様に、密な画像記述子320に関して上述されたように歪み画像335の全体を領域単位で(例えば500)評価することができる。1つの実施形態においては、密な歪み画像記述子は、l要素記述子である。演算は同様であるが、密な歪み画像記述子325は、密な画像記述子320を生成するのに用いられるものと同じ技術又は同じ数の領域/タイルを用いる必要はない。   In addition to using the normalized image 310 directly, the local texture model 225 may use a distorted version of the image 310. Referring again to FIG. 3, the normalized image 310 can be applied to the distortion operator or deformation operator 330 to generate a distortion image or deformation image 335. In one embodiment, the distortion operator 330 adjusts the face by out-of-plane rotation so that the distortion image 335 approximates a true front image of the subject's face. Referring to FIG. 5, similar to the operations described for generating dense image descriptor 320, the entire distorted image 335 is region-wise (eg, 500) as described above for dense image descriptor 320. Can be evaluated. In one embodiment, the dense distortion image descriptor is an l-element descriptor. The operation is similar, but the dense distortion image descriptor 325 need not use the same technique or the same number of regions / tiles used to generate the dense image descriptor 320.

再び図3を参照すると、組み合わせ演算340は、生成されたローカル画像記述子、密な画像記述子、及び密な歪み画像記述子のいずれか2つ、いずれか3つ、又はいずれかの組み合わせを組み合わせて、中間のローカル・テクスチャ記述子345を生成することができる。組み合わせ演算340は、各々の記述子の全体、若しくは各々の記述子の一部のみを扱うことができ、又は、1つの記述子の全体と別の記述子の一部のみとを扱うことが 〔0022〕を参照のこと)、組み合わせ演算340は、ローカル画像記述子(j要素)、密な画像記述子(k要素)、及び密な歪み画像記述子(l要素)の各々の連結とすることができる。このような実施形態においては、中間のローカル・テクスチャ記述子345は、(j+k+l)である。1つの実装形態においては、

Figure 0005552519
である。 Referring back to FIG. 3, the combination operation 340 may perform any two, any three, or any combination of the generated local image descriptor, dense image descriptor, and dense distortion image descriptor. In combination, an intermediate local texture descriptor 345 can be generated. The combinatorial operation 340 can handle the whole of each descriptor, or only a part of each descriptor, or can handle the whole of one descriptor and only part of another descriptor. The combination operation 340 is a concatenation of each of the local image descriptor (j element), the dense image descriptor (k element), and the dense distortion image descriptor (l element). Can do. In such an embodiment, the intermediate local texture descriptor 345 is (j + k + l). In one implementation,
Figure 0005552519
It is.

この記述子の大きさを実時間でより演算し易い値に減らすために、次元縮小演算350を行って、ローカル・テクスチャ記述子235を生成することができる。代替的に、次元縮小は、340において個々の構成要素(315、320、325)を組み合わせる前に、これらの構成要素に対して行うことができる。次元縮小は、以下のように、すなわち、

Figure 0005552519
として表現することができる変換と見なすことができ、ここで、
Figure 0005552519
(これ以降ベクトルyと記載する)は、ローカル・テクスチャ記述子235を表し、Mは、所望の変換を行う基底ベクトル(通常、直交する)のセットを表し、
Figure 0005552519
(これ以降ベクトルxと記載する)は、中間のローカル・テクスチャ記述子345を表す。顔の大規模な集合についてベクトルyの分布を知っている場合には、実質的に同じ情報を表す、より少ない数の要素(次元)を識別及び保持することができる。変換行列Mは、既知の多数の最適化技術(例えば、メトリック学習、特徴選択、又は主成分分析)のいずれかを用いて、オフラインで決定することができる。決定されると、Mは、実行時の使用のために格納することができる。上記で始めた数値例を続けると、中間のローカル・テクスチャ記述子345(ベクトルx)が3,000個の要素を有し、Mがこの次元をn2次元まで縮小する場合には、ベクトルyは(n2×1)のベクトルであり、Mは(n2×3,000)の行列であり、ベクトルxは(3,000×1)のベクトルである。 In order to reduce the size of this descriptor to a value that is easier to compute in real time, a dimension reduction operation 350 can be performed to generate a local texture descriptor 235. Alternatively, dimension reduction can be performed on these components prior to combining the individual components (315, 320, 325) at 340. The dimension reduction is as follows:
Figure 0005552519
Can be viewed as a transformation that can be expressed as
Figure 0005552519
(Hereinafter referred to as vector y) represents the local texture descriptor 235, M represents the set of basis vectors (usually orthogonal) that perform the desired transformation,
Figure 0005552519
(Hereinafter referred to as vector x) represents an intermediate local texture descriptor 345. If the distribution of the vector y is known for a large set of faces, a smaller number of elements (dimensions) representing substantially the same information can be identified and retained. The transformation matrix M can be determined offline using any of a number of known optimization techniques (eg, metric learning, feature selection, or principal component analysis). Once determined, M can be stored for runtime use. Continuing with the numerical example started above, if the intermediate local texture descriptor 345 (vector x) has 3,000 elements and M reduces this dimension to n2 dimensions, then the vector y is (N2 × 1) vector, M is a (n2 × 3,000) matrix, and vector x is a (3,000 × 1) vector.

再度図3を参照すると、記述子210、215、230、及び235の各々が決定された後で、演算子140によってこれらの記述子を組み合わせて、顔特徴ベクトル145を作成することができる。図6に示されるように、顔特徴ベクトルは、2D形状記述子210のためのフィールド(600)と、3D形状記述子215のためのフィールド(605)と、グローバル・テクスチャ記述子230のためのフィールド(610)と、ローカル・テクスチャ記述子235のためのフィールド(615)とを含むことができる。   Referring again to FIG. 3, after each of the descriptors 210, 215, 230, and 235 is determined, these descriptors can be combined by the operator 140 to create a face feature vector 145. As shown in FIG. 6, the face feature vector includes a field for the 2D shape descriptor 210 (600), a field for the 3D shape descriptor 215 (605), and a global texture descriptor 230. A field (610) and a field (615) for the local texture descriptor 235 may be included.

再び、上記で始めた数値例を参照すると、2Dモデル200、3Dモデル205、及びグローバル・テクスチャ・モデル220が、数式1によって与えられる形式の線形モデルであり、モデル入力画像が(128×128)の要素から成り、2Dモデル、3Dモデル、及びグローバル・テクスチャ・モデルの各々にn1の基底ベクトルが存在する場合には、例示的なモデル・パラメータは、表1に示されるようなものになる。

Figure 0005552519

さらに、ローカル画像記述子315、密な画像記述子320、及び密な歪み画像記述子325の組み合わせが、3,000要素を有する中間のローカル・テクスチャ記述子345を生成し、次元縮小演算350が、数式3によって特徴付けられて、次元の数をn2次元に縮小する場合には、次元縮小演算350についての例示的なモデル・パラメータは、表2に示されるようなものになる。
Figure 0005552519

最後に、組み合わせ演算子140が2D記述子210、3D記述子215、グローバル・テクスチャ記述子230、及びローカル・テクスチャ記述子235の各々を連結する場合には、顔特徴ベクトル145は、((3n1+n2)×1)のベクトルである。 Referring again to the numerical example that began above, the 2D model 200, 3D model 205, and global texture model 220 are linear models of the form given by Equation 1, and the model input image is (128 × 128) If there are n1 basis vectors in each of the 2D model, the 3D model, and the global texture model, exemplary model parameters are as shown in Table 1.
Figure 0005552519

In addition, the combination of local image descriptor 315, dense image descriptor 320, and dense distorted image descriptor 325 generates an intermediate local texture descriptor 345 having 3,000 elements, and dimension reduction operation 350 Characterized by Equation 3, when reducing the number of dimensions to n2 dimensions, exemplary model parameters for the dimension reduction operation 350 would be as shown in Table 2.
Figure 0005552519

Finally, if the combination operator 140 concatenates each of the 2D descriptor 210, 3D descriptor 215, global texture descriptor 230, and local texture descriptor 235, the face feature vector 145 is ((3n1 + n2 ) × 1) vector.

図7を参照すると、1つの実施形態による顔特徴を用いる顔認識演算700が示される。始めに、未知及び既知の顔/身元についての顔特徴ベクトルを得る(ブロック705及び710)。次いで、これらのベクトルに類似性評価基準を適用し(ブロック715)、評価基準が一致するどうかを判定する検査が行われる(ブロック720)。2つの顔特徴ベクトルが十分に類似している場合には(ブロック720の「はい」分岐)、未知の顔特徴ベクトルが既知の顔特徴ベクトルに関連する同一の身元を表しているとの判定を行うことができる(ブロック725)。2つの顔特徴ベクトルが一致するほど十分に類似していない場合には(ブロック720の「いいえ」分岐)、別の既知の顔特徴ベクトルが利用可能であるかどうかを判定する検査がさらに行われる(ブロック730)。既知の身元に関連する顔特徴ベクトルがそれ以上存在しない場合には(ブロック730の「いいえ」分岐)、未知の顔特徴ベクトル(即ち、ブロック705による動作の間に得られたもの)は、未知の顔に対応すると結論付けることができる(ブロック735)。既知の身元に関連する顔特徴ベクトルがさらに存在する場合には(ブロック730の「はい」分岐)、例えばストレージ150から「次の」既知の顔特徴ベクトルを得ることができ(ブロック740)、その後、演算700はブロック715で再開する。   Referring to FIG. 7, a face recognition operation 700 using facial features according to one embodiment is shown. Initially, facial feature vectors for unknown and known faces / identities are obtained (blocks 705 and 710). A similarity metric is then applied to these vectors (block 715) and a check is made to determine if the metric matches (block 720). If the two facial feature vectors are sufficiently similar (“Yes” branch of block 720), a determination is made that the unknown facial feature vector represents the same identity associated with the known facial feature vector. (Block 725). If the two facial feature vectors are not similar enough to match (the “No” branch of block 720), a further check is made to determine if another known facial feature vector is available. (Block 730). If there are no more face feature vectors associated with the known identity (the “No” branch of block 730), the unknown face feature vector (ie, obtained during operation by block 705) is unknown. Can be concluded (block 735). If there are more facial feature vectors associated with known identities (“Yes” branch of block 730), for example, the “next” known facial feature vector can be obtained from storage 150 (block 740), and then The operation 700 resumes at block 715.

1つの実施形態においては、類似性評価基準(ブロック715を参照のこと)は、ハミング距離の線に沿った距離評価基準とすることができる。本明細書において説明される顔特徴ベクトルのような大きな次元のベクトルの場合には、数式4で記述されるマハラノビス距離測度が有効な類似性測度となることが分かった。

Figure 0005552519

ここで、ベクトルxは第1の顔特徴ベクトル(例えば未知の顔に関連する顔特徴ベクトル)を表し、ベクトルyは第2の顔特徴ベクトル(例えば既知の顔に関連する顔特徴ベクトル)を表し、S( )は類似性又は比較演算を表し、Wは重み行列を表す。本質的に、重み行列Wは、比較演算の際に、顔特徴ベクトルにおける各々の要素がどの程度重要又は有意であるかを特定する。既知の身元に関連する大量の顔特徴ベクトルを用いて、評価基準学習技術を適用し、Wをオフラインで決定することができる。Wが分かると、Wは、図7による実行時の使用のために格納することができる。例として、顔特徴ベクトルが500個の要素を有する場合、即ち(500×1)のベクトルによって表される場合には、Wは、(500×500)要素の重み行列となる。 In one embodiment, the similarity metric (see block 715) may be a distance metric along the Hamming distance line. In the case of vectors of large dimensions such as the face feature vectors described herein, it has been found that the Mahalanobis distance measure described by Equation 4 is an effective similarity measure.
Figure 0005552519

Here, the vector x represents a first face feature vector (for example, a face feature vector related to an unknown face), and the vector y represents a second face feature vector (for example, a face feature vector related to a known face). , S () represents similarity or comparison operation, and W represents a weight matrix. In essence, the weight matrix W specifies how important or significant each element in the face feature vector is during the comparison operation. Using a large number of facial feature vectors associated with known identities, an evaluation criterion learning technique can be applied to determine W offline. Once W is known, it can be stored for runtime use according to FIG. As an example, if the face feature vector has 500 elements, i.e., represented by a (500 x 1) vector, W is a (500 x 500) element weight matrix.

図8を参照すると、受信者操作特性(ROC)曲線800は、顔特徴ベクトルを構成する個々の構成要素、即ち(1)標準的な2M記述子(810)、密な勾配記述子(815)、ローカル勾配記述子(820)、及び密な歪み勾配記述子(825)を単独で用いた場合に対する、本明細書に開示される顔特徴ベクトル(805)の性能を示す。図から分かるように、本開示による顔特徴ベクトルの使用によって、これらの他の記述子より高い性能が得られている。   Referring to FIG. 8, the receiver operating characteristic (ROC) curve 800 shows the individual components that make up the face feature vector: (1) standard 2M descriptor (810), dense gradient descriptor (815). FIG. 6 illustrates the performance of the face feature vector (805) disclosed herein for a local gradient descriptor (820) and a dense distortion gradient descriptor (825) used alone. As can be seen, the use of facial feature vectors in accordance with the present disclosure provides higher performance than these other descriptors.

ここで図9を参照すると、本発明の一実施形態による例示的な電子装置900の簡略化された機能ブロック図が示される。電子装置900は、プロセッサ905、ディスプレイ910、ユーザ・インターフェース915、グラフィックス・ハードウェア920、デバイス・センサ925(例えば、近接センサ/環境光センサ、加速度計、及び/又はジャイロスコープ)、マイクロフォン930、1つ又はそれ以上の音声コーデック935、1つ又はそれ以上のスピーカ940、通信回路945、デジタル画像取り込みユニット950、1つ又はそれ以上の映像コーデック955、メモリ960、ストレージ965、及び通信バス970を含むことができる。電子デバイス900は、例えば、携帯情報端末(PDA)、携帯音楽プレーヤ、携帯電話、ノートブック型コンピュータ、ラップトップ型コンピュータ、又はタブレット型コンピュータとすることができる。   Referring now to FIG. 9, a simplified functional block diagram of an exemplary electronic device 900 according to one embodiment of the present invention is shown. The electronic device 900 includes a processor 905, a display 910, a user interface 915, graphics hardware 920, a device sensor 925 (eg, proximity sensor / ambient light sensor, accelerometer, and / or gyroscope), microphone 930, One or more audio codecs 935, one or more speakers 940, a communication circuit 945, a digital image capture unit 950, one or more video codecs 955, a memory 960, a storage 965, and a communication bus 970 Can be included. The electronic device 900 can be, for example, a personal digital assistant (PDA), a portable music player, a mobile phone, a notebook computer, a laptop computer, or a tablet computer.

プロセッサ905は、装置900によって行われる多数の関数の演算(例えば、顔特徴ベクトル構築及び実行時顔認識の演算100又は顔認識演算700など)を実行又は制御するのに必要な命令を実行することができる。プロセッサ905は、例えば、ディスプレイ910を駆動し、ユーザ・インターフェース915からユーザ入力を受信することができる。ユーザ・インターフェース915によって、ユーザはデバイス900と対話することができるようになる。例えば、ユーザ・インターフェース915は、ボタン、キーパッド、ダイアル、クリックホイール、キーボード、表示スクリーン、及び/又はタッチ・スクリーンといった様々な形態をとることができる。プロセッサ905はまた、例えば、携帯装置において見られるようなシステム・オン・チップとすることができ、専用グラフィックス処理ユニット(GPU)を含むことができる。プロセッサ905は、縮小命令セット・コンピュータ(RISC)若しくは複合命令セット・コンピュータ(CISC)アーキテクチャ、又は他のいずれかの適切なアーキテクチャに基づくものとすることができ、1つ又はそれ以上の処理コアを含むことができる。グラフィックス・ハードウェア920は、グラフィックスを処理するための専用計算ハードウェア、及び/又は、グラフィックス情報を処理する支援プロセッサ905とすることができる。1つの実施形態においては、グラフィックス・ハードウェア920は、プログラム可能グラフィックス処理ユニット(GPU)を含むことができる。   The processor 905 executes instructions necessary to execute or control a number of function operations performed by the apparatus 900 (eg, face feature vector construction and runtime face recognition operation 100 or face recognition operation 700, etc.). Can do. The processor 905 can drive the display 910 and receive user input from the user interface 915, for example. User interface 915 allows a user to interact with device 900. For example, the user interface 915 can take various forms such as buttons, keypads, dials, click wheels, keyboards, display screens, and / or touch screens. The processor 905 can also be a system-on-chip, such as found in a portable device, and can include a dedicated graphics processing unit (GPU). The processor 905 may be based on a reduced instruction set computer (RISC) or compound instruction set computer (CISC) architecture, or any other suitable architecture, and may include one or more processing cores. Can be included. Graphics hardware 920 may be dedicated computing hardware for processing graphics and / or support processor 905 for processing graphics information. In one embodiment, the graphics hardware 920 can include a programmable graphics processing unit (GPU).

センサ及びカメラ回路950は、少なくとも一部が1つ又はそれ以上の映像コーデック955及び/又はプロセッサ905及び/又はグラフィックス・ハードウェア920によって及び/又は回路950内に組み込まれた専用画像処理ユニットによって処理される場合がある、スチル画像及びビデオ画像を取り込むことができる。そのようにして取り込まれた画像は、メモリ960及び/又はストレージ965に格納することができる。メモリ960は、装置の機能を実施するプロセッサ905及びグラフィックス・ハードウェア920によって用いられる1つ又はそれ以上の異なるタイプの媒体を含むことができる。例えば、メモリ960は、メモリ・キャッシュ、読み出し専用メモリ(ROM)、及び/又はランダム・アクセス・メモリ(RAM)を含むことができる。ストレージ965は、音声、画像、及び映像ファイル、コンピュータ・プログラム命令又はソフトウェア、選択情報、デバイス・プロファイル情報、並びに他のいずれかの適切なデータを保持するための媒体を含む。ストレージ965は、例えば、(固定、フロッピー(登録商標)、及び取り外し可能の)磁気ディスク及びテープ、CD−ROM及びデジタル・ビデオ・ディスク(DVD)などの光媒体、並びに、電気的プログラム可能読み出し専用メモリ(EPROM)及び電気的消去可能プログラム可能読み出し専用メモリ(EEPROM)などの半導体メモリ・デバイスを含む、1つ又はそれ以上の永続的ストレージ媒体を含むことができる。メモリ960及びストレージ965を用いて、1つ又はそれ以上のモジュールに編成され、いずれかの所望のコンピュータ・プログラミング言語で書かれたコンピュータ・プログラム命令又はコードを、有形に保持することができる。例えばプロセッサ905によって実行されたときに、こうしたコンピュータ・プログラム・コードは、本明細書において説明された1つ又はそれ以上の方法を実装することができる。   The sensor and camera circuit 950 may be at least in part by one or more video codecs 955 and / or processors 905 and / or graphics hardware 920 and / or by dedicated image processing units incorporated within the circuit 950. Still images and video images that may be processed can be captured. Images so captured can be stored in memory 960 and / or storage 965. Memory 960 may include one or more different types of media used by processor 905 and graphics hardware 920 to perform the functions of the device. For example, the memory 960 can include a memory cache, read only memory (ROM), and / or random access memory (RAM). Storage 965 includes media for holding audio, image, and video files, computer program instructions or software, selection information, device profile information, and any other suitable data. Storage 965 can be, for example, optical media such as magnetic disks and tapes (fixed, floppy, and removable), CD-ROMs and digital video disks (DVDs), and electrically programmable read-only. One or more permanent storage media may be included, including semiconductor memory devices such as memory (EPROM) and electrically erasable programmable read only memory (EEPROM). Using memory 960 and storage 965, computer program instructions or code organized in one or more modules and written in any desired computer programming language can be tangibly maintained. For example, when executed by the processor 905, such computer program code may implement one or more of the methods described herein.

特許請求の範囲から逸脱することなく、材料、構成要素、回路要素の様々な変更、及び、例示された演算方法の詳細の様々な変更が可能である。例えば、本明細書において説明されたモデルは線形の形態であったが、そのような限定は、開示された技術に固有のものではない。さらに、種々のモデルは異なるものとすることができ、幾つかのモデルを線形とし、他のモデルを非線形とすることができる。それに加えて、組み合わせ演算(例えば140及び340)は、連結演算に限定されるものではなく、それらが同じものである必要もない。設計者の目的に即したあらゆる組み合わせを用いることができる。例えば、線形組み合わせ、記述子の値のサブセットの選択、及びその加重組み合わせは、全て実現可能である。また、モデル記述子の次元が次元縮小を必要としない場合(例えば、演算315、320、及び325)には、この演算を行う必要はない。   Various modifications of materials, components, circuit elements, and details of the illustrated method of operation are possible without departing from the scope of the claims. For example, although the models described herein were in linear form, such limitations are not specific to the disclosed technique. Further, the various models can be different, some models can be linear and others can be non-linear. In addition, the combination operations (eg, 140 and 340) are not limited to concatenation operations and they need not be the same. Any combination that suits the designer's purpose can be used. For example, linear combinations, selection of a subset of descriptor values, and their weighted combinations are all feasible. Further, when the dimension of the model descriptor does not require dimensional reduction (for example, operations 315, 320, and 325), it is not necessary to perform this operation.

最後に、上記の説明は例示的なものであるように意図されており、限定することを意図ものではないことを理解されたい。例えば、上述の実施形態は、互いに組み合わせて用いることができる。上記の説明を検討すれば、当業者には他の多くの実施形態が明らかであろう。従って、本発明の範囲は、特許請求の範囲を参照することによって、並びにそのような特許請求の範囲が適用される等価物の十分な範囲によって、決定されるべきである。特許請求の範囲においては、「含む(including)」及び「特徴とする(in which)」という用語は、「含む(comprising)」及び「特徴とする(wherein)」というそれぞれの用語の平易な英語と等価な用語として用いられる。   Finally, it should be understood that the above description is intended to be illustrative and not restrictive. For example, the above-described embodiments can be used in combination with each other. Many other embodiments will be apparent to those of skill in the art upon reviewing the above description. Accordingly, the scope of the invention should be determined by reference to the claims, and by the full scope of equivalents to which such claims are applicable. In the claims, the terms "including" and "in which" mean plain English for the terms "comprising" and "wherein", respectively. Is used as an equivalent term.

100:顔特徴ベクトル生成及び実行時顔認識の演算
105:入力画像
110:顔検出器
115:ランドマーク画像
120:形状モデル
125:テクスチャ・モデル
130:形状記述子
135:テクスチャ記述子
140:演算
145:顔特徴ベクトル
150:ストレージ
155:アプリケーション
160:画像
165:比較
200:2D形状モデル
205:3D形状モデル
210:2D形状記述子
215:3D形状記述子
220:グローバル・テクスチャ・モデル
225:ローカル・テクスチャ・モデル
230:グローバル・テクスチャ記述子
235:ローカル・テクスチャ記述子
300:顔特徴ベクトル構築演算
305:正規化演算
310:正規化された画像
315:ローカル画像記述子
320:密な画像記述子
325:密な歪み画像記述子
330:歪み演算子
335:歪み画像
340:組み合わせ演算
345:中間のローカル・テクスチャ記述子
350:次元縮小演算
400:タイル
405、500:領域
600:2D形状フィールド
605:3D形状フィールド
610:グローバル・テクスチャ・フィールド
615:ローカル・テクスチャ・フィールド
800:受信者操作特性曲線
805:顔特徴ベクトル
810:標準的な2M記述子
815:密な勾配記述子
820:ローカル勾配記述子
825:歪み勾配記述子
900:電子装置
905:プロセッサ
910:ディスプレイ
915:ユーザ・インターフェース
920:グラフィックス・ハードウェア
925:デバイス・センサ
930:マイクロフォン
935:音声コーデック
940:スピーカ
945:通信回路
950:デジタル画像取り込みユニット(センサ/カメラ回路)
955:映像コーデック
960:メモリ
965:ストレージ
970:通信バス
100: face feature vector generation and runtime face recognition calculation 105: input image 110: face detector 115: landmark image 120: shape model 125: texture model 130: shape descriptor 135: texture descriptor 140: calculation 145 : Face feature vector 150: storage 155: application 160: image 165: comparison 200: 2D shape model 205: 3D shape model 210: 2D shape descriptor 215: 3D shape descriptor 220: global texture model 225: local texture Model 230: Global texture descriptor 235: Local texture descriptor 300: Face feature vector construction operation 305: Normalization operation 310: Normalized image 315: Local image descriptor 320: Dense image descriptor 325: Dense distortion image description 330: Distortion operator 335: Distortion image 340: Combination operation 345: Intermediate local texture descriptor 350: Dimension reduction operation 400: Tile 405, 500: Region 600: 2D shape field 605: 3D shape field 610: Global texture Field 615: Local texture field 800: Receiver operating characteristic curve 805: Face feature vector 810: Standard 2M descriptor 815: Dense gradient descriptor 820: Local gradient descriptor 825: Distorted gradient descriptor 900: Electronic device 905: Processor 910: Display 915: User interface 920: Graphics hardware 925: Device sensor 930: Microphone 935: Audio codec 940: Speaker 945: Communication circuit 950: Digital The image capturing unit (sensor / camera circuit)
955: Video codec 960: Memory 965: Storage 970: Communication bus

Claims (14)

第1の画像における第1の顔についてランドマーク検出情報を取得するコンピュータ・コードと
少なくとも部分的に前記ランドマーク検出情報に基づいて、正規化されたランドマーク検出情報を生成するコンピュータ・コードと、
少なくとも部分的に前記ランドマーク検出情報に基づいて、第1の形状モデル特徴ベクトルを生成するコンピュータ・コードであって前記ランドマーク検出情報を前記第1の顔の二次元モデルに適用することを含む当該コンピュータ・コードと、
少なくとも部分的に前記ランドマーク検出情報に基づいて、第2の形状モデル特徴ベクトルを生成するコンピュータ・コードであって前記ランドマーク検出情報を前記第1の顔の三次元モデルに適用すること含む当該コンピュータ・コードと、
少なくとも部分的に前記ランドマーク検出情報に基づいて、第1のテクスチャ・モデル特徴ベクトルを生成するコンピュータ・コードであって、少なくとも部分的に前記正規化されたランドマーク検出情報に基づいて、第1のテクスチャ・モデル特徴ベクトルを生成することを含む当該コンピュータ・コードと、
少なくとも部分的に前記ランドマーク検出情報に基づいて、第2のテクスチャ・モデル特徴ベクトルを生成するコンピュータ・コードであって少なくとも部分的に、前記正規化されたランドマーク検出情報と特定のモーフィング演算とに基づいて、歪みランドマーク検出情報を生成することを含む当該コンピュータ・コードと、
前記第1の形状モデル特徴ベクトルと、前記第2の形状モデル特徴ベクトルと、前記第1のテクスチャ・モデル特徴ベクトルと、前記第2のテクスチャ・モデル特徴ベクトルとを組み合わせて、第1の顔特徴ベクトルを形成するコンピュータ・コードと、
前記第1の顔特徴ベクトルをストレージ装置に格納するコンピュータ・コードと
を含むことを特徴とする、永続的コンピュータ可読媒体。
Computer code for obtaining landmark detection information for a first face in a first image;
Computer code for generating normalized landmark detection information based at least in part on the landmark detection information;
Computer code for generating a first shape model feature vector based at least in part on the landmark detection information, wherein the landmark detection information is applied to a two-dimensional model of the first face. Including such computer code,
Computer code for generating a second shape model feature vector based at least in part on the landmark detection information, comprising applying the landmark detection information to the three-dimensional model of the first face The computer code and
Computer code for generating a first texture model feature vector based at least in part on the landmark detection information, wherein the first code is generated at least in part on the normalized landmark detection information. Computer code comprising generating a texture model feature vector of
Computer code for generating a second texture model feature vector based at least in part on the landmark detection information , wherein at least in part, the normalized landmark detection information and a specific morphing operation The computer code comprising generating distortion landmark detection information based on
The first face feature is obtained by combining the first shape model feature vector, the second shape model feature vector, the first texture model feature vector, and the second texture model feature vector. Computer code forming a vector;
Computer code for storing the first facial feature vector in a storage device;
A permanent computer readable medium characterized by comprising:
第1のテクスチャ・モデル特徴ベクトルを生成するための前記コンピュータ・コードは、
前記正規化されたランドマーク検出情報における、前記正規化されたランドマーク検出情報の全てより少ない複数の領域を識別し、
前記複数の領域に基づいて、第1のテクスチャ・モデル特徴ベクトルを生成する、
ためのコンピュータ・コードを含むことを特徴とする、請求項に記載の永続的コンピュータ可読媒体。
The computer code for generating a first texture model feature vector is:
Identifying a plurality of regions less than all of the normalized landmark detection information in the normalized landmark detection information;
Generating a first texture model feature vector based on the plurality of regions;
The persistent computer readable medium of claim 1 , comprising computer code for:
第2のテクスチャ・モデル特徴ベクトルを生成するための前記コンピュータ・コードは、少なくとも部分的に前記歪みランドマーク検出情報に基づいて、第2のテクスチャ・モデル特徴ベクトルを生成するためのコンピュータ・コードを含むことを特徴とする、請求項に記載の永続的コンピュータ可読媒体。 The computer code for generating a second texture model feature vector comprises computer code for generating a second texture model feature vector based at least in part on the distortion landmark detection information. The persistent computer readable medium of claim 1 , comprising: 第2のテクスチャ・モデル特徴ベクトルを生成するための前記コンピュータ・コードは、前記第1のテクスチャ・モデル特徴ベクトルと前記第2のテクスチャ・モデル特徴ベクトルとを組み合わせて第1の顔特徴ベクトルを形成するための前記コンピュータ・コードを実施する前に、前記第2のテクスチャ・モデル特徴ベクトルの次元を縮小するためのコンピュータ・コードをさらに含むことを特徴とする、請求項に記載の永続的コンピュータ可読媒体。 The computer code for generating a second texture model feature vector combines the first texture model feature vector and the second texture model feature vector to form a first face feature vector before carrying out the computer code for, characterized by further comprising computer code for reducing the dimensionality of the second texture model feature vector, persistent computer according to claim 1 A readable medium. ランドマーク検出情報を取得するための前記コンピュータ・コードは、前記第1の画像における前記第1の顔についてのランドマーク検出情報を顔検出演算によって取得するためのコンピュータ・コードを含むことを特徴とする、請求項1に記載の永続的コンピュータ可読媒体。   The computer code for acquiring landmark detection information includes computer code for acquiring landmark detection information about the first face in the first image by face detection calculation. The persistent computer readable medium of claim 1. 前記第1の形状モデル特徴ベクトルと、前記第2の形状モデル特徴ベクトルと、前記第1のテクスチャ・モデル特徴ベクトルと、及び前記第2のテクスチャ・モデル特徴ベクトルとを組み合わせるための前記コンピュータ・コードは、前記第1の形状モデル特徴ベクトルと、前記第2の形状モデル特徴ベクトルと、前記第1のテクスチャ・モデル特徴ベクトルと、前記第2のテクスチャ・モデル特徴ベクトルとを連結するためのコンピュータ・コードを含むことを特徴とする、請求項1に記載の永続的コンピュータ可読媒体。   The computer code for combining the first shape model feature vector, the second shape model feature vector, the first texture model feature vector, and the second texture model feature vector A computer for concatenating the first shape model feature vector, the second shape model feature vector, the first texture model feature vector, and the second texture model feature vector; The persistent computer readable medium of claim 1, comprising code. 前記第1の顔特徴ベクトルをストレージ装置に格納するための前記コンピュータ・コードは、
前記第1の顔特徴ベクトルを前記第1の画像のメタデータに組み込み、
前記第1の顔特徴ベクトルをもつ前記第1の画像をストレージ装置内に格納する、
ためのコンピュータ・コードを含むことを特徴とする、請求項1に記載の永続的コンピュータ可読媒体。
The computer code for storing the first facial feature vector in a storage device is:
Incorporating the first facial feature vector into the metadata of the first image;
Storing the first image having the first face feature vector in a storage device;
The persistent computer readable medium of claim 1, comprising computer code for:
前記ストレージ装置から前記第1の顔特徴ベクトルを取り出し、
前記ストレージ装置から、既知の人物にさらに対応する第2の顔特徴ベクトルを取り出し、
前記第1の顔特徴ベクトルと前記第2の顔特徴ベクトルを比較して類似値を生成し、
前記類似値が一致していることを示す場合には、前記第1の顔が前記既知の人物に対応していると判定する、
ためのコンピュータ・コードをさらに含むことを特徴とする、請求項1に記載の永続的コンピュータ可読媒体。
Extracting the first face feature vector from the storage device;
A second facial feature vector further corresponding to a known person is extracted from the storage device,
Comparing the first face feature vector and the second face feature vector to generate a similarity value;
If the similarity values indicate matching, it is determined that the first face corresponds to the known person;
The persistent computer readable medium of claim 1, further comprising computer code for:
複数の画像が格納されたストレージ装置と、
前記ストレージ装置に通信可能に結合されており、請求項1に記載のコンピュータ・コードが格納された、メモリと、
前記ストレージ装置及び前記メモリに通信可能に結合されており、前記メモリに格納された前記コンピュータ・コードを取り出して実行するように構成された、プログラム可能制御ユニットと、
を含む電子装置。
A storage device storing a plurality of images;
A memory that is communicatively coupled to the storage device and that stores the computer code of claim 1;
A programmable control unit, communicatively coupled to the storage device and the memory, and configured to retrieve and execute the computer code stored in the memory;
Including electronic devices.
第1の画像における第1の顔について、前記第1の顔の複数の態様を識別するランドマーク画像を取得するコンピュータ・コードと
少なくとも部分的に前記ランドマーク画像に基づいて、正規化されたランドマーク画像を生成するコンピュータ・コードと
少なくとも部分的に前記正規化されたランドマーク画像に基づいて、歪みランドマーク画像を生成するコンピュータ・コードと
少なくとも部分的に前記ランドマーク画像に基づいて、第1の形状モデル特徴ベクトルを生成するコンピュータ・コードであって前記ランドマーク画像を前記第1の顔の二次元モデルに適用することを含む当該コンピュータ・コードと、
少なくとも部分的に前記ランドマーク画像に基づいて、第2の形状モデル特徴ベクトルを生成するコンピュータ・コードであって前記ランドマーク画像を前記第1の顔の三次元モデルに適用することを含む当該コンピュータ・コードと、
少なくとも部分的に前記正規化されたランドマーク画像に基づいて、第1のテクスチャ・モデル特徴ベクトルを生成するコンピュータ・コードであって前記正規化されたランドマーク画像内の複数の領域に対して勾配ベクトル演算を用いることを含む当該コンピュータ・コードと、
少なくとも部分的に前記歪みランドマーク画像に基づいて、第2のテクスチャ・モデル特徴ベクトルを生成するコンピュータ・コードであって、少なくとも部分的に前記正規化されたランドマーク画像に基づいて第1及び第2の記述子を生成し、少なくとも部分的に前記歪みランドマーク画像に基づいて第3の記述子を生成することを含む当該コンピュータ・コードと、
前記第1の形状モデル特徴ベクトルと、前記第2の形状モデル特徴ベクトルと、前記第1のテクスチャ・モデル特徴ベクトルと、前記第2のテクスチャ・モデル特徴ベクトルとを組み合わせて、第1の顔特徴ベクトルを形成するコンピュータ・コードと
前記第1の顔特徴ベクトルをストレージ装置に格納するコンピュータ・コードと
を含むことを特徴とする、永続的コンピュータ可読媒体。
Computer code for obtaining a landmark image identifying a plurality of aspects of the first face for the first face in the first image;
Computer code for generating a normalized landmark image based at least in part on the landmark image;
Computer code for generating a distorted landmark image based at least in part on the normalized landmark image;
Computer code for generating a first shape model feature vector based at least in part on the landmark image, the computer code comprising applying the landmark image to a two-dimensional model of the first face Computer code,
Computer code for generating a second shape model feature vector based at least in part on the landmark image, the computer code comprising applying the landmark image to a three-dimensional model of the first face Computer code,
Computer code for generating a first texture model feature vector based at least in part on the normalized landmark image, the plurality of regions in the normalized landmark image The computer code including using gradient vector operations;
Computer code for generating a second texture model feature vector based at least in part on the distorted landmark image , wherein the first and second are based at least in part on the normalized landmark image. Generating the second descriptor and generating a third descriptor based at least in part on the distorted landmark image;
The first face feature is obtained by combining the first shape model feature vector, the second shape model feature vector, the first texture model feature vector, and the second texture model feature vector. Computer code forming a vector;
Computer code for storing the first facial feature vector in a storage device;
A permanent computer readable medium characterized by comprising:
前記複数の領域は、前記正規化されたランドマーク画像の全てより少ないことを特徴とする、請求項10に記載の永続的コンピュータ可読媒体。 The persistent computer readable medium of claim 10 , wherein the plurality of regions are less than all of the normalized landmark images . 第2のテクスチャ・モデル特徴ベクトルを生成するための前記コンピュータ・コードは、前記第1、第2、及び第3の記述子を組み合わせて、前記第2のテクスチャ・モデル特徴ベクトルを形成するためのコンピュータ・コードをさらに含むことを特徴とする、請求項10に記載の永続的コンピュータ可読媒体。 The computer code for generating a second texture model feature vector combines the first, second, and third descriptors to form the second texture model feature vector The persistent computer readable medium of claim 10 , further comprising computer code. 前記第1、第2、及び第3の記述子を組み合わせるための前記コンピュータ・コードは、前記組み合わされた第1、第2、及び第3の記述子の次元を縮小するためのコンピュータ・コードをさらに含むことを特徴とする、請求項12に記載の永続的コンピュータ可読媒体。 The computer code for combining the first, second, and third descriptors comprises computer code for reducing the dimensions of the combined first, second, and third descriptors. The persistent computer readable medium of claim 12 , further comprising: 複数の画像が格納されたストレージ装置と、
前記ストレージ装置に作動可能に結合されており、請求項10に記載のコンピュータ・コードが格納された、メモリと、
前記ストレージ装置及び前記メモリに通信可能に結合されており、前記メモリに格納された前記コンピュータ・コードを実行するように構成された、プログラム可能制御装置と、
を含むコンピュータ・システム。
A storage device storing a plurality of images;
A memory operatively coupled to the storage device and having stored the computer code of claim 10 ;
A programmable controller that is communicatively coupled to the storage device and the memory and configured to execute the computer code stored in the memory;
A computer system including:
JP2012230281A 2011-12-20 2012-09-28 Construction of face feature vector Active JP5552519B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/332,084 US8593452B2 (en) 2011-12-20 2011-12-20 Face feature vector construction
US13/332,084 2011-12-20

Publications (2)

Publication Number Publication Date
JP2013131209A JP2013131209A (en) 2013-07-04
JP5552519B2 true JP5552519B2 (en) 2014-07-16

Family

ID=47003222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012230281A Active JP5552519B2 (en) 2011-12-20 2012-09-28 Construction of face feature vector

Country Status (9)

Country Link
US (1) US8593452B2 (en)
EP (1) EP2608108A1 (en)
JP (1) JP5552519B2 (en)
KR (1) KR101481225B1 (en)
CN (1) CN103198292A (en)
AU (1) AU2012227166B2 (en)
CA (1) CA2789887C (en)
TW (1) TWI484444B (en)
WO (1) WO2013095727A1 (en)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5649601B2 (en) * 2012-03-14 2015-01-07 株式会社東芝 Verification device, method and program
ITTO20130629A1 (en) 2013-07-24 2015-01-25 Sisvel Technology Srl METHOD FOR ENCODING AN IMAGE DESCRIPTOR BASED ON A GRADIENT HISTOGRAM AND RELATIVE IMAGE PROCESSING APPARATUS
CN103489011A (en) * 2013-09-16 2014-01-01 广东工业大学 Three-dimensional face identification method with topology robustness
WO2015078017A1 (en) * 2013-11-30 2015-06-04 Xiaoou Tang Method and system for exacting face features from data of face images
CN104021384B (en) * 2014-06-30 2018-11-27 深圳中智科创机器人有限公司 A kind of face identification method and device
KR102349059B1 (en) 2014-11-07 2022-01-10 삼성전자주식회사 Method and device to determine landmark from region of interest of image
RU2596062C1 (en) 2015-03-20 2016-08-27 Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" Method for correction of eye image using machine learning and method of machine learning
JP6754619B2 (en) 2015-06-24 2020-09-16 三星電子株式会社Samsung Electronics Co.,Ltd. Face recognition method and device
KR20170000748A (en) 2015-06-24 2017-01-03 삼성전자주식회사 Method and apparatus for face recognition
US9830506B2 (en) * 2015-11-09 2017-11-28 The United States Of America As Represented By The Secretary Of The Army Method of apparatus for cross-modal face matching using polarimetric image data
KR102545768B1 (en) 2015-11-11 2023-06-21 삼성전자주식회사 Method and apparatus for processing metadata
WO2017120247A1 (en) 2016-01-05 2017-07-13 Reald Spark, Llc Gaze correction of multi-view images
GB201602129D0 (en) * 2016-02-05 2016-03-23 Idscan Biometrics Ltd Method computer program and system for facial recognition
KR102221118B1 (en) 2016-02-16 2021-02-26 삼성전자주식회사 Method for extracting feature of image to recognize object
CN106326867B (en) * 2016-08-26 2019-06-07 维沃移动通信有限公司 A kind of method and mobile terminal of recognition of face
US10460153B2 (en) * 2016-11-15 2019-10-29 Futurewei Technologies, Inc. Automatic identity detection
WO2018129201A1 (en) * 2017-01-04 2018-07-12 Aquifi, Inc. Systems and methods for shape-based object retrieval
CN107452034B (en) * 2017-07-31 2020-06-05 Oppo广东移动通信有限公司 Image processing method and device
ES2967691T3 (en) 2017-08-08 2024-05-03 Reald Spark Llc Fitting a digital representation of a head region
US10657363B2 (en) 2017-10-26 2020-05-19 Motorola Mobility Llc Method and devices for authenticating a user by image, depth, and thermal detection
US10630866B2 (en) 2018-01-28 2020-04-21 Motorola Mobility Llc Electronic devices and methods for blurring and revealing persons appearing in images
US11017575B2 (en) 2018-02-26 2021-05-25 Reald Spark, Llc Method and system for generating data to provide an animated visual representation
US10757323B2 (en) 2018-04-05 2020-08-25 Motorola Mobility Llc Electronic device with image capture command source identification and corresponding methods
US11605242B2 (en) 2018-06-07 2023-03-14 Motorola Mobility Llc Methods and devices for identifying multiple persons within an environment of an electronic device
CN109117726A (en) * 2018-07-10 2019-01-01 深圳超多维科技有限公司 A kind of identification authentication method, device, system and storage medium
US11100204B2 (en) 2018-07-19 2021-08-24 Motorola Mobility Llc Methods and devices for granting increasing operational access with increasing authentication factors
FR3091610B1 (en) * 2019-01-08 2021-05-28 Surys Digital image processing method
US11074432B2 (en) * 2019-08-22 2021-07-27 Nice Ltd. Systems and methods for retrieving and presenting information using augmented reality
KR102422779B1 (en) * 2019-12-31 2022-07-21 주식회사 하이퍼커넥트 Landmarks Decomposition Apparatus, Method and Computer Readable Recording Medium Thereof
US11941863B2 (en) * 2021-08-04 2024-03-26 Datalogic Ip Tech S.R.L. Imaging system and method using a multi-layer model approach to provide robust object detection
WO2024211632A1 (en) * 2023-04-04 2024-10-10 Face Tec, Inc. Method and apparatus for creation and use of identity verification with suppeemental encoded data
US11837019B1 (en) 2023-09-26 2023-12-05 Dauntless Labs, Llc Evaluating face recognition algorithms in view of image classification features affected by smart makeup

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4292837B2 (en) * 2002-07-16 2009-07-08 日本電気株式会社 Pattern feature extraction method and apparatus
EP1411459B1 (en) * 2002-10-15 2009-05-13 Samsung Electronics Co., Ltd. Method and apparatus for extracting feature vector used for face recognition and retrieval
JP4217664B2 (en) * 2004-06-28 2009-02-04 キヤノン株式会社 Image processing method and image processing apparatus
EP1615160A3 (en) 2004-07-07 2009-10-07 Samsung Electronics Co., Ltd. Apparatus for and method of feature extraction for image recognition
SE528068C2 (en) 2004-08-19 2006-08-22 Jan Erik Solem Med Jsolutions Three dimensional object recognizing method for e.g. aircraft, involves detecting image features in obtained two dimensional representation, and comparing recovered three dimensional shape with reference representation of object
DE602007012246D1 (en) * 2006-06-12 2011-03-10 Tessera Tech Ireland Ltd PROGRESS IN EXTENDING THE AAM TECHNIQUES FROM GRAY CALENDAR TO COLOR PICTURES
JP4780198B2 (en) * 2006-11-10 2011-09-28 コニカミノルタホールディングス株式会社 Authentication system and authentication method
IE20070634A1 (en) 2007-09-05 2009-04-15 Nat Univ Ireland Maynooth Method and system for synthesis of non-primary facial expressions
EP2618290A3 (en) * 2008-04-02 2014-08-06 Google, Inc. Method and apparatus to incorporate automatic face recognition in digital image collections
JP2010191592A (en) * 2009-02-17 2010-09-02 Seiko Epson Corp Image processing apparatus for detecting coordinate position of characteristic portion of face
JP2011048469A (en) * 2009-08-25 2011-03-10 Seiko Epson Corp Image processing device, image processing method, and image processing program
US20110078097A1 (en) * 2009-09-25 2011-03-31 Microsoft Corporation Shared face training data
US20110080402A1 (en) 2009-10-05 2011-04-07 Karl Netzell Method of Localizing Landmark Points in Images
US8488873B2 (en) 2009-10-07 2013-07-16 Apple Inc. Method of computing global-to-local metrics for recognition
TWI425429B (en) * 2010-05-11 2014-02-01 Univ Chung Hua Image texture extraction method, image identification method and image identification apparatus

Also Published As

Publication number Publication date
CN103198292A (en) 2013-07-10
KR20130071341A (en) 2013-06-28
CA2789887A1 (en) 2013-06-20
EP2608108A1 (en) 2013-06-26
JP2013131209A (en) 2013-07-04
US8593452B2 (en) 2013-11-26
KR101481225B1 (en) 2015-01-09
CA2789887C (en) 2015-11-17
WO2013095727A1 (en) 2013-06-27
US20130155063A1 (en) 2013-06-20
AU2012227166B2 (en) 2014-05-22
TW201327478A (en) 2013-07-01
AU2012227166A1 (en) 2013-07-04
TWI484444B (en) 2015-05-11

Similar Documents

Publication Publication Date Title
JP5552519B2 (en) Construction of face feature vector
CN109214343B (en) Method and device for generating face key point detection model
US10769496B2 (en) Logo detection
US20190197331A1 (en) Liveness test method and apparatus
WO2020103700A1 (en) Image recognition method based on micro facial expressions, apparatus and related device
WO2016054779A1 (en) Spatial pyramid pooling networks for image processing
KR102476016B1 (en) Apparatus and method for determining position of eyes
US11935298B2 (en) System and method for predicting formation in sports
US11126827B2 (en) Method and system for image identification
JP2005327076A (en) Parameter estimation method, parameter estimation device and collation method
JP6071002B2 (en) Reliability acquisition device, reliability acquisition method, and reliability acquisition program
WO2020244151A1 (en) Image processing method and apparatus, terminal, and storage medium
US11816876B2 (en) Detection of moment of perception
US9940718B2 (en) Apparatus and method for extracting peak image from continuously photographed images
CN111382791B (en) Deep learning task processing method, image recognition task processing method and device
CN111639517A (en) Face image screening method and device
Dong et al. A supervised dictionary learning and discriminative weighting model for action recognition
JP2006293720A (en) Face detection apparatus, face detection method, and face detection program
US20240037995A1 (en) Detecting wrapped attacks on face recognition
Tarrataca et al. The current feasibility of gesture recognition for a smartphone using J2ME
Perez-Montes et al. An Efficient Facial Verification System for Surveillance that Automatically Selects a Lightweight CNN Method and Utilizes Super-Resolution Images
KR20240000235A (en) Method for Image Data Preprocessing and Neural Network Model for virtual space sound of realistic contents and computer program thereof
CN118279372A (en) Face key point detection method and electronic equipment
CN117373094A (en) Emotion type detection method, emotion type detection device, emotion type detection apparatus, emotion type detection storage medium, and emotion type detection program product

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140331

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140430

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140526

R150 Certificate of patent or registration of utility model

Ref document number: 5552519

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250