JP2008059108A - Image processing apparatus, image processing method, its program, and flow of people monitoring system - Google Patents

Image processing apparatus, image processing method, its program, and flow of people monitoring system Download PDF

Info

Publication number
JP2008059108A
JP2008059108A JP2006232990A JP2006232990A JP2008059108A JP 2008059108 A JP2008059108 A JP 2008059108A JP 2006232990 A JP2006232990 A JP 2006232990A JP 2006232990 A JP2006232990 A JP 2006232990A JP 2008059108 A JP2008059108 A JP 2008059108A
Authority
JP
Japan
Prior art keywords
image
attribute
image processing
model
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006232990A
Other languages
Japanese (ja)
Inventor
Masahiro Kiyohara
將裕 清原
Shigeki Keumi
茂樹 毛海
Tatsuo Miyasoi
竜生 宮副
Seiya Ito
誠也 伊藤
Chieko Konuma
小沼  知恵子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006232990A priority Critical patent/JP2008059108A/en
Publication of JP2008059108A publication Critical patent/JP2008059108A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of producing a face image of an arbitrary angle, which is more precise than conventional one and is considered to be closer to a person himself when the person is recognized by using the face image. <P>SOLUTION: The image processing apparatus comprises an image storing means for storing an image to be inputted from a camera, a facial parts extracting means for detecting a position etc. of a facial organ from the image, a 3-dimensional shape model storing means for storing 3-dimensional shape information of an average personal head portion configured by a wire frame, a simple model producing means for producing the 3-dimensional shape model adapted to facial parts arrangement of the person included in the image by deforming the 3-dimensional shape model based on a facial parts position acquired from the facial parts extracting means, an attribute calculating means for calculating a personal attribute from the image, and an attribute reflecting means for producing a detailed model after deforming the 3-dimensional shape model acquired from the simple model producing means based on the personal attribute acquired from the attribute calculating means. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、顔画像を用いて人物を認識するための画像処理装置,画像処理方法、そのプログラムおよび人流監視システムに関する。   The present invention relates to an image processing apparatus, an image processing method, a program thereof, and a human flow monitoring system for recognizing a person using a face image.

現在、ビルのエントランスや駐車場,工場や学校などの敷地の入口,大規模店舗やコンビニエンスストアなどの店舗内部などには、監視カメラが設けられ、監視画像が磁気テープや磁気ディスクなどの記憶媒体に記録されるとともに、施設の管理者や警備員などによってリアルタイムで人流監視などが行われている。このような人流監視の主な目的は、テロリスト等の犯罪者や不審者を雑踏の中から発見したり、捜査願いの出ている失踪者等を発見するためである。しかし、四六時中、監視者が監視画面を眺めて、対象者を発見することは人的コストが非常に大きく、また、疲労や集中カ低下により見逃する可能性もあり、確実に発見することは困難である。   Currently, surveillance cameras are installed in the entrances and parking lots of buildings, entrances to sites such as factories and schools, and stores such as large-scale stores and convenience stores, and monitoring images are stored on storage media such as magnetic tape and magnetic disks. In addition, it is monitored in real time by facility managers and security guards. The main purpose of such human flow monitoring is to detect criminals and suspicious persons such as terrorists from the hustle and bustle who are requested to investigate. However, it is extremely expensive to discover the target person by looking at the monitor screen at all times, and it can be overlooked due to fatigue and reduced concentration, so it is surely discovered. It is difficult.

このため、監視カメラから得られる監視画像に対して、画像処理および画像認識処理を施して、自動的に対象者を発見することが重要である。   For this reason, it is important to perform image processing and image recognition processing on the monitoring image obtained from the monitoring camera to automatically find the target person.

顔を撮影した画像を用いて人物を識別するシステムにおいて、身分証などによって得られる予め登録した顔画像と、識別に用いるカメラで撮影した顔画像との間に、カメラに対する人物の姿勢変動に起因する見かけの歪みや変形が起こり、認証精度が低下する要因となっている。特に、近年市販されるようになった顔認識処理のみを行う製品(以下、顔認識エンジン)においては、正面顔のみを対象にしたものが多く、こうした正面顔の顔認識エンジンでは、見かけの歪みや変形の影響を受けやすい。   In a system for identifying a person using an image obtained by photographing a face, due to a change in the posture of the person with respect to the camera between a pre-registered face image obtained by identification or the like and a face image photographed by the camera used for identification Apparent distortion and deformation occur, which is a factor that decreases the authentication accuracy. In particular, many products that perform only face recognition processing (hereinafter referred to as face recognition engines) that have become commercially available in recent years target only the front face, and such front face face recognition engines have apparent distortion. Susceptible to deformation and deformation.

そこで、このような間題を解決するために、例えば、特許文献1には、以下の手順で、事前に登録されている正面顔画像を、入力された任意角度の顔画像と同じ向きを向かせるように変換し、照合を行う手法が開示されている。   Therefore, in order to solve such a problem, for example, in Patent Document 1, the front face image registered in advance is directed in the same direction as the input face image at an arbitrary angle in the following procedure. There is disclosed a method of performing conversion and collation as required.

これは、まず、事前に登録されている正面顔画像から目・鼻・口などの顔器官を、自動もしくは手動で抽出し、その器官の輪郭位置に基づいて、ワイヤフレームで形成された三次元頭部モデルを割り付ける。割り付け後に、入力画像における各点の色情報を三次元頭部モデルに対応させることで、三次元頭部モデルを着色する。こうしてできた三次元頭部モデルを回転して任意の角度を向かせ、再度画像に戻すことにより入力画像と同じ向きの顔画像を生成する。   First of all, facial organs such as eyes, nose and mouth are extracted automatically or manually from pre-registered frontal face images, and based on the contour position of the organs, three-dimensionally formed with a wire frame Assign a head model. After the assignment, the color information of each point in the input image is made to correspond to the 3D head model to color the 3D head model. The three-dimensional head model thus formed is rotated to face an arbitrary angle, and is returned to the image again to generate a face image in the same direction as the input image.

なお、ワイヤフレームとは、対象とする物体(ここでは眼・鼻などの顔部品など)の輪郭を複数の線分で結んで表現したモデルである。   The wire frame is a model in which the contour of a target object (here, a facial part such as an eye or nose) is connected by a plurality of line segments.

特開2003−263639号公報JP 2003-263639 A Paul Viola and Michael Jones,“Rapid Object Detection using a Boosted Cascade of Simple Features”,IEEE Computer Society Conference on Computer Vision and Pattern Recognition 2001(CVPR01)Paul Viola and Michael Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features”, IEEE Computer Society Conference on Computer Vision and Pattern Recognition 2001 (CVPR01)

特許文献1に開示されている顔画像認識方法においては、眼・口等の顔パーツの境界位置に関しては、入力画像から画像のエッジを計算することにより、ワイヤフレームによる三次元頭部モデルを割り付ける計算が可能であったが、額・エラ・頬・下顎頤といった、正確な顔パーツ位置を頭部向きに関わらず画像上から得にくい部分ではワイヤフレーム割当てがうまく行われず、結果として標準モデル等の個人の特徴を反映していない形状モデルを用いて、情報の補完を行うことになる。このため、各個人により異なると考えられるこれらの部位に対して適切な形状復元や変形補正ができなかった。   In the face image recognition method disclosed in Patent Document 1, a three-dimensional head model based on a wire frame is assigned by calculating an edge of an image from an input image with respect to the boundary position of face parts such as eyes and mouth. Although calculation was possible, wireframe allocation was not performed well in areas where accurate face parts positions such as forehead, gills, cheeks, and mandibular jaws were difficult to obtain regardless of the head orientation, resulting in standard models, etc. The information is complemented using a shape model that does not reflect the individual characteristics of the person. For this reason, appropriate shape restoration and deformation correction cannot be performed for these parts which are considered to be different for each individual.

また、隠れ等によりカメラから直接撮像できない部位に関しては、これらの三次元形状復元においては、事前にシステム内に格納しておいた標準的な三次元頭部モデルの形状を利用して、これらの情報欠損部位に対する補完を行っていた。このため、前記手法により生成された画像には、本人の特徴を反映していない部分が含まれることになり、不正確な顔画像が生成されるという問題があった。   For parts that cannot be captured directly from the camera due to hiding, etc., these three-dimensional shape restoration uses these standard three-dimensional head model shapes stored in the system in advance. Complementing the information deficient site. For this reason, the image generated by the above method includes a portion that does not reflect the characteristics of the person, and there is a problem that an inaccurate face image is generated.

上記課題を達成するために、本発明の画像処理装置,画像処理方法、では観点(人物に対するカメラの向き(上下,左右等)や人物の姿勢あるいは表情,照明,カメラパラメータ(ズーム倍率,レンズ特性)などのいずれかで、ユーザによって設定される)に従って撮影された観点撮影顔画像を入力し、この入力画像に対して、顔パーツ(眼・鼻・口・眉・黒子・外耳,髪生え際などの少なくとも1つを含む)を画像処理により抽出し、顔パーツの抽出結果に基づき、ワイヤフレームで形成された三次元頭部形状モデルを顔パーツ配置に対応させて変形させながら、入力画像に割り付けたモデル(以下、簡易モデルと呼ぶ)を生成する。そして、入力画像もしくは顔パーツ情報から人物属性(頭部大きさ・顔頭部輪郭形状・年齢・性別・体格などの少なくとも1つを含む)を算出し、人物属性に基づき、前記簡易モデルを修正して詳細モデルを作成することにより、より入力画像に対して妥当な三次元個人形状データを作成することを特徴とする。   In order to achieve the above object, the image processing apparatus and the image processing method of the present invention have a viewpoint (camera direction (vertical, horizontal, etc.), human posture or facial expression, lighting, camera parameters (zoom magnification, lens characteristics). ) Or the like, and a point-of-view face image taken according to the user) is input, and face parts (eye, nose, mouth, eyebrows, mole, outer ear, hairline, etc.) are input to this input image. (Including at least one of the above) by image processing, and based on the facial part extraction result, the 3D head shape model formed by the wire frame is assigned to the input image while deforming according to the facial part arrangement Model (hereinafter referred to as a simple model). Then, a person attribute (including at least one of head size, face head outline shape, age, gender, physique, etc.) is calculated from the input image or face part information, and the simplified model is corrected based on the person attribute Thus, by creating a detailed model, more appropriate three-dimensional personal shape data for the input image is created.

本発明によれば、顔パーツの配置・形状を抽出し、三次元頭部形状モデルを各個人に適した形に変形・調整した上で、入力画像から得られる色および模様情報(以下、テクスチャと呼ぶ)を貼り付けるため、抽出できた顔パーツ近傍の形状は、各個人の特徴を反映していると考えられる。これは従来技術と同等であるが、人物頭部全体を見た場合には、これだけでは各個人の特徴を十分に反映しているとは言えない。   According to the present invention, the arrangement and shape of face parts are extracted, and the 3D head shape model is transformed and adjusted to a shape suitable for each individual, and then color and pattern information (hereinafter referred to as texture) obtained from the input image is obtained. The shape near the extracted facial parts is considered to reflect the characteristics of each individual. This is equivalent to the prior art, but when the entire human head is viewed, it cannot be said that this alone sufficiently reflects the characteristics of each individual.

従って、本発明の画像処理装置,画像処理方法では人物属性を算出し、その算出結果に基づいて、顔パーツのみの配置・形状だけでは欠落してしまう情報を基に、更に三次元頭部形状モデルを修正することにより、より高精度な三次元個人形状データが生成できるようになる。   Therefore, in the image processing apparatus and the image processing method of the present invention, the person attribute is calculated, and based on the calculation result, based on the information that is lost only by the arrangement and shape of only the face parts, the three-dimensional head shape By correcting the model, more accurate three-dimensional personal shape data can be generated.

また、前記の三次元個人形状データが一旦生成されると、以後はその形状データを用いて任意観点の画像を生成することは容易である。このため、監視カメラ等から入力された位置姿勢の不明な頭部画像から、本発明の手段を用いて三次元個人形状データを生成し、例えば正面顔画像を生成することで、正面顔用の顔認識エンジンを利用して人物照合を行うことができるようになる。   In addition, once the three-dimensional personal shape data is generated, it is easy to generate an image of an arbitrary viewpoint using the shape data. For this reason, three-dimensional personal shape data is generated from the head image of unknown position and orientation input from a monitoring camera or the like using the means of the present invention, for example, by generating a front face image, It becomes possible to perform person verification using the face recognition engine.

また、前記の本発明の画像処理装置,画像処理方法では、算出された人物属性に基づいて、それぞれ異なる特徴を持つ三次元頭部詳細形状モデル(以下、詳細モデル)を選択し、簡易モデルの変形パラメータを用いて、この詳細モデルを変形させることで人物属性を三次元個人形状データに反映させることが可能になる。   In the image processing apparatus and the image processing method of the present invention, a three-dimensional head detailed shape model (hereinafter referred to as a detailed model) having different characteristics is selected based on the calculated person attributes, and a simple model is selected. By deforming this detailed model using the deformation parameter, it becomes possible to reflect the person attribute in the three-dimensional personal shape data.

更に、前記の本発明の画像処理装置,画像処理方法では、算出された人物属性に基づいて、それぞれ異なる特徴を持つ三次元頭部詳紬形状モデル(以下、詳細モデル)を選択し、この詳細モデル内の変形パラメータを利用して基本モデルを変形させることで人物属性を三次元個人形状データに反映させる構成をとることも考えられる。   Furthermore, in the image processing apparatus and the image processing method of the present invention described above, based on the calculated person attributes, three-dimensional detailed head shape models (hereinafter referred to as detailed models) having different characteristics are selected, and the details are selected. It is also possible to adopt a configuration in which the person attribute is reflected in the three-dimensional personal shape data by deforming the basic model using the deformation parameter in the model.

尚、本発明は、以上の画像処理装置,画像処理方法を実行させるプログラムを含む。   The present invention includes a program for executing the above image processing apparatus and image processing method.

本発明によれば、顔認識システムにおいて、撮影の上下,左右,斜め方向或いは顔の各種の表情などの色々な観点のそれぞれに対して、三次元個人形状データを生成できる効果がある。   According to the present invention, in the face recognition system, there is an effect that three-dimensional personal shape data can be generated with respect to each of various viewpoints such as up / down, left / right, oblique direction of shooting or various facial expressions.

また、その三次元個人形状データから、入力画像とは異なる観点の画像を生成することができ、顔認識システムにおいて、認識精度を高く保持することが可能であるという効果がある。   Further, it is possible to generate an image from a viewpoint different from the input image from the three-dimensional personal shape data, and there is an effect that the recognition accuracy can be kept high in the face recognition system.

そのような高精度の顔画像認識装置を用いることにより、信頼性および確度の高い防犯システム,監視システム,セキュリティシステム等を実現する効果がある。   By using such a highly accurate face image recognition device, there is an effect of realizing a crime prevention system, a monitoring system, a security system, etc. with high reliability and accuracy.

(第1の実施形態)
以下、本発明の第1の実施形態について、図1〜図8を参照しながら詳細に説明する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described in detail with reference to FIGS.

図1は、本発明の第1の実施形態に係る画像処理装置の構成の例を示した図である。   FIG. 1 is a diagram showing an example of the configuration of an image processing apparatus according to the first embodiment of the present invention.

図1に示すように、画像処理装置101は、カメラ102と、表示装置103に接続されている。   As shown in FIG. 1, the image processing apparatus 101 is connected to a camera 102 and a display apparatus 103.

また、図2は画像処理装置101の内部を示す例である。画像入力部104,画像記憶部105,顔パーツ抽出部106,三次元形状モデル格納部107,簡易モデル生成部
108,詳細モデル生成部(属性算出部)109,属性反映部110,画像生成部111を含んで構成される。画像入力部は、カメラ102から送られる画像信号を受信し、画像信号がアナログ信号の場合には、A/D(Ana1ogtoDigital) 変換装置を用いてデジタル信号に変換し、変換後の画像データを画像記憶部105に格納する。また、画像信号がデジタル信号の場合には、カメラ102との通信処理,エラー訂正などを行った後、その画像データを画像記憶部105に格納する。画像記憶部105は、画像入力部104によってカメラ102から入力された画像データを記憶するとともに、顔パーツ抽出部106,属性算出部109の要求に応じて、格納された画像データを読み書きし、適宜、画像データの全部または一部を変更または追加する。
FIG. 2 is an example showing the inside of the image processing apparatus 101. Image input unit 104, image storage unit 105, face part extraction unit 106, three-dimensional shape model storage unit 107, simple model generation unit 108, detailed model generation unit (attribute calculation unit) 109, attribute reflection unit 110, image generation unit 111 It is comprised including. The image input unit receives an image signal sent from the camera 102. When the image signal is an analog signal, the image input unit converts the converted image data into a digital signal using an A / D (Ana1ogtoDigital) conversion device. Store in the storage unit 105. When the image signal is a digital signal, the image data is stored in the image storage unit 105 after performing communication processing with the camera 102, error correction, and the like. The image storage unit 105 stores the image data input from the camera 102 by the image input unit 104, reads and writes the stored image data in response to requests from the face part extraction unit 106 and the attribute calculation unit 109, and appropriately , Change or add all or part of the image data.

なお、本明細書では、「画像データ」を単に「画像」ということがある。顔パーツ抽出部106では、画像記憶部105に格納されている画像から、目・眉・口などのパーツを抽出する。このパーツ抽出は公知の動的輪郭探索法やテンプレートマッチング法,グラフマッチング法などを用いることで実現可能である。   In this specification, “image data” may be simply referred to as “image”. The face parts extraction unit 106 extracts parts such as eyes, eyebrows, and mouth from the image stored in the image storage unit 105. This part extraction can be realized by using a known active contour search method, template matching method, graph matching method, or the like.

三次元形状モデル格納部107では、顔の三次元形状を事前にワイヤフレームを用いて表現したモデル情報を保持しておく。ワイヤフレームモデルは図6に示すように、三次元座標を表す頂点133と、その接続情報134とで構成されている。このモデル情報には、ワイヤフレームの各頂点の三次元空間中の座標だけでなく、例えば右目尻点がワイヤフレームのどの頂点に対応しているかなどの、顔器官位置との対応付け情報も含まれる。   The three-dimensional shape model storage unit 107 stores model information in which a three-dimensional shape of a face is expressed in advance using a wire frame. As shown in FIG. 6, the wire frame model is composed of a vertex 133 representing three-dimensional coordinates and its connection information 134. This model information includes not only the coordinates of each vertex of the wire frame in the three-dimensional space but also the correspondence information with the face organ position such as which vertex of the wire frame corresponds to the vertex of the right eye. It is.

簡易モデル生成部108では、顔パーツ抽出部106で得られた顔パーヅ位置に基づいて、前記三次元形状モデルを変形させ、前記入力画像に含まれる人物の顔パーツ配置に適合する三次元形状モデル(以下、簡易モデル)を生成する。   The simple model generation unit 108 deforms the three-dimensional shape model based on the face part wrinkle position obtained by the face part extraction unit 106, and the three-dimensional shape model conforms to the human face part arrangement included in the input image. (Hereinafter referred to as a simple model).

簡易モデル生成部108では、顔パーツ抽出部106で得られた顔パーツ位置に基づいて、前記三次元形状モデルを変形させ、前記入力画像に含まれる人物の顔パーツ配置に適合する三次元形状モデル(以下、簡易モデル)を生成する。この簡易モデルは、顔パーツ抽出部106で抽出できた顔パーツ座標を基にその形状を調整できる。   The simple model generation unit 108 deforms the three-dimensional shape model based on the face part position obtained by the face part extraction unit 106, and the three-dimensional shape model conforms to the human face part arrangement included in the input image. (Hereinafter referred to as a simple model). The shape of this simple model can be adjusted based on the face part coordinates extracted by the face part extraction unit 106.

例えば、簡易モデルの幅に関しては、動的輪郭法を用いて左右の目尻・目頭を見つけることができ、その右目尻と左目尻の間隔から頭部の幅を推測することができる。これは、例えば、顔検出と動的輪郭法による眼輪郭の検出を行うものであり、具体的には以下の流れになる。   For example, with regard to the width of the simple model, the right and left eye corners / eyes can be found using the dynamic contour method, and the width of the head can be estimated from the interval between the right eye corner and the left eye corner. This is, for example, the detection of eye contours by face detection and the dynamic contour method, and specifically the following flow.

まず,非特許文献1に示したViolaらの手法を用いることで、画像中からの顔検出と同時に、顔の位置と大きさから眼の大まかな位置がわかるため、眼の存在する範囲よりも大きく動的輪郭法の初期輪郭線を配置する。その後に画像中のエッジを越えないように輪郭線を収縮させていくことで、眼周辺に輪郭線の位置が収束する。このため、額・エラ・頬・下顎といった、顔上で明確なエッジの無い顔パーツの位置は求めることができず、簡易モデルは、あくまで、眉,眼,鼻,口等のパーツに対して、個人の特徴を反映させたモデルとなる。   First, by using the technique of Viola et al. Shown in Non-Patent Document 1, the approximate position of the eye can be determined from the position and size of the face simultaneously with the face detection from the image. The initial contour line of the dynamic contour method is arranged largely. After that, by contracting the contour line so as not to exceed the edge in the image, the position of the contour line converges around the eye. For this reason, the position of face parts without clear edges on the face, such as the forehead, gills, cheeks, and lower jaw, cannot be obtained, and the simple model is only for parts such as the eyebrows, eyes, nose, and mouth. It becomes a model that reflects individual characteristics.

属性算出部109では、顔の幅・頭部の大きさ・頭部輪郭形状・年齢・性別・体格・身長などの人物属性を算出する。このとき、入力画像の顔領域だけに限らず、入力画像中に映る人物全体の画像も利用する。例えば、入力画像に対して公知の背景差分法を用いて抽出した人物シルエットと、公知の肌色抽出法を用いて抽出した顔領域との比を使うことで、顔の幅を算出できる。また、人物シルエットと、前記の顔パーツ位置に基づいて頭部位置を求め、頭部位置に相当するシルエットの幅を求めることで頭部の大きさが算出できる。さらに、顔パーツ周囲のしわ量から年齢が、服装から性別がそれぞれ算出できる。   The attribute calculation unit 109 calculates personal attributes such as face width, head size, head outline shape, age, gender, physique, and height. At this time, not only the face area of the input image but also the image of the entire person shown in the input image is used. For example, the face width can be calculated by using a ratio of a person silhouette extracted using a known background difference method to an input image and a face region extracted using a known skin color extraction method. Further, the head size can be calculated by obtaining the head position based on the person silhouette and the face part position and obtaining the width of the silhouette corresponding to the head position. Furthermore, the age can be calculated from the amount of wrinkles around the face parts, and the sex can be calculated from the clothes.

詳細モデル生成部110では、前記属性算出部109から得られた人物属性から類推される形状特徴を、簡易モデルに反映させて詳細モデルを生成する。これは、例えば、顔の幅情報を利用して簡易モデルの横方向のスケールを変化させたり、体格情報を利用して簡易モデルの肉付き量を変化させたり、性別情報を利用してエラの輪郭を変化させたりする。あるいは、属性情報として、機械的に計算できるものだけではなく、他の人間の印象や目撃情報を利用しても良い。例えば,欧米人らしいという情報を基に鼻の高さを高くすることも考えられる。なお、この詳細モデル生成部110には、各属性の特徴を反映させたモデルを保持しておき、属性情報が入力されたときに、簡易モデルに特徴的な形状情報を反映させてもよい。   The detailed model generation unit 110 generates a detailed model by reflecting the shape feature inferred from the person attribute obtained from the attribute calculation unit 109 in the simple model. For example, the horizontal scale of the simple model is changed using the face width information, the amount of flesh of the simple model is changed using the physique information, or the contour of the error is determined using gender information. To change. Alternatively, not only information that can be calculated mechanically but also other human impressions and sighting information may be used as attribute information. For example, it may be possible to increase the height of the nose based on information that seems to be Westerners. Note that the detailed model generation unit 110 may store a model reflecting the characteristics of each attribute, and reflect the characteristic shape information in the simple model when the attribute information is input.

画像生成部111では、詳細モデルを指定された位置姿勢に移動させて二次元平面に投影し、必要に応じてカメラパラメータや照明条件などを考慮して画像を生成する。   In the image generation unit 111, the detailed model is moved to a designated position and orientation and projected onto a two-dimensional plane, and an image is generated in consideration of camera parameters, illumination conditions, and the like as necessary.

以上に説明した画像処理装置101は、図示しない演算装置などからなるCPU
(Central Processing Unit) と、半導体メモリやハードディスク記憶装置などからなる記憶装置とを含んで構成されたコンピュータによって構成される。その場合、画像記憶部
105,三次元形状モデル格納部107等の実体は、前記記憶装置の一部に割り当てられた記憶領域に構成され、また、顔パーツ抽出部106,簡易モデル生成部108,属性算出部109,詳細モデル生成部(属性反映部)110,画像生成部111は、前記CPUが前記記憶装置に格納されている所定のプログラムを実行することによって実現される。また、画像入力部104および画像生成部111の一部は、入力または出カインターフェース回路と、その回路を駆動・制御するプログラムをCPUが実行することによって実現される。
The image processing apparatus 101 described above is a CPU including an arithmetic device (not shown).
(Central Processing Unit) and a computer including a storage device such as a semiconductor memory or a hard disk storage device. In that case, the entities such as the image storage unit 105 and the three-dimensional shape model storage unit 107 are configured in a storage area allocated to a part of the storage device, and the face parts extraction unit 106, the simple model generation unit 108, The attribute calculation unit 109, the detailed model generation unit (attribute reflection unit) 110, and the image generation unit 111 are realized by the CPU executing a predetermined program stored in the storage device. Further, part of the image input unit 104 and the image generation unit 111 is realized by the CPU executing an input or output interface circuit and a program for driving and controlling the circuit.

図3は、本発明の第1の実施形態に係る画像処理装置によって、内部のデータが順次作成されていく様子を表している。   FIG. 3 shows how the internal data is sequentially created by the image processing apparatus according to the first embodiment of the present invention.

画像入力部で取り込まれた顔画像は入力画像112として、画像記憶部に格納されている。この入力画像112に対し、顔パーツ抽出および簡易モデル生成部により簡易モデル113を作成し、年齢,体格等の人物属性を推定し、属性別の形状情報を反映させて詳細モデル114を作成する。この詳細モデル114を指定した位置姿勢に回転・並進移動させ、二次元画像として個人形状115を作成する行程を表している。   The face image captured by the image input unit is stored as an input image 112 in the image storage unit. For this input image 112, a simple model 113 is created by the face part extraction and simple model generation unit, human attributes such as age and physique are estimated, and detailed models 114 are created by reflecting shape information for each attribute. This represents a process of rotating and translating the detailed model 114 to a designated position and orientation to create a personal shape 115 as a two-dimensional image.

図4は、本発明の第1の実施形態に係る画像処理装置を利用した人流監視システムを現したものである。   FIG. 4 shows a human flow monitoring system using the image processing apparatus according to the first embodiment of the present invention.

カメラ102で撮影された画像は、画像処理装置101に入力され、正面顔を生成した後に、顔照合装置116に渡される。顔照合装置116では、この正面顔から計算される各個人の顔に特有な数値ベクトル(以下、特徴ベクトル)を計算するとともに、事前に登録しておいた照合用の顔画像データベース117(以下、照合用顔DB)に格納されている顔画像の特徴ベクトルを計算し、それらの類似度を算出する。顔照合装置116は、この類似度に基づいて入力画像が照合用顔DB中のどの人物なのかを判定する。判定結果は、例えばインターネットに代表される有線・無線のネットワーク118を通じて蓄積・検索装置119へ送られ、必要に応じて携帯端末120へ警報を送る。このように、本発明により、監視カメラによる自動的な人流監視システムを構築することができ、セキュリティの向上や特定人物の捜索の利便性が向上する効果がある。   An image photographed by the camera 102 is input to the image processing apparatus 101 and a front face is generated, and then passed to the face matching apparatus 116. The face matching device 116 calculates a numerical vector (hereinafter referred to as a feature vector) peculiar to each individual face calculated from the front face, and a face image database 117 (hereinafter referred to as a “matching face image database”) registered in advance. The feature vectors of the face images stored in the matching face DB) are calculated, and the degree of similarity is calculated. The face matching device 116 determines which person in the matching face DB the input image is based on the similarity. The determination result is sent to the storage / retrieval device 119 through, for example, a wired / wireless network 118 represented by the Internet, and an alarm is sent to the portable terminal 120 as necessary. As described above, according to the present invention, an automatic human flow monitoring system using a monitoring camera can be constructed, and there is an effect of improving security and convenience of searching for a specific person.

図5は、本発明の第1の実施形態に係る画像処理装置を利用した人流監視システムの他の実施例を現したものである。   FIG. 5 shows another example of the human flow monitoring system using the image processing apparatus according to the first embodiment of the present invention.

図5に示すように、Webカメラに代表されるネットワークに接続可能なカメラ102の1台もしくは複数台からの映像を、ネットワーク118経由で画像処理装置101が受け取る構成になっており、多数のカメラからの画像データを1台の画像処理装置101が処理することを実現している。この場合、特に言及する部分以外は前記図4の実施例と同様であるが、装置の設置容積やコストの観点で優れている。   As shown in FIG. 5, the image processing apparatus 101 is configured to receive images from one or a plurality of cameras 102 connectable to a network typified by a Web camera via the network 118, and a number of cameras Image data from the image processing apparatus 101 is processed by one image processing apparatus 101. In this case, except for the part particularly mentioned, it is the same as the embodiment of FIG. 4, but is excellent in view of the installation volume and cost of the apparatus.

図7は、人物属性が得られなかった場合の顔照合システムの一実施例を現したものである。   FIG. 7 shows an example of a face collation system when a person attribute is not obtained.

入力画像112の人物属性が得られなかった場合、画像処理装置101では、複数の人物属性を仮定して、複数の異なる生成画像121を出カし、それら全てを顔照合装置116へ送る構成になっている。   When the person attribute of the input image 112 is not obtained, the image processing apparatus 101 assumes a plurality of person attributes, outputs a plurality of different generated images 121, and sends all of them to the face matching apparatus 116. It has become.

このような構成を採ることにより、顔照合時に欠落した個人顔に関する情報の複数のバリエーションを考慮して顔照合をかけることができるため、照合見落としを防止することができる効果がある。   By adopting such a configuration, it is possible to apply face matching in consideration of a plurality of variations of information related to individual faces that are lost during face matching, and therefore, there is an effect that it is possible to prevent overlooking of matching.

図9は、属性推定の結果を照合にも用する場合の構成の一例を表した図である。   FIG. 9 is a diagram illustrating an example of a configuration when the result of attribute estimation is also used for matching.

照合用顔DB117には顔画像に加え、その人物の年齢・性別・体格といった複数の人物属性が入力されている場合があることが考えられる。この場合、入力画像112から算出された人物属性130と顔照合エンジン129の判定結果の人物の人物属性とを比較することにより、顔照合の照合精度を改善することができる効果がある。   It is conceivable that a plurality of person attributes such as the person's age, sex, and physique may be input to the matching face DB 117 in addition to the face image. In this case, comparing the person attribute 130 calculated from the input image 112 with the person attribute of the person determined by the face matching engine 129 has an effect of improving the matching accuracy of the face matching.

図10は、人物属性を手動で与える場合の顔画像生成システムの一実施例を現したものである。   FIG. 10 shows an embodiment of a face image generation system when manually assigning person attributes.

例えば、犯罪捜査において、カメラ102から画像が得られ、目撃情報132から定性的な人物属性情報130が得られた場合、両者を利用してより正確な手配写真を作成したいという要求がある。このような場合、入力画像から直接人物属性を算出するのではなく、目撃情報132による人物属性130を手動で入力し、これにより属性別詳細形状情報131を選択し、詳細モデル114を作成する構成になっている。   For example, in a criminal investigation, when an image is obtained from the camera 102 and qualitative person attribute information 130 is obtained from the sighting information 132, there is a demand for creating a more accurate arrangement photograph using both. In such a case, instead of calculating the person attribute directly from the input image, the person attribute 130 based on the sighting information 132 is manually input, thereby selecting the attribute-specific detailed shape information 131 and creating the detailed model 114. It has become.

図8にこのときの人物属性を入力するインターフェース画面の例を示す。   FIG. 8 shows an example of an interface screen for inputting the person attribute at this time.

GUIインターフェース122には、性別を入力をする欄123,年齢を入力する欄
124,体格を入力する欄125などがあり、それぞれシステムが自動認識した属性値の範囲126が示されている。この属性値の範囲126を参考に、入力値を指定するつまみ127を手動で移動して人物属性を入力する。入力した人物属性を可視化するための属性値を反映させたモデルを表示する欄128を設けることで、より詳細に人物属性のデータを入力することが可能になる。
The GUI interface 122 includes a field 123 for inputting gender, a field 124 for inputting age, a field 125 for inputting physique, and the like, and attribute value ranges 126 automatically recognized by the system are shown. With reference to this attribute value range 126, the knob 127 for designating the input value is manually moved to input the person attribute. By providing the column 128 for displaying the model reflecting the attribute value for visualizing the input person attribute, it becomes possible to input the data of the person attribute in more detail.

図11は、入力画像から得られた人物属性算出結果を用いて、顔照合システムの照合用顔画像DBを変換した上で照合するシステムの一実施例を現したものである。   FIG. 11 shows an embodiment of a system that performs collation after converting the collation face image DB of the face collation system using the person attribute calculation result obtained from the input image.

照合用顔画像DBを撮影した観点と、入力画像を撮影した観点は異なる場合があると考えられる。例えば、経年変化が代表的事例として挙げられるが、人物属性算出により得られた人物属性130(経年変化情報など)を用いて、照合用顔画像DB140に登録されている顔画像を経年変化させたものと入力画像を照合する構成になっている。   It is considered that the viewpoint of capturing the collation face image DB and the viewpoint of capturing the input image may be different. For example, aging is a typical example, but the face image registered in the matching face image DB 140 is aging using the person attribute 130 (aging information, etc.) obtained by calculating the person attribute. The configuration is such that the input image is collated with the object.

この場合、例えば経年変化が発生したとしても、顔照合エンジン129の照合精度を改善することができる効果がある。   In this case, for example, even if a secular change occurs, there is an effect that the matching accuracy of the face matching engine 129 can be improved.

本発明によれば、顔認識システムに用いることにより、撮影の上下,左右,斜め方向或いは顔の各種の表情などの色々な観点のそれぞれに対して、三次元個人形状データを生成できる。   According to the present invention, by using it in a face recognition system, it is possible to generate three-dimensional personal shape data for each of various viewpoints such as up / down, left / right, oblique direction of shooting or various facial expressions.

また、その三次元個人形状データから、入力画像とは異なる観点の画像を生成することができ、顔認識システムにおいて、認識精度を高くすることが可能である。   Further, an image having a different viewpoint from the input image can be generated from the three-dimensional personal shape data, and the recognition accuracy can be increased in the face recognition system.

更に、そのような高精度の顔画像認識システムを用いることにより、信頼性および確度の高い防犯システム,監視システム,セキュリティシステム等を実現することができる。   Furthermore, by using such a highly accurate face image recognition system, a crime prevention system, a monitoring system, a security system, etc. with high reliability and accuracy can be realized.

本特許の画像処理装置の入力部分および出カ部分を説明する図。The figure explaining the input part and output part of the image processing apparatus of this patent. 本特許の画像処理装置の内部の処理フローを説明する図。The figure explaining the internal processing flow of the image processing apparatus of this patent. 本特許の画像処理装置の内部でデータが逐次変換される様子を表す図。The figure showing a mode that data are sequentially converted inside the image processing apparatus of this patent. 本特許の画像処理装置を利用した人流監視システムを表す図。The figure showing the people flow monitoring system using the image processing apparatus of this patent. 本特許の画像処理装置を利用した人流監視システムの異なる構成例を表す図。The figure showing the example of a different structure of the people flow monitoring system using the image processing apparatus of this patent. 本特許の画像処理装置の三次元形状格納部に含まれるワイヤフレームモデルを表す図。The figure showing the wire frame model contained in the three-dimensional shape storage part of the image processing apparatus of this patent. 人物属性を算出しないで、複数の人物属性を仮定して多くの生成画像を得、その全てを顔照合装置に入力するシステムを表す図。The figure showing the system which does not calculate a person attribute, obtains many generated images on the assumption of a plurality of person attributes, and inputs all of them to the face matching device. 人物属性を算出しないで、手動で入力する場合のインターフェースを表す図。The figure showing the interface in the case of inputting manually, without calculating a person attribute. 本特許の画像処理装置で算出される人物属性を照合に利用する構成を示す図。The figure which shows the structure which utilizes the person attribute calculated with the image processing apparatus of this patent for collation. カメラ映像と目撃情報による人物属性とを組み合わせて画像生成をする構成を表す図。The figure showing the structure which combines a camera image | video and the person attribute by sighting information, and produces | generates an image. 本特許の画像処理装置で算出される人物属性用いて、照合用顔DBの方を変換し、照合を行う構成を表す図。The figure showing the structure which converts and compares the face DB for collation using the person attribute calculated with the image processing apparatus of this patent.

符号の説明Explanation of symbols

101…画像処理装置、102…カメラ、103…表示装置、104…画像入力部、
105…画像記憶部、106…顔パーツ抽出部、107…三次元形状モデル格納部、108…簡易モデル生成部、109…属性算出部、110…詳細モデル生成部、111…画像生成部、112…入力画像、113…簡易モデル、114…詳細モデル、115…個人三次元形状、116…顔照合装置、117…照合用顔DB、118…ネットワーク、119…蓄積・検索装置、120…携帯端末、121…生成画像、122…GUIインターフェース、123…性別を入力する欄、124…年齢を入力する欄、125…体格を入力する欄、126…システムが自動認識した属性値の範囲、127…属性入力値を指定するつまみ、128…属性値を反映させたモデルを表示する欄、129…顔照合エンジン、130…人物属性情報、131…属性別詳細形状情報、133…ワイヤフレームモデルの頂点、
134…ワイヤフレームモデルの接続情報。
DESCRIPTION OF SYMBOLS 101 ... Image processing apparatus, 102 ... Camera, 103 ... Display apparatus, 104 ... Image input part,
DESCRIPTION OF SYMBOLS 105 ... Image memory | storage part 106 ... Face part extraction part 107 ... Three-dimensional shape model storage part 108 ... Simple model production | generation part 109 ... Attribute calculation part 110 ... Detailed model production | generation part 111 ... Image production | generation part 112 ... Input image 113 ... Simple model 114 ... Detailed model 115 ... Personal three-dimensional shape 116 ... Face collation device 117 ... Collation face DB 118 118 Network 119 Accumulation / retrieval device 120 Mobile terminal 121 ... generated image, 122 ... GUI interface, 123 ... field for inputting gender, 124 ... field for inputting age, 125 ... field for inputting physique, 126 ... range of attribute value automatically recognized by system, 127 ... attribute input value , A field for displaying a model reflecting attribute values, 129, a face matching engine, 130, person attribute information, 131, by attribute Fine shape information 133 ... vertices of the wire frame model,
134: Connection information of the wire frame model.

Claims (8)

カメラから入力される画像を加工処理する画像処理装置において、
前記カメラから入力される入力画像を記憶する画像記憶手段と、
前記入力画像から顔器官の位置,形状,特徴を検出する顔パーツ抽出手段と、
ワイヤフレームで構成された平均的な人物頭部の三次元形状情報を記憶する三次元形状モデル格納手段と、
前記顔パーツ抽出手段から得られた顔パーツ位置に基づき、前記三次元形状モデルを変形させ、前記入力画像に含まれる人物の顔パーツ配置に適合する三次元形状モデルを生成する簡易モデル生成手段と、
前記入力画像から人物属性を算出する属性算出手段と、
前記属性算出手段から得られた人物属性に基づき、前記簡易モデル生成手段から得られた三次元形状モデルを変形させて詳紬モデルを生成する属性反映手段と、
該属性反映手段から出カされる詳細モデルから二次元の画像を生成する画像生成手段と、を備えることを特徴とする画像処理装置。
In an image processing apparatus that processes an image input from a camera,
Image storage means for storing an input image input from the camera;
Facial part extraction means for detecting the position, shape and characteristics of a facial organ from the input image;
3D shape model storage means for storing 3D shape information of an average human head composed of wire frames;
Simple model generating means for deforming the three-dimensional shape model based on the face part position obtained from the face part extracting means, and generating a three-dimensional shape model suitable for a human face part arrangement included in the input image; ,
Attribute calculation means for calculating a person attribute from the input image;
Based on the person attribute obtained from the attribute calculation means, attribute reflection means for deforming the three-dimensional shape model obtained from the simple model generation means and generating a detailed model;
An image processing apparatus comprising: an image generation unit configured to generate a two-dimensional image from a detailed model output from the attribute reflection unit.
請求項1に記載の画像処理装置において、
前記顔器官とは眼・鼻・口・眉・黒子・外耳,髪生え際などのうち少なくとも1つを含み、
前記人物属性とは、顔の幅・頭部の大きさ・頭部輪郭形状・年齢・性別・体格・身長のうち少なくとも1つを含むことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The facial organ includes at least one of eyes, nose, mouth, eyebrows, mole, outer ear, hairline, etc.
The image processing apparatus according to claim 1, wherein the person attribute includes at least one of a face width, a head size, a head outline shape, an age, a gender, a physique, and a height.
請求項1に記載の画像処理装置において、
前記詳細モデルを生戒する属性反映手段について、手動で任意の人物属性をパラメータとして入力する手段と、
該入力手段により入力された値を属性算出手段の代わりに、もしくは選択的に使用することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
With respect to the attribute reflecting means for preparing the detailed model, means for manually inputting an arbitrary person attribute as a parameter;
An image processing apparatus characterized by using a value input by the input means instead of or selectively using an attribute calculation means.
請求項1において、
前記画像生成手段により生成された画像を、顔認識エンジンへ入力し、事前に登録しておいた顔画像との類似度を計算することにより該当人物を検出する人流監視システム。
In claim 1,
A human flow monitoring system in which an image generated by the image generation means is input to a face recognition engine and a corresponding person is detected by calculating a similarity with a face image registered in advance.
カメラから入力される画像を加工処理する画像処理方法において、
ワイヤフレームで構成された平均的な人物頭部の三次元形状モデルの情報を記憶するステップと、
前記カメラから入力される入力画像を記憶するステップと、
前記入力画像から顔器官の位置,形状,特徴を検出する顔パーツ抽出ステップと、
前記顔パーツ抽出手段から得られた顔パーツ位置に基づき、前記三次元形状モデルを変形させ、前記入力画像に含まれる人物の顔パーツ配置に適合する三次元形状モデルを生成する簡易モデル生成ステップと、
前記入力画像から人物属性を算出する属性算出ステップと、
前記属性算出手段から得られた人物属性に基づき、前記簡易モデル生成手段から得られた三次元形状モデルを変形させて詳細モデルを生成する属性反映ステップと、
出力される詳細モデルから二次元の画像を生成する画像生成ステップとを備えることを特徴とする画像処理方法。
In an image processing method for processing an image input from a camera,
Storing information of a three-dimensional shape model of an average human head composed of wireframes;
Storing an input image input from the camera;
A facial part extraction step for detecting the position, shape and characteristics of a facial organ from the input image;
A simple model generation step of deforming the three-dimensional shape model based on the face part position obtained from the face part extracting means and generating a three-dimensional shape model suitable for a human face part arrangement included in the input image; ,
An attribute calculation step of calculating a person attribute from the input image;
Based on the person attribute obtained from the attribute calculating means, an attribute reflecting step for generating a detailed model by deforming the three-dimensional shape model obtained from the simple model generating means,
An image processing method comprising: an image generation step of generating a two-dimensional image from the output detailed model.
請求項5に記載の画像処理方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to claim 5. 請求項5に記載の画像処理方法において、
前記顔器官とは眼・鼻・口・眉・黒子・外耳,髪生え際などのうち少なくとも1つを含み、
前記人物属性とは、顔の幅・頭部の大きさ・頭部輪郭形状・年齢・性別・体格・身長のうち少なくとも1つを含むことを特徴とする画像処理方法。
The image processing method according to claim 5,
The facial organ includes at least one of eyes, nose, mouth, eyebrows, mole, outer ear, hairline, etc.
The person attribute includes at least one of a face width, a head size, a head outline shape, an age, a gender, a physique, and a height.
請求項5に記載の画像処理方法において、
前記人物属性を手動で任意のパラメータとして入力することを特徴とする画像処理方法。

The image processing method according to claim 5,
An image processing method, wherein the person attribute is manually input as an arbitrary parameter.

JP2006232990A 2006-08-30 2006-08-30 Image processing apparatus, image processing method, its program, and flow of people monitoring system Pending JP2008059108A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006232990A JP2008059108A (en) 2006-08-30 2006-08-30 Image processing apparatus, image processing method, its program, and flow of people monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006232990A JP2008059108A (en) 2006-08-30 2006-08-30 Image processing apparatus, image processing method, its program, and flow of people monitoring system

Publications (1)

Publication Number Publication Date
JP2008059108A true JP2008059108A (en) 2008-03-13

Family

ID=39241795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006232990A Pending JP2008059108A (en) 2006-08-30 2006-08-30 Image processing apparatus, image processing method, its program, and flow of people monitoring system

Country Status (1)

Country Link
JP (1) JP2008059108A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009268088A (en) * 2008-04-04 2009-11-12 Fujifilm Corp Image processing system, image processing method, and program
JP2009265922A (en) * 2008-04-24 2009-11-12 Toshiba Tec Corp Person flow line tracing system
JPWO2017179134A1 (en) * 2016-04-12 2018-11-01 株式会社オプティム Makeup simulation system, makeup simulation method, and makeup simulation program
CN110222668A (en) * 2019-06-17 2019-09-10 苏州大学 Based on the multi-pose human facial expression recognition method for generating confrontation network

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006645A (en) * 2001-06-20 2003-01-10 Secom Co Ltd Face image collating device for identity authentication
JP2003044873A (en) * 2001-08-01 2003-02-14 Univ Waseda Method for generating and deforming three-dimensional model of face
JP2003263639A (en) * 2002-03-08 2003-09-19 Koji Fukami Face image recognizing device and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006645A (en) * 2001-06-20 2003-01-10 Secom Co Ltd Face image collating device for identity authentication
JP2003044873A (en) * 2001-08-01 2003-02-14 Univ Waseda Method for generating and deforming three-dimensional model of face
JP2003263639A (en) * 2002-03-08 2003-09-19 Koji Fukami Face image recognizing device and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009268088A (en) * 2008-04-04 2009-11-12 Fujifilm Corp Image processing system, image processing method, and program
JP2009265922A (en) * 2008-04-24 2009-11-12 Toshiba Tec Corp Person flow line tracing system
JP4585580B2 (en) * 2008-04-24 2010-11-24 東芝テック株式会社 Human flow tracking system
JPWO2017179134A1 (en) * 2016-04-12 2018-11-01 株式会社オプティム Makeup simulation system, makeup simulation method, and makeup simulation program
CN110222668A (en) * 2019-06-17 2019-09-10 苏州大学 Based on the multi-pose human facial expression recognition method for generating confrontation network
CN110222668B (en) * 2019-06-17 2020-12-22 苏州大学 Multi-pose facial expression recognition method based on generation countermeasure network

Similar Documents

Publication Publication Date Title
Wechsler Reliable Face Recognition Methods: System Design, Impementation and Evaluation
JP4653606B2 (en) Image recognition apparatus, method and program
Kale et al. Towards a view invariant gait recognition algorithm
JP4939968B2 (en) Surveillance image processing method, surveillance system, and surveillance image processing program
USRE45768E1 (en) Method and system for enhancing three dimensional face modeling using demographic classification
JP4950787B2 (en) Image processing apparatus and method
JP5170094B2 (en) Spoofing detection system, spoofing detection method, and spoofing detection program
JP2000306095A (en) Image collation/retrieval system
JP2009245338A (en) Face image collating apparatus
JP2004192378A (en) Face image processor and method therefor
JP2015019162A (en) Convention support system
KR20170092533A (en) A face pose rectification method and apparatus
JP2007058393A (en) Authentication device, authentication method and program
KR20160033553A (en) Face recognition method through 3-dimension face model projection and Face recognition system thereof
JP2010123019A (en) Device and method for recognizing motion
CN111652018B (en) Face registration method and authentication method
JP2002024811A (en) Shadow component removing device
KR101053253B1 (en) Apparatus and method for face recognition using 3D information
JP2008059108A (en) Image processing apparatus, image processing method, its program, and flow of people monitoring system
JP4659722B2 (en) Human body specific area extraction / determination device, human body specific area extraction / determination method, human body specific area extraction / determination program
Dupuis et al. Robust radial face detection for omnidirectional vision
CN108875488B (en) Object tracking method, object tracking apparatus, and computer-readable storage medium
JP4063556B2 (en) Facial image recognition apparatus and method
JP5244345B2 (en) Face recognition device
CN116567349A (en) Video display method and device based on multiple cameras and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111018