JP2012128638A - Image processing device, alignment method and program - Google Patents

Image processing device, alignment method and program Download PDF

Info

Publication number
JP2012128638A
JP2012128638A JP2010279227A JP2010279227A JP2012128638A JP 2012128638 A JP2012128638 A JP 2012128638A JP 2010279227 A JP2010279227 A JP 2010279227A JP 2010279227 A JP2010279227 A JP 2010279227A JP 2012128638 A JP2012128638 A JP 2012128638A
Authority
JP
Japan
Prior art keywords
image
target
model
likelihood
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010279227A
Other languages
Japanese (ja)
Inventor
Kenji Tsukamoto
健二 塚本
Masakazu Matsugi
優和 真継
Yasuo Katano
康生 片野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010279227A priority Critical patent/JP2012128638A/en
Publication of JP2012128638A publication Critical patent/JP2012128638A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable extraction of an image of a deformable target and correction of a position of the target based on an extraction result.SOLUTION: An image processing device comprises: image acquisition means that acquires an image; feature extraction means that extracts a feature amount from the image acquired by the image acquisition means; likelihood calculation means that calculates a likelihood of a target based on a model of the target and the feature amount of the image extracted by the feature extraction means; detection means that detects a detection area of the target in the image based on the likelihood calculated by the likelihood calculation means; discrimination means that discriminates between a part in which the target varies and a part in which the target does not vary based on the model and the detection area detected by the detection means; and alignment means that performs alignment between the model and the detection area based on the part in which the target does not vary discriminated by the discrimination means. Thereby the problem is solved.

Description

本発明は、画像処理装置、位置合わせ方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an alignment method, and a program.

特許文献1には、テンプレートとなる画像を用意し、その画像に対して点を抽出する。そして、別の画像でも同様に点を抽出し、用意したテンプレート画像の点とマッチングを行って画像を変換させる係数を求めて画像を正規化し、画像の差分を取って同じかどうか判断することで画像を収集する方法が開示されている。   In Patent Document 1, an image serving as a template is prepared, and points are extracted from the image. Then, by extracting points in the same way for another image, matching with the points of the prepared template image to obtain a coefficient for converting the image, normalizing the image, and taking the difference between the images to determine whether they are the same A method for collecting images is disclosed.

特開2006−309259号公報JP 2006-309259 A

しかしながら、特許文献1に開示される技術は3組以上の対応点を使用して画像を正規化している。そのため、顔のように形状の変形があまりない対象の画像には適用できるが、手や脚といった変形による位置ずれを含む画像に適用した場合、正規化の処理により画像内の対象が変形していまい、対象となる物体の領域を画像から抽出することができない問題があった。   However, the technique disclosed in Patent Document 1 normalizes an image using three or more sets of corresponding points. Therefore, it can be applied to an image of a target such as a face that does not deform so much, but when applied to an image that includes a displacement such as a hand or a leg, the object in the image is deformed by normalization processing. However, there is a problem that the region of the target object cannot be extracted from the image.

本発明はこのような問題点に鑑みなされたもので、変形する対象の画像を抽出し、抽出結果を基に対象の位置を補正することを可能とすることを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to extract a target image to be deformed and to correct the position of the target based on the extraction result.

そこで、本発明の画像処理装置は、画像を取得する画像取得手段と、前記画像取得手段で取得された画像から特徴量を抽出する特徴抽出手段と、対象のモデルと前記特徴抽出手段で抽出された画像の特徴量とを基に対象の尤度を算出する尤度算出手段と、前記尤度算出手段で算出された尤度を基に前記画像内にある対象の検出領域を検出する検出手段と、前記モデルと前記検出手段で検出された検出領域とに基づいて、対象が変動している部分と変動していない部分とを識別する識別手段と、前記識別手段で識別された対象が変動していない部分を基に前記モデルと前記検出領域との位置合わせを行う位置合わせ手段と、を有する。   Therefore, the image processing apparatus of the present invention is extracted by an image acquisition unit that acquires an image, a feature extraction unit that extracts a feature amount from the image acquired by the image acquisition unit, a target model, and the feature extraction unit. A likelihood calculating means for calculating the likelihood of the object based on the feature amount of the obtained image, and a detecting means for detecting a detection region of the object in the image based on the likelihood calculated by the likelihood calculating means. Based on the model and the detection area detected by the detection means, an identification means for identifying a portion where the object is changing and a portion where the object is not changing, and the object identified by the identification means is changing Alignment means for aligning the model and the detection region based on a portion that is not.

本発明によれば、変形する対象の画像を抽出し、抽出結果を基に対象の位置を補正することを可能とすることができる。   According to the present invention, it is possible to extract an image of an object to be deformed and correct the position of the object based on the extraction result.

画像処理装置の一例を示す図である。It is a figure which shows an example of an image processing apparatus. 実施形態1の画像処理装置の機能構成を示す図である。1 is a diagram illustrating a functional configuration of an image processing apparatus according to a first embodiment. 学習方法による処理過程の一例を示す図である。It is a figure which shows an example of the processing process by a learning method. 学習方法による処理過程の一例を示す図である。It is a figure which shows an example of the processing process by a learning method. 学習方法による処理過程の一例を示す図である。It is a figure which shows an example of the processing process by a learning method. 学習方法による処理過程の一例を示す図である。It is a figure which shows an example of the processing process by a learning method. 学習方法による処理過程の一例を示す図である。It is a figure which shows an example of the processing process by a learning method. 学習方法による処理過程の一例を示す図である。It is a figure which shows an example of the processing process by a learning method. 実施形態1の位置合わせ方法及び学習方法による処理過程の一例を示すフローチャートである。6 is a flowchart illustrating an example of a processing process according to the alignment method and the learning method of the first embodiment. 実施形態2の画像処理装置100の機能構成を示す図である。6 is a diagram illustrating a functional configuration of an image processing apparatus 100 according to Embodiment 2. FIG. 各検出結果の領域とモデルとの位置合わせの結果を示す図である。It is a figure which shows the result of the alignment with the area | region of each detection result, and a model. 各検出結果の領域とモデルとの位置合わせの結果を示す図である。It is a figure which shows the result of the alignment with the area | region of each detection result, and a model. 各検出結果の領域とモデルとの位置合わせの結果を示す図である。It is a figure which shows the result of the alignment with the area | region of each detection result, and a model. 各検出結果の領域とモデルとの位置合わせの結果を示す図である。It is a figure which shows the result of the alignment with the area | region of each detection result, and a model. 実施形態2の位置合わせ方法及び学習方法による処理過程の一例を示すフローチャートである。10 is a flowchart illustrating an example of a processing process according to the alignment method and the learning method of the second embodiment.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態1>
本実施形態に係る学習方法は、画像や映像に映る対象を抽出して、抽出した対象を学習するため好適な画像を収集し位置を算出するための学習方法で、撮像手段については一般的なカメラやネットワークカメラでもよいし、予め撮影した画像・映像にも利用できる。
本実施形態では、物体がある環境において画像を撮影し、得られた画像から検出したい対象となる人物を検出する場合について説明する。本実施形態に係る検出対象は人物としているが、これに限定するものではなく、他の環境で映像に対し物体を検出するなら、この方法を用いることが出来る。また、本実施形態では画像としているが、それ以外に映像にも適用してもよい。
<Embodiment 1>
The learning method according to the present embodiment is a learning method for extracting an object appearing in an image or video, collecting a suitable image for learning the extracted object, and calculating a position. It can be a camera or network camera, and can also be used for pre-captured images / videos.
In the present embodiment, a case will be described in which an image is captured in an environment where an object is present, and a person to be detected is detected from the obtained image. Although the detection target according to the present embodiment is a person, the present invention is not limited to this. This method can be used if an object is detected from a video in another environment. Moreover, although it is set as the image in this embodiment, you may apply to an image | video other than that.

図1は、画像処理装置100の一例を示す図である。図1に示されるように、画像処理装置100は、CPU1と、RAM2と、ROM3と、HD4と、を含む。CPU1は、ROM3又はHD4等に記憶されているプログラムに基づき処理を実行することによって、後述する画像処理装置100の機能及び後述するフローチャートに係る処理が実現される。RAM2は、CPU1がプログラムを実行する際に利用されるデータ等を記憶する。ROM3は、画像処理装置100が起動された際に読み込まれるブートプログラム等を記憶する。HD4は、本実施形態にかかるプログラム等を記憶する。なお、説明の簡略化のため省略してあるが、画像処理装置100は、後述する撮像手段との通信等を司るインターフェースに関するハードウェアを有するものとする。   FIG. 1 is a diagram illustrating an example of the image processing apparatus 100. As shown in FIG. 1, the image processing apparatus 100 includes a CPU 1, a RAM 2, a ROM 3, and an HD 4. The CPU 1 executes processing based on a program stored in the ROM 3 or the HD 4 or the like, thereby realizing functions of the image processing apparatus 100 described later and processing related to flowcharts described later. The RAM 2 stores data used when the CPU 1 executes a program. The ROM 3 stores a boot program that is read when the image processing apparatus 100 is activated. The HD 4 stores a program and the like according to the present embodiment. Although omitted for simplification of description, the image processing apparatus 100 includes hardware related to an interface that controls communication with an imaging unit described later.

図2は、実施形態1の画像処理装置100の機能構成を示す図である。
図2に示すように、画像処理装置100は、画像取得部101と、特徴抽出部102と、尤度算出部103と、対象検出部104と、対応点抽出部105と、位置合わせ部106と、学習部107と、から構成されている。
画像取得部101は、カメラや予め撮影した映像から画像を取得する。取得した画像210は、特徴抽出部102に出力される。
特徴抽出部102は、画像取得部101から得られた画像を取得し、取得した画像に対して特徴量を抽出する。本実施形態では特徴の抽出にはHOGを使用することにするが、画像から画素値をそのまま抽出しているが、テンプレートとして領域を抽出してもよい。
なお、HOGに関しては、
参考文献:「histograms of oriented gradients for human detection、N.Dalal、CVPR2005」参照。
また、特徴抽出部102は、Haar−LikeやEdgelets等の公知の技術を用いて領域を抽出してもよい。
なお、Haar−Likeに関しては、
参考文献:「P.Viola and M.Jones、"Rapid Object Detection using Boosted Cascade of Simple Features"、CVPR2001」参照。
また、Edgeletsに関しては、
参考文献:「Bo Wu and Ram Nevatia、"Segmentation of Multiple、 Partially Occluded Objects by Grouping、 Merging、 Assigning Part Detection Responses、 IJCV 2007"」参照。
画像中にある物体230に対して特徴抽出部102が抽出した特徴量は231〜235になる。図3は、学習方法による処理過程の一例を示す図である。同様にその他の物体240、250、260から抽出されたそれぞれの特徴量は、241〜245、251〜255、261〜265である。抽出された各特徴量231等は、尤度算出部103へと送られる。
FIG. 2 is a diagram illustrating a functional configuration of the image processing apparatus 100 according to the first embodiment.
As illustrated in FIG. 2, the image processing apparatus 100 includes an image acquisition unit 101, a feature extraction unit 102, a likelihood calculation unit 103, a target detection unit 104, a corresponding point extraction unit 105, and an alignment unit 106. And a learning unit 107.
The image acquisition unit 101 acquires an image from a camera or a previously captured video. The acquired image 210 is output to the feature extraction unit 102.
The feature extraction unit 102 acquires the image obtained from the image acquisition unit 101 and extracts a feature amount from the acquired image. In the present embodiment, HOG is used for feature extraction, but pixel values are extracted as they are from an image, but regions may be extracted as templates.
Regarding HOG,
Reference: see "histograms of orientated gradients for human detection, N. Dalal, CVPR 2005".
Further, the feature extraction unit 102 may extract a region using a known technique such as Haar-Like or Edgelets.
Regarding Haar-Like,
Reference: See “P. Viola and M. Jones,“ Rapid Object Detection using Boosted Cascade of Simple Features ”, CVPR2001”.
And for Edgelets,
References: “See Bo Wu and Ram Nevaia,“ Segmentation of Multiple, Partially Occluded Objects by Grouping, Merging, Assigning Part Detection Responses, ”7 IJC.
The feature amounts extracted by the feature extraction unit 102 for the object 230 in the image are 231 to 235. FIG. 3 is a diagram illustrating an example of a processing process according to a learning method. Similarly, the feature amounts extracted from the other objects 240, 250, and 260 are 241 to 245, 251 to 255, and 261 to 265, respectively. The extracted feature quantities 231 and the like are sent to the likelihood calculating unit 103.

尤度算出部103は、特徴抽出部102から得られた画像の特徴量231等を基に検出したい対象のモデル(対象モデル)220と比較して尤度を算出する。本実施形態では対象を識別する方法としてBoostingで予め学習した対象モデル220を使用して尤度を算出する。
なお、Boostingに関しては、
参考文献:「Y.Freund and。Roberts E.Schapire、"A decision−theoretic generalization of on−line learning and an application to boosting、1997"」参照
Boostingを用いた場合、対象モデル220は、一つの弱識別器が対象の一部を表す特徴を持つ。複数の弱識別器がそれぞれ違う特徴を持つことで、対象のモデルを構成する。また、画像処理装置100は、対象のモデルを、画像から任意のテンプレートを用いて作成してもよいし、検出したい対象の画像を用意してSupport Vector Machine等の公知の学習技術を用いて学習してモデルを作成してもよい。
なお、Support Vector Machineに関しては、
参考文献:「N.Cristianini and J.Shawe−Talor、"An Introduction to Support Vector Machines、 Cambridge University Press、2000"」
このとき、モデルは画像でもよいし、画像特徴量でもよい。尤度の算出方法は、尤度算出部103が、モデルをスライディングウィンドウさせ、各画像の位置において、弱識別器が持つモデルを表す一部の特徴と画像から抽出された特徴とを比較する。尤度算出部103は、それらが同じ特徴(HOGであれば同じ勾配方向を持つ特徴)であれば高い値を、同じでない場合は低い値を出力し、弱識別器が持つ学習によって得られた重みをかけた値を算出する。尤度算出部103は、各弱識別器が画像から抽出した特徴に対して値を算出し、出力される値の総和を最終的な尤度として算出する。算出した尤度は、対象検出部104へと送られる。
対象検出部104は、尤度算出部103から算出された尤度を基に、予め設定した任意の閾値よりも高い尤度がある対象の位置と領域とを識別する。識別した結果、抽出した対象の領域を330から360までに示す。得られた対象の検出結果330から360までは、対応点抽出部105に出力される。図4は、学習方法による処理過程の一例を示す図である。
The likelihood calculating unit 103 calculates the likelihood by comparing with a target model (target model) 220 to be detected based on the feature quantity 231 of the image obtained from the feature extracting unit 102 or the like. In this embodiment, the likelihood is calculated using the target model 220 previously learned by Boosting as a method for identifying the target.
Regarding Boosting,
References: See “Y. Freund and Roberts E. Schapier,“ A decision-theoretic generalization of on-line learning and an application to boosting, 1997 ”. The vessel has a feature that represents a part of the object. A plurality of weak classifiers have different characteristics, thereby forming a target model. The image processing apparatus 100 may create a target model from an image using an arbitrary template, or prepare an image of a target to be detected and learn using a known learning technique such as Support Vector Machine. You may create a model.
Regarding Support Vector Machine,
Reference: “N. Christianiani and J. Shawe-Talor,“ An Induction to Support Vector Machines, University University Press, 2000 ””
At this time, the model may be an image or an image feature amount. In the likelihood calculation method, the likelihood calculation unit 103 slides the model and compares a part of the features representing the model of the weak classifier with the features extracted from the images at the position of each image. The likelihood calculating unit 103 outputs a high value if they are the same feature (a feature having the same gradient direction if HOG), and a low value if they are not the same, and is obtained by learning of the weak classifier Calculate the weighted value. The likelihood calculating unit 103 calculates a value for the feature extracted from the image by each weak classifier, and calculates the sum of the output values as the final likelihood. The calculated likelihood is sent to the target detection unit 104.
Based on the likelihood calculated from the likelihood calculation unit 103, the target detection unit 104 identifies a position and a region of a target having a higher likelihood than an arbitrary threshold value set in advance. As a result of the identification, the extracted target areas are indicated by 330 to 360. The obtained target detection results 330 to 360 are output to the corresponding point extraction unit 105. FIG. 4 is a diagram illustrating an example of a processing process according to a learning method.

対応点抽出部105は、得られた対象の検出領域(330〜360)において、モデルの特徴と対応する対応点を抽出する。対応点抽出部105は、モデルの領域の新たな特徴(コーナー等)421〜425と、対象の検出領域と、を基に、画像から対象のモデルを抽出した特徴と同じ特徴431〜435、441〜445、451〜455、461〜465(対応点)を抽出する。
また、対応点抽出部105は、対象の検出領域(330〜360)において特徴抽出部102で抽出した各対象の検出時の特徴量231〜235、241〜245、251〜255、261〜265を使用してモデルが持つ特徴(421〜425)と対応付けるようにしてもよい。得られたモデルの特徴と各検出領域の特徴とはそれぞれ対応付けられる。対応点抽出部105は、特徴の対応付けには、尤度算出部103の結果を利用する。対象検出時に各特徴量(図5に示す441や442)の尤度が算出されるが、検出時に尤度が高い特徴はモデルの形状と比べて変動があまりなく、また尤度が低い特徴はモデルの形状より変動していると考えられる。モデルが持つ各特徴(421〜425)を持つ弱識別器は重みを持つ。対応点抽出部105は、尤度が高い値の特徴位置と重みが高い弱識別器の特徴位置とを優先して合わせるようにモデルと対象検出領域内の特徴(431〜435)とを対応づける。同様に、対応点抽出部105は、モデルと別の対象検出領域内の特徴(441〜445、451〜455、461〜465)をモデル内の特徴(421〜425)と対応付ける。
The corresponding point extraction unit 105 extracts corresponding points corresponding to the feature of the model in the obtained target detection area (330 to 360). The corresponding point extraction unit 105 has the same features 431 to 435 and 441 as the features obtained by extracting the target model from the image based on the new features (corners and the like) 421 to 425 of the model region and the target detection region. ˜445, 451˜455, 461˜465 (corresponding points) are extracted.
In addition, the corresponding point extraction unit 105 stores the feature amounts 231 to 235, 241 to 245, 251 to 255, and 261 to 265 at the time of detection of each target extracted by the feature extraction unit 102 in the target detection region (330 to 360). You may make it match with the characteristic (421-425) which a model has and uses. The feature of the obtained model is associated with the feature of each detection area. The corresponding point extraction unit 105 uses the result of the likelihood calculation unit 103 for the feature association. The likelihood of each feature quantity (441 and 442 shown in FIG. 5) is calculated at the time of object detection, but the feature with a high likelihood at the time of detection does not vary much compared to the shape of the model, and the feature with a low likelihood is It is thought that it fluctuates from the shape of the model. The weak classifier having each feature (421 to 425) of the model has a weight. The corresponding point extracting unit 105 associates the model with the features (431 to 435) in the target detection region so that the feature position having a high likelihood and the feature position of the weak classifier having a high weight are preferentially matched. . Similarly, the corresponding point extraction unit 105 associates features (441 to 445, 451 to 455, 461 to 465) in a target detection region different from the model with features (421 to 425) in the model.

図5は、学習方法による処理過程の一例を示す図である。
対象の検出領域内で得られた対応点は、位置合わせ部106へと出力される。
位置合わせ部106は、対応点抽出部105から得られる対応点を基に検出した各領域330、340、350、360の画像と対象モデル220との位置合わせを行う。位置合わせ部106は、位置合わせを、対応点抽出部105から出力される対応関係を基にして算出する。例えば、位置合わせ部106は、得られた対応点を1点用いる場合は、対応点が重なるように位置合わせを行う。また、位置合わせ部106は、得られた対応点を2点用いる場合は、2点のうち尤度の高い対応点が優先的に重なるよう位置合わせを行ったり、対応点の距離の和が最小になるように位置合わせを行ったりする。また、位置合わせ部106は、3点以上の対応点を用いて位置合わせを行う場合、モデルと検出領域とを平行移動の他、検出領域の回転やスケール変化、アフィン変形に対応できるように、得られた対応点の位置関係を基にアフィン変換行列を算出する。位置合わせ部106は、変換行列の算出に際し、次の方程式を解く。
FIG. 5 is a diagram illustrating an example of a processing process according to a learning method.
Corresponding points obtained in the target detection area are output to the alignment unit 106.
The alignment unit 106 aligns the images of the regions 330, 340, 350, and 360 detected based on the corresponding points obtained from the corresponding point extraction unit 105 and the target model 220. The alignment unit 106 calculates the alignment based on the correspondence relationship output from the corresponding point extraction unit 105. For example, when using one obtained corresponding point, the alignment unit 106 performs alignment so that the corresponding points overlap. In addition, when using the two corresponding points obtained, the alignment unit 106 performs alignment so that corresponding points with high likelihood of the two points overlap preferentially, or the sum of the distances of the corresponding points is minimized. Align so that it becomes. In addition, when the alignment unit 106 performs alignment using three or more corresponding points, in addition to parallel movement between the model and the detection region, the detection unit 106 can correspond to rotation, scale change, and affine deformation of the detection region. An affine transformation matrix is calculated based on the positional relationship of the obtained corresponding points. The alignment unit 106 solves the following equation when calculating the transformation matrix.

Figure 2012128638
Figure 2012128638

上の式で、x'、yは、モデル内の特徴点位置座標でx、yが対象検出領域内の特徴点位置座標である。
位置合わせ部106は、この算出した変換行列を位置合わせ結果として出力してもよい。位置合わせを行った結果(検出画像と対象モデルとを重ね合わせた結果)を図5の436、446、456、466に示す。この位置合わせされた結果436、446、456、466は、学習部107へと出力される。図5ではモデルと各検出領域とを個別に重ね合わせるように示しているが、モデルと全ての検出領域結果とを重ね合わせてもよい。
In the above equation, x ′ and y are feature point position coordinates in the model, and x and y are feature point position coordinates in the target detection region.
The alignment unit 106 may output the calculated conversion matrix as an alignment result. Results of alignment (results of superimposing the detected image and the target model) are shown in 436, 446, 456, and 466 in FIG. The aligned results 436, 446, 456, 466 are output to the learning unit 107. In FIG. 5, the model and each detection area are shown to be individually overlapped, but the model and all detection area results may be overlapped.

学習部107は、位置合わせ部106の結果436、446、456、466を基に画像から対象検出結果を抽出し、これまでの学習により得られたモデルの位置を合わせて学習する。学習部107は、モデルの学習には、得られた対象検出領域から画像特徴量を抽出し、モデルが持つ特徴に対して、新たに得られた検出対象領域内の画像特徴を学習する。これにより、これまでに学習したモデルに対して、対象の形状が変動しない特徴は維持しつつ、学習により変動する特徴を持つ弱識別器の確率分布が更新されたモデルを生成することができる。例えば、738を学習した結果、体の向きが異なるモデルが生成され、748では脚位置が異なるモデルが生成される。また、学習部107は、学習に際し、SVMや逐次学習方法等の別の公知の学習技術を用いて学習を行ってもよい。
以上が本実施形態に関する構成部分である。
The learning unit 107 extracts the target detection result from the image based on the results 436, 446, 456, and 466 of the alignment unit 106, and learns by matching the position of the model obtained by the learning so far. For learning the model, the learning unit 107 extracts an image feature amount from the obtained target detection region, and learns the image feature in the newly obtained detection target region with respect to the feature of the model. This makes it possible to generate a model in which the probability distribution of the weak classifier having a feature that changes due to learning is updated while maintaining the feature whose shape of the target does not change with respect to the model learned so far. For example, as a result of learning 738, models with different body orientations are generated, and at 748, models with different leg positions are generated. The learning unit 107 may perform learning using another known learning technique such as SVM or a sequential learning method.
The above is the configuration part related to the present embodiment.

続いて、図6に示したフローチャートを用いて、本実施形態における画像処理装置100が行う処理について説明する。
図6は、実施形態1の位置合わせ方法及び学習方法による処理過程の一例を示すフローチャートである。
処理全体が開始されると、まずステップS101において、画像取得部101は、カメラや予め撮影した映像から画像を取得する。取得した画像は、特徴抽出部102へと送られ、処理はステップS102へと進む。
ステップS102において、特徴抽出部102は、画像取得部101が取得した画像から画像特徴量を抽出する。画像特徴量の抽出方法には公知の技術が用いられる。抽出した特徴は、尤度算出部103へと送られ、処理はステップS103へと進む。
ステップS103において、尤度算出部103は、ステップS102で抽出された特徴を基に画像内から検出する対象の尤度を算出する。このとき、例えば、尤度算出部103は、検出する対象のモデルをSVMやBoostingといった公知の学習技術を利用して事前に作成しておく。算出した尤度は対象検出部104へと送られ、処理はステップS104へと進む。
ステップS104において、対象検出部104は、ステップS103で算出された画像内の尤度を基に画像内の対象がある位置・領域を識別する。対象が有ると識別された場合、対象の位置・領域と画像及び特徴が対応点抽出部105へと送られ、処理はステップS105へと進む。対象が検出されなかった場合、全体の処理が終了する。
Next, processing performed by the image processing apparatus 100 according to the present embodiment will be described using the flowchart shown in FIG.
FIG. 6 is a flowchart illustrating an example of a process performed by the alignment method and the learning method according to the first embodiment.
When the entire process is started, first, in step S101, the image acquisition unit 101 acquires an image from a camera or a previously captured video. The acquired image is sent to the feature extraction unit 102, and the process proceeds to step S102.
In step S <b> 102, the feature extraction unit 102 extracts an image feature amount from the image acquired by the image acquisition unit 101. A known technique is used as an image feature amount extraction method. The extracted features are sent to the likelihood calculating unit 103, and the process proceeds to step S103.
In step S103, the likelihood calculating unit 103 calculates the likelihood of a target to be detected from the image based on the feature extracted in step S102. At this time, for example, the likelihood calculating unit 103 creates a model to be detected in advance using a known learning technique such as SVM or Boosting. The calculated likelihood is sent to the target detection unit 104, and the process proceeds to step S104.
In step S104, the target detection unit 104 identifies a position / region where the target is in the image based on the likelihood in the image calculated in step S103. If it is identified that there is a target, the target position / region, image, and feature are sent to the corresponding point extraction unit 105, and the process proceeds to step S105. If no target is detected, the entire process ends.

ステップS105において、対応点抽出部105は、まず、検出対象モデルから特徴となる点を抽出する。次に、対応点抽出部105は、対象検出部104により画像内に対象があると識別された領域に対してモデル内の特徴となる点に対応する特徴点を抽出し、点と点との対応関係を取る。得られた対応点は位置合わせ部106へと送られ、処理はステップS106へと進む。
ステップS106において、位置合わせ部106は、対応点抽出部105から得られた対応点を基に画像位置と現フレームの画像との重ね合わせる位置を算出するためのパラメータを算出する。位置合わせ部106は、パラメータの算出には1点以上の対応点があればよいとし、1点の場合は対応点が同じ位置になるよう重ね、2点以上であれば多くの点が重なるように幾何関係を利用して重ねる位置を決定してもよい。また、位置合わせ部106は、変換パラメータは画像間の対応として並進・回転・拡大・縮小・アフィン変換を記述してもよい。得られた変換パラメータは学習部107へと送られ、処理はステップS107へと進む。
ステップS107において、学習部107は、位置合わせ部106から送られてきたモデルと検出領域の位置合わせ結果とを基にモデルの学習を行う。これにより、これまでに学習したモデルに対して、対象の形状を表す強い特徴は保持しつつ、学習により変動する特徴をモデルに取り込むことができる。学習部107は、学習方法にはSVMやBoostingを用いてもよし、オンラインブースティングのように逐次学習方法を用いてもよい。
以上の処理によって、画像処理装置100は予め学習したモデルを使って画像に対して検出処理を行い、抽出した対象の画像を学習する際に、検出時の各特徴の尤度を基に検出に寄与する特徴の位置とモデルにおける顕著な特徴の位置関係を用いて位置合わせをする。また、画像処理装置は、位置合わせを基にモデルを学習する。このことで、対象の姿勢や形状が変化したモデルを新たに作成することができる。
In step S105, the corresponding point extraction unit 105 first extracts a feature point from the detection target model. Next, the corresponding point extraction unit 105 extracts a feature point corresponding to a point that is a feature in the model with respect to an area identified as having a target in the image by the target detection unit 104, and calculates a point-to-point Take correspondence. The obtained corresponding points are sent to the alignment unit 106, and the process proceeds to step S106.
In step S <b> 106, the alignment unit 106 calculates a parameter for calculating a position where the image position and the image of the current frame are overlapped based on the corresponding points obtained from the corresponding point extraction unit 105. The alignment unit 106 only needs to have one or more corresponding points for parameter calculation. In the case of one point, the corresponding points are overlapped so that they are at the same position, and in the case of two or more points, many points are overlapped. The position of overlapping may be determined using the geometric relationship. The alignment unit 106 may describe translation / rotation / enlargement / reduction / affine transformation as conversion parameters corresponding to images. The obtained conversion parameter is sent to the learning unit 107, and the process proceeds to step S107.
In step S <b> 107, the learning unit 107 learns a model based on the model sent from the alignment unit 106 and the detection region alignment result. As a result, it is possible to incorporate into the model features that change due to learning while retaining strong features representing the shape of the object compared to the models learned so far. The learning unit 107 may use SVM or Boosting as a learning method, or may use a sequential learning method such as online boosting.
With the above processing, the image processing apparatus 100 performs detection processing on the image using a model learned in advance, and when learning the extracted target image, detection is performed based on the likelihood of each feature at the time of detection. Align using the position of the contributing feature and the position of the salient feature in the model. The image processing apparatus learns a model based on the alignment. This makes it possible to newly create a model whose target posture or shape has changed.

<実施形態2>
続いて、実施形態2について説明する。図7は、実施形態2の画像処理装置100の機能構成を示す図である。実施形態2における画像処理装置100は、画像取得部101、特徴抽出部102、尤度算出部103、対象検出部104、モデルパーツ位置算出部605、位置合わせ部606、学習部107から構成されている。以下、図を用いて本実施形態に係る学習方法の構成及び処理について説明する。なお、実施形態1と同一箇所には同一符号を付し、説明を省略する。
対象検出部104は、尤度算出部103から算出された尤度を基に、予め設定した任意の閾値よりも高い尤度がある対象の位置と領域とを識別する。識別した結果、抽出した対象の領域を330から360までに示す。得られた対象の検出結果330から360まではモデルパーツ位置算出部605に出力される。
モデルパーツ位置算出部605は、対象検出部104から送られてきた対象の位置、領域を受け取り、その領域内から位置合わせ用のモデルの特定のパーツ(モデルパーツ)217がある位置を検出する。本実施形態ではモデルパーツ217は頭部としているが、体や手脚等でもよい。モデルパーツ位置算出部605は、特徴抽出部102から得られた特徴を使用してモデルパーツの尤度を算出し、パーツ位置を特定する。図8において、得られた各対象画像内のパーツ位置737、747、757、767を示す。
<Embodiment 2>
Next, Embodiment 2 will be described. FIG. 7 is a diagram illustrating a functional configuration of the image processing apparatus 100 according to the second embodiment. The image processing apparatus 100 according to the second embodiment includes an image acquisition unit 101, a feature extraction unit 102, a likelihood calculation unit 103, a target detection unit 104, a model part position calculation unit 605, a registration unit 606, and a learning unit 107. Yes. Hereinafter, the configuration and processing of the learning method according to the present embodiment will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the same location as Embodiment 1, and description is abbreviate | omitted.
Based on the likelihood calculated from the likelihood calculation unit 103, the target detection unit 104 identifies a position and a region of a target having a higher likelihood than an arbitrary threshold value set in advance. As a result of the identification, the extracted target areas are indicated by 330 to 360. The obtained target detection results 330 to 360 are output to the model part position calculation unit 605.
The model part position calculation unit 605 receives the position and area of the object sent from the object detection unit 104, and detects the position where the specific part (model part) 217 of the model for alignment is located from within the area. In the present embodiment, the model part 217 is a head, but may be a body, a limb or the like. The model part position calculation unit 605 calculates the likelihood of the model part using the feature obtained from the feature extraction unit 102, and identifies the part position. FIG. 8 shows part positions 737, 747, 757, and 767 in the obtained target images.

この図8Aから図8Dまでは、各検出結果の領域とモデルとの位置合わせの結果を示している。この位置合わせ結果(737、747、757、767)と各対象検出領域(330、340、350、360)とは位置合わせ部506へと送られる。
位置合わせ部506は、モデルパーツ位置算出部605から得られたパーツ位置(737、747、757、767)を基に、モデルパーツ217と抽出した画像のパーツ位置(737、747、757、767)とを合わせる。位置合わせを行った結果(738、748、758、768)は学習部107へと送られる。
学習部107は、位置合わせ部606の位置合わせ結果(738、748、758、768)を用いてモデルを学習する。学習部107は、モデルの学習に、得られた対象検出領域から画像特徴量を抽出し、モデルが持つ特徴に対して、新たに得られた検出対象領域内の画像特徴を学習する。これにより、これまでに学習したモデルに対して、対象の形状が変動しない特徴は維持しつつ、学習により変動する特徴を持つ弱識別器の確率分布が更新されたモデルが生成される。例えば、738を学習した結果、体の向きが異なるモデルが生成され、748では脚位置が異なるモデルが生成される。また、学習部107は、学習にSVMや逐次学習方法等の別の公知の学習技術を用いて学習を行ってもよい。
以上が本実施形態における画像処理装置100に関する構成部分である。
FIG. 8A to FIG. 8D show the result of alignment between each detection result region and the model. This alignment result (737, 747, 757, 767) and each target detection area (330, 340, 350, 360) are sent to the alignment unit 506.
Based on the part position (737, 747, 757, 767) obtained from the model part position calculation unit 605, the alignment unit 506 extracts the model part 217 and the part position (737, 747, 757, 767) of the extracted image. And match. The result of the alignment (738, 748, 758, 768) is sent to the learning unit 107.
The learning unit 107 learns a model using the alignment results (738, 748, 758, 768) of the alignment unit 606. For learning the model, the learning unit 107 extracts an image feature amount from the obtained target detection area, and learns the image feature in the newly obtained detection target area for the feature of the model. As a result, a model in which the probability distribution of the weak classifier having a feature that varies due to learning is updated is generated while maintaining the feature whose shape of the target does not vary with respect to the model learned so far. For example, as a result of learning 738, models with different body orientations are generated, and at 748, models with different leg positions are generated. The learning unit 107 may perform learning using another known learning technique such as SVM or a sequential learning method.
The above is the configuration of the image processing apparatus 100 according to this embodiment.

続いて、図9に示したフローチャートを用いて、本実施形態における画像処理装置100が行う処理について説明する。
図9は、実施形態2の位置合わせ方法及び学習方法による処理過程の一例を示すフローチャートである。
ステップS601からステップS603までの処理は、実施形態1の図6のステップS101からステップS103までの処理と同様であるため説明を省略する。
ステップS604において、対象検出部104は、尤度算出部103で算出した画像内の尤度を基に画像内の対象がある位置・領域を識別する。対象が有ると識別された場合、対象の位置・領域と画像及び特徴とがモデルパーツ位置算出部605へと送られ、処理はステップS605へと進む。対象が検出されなかった場合、全体の処理は終了する。
ステップS605において、モデルパーツ位置算出部605は、対象検出部104から出力された対象の位置・領域内において、対象モデルのパーツ位置を算出する。このとき算出されたパーツ位置と画像と特徴とが位置合わせ部606へと送られ、処理はステップS606へと進む。
ステップS606において、位置合わせ部606は、モデルパーツ位置算出部605によって算出されたパーツ位置を基にモデルのパーツ位置と画像から抽出されたモデルの検出領域の対象パーツの位置とを合わせる。位置合わせの結果は学習部107へと送られ、処理はステップS507へと進む。
ステップS607において、学習部107は、位置合わせ部606の結果から送られてきたモデルと検出領域の位置合わせ結果とを基に再度モデルの学習を行う。学習方法はSVMやBoostingを用いてもよし、オンラインブースティングのように逐次学習方法を用いてもよい。
以上の処理によって、画像処理装置100は対象の変動しないパーツ部分の特徴を維持しつつ変動する部分の特徴を画像に合わせて学習を行うことが可能となる。
Next, processing performed by the image processing apparatus 100 according to the present embodiment will be described using the flowchart shown in FIG.
FIG. 9 is a flowchart illustrating an example of a process performed by the alignment method and the learning method according to the second embodiment.
The processing from step S601 to step S603 is the same as the processing from step S101 to step S103 of FIG.
In step S <b> 604, the target detection unit 104 identifies a position / region where the target exists in the image based on the likelihood in the image calculated by the likelihood calculation unit 103. If it is identified that there is a target, the target position / region, image, and feature are sent to the model part position calculation unit 605, and the process proceeds to step S605. If no target is detected, the entire process ends.
In step S <b> 605, the model part position calculation unit 605 calculates the part position of the target model within the target position / region output from the target detection unit 104. The part position, image, and feature calculated at this time are sent to the alignment unit 606, and the process proceeds to step S606.
In step S606, the alignment unit 606 aligns the model part position with the position of the target part in the model detection area extracted from the image based on the part position calculated by the model part position calculation unit 605. The result of the alignment is sent to the learning unit 107, and the process proceeds to step S507.
In step S607, the learning unit 107 learns the model again based on the model sent from the result of the alignment unit 606 and the detection region alignment result. As a learning method, SVM or Boosting may be used, or a sequential learning method such as online boosting may be used.
With the above processing, the image processing apparatus 100 can learn the feature of the changing portion according to the image while maintaining the feature of the part portion that does not change.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

以上、上述した各実施形態によれば、画像処理装置100は、モデルと検出領域とに基づいて、対象が変動している部分と変動していない部分とを識別し、識別した対象が変動していない部分を基にモデルと検出領域との位置合わせを行う。このことによって、変形する対象の画像を抽出し、抽出結果を基に対象の位置を補正することを可能とすることができる。   As described above, according to each of the above-described embodiments, the image processing apparatus 100 identifies a portion where the target is changing and a portion where the target is not changing based on the model and the detection region, and the identified target is changed. The model and the detection area are aligned based on the part that is not. As a result, it is possible to extract the target image to be deformed and correct the target position based on the extraction result.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

100 画像処理装置 100 Image processing apparatus

Claims (4)

画像を取得する画像取得手段と、
前記画像取得手段で取得された画像から特徴量を抽出する特徴抽出手段と、
対象のモデルと前記特徴抽出手段で抽出された画像の特徴量とを基に対象の尤度を算出する尤度算出手段と、
前記尤度算出手段で算出された尤度を基に前記画像内にある対象の検出領域を検出する検出手段と、
前記モデルと前記検出手段で検出された検出領域とに基づいて、対象が変動している部分と変動していない部分とを識別する識別手段と、
前記識別手段で識別された対象が変動していない部分を基に前記モデルと前記検出領域との位置合わせを行う位置合わせ手段と、
を有する画像処理装置。
Image acquisition means for acquiring images;
Feature extraction means for extracting feature quantities from the image acquired by the image acquisition means;
Likelihood calculation means for calculating the likelihood of the target based on the model of the target and the feature amount of the image extracted by the feature extraction means;
Detecting means for detecting a target detection area in the image based on the likelihood calculated by the likelihood calculating means;
Identification means for identifying a portion where the object is changing and a portion which is not changing based on the model and the detection region detected by the detection means;
An alignment means for aligning the model and the detection area based on a portion where the object identified by the identification means has not changed;
An image processing apparatus.
前記位置合わせ手段による位置合わせの結果を基に前記モデルを学習する学習手段を更に有する請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a learning unit that learns the model based on a result of alignment by the alignment unit. 画像処理装置が実行する位置合わせ方法であって、
画像を取得する画像取得ステップと、
前記画像取得ステップで取得された画像から特徴量を抽出する特徴抽出ステップと、
対象のモデルと前記特徴抽出ステップで抽出された画像の特徴量とを基に対象の尤度を算出する尤度算出ステップと、
前記尤度算出ステップで算出された尤度を基に前記画像内にある対象の検出領域を検出する検出ステップと、
前記モデルと前記検出ステップで検出された検出領域とに基づいて、対象が変動している部分と変動していない部分とを識別する識別ステップと、
前記識別ステップで識別された対象が変動していない部分を基に前記モデルと前記検出領域との位置合わせを行う位置合わせステップと、
を含む位置合わせ方法。
An alignment method executed by an image processing apparatus,
An image acquisition step of acquiring an image;
A feature extraction step of extracting a feature amount from the image acquired in the image acquisition step;
A likelihood calculating step for calculating the likelihood of the target based on the model of the target and the feature amount of the image extracted in the feature extracting step;
A detection step of detecting a target detection area in the image based on the likelihood calculated in the likelihood calculation step;
An identification step for identifying a portion where the object is changing and a portion where the object is not changing based on the model and the detection region detected in the detection step;
An alignment step of aligning the model and the detection area based on a portion where the object identified in the identification step is not changed;
Including an alignment method.
コンピュータに、
画像を取得する画像取得ステップと、
前記画像取得ステップで取得された画像から特徴量を抽出する特徴抽出ステップと、
対象のモデルと前記特徴抽出ステップで抽出された画像の特徴量とを基に対象の尤度を算出する尤度算出ステップと、
前記尤度算出ステップで算出された尤度を基に前記画像内にある対象の検出領域を検出する検出ステップと、
前記モデルと前記検出ステップで検出された検出領域とに基づいて、対象が変動している部分と変動していない部分とを識別する識別ステップと、
前記識別ステップで識別された対象が変動していない部分を基に前記モデルと前記検出領域との位置合わせを行う位置合わせステップと、
を実行させるプログラム。
On the computer,
An image acquisition step of acquiring an image;
A feature extraction step of extracting a feature amount from the image acquired in the image acquisition step;
A likelihood calculating step for calculating the likelihood of the target based on the model of the target and the feature amount of the image extracted in the feature extracting step;
A detection step of detecting a target detection area in the image based on the likelihood calculated in the likelihood calculation step;
An identification step for identifying a portion where the object is changing and a portion where the object is not changing based on the model and the detection region detected in the detection step;
An alignment step of aligning the model and the detection area based on a portion where the object identified in the identification step is not changed;
A program that executes
JP2010279227A 2010-12-15 2010-12-15 Image processing device, alignment method and program Pending JP2012128638A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010279227A JP2012128638A (en) 2010-12-15 2010-12-15 Image processing device, alignment method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010279227A JP2012128638A (en) 2010-12-15 2010-12-15 Image processing device, alignment method and program

Publications (1)

Publication Number Publication Date
JP2012128638A true JP2012128638A (en) 2012-07-05

Family

ID=46645588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010279227A Pending JP2012128638A (en) 2010-12-15 2010-12-15 Image processing device, alignment method and program

Country Status (1)

Country Link
JP (1) JP2012128638A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014067269A (en) * 2012-09-26 2014-04-17 Denso Corp Detector
JP2016184424A (en) * 2013-06-28 2016-10-20 コグネックス・コーポレイション Semi-supervised method for training multiple pattern recognition and registration tool models
WO2017057135A1 (en) * 2015-09-30 2017-04-06 日本電気株式会社 Information processing device, determination device, notification system, information transmission method, and program
CN112446374A (en) * 2019-08-28 2021-03-05 北京地平线机器人技术研发有限公司 Method and device for determining target detection model
US11361249B2 (en) * 2017-03-14 2022-06-14 Nec Corporation Image processing device for machine learning and setting of a teaching signal in accordance with detection and target regions, image processing method for machine learning and setting of a teaching signal, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091794A (en) * 1996-09-12 1998-04-10 Tokyo Electric Power Co Inc:The Image feature value decision device and method and dictionary pattern production method
JP2000342558A (en) * 1999-06-04 2000-12-12 Konica Corp Image positioning processor and inter-picture arithmetic processor
JP2003058896A (en) * 2001-08-10 2003-02-28 Nec Corp Device, method and program for recognizing positioning attitude
JP2007513649A (en) * 2003-11-19 2007-05-31 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Anatomical structure detection and matching system and method using appearance and shape
JP2008065368A (en) * 2006-09-04 2008-03-21 Kyushu Institute Of Technology System for recognizing position and posture of object using stereoscopic image, method of recognizing position and posture of object, and program for executing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091794A (en) * 1996-09-12 1998-04-10 Tokyo Electric Power Co Inc:The Image feature value decision device and method and dictionary pattern production method
JP2000342558A (en) * 1999-06-04 2000-12-12 Konica Corp Image positioning processor and inter-picture arithmetic processor
JP2003058896A (en) * 2001-08-10 2003-02-28 Nec Corp Device, method and program for recognizing positioning attitude
JP2007513649A (en) * 2003-11-19 2007-05-31 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Anatomical structure detection and matching system and method using appearance and shape
JP2008065368A (en) * 2006-09-04 2008-03-21 Kyushu Institute Of Technology System for recognizing position and posture of object using stereoscopic image, method of recognizing position and posture of object, and program for executing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014067269A (en) * 2012-09-26 2014-04-17 Denso Corp Detector
JP2016184424A (en) * 2013-06-28 2016-10-20 コグネックス・コーポレイション Semi-supervised method for training multiple pattern recognition and registration tool models
WO2017057135A1 (en) * 2015-09-30 2017-04-06 日本電気株式会社 Information processing device, determination device, notification system, information transmission method, and program
JPWO2017057135A1 (en) * 2015-09-30 2018-08-30 日本電気株式会社 Information processing apparatus, determination apparatus, notification system, information transmission method, and program
US10846537B2 (en) 2015-09-30 2020-11-24 Nec Corporation Information processing device, determination device, notification system, information transmission method, and program
US11361249B2 (en) * 2017-03-14 2022-06-14 Nec Corporation Image processing device for machine learning and setting of a teaching signal in accordance with detection and target regions, image processing method for machine learning and setting of a teaching signal, and storage medium
CN112446374A (en) * 2019-08-28 2021-03-05 北京地平线机器人技术研发有限公司 Method and device for determining target detection model
CN112446374B (en) * 2019-08-28 2023-08-29 北京地平线机器人技术研发有限公司 Method and device for determining target detection model

Similar Documents

Publication Publication Date Title
JP5873442B2 (en) Object detection apparatus and object detection method
JP4318465B2 (en) Person detection device and person detection method
US7995805B2 (en) Image matching apparatus, image matching method, computer program and computer-readable storage medium
JP6544900B2 (en) Object identification device, object identification method and program
Vretos et al. 3D facial expression recognition using Zernike moments on depth images
JP2017102671A (en) Identification device, adjusting device, information processing method, and program
JP5787845B2 (en) Image recognition apparatus, method, and program
KR101865253B1 (en) Apparatus for age and gender estimation using region-sift and discriminant svm classifier and method thereof
KR20170006355A (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
JP4709668B2 (en) 3D object recognition system
Grewe et al. Fully automated and highly accurate dense correspondence for facial surfaces
JP6410450B2 (en) Object identification device, object identification method, and program
JP2011100229A (en) Image processing apparatus and image processing method
JP6071002B2 (en) Reliability acquisition device, reliability acquisition method, and reliability acquisition program
US20100111375A1 (en) Method for Determining Atributes of Faces in Images
WO2020233427A1 (en) Method and apparatus for determining features of target
JP2009069996A (en) Image processing device and image processing method, recognition device and recognition method, and program
JP2021503139A (en) Image processing equipment, image processing method and image processing program
JP2012128638A (en) Image processing device, alignment method and program
WO2019111550A1 (en) Person identification device, person identification method, and non-transitory computer readable medium
KR20150089370A (en) Age Cognition Method that is powerful to change of Face Pose and System thereof
JP2013037539A (en) Image feature amount extraction device and program thereof
JP5704909B2 (en) Attention area detection method, attention area detection apparatus, and program
Vasconcelos et al. Methods to automatically build point distribution models for objects like hand palms and faces represented in images
JP6202938B2 (en) Image recognition apparatus and image recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140812

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141008

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150210