JP4259365B2 - Image recognition apparatus and image recognition method - Google Patents
Image recognition apparatus and image recognition method Download PDFInfo
- Publication number
- JP4259365B2 JP4259365B2 JP2004089649A JP2004089649A JP4259365B2 JP 4259365 B2 JP4259365 B2 JP 4259365B2 JP 2004089649 A JP2004089649 A JP 2004089649A JP 2004089649 A JP2004089649 A JP 2004089649A JP 4259365 B2 JP4259365 B2 JP 4259365B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- reference image
- map
- similarity evaluation
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 230000010354 integration Effects 0.000 claims description 17
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000011156 evaluation Methods 0.000 description 110
- 230000005484 gravity Effects 0.000 description 25
- 239000000284 extract Substances 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、撮像画像から認識対象物を認識する画像認識装置及び画像認識方法に関する。 The present invention relates to an image recognition apparatus and an image recognition method for recognizing a recognition object from a captured image.
個人認証等に利用するために、人物の顔を撮像し、その撮像画像からの人物の顔を認識する装置が開発されている。顔認識装置としては、例えば、顔の複数の特徴となる部分(目、鼻、口等)の参照画像を用意し、参照画像を用いて撮像画像から特徴部分と類似する部分を探索し、類似度の高い位置を各特徴部分の候補位置として検出し、その相対的な位置関係についてそれぞれパターンマッチングすることによって顔を認識するものがある(特許文献1参照)。
しかしながら、上記顔認識装置では、類似度の高い位置が少しでもずれると、相対的な位置のパターンの組み合せが増加し、特に、複数の特徴部分の位置がずれると、パターンの組み合せは膨大となる。そのため、処理負荷が増加し、処理時間が長くなる。 However, in the face recognition device, if a position with a high degree of similarity is shifted even a little, the combination of patterns at relative positions increases. In particular, if the positions of a plurality of feature portions are shifted, the combination of patterns becomes enormous. . As a result, the processing load increases and the processing time becomes longer.
そこで、本発明は、処理負荷を軽減する画像認識装置及び画像認識方法を提供することを課題とする。 Therefore, an object of the present invention is to provide an image recognition apparatus and an image recognition method that reduce the processing load.
本発明に係る画像認識装置は、撮像手段と、認識対象物の複数の特徴部分の参照画像を保持する参照画像保持手段と、参照画像に対応して当該参照画像の画像全体における位置と画像中の任意の点との位置関係を保持する位置関係保持手段と、撮像手段で撮像した撮像画像と参照画像保持手段で保持している複数の参照画像とをそれぞれ比較する比較手段と、位置関係保持手段で保持している位置関係に基づいて比較手段による複数の比較結果を画像中の任意の点を基準としてそれぞれ移動させ、当該移動させた複数の比較結果を統合し、当該統合結果に基づいて認識対象物か否かを判定する判定手段とを備えることを特徴とする。
An image recognition apparatus according to the present invention includes an imaging unit, a reference image holding unit that holds a reference image of a plurality of characteristic parts of a recognition target, a position of the reference image in the entire image corresponding to the reference image, A positional relationship holding unit that holds a positional relationship with an arbitrary point, a comparison unit that compares a captured image captured by the imaging unit with a plurality of reference images held by the reference image holding unit, and a positional relationship holding Based on the positional relationship held by the means, the plurality of comparison results by the comparison means are respectively moved with reference to any point in the image, the plurality of moved comparison results are integrated, and based on the integration result And determining means for determining whether the object is a recognition object.
この画像認識装置では、参照画像保持手段に認識対象物の特徴となる部分(例えば、認識対象物が人物の顔の場合には目、鼻、口等)の参照画像を複数保持するとともに、位置関係保持手段に保持している参照画像毎にその参照画像が画像全体における位置と画像中の任意の点(例えば、中心点、左上点、右下点)との位置関係を保持している。画像認識装置では、撮像手段によりある対象物を撮像し、撮像画像を取得する。そして、画像認識装置では、比較手段により撮像画像と複数の参照画像とをそれぞれ比較し、各参照画像に対する比較結果を取得する。この比較では、撮像画像から各参照画像のサイズの領域を縦方向及び横方向にずらしながら画像全体にわたって順次切り出し、その切り出した多数の領域と参照画像とをそれぞれ比較する。したがって、比較結果としては、各参照画像に対して、撮像画像から切り出した領域の数分の各領域の位置に対する結果がそれぞれ得られる。撮像画像において参照画像(特徴部分)と類似している領域がある場合にはその領域の位置に対する類似度が高くなり、撮像画像において参照画像と類似していない領域ではその領域の位置に対する類似度が低くなる。さらに、画像認識装置では、判定手段により参照画像毎に比較結果をその参照画像に対応する位置関係に基づいて移動させ、この移動させた複数の比較結果に基づいて認識対象物か否かを判定する。撮像されたある対象物が各参照画像に類似する特徴部分を有している場合、各参照画像の比較結果では、参照画像が画像全体における位置(参照画像となっている特徴部分が撮像画像において存在する位置)周辺の類似度がそれぞれ高くなっている。この場合、その各比較結果を画像の任意の点を基準として移動させると、各比較結果における類似度が高い位置がその任意の点に集まる。そのため、その移動させた複数の比較結果において任意の点に類似度が高いことを示す結果が得られる場合、複数の参照画像の特徴部分を有しているので、その撮像されたある対象物が認識対象物であると判断できる。このように、この画像認識装置では、複数の特徴部分の参照画像と撮像画像をそれぞれ比較し、その複数の比較結果を移動させて統合するだけなので、各撮像画像に対する処理負荷(処理時間)が一定となる。そのため、従来より、処理負荷が軽減され、処理時間が短くなる。ちなみに、従来のように複数の特徴部分を探索し、その探索した特徴部分の相対的な位置関係についてパターンマッチングを行わないので、パターンの組み合せが増加して処理負荷が増加するようなことはない。また、この画像認識装置では、各参照画像に対する比較を行うことにより撮像画像において特徴部分に類似している部分が存在しているか否かを検出でき、その求めた比較結果を幾何学的な位置関係を元にして統合することにより撮像画像において特徴部分と類似している部分の位置が合っているか否かを検出できるので、認識精度も高い。また、この画像認識装置では、各比較結果にノイズがあった場合(例えば、撮像画像において参照画像との類似度が高くなる領域が他にも存在した場合)でも、複数の比較結果を移動させて統合しているのでそのノイズが抑制される。また、この画像認識装置では、参照画像の数(すなわち、比較する特徴部分の数)を増やすほど、認識精度が高くなる。 In this image recognition apparatus, the reference image holding means holds a plurality of reference images of parts that are characteristics of the recognition target (for example, eyes, nose, mouth, etc. when the recognition target is a human face) For each reference image held in the relationship holding means, the reference image holds the positional relationship between the position in the whole image and any point in the image (for example, the center point, the upper left point, the lower right point). In the image recognition apparatus, a certain object is imaged by an imaging unit, and a captured image is acquired. In the image recognition apparatus, the comparison unit compares the captured image with a plurality of reference images, and acquires a comparison result for each reference image. In this comparison, a region of the size of each reference image is sequentially cut out from the captured image over the entire image while shifting in the vertical direction and the horizontal direction, and the cut out many regions are compared with the reference image. Therefore, as a comparison result, a result is obtained for each reference image with respect to the position of each region corresponding to the number of regions cut out from the captured image. When there is an area similar to the reference image (feature part) in the captured image, the similarity to the position of the area is high, and in the area not similar to the reference image in the captured image, the similarity to the position of the area Becomes lower. Further, in the image recognition apparatus, the determination unit moves the comparison result for each reference image based on the positional relationship corresponding to the reference image, and determines whether the object is a recognition object based on the plurality of moved comparison results. To do. When a certain captured object has a feature portion similar to each reference image, the comparison result of each reference image indicates that the reference image is located in the entire image (the feature portion that is the reference image is The degree of similarity around the existing position) is high. In this case, when each comparison result is moved with reference to an arbitrary point of the image, a position having a high similarity in each comparison result gathers at the arbitrary point. Therefore, when a result indicating that the degree of similarity is high at an arbitrary point is obtained in the plurality of moved comparison results, since there are a plurality of reference image feature parts, the captured object is It can be determined that the object is a recognition object. In this way, in this image recognition apparatus, the reference images and captured images of a plurality of characteristic portions are respectively compared, and the comparison results are simply moved and integrated, so that the processing load (processing time) for each captured image is increased. It becomes constant. As a result, the processing load is reduced and the processing time is shortened. By the way, since a plurality of feature portions are searched as in the past and pattern matching is not performed on the relative positional relationship of the searched feature portions, the combination of patterns does not increase and the processing load does not increase. . Further, in this image recognition device, it is possible to detect whether or not there is a portion similar to the feature portion in the captured image by performing comparison with each reference image, and the obtained comparison result is obtained from the geometric position. By integrating based on the relationship, it is possible to detect whether or not the position of the portion similar to the characteristic portion in the captured image is matched, and thus the recognition accuracy is high. In addition, in this image recognition apparatus, even when there is noise in each comparison result (for example, when there are other regions in the captured image that have high similarity to the reference image), the plurality of comparison results are moved. The noise is suppressed. In this image recognition apparatus, the recognition accuracy increases as the number of reference images (that is, the number of feature portions to be compared) is increased.
本発明の上記画像認識装置では、撮像手段で撮像した撮像画像のサイズを変換する画像サイズ変換手段を備え、比較手段では、画像サイズ変換手段でサイズ変換した撮像画像と参照画像保持手段で保持している複数の参照画像とをそれぞれ比較する構成としてもよい。 The image recognition apparatus of the present invention includes an image size conversion unit that converts the size of a captured image captured by the imaging unit, and the comparison unit holds the captured image converted by the image size conversion unit and the reference image storage unit. A plurality of reference images may be compared with each other.
この画像認識装置では、画像サイズ変換手段により撮像画像のサイズを変換し、比較手段においてその変換したサイズの撮像画像を用いて比較を行う。そのため、撮像画像上での対象物のサイズ変化に対応でき、撮像画像と参照画像との比較を可能とする。また、撮像画像のサイズを小さくする場合、処理負荷が更に軽減され、ノイズも低減することができる。 In this image recognition apparatus, the size of the captured image is converted by the image size conversion unit, and the comparison unit performs comparison using the captured image of the converted size. Therefore, it is possible to cope with a change in the size of the object on the captured image and to compare the captured image with the reference image. In addition, when the size of the captured image is reduced, the processing load is further reduced and noise can be reduced.
本発明に係る画像認識方法は、撮像画像から認識対象物を認識する画像認識方法であって、認識対象物の複数の特徴部分の参照画像及び参照画像に対応して当該参照画像の画像全体における位置と画像中の任意の点との位置関係を予め保持し、撮像画像と保持している複数の参照画像とをそれぞれ比較する比較ステップと、保持している位置関係に基づいて比較ステップによる複数の比較結果を画像中の任意の点を基準としてそれぞれ移動させ、当該移動させた複数の比較結果を統合し、当該統合結果に基づいて認識対象物か否かを判定する判定ステップとを含むことを特徴とする。 An image recognition method according to the present invention is an image recognition method for recognizing a recognition object from a captured image, and the reference image of the plurality of characteristic parts of the recognition object and the reference image in the entire image of the reference image A comparison step in which a positional relationship between a position and an arbitrary point in the image is held in advance and the captured image is compared with a plurality of held reference images, respectively, and a plurality of comparison steps based on the held positional relationship. comparison result of moving each relative to the arbitrary point in the image, by integrating the plurality of comparison results obtained by the mobile, to include a determination step of determining whether or not the recognition target object based on the integration result It is characterized by.
本発明の上記画像認識方法では、撮像画像のサイズを変換する画像サイズ変換ステップを含み、比較ステップでは、画像サイズ変換ステップでサイズ変換した撮像画像と保持している複数の参照画像とをそれぞれ比較する構成としてもよい。 The image recognition method of the present invention includes an image size conversion step for converting the size of the captured image. In the comparison step, the captured image that has been subjected to the size conversion in the image size conversion step is compared with a plurality of held reference images. It is good also as composition to do.
上記した各画像認識方法では、上記した画像認識装置と同様の作用効果を奏する。 Each of the above-described image recognition methods has the same effects as the above-described image recognition device.
本発明によれば、認識対象物を認識するための処理負荷を軽減できる。 According to the present invention, the processing load for recognizing a recognition target object can be reduced.
以下、図面を参照して、本発明に係る画像認識装置及び画像認識方法の実施の形態を説明する。 Embodiments of an image recognition apparatus and an image recognition method according to the present invention will be described below with reference to the drawings.
本実施の形態では、本発明を、人物又は自動車を対象とした画像認識装置に適用する。本実施の形態に係る画像認識装置では、人物を対象とした場合には認識対象が顔であり、人物の顔であるか否かを判別し、自動車を対象とした場合には認識対象がバックスタイルであり、ある車種であるか否かを判別する。本実施の形態に係る画像認識装置は、人物及び自動車のいずれを対象とした場合も同様の構成及び動作であるが、特徴部分の参照画像と参照画像と画像の重心との距離(オフセット量)を対象に応じてそれぞれ保持している。本実施の形態では、まず、人物の顔認識に適用した場合の画像認識装置の構成について説明し、次に、その自動車の車種認識に適用した場合の構成について説明し、最後に、画像認識装置1の動作について説明する。 In the present embodiment, the present invention is applied to an image recognition apparatus targeting a person or a car. In the image recognition apparatus according to the present embodiment, when a person is targeted, it is determined whether the recognition target is a face and whether it is a person's face. It is a style and it is discriminated whether it is a certain vehicle type. The image recognition apparatus according to the present embodiment has the same configuration and operation for any one of a person and a car, but the distance (offset amount) between the reference image of the characteristic part, the reference image, and the center of gravity of the image. Are held according to the target. In the present embodiment, first, the configuration of the image recognition device when applied to human face recognition will be described, then the configuration when applied to vehicle type recognition of the automobile will be described, and finally, the image recognition device The operation of No. 1 will be described.
図1〜図7を参照して、人物の顔認識に適用した場合の画像認識装置1の構成について説明する。図1は、本実施の形態に係る画像認識装置の構成図である。図2は、図1の画像間類似度評価部の説明図である。図3は、認識対象を人物の顔とした場合の参照画像の一例であり、(a)が参照画像を作成するための人物の顔画像であり、(b)が(a)図の顔画像における両目、鼻、口を特徴部分とした参照画像である。図4は、ある人物の顔を正面から撮像した撮像画像の一例であり、(a)が撮像画像であり、(b)が顔を認識した結果を示す撮像画像である。図5は、図3の参照画像に基づいて図4の撮像画像から顔を認識する際の類似度評価マップであり、(a)が両目の参照画像に対する類似度評価マップであり、(b)が鼻の参照画像に対する類似度評価マップであり、(c)が口の参照画像に対する類似度評価マップである。図6は、図5の類似度評価マップを重心にオフセットしたオフセット類似度評価マップであり、(a)が両目の参照画像に対するオフセット類似度評価マップであり、(b)が鼻の参照画像に対するオフセット類似度評価マップであり、(c)が口の参照画像に対するオフセット類似度評価マップである。図7は、図6の3つのオフセット類似度評価マップを統合させた統合マップである。 With reference to FIGS. 1-7, the structure of the image recognition apparatus 1 at the time of applying to a person's face recognition is demonstrated. FIG. 1 is a configuration diagram of an image recognition apparatus according to the present embodiment. FIG. 2 is an explanatory diagram of the inter-image similarity evaluation unit of FIG. FIG. 3 is an example of a reference image when the recognition target is a person's face, (a) is a person's face image for creating a reference image, and (b) is the face image of FIG. Is a reference image having the eyes, nose, and mouth as features. FIG. 4 is an example of a captured image obtained by capturing a person's face from the front. (A) is a captured image, and (b) is a captured image showing a result of recognizing the face. FIG. 5 is a similarity evaluation map for recognizing a face from the captured image of FIG. 4 based on the reference image of FIG. 3, (a) is a similarity evaluation map for the reference images of both eyes, and (b) Is the similarity evaluation map for the nose reference image, and (c) is the similarity evaluation map for the mouth reference image. FIG. 6 is an offset similarity evaluation map obtained by offsetting the similarity evaluation map of FIG. 5 to the center of gravity, (a) is an offset similarity evaluation map for the reference images of both eyes, and (b) is for the reference image of the nose. It is an offset similarity evaluation map, and (c) is an offset similarity evaluation map for a mouth reference image. FIG. 7 is an integrated map in which the three offset similarity evaluation maps of FIG. 6 are integrated.
画像認識装置1は、対象物を撮像した撮像画像から人物の顔であるか否かを判定する顔認識装置である。画像認識装置1では、人物の顔の両目部分、鼻部分、口部分の参照画像及び顔全体の画像の重心から各参照画像の中心までのオフセット量を保持している。そして、画像認識装置1では、ある対象物を撮像した撮像画像において3つの参照画像にそれぞれ類似する両目、鼻、口が正しい位置に存在するか否かを判定する。そのために、画像認識装置1は、カメラ2及び画像ECU[Electronic Control Unit]3を備え、画像ECU3に参照画像データベース10、オフセットデータベース11、画像解像度変換部12、画像間類似度評価部13及び統合処理部14が構成される。なお、本実施の形態では、各画像のデータを画素単位で取り扱い、座標系としては画素単位の(x,y)とする。
The image recognition apparatus 1 is a face recognition apparatus that determines whether or not a face of a person is a captured image obtained by capturing an object. The image recognition apparatus 1 holds offset amounts from the center of gravity of the reference images of both eyes, nose, and mouth of a person's face and the image of the entire face to the center of each reference image. Then, the image recognition device 1 determines whether or not both eyes, nose, and mouth that are similar to the three reference images in a captured image obtained by capturing an object are present at the correct positions. For this purpose, the image recognition apparatus 1 includes a
なお、本実施の形態では、カメラ2が特許請求の範囲に記載する撮像手段に相当し、参照画像データベース10が特許請求の範囲に記載する参照画像保持手段に相当し、オフセットデータベース11が特許請求の範囲に記載する位置関係保持手段に相当し、画像解像度変換部12が特許請求の範囲に記載する画像サイズ変換手段に相当し、画像間類似度評価部13が特許請求の範囲に記載する比較手段に相当し、統合処理部14が特許請求の範囲に記載する判定手段に相当する。
In the present embodiment, the
カメラ2は、例えば、CCD[Charge Coupled Device]カメラである。カメラ2では、ある対象物を撮像し、その撮像したカラー画像(例えば、RGB[Red Green Blue]による画像)を取得する。人物の顔を認識する場合、カメラ2では、人物の顔を真正面から撮像する。例えば、図4(a)に示すような、撮像画像である。カメラ2では、その撮像画像のデータを画像ECU3に送信する。なお、カメラ2はカラーであるが、少なくとも輝度情報が得られればよいので、白黒のカメラでもよい。
The
画像ECU3は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]等からなり、画像認識装置1の各処理部及び各データベースが構成される。画像ECU3では、認識対象物の複数の特徴部分の参照画像と各参照画像のオフセット量を保持している。画像ECU3では、カメラ2から撮像画像のデータを取り入れ、参照画像毎に撮像画像全体にわたって各参照画像と同一の領域を切り出し、その多数の切り出した領域と参照画像との類似度を示した類似度評価マップを生成する。さらに、画像ECU3では、参照画像毎の類似度評価マップをオフセット量分オフセットさせたオフセット類似度評価マップを生成し、複数のオフセット類似度評価マップを統合した統合マップから認識対象物であるか否かを判定する。
The
参照画像データベース10は、ROM内に構築され、複数個の参照画像のデータを格納している。参照画像は、認識対象物の特徴となる部分の画像であり、認識対象物が顔なので両目、鼻、口の画像である。これ以外でも、耳、眉毛等の他の特徴部分の参照画像を用いてもよい。本実施の形態では、特定の人物の顔を認識するのではなく、人物の顔か否かを判別するので、参照画像を作成するための顔画像としては、一般的な人物の顔を撮像した撮像画像でもよいし、あるいは、多数の人物の顔の画像を収集し、その平均的な形や大きさをした両目、鼻、口からなる人物の顔画像を作成してもよい。なお、カメラ2で必ずしも正面を向いている顔を撮像できない場合、様々な向きをした顔の平均的な顔画像を作成し、その平均的な顔画像から参照画像を作成してもよい。また、顔は様々な表情するので、様々な表情をした顔の平均的な顔の画像を作成し、その平均的な顔画像から参照画像を作成してもよい。
The
参照画像を作成するために、例えば、図3(a)に示すような、顔画像を用意する。この顔画像において、両目、鼻、口を含む顔に接する最小の長方形であり、この長方形の4辺が画像の縦軸又は横軸に平行な顔領域を設定する(図3(a)の破線で示す長方形の領域)。さらに、この顔領域の中心を、重心Cen_B(=(0,0))とする(図3(a)の○印)。さらに、この顔画像から、両目を含む長方形、鼻を含む長方形及び口を含む長方形であり、この各長方形の4辺が画像の縦軸又は横軸に平行な領域を切り出す(図3(b)の破線で示す3つの長方形の領域)。この各領域の中心を、特徴点P_B_i(i=0,1,2)とする(図3(b)の3つの十印)。この切り出した長方形の領域で区画される各画像が参照画像であり、この参照画像のデータが参照画像データベース10に格納されている。参照画像のデータは、画素毎の輝度値である。なお、参照画像のサイズは、このサイズが小さいと類似度評価マップでノイズが増加するので、ある程度の大きさを有していたほうが望ましい。
In order to create a reference image, for example, a face image as shown in FIG. In this face image, the face is the smallest rectangle in contact with the face including both eyes, nose and mouth, and a face area in which the four sides of the rectangle are parallel to the vertical or horizontal axis of the image is set (broken line in FIG. 3A). Rectangle area). Further, the center of the face area is set as the center of gravity Cen_B (= (0, 0)) (circle mark in FIG. 3A). Further, from this face image, a rectangle including both eyes, a rectangle including the nose, and a rectangle including the mouth, and a region in which the four sides of each rectangle are parallel to the vertical axis or the horizontal axis of the image is cut out (FIG. 3B). 3 rectangular regions indicated by broken lines). The center of each region is defined as a feature point P_B_i (i = 0, 1, 2) (three crosses in FIG. 3B). Each image partitioned by the cut-out rectangular area is a reference image, and the data of the reference image is stored in the
オフセットデータベース11は、ROM内に構築され、参照画像毎のオフセット量を格納している。オフセット量は、顔領域の重心Cen_Bと各特徴点P_B_iとの偏差であり、ΔP_B_i(x,y)で表される。このオフセット量は、顔領域の重心Cen_Bと各特徴点P_B_i間の距離の平均的な値が設定される。つまり、多数の人物の顔の特徴点の存在する位置を収集し、その位置の平均値を用いて各距離を求めている。オフセットデータベース11には、各参照画像に対応付けてオフセット量ΔP_B_i(i=0,1,2)が格納される。
式(1)に示すように、オフセット量ΔP_B_iが既知とすると、各特徴点P_B_iが決まれば、重心Cen_Bを求めることができる。 As shown in Expression (1), if the offset amount ΔP_B_i is known, the center of gravity Cen_B can be obtained if each feature point P_B_i is determined.
画像解像度変換部12では、撮像画像上での対象物の解像度を参照画像の解像度に合わせるために、撮像画像のサイズ(解像度)を任意のサイズに変換する。本実施の形態では輝度値を用いて類似度の計算等を行うので、画像解像度変換部12では撮像画像のデータから各画素の輝度値を抽出し、画素毎の輝度値からなるサイズを変換した撮像画像を生成する。サイズの変換方法としては、例えば、線形補間により変換後の画像上の各画素の輝度値を決定したり、あるいは、画像サイズを小さくする場合には画素を間引く。
The image
画像間類似度評価部13では、参照画像データベース10から参照画像を順次抽出する。そして、画像間類似度評価部13では、参照画像毎に、切り出す領域の中心点(xc,yc)をx方向又はy方向に1画素ずつずらしながら、サイズ変換した撮像画像からその参照画像と同一のサイズの領域を切り出す(図2参照)。さらに、画像間類似度評価部13では、切り出し各領域の画像と参照画像との間で、式(2)により、対応する位置の画素毎に輝度値の差分の絶対値を計算し、全ての画素分の絶対値差分の総和を計算する。
式(2)において、T(x,y)は撮像画像の(x,y)の位置の画素の輝度値であり、S(x,y)は参照画像の(x,y)の位置の画素の輝度値である。参照画像のサイズをx方向をm画素、y方向をn画素とすると、m×n個の差分の絶対値が計算され、m×n個の絶対値差分が積算される。したがって、切り出し領域の画像と参照画像との類似度が高いほど(相関があるほど)、絶対値差分総和値は小さくなり、切り出し領域の画像と参照画像とが一致する場合には絶対値差分総和値は0になる。なお、輝度値を用いたが、画像の他の値も用いて計算してもよい。例えば、彩度値、色合を用いてもよいし、あるいは、RGB画像のR値、G値、B値を用いてもよい。輝度値以外を用いる場合、その用いる値に応じて、参照画像を作成し、画像解像度変換部12でもサイズ変換した撮像画像を生成する。
In Expression (2), T (x, y) is the luminance value of the pixel at the position (x, y) of the captured image, and S (x, y) is the pixel at the position (x, y) of the reference image. Luminance value. Assuming that the size of the reference image is m pixels in the x direction and n pixels in the y direction, the absolute values of m × n differences are calculated, and m × n absolute value differences are integrated. Therefore, the higher the similarity between the image of the cutout area and the reference image (the more correlation there is), the smaller the absolute value difference sum value, and when the image of the cutout area matches the reference image, the absolute value difference summation The value is 0. In addition, although the luminance value was used, you may calculate using the other value of an image. For example, saturation values and hues may be used, or R values, G values, and B values of RGB images may be used. When a value other than the luminance value is used, a reference image is created according to the value to be used, and the image
さらに、画像間類似度評価部13では、輝度値の最大値からその絶対値差分総和値を減算し、切り出し各領域の画像と参照画像との類似度を示す輝度値を求める。したがって、切り出し領域の画像と参照画像との類似度が高いほど、輝度値は大きくなり、切り出し領域の画像と参照画像とが一致する場合には輝度値の最大値となる。そして、画像間類似度評価部13では、切り出した領域の中心である座標(xc,yc)にその輝度値をそれぞれ設定していき、類似度評価マップMap_B_iを生成する(図2参照)。類似度評価マップMap_B_iは、参照画像毎に生成され、全ての切り出し領域の中心点(xc,yc)の各画素に参照画像との類似度である輝度値を配列させたマップである。類似度評価マップMap_B_iは、画面に表示すると、類似度が高いほど輝度値が大きくなるので、その箇所が白くなる。また、類似度評価マップMap_B_iでは、撮像画像に参照画像と類似する特徴部分が存在する場合、その特徴部分が位置する周辺で類似度がピークとなるので、特徴点P_B_i周辺の輝度値が大きくなる。
Further, the inter-image
画像間類似度評価部13では、例えば、図5に示すような類似度評価マップMap_B_i(i=0,1,2)を生成する。図5(a)は、両目の参照画像の類似度評価マップMap_B_0が表示されたものであり、特徴点P_B_0周辺の輝度値が大きくなっている。図5(b)は、鼻の参照画像の類似度評価マップMap_B_1が表示されたものであり、特徴点P_B_1周辺の輝度値が大きくなっている。図5(c)は、口の参照画像の類似度評価マップMap_B_2が表示されたものであり、特徴点P_B_2周辺の輝度値が大きくなっている。図5(a)〜(c)では、特徴点以外でも、輝度値が大きくなる(白くなっている)箇所があるが、これらの箇所はノイズである。ちなみに、顔の場合、背景や肌等の画像は輝度値が一様であるが、顔の特徴部分や背景と顔の境界部分等では輝度値が変化するので、参照画像との間で類似度を計算すると類似性が出る場合あり、これがノイズとなる。
The inter-image
統合処理部14では、オフセットデータベース11から参照画像に対応するオフセット量ΔP_B_iを取り出す。そして、統合処理部14では、類似度評価マップMap_B_iの各画素をそのオフセット量ΔP_B_iによってオフセットし、オフセット類似度評価マップΔMap_B_iを生成する。オフセット類似度評価マップΔMap_B_iは、参照画像毎に生成され、各参照画像の特徴点P_B_iが重心Cen_Bの位置になるように類似度評価マップΔMap_B_iを移動させたマップである。オフセット類似度評価マップΔMap_B_iでは、撮像画像に参照画像と類似する特徴部分が存在する場合、類似度のピークが各特徴点P_B_iからオフセット量ΔP_B_i分移動するので、重心Cen_B周辺の輝度値が大きくなる。なお、オフセット類似度評価マップΔMap_B_iは、類似度評価マップMap_B_iと同一のサイズであり、類似度評価マップMap_B_iからの輝度値が設定されない画素には輝度値として0が設定される。
The
統合処理部14では、例えば、図6に示すようなオフセット類似度評価マップΔMap_B_i(i=0,1,2)を生成する。図6(a)〜(c)は、図5に示す参照画像毎の類似度評価マップMap_B_iが矢印で示すオフセット量ΔP_B_i分それぞれオフセットされた各オフセット類似度評価マップΔMap_B_iが表示されたものであり、重心Cen_B周辺の輝度値が大きくなっている。オフセット類似度評価マップΔMap_B_iでは、類似度評価マップMap_B_0をオフセットさせただけなので、ノイズが残っている。
さらに、統合処理部14では、式(3)により、全てのオフセット類似度評価マップΔMap_B_iの輝度値を対応する画素毎に加算し、統合マップT_Mapを生成する。統合マップT_Mapは、全てのオフセット類似度評価マップΔMap_B_iを統合したマップである。統合マップT_Mapでは、全てのオフセット類似度評価マップΔMap_B_iにおいて輝度値が大きい箇所が一致している場合、その箇所の輝度値が大きくなる。そのため、統合マップT_Mapでは、撮像画像に複数の参照画像とそれぞれ類似する特徴部分が全て存在する場合、重心Cen_B周辺の類似度のピークが統合されるので、重心Cen_B周辺の輝度値が最も大きくなる。また、統合マップT_Mapでは、各オフセット類似度評価マップΔMap_B_iに異なる箇所にそれぞれノイズ(輝度値が大きい箇所)が存在していても、統合することによって相殺され、ノイズが低減される。統合処理部14では、例えば、図7に示すような統合マップT_Mapを生成する。図7は、図6に示す3つのオフセット類似度評価マップΔMap_B_iが統合された統合マップT_Mapが表示されたものであり、重心Cen_B周辺の輝度値だけが大きくなっており、ノイズが無くなっている。
Further, the
そして、統合処理部14では、統合マップT_Mapの重心Cen_B周辺の各画素の輝度値を閾値と比較し、輝度値が閾値より大きい場合には撮像画像に顔が存在すると判定し、輝度値が閾値以下の場合には撮像画像に顔が存在しないと判定する。図4(b)では、図4(a)の撮像画像に顔が存在したとする判定結果を示しており、特徴部分を含む顔の領域を実線の長方形で描いている。
Then, the
次に、図1及び図8〜図12を参照して、自動車の車種認識に適用した場合の画像認識装置1の構成について説明する。図8は、認識対象を自動車のバックスタイルとした場合の参照画像の一例である。図9は、ある自動車を後方から撮像した撮像画像の一例である。図10は、図8の参照画像に基づいて図9の撮像画像から自動車を認識する際の類似度評価マップであり、(a)が右側テールランプの参照画像に対する類似度評価マップであり、(b)が右側タイヤの参照画像に対する類似度評価マップであり、(c)がナンバプレートの参照画像に対する類似度評価マップであり、(d)が左側テールランプの参照画像に対する類似度評価マップであり、(e)が左側タイヤの参照画像に対する類似度評価マップである。図11は、図10の類似度評価マップを重心にオフセットしたオフセット類似度評価マップであり、(a)が右側テールランプの参照画像に対するオフセット類似度評価マップであり、(b)が右側タイヤの参照画像に対するオフセット類似度評価マップであり、(c)がナンバプレートの参照画像に対するオフセット類似度評価マップであり、(d)が左側テールランプの参照画像に対するオフセット類似度評価マップであり、(e)が左側タイヤの参照画像に対するオフセット類似度評価マップである。図12は、図11の5つのオフセット類似度評価マップを統合させた統合マップである。 Next, with reference to FIG. 1 and FIGS. 8 to 12, the configuration of the image recognition device 1 when applied to vehicle type recognition of an automobile will be described. FIG. 8 is an example of a reference image when the recognition target is the back style of an automobile. FIG. 9 is an example of a captured image obtained by capturing an automobile from the rear. FIG. 10 is a similarity evaluation map for recognizing a car from the captured image of FIG. 9 based on the reference image of FIG. 8, and (a) is a similarity evaluation map for the reference image of the right tail lamp. ) Is a similarity evaluation map for the reference image of the right tire, (c) is a similarity evaluation map for the reference image of the number plate, (d) is a similarity evaluation map for the reference image of the left tail lamp, e) is a similarity evaluation map for the reference image of the left tire. 11 is an offset similarity evaluation map obtained by offsetting the similarity evaluation map of FIG. 10 to the center of gravity, (a) is an offset similarity evaluation map for a reference image of the right tail lamp, and (b) is a reference of the right tire. An offset similarity evaluation map for an image, (c) is an offset similarity evaluation map for a reference image of a number plate, (d) is an offset similarity evaluation map for a reference image of a left tail lamp, and (e) is It is an offset similarity evaluation map with respect to the reference image of the left tire. FIG. 12 is an integrated map in which the five offset similarity evaluation maps of FIG. 11 are integrated.
画像認識装置1は、対象物を撮像した撮像画像から認識対象の車種であるか否かを判定する車種認識装置である。画像認識装置1では、自動車のバックスタイルの左右のテールランプ部分、左右のタイヤ部分、ナンバプレート部分の参照画像及び自動車のバックスタイル画像の重心から各参照画像の中心までのオフセット量を保持している。そして、画像認識装置1では、ある自動車を後方から撮像した撮像画像において5つの参照画像にそれぞれ類似する左右のテールランプ、左右のタイヤ、ナンバプレートが正しい位置に存在するか否かを判定する。ここでは、画像認識装置1の構成において、人物の顔認識する場合と異なる点のみ以下で説明する。 The image recognition device 1 is a vehicle type recognition device that determines whether a vehicle is a recognition target vehicle type from a captured image obtained by imaging an object. The image recognition device 1 holds the left and right tail lamp parts of the back style of the automobile, the left and right tire parts, the reference image of the number plate part, and the offset amount from the center of gravity of the back style image of the automobile to the center of each reference image. . Then, the image recognition apparatus 1 determines whether left and right tail lamps, left and right tires, and number plates similar to the five reference images in a captured image obtained by imaging a certain automobile from the rear are present at the correct positions. Here, only differences from the case of recognizing a person's face in the configuration of the image recognition apparatus 1 will be described below.
カメラ2では、自動車を真後ろから撮像し、その撮像画像のデータを画像ECU3に送信する。例えば、図9に示すような、撮像画像である。
The
参照画像データベース10に格納する参照画像は、車種を判別するので、左右のテールランプ、左右のタイヤ、ナンバプレートの画像である。自動車の場合、車種により、テールランプ、タイヤ、ナンバプレートの位置が異なり、テールランプやタイヤについては大きさや形状も異なるので、車種を見分けるには有効な特徴部分となる。これ以外でも、バンパ、リヤウイング等の他の特徴部分の参照画像を用いてもよい。本実施の形態では、特定の車種を判別するので、参照画像を作成するための自動車のバックスタイルの画像としては、その車種の自動車を真後ろから撮像した画像とする。なお、カメラ2で必ずしも真後ろから自動車を撮像できない場合、様々な向きからのバックスタイルの平均的なバックスタイル画像を作成し、その平均的なバックスタイル画像から参照画像を作成してもよい。
The reference image stored in the
参照画像を作成するために、例えば、図8に示すような、自動車のバックスタイル画像を用意する。この画像において、左右のテールランプ、左右のタイヤ、ナンバプレートを含む最小の長方形であり、この長方形の4辺が画像の縦軸又は横軸に平行なバックスタイル領域を設定する(図8の一点鎖線で示す長方形の領域)。さらに、このバックスタイル領域の中心を、重心Cen_B(=(0,0))とする(図8の○印)。さらに、この画像から、右側テールランプを含む長方形、右側タイヤを含む長方形、ナンバプレートを含む長方形、左側テールランプを含む長方形及び左側テールランプを含む長方形であり、この各長方形の4辺が画像の縦軸又は横軸に平行な領域を切り出す(図8の破線で示す5つの長方形の領域)。この各領域の中心を、特徴点P_B_i(i=0,1,2,3,4)とする(図8の5つの十印)。この切り出した長方形の領域で区画される各画像が参照画像であり、この参照画像のデータが参照画像データベース10に格納されている。
In order to create the reference image, for example, a back style image of a car as shown in FIG. 8 is prepared. In this image, it is the smallest rectangle including the left and right tail lamps, the left and right tires, and the number plate, and a backstyle area in which the four sides of this rectangle are parallel to the vertical axis or the horizontal axis of the image is set (a dashed-dotted line in FIG. 8). Rectangle area). Further, the center of the backstyle area is set as the center of gravity Cen_B (= (0, 0)) (circle mark in FIG. 8). Further, from this image, there are a rectangle including a right tail lamp, a rectangle including a right tire, a rectangle including a number plate, a rectangle including a left tail lamp, and a rectangle including a left tail lamp. A region parallel to the horizontal axis is cut out (five rectangular regions indicated by broken lines in FIG. 8). The center of each region is defined as a feature point P_B_i (i = 0, 1, 2, 3, 4) (five crosses in FIG. 8). Each image partitioned by the cut-out rectangular area is a reference image, and the data of the reference image is stored in the
オフセットデータベース11に格納するオフセット量ΔP_B_i(i=0,1,2,3,4)は、バックスタイル領域の重心Cen_Bと各特徴点P_B_i(i=0,1,2,3,4)との偏差である。
The offset amount ΔP_B_i (i = 0, 1, 2, 3, 4) stored in the offset
画像間類似度評価部13では、例えば、図10に示すような類似度評価マップMap_B_i(i=0,1,2,3,4)を生成する。図8(a)は、右側テールランプの参照画像の類似度評価マップMap_B_0が表示されたものであり、特徴点P_B_0周辺及び左側テールランプの特徴点P_B_3周辺の輝度値が大きくなっている。図8(b)は、右側タイヤの参照画像の類似度評価マップMap_B_1が表示されたものであり、特徴点P_B_1周辺及び左側タイヤの特徴点P_B_4の輝度値周辺が大きくなっている。図8(c)は、ナンバプレートの参照画像の類似度評価マップMap_B_2が表示されたものであり、特徴点P_B_2周辺の輝度値が大きくなっている。図8(d)は、左側テールランプの参照画像の類似度評価マップMap_B_3が表示されたものであり、特徴点P_B_3周辺及び右側テールランプの特徴点P_B_0周辺の輝度値が大きくなっている。図8(e)は、左側タイヤの参照画像の類似度評価マップMap_B_4が表示されたものであり、特徴点P_B_4周辺及び右側タイヤの特徴点P_B_1周辺の輝度値が大きくなっている。図8(a)〜(e)では、特徴点以外でも、輝度値が大きくなる(白くなっている)箇所があるが、これらの箇所はノイズである。
The inter-image
統合処理部14では、例えば、図11に示すようなオフセット類似度評価マップΔMap_B_i(i=0,1,2,3,4)を生成する。図11(a)〜(e)は、図10に示す参照画像毎の類似度評価マップが矢印で示すオフセット量ΔP_B_i分それぞれオフセットされた各オフセット類似度評価マップΔMap_B_iが表示されたものであり、全て重心Cen_B周辺の輝度値が大きくなっている。また、オフセット類似度評価マップΔMap_B_iでは、ノイズが残っている。さらに、統合処理部14では、例えば、図12に示すような統合マップT_Mapを生成する。図12は、図11に示す5つのオフセット類似度評価マップΔMap_B_iが統合された統合マップT_Mapが表示されたものであり、重心Cen_B周辺の輝度値だけが大きくなっており、ノイズが無くなっている。
For example, the
統合処理部14では、統合マップT_Mapの重心Cen_B周辺の各画素の輝度値を閾値と比較し、輝度値が閾値より大きい場合には撮像画像の自動車が認識対象の車種と判定し、輝度値が閾値以下の場合には撮像画像の自動車が認識対象の車種でないと判定する。
The
図1を参照して、画像認識装置1における動作を説明する。認識を行う前に、認識対象物(任意の人物の顔又は自動車の特定の車種)に応じて、その特徴となる部分(両目、鼻、口又は左右のテールランプ、左右のタイヤ、ナンバプレート)を複数抽出する。そして、その複数の特徴部分の参照画像を作成し、その参照画像のデータ(画素毎の輝度値)を参照画像データベース10に格納しておく。また、各特徴部分の中心である特徴点P_B_iと画像の中心である重心Cen_Bとのオフセット量ΔP_B_iを求め、そのオフセット量ΔP_B_iを参照画像に対応付けてオフセットデータベース11に格納しておく。
The operation in the image recognition apparatus 1 will be described with reference to FIG. Before performing recognition, depending on the object to be recognized (the face of any person or a specific vehicle model), the characteristic parts (both eyes, nose, mouth or left and right tail lamps, left and right tires, number plate) Extract multiple. Then, a reference image of the plurality of characteristic portions is created, and data of the reference image (luminance value for each pixel) is stored in the
カメラ2により、対象物(人物の顔又は自動車のバックスタイル)を撮像し、その撮像画像データを画像ECU3に送信する。画像ECU3では、参照画像とサイズ(解像度)を合わせるために、撮像画像のサイズを変換する。このサイズ変換した撮像画像のデータは、輝度値である。次に、画像ECU3では、参照画像データベース10から参照画像を取り出す。そして、画像ECU3では、サイズ変換した撮像画像からその取り出した参照画像と同一のサイズの領域を順次切り出し、その切り出した領域と参照画像との類似度を示す輝度値を計算する。さらに、画像ECU3では、その計算した輝度値を切り出した領域の中心座標(xc,yc)に設定し、類似度評価マップMap_B_iを生成する。画像ECU3では、複数の参照画像に対してそれぞれ類似度評価マップMap_B_iを生成する。撮像画像において参照画像と類似する特徴部分が存在する場合、類似度評価マップMap_B_iでは、特徴点P_B_i周辺での輝度値が大きくなっている。
The
続いて、画像ECU3では、オフセットデータベース11から参照画像に対応したオフセット量ΔP_B_iを取り出す。そして、画像ECU3では、特徴点P_B_iを重心Cen_Bに位置させるために、そのオフセット量ΔP_B_iにより類似度評価マップMap_B_iをオフセットする。画像ECU3では、複数の参照画像に対してそれぞれオフセット類似度評価マップΔMap_B_iを生成する。撮像画像において参照画像と類似する特徴部分が存在する場合、オフセット類似度評価マップΔMap_B_iでは、重心Cen_B周辺での輝度値が大きくなっている。
Subsequently, the
さらに、画像ECU3では、全てのオフセット類似度評価マップΔMap_B_iの輝度値を画素毎に積算し、統合マップT_Mapを生成する。撮像画像において複数の参照画像と類似する特徴部分が全て存在する場合、統合マップT_Mapでは、重心Cen_B周辺での輝度値が最も大きくなっている。そこで、画像ECU3では、統合マップT_Mapの重心Cen_B周辺の各画素の輝度値を閾値と比較し、閾値より大きい場合には認識対象物(任意の人物の顔又は特定の車種)であると判定し、閾値以下の場合には認識対象物でないと判定する。
Further, the
この画像認識装置1によれば、特徴部分(両目、鼻、口又はテールランプ、タイヤ、ナンバプレート)の位置、形や大きさに関係なく、処理負荷(処理速度)が一定となので、処理負荷が軽く、処理速度も速くなる。ちなみに、画像認識装置1では、パターンマッチングを行わないので、参照画像に対して撮像画像における対象物の特徴部分の位置、形や大きさが多少違っていても処理量は変わらない。 According to the image recognition apparatus 1, the processing load (processing speed) is constant regardless of the position, shape, and size of the characteristic parts (both eyes, nose, mouth or tail lamp, tire, number plate), so the processing load is Lighter and faster processing speed. Incidentally, since the image recognition apparatus 1 does not perform pattern matching, the amount of processing does not change even if the position, shape, and size of the characteristic part of the object in the captured image are slightly different from the reference image.
また、画像認識装置1では、参照画像に対する類似度を求めることにより撮像画像において特徴部分に類似している部分が存在しているか否かを検出でき、求めた複数の類似度評価マップMap_B_iを重心Cen_Bを基準として統合することにより撮像画像において特徴部分と類似している部分の位置が合っているか否かを検出できるので、認識精度が高い。さらに、画像認識装置1では、参照画像として用いる特徴部分の数を増加することにより、認識精度が向上する。また、画像認識装置1では、各類似度評価マップMap_B_iでノイズがでても、それらを統合することにより、ノイズを抑制できる。 Further, the image recognition apparatus 1 can detect whether or not there is a portion similar to the feature portion in the captured image by obtaining the similarity to the reference image, and the obtained plurality of similarity evaluation maps Map_B_i By integrating with Cen_B as a reference, it is possible to detect whether or not the position of the portion similar to the characteristic portion in the captured image is correct, so that the recognition accuracy is high. Furthermore, in the image recognition apparatus 1, the recognition accuracy is improved by increasing the number of feature portions used as reference images. Further, in the image recognition device 1, even if noise appears in each similarity evaluation map Map_B_i, the noise can be suppressed by integrating them.
また、画像認識装置1では、撮像画像のサイズを変換により小さくした場合、処理負荷を更に削減でき、撮像画像におけるノイズも抑制できる。さらに、画像認識装置1では、輝度値により類似度を示しているので、視覚的に類似度を判断できる。 Further, in the image recognition device 1, when the size of the captured image is reduced by conversion, the processing load can be further reduced, and noise in the captured image can be suppressed. Further, in the image recognition apparatus 1, since the similarity is indicated by the luminance value, the similarity can be visually determined.
以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。 As mentioned above, although embodiment which concerns on this invention was described, this invention is implemented in various forms, without being limited to the said embodiment.
例えば、本実施の形態では人物や自動車の認識に適用したが、これら以外の様々のものの認識に適用可能である。人物を認識する場合、特定の個人を認証する個人認証にも適用可能であり、その場合にはその認識する個人の顔を撮像した顔画像から特徴部分の参照画像を作成する。また、ある特定の人種、ある特定の年齢層、男性と女性等の様々な認識にも適用可能であり、各認識に応じて参照画像を用意する。例えば、ある特定の人種を認識する場合、その人種の平均的な顔画像から参照画像を作成する。自動車を認識する場合、小型車、中型車、大型車等の大きな枠組みでの認識にも適用可能である。この場合には、参照画像やオフセット量については各大きさの自動車の平均的な値を用いる。 For example, in the present embodiment, the present invention is applied to the recognition of a person or a car, but it can be applied to the recognition of various other things. In the case of recognizing a person, the present invention can also be applied to personal authentication for authenticating a specific individual. In this case, a reference image of a feature portion is created from a face image obtained by capturing the face of the recognized individual. Further, the present invention can be applied to various recognitions such as a specific race, a specific age group, men and women, and a reference image is prepared for each recognition. For example, when a certain race is recognized, a reference image is created from an average face image of that race. When recognizing an automobile, the present invention can be applied to recognition in a large framework such as a small car, a medium car, and a large car. In this case, average values of automobiles of various sizes are used for the reference image and the offset amount.
また、本実施の形態ではオフセット量の基準となる点を画像の重心(中心)に設定したが、画像の左上端や右下端等の画像中ならどの位置に設定してもよい。この場合、オフセット量は、設定した位置に対して求められる。ちなみに、オフセット類似度評価マップや統合マップにおける類似度が高くなるのはその設定した位置周辺となるので、閾値と比較する画素もその設定した位置周辺の画素とする必要がある。 Further, in the present embodiment, the point serving as the reference for the offset amount is set at the center of gravity (center) of the image, but may be set at any position in the image such as the upper left corner or the lower right corner of the image. In this case, the offset amount is obtained for the set position. Incidentally, since the similarity in the offset similarity evaluation map and the integrated map is high around the set position, the pixel to be compared with the threshold needs to be a pixel around the set position.
また、本実施の形態では撮像画像の解像度(サイズ)を変換する構成としたが、撮像画像における対象物と参照画像との解像度に整合がとれる場合、撮像画像の解像度を変換しない構成としてもよい。 In the present embodiment, the resolution (size) of the captured image is converted. However, when the resolution of the target object and the reference image in the captured image can be matched, the resolution of the captured image may not be converted. .
また、本実施の形態では参照画像に対する類似度を輝度値としたが、輝度値ではなく、絶対値差分総和値自体を類似度としてもよいし、あるいは、他の手法により参照画像に対する類似度を求めてもよい。 In this embodiment, the similarity to the reference image is set as the luminance value, but the absolute value difference sum value itself may be used as the similarity instead of the luminance value, or the similarity to the reference image may be determined by another method. You may ask for it.
1…画像認識装置、2…カメラ、3…画像ECU、10…参照画像データベース、11…オフセットデータベース、12…画像解像度変換部、13…画像間類似度評価部、14…統合処理部 DESCRIPTION OF SYMBOLS 1 ... Image recognition apparatus, 2 ... Camera, 3 ... Image ECU, 10 ... Reference image database, 11 ... Offset database, 12 ... Image resolution conversion part, 13 ... Inter-image similarity evaluation part, 14 ... Integration processing part
Claims (4)
認識対象物の複数の特徴部分の参照画像を保持する参照画像保持手段と、
参照画像に対応して当該参照画像の画像全体における位置と画像中の任意の点との位置関係を保持する位置関係保持手段と、
前記撮像手段で撮像した撮像画像と前記参照画像保持手段で保持している複数の参照画像とをそれぞれ比較する比較手段と、
前記位置関係保持手段で保持している位置関係に基づいて前記比較手段による複数の比較結果を前記画像中の任意の点を基準としてそれぞれ移動させ、当該移動させた複数の比較結果を統合し、当該統合結果に基づいて認識対象物か否かを判定する判定手段と
を備えることを特徴とする画像認識装置。 Imaging means;
Reference image holding means for holding reference images of a plurality of characteristic parts of the recognition object;
A positional relationship holding means for holding a positional relationship between the position of the reference image in the entire image and an arbitrary point in the image corresponding to the reference image;
A comparison unit that compares the captured image captured by the imaging unit with a plurality of reference images held by the reference image holding unit;
Based on the positional relationship held by the positional relationship holding unit, each of the plurality of comparison results by the comparison unit is moved with reference to an arbitrary point in the image, and the plurality of comparison results moved are integrated, An image recognition apparatus comprising: a determination unit that determines whether the object is a recognition object based on the integration result .
前記比較手段では、前記画像サイズ変換手段でサイズ変換した撮像画像と前記参照画像保持手段で保持している複数の参照画像とをそれぞれ比較することを特徴とする請求項1に記載する画像認識装置。 Image size conversion means for converting the size of the captured image captured by the imaging means;
The image recognition apparatus according to claim 1, wherein the comparison unit compares the captured image whose size has been converted by the image size conversion unit with a plurality of reference images held by the reference image holding unit. .
認識対象物の複数の特徴部分の参照画像及び参照画像に対応して当該参照画像の画像全体における位置と画像中の任意の点との位置関係を予め保持し、
撮像画像と前記保持している複数の参照画像とをそれぞれ比較する比較ステップと、
前記保持している位置関係に基づいて前記比較ステップによる複数の比較結果を前記画像中の任意の点を基準としてそれぞれ移動させ、当該移動させた複数の比較結果を統合し、当該統合結果に基づいて認識対象物か否かを判定する判定ステップと
を含むことを特徴とする画像認識方法。 An image recognition method for recognizing a recognition object from a captured image,
Corresponding to the reference image and the reference image of the plurality of characteristic parts of the recognition target object, the positional relationship between the position of the reference image in the entire image and an arbitrary point in the image is held in advance.
A comparison step of comparing the captured image and the plurality of held reference images respectively;
Based on the held positional relationship, the plurality of comparison results in the comparison step are moved with reference to any point in the image, the plurality of moved comparison results are integrated, and based on the integration result And a determination step of determining whether the object is a recognition object.
前記比較ステップでは、前記画像サイズ変換ステップでサイズ変換した撮像画像と前記保持している複数の参照画像とをそれぞれ比較することを特徴とする請求項3に記載する画像認識方法。
Including an image size conversion step of converting the size of the captured image;
4. The image recognition method according to claim 3, wherein in the comparison step, the captured image whose size has been converted in the image size conversion step is compared with the plurality of held reference images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004089649A JP4259365B2 (en) | 2004-03-25 | 2004-03-25 | Image recognition apparatus and image recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004089649A JP4259365B2 (en) | 2004-03-25 | 2004-03-25 | Image recognition apparatus and image recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005275915A JP2005275915A (en) | 2005-10-06 |
JP4259365B2 true JP4259365B2 (en) | 2009-04-30 |
Family
ID=35175511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004089649A Expired - Fee Related JP4259365B2 (en) | 2004-03-25 | 2004-03-25 | Image recognition apparatus and image recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4259365B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008152555A (en) * | 2006-12-18 | 2008-07-03 | Olympus Corp | Image recognition method and image recognition device |
JP4884251B2 (en) * | 2007-02-09 | 2012-02-29 | 富士フイルム株式会社 | Imaging apparatus, method, and program |
JP4895126B2 (en) * | 2007-08-31 | 2012-03-14 | アイシン・エィ・ダブリュ株式会社 | Image recognition device and navigation device |
-
2004
- 2004-03-25 JP JP2004089649A patent/JP4259365B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005275915A (en) | 2005-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4251719B2 (en) | Robust tracking system for human faces in the presence of multiple persons | |
JP6494253B2 (en) | Object detection apparatus, object detection method, image recognition apparatus, and computer program | |
US8447114B2 (en) | Method and apparatus for calculating pixel features of image data | |
JP4592744B2 (en) | Image processing method, image processing system, image processing apparatus, and computer program | |
JP4946878B2 (en) | Image identification apparatus and program | |
JP4729188B2 (en) | Gaze detection device | |
KR20140148171A (en) | Lane Detection method for Advanced Vehicle | |
JP5034623B2 (en) | Image processing method, image processing apparatus, image processing system, and computer program | |
JP2008035301A (en) | Mobile body tracing apparatus | |
JPH08287216A (en) | In-face position recognizing method | |
JP2011165170A (en) | Object detection device and program | |
CN107491714B (en) | Intelligent robot and target object identification method and device thereof | |
JP3577908B2 (en) | Face image recognition system | |
JP4390487B2 (en) | Head region extraction device | |
JP4259365B2 (en) | Image recognition apparatus and image recognition method | |
KR20140026078A (en) | Apparatus and method for extracting object | |
JP2013218605A (en) | Image recognition device, image recognition method, and program | |
JP2005284377A (en) | Marker recognition device and marker recognition method | |
US20240071104A1 (en) | Image processing device, image processing method, and recording medium | |
EP2541469A2 (en) | Image recognition device, image recognition method and image recognition program | |
US20230103555A1 (en) | Information processing apparatus, information processing method, and program | |
JP7192312B2 (en) | Image processing device | |
JP4765363B2 (en) | Occupant detection device and occupant detection method | |
JP7534973B2 (en) | Image processing device, image processing method, and program | |
JP4664805B2 (en) | Face edge detection device, face edge detection method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080916 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090120 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090202 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4259365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130220 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130220 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140220 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |