WO2004081872A1 - データ分析装置およびデータ認識装置 - Google Patents

データ分析装置およびデータ認識装置 Download PDF

Info

Publication number
WO2004081872A1
WO2004081872A1 PCT/JP2004/002526 JP2004002526W WO2004081872A1 WO 2004081872 A1 WO2004081872 A1 WO 2004081872A1 JP 2004002526 W JP2004002526 W JP 2004002526W WO 2004081872 A1 WO2004081872 A1 WO 2004081872A1
Authority
WO
WIPO (PCT)
Prior art keywords
frequency distribution
difference
arbitrary point
frequency
point
Prior art date
Application number
PCT/JP2004/002526
Other languages
English (en)
French (fr)
Inventor
Tadahiro Ohmi
Koji Kotani
Feifei Lee
Original Assignee
Tadahiro Ohmi
Koji Kotani
Feifei Lee
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tadahiro Ohmi, Koji Kotani, Feifei Lee filed Critical Tadahiro Ohmi
Priority to US10/548,760 priority Critical patent/US7436999B2/en
Publication of WO2004081872A1 publication Critical patent/WO2004081872A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/37Determination of transform parameters for the alignment of images, i.e. image registration using transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to a data analyzer for analyzing image data.
  • the present invention also relates to a data recognition device using the data analysis device, and more particularly to a data recognition device effective as an image recognition device for a face or the like.
  • Non-Patent Document 1 a face recognition method based on a very simple and highly reliable vector quantization (VQ) algorithm has been proposed (see Non-Patent Document 1 below).
  • VQ vector quantization
  • Patent Documents 1 and 2 below disclose similar data recognition devices.
  • Non-Patent Document 1 K. Kotani, C. Qiu, and T. Ohmi, "Face Recognition Using Vector Quantization Histogram Method," Proc. 2002 Int. Conf. On Image Proces sing, Vol. II of III, pp. II — 105— II— 108, 2002.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2000-101437.
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2002-203241
  • the face recognition method described above was used as a feature extraction method for individuals in which a histogram generated from the usage frequency of each code vector obtained by VQ processing of a face image was extremely effective. By applying appropriate filtering and VQ processing to face images, useful features for face recognition can be extracted. AT & T face data The experimental results showed a recognition rate of 95.6%. When using a 1.1 GHz personal computer, the processing time for one image is 194 ms.
  • the VQ histogram method is much simpler and faster than earlier face recognition methods, but at the video rate (moving images are 30 frames per second, which is 33 milliseconds per frame) This is not enough to apply to high-speed data recognition such as recognition. Disclosure of the invention
  • the data analysis device and the data recognition device according to the present invention are as follows.
  • a difference in luminance value between an arbitrary point on the image and a point near the arbitrary point in the first direction is defined as a first luminance difference of the arbitrary point, and And calculating the difference between the brightness value of a point in the second direction different from the first direction and a point in the vicinity of the arbitrary point as the second luminance difference of the arbitrary point.
  • Difference calculating means for performing a plurality of points
  • a frequency distribution generating means for generating a frequency distribution of the plurality of regions, using the number of vectors allocated to each of the plurality of regions as a frequency of the region. apparatus.
  • the frequency distribution for at least a part of the region is extracted from the frequency distribution of the plurality of regions generated by the frequency distribution generating means, and the characteristic data is extracted.
  • the image processing apparatus performs a filtering process on the image before the difference calculation unit performs the calculation on the image.
  • Data analyzer
  • a difference in luminance value between an arbitrary point on the image and a point near the arbitrary point in the first direction is defined as a first luminance difference of the arbitrary point
  • the arbitrary point is A plurality of points on the image are calculated by using the difference in brightness value between the arbitrary point and a point near the arbitrary point in a second direction different from the first direction as the second luminance difference of the arbitrary point.
  • Frequency distribution generating means for generating the frequency distribution of the plurality of regions, with the number of vectors allocated to each of the plurality of regions as the frequency of the region,
  • a data recognizing device comprising: comparing means for comparing a frequency distribution of one or more images generated by the frequency distribution generating means with a frequency distribution in the frequency distribution storage means.
  • the comparing means may include a frequency distribution relating to one or more of the images generated by the frequency distribution generating means and a frequency in the frequency distribution storing means. A frequency distribution specified by a predetermined comparison function from the frequency distributions stored in the frequency distribution storage means.
  • the frequency distribution related to one or more of the images generated by the frequency distribution generating means may include a frequency distribution of the plurality of regions generated by the frequency distribution generating means.
  • a filtering process is performed on the image before the difference calculation unit performs the calculation on the image.
  • Filter means for performing filter processing on input image data, and luminance difference dlx in the X direction of any one point on the screen with respect to the image data on which filter processing has been performed by the filter means.
  • Difference calculating means for calculating the difference with respect to a plurality of points on the screen;
  • a vector composed of a luminance difference in the X direction and a luminance difference in the y direction obtained for each of the plurality of points on the screen by the difference calculation means is assigned to one region of the plurality of regions divided by a predetermined region dividing method.
  • Frequency distribution storage means for storing information of at least one or more frequency distributions; a frequency distribution relating to the input image data generated by the frequency distribution generating means; and a frequency distribution in the frequency distribution storage means.
  • a data recognizing device comprising: comparing means for comparing and selecting a frequency distribution specified by a predetermined comparison function from each frequency distribution stored in the frequency distribution storing means.
  • the luminance difference dlx in the X direction at any one point on the screen is calculated by comparing the luminance value of the arbitrary point with the right point or the left side of the arbitrary point. Calculation of the difference between the luminance value of the arbitrary point and the luminance value of the lower point or the upper point of the arbitrary point as the difference between the luminance value of the arbitrary point and the luminance value of the lower point or the upper point of the arbitrary point.
  • the vector composed of the luminance difference in the X direction and the luminance difference in the y direction obtained for each of the plurality of points on the screen by the difference calculation means is converted into one region of a plurality of regions divided by a predetermined region dividing method.
  • Frequency distribution generating means for generating the frequency distribution of the plurality of regions, with the number of vectors allocated to each of the plurality of regions as the frequency of the region,
  • Frequency distribution storage means for storing a plurality of sets of frequency distribution information of the plurality of regions; frequency distributions relating to the input image data generated by the frequency distribution generation means; and each set in the frequency distribution storage means Of the frequency distribution of each set stored in the frequency distribution storage means, and specified by a predetermined comparison function.
  • a data recognizing device comprising: comparing means for selecting a set of frequency distributions.
  • the data is selected by the predetermined comparison function as a result of the comparison by the comparing means. If the frequency distribution is not in the frequency distribution storage means, the data recognition apparatus further comprises a frequency distribution registration means for registering the frequency distribution generated by the frequency distribution generation means in the frequency distribution storage means. .
  • a data analyzer that achieves a high processing speed and a data recognition device using the data analyzer can be obtained, and high-speed data recognition and instantaneous data recognition can be performed.
  • FIG. 1 is a flowchart showing recognition processing steps of an adjacent pixel luminance difference quantization (APIDQ) histogram method used in a data recognition device according to an embodiment of the present invention. ,is there.
  • AIDQ adjacent pixel luminance difference quantization
  • FIG. 2 is a diagram used to explain the calculation of a difference in brightness between adjacent pixels according to an embodiment of the present invention.
  • FIG. 3 is a diagram used to explain the operation of one embodiment of the present invention, and is a diagram showing a typical example of a (dlx, dly) vector distribution.
  • FIG. 4 is a diagram used to explain the operation of one embodiment of the present invention, and is a diagram showing an r-10 plane and a quantization table.
  • FIG. 5 is a diagram showing a sample of a typical face image based on the AT & T data base used in one embodiment of the present invention.
  • FIG. 6 is a diagram used to explain the operation of one embodiment of the present invention, and is a diagram showing a typical example of a histogram.
  • FIG. 7 is a diagram used to explain the effect of one embodiment of the present invention, and is a diagram showing the recognition success rate as a function of the filter size.
  • FIG. 8 is a diagram used to explain the effect of one embodiment of the present invention, and is a diagram showing recognition results obtained by using a large number of filters.
  • the present inventors have developed a new and very simple method called the Adj cent Pixel Intensity Difference Quantization (APIDQ) histogram method that enables high-speed data recognition (for example, video rate face recognition).
  • AIDQ Adj cent Pixel Intensity Difference Quantization
  • FIG. 1 shows processing steps of an adjacent pixel luminance difference quantization (AP IDQ) histogram method used in a data recognition apparatus according to an embodiment of the present invention.
  • AP IDQ adjacent pixel luminance difference quantization
  • AP IDQ adjacent pixel luminance difference quantization
  • step S1 the face image undergoes mouth-to-pass filtering (step S1), which will be described later, and an adjacent pixel luminance difference is calculated (step S2).
  • each pixel (pixel) position in the input image is represented by a two-dimensional vector (that is, a luminance difference (d Ix) from a horizontally adjacent pixel (pixel) and a vertically adjacent pixel (pixel).
  • the luminance change vector) composed of the luminance difference (dly) with the pixel) is calculated.
  • the two-dimensional vector (luminance change vector composed of dlx and dly) at each pixel position in the input image contains information on the luminance change angle ( ⁇ ) and its amount (r).
  • step S3 coordinate transformation to r-system
  • each vector is quantized with respect to its ⁇ and r values (step S4).
  • a histogram can be generated by counting the number of elements included in each quantized region on the r-plane (step S5). This histogram obtained by AP I DQ for the face image is used as a very effective personal feature.
  • the Neighbor Pixel Intensity Difference Quantization (AP IDQ) histogram method shown in Figure 1 is very similar to the VQ histogram method except for the feature extraction procedure.
  • the former (VQ histogram) method uses VQ processing for that purpose.
  • the VQ histogram method uses a very basic codebook composed of 33 regular code vectors, and applied VQ processing to the luminance change image block from which the DC component was removed. These are the essence of the VQ histogram method, but the process is simply to detect and quantize the direction and amount of luminance change in the block.
  • AP IDQ can perform the same processing more easily.
  • the luminance difference (dlx) between the horizontally adjacent pixel and the luminance difference between the vertically adjacent pixel (dly) is first calculated using the following simple subtraction operation.
  • dlx (i, j) I (i + l, j) -I (i, j)
  • the calculated dlx, dly pair represents a single vector (luminance change vector) starting at (0,0) in the dlx-dly plane.
  • the end point of the luminance change vector is distributed on the dlx-dly plane as shown in Fig.3.
  • the distribution (density and shape) of the end point of the luminance change vector represents the characteristics of the input face image.
  • each luminance change vector is quantized in the r-10 plane.
  • Quantization table An example of a bull is shown below Figure 4. Numbers 0 to 49 in the quantization table represent index numbers of the 0th to 49th quantization regions, respectively.
  • 0 of the luminance change vector shown in the upper part of FIG. 4 is in the region between 3 pit / 8 and pit / 8
  • r of the luminance change vector is the third region from the inside (FIG. 4).
  • r corresponds to the region between 2 and 4). Therefore, the luminance change vector shown in the upper part of FIG. 4 is quantized as a quantization region with an index of 10 based on the quantization table in the lower part of FIG.
  • the number of vectors quantized in each quantization area is counted.
  • the number of counts is displayed as a bar as the frequency of a histogram (shown later in FIG. 6) generated as an index 0 to 49 of the quantization area on the horizontal axis.
  • the vector shown in the upper part of FIG. 4 constitutes one frequency of the index 10 in the histogram.
  • This histogram becomes the feature vector of the human face.
  • this histogram is stored in the database 10 as personal identification information.
  • a histogram is created from the unknown input face image and compared with the registered personal histogram, and the best match is output as the recognition result of the data 'base matching S8.
  • the Manhattan distance (MD) between the histograms is used as an example of the degree of matching.
  • step S1 of FIG. 1 note that before APIDQ, mouth-to-mouth filtering is performed first, using a simple two-dimensional moving average filter. This low-pass filtering is essential for reducing the high frequency noise and extracting the most effective low frequency components for recognition. Since the recognition algorithm is very simple and the developed facial feature extraction method is completely different from the conventional recognition method, it can be used not only by itself but also at the minimum additional cost and with increased recognition accuracy. It is easy to combine with the conventional method and very effective. Next, results of a face recognition experiment using the present invention will be described.
  • a publicly available AT & T face data base was used for recognition experiments.
  • Each image has a resolution of 92X112.
  • Figure 6 shows a typical example of a histogram.
  • the other person's histogram is clearly different.
  • the histograms of different images of the same person are often similar, with minor differences in detail. It can be said that the histogram obtained by AP I DQ is a very effective individual feature for identifying a person.
  • Figure 7 shows the recognition results.
  • the recognition rate is shown as a function of the filter size.
  • the filter size indicates the size of the averaging filter core.
  • the size of F 3 represents, for example, the size of a 3 ⁇ 3 filter core.
  • the recognition rate is almost constant for the filter sizes F3 to F19, giving the highest average recognition rate of 95.7%. This is almost the same as the VQ histogram method (95.6%) under the same conditions.
  • Detailed facial features that reduce cognitive performance are excluded by applying a low-pass fill.
  • the AP IDQ process can effectively exclude the dc component of pixel luminance that changes depending on the lighting conditions. By combining these two effects, the most important information for face recognition can be effectively extracted.
  • mouth-to-pass' filtering is very effective in extracting facial features using AP ID Q. It can be expected that different features can be extracted by using different sizes of filters. Therefore, stronger personal feature information can be obtained by combining multiple recognition results using multiple fill sizes.
  • FIG. 8 shows the recognition results obtained by using multiple filters.
  • F3, F5, F17, and F23 represent the fill sizes of 3X3, 5X5, 17X17, and 23X23, respectively.
  • the recognition algorithm was programmed using ANS I C and executed on a PC (AM D A t ro ron 1.1 GHz). Quantization in r-coordinates is performed via simple conditional branches ("if" statements). Processing time for one image in AT & T data base is 37 ms (15 ms for low-pass fill ring, 7 ms for API DQ processing, and data base matching For 15 ms). Compared to the VQ processing time of the VQ histogram method, the processing time of facial feature extraction performed by API DQ was reduced from 164 ms (VQ) to 7 ms (AP IDQ). A significant reduction in processing time has been achieved.
  • TLU table lookup
  • the present invention was able to provide a very fast and highly reliable face recognition method called the API DQ histogram method.
  • the face recognition method uses appropriate filtering, quantization of the direction and amount of brightness change, and histogram generation and analysis. based on. Significant face recognition performance, with a recognition rate of 95.7%, was confirmed by using the publicly available AT & T face database.
  • the total recognition processing time is only 31 ms, enabling face recognition at video rates.
  • the data recognition device includes the following data analyzer 100.
  • a difference in luminance value between an arbitrary point on the image and a point near the arbitrary point in the first direction is defined as a first luminance difference (dlx) of the arbitrary point
  • a difference between a luminance value of one point and a point near the arbitrary one point in a second direction different from the first direction (for example, orthogonal to the first direction) is defined as a second value of the arbitrary one point.
  • a vector (luminance change vector) composed of a first luminance difference and a second luminance difference obtained for each of the plurality of points on the image by the difference calculating means is divided by a predetermined area dividing method. Is assigned to one area of a plurality of areas (areas represented by indices 0 to 49 of the quantization table in FIG. 4), and the number of vectors assigned to each area of the plurality of areas is defined as a frequency of the area. Frequency distribution generating means (S3 to S5 in FIG. 1) for generating the frequency distribution of the plurality of regions.
  • the predetermined area dividing method is not limited to the method used in the above embodiment, in which the luminance change vector is assigned to one area of a plurality of areas on the r-10 plane by coordinate conversion to the Sr system.
  • another area division method may be used as the predetermined area division method.
  • the difference calculating means calculates the luminance difference dlx of an arbitrary point on the screen in the X direction with respect to the image data and the luminance value of the arbitrary point and the luminance of the right point (or left point) of the arbitrary point. And calculating the difference between the luminance value dly of the arbitrary point in the y direction and the luminance value of the lower point (or upper point) of the arbitrary point. It may be performed for a plurality of points on the screen. Note that, in the data analyzer 100, the frequency distribution for at least a part of the region may be extracted from the frequency distribution of the plurality of regions generated by the frequency distribution generating unit to generate feature data. good.
  • the data recognition device can be considered to include the following means in addition to the data analysis device 100 described above.
  • Frequency distribution storage means (data base 10 in FIG. 1) for storing information of one or more frequency distributions for at least one or more images;
  • a comparison unit (S8 in FIG. 1) for comparing the frequency distribution of one or more of the images generated by the frequency distribution generation unit with the frequency distribution in the frequency distribution storage unit is provided.
  • the comparing means compares a frequency distribution of the one or more images generated by the frequency distribution generating means with a frequency distribution in the frequency distribution storing means, and stores the frequency distribution in the frequency distribution storing means.
  • the frequency distribution specified by the predetermined comparison function is selected from the respective frequency distributions.
  • the frequency distribution for one or more of the images generated by the frequency distribution generating means is obtained by calculating the frequency distribution for a partial area from the frequency distribution of the plurality of areas generated by the frequency distribution generating means.
  • the distribution may be extracted.
  • the data recognition device uses the frequency distribution generation means.
  • a frequency distribution registration means (S6 in FIG. 1) for registering the generated frequency distribution in the frequency distribution storage means may be provided.
  • the data recognition device further includes a filter means (S 1 in FIG. 1) for performing a filtering process on the input image data, and the difference calculation means performs the filtering process by the filtering means.
  • the difference may be calculated for the image data obtained.
  • This filter means (S 1 in FIG. 1) is not limited to the low-pass filter used in the above embodiment, and another filter may be used as the filter means. Instead, a plurality of filtering means for performing a plurality of filtering processes on the input image data is provided, and the difference calculating means calculates the difference between the image data filtered by the plurality of filtering means. You may make it calculate.
  • the data recognition device includes a plurality of sets of information on the frequency distribution of the plurality of regions, a frequency distribution storage unit, a frequency distribution related to the input image data generated by the frequency distribution generating unit, and the frequency
  • the frequency distribution of each set in the distribution storage means is compared, and a set of frequency distributions specified by a predetermined comparison function is determined from the frequency distributions of each set stored in the frequency distribution storage means.
  • a comparing means for selecting is not limited to the application to face recognition described in the above embodiment, but may be applied to high-speed data recognition of general images and other large amounts of data. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

データ分析装置100は、画像に対して、画像上の任意の一点と第一の方向における前記任意の一点の近傍の点との輝度値の差分を前記任意の一点の第一の輝度差分とし、前記任意の一点と第二の方向における前記任意の一点の近傍の点との輝度値の差分を前記任意の一点の第二の輝度差分とする計算を、前記画像上の複数点について行う差分計算手段(S2)と、上記差分計算手段により前記画像上の複数点の各々について得られた第一の輝度差分と第二の輝度差分で構成されるベクトルを所定の領域分割方法により分割された複数領域(図4の量子化テーブルの指数0~49にて表わされる領域)の一領域に量子化し、前記複数領域の各領域に量子化されたベクトル数をその領域の頻度として、前記複数領域の頻度分布を生成する頻度分布生成手段(S3~S5)とを備える。

Description

明 細 書 デ一夕分析装置およびデ一タ認識装置 技術分野
本発明は、 画像データを分析するデータ分析装置に関する。 本発明は、 また、 そ のデータ分析装置を用いたデ一夕認識装置に関し、特に、顔などの画像認識装置と して有効なデー夕認識装置に関する。 背景技術
最近、 顔、 音声、 指紋、 虹彩パターンなどのような、 個人の生物測定学的な特徴 を利用する個人の識別/認証システムが注目を集めている。 それらの中で、 顔認識 は、 それが、 人間が行うのと同じであり、 特別の設備を使用する必要がないので、 人を識別する最も自然で最も有効である方法であると考えられる。顔認識では、個 人の顔の特徴抽出が、 より効果的なシステムの作成の鍵である。多くの特徴抽出技 術が提案されたが、 これらの技術はかなり複雑であり、 リアルタイムの顔認識へそ れらを適用することは困難である。
最近、 非常に簡便で、 高度に信頼できる ベクトル量子化 (VQ) アルゴリズム に基づいた顔認識方法が提案された (下記の非特許文献 1参照)。
下記の特許文献 1及び特許文献 2にも同様のデータ認識装置が開示されている。 非特許文献 1 : K. Kotani, C. Qiu, and T.Ohmi, "Face Recognition Using Ve ctor Quantization Histogram Method, " Proc.2002 Int. Conf. on Image Proces sing, Vol. II of III, pp. II— 105— II— 108, 2002.
特許文献 1 : 特開 2000— 101437号公報。
特許文献 2 : 特開 2002—203241号公報
前記の顔認識方法は、顔画像の VQ処理によって得られたコードべクトル毎の使 用頻度から生成されたヒストグラムが非常に有効な個人の特徴抽出手法として利 用された。 顔画像に適切なフィルタ処理および V Q処理を適用することによって、 顔認識に有用な特徴を抽出することができる。 AT&Tの顔のデータ ·ベースでテ ストした実験結果は、 9 5 . 6 %の認識率を示した。 1 . 1 GH zのパーソナルコ ンピュー夕を使用したとき、一つの画像のための処理時間は、 1 9 4ミリ秒である。 V Qヒストグラム法はそれ以前の顔認識方法よりはるかに簡便でより速いが、それ はビデオレート (動画像は一秒間に 3 0フレームであり、 ビデオレートとは 1フレ ーム分の 3 3ミリ秒程度の画像認識速度をいう。) 認識などの高速データ認識への 適用に十分ではない。 発明の開示
それ故、本発明の目的は、高い処理速度を達成するデータ分析装置及びそのデー 夕分析装置を用いたデータ認識装置を提供し、高速デ一夕認識を可能とすることに ある。
本発明によるデータ分析装置及びデータ認識装置は、 以下のとおりである。
( 1 ) 画像に対して、 画像上の任意の一点と第一の方向における前記任意の 一点の近傍の点との輝度値の差分を前記任意の一点の第一の輝度差分とし、前記任 意の一点と、前記第一の方向とは異なる第二の方向における前記任意の一点の近傍 の点との輝度値の差分を前記任意の一点の第二の輝度差分とする計算を、前記画像 上の複数点について行う差分計算手段と、
上記差分計算手段により前記画像上の複数点の各々について得られた第一の輝 度差分と第二の輝度差分で構成されるべクトルを所定の領域分割方法により分割 された複数領域の一領域に割り当て、前記複数領域の各領域に割当てられたべクト ル数をその領域の頻度として、前記複数領域の頻度分布を生成する頻度分布生成手 段とを備えたことを特徴とするデ一夕分析装置。
( 2 ) 上記 (1 ) 項に記載のデータ分析装置において、 前記頻度分布生成手 段により生成される前記複数領域の頻度分布から、少なくとも一部分の領域に対す る頻度分布を抽出して特徴データを生成することを特徴とするデータ分析装置。
( 3 ) 上記 (1 ) 又は (2 ) 項に記載のデータ分析装置において、 前記差分 計算手段が前記画像に対して前記計算を行う前に、前記画像に対してフィルタ処理 を施すことを特徴とするデータ分析装置。
( 4) 少なくとも一つ以上の画像に対する一つ以上の頻度分布の情報を記憶 する頻度分布記憶手段と、
画像に対して、画像上の任意の一点と第一の方向における前記任意の一点の近傍 の点との輝度値の差分を前記任意の一点の第一の輝度差分とし、前記任意の一点と、 前記第一の方向とは異なる第二の方向における前記任意の一点の近傍の点との輝 度値の差分を前記任意の一点の第二の輝度差分とする計算を、前記画像上の複数点 について行う差分計算手段と、
上記差分計算手段により前記画像上の複数点の各々について得られた第一の輝 度差分と第二の輝度差分で構成されるべクトルを所定の領域分割方法により分割 された複数領域の一領域に割り当て、前記複数領域の各領域に割当てられたべク卜 ル数をその領域の頻度として、前記複数領域の頻度分布を生成する頻度分布生成手 段と、
前記頻度分布生成手段により生成された一つ以上の前記画像に関する頻度分布 と上記頻度分布記憶手段内の頻度分布とを比較する比較手段とを備えたことを特 徵とするデータ認識装置。
( 5 ) 上記 (4 ) 項に記載のデータ認識装置において、 上記比較手段は、 上 記頻度分布生成手段により生成された一つ以上の前記画像に関する頻度分布と上 記頻度分布記憶手段内の頻度分布とを比較し、上記頻度分布記憶手段に記憶されて いる各頻度分布の中から、所定の比較関数によって特定される頻度分布を選び出す ものであることを特徴とするデ一夕認識装置。
( 6 ) 上記 (5 ) 項に記載のデータ認識装置において、 上記頻度分布生成手 段により生成された一つ以上の前記画像に関する頻度分布は、該頻度分布生成手段 により生成される前記複数領域の頻度分布から、一部分の領域に対する頻度分布を 抽出したものであることを特徴とするデータ認識装置。
( 7 ) 上記 (4 ) 〜 (6 ) 項のいずれかに記載のデータ認識装置において、 前記差分計算手段が前記画像に対して前記計算を行う前に、前記画像に対してフィ ル夕処理を施すことを特徴とするデータ認識装置。
( 8 ) 入力される画像データに対してフィルタ処理を施すフィルタ手段と、 上記フィル夕手段によりフィル夕処理の施された画像データに対して、画面上の 任意の一点の X方向の輝度差分 dlxを前記任意の一点の輝度値と前記任意の一点の 右側点又は左側点の輝度値との差とし、前記任意の一点の y方向の輝度差分 d lyを 前記任意の一点の輝度値と前記任意の一点の下側点又は上側点の輝度値との差と する計算を、 前記画面上の複数点について行う差分計算手段と、
上記差分計算手段により前記画面上の複数点の各々について得られた X方向の 輝度差分と y方向の輝度差分で構成されるベクトルを所定の領域分割方法により 分割された複数領域の一領域に割り当て、前記複数領域の各領域に割当てられたべ クトル数をその領域の頻度として、前記複数領域の頻度分布を生成する頻度分布生 成手段と、
少なくとも 1つ以上の頻度分布の情報を記憶する頻度分布記憶手段と、 上記頻度分布生成手段により生成された上記入力される画像データに関する頻 度分布と上記頻度分布記憶手段内の各頻度分布とを比較し、上記頻度分布記憶手段 に記憶されている各頻度分布の中から、所定の比較関数によって特定される頻度分 布を選び出す比較手段とを備えたことを特徴とするデータ認識装置。
( 9 ) 入力される画像データに対して複数フィル夕処理を施す複数フィルタ 手段と、
上記複数フィル夕手段によりフィルタ処理の施された画像データに対して、画面 上の任意の一点の X方向の輝度差分 dlxを前記任意の一点の輝度値と前記任意の一 点の右側点又は左側点の輝度値との差とし、前記任意の一点の y方向の輝度差分 dl y を前記任意の一点の輝度値と前記任意の一点の下側点又は上側点の輝度値との 差とする計算を、 前記画面上の複数点について行う差分計算手段と、
上記差分計算手段により前記画面上の複数点の各々について得られた X方向の 輝度差分と y方向の輝度差分で構成されるべクトルを所定の領域分割方法により 分割された複数領域の一領域に割り当て、前記複数領域の各領域に割り当てられた べクトル数をその領域の頻度として、前記複数領域の頻度分布を生成する頻度分布 生成手段と、
前記複数領域の頻度分布の情報を、 複数組、 記憶する頻度分布記憶手段と、 上記頻度分布生成手段により生成された上記入力される画像データに関する頻 度分布と上記頻度分布記憶手段内の各組の頻度分布とを比較し、上記頻度分布記憶 手段に記憶されている各組の頻度分布の中から、所定の比較関数によって特定され る 1組の頻度分布を選び出す比較手段とを備えたことを特徴とするデ一タ認識装 置。
( 1 0 ) 上記 (5 )、 (6 )、 (8 )、 及び (9 ) 項のいずれかに記載のデータ 認識装置において、上記比較手段による比較の結果、上記所定の比較関数によって 選び出される頻度分布が上記頻度分布記憶手段内にない場合、上記頻度分布生成手 段により生成された頻度分布を上記頻度分布記憶手段に登録する頻度分布登録手 段を備えたことを特徴とするデータ認識装置。
本発明に従えば、高い処理速度を達成するデータ分析装置及びそのデータ分析装 置を用いたデータ認識装置を得られ、高速デ一夕認識や瞬時のデー夕認識が可能と なる。 図面の簡単な説明
図 1は、本発明の一実施例によるデータ認識装置で用いる隣接ピクセル輝度差分 量子化(A P I D Q)ヒストグラム法の認識処理ステップを示したフローチャート 。、ある。
図 2は、本発明の一実施例による隣接ピクセル輝度差分計算の説明に使用する図 である。
図 3は、 本発明の一実施例の動作の説明に使用する図であり、 (dlx, dly)べクト ル分布の典型的な例を示した図である。
図 4は、本発明の一実施例の動作の説明に使用する図であり、 r一 0平面及び量 子化テーブルを示した図である。
図 5は、 本発明の一実施例で使用する、 A T &Tのデータ 'ベースの典型的な顔 画像のサンプルを示した図である。
図 6は、本発明の一実施例の動作の説明に使用する図であり、 ヒストグラムの典 型的な例を示した図である。
図 7は、 本発明の一実施例の効果の説明に使用する図であり、 認識成功率 (Reco gni t ion success rate)をフィル夕 ·サイズの関数として示した図である。
図 8は、本発明の一実施例の効果の説明に使用する図であり、多数のフィル夕の 使用によつて得られた認識結果を示した図である。 発明を実施するための最良の形態
次に本発明の実施例について図面を参照して説明する。
本発明者等は、 高速データ認識 (例えばビデオレート顔認識) を可能とする、 隣 接ピクセル輝度差分量子化(AP I DQ:Adj cent Pixcel Intensity Difference Quantization)ヒストグラム法と呼ばれる新規で非常に簡便で効果的な高速データ 認識方法を開発した。
図 1は、本発明の一実施例によるデ一夕認識装置で用いる隣接ピクセル輝度差分 量子化(AP I DQ)ヒストグラム法の処理ステップを示している。
まず、 図 1を参照して本発明の一実施例で用いる隣接ピクセル輝度差分量子化 (AP I DQ)ヒストグラム法を概略的に説明する。
図 1において、 顔画像は、 後述する口一パスフィルタリング (ステップ S 1) を 受け、 隣接ピクセル輝度差分が計算される (ステップ S 2)。
このステップ S 2において、 入力画像中の各ピクセル (画素)位置では、 2次元 べクトル (すなわち、 水平方向において隣接したピクセル (画素) との輝度差分 (d Ix)および垂直方向において隣接したピクセル(画素) との輝度差分 (dly)から構成 された輝度変化べクトル)が計算される。入力画像中の各ピクセル位置の 2次元べ クトル(dlxおよび dlyから構成された輝度変化べクトル) は、輝度変化角度 (Θ) およびその量 (r) に関する情報を含んでいる。
画像中のすべてのピクセルに対して計算された輝度変化べクトルは、 r一 0平面 にプロットされる (ステップ S 3 — r系への座標変換))。
その後、 各べクトルは、 その Θ値および r値に関して量子化される (ステップ S 4)。 r一 Θ平面において各量子化された領域に含まれる要素の数を数えることに よって、 ヒストグラムを生成することができる (ステップ S 5)。 顔画像に対して AP I DQによって得られたこのヒストグラムは、非常に有効な個人の特徴として 利用される。
顔画像の前処理として適切な口一パスフィル夕と AP I DQを組み合わせるこ とによって、 顔認識のための有用な特徴を抽出することができる。
実験の結果は、 公に利用可能な AT&T (American Telephone and Telegraph Company) 顔デ一夕 ·ベースから、 40人の 400の画像( 1人当たり 10の画像) に対して 95. 7%の認識率を示す。量子化ステップでテーブル参照(TLU)法を 利用することによって、 トータルの認識処理時間は、 わずかに 31ミリ秒であり、 ビデオレ一トでの顔認識を可能にする。
次に、図 1の隣接ピクセル輝度差分量子化(A P I D Q)ヒストグラム法の各ステ ップについて詳細に説明する。
図 1に示した隣接ピクセル輝度差分量子化(AP I DQ)ヒストグラム法は、特徴 抽出手続きを除いて VQヒストグラム法に非常に似ている。前者(VQヒストグラ ム)方法は、 そのための VQ処理を利用する。 VQヒストグラム法は、 33の規則 的なコードべクトルから構成された非常に基礎的なコードブックを使用しており、 直流成分を除去した輝度変化画像プロックに VQ処理を適用した。これらは VQヒ ストグラム法の本質であるが、処理は単に、 ブロックにおける輝度変化の方向およ び量を検出し量子化するだけである。 AP IDQは、 同様の処理をより簡便に行う ことができる。
図 1のステップ S 2について:
図 2に示されたように、 AP IDQにおいては、入力の顔画像の各ピクセルに対 して、 水平方向に隣接したピクセルとの輝度差分 (dlx)および垂直方向に隣接した ピクセルとの輝度差分 (dly)が、 次の簡便な減算演算を用いて最初に計算される。 dlx(i、 j)=I(i+l, j)-I(i, j)
dly(i、 j)=I(i, j + l)-I(i, j)
図 1のステップ S 3について:
計算された dlx,dlyのペアは、 dlx-dly平面において(0,0)を始点とする単一の べクトル (輝度変化べクトル) を表わす。入力画像中のピクセルをすベて処理した 後に、輝度変化べクトルの終点は、 図 3に示されるような dlx-dly平面に分布され る。輝度変化べクトルの終点の分布 (密度と形)は、 入力顔画像の特徴を表わす。直 交座標から極座標に座標系を変換することによって、当該べクトルの角度 Θおよび 距離 rは輝度変化の方向および量をそれぞれ表わす。
図 1のステップ S 4について:
それから、各輝度変化べクトルは r一 0平面において量子化される。量子化テー ブルの一例は図 4の下方に示されている。量子化テーブル中の数 0〜4 9は、第 0 乃至第 4 9の量子化領域の指数 (index numbers) をそれぞれ表わす。
例えば、図 4の上方に示された輝度変化ベクトルの 0は、 3兀/ 8と兀/ 8との 間の領域にあり、その輝度変化ベクトルの rは内側から 3番目の領域(図 4の下方 の量子ィ匕テーブルでは rが 2と 4との間の領域に対応する) にある。従って、 この 図 4の上方に示された輝度変化べクトルは、図 4の下方の量子化テーブルに基づい て、 指数 1 0の量子化領域として量子化される。
図 1のステップ S 5について:
各量子化領域に量子化されたベクトルの数は、 カウントされる。 カウント数は、 横軸を量子化領域の指数 0〜4 9として生成されるヒストグラム(後に図 6として 図示) の頻度として棒状に表示される。 例えば、 図 4の上方に図示のべクトルは、 ヒストグラムにおける指数 1 0の 1頻度を構成することになる。このヒストグラム は人間の顔の特徴べクトルになる。
図 1のステップ S 6について:
登録ステツプ S 6では、 このヒストグラムが個人の識別情報としてデータ'ベー ス 1 0に保存される。
図 1のステップ S 7及び S 8について:
認識ステップ S 7では..未知の入力顔画像からヒストグラムが作られ、登録され た個人ヒストグラムに比較され、最も良くマッチしたものがデータ 'ベースマッチ ング S 8の認識結果として出力される。ヒストグラム間のマンハッタン距離(MD) がマツチングの度合いを示すものの一例として使用される。
図 1のステップ S 1に戻って、 A P I D Qの前に、 口一パスフィルタリングが、 簡便な 2次元移動平均フィル夕 (moving average f i l ter) を使用して、 まず行わ れることに注意する。 このローパスフィルタリングは、高周波ノイズの減少および 認識のための最も有効な低周波コンポ一ネントの抽出にとつて不可欠である。 認識アルゴリズムが非常に簡便で、開発された顔の特徴抽出方法が、従来の認識 方法とは全く異なるので、 単独で用いるだけでなく、 最小の追加コストで、 認識精 度を増加させる形で、従来方法と組み合わせることが容易であり、 また、 非常に有 効である。 次に、 本発明を用いた顔認識実験の結果について説明する。
公に利用可能な AT&T顔データ ·ベースを認識実験のために使用した。各人が、 顔の角度、 顔の表情、 および照明条件で変化を持たせた、 10の顔画像を持った 4 0人の合計 400の画像が、 データ ·ベースに含まれてる。 各画像は、 92X 1 1 2の解像度を持っている。 図 5は、 AT&Tのデータ 'ベースの典型的な画像のサ ンプルを示している。各人の 10の画像から、 5つの画像が評価入力画像として選 択され、 残りの 5つは、 データべ一ス登録画像として登録された。 認識実験は、 口 一テーシヨン法を使用して、 252 (=10C5) 回の評価入力画像—データベース 登録画像の組合せに対して、 実行された。
次に、 本発明による認識パフォーマンスについて説明する。
図 6は、 ヒストグラムの典型的な例を示す。別人のヒストグラムは明らかに異な る。 しかしながら、 同一人物の異なる画像のヒストグラムは、 詳細には小さな違い があるが、多くの場合類似している。 AP I DQによって得られたヒストグラムが 人を識別するための非常に有効な個人の特徴であると言える。
認識結果を図 7に示す。 図 7において、 認識率はフィルタ ·サイズの関数として 示されている。 フィル夕 ·サイズは、 平均値フィルタのコア(averaging filter c ore)のサイズを表わす。 F 3のサイズは、 例えば、 3 X 3フィルタコアのサイズを 表わす。 "Max"、 "M i n"、 および " Ave" は、 252 (=10C5) 回の評価 入力画像一データベース登録画像の組合せに対する最良の場合の結果、最悪の場合 の結果、 および平均結果を、 それぞれ表わす。 認識率は、 F 3から F 19までのフ ィルタ ·サイズに対しては、 ほとんど一定であり、 95. 7%という最も高い平均 認識率が得られる。 これは、 同じ条件下での VQヒストグラム法 (95. 6%) の 場合とほとんど同じである。 認識パフォーマンスを下げる、 例えば、 しわ、 局部的 なヘアスタイル、 画像取得条件、 および時間経過による、 詳細な顔の特徴は、 ロー パスフィル夕の適用によって、 除外される。顔の大まかな形状のような、 重要な各 人の顔の特徴だけが抽出される。更に、 AP IDQ処理は、 照明条件によって変化 するピクセル輝度の d c成分を効果的に除外することができる。これらの 2つの効 果の組合せによって、顔認識のために最も重要な情報を効果的に抽出することがで さる。 上述したように、 AP ID Qを使用した顔の特徴抽出に、 口一パス'フィルタリ ングは非常に有効である。異なるサイズのフィル夕の使用により異なる特徴を抽出 することができることを期待することができる。 したがって、 より強力な個人の特 徴情報は、多数のフィル夕 ·サイズを使用した多数の認識結果を組み合わせること により得ることができる。実際上、 異なるサイズのフィル夕での認識結果(類似性 スコア)は最初に別々に得られ、次に、平均(averaging)により組み合わせられた。 図 8は、 多数の (multiple)フィル夕の使用により得られた認識結果を示している。 ここで、 F 3、 F 5、 F 17、 および F23が、 3X3、 5X 5、 17 X 17、 お よび 23 X 23のフィル夕 ·サイズをそれぞれ表わしている。多数のフィルタの使 用によって、 認識率は、 2%増加し、 約 98 %の平均認識率となる。
次に、 本発明における認識スピードについて説明する。
認識アルゴリズムは、 ANS I Cを使用してプログラムされ、 かつ、 PC (AM D A t h r o n 1. 1 GHz)上で実行された。 r一 Θ座標における量子化は、 簡単な条件付き分岐 (" i f " ステートメント) を介して実施される。 AT&Tデ 一夕 ·ベース中の一つの画像に対する処理時間は、 37ミリ秒 (ローパス ·フィル 夕リングのために 15ミリ秒、 AP I DQ処理のために 7ミリ秒、 およびデ一夕 · ベースマッチングのために 15ミリ秒)であった。 VQヒストグラム法の VQ処理 時間と比較して、 AP I DQによって行われた顔の特徴抽出の処理時間は 164 ミリ秒 (VQ) から 7ミリ秒 (AP I DQ) に減らされた。 処理時間の大幅な短縮 が達成された。 更に、 量子化に使用された簡単な条件付き分岐 (" i f" ステート メン卜) が、 計算速度にはそれほど有効でないので、 " i f " ステートメントの代 りに、 テーブル参照 (TLU) 法を使用することを試みた。 TLUが r一 ドメイ ンに適用される場合、 A P I DQ処理時間は、 7ミリ秒から 5ミリ秒に減じられた。 更に、 TLUは直接 dlx- dly ドメインに適用され得る。 その場合、 AP I DQは、 1ミリ秒以内になされ得て、 トータル認識時間は 31ミリ秒になる。顔検出処理ス テツプは含まれないが、 ビデオレートでの顔認識が可能になる。
以上説明したように、本発明は、 AP I DQヒストグラム法と呼ばれる非常に速 く高信頼性の顔認識方法を提供することができた。その顔認識方法は、適切なフィ ル夕リング、輝度変化方向および量の量子化、およびヒストグラム生成および分析 に基づく。 9 5 . 7 %の認識率という大きな優れた顔認識パフォ一マンスが、 公に 利用可能な AT &T顔データ ·ベースの使用により確認された。
dlx-dlyドメインにテーブル参照 (T L U) 法を直接利用することによって、 ト 一タルの認識処理時間は、わずか 3 1ミリ秒であり、 ビデオレートでの顔認識を可 能にする。
図 1をまとめると、本発明の一実施例によるデータ認識装置は、以下のデータ分 析装置 1 0 0を備えたものと考えることができる。
すなわち、 データ分析装置 1 0 0は、
画像に対して、画像上の任意の一点と第一の方向における前記任意の一点の近傍 の点との輝度値の差分を前記任意の一点の第一の輝度差分(dlx)とし、前記任意の 一点と、 前記第一の方向とは異なる (例えば、 前記第一の方向に直交する) 第二の 方向における前記任意の一点の近傍の点との輝度値の差分を前記任意の一点の第 二の輝度差分 (dly)とする計算を、 前記画像上の複数点について行う差分計算手段 (図 1の S 2 ) と、
上記差分計算手段により前記画像上の複数点の各々について得られた第一の輝 度差分と第二の輝度差分で構成されるべクトル(輝度変化べクトル) を所定の領域 分割方法により分割された複数領域(図 4の量子化テーブルの指数 0〜 4 9にて表 わされる領域)の一領域に割り当て、前記複数領域の各領域に割り当てられたべク トル数をその領域の頻度として、前記複数領域の頻度分布を生成する頻度分布生成 手段 (図 1の S 3〜S 5 ) とを備えている。
ここで、所定の領域分割方法は、 上記実施例で用いた、 輝度変化ベクトルを S— r 系への座標変換により r一 0平面の複数領域の一領域に割り当てる方法に限定 されるものではなく、この所定の領域分割方法として他の領域分割方法を用いても 良い。
また、 上記差分計算手段は、画像データに対して、 画面上の任意の一点の X方向 の輝度差分 dlx を前記任意の一点の輝度値と前記任意の一点の右側点 (又は左側 点) の輝度値との差とし、前記任意の一点の y方向の輝度差分 dlyを前記任意の一 点の輝度値と前記任意の一点の下側点(又は上側点)の輝度値との差とする計算を、 前記画面上の複数点について行うものであって良い。 なお、 このデータ分析装置 1 0 0において、前記頻度分布生成手段により生成さ れる前記複数領域の頻度分布から、少なくとも一部分の領域に対する頻度分布を抽 出して特徴デ一タを生成するようにしても良い。
本発明の一実施例によるデータ認識装置は、上記データ分析装置 1 0 0に加えて、 以下の手段を備えているものと考えることができる。
すなわち、 デ一夕認識装置は、
少なくとも一つ以上の画像に対する一つ以上の頻度分布の情報を記憶する頻度 分布記憶手段 (図 1のデータ ·ベース 1 0 ) と、
前記頻度分布生成手段により生成された一つ以上の前記画像に関する頻度分布 と上記頻度分布記憶手段内の頻度分布とを比較する比較手段(図 1の S 8 ) とを備 えている。
好ましくは、上記比較手段は、上記頻度分布生成手段により生成された一つ以上 の前記画像に関する頻度分布と上記頻度分布記憶手段内の頻度分布とを比較し、上 記頻度分布記憶手段に記憶されている各頻度分布の中から、所定の比較関数によつ て特定される頻度分布を選び出すものである。
なお、 このデータ認識装置において、上記頻度分布生成手段により生成された一 つ以上の前記画像に関する頻度分布は、該頻度分布生成手段により生成される前記 複数領域の頻度分布から、一部分の領域に対する頻度分布を抽出したものであって も良い。
なお、 データ認識装置は、 上記比較手段 (図 1の S 8 ) による比較の結果、 上記 所定の比較関数によって選び出される頻度分布が上記頻度分布記憶手段内にない 場合、上記頻度分布生成手段により生成された頻度分布を上記頻度分布記憶手段に 登録する頻度分布登録手段 (図 1の S 6 ) を備え手も良い。
また、データ認識装置は、入力される画像データに対してフィルタ処理を施すフ ィルタ手段 (図 1の S 1 ) を、 更に備え、 前記差分計算手段は、 このフィル夕手段 によりフィルタ処理の施された画像デ一タに対して、差分計算するようにしても良 い。
このフィルタ手段(図 1の S 1 ) は、 上記実施例で用いたローパスフィルタに限 定されるものではなく、 このフィル夕手段として他のフィルタを用いても良い。 代りに、入力される画像デ一夕に対して複数フィル夕処理を施す複数フィルタ手 段を設け、この複数フィルタ手段によりフィルタ処理の施された画像データに対し て、 前記差分計算手段が、 差分計算するようにしても良い。
この場合、 データ認識装置は、 前記複数領域の頻度分布の情報を、 複数組、 記憶 する頻度分布記憶手段と、上記頻度分布生成手段により生成された上記入力される 画像データに関する頻度分布と上記頻度分布記憶手段内の各組の頻度分布とを比 較し、上記頻度分布記憶手段に記憶されている各組の頻度分布の中から、所定の比 較関数によって特定される 1組の頻度分布を選び出す比較手段とを備えても良い。 本発明は、上記実施例で述べた顔認識への適用に限定されるものではなく、一般 の画像やその他の大容量データの高速データ認識に適用しても良いことはもちろ ん C、ある。
以上説明したように、本発明によれば、高い処理速度を達成するデータ分析装置 及びそのデータ分析装置を用いたデータ認識装置を得られ、高速データ認識や瞬時 のデ一夕認識が可能となる。

Claims

請 求 の 範 囲
1 . 画像に対して、画像上の任意の一点と第一の方向における前記任意の一点 の近傍の点との輝度値の差分を前記任意の一点の第一の輝度差分とし、前記任意の 一点と、前記第一の方向とは異なる第二の方向における前記任意の一点の近傍の点 との輝度値の差分を前記任意の一点の第二の輝度差分とする計算を、前記画像上の 複数点について行う差分計算手段と、
上記差分計算手段により前記画像上の複数点の各々について得られた第一の輝 度差分と第二の輝度差分で構成されるべクトルを所定の領域分割方法により分割 された複数領域の一領域に割り当て、前記複数領域の各領域に割当てられたべク卜 ル数をその領域の頻度として、前記複数領域の頻度分布を生成する頻度分布生成手 段とを備えたことを特徴とするデータ分析装置。
2 · 請求項 1に記載のデータ分析装置において、前記頻度分布生成手段により 生成される前記複数領域の頻度分布から、少なくとも一部分の領域に対する頻度分 布を抽出して特徴データを生成することを特徴とするデータ分析装置。
3 . 請求項 1又は 2に記載のデータ分析装置において、前記差分計算手段が前 記画像に対して前記計算を行う前に、前記画像に対してフィルタ処理を施すことを 特徴とするデ一夕分析装置。
4 . 少なくとも一つ以上の画像に対する一つ以上の頻度分布の情報を記憶する 頻度分布記憶手段と、
画像に対して、画像上の任意の一点と第一の方向における前記任意の一点の近傍 の点との輝度値の差分を前記任意の一点の第一の輝度差分とし、前記任意の一点と、 前記第一の方向とは異なる第二の方向における前記任意の一点の近傍の点との輝 度値の差分を前記任意の一点の第二の輝度差分とする計算を、前記画像上の複数点 について行う差分計算手段と、
上記差分計算手段により前記画像上の複数点の各々について得られた第一の輝 度差分と第二の輝度差分で構成されるべクトルを所定の領域分割方法により分割 された複数領域の一領域に割り当て、前記複数領域の各領域に割当てられたべクト ル数をその領域の頻度として、前記複数領域の頻度分布を生成する頻度分布生成手 段と、
前記頻度分布生成手段により生成された一つ以上の前記画像に関する頻度分布 と上記頻度分布記憶手段内の頻度分布とを比較する比較手段とを備えたことを特 徵とするデ一夕認識装置。
5 . 請求項 4に記載のデータ認識装置において、 上記比較手段は、 上記頻度分 布生成手段により生成された一つ以上の前記画像に関する頻度分布と上記頻度分 布記憶手段内の頻度分布とを比較し、上記頻度分布記憶手段に記憶されている各頻 度分布の中から、所定の比較関数によって特定される頻度分布を選び出すものであ ることを特徴とするデータ認識装置。
6 . 請求項 5に記載のデータ認識装置において、上記頻度分布生成手段により 生成された一つ以上の前記画像に関する頻度分布は、該頻度分布生成手段により生 成される前記複数領域の頻度分布から、一部分の領域に対する頻度分布を抽出した ものであることを特徴とするデー夕認識装置。
7 . 請求項 4〜 6のいずれかに記載のデータ認識装置において、前記差分計算 手段が前記画像に対して前記計算を行う前に、前記画像に対してフィルタ処理を施 すことを特徴とするデータ認識装置。
8 . 入力される画像データに対してフィル夕処理を施すフィルタ手段と、 上記フィルタ手段によりフィルタ処理の施された画像データに対して、画面上の 任意の一点の X方向の輝度差分 dlxを前記任意の一点の輝度値と前記任意の一点の 右側点又は左側点の輝度値との差とし >前記任意の一点の y方向の輝度差分 dlyを 前記任意の一点の輝度値と前記任意の一点の下側点又は上側点の輝度値との差と する計算を、 前記画面上の複数点について行う差分計算手段と、
上記差分計算手段により前記画面上の複数点の各々について得られた X方向の 輝度差分と y方向の輝度差分で構成されるべクトルを所定の領域分割方法により 分割された複数領域の一領域に割り当て、前記複数領域の各領域に割当てられたべ クトル数をその領域の頻度として、前記複数領域の頻度分布を生成する頻度分布生 成手段と、
少なくとも 1つ以上の頻度分布の情報を記憶する頻度分布記憶手段と、 上記頻度分布生成手段により生成された上記入力される画像データに関する頻 度分布と上記頻度分布記憶手段内の各頻度分布とを比較し、上記頻度分布記憶手段 に記憶されている各頻度分布の中から、所定の比較関数によって特定される頻度分 布を選び出す比較手段とを備えたことを特徴とするデータ認識装置。
9 . 入力される画像データに対して複数フィルタ処理を施す複数フィル夕手段 と、
上記複数フィルタ手段によりフィル夕処理の施された画像デ一夕に対して、画面 上の任意の一点の X方向の輝度差分 d l xを前記任意の一点の輝度値と前記任意の一 点の右側点又は左側点の輝度値との差とし、前記任意の一点の y方向の輝度差分 d l y を前記任意の一点の輝度値と前記任意の一点の下側点又は上側点の輝度値との 差とする計算を、 前記画面上の複数点について行う差分計算手段と、
上記差分計算手段により前記画面上の複数点の各々について得られた X方向の 輝度差分と y方向の輝度差分で構成されるベクトルを所定の領域分割方法により 分割された複数領域の一領域に割り当て、前記複数領域の各領域に割り当てられた べクトル数をその領域の頻度として、前記複数領域の頻度分布を生成する頻度分布 生成手段と、
前記複数領域の頻度分布の情報を、 複数組、 記憶する頻度分布記憶手段と、 上記頻度分布生成手段により生成された上記入力される画像データに関する頻 度分布と上記頻度分布記憶手段内の各組の頻度分布とを比較し .,上記頻度分布記憶 手段に記憶されている各組の頻度分布の中から、所定の比較関数によって特定され る 1組の頻度分布を選び出す比較手段とを備えたことを特徴とするデータ認識装
1 0 . 請求項 5、 6、 8、及び 9のいずれかに記載のデータ認識装置において、 上記比較手段による比較の結果、上記所定の比較関数によって選び出される頻度分 布が上記頻度分布記憶手段内にない場合、上記頻度分布生成手段により生成された 頻度分布を上記頻度分布記憶手段に登録する頻度分布登録手段を備えたことを特 徴とするデ一夕認識装置。
6
PCT/JP2004/002526 2003-03-11 2004-03-02 データ分析装置およびデータ認識装置 WO2004081872A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US10/548,760 US7436999B2 (en) 2003-03-11 2004-03-02 Data analysis device and data recognition device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-065517 2003-03-11
JP2003065517A JP4439829B2 (ja) 2003-03-11 2003-03-11 データ分析装置およびデータ認識装置

Publications (1)

Publication Number Publication Date
WO2004081872A1 true WO2004081872A1 (ja) 2004-09-23

Family

ID=32984497

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/002526 WO2004081872A1 (ja) 2003-03-11 2004-03-02 データ分析装置およびデータ認識装置

Country Status (3)

Country Link
US (1) US7436999B2 (ja)
JP (1) JP4439829B2 (ja)
WO (1) WO2004081872A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100573541C (zh) * 2005-04-15 2009-12-23 智能病毒成像公司 分析细胞结构及其组分的方法
US8712140B2 (en) * 2005-04-15 2014-04-29 Intelligent Virus Imaging Inc. Method of analyzing cell structures and their components
US8238677B2 (en) * 2008-03-07 2012-08-07 International Business Machines Corporation Adaptive lossless data compression method for compression of color image data
US8260076B1 (en) * 2009-03-31 2012-09-04 Hewlett-Packard Development Company, L.P. Constant time filtering
TWI384406B (zh) * 2009-05-26 2013-02-01 Univ Nat Chiao Tung 人臉辨識與合成方法
US8818714B2 (en) * 2010-12-10 2014-08-26 Sony Corporation Portable navigation device and method with active elements
JP2013029953A (ja) * 2011-07-28 2013-02-07 Sony Corp 画像処理装置および方法
DE102015120967A1 (de) * 2015-12-02 2017-06-08 Carl Zeiss Ag Verfahren und Vorrichtung zur Bildkorrektur
DE102017112484A1 (de) 2017-06-07 2018-12-13 Carl Zeiss Ag Verfahren und Vorrichtung zur Bildkorrektur
EP3798592A1 (en) * 2019-09-27 2021-03-31 Koninklijke Philips N.V. Multi-/hyperspectral two-dimensional image processing

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0799581A (ja) * 1992-09-25 1995-04-11 Olympus Optical Co Ltd 画像処理装置
US5668898A (en) * 1993-07-23 1997-09-16 Olympus Optical Co., Ltd. Device for detecting the inclination of image
JP2000101437A (ja) * 1998-04-17 2000-04-07 Tadahiro Omi コ―ドブック方式によるデ―タ分析装置および方法、デ―タ認識装置および方法、記録媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3373008B2 (ja) * 1993-10-20 2003-02-04 オリンパス光学工業株式会社 画像像域分離装置
EP0657839B1 (en) * 1993-12-10 2002-02-20 Ricoh Company, Ltd Methodsand apparatus for recognizing a specific image from an imput image signal
JP2002203241A (ja) 2000-12-28 2002-07-19 Tadahiro Omi コードブック方式によるデータ認識装置、データ認識方法および記録媒体
US6865295B2 (en) * 2001-05-11 2005-03-08 Koninklijke Philips Electronics N.V. Palette-based histogram matching with recursive histogram vector generation
US7162076B2 (en) * 2003-02-11 2007-01-09 New Jersey Institute Of Technology Face detection method and apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0799581A (ja) * 1992-09-25 1995-04-11 Olympus Optical Co Ltd 画像処理装置
US5668898A (en) * 1993-07-23 1997-09-16 Olympus Optical Co., Ltd. Device for detecting the inclination of image
JP2000101437A (ja) * 1998-04-17 2000-04-07 Tadahiro Omi コ―ドブック方式によるデ―タ分析装置および方法、デ―タ認識装置および方法、記録媒体

Also Published As

Publication number Publication date
JP2004272801A (ja) 2004-09-30
JP4439829B2 (ja) 2010-03-24
US7436999B2 (en) 2008-10-14
US20060088212A1 (en) 2006-04-27

Similar Documents

Publication Publication Date Title
Adouani et al. Comparison of Haar-like, HOG and LBP approaches for face detection in video sequences
Qiu et al. Finger vein presentation attack detection using total variation decomposition
Wang et al. Fingerprint enhancement in the singular point area
RU2382408C2 (ru) Способ и система для идентификации человека по изображению лица
CN105426829B (zh) 基于人脸图像的视频分类方法和装置
JP5431362B2 (ja) 画像識別のための特徴ベースの識別特性(signature)
Mohamed et al. An improved LBP algorithm for avatar face recognition
CN111339897B (zh) 活体识别方法、装置、计算机设备和存储介质
Kotani et al. Face recognition using vector quantization histogram method
WO2004081872A1 (ja) データ分析装置およびデータ認識装置
Dwaich et al. Signature texture features extraction using GLCM approach in android studio
Thamaraimanalan et al. Multi biometric authentication using SVM and ANN classifiers
CN111259792A (zh) 基于dwt-lbp-dct特征的人脸活体检测方法
KR20080079798A (ko) 얼굴 검출 및 인식을 위한 방법
Bharadi et al. Multi-instance iris recognition
Mohamed et al. Automated face recogntion system: Multi-input databases
Ribarić et al. Personal recognition based on the Gabor features of colour palmprint images
Dutagaci et al. 3D face recognition by projection-based methods
Ma et al. Feature extraction method for lip-reading under variant lighting conditions
Harakannanavar et al. Performance evaluation of face recognition based on multiple feature descriptors using Euclidean distance classifier
Aravabhumi et al. Robust method to identify the speaker using lip motion features
Kekre et al. Face Recognition using Texture Features Extracted form Haarlet Pyramid
Li et al. PGT-Net: Progressive Guided Multi-task Neural Network for Small-area Wet Fingerprint Denoising and Recognition
Jain et al. Recognition using palm vein detection
Kakarash et al. Biometric Iris recognition approach based on filtering techniques

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2006088212

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10548760

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10548760

Country of ref document: US

122 Ep: pct application non-entry in european phase