CN1484816A - 参数估计装置和数据匹配装置 - Google Patents

参数估计装置和数据匹配装置 Download PDF

Info

Publication number
CN1484816A
CN1484816A CNA028034945A CN02803494A CN1484816A CN 1484816 A CN1484816 A CN 1484816A CN A028034945 A CNA028034945 A CN A028034945A CN 02803494 A CN02803494 A CN 02803494A CN 1484816 A CN1484816 A CN 1484816A
Authority
CN
China
Prior art keywords
vector
electronic data
image
point coordinates
characteristic point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA028034945A
Other languages
English (en)
Other versions
CN1275201C (zh
Inventor
早田启介
长尾健司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN1484816A publication Critical patent/CN1484816A/zh
Application granted granted Critical
Publication of CN1275201C publication Critical patent/CN1275201C/zh
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

为了学习作为输入的观察模式和从输入估计输出的模式之间的相关性,输入组成观察模式的第一培训向量和组成估计目标的第二培训向量。计算在两个培训向量上的自相关信息,两个培训向量的平均向量和在第一和第二培训向量之间的互相关信息。通过使用这些且基于对于输入模式估计目标的贝里斯理论来计算可能的希望值。以低的计算消耗能够精确地估计所期望的参数。

Description

参数估计装置和数据匹配装置
技术领域
本发明涉及从输入模式抽取特定参数的参数估计装置,和使用所述参数估计装置的数据匹配装置。
背景技术
在模式信息处理中,从输入的模式抽取特定参数的处理确实是普遍使用的处理,例如,它包括从人的面部图像抽取眼睛和耳朵部位的处理,和从车辆的图像抽取车牌(号码盘)部位的处理。
常规情况,这种处理的最普遍的方法被称为如下面概述的匹配滤波器(Matched filter)方法,并且业已提出大量的应用。作为例子,下面参照图1说明抽取面部特征的方法。
如图1的工作流程图所示,在模板数据库1601中预先存储眼睛和耳朵区域的模板。如图2所示,多个眼睛模板1701在模板数据库1601中存储。
在从相机提供输入图像时(S81),从模板数据库1601获得单一模板1701(S82)。接着,如图3所示,用搜索窗口2002搜索输入的图像2001,并且获得在搜索窗口2002内的图像和模板1701之间的相似性程度(S83)。该相似性程度的计算通常使用在搜索窗口2002的图像和模板1701之间的标准化的相关性(normalized correlation)。
判断是否在全部输入图像2001上进行了上述处理(S84),用搜索窗口2002扫描输入图像2001直到在全部输入的图像2001上进行了扫描(S85),和进行处理S83。
然后,判断是否相对于在模板数据库1601中含有的所有模板1701进行了上述搜索(S86)。在没有就所有的模板1701进行这个处理时,改变目标模板1701(S87),处理流程转移到S83,和在所有模板上进行S83至S85的处理。
基于在S83至S87处理中获得的在搜索窗口2002内的图像和模板1701之间的相似程度,从输入图像2001发现与模板1701最相似的局部区域(搜索窗口2002区域)的位置,并且输出与这个局部区域相对应的位置(S88)。
在R.Brunelli,T.Poggio的“面部识别:相对于模板的特征”(FaceRecognition:Features Versus Template),IEEE Trans.,Patt.Anal.MachineIntell.,vol.PAMI-8,Pages 34-43,1993(1993年电气与电子工程师协会学报)文献中详细说明了基于上述方法的方法例子。
在上述现有技术方法中的困难是在计算机中的处理消费。假设进行搜索的输入图像的大小是S,模板大小是T,和用标准化相关性作为相似程度的标准,那么,以乘法作为计算单位(unit computation)时,则计算次数量需要2×T×S的计算次数。例如,在抽取典型面部图像的特征点坐标中,假设T=50×20=1000(pel)和S=150×160=22500(pel),则需要乘2×1000×22500=45×1000,000=4500百万次。这样大量的乘法计算需要巨大的计算消费。即使提高计算机的计算速度也是如此。
在这个处理中用的模板通常使用诸如所有学习数据的平均值的典型的数据,取决于环境,这引起很多匹配工作不能够很好进行的情况。因此,存在一种方法,它使用与输入的模式相对应制备的多个模板进行相似程度计算。但是,这样的方法增加了与模板的数目相应的处理数目,因此,就处理消费来说在计算机上增加了负荷。
发明内容
本发明的目的是以减少消费获得输入数据的特征点的坐标。
在本发明中,预先学习在抽样数据和数据的特征点的坐标之间的相关性,并使用学习获得的相关性估计输入数据特征点的坐标。
因为在相同类型数据和这样的数据的特征点的坐标之间存在预定的相关性,所以能够用上述获得的相关性,以较少的处理消费和高的准确度,获得数据的特征点坐标。
附图的简要说明
图1是抽取面部特征的现有技术方法的工作流程图;
图2是眼睛的模板图;
图3是用模板搜索的图;
图4是根据本发明第一实施例的数据匹配装置方框图;
图5是根据本发明第一实施例的学习部分方框图;
图6是根据本发明第一实施例的数据匹配装置的脱机处理工作流程图;
图7是在第一实施例中用户输入的面部特征点的坐标图;
图8是在第一实施例中参数估计部分的方框图;
图9是根据第一实施例的数据匹配装置联机处理工作流程图;
图10是在第一实施例中检测的面部区域图;
图11是在第一实施例中向显示器输出图;
图12是根据本发明第二实施例的数据匹配装置脱机处理工作流程图;
图13是在第二实施例中用户输入的面部特征点的坐标图;
图14是根据本发明第二实施的例数据匹配装置联机处理工作流程图;
图15是根据本发明第三实施例的数据匹配装置脱机处理工作流程图;
图16是根据本发明第三实施例的数据匹配装置联机处理工作流程图;
图17是根据本发明第四实施例的车辆图像匹配装置的脱机处理工作流程图;
图18是在第四实施例中用户输入的车辆图像的特征点坐标图;
图19是根据本发明第四实施例的车辆图像匹配装置联机处理的工作流程图;
图20是在第四实施例中的向显示器输出图;
图21是根据本发明第五实施例数据匹配装置的脱机处理工作流程图;
图22是根据本发明第五实施例的数据匹配装置联机处理工作流程图;
图23是根据第五实施例的学习部分的方框图;
图24是根据本发明第六实施例的数据匹配装置脱机处理工作流程图;
图25是根据本发明第六实施例的数据匹配装置的联机处理的工作流程图;
图26是根据本发明第七实施例的数据匹配装置脱机处理工作流程图;和
图27是根据本发明第七实施例的数据匹配装置的联机处理的工作流程图;和
图28是根据本发明第八实施例的车辆图像匹配装置联机处理工作流程图。
具体实施方式
(第一实施例)
本发明第一实施例说明参数估计装置应用到数据匹配装置的情况。
图4是根据本发明第一实施例的数据匹配装置的方框图。
图像输入部分101将光学数据转变为输出的电子数据。
参数输入部分102输入从图像输入部分101输入的第一电子数据的特征点的坐标。
学习部分103从图像输入部分101输入的第一电子数据计算第一电子数据的信息,和从参数输入部分102输入的特征点的坐标。
相关性信息数据库104存储在学习部分103中计算的关于第一电子数据的信息。
参数估计部分105,从图像输入部分101输入的第二电子数据和在相关信息数据库104中存储的关于第一电子数据的信息估计在第二电子数据中的特征点的坐标。
图像数据库106存储第一电子数据。
匹配部分107将第一数据与第二数据匹配,获得匹配在参数估计部分105中估计的第二电子数据中特征点坐标的第一数据。
输出部分108显示在匹配部分107中匹配的结果。
下面说明根据第一实施例的数据匹配装置。在面部图像的匹配中,从图像输入部分101输入的电子数据准确地获得面部出现的位置是重要的。
在第一实施例中,注意到,在输入的电子数据的面部图像和面部图像中的特定参数的如眼睛、鼻子、眼睫毛和嘴的特征点坐标之间存在着相关性。换句话说,注意到在预先获得对于面部图像特定的参数的坐标的相关性时,在输入未知的面部图像时,能够获得特定参数的特征点的坐标。
即,在第一实施例中,从面部图像抽样和抽样的面部图像的特征点坐标之间学习了相关,并使用学习的相关性,估计在图像输入部分101中拍摄的第二电子数据的匹配目标的面部图像中的特征点的坐标。另外,用估计的特征点坐标,获得要匹配区域的面部区域。然后,在第一实施例中,将获得的面部区域的图像与在面部图像数据库106中预先存储的每个图像比较,如此进行关于面部图像的匹配。
另外,第一实施例,通过学习在多个面部图像中面部图像抽样和特征点的坐标之间的相关性,提高了在估计匹配目标的面部图像的特征点坐标中的准确度。
具体地说,在第一实施例中的数据匹配装置中的处理大致分为脱机处理和联机处理。
脱机处理预先计算,在抽样面部图像和面部图像的特征点的坐标之间的相关性。
联机处理用在脱机处理中计算的相关性,估计图像输入部分101输入的匹配目标的面部图像的特征点的坐标,并将从特征点的坐标确定的面部区域的图像与脱机处理预先注册的图像数据库106中的各面部图像匹配。
下面说明脱机处理。用图像输入部分101、学习部分103、相关信息数据库104和图像数据库106进行脱机处理。
在下面参照图5和6具体说明在数据匹配装置中进行的脱机处理。图5是学习部分103的结构方框图。图6是在第一实施例中数据匹配装置中的脱机处理的工作流程图。
首先说明学习部分103的配置。
学习部分103设有第二培训(training)向量计算部分201,它计算从在第一电子数据面部图像中的特征点坐标获得的第二培训向量,并输出第二培训向量。
学习部分103还设有第一培训向量计算部分,它计算从第一电子数据的面部图像获得的第一培训向量,并输出第一培训向量。
平均向量计算部分203a计算,在第二培训向量计算部分201中计算的第二培训向量的平均向量。平均向量计算部分203b计算,在第一培训向量计算部分202中计算的第一培训向量的平均向量。
互相关信息计算部分204计算,在第一培训向量计算部分202中计算的第一培训向量和在第二培训向量计算部分201计算的第二培训向量之间的互相关信息的协方差矩阵。
自相关信息计算部分205计算,在第一培训向量计算部分202中获得的第一培训向量的自相关信息的协方差矩阵的伪逆矩阵。
特征抽取矩阵计算部分206从自相关信息计算部分205中计算的自相关信息的协方差矩阵的伪逆矩阵,和在互相关信息计算部分204中计算的互相关信息的协方差矩阵来计算特征抽取矩阵。
接下来,参照图6说明在数据匹配装置中的脱机处理的工作。
图像输入部分101接收第一电子数据的抽样面部图像,以向参数输入部分102、学习部分103和图像数据库106输入(S10)。
另外,也可以向图像数据库106输入与第一电子数据不同的电子数据。
在学习部分103中的第一培训向量计算部分202,用方程式1(S1),将输入的抽样面部图像中的象素的相应值,转变为所述值在光栅扫描顺序中排列的向量模式以获得培训向量V1(S11),并将所述向量输出到向量平均计算部分203b。
V=[V1 T,V2 T,……,VM T]T        …等式(1)
[V1,V2,……,VM是向量V的分量(M≥1)]
在参数输入部分102中包括的显示器显示抽样面部图像。在用户用在参数输入部分102的鼠标,从面部图像中选择面部特征点的坐标时,参数输入部分102向学习部分103输出用户选择的面部特征点的坐标(S12)。
图7示出面部特征点的输入坐标。以面部图像1201的原点1208为基,用户选择,右眼睫毛1202、右眼1203、左眼睫毛1204、左眼1205、鼻子1206和嘴1207每个的坐标(x-坐标,y-坐标)作为特征点坐标。
用方程式1,在学习部分103中的第二向量计算部分201将特征点的坐标以匹配装置中确定的顺序排列并结合在数据,例如在右眼睫毛、右眼、左眼睫毛、左眼、鼻子和嘴的顺序中,产生作为第二培训向量V2的单一向量数据(S13),并向平均向量计算部分203a输出这个向量。
参数输入部分102,在学习部分103中的第二培训向量计算部分201和第一培训向量计算部分202,与要求的N个抽样相对应的N次重复进行S10-S13的处理。在结束这个处理时,处理流程进行到S16。在这个处理过程未结束时,重复S11至S14的处理(S15)。
平均向量计算部分203a和203b用N个培训向量V1的组{V1}和N个培训向量V2的组{V2}和方程式2和3,分别计算平均向量M1和M2(S16),平均向量M1是各培训向量V1的平均向量,M2是各培训向量V2的平均向量。
然后,平均向量计算部分203b向自相关信息计算部分205和互相关信息计算部分206输出平均向量M1,并且平均向量计算部分203a向互相关信息计算部分204输出平均向量M2
M 1 = 1 N Σ i = 1 N V 1 i …方程式2
M 2 = 1 N Σ i = 1 N V 2 i …方程式3
Figure A0280349400233
自相关信息计算部分205将N个培训向量V1的组{V1}和平均向量M1代入到方程式4,计算培训向量V1的分布的协方差矩阵C1,且因此计算从图像输入部分101输入的N个面部图像的分布。自相关信息计算部分205将协方差矩阵C1转换成向伪逆矩阵C1 *以向特征抽取矩阵计算部分206输出。
C 1 = 1 N Σ i = 1 N ( V 1 i - M 1 ) ( V 1 i - M 1 ) T …方程式4
Figure A0280349400235
另外,互相关信息计算部分204将N个培训向量V1,N个培训向量V2,平均向量M1和平均向量M2代入到方程式5,计算在培训向量V1和培训向量V2之间的相关的协方差矩阵C2,因此计算这N个面部图像和在面部图像的特征点的坐标之间的相关性以向特征抽取矩阵计算部分206输出(S17)。
C 2 = 1 N Σ i = 1 N ( V 2 i - M 2 ) ( V 1 i - M 1 ) T …方程式5
Figure A0280349400237
接下来,特征抽取矩阵计算部分206根据方程式6,从S17获得的伪逆矩阵C1 *和协方差矩阵C2和联机处理输入的匹配目标的面部图像计算,抽取特征点坐标的特征抽取矩阵C3
C3=C2C1 *                        …方程式6
然后,特征抽取矩阵计算部分206向相关信息数据库104输出获得的平均向量M1和M2特征抽取矩阵C3。这样,结束脱机处理。
下面参照图8和9说明联机处理。图8是参数估计部分105的配置图。图9是根据第一实施例数据匹配装置的联机处理工作流程图。
参数估计部分105设有向量计算部分301,该向量计算部分301从第二电子数据计算输入的向量X,以便输出。
参数计算部分302从参数估计部分105计算的输入的向量X,平均向量M1和M2和特征抽取矩阵C3计算含有特征点的坐标的期望向量,以便输出。
模板匹配部分303从参数计算部分302计算的期望向量来计算特征点的坐标,以便输出。
联机处理的目的是,从输入的面部图像估计对于这个输入特定的参数的特征点的坐标,从估计的特征点的坐标获得在匹配中用的面部区域图像的面部区域,和将获得的面部区域与图像数据库106注册的每个图像比较。
首先,图像输入部分101作为其输入接收第二电子数据的匹配目标的图像(S20),以输出到在参数估计部分105中的向量计算部分301。向量计算部分301将在第二电子数据中的各像素的相应值排列成光栅扫描的顺序,以转变成输入向量数据X(S21),和向参数计算部分302输出该数据。
参数计算部分302将这个输入的向量数据X,及在脱机处理中获得的特征抽取矩阵C3和平均向量M1和M2代入到方程式7,且相对于输入向量X(S22)计算含有特征点坐标的期望向量E,以输出到模板匹配部分303。
E=M2+C3(X-M1)                      …方程式7
方程式7是用在脱机处理中获得的在N个面部图像和面部图像的特征点的坐标之间的互相关来计算匹配目标图像的特征点的坐标。
如计算模板匹配中计算消费,用相同的例子计算本发明中的计算消费。假设输入的图像大小是150(竖直方向)×150(水平方向)个像素(22500像素)和两个眼睛的坐标(右眼x坐标和y坐标和左眼x坐标和y坐标),即相对于输入估计为四维。在这种情况下,在将150×150的输入图像转变成垂直线的向量代入到方程式7,并且以乘法为计算单位时,因为C3是22500(垂直方向)×4(水平方向)的矩阵,并且(X-M1)是22500维的向量,那么,乘法的次数是4×22500=90000(pel像素)。换句话说,即使仅在乘法中,计算消费是模板匹配的1/500,因此降低计算消费的效果显著。
在此说明用方程式7计算能够估计特征点坐标的原因。
在方程式7中获得的特征点的坐标的期望向量E与在假设两个向量是正态分布时,用贝叶斯(Bayes)估计向量V1和V2,通过学习在培训之间的关系获得该输出向量数据X的输出期望等同。
贝叶斯估计是统计学估计方法,用于限定总体参数的分布和本征损失函数(proper loss function)和进行估计,使得损失函数的期望值最小。换句话说,应理解,用方程式7能够估计相对于输入向量数据X的最大可能的输出值。
模板匹配部分303从特征点的坐标的结合向量(combined vector)的激励(excitation)向量计算,输入向量数据的特征点坐标(S23),并向匹配部分107输出特征点的坐标。
用在S23中获得的特征点的坐标,匹配部分107确定图像的面部区域,该图像是用在图像数据库106的脱机处理中注册的面部图像相匹配的图像。
图10为了匹配检测的面部区域的示例。在这个实施例中,作为在匹配中使用的匹配区域1302确定为这样的方形区域,它的第一侧是两个眼睛的间隔“a”长度两倍,并且上下侧平行于连接两个眼睛的直线。
匹配部分107用匹配方法,例如使用统计方法的主分量分析的Eigenface方法,将面部区域1302的图像与脱机处理中预先用图像数据库106注册的图像匹配(S25),并向输出部分108输出结果(S26)。
另外,在Eigenface方法中,将参考图像的大小标准化,所有象素的灰度级设定为一个N维向量,所有参考图像的信息量被压缩为F维信息(0<F<N),和用所谓的主分量分析的统计方法产生面部部分的空间。然后,从输入图像标准化高出现概率的面部区域,将与面部部分空间正交的长度设定为相似度,并从在面部部分空间上的投影位置来识别人。
图11示出在输出部分108中输出的示例。显示器1501显示输入的面部图像1502和输入到显示器的匹配结果1504和1505。
如上所述,根据第一实施例,用预先在脱机处理中学习的第一电子数据抽样面部图像和在抽样面部图像中的特征点的坐标之间的相关性,能够估计在图像输入部分101拍摄的第二电子数据的匹配目标的面部图像中的特征点的坐标。
然后,能够从上述估计的特征点坐标获得用于匹配的面部区域,和将匹配的面部区域的图像与在脱机处理中用图像数据库106预先注册的面部图像比较,以进行匹配。
另外,能够用三个矩阵乘法估计对于输入向量特定的参数。换言之,因为能够以比用现有技术的模板匹配的搜索小的多处理量(消耗)估计参数,所以能够以比现有技术方法少得多的乘法估计需要的参数,和用较少的乘法匹配面部图像。
另外,根据第一实施例,从第一培训向量的协方差矩阵获得自相关信息,从第一和第二培训向量的协方差矩阵获得互相关信息,从自相关信息和互相关信息获得特征抽取矩阵,和从第一培训向量的平均向量、第二培训向量的平均向量、特征抽取矩阵和输入的向量数据计算匹配目标的面部图像的特征点的坐标。因此,因为能够仅通过矩阵乘法计算自相关信息、互相关信、特征抽取矩阵、第一培训向量的平均向量、第二培训向量的平均向量和匹配目标的面部图像的特征点坐标,所以,计算机的处理消费变得极小
另外,虽然在第一实施例中用上述的方程式1-7估计参数,但是,只要是方程式可用于预先获得抽样面部图像和面部图像的特征点的坐标之间的相关性,同时用获得相关性估计参数,也可以用方程式7以外的其它方程式获得同样的效果。
此外,也能够估计除了抽样图像数据的第一电子数据外的特征点坐标。
(第二实施例)
在第一实施例中,培训向量V2是从面部的特征点的相应坐标获得,与此不同,第二实施例是从面部特征点的坐标周围的区域图像获得培训向量V2,并从匹配目标的面部图像自动产生适合于匹配目标的面部图像的模板。从而能够仅用一页模板进行匹配处理,与使用多个模板的现有技术相比显著降低计算消费。
具体地说,在第二实施例中,检验在图像输入部分101中预先拍摄的第一电子数据的抽样面部图像,和在抽样面部图像的如眼睛、鼻子、嘴和眼睫毛特征点坐标周围的图像的区域图像之间的相关性。然后,在第二实施例中,用这个相关性,从在图像输入部分101拍摄的第二电子数据的匹配目标的面部图像获得,作为模板的在匹配中使用的特定区域的图像。
接着,在第二实施例中,在获得的模板和匹配目标的面部图像之间进行匹配,从而估计匹配目标的面部图像的特征点的坐标,和获得在匹配中用的面部区域图像。
在第二实施例中,所述面部区域图像与预先制备的图像数据库中的每个图像比较,从而在第二电子数据的面部图像上进行匹配。
下面具体说明第二实施例的数据匹配装置。
根据第二实施例的数据匹配装置的配置图与第一实施例中的相同,在此省略对它的说明。
如第一实施例,根据第二实施例的数据匹配装置的处理大体分为脱机处理和联机处理。在此,参照图12至14特别说明与第一实施例的不同。
图12是根据第二实施例的脱机处理的工作流程图。图13是第一电子数据的抽样面部图像中特征点的相应坐标周围图像的区域图像图。图14是联机处理的工作流程图。
在第二实施例中的脱机处理中,S90至S92步骤的处理与图6的S10至S12相同,S94-S98步骤的处理与图6的S15至S19相同,故省略对它们的说明。
在学习部分103中的第二培训向量计算部分201,从在S92中选择的特征点的坐标中选择,如图13所示的特征点的相应坐标周围图像的区域图像。
用面部图像1401原点1402为基准,向第二培训向量计算部分201输入作为特征点的坐标,右眼睫毛1403a,右眼1404a,左眼睫毛1405a,左眼1406a,鼻子1407a和嘴1408a每个的坐标(x-坐标和y坐标)。
第二培训向量计算部分201从特征点1403a至1408a的输入坐标中产生带有面部的特征点相应坐标的模板图像的右眼睫毛区域图像1403b,右眼区域图像1404b,左眼睫毛区域图像1405b,左眼区域图像1406b,鼻子区域图像1407b和嘴区域图像1408b。
作为将每个区域图像确定为矩形的方法,用图10获得的两个眼睛之间的间隔“a”为基准,确定每个区域的宽度和高度,并用特征点的坐标为中心设定区域。眼睫毛的宽度和高的分别是a/2和a/4,眼睛的宽度和高度分别是a/2和a/4,鼻子的宽度和高度分别是“a”×2/3和“a”×2/3,嘴的宽度和高度分别是“a”和a/2。
因此,用两个眼睛之间的间隔“a”为基准,能够与在图13中的面部图像中表示的面部的大小独立地确定每个区域图像。
第二培训向量计算部分201,用方程式1,在光栅扫描顺序中重新排列产生的带有特征点的相应坐标的模板图像143b至1408b中的象素的值,并产生作为培训向量V2的带有向量数据的结合向量(结合向量数据的向量)(93)。
另外,用培训向量V2产生在S97获得的特征抽取向量C3,因此,它是抽取区域图像的参数。
下面参照图14说明第二实施例的联机处理。S110至S112步骤的处理与图9中的S20-S22相同,故省略其说明。
在S112产生的期望向量E是第二电子数据的匹配目标面部图像中特征点的相应坐标的模板图像的结合向量,第二电子数据用在脱机处理在S95中获得的培训向量V1和V2的相应的平均向量M1和M2,在脱机处理S97中获得特征抽取矩阵C3和在联机处理S111中获得的向量X。因此,参数计算部分302从期望向量E获得带有面部特征点的相应坐标的模板图像(S113)。
模板匹配部分303在S113获得的模板图像和S110获得的从图像输入部分101输入的匹配目标的图像之间进行模板匹配,检测匹配模板图像的区域,并从测定的区域确定面部的特征点的相应坐标(S114)。
另外,所述的模板匹配处理是这样的处理,用图3所示的搜索窗口2002在输入图像2001上的扫描,和当输入搜索窗口中的图像时,选择与模板图像有最高相关性的区域。在模板匹配中用的相关计算诸如使用SAD相关计算(方程式8)和标准化相关计算(方程式9)。另外,在方程式8和9中X是搜索窗口中的图像,以及T是模板。
SAD相关计算
C SAD = Σ i = 1 N | X i - T i | …方程式8
Figure A0280349400291
标准化相关计算
C norm = Σ i = 1 N ( X i - X ‾ ) · ( T i - T ‾ ) Σ i = 1 N ( X i - X ‾ ) 2 × Σ i = 1 N ( T i - T ‾ ) 2 …方程式9
Figure A0280349400293
随后的处理S115-S117步骤与图9的S24-S26相同,故省略其说明。
如上所述,根据本发明第二实施例,学习在抽样图像和抽样图像的特定区域图像之间的相关性,用该相关性估计匹配目标面部图像的特定区域的图像,和将匹配目标的面部图像的估计的特定区域图像设定为模板图像。在此方法中,因为能够从匹配目标的面部图像本身自动产生模板图像,所以模板页容许进行匹配处理,与用多个模板的现有技术比,能够大量减少计算消费。
另外,根据第二实施例,特征抽取矩阵计算匹配目标的面部图像的特征点的坐标,该特征抽取矩阵从第一和第二培训向量的自相关信息和互相关信息、第一培训向量的平均向量、第二培训向量的平均向量、和匹配目标的面部图像的向量数据获得。因此,因为仅通过矩阵乘法,即乘法能够计算特定参数,所以计算机的处理消费极小。
另外,在模板匹配中将本发明第二实施例用于模板图像估计时,能够从输入图像估计可期望的特定图像,和用该特定图像作为模板进行匹配处理。也就是说,因为能够用一个模式的模板进行处理,所以和象现有技术模板匹配那样,制备与输入的图像多面性相对应的模式和大小不同的多模板的方法比,能够减少计算消费。
(第三实施例)
本发明的第三实施例是从面部特征点的相应坐标和在特征点的相应坐标周围的区域图像的结合向量获得培训向量V2;而第一实施例是,从面部特点的相应坐标获得培训向量V2;并且对于第二实施例是,从面部特征点的相应坐标周围区域图像获得培训向量V2
然后,从这样获得的培训向量V2估计匹配目标的面部图像的特征点的坐标,从匹配目标的面部图像自动产生适合于匹配目标的面部图像的模板,和使用自动产生的带有特征点坐标的周边区域的模板进行匹配。
从而,能够限制模板的搜索范围,和用模板页进行匹配处理。结果,与现有技术方法搜索匹配目标的面部图像的整个区域和用多个模板比,能够显著减小处理量。
下面详细说明根据第三实施例的数据匹配装置。
图中示出了根据第三实施例的数据匹配装置的配置与第一实施例数据匹配装置的配置相同,故省略其说明。
如在第一实施例中,根据第三实施例的数据匹配装置的处理分为脱机处理和联机处理。在此参照图15和16特别说明与第一和第二实施例不同之处。
图15是根据第三实施例的脱机处理工作流程图。图16是联机处理工作流程图。
在第二实施例的脱机处理中,S1200至S1202步骤的处理与图6的S10至S12相同,S1205至S1209与图6的S15至S19相同,省略其说明。
在S1202中,参数输入部分102从特征点选择的坐标选择如图13所示的特征点的坐标周围的图像的区域图像(S1203)。
用方程式1,学习部分103产生作为培训向量V2的向量数据和另外的向量数据的结合向量(S1204),该向量数据是面部特征点相应坐标顺序排列并结合的向量数据。所述另一个向量数据是构成产生的带有面部特征点的相应坐标的模板图像1403b和1408b的相应像素值排列在光栅扫描顺序时的向量数据。
另外,用培训向量V2产生的在S1208中获得的特征抽取向量C3,因此,它是抽取特征点和区域图像的参数。
下面参照图16说明联机处理。S1300至S1303步骤的处理与图9的S20和S22的相同,S1306至S1308步骤的处理与图9的S24至S26相同,故省略其说明。
在S1302中产生的期望向量E是匹配目标的面部图像中特征点相应坐标的模板图像的结合向量,该匹配目标的面部图像是用在脱机处理S1206中获得的培训向量V1和V2的各自平均向量M1和M2的第二电子数据、在S1208获得的抽取特征点坐标和区域图像的特征抽取矩阵C3和在联机处理S1301中获得的向量X。因此,参数计算部分302从期望向量E,在S1303获得匹配目标的面部图像中特征点坐标,和在S1304获得区域图像的模板图像。
在S1304获得的模板图像和在S1300获得的从图像输入部分101输入的匹配目标的图像之间,且在特征点的坐标的周边上模板匹配部分303进行模板匹配,检测匹配模板图像的区域,和从检测的区域确定面部的特征点的相应坐标(S1305)。
如第一实施例,使用在模板匹配中用的相关计算,例如SAD相关计算(方程式8)和规格化相关计算(方程式9)。
如上所述,根据第三实施例,从匹配目标的面部图像中的特征点的相应坐标和特征点的相应坐标的区域图像来估计结合向量,以及将搜索范围限制在面部特征点的估计的相应坐标的周边。
此外,能够进行分级搜索,以便用作为模板的估计的特征点的相应坐标的区域图像,在限制的搜索范围上进行模板匹配搜索。
用这种方法,由于分级搜索检测精度得到提高,同时搜索范围减小,使用的模板仅是估计的模板的单页,能够以比现有技术较小的计算消费进行测定。
另外,根据第三实施例,通过计算第一培训向量的协方差获得自相关,和通过计算第一和第二培训向量的协方差获得互相关。因此,仅通过矩阵乘法,即用乘法能够获得自相关和互相关,所以处理消费变的极小。
(第四实施例)
本发明第四实施例提供参数估计装置用于匹配车辆图像的车辆图像匹配装置。
车辆图像匹配装置利用贝叶斯估计,从在图像输入部分101拍摄的包括道路上的车辆的对比模式等的图像,检测诸如车牌、灯和驾驶员表的特征点坐标。然后,车辆图像匹配装置匹配数据,以便根据获得的特征点坐标和特征,如车牌的号码,检查得到的整个车辆的图像是否与预先登记的车辆的那些匹配。
车辆图像匹配装置的配置图与第一实施例图4相同,故省略其说明。
在车辆图像匹配装置中的处理大体分为脱机处理和联机处理。在此参照图17至19特别说明与第一实施例的不同。
图17是根据第四实施例的脱机处理的工作流程图。
在图17中的S1401和S1405至S1408步骤的处理与第一实施例图6的S11和S16相同,故省略它们的说明。
图像输入部分101向参数输入部分102,学习部分103和图像数据库输入在匹配中用的N个车辆图像(S1400),作为输入的第一电子数据。
在学习部分103中的第一培训向量计算部分202计算第一培训向量V1(S1401)。
在参数输入部分102中的显示器以页为基础显示车辆图像的特征点坐标。当用户用在参数输入部分102中的鼠标选择车辆图像的特征点坐标时,参数输入部分102向学习部分103输出选择的特征点坐标(S402)。
图18示出车辆图像的特征点坐标。作为在输入图像1701中的车辆特征点坐标,输入前部1708和车辆的各极点的坐标A1702至F1707。
在学习部分103中的第二向量计算部分210由输入的特征点的坐标计算第二培训向量V2
参数输入部分102,在学习部分103中的第二培训向量计算部分201和第一培训向量计算部分202确定是否结束了相对于N个车辆的处理(S1404),当处理结束时,处理流程进行到S1405,而在未结束时转到S1400。
随后的处理S1405至S1408与第一实施例图6的S16至S19相同,故省略其说明。
下面参照图19流程图说明联机处理。
联机处理的目的是从输入的车辆图像估计需要的特征点的坐标,和用这些特征点坐标分析和存储车辆图像、车牌和前部的图像。
图19的处理S1900至S1903和S1906与第一实施例的S20至S23和S26相同,故省略它们的说明。
匹配部分107从S1903获得的特征点坐标确定作为基准的间隔,并根据这个间隔,读取车辆图像、车牌部分的区域图像和前部区域图像(S1904)。
然后,匹配部分107在车辆的车牌上读取号码,例如通过扫描器扫描车牌部分的区域图像。
另外,匹配部分107用匹配方法,例如Eigenface法,将所述的车辆图像和车牌与预先在脱机处理中用图像数据库106登记的图像匹配。
图20示出输入图像1802,车辆图像1804,车牌部分的区域图像和扫描结果1805,匹配结果1806和前部区域图像1807的显示例子。
如上所述,根据第四实施例,通过图形表示出输入的车辆图像和估计的特征点的坐标;根据特征点的坐标扫描整个车辆的图像,车牌部分图像,和车牌部分的数码;和显示与预先登记的车辆比较的结果和驾驶员座位和乘员座位的放大图像,能够容易理解车辆的信息和驾驶员的状态。
另外,虽然在第四实施例中使用了在第一实施例中的参数估计方法,但是也可以将第一或第二实施例应用于车辆匹配装置。
(第五实施例)
在输入抽样图像的输入向量的分布上存在波动时,本发明第五实施例应对具有各种不同分布的输入的匹配目标的图像。
具体地说,输入的抽样图像和特征点的坐标相结合的信息被分成多种分布,对每个分布研究匹配目标的图像和匹配目标的图像的特征点的坐标之间的相关性,和用这个相关获得匹配目标的图像的特征点的坐标。
另外,根据本发明的第五实施例的数据匹配装置的处理大体分成脱机处理和联机从处理。在此,参照图21至23特别说明与第一实施例不同之处。
除了图23示出的学习部分103外,根据第五实施例的数据匹配装置的结构与第一实施例数据匹配装置的相同,故省略其说明。
“401”表示分布元素计算部分,它根据概率分布将多个第一和第二培训向量分类为元素分布。
图21是根据第五实施例的脱机处理的工作流程图,图22是联机处理的工作流程图。
在脱机处理中的S2100至S2104处理步骤与第一实施例的图6的S10至S15相同,故省略其说明。
在S2104N,确认第一电子数据的N项输入后,分布元素计算部分401构成N个人的培训向量V1和V2的结合向量。然后,分布元素计算部分401用高斯(Gaussian)混合模型(以下简称GMM)将N个人结合向量组中的概率分布模型成R个分布的元素分布,并向平均计算部分203a输出每个元素分布的第一培训向量和第二培训向量。
平均向量计算部分203a,平均向量计算部分203b,互相关信息计算部分204和自相关信息计算部分205计算在模型化中第k(k=1,…,R)元素分布的参数。
也就是说,平均向量计算部分203b计算属于第k元素分布的向量V1的平均向量M1 k,平均计算部分203a计算属于第k元素分布的向量V2的平均向量M2 k,自相关信息计算部分计算向量V1的协方差矩阵C1 k的伪逆矩阵C1 k*,和互相关信息计算部分计算向量V1和V2的互相关矩阵C12 k*(S1205)。
平均向量计算部分203b向自相关信息计算部分205和互相关信息计算部分204输出平均向量M1 k,并且平均向量计算部分203a向互相关信息计算部分204输出平均向量M2 k
一般来说,计算用EM(期望值最大化Expectation Maximizatin)算法,这个算法在Christopher M.Bishop,Oxford,“模式识别的神经网络(NeuralNetwork for Pattern Recorgnition)”(页59-73(1995))中有详细说明。
根据方程式10,自相关信息计算部分206从获得的向量V1的协方差矩阵的伪逆矩阵C1 k*和互相关矩阵C12 k*计算,特征抽取矩阵C3 k(S2106)。
C 3 K = C 12 K C 1 K * …方程式10
C1 k*是矩阵C1 k的伪逆矩阵
特征抽取矩阵计算部分206向相关信息数据库输出平均向量M12 k和M2 k和特征抽取矩阵C3 k(S1207)。
在相关信息数据库中存储了R个分布中每个的平均向量M12 k和M2 k和特征抽取矩阵C3 k时,学习部分103结束脱机处理。同时,在相关信息数据库中未存储R个分布中每个的平均向量M12 k和M2 k和特征抽取矩阵C3 k时,学习部分103重复S2105至S2107的处理(S2108)。
下面参照图22中的工作流程图说明第五实施例的联机处理。
第五实施例中的联机处理中的S2200,S2201和S2203至S2206的处理步骤与第一实施例的图9中的S20,S21和S22至S26相同,故省略其说明。
对于S2201中计算的输入向量数据X,参数计算部分302根据方程式11,由在脱机处理中获得的特征抽取矩阵C3 k和平均向量M12和M2计算相对于输入向量数据X的特征点坐标的期望向量E(S2202)。
E = Σ K = 1 R P ( ω k | X ) [ M 2 K + C 3 K ( X - M 1 K ) ] Σ K = 1 M P ( ω k | X ) …方程式11
这里
P ( ω K | X ) ≡ P K | C 1 K | - 1 2 exp { - 1 2 ( X - M 1 K ) T C 1 K * ( X - M 1 K ) } Σ l = 1 R P l | C 1 l | - 1 2 exp { - 1 2 ( X - M 1 l ) T C 1 l * ( X - M 1 l ) }
Pk是从第一和第二培训向量的结合概率分布模型化的固定分布的第k元素分布的先验概率;
R是在固混合分布中的元素数目。
在方程式11中获得的特征点的坐标的期望向量E等于对于输入向量数据X的输出的期望值,该输入向量数据X是在假设两个向量的结合向量的分布是混合的正态分布时,用贝叶斯估计,在培训向量V1和V2之间学习关系获得的。贝叶斯估计是用于限定总体参数的分布和特征损失函数(proper lossfunctin),和估计以使得损失函数的期望值最小化的一种统计学估计方法。也就是说,应理解,用方程式11能够估计相对于输入向量数据X的最大可能的输出值。
随后的处理S2203至S2206与第一实施例相同,故省略其说明。
如上所述,根据第五实施例,输入抽样图像分为多个分布,对每个分布研究输入的抽样图像和输入图像特征点坐标之间的相关性,和用这个相关性来估计输入的匹配目标的图像的特征点的坐标。从而,即使是在分布,即输入的匹配目标的图像的特性上存在波动,也能够准确估计特征点的坐标。
另外,如方程式11中表示出的,能够以矩阵乘法的直接计算中估计输入向量的特定参数。这样一来,因为使用混合分布模型,所以,与现有技术的匹配方法重复计算搜索相比,能够以少得多处理量进行估计,而且有很高的准确度,以致获得极高程度的效果。
而且,根据第五实施例,能够仅通过矩阵乘法,对于每个元素分布获得互相关信息。
(第六实施例)
第六实施例应对的情况是在输入抽样图像的输入向量的分布上存在波动。与从面部特征点的相应坐标获得培训向量V2的第五实施例相比,与第二实施例相同,第六实施例是从面部的特征点坐标周围的区域图像获得培训向量V2,以及从匹配目标的面部图像自动产生适合匹配目标的面部图像的模板。
具体地说,输入的抽样图像和面部的特征点坐标周围的区域图像相结合的信息被分成多个分布,对每个分布研究在匹配目标的图像和匹配目标的图像的特征点坐标之间的相关性,和用这个相关性获得匹配目标的图像的特征点的坐标。
另外,如第二实施例和第五实施例,根据第六实施例的数据匹配装置的处理大体分为脱机处理和联机处理。在此,参照图24至25特别说明与第一实施例不同之处。
第六实施例的脱机处理的S2400至S2402和S2404步骤的处理与第一实施例的图6的S10至S12和S15相同,故这里省略其说明。而且,S2405至S2408处理步骤与图21中S2105至S2108相同,故也省略其说明。
在学习部分103中的第二培训向量计算部分201读取面部各部分的相应周边区域的图像,以计算培训向量V2(S2403)。
接下来,在S2404确认结束N个输入后,学习部分103进行如图24所示的S2405至S2408处理,并在相关信息数据库中存储与第R分布相对应的平均向量M1 k和M2 k和特征抽取矩阵C3 k*。此外,特征抽取矩阵C3 k*是从面部的特征点的坐标周边上的各区域图像产生的。
下面参数图25示出的工作流程图说明第六实施例的联机处理。
第六实施例的联机处理的S2500,S2501和S2505至S2507的处理步骤与第一实施例图9的S20,S21和S24至S26相同,故省略其说明。
参数计算部分302用方程式11,从S2501中计算的向量X计算期望向量E。
模板匹配部分303产生被模型化为有R个分布的元素分布的模板图像(S2503),进行模板匹配,和计算在第二电子数据中的特征点的坐标(S2504)。
随后的处理S2505至S2507与第一实施例相同,故省略其说明。
如上所述,根据第六实施例,抽样图像被分为多个分布,对每个分布研究在抽样图像和这些图像的各部分相应图像之间的相关性,和用这个相关性,估计输入的匹配目标的图像的各部分的相应图像。从而,即使在分布,即输入的匹配图像特征上存在波动,也能够准确估计每个部分。然后,用估计的各部分的相应图像进行模板匹配,能够测定匹配目标的输入图像的特征点的坐标。
(第七实施例)
第七实施例应对的情况与第六实施例相同,是在输入的抽样图像的输入向量的分布上存在波动。与从面部特征点的相应坐标获得培训向量V2的第五实施例,和从面部的特征点坐标的周围区域获得培训向量V2的第六实施例对比,第七实施例是从面部的特征点坐标和围绕面部的特征点坐标的区域图像的结合的向量获得培训向量V2。然后,从这样获得的培训向量V2估计匹配目标的面部图像的特征点的坐标,和从匹配目标的面部图像自动产生适合于匹配目标的面部图像的模板。用自动产生的带有特征点的坐标的周边区域的模板进行匹配。
从而,能够限制模板的搜索区域,并用模板页进行匹配处理。其结果,与用多个模板搜索匹配目标的面部图像的整个区域的情况比,显著减少处理消费。
与第三和第五实施例相同,根据第七实施例的数据匹配装置的处理大体分为脱机处理和联机处理。在此,参照图26和27说明与第一实施例的不同之处。
在第七实施例的脱机处理中,S2600至S2602和S2605的处理步骤与图6的S10至S12和S15相同,故省略对它们的说明。
在学习部分103中的第二培训向量的计算部分201,用在S2602输入的特征点坐标,读取在第一电子数据中各部分的相应周边区域的图像S2603,计算在S2602中输入的特征点的坐标和在S2603中读取的图像的相结合的向量的培训向量V2(S2604)。
接下来,在S2605确认结束了相对应N个抽样的输入后,学习部分(103)进行与图24中S2405至S2408的处理相同的处理,和在相关信息数据库中存储相对应于R个分布的平均向量M1 k和M2 k和特征抽取矩阵C3 k*。
此外,特征抽取矩阵是从第一电子数据的特征点的坐标和在特征点的坐标的周边上的区域图像的结合向量产生的。
下面参照图27的工作流程图说明第七实施例中的联机处理。
第七实施例的S2700,S2701和S2705至S2707处理步骤与第一实施例的图9中的S20,S21和S24至S26相同,故省略其说明。
参数计算部分302用方程式11,从在S2701中计算的向量X计算期望向量E。
模板匹配部分303产生,模型化成R个分布的元素分布的模板图像(S2703),在S2703从向量E获得的特征点坐标的周边上进行模板匹配,和计算在第二电子数据中的特征点的坐标(S2704)。
随后处理的S2705至S2707与第一实施例相同,故省略对它们的说明。
如上所述,根据第七实施例,抽样图像分成多个分布,对每个分布研究抽样图像和这个图像的相应部分的图像之间的相关性。然后,用这个相关,能够估计输入的匹配目标的图像的面部的特征点的相应坐标。此外,通过分级搜索处理,以致用估计的模板在估计的特征点的坐标的周边区域上进行匹配,能够估计匹配目标的图像的特征点的坐标。
用这种方式,能够提高在估计特征点坐标中的精度,并且能够在将模板匹配的范围限制到限制区域的情况下,用模板页进行估计。结果,与搜索所有区域的现有方法比,能够减小计算消费。
(第八实施例)
本发明第八实施例应对的情况是抽样输入图像是车辆的,并且与第五实施例相同,在车辆的输入的抽样图像的输入向量的分布上存在波动时,输入的匹配目标的图像具有各种分布。
与第四和第五实施例相同,根据第八实施例的数据匹配装置的处理大体分为脱机处理和联机处理。在此,参照图28说明与第一实施例不同之处。
因为第八实施例的脱机处理与第五实施例的相同,所以省略其说明。此外,从车辆图像,车牌部分的区域图像和前部区域图像产生,R个分布每一个的平均向量M1 k和M2 k和特征抽取矩阵C3 k*。
下面参照图28说明第八实施例的联机处理。
第八实施例的联机处理的S2800、S2801和S2803至S2807处理步骤与第一实施例的图9的中S20、S21和S23至S26相同,故省略其说明。
参数计算部分302用方程式11,从在S2801中计算的向量X计算期望向量E(S2802)。
匹配部分107从在S2803中计算的特征点坐标计算车辆图像、车牌部分的区域图像和前部区域图像(S2804),读出在车牌上的数字(S2805)和进行在车辆图像和车牌上的匹配。
如上所述,根据第八实施例,抽样车辆图像被分为多个分布,对每个分布研究在抽样车辆图像和图像的特征点的相应坐标的图像之间的相关性,和用这个相关性估计在匹配目标的车辆图像的特征点的相应坐标中的图像。
从而,即使匹配目标的车辆在分布,即特征上,具有波动时,能够准确地估计特征点的相应坐标。然后,用估计的特征点的相应坐标的图像作为模板,进行模板匹配,能够测定匹配目标的车辆图像的特征点坐标。
此外,虽然在第八实施例中,第五实施例的数据匹配装置应用到车辆图像匹配装置上,但也可以将第六或第七实施例的数据匹配装置应用到车辆图像匹配装置上。
而且,本发明不限于上述实施例。
通过读在另一个计算机中的程序并将这个程序存储在诸如转移的软盘等存储媒体中,使用独立的计算机系统,能够方便地实施本发明。
本发明在其一方面中包括存储媒体的计算机程序产品,该产品包括进行本方面的计算机编程用的各指令。这个存储媒体例如包括软盘、光盘、CDROM、磁盘、ROM(只读存储器)、RAM(随机存储器)、EPROM(可擦编程只读存储器)、EEPROM(电可擦编程ROM)、磁-光卡、存储器卡和DVD(数字视盘)等,并不限于这些。
本发明的参数估计装置可用于匹配除了面部图像和车辆图像外的图像。
虽然在上述实施例中参数估计装置应用到图像匹配,但是通过输入作为输入数据的图像以外的数据,本发明的这个参数估计装置也可以用作,非图像匹配的匹配装置。例如,也能够将这个参数匹配装置用于,输入语音数据作为输入数据的语音匹配装置。
工业应用
如上所述,根据本发明,能够用较少的处理消费准确地获得输入图像的特征点的坐标。
相关申请
本申请要求2001年9月25日提出日本专利申请第No.2002-129428号,本说明书全文引用,以供参考。

Claims (30)

1.一种参数估计装置,包括:
图像输入部分,它将光学数据转变成电子数据;
参数输入部分,它从所述图像输入部分输入的第一电子数据输入第一特征点的坐标;
学习部分,它从第一电子数据的多个项目计算自相关信息;从第一电子数据的多个项目和多个第一特征点的坐标计算互相关信息;用所述自相关信息和互相关信息计算,用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标的特征抽取矩阵;和输出从第一电子数据的多个项目计算的第一平均向量、从多个第一特征点的坐标计算的第二平均向量和特征抽取矩阵;
相关信息数据库,它存储从学习部分输入的第一平均向量、第二平均向量和特征抽取矩阵;和
参数估计部分,它用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵估计第二特征点坐标。
2.根据权利要求1的参数估计装置,其中所述学习部分包括:
第一培训向量计算部分,在第一电子数据排列成扫描顺序初,它计算向量模式的第一培训向量;
第二培训向量计算部分,在第一特征点坐标顺序排列时,它计算向量模式的第二培训向量;
平均向量计算部分,通过平均多个第一培训向量计算第一平均向量,通过平均多个第二培训向量计算第二平均向量;
自相关信息计算部分,它接收作为其输入的多个第一培训向量和第一平均向量,和计算第一培训向量的自相关信息的第一协方差矩阵的伪逆矩阵;
互相关信息计算部分,它接收作为其输入的多个第一培训向量、第一平均向量、多个第二培训向量和第二平均向量,和计算第一和第二培训向量的互相关信息的第二协方差矩阵;和
特征抽取矩阵计算部分,它接收作为其输入的,第一协方差矩阵的伪逆矩阵和第二协方差矩阵,和从第一协方差矩阵的伪逆矩阵和第二协方差矩阵计算特征抽取矩阵。
3.根据权利要求1的参数估计装置,其中所述参数估计部分包括:
向量计算部分,它接收作为其输入的第二电子数据,和在第二电子数据排列在扫描顺序中时,计算向量模式的输入向量;
参数计算部分,它从输入的向量,第一平均向量,第二平均向量和特征轴取矩阵计算包括第二特征点的坐标的期望向量;和
模板匹配部分,它从期望向量计算第二特征点的坐标。
4.一种参数估计装置,包括:
图像输入部分,它将光学数据转变成电子数据;
参数输入部分,它从图像输入部分输入的第一电子数据输入,第一特征点的坐标周围的图像;
学习部分,它从第一电子数据的多个项目计算自相关信息;从第一电子数据的多个项目和多个第一特征点的坐标周围的图像计算互相关信息;用自相关信息和互相关信息计算,用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标周围的图像的特征抽取矩阵;输出从第一电子数据的多个项目计算第一平均向量,从多个第一特征点坐标周围的图像计算的第二平均向量,和特征抽取矩阵;
相关信息数据库,它存储从学习部分输入的第一平均向量,第二平均向量和特征抽取矩阵;和
参数估计部分,它用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵估计第二特征点的坐标。
5.根据权利要求4的参数估计装置,其中学习部分包括:
第一培训向量计算部分,在第一电子数据排列成扫描顺序处它计算向量模式的第一培训向量;
第二培训向量计算部分,在第一特征点坐标周围的图像顺序排列处它计算向量模式的第二培训向量;
平均向量计算部分,通过平均多个第一培训向量计算第一平均向量,通过平均多个第二培训向量计算第二平均向量;
自相关信息计算部分,它接收作为其输入的多个第一培训向量和第一平均向量,和计算第一培训向量的自相关信息的第一协方差矩阵的伪逆矩阵;
互相关信息计算部分,它接收作为其输入的多个第一培训向量、第一平均向量、多个第二培训向量和第二平均向量,和计算第一和第二培训向量的互相关信息的第二协方差矩阵;和
特征抽取矩阵计算部分,它接收作为其输入的第一协方差矩阵的伪逆矩阵和第二协方差矩阵,和从第一协方差矩阵的伪逆矩阵和第二协方差矩阵计算特征抽取矩阵。
6.根据权利要求4的参数估计装置,其中参数估计部分包括:
向量计算部分,它接收作为其输入的第二电子数据,和在第二电子数据排列成扫描顺序处计算向量模式的输入向量;
参数计算部分,它从输入向量、第一平均向量、第二平均向量和特征轴取矩阵计算包括第二特征点坐标周围的图像的期望向量;和
模板匹配部分,它从期望向量计算第二特征点的坐标周围的图像,搜索匹配第二特征点的坐标周围图像的第二电子数据的图像区域的匹配区域,和从所述匹配区域计算第二特征点的坐标。
7.一种参数估计装置,包括:
图像输入部分,它将光学数据转变成电子数据;
参数输入部分,它从所述图像输入部分输入的第一电子数据输入的第一特征点的坐标和第一特征点坐标周围的图像;
学习部分,它从第一电子数据的多个项目计算自相关信息;从第一电子数据的多个项目和多个第一特征点的坐标与多个第一特征点坐标周围的图像的结合向量,计算互相关信息;用所述自相关信息和互相关信息计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标和第二特征点的坐标周围图像的特征抽取矩阵;和输出从第一电子数据的多个项目计算的第一平均向量,从多个结合向量计算的第二平均向量和特征抽取矩阵;
相关信息数据库,它存储从学习部分输入的第一平均向量、第二平均向量和特征抽取矩阵;和
参数估计部分,它用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵估计第二特征点坐标。
8.根据权利要求7的参数估计装置,其中学习部分包括:
第一培训向量计算部分,在第一电子数据排列成扫描顺序处它计算向量模式的第一培训向量;
第二培训向量计算部分,在结合向量顺序排列处它计算向量模式的第二培训向量;
平均向量计算部分,通过平均多个第一培训向量计算第一平均向量,通过平均多个第二培训向量计算第二平均向量;
自相关信息计算部分,它接收作为其输入的多个第一培训向量和第一平均向量,和计算第一培训向量的自相关信息的第一协方差矩阵的伪逆矩阵;
互相关信息计算部分,它接收作为其输入的多个第一培训向量、第一平均向量、多个第二培训向量和第二平均向量,和计算第一和第二培训向量的互相关信息的,第二协方差矩阵;和
特征抽取矩阵计算部分,从第一协方差矩阵的伪逆矩阵和第二协方差矩阵计算特征抽取矩阵。
9.据权利要求7的参数估计装置,其中所述参数估计部分包括:
向量计算部分,它接收作为其输入的第二电子数据,和在第二电子数据排列成扫描顺序处计算向量模式的输入向量;
参数计算部分,它从输入向量,第一平均向量,第二平均向量和特征轴取矩阵计算包括第二特征点坐标和第二特征点坐标周围图像的期望向量;和
模板匹配部分,它从期望向量估计第二特征点的坐标和第二特征点坐标周围的图像,搜索第二电子数据的图像区域的匹配区域,在估计的第二特征点的坐标周围估计的图像匹配和从所述匹配区域计算第二特征点的坐标。
10.一种参数估计装置,包括:
图像输入部分,它将光学数据转变成电子数据;
参数输入部分,它从所述图像输入部分输入的第一电子数据输入第一特征点的坐标;
学习部分,它将第一电子数据和第一特征点的坐标的结合信息组分为多个分布,对每个分布,从第一电子数据的多个项目计算自相关信息,和从第一电子数据的多个项目和多个第一特征点的坐标计算互相关信息;用所述自相关信息和互相关信息,对每个分布计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标的特征抽取矩阵;和输出,对每个分布获得的从第一电子数据的多个项目计算的第一平均向量、对每个分布获得的并从多个第一特征点的坐标计算的第二平均向量和对每个分布获得的特征抽取矩阵;
相关信息数据库,它存储从学习部分输入对每个分布获得的第一平均向量、第二平均向量和特征抽取矩阵;和
参数估计部分,它用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵对每个分布估计第二特征点坐标。
11.据权利要求10的参数估计装置,其中所述学习部分包括:
第一培训向量计算部分,在第一电子数据排列在扫描顺序中时它计算向量模式的第一培训向量;
第二培训向量计算部分,在第一特征点坐标顺序排列处计算向量模式的第二培训向量;
分布元素计算部分,它从多个第一培训向量和多个第二培训向量产生多个结合向量,和用所述结合向量组的概率分布将第一培训向量和第二培训向量分成多个分布;
平均向量计算部分,对每个分布,通过平均多个第一培训向量计算第一平均向量,通过平均多个第二培训向量计算第二平均向量;
自相关信息计算部分,它接收作为其输入的每个分布的多个第一培训向量和第一平均向量,和对每个分布计算第一培训向量的自相关信息的第一协方差矩阵的伪逆矩阵;
互相关信息计算部分,它接收作为其输入的每个分布的多个第一培训向量、第一平均向量、多个第二培训向量和第二平均向量,和对每个分布计算,第一和第二培训向量的互相关信息的第二协方差矩阵;和
特征抽取矩阵计算部分,它接收作为其输入的每个分布的第一协方差矩阵的伪逆矩阵和第二协方差矩阵,和从第一协方差矩阵的伪逆矩阵和第二协方差矩阵计算特征抽取矩阵。
12.根据权利要求10的参数估计装置,其中所述参数估计部分包括:
向量计算部分,它接收作为其输入的第二电子数据,和在第二电子数据排列成扫描顺序处计算向量模式的输入向量;
参数计算部分,它从输入的向量、对每个分布分类的第一平均向量、对每个分布分类的第二平均向量和对每个分布分类的特征轴取矩阵计算包括第二特征点的坐标的期望向量;和
模板匹配部分,它从期望向量计算第二特征点的坐标。
13.一种参数估计装置,包括:
图像输入部分,它将光学数据转变成电子数据;
参数输入部分,它从所述图像输入部分输入的第一电子数据输入第一特征点的坐标周围的图像;
学习部分,它将第一电子数据和第一特征点的坐标周围图像的结合信息组分为多个分布,对每个分布,从第一电子数据的多个项目计算自相关信息,从第一电子数据的多个项目和多个第一特征点的坐标周围图像计算互相关信息;用所述自相关信息和互相关信息,对每个分布计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标周围图像的特征抽取矩阵;和输出,对每个分布获得的从第一电子数据的多个项目计算的第一平均向量,对每个分布获得的并从多个第一特征点的坐标周围图像计算的第二平均向量,和对每个分布获得的特征抽取矩阵;
相关信息数据库,它存储从学习部分输入的和对每个分布获得的第一平均向量、第二平均向量和特征抽取矩阵;和
参数估计部分,它用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵对每个分布估计第二特征点坐标。
14.根据权利要求13的参数估计装置,其中所述学习部分包括:
第一培训向量计算部分,在第一电子数据排列成扫描顺序处它计算向量模式的第一培训向量;
第二培训向量计算部分,在第一特征点坐标顺序排列时计算向量模式的第二培训向量;
分布元素计算部分,产生多个第一培训向量和多个第二培训向量的多个结合向量,和用所述结合向量组的概率分布,将第一培训向量和第二培训向量分成多个分布;
平均向量计算部分,对每个分布计算平均多个第一培训向量的第一平均向量和平均多个第二培训向量的第二平均向量;
自相关信息计算部分,它接收作为其输入的对每个分布的多个第一培训向量和第一平均向量,和对每个分布计算第一培训向量的自相关信息的第一协方差矩阵的伪逆矩阵;
互相关信息计算部分,它接收作为其输入的对每个分布的多个第一培训向量、第一平均向量、多个第二培训向量和第二平均向量,和对每个分布计算第一和第二培训向量的互相关信息的第二协方差矩阵;和
特征抽取矩阵计算部分,它接收作为其输入的对每个分布的第一协方差矩阵的伪逆矩阵和第二协方差矩阵,和从第一协方差矩阵的伪逆矩阵和第二协方差矩阵计算特征抽取矩阵。
15.权利要求13的参数估计装置,其中所述参数估计部分包括:
向量计算部分,它接收作为其输入的第二电子数据,和在第二电子数据排列成扫描顺序处计算向量模式的输入向量;
参数计算部分,它从输入的向量、对每个分布分类的第一平均向量、对每个分布分类的第二平均向量和对每个分布分类的特征轴取矩阵计算包括第二特征点的坐标周围图像的期望向量;和
模板匹配部分,它从期望向量计算第二特征点的坐标周围图像、搜索匹配第二特征点坐标周围图像的、第二电子数据的图像区域的匹配区域和从所述匹配区域计算第二特征点的坐标。
16.一种参数估计装置,包括:
图像输入部分,它将光学数据转变成电子数据;
参数输入部分,它从所述图像输入部分输入的第一电子数据输入,第一特征点的坐标和第一特征点坐标周围的图像;
学习部分,它将第一电子数据、第一特征点的坐标和第一特征点坐标周围图像的结合信息组分为多个分布,对每个分布,从第一电子数据的多个项目计算自相关信息,从第一电子数据的多个项目、多个第一特征点的坐标和多个第一特征点坐标周围图像计算互相关信息;用所述自相关信息和互相关信息,对每个分布计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标和第二特征点坐标周围图像的特征抽取矩阵;和输出,对每个分布获得的,从多个项目第一电子数据计算的第一平均向量,对每个分布获得的,从多个第一特征点的坐标和第一特征点的坐标周围的图像计算的第二平均向量,和对每个分布获得的,特征抽取矩阵;
相关信息数据库,它存储从学习部分输入的对每个分布获得的第一平均向量,第二平均向量和特征抽取矩阵;和
参数估计部分,它用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵,对每个分布估计第二特征点坐标。
17.根据权利要求16的参数估计装置,其中所述学习部分包括:
第一培训向量计算部分,在第一电子数据排列成扫描顺序处它计算向量模式的第一培训向量;
第二培训向量计算部分,在第一特征点坐标顺序排列处计算向量模式的第二培训向量;
分布元素计算部分,它从多个第一培训向量和多个第二培训向量产生多个结合向量,和用所述结合向量组的概率分布,将第一培训向量和第二培训向量分成多个分布;
平均向量计算部分,对每个分布计算平均多个第一培训向量的第一平均向量和平均多个第二培训向量的第二平均向量;
自相关信息计算部分,它接收作为其输入的对每个分布的多个第一培训向量和第一平均向量,和对每个分布计算第一培训向量的自相关信息的第一协方差矩阵的伪逆矩阵;
互相关信息计算部分,它接收作为其输入的对每个分布的多个第一培训向量、第一平均向量、多个第二培训向量和第二平均向量,和对每个分布计算第一和第二培训向量的互相关信息的第二协方差矩阵;和
特征抽取矩阵计算部分,它接收作为其输入的每个分布的第一协方差矩阵的伪逆矩阵和第二协方差矩阵,和从第一协方差矩阵的伪逆矩阵和第二协方差矩阵计算特征抽取矩阵。
18.根据权利要求16的参数计算装置,其中所述参数估计部分包括:
向量计算部分,它接收作为其输入的第二电子数据,和在第二电子数据排列成扫描顺序处计算向量模式的输入向量;
参数计算部分,它从输入的向量对每个分布分类的第一平均向量、对每个分布分类的第二平均向量和对每个分布分类的特征轴取矩阵计算包括第二特征点的坐标和第二特征点坐标周围图像的期望向量;和
模板匹配部分,它从期望向量计算第二特征点的坐标和第二特征点坐标周围图像,搜索匹配第二特征点坐标周围图像的,第二电子数据的图像区域的匹配区域,和从所述匹配区域计算第二特征点的坐标。
19.一种数据匹配装置,包括:
图像输入部分,它将光学数据转变成电子数据;
参数输入部分,它从所述图像输入部分输入的第一电子数据输入第一特征点的坐标;
学习部分,它从第一电子数据的多个项目计算自相关信息;从第一电子数据的多个项目和多个第一特征点的坐标计算互相关信息;用所述自相关信息和互相关信息计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标的特征抽取矩阵;和输出从第一电子数据的多个项目计算的第一平均向量、从多个第一特征点的坐标计算的第二平均向量和特征抽取矩阵;
相关信息数据库,它存储从学习部分输入的第一平均向量,第二平均向量和特征抽取矩阵;和
参数估计部分,它用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵估计第二特征点坐标;
图像数据库,它存储第一电子数据;和
匹配部分,它从第二电子数据和第二特征点的坐标计算在匹配中使用的图像的匹配区域,和将所述匹配区域与在图像数据库中存储的第一电子数据匹配,以获得匹配结果。
20.一种数据匹配装置,包括:
图像输入部分,它将光学数据转变成电子数据;
参数输入部分,它从图像输入部分输入的第一电子数据输入第一特征点的坐标周围的图像;
学习部分,它从第一电子数据的多个项目计算自相关信息;从第一电子数据的多个项目和多个第一特征点的坐标周围图像计算互相关信息;用自相关信息和互相关信息计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标周围图像的特征抽取矩阵;输出从第一电子数据的多个项目计算的第一平均向量、从多个第一特征点坐标周围图像计算的第二平均向量和特征抽取矩阵;
相关信息数据库,它存储从学习部分输入的第一平均向量,第二平均向量和特征抽取矩阵;
参数估计部分,它用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵估计第二特征点的坐标;
图像数据库,它存储第一电子数据;和
匹配部分,它从第二电子数据和第二特征点的坐标计算在匹配中使用的图像的匹配区域,和将所述匹配区域与在图像数据库中存储的第一电子数据匹配,以获得匹配结果。
21.一种数据匹配装置,包括:
图像输入部分,它将光学数据转变成电子数据;
参数输入部分,它从所述图像输入部分输入的第一电子数据输入第一特征点的坐标和第一特征点坐标周围图像;
学习部分,它从第一电子数据的多个项目计算自相关信息;从第一电子数据多个的项目,和多个第一特征点的坐标与多个第一特征点坐标周围图像的结合向量,计算互相关信息;用所述自相关信息和互相关信息计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标和第二特征点的坐标周围图像的特征抽取矩阵;和输出从第一电子数据的多个项目计算的第一平均向量和从多个结合向量计算的第二平均向量和特征抽取矩阵;
相关信息数据库,它存储从学习部分输入的第一平均向量,第二平均向量和特征抽取矩阵;
参数估计部分,它用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵估计第二特征点坐标;
图像数据库,它存储第一电子数据;和
匹配部分,它从第二电子数据和第二特征点的坐标计算在匹配中使用的图像的匹配区域,和将所述匹配区域与在图像数据库中存储的第一电子数据匹配,以获得匹配结果。
22.一种数据匹配装置,包括:
图像输入部分,它将光学数据转变成电子数据;
参数输入部分,它从所述图像输入部分输入的第一电子数据输入第一特征点的坐标;
学习部分,它将第一电子数据和第一特征点的坐标的结合信息组分为多个分布,对每个分布从第一电子数据的多个项目计算自相关信息,从第一电子数据的多个项目的和多个第一特征点的坐标计算互相关信息;用所述自相关信息和互相关信息,对每个分布计算,用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标的特征抽取矩阵;和输出对每个分布获得的从第一电子数据的多个项目计算的第一平均向量、对每个分布获得的并从多个第一特征点的坐标计算的第二平均向量和对每个分布获得的特征抽取矩阵;
相关信息数据库,它存储从学习部分输入对每个分布获得的第一平均向量,第二平均向量和特征抽取矩阵;
参数估计部分,它用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵对每个分布估计第二特征点坐标;和
图像数据库,它存储第一电子数据;和
匹配部分,它从第二电子数据和第二特征点的坐标计算在匹配中使用的图像的匹配区域,和将所述匹配区域与在图像数据库中存储的第一电子数据匹配,以获得匹配结果。
23.一种数据匹配方法,包括步骤:
将光学数据转变为电子数据;
从图像输入部分输入的第一电子数据输入第一特征点的坐标;
从第一电子数据的多个项目计算自相关信息;从第一电子数据的多个项目和多个第一特征点的坐标计算互相关信息;用自相关信息和互相关信息计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标的特征抽取矩阵;和输出从第一电子数据的多个项目计算的第一平均向量、从多项第一特征点坐标计算的第二平均向量和所述特征抽取矩阵;
在相关信息数据库中存储从学习部分输入的第一平均向量、第二平均向量和特征抽取矩阵,和用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵估计第二特征点的坐标;
在图像数据库中存储第一电子数据,从第二电子数据和第二特征点的坐标计算匹配中使用的图像的匹配区域,和将所述匹配的区域与在图像数据库中存储的第一电子数据核对以获得匹配。
24.一种数据匹配方法,包括步骤:
将光学数据转变为电子数据;
从图像输入部分输入的第一电子数据输入第一特征点的坐标周围的图像;
从第一电子数据的多个项目计算自相关信息;从第一电子数据的多个项目和多个第一特征点坐标周围的图像计算互相关信息;用自相关信息和互相关信息计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标周围图像的特征抽取矩阵;和输出从第一电子数据计算的多个项目的第一平均向量、从多个第一特征点坐标周围的图像计算的第二平均向量和所述特征抽取矩阵;
在相关信息数据库中存储从学习部分输入的第一平均向量、第二平均向量和特征抽取矩阵,和用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵估计第二特征点的坐标;和
在图像数据库中存储第一电子数据,从第二电子数据和第二特征点的坐标计算匹配中使用的图像的匹配区域,和将所述的匹配区域与在图像数据库中存储的第一电子数据核对以获得匹配。
25.一种数据匹配方法,包括:
将光学数据转变为电子数据;
从图像输入部分输入的第一电子数据输入第一特征点的坐标和第一特征点的坐标周围的图像;
从第一电子数据的多个项目计算自相关信息;从第一电子数据的多个项目和多个第一特征点的坐标与多个第一特征点坐标周围的图像的结合向量计算互相关信息;用自相关信息和互相关信息计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标和第二特征点周围的图像的特征抽取矩阵;和输出从第一电子数据的多个项目计算的第一平均向量从多个项结合向量计算的第二平均向量和所述特征抽取矩阵;
在相关信息数据库中存储从学习部分输入的第一平均向量、第二平均向量和特征抽取矩阵,和用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵估计第二特征点的坐标;和
在图像数据库中存储第一电子数据,从第二电子数据和第二特征点的坐标计算匹配中使用的图像的匹配区域,和将所述的匹配区域与在图像数据库中存储的第一电子数据核对以获得匹配。
26.一种参数估计装置,包括:
将光学数据转变成电子数据;
从图像输入部分输入的第一电子数据输入第一特征点坐标;
将第一电子数据和第一特征点坐标的结合信息的组分为多个分布;对每个分布从第一电子数据的多个项目计算自相关信息,从第一电子数据的多个项目和多个第一特征点坐标计算互相关信息,对每个分布用自相关信息和互相关信息计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标的特征抽取矩阵;和输出对每个分布获得的从第一电子数据多个项目计算的第一平均向量、对每个分布获得的并从多个第一特征点的坐标计算的第二平均向量和对每个分布获得的,特征抽取矩阵;
存储从学习部分输入的对每个分布获得的第一平均向量、第二平均向量和特征抽取矩阵,和用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵,对每个分布估计第二特征点的坐标;和
在图像数据库中存储第一电子数据,从第二电子数据和第二特征点的坐标计算在匹配中使用的图像的匹配区域,和将所述匹配的区域与在所述图像数据库中存储的第一电子数据核对以获得匹配。
27.一种指令计算机进行如下处理的程序:
将光学数据转变为电子数据;
从图像输入部分输入的第一电子数据输入第一特征点的坐标;
从第一电子数据的多个项目计算自相关信息、从第一电子数据的多个项目和多个第一特征点的坐标计算互相关信息;从自相关信息和互相关信息计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标的特征抽取矩阵;和输出从第一电子数据的多个项目计算的第一平均向量、从多个第一特征点计算的第二平均向量和所述特征抽取矩阵;
在相关信息数据库中存储从学习部分输入的第一平均向量、第二平均向量和特征抽取矩阵,和用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵估计第二特征点的坐标;
在图像数据库中存储第一电子数据,从第二电子数据和第二特征点的坐标计算匹配中使用的图像的匹配区域,和将所述的匹配区域与在图像数据库中存储的第一电子数据核对以获得匹配。
28.一种指令计算机进行如下处理的程序:
将光学数据转变为电子数据;
从图像输入部分输入的第一电子数据输入第一特征点的坐标周围的图像;
从第一电子数据的多个项目计算自相关信息、从第一电子数据的多个项目和多个第一特征点坐标周围的图像计算互相关信息;用自相关信息和互相关信息计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标周围图像的特征抽取矩阵;和输出从第一电子数据的多个项目计算的第一平均向量、从第一电子数据的多个项目坐标周围的图像计算的第二平均向量和所述特征抽取矩阵;
在相关信息数据库中存储,从学习部分输入的第一平均向量第二平均向量和特征抽取矩阵,和用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵估计第二特征点的坐标;和
在图像数据库中存储第一电子数据,从第二电子数据和第二特征点的坐标计算匹配中使用的图像的匹配区域,和将所述的匹配区域与在图像数据库中存储的第一电子数据核对以获得匹配。
29.一种指令计算机进行如下处理的程序:
将光学数据转变为电子数据;
从图像输入部分输入的第一电子数据输入第一特征点的坐标和第一特征点坐标周围的图像;
从第一电子数据的多个项目计算自相关信息;从第一电子数据的多个项目和多个第一特征点的坐标与多个第一特征点坐标周围的图像的结合向量计算互相关信息;用自相关信息和互相关信息计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标和第二特征点坐标周围的图像的特征抽取矩阵;和输出从多项第一电子数据计算的第一平均向量,从多项结合向量计算的第二平均向量和所述特征抽取矩阵;
在相关信息数据库中存储,从学习部分输入的第一平均向量、第二平均向量和特征抽取矩阵,和用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵估计第二特征点的坐标;
在图像数据库中存储第一电子数据,从第二电子数据和第二特征点的坐标计算匹配中使用的图像的匹配区域,和将所述的匹配区域与在图像数据库中存储的第一电子数据核对以获得匹配。
30.一种指令计算机进行如下处理的程序:
将光学数据转变成电子数据;
从图像输入部分输入的第一电子数据输入第一特征点坐标;
将第一电子数据和第一特征点坐标的结合信息的组分为多个分布;对每个分布从第一电子数据的多个项目计算自相关信息,从第一电子数据的多个项目和多个第一特征点坐标计算互相关信息;对每个分布用自相关信息和互相关信息计算用于估计从图像输入部分输入的第二电子数据的第二特征点的坐标的特征抽取矩阵;和输出对每个分布获得的从第一电子数据的多个项目计算的第一平均向量、对每个分布获得的并从多个第一特征点的坐标计算的第二平均向量和对每个分布获得的特征抽取矩阵;
存储对每个分布获得的,从学习部分输入的第一平均向量、第二平均向量和特征抽取矩阵,和用第二电子数据、第一平均向量、第二平均向量和特征抽取矩阵,对每个分布估计第二特征点的坐标;和
在图像数据库中存储第一电子数据,从第二电子数据和第二特征点的坐标计算在匹配中使用的图像的匹配区域,和将所述匹配的区域与在所述图像数据库中存储的第一电子数据核对以获得匹配。
CNB028034945A 2001-09-25 2002-09-25 参数估计装置和数据匹配装置 Expired - Lifetime CN1275201C (zh)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP291620/2001 2001-09-25
JP291620/01 2001-09-25
JP2001291620 2001-09-25
JP129428/2002 2002-04-30
JP2002129428 2002-04-30
JP129428/02 2002-04-30

Publications (2)

Publication Number Publication Date
CN1484816A true CN1484816A (zh) 2004-03-24
CN1275201C CN1275201C (zh) 2006-09-13

Family

ID=26622817

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB028034945A Expired - Lifetime CN1275201C (zh) 2001-09-25 2002-09-25 参数估计装置和数据匹配装置

Country Status (6)

Country Link
US (1) US7224823B2 (zh)
EP (1) EP1431915B1 (zh)
CN (1) CN1275201C (zh)
CA (1) CA2427719A1 (zh)
DE (1) DE60226754D1 (zh)
WO (1) WO2003027956A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8542928B2 (en) 2005-09-26 2013-09-24 Canon Kabushiki Kaisha Information processing apparatus and control method therefor
CN105513038A (zh) * 2014-10-20 2016-04-20 网易(杭州)网络有限公司 图像匹配方法及手机应用测试平台
CN105701766A (zh) * 2016-02-24 2016-06-22 网易(杭州)网络有限公司 图形匹配方法和装置
CN110197100A (zh) * 2018-02-27 2019-09-03 北京猎户星空科技有限公司 物体定位方法和装置

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706487B2 (en) * 2003-10-10 2010-04-27 Agere Systems Inc. Method for training a transceiver for high speed communications
US7483559B2 (en) * 2004-08-13 2009-01-27 Synopsys, Inc. Method and apparatus for deblurring mask images
JP2006098151A (ja) * 2004-09-29 2006-04-13 Dainippon Screen Mfg Co Ltd パターン検査装置およびパターン検査方法
US7646916B2 (en) * 2005-04-15 2010-01-12 Mississippi State University Linear analyst
JP4616120B2 (ja) * 2005-08-08 2011-01-19 株式会社日立ハイテクノロジーズ 画像処理装置及び検査装置
US7817826B2 (en) * 2005-08-12 2010-10-19 Intelitrac Inc. Apparatus and method for partial component facial recognition
US7627149B2 (en) * 2005-11-25 2009-12-01 Quantum Signal, Llc Dot templates for object detection in images
EP2064653A4 (en) * 2006-09-01 2012-09-05 Sensen Networks Pty Ltd METHOD AND SYSTEM FOR IDENTIFYING ONE OR MORE FEATURES REPRESENTED IN SEVERAL SENSOR-BASED DATA SETS
US20080144899A1 (en) * 2006-11-30 2008-06-19 Manoj Varma Process for extracting periodic features from images by template matching
US20080270425A1 (en) * 2007-04-27 2008-10-30 James Cotgreave System and method for connecting individuals in a social networking environment based on facial recognition software
FR2938680B1 (fr) * 2008-11-14 2012-11-16 Saint Louis Inst Procede de construction en temps reel de vecteurs prototypes a partir de donnees d'entree d'un processus neuronal
JP5669082B2 (ja) 2010-04-19 2015-02-12 パナソニックIpマネジメント株式会社 照合装置
JP5524692B2 (ja) * 2010-04-20 2014-06-18 富士フイルム株式会社 情報処理装置および方法ならびにプログラム
JP5839971B2 (ja) * 2010-12-14 2016-01-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2013145496A1 (ja) * 2012-03-27 2013-10-03 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
US9129148B1 (en) 2012-11-09 2015-09-08 Orbeus Inc. System, method and apparatus for scene recognition
US9190061B1 (en) * 2013-03-15 2015-11-17 Google Inc. Visual speech detection using facial landmarks
US20150317511A1 (en) * 2013-11-07 2015-11-05 Orbeus, Inc. System, method and apparatus for performing facial recognition
US9677897B2 (en) 2013-11-13 2017-06-13 Elwha Llc Dead reckoning system for vehicles
US9412028B2 (en) * 2013-11-13 2016-08-09 Elwha Llc Wheel slip or spin notification
US9311340B2 (en) 2014-04-15 2016-04-12 International Business Machines Corporation Multiple partial-image compositional searching
JP6325405B2 (ja) * 2014-09-22 2018-05-16 株式会社東芝 特徴点検出装置、方法及びプログラム
US10133918B1 (en) 2015-04-20 2018-11-20 Snap Inc. Generating a mood log based on user images
US10061977B1 (en) 2015-04-20 2018-08-28 Snap Inc. Determining a mood for a group
US11514720B2 (en) * 2019-01-02 2022-11-29 Blink Technologies Inc. Geometrically constrained, unsupervised training of convolutional autoencoders for extraction of eye landmarks
US10970953B2 (en) * 2019-03-21 2021-04-06 Techolution LLC Face authentication based smart access control system

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2978675A (en) * 1959-12-10 1961-04-04 Bell Telephone Labor Inc Character recognition system
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
US5283839A (en) * 1990-12-31 1994-02-01 Neurosciences Research Foundation, Inc. Apparatus capable of figure-ground segregation
EP0500315B1 (en) * 1991-02-18 1999-07-21 Sumitomo Cement Co. Ltd. Method of optical recognition and classification of pattern
JP3066173B2 (ja) 1992-03-18 2000-07-17 三洋電機株式会社 パターンマッチング方法
JP3557659B2 (ja) 1994-08-22 2004-08-25 コニカミノルタホールディングス株式会社 顔抽出方法
US6188776B1 (en) * 1996-05-21 2001-02-13 Interval Research Corporation Principle component analysis of images for the automatic location of control points
US6044168A (en) * 1996-11-25 2000-03-28 Texas Instruments Incorporated Model based faced coding and decoding using feature detection and eigenface coding
US6178261B1 (en) 1997-08-05 2001-01-23 The Regents Of The University Of Michigan Method and system for extracting features in a pattern recognition system
EP0944018B1 (en) 1998-03-19 2011-08-24 Panasonic Corporation Method and apparatus for recognizing image pattern, method and apparatus for judging identity of image patterns, recording medium for recording the pattern recognizing method and recording medium for recording the pattern identity judging method
US6301387B1 (en) * 1998-12-18 2001-10-09 University Of Washington Template matching using correlative auto-predictive search
JP2001014465A (ja) 1999-06-29 2001-01-19 Matsushita Electric Ind Co Ltd 物体認識方法及び物体認識装置
JP4543455B2 (ja) * 1999-10-18 2010-09-15 パナソニック株式会社 パターン認識方法及びパターン認識装置、並びにパターン照合方法及びパターン照合装置
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
JP4443722B2 (ja) * 2000-04-25 2010-03-31 富士通株式会社 画像認識装置及び方法
US20030026484A1 (en) * 2001-04-27 2003-02-06 O'neill Mark Automated image identification system
US6895103B2 (en) * 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8542928B2 (en) 2005-09-26 2013-09-24 Canon Kabushiki Kaisha Information processing apparatus and control method therefor
CN105513038A (zh) * 2014-10-20 2016-04-20 网易(杭州)网络有限公司 图像匹配方法及手机应用测试平台
CN105513038B (zh) * 2014-10-20 2019-04-09 网易(杭州)网络有限公司 图像匹配方法及手机应用测试平台
CN105701766A (zh) * 2016-02-24 2016-06-22 网易(杭州)网络有限公司 图形匹配方法和装置
CN105701766B (zh) * 2016-02-24 2019-03-19 网易(杭州)网络有限公司 图像匹配方法和装置
CN110197100A (zh) * 2018-02-27 2019-09-03 北京猎户星空科技有限公司 物体定位方法和装置

Also Published As

Publication number Publication date
US7224823B2 (en) 2007-05-29
EP1431915A1 (en) 2004-06-23
CA2427719A1 (en) 2003-05-01
WO2003027956A1 (fr) 2003-04-03
US20040022432A1 (en) 2004-02-05
CN1275201C (zh) 2006-09-13
EP1431915B1 (en) 2008-05-21
EP1431915A4 (en) 2007-02-28
DE60226754D1 (de) 2008-07-03

Similar Documents

Publication Publication Date Title
CN1275201C (zh) 参数估计装置和数据匹配装置
CN1151465C (zh) 利用候选表进行分类的模式识别设备及其方法
CN1194319C (zh) 对表格式数据进行查找、列表及分类的方法和装置
CN100345165C (zh) 基于图像的超现实主义三维脸部建模的方法和设备
CN1320490C (zh) 脸部检测及跟踪
CN1369856A (zh) 图像处理方法和装置
CN1940912A (zh) 文件作成系统、文件作成方法、程序以及存储介质
CN1091906C (zh) 模式识别方法和系统以及模式数据处理系统
CN1098515C (zh) 字符发生装置及其实现方法
CN1596420A (zh) 用于学习模式分类和判定值估计的方法和装置
CN1912890A (zh) 人脸元数据生成设备和生成方法、人脸识别系统和方法
CN1249046A (zh) 利用指纹及类似印痕的流线比较和解释的身份验证系统和方法
CN1794266A (zh) 生物特征融合的身份识别和认证方法
CN1186936C (zh) 图像通信终端
CN1664846A (zh) 基于统计结构特征的联机手写汉字识别方法
CN1505431A (zh) 用于从图象屏识别字符图象的装置和方法
CN1276572A (zh) 手形手势识别装置、识别方法及含该方法程序的记录媒体
CN1281191A (zh) 信息检索方法和信息检索装置
CN1200387C (zh) 基于单个字符的统计笔迹鉴别和验证方法
CN1902911A (zh) 节目推荐装置、节目推荐装置的节目推荐方法以及计算机程序
CN1162795A (zh) 模式识别设备与方法
CN100348050C (zh) 目标检测
CN1251130C (zh) 多字体多字号印刷体藏文字符识别方法
CN1786966A (zh) 信息处理
CN1940965A (zh) 信息处理设备及其控制方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CX01 Expiry of patent term
CX01 Expiry of patent term

Granted publication date: 20060913