CN101609506A - 对象识别装置、方法及其程序以及记录该程序的记录介质 - Google Patents

对象识别装置、方法及其程序以及记录该程序的记录介质 Download PDF

Info

Publication number
CN101609506A
CN101609506A CNA2009101463334A CN200910146333A CN101609506A CN 101609506 A CN101609506 A CN 101609506A CN A2009101463334 A CNA2009101463334 A CN A2009101463334A CN 200910146333 A CN200910146333 A CN 200910146333A CN 101609506 A CN101609506 A CN 101609506A
Authority
CN
China
Prior art keywords
point
image
processing target
feature point
characteristic quantity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2009101463334A
Other languages
English (en)
Other versions
CN101609506B (zh
Inventor
中村章
岩井嘉昭
芦原隆之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2008300506A external-priority patent/JP4569698B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN101609506A publication Critical patent/CN101609506A/zh
Application granted granted Critical
Publication of CN101609506B publication Critical patent/CN101609506B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Abstract

公开了一种对象识别装置、方法及其程序以及记录该程序的记录介质。所述对象识别装置包括:模型图像处理单元,其具有在模型图像中设定特征点集并检测该特征点集的特征量的特征点集判定单元以及对模型图像进行分割的分割单元;处理目标图像处理单元,其具有在处理目标图像中设定特征点并检测该特征点的特征量的特征点设定单元;匹配单元,其将模型图像中的特征点集的特征量与处理目标图像中的特征点的特征量相比较,以检测与特征点集相对应的特征点,从而执行匹配;以及确定单元,其对匹配单元中的处理结果进行确定,以确定处理目标图像中存在/不存在模型对象。

Description

对象识别装置、方法及其程序以及记录该程序的记录介质
技术领域
本发明涉及对象识别装置、对象识别方法、对象识别方法的程序以及其上记录有对象识别方法的程序的记录介质。本发明可以应用于从记录在数据库中的多个静止图像中搜索特定被摄体的静止图像的情况。本发明具有以下优点:通过对模型图像或处理目标图像进行分割并在同一分割区中设定基点及相对应的支持点,使得即使在模型图像带有背景的情况下,也能抑制精度劣化。
背景技术
近年来,电子照相机等利用通过模板匹配的对象识别来从处理目标图像中检测所期望的被识别对象(下文中称作模型对象)。通过模板匹配的对象识别可能不足以处理在模型对象被部分地隐藏时、在模型对象的方向改变时、在照明改变时等的情况。
关于这种对象识别,JP-A-2004-326693提出了一种通过基于模型对象的局部特征量来进行匹配从而识别对象的方法。根据JP-A-2004-326693中所描述的方法,能够减小由于照明的改变而导致的检测精度的劣化,从而能够进行鲁棒的对象识别。然而,在这种方法中,如果模型对象中的纹理成分的数量很少,则精度可能劣化。
JP-A-2008-077626提出了一种通过基于模型对象的边缘图像中的局部区域内的基点以及支持该基点的支持点来进行匹配从而识别对象的方法。
根据JP-A-2008-077626中所描述的方法,如示出了由箭头A所指示的、模型图像M1与处理目标图像L之间的关系的图36A及图36B所示,在模型对象MO中不存在纹理成分时,即使模型对象MO隐藏在处理目标图像L中,也能够防止精度劣化。模型图像是具有模型对象的处理基准图像。
发明内容
在将这种对象识别应用于各种应用时,如图36C所示,可以预期模型图像中捕捉了背景。在这种情况下,关于使用模型图像M2的对象识别,如由箭头B所指示的,从处理目标图像L中检测带有背景的模型图像M2中的模型对象MO。
然而,在现有技术的对象识别中,在模型图像中捕捉了背景时,精度显著地劣化。
需要一种即使在模型图像中捕捉了背景也能够抑制精度劣化的对象识别装置及对象识别方法、对象识别方法的程序以及其上记录有对象识别方法的程序的记录介质。
根据本发明的实施例,一种对象识别装置包括:模型图像处理单元,其处理模型图像;处理目标图像处理单元,其对处理目标图像进行处理;匹配单元,其对所述模型图像处理单元及所述处理目标图像处理单元中的处理结果进行匹配;以及确定单元,其对所述匹配单元中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象。所述模型图像处理单元具有:特征点集判定单元,其在所述模型图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量。所述处理目标图像处理单元具有:特征点设定单元,其在所述处理目标图像中设定特征点,并检测该特征点的特征量。所述匹配单元将所述模型图像中的所述特征点集的特征量与所述处理目标图像中的所述特征点的特征量相比较,以检测与所述特征点集相对应的特征点,从而执行匹配。所述模型图像处理单元具有:分割单元,其对所述模型图像进行分割。所述特征点集判定单元针对所述模型图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
根据本发明的另一实施例,一种对象识别装置包括:模型图像处理单元,其处理模型图像;处理目标图像处理单元,其对处理目标图像进行处理;匹配单元,其对所述模型图像处理单元及所述处理目标图像处理单元中的处理结果进行匹配;以及确定单元,其对所述匹配单元中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象。所述处理目标图像处理单元具有:特征点集判定单元,其在所述处理目标图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量。所述模型图像处理单元具有:特征点设定单元,其在所述模型图像中设定特征点,并检测该特征点的特征量。所述匹配单元将所述处理目标图像中的所述特征点集的特征量与所述模型图像中的所述特征点的特征量相比较,以检测与所述特征点集相对应的特征点,从而执行匹配。所述处理目标图像处理单元具有:分割单元,其对所述处理目标图像进行分割。所述特征点集判定单元针对所述处理目标图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
根据本发明的又一实施例,一种对象识别方法包括以下步骤:处理模型图像;对处理目标图像进行处理;对所述处理模型图像的步骤及所述对处理目标图像进行处理的步骤中的处理结果进行匹配;以及对所述匹配步骤中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象。所述处理模型图像的步骤具有以下子步骤:在所述模型图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,从而判定该特征点集。所述对处理目标图像进行处理的步骤具有以下子步骤:在所述处理目标图像中设定特征点,并检测该特征点的特征量。在所述匹配步骤中,通过将所述模型图像中的所述特征点集的特征量与所述处理目标图像中的所述特征点的特征量相比较,来检测与所述特征点集相对应的特征点,从而执行匹配。所述处理模型图像的步骤具有以下子步骤:对所述模型图像进行分割。在所述判定特征点集的步骤中,针对所述模型图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
根据本发明的还一实施例,一种对象识别方法包括以下步骤:处理模型图像;对处理目标图像进行处理;对所述处理模型图像的步骤及所述对处理目标图像进行处理的步骤中的处理结果进行匹配;以及对所述匹配步骤中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象。所述对处理目标图像进行处理的步骤具有以下子步骤:在所述处理目标图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,从而判定该特征点集。所述处理模型图像的步骤具有以下子步骤:在所述模型图像中设定特征点,并检测该特征点的特征量。在所述匹配步骤中,通过将所述处理目标图像中的所述特征点集的特征量与所述模型图像中的所述特征点的特征量相比较,来检测与所述特征点集相对应的特征点,从而执行匹配。所述对处理目标图像进行处理的步骤具有以下子步骤:对所述处理目标图像进行分割。在所述判定特征点集的步骤中,针对所述处理目标图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
根据本发明的还一实施例,提供了一种可由计算机来执行的、对象识别方法的程序。该程序包括以下步骤:处理模型图像;对处理目标图像进行处理;对所述处理模型图像的步骤及所述对处理目标图像进行处理的步骤中的处理结果进行匹配;以及对所述匹配步骤中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象。所述处理模型图像的步骤具有以下子步骤:在所述模型图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,从而判定该特征点集。所述对处理目标图像进行处理的步骤具有以下子步骤:在所述处理目标图像中设定特征点,并检测该特征点的特征量。在所述匹配步骤中,通过将所述模型图像中的所述特征点集的特征量与所述处理目标图像中的所述特征点的特征量相比较,来检测与所述特征点集相对应的特征点,从而执行匹配。所述处理模型图像的步骤具有以下子步骤:对所述模型图像进行分割。在所述判定特征点集的步骤中,针对所述模型图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
根据本发明的还一实施例,提供了一种可由计算机来执行的、对象识别方法的程序。该程序包括以下步骤:处理模型图像;对处理目标图像进行处理;对所述处理模型图像的步骤及所述对处理目标图像进行处理的步骤中的处理结果进行匹配;以及对所述匹配步骤中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象。所述对处理目标图像进行处理的步骤具有以下子步骤:在所述处理目标图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,从而判定该特征点集。所述处理模型图像的步骤具有以下子步骤:在所述模型图像中设定特征点,并检测该特征点的特征量。在所述匹配步骤中,通过将所述处理目标图像中的所述特征点集的特征量与所述模型图像中的所述特征点的特征量相比较,来检测与所述特征点集相对应的特征点,从而执行匹配。所述对处理目标图像进行处理的步骤具有以下子步骤:对所述处理目标图像进行分割。在所述判定特征点集的步骤中,针对所述处理目标图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
根据本发明的还一实施例,提供了一种其上记录有可由计算机来执行的、对象识别方法的程序的记录介质。所述程序包括以下步骤:处理模型图像;对处理目标图像进行处理;对所述处理模型图像的步骤及所述对处理目标图像进行处理的步骤中的处理结果进行匹配;以及对所述匹配步骤中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象。所述处理模型图像的步骤具有以下子步骤:在所述模型图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,从而判定该特征点集。所述对处理目标图像进行处理的步骤具有以下子步骤:在所述处理目标图像中设定特征点,并检测该特征点的特征量。在所述匹配步骤中,通过将所述模型图像中的所述特征点集的特征量与所述处理目标图像中的所述特征点的特征量相比较,来检测与所述特征点集相对应的特征点,从而执行匹配。所述处理模型图像的步骤具有以下子步骤:对所述模型图像进行分割。在所述判定特征点集的步骤中,针对所述模型图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
根据本发明的还一实施例,提供了一种其上记录有可由计算机来执行的、对象识别方法的程序的记录介质。所述程序包括以下步骤:处理模型图像;对处理目标图像进行处理;对所述处理模型图像的步骤及所述对处理目标图像进行处理的步骤中的处理结果进行匹配;以及对所述匹配步骤中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象。所述对处理目标图像进行处理的步骤具有以下子步骤:在所述处理目标图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,从而判定该特征点集。所述处理模型图像的步骤具有以下子步骤:在所述模型图像中设定特征点,并检测该特征点的特征量。在所述匹配步骤中,通过将所述处理目标图像中的所述特征点集的特征量与所述模型图像中的所述特征点的特征量相比较,来检测与所述特征点集相对应的特征点,从而执行匹配。所述对处理目标图像进行处理的步骤具有以下子步骤:对所述处理目标图像进行分割。在所述判定特征点集的步骤中,针对所述处理目标图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
根据本发明的实施例,能够在模型图像中设定包括基点及支持点的特征点集,并且能够基于该特征点集的局部特征量来执行匹配。因此,即使模型对象中的纹理成分的数量很少,也能够进行鲁棒的识别。另外,由于在同一分割区中设定基点及相对应的支持点以设定特征点集,因此能够防止对基点及支持点的设定横跨背景及模型对象。因此,能够防止由于对基点及支持点的设定横跨背景及模型对象而导致识别精度劣化。
根据本发明的实施例,能够在处理目标图像中设定包括基点及支持点的特征点集,并且能够基于该特征点集的局部特征量来执行匹配。因此,即使处理目标图像中的模型对象中的纹理成分的数量很少,也能够进行鲁棒的识别。另外,由于在同一分割区中设定基点及相对应的支持点以设定特征点集,因此能够防止对基点及支持点的设定横跨背景及模型对象。因此,能够防止由于对基点及支持点的设定横跨背景及模型对象而导致识别精度劣化。
根据本发明的实施例,即使模型图像中捕捉了背景,也能够抑制精度劣化。
附图说明
图1是示出根据本发明第一实施例的对象识别装置中的模型图像处理单元的结构的框图;
图2是示出根据本发明第一实施例的对象识别装置的框图;
图3是例示对特征量描述中心的设定的示意图;
图4是例示用于设定特征量描述中心的区域的示意图;
图5是例示收缩的示意图;
图6是例示细线化(thinning)的示意图;
图7是例示用于特征量检测的微小区域的示意图;
图8是例示特征量检测的示意图;
图9是例示直方图的示意图;
图10是例示旋转归一化的示意图;
图11A至图11C是例示特征点集的示意图;
图12是例示特征点集的特征量的示意图;
图13是示出查询图像处理单元的框图;
图14是示出边缘提取处理的流程图;
图15是示出水平差分滤波器的图;
图16是示出垂直差分滤波器的图;
图17是例示查询图像中的特征点设定的示意图;
图18是示出匹配单元的框图;
图19A至图19C是例示匹配处理的示意图;
图20是例示对异常值的去除的示意图;
图21是示出确定单元的框图;
图22是例示模型图像再处理单元中的特征点设定的示意图;
图23是例示背景均匀时的特征点设定的示意图;
图24是例示背景均匀时的特征点集设定的示意图;
图25是例示存在背景时的特征点设定的示意图;
图26是例示存在背景时的特征点集设定的示意图;
图27是示出根据本发明第四实施例的数字照相机的框图;
图28是示出图27中的数字照相机中的控制器的处理序列的流程图;
图29是例示图28中的处理序列的示意图;
图30是详细地示出图28中的处理序列中的特征点集选择处理的流程图;
图31是例示图30中的处理序列中的剪切模型图像的示意图;
图32是例示图30中的处理序列中的基于重要性的选择的示意图;
图33是详细地示出图30中的处理序列中的重要性判定处理的流程图;
图34是接在图30之后的流程图;
图35是例示图33中的处理序列的示意图;以及
图36A至图36C是例示模型图像与处理目标图像之间的关系的示意图。
具体实施方式
现在参照附图来对本发明的实施例进行详细的描述。
1.第一实施例
2.第二实施例
3.第三实施例
4.第四实施例
5.第五实施例
6.变型例
<第一实施例>
[总体结构]
图2是根据本发明第一实施例的对象识别装置的功能框图。对象识别装置1接受通过用户的操作从包括记录在数据库中的多个静止图像的自然图像中选择的模型图像。对象识别装置1将在由用户所指定的搜索范围内的自然图像顺序地设定为处理目标图像(下文中称作查询图像),并从处理目标图像中检测模型图像中的模型对象。
对象识别装置1是具有能够存储多个自然图像的记录装置的计算机。图2中所示的功能块是通过设置在该计算机中的中央处理单元执行对象识别程序来实现的。对象识别程序预先安装在对象识别装置1中。作为另一种选择,对象识别程序可以通过多种记录介质(例如,光盘、磁盘、存储卡等)来提供,或者可以通过网络(例如,因特网等)来提供。
在对象识别装置1中,模型图像处理单元2及查询图像处理单元3分别地对模型图像及查询图像进行处理,并输出处理结果。匹配单元4基于模型图像处理单元2及查询图像处理单元3中的处理结果来执行匹配。确定单元5基于匹配单元4中的处理结果来输出确定结果。
[模型图像处理]
图1是详细地示出模型图像处理单元2的框图。在模型图像处理单元2中,模型图像输入单元11接受通过用户的操作从记录在记录装置(未示出)中的多个自然图像中选择的模型图像M。
多分辨率单元12使模型图像M的分辨率变化,以生成其中样本的数量顺序地且逐渐地改变的多个模型图像。因此,多分辨率单元12生成金字塔结构的模型图像,其中,所输入的模型图像的图像尺寸根据处理目标图像中的模型对象的尺度的改变而被扩大及缩小。通过使用预定滤波器的滤波来执行分辨率转换。
分割单元13对由多分辨率单元12所生成的、具有不同的分辨率的模型图像进行分割。具体地说,分割单元13利用其中基于颜色来执行分割的颜色分割来分割模型图像。可以利用多种方法来执行颜色分割,但在本实施例中,利用在CVPR1999中由Y.Deng、B.S.Manjunath和H.Shin所著的“Color Image Segmentation”中所公开的方法来执行颜色分割。
分割并不限于颜色分割,而是可以利用多种方法来执行。因此,可以基于亮度级、频率成分或它们的组合来分割模型图像。对于基于亮度级或频率成分的分割,通过基于多个确定基准值来确定各个像素的亮度级或频率成分,从而进行分割。
对于分割,分割单元13在分割区之间设定其宽度与预定数量的像素相对应(例如,1像素宽)的分割边界。
特征点提取单元14在各分辨率的模型图像中所设定的每个分割区的分割边界处顺序地设定特征点,并检测各特征点的特征量。具体地说,如图3所示,特征点提取单元14在各分割区的分割边界处以预定间隔来设定特征点P。在这种情况下,在对象识别装置1中,随着分割区的面积及周长的减小,要在一个分割区中设定的特征点的数量减少,因而以下所述的特征点集的数量减少。因此,在对象识别装置1中,能够在抑制精度劣化的同时省去后续的无用处理,结果,能够使整个处理简化。
可以在分割边界处随机地设定预定数量的特征点,而不是以预定间隔来设定特征点P。在这种情况下,随着分割区的面积及周长的减小,要随机地设定的特征点的数量减少,因而特征点集的数量减少。因此,能够在抑制精度劣化的同时省去后续的无用处理,结果,能够使整个处理简化。
特征点提取单元14针对各特征点P,在分割区内,在分割边界的法线上与相对应的特征点P相距根据特征量描述半径的偏移距离处,设定特征量描述中心O。特征量描述中心O是限定相对应的特征点的局部区域的基准位置。在本实施例中,将以特征量描述中心O为中心的圆形区域设定为相对应的特征点的局部区域,并且根据该圆形局部区域来计算相对应的特征点的特征量。
特征量描述半径是圆形区域的半径。在本实施例中,将特征量描述半径设定成预定的标准值,但是可以根据各个模型图像、各个分割区及/或分割区的各个部分的分割边界信息来设定特征量描述半径。该设定是通过以下步骤来执行的:计算用于对在分割边界处的各部分的预定区域中包含的分割边界信息进行评价的评价值,并基于该评价值、按照使得分割边界信息变成对于匹配而言有意义的小的边界信息的方式来设定半径。
将偏移距离设定成比特征量描述半径小的值。在本实施例中,将偏移距离设定成为特征量描述半径的2/3的值。
首先设定特征量描述中心O,然后可以设定相对应的特征点P,而不是首先设定特征点P然后设定特征量描述中心O。在这种情况下,如图4(为了与图3相比较而提供该图)所示,各分割区收缩了所述偏移距离,并且通过将与偏移距离相对应的、分割区的外部去除来形成用于设定特征量描述中心的区域。接下来,在用于设定特征量描述中心的区域的外周上以预定间隔来设定特征量描述中心O。因此,随着分割区的面积及周长的减小,要设定在一个分割区中的特征量描述中心O的数量减少,并且相对应的特征点的数量也减少。因此,要设定在一个分割区中的特征点集的数量减少。结果,能够在抑制精度劣化的同时省去后续的无用处理,因而能够使整个处理简化。
可以随机地设定预定数量的特征量描述中心O,而不是以预定间隔来设定特征量描述中心O。在这种情况下,随着分割区的面积及周长的减小,要设定的特征点的数量减少。结果,能够在抑制精度劣化的同时省去后续的无用处理,因而能够使处理简化。
接下来,从各特征量描述中心向用于设定的区域的外侧设定用于设定的区域的轮廓线的法线,并在该法线与分割边界之间的交点处设定特征点P。
可以将分割边界处的最靠近各特征量描述中心的点设定为特征点P,而不是在法线与分割边界之间的交点处设定特征点P。在这种情况下,根据需要,可以根据各特征点来重新设定特征量描述中心O。
如图5所示,在分割区具有宽度是偏移距离的两倍的窄部分的情况下,在设定用于设定特征量描述中心的区域时,该窄部分被收缩去除,不能在该窄部分处设定用于设定特征量描述中心的区域。结果,不能在窄部分处设定特征点P。
如图6(为了与图5相比较而提供该图)所示,可以将分割区细线化,并且可以将要通过细线化来创建的区域叠加在要通过收缩而形成的区域上,以限定用于设定特征量描述中心的区域。在这种情况下,至少对于窄部分,根据需要来设定特征点P,然后重新设定特征量描述中心O。
将特征量描述中心O从特征点的位置向分割区的内侧移动偏移距离的原因是,为了在分割区是模型对象的分割区且分割区的边界是分割区与背景之间的边界时,在匹配时减小背景的影响和提高匹配精度。因此,在能够确保对实际使用而言足够的匹配精度时,可以将特征量描述中心O设定在特征点P处。
特征点提取单元14检测各特征点的特征量。特征点提取单元14将以特征量描述中心O为中心且具有特征量描述半径的圆形区域限定为相对应的特征点的局部区域。特征点提取单元14将要在局部区域中检测到的特征量设定为相对应的特征点的特征量。
特征点提取单元14基于包含在局部区域中的分割边界信息来检测特征量,使得即使模型对象中的纹理成分的数量很少,也能够确保足够的匹配精度。如果能够确保对于实际使用而言足够的匹配精度,则例如在基于边缘信息(而不是分割边界信息)来检测特征量时,或者在基于局部区域中的频率成分来检测特征量时等,可以广泛地应用利用各种方法而检测到的特征量。
具体地说,特征点提取单元14将由局部区域划分成的微小区域的分割边界信息汇总,并检测特征量。在本实施例中,如图7所示,将局部区域沿径向及周向划分,以形成微小区域。图7示出了局部区域沿径向被划分成3等分且沿周向被划分成8等分的示例。可以根据场合要求,以各种方式来设定要划分成的部分的数量。在能够确保对于实际使用而言足够的匹配精度时,可以将局部区域沿径向或周向划分以形成微小区域。
如图8及图9(为了与图7相比较而提供这些图)所示,特征点提取单元14按照微小区域来将分割边界点的数量转化成直方图,并基于从特征量描述中心O观看时的角度θ及距离r来创建二维直方图(图9)。特征点提取单元14利用该二维直方图来检测各特征点的特征量。分割边界点是分割边界处的连续的像素,或分割边界处的具有预定间距的像素。在图9中,分布度最大的微小区域用黑色来表示,分布度高的微小区域用阴影线来表示,分布度为0的微小区域用白色来表示。
在这种情况下,通过使用分割边界点的位置信息作为分割边界信息来计算各特征点的特征量。然而,使用分割边界信息来检测特征量并不限于上述方法。例如,可以通过使用分割边界点的位置信息及限定分割边界的参数来计算各特征点的特征量。在这种情况下,可以通过将各微小区域中的分割边界点处的参数汇总并将参数转化成直方图(而不是分割边界点的数量)来检测特征量。例如,作为参数,可以使用沿垂直地穿过分割边界的方向的像素值的梯度。在使用边缘信息来检测特征量时,可以针对各个区域来将边缘上的点汇总,或者针对各个区域来将限定边缘的参数(例如,梯度等)汇总,并在检测特征量时使用。
为了实现所提取的特征量的旋转不变性,特征点提取单元14提取基准轴方向,并执行对直方图的旋转归一化。特征点提取单元14检测与直方图中的最大分布度相对应的角度,并将该角度的方向限定为基准轴方向。如图10(为了与图9相比较而提供该图)所示,将直方图沿周向移动所述角度,从而执行对该直方图的旋转归一化,使得分布从与最大分布度相对应的角度开始。
特征点集判定单元15(图1)将由特征点提取单元14所检测到的特征点设定为基点,并针对各基点来设定支持该基点的支持点。以这种方式,特征点集判定单元15创建包括基点及相对应的支持点的特征点集。
在该处理的过程中,特征点集判定单元15从同一分割区中的特征点中设定各特征点集的基点b及支持点s。以这种方式,在本实施例的对象识别装置1中,所创建的特征点集不会横跨模型对象及背景,并且即使模型图像中捕捉了背景,也能防止由于背景而导致的精度劣化。
具体地说,特征点集判定单元15将由特征点提取单元14所检测到的所有的特征点设定为基点。在用于设定基点的处理的过程中,可以将每预定数量的特征点设定为基点,并且特征点提取单元14可以同样地执行用于随着分割区的面积及/或周长变小而减少要设定的特征点的数量的处理。此外,可以通过特征量比较来仅将对于匹配而言有意义的特征点选择性地设定为基点。
特征点集判定单元15针对各个基点,从在其中设定了这些基点的分割区中的其余的特征点中随机地选择S个特征点,并将这S个特征点设定为相对应的基点的支持点。在该处理的过程中,如图11A至图11C所示,特征点集判定单元15按照使得支持点的数量随着分割区的面积及周长变小而在0至预定数量的支持点的范围内减少的方式来设定支持点。
在纹理的数量很大的部分处,将分割区细线化,从而即使特征点集中不包括支持点或特征点集中的支持点的数量很少,在该部分处也能够确保对特征量的足够的识别能力。相反的是,在纹理的数量很少的部分处,一个分割区增大。在该部分处,除了分割边界之外没有其他信息,并且如果未在特征点集中提供相对大量的支持点,则难以确保对特征量的识别能力。以这种方式,如果按照使得支持点的数量随着分割区的面积及周长变小而减少的方式来将支持点设定在0至预定数量的支持点的范围内,则能够在确保足够的精度的同时省去后续的无用处理,从而使整个处理简化。
特征点集判定单元15从支持点的选择范围中排除与基点的距离为预定值或更大的特征点。因此,对象识别装置1防止由于遮挡(隐藏)而导致的精度劣化。
可以按照多种方式来选择支持点。例如,可以按照使得从基点到各支持点的角度成为尽可能宽的方式来选择S个特征点,并将这些特征点设定为支持点,而不是随机地选择S个特征点并将其设定为支持点。此外,可以通过特征量比较来仅将对于匹配而言有意义的特征点选择性地设定为支持点。
特征量描述单元16(图1)针对各个特征点集,对基点与相对应的支持点之间的几何位置关系进行检测,并基于该几何位置关系以及基点及相对应的支持点的特征量来描述模型对象的局部区域。
如图12所示,特征量描述单元16基于支持点s1至支持点s3相对于基点b的相对位置信息来限定几何位置关系。具体地说,特征量描述单元16参照用于在基点b处旋转归一化的基准轴来对从基点b到各自的支持点s1至支持点s3的角度θ1至角度θ3进行检测。特征量描述单元16对从基点b到各自的支持点s1至支持点s3的距离r1至距离r3进行检测。特征量描述单元16基于角度θ1至角度θ3及距离r1至距离r3来限定几何位置关系。特征量描述单元16将关于几何位置关系以及基点及相对应的支持点的特征量的信息作为特征点集的特征量输出给匹配单元4。
[查询图像处理]
图13是详细地示出查询图像处理单元3的结构的框图。在查询图像处理单元3中,查询图像输入单元21从记录介质(未示出)中顺序地读出查询图像的图像数据并将其输出。多分辨率单元22通过与模型图像处理单元2中的多分辨率单元12中的处理相同的处理来对查询图像的图像数据进行处理,并生成其中所输入的查询图像的图像尺寸被扩大及缩小的金字塔结构的查询图像。
边缘提取单元23根据具有不同的分辨率的查询图像来生成边缘图像。特征量描述单元24在各个边缘图像中设定特征点,并检测各特征点的特征量,以与从模型图像中检测到的基点及支持点的特征量相对应。因此,边缘提取单元23及特征量描述单元24中的处理取决于模型图像处理单元2中的特征点提取单元14中的处理而变化。在下面的描述中,将描述用于检测模型图像中的各特征点的特征量的处理是用于按照微小区域来将分割边界点的数量转化成直方图的处理的情况。
边缘提取单元23按照与模型图像中的分割边界相对应的方式从查询图像中提取其宽度与预定数量的像素相对应(例如,1像素宽)的边缘边界,并生成边缘图像。与模型图像相似的是,可以执行分割,并且可以在后续的处理中使用分割边界而不是边缘图像的边缘。
图14是示出边缘图像生成处理的流程图。如果该处理序列开始,则边缘提取单元23从步骤SP1前进到步骤SP2,以对具有不同的分辨率的查询图像执行平滑处理从而减少图像中的噪声及细小的纹理成分。可以通过使用多种滤波器来执行平滑处理,而在本实施例中,通过使用高斯滤波器G(x,y)的卷积运算(由式(1)来表示)来执行平滑处理。对于式(1),f(x,y)表示沿水平方向及垂直方向的坐标为(x,y)的查询图像的像素值。高斯滤波器G(x,y)由式(2)来表示。对于式(2),σ是设定平滑度的参数。
g(x,y)=G(x,y)*f(x,y)    ...(1)
G ( x , y ) = 1 2 &pi; &sigma; 2 exp [ - x 2 + y 2 2 &sigma; 2 ] . . . ( 2 )
在步骤SP3中,边缘提取单元23针对经平滑的查询图像中的各个像素,计算沿水平方向的梯度gx(x,y)及沿垂直方向的梯度gy(x,y)。具体地说,边缘提取单元23通过应用图15中所示的水平差分滤波器来计算沿水平方向的梯度gx(x,y)。相似的是,边缘提取单元23通过应用图16中所示的垂直差分滤波器来计算沿垂直方向的梯度gy(x,y)。以这种方式,边缘提取单元23基于梯度gx(x,y)及梯度gy(x,y)来创建梯度图像。
在步骤SP4中,边缘提取单元23使用在步骤SP3中计算出的梯度gy(x,y)及gx(x,y)来执行式(3)及式(4)的运算,以计算边缘强度M(x,y)及边缘角度θ(x,y)。以这种方式,边缘提取单元23生成针对各个像素设定边缘强度为M(x,y)且边缘角度为θ(x,y)的中间处理图像。
M ( x , y ) = gx ( x , y ) 2 + gy ( x , y ) 2 . . . ( 3 )
&theta; ( x , y ) = tan - 1 [ gy ( x , y ) gx ( x , y ) ] . . . ( 4 )
在步骤SP5中,边缘提取单元23将中间处理图像中的边缘细线化。在基于边缘强度M(x,y)的中间处理图像中,边缘由与多个像素相对应的宽度来部分地表示。因此,边缘提取单元23按照与模型图像处理单元2中的分割边界相对应的方式来设定边缘宽度。
具体地说,在坐标(x,y)处的边缘强度M(x,y)不为零时,边缘提取单元23检测要由边缘角度θ(x,y)来表示的边缘方向上的坐标(x1,y1)的边缘强度M(x1,y1)以及相反的边缘方向上的坐标(x2,y2)的边缘强度M(x2,y2)。边缘提取单元23将边缘强度M(x,y)、边缘强度M(x1,y1)及边缘强度M(x2,y2)相互比较。在边缘强度M(x,y)小于边缘强度M(x1,y1)或边缘强度M(x2,y2)时,边缘提取单元23确定坐标(x,y)不是边缘上的点,并将坐标(x,y)的边缘强度M(x,y)设定成零。因此,边缘提取单元23顺序地选择基于边缘强度M(x,y)的中间处理图像的、边缘强度M(x,y)不为零的像素为连续的部分中的边缘强度M(x,y)最大的像素,并执行细线化处理。
在步骤SP6中,边缘提取单元23根据经细线化的中间处理图像来执行边缘检测处理。边缘提取单元23基于在经步骤SP5细线化的中间处理图像中参照阈值对边缘强度M(x,y)的确定来执行边缘检测处理。具体地说,边缘提取单元23通过使用Canny边缘滤波器来执行边缘检测处理。在通过使用Canny边缘滤波器来执行边缘检测时,在坐标(x,y)的边缘强度M(x,y)大于两个阈值T high及T low中的较大的阈值T high时,将坐标(x,y)设定为边缘搜索的起始点。在通过使用Canny边缘滤波器来执行边缘检测时,通过从边缘搜索的起始点起顺序地搜索边缘强度M(x,y)大于另一阈值T low的坐标(x,y)来执行边缘检测。
如果完成了针对所有分辨率的查询图像的边缘检测,则边缘提取单元23前进到步骤SP7从而结束处理序列。
特征量描述单元24(图13)在由边缘提取单元23所生成的边缘图像中的各个边缘图像中密集地设定特征点。具体地说,特征量描述单元24将各个边缘图像中的所有的像素设定为特征点,或者如图17所示,沿水平方向及垂直方向以与预定数量的像素相对应的间距来设定特征点Q。特征量描述单元24还将各个特征点Q设定为特征量描述中心,按照与模型图像相同的方式,按照微小区域来创建直方图,执行旋转归一化,并检测各个特征点的特征量。
在模型图像中,在基于分割边界的位置信息、像素值沿垂直地穿过分割边界的方向的梯度等来计算各个特征点的特征量时,针对各个微小区域(而不是边缘上的点的数量及分割边界处的点的数量),将表示梯度强度的值汇总,并创建直方图。
如果以这种方式来计算各个特征点的特征量,则特征量描述单元24从各个边缘图像的特征点中仅选择边缘上的特征点,并将所选择的特征点设定为经受匹配处理的特征点。以这种方式,特征量描述单元24减少了后续处理中的计算量。
在密集地设定特征点并检测各个特征点的特征量之后,可以在边缘上设定特征点,而不是选择经受匹配处理的特征点,然后可以检测各个特征点的特征量。在提供了对于实际使用而言足够的处理能力时,可以将密集地设定的所有的特征点设定为经受匹配处理的特征点。
[匹配处理]
图18是详细地示出匹配单元4的结构的框图。在匹配单元4中,匹配处理单元25通过使用从模型图像处理单元2获得的特征点集的特征量的匹配处理,针对各个特征点集,从查询图像中的经受匹配处理的特征点中检测具有高相似性的特征点。下文中将特征点集与查询图像中的具有高相似性的特征点的组合称作匹配对。关于匹配处理,例如应用KNN方法。
基本上来说,匹配处理单元25顺序地选择查询图像中的经受匹配处理的特征点。假定所选择的特征点与特征点集中的基点相对应,匹配处理单元25从经受匹配处理的特征点中搜索与特征点集中的支持点相对应的特征点。匹配处理单元25将与基点及支持点相对应的特征点的特征量与特征点集的特征量相比较,并计算相对于被假定为基点的特征点的相似性。
匹配处理单元25针对具有不同的分辨率的查询图像与模型图像的每个组合来执行该处理,并针对具有不同的分辨率的查询图像与模型图像的每个组合来检测各个特征点集的匹配对。
如图19A所示,假定匹配处理单元25检测查询图像中的特征点Q相对于模型图像中的包括基点b1及支持点s11至支持点s14的特征点集的相似性。在这种情况下,如图19B所示,匹配处理单元25基于在旋转归一化时分别地在基点b1及特征点Q处检测的基准轴方向nθ及n’θ,来将以基点b1为中心的特征点集倾斜成使得基点b1的基准轴方向与特征点Q的基准轴方向一致。以这种方式,匹配处理单元25将支持点s11至支持点s14的位置校正成与查询图像中的模型对象的倾斜度相对应。
如图19C所示,匹配处理单元25按照使得基点b1与特征点Q对准的方式来布置查询图像中的特征点集,并设定在以支持点s11至支持点s14中的各个支持点为中心的预定范围内的搜索区域。匹配处理单元25搜索相对应的搜索范围内的、预期与支持点s11至支持点s14中的每一个支持点相对应的特征点。对相对应的搜索范围内的、预期与支持点s11至支持点s14中的每一个支持点相对应的特征点的搜索,吸收了用于在对支持点的位置校正中使用的基准轴方向的误差,并解决了查询图像中的失真。
例如,通过检测支持点与包含在相对应的搜索范围内的特征点之间的特征量成本最小的特征点来执行特征点搜索。特征量成本由要被比较的特征点m与特征点t的特征量之间的距离d(m,t)来表示。在这种情况下,m及t是支持点m及特征点t。具体地说,假设支持点m的特征量为hm(k)且搜索区域中的特征点t的特征量为ht(k),则特征量之间的距离d(m,t)由式(5)来表示。
d ( m , t ) = 1 2 &Sigma; [ hm ( k ) - ht ( k ) ] 2 hm ( k ) + ht ( k ) . . . ( 5 )
通过使用基点b1与相对应的特征点Q(Q=p’)之间的距离d(b1,p’)及支持点s1j与相对应的特征点p’k之间的距离d(s1j,p’k)来表示特征点Q相对于特征点集的相似性,如由式(6)所表示的。
Cost ( b 1 , p &prime; ) = 1 1 + d ( b 1 , p &prime; ) + &Sigma; &alpha; 1 j&beta; 1 j 1 + d ( s 1 j , p &prime; k ) . . . ( 6 )
对于式(6),α1j及β1j分别为角度及距离的惩罚成本,由式(7)来表示。θp’k及rp’k分别为相对于各支持点的距离d最小(最匹配)的特征点p’k相对于基点bi的角度及距离。
Figure G2009101463334D00173
匹配处理单元25针对具有不同的分辨率的模型图像与查询图像的每个组合,检测各个特征点集与经受匹配处理的所有的特征点之间的、特征点Q的相似性。匹配处理单元25还针对具有不同的分辨率的模型图像与查询图像的每个组合,检测在根据各个特征点集而检测到的相似性中相似性最高的特征点,并将所检测到的特征点设定为相对应的特征点集的匹配对。在这种情况下,不会将相似性为预定值或更小的组合设定为匹配对。
由匹配处理单元25所检测到的匹配对是基于由基点及支持点所表示的局部区域的特征量而检测到的。因此,在匹配对中包含大量的异常值。
匹配单元4通过异常值去除单元26(图18)来将异常值从由匹配处理单元25所检测到的匹配对中去除,从而提高精度。
在模型图像及查询图像中包含同一模型对象并且在模型对象中正确地设定了匹配对时,匹配对满足由式(8)所表示的几何约束。
&theta; = tan - 1 ( my mx )
r=sqrt(mx2+my2)            ...(8)
dx=tx-r*cos(θ+dθ)
dy=ty-r*sin(θ+dθ)
对于式(8),mx及my表示模型图像上的基点坐标,tx及ty表示相对应的查询图像上的特征点的坐标,dθ表示该基点与该特征点之间的相对角度,dx及dy表示相对应的特征点相对于基点的、沿x方向及y方向的移动量。将违反约束条件的匹配对称作异常值。
如图20所示,异常值去除单元26通过使用式(8)中的运算表达式来将各个匹配对的基点旋转角度dθ,以执行旋转归一化。参照图20,ti及mi为匹配对的特征点及基点。异常值去除单元26计算旋转归一化之后的基点的坐标与相对应的特征点的坐标之间的差ti-m’i,以计算移动量dx及dy。异常值去除单元26将计算出的移动量投票在预先准备好的二维空间(dx-dy)中的相对应的仓(Bin)中。
异常值去除单元26针对所有的匹配对执行该处理,并检测二维空间(dx-dy)中的具有最大投票值的仓。将不具有与被检测到的仓相对应的移动量(dx,dy)的匹配对作为异常值从匹配对中去除。
因此,在图20中的示例中,t1-m’1、t2-m’2及t3-m’3具有相同的移动量,因此被投票在二维空间中的同一仓中。然而,t4-m’4被投票在二维空间中的不同的仓中,因此将基于t4及m4的匹配对作为异常值排除。
具体地说,异常值去除单元26顺序地执行利用广义半变换的异常值去除、利用RANSAC的异常值去除及姿态估计,以去除异常值。
[确定处理]
图21是详细地示出确定单元5的框图。在本实施例中,匹配对是由匹配处理单元25针对具有不同的分辨率的查询图像与模型图像的每个组合而检测到的。在确定单元5中,初次确定单元31参照预定阈值来对匹配对的数量进行确定,并检测具有等于或大于预定阈值的数量的匹配对的、查询图像与模型图像的组合。
将具有等于或大于预定阈值的数量的匹配对的组合称作具有大致上相同的尺寸的模型对象的、模型图像与查询图像的组合。因此,在检测到该组合时,可以确定在查询图像中包含模型对象。
然而,在本实施例中,可以预期会从模型图像的背景中检测到匹配对。因此,发生很多假阳性(false-positive),从而仅利用初次确定单元31的处理可能会使精度劣化。
在确定单元5中,模型图像再处理单元32将由初次确定单元31所检测到的组合中的模型图像设定为处理目标,按照与特征量描述单元24相似的方式设定特征点,并检测特征点的特征量。
即,模型图像再处理单元32将由初次确定单元31所检测到的组合中的模型图像中的所有的像素设定为特征点,或如图22所示,沿水平方向及垂直方向以与预定数量的像素相对应的间距来设定特征点R。对于各个特征点R,按照与特征量描述单元24相似的方式,模型图像再处理单元32使用分割边界或边缘信息来检测特征量。在模型图像再处理单元32中,按照与特征量描述单元24相似的方式,可以从密集地设定的特征点中选择边缘上的特征点,并将其设定为经受匹配处理的特征点。
查询图像再处理单元33将由初次确定单元31所检测到的组合中的查询图像设定为处理目标,并将与组成匹配对的特征点集中的基点及支持点相对应的、查询图像中的特征点设定为基点及支持点,从而在查询图像中设定特征点集。查询图像再处理单元33还检测基点及支持点的特征量。
以这种方式,在确定单元5中,在初次确定单元31的确定结果使处理目标变窄的状态下,与模型图像处理单元2及查询图像处理单元3相反的是,在模型图像和查询图像中设定特征点和特征点集。
按照与匹配处理单元25相似的方式,后匹配处理单元34使用模型图像和查询图像中的特征点及特征点集来执行匹配处理,以检测匹配对。在后匹配处理单元34中,可以执行异常值去除处理。
检查单元35检查由后匹配处理单元34所检测到的匹配对中的特征点中的各个特征点的坐标是否在由匹配处理单元25所检测到的相对应的特征点对中的基点附近。以这种方式,检查单元35检查由后匹配处理单元34所检测到的匹配对中的特征点中的各个特征点是否回到原始基点,并将未回到原始基点的特征点从处理目标中排除。因此,确定单元5将例如从背景中检测到的匹配对从处理目标中排除。
再次确定单元36参照预定阈值来对通过检查单元35而获得的匹配对的数量进行确定,并且在匹配对的数量等于或大于该阈值时,输出以下确定结果:模型对象包含在查询图像中。
[实施例的操作]
利用上述结构,在本实施例中,将自然图像设定为查询图像及模型图像,并且关于模型图像中的模型对象,检测查询图像中存在/不存在模型对象。关于该处理,例如,如JP-A-2004-326693中所描述的,在通过使用模型对象的局部特征量来进行匹配从而进行对象识别时,如果模型对象中的纹理成分的数量很少,则精度会劣化。
在本实施例中,应用在JP-A-2008-077626中所描述的方法,在模型图像中设定基点及支持该基点的支持点,并基于包括该基点及该支持点的特征点集的特征量来进行对象识别。因此,在本实施例中,在模型对象中的纹理成分的数量很少时,即使模型对象隐藏在查询图像中,也能够防止精度劣化。
然而,在自然图像用作模型图像时,如果在模型图像中简单地设定特征点以设定特征点集,则对基点及支持点的设定可能会横跨背景及模型对象。在这种情况下,识别精度可能会劣化。
即,如图23所示,在模型图像的背景为均匀时,检测模型图像的局部特征量,并且仅在模型对象上检测特征点。因此,在基于这些特征点来设定基点及支持点时,如图24所示,在模型对象上设定基点b1及基点b2以及支持点s11至支持点s13及支持点s21至支持点s23。因此,通过基点b1及基点b2以及支持点s11至支持点s13及支持点s21至支持点s23,特征点集的特征量正确地表示了模型对象的特征量。
然而,如图25所示,在模型图像中捕捉了背景时,会从背景中检测到特征点。结果,如图26所示,对基点b1及基点b2以及支持点s11至支持点s14及支持点s21至支持点s23的设定会横跨背景及模型对象。在这种情况下,基于基点b1及基点b2以及支持点s11至支持点s14及支持点21至支持点s23的特征点集的特征量也表示背景的特征量,因此识别精度可能会劣化。
本实施例被构造成对基点及支持点的设定不会横跨背景及模型对象,从而防止识别精度劣化。
即,在对象识别装置1(图2)中,作为由用户所选择的自然图像的模型图像被输入给模型图像处理单元2。在模型图像处理单元2(图2)中,多分辨率单元12根据该模型图像来生成图像尺寸顺序地且逐渐地扩大及缩小的金字塔结构的模型图像。分割单元13对具有不同的分辨率的模型图像进行分割,以使得各分辨率的模型图像都被分割。
在对象识别装置1中,特征点提取单元14针对各个分割区来设定特征点,并检测各个特征点的特征量。特征点集判定单元15针对各个分割区来设定作为基点及支持点的特征点(图11A至图11C)。因此,在本实施例中,对于各个分割区,在同一分割区中设定基点及支持点,以设定特征点集。
在对模型图像进行分割时,可以说不存在背景及模型对象被分割在同一分割区中的情况。背景及模型对象有可能被分割在同一分割区中,但是可以说这在很少的模型对象中发生。
因此,在本实施例中,可以针对各个分割区来设定特征点集,以使得对基点及支持点的设定不会横跨背景及模型对象,因此能够防止识别精度劣化。
具体地说,在本实施例中,分割单元13中的分割是颜色分割,并且在颜色分割的情况下,可以利用简单的处理来可靠地减少背景及模型对象被分割在同一分割区中的情形。因此,可以可靠地构造成使得对基点及支持点的设定不会横跨背景及模型对象,因此能够防止识别精度劣化。
具体地说,特征点提取单元14在模型图像的分割边界处设定特征点P,并检测各个特征点P的局部特征量(图3)。以预定间距或随机地设定特征点P,以使得特征点的数量随着分割区的面积或周长变小而减少。因此,在本实施例中,随着分割区的面积及周长变小,特征点集的数量减少。在分割区面积很小且分割区的周长很小时,即使特征点集的数量增加,也不足以有助于提高识别精度,而且操作处理变得复杂。因此,在本实施例中,随着分割区的面积及周长变小,特征点集的数量减少。结果,能够在抑制精度劣化的同时使处理简化。
对于各个特征点,在向分割区的内侧偏移的位置处设定特征量描述中心O(图3),并且将以描述中心O为中心的预定范围设定为特征点的局部区域。因此,在本实施例中,局部特征量可以被描述为不包含关于背景的信息,因此能够有效地防止由于背景而导致的精度劣化。
可以预先设定特征点及描述中心中的任何一个。在预先设定描述中心时,将各个分割区收缩以设定用于设定描述中心的区域(图4)。在这种情况下,根据本实施例,将分割区细线化,并将经细线化的分割区叠加在经收缩的分割区上,以设定用于设定描述中心的区域(图5及图6)。在用于设定描述中心的区域的外周上设定描述中心之后,根据该描述中心来设定特征点。因此,在本实施例中,对于由于收缩而被去除的窄部分,可以设定特征点,因此能够抑制特征点的偏分布。结果,能够防止由于特征点的偏分布而导致的精度劣化。
在本实施例中,将按照这种方式在各个分割区中设定的特征点设定为基点及支持该基点的支持点,以在模型图像中设定特征点集(图11A至图11C)。在本实施例中,在该处理过程中,随着分割区的面积及周长的减小,组成一个特征点集的支持点的数量减少。因此,能够在抑制精度劣化的同时使处理简化。
对于模型图像,基于基点与支持点之间的几何位置关系以及基点及支持点的特征量来描述各个特征点集的特征量(图12)。将各个特征点集的特征量输入给匹配单元4(图18)。
同时,对于查询图像(图13),按照与模型图像相似的方式,多分辨率单元22生成图像尺寸顺序地且逐渐地扩大及缩小的金字塔结构的查询图像。边缘提取单元23执行边缘检测处理,密集地设定特征点,并检测各个特征点的特征量(图14至图16)。具体地说,对于查询图像,将所有的像素设定为特征点,或以与预定数量的像素相对应的间距来设定特征点Q(图17),并基于边缘信息来检测各个特征点的特征量。
匹配单元4从查询图像中的特征点中检测与模型图像中的特征点集中的基点及支持点相对应的特征点(图18),从而执行匹配处理。
即,针对模型图像中的各个特征点集,将查询图像中的特征点顺序地设定为处理目标,并将搜索区域设定在与特征点集中的各个支持点相对应的部分中(图19A至图19C)。在各个搜索区域中,检测与相对应的支持点最相似的特征点。关于查询图像,计算作为处理目标的特征点及与支持点最相似的特征点和特征点集之间的、基于以角度及距离作为惩罚成本的特征量的距离,并计算相对应的特征点相对于特征点集的相似性。
计算查询图像中的各个特征点相对于模型图像中的一个特征点集中的所有的特征点的相似性,并且将在所计算出的相似性中相似性最大的特征点设定为相对应的特征点集的匹配对。针对所有的特征点集,获得特征点集的匹配对。
然而,按照这种方式获得的匹配对不可避免地包括错配对。因此,在本实施例中,异常值去除单元26通过使用特征点集之间的几何关系来将错配对从匹配对中去除(图20)。确定单元5对最终匹配对的数量进行确定,以确定存在/不存在模型对象。
然而,即使在按照这种方式来去除异常值的情况下,也可以预期会与背景中的特征点集形成匹配对。因此,在本实施例中,初次确定单元31对异常值去除单元26的处理结果进行初次确定(图21),并检测在其中检测到预定数量的匹配对或更多的匹配对的、具有特定分辨率的查询图像与模型图像的组合。对于具有特定分辨率的查询图像与模型图像的组合,模型图像再处理单元32在模型图像中密集地设定特征点并检测各个特征点的特征量(图22),并且查询图像再处理单元33在查询图像中设定特征点集。后匹配处理单元34执行按照特征点及特征点集的后匹配处理,并再次检测匹配对。检查单元35检查再次检测到的匹配对是否与初次确定的匹配对相对应。该确定结果是由再次确定单元确定出的,从而获得最终确定结果。
通过与后匹配处理有关的一系列的步骤,对象识别装置1能够按照背景将匹配对从确定目标中排除,从而防止由于背景而导致的识别精度劣化。
[实施例的优点]
利用上述结构,在模型图像被分割之后,在同一分割区中设定基点及相对应的支持点。因此,即使模型图像中捕捉了背景,也能够抑制精度劣化。
在分割边界处设定基点及支持点,以设定特征点集。因此,可以具体地根据模型,在同一分割区中设定基点及相对应的支持点,即使模型图像中捕捉了背景,也能够抑制精度劣化。
基于分割区的面积及/或周长来设定组成一个分割区的特征点集的数量。因此,能够在抑制精度劣化的同时使处理简化。
基于分割区的面积及/或周长来设定组成一个特征点集的支持点的数量。因此,能够在抑制精度劣化的同时使处理简化。
在分割边界处设定基点,并且在从基点向分割区的内侧偏移的位置处设定基点的特征量描述中心。因此,能够在减小背景的影响的同时检测特征量,并且防止由于背景而导致的精度劣化。
在将通过使分割区收缩而形成的区域叠加在通过使分割区细线化而形成的区域上以设定用于设定特征量描述中心的区域时,将特征量描述中心设定在用于设定特征量描述中心的区域的外周上。因此,能够防止特征点的偏分布,从而能够提高精度。
对于查询图像,针对所有的像素密集地设定特征点或以与预定数量的像素相对应的间距来设定特征点,并检测各个特征点的特征量。因此,在应用通过与特征点集相比较的匹配处理的情况下,能够从带有背景等的查询图像中可靠地检测模型对象。
在对匹配处理的处理结果进行初次确定之后,基于确定结果来在处理目标图像中设定特征点集,在模型图像中密集地设定特征点,并执行后匹配处理以用于再次确定。因此,可以进一步提高识别精度。
<第二实施例>
在本实施例中,将上述实施例中的对象识别装置1中的模型图像处理与查询图像处理对调。即,在本实施例中,对查询图像进行分割,并在经分割的查询图像中设定特征点集。在模型图像中密集地设定特征点。特征点集及特征点经受匹配处理,并对处理结果进行初次确定。另外,基于初次确定结果来在模型图像中设定特征点集,并在查询图像中密集地设定特征点。然后,执行后匹配处理及再次确定处理。
与本实施例相似的是,即使将模型图像处理与查询图像处理对调,也能够获得与前面的实施例相同的优点。
<第三实施例>
在本实施例中,在上述第一实施例中的对象识别装置中的查询图像处理或第二实施例中的对象识别装置中的模型图像处理中,执行了分割,并基于分割边界(而不是边缘边界)来检测特征点的特征量。密集地设定特征点,并且仅将分割边界处的特征点选择性地设定为经受匹配处理的目标主体。
与本实施例相似的是,即使对查询图像处理或模型图像处理应用分割,也能够获得与上述实施例相同的优点。
<第四实施例>
图27是示出根据本发明第四实施例的数字照相机的框图。在数字照相机41中,成像单元42包括成像元件、在成像元件的光接收表面上形成光学图像的光学系统等。在控制器43的控制下,成像单元42获取成像结果并将其输出。在控制器43的控制下,信号处理单元48对从成像单元42输出的成像结果进行处理以生成图像数据,并将该图像数据输出给总线BUS。在控制器43的控制下,压缩及扩展单元44对输出给总线BUS的图像数据进行压缩以输出编码数据,或对输出给总线BUS的编码数据进行扩展以输出图像数据。
在控制器43的控制下,记录单元45将输出给总线BUS的编码数据记录并保持在其中,或对所保持的编码数据进行再生并将其输出给总线BUS。在控制器43的控制下,显示单元46对输出给总线BUS的图像数据、各种菜单画面等进行显示。操作单元47包括设置在数字照相机41中的操作器、设置在显示单元46的显示屏上的触摸板等,并将用户的操作通知控制器43。
控制器43是控制数字照相机41的操作的控制装置,并且通过执行记录在存储器(未示出)中的程序来控制各个单元的操作。利用这种控制,如果用户操作快门按钮并指示获取成像结果,则控制器43控制成像单元42、信号处理单元48及显示单元46来获取成像结果并将所获取的成像结果显示在显示单元46上。如果用户指示记录成像结果,则控制器43控制压缩及扩展单元44对显示在显示单元46上的图像数据进行压缩,生成编码数据,并将该编码数据记录在记录单元45中。
同时,如果用户指示显示菜单画面,则控制器43控制显示单元46来显示菜单画面。然后,如果用户选择了菜单画面上的一个菜单并指示显示记录在记录单元45中的成像结果,则压缩及扩展单元44将记录在记录单元45中的编码数据顺序地再生并扩展,并将得到的图像数据显示在显示单元46上。
如果用户指示搜索成像结果,则执行图28中的处理序列,来从记录在记录单元45中的成像结果中搜索由用户所指示的模型对象的成像结果。
即,如果该处理序列开始,则控制器43从步骤SP11前进到步骤SP12。在步骤SP12中,控制器43接受对模型图像的选择。下文中,将在步骤SP12中所接受的模型图像称作初始模型图像。具体地说,控制器43顺序地读出记录在记录单元45中的成像结果,控制压缩及扩展单元44来执行数据扩展,并控制显示单元46来显示成像结果的列表。在列表显示上,通过对触摸板的操作来接受对搜索目标图像的选择,并且如图29所示,将显示单元46的列表显示转换成对搜索目标图像的显示。在显示单元46的显示器上,通过对触摸板的操作来接受对具有模型对象MO的区域AR的设定。控制器43将区域AR的图像数据选择性地记录在存储器(未示出)中,以截取出区域AR的图像并将所截取的图像设定为初始模型图像。控制器43截取出区域AR的图像并将所截取的图像设定为初始模型图像,从而防止由于与模型对象一起捕捉了背景或其他对象而导致检测精度劣化。
接下来,控制器43前进到步骤SP13以执行特征点集选择处理。特征点集选择处理是要选择对于对模型对象MO的检测而言有意义的特征点集,下文将描述其细节。
接下来,控制器43前进到步骤SP14,将记录在记录单元45中的成像结果顺序地设定为处理目标,执行与初始模型图像的匹配处理,并检测具有模型对象MO的成像结果。在该处理过程中,控制器43在初始模型图像或查询图像中设定通过步骤SP13而选择的特征点集(而不是在模型图像处理单元2或确定单元5(参见图1及图2)中设定特征点集),并利用以上结合第一实施例、第二实施例或第三实施例而描述的方法来执行匹配处理。
如果完成了针对记录在记录单元45中的所有的成像结果的匹配处理,则控制器43前进到步骤SP15,来控制显示单元46显示具有模型对象MO的成像结果的列表。其后,控制器43前进到步骤SP16,从而结束处理序列。
[特征点集选择处理]
图30是详细地示出图28中的特征点集选择处理(步骤SP13)的流程图。如果该处理序列开始,则控制器43从步骤SP21前进到步骤SP22,来执行剪切模型图像创建处理,以根据记录在记录单元45中的成像结果来创建剪切模型图像。
剪切模型图像是根据记录在记录单元45中的成像结果而创建的、并与初始模型图像相对应的图像。控制器43顺序地选择记录在记录单元45中的成像结果,并执行以上结合第一实施例至第三实施例来描述的、与初始模型图像的匹配处理。控制器43通过该匹配处理来检测其中确定捕捉了模型对象MO的预定数量的图像,如图31所示,并将所检测到的图像设定为查询图像。查询图像是剪切模型图像的源图像。在设定查询图像时,控制器43记录并保持匹配处理检测到的匹配对。
控制器43根据组成被记录并保持的匹配对中的各个匹配对的基点的坐标来检测仿射变换的参数(在图31中,由仿射参数来表示)。仿射变换是将查询图像上的基点的坐标变换成初始模型图像上的相对应的基点的坐标的坐标变换。针对相对应的查询图像,基于所检测到的仿射变换的参数来进行仿射变换,并且截取出与初始模型图像相对应的区域以创建剪切模型图像。如果正确地获得了仿射参数,则剪切模型图像的图像尺寸与初始模型图像相同。如果将剪切模型图像叠加在初始模型图像上,则剪切模型图像中的模型对象MO几乎叠加在初始模型图像中的模型对象MO上。在本实施例中,以这种方式选择特征点集,以提高匹配处理的可靠性。
接下来,控制器43前进到步骤SP23,来在各个剪切模型图像中设定特征点集。特征点集是利用以上结合第一实施例而描述的方法来设定的。
接下来,控制器43前进到步骤SP24,来执行重要性判定处理。控制器43将剪切模型图像中的特征点集及初始模型图像中的特征点集设定为特征点集的种子。在特征点集的各个种子中设定表示对于检测模型对象MO的重要程度的重要性。
接下来,控制器43前进到步骤SP25,如图32所示,参照预定的阈值来确定图14中设定的重要性,并从特征点集的种子中选择重要性高的特征点集。接下来,控制器43前进到步骤SP26,从而返回到原处理序列。然后,控制器43使用通过步骤SP25而选择的特征点集来执行步骤SP14中的搜索处理。
[重要性判定处理]
图33及图34是详细地示出重要性判定处理的流程图。如果该处理序列开始,则控制器43从步骤SP31前进到步骤SP32,来将变量i初始化成值0。变量i是用于从初始模型图像及剪切模型图像中指定特征点集选择目标的变量。接下来,控制器43前进到步骤SP33,来选择由变量i所指定的初始模型图像或剪切模型图像。
接下来,控制器43前进到步骤SP34,来将变量m初始化成值0。变量m是用于从通过步骤SP33而选择的模型图像中的特征点集中指定选择目标特征点集的变量。接下来,控制器43前进到步骤SP35,来检测利用变量m从通过步骤SP33而选择的模型图像中指定的特征点集。在步骤SP35中,控制器43还将下文将描述的、与选择目标特征点集有关的计数器的计数值Repcnt及距离和重新设定成零(0)。
接下来,控制器43前进到步骤SP36,来将变量j初始化成值0。变量j是用于从初始模型图像及剪切模型图像中指定重要性检测的比较目标的变量。接下来,在步骤SP37中,控制器43选择由变量j所指定的初始模型图像或剪切模型图像。
接下来,控制器43前进到步骤SP38,来确定变量i与变量j是否相等。在这种情况下,如果获得肯定的结果,则控制器43从步骤SP38前进到步骤SP39,将变量j递增值1,并返回到步骤SP37。
同时,如果在步骤SP38中获得否定的结果,则控制器43从步骤SP38前进到步骤SP40。在这种情况下,控制器43将通过步骤SP37而选择的图像中的特征点集设定为比较目标特征点集。
接下来,在步骤SP41中,控制器43执行比较目标特征点集与通过步骤SP35而选择的选择目标特征点集之间的匹配处理,并检测各个比较目标特征点集相对于选择目标特征点集的相似性。可以以多种方式来执行该匹配处理,而在本实施例中,利用与前述实施例相同的处理,应用KNN方法来检测相似性。
接下来,控制器43前进到步骤SP42(图34),对通过步骤SP41而检测出的相似性进行排序,并按相似性的降序来选择K个比较目标特征点集。另外,确定在所选择的特征点集中是否存在其中的基点的坐标与选择目标特征点集中的基点的坐标相同的特征点集。以预定的误差来执行该确定。
在这种情况下,如果获得肯定的结果,则控制器43从步骤SP42前进到步骤SP43,来将与选择目标特征点集有关的计数器的计数值Repcnt递增值1。对于基点的坐标相同的特征点集,计算基点之间的距离,并将该距离加到距离和上。然后,处理序列前进到步骤SP44。同时,如果在步骤SP42中获得否定的结果,则控制器43从步骤SP42直接地前进到步骤SP44。
在步骤SP44中,控制器43确定变量j是否小于预定值T,从而确定是否存在尚未被设定为比较目标的初始模型图像或剪切模型图像。在这种情况下,如果获得肯定的结果,则控制器43从步骤SP44前进到步骤SP39,使变量j递增,并返回到步骤SP37。
因此,控制器43将初始模型图像及剪切模型图像中的特征点集中的一个特征点集设定为选择目标,并重复步骤SP37、步骤SP38、步骤SP39、步骤SP40、步骤SP41、步骤SP42、步骤SP44、步骤SP39及步骤SP37的处理序列,或步骤SP37、步骤SP38、步骤SP39、步骤SP40、步骤SP41、步骤SP42、步骤SP43、步骤SP44、步骤SP39及步骤SP37的处理序列。结果,如图35所示,控制器43顺序地切换比较目标图像,并检测与选择目标特征点集相匹配的特征点集的数量以及距离和。
如果在步骤SP44中获得否定的结果,则控制器43从步骤SP44前进到步骤SP45。控制器43确定变量m是否小于预定值M,从而确定在作为选择目标的初始模型图像或剪切模型图像中是否存在尚未被设定为选择目标的特征点集。在这种情况下,如果获得肯定的结果,则控制器43从步骤SP45前进到步骤SP46,并使变量m递增。接下来,控制器43返回到步骤SP35,并切换选择目标特征点集。
同时,如果在步骤SP45中获得否定的结果,则控制器43从步骤SP45前进到步骤SP47。在这种情况下,控制器43确定变量i是否小于预定值T,从而确定是否存在尚未被设定为选择目标的初始模型图像或剪切模型图。在这种情况下,如果获得肯定的结果,则控制器43从步骤SP47前进到步骤SP48,并使变量i递增。接下来,控制器43返回到步骤SP33,并切换选择目标图像。
同时,如果在步骤SP47中获得否定的结果,则控制器43从步骤SP47前进到步骤SP49。在这种情况下,如图35所示,控制器43将针对各个选择目标特征点集而检测出的计数值Repcnt按降序来排序。在计数值Repcnt相同时,按距离和的升序来进行排序。
可以说,作为排序结果的高排位的特征点集与其他模型图像匹配得很好,而且很可能是从模型对象中提取的特征点集。从这个观点来看,控制器43在排序结果中设定排名,在本实施例中,将排名设定为重要性。
在执行步骤SP49之后,控制器43前进到步骤SP50,从而返回到原处理序列。
根据本实施例,预先选择对于模型对象检测而言有意义的特征点集,然后执行匹配处理。因此,能够以更高的效率及精度来执行匹配处理。结果,能够显著地缩短处理时间。另外,能够防止由于背景之间的匹配所引起的假阳性而导致识别率劣化。
即使将前述实施例中的方法应用于预处理中的剪切图像创建,也能够充分地提高识别精度。
<第五实施例>
在本实施例中的数字照相机中,通过在初始模型图像或剪切模型图像中设定特征点集时有效地使用分割来使第四实施例中的重要性判定处理简化。除了与分割有关的结构以外,本实施例中的数字照相机的结构与第四实施例中的数字照相机41相同。因此,在下面的描述中,将参照图27中的结构。
在本实施例中,在步骤SP49(图34)中进行排序时,控制器43将各个分割区的计数值Repcnt汇总。将汇总结果除以相对应的分割区中的特征点集的数量。在商值小时,可以说,即使计数值Repcnt很大,相对应的分割区中的特征点集也不大可能是模型对象MO中的特征点集。因此,控制器43将商值小的分割区中的特征点集从排序目标中排除,然后执行排序。
在这种情况下,基于每特征点集的计数值Repcnt来确定分割可靠性,并最终将被确定为不存在模型对象的分割区中的特征点集从处理目标中排除。图33及图34中的处理序列可以适当地执行对分割可靠性的确定及从处理目标中的排除,从而使处理简化。具体地说,当在由变量i所指定的模型图像的特征点集与由变量j所指定的n(其中,n<T)个查询图像之间执行匹配时,可以以同样的方式来确定分割可靠性,并且可以在后续处理中排除特征点集。
相反的是,在商值很大时,可以说,即使计数值Repcnt很小,相对应的分割区中的特征点集也很有可能是模型对象MO中的特征点集。对于商值小的分割区中的特征点集,可以将商值作为计数值的权重,以使得与基于计数值来简单地执行排序的情况相比,这些特征点集的排名较高,然后可以执行排序。
作为对各个特征点集进行排序的替代,可以基于商值来在分割单位中选择特征点集。
在本实施例中,通过有效地使用分割,可以获得与第四实施例相同的优点。
<变型例>
在第四实施例等中,描述了对预定数量的剪切模型图像进行处理的情况。然而,本发明并不限于此,而是要被处理的剪切模型图像的数量可以根据需要而变化。具体地说,当在初始模型图像中的特征点集与n(其中,n<T)个剪切模型图像之间执行匹配处理并检测到计数值为n的多个特征点集时,可以确定,能够充分地检测到可靠的特征点集。因此,在这种情况下,在剪切模型图像的数量改变成n时,能够使处理简化。相反的是,在计数值很小时,比较目标剪切模型图像的数量增加,从而能够提高可靠性。
在第四实施例及第五实施例中,描述了通过用户的区域指定来检测具有模型对象的区域的情况。然而,本发明并不限于此。例如,可以应用人脸检测等来检测具有模型对象的区域。
在第四实施例及第五实施例中,描述了将本发明应用于数字照相机的情况。然而,本发明并不限于此,它可以广泛地应用于在因特网上搜索期望图像等情况。
尽管在前述实施例中,描述了利用软件来实现对象识别装置的情况,但本发明并不限于此,而是可以广泛地应用于利用硬件来实现对象识别装置的情况。
尽管在前述实施例中,描述了从自然图像(例如,多个静止图像)中检测模型图像中的模型对象的情况,但本发明并不限于此。例如,本发明可以广泛地应用于从运动图像中检测模型对象的情况、从成像结果中检测期望被摄体的情况等。
尽管在前述实施例中,描述了优选的结构,但是本发明并不限于这些结构,而是可以根据需要来对这些结构进行组合。
本发明可以应用于从记录在数据库中的多个静止图像中搜索特定被摄体的静止图像的情况。
本申请包含与分别于2008年6月20日及2008年11月26日提交日本专利局的日本在先专利申请JP 2008-161437及JP 2008-300506中所公开的主题有关的主题,通过引用将其全部内容合并在此。
本领域技术人员应当理解,可以根据设计要求及其他因素而想到多种修改、组合、子组合及变型,只要它们落在所附权利要求书或其等同物的范围内即可。

Claims (24)

1.一种对象识别装置,包括:
模型图像处理单元,其处理模型图像;
处理目标图像处理单元,其对处理目标图像进行处理;
匹配单元,其对所述模型图像处理单元及所述处理目标图像处理单元中的处理结果进行匹配;以及
确定单元,其对所述匹配单元中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象,
其中,所述模型图像处理单元具有:特征点集判定单元,其在所述模型图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,
所述处理目标图像处理单元具有:特征点设定单元,其在所述处理目标图像中设定特征点,并检测该特征点的特征量,
所述匹配单元将所述模型图像中的所述特征点集的特征量与所述处理目标图像中的所述特征点的特征量相比较,以检测与所述特征点集相对应的特征点,从而执行匹配,
所述模型图像处理单元具有:分割单元,其对所述模型图像进行分割,并且
所述特征点集判定单元针对所述模型图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
2.一种对象识别装置,包括:
模型图像处理单元,其处理模型图像;
处理目标图像处理单元,其对处理目标图像进行处理;
匹配单元,其对所述模型图像处理单元及所述处理目标图像处理单元中的处理结果进行匹配;以及
确定单元,其对所述匹配单元中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象,
其中,所述处理目标图像处理单元具有:特征点集判定单元,其在所述处理目标图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,
所述模型图像处理单元具有:特征点设定单元,其在所述模型图像中设定特征点,并检测该特征点的特征量,
所述匹配单元将所述处理目标图像中的所述特征点集的特征量与所述模型图像中的所述特征点的特征量相比较,以检测与所述特征点集相对应的特征点,从而执行匹配,
所述处理目标图像处理单元具有:分割单元,其对所述处理目标图像进行分割,并且
所述特征点集判定单元针对所述处理目标图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
3.一种对象识别方法,包括以下步骤:
处理模型图像;
对处理目标图像进行处理;
对所述处理模型图像的步骤及所述对处理目标图像进行处理的步骤中的处理结果进行匹配;以及
对所述匹配步骤中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象,
其中,所述处理模型图像的步骤具有以下子步骤:在所述模型图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,从而判定该特征点集,
所述对处理目标图像进行处理的步骤具有以下子步骤:在所述处理目标图像中设定特征点,并检测该特征点的特征量,
在所述匹配步骤中,通过将所述模型图像中的所述特征点集的特征量与所述处理目标图像中的所述特征点的特征量相比较,来检测与所述特征点集相对应的特征点,从而执行匹配,
所述处理模型图像的步骤具有以下子步骤:对所述模型图像进行分割,并且
在所述判定特征点集的步骤中,针对所述模型图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
4.根据权利要求3所述的方法,
其中,在所述判定特征点集的步骤中,将所述基点及所述支持点设定在分割边界上。
5.根据权利要求3所述的方法,
其中,在所述判定特征点集的步骤中,基于相对应的分割区的面积及周长来设定要在一个分割区中设定的特征点集的数量。
6.根据权利要求3所述的方法,
其中,在所述判定特征点集的步骤中,基于相对应的分割区的面积及周长来设定组成一个特征点集的支持点的数量。
7.根据权利要求3所述的方法,
其中,所述判定特征点集的步骤具有以下子步骤:将所述基点及/或所述支持点设定在分割边界上,并在从所述基点及/或所述支持点向相对应的分割区的内侧偏移的位置处设定所述基点及/或所述支持点的特征量描述中心,
以所述特征量描述中心为中心来设定所述基点及/或所述支持点的局部区域,并且
基于所述局部区域的特征量来检测所述基点及/或所述支持点的特征量,以设定所述特征点集的特征量。
8.根据权利要求7所述的方法,
其中,所述设定特征量描述中心的子步骤具有以下子步骤:
将处理目标分割区收缩成与所述局部区域相对应的尺寸;
将所述处理目标分割区细线化;以及
将在所述收缩步骤中生成的区域叠加于在所述细线化步骤中经细线化的区域上,以设定在其中设定所述特征量描述中心的区域,
将所述特征量描述中心设定在所述在其中设定所述特征量描述中心的区域的外周上,并且
在所述判定特征点集的步骤中,基于所述特征量描述中心来设定所述基点及/或所述支持点。
9.根据权利要求3所述的方法,
其中,在所述设定特征点的步骤中,将所述处理目标图像中的所有的像素设定为特征点,或以与预定数量的像素相对应的间距在所述处理目标图像中设定特征点,
针对每个特征点来设定局部区域,并检测该局部区域的特征量,并且
在所述匹配步骤中,通过检测与所述模型图像中的所述特征点集中的所述基点及所述支持点相对应的特征点,来检测与所述特征点集相对应的特征点,从而执行匹配。
10.根据权利要求9所述的方法,
其中,在所述设定特征点的步骤中,选择所述处理目标图像的边缘上的特征点,并将其设定为所述匹配步骤中的处理目标特征点。
11.根据权利要求9所述的方法,
其中,所述确定步骤包括以下子步骤:
对所述匹配步骤中的处理结果进行确定,以初次地确定所述处理目标图像中存在/不存在模型对象;
根据所述初次确定子步骤中的确定结果,将所述模型图像中的所有的像素设定为特征点,或以与预定数量的像素相对应的间距在所述模型图像中设定特征点,并检测所述模型图像中的每个特征点的特征量,从而对所述模型图像进行再处理;
根据所述初次确定子步骤中的确定结果而在所述处理目标图像中设定所述特征点集,从而对所述处理目标图像进行再处理;
通过将利用所述对处理目标图像进行再处理的步骤而得到的所述处理目标图像中的所述特征点集的特征量与利用所述对模型图像进行再处理的步骤而得到的所述模型图像中的所述特征点的特征量相比较,来执行后匹配;以及
对所述后匹配步骤中的处理结果进行确定,以再次地确定所述处理目标图像中存在/不存在模型对象。
12.一种对象识别方法,包括以下步骤:
处理模型图像;
对处理目标图像进行处理;
对所述处理模型图像的步骤及所述对处理目标图像进行处理的步骤中的处理结果进行匹配;以及
对所述匹配步骤中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象,
其中,所述对处理目标图像进行处理的步骤具有以下子步骤:在所述处理目标图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,从而判定该特征点集,
所述处理模型图像的步骤具有以下子步骤:在所述模型图像中设定特征点,并检测该特征点的特征量,
在所述匹配步骤中,通过将所述处理目标图像中的所述特征点集的特征量与所述模型图像中的所述特征点的特征量相比较,来检测与所述特征点集相对应的特征点,从而执行匹配,
所述对处理目标图像进行处理的步骤具有以下子步骤:对所述处理目标图像进行分割,并且
在所述判定特征点集的步骤中,针对所述处理目标图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
13.根据权利要求12所述的方法,
其中,在所述判定特征点集的步骤中,将所述基点及所述支持点设定在分割边界上。
14.根据权利要求12所述的方法,
其中,在所述判定特征点集的步骤中,基于相对应的分割区的面积及周长来设定要在一个分割区中设定的特征点集的数量。
15.根据权利要求12所述的方法,
其中,在所述判定特征点集的步骤中,基于相对应的分割区的面积及周长来设定组成一个特征点集的支持点的数量。
16.根据权利要求12所述的方法,
其中,所述判定特征点集的步骤具有以下子步骤:将所述基点设定在分割边界上,并在从所述基点向相对应的分割区的内侧偏移的位置处设定所述基点的特征量描述中心,
以所述特征量描述中心为中心来设定所述基点的局部区域,并且
基于所述局部区域的特征量来检测所述基点的特征量,以设定所述特征点集的特征量。
17.根据权利要求16所述的方法,
其中,所述设定特征量描述中心的子步骤具有以下子步骤:
将处理目标分割区收缩成与所述局部区域相对应的尺寸;
将所述处理目标分割区细线化;以及
将在所述收缩步骤中生成的区域叠加于在所述细线化步骤中经细线化的区域上,以设定在其中设定所述特征量描述中心的区域,
将所述特征量描述中心设定在所述在其中设定所述特征量描述中心的区域的外周上,并且
在所述判定特征点集的步骤中,基于所述特征量描述中心来设定相对应的基点。
18.根据权利要求12所述的方法,
其中,在所述设定特征点的步骤中,将所述模型图像中的所有的像素设定为特征点,或以与预定数量的像素相对应的间距在所述模型图像中设定特征点,
针对每个特征点来设定局部区域,并检测该局部区域的特征量,并且
在所述匹配步骤中,通过检测与所述处理目标图像中的所述特征点集中的所述基点及所述支持点相对应的特征点,来检测与所述特征点集相对应的特征点,从而执行匹配。
19.根据权利要求18所述的方法,
其中,在所述设定特征点的步骤中,选择所述处理目标图像的边缘上的特征点,并将其设定为所述匹配步骤中的处理目标特征点。
20.根据权利要求18所述的方法,
其中,所述确定步骤包括以下子步骤:
对所述匹配步骤中的处理结果进行确定,以初次地确定所述处理目标图像中存在/不存在模型对象;
根据所述初次确定子步骤中的确定结果,将所述处理目标图像中的所有的像素设定为特征点,或以与预定数量的像素相对应的间距在所述处理目标图像中设定特征点,并检测所述处理目标图像中的每个特征点的特征量,从而对所述处理目标图像进行再处理;
根据所述初次确定子步骤中的确定结果而在所述模型图像中设定所述特征点集,从而对所述模型图像进行再处理;
通过将利用所述对模型图像进行再处理的步骤而得到的所述模型图像中的所述特征点集的特征量与利用所述对处理目标图像进行再处理的步骤而得到的所述处理目标图像中的所述特征点的特征量相比较,来执行后匹配;以及
对所述后匹配步骤中的处理结果进行确定,以再次地确定所述处理目标图像中存在/不存在模型对象。
21.一种可由计算机来执行的、对象识别方法的程序,该程序包括以下步骤:
处理模型图像;
对处理目标图像进行处理;
对所述处理模型图像的步骤及所述对处理目标图像进行处理的步骤中的处理结果进行匹配;以及
对所述匹配步骤中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象,
其中,所述处理模型图像的步骤具有以下子步骤:在所述模型图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,从而判定该特征点集,
所述对处理目标图像进行处理的步骤具有以下子步骤:在所述处理目标图像中设定特征点,并检测该特征点的特征量,
在所述匹配步骤中,通过将所述模型图像中的所述特征点集的特征量与所述处理目标图像中的所述特征点的特征量相比较,来检测与所述特征点集相对应的特征点,从而执行匹配,
所述处理模型图像的步骤具有以下子步骤:对所述模型图像进行分割,并且
在所述判定特征点集的步骤中,针对所述模型图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
22.一种可由计算机来执行的、对象识别方法的程序,该程序包括以下步骤:
处理模型图像;
对处理目标图像进行处理;
对所述处理模型图像的步骤及所述对处理目标图像进行处理的步骤中的处理结果进行匹配;以及
对所述匹配步骤中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象,
其中,所述对处理目标图像进行处理的步骤具有以下子步骤:在所述处理目标图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,从而判定该特征点集,
所述处理模型图像的步骤具有以下子步骤:在所述模型图像中设定特征点,并检测该特征点的特征量,
在所述匹配步骤中,通过将所述处理目标图像中的所述特征点集的特征量与所述模型图像中的所述特征点的特征量相比较,来检测与所述特征点集相对应的特征点,从而执行匹配,
所述对处理目标图像进行处理的步骤具有以下子步骤:对所述处理目标图像进行分割,
在所述判定特征点集的步骤中,针对所述处理目标图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
23.一种其上记录有可由计算机来执行的、对象识别方法的程序的记录介质,所述程序包括以下步骤:
处理模型图像;
对处理目标图像进行处理;
对所述处理模型图像的步骤及所述对处理目标图像进行处理的步骤中的处理结果进行匹配;以及
对所述匹配步骤中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象,
其中,所述处理模型图像的步骤具有以下子步骤:在所述模型图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,从而判定该特征点集,
所述对处理目标图像进行处理的步骤具有以下子步骤:在所述处理目标图像中设定特征点,并检测该特征点的特征量,
在所述匹配步骤中,通过将所述模型图像中的所述特征点集的特征量与所述处理目标图像中的所述特征点的特征量相比较,来检测与所述特征点集相对应的特征点,从而执行匹配,
所述处理模型图像的步骤具有以下子步骤:对所述模型图像进行分割,并且
在所述判定特征点集的步骤中,针对所述模型图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
24.一种其上记录有可由计算机来执行的、对象识别方法的程序的记录介质,所述程序包括以下步骤:
处理模型图像;
对处理目标图像进行处理;
对所述处理模型图像的步骤及所述对处理目标图像进行处理的步骤中的处理结果进行匹配;以及
对所述匹配步骤中的处理结果进行确定,以确定所述处理目标图像中存在/不存在模型对象,
其中,所述对处理目标图像进行处理的步骤具有以下子步骤:在所述处理目标图像中设定包括基点及支持该基点的支持点的特征点集,并检测该特征点集的特征量,从而判定该特征点集,
所述处理模型图像的步骤具有以下子步骤:在所述模型图像中设定特征点,并检测该特征点的特征量,
在所述匹配步骤中,通过将所述处理目标图像中的所述特征点集的特征量与所述模型图像中的所述特征点的特征量相比较,来检测与所述特征点集相对应的特征点,从而执行匹配,
所述对处理目标图像进行处理的步骤具有以下子步骤:对所述处理目标图像进行分割,
在所述判定特征点集的步骤中,针对所述处理目标图像的每个分割区,在同一分割区中设定基点及相对应的支持点,以设定所述特征点集。
CN2009101463334A 2008-06-20 2009-06-19 用于识别图像中的模型对象的装置及方法 Expired - Fee Related CN101609506B (zh)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2008161437 2008-06-20
JP2008-161437 2008-06-20
JP2008161437 2008-06-20
JP2008-300506 2008-11-26
JP2008300506A JP4569698B2 (ja) 2008-06-20 2008-11-26 物体認識装置、物体認識方法及び物体認識方法のプログラム
JP2008300506 2008-11-26

Publications (2)

Publication Number Publication Date
CN101609506A true CN101609506A (zh) 2009-12-23
CN101609506B CN101609506B (zh) 2012-05-23

Family

ID=41431363

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009101463334A Expired - Fee Related CN101609506B (zh) 2008-06-20 2009-06-19 用于识别图像中的模型对象的装置及方法

Country Status (2)

Country Link
US (1) US8160366B2 (zh)
CN (1) CN101609506B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103136843A (zh) * 2011-09-13 2013-06-05 株式会社理光 图像检查装置和图像检查方法
CN103632379A (zh) * 2012-08-22 2014-03-12 佳能株式会社 物体检测装置及其控制方法
CN104112137A (zh) * 2013-04-22 2014-10-22 富士通株式会社 对象边界提取方法和对象边界提取设备
CN104412303A (zh) * 2012-07-11 2015-03-11 奥林巴斯株式会社 图像处理装置和图像处理方法
CN104463178A (zh) * 2014-12-29 2015-03-25 广州视源电子科技股份有限公司 电子元件识别方法和系统
CN105814608A (zh) * 2013-12-27 2016-07-27 京瓷办公信息系统株式会社 图像处理装置和特定图形检测方法
CN108765277A (zh) * 2018-06-04 2018-11-06 上海联影医疗科技有限公司 图像拼接方法、装置、计算机设备和存储介质
CN109977978A (zh) * 2017-12-28 2019-07-05 中兴通讯股份有限公司 一种多目标检测方法、装置及存储介质
CN112585946A (zh) * 2020-03-27 2021-03-30 深圳市大疆创新科技有限公司 图像拍摄方法、装置、可移动平台和存储介质
CN115880512A (zh) * 2023-02-01 2023-03-31 有米科技股份有限公司 一种图标匹配方法及装置
CN117085969A (zh) * 2023-10-11 2023-11-21 中国移动紫金(江苏)创新研究院有限公司 人工智能工业视觉检测方法、装置、设备及存储介质

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5290915B2 (ja) * 2009-09-03 2013-09-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2011221688A (ja) * 2010-04-07 2011-11-04 Sony Corp 認識装置、認識方法、およびプログラム
US8548255B2 (en) * 2010-04-15 2013-10-01 Nokia Corporation Method and apparatus for visual search stability
US9047531B2 (en) 2010-05-21 2015-06-02 Hand Held Products, Inc. Interactive user interface for capturing a document in an image signal
US8600167B2 (en) 2010-05-21 2013-12-03 Hand Held Products, Inc. System for capturing a document in an image signal
US20110314253A1 (en) * 2010-06-22 2011-12-22 Jacob Yaakov Jeffrey Allan Alon System, data structure, and method for transposing multi-dimensional data to switch between vertical and horizontal filters
US8730396B2 (en) * 2010-06-23 2014-05-20 MindTree Limited Capturing events of interest by spatio-temporal video analysis
JP5781743B2 (ja) * 2010-06-28 2015-09-24 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
KR101165357B1 (ko) * 2011-02-14 2012-07-18 (주)엔써즈 이미지 특징 데이터 생성 장치 및 방법
US9047534B2 (en) * 2011-08-11 2015-06-02 Anvato, Inc. Method and apparatus for detecting near-duplicate images using content adaptive hash lookups
EP2750110B1 (en) * 2011-08-24 2020-03-18 Sony Corporation Information processing device, information processing method, and program
US8774508B2 (en) * 2012-02-27 2014-07-08 Denso It Laboratory, Inc. Local feature amount calculating device, method of calculating local feature amount, corresponding point searching apparatus, and method of searching corresponding point
CN103034859B (zh) * 2012-12-13 2016-03-30 华为技术有限公司 一种获取姿势模型的方法及装置
KR101999137B1 (ko) * 2013-01-03 2019-07-11 삼성전자주식회사 카메라를 구비하는 장치의 이미지 처리장치 및 방법
DE102013002554A1 (de) * 2013-02-15 2014-08-21 Jungheinrich Aktiengesellschaft Verfahren zur Erkennung von Objekten in einem Lager und/oder zur räumlichen Orientierung in einem Lager
JP6212878B2 (ja) * 2013-02-21 2017-10-18 株式会社リコー 画像処理装置、画像処理システム及びプログラム
JP6349817B2 (ja) * 2014-03-19 2018-07-04 富士通株式会社 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
US9508151B2 (en) * 2014-07-10 2016-11-29 Ditto Labs, Inc. Systems, methods, and devices for image matching and object recognition in images using image regions
CN104809462A (zh) * 2015-04-24 2015-07-29 电子科技大学 一种提取植被排放甲烷量的方法
JP6348093B2 (ja) * 2015-11-06 2018-06-27 ファナック株式会社 入力データから検出対象物の像を検出する画像処理装置および方法
US9805289B2 (en) * 2015-12-18 2017-10-31 Ricoh Co., Ltd. Color-based post-processing of images
JP6638484B2 (ja) * 2016-03-10 2020-01-29 富士通株式会社 情報処理装置、類似検索プログラム、及び類似検索方法
US10474745B1 (en) 2016-04-27 2019-11-12 Google Llc Systems and methods for a knowledge-based form creation platform
US11039181B1 (en) 2016-05-09 2021-06-15 Google Llc Method and apparatus for secure video manifest/playlist generation and playback
US10771824B1 (en) 2016-05-10 2020-09-08 Google Llc System for managing video playback using a server generated manifest/playlist
US10595054B2 (en) 2016-05-10 2020-03-17 Google Llc Method and apparatus for a virtual online video channel
US10785508B2 (en) 2016-05-10 2020-09-22 Google Llc System for measuring video playback events using a server generated manifest/playlist
US10750216B1 (en) 2016-05-10 2020-08-18 Google Llc Method and apparatus for providing peer-to-peer content delivery
US10750248B1 (en) 2016-05-10 2020-08-18 Google Llc Method and apparatus for server-side content delivery network switching
US11069378B1 (en) 2016-05-10 2021-07-20 Google Llc Method and apparatus for frame accurate high resolution video editing in cloud using live video streams
US11032588B2 (en) 2016-05-16 2021-06-08 Google Llc Method and apparatus for spatial enhanced adaptive bitrate live streaming for 360 degree video playback
US10438098B2 (en) 2017-05-19 2019-10-08 Hand Held Products, Inc. High-speed OCR decode using depleted centerlines
WO2019165626A1 (en) * 2018-03-01 2019-09-06 Intel Corporation Methods and apparatus to match images using semantic features
WO2019233422A1 (en) 2018-06-04 2019-12-12 Shanghai United Imaging Healthcare Co., Ltd. Devices, systems, and methods for image stitching
WO2019232782A1 (zh) * 2018-06-08 2019-12-12 深圳蓝胖子机器人有限公司 一种物体特征的识别方法、视觉识别装置及机器人
CN109492552A (zh) * 2018-10-25 2019-03-19 西安电子科技大学 一种道路遗撒物体检测方法、装置、设备及可读存储介质
EP3884423A4 (en) * 2018-12-26 2021-12-01 Zhejiang Dahua Technology Co., Ltd. SYSTEMS AND METHODS FOR OBJECT DETECTION
JP7242309B2 (ja) * 2019-01-16 2023-03-20 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN111259899B (zh) * 2020-01-13 2022-11-08 华中科技大学 一种喷码字符检测方法
CN113139626B (zh) * 2021-06-21 2021-10-15 浙江华睿科技股份有限公司 模板匹配方法、装置、电子设备及计算机可读存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001078030A (ja) * 1999-07-02 2001-03-23 Omron Corp 画像認識装置及び画像形成装置並びに記録媒体
JP4492036B2 (ja) * 2003-04-28 2010-06-30 ソニー株式会社 画像認識装置及び方法、並びにロボット装置
US20050021381A1 (en) 2003-07-22 2005-01-27 Horst Schnoerer Budget consistency checks for computerized financial management system
JP2005208740A (ja) 2004-01-20 2005-08-04 Ricoh Co Ltd 部分画像検索装置及び部分画像検索プログラム
US7860344B1 (en) * 2005-05-06 2010-12-28 Stochastech Corporation Tracking apparatus and methods using image processing noise reduction
JP4518092B2 (ja) 2006-03-31 2010-08-04 ソニー株式会社 物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム
CN100470579C (zh) * 2007-09-21 2009-03-18 清华大学 指纹识别中确定性编码方法与系统

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103136843B (zh) * 2011-09-13 2015-09-30 株式会社理光 图像检查装置和图像检查方法
CN103136843A (zh) * 2011-09-13 2013-06-05 株式会社理光 图像检查装置和图像检查方法
CN104412303B (zh) * 2012-07-11 2017-10-13 奥林巴斯株式会社 图像处理装置和图像处理方法
CN104412303A (zh) * 2012-07-11 2015-03-11 奥林巴斯株式会社 图像处理装置和图像处理方法
CN103632379B (zh) * 2012-08-22 2017-06-06 佳能株式会社 物体检测装置及其控制方法
CN103632379A (zh) * 2012-08-22 2014-03-12 佳能株式会社 物体检测装置及其控制方法
CN104112137A (zh) * 2013-04-22 2014-10-22 富士通株式会社 对象边界提取方法和对象边界提取设备
CN104112137B (zh) * 2013-04-22 2017-07-28 富士通株式会社 对象边界提取方法和对象边界提取设备
CN105814608A (zh) * 2013-12-27 2016-07-27 京瓷办公信息系统株式会社 图像处理装置和特定图形检测方法
CN105814608B (zh) * 2013-12-27 2017-03-15 京瓷办公信息系统株式会社 图像处理装置和特定图形检测方法
CN104463178A (zh) * 2014-12-29 2015-03-25 广州视源电子科技股份有限公司 电子元件识别方法和系统
CN109977978B (zh) * 2017-12-28 2023-07-18 中兴通讯股份有限公司 一种多目标检测方法、装置及存储介质
CN109977978A (zh) * 2017-12-28 2019-07-05 中兴通讯股份有限公司 一种多目标检测方法、装置及存储介质
CN108765277A (zh) * 2018-06-04 2018-11-06 上海联影医疗科技有限公司 图像拼接方法、装置、计算机设备和存储介质
CN108765277B (zh) * 2018-06-04 2021-05-07 上海联影医疗科技股份有限公司 图像拼接方法、装置、计算机设备和存储介质
CN112585946A (zh) * 2020-03-27 2021-03-30 深圳市大疆创新科技有限公司 图像拍摄方法、装置、可移动平台和存储介质
CN115880512A (zh) * 2023-02-01 2023-03-31 有米科技股份有限公司 一种图标匹配方法及装置
CN115880512B (zh) * 2023-02-01 2023-07-21 有米科技股份有限公司 一种图标匹配方法及装置
CN117085969A (zh) * 2023-10-11 2023-11-21 中国移动紫金(江苏)创新研究院有限公司 人工智能工业视觉检测方法、装置、设备及存储介质
CN117085969B (zh) * 2023-10-11 2024-02-13 中国移动紫金(江苏)创新研究院有限公司 人工智能工业视觉检测方法、装置、设备及存储介质

Also Published As

Publication number Publication date
US8160366B2 (en) 2012-04-17
CN101609506B (zh) 2012-05-23
US20090316990A1 (en) 2009-12-24

Similar Documents

Publication Publication Date Title
CN101609506B (zh) 用于识别图像中的模型对象的装置及方法
EP2136319A2 (en) Object recognition device, object recognition method, program for object recognition method, and recording medium having recorded thereon program for object recognition method
US11210550B2 (en) Image-based feature detection using edge vectors
Huo et al. Multilevel SIFT matching for large-size VHR image registration
Sedaghat et al. Remote sensing image matching based on adaptive binning SIFT descriptor
Hauagge et al. Image matching using local symmetry features
Baatz et al. Leveraging 3D city models for rotation invariant place-of-interest recognition
Krig et al. Ground truth data, content, metrics, and analysis
Goshtasby Theory and applications of image registration
CN110781911B (zh) 一种图像匹配方法、装置、设备及存储介质
Sharma et al. Image stitching using AKAZE features
Jiang et al. Reliable image matching via photometric and geometric constraints structured by Delaunay triangulation
Knopp et al. Orientation invariant 3D object classification using hough transform based methods
Weinmann Visual features—From early concepts to modern computer vision
Uchiyama et al. Toward augmenting everything: Detecting and tracking geometrical features on planar objects
CN103309913A (zh) 自动管理图像集合中的图像的方法和相应设备
Lee et al. Performance evaluation of local descriptors for maximally stable extremal regions
Xiong et al. Robust SAR image registration using rank-based ratio self-similarity
Maiwald et al. An automatic workflow for orientation of historical images with large radiometric and geometric differences
Chen et al. Robust visible-infrared image matching by exploiting dominant edge orientations
Wan et al. Sorting unorganized photo sets for urban reconstruction
Tao et al. A distinctive binary descriptor and 2-point RANSACWC for point cloud registration
Noury et al. How to overcome perceptual aliasing in ASIFT?
Ye et al. Multipurification of matching pairs based on ORB feature and PCB alignment case study
Sales et al. 3D shape descriptor for objects recognition

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120523

Termination date: 20150619

EXPY Termination of patent right or utility model