CN101661622A - 图像处理装置、图像处理方法及程序 - Google Patents
图像处理装置、图像处理方法及程序 Download PDFInfo
- Publication number
- CN101661622A CN101661622A CN200910168492A CN200910168492A CN101661622A CN 101661622 A CN101661622 A CN 101661622A CN 200910168492 A CN200910168492 A CN 200910168492A CN 200910168492 A CN200910168492 A CN 200910168492A CN 101661622 A CN101661622 A CN 101661622A
- Authority
- CN
- China
- Prior art keywords
- brightness step
- distribution
- step vector
- regional area
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种图像处理装置、图像处理方法及程序。该图像处理装置包括:第一分布计算单元,计算包括图像上的特征点的第一局部区域中的亮度梯度向量的分布;第二分布计算单元,计算在图像上的所述特征点附近的第二局部区域中的亮度梯度向量的分布;选择单元,将第一局部区域的亮度梯度向量的分布与第二局部区域的亮度梯度向量的分布进行比较,以从第二局部区域的亮度梯度向量中选择最不同的亮度梯度向量的分布;以及特征描述信息计算单元,基于第一局部区域的亮度梯度向量的分布和由选择单元选择的第二局部区域的亮度梯度向量的分布,来计算特征点处的特征描述信息。
Description
技术领域
本发明涉及一种图像处理装置、图像处理方法及程序,更具体地,涉及一种计算开销低和能够从图像中提取用起来简单的特征描述信息的图像处理装置、图像处理方法及程序。
背景技术
用于识别图像中的目标对象的图像识别技术是具有广泛应用范围的图像处理技术,且图像识别方法已进行了广泛地研究。在现有技术中,作为涉及图像识别的技术,存在检测图像中特征点的位置的技术和检测在所检测的特征点的位置处的特征描述信息的技术。
例如,作为检测特征点的位置的技术,提出了以下的检测方法,如“哈里斯(Harris)角点检测器”、“SUSAN角点检测器”以及“KLT角点检测器”(例如,参见C.Harris和M.Stephens发表的、题为″A combinedcorner and edge detector″的文章,Proc.4th Alvey Vision Conf.,pp.147-151,Manchester,U.K.,Aug.1988;英国专利第GB2272285号;以及C.Tomasi和T.Kanade等人发表的、题为″Detection and Tracking ofPoint Features″的技术报告CMU-CS-91-132)。
另外,作为检测特征描述信息的技术,提出了使用“方向可调滤波器”或“复滤波器”的检测方法以及诸如“SIFT描述信息”和“PCA-SIFT”之类的检测方法(例如,参见W. Freeman和E.Adelson发表的、题为″TheDesign and Use of Steerable Filters″的文章,IEEE Trans.Pattern Analysisand Machine Intelligence,vol.13,no.9,pp.891-906,Sept.1991.;E.Schaffalitzky和A.Zisserman发表的、题为″Multi-View Matching forUnordered Image Sets″的文章,Proc.Seventh European Conf.Computer Vision,pp.414-431,2002.,美国专利第6711293号;以及Y.Ke和R.Sukthankar等人发表的、题为″PCA-SIFT:A More DistinctiveRepresentation for Local Image Descriptors″的文章,Computer Visionand Pattern Recognition,2004)。
发明内容
另外,用于图像识别的特征描述信息是这种描述信息:当不同图像均包括同一对象时,所述描述信息可以指示对象的同一性,并通常是向量描述信息。
当特征描述信息被用于图像识别时,特征描述信息需要具有使得即使当对对象(特征点)的视点或照明改变时特征描述信息也保持不变的性能特性,以及使得特征描述信息多大程度上简单地通过较小的数据量来表达的描述特性。
具体地,当在计算能力和数据容量上具有很多限制的移动设备或具有实时能力和需要具有高处理速度的设备中使用特征描述信息进行处理时,特征描述信息的描述特性被更严格地设定。
然而,在以上描述的技术中,难以提取同时充分满足性能特性和描述特性的特征描述信息。
例如,已有的特征描述信息多数用于改善性能。在上述检测被称为“SIFT描述信息”的特征描述信息的方法中,从图像中检测的一个特征点处的特征描述信息被用128维向量表示。由此,当计算分别从两个图像检测的特征点的特征描述信息之间的相似度以进行比较时,因为特征描述信息是高维向量,计算开销增加。注意,特征描述信息之间的相似度用向量之间的欧几里德距离来表示。
另外,在检测被称为“PCA-SIFT”的特征描述信息的方法中,对通过“SIFT描述信息”检测的特征描述信息进行主分量分析,以减少特征描述信息的维数;然而,对于为减少维数的主分量分析,存在额外的计算开销。也就是说,计算最终使用的特征描述信息的步骤中的处理负载增加。这样,当考虑检测特征描述信息的计算开销时,需要考虑两个方面,即,检测特征描述信息所需的处理负载以及使用检测到的特征描述信息进行图像识别所需的处理负载。
期望从图像中检测用起来简单的特征描述信息,该特征描述信息对视点或照明的变化具有鲁棒性,并且计算开销较低。
根据本发明的实施方式,一种图像处理装置包括:第一分布计算装置,计算包括图像上的特征点的第一局部区域中的亮度梯度向量的分布;第二分布计算装置,计算在图像上的特征点附近的多个第二局部区域中的亮度梯度向量的分布;选择装置,将所述第一局部区域的亮度梯度向量的分布与所述多个第二局部区域的亮度梯度向量的分布进行比较,以从所述多个第二局部区域的亮度梯度向量的分布中,选择分布最不同于所述第一局部区域的亮度梯度向量的分布的第二局部区域的亮度梯度向量的分布;以及,特征描述信息计算装置,基于第一局部区域的亮度梯度向量的分布和由选择装置选择的第二局部区域的亮度梯度向量的分布,计算特征点处的特征描述信息。
可以计算亮度梯度直方图作为亮度梯度向量的分布,所述亮度梯度直方图是按照亮度梯度向量的每个方向计算出的,表示具有所述方向的亮度梯度向量的出现频率,以及,选择装置可以计算每个第二局部区域的亮度梯度直方图与第一局部区域的亮度梯度直方图的相似度,从所述多个第二局部区域的亮度梯度直方图中选择具有由相似度指示的最低程度的相似度的第二局部区域的亮度梯度直方图。
根据本发明的另一实施方式,一种图像处理方法或程序包括以下步骤:计算包括图像上的特征点的第一局部区域中的亮度梯度向量的分布;计算在图像上的特征点附近的多个第二局部区域中的亮度梯度向量的分布;将第一局部区域的亮度梯度向量的分布与所述多个第二局部区域的亮度梯度向量的分布进行比较,以从所述多个第二局部区域的亮度梯度向量的分布中,选择分布最不同于第一局部区域的亮度梯度向量的分布的第二局部区域的亮度梯度向量的分布;以及,基于第一局部区域的亮度梯度向量的分布和选择的第二局部区域的亮度梯度向量的分布,计算特征点处的特征描述信息。
在本发明的实施方式中,计算包括图像上的特征点的第一局部区域中的亮度梯度向量的分布;计算在图像上的特征点附近的多个第二局部区域中的亮度梯度向量的分布;将第一局部区域的亮度梯度向量的分布与所述多个第二局部区域的亮度梯度向量的分布进行比较,以从所述多个第二局部区域的亮度梯度向量的分布中,选择分布最不同于第一局部区域的亮度梯度向量的分布的第二局部区域的亮度梯度向量的分布;以及,基于第一局部区域的亮度梯度向量的分布和所选择的第二局部区域的亮度梯度向量的分布,计算特征点处的特征描述信息。
根据本发明的实施方式,可以从图像检测特征描述信息。具体地,根据本发明的实施方式,可以从图像检测用起来简单的特征描述信息,该特征描述信息对于视点或照明的变化具有鲁棒性并且计算开销较低。
附图说明
图1是根据本发明的实施例的图像处理装置的配置示意图;
图2是示出生成特征描述信息的处理的流程图;
图3是示出生成每个特征点位置处的亮度梯度直方图的处理的流程图;
图4是示出生成每个特征点附近位置的亮度梯度直方图的处理的流程图;
图5是示出每个特征点的附近位置的图;以及
图6是示出计算机的配置示例的框图。
具体实施方式
下面将参照附图描述根据本发明的实施例。
图1是示出根据本发明的实施例的图像处理装置的配置示例的框图。
图像处理装置11包括特征点检测单元21、亮度梯度直方图生成单元22、亮度梯度直方图生成单元23、亮度梯度直方图选择单元24以及特征描述信息生成单元25。
作为检测特征描述信息的目标的输入图像被提供到特征点检测单元21。特征点检测单元21从所提供的输入图像中检测特征点位置和向亮度梯度直方图生成单元22提供输入图像和所检测的特征点位置,所述特征点是输入图像的特性像素。
亮度梯度直方图生成单元22基于从特征点检测单元21提供的每个特征点位置和输入图像针对每个特征点位置生成亮度梯度直方图。针对亮度梯度向量的每个方向计算的亮度梯度直方图是指示包括特征点的局部区域中的像素的亮度梯度向量的分布的信息,即指示具有每个方向的亮度梯度向量出现频率的信息。
亮度梯度直方图生成单元22包括亮度梯度向量计算单元41、亮度梯度直方图更新单元42、代表方向计算单元43以及图像旋转单元44。
亮度梯度向量计算单元41基于从特征点检测单元21提供每个特征点位置和输入图像或从图像旋转单元44提供的输入图像,计算输入图像中包括对应的特征点位置的每个局部区域中的像素的亮度梯度向量,接着向亮度梯度直方图更新单元42提供所述亮度梯度向量。
亮度梯度直方图更新单元42使用从亮度梯度向量计算单元41提供的亮度梯度向量以更新所保存的亮度梯度直方图,这样生成最终的亮度梯度直方图。亮度梯度直方图更新单元42向代表方向计算单元43或亮度梯度直方图选择单元24提供所生成的亮度梯度直方图。
代表方向计算单元43基于从亮度梯度直方图更新单元42提供的亮度梯度直方图,从包括特征点位置的局部区域中的像素计算代表亮度梯度向量的方向作为代表方向,接着向图像旋转单元44提供所述代表方向。图像旋转单元44基于从特征点检测单元21提供的特征点位置和输入图像以及从代表方向计算单元43提供的代表方向,来旋转输入图像,接着向亮度梯度向量计算单元41和亮度梯度直方图生成单元23提供旋转的输入图像。
应注意在下文中,被图像旋转单元44旋转的输入图像也被称为旋转输入图像。另外,从亮度梯度直方图更新单元42向亮度梯度直方图选择单元24提供的不是基于从特征点检测单元21提供的输入图像生成的亮度梯度直方图,而是从旋转输入图像生成的亮度梯度直方图。
亮度梯度直方图生成单元23基于从图像旋转单元44提供的旋转输入图像,针对每个特征点位置,生成包括旋转输入图像中的特征点附近的位置的局部区域的亮度梯度直方图。亮度梯度直方图生成单元23包括附近位置选择单元45、亮度梯度向量计算单元46以及亮度梯度直方图更新单元47。
附近位置选择单元45选择在从图像旋转单元44提供的旋转输入图像的每个特征点附近的一些位置,接着向亮度梯度向量计算单元46提供所选择的附近位置和旋转输入图像。例如,选择在每个特征点附近的四个附近位置。
亮度梯度向量计算单元46使用从附近位置选择单元45提供的每个特征点的附近位置和旋转输入图像,来计算包括每个附近位置的局部区域中的每个像素的亮度梯度向量,接着向亮度梯度直方图更新单元47提供所述亮度梯度向量。
亮度梯度直方图更新单元47使用从亮度梯度向量计算单元46提供的亮度梯度向量,来更新所保存的亮度梯度直方图,这样生成最终的亮度梯度直方图。在亮度梯度直方图更新单元47中,针对包括每个附近位置的每个局部区域生成亮度梯度直方图,亮度梯度直方图从亮度梯度直方图更新单元47被提供到亮度梯度直方图选择单元24。
亮度梯度直方图选择单元24将从亮度梯度直方图更新单元42提供的亮度梯度直方图与从亮度梯度直方图更新单元47提供的亮度梯度直方图进行比较。也就是说,亮度梯度直方图选择单元24从一个特征点附近的多个附近位置的亮度梯度直方图中,选择亮度梯度向量的分布与该特征点的亮度梯度直方图最不相同的亮度梯度直方图。接着,亮度梯度直方图选择单元24向特征描述信息生成单元25提供每个特征点的亮度梯度直方图和对应于该特征点而选择的一个附近位置的亮度梯度直方图。
特征描述信息生成单元25使用从亮度梯度直方图选择单元24提供的每个特征点的亮度梯度直方图和在对应特征点附近的每个附近位置的亮度梯度直方图,来生成每个特征点处的特征描述信息,接着输出特征描述信息。
以此方式从输入图像中检测的特征描述信息例如被用于从多个图像中检测同一主体的图像识别。图像识别用于立体视觉技术,其中,例如,在具有视差的一组图像中,识别显示同一对象的区域,基于所获得的信息计算深度信息。另外,图像识别还用于,例如,从预定图像中检测预先拍摄的对象(例如人或交通标志)的技术,或者在运动图像中连续跟踪特定对象的跟踪技术。
另外,当图像处理装置11接收输入图像并被命令从输入图像中检测特征描述信息时,图像处理装置11开始特征描述信息生成处理,即从输入图像检测(提取)特征描述信息的处理。在下文,将参照图2所示的流程图描述图像处理装置11执行的特征描述信息生成处理。
在步骤S11,特征点检测单元21从提供的输入图像中检测特征点的位置,和向亮度梯度向量计算单元41和图像旋转单元44提供特征点位置和输入图像,所述特征点位置即所检测的特征点的位置。例如,特征点检测单元21通过被称为“Harris角点检测器”的检测方法从输入图像中检测特征点。
在步骤S12,亮度梯度向量计算单元41选择从特征点检测单元21提供的输入图像上的多个特征点之一。
在步骤S13,亮度梯度直方图生成单元22进行生成特征点位置处的亮度梯度直方图的处理,生成包括在步骤S12的处理中选择的特征点的局部区域的亮度梯度直方图。
在此,参照图3所示的流程图描述对应于步骤S13的处理的生成特征点位置处的亮度梯度直方图的处理。
在步骤S51,亮度梯度向量计算单元41针对关注的特征点即在步骤S12的处理中选择的特征点(在下文称为关注特征点)设定局部区域。具体地,亮度梯度向量计算单元41将输入图像上以关注特征点为中心的以r个像素为半径的圆内包括的区域设定为关注特征点的局部区域。
在下文,局部区域中包括的像素的数量是m(其中m是自然数),像素Gi(其中1≤i≤m)的位置由像素位置(xi,yi)表示。在此,像素位置(xi,yi)中的“xi”和“yi”分别表示在xy坐标系中像素Gi的像素位置的x坐标和y坐标,在xy坐标系中将预定的相互正交的方向设定为输入图像上x方向和y方向。
另外,更具体地,亮度梯度向量计算单元41从输入图像的整个区域中剪切以关注特征点为中心的具有预定大小的区域,接着使用输入图像的剪切区域进行生成亮度梯度直方图的处理。
在步骤S52,亮度梯度向量计算单元41初始化用于指示局部区域中的处理对象像素Gi的循环计数器i,以将i设定为1。
在步骤S53,亮度梯度向量计算单元41计算在像素位置(xi,yi)的像素Gi的亮度梯度向量,接着向亮度梯度直方图更新单元42提供所计算的亮度梯度向量。具体地,亮度梯度向量计算单元41计算以下数学表达式(1)和(2)以获得像素Gi的像素值的在x方向的一阶导数Ix(xi,yi)和像素Gi的像素值的在y方向的一阶导数Iy(xi,yi)。
Ix(xi,yi)=I(xi+1,yi)-I(xi-1,yi)(1)
Iy(xi,yi)=I(xi,yi+1)-I(xi,yi-1)(2)
注意,在数学表达式(1)和(2)中,I(x,y)表示像素位置为(x,y)的像素的像素值。由此,在x方向上与像素Gi相邻的像素的像素值和在与x方向相反的方向上与像素Gi相邻的像素的像素值之间的差是像素Gi在x方向上的一阶导数Ix(xi,yi)。类似地,在y方向上与像素Gi相邻的像素的像素值和在与y方向相反的方向上与像素Gi相邻的像素的像素值之间的差是像素Gi在y方向上的一阶导数Iy(xi,yi)。
一阶导数Ix(xi,yi)和一阶导数Iy(xi,yi)分别代表像素Gi在预定方向上的亮度梯度,即像素值的变化。亮度值梯度向量计算单元41将由此获得的一阶导数Ix(xi,yi)和一阶导数Iy(xi,yi)所形成的向量设定为像素Gi的亮度梯度向量。应注意亮度梯度向量的幅度n(xi,yi)和方向θ(xi,yi)由以下数学表达式(3)和(4)表示:
n(xi,yi)=((Ix(xi,yi))2+(Iy(xi,yi))2)1/2(3)
θ(xi,yi)=tan-1(Iy(xi,yi)/Ix(xi,yi))(4)
在步骤S54,亮度梯度直方图更新单元42基于从亮度梯度向量计算单元41提供的亮度梯度向量,更新所保存的局部区域的亮度梯度直方图。
具体地,亮度梯度直方图更新单元42保存处理目标局部区域的亮度梯度直方图。亮度梯度直方图是这样的直方图:纵轴代表频率(亮度梯度向量出现的频率)而横轴代表某像素处亮度梯度向量的角度。直方图的格子(bin)基于亮度梯度向量的方向确定,亮度梯度向量的幅度用作添加到格子的频率。
在此,格子(bin)是指:当由亮度梯度直方图的横轴表示的亮度梯度向量的方向的可能值范围的被划分为多个范围时,一个划分出来的方向范围。例如,亮度梯度直方图的横轴的范围(0,2π)即从0到2π的范围(其中不含2π)。如果格子的数量是P,则相对于亮度梯度向量的方向θ(xi,yi)通过以下数学表达式(5)来确定格子。
[表达式5]
也就是说,不超过通过用亮度梯度向量的方向θ(xi,yi)除以(2π/P)获得的数的最大整数被设定为方向为θ(xi,yi)的亮度梯度向量的格子号。这样,针对每个亮度梯度向量确定P个格子中的任何一个。亮度梯度直方图更新单元42向格子的频率添加亮度梯度向量的幅度n(xi,yi),以更新所保存的亮度梯度直方图,所述格子是根据亮度梯度向量计算单元41提供的亮度梯度向量的方向、在所保存的局部区域的亮度梯度直方图的格子中确定的。
也就是说,亮度梯度直方图更新单元42保持由P个格子的频率形成的向量作为亮度梯度直方图,每次从亮度梯度向量计算单元41提供亮度梯度向量时,将该亮度梯度向量的幅度添加到对应于该亮度梯度向量的格子的频率。
当亮度梯度直方图被更新时,不是亮度梯度向量出现的频率而是每个亮度梯度向量的幅度被添加到每个格子的频率。由此,根据亮度梯度向量的幅度对亮度梯度直方图的频率分配权重。进行权重的分配是因为具有大亮度梯度向量的像素比具有小亮度梯度向量的像素更代表输入图像的特征。
以此方式,由于处理目标局部区域的亮度梯度直方图被更新,在步骤S55,亮度梯度向量计算单元41确定循环计数器i的值是否为m。
在步骤S55,当确定循环计数器i的值不是m时,没有将局部区域中的全部m个像素设定为处理目标。由此,亮度梯度向量计算单元41增加循环计数器i的值。之后,处理返回步骤S53,局部区域中的下一像素被选择,接着计算该像素的亮度梯度向量。
相反地,当在步骤S55确定循环计数器i的值是m时,局部区域中的全部像素已被设定为处理目标。由此,亮度梯度直方图更新单元42向代表方向计算单元43提供所保存的亮度梯度直方图作为该局部区域的亮度梯度直方图。
以此方式,由于生成了包括一个特征点的局部区域的亮度梯度直方图,生成该特征点位置的亮度梯度直方图的处理结束,之后,处理进入图2的步骤S14。
再次参照图2中的流程图,在步骤S14,代表方向计算单元43使用从亮度梯度直方图更新单元42提供的亮度梯度直方图来计算处理目标局部区域中的亮度梯度向量的代表方向。
例如,代表方向计算单元43从所提供的亮度梯度直方图的格子中选择具有最大频率的格子,接着设定由所选择的格子指示的亮度梯度向量的方向上的范围的中间值,作为包括该特征点的局部区域的代表方向θ0。接着,代表方向计算单元43向图像旋转单元44提供所计算的代表方向θ0。
在步骤S15,图像旋转单元44基于从特征点检测单元21提供的输入图像和特征点位置以及从代表方向计算单元43提供的代表方向来旋转输入图像。
具体地,图像旋转单元44从输入图像的整个区域中剪切以关注特征点为中心的具有预定大小的区域,接着绕着关注特征点将所剪切的区域在与该局部区域的代表方向θ0相反的方向上旋转所述代表方向θ0的角度。接着,图像旋转单元44将通过旋转而获得的输入图像设定为旋转输入图像,接着向亮度梯度向量计算单元41和附近位置选择单元45提供旋转后的输入图像。
在此,每个像素的亮度梯度向量的方向表示:相对于输入图像中预定参考方向(下文也被称为参考方向)的旋转角度,即参考方向和亮度梯度向量之间形成的角度。另外,代表方向θ0可被认为是该局部区域中的像素的亮度梯度向量的方向中频率最高的方向。
例如,当输入图像上的主体被旋转时,包括主体上的特征点的局部区域的代表方向θ0也在主体的旋转方向上改变与旋转角度相同的角度。因此,由于输入图像绕着特征点旋转由代表方向θ0指示的角度以获得旋转后的输入图像,旋转后的输入图像的特征点处的代表方向θ0总是参考方向。由此,由于再次根据旋转后的输入图像来计算包括该特征点的局部区域的亮度梯度直方图,可以获得不随主体的旋转而改变的亮度梯度直方图。
应注意,当输入图像被旋转时,xy坐标系统不旋转。另外,即使当输入图像上的主体在输入图像上平移时,亮度梯度向量保持不变。由此,亮度梯度直方图不随主体的平移而改变。另外,局部区域是具有r个像素的半径的圆形区域,输入图像的旋转中心是特征点。由此,该局部区域不随着输入图像的旋转而改变。
图像旋转单元44基于代表方向θ0旋转输入图像,从所获得的旋转后的输入图像生成亮度梯度直方图。
应注意,当生成在特征点附近的附近位置的亮度梯度直方图时,该特征点的局部区域中的代表方向被用作附近位置的局部区域中的代表方向。也就是说,在生成附近位置的亮度梯度直方图时,使用通过基于代表方向来旋转输入图像而获得的旋转后的输入图像。
在步骤S16,亮度梯度直方图生成单元22进行使用旋转后的输入图像作为处理目标来生成特征点位置的亮度梯度直方图的处理以生成亮度梯度直方图。应注意生成特征点位置的亮度梯度直方图的处理类似于参照图3描述的处理,因此省略其描述。
然而,旋转后的输入图像被设定为处理目标图像。也就是说,亮度梯度向量计算单元41使用来自图像旋转单元44的旋转后的输入图像来计算亮度梯度向量。亮度梯度直方图更新单元42使用从旋转后的输入图像获得的亮度梯度向量的幅度作为频率并使用亮度梯度向量的方向作为角度,向亮度梯度直方图的相应格子分配亮度梯度向量的幅度。由此,获得指示该局部区域中的亮度梯度向量的分布的亮度梯度直方图。
在步骤S17,亮度梯度直方图更新单元42将在步骤S16的处理中生成的亮度梯度直方图归一化,接着向亮度梯度直方图选择单元24提供归一化的亮度梯度直方图。更具体地,亮度梯度直方图更新单元42将亮度梯度直方图归一化,使得组成亮度梯度直方图的各个格子的频率之和为1。
例如,当亮度梯度直方图由P个格子即格子B1到格子BP(其中P是自然数)形成时,格子Bp的频率是H(p),(其中1≤p≤P),归一化的格子Bp的频率H′(p)由以下的数学表达式(6)表示。
[表达式6]
也就是说,通过将格子Bp的频率H(p)除以格子的频率H(1)到H(p)的和获得的值被设定为归一化的格子Bp的频率H′(p)。以此方式,通过归一化亮度梯度直方图,可以使得亮度梯度直方图不随着照射到输入图像上的主体的照明强度而变化。这是因为每个亮度梯度向量的幅度随着照射到主体的照明强度的变化而变化,因此每个格子的频率当被归一化时表示相对于其它格子的频率的幅度,变得不随着照明强度的变化而变化。
在步骤S18,亮度梯度直方图生成单元23使用从图像旋转单元44提供的旋转后的输入图像来进行生成特征点的附近位置的亮度梯度直方图的处理,这样,生成了附近位置的亮度梯度直方图。
在此,将参照图4所示的流程图描述生成特征点的附近位置的亮度梯度直方图的处理,其对应于步骤S18中的处理。
在步骤S81,附近位置选择单元45基于从图像旋转单元44提供的旋转后的输入图像来选择旋转后的输入图像上的位于关注特征点附近的多个附近位置的一个,并向亮度梯度向量计算单元46提供所选择的结果和旋转后的输入图像。
例如,如图5所示,附近位置选择单元45选择位于旋转后的输入图像81的中心的特征点位置C11附近的四个附近位置A11到A14中的一个。在图5中,起点在特征点位置C11的像素(特征点)的箭头B11表示该特征点的亮度梯度向量的代表方向,以特征点位置C11为中心的圆形区域R11表示该特征点的局部区域。
另外,各个附近位置A11到A14是以特征点位置C11为中心的同一圆周上的像素的位置,并且被定位为均等地划分该圆周。也就是说,各个附近位置A11到A14被定位在距离特征点位置C11的均等距离处。
在图5所示的示例中,附近位置A11到A14分别位于附图中的特征点位置C11的上、下、左、右侧,这些附近位置均等地将以特征点位置C11为中心的圆的圆周划分为4份。这样,半径为r个像素并且分别以附近位置A11到A14为圆心的各个圆形区域R12到R15是附近位置A11到A14的局部区域。应注意,作为特征点位置C11的局部区域的各个区域R11到R15和附近位置A11到A14的局部区域具有相同大小(面积)。
在旋转后的输入图像中,一些像素位置被用作附近位置,并生成这些附近位置的亮度梯度直方图。这样,基于特征点的亮度梯度直方图和这些附近位置的亮度梯度直方图中分布与特征点的亮度梯度直方图的分布最不同的亮度梯度直方图来生成特征点的特征描述信息。
在此,为了生成在特征点附近的局部区域的亮度梯度直方图,多个像素被定位在特征点附近,在全部这些像素位置处生成亮度梯度直方图是浪费的。这是因为,随着特征点的附近位置过于接近特征点,这两个点的亮度梯度直方图基本相同,因而过于接近特征点的像素位置的亮度梯度直方图不适于用于生成特征描述信息。
这样,确定离开特征点足够远的距离是r个像素,位于以r个像素为半径并且以特征点为圆心的圆的圆周上的像素的位置被设定为附近位置。由此,可以设定适用于获得特征描述信息的附近位置。另外,将附近位置定位成均等地划分以特征点为圆心的圆周的原因在于,获得圆周上的全部像素位置的亮度梯度直方图是浪费的,应以合适间隔来选择附近位置。
以此方式,由于例如从图像旋转单元44提供如图5所示的旋转后的输入图像81,附近位置选择单元45选择附近位置A11到A14之一。
再次参照图4所示的流程图,在步骤S82,亮度梯度向量计算单元46使用来自附近位置选择单元45的所选结果和旋转后的输入图像来设定所选择的附近位置的局部区域。由此,例如,为如图5所示的所选附近位置A11设定了局部区域R12。
由于设定了该附近位置的局部区域,之后进行步骤S83到S86的处理。这些处理类似于图3中的步骤S52到S55中的处理,因此省略其描述。
也就是说,对于所设定的附近位置的局部区域中的每个像素,亮度梯度向量计算单元46计算上述数学表达式(1)和(2)以获得亮度梯度向量。接着,亮度梯度直方图更新单元47基于该局部区域中的像素的亮度梯度向量来更新亮度梯度直方图,以生成所选附近位置的亮度梯度直方图。
在步骤S86,当确定循环计数器i的值是m时,即,当利用所选附近位置的局部区域中的全部像素的亮度梯度向量来更新了亮度梯度直方图时,处理进入步骤S87。
在步骤S87,亮度梯度直方图更新单元47对通过步骤S81到S86的处理获得的亮度梯度直方图进行归一化,接着向亮度梯度直方图选择单元24提供归一化的亮度梯度直方图。
具体地,亮度梯度直方图更新单元47计算上述数学表达式(6)以归一化亮度梯度直方图,使得组成亮度梯度直方图的格子的频率的和是1。应注意,在此情况下,在数学表达式(6)中,附近位置的亮度梯度直方图的格子的频率是H(p)。通过归一化,所选择的附近位置的亮度梯度直方图不随着照明的强度的变化而变化。
在步骤S88,附近位置选择单元45确定是否已选择在关注特征点附近的全部附近位置。例如,当已选择图5所示的全部附近位置A11到A14且获得这些附近位置的亮度梯度直方图时,确定已选择全部附近位置。
在步骤S88,当确定还没有选择全部附近位置时,处理返回步骤S81,上述处理被重复。也就是说,选择新的附近位置,获得该附近位置的亮度梯度直方图。
相反地,在步骤S88,当确定已选择全部附近位置时,生成特征点的每个附近位置的亮度梯度直方图的处理结束,接着处理进入图2所示的步骤S19。由于生成特征点的每个附近位置的亮度梯度直方图的处理已完成,在关注特征点附近的多个附近位置的各个亮度梯度直方图被从亮度梯度直方图更新单元47提供到亮度梯度直方图选择单元24。
再次参照图2所示的流程图,在步骤S19,亮度梯度直方图选择单元24在从亮度梯度直方图更新单元47提供的多个附近位置的亮度梯度直方图中,选择其分布与特征点的从亮度梯度直方图更新单元42提供的亮度梯度直方图最不相同的亮度梯度直方图。
例如,假设获得了在特征点附近的K个附近位置A1到AK的各个亮度梯度直方图。另外,每个亮度梯度直方图由P个格子形成,特征点的亮度梯度直方图的每个格子的频率是Hc(j)(其中1≤j≤P),每个附近位置AK(其中1≤k≤K)的亮度梯度直方图的每个格子的频率是Hk(j),(其中1≤j≤P)。
在此情况下,亮度梯度直方图选择单元24计算以下数学表达式(7)以获得特征点的亮度梯度直方图和每个附近位置AK的亮度梯度直方图之间的相似度Sk。
[表达式7]
也就是说,特征点的亮度梯度直方图的每个格子的频率Hc(j)和附近位置的亮度梯度直方图的对应格子的频率Hk(j)之间的差的平方和是不相似度Sk。
随着不相似度Sk的值增加,亮度梯度向量的分布在特征点的亮度梯度直方图和附近位置的亮度梯度直方图之间更加不同。也就是说,相似度Sk表示附近位置的亮度梯度直方图与特征点的亮度梯度直方图的相似程度。随着不相似度Sk的值增加,与特征点的亮度梯度直方图的相似程度降低。
亮度梯度直方图选择单元24从K个附近位置的亮度梯度直方图中选择具有最大不相似度Sk的亮度梯度直方图,作为其亮度梯度向量的分布最不同于特征点的亮度梯度直方图的亮度梯度直方图。接着,亮度梯度直方图选择单元24向特征描述信息生成单元25提供所选择的附近位置的亮度梯度直方图和特征点的亮度梯度直方图。
在步骤S20,特征描述信息生成单元25使用从亮度梯度直方图选择单元24提供的特征点的亮度梯度直方图和附近位置的亮度梯度直方图,以生成特征点的特征描述信息,接着输出特征描述信息。
格子的频率可被认为是亮度梯度直方图的向量的分量,可通过排列这些频率将亮度梯度直方图表示成向量。接着,特征描述信息生成单元25连接从特征点的亮度梯度直方图和附近位置的亮度梯度直方图获得的两个向量,所得到的一个向量是特征点的特征描述信息。
这样生成的特征点的特征描述信息是从特征点的亮度梯度直方图和附近位置的亮度梯度直方图生成的,因此特征描述信息相对于主体的旋转(即视点的变化和对主体的照明的强度的变化)具有鲁棒性。
另外,所生成的特征描述信息例如用于按照以下步骤从多个图像中检测相同主体的图像识别处理。例如,通过比较不同图像上的各个特征点的特征描述信息进行主体的检测。特征描述信息的比较是通过作为特征描述信息的向量之间的欧几里德距离来计算相似度,基于相似度来评估两个特征点是否彼此相似。这样,当确定两个特征点彼此相似时,识别出这些特征点是同一主体的同一部分。
随着一个特征点的特征描述信息被生成和输出,处理从步骤S20进入步骤S21。
在步骤S21,图像处理装置11确定是否针对从输入图像检测到的每个特征点生成了特征描述信息。在步骤S21,当确定还没生成全部特征点的特征描述信息时,处理返回步骤S12,然后重复上述处理。也就是说,选择输入图像上的新特征点,接着生成所选择的特征点的特征描述信息。
在另一方面,在步骤S21,当确定已针对每个特征点生成了特征描述信息时,生成特征描述信息的处理结束。
以上述方式,图像处理装置11从输入图像中检测特征点,生成每个特征点的亮度梯度直方图和在每个特征点附近的多个附近位置的亮度梯度直方图。接着,图像处理装置11从所生成的所述多个附近位置的亮度梯度直方图中,选择其亮度梯度向量的分布最不同于特征点的亮度梯度直方图的亮度梯度直方图,接着基于所选择的亮度梯度直方图和特征点的亮度梯度直方图来生成特征点的特征描述信息。
以此方式,特征点的亮度梯度直方图被连接到亮度梯度向量的分布最不同的附近位置的亮度梯度直方图,以生成特征描述信息。由此,可以从图像中检测容易使用的特征描述信息,该特征描述信息对于视点和照明的变化具有鲁棒性,且检测所需的计算开销较低。
也就是说,使用特征点的亮度梯度直方图和亮度梯度向量的分布最不同的附近位置的亮度梯度直方图来生成特征描述信息。由此,与仅仅使用特征点处的亮度梯度直方图作为特征描述信息的情况相比较,可以改善特征描述信息的性能。
具体地,当通过直方图来表示局部区域中的亮度梯度向量的分布时,亮度梯度向量的空间信息丢失。也就是说,当给出多个亮度梯度向量时,即使当亮度梯度向量按照任意顺序被分配到亮度梯度直方图的格子时,生成的亮度梯度直方图是相同的。相反地,即使在相同的亮度梯度直方图中,从中获得亮度梯度直方图的局部区域中的亮度梯度向量的空间分布也可以是不同的。
因此,当只是将特征点的亮度梯度直方图用作特征描述信息时,很有可能错误地将不同的主体识别为同一主体。因此,作为减少错误识别的可能性的一种方法,可想到在特征点附近的多个像素位置计算亮度梯度直方图,亮度梯度直方图以与像素位置的空间排列顺序相同的顺序来排列,以改善特征描述信息的性能。
上述方法在检测被称为“SIFT描述信息”的特征描述信息的方法中使用,然而,特征描述信息的维数的增加造成问题。被称为“PCA-SIFT”的检测方法显示主分量分析对于减少特征描述信息的维数是有效的。也就是说,看起来,仅简单地排列多个亮度梯度直方图对于用于特征描述信息的描述方法而言是冗余的。
由此,在图像处理装置11中,选择在特征点附近的多个像素位置(附近位置)获得的亮度梯度直方图之一,选择的亮度梯度直方图被连接到特征点的亮度梯度直方图以生成其中减少了冗余的特征描述信息。
这里,特征点的亮度梯度直方图是Hc,从多个附近位置选择的附近位置的亮度梯度直方图是Hn,而最终生成的特征描述信息是(Hc,Hn)。
在图像处理装置11中,从特征点附近的位置选择附近位置,因此可以想到,从这些附近位置获得的许多亮度梯度直方图与特征点的亮度梯度直方图类似。
当生成特征描述信息(Hc,Hn)时,即使将亮度梯度直方图Hc和与亮度梯度直方图Hc相似的附近位置的亮度梯度直方图进行组合来生成特征描述信息,信息量几乎不增加。由此,将与亮度梯度直方图Hc最不相似的亮度梯度直方图选作亮度梯度直方图Hn是合理的。
亮度梯度直方图被归一化,并可通过N维向量来表示(其中N是自然数),因此,几何上,亮度梯度直方图Hc是位于N维空间的超球面上一个点,亮度梯度直方图Hn也类似地是位于N维空间的超球面上一个点。
如果是与亮度梯度直方图Hc相似的亮度梯度直方图被选择作为亮度梯度直方图Hn,超球面上的表示这两个亮度梯度直方图的两个点在超球面上彼此接近。相反地,如果是与亮度梯度直方图Hc不相似的亮度梯度直方图被选择作为亮度梯度直方图Hn,超球面上表示这两个亮度梯度直方图的两个点在超球面上彼此远离。
在此,给出了从相互不同的图像中检测的两个特征描述信息(Hc0,Hn0)和特征描述信息(Hc1,Hn1)。在此情况下,当与亮度梯度直方图Hc类似的亮度梯度直方图被选择作为亮度梯度直方图Hn时,即使当例如从不同的主体获得了两个特征描述信息时,四个点Hc0、Hn0、Hc1和Hn1在超球面上也聚集在一个位置。在此情况下,即使当比较两个特征描述信息时,也很难确定从这些特征描述信息获得的特征描述信息是否是从同一主体检测到的。
相比之下,将与亮度梯度直方图Hc不相似的亮度梯度直方图选择作为亮度梯度直方图Hn。在此情况下,当从不同的主体获得两个特征描述信息时,即使当Hc0和Hc1位于超球面上的彼此接近的位置时,也可以与其Hn0和Hn1出现在远离Hc0和Hc1的位置。由此,可以容易地确定从这些特征描述信息获得的特征点是否是从同一主体检测到的。
由此,在图像处理装置11中,通过将特征点的亮度梯度直方图与亮度梯度向量的分布最不同于特征点的亮度梯度直方图的附近位置的亮度梯度直方图进行组合,可以提供以下的特征描述信息:其可以以进一步减少的维数容易地使用,并且能够进一步可靠地检测主体。另外,可以通过仅仅获得特征点的亮度梯度直方图和在特征点附近的某些像素位置的亮度梯度直方图的简单处理,即,在很低的计算开销下来获得特征描述信息。
由图像处理装置11获得的特征描述信息可通过简单处理获得,当利用所获得的特征描述信息进行图像识别时可容易地获得稳定的识别结果。由此,上述特征描述信息特别适用于在移动设备中使用。
上述一系列处理可通过硬件实现或通过软件实现。当由软件执行这一系列处理时,构成软件的程序安装在被装配至专用硬件上的计算机上,或者从程序记录介质安装到例如能够通过安装各种程序来执行各种功能的通用个人计算机上。
图6是示出基于程序执行上述一系列处理的计算机的硬件的配置示例的框图。
在该计算机中,CPU(中央处理单元)201、ROM(只读存储器)202和RAM(随机存储器)203通过总线204彼此连接。
输入/输出接口205进一步连接到总线204。输入单元206、输出单元207、记录单元208、通信单元209以及驱动器210被连接到输入/输出接口205。输入单元206包括键盘、鼠标、麦克风或其它类似装置。输出单元207包括显示器、扬声器或其它类似装置。记录单元208包括硬盘、非易失性存储器或其它类似装置。通信单元209包括网络接口或其它类似装置。驱动器210驱动可移除介质211,例如磁盘、光盘、磁光盘、半导体存储器等。
在这样配置的计算机中,CPU 201例如通过输入/输出接口205和总线204将记录单元208中记录的程序加载到RAM 203,执行该程序来进行上述系列处理。
例如,通过将程序记录在可移除介质211中来提供可由计算机(CPU201)执行的程序,可移除介质211可以是封装介质,包括:磁盘(包括软盘)、光盘(CD-ROM(光盘只读存储器)、DVD(数字通用盘)等)、磁光盘、半导体存储器或其它类似装置;或者通过有线或无线的传输介质比如局域网、因特网以及数字卫星广播来提供该程序。
这样,通过将可移除介质211加载到驱动器210来经由输入/输出接口205将程序安装到记录单元208上。另外,可经由有线或无线的传输介质,通过通信单元209来接收程序并将程序安装到记录单元208上。除此之外,程序可被预安装到ROM 202或记录单元208上。
应注意由计算机执行的程序在时间顺序方面可按照说明书中描述的顺序执行处理,或者可并行地或以选定的调用程序的时序来执行处理。
应注意,本发明的实施例不限于上述实施例,并可被修改为各种形式而不脱离本发明的范围。
本申请包含涉及于2008年8月26日向日本专利局提交的日本优先权专利申请JP 2008-216986中公开主体的主体,其整个内容在此通过引用并入本申请。
本领域技术人员应理解,在所附的权利要求和其等同的范围内,根据设计要求和其它因素可进行各种修改、组合、子组合和替换。
Claims (7)
1.一种图像处理装置,包括:
第一分布计算装置,计算包括图像上的特征点的第一局部区域中的亮度梯度向量的分布;
第二分布计算装置,计算在所述图像上的所述特征点附近的多个第二局部区域中的亮度梯度向量的分布;
选择装置,将所述第一局部区域的所述亮度梯度向量的分布与所述多个第二局部区域的所述亮度梯度向量的分布进行比较,以从所述多个第二局部区域的亮度梯度向量的分布中,选择分布最不同于所述第一局部区域的所述亮度梯度向量的分布的第二局部区域的亮度梯度向量的分布;以及
特征描述信息计算装置,基于所述第一局部区域的所述亮度梯度向量的分布和由所述选择装置选择的第二局部区域的亮度梯度向量的分布,计算所述特征点处的特征描述信息。
2.根据权利要求1所述的图像处理装置,其中所述多个第二局部区域的各个中心位置位于以所述特征点为圆心的圆的圆周上。
3.根据权利要求2所述的图像处理装置,其中多个所述各个中心位置等分所述圆周。
4.根据权利要求1所述的图像处理装置,其中
计算亮度梯度直方图作为所述亮度梯度向量的分布,所述亮度梯度直方图是按照所述亮度梯度向量的每个方向计算出的,表示具有所述方向的所述亮度梯度向量的出现频率,以及
所述选择装置计算每个第二局部区域的亮度梯度直方图与所述第一局部区域的所述亮度梯度直方图的相似度,从所述多个第二局部区域的亮度梯度直方图中选择具有由所述相似度指示的最低程度的相似度的第二局部区域的亮度梯度直方图。
5.一种用于图像处理装置的图像处理方法,所述图像处理装置包括:
第一分布计算装置,计算包括图像上的特征点的第一局部区域中的亮度梯度向量的分布;
第二分布计算装置,计算在所述图像上的所述特征点附近的多个第二局部区域中的亮度梯度向量的分布;
选择装置,将所述第一局部区域的所述亮度梯度向量的分布与所述多个第二局部区域的所述亮度梯度向量的分布进行比较,以从所述多个第二局部区域的亮度梯度向量的分布中,选择分布最不同于所述第一局部区域的所述亮度梯度向量的分布的第二局部区域的亮度梯度向量的分布;以及
特征描述信息计算装置,基于所述第一局部区域的所述亮度梯度向量的分布和由所述选择装置选择的第二局部区域的亮度梯度向量的分布,计算所述特征点处的特征描述信息,所述图像处理方法包括以下步骤:
通过所述第一分布计算装置利用所述图像来计算所述第一局部区域的所述亮度梯度向量的分布;
通过所述第二分布计算装置利用所述图像来计算所述第二局部区域的所述亮度梯度向量的分布;
通过所述选择装置来选择分布最不同于所述第一局部区域的所述亮度梯度向量的分布的第二局部区域的亮度梯度向量的分布;以及
使用所述特征描述信息计算装置来计算在所述特征点处的特征描述信息。
6.一种用于使得计算机执行包括以下步骤的处理的程序:
计算包括图像上的特征点的第一局部区域中的亮度梯度向量的分布;
计算在所述图像上的所述特征点附近的多个第二局部区域中的亮度梯度向量的分布;
将所述第一局部区域的所述亮度梯度向量的分布与所述多个第二局部区域的所述亮度梯度向量的分布进行比较,以从所述多个第二局部区域的亮度梯度向量的分布中,选择分布最不同于所述第一局部区域的所述亮度梯度向量的分布的第二局部区域的亮度梯度向量的分布;以及
基于所述第一局部区域的所述亮度梯度向量的分布和所选择的第二局部区域的亮度梯度向量的分布,计算所述特征点处的特征描述信息。
7.一种图像处理装置,包括:
第一分布计算单元,计算包括图像上的特征点的第一局部区域中的亮度梯度向量的分布;
第二分布计算单元,计算在所述图像上的所述特征点附近的多个第二局部区域中的亮度梯度向量的分布;
选择单元,将所述第一局部区域的所述亮度梯度向量的分布与所述多个第二局部区域的所述亮度梯度向量的分布进行比较,以从所述多个第二局部区域的亮度梯度向量的分布中,选择分布最不同于所述第一局部区域的所述亮度梯度向量的分布的第二局部区域的亮度梯度向量的分布;以及
特征描述信息计算单元,基于所述第一局部区域的所述亮度梯度向量的分布和由所述选择单元选择的第二局部区域的亮度梯度向量的分布,计算所述特征点处的特征描述信息。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008216986 | 2008-08-26 | ||
JP2008216986A JP4547639B2 (ja) | 2008-08-26 | 2008-08-26 | 画像処理装置および方法、並びにプログラム |
JP2008-216986 | 2008-08-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101661622A true CN101661622A (zh) | 2010-03-03 |
CN101661622B CN101661622B (zh) | 2012-02-15 |
Family
ID=41725552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009101684924A Expired - Fee Related CN101661622B (zh) | 2008-08-26 | 2009-08-26 | 图像处理装置和图像处理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8369621B2 (zh) |
JP (1) | JP4547639B2 (zh) |
CN (1) | CN101661622B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113642552A (zh) * | 2020-04-27 | 2021-11-12 | 上海高德威智能交通系统有限公司 | 一种图像中目标对象的识别方法、装置、系统及电子设备 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5011453B2 (ja) * | 2010-06-30 | 2012-08-29 | オリンパスメディカルシステムズ株式会社 | 画像処理装置及び画像処理装置の制御方法 |
JP5652227B2 (ja) * | 2011-01-25 | 2015-01-14 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
JP5801598B2 (ja) * | 2011-05-09 | 2015-10-28 | キヤノン株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
JP5843474B2 (ja) * | 2011-05-09 | 2016-01-13 | キヤノン株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
WO2013115202A1 (ja) * | 2012-01-30 | 2013-08-08 | 日本電気株式会社 | 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム |
WO2013115093A1 (ja) * | 2012-01-30 | 2013-08-08 | 日本電気株式会社 | 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム |
US8655029B2 (en) * | 2012-04-10 | 2014-02-18 | Seiko Epson Corporation | Hash-based face recognition system |
ITTO20120602A1 (it) * | 2012-07-09 | 2014-01-10 | Sisvel Technology Srl | Method for transforming an image descriptor based on a gradient histogram and relative image processing apparatus. |
JP5464244B2 (ja) | 2012-08-24 | 2014-04-09 | 富士ゼロックス株式会社 | 画像処理装置、プログラム及び画像処理システム |
JP5651659B2 (ja) * | 2012-08-31 | 2015-01-14 | 株式会社東芝 | 物体検出システムおよびプログラム |
JP5533988B2 (ja) * | 2012-11-30 | 2014-06-25 | 株式会社デンソーアイティーラボラトリ | 画像処理システム |
JP6017335B2 (ja) * | 2013-02-06 | 2016-10-26 | 株式会社東芝 | パターン認識装置、その方法、及び、そのプログラム |
JP6225460B2 (ja) * | 2013-04-08 | 2017-11-08 | オムロン株式会社 | 画像処理装置、画像処理方法、制御プログラムおよび記録媒体 |
JP2014225108A (ja) * | 2013-05-16 | 2014-12-04 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP6234107B2 (ja) * | 2013-08-08 | 2017-11-22 | オリンパス株式会社 | 特徴量生成装置、特徴量生成方法、およびプログラム |
JP6278757B2 (ja) * | 2014-03-07 | 2018-02-14 | オリンパス株式会社 | 特徴量生成装置、特徴量生成方法、およびプログラム |
JP6303090B2 (ja) | 2014-03-24 | 2018-04-04 | アルパイン株式会社 | 画像処理装置および画像処理プログラム |
JP6253467B2 (ja) | 2014-03-24 | 2017-12-27 | 東芝アルパイン・オートモティブテクノロジー株式会社 | 画像処理装置および画像処理プログラム |
JP6473571B2 (ja) | 2014-03-24 | 2019-02-20 | アルパイン株式会社 | Ttc計測装置およびttc計測プログラム |
US9798950B2 (en) | 2015-07-09 | 2017-10-24 | Olympus Corporation | Feature amount generation device, feature amount generation method, and non-transitory medium saving program |
US10474672B2 (en) * | 2015-08-25 | 2019-11-12 | Schlafender Hase GmbH Software & Communications | Method for comparing text files with differently arranged text sections in documents |
US20190205693A1 (en) * | 2017-12-28 | 2019-07-04 | MorphoTrak, LLC | Scale-Invariant Feature Point Extraction in Edge Map |
GB2597174B (en) * | 2019-04-05 | 2023-06-28 | Project Giants Llc | Real-time video dynamic range analysis |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2272285B (en) | 1992-06-10 | 1997-01-15 | Secr Defence | Method for digitally processing images to determine the position of edges and/or corners therein for guidance of unmanned vehicle |
US6711293B1 (en) * | 1999-03-08 | 2004-03-23 | The University Of British Columbia | Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image |
KR100450793B1 (ko) * | 2001-01-20 | 2004-10-01 | 삼성전자주식회사 | 영역 분할된 영상의 영역 특징치 정합에 기초한객체추출장치 및 그 방법 |
JP2005074562A (ja) * | 2003-08-29 | 2005-03-24 | Sony Corp | ロボット装置、ロボット装置の制御方法、及び記録媒体 |
JP4595733B2 (ja) * | 2005-08-02 | 2010-12-08 | カシオ計算機株式会社 | 画像処理装置 |
JP4518092B2 (ja) * | 2006-03-31 | 2010-08-04 | ソニー株式会社 | 物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム |
JP4196302B2 (ja) * | 2006-06-19 | 2008-12-17 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP2008191816A (ja) * | 2007-02-02 | 2008-08-21 | Sony Corp | 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム |
-
2008
- 2008-08-26 JP JP2008216986A patent/JP4547639B2/ja not_active Expired - Fee Related
-
2009
- 2009-08-21 US US12/545,389 patent/US8369621B2/en not_active Expired - Fee Related
- 2009-08-26 CN CN2009101684924A patent/CN101661622B/zh not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113642552A (zh) * | 2020-04-27 | 2021-11-12 | 上海高德威智能交通系统有限公司 | 一种图像中目标对象的识别方法、装置、系统及电子设备 |
CN113642552B (zh) * | 2020-04-27 | 2024-03-08 | 上海高德威智能交通系统有限公司 | 一种图像中目标对象的识别方法、装置、系统及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
JP2010055195A (ja) | 2010-03-11 |
US20100054611A1 (en) | 2010-03-04 |
CN101661622B (zh) | 2012-02-15 |
JP4547639B2 (ja) | 2010-09-22 |
US8369621B2 (en) | 2013-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101661622B (zh) | 图像处理装置和图像处理方法 | |
CN111210429B (zh) | 点云数据划分方法及装置、障碍物检测方法及装置 | |
US8811675B2 (en) | Circular object identification system | |
US8538077B2 (en) | Detecting an interest point in an image using edges | |
US9552642B2 (en) | Apparatus and method for tracking object using feature descriptor, and apparatus and method for removing garbage feature | |
CN108256532A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
Hegazi et al. | An improved copy-move forgery detection based on density-based clustering and guaranteed outlier removal | |
CN107610151B (zh) | 行人轨迹线处理方法/系统、计算机可读存储介质及设备 | |
Uchiyama et al. | Toward augmenting everything: Detecting and tracking geometrical features on planar objects | |
CN101256632B (zh) | 信息处理装置和方法 | |
WO2014209746A1 (en) | Depth camera system with machine learning for recognition of patches within a structured light pattern | |
Varfolomieiev et al. | An improved algorithm of median flow for visual object tracking and its implementation on ARM platform | |
US9870517B2 (en) | Image object retrieval | |
CN111553946A (zh) | 用于去除地面点云的方法及装置、障碍物检测方法及装置 | |
CN102376087B (zh) | 检测图像中的对象的装置和方法、分类器生成装置和方法 | |
CN109300139A (zh) | 车道线检测方法和装置 | |
CN112100619B (zh) | 一种恶意文件检测方法、系统、设备及计算机存储介质 | |
CN109190662A (zh) | 一种基于关键点回归的车辆三维检测方法、系统、终端和存储介质 | |
EP2084625A2 (en) | Dominant color descriptors | |
CN110793437A (zh) | 手操器的定位方法、装置、存储介质及电子设备 | |
Darwish et al. | Improved color image watermarking using logistic maps and quaternion Legendre-Fourier moments | |
CN107918936B (zh) | 使用标签跟踪用于分块匹配算法的高频偏移 | |
CN109933679A (zh) | 图像中的对象类型识别方法、装置和设备 | |
Elachgar et al. | Information security, 4TH wave | |
Ren et al. | Embedded system intelligent platform design based on digital multimedia artistic design |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120215 Termination date: 20150826 |
|
EXPY | Termination of patent right or utility model |