CN105096304B - 一种图像特征的估计方法和设备 - Google Patents

一种图像特征的估计方法和设备 Download PDF

Info

Publication number
CN105096304B
CN105096304B CN201410220036.0A CN201410220036A CN105096304B CN 105096304 B CN105096304 B CN 105096304B CN 201410220036 A CN201410220036 A CN 201410220036A CN 105096304 B CN105096304 B CN 105096304B
Authority
CN
China
Prior art keywords
matrix
vector
characteristic value
mrow
msup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410220036.0A
Other languages
English (en)
Other versions
CN105096304A (zh
Inventor
欧阳万里
初晓
鞠汶奇
刘健庄
王晓刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201410220036.0A priority Critical patent/CN105096304B/zh
Priority to JP2016568970A priority patent/JP6283124B2/ja
Priority to PCT/CN2014/090905 priority patent/WO2015176502A1/zh
Priority to KR1020167031565A priority patent/KR101903684B1/ko
Priority to EP14892648.8A priority patent/EP3121788B1/en
Publication of CN105096304A publication Critical patent/CN105096304A/zh
Priority to US15/355,324 priority patent/US10115208B2/en
Application granted granted Critical
Publication of CN105096304B publication Critical patent/CN105096304B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/76Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种图像特征的估计方法和设备,内容包括:通过提取输入的图像数据的至少两个特征值,针对提取到的每一个特征值,执行以下操作,直至提取到的特征值执行完毕:选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量;在得到提取出的每一个特征值对应的第一矩阵向量时,根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量;根据所述第二矩阵向量,估计得到所述图像数据中图像特征的状态,有效地提升了估计的准确度。

Description

一种图像特征的估计方法和设备
技术领域
本发明涉及图像处理技术领域,尤其涉及一种图像特征的估计方法和设备。
背景技术
随着现代社会的发展,利用摄像机摄像、通过智能手机拍照等应用技术逐渐得到的普及,这样就意味着需要处理的图片数据量呈现增长趋势。在依靠人工技术处理图片数据不仅花费比较大,而且在处理过程中出错的概率比较高,因此,通过计算机处理图片数据成为一种发展趋势,其中,计算机的视觉技术成为一种重要的发展技术。
计算机视觉技术是指是一门研究如何使机器“看”的技术,更进一步地说,就是指用摄影机和计算机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图像处理,使得计算机处理后的图像成为更适合人眼观察或传送给仪器检测的图像。
但是使用计算机对采集到的图像数据中的特征进行估计成为计算机视觉技术中的一个技术热点和技术难点。例如:计算机视觉技术中对复杂环境下图像数据中人体姿态的估计。
例如:在安全监控领域,长时间监视一个场合中的某个人,可以通过采集这段时间的视频图像,并对这段时间内采集的视频图像进行处理,对被监视者的异常行为进行估计,这一过程就属于人体姿态估计。
然而,在目前的图像数据中对特征进行估计(例如:人体姿态估计)的方式中,一种方式是采用特制的拍摄设备捕捉符合深度信息要求的图像数据,并利用图像数据以及深度信息判断图像数据中的特征(例如:人体各部分的位置),以达到对图像数据的特征进行估计的目的。但是,这种方式对拍摄设备的硬件性能要求比较高,同时对拍摄对象与拍摄设备之间的距离也有严格要求,在实际应用中不能很灵活地适用各种现实需要,使得得到的估计结果准确性无法保证。
另一种方式是利用边缘检测、图像直方图等方式对得到的图像数据中的特征进行分析,但是这种方式属于一种对静态图像数据进行估计的方式,对于现实生活中实时采集的图像数据,存在特征估计的出错率较高的问题。
发明内容
有鉴于此,本发明实施例提供了一种图像特征的估计方法和设备,用于解决目前存在的特征估计正确率低的问题。
根据本发明的第一方面,提供了一种图像特征的估计方法,包括:
提取输入的图像数据的至少两个特征值,其中,所述特征值中至少包含了每一个特征与对应的模板特征的匹配度、所述图像数据中任意两个特征同时出现在同一个位置上的概率值、具有关联关系的两个特征之间的距离发生变化的得分值;
针对提取到的每一个特征值,执行以下操作,直至提取到的特征值执行完毕:
选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量;
在得到提取出的每一个特征值对应的第一矩阵向量时,根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量;
根据所述第二矩阵向量,估计得到所述图像数据中图像特征的状态。
结合本发明的第一方面可能的实施方式中,第一种可能的实施方式,所述选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量,包括:
选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行第一次计算,得到所述特征值对应的第一个子矩阵向量;
利用预先得到的矩阵参数对所述第一个子矩阵向量进行第二次计算,得到所述特征值对应的第二个子矩阵向量;
依次类推,利用预先得到的矩阵参数对所述第N-1个子矩阵向量进行第N次计算,得到所述特征值对应的第一矩阵向量,其中,N为自然数。
结合本发明的第一方面的第一种可能的实施方式中,第二种可能的实施方式,所述利用预先得到的矩阵参数对所述特征值进行第一次计算,得到所述特征值对应的第一个子矩阵向量,包括:
通过以下方式得到所述特征值对应的第一个子矩阵向量:
h1,i=a(iT*W1,i+b1,i);
其中,h1,i表示提取的第i个特征值对应的第一个子矩阵向量,a为激活函数,iT为第i个特征值的转置矩阵,W1,i为矩阵参数中针对第i个特征值的第一个矩阵,b1,i为针对第i个特征值的第一个偏移量。
结合本发明的第一方面的第二种可能的实施方式中,第三种可能的实施方式,利用预先得到的矩阵参数对所述第一个子矩阵向量进行第二次计算,得到所述特征值对应的第二个子矩阵向量,包括:
通过以下方式得到所述特征值对应的第二个子矩阵向量:
h2,i=a((h1,i)T*W2,i+(b2,i)T);
其中,h2,i表示提取的第i个特征值对应的第二个子矩阵向量,a为激活函数,(h1,i)T为第i个特征值的第一个子矩阵向量的转置矩阵,W2,i为矩阵参数中针对第i个特征值的第二个矩阵,(b2,i)T为针对第i个特征值的第二个偏移量。
结合本发明的第一方面可能的实施方式中,或者结合本发明的第一方面的第一种可能的实施方式中,或者结合本发明的第一方面的第二种可能的实施方式中,或者结合本发明的第一方面的第三种可能的实施方式中,第四种可能的实施方式,所述根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量,包括:
通过以下方式利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量:
hn+1=a((hn)T*Wn+1+bn+1);
其中,hn+1为利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量,a为激活函数,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T,hn,n为第n个特征值在进行n次计算的第一矩阵向量,Wn+1为矩阵参数中第n+1个矩阵,bn+1为第n+1个偏移量。
结合本发明的第一方面可能的实施方式中,或者结合本发明的第一方面的第一种可能的实施方式中,或者结合本发明的第一方面的第二种可能的实施方式中,或者结合本发明的第一方面的第三种可能的实施方式中,或者结合本发明的第一方面的第四种可能的实施方式中,第五种可能的实施方式,所述图像数据中图像特征的状态包括:所述图像数据中图像特征的位置信息;
所述根据所述第二矩阵向量,估计得到所述图像数据中图像特征的状态,包括:
通过以下方式估计得到所述图像数据中图像特征的状态:
其中,为估计得到所述图像数据中图像特征的状态,Wpst为理论矩阵参数,bpst为理论偏移量,根据hn得到,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T
结合本发明的第一方面可能的实施方式中,或者结合本发明的第一方面的第一种可能的实施方式中,或者结合本发明的第一方面的第二种可能的实施方式中,或者结合本发明的第一方面的第三种可能的实施方式中,或者结合本发明的第一方面的第四种可能的实施方式中,或者结合本发明的第一方面的第五种可能的实施方式中,第六种可能的实施方式,所述方法还包括:
根据所述第二矩阵向量,确定得到的估计状态的可靠度。
结合本发明的第一方面的第六种可能的实施方式中,第七种可能的实施方式,所述根据所述第二矩阵向量,确定得到的估计状态的可靠度,包括:
通过以下方式确定得到估计状态的可靠度:
其中,为确定得到的估计状态的可靠度,σ为激活函数,Wcls为理论矩阵参数,bcls为理论偏移量。
根据本发明的第二方面,提供了一种图像特征的估计设备,包括:
提取模块,用于提取输入的图像数据的至少两个特征值,其中,所述特征值中至少包含了每一个特征与对应的模板特征的匹配度、所述图像数据中任意两个特征同时出现在同一个位置上的概率值、具有关联关系的两个特征之间的距离发生变化的得分值;
第一矩阵向量计算模块,用于针对所述提取模块提取到的每一个特征值,执行以下操作,直至提取到的特征值执行完毕:选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量;
第二矩阵向量计算模块,用于在得到所述第一矩阵向量计算模块计算得到的提取出的每一个特征值对应的第一矩阵向量时,根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量;
估计模块,用于根据所述第二矩阵向量计算模块计算得到的所述第二矩阵向量,估计得到所述图像数据中图像特征的状态。
结合本发明的第二方面可能的实施方式中,第一种可能的实施方式,所述第一矩阵向量计算模块,具体用于选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行第一次计算,得到所述特征值对应的第一个子矩阵向量;
利用预先得到的矩阵参数对所述第一个子矩阵向量进行第二次计算,得到所述特征值对应的第二个子矩阵向量;
依次类推,利用预先得到的矩阵参数对所述第N-1个子矩阵向量进行第N次计算,得到所述特征值对应的第一矩阵向量,其中,N为自然数。
结合本发明的第二方面的第一种可能的实施方式中,第二种可能的实施方式,所述第一矩阵向量计算模块,具体用于通过以下方式得到所述特征值对应的第一个子矩阵向量:
h1,i=a(iT*W1,i+b1,i);
其中,h1,i表示提取的第i个特征值对应的第一个子矩阵向量,a为激活函数,iT为第i个特征值的转置矩阵,W1,i为矩阵参数中针对第i个特征值的第一个矩阵,b1,i为针对第i个特征值的第一个偏移量。
结合本发明的第二方面的第二种可能的实施方式中,第三种可能的实施方式,所述第一矩阵向量计算模块,具体用于通过以下方式得到所述特征值对应的第二个子矩阵向量:
h2,i=a((h1,i)T*W2,i+(b2,i)T);
其中,h2,i表示提取的第i个特征值对应的第二个子矩阵向量,a为激活函数,(h1,i)T为第i个特征值的第一个子矩阵向量的转置矩阵,W2,i为矩阵参数中针对第i个特征值的第二个矩阵,(b2,i)T为针对第i个特征值的第二个偏移量。
结合本发明的第二方面可能的实施方式中,或者结合本发明的第二方面的第一种可能的实施方式中,或者结合本发明的第二方面的第二种可能的实施方式中,或者结合本发明的第二方面的第三种可能的实施方式中,第四种可能的实施方式,所述第二矩阵向量计算模块,具体用于通过以下方式利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量:
hn+1=a((hn)T*Wn+1+bn+1);
其中,hn+1为利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量,a为激活函数,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T,hn,n为第n个特征值在进行n次计算的第一矩阵向量,Wn+1为矩阵参数中第n+1个矩阵,bn+1为第n+1个偏移量。
结合本发明的第二方面可能的实施方式中,或者结合本发明的第二方面的第一种可能的实施方式中,或者结合本发明的第二方面的第二种可能的实施方式中,或者结合本发明的第二方面的第三种可能的实施方式中,或者结合本发明的第二方面的第四种可能的实施方式中,第五种可能的实施方式,所述图像数据中图像特征的状态包括:所述图像数据中图像特征的位置信息;
所述估计模块,具体用于通过以下方式估计得到所述图像数据中图像特征的状态:
其中,为估计得到所述图像数据中图像特征的状态,Wpst为理论矩阵参数,bpst为理论偏移量,根据hn得到,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T
结合本发明的第二方面可能的实施方式中,或者结合本发明的第二方面的第一种可能的实施方式中,或者结合本发明的第二方面的第二种可能的实施方式中,或者结合本发明的第二方面的第三种可能的实施方式中,或者结合本发明的第二方面的第四种可能的实施方式中,或者结合本发明的第二方面的第五种可能的实施方式中,第六种可能的实施方式,所述设备还包括:
可靠度计算模块,用于根据所述第二矩阵向量计算模块计算得到的所述第二矩阵向量,确定得到的估计状态的可靠度。
结合本发明的第二方面的第六种可能的实施方式中,第七种可能的实施方式,所述可靠度计算模块,具体用于通过以下方式确定得到估计状态的可靠度:
其中,为确定得到的估计状态的可靠度,σ为激活函数,Wcls为理论矩阵参数,bcls为理论偏移量。
根据本发明的第三方面,提供了一种图像特征的估计设备,包括:至少一个处理器,通信总线,存储器以及至少一个通信接口,其中:
通信总线,用于至少一个处理器、存储器以及至少一个通信接口之间传送信息;
存储器,用于存储执行应用程序代码;
处理器,用于执行所述存储器中存储的应用程序,具体包括:
通信提取输入的图像数据的至少两个特征值,其中,所述特征值中至少包含了每一个特征与对应的模板特征的匹配度、所述图像数据中任意两个特征同时出现在同一个位置上的概率值、具有关联关系的两个特征之间的距离发生变化的得分值;
针对提取到的每一个特征值,执行以下操作,直至提取到的特征值执行完毕:
选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量;
在得到提取出的每一个特征值对应的第一矩阵向量时,根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量;
根据所述第二矩阵向量,估计得到所述图像数据中图像特征的状态。
结合本发明的第三方面可能的实施方式中,第一种可能的实施方式,所述处理器,具体执行:
选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行第一次计算,得到所述特征值对应的第一个子矩阵向量;
利用预先得到的矩阵参数对所述第一个子矩阵向量进行第二次计算,得到所述特征值对应的第二个子矩阵向量;
依次类推,利用预先得到的矩阵参数对所述第N-1个子矩阵向量进行第N次计算,得到所述特征值对应的第一矩阵向量,其中,N为自然数。
结合本发明的第三方面的第一种可能的实施方式中,第二种可能的实施方式,所述处理器,具体执行:
通过以下方式得到所述特征值对应的第一个子矩阵向量:
h1,i=a(iT*W1,i+b1,i);
其中,h1,i表示提取的第i个特征值对应的第一个子矩阵向量,a为激活函数,iT为第i个特征值的转置矩阵,W1,i为矩阵参数中针对第i个特征值的第一个矩阵,b1,i为针对第i个特征值的第一个偏移量。
结合本发明的第三方面的第二种可能的实施方式中,第三种可能的实施方式,所述处理器,具体执行:
通过以下方式得到所述特征值对应的第二个子矩阵向量:
h2,i=a((h1,i)T*W2,i+(b2,i)T);
其中,h2,i表示提取的第i个特征值对应的第二个子矩阵向量,a为激活函数,(h1,i)T为第i个特征值的第一个子矩阵向量的转置矩阵,W2,i为矩阵参数中针对第i个特征值的第二个矩阵,(b2,i)T为针对第i个特征值的第二个偏移量。
结合本发明的第三方面可能的实施方式中,或者结合本发明的第三方面的第一种可能的实施方式中,或者结合本发明的第三方面的第二种可能的实施方式中,或者结合本发明的第三方面的第三种可能的实施方式中,第四种可能的实施方式,所述处理器,具体执行:
通过以下方式利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量:
hn+1=a((hn)T*Wn+1+bn+1);
其中,hn+1为利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量,a为激活函数,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T,hn,n为第n个特征值在进行n次计算的第一矩阵向量,Wn+1为矩阵参数中第n+1个矩阵,bn+1为第n+1个偏移量。
结合本发明的第三方面可能的实施方式中,或者结合本发明的第三方面的第一种可能的实施方式中,或者结合本发明的第三方面的第二种可能的实施方式中,或者结合本发明的第三方面的第三种可能的实施方式中,或者结合本发明的第三方面的第四种可能的实施方式中,第五种可能的实施方式,所述图像数据中图像特征的状态包括:所述图像数据中图像特征的位置信息;
所述处理器,具体执行:
通过以下方式估计得到所述图像数据中图像特征的状态:
其中,为估计得到所述图像数据中图像特征的状态,Wpst为理论矩阵参数,bpst为理论偏移量,根据hn得到,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T
结合本发明的第三方面可能的实施方式中,或者结合本发明的第三方面的第一种可能的实施方式中,或者结合本发明的第三方面的第二种可能的实施方式中,或者结合本发明的第三方面的第三种可能的实施方式中,或者结合本发明的第三方面的第四种可能的实施方式中,或者结合本发明的第三方面的第五种可能的实施方式中,第六种可能的实施方式,所述处理器,具体执行:
根据所述第二矩阵向量,确定得到的估计状态的可靠度。
结合本发明的第三方面的第六种可能的实施方式中,第七种可能的实施方式,所述处理器,具体执行:
通过以下方式确定得到估计状态的可靠度:
其中,为确定得到的估计状态的可靠度,σ为激活函数,Wcls为理论矩阵参数,bcls为理论偏移量。
本发明实施例通过提取输入的图像数据的至少两个特征值,其中,所述特征值中至少包含了每一个特征与对应的模板特征的匹配度、所述图像数据中任意两个特征同时出现在同一个位置上的概率值、具有关联关系的两个特征之间的距离发生变化的得分值;针对提取到的每一个特征值,执行以下操作,直至提取到的特征值执行完毕:选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量;在得到提取出的每一个特征值对应的第一矩阵向量时,根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量;根据所述第二矩阵向量,估计得到所述图像数据中图像特征的状态,这样对于提取得到的多个不同的特征值,针对每一个特征值进行多次计算,并将每一个特征值变换后得到的矩阵向量,利用网络计算的方式得到合并向量,最后采用全连接置信网络计算的方式对图像数据中的图像特征进行估计,有效地提升了估计的准确度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的一种图像特征的估计方法的流程示意图;
图2为本发明提供的一种图像特征的估计设备的结构示意图;
图3为本发明提供的一种图像特征的估计设备的结构示意图。
具体实施方式
为了实现本发明的目的,本发明实施例提供了一种图像特征的估计方法和设备,通过提取输入的图像数据的至少两个特征值,其中,所述特征值中至少包含了每一个特征与对应的模板特征的匹配度、所述图像数据中任意两个特征同时出现在同一个位置上的概率值、具有关联关系的两个特征之间的距离发生变化的得分值;针对提取到的每一个特征值,执行以下操作,直至提取到的特征值执行完毕:选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量;在得到提取出的每一个特征值对应的第一矩阵向量时,根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量;根据所述第二矩阵向量,估计得到所述图像数据中图像特征的状态,这样对于提取得到的多个不同的特征值,针对每一个特征值进行多次计算,并将每一个特征值变换后得到的矩阵向量,利用网络计算的方式得到合并向量,最后采用全连接置信网络计算的方式对图像数据中的图像特征进行估计,有效地提升了估计的准确度。
下面将结合附图对本发明作进一步地详细描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
如图1所示,为本发明提供的一种图像特征的估计方法的流程示意图。所述方法可以如下所述。
步骤101:提取输入的图像数据的至少两个特征值。
其中,所述特征值中至少包含了每一个特征与对应的模板特征的匹配度、所述图像数据中任意两个特征同时出现在同一个位置上的概率值、具有关联关系的两个特征之间的距离发生变化的得分值。
在步骤101中,接收输入的图像数据,其中,所述图像数据可以是图片数据,也可以是视频图像数据,还可以是两者的结合,这里不做限定。
对于接收到的图像数据,需要使用图像数据特征检测的方式进行处理,使得处理后的图像数据聚集在一个比较小的范围上,在这个比较小的范围上集中了图像数据的图像特征,为后续步骤奠定基础。
提取接收到的所述图像数据中的至少两个特征值,提取得到的特征值至少包含了每一个特征与对应的模板特征的匹配度、所述图像数据中任意两个特征同时出现在同一个位置上的概率值、具有关联关系的两个特征之间的距离发生变化的得分值。
其中,所述每一个特征与对应的模板特征的匹配度是指一个特征与该特征对应的模板特征之间的匹配度,可以通过以下方式得到:
其中,S为每一个特征与对应的模板特征的匹配度,S(I,t,z)为匹配度函数,I为接收到的图像数据,tp为第p个特征的视觉信息类别(appearance mixture type),zp为第p个特征所在的位置,为理论参数,f(I,zp)为一个用于计算在图像数据I上、位置满足zp的特征值函数,p和q为特征个数。
例如:假设接收到的图像数据是包含了人体特征的图像数据,该特征是人体的眼睛,提取接收到的人体的眼睛特征,此时将该图像数据中眼睛所在位置的图像特征与眼睛特征库中的眼睛的模板特征进行匹配,确定出接收到的图像数据中眼睛特征的特征值。
所述图像数据中任意两个特征同时出现在同一个位置上的概率值是指利用预先训练好的不同特征同时出现的可能性计算公式,计算得到任意两个特征同时出现在同一个位置的概率。
具体地,预先训练好的不同特征同时出现的可能性计算公式为:
其中,t为不同特征同时出现的可能性的概率,Sc(t)表示计算概率的一个函数,表示第p个特征出现在第tp个视觉信息类别的得分,表示多个特征同时出现在第tp个视觉信息类别的得分之和,表示第p个特征和第q个特征同时出现的得分,表示多个特征同时出现的得分之和。
例如:假设接收到的图像数据是包含了人体特征的图像数据,该特征是人体的眼睛和人体的眉毛,提取接收到的人体的眼睛特征和人体的眉毛特征,并计算人体的眼睛特征和人体的眉毛特征出现在同一个位置的概率值。
所述具有关联关系的两个特征之间的距离发生变化的得分值是指具有关联关系的两个特征之间的距离发生变化的合理得分值,为了进一步对图像数据中图像特征进行估计,具备关联关系的两个特征之间距离发生变化存在一个合理变化范围,因此,需要对具有关联关系的两个特征之间的距离是否发生变化以及变化情况进行提取。
具体地,具有关联关系的两个特征之间的距离发生变化的得分值的方式包括但不限于以下方式:
其中,为一个矩阵参数,d(zp-zq)=[dx,dy,dx2,dy2]T,dx=Xp-Xq,表示在X方向上第p个特征与第q个特征的差值,dy=yp-yq,表示在y方向上第p个特征与第q个特征的差值。
例如:假设接收到的图像数据是包含了人体特征的图像数据,该特征是人体的眼睛和人体的眉毛,提取接收到的人体的眼睛特征和人体的眉毛特征,并计算人体的眼睛特征和人体的眉毛特征之间的距离发生变化的得分值,可以根据这个得得分值判断当前人的表情变化,例如:距离得分比较小,说明表情变化不大;距离得分比较大,说明表情变化大,要么开心,要么伤心等等。
步骤102:针对提取到的每一个特征值,执行以下操作,直至提取到的特征值执行完毕:选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量。
在步骤102中,在步骤101中得到多个特征值时,针对得到的每一个特征值,按照设定的计算顺序,对得到的每一个特征值进行处理。
具体地,选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量,包括:
选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行第一次计算,得到所述特征值对应的第一个子矩阵向量;
利用预先得到的矩阵参数对所述第一个子矩阵向量进行第二次计算,得到所述特征值对应的第二个子矩阵向量;
依次类推,利用预先得到的矩阵参数对所述第N-1个子矩阵向量进行第N次计算,得到所述特征值对应的第一矩阵向量,其中,N为自然数。
具体地,所述利用预先得到的矩阵参数对所述特征值进行第一次计算,得到所述特征值对应的第一个子矩阵向量,包括:
通过以下方式得到所述特征值对应的第一个子矩阵向量:
h1,i=a(iT*W1,i+b1,i);
其中,h1,i表示提取的第i个特征值对应的第一个子矩阵向量,a为激活函数,iT为第i个特征值的转置矩阵,W1,i为矩阵参数中针对第i个特征值的第一个矩阵,b1,i为针对第i个特征值的第一个偏移量。
所述利用预先得到的矩阵参数对所述第一个子矩阵向量进行第二次计算,得到所述特征值对应的第二个子矩阵向量,包括:
通过以下方式得到所述特征值对应的第二个子矩阵向量:
h2,i=a((h1,i)T*W2,i+(b2,i)T);
其中,h2,i表示提取的第i个特征值对应的第二个子矩阵向量,a为激活函数,(h1,i)T为第i个特征值的第一个子矩阵向量的转置矩阵,W2,i为矩阵参数中针对第i个特征值的第二个矩阵,(b2,i)T为针对第i个特征值的第二个偏移量。
……
所述利用预先得到的矩阵参数对所述第N-1个子矩阵向量进行第N次计算,得到所述特征值对应的第一矩阵向量,包括:
通过以下方式得到所述特征值对应的第一矩阵向量:
hn,i=a((hn-1,i)T*Wn,i+bn,i);
其中,hn,i表示提取的第i个特征值对应的第一矩阵向量,a为激活函数,(hn-1,i)T为第i个特征值的第N-1个子矩阵向量的转置矩阵,Wn,i为矩阵参数中针对第i个特征值的第N个矩阵,bn,i为针对第i个特征值的第N个偏移量。
假设提取的特征值有三个,分别为特征值1(用s表示)、特征值2(用d表示)和特征值3(用t表示),那么在经过两次计算后,分别得到特征值1的第一矩阵向量、特征值2的第一矩阵向量和特征值3的第一矩阵向量:
对于特征值1:第一次计算之后,得到h1,1=a(sT*W1,1+b1,1);第二次计算之后,得到h2,1=a((h1,1)T*W2,1+(b2,1)T),即特征1的第一矩阵向量;
对于特征值2:第一次计算之后,得到h1,2=a(dT*W1,2+b1,2);第二次计算之后,得到h2,2=a((h1,2)T*W2,2+(b2,2)T),即特征2的第一矩阵向量;
对于特征值3:第一次计算之后,得到h1,3=a(tT*W1,3+b1,3);第二次计算之后,得到h2,3=a((h1,3)T*W2,3+(b2,3)T);即特征3的第一矩阵向量。
步骤103:在得到提取出的每一个特征值对应的第一矩阵向量时,根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量。
在步骤103中,所述根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量,包括:
通过以下方式利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量:
hn+1=a((hn)T*Wn+1+bn+1);
其中,hn+1为利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量,a为激活函数,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T,hn,n为第n个特征值在进行n次计算的第一矩阵向量,Wn+1为矩阵参数中第n+1个矩阵,bn+1为第n+1个偏移量。
需要说明的是,a为激活函数,当激活阈值为3,5时,a([2,3,4])=[0,0,1],推荐使用sigmoid函数。
假设提取的特征值有三个,分别为特征值1(用s表示)、特征值2(用d表示)和特征值3(用t表示),那么在经过两次计算后,分别得到特征值1的第一矩阵向量、特征值2的第一矩阵向量和特征值3的第一矩阵向量,根据得到特征值1的第一矩阵向量、特征值2的第一矩阵向量和特征值3的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量:
h3=a((h2)T*W3+b3);
其中,h3为利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量,a为激活函数,h2=[h2,1,h2,2,h2,3]T,W3为矩阵参数中第3个矩阵,b3为第3个偏移量。
需要说明的是,本步骤所述的网络计算方法可以是卷积网络计算方法,也可以是其他网络计算方法,这里不做限定。
步骤104:根据所述第二矩阵向量,估计得到所述图像数据中图像特征的状态。
在步骤104中,在得到所述第二矩阵向量后,根据所述第二矩阵向量,估计得到所述图像数据中图像特征的状态,其中,所述图像数据中图像特征的状态包括:所述图像数据中图像特征的位置信息。
具体地,通过以下方式估计得到所述图像数据中图像特征的状态:
其中,为估计得到所述图像数据中图像特征的状态,Wpst为理论矩阵参数,bpst为理论偏移量,根据hn得到,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T
在本发明的另一个实施例中,所述方法还包括:
根据所述第二矩阵向量,确定得到的估计状态的可靠度。
具体地,通过以下方式确定得到估计状态的可靠度:
其中,为确定得到的估计状态的可靠度,σ为激活函数,Wcls为理论矩阵参数,bcls为理论偏移量。
需要说明的是,激活函数σ可以表示为:σ(x)=(1+exp(-x))-1,这里不做具体限定。
在计算得到估计状态的可靠度时,将计算得到的可靠度与设定的可靠度阈值进行比较,进一步确定估计结果的正确性。
此外,在得到第二矩阵向量之后,可以通过一个全连接置信网络计算得到估计状态和估计状态的可靠度,这样进一步提升估计结果的正确性。
需要说明的是,本发明实施例中涉及到与W矩阵参数相关联的W类矩阵(用W*表示)以及与b偏移量参数相关联的b类偏移量(用b*表示),可以通过训练的方式得到,还可以根据实际需要设置,这里不做限定。
通过训练的方式得到W*、b*、Wcls、bcls的方法可以如下所述:
第一步:输入正样本图像数据和负样本图像数据,通过k-means方法聚类到k个组中,其中,k为设定的整数。
第二步:利用公知技术RBM训练方法得到W*、b*、Wcls、bcls的值。
第三步:利用目标函数和公知技术BP算法,重新计算得到W*、b*、Wcls、bcls的值。
其中,目标函数可以为:
其中,n取整数,取值为训练样本的个数。
其中,为第n个训练样本的设定的图像特征的估计可靠度,为计算得到的第n个训练样本的估计可靠度,为第n个训练样本的设定的图像特征的估计状态,为计算得到的第n个训练样本的估计状态,wi,j *为第二步计算得到的W*中第i行第j列的数值,wi cls为第二步计算得到的Wcls中第i个数值。
需要说明的是,第三步使用梯度下降来求解,使用第二步得到的W*、b*、Wcls、bcls的值作为第三步梯度下降的初始点,然后在第三步通过梯度下降法来得到新的W*、b*、Wcls、bcls的值。
通过本发明实施例一的方案,提取输入的图像数据的至少两个特征值,其中,所述特征值中至少包含了每一个特征与对应的模板特征的匹配度、所述图像数据中任意两个特征同时出现在同一个位置上的概率值、具有关联关系的两个特征之间的距离发生变化的得分值;针对提取到的每一个特征值,执行以下操作,直至提取到的特征值执行完毕:选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量;在得到提取出的每一个特征值对应的第一矩阵向量时,根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量;根据所述第二矩阵向量,估计得到所述图像数据中图像特征的状态,这样对于提取得到的多个不同的特征值,针对每一个特征值进行多次计算,并将每一个特征值变换后得到的矩阵向量,利用网络计算的方式得到合并向量,最后采用全连接置信网络计算的方式对图像数据中的图像特征进行估计,有效地提升了估计的准确度。
下面针对一组实验数据对上述实施例进行说明。
假设提取出输入的图像数据的特征值有三个:分别是每一个特征与对应的模板特征的匹配度s、图像数据中任意两个特征同时出现在同一个位置上的概率值t和具有关联关系的两个特征之间的距离发生变化的得分值d。
假设实验中包含了26个特征,每个特征对应7个信息类别(mixture type),那么对应的s将有26*7=182维;对应的t将有26*7=182维;对应的d将有26*6=156维。
需要说明的是,由于一个特征和另外3个特征之间会产生相对位移,每一个位移用2维数据表示,那么另外3个特征包含了6维数据,此时对应26个特征,对应的d将有26*6=156维。
假设实验中得到的s有两类,一类属于视觉匹配得分(appearance score),另一类属于变形匹配得分(deformation score)。
当s为视觉匹配得分时,此时s得分为0.2,假设特征1对应的信息类别为2,那么得到特征1的七维向量是【0 0.2 0 0 0 0 0】。
当s为变形匹配得分时,假设特征1对应的信息类别为2,此时s得分为0.4,那么得到特征1的七维向量是【0 0.4 0 0 0 0 0】。
此外,假设特征1对应的信息类别为2,对应得到s(视觉匹配得分)的七维向量是【00.2 0 0 0 0 0】;对应得到t的七维向量是【0 1 0 0 0 0 0】。
这样输入至计算机进行运算的数据将包含了(182+182+182+156)维数据,即702维数据,经过第一次计算后,对于s的第一子矩阵向量对应140维数据,对于d的第一子矩阵向量对应30维数据,对于t的第一子矩阵向量对应30维数据;经过第二次计算后,对于s的第二子矩阵向量对应120维数据,对于d的第二子矩阵向量对应15维数据,对于t的第二子矩阵向量对应15维数据;再使用一个卷积网络计算,得到第二矩阵向量,对应100维数据。
由此可见,随着计算次数的增加,使得计算的数据量在减小,不仅改变了计算的复杂度,而且还能有效提升计算的正确度,使得估计结果的正确度得以提升。
如图2所示,为本发明实施例提供的一种图像特征的估计设备的结构示意图,所述设备包括:提取模块21、第一矩阵向量计算模块22、第二矩阵向量计算模块23和估计模块24,其中:
提取模块21,用于提取输入的图像数据的至少两个特征值,其中,所述特征值中至少包含了每一个特征与对应的模板特征的匹配度、所述图像数据中任意两个特征同时出现在同一个位置上的概率值、具有关联关系的两个特征之间的距离发生变化的得分值;
第一矩阵向量计算模块22,用于针对所述提取模块21提取到的每一个特征值,执行以下操作,直至提取到的特征值执行完毕:选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量;
第二矩阵向量计算模块23,用于在得到所述第一矩阵向量计算模块22计算得到的提取出的每一个特征值对应的第一矩阵向量时,根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量;
估计模块24,用于根据所述第二矩阵向量计算模块23计算得到的所述第二矩阵向量,估计得到所述图像数据中图像特征的状态。
具体地,所述第一矩阵向量计算模块22,具体用于选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行第一次计算,得到所述特征值对应的第一个子矩阵向量;
利用预先得到的矩阵参数对所述第一个子矩阵向量进行第二次计算,得到所述特征值对应的第二个子矩阵向量;
依次类推,利用预先得到的矩阵参数对所述第N-1个子矩阵向量进行第N次计算,得到所述特征值对应的第一矩阵向量,其中,N为自然数。
所述第一矩阵向量计算模块22,具体用于通过以下方式得到所述特征值对应的第一个子矩阵向量:
h1,i=a(iT*W1,i+b1,i);
其中,h1,i表示提取的第i个特征值对应的第一个子矩阵向量,a为激活函数,iT为第i个特征值的转置矩阵,W1,i为矩阵参数中针对第i个特征值的第一个矩阵,b1,i为针对第i个特征值的第一个偏移量。
所述第一矩阵向量计算模块22,具体用于通过以下方式得到所述特征值对应的第二个子矩阵向量:
h2,i=a((h1,i)T*W2,i+(b2,i)T);
其中,h2,i表示提取的第i个特征值对应的第二个子矩阵向量,a为激活函数,(h1,i)T为第i个特征值的第一个子矩阵向量的转置矩阵,W2,i为矩阵参数中针对第i个特征值的第二个矩阵,(b2,i)T为针对第i个特征值的第二个偏移量。
所述第二矩阵向量计算模块23,具体用于通过以下方式利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量:
hn+1=a((hn)T*Wn+1+bn+1);
其中,hn+1为利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量,a为激活函数,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T,hn,n为第n个特征值在进行n次计算的第一矩阵向量,Wn+1为矩阵参数中第n+1个矩阵,bn+1为第n+1个偏移量。
在本发明的另一个实施例中,所述图像数据中图像特征的状态包括:所述图像数据中图像特征的位置信息;所述估计模块24,具体用于通过以下方式估计得到所述图像数据中图像特征的状态:
其中,为估计得到所述图像数据中图像特征的状态,Wpst为理论矩阵参数,bpst为理论偏移量,根据hn得到,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T
在本发明的另一个实施例中,所述设备还包括:可靠度计算模块25,其中:
可靠度计算模块25,用于根据所述第二矩阵向量计算模块计算得到的所述第二矩阵向量,确定得到的估计状态的可靠度。
具体地,所述可靠度计算模块,具体用于通过以下方式确定得到估计状态的可靠度:
其中,为确定得到的估计状态的可靠度,σ为激活函数,Wcls为理论矩阵参数,bcls为理论偏移量。
需要说明的是,本发明实施例提供的设备可以通过硬件实现,也可以通过软件方式实现,这里不做限定。
如图3所示,为本发明实施例三提供的一种图像特征的估计设备的结构示意图,所述设备具备执行上述的功能,所述设备可以采用通用计算机系统结构,计算机系统可具体是基于处理器的计算机。所述设备实体包括至少一个处理器31,通信总线32,存储器33以及至少一个通信接口34。
处理器31可以是一个通用中央处理器(CPU),微处理器,特定应用集成电路(application-specific integrated circuit,ASIC),或一个或多个用于控制本发明方案程序执行的集成电路。
其中,所述通信总线32可包括一通路,在上述组件之间传送信息。所述通信接口34,使用任何收发器一类的装置,用于与其他设备或通信网络通信,如以太网,无线接入网(RAN),无线局域网(Wireless Local Area Networks,WLAN)等。
计算机系统包括一个或多个存储器33,可以是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(randomaccess memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。这些存储器通过总线与处理器相连接。
其中,所述存储器33用于存储执行本发明方案的应用程序代码,执行本发明方案的应用程序代码保存在存储器中,并由处理器31来控制执行。所述处理器31用于执行所述存储器33中存储的应用程序。
在一种可能的实施方式中,当上述应用程序被所述处理器31执行时,实现如下功能:
提取输入的图像数据的至少两个特征值,其中,所述特征值中至少包含了每一个特征与对应的模板特征的匹配度、所述图像数据中任意两个特征同时出现在同一个位置上的概率值、具有关联关系的两个特征之间的距离发生变化的得分值;
针对提取到的每一个特征值,执行以下操作,直至提取到的特征值执行完毕:
选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量;
在得到提取出的每一个特征值对应的第一矩阵向量时,根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量;
根据所述第二矩阵向量,估计得到所述图像数据中图像特征的状态。
在本发明的另一个实施例中,所述处理器31,具体执行:
选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行第一次计算,得到所述特征值对应的第一个子矩阵向量;
利用预先得到的矩阵参数对所述第一个子矩阵向量进行第二次计算,得到所述特征值对应的第二个子矩阵向量;
依次类推,利用预先得到的矩阵参数对所述第N-1个子矩阵向量进行第N次计算,得到所述特征值对应的第一矩阵向量,其中,N为自然数。
在本发明的另一个实施例中,所述处理器31,具体执行:
通过以下方式得到所述特征值对应的第一个子矩阵向量:
h1,i=a(iT*W1,i+b1,i);
其中,h1,i表示提取的第i个特征值对应的第一个子矩阵向量,a为激活函数,iT为第i个特征值的转置矩阵,W1,i为矩阵参数中针对第i个特征值的第一个矩阵,b1,i为针对第i个特征值的第一个偏移量。
在本发明的另一个实施例中,所述处理器31,具体执行:
通过以下方式得到所述特征值对应的第二个子矩阵向量:
h2,i=a((h1,i)T*W2,i+(b2,i)T);
其中,h2,i表示提取的第i个特征值对应的第二个子矩阵向量,a为激活函数,(h1,i)T为第i个特征值的第一个子矩阵向量的转置矩阵,W2,i为矩阵参数中针对第i个特征值的第二个矩阵,(b2,i)T为针对第i个特征值的第二个偏移量。
在本发明的另一个实施例中,所述处理器31,具体执行:
通过以下方式利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量:
hn+1=a((hn)T*Wn+1+bn+1);
其中,hn+1为利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量,a为激活函数,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T,hn,n为第n个特征值在进行n次计算的第一矩阵向量,Wn+1为矩阵参数中第n+1个矩阵,bn+1为第n+1个偏移量。
在本发明的另一个实施例中,所述图像数据中图像特征的状态包括:所述图像数据中图像特征的位置信息;所述处理器31,具体执行:
通过以下方式估计得到所述图像数据中图像特征的状态:
其中,为估计得到所述图像数据中图像特征的状态,Wpst为理论矩阵参数,bpst为理论偏移量,根据hn得到,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T
在本发明的另一个实施例中,所述处理器31,还用于执行:
根据所述第二矩阵向量,确定得到的估计状态的可靠度。
在本发明的另一个实施例中,所述处理器31,具体执行:
通过以下方式确定得到估计状态的可靠度:
其中,为确定得到的估计状态的可靠度,σ为激活函数,Wcls为理论矩阵参数,bcls为理论偏移量。
本实施例中,应用程序被处理器执行时,部署设备的处理,以及与其他网元之间的交互方法可以参考上述方法实施例。这里不再详细描述。
本实施例提供的设备,可以解决现有技术中存在的对图像特征进行估计时估计正确率低的问题。
本领域的技术人员应明白,本发明的实施例可提供为方法、装置(设备)、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、装置(设备)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (16)

1.一种图像特征的估计方法,其特征在于,包括:
提取输入的图像数据的至少两个特征值,其中,所述特征值中至少包含了每一个图像特征与对应的模板特征的匹配度、所述图像数据中任意两个图像特征同时出现在同一个位置上的概率值、具有关联关系的两个图像特征之间的距离发生变化的得分值;
针对提取到的每一个特征值,执行以下操作,直至提取到的特征值执行完毕:
选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量;
在得到提取出的每一个特征值对应的第一矩阵向量时,根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量;
根据所述第二矩阵向量,估计得到所述图像数据中图像特征的状态。
2.如权利要求1所述的方法,其特征在于,所述选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量,包括:
选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行第一次计算,得到所述特征值对应的第一个子矩阵向量;
利用预先得到的矩阵参数对所述第一个子矩阵向量进行第二次计算,得到所述特征值对应的第二个子矩阵向量;
依次类推,利用预先得到的矩阵参数对所述第N-1个子矩阵向量进行第N次计算,得到所述特征值对应的第一矩阵向量,其中,N为自然数。
3.如权利要求2所述的方法,其特征在于,所述利用预先得到的矩阵参数对所述特征值进行第一次计算,得到所述特征值对应的第一个子矩阵向量,包括:
通过以下方式得到所述特征值对应的第一个子矩阵向量:
h1,i=a(iT*W1,i+b1,i);
其中,h1,i表示提取的第i个特征值对应的第一个子矩阵向量,a为第一激活函数,iT为第i个特征值的转置矩阵,W1,i为矩阵参数中针对第i个特征值的第一个矩阵,b1,i为针对第i个特征值的第一个偏移量。
4.如权利要求3所述的方法,其特征在于,利用预先得到的矩阵参数对所述第一个子矩阵向量进行第二次计算,得到所述特征值对应的第二个子矩阵向量,包括:
通过以下方式得到所述特征值对应的第二个子矩阵向量:
h2,i=a((h1,i)T*W2,i+(b2,i)T);
其中,h2,i表示提取的第i个特征值对应的第二个子矩阵向量,a为第一激活函数,(h1,i)T为第i个特征值的第一个子矩阵向量的转置矩阵,W2,i为矩阵参数中针对第i个特征值的第二个矩阵,(b2,i)T为针对第i个特征值的第二个偏移量。
5.如权利要求1至4任一所述的方法,其特征在于,所述根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量,包括:
通过以下方式利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量:
hn+1=a((hn)T*Wn+1+bn+1);
其中,hn+1为利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量,a为第一激活函数,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T,hn,n为第n个特征值在进行n次计算的第一矩阵向量,Wn+1为矩阵参数中第n+1个矩阵,bn+1为第n+1个偏移量。
6.如权利要求1至4任一所述的方法,其特征在于,所述图像数据中图像特征的状态包括:所述图像数据中图像特征的位置信息;
所述根据所述第二矩阵向量,估计得到所述图像数据中图像特征的状态,包括:
通过以下方式估计得到所述图像数据中图像特征的状态:
<mrow> <msup> <mover> <mi>y</mi> <mo>~</mo> </mover> <mrow> <mi>p</mi> <mi>s</mi> <mi>t</mi> </mrow> </msup> <mo>=</mo> <msup> <mrow> <mo>(</mo> <mover> <msup> <mi>h</mi> <mi>n</mi> </msup> <mo>~</mo> </mover> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mo>*</mo> <msup> <mi>W</mi> <mrow> <mi>p</mi> <mi>s</mi> <mi>t</mi> </mrow> </msup> <mo>+</mo> <msup> <mi>b</mi> <mrow> <mi>p</mi> <mi>s</mi> <mi>t</mi> </mrow> </msup> <mo>;</mo> </mrow>
其中,为估计得到所述图像数据中图像特征的状态,Wpst为理论矩阵参数,bpst为理论偏移量,根据hn得到,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T
7.如权利要求1至4任一所述的方法,其特征在于,所述方法还包括:
根据所述第二矩阵向量,确定得到的估计状态的可靠度。
8.如权利要求7所述的方法,其特征在于,所述根据所述第二矩阵向量,确定得到的估计状态的可靠度,包括:
通过以下方式确定得到估计状态的可靠度:
<mrow> <msup> <mover> <mi>y</mi> <mo>~</mo> </mover> <mrow> <mi>c</mi> <mi>l</mi> <mi>s</mi> </mrow> </msup> <mo>=</mo> <mi>&amp;sigma;</mi> <mrow> <mo>(</mo> <msup> <mrow> <mo>(</mo> <msup> <mi>h</mi> <mi>n</mi> </msup> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mo>*</mo> <msup> <mi>W</mi> <mrow> <mi>c</mi> <mi>l</mi> <mi>s</mi> </mrow> </msup> <mo>+</mo> <msup> <mi>b</mi> <mrow> <mi>c</mi> <mi>l</mi> <mi>s</mi> </mrow> </msup> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中,为确定得到的估计状态的可靠度,σ为第二激活函数,Wcls为理论矩阵参数,bcls为理论偏移量。
9.一种图像特征的估计设备,其特征在于,包括:
提取模块,用于提取输入的图像数据的至少两个特征值,其中,所述特征值中至少包含了每一个图像特征与对应的模板特征的匹配度、所述图像数据中任意两个图像特征同时出现在同一个位置上的概率值、具有关联关系的两个图像特征之间的距离发生变化的得分值;
第一矩阵向量计算模块,用于针对所述提取模块提取到的每一个特征值,执行以下操作,直至提取到的特征值执行完毕:选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行至少两次计算,得到所述特征值对应的第一矩阵向量;
第二矩阵向量计算模块,用于在得到所述第一矩阵向量计算模块计算得到的提取出的每一个特征值对应的第一矩阵向量时,根据得到的每一个特征值对应的第一矩阵向量,利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量;
估计模块,用于根据所述第二矩阵向量计算模块计算得到的所述第二矩阵向量,估计得到所述图像数据中图像特征的状态。
10.如权利要求9所述的设备,其特征在于,
所述第一矩阵向量计算模块,具体用于选择一个特征值,并利用预先得到的矩阵参数对所述特征值进行第一次计算,得到所述特征值对应的第一个子矩阵向量;
利用预先得到的矩阵参数对所述第一个子矩阵向量进行第二次计算,得到所述特征值对应的第二个子矩阵向量;
依次类推,利用预先得到的矩阵参数对所述第N-1个子矩阵向量进行第N次计算,得到所述特征值对应的第一矩阵向量,其中,N为自然数。
11.如权利要求10所述的设备,其特征在于,
所述第一矩阵向量计算模块,具体用于通过以下方式得到所述特征值对应的第一个子矩阵向量:
h1,i=a(iT*W1,i+b1,i);
其中,h1,i表示提取的第i个特征值对应的第一个子矩阵向量,a为第一激活函数,iT为第i个特征值的转置矩阵,W1,i为矩阵参数中针对第i个特征值的第一个矩阵,b1,i为针对第i个特征值的第一个偏移量。
12.如权利要求11所述的设备,其特征在于,
所述第一矩阵向量计算模块,具体用于通过以下方式得到所述特征值对应的第二个子矩阵向量:
h2,i=a((h1,i)T*W2,i+(b2,i)T);
其中,h2,i表示提取的第i个特征值对应的第二个子矩阵向量,a为第一激活函数,(h1,i)T为第i个特征值的第一个子矩阵向量的转置矩阵,W2,i为矩阵参数中针对第i个特征值的第二个矩阵,(b2,i)T为针对第i个特征值的第二个偏移量。
13.如权利要求9至12任一所述的设备,其特征在于,
所述第二矩阵向量计算模块,具体用于通过以下方式利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量:
hn+1=a((hn)T*Wn+1+bn+1);
其中,hn+1为利用网络计算方法得到针对提取出的至少两个特征值的第二矩阵向量,a为第一激活函数,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T,hn,n为第n个特征值在进行n次计算的第一矩阵向量,Wn+1为矩阵参数中第n+1个矩阵,bn+1为第n+1个偏移量。
14.如权利要求9至12任一所述的设备,其特征在于,所述图像数据中图像特征的状态包括:所述图像数据中图像特征的位置信息;
所述估计模块,具体用于通过以下方式估计得到所述图像数据中图像特征的状态:
<mrow> <msup> <mover> <mi>y</mi> <mo>~</mo> </mover> <mrow> <mi>p</mi> <mi>s</mi> <mi>t</mi> </mrow> </msup> <mo>=</mo> <msup> <mrow> <mo>(</mo> <msup> <mover> <mi>h</mi> <mo>~</mo> </mover> <mi>n</mi> </msup> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mo>*</mo> <msup> <mi>W</mi> <mrow> <mi>p</mi> <mi>s</mi> <mi>t</mi> </mrow> </msup> <mo>+</mo> <msup> <mi>b</mi> <mrow> <mi>p</mi> <mi>s</mi> <mi>t</mi> </mrow> </msup> <mo>;</mo> </mrow>
其中,为估计得到所述图像数据中图像特征的状态,Wpst为理论矩阵参数,bpst为理论偏移量,根据hn得到,hn=[hn,1,hn,2,...,hn,i,...,hn,n]T
15.如权利要求9至12任一所述的设备,其特征在于,所述设备还包括:
可靠度计算模块,用于根据所述第二矩阵向量计算模块计算得到的所述第二矩阵向量,确定得到的估计状态的可靠度。
16.如权利要求15所述的设备,其特征在于,
所述可靠度计算模块,具体用于通过以下方式确定得到估计状态的可靠度:
<mrow> <msup> <mover> <mi>y</mi> <mo>~</mo> </mover> <mrow> <mi>c</mi> <mi>l</mi> <mi>k</mi> </mrow> </msup> <mo>=</mo> <mi>&amp;sigma;</mi> <mrow> <mo>(</mo> <msup> <mrow> <mo>(</mo> <msup> <mi>h</mi> <mi>n</mi> </msup> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mo>*</mo> <msup> <mi>W</mi> <mrow> <mi>c</mi> <mi>l</mi> <mi>s</mi> </mrow> </msup> <mo>+</mo> <msup> <mi>b</mi> <mrow> <mi>c</mi> <mi>l</mi> <mi>s</mi> </mrow> </msup> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中,为确定得到的估计状态的可靠度,σ为第二激活函数,Wcls为理论矩阵参数,bcls为理论偏移量。
CN201410220036.0A 2014-05-22 2014-05-22 一种图像特征的估计方法和设备 Active CN105096304B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201410220036.0A CN105096304B (zh) 2014-05-22 2014-05-22 一种图像特征的估计方法和设备
JP2016568970A JP6283124B2 (ja) 2014-05-22 2014-11-12 画像特性推定方法およびデバイス
PCT/CN2014/090905 WO2015176502A1 (zh) 2014-05-22 2014-11-12 一种图像特征的估计方法和设备
KR1020167031565A KR101903684B1 (ko) 2014-05-22 2014-11-12 이미지 특징 예측 방법 및 장치
EP14892648.8A EP3121788B1 (en) 2014-05-22 2014-11-12 Image feature estimation method and device
US15/355,324 US10115208B2 (en) 2014-05-22 2016-11-18 Image characteristic estimation method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410220036.0A CN105096304B (zh) 2014-05-22 2014-05-22 一种图像特征的估计方法和设备

Publications (2)

Publication Number Publication Date
CN105096304A CN105096304A (zh) 2015-11-25
CN105096304B true CN105096304B (zh) 2018-01-02

Family

ID=54553361

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410220036.0A Active CN105096304B (zh) 2014-05-22 2014-05-22 一种图像特征的估计方法和设备

Country Status (6)

Country Link
US (1) US10115208B2 (zh)
EP (1) EP3121788B1 (zh)
JP (1) JP6283124B2 (zh)
KR (1) KR101903684B1 (zh)
CN (1) CN105096304B (zh)
WO (1) WO2015176502A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10547698B2 (en) * 2006-11-08 2020-01-28 Cricket Media, Inc. Dynamic characterization of nodes in a semantic network for desired functions such as search, discovery, matching, content delivery, and synchronization of activity and information
CN108399379B (zh) * 2017-08-11 2021-02-12 北京市商汤科技开发有限公司 用于识别面部年龄的方法、装置和电子设备
CN111161153B (zh) * 2019-12-31 2024-04-12 无锡祥生医疗科技股份有限公司 宽景拼接方法、装置及存储介质
CN111582202B (zh) * 2020-05-13 2023-10-17 上海海事大学 一种智能网课系统
CN112115769A (zh) * 2020-08-05 2020-12-22 西安交通大学 一种基于视频的无监督稀疏人群异常行为检测算法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6546137B1 (en) * 1999-01-25 2003-04-08 Siemens Corporate Research, Inc. Flash system for fast and accurate pattern localization
CN102567719A (zh) * 2011-12-26 2012-07-11 东南大学 基于后验概率神经网络的人类年龄自动估计方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038337A (en) 1996-03-29 2000-03-14 Nec Research Institute, Inc. Method and apparatus for object recognition
JP2001283216A (ja) * 2000-04-03 2001-10-12 Nec Corp 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体
JP4292837B2 (ja) * 2002-07-16 2009-07-08 日本電気株式会社 パターン特徴抽出方法及びその装置
KR100442835B1 (ko) * 2002-08-13 2004-08-02 삼성전자주식회사 인공 신경망을 이용한 얼굴 인식 방법 및 장치
EP3196805A3 (en) * 2003-06-12 2017-11-01 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
US7778446B2 (en) 2006-12-06 2010-08-17 Honda Motor Co., Ltd Fast human pose estimation using appearance and motion via multi-dimensional boosting regression
JP4594945B2 (ja) * 2007-02-13 2010-12-08 株式会社東芝 人物検索装置および人物検索方法
JP5181704B2 (ja) 2008-02-07 2013-04-10 日本電気株式会社 データ処理装置、姿勢推定システム、姿勢推定方法およびプログラム
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
CN101630365B (zh) * 2009-06-05 2011-12-14 天津大学 基于daisy的具有镜面翻转不变性的特征提取和描述方法
CN102231191B (zh) * 2011-07-17 2012-12-26 西安电子科技大学 基于asift的多模态图像特征提取与匹配方法
US9014501B2 (en) * 2012-02-23 2015-04-21 University Of Georgia Research Foundation, Inc. Methods and systems for enhancing data
CN103077512B (zh) * 2012-10-18 2015-09-09 北京工业大学 基于主成分析的数字图像的特征提取与匹配方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6546137B1 (en) * 1999-01-25 2003-04-08 Siemens Corporate Research, Inc. Flash system for fast and accurate pattern localization
CN102567719A (zh) * 2011-12-26 2012-07-11 东南大学 基于后验概率神经网络的人类年龄自动估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"DUAN,BATRA, CRANDALL:COMPOSITE MODELS FOR HUMAN POSE ESTIMATION A Multi-layer Composite Model for Human Pose Estimation";Kun Duan等;《Signal Processing》;20121231;论文摘要,第1-9页 *
"关于人脸姿态估计问题的研究";孙昊翔;《中国优秀硕士学位论文全文数据库 信息科技辑》;20071015(第4期);论文第2-35页 *

Also Published As

Publication number Publication date
EP3121788A4 (en) 2017-04-05
KR20160146809A (ko) 2016-12-21
US10115208B2 (en) 2018-10-30
EP3121788A1 (en) 2017-01-25
EP3121788B1 (en) 2020-11-04
CN105096304A (zh) 2015-11-25
JP2017519291A (ja) 2017-07-13
JP6283124B2 (ja) 2018-02-21
KR101903684B1 (ko) 2018-10-02
US20170069112A1 (en) 2017-03-09
WO2015176502A1 (zh) 2015-11-26

Similar Documents

Publication Publication Date Title
CN105912990B (zh) 人脸检测的方法及装置
CN105096304B (zh) 一种图像特征的估计方法和设备
CN109902546A (zh) 人脸识别方法、装置及计算机可读介质
CN110490177A (zh) 一种人脸检测器训练方法及装置
CN108388876A (zh) 一种图像识别方法、装置以及相关设备
CN109711544A (zh) 模型压缩的方法、装置、电子设备及计算机存储介质
CN109902677A (zh) 一种基于深度学习的车辆检测方法
CN107871100A (zh) 人脸模型的训练方法和装置、人脸认证方法和装置
CN108427921A (zh) 一种基于卷积神经网络的人脸识别方法
CN110633745A (zh) 一种基于人工智能的图像分类训练方法、装置及存储介质
CN105184325A (zh) 一种人体动作识别方法和移动智能终端
CN109214366A (zh) 局部目标重识别方法、装置及系统
CN110135476A (zh) 一种个人安全装备的检测方法、装置、设备及系统
CN110097029B (zh) 基于Highway网络多视角步态识别的身份认证方法
CN109711358A (zh) 神经网络训练方法、人脸识别方法及系统和存储介质
CN110188673A (zh) 表情识别方法和装置
KR102593835B1 (ko) 휴리스틱 가우스 클라우드 변환에 기반하는 얼굴인식 기술
CN107871103A (zh) 一种人脸认证方法和装置
CN110222607A (zh) 人脸关键点检测的方法、装置及系统
CN106127104A (zh) 一种Android平台下基于人脸关键点的预测系统及其方法
CN109815823A (zh) 数据处理方法及相关产品
KR102363879B1 (ko) 환자의 상지 동작에 의해 도출되는 특징값을 이용한 임상평가척도 예측 방법
CN108629265A (zh) 用于瞳孔定位的方法和装置
CN108764233A (zh) 一种基于连续卷积激活的场景字符识别方法
CN111401261B (zh) 基于gan-cnn框架的机器人手势识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant