CN108197628B - 基于深度神经网络的图像特征的联合判断方法 - Google Patents

基于深度神经网络的图像特征的联合判断方法 Download PDF

Info

Publication number
CN108197628B
CN108197628B CN201711285590.7A CN201711285590A CN108197628B CN 108197628 B CN108197628 B CN 108197628B CN 201711285590 A CN201711285590 A CN 201711285590A CN 108197628 B CN108197628 B CN 108197628B
Authority
CN
China
Prior art keywords
result
predicted value
neural network
deep neural
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711285590.7A
Other languages
English (en)
Other versions
CN108197628A (zh
Inventor
孙皓
王佛伟
胡振程
王艳明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Wissen Automotive Sensing Technology Co Ltd
Original Assignee
Shanghai Wissen Automotive Sensing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Wissen Automotive Sensing Technology Co Ltd filed Critical Shanghai Wissen Automotive Sensing Technology Co Ltd
Priority to CN201711285590.7A priority Critical patent/CN108197628B/zh
Publication of CN108197628A publication Critical patent/CN108197628A/zh
Application granted granted Critical
Publication of CN108197628B publication Critical patent/CN108197628B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于深度神经网络的图像特征的联合判断方法,包括:S1.通过第一深度神经网络对输入图像进行特征提取生成第一结果,并获取第一预测值;S2.将所述第一预测值分别与预设的第一阈值和预设的第二阈值进行比较;S3.若所述第一预测值处于所述第一阈值与所述第二阈值之间,通过第二深度神经网络对所述输入图像进行特征提取生成第二结果,并获取第二预测值;S4.通过所述第一预测值与所述第二预测值对所述第一结果和所述第二结果进行匹配,若匹配成功,生成所述第一结果的边界框。通过联合判断,从而有效判断出第一结果与第二结果的相关程度,能够有效保证输出第一结果的边界框的位置准确,有效提高检测精度。

Description

基于深度神经网络的图像特征的联合判断方法
技术领域
本发明涉及一种图像特征的联合判断方法,尤其涉及一种基于深度神经网络的图像特征的联合判断方法。
背景技术
随着科技的发展,计算机视觉的关注度不断提高,并且计算机视觉已经在多个领域进行应用。计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图像处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。现有技术中,深度神经网络提取图像特征的识别过程往往需要人工进行辅助标记,或者自动识别过程中精度差,容易出错。在交通运输领域,由于车辆行驶环境复杂,现有技术的神经网络对图像特征的识别效率低,准确性差,增加了实际应运过程中的难度,以及可靠性差。
发明内容
本发明的目的在于提供一种基于深度神经网络的图像特征的联合判断方法,解决图像特征识别准确性差的问题。
为实现上述发明目的,本发明提供一种基于深度神经网络的图像特征的联合判断方法,包括:
S1.通过第一深度神经网络对输入图像进行特征提取生成第一结果,并获取第一预测值;
S2.将所述第一预测值分别与预设的第一阈值和预设的第二阈值进行比较,其中,所述第二阈值大于所述第一阈值;
S3.若所述第一预测值处于所述第一阈值与所述第二阈值之间,通过第二深度神经网络对所述输入图像进行特征提取生成第二结果,并获取第二预测值;
S4.通过所述第一预测值与所述第二预测值对所述第一结果和所述第二结果进行匹配,若匹配成功,生成所述第一结果的边界框。
根据本发明的一个方面,通过所述第一预测值与所述第二预测值对所述第一结果和所述第二结果进行匹配,若匹配成功,生成所述第一结果的边界框的步骤中包括:
S41.通过所述第一预测值和所述第二预测值获取所述第一结果和第二结果的重叠率IoU;
S42.通过所述第一预测值和所述第二预测值获取所述第一结果和第二结果的中心点距离d;
S43.将重叠率IoU与预设的第一联合判断阈值进行比较,将中心点距离d与预设的第二联合判断阈值进行比较;
若重叠率IoU大于所述第一联合判断阈值,并且所述中心点距离d小于所述第二联合判断阈值,生成所述第一结果的边界框。
根据本发明的一个方面,通过所述第一预测值和所述第二预测值获取所述第一结果和第二结果的重叠率IoU的步骤中包括:
S411.通过所述第一预测值获取所述第一结果的边界,并根据所述边界获取第一面积S;
S412.通过所述第二预测值获取所述第二结果的边界,并根据所述边界获取第二面积F;
S413.根据所述第一面积S和所述第二面积F获取所述重叠率IoU。
根据本发明的一个方面,根据所述第一面积S和所述第二面积F获取所述重叠率IoU的步骤中,所述重叠率IoU满足:IoU=(F∩S)/(F∪S),其中,(F∩S)为交集面积,(F∪S)为并集面积。
根据本发明的一个方面,通过所述第一预测值和所述第二预测值获取所述第一结果和第二结果的中心点距离d的步骤中包括:
S421.通过所述第一预测值获取所述第一结果的第一中心点B;
S422.通过所述第二预测值获取所述第二结果的第二中心点A;
S423.根据所述第一中心点B和所述第二中心点A获取所述中心点距离d。
根据本发明的一个方面,根据所述第一中心点B和所述第二中心点A获取所述中心点距离d的步骤中,所述中心点距离d满足:d=sqrt((Bx-Ax)2+(By-Ay)2),其中,Bx和By为第一中心点B的坐标值,Ax和Ay为第二中心点A的坐标值。
根据本发明的一个方面,所述第一阈值的范围为0.15~0.35;
所述第二阈值的范围为0.7~0.85;
所述第一联合判断阈值的范围为0.45~0.6;
所述第二联合判断阈值根据所述重叠率IoU中的交集面积(F∩S)的大小生成,其范围为10~30像素。
根据本发明的一个方面,若所述第一预测值大于所述第二阈值,则直接生成所述第一结果的边界框。
根据本发明的一个方面,所述第一深度神经网络为目标检测深度神经网络;所述第二深度神经网络为语义分割深度神经网络。
根据本发明的一个方面,所述第一深度神经网络和所述第二深度神经网络共用特征提取部分。
根据本发明的一个方案,第一深度神经网络为目标检测深度神经网络,其对输入图像的检测准确率相对较高。通过将第一深度神经网络提取的第一预测值与设定的第一阈值和第二阈值进行比较,可以快速有效地输出满足条件的第一结果的边界框,提高了本发明的联合判断方法的效率。尤其第一预测值大于第二阈值时,可以直接根据第一预测值输出第一结果的边界框,而不需要进行联合判断,不仅使提高了检测效率,而且保证了输出的边界框的位置准确。
根据本发明的一个方案,第二深度神经网络为语义分割深度神经网络,其对输入图像的中的特征分割较精细,能够使检测准确性进一步提高。当第一预测值位于设定的第一阈值和第二阈值之间时,第一深度神经网络容易出现误检或漏检,检测结果中图像特征的边界框容易丢失。通过采用第二深度神经网络生成第二预测值与第一预测值进行联合判断,可以有效避免第一深度神经网络检测结果不准确的情况,从而避免了检测结果中图像特征边界框丢失的情况,保证了输出的边界框的位置准确,提高了检测精度。
根据本发明的一个方案,在联合判断过程中,通过对第一结果和第二结果进行重叠率和中心点距离的双重判断,从而有效判断出第一结果与第二结果的相关程度,能够有效保证输出第一结果的边界框的位置准确,有效提高检测精度。
附图说明
图1示意性表示根据本发明的一种实施方式的联合判断方法的步骤框图;
图2示意性表示根据本发明的一种实施方式的联合判断方法的流程图;
图3示意性表示根据本发明的一种实施方式的联合判断方法的联合判断的步骤框图;
图4示意性表示根据本发明的一种实施方式的联合判断方法的联合判断的流程图。
具体实施方式
为了更清楚地说明本发明实施方式或现有技术中的技术方案,下面将对实施方式中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施方式,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
在针对本发明的实施方式进行描述时,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”所表达的方位或位置关系是基于相关附图所示的方位或位置关系,其仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此上述术语不能理解为对本发明的限制。
下面结合附图和具体实施方式对本发明作详细地描述,实施方式不能在此一一赘述,但本发明的实施方式并不因此限定于以下实施方式。
如图1所示,根据本发明的一种实施方式,本发明的联合判断方法包括:
S1.通过第一深度神经网络对输入图像进行特征提取生成第一结果,并获取第一预测值;
S2.将第一预测值分别与预设的第一阈值和预设的第二阈值进行比较,其中,第二阈值大于第一阈值;
S3.若第一预测值处于第一阈值与第二阈值之间,通过第二深度神经网络对输入图像进行特征提取生成第二结果,并获取第二预测值;
S4.通过第一预测值与第二预测值对第一结果和第二结果进行匹配,若匹配成功,生成第一结果的边界框。
本发明的联合判断方法中,第一深度神经网络为目标检测深度神经网络。第二深度神经网络为语义分割深度神经网络。
结合图1和图2所示,根据本发明的一种实施方式,步骤S1中,第一深度神经网络对输入图像进行目标检测,从而通过特征提取生成第一结果。第一深度神经网络获取第一结果的同时,生成关于第一结果的第一预测值。
结合图1和图2所示,根据本发明的一种实施方式,步骤S2中,将第一预测值分别与预设的第一阈值和预设的第二阈值进行比较。在本实施方式中,第一预测值首先与第一阈值进行比较。如果第一预测值小于第一阈值,则第一深度神经网络重新对输入图像进行特征提取。如果第一预测值大于第一阈值,则将第一预测值与第二阈值进行比较。在本实施方式中,如果第一预测值大于第二阈值,则第一深度神经网络根据第一预测值生成第一结果的边界框,并输出生成的第一结果的边界框。如果第一预测值小于第二阈值,则第一预测值需要与第二深度神经网络生成的第二预测值进行联合判断,即进行步骤S3。在本实施方式中,第二阈值大于第一阈值。其中,第一阈值的范围为0.15~0.35。第二阈值的范围为0.7~0.85。
根据本发明的联合判断方法,第一深度神经网络为目标检测深度神经网络,其对输入图像的检测准确率相对较高。通过将第一深度神经网络提取的第一预测值与设定的第一阈值和第二阈值进行比较,可以快速有效地输出满足条件的第一结果的边界框,提高了本发明的联合判断方法的效率。尤其第一预测值大于第二阈值时,可以直接根据第一预测值输出第一结果的边界框,而不需要进行联合判断,不仅使提高了检测效率,而且保证了输出的边界框的位置准确。
结合图1和图2所示,根据本发明的一种实施方式,步骤S3中,第一预测值大于第一阈值,并且第一预测值小于第二阈值,则对第一预测值和第二预测值进行联合判断。在本实施方式中,第二深度神经网络对输入图像进行特征提取生成第二结果,并获取第二预测值。通过生成的第二预测值与第一预测值进行联合判断。
根据本发明的联合判断方法,第二深度神经网络为语义分割深度神经网络,其对输入图像的中的特征分割较精细,能够使检测准确性进一步提高。当第一预测值位于设定的第一阈值和第二阈值之间时,第一深度神经网络容易出现误检或漏检,检测结果中图像特征的边界框容易丢失。通过采用第二深度神经网络生成第二预测值与第一预测值进行联合判断,可以有效避免第一深度神经网络检测结果不准确的情况,从而避免了检测结果中图像特征边界框丢失的情况,保证了输出的边界框的位置准确,提高了检测精度。
结合图1和图2所示,根据本发明的一种实施方式,步骤S4中,对第一预测值与第二预测值进行联合判断的过程中,根据第一预测值与第二预测值对第一结果和第二结果进行匹配。在本实施方式中,如果第一结果和第二结果匹配成功,则生成第一结果的边界框,并输出第一结果的边界框。如果第一结果和第二结果匹配失败,则第二深度神经网络重新对输入图像进行特征提取生成新的第二结果,以及获取新的第二预测值。
根据本发明的一种实施方式,第一深度神经网络和第二深度神经网络共用特征提取部分。在本实施方式中,第一深度神经网络和第二深度神经网络共用前端的特征提取部分对输入图像进行特征提取。第一深度神经网络和第二深度神经网络的后端输出是相互独立的。通过前端对输入图像的特征提取,第一神经网络后端根据第一预测值生成第一结果边界框。第二神经网络后端根据第二预测值生成第二结果边界框。第一预测值与第二预测值进行联合判断的过程中,通过对第一结果边界框和第二结果边界框的比对,进行第一结果和第二结果的匹配。
结合图1和图3所示,步骤S4中,根据第一预测值与第二预测值对第一结果和第二结果进行匹配的流程中包括以下步骤:
S41.通过第一预测值和第二预测值获取第一结果和第二结果的重叠率IoU;
S42.通过第一预测值和第二预测值获取第一结果和第二结果的中心点距离d;
S43.将重叠率IoU与预设的第一联合判断阈值进行比较,将中心点距离d与预设的第二联合判断阈值进行比较;
若重叠率IoU大于第一联合判断阈值,并且中心点距离d小于第二联合判断阈值,生成第一结果的边界框。
结合图3和图4所示,根据本发明的一种实施方式,步骤S41中,通过第一预测值和第二预测值获取第一结果和第二结果的重叠率IoU。在本实施方式中还包括:
S411.通过第一预测值获取第一结果的边界(即图4中第一结果边界框),并根据边界获取第一面积S(即图4中第一结果边界框的面积S)。
S412.通过第二预测值获取第二结果的边界(即图4中第二结果边界框),并根据边界获取第二面积F(即图4中第二结果边界框的面积F);
S413.根据第一面积S和第二面积F获取第一结果和第二结果的重叠率IoU。在本实施方式中,重叠率IoU满足以下公式:
IoU=(F∩S)/(F∪S)
其中,(F∩S)为第一面积S和第二面积F的交集面积,(F∪S)为第一面积S和第二面积F的并集面积。
结合图3和图4所示,根据本发明的一种实施方式,步骤S42中,通过第一预测值和第二预测值获取第一结果和第二结果的中心点距离d。在本实施方式中还包括:
S421.通过所述第一预测值获取所述第一结果的第一中心点B(即图4中第一边界框的中心点B)。在本实施方式中,第一中心点B的位置以坐标点(Bx,By)表示。其中,Bx和By分别以单位像素表示。
S422.通过所述第二预测值获取所述第二结果的第二中心点A(即图4中第二边边界框的中心点A)。在本实施方式中,第二中心点A的位置以坐标点(Ax,Ay)表示。其中,Ax和Ay分别以单位像素表示。
S423.根据所述第一中心点B和所述第二中心点A获取中心点距离d。在本实施方式中,中心点距离d满足公式:
d=sqrt((Bx-Ax)2+(By-Ay)2)
其中,Bx和By为第一中心点B的坐标值,Ax和Ay为第二中心点A的坐标值。
结合图3和图4所示,根据本发明的一种实施方式,步骤S43中,将上述步骤中获取的重叠率IoU与预设的第一联合判断阈值进行比较,将中心点距离d与预设的第二联合判断阈值进行比较。在本实施方式中,若重叠率IoU大于第一联合判断阈值,并且中心点距离d小于第二联合判断阈值,根据第一预测值生成并输出第一结果的边界框。在本实施方式中,第一联合判断阈值的范围为0.45~0.6。第二联合判断阈值根据重叠率IoU中得到的交集面积(F∩S)大小进行选取,在本实施方式中,可选取第二联合判断阈值的范围为10~30像素。
根据本发明的联合判断方法,在联合判断过程中,通过对第一结果和第二结果进行重叠率和中心点距离的双重判断,从而有效判断出第一结果与第二结果的相关程度,能够有效保证输出第一结果的边界框的位置准确,有效提高检测精度。
上述内容仅为本发明的具体方案的例举,对于其中未详尽描述的设备和结构,应当理解为采取本领域已有的通用设备及通用方法来予以实施。
以上所述仅为本发明的一个方案而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.基于深度神经网络的图像特征的联合判断方法,包括:
S1.通过第一深度神经网络对输入图像进行特征提取生成第一结果,并获取第一预测值;
S2.将所述第一预测值分别与预设的第一阈值和预设的第二阈值进行比较,其中,所述第二阈值大于所述第一阈值;
S3.若所述第一预测值处于所述第一阈值与所述第二阈值之间,通过第二深度神经网络对所述输入图像进行特征提取生成第二结果,并获取第二预测值;
S4.通过所述第一预测值与所述第二预测值对所述第一结果和所述第二结果进行匹配用于判断出所述第一结果与所述第二结果的相关程度,若匹配成功,生成所述第一结果的边界框;其中,通过所述第一预测值和所述第二预测值获取所述第一结果和第二结果的重叠率IoU;
通过所述第一预测值和所述第二预测值获取所述第一结果和第二结果的中心点距离d;
将重叠率IoU与预设的第一联合判断阈值进行比较,将中心点距离d与预设的第二联合判断阈值进行比较;
若重叠率IoU大于所述第一联合判断阈值,并且所述中心点距离d小于所述第二联合判断阈值,生成所述第一结果的边界框;
所述第一深度神经网络为目标检测深度神经网络;所述第二深度神经网络为语义分割深度神经网络。
2.根据权利要求1所述的联合判断方法,其特征在于,通过所述第一预测值和所述第二预测值获取所述第一结果和第二结果的重叠率IoU的步骤中包括:
S411.通过所述第一预测值获取所述第一结果的边界,并根据所述边界获取第一面积S;
S412.通过所述第二预测值获取所述第二结果的边界,并根据所述边界获取第二面积F;
S413.根据所述第一面积S和所述第二面积F获取所述重叠率IoU。
3.根据权利要求2所述的联合判断方法,其特征在于,根据所述第一面积S和所述第二面积F获取所述重叠率IoU的步骤中,所述重叠率IoU满足:IoU=(F∩S)/(F∪S),其中,(F∩S)为交集面积,(F∪S)为并集面积。
4.根据权利要求3所述的联合判断方法,其特征在于,通过所述第一预测值和所述第二预测值获取所述第一结果和第二结果的中心点距离d的步骤中包括:
S421.通过所述第一预测值获取所述第一结果的第一中心点B;
S422.通过所述第二预测值获取所述第二结果的第二中心点A;
S423.根据所述第一中心点B和所述第二中心点A获取所述中心点距离d。
5.根据权利要求4所述的联合判断方法,其特征在于,根据所述第一中心点B和所述第二中心点A获取所述中心点距离d的步骤中,所述中心点距离d满足:d=sqrt((Bx-Ax)2+(By-Ay)2),其中,Bx和By为第一中心点B的坐标值,Ax和Ay为第二中心点A的坐标值。
6.根据权利要求5所述的联合判断方法,其特征在于,所述第一阈值的范围为0.15~0.35;
所述第二阈值的范围为0.7~0.85;
所述第一联合判断阈值的范围为0.45~0.6;
所述第二联合判断阈值根据所述重叠率IoU中的交集面积(F∩S)的大小生成,其范围为10~30像素。
7.根据权利要求1所述的联合判断方法,其特征在于,若所述第一预测值大于所述第二阈值,则直接生成所述第一结果的边界框。
8.根据权利要求1至7任一项所述的联合判断方法,其特征在于,所述第一深度神经网络和所述第二深度神经网络共用特征提取部分。
CN201711285590.7A 2017-12-07 2017-12-07 基于深度神经网络的图像特征的联合判断方法 Active CN108197628B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711285590.7A CN108197628B (zh) 2017-12-07 2017-12-07 基于深度神经网络的图像特征的联合判断方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711285590.7A CN108197628B (zh) 2017-12-07 2017-12-07 基于深度神经网络的图像特征的联合判断方法

Publications (2)

Publication Number Publication Date
CN108197628A CN108197628A (zh) 2018-06-22
CN108197628B true CN108197628B (zh) 2021-06-18

Family

ID=62573968

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711285590.7A Active CN108197628B (zh) 2017-12-07 2017-12-07 基于深度神经网络的图像特征的联合判断方法

Country Status (1)

Country Link
CN (1) CN108197628B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110503095B (zh) * 2019-08-27 2022-06-03 中国人民公安大学 目标检测模型的定位质量评价方法、定位方法及设备
CN111080592B (zh) * 2019-12-06 2021-06-01 广州柏视医疗科技有限公司 一种基于深度学习的肋骨提取方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203333A (zh) * 2016-07-08 2016-12-07 乐视控股(北京)有限公司 人脸识别方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9767378B2 (en) * 2015-08-31 2017-09-19 Sony Corporation Method and system to adaptively track objects
CN107025452A (zh) * 2016-01-29 2017-08-08 富士通株式会社 图像识别方法和图像识别设备
CN105913003B (zh) * 2016-04-07 2019-06-07 国家电网公司 一种多特征多模型的行人检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203333A (zh) * 2016-07-08 2016-12-07 乐视控股(北京)有限公司 人脸识别方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于卷积神经网络的遥感图像舰船目标检测;黄洁 等;《北京航空航天大学学报》;20170131(第9期);第1841-1848页 *

Also Published As

Publication number Publication date
CN108197628A (zh) 2018-06-22

Similar Documents

Publication Publication Date Title
US11468585B2 (en) Pseudo RGB-D for self-improving monocular slam and depth prediction
US10466797B2 (en) Pointing interaction method, apparatus, and system
CN107909010B (zh) 一种道路障碍物检测方法与装置
US20230186486A1 (en) Vehicle tracking method and apparatus, and electronic device
CN104156693B (zh) 一种基于多模态序列融合的动作识别方法
US20150302240A1 (en) Method and device for locating feature points on human face and storage medium
CN105096307B (zh) 在成对的立体图像中检测物体的方法
CN113657409A (zh) 车辆损失检测方法、装置、电子设备及存储介质
US9805277B2 (en) Apparatus and method for detecting bar-type traffic sign in traffic sign recognition system
JP2016071616A (ja) 検出装置、検出方法、及び、プログラム
CN110675442B (zh) 一种结合目标识别技术的局部立体匹配方法及系统
CN103971087A (zh) 一种实时搜索及识别交通标志的方法及装置
Meshram et al. Traffic surveillance by counting and classification of vehicles from video using image processing
CN107463873B (zh) 一种基于rgbd深度传感器的实时手势分析与评价方法与系统
JP2013206458A (ja) 画像における外観及びコンテキストに基づく物体分類
CN108197628B (zh) 基于深度神经网络的图像特征的联合判断方法
JP5048609B2 (ja) 対象物追跡装置及びプログラム
JP2011089784A (ja) 物体方向推定装置
CN113610809B (zh) 骨折检测方法、装置、电子设备以及存储介质
US11314975B2 (en) Object identification in data relating to signals that are not human perceptible
US9418286B2 (en) Information processing device, information processing method, and program
US10140509B2 (en) Information processing for detection and distance calculation of a specific object in captured images
KR20160127264A (ko) 시선 검출 시스템 및 그 방법
JP6173962B2 (ja) レーンマーク認識装置
CN110956130A (zh) 一种四级人脸检测和关键点回归的方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 201203 Shanghai Pudong New Area free trade trial area, 1 spring 3, 400 Fang Chun road.

Applicant after: Shanghai Sen Sen vehicle sensor technology Co., Ltd.

Address before: 201210 301B room 560, midsummer Road, Pudong New Area Free Trade Zone, Shanghai

Applicant before: New software technology (Shanghai) Co., Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant