CN115631477B - 目标识别方法及终端 - Google Patents

目标识别方法及终端 Download PDF

Info

Publication number
CN115631477B
CN115631477B CN202211503574.1A CN202211503574A CN115631477B CN 115631477 B CN115631477 B CN 115631477B CN 202211503574 A CN202211503574 A CN 202211503574A CN 115631477 B CN115631477 B CN 115631477B
Authority
CN
China
Prior art keywords
target
area
region
image
enhanced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211503574.1A
Other languages
English (en)
Other versions
CN115631477A (zh
Inventor
徐显杰
张增
包永亮
李东武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Soterea Automotive Technology Co Ltd
Original Assignee
Tianjin Soterea Automotive Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Soterea Automotive Technology Co Ltd filed Critical Tianjin Soterea Automotive Technology Co Ltd
Priority to CN202211503574.1A priority Critical patent/CN115631477B/zh
Publication of CN115631477A publication Critical patent/CN115631477A/zh
Application granted granted Critical
Publication of CN115631477B publication Critical patent/CN115631477B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种目标识别方法及终端。该方法包括:根据当前图像中的目标区域,预测下一图像中的待增强目标区域;对待增强目标区域进行放大处理,得到增强目标区域;将增强目标区域添加至下一缩小图像中,得到重置图像;对重置图像进行目标识别,得到目标类别和目标距离。本发明能够以有效降低目标识别难度,避免漏检、错检问题。

Description

目标识别方法及终端
技术领域
本发明涉及盲区监测技术领域,尤其涉及一种目标识别方法及终端。
背景技术
盲区监测系统(Blind Spot Detection,BSD)可以基于摄像头对盲区内场景进行目标检测和分割,然后基于摄像头标定的内外参数对目标距离进行测量,距离低于设定的安全距离时即会产生报警信息。
BSD摄像头可以安装在车辆右侧尾部、车辆右侧前部、车辆左侧前部或车辆左侧尾部。对于大型车辆,其右侧盲区一般比较大,可以选择安装在车辆右侧尾部。为方便理解,下面以BSD摄像头安装在车辆右侧尾部向车头方向看为例来介绍技术问题,其他安装方式可以类比。
针对BSD摄像头安装在车辆尾部向车头方向看的情况,行人目标、骑行人员(一般是骑行电动车或者摩托车)出现在车头或者车头前的位置时,导致目标在BSD摄像头采集的图像中的区域较小。同时,在计算目标距离时,由BSD摄像头采集到的图像通常要经过裁剪缩小后再输入神经网络处理单元(NeuralNetworks Process Units,NPU )以降低NPU单元的计算负担,这样就使得目标在图像中的区域进一步缩小,从而导致NPU单元对于目标的识别难度较大,容易产生漏检和错误检测的问题。
发明内容
本发明实施例提供了一种目标识别方法及终端,以解决由于图像中目标区域较小导致的目标识别难度较大,而产生漏检、错检的问题。
第一方面,本发明实施例提供了一种目标识别方法,包括:
根据当前图像中的目标区域,预测下一图像中的待增强目标区域;
对所述待增强目标区域进行放大处理,得到增强目标区域;
将所述增强目标区域添加至下一缩小图像中,得到重置图像;
对所述重置图像进行目标识别,得到目标类别和目标距离。
在一种可能的实现方式中,所述根据当前图像中的目标区域,预测下一图像中的待增强目标区域,包括:
根据当前缩小图像中的目标区域,预测下一缩小图像中的待增强目标区域;
所述对所述待增强目标区域进行放大处理,得到增强目标区域,包括:
根据预测得到的下一缩小图像中的待增强目标区域,从下一图像的原图中截取待增强目标区域对应的区域,并将该区域作为增强目标区域。
在一种可能的实现方式中,在所述根据当前图像中的目标区域,预测下一图像中的待增强目标区域之前,还包括:
检测当前图像中所有目标对应的区域,并将满足预设条件的区域确定为所述目标区域;
或者,将用户自定义的区域确定为当前图像中的目标区域;
或者,对标注数据集中的所有图像中的各区域出现的目标类别以及目标位置进行概率统计,得到目标出现概率值最大的区域,将当前图像中与目标出现概率值最大的区域相同位置处的区域确定为所述目标区域。
在一种可能的实现方式中,所述当前图像中所有目标对应的区域为圆形区域或者四边形区域;
所述将满足预设条件的区域确定为所述目标区域,包括:
当区域内目标的置信度小于第一阈值,和/或,区域面积小于第二阈值,和/或,区域的长度、宽度或半径小于第三阈值时,确定此区域为目标区域。
在一种可能的实现方式中,所述对所述待增强目标区域进行放大处理,得到增强目标区域,包括:
增大所述待增强目标区域对应的面积,得到第一目标区域;
对所述第一目标区域对应的面积进行预设比例的放大,得到所述增强目标区域。
在一种可能的实现方式中,所述待增强目标区域为圆形区域或者四边形区域;
所述增大所述待增强目标区域对应的面积,包括:
当所述待增强目标区域为圆形区域时,将所述圆形区域的半径增加预设长度,得到新半径;
以所述新半径为半径确定的新圆形区域作为第一目标区域;
当所述待增强目标区域为四边形区域时,将所述四边形区域的相邻的两边均延长所述预设长度,得到新的相邻两边长,将所述新的相邻两边长确定的四边形区域作为第一目标区域;或者,当所述待增强目标区域为四边形区域时,将所述四边形区域的四边沿所述四边形区域外侧方向平移所述预设长度,构成新的四边形区域,将所述新的四边形区域确定为第一目标区域;
所述预设长度根据任意两个目标对应的区域之间的最小距离确定。
在一种可能的实现方式中,所述将所述增强目标区域添加至下一缩小图像中,得到重置图像,包括:
获取所述下一缩小图像中的待融合区域,所述待融合区域与所述增强目标区域的面积相同;
将所述增强目标区域中各像素点与所述待融合区域的各像素点进行融合,得到重置图像。
在一种可能的实现方式中,所述将所述增强目标区域中各像素点与所述待融合区域的各像素点进行融合,得到重置图像,包括:
将所述增强目标区域中各像素点的红、绿、蓝分量值对应融合至所述待融合区域的各像素点中,得到重置图像;
或者,将所述增强目标区域中各像素点的灰度值对应融合至所述待融合区域的各像素点中,得重置图像。
在一种可能的实现方式中,所述获取所述下一缩小图像中的待融合区域包括:
对标注数据集中的所有图像中的各区域出现的目标类别以及目标位置进行概率统计,得到目标出现概率值最小的区域;
将下一缩小图像中与所述目标出现概率值最小的区域相同位置处的区域确定为待融合区域。
第二方面,本发明实施例提供了一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上第一方面或第一方面的任一种可能的实现方式所述方法的步骤。
本发明实施例提供一种目标识别方法及终端,通过根据当前图像中的目标区域,预测下一图像中的待增强目标区域;对待增强目标区域进行放大处理,得到增强目标区域;将增强目标区域添加至下一缩小图像中,得到重置图像;对重置图像进行目标识别,得到目标类别和目标距离,可以有效降低目标识别难度,避免漏检、错检问题。其中,对待增强目标区域进行放大处理,可以将原来较小的目标区域调整为较大的目标区域,有效降低了目标识别难度,同时,通过将增强目标区域添加至下一缩小图像中,得到重置图像,并对重置图像进行目标识别,并没有增加NPU单元的整体推理计算量,也不会延迟输出结果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的目标识别方法的实现流程图;
图2是本发明又一实施例提供的目标识别方法的实现流程图;
图3是本发明又一实施例提供的目标识别方法的实现流程图;
图4是本发明实施例提供的目标识别方法的工作流程图;
图5是本发明实施例提供的目标识别装置的结构示意图;
图6是本发明实施例提供的终端的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图通过具体实施例来进行说明。
BSD系统在实际工作时,通常由摄像头采集到的图像经过裁剪缩小后再输入NPU单元来识别目标类别并相应计算目标距离。由此,本发明实施例中的执行主体可以是BSD系统中的NPU单元。可选的,本发明实施例中的执行主体可以是具有目标识别功能的任意单元,例如AEB(自动紧急制动,Autonomous Emergency Braking)系统中的感知单元,或者,其他辅助驾驶系统的感知单元。本发明实施例提供的目标识别方法可以适用于乘用车或商用车的辅助驾驶。
图1为本发明实施例提供的目标识别方法的实现流程图,详述如下:
步骤101,根据当前图像中的目标区域,预测下一图像中的待增强目标区域。
实际应用中,摄像头处于连续拍摄图像或是持续录制视频的状态,并将得到的图像或视频实时传输到NPU单元中进行目标识别。为减小NPU单元的计算负担,通常会将摄像头采集到的图像进行裁剪、缩小处理后再输入NPU单元中。
基于上述实际应用情况,本发明实施例步骤101中的当前图像可以是指摄像头拍摄的当前一张图像或者录制视频中的当前一帧图像,即当前原始图像;也可以是对当前原始图像进行裁剪、缩小处理后的图像,即当前缩小图像。相应地,下一图像可以是指摄像头拍摄的下一张图像或者录制视频中的下一帧图像,即下一原始图像;也可以是对下一原始图像进行裁剪、缩小处理后的图像,即下一缩小图像。随着时间的推移,摄像头不断获取新的图像,当前原始图像就会被下一原始图像取代。相应地,当前缩小图像也会被下一缩小图像取代。
可选的,一并参见图2、图3和图4,步骤101可以包括:
根据当前缩小图像中的目标区域,预测下一缩小图像中的待增强目标区域。
具体地,根据当前缩小图像,确定当前缩小图像中的目标区域;并对该目标区域进行滤波跟踪,得到下一缩小图像中与上述目标区域相同位置处的待增强目标区域。
或者,步骤101可以包括:
根据当前原始图像中的目标区域,预测得到下一原始图像中的待增强目标区域。
具体地,根据当前原始图像,确定当前原始图像中的目标区域;并对该目标区域进行滤波跟踪,得到下一原始图像中与上述目标区域相同位置处的待增强目标区域。
示例性地,参见图4,随着时间的推移,摄像头不断获取新的图像并依次输出。例如,A图像、B图像和C图像。以A图像作为当前原始图像,那么B图像则为下一原始图像。相应地,以B图像作为当前原始图像,那么C图像则为下一原始图像。图4中示例性地以A图像作为当前原始图像,根据A图像或者缩小后的A图像中的目标区域,预测B图像或者缩小后的B图像中与目标区域相同位置处的待增强目标区域。
对目标区域进行滤波跟踪处理时,可以采用核跟踪算法、深度学习算法、子空间算法或稀疏表示法等目标跟踪算法进行滤波跟踪处理。本发明实施例中并不对其滤波跟踪的具体算法进行限定。
通过根据当前图像,预测下一图像中的待增强目标区域,以便于后续得到增强目标区域后,可以直接将增强目标区域添加到下一缩小图像中,不会延迟目标识别的输出结果。
在根据当前图像中的目标区域,预测下一图像中的待增强目标区域之前,需要根据当前图像确定当前图像中的目标区域。可选的,在步骤101之前,还包括:
检测当前图像中所有目标对应的区域,并将满足预设条件的区域确定为目标区域。
其中,当前图像中所有目标对应的区域为圆形区域或者四边形区域。这里四边形可以为正方形、长方形或者菱形等规则四边形。
当目标对应的区域为圆形区域时,可以使用圆心坐标(X0,Y0)以及半径R来表示该区域的位置。优选的,该圆形区域可以是包含目标外边界的最小圆形区域。
当目标对应的区域为四边形区域时,可以使用四边形区域的左上角顶点坐标(X1,Y1)以及右下角顶点坐标(X2,Y2)来表示该区域的位置。或者使用该四边形区域的左下角顶点坐标(X3,Y3)以及右上角顶点坐标(X4,Y4)来表示该区域位置。相应地,该四边形区域可以是包含目标外边界的最小四边形区域。
在当前图像中确定目标区域及相应位置,可以方便后续对该目标区域进行滤波追踪,得到下一图像中的待增强目标区域。
可选的,将满足预设条件的区域确定为目标区域,包括:
当区域内目标的置信度小于第一阈值,和/或,区域面积小于第二阈值,和/或,区域的长度、宽度或半径小于第三阈值时,确定此区域为目标区域。
目标的置信度在这里可以简单理解为目标识别的可靠度。如果区域内目标的置信度小于第一阈值,则说明当前图像中该目标可能存在错检的情况,可以将其对应的区域确定为目标区域。
如果当前图像中目标对应的区域满足上述预设条件时,则可能会存在错检的情况。因此,就可以将其确定为目标区域,以便后续针对该目标区域进行放大处理后再进行目标识别。
利用上述预设条件对于当前图像中的所有目标对应的区域进行筛选,进而得到最终的目标区域,可以对于可能出现的错检的情况,进行针对性的放大识别。在保证目标识别准确度的前提下,减少运算量。
或者,可以将用户自定义的区域确定为当前图像中的目标区域。
通常情况下,用户可以根据自身经验选择出现目标概率较大或者容易漏检的区域,并将其确定为当前图像中的目标区域。
或者,也可以预先对标注数据集中的所有图像中的各区域出现的目标类别以及目标位置进行概率统计,得到各目标类别在各区域出现的概率值。选择出现目标出现概率值最大的区域作为需要关注的重点区域,并将当前图像中与该重点区域相同位置处的区域确定为目标区域。
这里的标注数据集是指用于训练、测试和评价NPU单元性能的训练数据集,一般存储在本地服务器中。标注数据集中包含多张经过标注后的BSD系统应用场景的采样图像。
示例性地,对标签数据集中的所有图像中的各区域出现的目标类别以及目标位置进行概率统计,得到各目标类别在各区域出现的概率值,可以通过以下方法实现:
将标签数据集中的每张图像都均分为多个固定区域,分别计算各固定区域中各目标类别的出现概率,进而按目标类别统计各目标类别分别在各固定区域中的出现频率,得到各目标类别在各固定区域出现的概率值。这里的目标类别可以包括:行人和骑行人员。
以行人为例,将固定区域中出现行人的像素点置为1,其他像素点均置为0。若该固 定区域中共有128个像素点,其中50个像素点出现了行人。则该固定区域中出现行人的概率 记为:
Figure 666452DEST_PATH_IMAGE001
。同理,按照上述方法计算该固定区域中出现骑行人员的概率值。
按照上述方法,分别计算所有图像中各固定区域中各目标类别的概率值。
统计所有图像中各相同位置处的固定区域中各目标类别的出现概率,得到各固定区域出现目标的统计概率值。
示例性的,标注数据集中共有3张图像,且每张图像都均分为2个固定区域。每张图像中第一固定区域中出现行人的概率值分别为:90/128、78/128、82/128;出现骑行人员的概率值分别为:70/128、65/128、58/128。
每张图像中第二固定区域中出现行人的概率值分别为:20/128、19/128、15/128;出现骑行人员的概率值分别为:6/128、5/128、12/128。
根据
Figure 963441DEST_PATH_IMAGE002
计算得到第一固定区域中出现行人 的统计概率值为0.65;根据
Figure 118479DEST_PATH_IMAGE003
计算得到第一固定区 域中出现骑行人员的统计概率值为0.5。
同理,分别计算得到第二固定区域中出现行人的统计概率值为0.14;第二固定区域中出现行人的统计概率值为0.18。
由此,第一固定区域中出现行人以及骑行人员的概率较大,可将当前图像中第一固定区域相同位置处的区域设置为目标区域。
步骤102,对待增强目标区域进行放大处理,得到增强目标区域。
对下一图像中的待增强目标区域进行放大,得到增强目标区域后再进行目标识别,可以有效提高目标识别的准确度。
可选的,当步骤101中的当前图像是当前缩小图像,下一图像是下一缩小图像时,即步骤101根据当前缩小图像中的目标区域,预测下一缩小图像中的待增强目标区域。
相应地,步骤102可以包括:
根据预测得到的下一缩小图像中的待增强目标区域,从下一图像的原图中截取待增强目标区域对应的区域,并将该区域作为增强目标区域。
下一缩小图像与下一图像中的原图(即下一原始图像)中包含的目标信息是完全相同的,但相比于下一缩小图像,下一原始图像的分辨率更高,图像更加清晰,因此,可以直接从下一原始图像中截取待增强目标区域对应的区域,作为增强目标区域,以便提高目标识别的准确度。
作为一种更加优选的方案,步骤101中预测得到的无论是下一原始图像中的待增强目标区域还是下一缩小图像中的待增强目标区域,都可以对待增强目标区域进行如下放大处理:
可选的,参见图3,步骤102可以包括:
步骤1021,增大待增强目标区域对应的面积,得到第一目标区域。待增强目标区域为圆形区域或者四边形区域;
当待增强目标区域为圆形区域时,将圆形区域的半径增加预设长度,得到新半径;
以新半径为半径确定的新圆形区域作为第一目标区域;
当待增强目标区域为四边形区域时,将四边形区域的相邻的两边均延长第二预设长度,得到新的相邻两边长;将新的相邻两边长确定的四边形区域作为第一目标区域。或者,当待增强目标区域为四边形区域时,还可以将四边形区域的四边沿四边形外侧方向平移预设长度,构成新的四边形区域,将新的四边形区域确定为第一目标区域。
预设长度根据任意两个目标对应的区域之间的最小距离确定,具体地,预设长度可以小于或等于任意两个目标对应的区域之间的最小距离。以保证在增大待增强目标区域对应的面积时,得到的第一目标区域不与图像中其他目标对应的区域重叠。
步骤1022,对第一目标区域对应的面积进行预设比例的放大,得到增强目标区域。
示例性的,第一目标区域对应的面积为4个像素点,可以将其等比例放大至16个像素点,以便于提高目标识别精度。
步骤102通过对步骤101中预测得到的待增强目标区域进行放大处理,可以使得到的增强目标区域分辨率更高,其中包含的目标信息更加清楚,能够有效提高目标识别的准确度。
步骤103,将增强目标区域添加至下一缩小图像中,得到重置图像。
可选的,步骤103可以包括:
步骤1031,获取下一缩小图像中的待融合区域。其中,待融合区域与增强目标区域的面积相同。
可选的,对标注数据集中的所有图像中的各区域出现的目标类别以及目标位置进行概率统计,得到目标出现概率值最小的区域。
将下一缩小图像中与目标出现概率值最小的区域相同位置处的区域确定为待融合区域。
对标注数据集中的所有图像中所有目标类别的出现位置进行概率统计的方法已在步骤1011中详细介绍,此处不再赘述。经概率统计后,最终得到各目标类别出现概率最小的区域位置。
可以理解的是,目标区域中的目标可能为行人时,需要将下一缩小图像中与行人出现概率最小的区域位置对应的区域确定为待融合区域;相应地,当目标区域中的目标可能为骑行人员时,需要将下一缩小图像中与骑行人员出现概率最小的区域位置对应的区域确定为待融合区域。
步骤1032,将增强目标区域中各像素点与待融合区域的各像素点进行融合,得到重置图像。
本实施例中提供两种融合方法,包括:
将增强目标区域中各像素点的红、绿、蓝分量值对应融合至待融合区域的各像素点中,得到重置图像。
或者,将增强目标区域中各像素点的灰度值对应融合至待融合区域的各像素点中,得到重置图像。
进一步地,根据
Figure 325469DEST_PATH_IMAGE004
将当前像素点的红、绿、蓝分量值对应 融合至待融合区域的各像素点中;
其中,
Figure 173339DEST_PATH_IMAGE005
表示重置图像中当前像素点的红色分量值,
Figure 957624DEST_PATH_IMAGE006
表示融合系数,
Figure 181932DEST_PATH_IMAGE006
的取值范 围为[0,1],
Figure 977850DEST_PATH_IMAGE007
表示增强目标区域中当前像素点的红色分量值,
Figure 996622DEST_PATH_IMAGE008
表示待融合区域中当前 像素点的红色分量值,
Figure 143569DEST_PATH_IMAGE009
表示重置图像中当前像素点的绿色分量值,
Figure 30623DEST_PATH_IMAGE010
表示增强目标区域 中当前像素点的绿色分量值,
Figure 946626DEST_PATH_IMAGE011
表示待融合区域中当前像素点的绿色分量值,
Figure 870720DEST_PATH_IMAGE012
表示重 置图像中当前像素点的蓝色分量值,
Figure 770543DEST_PATH_IMAGE013
表示增强目标区域中当前像素点的蓝色分量值,
Figure 71074DEST_PATH_IMAGE014
表示待融合区域中当前像素点的蓝色分量值。
或者,根据
Figure 231797DEST_PATH_IMAGE015
将增强目标区域中各像素点的灰度值对应融 合至待融合区域的各像素点中,得到重置图像。
其中,
Figure 326792DEST_PATH_IMAGE016
表示重置图像中当前像素点的灰度值,
Figure 448332DEST_PATH_IMAGE006
表示融合系数,
Figure 552554DEST_PATH_IMAGE006
的取值范围为 [0,1],
Figure 443150DEST_PATH_IMAGE017
表示增强目标区域中当前像素点的灰度值,
Figure 99259DEST_PATH_IMAGE018
表示待融合区域中当前像素点 的灰度值。
可以理解的是,当
Figure 442515DEST_PATH_IMAGE006
为0时,表示不对增强目标区域以及待融合区域进行融合处 理,当
Figure 350429DEST_PATH_IMAGE006
为1时,表示将增强目标区域完全融合至待融合区域,即,将增强目标区域替换待融 合区域,当
Figure 95531DEST_PATH_IMAGE019
时,表示将增强目标区域与待融合区域进行部分融合。
特别地,当
Figure 922541DEST_PATH_IMAGE019
,进行部分融合时,也就是将增强目标区域中的图像信息与待 融合区域中的图像信息进行凸组合,对于凸组合后的融合区域,可以利用数据增强算法(例 如,mixup算法)来对该融合区域进行目标识别,以保证在后续对重置图像进行目标识别时, 既能够识别到增强目标区域中的目标,也能识别到待融合区域中的目标,避免漏检。
mixup算法属于一种常见的数据增强算法,用于对两幅图像融合后得到的“不合理图像”进行图像识别。mixup算法主要是对成对样本(可以简单理解为增强目标区域样本和待融合区域样本)及其标签(可以简单理解为融合系数)的凸组合上训练神经网络,得到mixup规范神经网络,利用mixup规范神经网络对部分融合后的重置图像进行目标识别,既能够识别到增强目标区域中的目标,也能识别到待融合区域中的目标,避免漏检。
步骤104,对重置图像进行目标识别,得到目标类别和目标距离。
利用NPU单元对重置图像进行目标识别,得到目标识别结果。这里的目标识别结果包括:目标置信度、目标类别、目标区域面积、目标区域半径、目标区域长度、目标区域宽度以及目标区域长宽比等参数值。
在对重置图像进行目标识别时,该重置图像中与先前预测的待增强目标区域相同位置处的区域必然也会生成对应的目标识别结果。这个目标识别结果实际上就是没有进行放大融合处理之前的目标识别结果。
如果该目标识别结果与增强目标区域的目标识别结果不一致时,将增强目标区域的目标识别结果作为最终的目标识别结果。也就是对得到的目标识别结果进行过滤,以得到可靠性更高的最终的目标识别结果。
在目标识别的过程中,确认目标类别之后,需要将增强目标区域转换到与下一原始图像匹配的大小,并偏移至下一原始图像中其对应的原始区域,再来计算目标区域面积、目标区域半径、目标区域长度、目标区域宽度以及目标区域长宽比等参数值并进一步计算目标距离。
本发明实施例通过根据当前图像中的目标区域,预测下一图像中的待增强目标区域;对待增强目标区域进行放大处理,得到增强目标区域;将增强目标区域添加至下一缩小图像中,得到重置图像;对重置图像进行目标识别,得到目标类别和目标距离,可以有效降低目标识别难度,避免漏检、错检问题。其中,对待增强目标区域进行放大处理,可以将原来较小的目标区域调整为较大的目标区域,有效降低了目标识别难度,同时,通过将增强目标区域添加至下一缩小图像中得到重置图像,并对重置图像进行目标识别,并没有增加NPU单元的整体推理计算量,也不会延迟输出结果。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
以下为本发明的装置实施例,对于其中未详尽描述的细节,可以参考上述对应的方法实施例。
图5示出了本发明实施例提供的目标识别装置的结构示意图,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
如图5所示,目标识别装置5包括:预测模块51、增强模块52、融合模块53和识别模块54。
预测模块51,用于根据当前图像中的目标区域,预测下一图像中的待增强目标区域;
增强模块52,用于对待增强目标区域进行放大处理,得到增强目标区域;
融合模块53,用于将增强目标区域添加至下一缩小图像中,得到重置图像;
识别模块54,用于对重置图像进行目标识别,得到目标类别和目标距离。
在一种可能的实现方式中,预测模块51,用于根据当前缩小图像中的目标区域,预测下一缩小图像中的待增强目标区域。
增强模块52,用于根据预测得到的下一缩小图像中的待增强目标区域,从下一图像的原图中截取待增强目标区域对应的区域,并将该区域作为增强目标区域。
在一种可能的实现方式中,预测模块51,用于检测当前图像中所有目标对应的区域,并将满足预设条件的区域确定为目标区域;
或者,预测模块51,用于将用户自定义的区域确定为当前图像中的目标区域。
或者,预测模块51,用于对标注数据集中的所有图像中的各区域出现的目标类别以及目标位置进行概率统计,得到目标出现概率值最大的区域,将当前图像中与目标出现概率值最大的区域相同位置处的区域确定为目标区域。
在一种可能的实现方式中,预测模块51,用于当区域内目标的置信度小于第一阈值,和/或,区域面积小于第二阈值,和/或,区域的长度、宽度或半径小于第三阈值时,确定此区域为目标区域。
在一种可能的实现方式中,增强模块52,用于增大待增强目标区域对应的面积,得到第一目标区域。
增强模块52,还用于对第一目标区域对应的面积进行预设比例的放大,得到增强目标区域。
在一种可能的实现方式中,增强模块52,用于当待增强目标区域为圆形区域时,将圆形区域的半径增加第一预设长度,得到新半径。
增强模块52,还用于以新半径为半径确定的新圆形区域作为第一目标区域。
增强模块52,还用于当待增强目标区域为四边形区域时,将四边形区域的相邻的两边均延长第二预设长度,得到新的相邻两边长,将新的相邻两边长确定的四边形区域作为第一目标区域;或者,增强模块52,还用于当待增强目标区域为四边形区域时,将四边形区域的四边沿四边形区域外侧方向平移预设长度,构成新的四边形区域,将新的四边形区域确定为第一目标区域。其中,预设长度根据任意两个目标对应的区域之间的最小距离确定。
在一种可能的实现方式中,融合模块53,用于获取下一缩小图像中的待融合区域,待融合区域与增强目标区域的面积相同。
融合模块53,还用于将增强目标区域中各像素点与待融合区域的各像素点进行融合,得到重置图像。
在一种可能的实现方式中,融合模块53,用于将增强目标区域中各像素点的红、绿、蓝分量值对应融合至待融合区域的各像素点中,得到重置图像。
或者,融合模块53,用于将增强目标区域中各像素点的灰度值对应融合至待融合区域的各像素点中,得到重置图像。
在一种可能的实现方式中,融合模块53,用于对标注数据集中的所有图像中的各区域出现的目标类别以及目标位置进行概率统计,得到目标出现概率值最小的区域。
融合模块53,还用于将下一缩小图像中与目标出现概率值最小的区域相同位置处的区域确定为待融合区域。
本发明实施例通过预测模块51,用于根据当前图像中的目标区域,预测下一图像中的待增强目标区域;增强模块52,用于对待增强目标区域进行放大处理,得到增强目标区域;融合模块53,用于将增强目标区域添加至下一缩小图像中,得到重置图像;识别模块54,用于对重置图像进行目标识别,得到目标类别和目标距离,可以有效降低目标识别难度,避免漏检、错检问题。其中,增强模块52对待增强目标区域进行放大处理,可以将原来较小的目标区域调整为较大的目标区域,有效降低了目标识别难度,同时,融合模块53通过将增强目标区域添加到下一缩小图像中得到重置图像,并利用识别模块54对重置图像进行目标识别,并没有增加NPU单元的整体推理计算量,也不会延迟输出结果。
图6是本发明实施例提供的终端的示意图。如图6所示,该实施例的终端6包括:处理器60、存储器61以及存储在所述存储器61中并可在所述处理器60上运行的计算机程序62。所述处理器60执行所述计算机程序62时实现上述各个目标识别方法实施例中的步骤,例如图1所示的步骤101至步骤104。或者,所述处理器60执行所述计算机程序62时实现上述各装置实施例中各模块/单元的功能,例如图5所示模块51至54的功能。
示例性的,所述计算机程序62可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器61中,并由所述处理器60执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序62在所述终端6中的执行过程。例如,所述计算机程序62可以被分割成图5所示的模块51至54。
所述终端6可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端6可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图6仅仅是终端6的示例,并不构成对终端6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端还可以包括输入输出设备、网络接入设备、总线等。
所称处理器60可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器 (Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列 (Field-Programmable Gate Array,FPGA) 或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61可以是所述终端6的内部存储单元,例如终端6的硬盘或内存。所述存储器61也可以是所述终端6的外部存储设备,例如所述终端6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述终端6的内部存储单元也包括外部存储设备。所述存储器61用于存储所述计算机程序以及所述终端所需的其他程序和数据。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个目标识别方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (9)

1.一种目标识别方法,其特征在于,包括:
根据当前图像中的目标区域,预测下一图像中的待增强目标区域;所述下一图像包括:下一原始图像或者下一缩小图像;所述下一缩小图像包括:对所述下一原始图像进行裁剪、缩小处理后的图像;
对所述待增强目标区域进行放大处理,得到增强目标区域;
将所述增强目标区域添加至下一缩小图像中,得到重置图像,包括:获取所述下一缩小图像中的待融合区域,所述待融合区域与所述增强目标区域的面积相同;将所述增强目标区域中各像素点与所述待融合区域的各像素点进行融合,得到重置图像;所述待融合区域包括:所述下一缩小图像中与目标出现概率值最小的区域相同位置处的区域;
对所述重置图像进行目标识别,得到目标类别和目标距离。
2.根据权利要求1所述的目标识别方法,其特征在于,所述根据当前图像中的目标区域,预测下一图像中的待增强目标区域,包括:
根据当前缩小图像中的目标区域,预测下一缩小图像中的待增强目标区域;
所述对所述待增强目标区域进行放大处理,得到增强目标区域,包括:
根据预测得到的下一缩小图像中的待增强目标区域,从下一图像的原图中截取待增强目标区域对应的区域,并将该区域作为增强目标区域。
3.根据权利要求2所述的目标识别方法,其特征在于,在所述根据当前图像中的目标区域,预测下一图像中的待增强目标区域之前,还包括:
检测当前图像中所有目标对应的区域,并将满足预设条件的区域确定为所述目标区域;
或者,将用户自定义的区域确定为当前图像中的目标区域;
或者,对标注数据集中的所有图像中的各区域出现的目标类别以及目标位置进行概率统计,得到目标出现概率值最大的区域,将当前图像中与目标出现概率值最大的区域相同位置处的区域确定为所述目标区域。
4.根据权利要求3所述的目标识别方法,其特征在于,所述当前图像中所有目标对应的区域为圆形区域或者四边形区域;
所述将满足预设条件的区域确定为所述目标区域,包括:
当区域内目标的置信度小于第一阈值,和/或,区域面积小于第二阈值,和/或,区域的长度、宽度或半径小于第三阈值时,确定此区域为目标区域。
5.根据权利要求1所述的目标识别方法,其特征在于,所述对所述待增强目标区域进行放大处理,得到增强目标区域,包括:
增大所述待增强目标区域对应的面积,得到第一目标区域;
对所述第一目标区域对应的面积进行预设比例的放大,得到所述增强目标区域。
6.根据权利要求5所述的目标识别方法,其特征在于,所述待增强目标区域为圆形区域或者四边形区域;
所述增大所述待增强目标区域对应的面积,包括:
当所述待增强目标区域为圆形区域时,将所述圆形区域的半径增加预设长度,得到新半径;
以所述新半径为半径确定的新圆形区域作为第一目标区域;
当所述待增强目标区域为四边形区域时,将所述四边形区域的相邻的两边均延长所述预设长度,得到新的相邻两边长,将所述新的相邻两边长确定的四边形区域作为第一目标区域;或者,当所述待增强目标区域为四边形区域时,将所述四边形区域的四边沿所述四边形区域外侧方向平移所述预设长度,构成新的四边形区域,将所述新的四边形区域确定为第一目标区域;
所述预设长度根据任意两个目标对应的区域之间的最小距离确定。
7.根据权利要求1所述的目标识别方法,其特征在于,所述将所述增强目标区域中各像素点与所述待融合区域的各像素点进行融合,得到重置图像,包括:
将所述增强目标区域中各像素点的红、绿、蓝分量值对应融合至所述待融合区域的各像素点中,得到重置图像;
或者,将所述增强目标区域中各像素点的灰度值对应融合至所述待融合区域的各像素点中,得重置图像。
8.根据权利要求1所述的目标识别方法,其特征在于,所述获取所述下一缩小图像中的待融合区域包括:
对标注数据集中的所有图像中的各区域出现的目标类别以及目标位置进行概率统计,得到目标出现概率值最小的区域;
将下一缩小图像中与所述目标出现概率值最小的区域相同位置处的区域确定为待融合区域。
9.一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上的权利要求1至8中任一项所述方法的步骤。
CN202211503574.1A 2022-11-29 2022-11-29 目标识别方法及终端 Active CN115631477B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211503574.1A CN115631477B (zh) 2022-11-29 2022-11-29 目标识别方法及终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211503574.1A CN115631477B (zh) 2022-11-29 2022-11-29 目标识别方法及终端

Publications (2)

Publication Number Publication Date
CN115631477A CN115631477A (zh) 2023-01-20
CN115631477B true CN115631477B (zh) 2023-03-14

Family

ID=84910106

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211503574.1A Active CN115631477B (zh) 2022-11-29 2022-11-29 目标识别方法及终端

Country Status (1)

Country Link
CN (1) CN115631477B (zh)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102324021B (zh) * 2011-09-05 2013-03-13 电子科技大学 一种基于剪切波变换的红外弱小目标检测方法
CN103530629B (zh) * 2013-11-01 2016-08-31 四川九洲电器集团有限责任公司 红外小信号目标增程检测方法及系统
CN107291088A (zh) * 2016-10-20 2017-10-24 天津科技大学 一种水下机器人图像识别和目标跟踪系统
CN107194355B (zh) * 2017-05-24 2019-11-22 北京航空航天大学 一种利用方向导数构造熵对比度的红外弱小目标检测方法
CN112348765A (zh) * 2020-10-23 2021-02-09 深圳市优必选科技股份有限公司 数据增强方法、装置、计算机可读存储介质及终端设备
CN112541395A (zh) * 2020-11-13 2021-03-23 浙江大华技术股份有限公司 一种目标检测和跟踪方法、装置、存储介质及电子装置
CN114140427A (zh) * 2021-11-30 2022-03-04 深圳集智数字科技有限公司 一种物体检测方法及装置
CN114581351A (zh) * 2022-03-02 2022-06-03 合肥英睿系统技术有限公司 目标增强的图像显示方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN115631477A (zh) 2023-01-20

Similar Documents

Publication Publication Date Title
CN112528878B (zh) 检测车道线的方法、装置、终端设备及可读存储介质
US11455805B2 (en) Method and apparatus for detecting parking space usage condition, electronic device, and storage medium
US9082038B2 (en) Dram c adjustment of automatic license plate recognition processing based on vehicle class information
CN111160379A (zh) 图像检测模型的训练方法及装置、目标检测方法及装置
CN110781768A (zh) 目标对象检测方法和装置、电子设备和介质
US9460367B2 (en) Method and system for automating an image rejection process
CN112085952A (zh) 监控车辆数据方法、装置、计算机设备及存储介质
CN111079621B (zh) 检测对象的方法、装置、电子设备和存储介质
CN113191293B (zh) 广告检测方法、装置、电子设备、系统及可读存储介质
CN112115803B (zh) 口罩状态提醒方法、装置及移动终端
CN110991310A (zh) 人像检测方法、装置、电子设备及计算机可读介质
CN110298302B (zh) 一种人体目标检测方法及相关设备
CN115631477B (zh) 目标识别方法及终端
CN114724128B (zh) 一种车牌识别方法、装置、设备和介质
WO2023124385A1 (zh) 摄像装置遮挡检测方法、装置、电子设备、存储介质及计算机程序产品
EP4332910A1 (en) Behavior detection method, electronic device, and computer readable storage medium
Singh et al. ANPR Indian system using surveillance cameras
CN113642521B (zh) 红绿灯识别质量的评价方法、装置和电子设备
CN111950501B (zh) 障碍物检测方法、装置以及电子设备
CN112597924A (zh) 电动自行车轨迹追踪方法、摄像机装置和服务器
CN111985304A (zh) 巡防告警方法、系统、终端设备及存储介质
CN113468938A (zh) 交通图像识别方法、装置、图像处理设备及可读存储介质
CN116503695B (zh) 目标检测模型的训练方法、目标检测方法及设备
CN115578665B (zh) 一种基于车辆行驶数据的资源处理方法及系统
KR102509313B1 (ko) 차량번호판 인식 방법 및 차량번호판 인식 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant