CN111950325A - 一种目标识别方法、装置及电子设备 - Google Patents

一种目标识别方法、装置及电子设备 Download PDF

Info

Publication number
CN111950325A
CN111950325A CN201910403021.0A CN201910403021A CN111950325A CN 111950325 A CN111950325 A CN 111950325A CN 201910403021 A CN201910403021 A CN 201910403021A CN 111950325 A CN111950325 A CN 111950325A
Authority
CN
China
Prior art keywords
target
camera
image
images
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910403021.0A
Other languages
English (en)
Other versions
CN111950325B (zh
Inventor
曾杰
朱皓
童俊艳
任烨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN201910403021.0A priority Critical patent/CN111950325B/zh
Publication of CN111950325A publication Critical patent/CN111950325A/zh
Application granted granted Critical
Publication of CN111950325B publication Critical patent/CN111950325B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明实施例提供了一种目标识别方法、装置及电子设备。其中,方法包括:获取从不同方向拍摄待识别场景得到的多个输入图像;针对所述多个输入图像中的每个输入图像,进行目标检测,得到该输入图像中目标所处的图像区域;提取该输入图像中的所述图像区域的标识信息;融合从所述多个输入图像中提取到的所述标识信息,得到所述目标的融合信息;基于所述融合信息,确定所述目标的识别信息。可以融合从多个不同方向拍摄得到的输入图像中提取到的标识信息,得到的融合信息中包括有关于目标的更全面的特征,因此可以得到的识别信息更加准确。

Description

一种目标识别方法、装置及电子设备
技术领域
本发明涉及物体拍摄及识别技术领域,特别是涉及一种目标识别方法、装置及电子设备。
背景技术
在很多应用场景中,需要对场景中的目标进行识别,例如超市结算中,需要对购物者购买的商品进行识别。相关技术中,可以是在目标上预先人工设置用于表示目标的类别的标识(如条形码、二维码等),通过读码器读取该标识,以识别出该目标的类别。
但是,人工设置标识的过程可能存在疏漏,导致目标被设置错误的标识,进而造成目标识别错误。因此如何准确地对目标进行识别,成为亟待解决的技术问题。
发明内容
本发明实施例的目的在于提供一种目标识别方法、装置及电子设备,以实现提高得到的识别信息的准确性。具体技术方案如下:
在本发明实施例的第一方面,提供了一种目标识别方法,所述方法包括:
获取从不同方向拍摄待识别场景得到的多个输入图像;
针对所述多个输入图像中的每个输入图像,进行目标检测,得到该输入图像中目标所处的图像区域;
提取该输入图像中的所述图像区域的标识信息;
融合从所述多个输入图像中提取到的所述标识信息,得到所述目标的融合信息;
基于所述融合信息,确定所述目标的识别信息。
在一种实施例中,所述待识别场景包括透明置物台,所述透明置物台设置有目标;
所述获取从不同方向拍摄待识别场景得到的多个输入图像,包括:
获取多个设置于所述透明置物台不同方向的相机,拍摄所述目标得到的多个输入图像。
在一种实施例中,所述透明置物台的法向上设置有第一相机,所述透明置物台的法向的反方向上设置有第二相机,并且所述第一相机和所述第二相机在所述透明置物台上的视野大小一致,所述第一相机用于俯拍所述目标,所述第二相机用于仰拍所述目标;
所述获取多个设置于所述透明置物台不同方向的相机,拍摄所述目标得到的多个输入图像,包括:
获取所述第一相机和所述第二相机拍摄所述目标得到的两个图像,作为输入图像。
在一种实施例中,所述透明置物台的法向上设置有第一相机,所述透明置物台的法向的反方向上设置有第二相机,并且所述第一相机和所述第二相机在所述透明置物台上的视野大小不一致,所述第一相机用于俯拍所述目标,所述第二相机用于仰拍所述目标;
所述获取多个设置于所述透明置物台不同方向的相机,拍摄所述目标得到的多个输入图像,包括:
获取所述第一相机和所述第二相机拍摄所述目标得到的两个图像,作为待处理图像;
对两个所述待处理图像中的至少一个图像进行缩放处理,以使得处理后的两个所述待处理图像中所述透明置物台的成像效果相同;
将处理后的两个所述待处理图像作为两个输入图像。
在一种实施例中,所述标识信息为该图像中的所述图像区域的局部图像;
所述融合从所述多个输入图像中提取到的所述标识信息,得到所述目标的融合信息,包括:
融合从所述多个输入图像中提取到的所述局部图像,得到所述目标的融合图像,作为所述目标的融合信息;
所述基于所述融合信息,确定所述目标的识别信息,包括:
对所述融合图像进行目标识别,得到所述目标的识别信息。
在一种实施例中,所述提取该输入图像中的所述图像区域的标识信息,包括:
对该输入图像中的所述图像区域进行目标识别,得到该图像区域的识别信息,作为该图像区域的标识信息;
所述基于所述融合信息,确定所述目标的识别信息,包括:
将所述融合信息作为所述目标的识别信息。
在本发明实施例的第二方面,提供了一种目标识别装置,所述装置包括:
图像获取模块,用于获取从不同方向拍摄待识别场景得到的多个输入图像;
目标检测模块,用于针对所述多个输入图像中的每个输入图像,进行目标检测,得到该输入图像中目标所处的图像区域;
信息提取模块,用于提取该输入图像中的所述图像区域的标识信息;
信息融合模块,用于融合从所述多个输入图像中提取到的所述标识信息,得到所述目标的融合信息;
识别信息模块,用于基于所述融合信息,确定所述目标的识别信息。
在一种实施例中,所述待识别场景包括透明置物台,所述透明置物台设置有目标;
所述图像获取模块,具体用于获取多个设置于所述透明置物台不同方向的相机,拍摄所述目标得到的多个输入图像。
在一种实施例中,所述透明置物台的法向上设置有第一相机,所述透明置物台的法向的反方向上设置有第二相机,并且所述第一相机和所述第二相机在所述透明置物台上的视野大小一致,所述第一相机用于俯拍所述目标,所述第二相机用于仰拍所述目标;
所述图像获取模块,具体用于获取所述第一相机和所述第二相机拍摄所述目标得到的两个图像,作为输入图像。
在一种实施例中,所述透明置物台的法向上设置有第一相机,所述透明置物台的法向的反方向上设置有第二相机,并且所述第一相机和所述第二相机在所述透明置物台上的视野大小不一致,所述第一相机用于俯拍所述目标,所述第二相机用于仰拍所述目标;
所述图像获取模块,具体用于获取所述第一相机和所述第二相机拍摄所述目标得到的两个图像,作为待处理图像;
对两个所述待处理图像中的至少一个图像进行缩放处理,以使得处理后的两个所述待处理图像中所述透明置物台的成像效果相同;
将处理后的两个所述待处理图像作为两个输入图像。
在一种实施例中,所述标识信息为该图像中的所述图像区域的局部图像;
所述信息融合模块,具体用于融合从所述多个输入图像中提取到的所述局部图像,得到所述目标的融合图像,作为所述目标的融合信息;
所述识别信息模块,具体用于对所述融合图像进行目标识别,得到所述目标的识别信息。
在一种实施例中,所述信息提取模块,具体用于对该输入图像中的所述图像区域进行目标识别,得到该图像区域的识别信息,作为该图像区域的标识信息;
所述识别信息模块,具体用于将所述融合信息作为所述目标的识别信息。
在第三方面,本发明实施例提供了一种电子设备,包括:
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第一方面任一所述的目标识别方法。
在第四方面,本发明实施例提供了一种计算机刻度存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面任一所述的目标识别方法。
本发明实施例提供的目标识别方法、装置及电子设备,可以融合从多个不同方向拍摄得到的输入图像中提取到的标识信息,得到的融合信息中包括有关于目标的更全面的特征,因此可以更得到的识别信息更加准确。当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的目标识别方法的一种流程示意图;
图2为本发明实施例提供的双向拍摄系统的一种结构示意图;
图3为本发明实施例提供的目标识别方法的另一种流程示意图;
图4为本发明实施例提供的目标识别方法的另一种流程示意图;
图5为本发明实施例提供的目标识别装置的一种结构示意图;
图6为本发明实施例提供的电子设备的一种结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一些目标的特征可能并非均匀的分布在目标的表面,因此从该目标的一个方向拍摄该目标得到的图像中,可能只包含少量的该目标的特征,导致仅根据该方向拍摄得到的图像,难以准确的进行目标识别。示例性的,一些商品的品牌标记可能打印在商品的正面,而商品的背面为空白面,因此根据该商品背面的图像,难以识别出该商品。
参见图1,图1所示为本发明实施例提供的目标识别方法的一种流程示意图,可以包括:
S101,获取从不同方向拍摄待识别场景得到的多个输入图像。
其中,待识别场景中应当包括有至少一个目标(对于不存在目标的待识别场景并不存在本发明实施例所需要解决的技术问题,在此不做过度讨论)。由于只包括一个目标可以视为包括多个目标的特例,因此下文将以待识别场景中包括多个目标为例进行说明。
S102,针对多个输入图像中的每个输入图像,进行目标检测,得到该输入图像中目标所处的图像区域。
该步骤可以是通过非神经网络的机器学习算法实现的,也可以是利用预先经过训练的神经网络实现的本实施例对此不做限制。在不考虑目标之间相互遮挡,以及目标检测方法自身的不准确性的情况下,理论上得到的图像区域的数目与待识别场景中所包括的目标的数量相等。
通过对输入图像进行目标检测,可以确定该输入图像中所包含的目标的个数,以及每个目标所处的图像区域。一个目标所处的图像区域,可以是用该图像区域边界上的来表示的,示例性的,{A,B,C,D}可以表示以像素点A、B、C、D为四个顶点的矩形所包围的图像区域。
S103,提取该输入图像中的图像区域的标识信息。
一个图像区域的标识信息,可以视为处于该图像区域的目标的标识信息。标识信息可以表示目标的一种或多种性质,根据应用场景的不同,标识信息的表示形式可以不同。在一种可能的实施例中,可以是用该图像区域的局部图像作为标识信息。在另一种可能的实施例中,也可以是用该图像区域的目标的识别信息作为标识信息。
S104,融合从多个输入图像中提取到的标识信息,得到目标的融合信息。
在融合标识信息的过程中,将同一目标的标识信息融合,得到该目标的融合信息,不同目标的标识信息不相互融合。对于待识别场景中包含多个目标的情况,可以通过匹配的方式确定从不同图像中提取到的标识信息是否属于同一个目标。可以理解的是,一个目标现实空间中所处的位置是固定的,虽然不同方向拍摄待识别场景得到的多个输入图像中,同一个目标对应的图像区域的位置不同,但是在一种可选的实施例中可以根据这些图像的图像坐标系之间的转换关系,建立这些图像区域的对应关系,从不同输入图像中相对应的图像区域提取到的标识信息可以视为同一个目标的标识信息。
示例性的,以两个输入图像的应用场景为例,为描述方便,将两个输入图像分别记为输入图像A和输入图像B,假设输入图像A和输入图像B的图像坐标系之间的转换关系如下所示:
(XA,YA)=(-XB,YB)
其中,XA,YA分别为输入图像A中的一个像素点的横坐标和纵坐标,XB,YB为输入图像B中的一个像素点的横坐标和纵坐标,该等式表示如果这两个像素点满足该等式,则可以认为这两个像素点表示现实空间中的同一个点。例如,输入图像A中的像素点(1,1),与输入图像B中的像素点(-1,1)表示现实空间中的同一个点。
假设输入图像A中存在目标1,目标1所处的图像区域为{(0,0)、(0,10)、(10,10)、(10,0)},根据上述转换关系可知,输入图像B中的图像区域{(0,0)、(0,10)、(-10,10)、(-10,0)}与目标1所处的图像区域表示现实空间中的相同区域,因此如果输入图像B中,存在与图像区域{(0,0)、(0,10)、(-10,10)、(-10,0)}对应的目标2,则可以认为目标2与目标1匹配的,即目标2与目标1是同一目标。其中,目标2与图像区域{(0,0)、(0,10)、(-10,10)、(-10,0)}对应,可以是指在输入图像B中,目标2所处的图像区域与图像区域{(0,0)、(0,10)、(-10,10)、(-10,0)}的重合度高于预设阈值。
在其他可选的实施例中,也可以是通过其他方式匹配的,本实施例对此不做限制。
S105,基于融合信息,确定目标的识别信息。
其中,目标的识别信息可以用于表示目标所属的目标类别。根据融合信息的不同,确定目标的识别信息方式也可以不同,将在后续的实施例中详细描述,在此不再赘述。
选用该实施例,可以融合从多个不同方向拍摄得到的输入图像中提取到的标识信息,得到的融合信息中包括有关于目标的更全面的特征,因此可以得到的识别信息更加准确。
多个不同方向可以是指两个或两个以上的方向,为讨论方便,下面将以两个不同方向为例进行说明,由于原理是相同的,因此对于两个以上的方向的情况不再赘述。参见图2,图2所示为本发明实施例提供的双向拍摄装置的一种结构示意图,可以包括:
第一相机111、第二相机112、透明置物台120以及支架130,其中支架130用于固定第一相机111以及第二相机112之间的相对位置。在一种可选的实施例中支架130是可调伸缩的,在一种可选的实施例中,支架130也可以是不可伸缩的。
第一相机111设置于透明置物台的法向上,第二相机112设置于透明置物台的法向的反方向上。在一种可选的实施例中,第一相机111与第二相机112的光轴重合,即第一相机111的光学中心、焦点,以及第二相机112的光学中心、焦点位于一条直线上。并且第一相机111和第二相机112在透明置物台120处的视野大小一致。可以是控制第一相机111和第二相机112与透明置物台的距离保持一致,并将第一相机111和第二相机112的成像参数设置成相同,以使得第一相机111和第二相机112在透明置物台120处的视野大小一致。
在一些应用场景中,出于布局方便的考虑,也可以是使得第一相机111与透明置物台120之间的距离,和第二相机112与透明置物台120的距离不一致,并相应调整第一相机111和/或第二相机112的成像参数,以使得第一相机111和第二相机112在透明置物台120处的视野大小一致。可以理解的是,如果第一相机111与第二相机112在透明置物台120处的视野大小一样,并且第一相机111与第二相机112的光轴重合,则更容易实现两个图像之间目标的匹配。第一相机111用于俯拍放置于透明置物台上的目标,第二相机112用于仰拍放置于透明置物台上的目标。
在另一些应用场景中,第一相机111与第二相机112在透明置物台120处的视野大小也可以不一致。在这些应用场景中,可以对第一相机111和/或第二相机112拍摄到的图像进行缩放处理,以使得处理后的两个图像中透明置物板120的成像效果相同,并将处理后的图像作为输入图像。示例性的,假设第一相机111拍摄到的图像中,透明置物板120所处的图像区域的分辨率为1920*1080,第二相机112拍摄到的图像中,透明置物板120所处的图像区域的分辨率为1280*720,则可以是对第二相机112拍摄到的图像进行上采样,使得经过上采样后的图像中透明置物板120所处的图像区域的分辨率为1920*1080,也可以是对第一相机111拍摄到的图像进行下采样,使得经过下采样后的图像中透明置物板120所处的图像区域的分辨率为1280*720,还可以是对第一相机111拍摄到的图像进行下采样,并对第二相机112拍摄到的图像进行上采样,以使得经过下采样后的图像和经过上采样的图像中透明置物板120所处的图像区域的分辨率一致。
在一种可选的实施例中,为了使得第一相机111和第二相机112能够尽可能拍摄到放置于透明置物台上的所有目标,可以使得第一相机111和第二112的光轴与透明置物台120台面的几何中心引出的法线
在其他可选的实施例中,双向拍摄系统中也可以不包括支架130,例如可以将第一相机111固定于透明置物台法向上的天花板上,将第二相机112固定于透明置物台法向反方向上的地板上。还可以是第一相机111和第二相机112中的一个相机固定于支架130上,另一个相机固定于天花板或者地板上。透明置物板130的材质根据实际需求可以选用玻璃、透明塑料板,也可以是选用其他透光材料,本实施例对此不做限制。
选用该实施例,可以利用两个相机从对立的两个方向分别拍摄目标,以在节省设备成本的前提下,尽可能拍摄到目标的特征,降低因死角、遮挡等原因导致没有拍摄到目标的特征的可能性。可以理解的是,图2仅是本发明实施例提供的双向拍摄系统的一种可能的结构示意图,在其他可选的实施例中,第一相机与第二相机也可以不是上下对立,而是左右对立,还可以是前后对立,本实施例对此不做限制。
以图2所示的双向拍摄系统为例,下面将结合具体的应用场景对本发明实施例提供的目标识别方法进行说明。可以参见图3,包括:
S301,获取第一相机和第二相机拍摄目标得到的两个输入图像。
可以理解的是,由于置物板是透明的,因此第一相机拍摄得到的为目标的俯视图,第二相机拍摄得到的为目标的仰视图,相比于从一个侧面拍摄得到的图像,这两个图像中包括更多的标识信息。
S302,分别对这两个图像进行目标检测,得到该输入图像中目标所处的图像区域。
该步骤与S102相同,可以参见前述关于S102的描述,在此不再赘述。
S303,针对每个目标,分别从两个输入图像中提取该目标所处图像区域的局部图像。
关于如何确定分别两个输入图像中的两个图像区域属于同一个目标,可以参见S104中关于匹配的相关描述,在此不再赘述。
S304,针对每个目标,融合分别从这两个图像中提取到的该目标所处图像区域的局部图像,得到该目标的融合图像。
S305,针对每个目标,对融合图像进行目标识别。
目标识别可以是利用非神经网络的机器学习算法实现的,也可以是利用预先经过训练的神经网络实现的,本实施例对此不做限制。
参见图4,图4为在图2所示的实施例中,本发明实施例提供的目标识别方法的另一种流程示意图,可以包括:
S401,获取第一相机和第二相机拍摄目标得到的两个输入图像。
该步骤与S301相同,可以参见S301的相关描述,在此不再赘述。
S402,分别对这两个图像进行目标检测,得到该输入图像中目标所处的图像区域。
该步骤与S102相同,可以参见S102的相关描述,在此不再赘述。
S403,分别对两个图像中目标所处的图像区域进行目标识别,得到该图像区域的识别信息,作为该图像区域的标识信息。
在一种可能的实施例中,图像区域的识别信息可以用于表示该图像区域所属目标的类别,以及相应的置信度。例如,一个图像区域的识别信息可以是{泡面,0.98},表示该图像区域所属目标的类别为泡面,并且置信度为98%。
S404,针对每个目标,融合从这两个图像中该目标所处图像区域的标识信息,得到该目标的融合信息。
S405,针对每个目标,将该目标的融合信息作为该目标的识别信息。
参见图5,图5所示为本发明实施例提供的目标识别装置的一种结构示意图,可以包括:
图像获取模块501,用于获取从不同方向拍摄待识别场景得到的多个输入图像;
目标检测模块502,用于针对多个输入图像中的每个输入图像,进行目标检测,得到该输入图像中目标所处的图像区域;
信息提取模块503,用于提取该输入图像中的图像区域的标识信息;
信息融合模块504,用于融合从多个输入图像中提取到的标识信息,得到目标的融合信息;
识别信息模块505,用于基于融合信息,确定目标的识别信息。
在一种可选的实施例中,待识别场景包括透明置物台,透明置物台设置有目标;
图像获取模块501,具体用于获取多个设置于透明置物台不同方向的相机,拍摄目标得到的多个输入图像。
在一种可选的实施例中,透明置物台的法向上设置有第一相机,透明置物台的法向的反方向上设置有第二相机,并且第一相机和第二相机在透明置物台上的视野大小一致,第一相机用于俯拍目标,第二相机用于仰拍目标;
图像获取模块501,具体用于获取第一相机和第二相机拍摄目标得到的两个图像,作为输入图像。
所述透明置物台的法向上设置有第一相机,所述透明置物台的法向的反方向上设置有第二相机,并且所述第一相机和所述第二相机在所述透明置物台上的视野大小不一致,所述第一相机用于俯拍所述目标,所述第二相机用于仰拍所述目标;
所述图像获取模块,具体用于获取所述第一相机和所述第二相机拍摄所述目标得到的两个图像,作为待处理图像;
对两个所述待处理图像中的至少一个图像进行缩放处理,以使得处理后的两个所述待处理图像中所述透明置物台的成像效果相同;
将处理后的两个所述待处理图像作为两个输入图像。
在一种可选的实施例中,标识信息为该图像中的图像区域的局部图像;
信息融合模块504,具体用于融合从多个输入图像中提取到的局部图像,得到目标的融合图像;
识别信息模块505,具体用于对融合图像进行目标识别,得到目标的识别信息。
在一种可选的实施例中,信息提取模块503,具体用于对该输入图像中的图像区域进行目标识别,得到该图像区域的识别信息,作为该图像区域的标识信息;
识别信息模块505,具体用于将融合信息作为目标的识别信息。
本发明实施例还提供了一种电子设备,如图6所示,包括:
存储器601,用于存放计算机程序;
处理器602,用于执行存储器601上所存放的程序时,实现如下步骤:
获取从不同方向拍摄待识别场景得到的多个输入图像;
针对多个输入图像中的每个输入图像,进行目标检测,得到该输入图像中目标所处的图像区域;
提取该输入图像中的图像区域的标识信息;
融合从多个输入图像中提取到的标识信息,得到目标的融合信息;
基于融合信息,确定目标的识别信息。
在一种可选的实施例中,待识别场景包括透明置物台,透明置物台设置有目标;
获取从不同方向拍摄待识别场景得到的多个输入图像,包括:
获取多个设置于透明置物台不同方向的相机,拍摄目标得到的多个输入图像。
在一种可选的实施例中,透明置物台的法向上设置有第一相机,透明置物台的法向的反方向上设置有第二相机,并且第一相机和第二相机在透明置物台上的视野大小一致,第一相机用于俯拍目标,第二相机用于仰拍目标;
获取多个设置于透明置物台不同方向的相机,拍摄目标得到的多个输入图像,包括:
获取第一相机和第二相机拍摄目标得到的两个图像,作为输入图像。
在一种可能的实施例中,所述透明置物台的法向上设置有第一相机,所述透明置物台的法向的反方向上设置有第二相机,并且所述第一相机和所述第二相机在所述透明置物台上的视野大小不一致,所述第一相机用于俯拍所述目标,所述第二相机用于仰拍所述目标;
所述获取多个设置于所述透明置物台不同方向的相机,拍摄所述目标得到的多个输入图像,包括:
获取所述第一相机和所述第二相机拍摄所述目标得到的两个图像,作为待处理图像;
对两个所述待处理图像中的至少一个图像进行缩放处理,以使得处理后的两个所述待处理图像中所述透明置物台的成像效果相同;
将处理后的两个所述待处理图像作为两个输入图像。
在一种可选的实施例中,标识信息为该图像中的图像区域的局部图像;
融合从多个输入图像中提取到的标识信息,得到目标的融合信息,包括:
融合从多个输入图像中提取到的局部图像,得到目标的融合图像;
基于融合信息,确定目标的识别信息,包括:
对融合图像进行目标识别,得到目标的识别信息。
在一种可选的实施例中,提取该输入图像中的图像区域的标识信息,包括:
对该输入图像中的图像区域进行目标识别,得到该图像区域的识别信息,作为该图像区域的标识信息;
基于融合信息,确定目标的识别信息,包括:
将融合信息作为目标的识别信息。
上述电子设备提到的存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一目标识别方法。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一目标识别方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备、计算机可读存储介质以及计算机程序产品的实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (12)

1.一种目标识别方法,其特征在于,所述方法包括:
获取从不同方向拍摄待识别场景得到的多个输入图像;
针对所述多个输入图像中的每个输入图像,进行目标检测,得到该输入图像中目标所处的图像区域;
提取该输入图像中的所述图像区域的标识信息;
融合从所述多个输入图像中提取到的所述标识信息,得到所述目标的融合信息;
基于所述融合信息,确定所述目标的识别信息。
2.根据权利要求1所述的方法,其特征在于,所述待识别场景包括透明置物台,所述透明置物台设置有目标;
所述获取从不同方向拍摄待识别场景得到的多个输入图像,包括:
获取多个设置于所述透明置物台不同方向的相机,拍摄所述目标得到的多个输入图像。
3.根据权利要求2所述的方法,其特征在于,所述透明置物台的法向上设置有第一相机,所述透明置物台的法向的反方向上设置有第二相机,并且所述第一相机和所述第二相机在所述透明置物台上的视野大小一致,所述第一相机用于俯拍所述目标,所述第二相机用于仰拍所述目标;
所述获取多个设置于所述透明置物台不同方向的相机,拍摄所述目标得到的多个输入图像,包括:
获取所述第一相机和所述第二相机拍摄所述目标得到的两个图像,作为输入图像。
4.根据权利要求2所述的方法,其特征在于,所述透明置物台的法向上设置有第一相机,所述透明置物台的法向的反方向上设置有第二相机,并且所述第一相机和所述第二相机在所述透明置物台上的视野大小不一致,所述第一相机用于俯拍所述目标,所述第二相机用于仰拍所述目标;
所述获取多个设置于所述透明置物台不同方向的相机,拍摄所述目标得到的多个输入图像,包括:
获取所述第一相机和所述第二相机拍摄所述目标得到的两个图像,作为待处理图像;
对两个所述待处理图像中的至少一个图像进行缩放处理,以使得处理后的两个所述待处理图像中所述透明置物台的成像效果相同;
将处理后的两个所述待处理图像作为两个输入图像。
5.根据权利要求1所述的方法,其特征在于,所述标识信息为该图像中的所述图像区域的局部图像;
所述融合从所述多个输入图像中提取到的所述标识信息,得到所述目标的融合信息,包括:
融合从所述多个输入图像中提取到的所述局部图像,得到所述目标的融合图像,作为所述目标的融合信息;
所述基于所述融合信息,确定所述目标的识别信息,包括:
对所述融合图像进行目标识别,得到所述目标的识别信息。
6.根据权利要求1所述的方法,其特征在于,所述提取该输入图像中的所述图像区域的标识信息,包括:
对该输入图像中的所述图像区域进行目标识别,得到该图像区域的识别信息,作为该图像区域的标识信息;
所述基于所述融合信息,确定所述目标的识别信息,包括:
将所述融合信息作为所述目标的识别信息。
7.一种目标识别装置,其特征在于,所述装置包括:
图像获取模块,用于获取从不同方向拍摄待识别场景得到的多个输入图像;
目标检测模块,用于针对所述多个输入图像中的每个输入图像,进行目标检测,得到该输入图像中目标所处的图像区域;
信息提取模块,用于提取该输入图像中的所述图像区域的标识信息;
信息融合模块,用于融合从所述多个输入图像中提取到的所述标识信息,得到所述目标的融合信息;
识别信息模块,用于基于所述融合信息,确定所述目标的识别信息。
8.根据权利要求7所述的装置,其特征在于,所述待识别场景包括透明置物台,所述透明置物台设置有目标;
所述图像获取模块,具体用于获取多个设置于所述透明置物台不同方向的相机,拍摄所述目标得到的多个输入图像。
9.根据权利要求8所述的装置,其特征在于,所述透明置物台的法向上设置有第一相机,所述透明置物台的法向的反方向上设置有第二相机,并且所述第一相机和所述第二相机在所述透明置物台上的视野大小一致,所述第一相机用于俯拍所述目标,所述第二相机用于仰拍所述目标;
所述图像获取模块,具体用于获取所述第一相机和所述第二相机拍摄所述目标得到的两个图像,作为输入图像。
10.根据权利要求8所述的装置,其特征在于,所述透明置物台的法向上设置有第一相机,所述透明置物台的法向的反方向上设置有第二相机,并且所述第一相机和所述第二相机在所述透明置物台上的视野大小不一致,所述第一相机用于俯拍所述目标,所述第二相机用于仰拍所述目标;
所述图像获取模块,具体用于获取所述第一相机和所述第二相机拍摄所述目标得到的两个图像,作为待处理图像;
对两个所述待处理图像中的至少一个图像进行缩放处理,以使得处理后的两个所述待处理图像中所述透明置物台的成像效果相同;
将处理后的两个所述待处理图像作为两个输入图像。
11.一种电子设备,其特征在于,包括:
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-6任一所述的方法步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-6任一所述的方法步骤。
CN201910403021.0A 2019-05-15 2019-05-15 一种目标识别方法、装置及电子设备 Active CN111950325B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910403021.0A CN111950325B (zh) 2019-05-15 2019-05-15 一种目标识别方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910403021.0A CN111950325B (zh) 2019-05-15 2019-05-15 一种目标识别方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN111950325A true CN111950325A (zh) 2020-11-17
CN111950325B CN111950325B (zh) 2024-03-08

Family

ID=73336919

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910403021.0A Active CN111950325B (zh) 2019-05-15 2019-05-15 一种目标识别方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN111950325B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103914821A (zh) * 2012-12-31 2014-07-09 株式会社理光 多角度图像对象融合方法及系统
CN105956518A (zh) * 2016-04-21 2016-09-21 腾讯科技(深圳)有限公司 一种人脸识别方法、装置和系统
KR20160141152A (ko) * 2015-05-28 2016-12-08 (주)에프엠커뮤니케이션즈 다중 객체 추적 시스템 및 그 방법
CN109543633A (zh) * 2018-11-29 2019-03-29 上海钛米机器人科技有限公司 一种人脸识别方法、装置、机器人和存储介质
CN109684950A (zh) * 2018-12-12 2019-04-26 联想(北京)有限公司 一种处理方法及电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103914821A (zh) * 2012-12-31 2014-07-09 株式会社理光 多角度图像对象融合方法及系统
KR20160141152A (ko) * 2015-05-28 2016-12-08 (주)에프엠커뮤니케이션즈 다중 객체 추적 시스템 및 그 방법
CN105956518A (zh) * 2016-04-21 2016-09-21 腾讯科技(深圳)有限公司 一种人脸识别方法、装置和系统
WO2017181769A1 (zh) * 2016-04-21 2017-10-26 腾讯科技(深圳)有限公司 一种人脸识别方法、装置和系统、设备、存储介质
CN109543633A (zh) * 2018-11-29 2019-03-29 上海钛米机器人科技有限公司 一种人脸识别方法、装置、机器人和存储介质
CN109684950A (zh) * 2018-12-12 2019-04-26 联想(北京)有限公司 一种处理方法及电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SEONG KYUNG KWON,ET AL: "A low-complexity scheme for partially occluded pedestrian detection using lidar-radar sensor fusion", 2016 RTCSA, 3 October 2016 (2016-10-03) *
孙金亮: "多视角视频拼接关键技术研究", 信息科技, no. 3, 15 March 2018 (2018-03-15) *

Also Published As

Publication number Publication date
CN111950325B (zh) 2024-03-08

Similar Documents

Publication Publication Date Title
Rashidi et al. Generating absolute-scale point cloud data of built infrastructure scenes using a monocular camera setting
WO2017124074A1 (en) Methods for automatically generating a common measurement across multiple assembly units
CN107273888A (zh) 码识别装置及码识别方法
CN113240678B (zh) 平面信息检测方法及系统
Assadzadeh et al. Automatic far‐field camera calibration for construction scene analysis
CN110807431A (zh) 对象定位方法、装置、电子设备及存储介质
CN112634368A (zh) 场景目标的空间与或图模型生成方法、装置及电子设备
CN111429194B (zh) 用户轨迹确定系统、方法、装置及服务器
CN111428743B (zh) 商品识别方法、商品处理方法、装置及电子设备
Zhao et al. Metric calibration of unfocused plenoptic cameras for three-dimensional shape measurement
WO2022227462A1 (zh) 定位方法、装置、电子设备及存储介质
CN109816628B (zh) 人脸评价方法及相关产品
CN113673288B (zh) 空闲车位检测方法、装置、计算机设备及存储介质
WO2024012463A1 (zh) 一种定位方法及装置
CN109829401A (zh) 基于双拍摄设备的交通标志识别方法及装置
CN108427110A (zh) 测距方法、装置及电子设备
US9135715B1 (en) Local feature cameras for structure from motion (SFM) problems with generalized cameras
RU2679200C1 (ru) Способ и система отображения данных с видеокамеры
CN111950325B (zh) 一种目标识别方法、装置及电子设备
CN111354038A (zh) 锚定物检测方法及装置、电子设备及存储介质
CN112489240B (zh) 一种商品陈列巡检方法、巡检机器人以及存储介质
CN112132895B (zh) 基于图像的位置确定方法、电子设备及存储介质
CN113038070B (zh) 一种设备调焦方法、装置和云平台
Zhu et al. An automatic laser sheet calibration method for laser scan range measurement system
Hou et al. Image registration for defects detection of high-speed train bogies

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant