WO2020042968A1 - 一种对象信息的获取方法、装置以及存储介质 - Google Patents
一种对象信息的获取方法、装置以及存储介质 Download PDFInfo
- Publication number
- WO2020042968A1 WO2020042968A1 PCT/CN2019/101583 CN2019101583W WO2020042968A1 WO 2020042968 A1 WO2020042968 A1 WO 2020042968A1 CN 2019101583 W CN2019101583 W CN 2019101583W WO 2020042968 A1 WO2020042968 A1 WO 2020042968A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- tracked
- reference image
- points
- position point
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/243—Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/247—Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
Abstract
本申请实施例公开了一种对象信息的获取方法、装置以及存储介质;本申请实施例在获取包含多个对象的待追踪图像,以及至少一张包含多个对象的参考图像后;从待追踪图像中提取待追踪图像块,并从参考图像中提取参考图像块;然后,基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建待追踪图像块和参考图像块之间的位置点转换关系;接着,基于位置点转换关系,获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象。
Description
本申请要求于2018年08月29日提交的申请号为201810992443.1、发明名称为“一种车辆信息的获取方法、装置以及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
本申请涉及图像处理技术领域,具体涉及一种对象信息的获取方法、装置以及存储介质。
近年来,随着经济技术的发展,车辆的数量也发生了大幅增长,与此同时,与车辆相关的各类违规违法案件也逐年增多,基于车辆的实名登记特性,准确地对车辆进行监控,对于侦察案件,保障社会治安有着积极的意义。
目前,一般采用枪球联动系统对车辆进行监控,该系统由一个枪机和多个球机组成。比如,单个球机负责监控某个区域的车辆,枪机摄像头负责将所有球机拍摄的画面进行拼接,从而实现对车辆进行监控。
发明内容
本申请实施例提供一种对象信息的获取方法、装置以及存储介质。
本申请实施例提供了一种对象追踪方法,由计算设备执行,包括:
获取包含至少一个对象的待追踪图像,以及至少一张包含多个对象的参考图像;
从所述待追踪图像中提取待追踪图像块,并从所述参考图像中提取参考图像块;其中所述待追踪图像块包括用于标记待追踪图像中的对象位置信息的多个追踪位置点,所述参考图像块包括用于标记参考图像中的对象位置信息的多个参考位置点;
基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建所述待追踪图像块和参考图像块之间的位置点转换关系;
基于所述位置点转换关系,获取待追踪图像中的追踪位置点在所述参考图 像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象。
相应地,本申请实施例还提供了一种对象信息的获取装置,包括:
图像获取单元,用于获取包含至少一个对象的待追踪图像,以及至少一张包含多个对象的参考图像;
提取单元,用于从所述待追踪图像中提取待追踪图像块,并从所述参考图像中提取参考图像块,其中,所述待追踪图像块包括用于标记待追踪图像中的对象位置信息的多个追踪位置点,所述参考图像块包括用于标记参考图像中的对象位置信息的多个参考位置点;
位置点转换公式构建单元,用于基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建所述待追踪图像块和参考图像块之间的位置点转换关系;
位置获取单元,用于基于所述位置点转换关系,获取待追踪图像中的追踪位置点在所述参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象。
本申请实施例还提供了一种存储介质,所述存储介质存储有多条指令,所述指令适于处理器进行加载,以执行前述的对象信息的获取方法中的步骤。
另外,本申请实施例提供了一种计算设备,包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行所述的对象信息的获取方法中的步骤。
附图简要说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a是本申请实施例提供的对象信息的获取方法的场景示意图;
图1b为本申请实施例提供的对象信息的获取方法的流程示意图;
图2a是本申请实施例提供的对象信息的获取方法的应用示意图;
图2b是本申请实施例提供的对象信息的获取方法的另一流程示意图;
图2c是本申请实施例提供的对象信息的获取方法中获取的待追踪图像的示例图一;
图2d是本申请实施例提供的对象信息的获取方法中获取的参考图像的示例图一;
图2e是本申请实施例提供的对象信息的获取方法中获取的待追踪图像的示例图二;
图2f是本申请实施例提供的对象信息的获取方法中获取的参考图像的示例图二;
图2g是本申请实施例提供的待追踪图像的示意图;
图2h是本申请实施例提供的与图2g的待追踪图像对应的参考图像的示意图;
图2i是本申请实施例提供的从待追踪图像到参考图像的变换示意图;
图2j是本申请实施例提供的追踪位置点与参考位置点的示意图;
图2k是本申请实施例提供的对象信息的获取方法的另一应用示意图;
图3a是本申请实施例提供的对象信息的获取装置的结构示意图一;
图3b是本申请实施例提供的对象信息的获取装置的结构示意图二
图3c是本申请实施例提供的对象信息的获取装置的结构示意图三;
图4是本申请实施例提供的终端的结构示意图。
实施本发明的方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种对象信息的获取方法、装置以及存储介质。
其中,该对象信息的获取装置具体可以集成在网络设备,比如终端或服务器等计算设备中。
例如,请参阅图1a,当用户需要获取对象信息时,可以将包含至少一个对象的图像(即待追踪图像)提供给网络设备。与此同时,网络设备可以获取至少一张包含多个对象的参考图像。然后,从待追踪图像中提取待追踪图像块,并从参考图像中提取参考图像块。接着,基于多个追踪位置点之间的位置关系 以及多个参考位置点之间的位置关系,构建待追踪图像块和参考图像块之间的位置点转换关系。再然后,基于位置点转换关系,获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象。其中的对象可以是车辆或其他交通工具。
以下分别进行详细说明。需说明的是,以下实施例的顺序不作为对实施例优选顺序的限定。
一种对象信息的获取方法,包括:获取包含至少一个对象的待追踪图像,以及至少一张包含多个对象的参考图像,从待追踪图像中提取待追踪图像块,并从参考图像中提取参考图像块,基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建待追踪图像块和参考图像块之间的位置点转换关系,基于位置点转换关系,获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象。
请参阅图1b,图1b为本申请实施例提供的对象信息的获取方法的流程示意图。该对象信息的获取方法的具体流程可以如下:
步骤101、获取包含至少一个对象的待追踪图像,以及至少一张包含多个对象的参考图像。其中,所述对象为车辆。
在本申请实施例中,待追踪图像指的是包含至少一个车辆,通常是多辆车辆的图像,在待追踪图像中,可以包括多辆车辆的整体图像,也可以包括多辆车辆的局部图像,还可以包括一部分车辆的整体图像以及另一部分车辆的局部图像。具体根据实际情况而定。而参考图像指的是,在同一时间内,与待追踪图像具有相同的观察区域、不同观察角度的图像。比如,待追踪图像是由距离地面五百米的摄像机从一个角度拍摄一个路口得到的,而参考图像则是由距离地面一千米的摄像机从另一个角度拍摄该路口得到的,并且该待追踪图像与参考图像是在同一时间拍摄的。
其中,获取包含至少一个车辆的待追踪图像,以及至少一张包含多辆车辆的参考图像的方式可以有多种。例如,具体可以是通过计算设备,接收用户触发的车辆信息获取请求。例如,用户向所述计算设备输入一个车辆的标识,所述车辆信息获取请求中包括所述车辆的标识。所述车辆的标识例如为车牌号或者黏贴在车窗玻璃上的年检标志等。然后,计算设备再根据该车辆信息获取请 求获取待追踪图像,其中,该待追踪图像包含该车辆信息获取请求中指定的车辆。例如,计算设备根据车辆信息获取请求中包括的车辆的标识,通过对图像库中的图像和视频画面进行图像识别,识别出包含该车辆的标识的图像,作为待追踪图像。然后,计算设备再根据该待追踪图像获取至少一张包含多辆车辆的参考图像。
需要说明的是,根据该待追踪图像获取至少一张包含多辆车辆的参考图像的方法可以有很多种,比如,可以根据该待追踪图像的时间信息获取至少一张包含多辆车辆的参考图像。
即,在一些实施例中,获取至少一张包含多辆车辆的参考图像,包括:
(11)获取追踪图像的时间信息;
(12)基于时间信息,获取至少一张包含多辆车辆的参考图像。
其中,待追踪图像和参考图像具体可以从监控录像中截取或从其他图库进行提取等途径来获取。
步骤102、从待追踪图像中提取待追踪图像块,并从参考图像中提取参考图像块。
其中,待追踪图像块包括用于标记待追踪图像中的车辆位置信息的多个追踪位置点,参考图像块包括用于标记参考图像中的车辆位置信息的多个参考位置点。例如,具体地,计算设备可以获取待追踪图像中的追踪位置点的信息,比如追踪位置点的数量以及追踪位置点在待追踪图像中的位置等等。然后,计算设备根据这些追踪位置点截取追踪位置点圈定的区域,得到待追踪图像块。同理,从参考图像中提取预设区域的参考图像块的方法也是如此,在此不再赘述。
在一些实施例中,从待追踪图像中提取第一预设区域的待追踪图像块,并从参考图像中提取与第一预设区域对应的第二预设区域的参考图像块,具体可以包括:
(21)获取预设坐标点。
(22)根据预设坐标点确定坐标点在待追踪图像的第一位置信息,根据第一位置信息从待追踪图像中截取预设坐标点所在的第一预设区域的图像块,得到待追踪图像块;
(23)根据预设坐标点确定坐标点在参考图像的第二位置信息,根据第二位置信息从参考图像中截取预设坐标点所在区域的图像块,得到参考图像块。
其中,待追踪图像中的追踪位置点和参考图像中参考位置点可以是预先设定,具体根据实际应用的需求而定。
需要说明的是,待追踪图像中的第一预设区域和参考图像中的第二预设区域在实际场景中为同一块区域。第一预设区域和第二预设区域之间是透视变换的关系,即,是同一个区域的不同视角的图像,而保持所述区域中的物体的几何形状和相对位置关系。
步骤103、基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建待追踪图像块和参考图像块之间的位置点转换关系。
比如,有五个追踪位置点和五个参考位置点,每个追踪位置点和参考位置点均用一个二维向量(x,y)表示。然后,计算每个追踪位置点和所有参考位置点的欧式距离,紧接着,根据该欧式距离构建追踪位置点和参考位置点的距离矩阵,即构建位置点转换关系。位置点转换关系具体为位置点转换公式。
又比如,还可以根据预设的坐标轴转换公式将多个追踪位置点映射至参考图像中,得到多个映射位置点。然后构建这多个映射位置点与多个参考位置点之间的位置点转换关系。
即在一些实施例中,构建这多个映射位置点与多个参考位置点之间的位置点转换关系的步骤,具体可以包括:
(31)根据预设坐标轴转换公式将多个追踪位置点映射至参考图像中,得到多个映射位置点;
(32)构建多个映射位置点与多个参考位置点之间的位置点转换关系。
具体地,构建多个映射位置点与多个参考位置点之间的位置点转换关系可以通过计算这些映射位置点与参考位置点之间的匹配度,以构建待追踪图像块和参考图像块之间的位置点转换关系。
即在一些实施例中,构建多个映射位置点与多个参考位置点之间的位置点转换关系步骤,具体可以包括:
(41)确定当前需要处理的映射位置点,得到当前处理映射位置点;
(42)计算当前处理映射位置点与多个参考位置点之间的匹配度,得到匹配度集合;
(43)返回执行确定当前需要处理的映射位置点的步骤,直到所有映射位置点与多个参考位置点之间的匹配度均计算完毕;
(44)根据匹配度集合构建追踪位置点和参考位置点之间的位置点转换公式。
其中,所述坐标轴转换公式可以是预先建立。即,在步骤从待追踪图像中提取预设区域的待追踪图像块,并从参考图像中提取预设区域的参考图像块之前,所述方法具体还可以包括:
(51)分别在待追踪图像和参考图像中标记对应的坐标点;
(52)根据待追踪图像的坐标点和参考图像的坐标点之间的对应关系,构建待追踪图像和参考图像的坐标轴转换公式。
例如,具体地,可以分别在待追踪图像和参考图像中标记坐标点,这些坐标点均可以用一个二维向量(x,y)表示,然后,基于透视变换原理,构建这些坐标点的转换矩阵,即坐标轴转换公式。
需要说明的是,透视变换是中心投影的射影变换,在用非齐次射影坐标表达时是平面的分式线性变换。而所谓的投影变换,是指把空间坐标系中的三维物体或对象转变为二维图像表示的过程。根据视点(投影中心)与投影平面之间距离的不同,投影可分为平行投影和透视投影,透视投影即透视变换。平行投影的视点(投影中心)与投影平面之间的距离为无穷大,而对于透视投影(变换),此距离是有限的。透视投影具有透视缩小效应的特点,即三维物体或对象透视投影的大小与形体到视点(投影中心)的距离成反比。例如,等长的两直线段都平行于投影面。但离投影中心近的线段透视投影大,而离投影中心远的线段透视投影小。该效应所产生的视觉效果与人的视觉系统类似。与平行投影相比,透视投影的深度感更强,看上去更真实,但透视投影图不能真实地反映物体的精确尺寸和形状。
步骤104、基于位置点转换关系,获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象。
例如,具体地,可以通过位置点转换关系确定待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置。然后可以根据追踪位置点在参考图像中对应的参考位置点的位置,获取追踪位置点对应的车辆的车辆信息,再根据 该车辆信息比如为车辆的图像、车辆标识以及在参考图像中的位置等等,然后得到车辆在参考图像中的运动轨迹。
即,在一些实施例中,基于位置点转换关系,获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置的步骤之后,具体还可以包括:
(61)根据待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,获取追踪位置点对应的车辆的车辆信息;
(62)根据车辆信息,确定车辆在参考图像中的位置;
(63)根据车辆在参考图像中的位置,得到车辆在参考图像中的运动轨迹。
本申请实施例在获取包含多辆车辆的待追踪图像,以及至少一张包含多辆车辆的参考图像后,从待追踪图像中提取待追踪图像块,并从参考图像中提取参考图像块。然后,基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建待追踪图像块和参考图像块之间的位置点转换关系。接着,基于位置点转换关系,获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象,相对于现有拼接画面对车辆进行追踪的方案而言,可以避免车辆图像存在缺失、模糊或难以识别的情况的发生。因此,可以提高识别的有效性和准确性。
根据实施例所述的方法,以下将举例进一步详细说明。
在本实施例中将以该对象信息的获取装置具体集成在终端中为例进行说明。
例如,请参阅图2a,当用户需要获取特定车辆的车辆信息时,首先,终端可以获取包含至少一个车辆的图像(即待追踪图像),以及至少一张包含多辆车辆的参考图像。然后,终端从待追踪图像中提取待追踪图像块,并从参考图像中提取参考图像块。其中,待追踪图像块上设置有多个用于标记待追踪图像中的车辆位置信息的追踪位置点,参考图像块上设置有多个用于标记参考图像中的车辆位置信息的参考位置点。
紧接着,终端可以根据预设坐标点转换公式将多个追踪位置点映射至参考图像中,得到多个映射位置点。其中,该坐标点转换公式可以由终端根据追踪位置点和参考位置点预先进行构建的。再然后,终端可以基于这多个映射位置 点构建追踪位置点与参考位置点之间的转换公式,并且可以采用预设算法对该公式进行处理,从而得到追踪位置点在参考图像中对应的参考位置点。这样,用户仅需输入该特定车辆的身份标识如车牌号或者黏贴在车窗玻璃上的年检标志等,终端就可以提供对应车辆的车辆信息,如行驶路径。
图2b是本申请实施例提供的对象信息的获取方法的另一流程示意图。请参阅图2b,一种对象信息的获取方法,具体流程可以如下:
步骤201、终端获取包含至少一个对象的待追踪图像,以及至少一张包含多个对象的参考图像。其中,所述对象为车辆。
其中,终端获取包含至少一个车辆的待追踪图像,以及至少一张包含多辆车辆的参考图像的方式可以有多种,例如,终端具体可以接收用户触发的车辆信息获取请求。例如,用户向所述终端输入一个车辆的标识,所述车辆信息获取请求中包括所述车辆的标识。所述车辆的标识例如为车牌号或者黏贴在车窗玻璃上的年检标志等。然后,终端再根据该车辆信息获取请求获取待追踪图像,其中,该待追踪图像包含该车辆信息获取请求中指定的车辆。例如,终端根据车辆信息获取请求中包括的车辆的标识,通过对图像库中的图像和视频画面进行图像识别,识别出包含该车辆的标识的图像,作为待追踪图像。接着,终端再根据该待追踪图像获取至少一张包含多辆车辆的参考图像。
需要说明的是,终端根据该待追踪图像获取至少一张包含多辆车辆的参考图像的方法可以有很多种,比如,终端可以根据该待追踪图像的时间信息获取至少一张包含多辆车辆的参考图像。
即在一些实施例中,终端获取至少一张包含多辆车辆的参考图像,包括:
(11)终端获取追踪图像的时间信息;
(12)终端基于时间信息,获取至少一张包含多辆车辆的参考图像。
其中,待追踪图像和参考图像具体可以从监控录像中截取或从其他图库进行提取等途径来获取。
步骤202、终端从待追踪图像中提取待追踪图像块,并从参考图像中提取参考图像块。
其中,待追踪图像块包括用于标记待追踪图像中的车辆位置信息的多个追踪位置点,参考图像块包括用于标记参考图像中的车辆位置信息的多个参考位置点。例如,终端具体可以获取待追踪图像中的追踪位置点的信息,比如追踪 位置点的数量以及追踪位置点在待追踪图像中的位置等等,然后,终端根据这些追踪位置点截取追踪位置点圈定的区域,得到待追踪图像块。同理,终端从参考图像中提取预设区域的参考图像块的方法也是如此,在此不再赘述。
在一些实施例中,终端从待追踪图像中提取第一预设区域的待追踪图像块,并从参考图像中提取与第一预设区域对应的第二预设区域的参考图像块,具体可以包括:
(21)获取预设坐标点。其中,步骤(21)具体可以包括:根据用户的输入,获取在待追踪图像中的预设坐标点,以及在参考图像中的预设坐标点。例如,终端通过检测用户通过鼠标等在终端的显示屏上显示的待追踪图像中点击操作,得到在待追踪图像中的预设坐标点。类似地,终端得到参考图像中的预设坐标点。
(22)终端根据预设坐标点确定坐标点在待追踪图像的第一位置信息,根据第一位置信息从待追踪图像中截取预设坐标点所在的第一预设区域的图像块,得到待追踪图像块。其中,步骤(22)具体可以包括:根据在待追踪图像中的预设坐标点,确定该预设坐标点在待追踪图像中的第一位置信息,并根据第一位置信息,从待追踪图像中获取预设坐标点所在的第一预设区域,再从该第一预设区域中截取图像块,得到待追踪图像块。
(23)终端根据预设坐标点确定坐标点在参考图像的第二位置信息,根据第二位置信息从参考图像中截取预设坐标点所在区域的图像块,得到参考图像块。其中,步骤(23)可以具体包括:根据在参考图像中的预设坐标点,确定该预设坐标点在参考图像中的第二位置信息,并根据第二位置信息,从参考图像中获取预设坐标点所在的第二预设区域,再从该第二预设区域中截取图像块,得到参考图像块。
其中,待追踪图像中的追踪位置点和参考图像中的参考位置点可以是预先设定,具体根据实际应用的需求而定。
需要说明的是,待追踪图像中的第一预设区域和参考图像中的第二预设区域在实际场景中为同一块区域。第一预设区域和第二预设区域之间是透视变换的关系,即,是同一个区域的不同视角的图像,而保持所述区域中的物体的几何形状和相对位置关系。
比如,图2c是本申请实施例提供的车辆信息的获取方法中获取的待追踪图像的示例图一;图2d是本申请实施例提供的车辆信息的获取方法中获取的参考图像的示例图一。请参阅图2c以及图2d,终端获取得到预设坐标点的个数为四个。即,在待追踪图像中的追踪位置点个数为四个,如图2c所示,图2c中的1、2、3以及4即为追踪位置点。在参考图像中的参考位置点个数为四个,如图2d所示,图2d中的1、2、3以及4即为追踪位置点。然后,终端可以根据这四个预设坐标点确定坐标点在待追踪图像的第一位置信息,第一位置信息可以包括在待追踪图像中的追踪位置点的位置、追踪位置点的数量以及各个追踪位置点之间的距离。接着,终端再根据该第一位置信息从待追踪图像中截取这四个预设坐标点所在区域的图像块,得到待追踪图像块。同理,终端也可以根据参考图像中的四个预设坐标点确定坐标点在参考图像的第二位置信息,并根据该第二位置信息截取参考图像,从而得到参考图像块。
需要说明的是,待追踪图像中多个标记点圈定的图像块与参考图像中多个标记点圈定的图像块在实际场景中为同一块区域。
此外,在另一些实施例中,待追踪位置点可以标记在待追踪图像中的车辆,也就是说,每辆车辆的图像对应有待追踪位置点。然后,终端可以根据这些待追踪位置点截取待追踪图像中所有车辆,得到多个待追踪图像块,截取待追踪图像块的方法请参阅前面实施例中,同理,参考图像也是一样,在此不再赘述。
步骤203、终端基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建待追踪图像块和参考图像块之间的位置点转换关系。
比如,请继续参阅图2c以及图2d,还是以待追踪图像中有四个追踪位置点以及参考图像中有四个参考位置点为例。每个追踪位置点和每个参考位置点均用一个二维向量(x,y)表示。然后,终端可以计算每个追踪位置点和所有参考位置点的欧式距离,得到一个距离集合。比如,计算图2c的待追踪图像中的1点与图2d的参考图像中所有的参考位置点1-4的欧式距离,得到第一距离集合,然后再计算图2c的待追踪图像中的2点与图2d的参考图像中所有的参考位置点1-4的欧式距离,得到第二距离集合。返回执行计算待追踪图像中的追踪位置点和所有参考位置点的欧式距离。紧接着,根据所有距离集合构建追踪位置点和参 考位置点之间的距离矩阵,即构建位置点转换关系。位置点转换关系具体为位置点转换公式。
又比如,终端还可以根据预设坐标轴转换公式将多个追踪位置点映射至参考图像中,得到多个映射位置点。然后终端可以构建这多个映射位置点与多个参考位置点之间的位置点转换关系。
即在一些实施例中,终端构建这多个映射位置点与多个参考位置点之间的位置点转换关系的步骤,具体可以包括:
(31)终端根据预设坐标轴转换公式将多个追踪位置点映射至参考图像中,得到多个映射位置点;
(32)终端构建多个映射位置点与多个参考位置点之间的位置点转换关系。
具体地,构建多个映射位置点与多个参考位置点之间的位置点转换关系可以通过计算这些映射位置点与参考位置点之间的匹配度,以构建待追踪图像块和参考图像块之间的位置点转换关系。
即在一些实施例中,终端构建多个映射位置点与多个参考位置点之间的位置点转换关系,具体可以包括:
(41)终端确定当前需要处理的映射位置点,得到当前处理映射位置点;
(42)终端计算当前处理映射位置点与多个参考位置点之间的匹配度,得到匹配度集合;
(43)终端返回执行确定当前需要处理的映射位置点的步骤,直到所有映射位置点与多个参考位置点之间的匹配度均计算完毕;
(44)终端根据匹配度集合构建追踪位置点和参考位置点之间的位置点转换关系。
在本实施例中,首先,终端可以根据预设坐标轴转换公式将多个追踪位置点映射至参考图像中,得到多个映射位置点。然后,终端可以确定当前需要处理的映射位置点,得到当前处理映射位置点。紧接着,终端可以计算当前处理映射位置点与多个参考位置点之间的匹配度,得到匹配度集合。需要说明的是,终端计算当前处理映射位置点与多个参考位置点之间的匹配度的方法有很多种,比如终端可以直接计算映射位置点与多个参考位置点直接的距离。然后,终端可以将参考位置点与映射位置点之间的距离最小的作为最匹配的参考位置点。再然后,终端返回执行确定当前需要处理的映射位置点的步骤,直到 所有映射位置点与多个参考位置点之间的匹配度均计算完毕。最后,终端根据匹配度集合构建追踪位置点和参考位置点之间的位置点转换关系。
又比如,请参阅图2e以及图2f。图2e是本申请实施例提供的车辆信息的获取方法中获取的待追踪图像的示例图二;图2f是本申请实施例提供的车辆信息的获取方法中获取的参考图像的示例图二。在图2e中,待追踪位置点可以标记在待追踪图像中的车辆,即,每辆车辆的图像对应有待追踪位置点,如图2e的标号1-4所示。参考图像中的每辆车辆的图像对应有参考位置点,如图2f中的标号1-4所示。但是,在一些场景中,当待追踪图像中一些车辆的体积相对较大,从而遮挡住了别的车辆时,就会出现被遮挡的车辆的追踪位置点缺失。因此,在本实施例中,终端还可以计算当前映射位置点与多个参考位置点之间的欧式距离,然后,终端可以根据当前映射位置点与多个参考位置点之间的欧氏距离,构建距离矩阵。紧接着,终端返回执行确定当前需要处理的映射位置点的步骤,直到所有映射位置点与多个参考位置点之间的欧氏距离均计算完毕。再然后,终端可以采用预设算法将多个映射位置点与多个参考位置点进行匹配,得到一匹配度集合。最后,终端根据匹配度集合构建追踪位置点和参考位置点之间的位置点转换关系。
需要说明的是,该将多个映射位置点与多个参考位置点进行匹配的预设算法可以是匈牙利算法,也可以是别的算法,具体根据实际情况而定。在本实施例中,以采用匈牙利算法为例进行说明。终端所有映射位置点与多个参考位置点之间的欧氏距离均计算完毕后,采用预设匈牙利算法为每个映射位置点分配至多一个参考位置点。当每个映射位置点均与一个参考位置点对应时,称为完全匹配,即待追踪图像中每辆车辆在参考图像中均有一辆车辆与其对应。当有部分参考位置点没有与映射位置点对应时,即部分待追踪图像的追踪位置点缺失时,称为最大匹配。此时,终端可以重新再获取一张待追踪图像,即重新执行201的步骤。
另外,还需要说明的是,匈牙利算法是一种用增广路径求二分图最大匹配的算法。二分图,简单来说,如果图中点可以被分为两组,并且使得所有边都跨越组的边界,则这就是一个二分图。准确地说:把一个图的顶点划分为两个不相交集U和V,使得每一条边都分别连接U和V中的顶点。如果存在这样的划 分,则此图为一个二分图。二分图的一个等价定义是:不含有[含奇数条边的环]的图。
最大匹配:一个图所有匹配中,所含匹配边数最多的匹配,称为这个图的最大匹配。
完美匹配:如果一个图的某个匹配中,所有的顶点都是匹配点,那么它就是一个完美匹配。
其中,该坐标轴转换公式可以是由终端预先建立,即,终端从待追踪图像中提取预设区域的待追踪图像块,并从参考图像中提取预设区域的参考图像块之前,所述方法具体还可以包括:
(51)终端分别在待追踪图像和参考图像中标记对应的坐标点;
(52)终端根据待追踪图像的坐标点和参考图像的坐标点之间的对应关系,构建待追踪图像和参考图像的坐标轴转换公式。
例如,具体地,终端可以分别在待追踪图像和参考图像中标记坐标点,这些坐标点均可以用一个二维向量(x,y)表示。然后,终端基于透视变换原理,构建这些坐标点的转换矩阵,即坐标轴转换公式。
例如参考图2g、2h、2i所示。图2g是根据本申请实施例提供的待追踪图像的示意图。图2h是根据本申请实施例提供的与图2g的待追踪图像对应的参考图像的示意图。图2i是本申请实施例提供的从待追踪图像到参考图像的变换示意图;其中,终端可以根据用户的输入,在待追踪图像中标记坐标点,如图2g中的标号A-D所示,以及在参考图像中标记坐标点,如图2h中的标号E-H所示。参考图2g,在待追踪图像中,标记坐标点A-D形成第一预设区域S1,参考图2h所示,在参考图像中,标记坐标点E-H形成第二预设区域R1。参考图2g、2h可以看出,图2g中的第一区域S1和图2h中的区域R1在实际场景中为相同的路口区域。根据待追踪图像中的标记坐标点A-D与参考图像中的标记坐标点E-H的对应关系,可以构建一个坐标轴转换公式或转换矩阵,参考图2i所示。每个标记坐标点都可以用一个二维向量(x,y)表示。待追踪图像和参考图像中所包括的实际场景中同一个区域的任意点之间都符合这个坐标轴转换公式。
需要说明的是,透视变换是中心投影的射影变换,在用非齐次射影坐标表达时是平面的分式线性变换。而所谓的投影变换,是指把空间坐标系中的三维物体或对象转变为二维图像表示的过程。根据视点(投影中心)与投影平面之 间距离的不同,投影可分为平行投影和透视投影,透视投影即透视变换。平行投影的视点(投影中心)与投影平面之间的距离为无穷大,而对于透视投影(变换),此距离是有限的。透视投影具有透视缩小效应的特点,即三维物体或对象透视投影的大小与形体到视点(投影中心)的距离成反比。例如,等长的两直线段都平行于投影面。但离投影中心近的线段透视投影大,而离投影中心远的线段透视投影小。该效应所产生的视觉效果与人的视觉系统类似。与平行投影相比,透视投影的深度感更强,看上去更真实,但透视投影图不能真实地反映物体的精确尺寸和形状。
步骤204、终端基于位置点转换关系,获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象。
例如,具体地,终端可以通过位置点转换关系确定待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置。然后,终端可以根据追踪位置点在参考图像中对应的参考位置点的位置,获取追踪位置点对应的车辆的车辆信息。例如,终端可以确定图2e中的参考位置点1-4对应于图2f中的参考位置点1-4。即可以确定图2e中的参考位置点1-4所框的车辆对应于图2f中的参考位置点1-4所框的车辆。即,二者为同一辆车。终端再根据该车辆信息比如车辆标识以及在参考图像中的位置等等,然后得到车辆在参考图像中的运动轨迹。通过这种方式,可以从监控视频中连续的帧序列,检测出画面中每辆车的位置,并给同一个车辆赋予相同的标识。给定待追踪图像中的一个目标车辆的标识,可以在对应的参考图像中找到该目标车辆,建立起联动关系。
即在一些实施例中,终端基于位置点转换关系,获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置的步骤之后,具体还可以包括:
(61)终端根据待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,获取追踪位置点对应的车辆的车辆信息;
(62)终端根据车辆信息,确定车辆在参考图像中的位置;
(63)终端根据车辆在参考图像中的位置,得到车辆在参考图像中的运动轨迹。
以下再通过一个具体示例对本申请实施例的对象信息的获取方法的进行说明。
终端可以预先根据用户的输入,设定待追踪图像中标记坐标点,如图2g中的标号A-D所示,以及在参考图像中标记坐标点,如图2h中的标号E-H所示。根据待追踪图像中的标记坐标点A-D与参考图像中的标记坐标点E-H的对应关系,可以构建一个坐标轴转换公式或转换矩阵,称为预设坐标轴转换公式,参考图2i所示。所述待追踪图像例如是一个固定位置的低空摄像机拍摄得到的图像,所述参考图像例如是另一个固定位置的高空摄像机拍摄得到的图像。所述待追踪图像和所述参考图像例如包括现实场景中同一个区域的不同拍摄视角图像。所述坐标轴转换公式适用于所述低空摄像机和所述高空摄像机拍摄得到的所有图像。
在获得所述预设坐标轴转换公式后,根据本申请实施例,终端获取包含至少一个对象的待追踪图像,以及至少一张包含多个对象的参考图像;从所述待追踪图像中提取待追踪图像块,并从所述参考图像中提取参考图像块,其中,所述待追踪图像块包括用于标记待追踪图像中的对象位置信息的多个追踪位置点;所述参考图像块包括用于标记参考图像中的对象位置信息的多个参考位置点;基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建所述待追踪图像块和参考图像块之间的位置点转换关系;基于所述位置点转换关系,获取待追踪图像中的追踪位置点在所述参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象。
其中,所述从所述待追踪图像中提取待追踪图像块,并从所述参考图像中提取参考图像块,包括:通过图像识别,从所述待追踪图像中识别出所述至少一个对象,并根据所述至少一个对象提取待追踪图像块,其中,所述待追踪图像块的区域包括所述至少一个对象所在的区域;通过图像识别,从所述参考图像中识别出所述多个对象,并根据所述多个对象分别提取所述多个对象对应的多个参考图像块,其中,每个参考图像块的区域包括其对应的对象所在的区域。
具体地,例如,参考图2j所示,终端可以通过图像识别,识别出待追踪图像中的车辆,例如,V1、V2所示。通过检测框B1、B2分别标识出车辆V1、V2。检测框可以是一个矩形框,用于标出车辆在待追踪图像中的位置。所述检 测框B1、B2可以是待追踪的图像块。检测框B1、B2可以由其左上角的坐标和右下角的坐标表示。其中,检测框B1、B2的左上角和其左下角可以为追踪位置点。终端再通过图像识别,识别出参考图像中的车辆V3、V4,通过检测框B3、B4分别标识出车辆V3、V4。检测框B3、B4可以为参考图像块。与待追踪图像类似,参考图像中的检测框可以是一个矩形框,用于标出车辆在参考图像中的位置。检测框可以由其左上角的坐标和右下角的坐标表示。其中,所述检测框B3、B4的左上角及其左下角可以为参考位置点。
终端基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建所述待追踪图像块和参考图像块之间的位置点转换关系包括:基于所述待追踪图像块的左上角和右下角位置点计算其底边的中点位置,得到中点追踪位置点;基于多个参考图像块的左上角和右下角位置点计算其中心位置,得到中心参考位置点;根据预设坐标轴转换公式将所述中点追踪位置点映射至所述参考图像中,得到映射位置点;构建所述映射位置点与所述多个中心参考位置点之间的位置点转换关系。
具体地,终端获取检测框V1的底边的一点,例如底边的中点Pb1。中点Pb1例如是根据检测框B1的左上角的坐标和右下角的坐标计算得到。检测框B1的左上角和左下角、以及中点Pb1的像素点可以为追踪位置点。再获取参考图像中的车辆的检测框B3、B4的中心点Pc1、Pc2。中心点Pc1例如是根据检测框V3的左上角的坐标以及右下角的坐标计算得到。中心点Pc2例如是根据检测框V4的左上角的坐标以及右下角的坐标计算得到。中心点Pc1、Pc2是参考位置点。
在本例子中,以中点Pb1作为当前追踪位置点为例。通过坐标轴转换矩阵,将中点Pb1映射到参考图像中,得到Pb1’,为追踪位置点Pb1对应的映射位置点。类似地,可以得到待追踪图像中,车辆V2的检测框B2的底边中点Pb2以及其在参考图像中的映射位置点Pb2’。
终端构建所述映射位置点与所述多个中心参考位置点之间的位置点转换关系,包括:计算所述映射位置点与所述多个中心参考位置点之间的匹配度,得到匹配度集合;根据所述匹配度集合构建所述中点追踪位置点和所述多个中心参考位置点之间的位置点转换关系。
例如,终端可以计算映射位置点Pb1、Pb2和参考位置点Pb1’、Pb2’两两之间的距离,得到一个距离矩阵Da。之后根据匈牙利算法,根据距离矩阵Da,计 算出与各个映射位置点最匹配的参考位置点,即可以得到与各个追踪位置点最匹配的参考位置点。即,终端可以获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置。
所述基于所述位置点转换关系,获取待追踪图像中的追踪位置点在所述参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象包括:基于所述中点追踪位置点和所述多个中心参考位置点之间的位置点转换关系,获取与所述中点追踪位置点对应的中心参考位置点,确定该对应的中心位置点所在的参考图像块中的对象为所述至少一个对象对应的对象。
由于待追踪位置点可以标记待追踪图像中的车辆。例如,如图2j所示,追踪位置点Pb1可以用于标记车辆V1,Pb2可以用于标记车辆V2。而参考图像中,每个车辆的图像对应有参考位置点。例如,如图2j所示,参考位置点Pc1用于标记车辆V3,参考位置点Pc2用于标记车辆V4。通过得到各个追踪位置点最匹配的参考位置点,便可以得到待追踪图像中的车辆对应的参考图像中的车辆。即,终端根据待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,获取追踪位置点对应的车辆的车辆信息。之后,终端可以根据车辆信息,确定车辆在参考图像中的位置。再根据车辆在参考图像中的位置,得到车辆在参考图像中的运动轨迹。例如,在待追踪图像中,每个检测框都有一个标识(ID)号,即追踪ID。用户可以在计算设备中输入目标车辆在待追踪图像中的ID号,即可得到其在参考图像中的ID号,再就可以画出目标车辆的检测框,从而方便观察该车辆的运行轨迹以及进行后续处理。上述过程可以参考图2k。
在图2g-2j中,标识出的各个要素是为图示的清楚起见,并不是真实的比例。关于图2g-2k的描述,也可以参考前文其他附图描述。
在一些场景中,终端根据车辆在参考图像中的位置,得到车辆在参考图像中的运动轨迹后,终端可以根据车辆的运动轨迹,为用户提供道路信息。比如,当警车等特种车辆执行紧急任务时,设置路线起点和终点后,即可根据路况生成最优路径。可以在紧急且复杂路面情况下,保证警车以及救护车等应急车辆的快速通行。
又比如,在另一些场景中,终端可以利用监控设备捕获目标车辆并实时在地图中定位追踪,当目标车辆驶出当前监控设备的可视区域(即待追踪图像)后,自动切换至可捕获车辆的下一个监控图像(即参考图像)。
本实施例提供的一种对象信息的获取方法,终端在获取包含至少一个对象的待追踪图像,以及至少一张包含多个对象的参考图像后。终端从待追踪图像中提取待追踪图像块,并从参考图像中提取参考图像块。然后,终端基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建待追踪图像块和参考图像块之间的位置点转换关系。接着,终端基于位置点转换关系,获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象。相对于现有拼接画面对车辆进行追踪的方案而言,本申请实施例的方法可以避免车辆图像存在缺失、模糊或难以识别的情况的发生。因此,可以提高识别的有效性和准确性。
为便于更好的实施本申请实施例提供的对象信息的获取方法,本申请实施例还提供一种基于上述对象信息的获取装置(简称获取装置)。其中名词的含义与上述对象信息的获取方法中相同,具体实现细节可以参考方法实施例中的说明。
请参阅图3a,图3a为本申请实施例提供的对象信息的获取装置的结构示意图,其中该获取装置可以包括图像获取单元301、提取单元302、位置点转换公式构建单元303以及位置获取单元304,具体可以如下:
图像获取单元301,用于获取包含至少一个对象的待追踪图像,以及至少一张包含多个对象的参考图像。
具体地,图像获取单元301可以用于获取包含多个对象的待追踪图像,以及至少一张包含多个对象的参考图像。
在本申请的一些实施例中,图像获取单元301具体可以用于:
(11)终端获取追踪图像的时间信息;
(12)终端基于时间信息,获取至少一张包含多个对象的参考图像。
其中,待追踪图像和参考图像具体可以从监控录像中截取或从其他图库进行提取等途径来获取。
提取单元302,用于从待追踪图像中提取待追踪图像块,并从参考图像中提取参考图像块。其中,所述待追踪图像块包括用于标记待追踪图像中的对象 位置信息的多个追踪位置点,所述参考图像块包括用于标记参考图像中的对象位置信息的多个参考位置点。
例如,具体地,提取单元302可以用于获取待追踪图像中的追踪位置点的信息,比如追踪位置点的数量以及追踪位置点在待追踪图像中的位置等等。然后,根据这些追踪位置点截取追踪位置点圈定的区域,得到待追踪图像块。同理,从参考图像中提取预设区域的参考图像块的方法也是如此,在此不再赘述。
在本申请的一些实施例中,提取单元302具体可以用于:
(21)获取预设坐标点;
(22)终端根据预设坐标点确定坐标点在待追踪图像的第一位置信息,根据第一位置信息从待追踪图像中截取预设坐标点所在区域的图像块,得到待追踪图像块;
(23)终端根据预设坐标点确定坐标点在参考图像的第二位置信息,根据第二位置信息从参考图像中截取预设坐标点所在区域的图像块,得到参考图像块。
其中,待追踪图像中的追踪位置点和参考图像中的参考位置点可以是预先设定,具体根据实际应用的需求而定。需要说明的是,待追踪图像中的预设区域和参考图像中的预设区域在实际场景中为同一块区域。
位置点转换公式构建单元303,用于基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建待追踪图像块和参考图像块之间的位置点转换关系。
在本申请的一些实施例中,位置点转换公式构建单元303具体可以包括:
映射子单元,用于根据预设坐标轴转换公式将多个追踪位置点映射至参考图像中,得到多个映射位置点;
构建子单元,用于构建多个映射位置点与多个参考位置点之间的位置点转换关系。
可以理解的是,在本申请的一些实施例中,构建子单元具体可以用于:
(31)确定当前需要处理的映射位置点,得到当前处理映射位置点;
(32)计算当前处理映射位置点与多个参考位置点之间的匹配度,得到匹配度集合;
(33)返回执行确定当前需要处理的映射位置点的步骤,直到所有映射位置点与多个参考位置点之间的匹配度均计算完毕;
(34)根据匹配度集合构建追踪位置点和参考位置点之间的位置点转换关系。
其中,该坐标轴转换公式可以是预先建立。可以理解的是,请参阅图3b,在本申请的一些实施例中,获取装置还可以包括坐标轴转换公式构建单元305,坐标轴转换公式构建单元305具体用于:
(41)分别在待追踪图像和参考图像中标记坐标点;
(42)根据待追踪图像的坐标点和参考图像的坐标点构建待追踪图像和参考图像的坐标轴转换公式。
位置获取单元304,用于基于所述位置点转换关系,获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象。
例如,具体地,位置获取单元304可以通过位置点转换关系确定待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置。然后可以根据追踪位置点在参考图像中对应的参考位置点的位置,获取追踪位置点对应的对象的对象信息,再根据该对象信息比如对象标识以及在参考图像中的位置等等。然后得到对象在参考图像中的运动轨迹。
请参阅图3c,在本申请的一些实施例中,获取装置还可以包括确定单元306,确定单元306具体用于:
(51)根据待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,获取追踪位置点对应的对象的对象信息;
(52)根据对象信息,确定对象在参考图像中的位置;
(53)根据对象在参考图像中的位置,得到对象在参考图像中的运动轨迹。
根据本申请实施例,所述提取单元302具体用于:通过图像识别,从所述待追踪图像中识别出所述至少一个对象,并根据所述至少一个对象提取待追踪图像块,其中,所述待追踪图像块的区域包括所述至少一个对象所在的区域;通过图像识别,从所述参考图像中识别出所述多个对象,并根据所述多个对象 分别提取所述多个对象对应的多个参考图像块,其中,每个参考图像块的区域包括其对应的对象所在的区域。
所述多个追踪位置点为所述待追踪图像块的左上角和右下角位置点,所述多个参考位置点为所述多个参考图像块的左上角和右下角位置点,所述位置点转换公式构建单元303具体用于:基于所述待追踪图像块的左上角和右下角位置点计算其底边的中点位置,得到中点追踪位置点;基于多个参考图像块的左上角和右下角位置点计算其中心位置,得到中心参考位置点;根据预设坐标轴转换公式将所述中点追踪位置点映射至所述参考图像中,得到映射位置点;构建所述映射位置点与所述多个中心参考位置点之间的位置点转换关系。
所述构建所述映射位置点与所述多个中心参考位置点之间的位置点转换关系,包括:计算所述映射位置点与所述多个中心参考位置点之间的匹配度,得到匹配度集合;根据所述匹配度集合构建所述中点追踪位置点和所述多个中心参考位置点之间的位置点转换关系。
所述位置获取单元304具体用于:基于所述中点追踪位置点和所述多个中心参考位置点之间的位置点转换关系,获取与所述中点追踪位置点对应的中心参考位置点,确定该对应的中心位置点所在的参考图像块中的对象为所述至少一个对象对应的对象。
具体实施时,以上各个单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个单元的具体实施可参见前面的方法实施例,在此不再赘述。
本申请实施例提供的一种对象信息的获取装置,图像获取单元301在获取包含多个对象的待追踪图像,以及至少一张包含多个对象的参考图像后。提取单元302,从待追踪图像中提取预设区域的待追踪图像块,并从参考图像中提取预设区域的参考图像块。然后,位置点转换公式构建单元303基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建待追踪图像块和参考图像块之间的位置点转换关系。接着,位置获取单元304基于位置点转换关系,获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,相对于现有拼接画面对车辆进行追踪的方案而言,可以避免车辆图像存在缺失、模糊或难以识别的情况的发生。因此,可以提高识别的有效性和准确性。
相应的,本申请实施例还提供一种终端,如图4所示,该终端可以包括射频(RF,Radio Frequency)电路601、包括有一个或一个以上计算机可读存储介质的存储器602、输入单元603、显示单元604、传感器605、音频电路606、无线保真(WiFi,Wireless Fidelity)模块607、包括有一个或者一个以上处理核心的处理器608、以及电源609等部件。本领域技术人员可以理解,图4中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
RF电路601可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,交由一个或者一个以上处理器608处理;另外,将涉及上行的数据发送给基站。通常,RF电路601包括但不限于天线、至少一个放大器、调谐器、一个或多个振荡器、用户身份模块(SIM,Subscriber Identity Module)卡、收发信机、耦合器、低噪声放大器(LNA,Low Noise Amplifier)、双工器等。此外,RF电路601还可以通过无线通信与网络和其他设备通信。所述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(GSM,Global System of Mobile communication)、通用分组无线服务(GPRS,General Packet Radio Service)、码分多址(CDMA,Code Division Multiple Access)、宽带码分多址(WCDMA,Wideband Code Division Multiple Access)、长期演进(LTE,Long Term Evolution)、电子邮件、短消息服务(SMS,Short Messaging Service)等。
存储器602可用于存储软件程序以及模块,处理器608通过运行存储在存储器602的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器602可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器602可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器602还可以包括存储器控制器,以提供处理器608和输入单元603对存储器602的访问。
输入单元603可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。具体地,在一个具体的实施例中,输入单元603可包括触敏表面以及其他输入设备。触 敏表面,也称为触摸显示屏或者触控板,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触敏表面上或在触敏表面附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触敏表面可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器608,并能接收处理器608发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触敏表面。除了触敏表面,输入单元603还可以包括其他输入设备。具体地,其他输入设备可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元604可用于显示由用户输入的信息或提供给用户的信息以及终端的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元604可包括显示面板,可选的,可以采用液晶显示器(LCD,Liquid Crystal Display)、有机发光二极管(OLED,Organic Light-Emitting Diode)等形式来配置显示面板。进一步的,触敏表面可覆盖显示面板,当触敏表面检测到在其上或附近的触摸操作后,传送给处理器608以确定触摸事件的类型,随后处理器608根据触摸事件的类型在显示面板上提供相应的视觉输出。虽然在图4中,触敏表面与显示面板是作为两个独立的部件来实现输入和输入功能,但是在某些实施例中,可以将触敏表面与显示面板集成而实现输入和输出功能。
终端还可包括至少一种传感器605,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板的亮度,接近传感器可在终端移动到耳边时,关闭显示面板和/或背光。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于终端还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路606、扬声器,传声器可提供用户与终端之间的音频接口。音频 电路606可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路606接收后转换为音频数据,再将音频数据输出处理器608处理后,经RF电路601以发送给比如另一终端,或者将音频数据输出至存储器602以便进一步处理。音频电路606还可能包括耳塞插孔,以提供外设耳机与终端的通信。
WiFi属于短距离无线传输技术,终端通过WiFi模块607可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图4示出了WiFi模块607,但是可以理解的是,其并不属于终端的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器608是终端的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器602内的软件程序和/或模块,以及调用存储在存储器602内的数据,执行终端的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器608可包括一个或多个处理核心;优选的,处理器608可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器608中。
终端还包括给各个部件供电的电源609(比如电池),优选的,电源可以通过电源管理系统与处理器608逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源609还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管未示出,终端还可以包括摄像头、蓝牙模块等,在此不再赘述。具体在本实施例中,终端中的处理器608会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器602中,并由处理器608来运行存储在存储器602中的应用程序,从而实现各种功能:
获取人脸图像,根据预设映射关系对所述人脸图像进行预处理,得到预处理后图像,划分所述人脸图像,得到所述人脸图像的唇部区域,根据预设算法对所述唇部区域进行处理,得到所述唇部区域的唇彩模板;合成所述人脸图像、预处理后图像以及唇彩模板,得到合成后的人脸图像。
本申请实施例在获取包含至少一个对象的待追踪图像,以及至少一张包含 多个对象的参考图像后。从待追踪图像中提取预设区域的待追踪图像块,并从参考图像中提取预设区域的参考图像块。然后,基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建待追踪图像块和参考图像块之间的位置点转换关系。接着,基于位置点转换关系,获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置,相对于现有拼接画面对车辆进行追踪的方案而言,可以避免车辆图像存在缺失、模糊或难以识别的情况的发生。因此,可以提高识别的有效性和准确性。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本申请实施例所提供的任一种车辆信息的获取方法中的步骤。例如,该指令可以执行如下步骤:
在获取包含多辆车辆的待追踪图像,以及至少一张包含多辆车辆的参考图像后;从待追踪图像中提取预设区域的待追踪图像块,并从参考图像中提取预设区域的参考图像块;然后,基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建待追踪图像块和参考图像块之间的位置点转换关系;接着,基于位置点转换关系,获取待追踪图像中的追踪位置点在参考图像中对应的参考位置点的位置。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的指令,可以执行本申请实施例所提供的任一种车辆信息的获取方法中的步骤,因此,可以实现本申请实施例所提供的任一种车辆信息的获取方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种车辆信息的获取方法、装置以及存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (19)
- 一种对象信息的获取方法,由计算设备执行,其特征在于,包括:获取包含至少一个对象的待追踪图像,以及至少一张包含多个对象的参考图像;从所述待追踪图像中提取待追踪图像块,并从所述参考图像中提取参考图像块,其中,所述待追踪图像块包括用于标记待追踪图像中的对象位置信息的多个追踪位置点,所述参考图像块包括用于标记参考图像中的对象位置信息的多个参考位置点;基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建所述待追踪图像块和参考图像块之间的位置点转换关系;基于所述位置点转换关系,获取待追踪图像中的追踪位置点在所述参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象。
- 根据权利要求1所述的获取方法,其特征在于,所述基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建所述待追踪图像块和参考图像块之间的位置点转换关系,包括:根据预设坐标轴转换公式将所述多个追踪位置点映射至所述参考图像中,得到多个映射位置点;构建所述多个映射位置点与所述多个参考位置点之间的位置点转换关系。
- 根据权利要求2所述的获取方法,其特征在于,所述构建所述多个映射位置点与所述多个参考位置点之间的位置点转换关系,包括:确定当前需要处理的映射位置点,得到当前处理映射位置点;计算所述当前处理映射位置点与所述多个参考位置点之间的匹配度,得到匹配度集合;返回执行确定当前需要处理的映射位置点的步骤,直到所有映射位置点与所述多个参考位置点之间的匹配度均计算完毕;根据所述匹配度集合构建所述多个追踪位置点和所述多个参考位置点之间的位置点转换关系。
- 根据权利要求3所述的获取方法,其特征在于,所述从所述待追踪图像中提取待追踪图像块,并从所述参考图像中提取参考图像块的步骤之前,还包 括:分别在所述待追踪图像和参考图像中标记坐标点;根据所述待追踪图像的坐标点和参考图像的坐标点之间的对应关系,构建所述待追踪图像和参考图像之间的预设坐标轴转换公式。
- 根据权利要求1所述的获取方法,其特征在于,所述从所述待追踪图像中提取待追踪图像块,并从所述参考图像中提取参考图像块,包括:通过图像识别,从所述待追踪图像中识别出所述至少一个对象,并根据所述至少一个对象提取待追踪图像块,其中,所述待追踪图像块的区域包括所述至少一个对象所在的区域;通过图像识别,从所述参考图像中识别出所述多个对象,并根据所述多个对象分别提取所述多个对象对应的多个参考图像块,其中,每个参考图像块的区域包括其对应的对象所在的区域。
- 根据权利要求5所述的获取方法,其特征在于,所述多个追踪位置点为所述待追踪图像块的左上角和右下角位置点,所述多个参考位置点为所述多个参考图像块的左上角和右下角位置点,所述基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建所述待追踪图像块和参考图像块之间的位置点转换关系包括:基于所述待追踪图像块的左上角和右下角位置点计算其底边的中点位置,得到中点追踪位置点;基于多个参考图像块的左上角和右下角位置点计算其中心位置,得到中心参考位置点;根据预设坐标轴转换公式将所述中点追踪位置点映射至所述参考图像中,得到映射位置点;构建所述映射位置点与所述多个中心参考位置点之间的位置点转换关系。
- 根据权利要求6所述的获取方法,其特征在于,所述构建所述映射位置点与所述多个中心参考位置点之间的位置点转换关系,包括:计算所述映射位置点与所述多个中心参考位置点之间的匹配度,得到匹配度集合;根据所述匹配度集合构建所述中点追踪位置点和所述多个中心参考位置点之间的位置点转换关系。
- 根据权利要求7所述的获取方法,其特征在于,所述基于所述位置点转换关系,获取待追踪图像中的追踪位置点在所述参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象包括:基于所述中点追踪位置点和所述多个中心参考位置点之间的位置点转换关系,获取与所述中点追踪位置点对应的中心参考位置点,确定该对应的中心位置点所在的参考图像块中的对象为所述至少一个对象对应的对象。
- 根据权利要求1至8任一项所述的获取方法,其特征在于,所述获取至少一张包含多个对象的参考图像,包括:获取所述待追踪图像的时间信息;基于所述时间信息,获取至少一张包含多个对象的参考图像。
- 根据权利要求1所述的获取方法,其特征在于,所述基于所述位置点转换关系,获取待追踪图像中的追踪位置点在所述参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象的步骤包括:根据所述待追踪图像中的追踪位置点在所述参考图像中对应的参考位置点的位置,获取所述追踪位置点对应的对象的对象信息;根据所述对象信息,确定所述对象在参考图像中的位置;根据所述对象在参考图像中的位置,得到所述对象在参考图像中的运动轨迹。
- 一种对象信息的获取装置,其特征在于,包括:图像获取单元,用于获取包含至少一个对象的待追踪图像,以及至少一张包含多个对象的参考图像;提取单元,用于从所述待追踪图像中提取待追踪图像块,并从所述参考图像中提取参考图像块,其中,所述待追踪图像块包括用于标记待追踪图像中的对象位置信息的多个追踪位置点,所述参考图像块包括用于标记参考图像中的对象位置信息的多个参考位置点;位置点转换公式构建单元,用于基于多个追踪位置点之间的位置关系以及多个参考位置点之间的位置关系,构建所述待追踪图像块和参考图像块之间的位置点转换关系;位置获取单元,用于基于所述位置点转换关系,获取待追踪图像中的追踪位置点在所述参考图像中对应的参考位置点的位置,以确定所述参考图像中与所述至少一个对象对应的对象。
- 根据权利要求11所述的获取装置,其特征在于,所述位置点转换公式构建单元包括:映射子单元,用于根据预设坐标轴转换公式将所述多个追踪位置点映射至所述参考图像中,得到多个映射位置点;构建子单元,用于构建所述多个映射位置点与所述多个参考位置点之间的位置点转换关系。
- 根据权利要求11所述的获取装置,其特征在于,所述提取单元具体用于:通过图像识别,从所述待追踪图像中识别出所述至少一个对象,并根据所述至少一个对象提取待追踪图像块,其中,所述待追踪图像块的区域包括所述至少一个对象所在的区域;通过图像识别,从所述参考图像中识别出所述多个对象,并根据所述多个对象分别提取所述多个对象对应的多个参考图像块,其中,每个参考图像块的区域包括其对应的对象所在的区域。
- 根据权利要求13所述的获取装置,其特征在于,所述多个追踪位置点为所述待追踪图像块的左上角和右下角位置点,所述多个参考位置点为所述多个参考图像块的左上角和右下角位置点,所述位置点转换公式构建单元具体用于:基于所述待追踪图像块的左上角和右下角位置点计算其底边的中点位置,得到中点追踪位置点;基于多个参考图像块的左上角和右下角位置点计算其中心位置,得到中心参考位置点;根据预设坐标轴转换公式将所述中点追踪位置点映射至所述参考图像中,得到映射位置点;构建所述映射位置点与所述多个中心参考位置点之间的位置点转换关系。
- 根据权利要求14所述的获取方法,其特征在于,所述构建所述映射位置点与所述多个中心参考位置点之间的位置点转换关系,包括:计算所述映射位置点与所述多个中心参考位置点之间的匹配度,得到匹配度集合;根据所述匹配度集合构建所述中点追踪位置点和所述多个中心参考位置点之间的位置点转换关系。
- 根据权利要求15所述的获取方法,其特征在于,所述位置获取单元具体用于:基于所述中点追踪位置点和所述多个中心参考位置点之间的位置点转换关系,获取与所述中点追踪位置点对应的中心参考位置点,确定该对应的中心位置点所在的参考图像块中的对象为所述至少一个对象对应的对象。
- 根据权利要求11至16任一项所述的获取装置,其特征在于,所述图像获取单元具体用于:获取所述追踪图像的时间信息;基于所述时间信息,获取至少一张包含多个对象的参考图像。
- 一种非易失性存储介质,其特征在于,所述存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1至10任一项所述的对象信息的获取方法中的步骤。
- 一种计算设备,其特征在于,包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行权利要求1至10任一项所述的对象信息的获取方法中的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19853604.7A EP3748533B1 (en) | 2018-08-29 | 2019-08-20 | Method, apparatus, and storage medium for obtaining object information |
US17/005,796 US11373410B2 (en) | 2018-08-29 | 2020-08-28 | Method, apparatus, and storage medium for obtaining object information |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810992443.1 | 2018-08-29 | ||
CN201810992443.1A CN109165606B (zh) | 2018-08-29 | 2018-08-29 | 一种车辆信息的获取方法、装置以及存储介质 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/005,796 Continuation US11373410B2 (en) | 2018-08-29 | 2020-08-28 | Method, apparatus, and storage medium for obtaining object information |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020042968A1 true WO2020042968A1 (zh) | 2020-03-05 |
Family
ID=64893279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2019/101583 WO2020042968A1 (zh) | 2018-08-29 | 2019-08-20 | 一种对象信息的获取方法、装置以及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11373410B2 (zh) |
EP (1) | EP3748533B1 (zh) |
CN (1) | CN109165606B (zh) |
WO (1) | WO2020042968A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165606B (zh) | 2018-08-29 | 2019-12-17 | 腾讯科技(深圳)有限公司 | 一种车辆信息的获取方法、装置以及存储介质 |
EP3709208A1 (en) * | 2019-03-14 | 2020-09-16 | Visteon Global Technologies, Inc. | Method and control unit for detecting a region of interest |
CN110446168B (zh) * | 2019-08-14 | 2021-08-24 | 中国联合网络通信集团有限公司 | 一种目标车辆追踪方法和系统 |
CN110751215B (zh) * | 2019-10-21 | 2020-10-27 | 腾讯科技(深圳)有限公司 | 一种图像识别方法、装置、设备、系统及介质 |
CN114023076B (zh) * | 2021-10-22 | 2022-10-04 | 北京商海文天科技发展有限公司 | 一种基于多源异构数据的特定车辆追踪方法 |
CN115278014B (zh) * | 2022-07-22 | 2023-09-15 | 重庆紫光华山智安科技有限公司 | 一种目标跟踪方法、系统、计算机设备及可读介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102414719A (zh) * | 2009-07-22 | 2012-04-11 | 欧姆龙株式会社 | 监视摄像机终端 |
CN106408593A (zh) * | 2016-09-18 | 2017-02-15 | 东软集团股份有限公司 | 一种基于视频的车辆跟踪方法及装置 |
US20180225842A1 (en) * | 2016-01-21 | 2018-08-09 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for determining facial pose angle, and computer storage medium |
CN109165606A (zh) * | 2018-08-29 | 2019-01-08 | 腾讯科技(深圳)有限公司 | 一种车辆信息的获取方法、装置以及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9256791B2 (en) * | 2012-12-04 | 2016-02-09 | Mobileye Vision Technologies Ltd. | Road vertical contour detection |
US9177224B1 (en) * | 2013-03-14 | 2015-11-03 | Amazon Technologies, Inc. | Object recognition and tracking |
FR3020490B1 (fr) * | 2014-04-24 | 2019-04-12 | Morpho | Systeme de localisation d'un meme vehicule dans plusieurs zones differentes les unes des autres dans lesquelles ledit vehicule passe consecutivement |
US9727775B2 (en) * | 2015-12-01 | 2017-08-08 | Intel Corporation | Method and system of curved object recognition using image matching for image processing |
SE540595C2 (en) * | 2015-12-02 | 2018-10-02 | Icomera Ab | Method and system for identifying alterations to railway tracks or other objects in the vicinity of a train |
CN106920252B (zh) * | 2016-06-24 | 2020-07-03 | 阿里巴巴集团控股有限公司 | 一种图像数据处理方法、装置及电子设备 |
CN107600067B (zh) * | 2017-09-08 | 2019-09-20 | 中山大学 | 一种基于多视觉惯导融合的自主泊车系统及方法 |
-
2018
- 2018-08-29 CN CN201810992443.1A patent/CN109165606B/zh active Active
-
2019
- 2019-08-20 WO PCT/CN2019/101583 patent/WO2020042968A1/zh unknown
- 2019-08-20 EP EP19853604.7A patent/EP3748533B1/en active Active
-
2020
- 2020-08-28 US US17/005,796 patent/US11373410B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102414719A (zh) * | 2009-07-22 | 2012-04-11 | 欧姆龙株式会社 | 监视摄像机终端 |
US20180225842A1 (en) * | 2016-01-21 | 2018-08-09 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for determining facial pose angle, and computer storage medium |
CN106408593A (zh) * | 2016-09-18 | 2017-02-15 | 东软集团股份有限公司 | 一种基于视频的车辆跟踪方法及装置 |
CN109165606A (zh) * | 2018-08-29 | 2019-01-08 | 腾讯科技(深圳)有限公司 | 一种车辆信息的获取方法、装置以及存储介质 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3748533A4 * |
Also Published As
Publication number | Publication date |
---|---|
US20200394420A1 (en) | 2020-12-17 |
US11373410B2 (en) | 2022-06-28 |
EP3748533C0 (en) | 2023-07-19 |
CN109165606A (zh) | 2019-01-08 |
EP3748533A4 (en) | 2021-05-12 |
EP3748533B1 (en) | 2023-07-19 |
CN109165606B (zh) | 2019-12-17 |
EP3748533A1 (en) | 2020-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020042968A1 (zh) | 一种对象信息的获取方法、装置以及存储介质 | |
WO2019184889A1 (zh) | 增强现实模型的调整方法、装置、存储介质和电子设备 | |
CN109947886B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
US9367961B2 (en) | Method, device and storage medium for implementing augmented reality | |
WO2019233229A1 (zh) | 一种图像融合方法、装置及存储介质 | |
CN110865756B (zh) | 图像标注方法、装置、设备及存储介质 | |
CN107248137B (zh) | 一种实现图像处理的方法及移动终端 | |
WO2021190387A1 (zh) | 检测结果输出的方法、电子设备及介质 | |
US20240144617A1 (en) | Methods and systems for anchoring objects in augmented or virtual reality | |
US20230368417A1 (en) | Pose determining method and related device | |
CN110991491A (zh) | 图像标注方法、装置、设备及存储介质 | |
CN105303591B (zh) | 在拼图上叠加地点信息的方法、终端及服务器 | |
CN111652942B (zh) | 摄像模组的标定方法、第一电子设备和第二电子设备 | |
CN110536236B (zh) | 一种通信方法、终端设备和网络设备 | |
CN114332423A (zh) | 虚拟现实手柄追踪方法、终端及计算可读存储介质 | |
US10620717B2 (en) | Position-determining input device | |
CN110148167B (zh) | 一种距离测量方法及终端设备 | |
US11877057B2 (en) | Electronic device and focusing method | |
CN110095792B (zh) | 定位终端的方法及装置 | |
CN115904188A (zh) | 户型图的编辑方法、装置、电子设备及存储介质 | |
CN112905328B (zh) | 任务处理方法、装置及计算机可读存储介质 | |
CN113051485B (zh) | 群组搜索方法、装置、终端及存储介质 | |
CN113780291A (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN114092655A (zh) | 构建地图的方法、装置、设备及存储介质 | |
CN111159168B (zh) | 数据处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19853604 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2019853604 Country of ref document: EP Effective date: 20200901 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |