CN112348844A - 一种目标对象的位置更新方法及系统 - Google Patents
一种目标对象的位置更新方法及系统 Download PDFInfo
- Publication number
- CN112348844A CN112348844A CN202011217681.9A CN202011217681A CN112348844A CN 112348844 A CN112348844 A CN 112348844A CN 202011217681 A CN202011217681 A CN 202011217681A CN 112348844 A CN112348844 A CN 112348844A
- Authority
- CN
- China
- Prior art keywords
- tracking
- target object
- image
- updating
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种目标对象的位置更新方法及系统,其中目标对象的位置更新方法具体包括以下步骤:获取目标视频;从目标视频中获取目标对象;获取目标对象中的跟踪特征点;根据跟踪特征点在目标对象中确定跟踪区域;对多个跟踪区域进行判断处理,进行目标对象的位置更新。本申请提供的目标对象的位置更新方法及系统,跟踪区域中的跟踪特征点能够反映目标对象的位置,因此可通过跟踪区域的不断更新,完成目标对象的位置更新。同时,本申请不需要将每帧图像都各自进行比对从而确定目标对象的位置,能够加快对目标对象位置的获取,节省了比对以及位置更新的时间。
Description
技术领域
本申请涉及大数据处理技术领域,尤其涉及一种目标对象的位置更新方法及系统。
背景技术
随着移动互联网的普及,能够实时查看路况,从而查看交通是否拥堵,传统的路况信息检测方法中对于目标对象的定位,就是在城市的主干道上安装地感线圈、地磁、测速雷达和视频监测的装置,用于获取目标对象的位置。但是这种得到路况信息的数据资源不太容易通过共享获取。还有另一种路况的信息监测方法,就是通过定位获取,但是该定位方法有时候会因为干扰因素导致自身定位不正确。
因此,如何提出目标对象的位置更新方法及系统以解决现有技术中目标对象的位置不准确的问题,是本领域人员目前急需解决的问题。
发明内容
本申请提供一种目标对象的位置更新方法,具体包括以下步骤:获取目标视频;从目标视频中获取目标对象;获取目标对象中的跟踪特征点;根据跟踪特征点在目标对象中确定跟踪区域;对多个跟踪区域进行判断处理,进行目标对象的位置更新。
如上的,其中,获取目标对象具体包括以下步骤:选取标准背景;将各帧图像与对应的标准背景进行处理,获取目标对象。
如上的,其中,标准背景为不包含目标对象的背景,标准背景与目标视频中的背景部分相同。
如上的,其中,根据跟踪特征点在目标对象中确定跟踪区域,具体包括以下步骤:其中构成目标对象的像素D'(x,y)具体表示为:
其中,fk(x,y)表示第K帧图像的像素点,Bk(x,y)表示与K帧图像的背景部分对应的标准背景的像素点,T表示设定的指定阈值,若第K帧图像的像素点与标准背景的像素点的像素差小于指定阈值,则作为目标对象的像素点,反之则作为背景图像的像素点。
如上的,其中,根据跟踪特征点在目标对象中确定跟踪区域,具体包括以下步骤:在各帧图像中确定跟踪模板;确定跟踪模板后对各帧图像进行图像区域划分;确定划分后的各图像区域,确定跟踪模板中的各子跟踪模板尺寸;根据各子跟踪模板的尺寸确定各子跟踪模板中的第二跟踪区域。
如上的,其中,在确定跟踪模板后,还包括,确定跟踪模板中的第一跟踪区域。
如上的,其中,将第一帧图像自上而下划分为若干层,将最底层的图像区域定义为第一图像区域,最底层的上一层区域定义为第二图像区域,以此类推。
如上的,其中,将第一帧图像中的第一图像区域中的子跟踪模板设置为固定的最大尺寸,自下而上的各层图像区域中的子跟踪模板尺寸按照一定比例缩小。
如上的,其中,第一图像区域的子跟踪模板的尺寸大小A(j)具体表示为:
其中,m×n为第一帧图像中跟踪模板的尺寸,L(j)为第一图像区域的子跟踪模板的宽度,CD为第一帧图像中跟踪模板的比例线,j为常数,表示划分图像区域的层数;由于计算的是第一图像区域的子跟踪模板,此时j=1。
一种目标对象的位置更新系统,其特征在于,该系统包括:目标视频获取单元,用于获取目标视频;目标对象获取单元,用于从目标视频中获取目标对象;跟踪特征点获取单元,用于获取目标对象中的跟踪特征点;确定单元,用于根据跟踪特征点在目标对象中确定跟踪区域;更新单元,用于对多个跟踪区域进行判断处理,进行目标对象的位置更新。
本申请实现的有益效果如下:
本申请提供的目标对象的位置更新方法及系统,跟踪区域中的跟踪特征点能够反映目标对象的位置,因此可通过跟踪区域的不断更新,完成目标对象的位置更新。同时,本申请不需要将每帧图像都各自进行比对从而确定目标对象的位置,能够加快对目标对象位置的获取,节省了比对以及位置更新的时间。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种目标对象的位置更新方法的流程图。
图2为本申请实施例提供的一种目标对象的位置更新系统示意图。
具体实施方式
下面结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例一
如图1所示,本申请提供一种目标对象的位置更新方法及系统,该方法包括如下步骤:
步骤S110:获取目标视频。
具体地,目标视频为通过现有技术中智能交通系统中监控到的交通视频。
其中智能交通系统主要利用多种科技手段来监控车辆以及道路进行实现,多种科技手段包括通信、电子、计算机视觉等领域。智能交通系统能够对道路以及交通环境进行实时监测,得到准确的交通参数信息,例如速度、车流量等。当出现交通事故或异常状况时,能够发出实时的警告信息,交通部门可以选择适当的措施,以保证道路的有效和安全运行。因此智能交通系统能够有效减少交通事故、交通拥堵的发生。
步骤S120:从目标视频中获取目标对象。
其中,目标对象为需要进行跟踪的一个或多个车辆。
具体地,目标视频中包括若干序列的帧图像,在若干帧图像中查找首次出现的目标对象,出现目标对象的帧图像定义为第一帧图像,将第一帧图像后续出现的帧图像依次定义为第二帧图像,第三帧图像等。
其中,由于目标对象会在帧图像中产生运动位移,因此相邻帧图像之间存在一定的相关性,通过对相邻帧图像进行处理从而得到目标对象和目标对象的背景部分。
具体地,构成目标对象的像素D(x,y)具体表示为:
其中,fk+1(x,y)表示第K+1帧图像的像素点,fk(x,y)表示第K帧图像的像素点,T表示设定的指定阈值,若第K+1帧图像的像素点与第K帧图像的像素点的像素差大于指定阈值,则作为目标对象的像素点,反之则作为背景图像的像素点。
进一步地,通过上述方法可在各帧图像中获取目标对象,将在各帧图像中出现的目标对象进行标记。
作为另一个实施例,可通过帧图像之间的背景获取目标对象。
其中,获取目标对象具体包括以下步骤:
步骤S1201:选取标准背景。
其中,标准背景为不包含目标对象或其他对象的背景,标准背景应与目标视频中的背景部分相同,若目标视频中的背景部分为空白区域,则标准背景也应为空白区域。
进一步地,若目标视频中的帧图像中出现不同的背景部分,则标准背景也相应的有多个,具体与每个帧图像中的背景部分对应。
步骤S1202:将各帧图像与对应的标准背景进行处理,获取目标对象。
具体地,其中构成目标对象的像素D'(x,y)具体表示为:
其中,fk(x,y)表示第K帧图像的像素点,Bk(x,y)表示与K帧图像的背景部分对应的标准背景的像素点,T表示设定的指定阈值,若第K帧图像的像素点与标准背景的像素点的像素差小于指定阈值,则作为目标对象的像素点,反之则作为背景图像的像素点。
依然作为另一个实施例,通过高斯模型将各帧图像与标准背景进行处理,获取目标对象。
具体地,用多个高斯模型混合来表征标准背景中各个像素点的特征,以及各帧图像的像素点的特征。以第一帧图像为例,在获取第一帧图像后,同样利用多个高斯模型表征第一帧图像中各个像素点的特征,用第一帧图像中的每个像素点与标准背景的高斯模型中的各个像素点进行匹配,将第一帧图像中与标准背景匹配成功的像素点作为第一帧图像中的背景部分,第一帧图像与标准背景不匹配的像素点构成目标对象。
其中对于标准背景以及第一帧图像中的像素点,高斯模型P(D)具体表示为:
其中,D表示标准背景或第一帧图像中的像素点,ωi表示第i个高斯分量的权值,η(D|μi,ξi)表示第i个高斯分量的概率密度函数,其中μi表示第i个高斯分量的均值,ξi表示i个高斯分量的协方差矩阵。
其中,将通过上述高斯模型得到的标准背景的像素点的特征与各帧图像中的像素点的特征进行匹配,得到各帧图像中的目标对象。
步骤S130:获取目标对象中的跟踪特征点。
其中,监控的目标对象为多个,因此监控任务量复杂,又由于天气环境等因素的影响,目标视频中的目标对象也可能存在较为模糊的情况,因此本实施例选取较为突出的像素点作为目标对象的代表像素点,即跟踪特征点。
具体地,在各帧图像中标记后的目标对象中选取像素点(x,y)作为检测点,在检测点(x,y)周围选取指定大小的检测窗口,沿各个方向进行微小平滑移动,分别计算通过该检测点(x,y)的各方向的跟踪值,通过跟踪值确定跟踪特征点。
具体地,各方向包括水平、垂直、正反对角线四个方向,各方向的跟踪值具体表示为:
其中,V1表示水平方向的跟踪值,V2表示垂直方向的跟踪值,V3表示正对角线方向的跟踪值,V4表示反对角线的跟踪值,g(u,v)表示像素点(u,v)的灰度值,i表示自然数,N表示目标对象中像素点的总数量。
进一步地,取各方向的跟踪值的最小值,作为跟踪特征点的测量值,测量值Q具体表示为:
Q=min(V1,V2,V3,V4,) (公式五)
其中,V1、V2、V3、V4表示各方向的跟踪值,将测量值大于指定阈值所对应的像素点作为第一帧图像中出现的目标对象的跟踪特征点。
具体地,获取各帧图像中出现的目标对象的跟踪特征点,由于目标对象是相同的,因此以第一帧图像中获取的目标对象的跟踪特征点为准,将剩余各帧图像中的标记后的目标对象的跟踪特征点进行标记。各帧图像中的跟踪特征点为一一对应关系,其中对跟踪特征点标记的目的在于,明确各帧图像之间跟踪特征点的对应关系。
值得注意的是,可以将相同的跟踪特征点用同一种标记符号进行标记,标记符号在此不进行限定。
步骤S140:根据跟踪特征点在目标对象中确定跟踪区域。
其中,根据跟踪特征点在目标对象中确定跟踪区域具体包括以下子步骤:
步骤S1401:在各帧图像中确定跟踪模板。
其中,跟踪模板应选取特征明显、信息量丰富、匹配性好的图像区域。若选取的模板较小,则包含的信息会减少,若模板太大,则会包含无用信息,增加计算时间。
具体地,在各帧图像中以某一指定的跟踪特征点为中心,指定距离为半径进行跟踪模板的确定。跟踪模板应包含该帧图像中的全部跟踪特征点在内。在确定跟踪模板后,还包括,确定跟踪模板的第一跟踪区域。
其中第一跟踪区域能够有效缩小跟踪模板,使跟踪模板中的无用信息尽量减少,其中第一跟踪区域为包括跟踪特征点在内的区域,将跟踪模板的尺寸定义为m×n,将跟踪区域的尺寸定义为M×N,其中M×N的范围应小于跟踪模板的尺寸m×n,可具体根据跟踪模板的实际尺寸进行确定。
步骤S1402:确定跟踪模板后对各帧图像进行图像区域划分。
其中,以第一帧图像为例,后续帧图像按照与第一帧图像同样的处理方法进行区域划分。具体地,将第一帧图像自上而下划分为若干层,将最底层的图像区域定义为第一图像区域,最底层的上一层区域定义为第二图像区域,以此类推。
步骤S1403:确定划分后的各图像区域,确定跟踪模板中各子跟踪模板尺寸。
其中完成各图像区域的划分后,各图像区域中的跟踪模板被划分为了多个子跟踪模板,将各图像区域中的跟踪模板的宽度定义为比例线,各层图像区域中的比例线是平行的。
由于现实场景中的道路的宽度是固定的,但是在目标视频中的发生了尺度变化,因此需要对各帧图像中的每个图像区域的比例进行处理。具体为对各图像区域中跟踪模板尺寸进行调整从而完成图像区域的比例处理。而由于跟踪模板因为区域的划分,被划分成了多个子跟踪模板,因此可对子跟踪模板的尺寸进行调整从而能完成图像区域的比例处理。
具体地,依然以第一帧图像为例,将第一帧图像中的第一图像区域中的子跟踪模板设置为固定的最大尺寸,自下而上的各层图像区域中的子跟踪模板尺寸按照一定比例缩小。
优选地,可按照远近视场中的道路宽度比例来作为缩小比例参数。即将比例线作为缩小比例参数,其中第一图像区域的子跟踪模板的尺寸大小A(j)具体表示为:
其中,m×n为第一帧图像中跟踪模板的尺寸,L(j)为第一图像区域的子跟踪模板的宽度,CD为第一帧图像中跟踪模板的比例线,j为常数,表示划分图像区域的层数。由于计算的是第一图像区域的子跟踪模板,此时j=1。若计算的是第二图像区域的子跟踪模板,则j=2。
同理,各图像区域的子跟踪模板的尺寸可参考上述公式进行计算。
步骤S1404:根据各子跟踪模板的尺寸确定各子跟踪模板中的第二跟踪区域。
其中,由于跟踪模板被划分成了多个子跟踪模板,因此跟踪模板中的跟踪区域同理被划分成了多个第二跟踪区域,第二跟踪区域包含在每个子跟踪模板中。第二跟踪区域为子跟踪模板中包含至少一个跟踪特征点在内的部分区域,以第一图像区域的子跟踪模板中的第二跟踪区域为例,第二跟踪区域S(j)的尺寸具体表示为:
其中,M×N表示第一跟踪区域的尺寸大小,L(j)为第一图像区域的子跟踪模板的宽度,CD为第一帧图像中跟踪模板的宽度,j为常数,表示划分图像区域的层数,由于计算的是第一图像区域中子跟踪模板的第二跟踪区域,此时j=1。
其中,将子跟踪模板的尺寸A(j)与第二跟踪区域S(j)的尺寸进行比对,以第一图像区域中子跟踪模板的第二跟踪区域为例,若第一图像区域中的第二跟踪区域S(j)小于第一图像区域中子跟踪模板的尺寸A(j),则继续执行,否则重新确定第二跟踪区域S(j)的尺寸。
同理,根据上述公式完成第一图像区域中子跟踪模板的多个第二跟踪区域的尺寸计算。
通过上述方法,完成各帧图像中跟踪模板、第一跟踪区域、子跟踪模板以及第二跟踪区域的划分以及确定。
步骤S150:对多个跟踪区域进行判断处理,进行目标对象的位置更新。
其中,通过第二跟踪区域中的跟踪特征点进行目标对象的位置判定,对多个跟踪区域进行判断处理具体为对多个第二跟踪区域进行判断处理。具体地,根据第二跟踪区域中的跟踪特征点与下一帧图像中的第二跟踪区域中的跟踪特征点进行比对,判断第二跟踪区域是否需要进行更新。
其中,以第一帧图像与第二帧图像为例,判断第一帧图像中的第二跟踪区域是否需要更新。由于各帧图像中目标对象的跟踪特征点的位置已经标记,具体地,对第一帧图像中的某一跟踪特征点P(a)与第二帧图像中对应的跟踪特征点P(b)进行距离判断。
其中在距离判断之前,还包括,设置合适的距离阈值。当第一帧图像中指定数量的P(a)与第二帧图像中指定数量的P(b)的距离均小于指定距离阈值时,则认为目标对象没有发生位置变化,不进行第二跟踪区域的更新。
当第一帧图像中指定数量的P(a)与第二帧图像中指定数量的P(b)的距离均大于指定距离阈值时,则认为目标对象发生了较大的位置变化,此时将第一跟踪区域中的目标对象的位置进行存储,更新第二跟踪区域,将第二帧图像中的第二跟踪区域作为更新后的第二跟踪区域。
其中,通过存储的帧图像的第二跟踪区域与不断更新的第二跟踪区域,能够得到目标对象的位置更新。
实施例二
如图2所示,本申请还提供一种目标对象的位置更新系统,该系统包括:目标视频获取单元201、目标对象获取单元202、跟踪特征点获取单元203、确定单元204、更新单元205。
其中目标视频获取单元201用于获取目标视频。
目标对象获取单元202与目标视频获取单元201连接,用于从目标视频中获取目标对象。
跟踪特征点获取单元203与目标对象获取单元202连接,用于获取目标对象中的跟踪特征点。
确定单元204与跟踪特征点获取单元203连接,用于根据跟踪特征点在目标对象中确定跟踪区域。
更新单元205与确定单元204连接,用于对多个跟踪区域进行判断处理,进行目标对象的位置更新。
本申请实现的有益效果如下:
本申请提供的目标对象的位置更新方法及系统,跟踪区域中的跟踪特征点能够反映目标对象的位置,因此可通过跟踪区域的不断更新,完成目标对象的位置更新。同时,本申请不需要将每帧图像都各自进行比对从而确定目标对象的位置,能够加快对目标对象位置的获取,节省了比对以及位置更新的时间。
虽然当前申请参考的示例被描述,其只是为了解释的目的而不是对本申请的限制,对实施方式的改变,增加和/或删除可以被做出而不脱离本申请的范围。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种目标对象的位置更新方法,其特征在于,具体包括以下步骤:
获取目标视频;
从目标视频中获取目标对象;
获取目标对象中的跟踪特征点;
根据跟踪特征点在目标对象中确定跟踪区域;
对多个跟踪区域进行判断处理,进行目标对象的位置更新。
2.根据权利要求1所述的目标对象的位置更新方法,其特征在于,获取目标对象具体包括以下步骤:
选取标准背景;
将各帧图像与对应的标准背景进行处理,获取目标对象。
3.根据权利要求2所述的目标对象的位置更新方法,其特征在于,标准背景为不包含目标对象的背景,标准背景与目标视频中的背景部分相同。
5.根据权利要求3所述的目标对象的位置更新方法,其特征在于,根据跟踪特征点在目标对象中确定跟踪区域,具体包括以下步骤:
在各帧图像中确定跟踪模板;
确定跟踪模板后对各帧图像进行图像区域划分;
确定划分后的各图像区域,确定跟踪模板中的各子跟踪模板尺寸;
根据各子跟踪模板的尺寸确定各子跟踪模板中的第二跟踪区域。
6.根据权利要求5所述的目标对象的位置更新方法,其特征在于,在确定跟踪模板后,还包括,确定跟踪模板中的第一跟踪区域。
7.根据权利要求6所述的目标对象的位置更新方法,其特征在于,将第一帧图像自上而下划分为若干层,将最底层的图像区域定义为第一图像区域,最底层的上一层区域定义为第二图像区域,以此类推。
8.根据权利要求6所述的目标对象的位置更新方法,其特征在于,将第一帧图像中的第一图像区域中的子跟踪模板设置为固定的最大尺寸,自下而上的各层图像区域中的子跟踪模板尺寸按照一定比例缩小。
10.一种目标对象的位置更新系统,其特征在于,该系统包括:
目标视频获取单元,用于获取目标视频;
目标对象获取单元,用于从目标视频中获取目标对象;
跟踪特征点获取单元,用于获取目标对象中的跟踪特征点;
确定单元,用于根据跟踪特征点在目标对象中确定跟踪区域;
更新单元,用于对多个跟踪区域进行判断处理,进行目标对象的位置更新。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011217681.9A CN112348844A (zh) | 2020-11-04 | 2020-11-04 | 一种目标对象的位置更新方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011217681.9A CN112348844A (zh) | 2020-11-04 | 2020-11-04 | 一种目标对象的位置更新方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112348844A true CN112348844A (zh) | 2021-02-09 |
Family
ID=74430098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011217681.9A Withdrawn CN112348844A (zh) | 2020-11-04 | 2020-11-04 | 一种目标对象的位置更新方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112348844A (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112017213A (zh) * | 2020-10-15 | 2020-12-01 | 睿至科技集团有限公司 | 一种目标对象的位置更新方法及系统 |
-
2020
- 2020-11-04 CN CN202011217681.9A patent/CN112348844A/zh not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112017213A (zh) * | 2020-10-15 | 2020-12-01 | 睿至科技集团有限公司 | 一种目标对象的位置更新方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106919915B (zh) | 基于adas系统的地图道路标记及道路质量采集装置及方法 | |
CN109284674B (zh) | 一种确定车道线的方法及装置 | |
CN109087510B (zh) | 交通监测方法及装置 | |
CN102208013B (zh) | 风景匹配参考数据生成系统和位置测量系统 | |
CN112380317B (zh) | 高精地图更新方法、装置、电子设备和存储介质 | |
CN103927762B (zh) | 一种目标车辆自动跟踪方法及装置 | |
CN109815300B (zh) | 一种车辆定位方法 | |
KR20210078530A (ko) | 차선 속성 검출방법, 장치, 전자장치 및 가독 저장 매체 | |
CN108645375B (zh) | 一种用于车载双目系统快速车辆测距优化方法 | |
CN110826412B (zh) | 高速公路能见度检测系统和方法 | |
CN112017213B (zh) | 一种目标对象的位置更新方法及系统 | |
CN112784821A (zh) | 基于YOLOv5的工地行为安全检测识别方法及系统 | |
CN110674674A (zh) | 一种基于yolo v3的旋转目标检测方法 | |
CN116109986A (zh) | 一种基于激光雷达和视频技术互补的车辆轨迹提取方法 | |
CN115240471A (zh) | 一种基于图像采集的智慧厂区避撞预警方法和系统 | |
CN113011285A (zh) | 车道线检测方法、装置、自动驾驶车辆及可读存储介质 | |
CN112699748B (zh) | 基于yolo及rgb图像的人车距离估计方法 | |
CN114494845A (zh) | 一种用于施工项目现场人工智能隐患排查系统及其排查方法 | |
CN113392817A (zh) | 一种基于多列卷积神经网络的车辆密度估计的方法及装置 | |
CN113435350A (zh) | 一种交通标线检测方法、装置、设备和介质 | |
CN116110006B (zh) | 一种用于智慧旅游系统的景区游客异常行为识别方法 | |
CN115995075A (zh) | 一种车辆自适应导航方法、装置、电子设备及存储介质 | |
CN112348844A (zh) | 一种目标对象的位置更新方法及系统 | |
CN112348852A (zh) | 一种目标对象的位置更新方法及系统 | |
CN113822149A (zh) | 一种基于无人机视角的应急车道视觉检测方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210209 |