CN115578441B - 基于深度学习的车辆侧面图像拼接和车辆尺寸测量方法 - Google Patents

基于深度学习的车辆侧面图像拼接和车辆尺寸测量方法 Download PDF

Info

Publication number
CN115578441B
CN115578441B CN202211049482.0A CN202211049482A CN115578441B CN 115578441 B CN115578441 B CN 115578441B CN 202211049482 A CN202211049482 A CN 202211049482A CN 115578441 B CN115578441 B CN 115578441B
Authority
CN
China
Prior art keywords
frame
vehicle
image
queue
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211049482.0A
Other languages
English (en)
Other versions
CN115578441A (zh
Inventor
孙杰
余佳骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei Xiongan Wuwei Zhilian Technology Co ltd
Original Assignee
Perception Information Technology Zhejiang Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Perception Information Technology Zhejiang Co ltd filed Critical Perception Information Technology Zhejiang Co ltd
Priority to CN202211049482.0A priority Critical patent/CN115578441B/zh
Publication of CN115578441A publication Critical patent/CN115578441A/zh
Application granted granted Critical
Publication of CN115578441B publication Critical patent/CN115578441B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了基于深度学习的车辆侧面图像拼接和车辆尺寸测量方法,涉及图像拼接技术领域。该方法包括:获取包含车辆画面的连续帧图像队列,同时提取车辆框坐标信息。基于车辆框坐标信息,提取连续帧图像队列中首尾帧图像的车身范围内特征点。将特征点进行匹配,并计算偏移量。根据偏移量对连续帧图像队列中每帧图像进行截取,并拼接至最终图像上。该方法结合深度学习领域知识和特征点法,利用车侧连续视频帧构造车辆侧面全景图,受背景干扰影响小,车辆图像不易形变,使得得到的车辆拼接图像更加准确,进而利用该方法可以更加准确的测出车辆的长度和高度。

Description

基于深度学习的车辆侧面图像拼接和车辆尺寸测量方法
技术领域
本发明涉及图像拼接技术领域,具体而言,涉及基于深度学习的车辆侧面图像拼接和车辆尺寸测量方法。
背景技术
随着车辆管理智能化发展,车辆诸如长度、高度、车轴数、车牌号等信息的采集管理越来越重要,如高速收费需根据车长、车轴、载客数为基准的车型进行确定。而传统人工确认的方式,无法满足此类信息的获取和管理。
在现有技术中,通过车辆侧面图像拼接可获得车辆长度和高度,而车辆侧面图像拼接通常采用如下办法:(1)对包含车的连续帧图像做帧差法,剔除背景的同时获取车身轮廓特征,再对相邻帧的车身轮廓特征进行模板匹配,计算偏移量,根据偏移量控制拼接条宽度进行拼接。该方法由于要对图像做帧差以及模板匹配,性能消耗大,且用于模板匹配的车身轮廓特征误差大,计算出的偏移量存在问题。(2)对包含车的连续帧图像通过光流法计算相邻图像内物体的运动偏移量,根据偏移量控制拼接条宽度进行拼接。该方法采取的光流法对光照要求高,光照亮度一旦发生变化,光流将失效,稳定性差。
发明内容
本发明的目的在于提供基于深度学习的车辆侧面图像拼接和车辆尺寸测量方法,其能够结合深度学习领域知识,结合特征点法,利用车侧连续视频帧构造车辆侧面全景图,以避免背景干扰的影响,得到准确的车辆图像,进而可准确的测出车辆的长度和高度。
本发明的实施例是这样实现的:
第一方面,本申请实施例提供一种基于深度学习的车辆侧面图像拼接方法,其包括如下步骤:
获取包含车辆画面的连续帧图像队列,同时提取车辆框坐标信息;
基于车辆框坐标信息,提取连续帧图像队列中首尾帧图像的车身范围内特征点;
将特征点进行匹配,并计算偏移量;
根据偏移量对连续帧图像队列中每帧图像进行截取,并拼接至最终图像上。
在本发明的一些实施例中,上述获取包含车辆画面的连续帧图像队列,同时提取车辆框坐标信息的步骤包括:
设拼接基准竖线为X=Xl,实时获取帧画面,用Yolov5模型对每帧画面fn进行车侧检测,若检测到车辆,且车辆框与拼接基准竖线相交或者车辆框在车辆运动方向上超过拼接基准竖线,则将检测标志位flag置1,并记录该车辆框的位置和范围Rect={x,y,w,h},其中,x为车辆框左上角点像素坐标x值,y为车辆框左上角点像素坐标y值,w为车辆框像素宽度,h为车辆框像素高度,否则将检测标志位flag置0;
将连续flag值为1的帧画面fn和车辆框Rect加入至拼接队列。
在本发明的一些实施例中,上述基于车辆框坐标信息,提取连续帧图像队列中首尾帧图像的车身范围内特征点的步骤包括:
若拼接队列检测到车侧,则对该拼接队列首尾帧原始图像提取车侧框Rect区域的ROI图像,否则等待下一个拼接队列;
利用SuperPoint模型,提取该ROI图像的特征点p和描述子v;
设原始图像宽Wimage、高Himage,设浮点数向上取整函数为ceil、浮点数向下取整函数为floor,预设一个网格宽度Wmesh,将原始图像划分成ceil(Wimage/Wmesh)*ceil(Himage/Wmesh)个网格,遍历所提取到的特征点p,对每个特征点p的坐标Psp(Xsp,Ysp),利用公式Nsp=floor(Ysp/Wmesh)*ceil(Wimage/Wmesh)+floor(Xsp/Wmesh)计算任一特征点p对应的网格序号Nsp,并将所有特征点p的网格序号记录至网格映射统计表中,其中,网格映射统计表内统计了原始图像中每个网格包含的特征点序号。
在本发明的一些实施例中,上述将特征点进行匹配,并计算偏移量的步骤包括:
判断当前将首尾帧图像的车身范围内特征点进行匹配的次数;
若当前匹配为同一车辆拼接周期内的初次匹配,则对特征点进行KNN匹配,得到匹配点,并对匹配点进行最优次优距离筛选;
若当前匹配不是同一车辆拼接周期内的初次匹配,则遍历队列首帧特征点{pf,vf},对该特征点坐标pf加上偏移坐标(S,0),得到该特征点在尾帧时刻的预测点坐标,该预测点坐标为首帧预测特征点坐标,计算预测点坐标对应的网格序号,统计以该预测点坐标对应的网格为中心,半径为Rm范围内的所有网格,根据网格映射统计表获取对应的所有尾帧特征点{pb,vb},遍历所有尾帧特征点,计算首帧预测特征点vf与尾帧特征点vb的L2距离,并记录最优距离和次优距离,取距离小于距离阈值且最优距离与次优距离的比值低于筛选阈值的尾帧特征点作为首帧预测特征点的匹配点;
对筛选后剩余的匹配点进行背景点筛选,将Y方向差值大于第一预设差值的匹配点和X方向差值小于第二预设差值的匹配点去除后,对剩余的匹配点X方向差值进行高斯滤波,并计算剩余的匹配点X方向的平均差值作为偏移量S。
在本发明的一些实施例中,上述根据偏移量对连续帧图像队列中每帧图像进行截取,并拼接至最终图像上的步骤包括:
设拼接基准竖线为X=Xl、连续帧图像队列首帧车辆框Rects={xs,ys,ws,hs}、拼接帧图像高为H,若本次拼接为该车辆的首次拼接且车辆运动方向为从左到右,则将连续帧图像队列中首帧图像内宽为Xl至xs+hs、高为0至H范围内的画面存储为拼接结果图;
若本次拼接为该车辆的首次拼接且车辆运动方向为从右到左,则将连续帧图像队列中首帧图像内宽为xs至Xl,高为0至H范围内的画面存储为拼接结果图;
设拼接结果图宽为Wresult、高为Hresult,同时初始化一张宽为Wresult+S、高为Hresult的新结果图,若车辆运动方向为从左到右,则将拼接结果图拷贝至新结果图的宽为S至Wresult+S、高为0至Hresult的范围内,若车辆运动方向为从右到左,则将拼接结果图拷贝至新结果图的宽为0至S、高为0至Hresult的范围内;
将偏移量S除以队列帧数N-1,得到每帧拼接所需截取的理论宽度Wtheory
设本次拼接的已拼接宽度为Wstitch,拼接基准竖线为X=Xl,每帧在连续帧图像队列中序号为Nframe
从第二帧起遍历连续帧图像队列,若当前遍历的图像帧不是该连续帧图像队列的最后一帧,则该图像帧拼接所需截取的实际宽度Wreal=Wtheory*Nframe-Wstitch,若该图像帧为该连续帧图像队列的最后一帧,则该图像帧拼接所需截取的实际宽度Wreal=S-Wstitch,其中,连续帧图像队列中除第一帧之外,其他图像帧均为拼接帧;
若车辆运动方向为从左到右,则取拼接帧画面内宽Lx至Lx+Wreal、高0至Hresult范围内的图像条,将该图像条拷贝至新结果图中宽S-Wreal至S-Wstitch、高0至Hresult范围内,若车辆运动方向为从右到左,则取拼接帧画面内宽Lx至Lx-Wreal、高0至Hresult范围内的图像条,将该图像条拷贝至新结果图中宽S-Wreal-Wstitch至S-Wreal、高0至Hresult范围内,同时更新已拼接宽度Wstitch=Wstitch+Wreal
若该车辆拼接未完成,则将该连续帧图像队列最后一帧插入至下一次拼接队列队首前,并重复上述步骤直至该车辆拼接完成。
第二方面,本申请实施例提供一种基于深度学习的车辆尺寸测量方法,其包括如下步骤:
获取包含车辆画面的连续帧图像队列,同时提取车辆框坐标信息;
基于车辆框坐标信息,提取连续帧图像队列中首尾帧图像的车身范围内特征点;
将特征点进行匹配,并计算偏移量;
根据偏移量对连续帧图像队列中每帧图像进行截取,并拼接至最终图像上;
根据最终图像和单目测距标定参数,计算该车辆的长度和高度。
在本发明的一些实施例中,上述根据最终图像和单目测距标定参数,计算该车辆的长度和高度的步骤包括:
对相机标定单目测距参数;
根据拼接队列中每帧车辆框的位置和范围,以及拼接结果图计算实际像素宽度和高度;
根据实际像素宽度和高度,计算车辆侧面长度和高度。
在本发明的一些实施例中,上述根据拼接队列中每帧车辆框的位置和范围,以及拼接结果图计算实际像素宽度和高度的步骤包括:
对于拼接队列所有车辆框,计算车辆框平均下边沿像素坐标Y值Ycar和平均像素高度Hpixel_car,并记下队列尾帧车辆框Rect左边界像素坐标X值Xcl=x,右边界像素坐标X值Xcr=x+w;
对于拼接结果图,设拼接基准竖线为X=Xl,拼接图宽度Wresult,若车辆的运动方向为从左到右,则车侧像素宽度Wpixel_car=Wresult-Xcl+Xl,若车辆的运动方向为从右到左,则车侧像素宽度Wpixel_car=Wresult-Xl+Xcr
在本发明的一些实施例中,上述根据实际像素宽度和高度,计算车辆侧面长度和高度的步骤包括:
计算车辆长度Lreal_car=(K*Ycar+B)*Wpixel_car,车辆高度Hreal_car=(K*Ycar+B)*Fy/Fx*Hpixel_car,其中,Fx为相机在X方向焦距,Fy为相机在Y方向焦距,K、B为单目测距参数。
在本发明的一些实施例中,上述对相机标定单目测距参数的步骤包括:
在安装路侧相机的画面内,放置矩形标定板,标定板水平方向与相机画面水平方向保持平行,记录标定板在画面内的四个顶点坐标Plt(Xlt,Ylt)、Prt(Xrt,Yrt)、Pld(Xld,Yld)、Prd(Xrd,Yrd),记录标定板的水平宽度Wbox
计算画面内标定板平均下边沿Yd=(Yld+Yrd)/2,平均上边沿Yt=(Ylt+Yrt)/2,下边沿宽度Wd=Xrd-Xld,上边沿宽度Wt=Xrt-Xlt,设St=Wbox/Wt,Sd=Wbox/Wd,则有K=(Sd-St)/(Yd-Yt),B=Sd-K*Yd,其中,Fx、Fy、K、B为单目测距参数。
相对于现有技术,本发明的实施例至少具有如下优点或有益效果:
本发明提供一种基于深度学习的车辆侧面图像拼接和车辆尺寸测量方法,其包括如下步骤:获取包含车辆画面的连续帧图像队列,同时提取车辆框坐标信息。基于车辆框坐标信息,提取连续帧图像队列中首尾帧图像的车身范围内特征点。将特征点进行匹配,并计算偏移量。根据偏移量对连续帧图像队列中每帧图像进行截取,并拼接至最终图像上。该方法结合深度学习领域知识和特征点法,利用车侧连续视频帧构造车辆侧面全景图,受背景干扰影响小,车辆图像不易形变,使得得到的车辆拼接图像更加准确,进而利用该方法可以更加准确的测出车辆的长度和高度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的一种基于深度学习的车辆侧面图像拼接方法的流程图;
图2为本发明实施例提供的车辆框内图像特征提取与网格划分示意图;
图3为本发明实施例提供的车辆侧面图像拼接所用的特征匹配流程图;
图4为本发明实施例提供的车辆侧面图像拼接的截条拼接流程图;
图5为本发明实施例提供的车辆侧面图像拼接的首帧图像截取拼接示意图;
图6为本发明实施例提供的车辆侧面图像拼接的新拼接图操作示意图;
图7为本发明实施例提供的车辆侧面图像拼接的第n帧图像截取拼接示意图;
图8为本发明实施例提供的车辆侧面长度和高度计算流程图;
图9为本发明实施例提供的末帧多余像素宽度裁剪示意图;
图10为本发明实施例提供的一种车辆侧面全景图拼接和车辆尺寸测量装置示意图;
图11为本发明实施例提供的一种基于深度学习的车辆尺寸测量方法的流程图;
图12为本发明实施例提供的一种电子设备的示意性结构框图。
图标:101-存储器;102-处理器;103-通信接口。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,若出现术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,若出现术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,若出现由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
在本申请的描述中,需要说明的是,若出现术语“上”、“下”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该申请产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
在本申请的描述中,还需要说明的是,除非另有明确的规定和限定,若出现术语“设置”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本申请中的具体含义。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的各个实施例及实施例中的各个特征可以相互组合。
实施例
请参照图1,图1所示为本发明实施例提供的一种基于深度学习的车辆侧面图像拼接方法的流程图。本申请实施例提供一种基于深度学习的车辆侧面图像拼接方法,其包括如下步骤:
S110:获取包含车辆画面的连续帧图像队列,同时提取车辆框坐标信息;
具体的,将相机安装在路侧,相机朝向道路且与道路垂直,采集实时图像帧fn,对fn通过YOLOv5模型进行车辆检测,若fn和fn-1均检测到车辆,且车辆框与拼接基准竖线相交或者在车辆运动方向上超过拼接基准竖线,则将检测标志位flag置1,否则将检测标志位flag置0。当检测到车辆时,记录该框的位置和范围Rect={x,y,w,h},其中x为检测框左上角点像素坐标x值,y为检测框左上角点像素坐标y值,w为检测框像素宽度,h为检测框像素高度。将连续flag值为1的帧画面fn和车辆检测框Rect加入至拼接队列。
S120:基于车辆框坐标信息,提取连续帧图像队列中首尾帧图像的车身范围内特征点;
具体的,请参照图2,图2所示为本发明实施例提供的车辆框内图像特征提取与网格划分示意图。在获取S110步骤得到的拼接队列后,对队列首尾帧图像提取车辆检测框Rect区域的ROI图像,并对该图像通过SuperPoint模型提取特征点p和描述子v。将提取得到的特征点p通过网格划分,记录每个网格所包含的特征点情况。
S130:将特征点进行匹配,并计算偏移量;
具体的,请参照图3,图3所示为本发明实施例提供的车辆侧面图像拼接所用的特征匹配流程图。在一个拼接周期内,初次匹配时采用KNN匹配,后续匹配可根据上次拼接的偏移量预测该次匹配范围,在范围内选取匹配点。得到的匹配点经过最优次优筛选、背景点剔除和高斯滤波后,统计匹配点X方向平均偏移量,作为本次拼接偏移量。
需要说明的是,一个拼接周期是指一辆车从拼接开始到拼接结束,背景点剔除是指将匹配点在X方向和Y方向差值均过小的点视为背景点进行剔除。
S140:根据偏移量对连续帧图像队列中每帧图像进行截取,并拼接至最终图像上。
具体的,请参照图4,图4所示为本发明实施例提供的车辆侧面图像拼接的截条拼接流程图,在一个拼接周期内,如果是该周期的首次拼接,则参照图5,图5所示为本发明实施例提供的车辆侧面图像拼接的首帧图像截取拼接示意图,在队列首帧图像内,从拼接基准线沿车辆运动方向取像素条直至车辆检测框,将截取的图像存储为拼接结果图;参照图6,图6所示为本发明实施例提供的车辆侧面图像拼接的新拼接图操作示意图,初始化一张新结果图,若车辆运动方向为从左到右,则将原有结果图拷贝至新结果图右侧,否则将原有结果图拷贝至新结果图左侧;参照图7,图7所示为本发明实施例提供的车辆侧面图像拼接的第n帧图像截取拼接示意图,计算除队列首帧外的每帧实际拼接宽度,取该宽度图像条,拼接至新结果图对应位置。
上述实现过程中,该方法首先获取检测到车辆的帧队列,对队列首尾两帧提取车框内图像特征点,然后通过KNN匹配、预测点匹配、最优次优筛选和高斯滤波,计算两帧偏移量。将偏移量平均分布至队列内除第一张外的每一帧上,截取相应宽度的拼接像素条,拷贝至最终拼接图的对应区域内,得到最终图像。该方法结合深度学习领域知识和特征点法,利用车侧连续视频帧构造车辆侧面全景图,受背景干扰影响小,车辆图像不易形变,使得得到的车辆拼接图像更加准确。
需要说明的是,实际拼接宽度与理论拼接宽度不同,理论拼接宽度为浮点数,而实际拼接宽度为整数。
在本实施例的一些实施方式中,上述获取包含车辆画面的连续帧图像队列,同时提取车辆框坐标信息的步骤包括:
设拼接基准竖线为X=Xl,实时获取帧画面,用Yolov5模型对每帧画面fn进行车侧检测,若检测到车辆,且车辆框与拼接基准竖线相交或者车辆框在车辆运动方向上超过拼接基准竖线,则将检测标志位flag置1,并记录该车辆框的位置和范围Rect={x,y,w,h},其中,x为车辆框左上角点像素坐标x值,y为车辆框左上角点像素坐标y值,w为车辆框像素宽度,h为车辆框像素高度,否则将检测标志位flag置0;
将连续flag值为1的帧画面fn和车辆框Rect加入至拼接队列。
在本实施例的一些实施方式中,上述基于车辆框坐标信息,提取连续帧图像队列中首尾帧图像的车身范围内特征点的步骤包括:
若拼接队列检测到车侧,则对该拼接队列首尾帧原始图像提取车侧框Rect区域的ROI图像,否则等待下一个拼接队列;
利用SuperPoint模型,提取该ROI图像的特征点p和描述子v;
设原始图像宽Wimage、高Himage,设浮点数向上取整函数为ceil、浮点数向下取整函数为floor,预设一个网格宽度Wmesh,将原始图像划分成ceil(Wimage/Wmesh)*ceil(Himage/Wmesh)个网格,遍历所提取到的特征点p,对每个特征点p的坐标Psp(Xsp,Ysp),利用公式Nsp=floor(Ysp/Wmesh)*ceil(Wimage/Wmesh)+floor(Xsp/Wmesh)计算任一特征点p对应的网格序号Nsp,并将所有特征点p的网格序号记录至网格映射统计表中,其中,网格映射统计表内统计了原始图像中每个网格包含的特征点序号。
在本实施例的一些实施方式中,上述将特征点进行匹配,并计算偏移量的步骤包括:
判断当前将首尾帧图像的车身范围内特征点进行匹配的次数;
若当前匹配为同一车辆拼接周期内的初次匹配,则对特征点进行KNN匹配,得到匹配点,并对匹配点进行最优次优距离筛选;
若当前匹配不是同一车辆拼接周期内的初次匹配,则遍历队列首帧特征点{pf,vf},对该特征点坐标pf加上偏移坐标(S,0),得到该特征点在尾帧时刻的预测点坐标,该预测点坐标为首帧预测特征点坐标,计算预测点坐标对应的网格序号,统计以该预测点坐标对应的网格为中心,半径为Rm范围内的所有网格,根据网格映射统计表获取对应的所有尾帧特征点{pb,vb},遍历所有尾帧特征点,计算首帧预测特征点vf与尾帧特征点vb的L2距离,并记录最优距离和次优距离,取距离小于距离阈值且最优距离与次优距离的比值低于筛选阈值的尾帧特征点作为首帧预测特征点的匹配点;
对筛选后剩余的匹配点进行背景点筛选,将Y方向差值大于第一预设差值的匹配点和X方向差值小于第二预设差值的匹配点去除后,对剩余的匹配点X方向差值进行高斯滤波,并计算剩余的匹配点X方向的平均差值作为偏移量S。
在本实施例的一些实施方式中,上述根据偏移量对连续帧图像队列中每帧图像进行截取,并拼接至最终图像上的步骤包括:
设拼接基准竖线为X=Xl、连续帧图像队列首帧车辆框Rects={xs,ys,ws,hs}、拼接帧图像高为H,若本次拼接为该车辆的首次拼接且车辆运动方向为从左到右,则将连续帧图像队列中首帧图像内宽为Xl至xs+hs、高为0至H范围内的画面存储为拼接结果图;
若本次拼接为该车辆的首次拼接且车辆运动方向为从右到左,则将连续帧图像队列中首帧图像内宽为xs至Xl,高为0至H范围内的画面存储为拼接结果图;
设拼接结果图宽为Wresult、高为Hresult,同时初始化一张宽为Wresult+S、高为Hresult的新结果图,若车辆运动方向为从左到右,则将拼接结果图拷贝至新结果图的宽为S至Wresult+S、高为0至Hresult的范围内,若车辆运动方向为从右到左,则将拼接结果图拷贝至新结果图的宽为0至S、高为0至Hresult的范围内;
将偏移量S除以队列帧数N-1,得到每帧拼接所需截取的理论宽度Wtheory
设本次拼接的已拼接宽度为Wstitch,拼接基准竖线为X=Xl,每帧在连续帧图像队列中序号为Nframe
从第二帧起遍历连续帧图像队列,若当前遍历的图像帧不是该连续帧图像队列的最后一帧,则该图像帧拼接所需截取的实际宽度Wreal=Wtheory*Nframe-Wstitch,若该图像帧为该连续帧图像队列的最后一帧,则该图像帧拼接所需截取的实际宽度Wreal=S-Wstitch,其中,连续帧图像队列中除第一帧之外,其他图像帧均为拼接帧;
若车辆运动方向为从左到右,则取拼接帧画面内宽Lx至Lx+Wreal、高0至Hresult范围内的图像条,将该图像条拷贝至新结果图中宽S-Wreal至S-Wstitch、高0至Hresult范围内,若车辆运动方向为从右到左,则取拼接帧画面内宽Lx至Lx-Wreal、高0至Hresult范围内的图像条,将该图像条拷贝至新结果图中宽S-Wreal-Wstitch至S-Wreal、高0至Hresult范围内,同时更新已拼接宽度Wstitch=Wstitch+Wreal
若该车辆拼接未完成,则将该连续帧图像队列最后一帧插入至下一次拼接队列队首前,并重复上述步骤直至该车辆拼接完成。
请参照图11,图11所示为本发明实施例提供的一种基于深度学习的车辆尺寸测量方法的流程图。本申请实施例提供一种基于深度学习的车辆尺寸测量方法,其包括如下步骤:
S210:获取包含车辆画面的连续帧图像队列,同时提取车辆框坐标信息;
S220:基于车辆框坐标信息,提取连续帧图像队列中首尾帧图像的车身范围内特征点;
S230:将特征点进行匹配,并计算偏移量;
S240:根据偏移量对连续帧图像队列中每帧图像进行截取,并拼接至最终图像上;
S250:根据最终图像和单目测距标定参数,计算该车辆的长度和高度。
上述实现过程中,该方法结合深度学习领域知识和特征点法,利用车侧连续视频帧构造车辆侧面全景图,受背景干扰影响小,车辆图像不易形变,使得得到的车辆拼接图像更加准确,则测出的车辆的长度和高度更加准确。
在本实施例的一些实施方式中,上述根据最终图像和单目测距标定参数,计算该车辆的长度和高度的步骤包括:
对相机标定单目测距参数;
具体的,根据张正友标定法对相机标定内参,得到其X方向焦距Fx,Y方向焦距Fy
根据拼接队列中每帧车辆框的位置和范围,以及拼接结果图计算实际像素宽度和高度;
根据实际像素宽度和高度,计算车辆侧面长度和高度。
具体的,请参照图8,图8所示为本发明实施例提供的车辆侧面长度和高度计算流程图。读取相机内参和测距标定板参数,对测量器初始化;遍历所有拼接帧的车辆检测框Rect={x,y,w,h},计算平均y值和h值;参照图9,图9所示为本发明实施例提供的末帧多余像素宽度裁剪示意图,车辆侧面像素宽度等于拼接图像宽度减去末帧应裁拼接宽度,车辆侧面像素高度等于上一步骤平均h值,车辆在图像内像素高度等于上一步骤平均y值,通过相机内参和测距标定板参数计算车辆长度和高度。
在本实施例的一些实施方式中,上述根据拼接队列中每帧车辆框的位置和范围,以及拼接结果图计算实际像素宽度和高度的步骤包括:
对于拼接队列所有车辆框,计算车辆框平均下边沿像素坐标Y值Ycar,和平均像素高度Hpixel_car,并记下队列尾帧车辆框Rect左边界像素坐标X值Xcl=x,右边界像素坐标X值Xcr=x+w;
对于拼接结果图,设拼接基准竖线为X=Xl,拼接图宽度Wresult,若车辆的运动方向为从左到右,则车侧像素宽度Wpixel_car=Wresult-Xcl+Xl,若车辆的运动方向为从右到左,则车侧像素宽度Wpixel_car=Wresult-Xl+Xcr
在本实施例的一些实施方式中,上述根据实际像素宽度和高度,计算车辆侧面长度和高度的步骤包括:
计算车辆长度Lreal_car=(K*Ycar+B)*Wpixel_car,车辆高度Hreal_car=(K*Ycar+B)*Fy/Fx*Hpixel_car,其中,Fx为相机在X方向焦距,Fy为相机在Y方向焦距,K、B为单目测距参数。
在本实施例的一些实施方式中,上述对相机标定单目测距参数的步骤包括:
在安装路侧相机的画面内,放置矩形标定板,标定板水平方向与相机画面水平方向保持平行,记录标定板在画面内的四个顶点坐标Plt(Xlt,Ylt)、Prt(Xrt,Yrt)、Pld(Xld,Yld)、Prd(Xrd,Yrd),记录标定板的水平宽度Wbox
计算画面内标定板平均下边沿Yd=(Yld+Yrd)/2,平均上边沿Yt=(Ylt+Yrt)/2,下边沿宽度Wd=Xrd-Xld,上边沿宽度Wt=Xrt-Xlt,设St=Wbox/Wt,Sd=Wbox/Wd,则有K=(Sd-St)/(Yd-Yt),B=Sd-K*Yd,其中,Fx、Fy、K、B为单目测距参数。
请参照图10,图10所示为本发明实施例提供的一种车辆侧面全景图拼接和车辆尺寸测量装置示意图。存储单元内存储有与基于深度学习的车辆侧面图像拼接和车辆尺寸测量方法相匹配的程序,当该程序运行后,图像采集单元采集实时视频帧,并将视频帧传输至运算单元,运算单元对视频帧进行检测、拼接和计算等操作后,将最终拼接图像和计算车辆长度高度数据通过通讯总线输送至显示模块或外界模块。
请参照图12,图12为本申请实施例提供的电子设备的一种示意性结构框图。电子设备包括存储器101、处理器102和通信接口103,该存储器101、处理器102和通信接口103相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。存储器101可用于存储软件程序及模块,处理器102通过执行存储在存储器101内的软件程序及模块,从而执行各种功能应用以及数据处理。该通信接口103可用于与其他节点设备进行信令或数据的通信。
其中,存储器101可以是但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。
处理器102可以是一种集成电路芯片,具有信号处理能力。该处理器102可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
可以理解,图12所示的结构仅为示意,电子设备还可包括比图12中所示更多或者更少的组件,或者具有与图12所示不同的配置。图12中所示的各组件可以采用硬件、软件或其组合实现。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其它的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。

Claims (2)

1.基于深度学习的车辆侧面图像拼接方法,其特征在于,包括如下步骤:
获取包含车辆画面的连续帧图像队列,同时提取车辆框坐标信息;
基于所述车辆框坐标信息,提取所述连续帧图像队列中首尾帧图像的车身范围内特征点;
将所述特征点进行匹配,并计算偏移量;
根据所述偏移量对所述连续帧图像队列中每帧图像进行截取,并拼接至最终图像上;
所述获取包含车辆画面的连续帧图像队列,同时提取车辆框坐标信息的步骤包括:
设拼接基准竖线为X=Xl,实时获取帧画面,用Yolov5模型对每帧画面fn进行车侧检测,若检测到车辆,且车辆框与所述拼接基准竖线相交或者车辆框在车辆运动方向上超过所述拼接基准竖线,则将检测标志位flag置1,并记录该车辆框的位置和范围Rect={x,y,w,h},其中,x为车辆框左上角点像素坐标x值,y为车辆框左上角点像素坐标y值,w为车辆框像素宽度,h为车辆框像素高度,否则将检测标志位flag置0;
将连续flag值为1的帧画面fn和车辆框Rect加入至拼接队列;
基于所述车辆框坐标信息,提取所述连续帧图像队列中首尾帧图像的车身范围内特征点的步骤包括:
若所述拼接队列检测到车侧,则对该拼接队列首尾帧原始图像提取车侧框Rect区域的ROI图像,否则等待下一个拼接队列;
利用SuperPoint模型,提取该ROI图像的特征点p和描述子v;
设原始图像宽Wimage、高Himage,设浮点数向上取整函数为ceil、浮点数向下取整函数为floor,预设一个网格宽度Wmesh,将原始图像划分成ceil(Wimage/Wmesh)*ceil(Himage/Wmesh)个网格,遍历所提取到的特征点p,对每个特征点p的坐标Psp(Xsp,Ysp),利用公式Nsp=floor(Ysp/Wmesh)*ceil(Wimage/Wmesh)+floor(Xsp/Wmesh)计算任一特征点p对应的网格序号Nsp,并将所有特征点p的网格序号记录至网格映射统计表中,其中,所述网格映射统计表内统计了原始图像中每个网格包含的特征点序号;
将所述特征点进行匹配,并计算偏移量的步骤包括:
判断当前将首尾帧图像的车身范围内特征点进行匹配的次数;
若当前匹配为同一车辆拼接周期内的初次匹配,则对所述特征点进行KNN匹配,得到匹配点,并对所述匹配点进行最优次优距离筛选;
若当前匹配不是同一车辆拼接周期内的初次匹配,则遍历队列首帧特征点{pf,vf},对该特征点坐标pf加上偏移坐标(S,0),得到该特征点在尾帧时刻的预测点坐标,该预测点坐标为首帧预测特征点坐标,计算所述预测点坐标对应的网格序号,统计以该预测点坐标对应的网格为中心,半径为Rm范围内的所有网格,根据所述网格映射统计表获取对应的所有尾帧特征点(pb,vb},遍历所有尾帧特征点,计算首帧预测特征点vf与尾帧特征点vb的L2距离,并记录最优距离和次优距离,取距离小于距离阈值且最优距离与次优距离的比值低于筛选阈值的尾帧特征点作为首帧预测特征点的匹配点;
对筛选后剩余的匹配点进行背景点筛选,将Y方向差值大于第一预设差值的匹配点和x方向差值小于第二预设差值的匹配点去除后,对剩余的匹配点X方向差值进行高斯滤波,并计算剩余的匹配点X方向的平均差值作为偏移量S。
2.根据权利要求1所述的基于深度学习的车辆侧面图像拼接方法,其特征在于,根据所述偏移量对所述连续帧图像队列中每帧图像进行截取,并拼接至最终图像上的步骤包括:
设拼接基准竖线为X=Xl、连续帧图像队列首帧车辆框Rects={xs,ys,ws,hs}、拼接帧图像高为H,若本次拼接为该车辆的首次拼接且车辆运动方向为从左到右,则将连续帧图像队列中首帧图像内宽为Xl至xs+hs、高为0至H范围内的画面存储为拼接结果图;
若本次拼接为该车辆的首次拼接且车辆运动方向为从右到左,则将连续帧图像队列中首帧图像内宽为xs至Xl,高为0至H范围内的画面存储为拼接结果图;
设拼接结果图宽为Wresult、高为Hresult,同时初始化一张宽为Wresult+S、高为Hresult的新结果图,若车辆运动方向为从左到右,则将拼接结果图拷贝至新结果图的宽为S至Wresult+S、高为0至Hresult的范围内,若车辆运动方向为从右到左,则将拼接结果图拷贝至新结果图的宽为0至S、高为0至Hresult的范围内;
将偏移量S除以队列帧数N-1,得到每帧拼接所需截取的理论宽度Wtheory
设本次拼接的已拼接宽度为Wstitch,拼接基准竖线为X=Xl,每帧在连续帧图像队列中序号为Nframe
从第二帧起遍历所述连续帧图像队列,若当前遍历的图像帧不是该连续帧图像队列的最后一帧,则该图像帧拼接所需截取的实际宽度Wreal=Wtheory*Nframe-Wstitch,若该图像帧为该连续帧图像队列的最后一帧,则该图像帧拼接所需截取的实际宽度Wreal=S-Wstitch,其中,所述连续帧图像队列中除第一帧之外,其他图像帧均为拼接帧;
若车辆运动方向为从左到右,则取拼接帧画面内宽Lx至Lx+Wreal、高0至Hresult范围内的图像条,将该图像条拷贝至新结果图中宽S-Wreal至S-Wstitch、高0至Hresult范围内,若车辆运动方向为从右到左,则取拼接帧画面内宽Lx至Lx-Wreal、高0至Hresult范围内的图像条,将该图像条拷贝至新结果图中宽S-Wreal-Wstitch至S-Wreal、高0至Hresult范围内,同时更新已拼接宽度Wstitch=Wstitch+Wreal
若该车辆拼接未完成,则将该连续帧图像队列最后一帧插入至下一次拼接队列队首前,并重复上述步骤直至该车辆拼接完成。
CN202211049482.0A 2022-08-30 2022-08-30 基于深度学习的车辆侧面图像拼接和车辆尺寸测量方法 Active CN115578441B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211049482.0A CN115578441B (zh) 2022-08-30 2022-08-30 基于深度学习的车辆侧面图像拼接和车辆尺寸测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211049482.0A CN115578441B (zh) 2022-08-30 2022-08-30 基于深度学习的车辆侧面图像拼接和车辆尺寸测量方法

Publications (2)

Publication Number Publication Date
CN115578441A CN115578441A (zh) 2023-01-06
CN115578441B true CN115578441B (zh) 2023-07-28

Family

ID=84578541

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211049482.0A Active CN115578441B (zh) 2022-08-30 2022-08-30 基于深度学习的车辆侧面图像拼接和车辆尺寸测量方法

Country Status (1)

Country Link
CN (1) CN115578441B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117079219B (zh) * 2023-10-08 2024-01-09 山东车拖车网络科技有限公司 一种应用于拖车业务的车辆运行情况监控方法及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108550143A (zh) * 2018-04-03 2018-09-18 长安大学 一种基于rgb-d相机的车辆长宽高尺寸的测量方法
CN113905190A (zh) * 2021-09-30 2022-01-07 中国电子科技集团公司第五十四研究所 一种面向无人机视频的全景图实时拼接方法
KR102368122B1 (ko) * 2021-08-31 2022-02-25 이홍기 딥러닝 영상 인식 기반의 차량 검출 및 추적 기술을 이용한 차량 번호 인식 방법 및 시스템

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654507B (zh) * 2015-12-24 2018-10-02 北京航天测控技术有限公司 一种基于图像动态特征跟踪的车辆外廓尺寸测量方法
CN105809626A (zh) * 2016-03-08 2016-07-27 长春理工大学 一种自适应光线补偿的视频图像拼接方法
CN105825476B (zh) * 2016-06-12 2019-02-05 浙江清华长三角研究院 一种应用于dsp的图像快速扫描拼接方式
CA3123632A1 (en) * 2018-12-21 2020-06-25 Canscan Softwares And Technologies Inc. Automated inspection system and associated method for assessing the condition of shipping containers
US11094070B2 (en) * 2019-04-23 2021-08-17 Jiangnan University Visual multi-object tracking based on multi-Bernoulli filter with YOLOv3 detection
CN110910314B (zh) * 2019-11-27 2020-09-25 广州市玄武无线科技股份有限公司 一种货架场景图像的拼接方法及装置
CN114266823A (zh) * 2021-12-07 2022-04-01 武汉理工大学 一种结合SuperPoint网络特征提取的单目SLAM方法
CN114581307A (zh) * 2022-03-18 2022-06-03 无锡范特智能科技有限公司 用于目标追踪识别的多图像拼接方法、系统、设备及介质
CN114897683A (zh) * 2022-04-25 2022-08-12 深圳信路通智能技术有限公司 车侧图像的获取方法及其装置、系统和计算机设备
CN114757833B (zh) * 2022-06-15 2022-09-27 北京中瑞方兴科技有限公司 一种车辆侧面图像拼接方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108550143A (zh) * 2018-04-03 2018-09-18 长安大学 一种基于rgb-d相机的车辆长宽高尺寸的测量方法
KR102368122B1 (ko) * 2021-08-31 2022-02-25 이홍기 딥러닝 영상 인식 기반의 차량 검출 및 추적 기술을 이용한 차량 번호 인식 방법 및 시스템
CN113905190A (zh) * 2021-09-30 2022-01-07 中国电子科技集团公司第五十四研究所 一种面向无人机视频的全景图实时拼接方法

Also Published As

Publication number Publication date
CN115578441A (zh) 2023-01-06

Similar Documents

Publication Publication Date Title
JP6871314B2 (ja) 物体検出方法、装置及び記憶媒体
CN102158719A (zh) 图像处理装置、成像装置、图像处理方法和程序
EP3825980A1 (en) Method for calculating collision time of object and vehicle, calculation device and vehicle
JP2019124683A (ja) オブジェクト速度推定方法と装置及び画像処理機器
CN115578441B (zh) 基于深度学习的车辆侧面图像拼接和车辆尺寸测量方法
JP7050763B2 (ja) カメラ画像からのオブジェクトの検出
US7561732B1 (en) Method and apparatus for three-dimensional shape estimation using constrained disparity propagation
WO2024016524A1 (zh) 基于独立非均匀增量采样的网联车位置估计方法及装置
US11210773B2 (en) Information processing apparatus, information processing method, and storage medium for defect inspection and detection
CN111091592A (zh) 图像处理方法、图像处理装置、电子设备及可读存储介质
CN112927279A (zh) 一种图像深度信息生成方法、设备及存储介质
CN110345875A (zh) 标定及测距方法、装置、电子设备及计算机可读存储介质
WO2024046053A1 (zh) 车辆违规检测方法、装置及系统、存储介质
CN112339770A (zh) 车载装置及其提供交通信号灯信息的方法
CN115761668A (zh) 摄像头的污渍识别方法、装置、车辆及存储介质
JP2020160840A (ja) 路面標示不具合検出装置、路面標示不具合検出方法及び路面標示不具合検出プログラム
CN109859489A (zh) 一种车距估计方法、装置、车载设备及存储介质
US7751613B2 (en) Method for rapidly establishing image space relation using plane filtering constraint
CN113689493A (zh) 镜头附着物检测方法、装置、电子设备和存储介质
CN108847035B (zh) 车流量评估方法及装置
US10949988B2 (en) Information processing apparatus, information processing method, and program
CN113379816B (zh) 结构变动检测方法、电子设备及存储介质
CN115205288A (zh) 工业缺陷检测方法和装置
CN116152691A (zh) 图像检测方法、装置、设备和存储介质
CN114140671A (zh) 基于多尺度融合的高分辨率芯片图像的分类方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: Room 905-1, Yintian Building, Ningbo Free Trade Zone, Zhejiang Province, 315899

Patentee after: Perceived Intelligence (Ningbo) Technology Co.,Ltd.

Country or region after: China

Address before: Room 905-1, Yintian Building, Ningbo Free Trade Zone, Beilun District, Ningbo, Zhejiang 315000

Patentee before: Perception information technology (Zhejiang) Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right

Effective date of registration: 20240507

Address after: Room 201, Building S3, No. 001, North Side of Baojing Road, Xiongxian County, Baoding City, Hebei Province, 071703

Patentee after: Hebei xiongan Wuwei Zhilian Technology Co.,Ltd.

Country or region after: China

Address before: Room 905-1, Yintian Building, Ningbo Free Trade Zone, Zhejiang Province, 315899

Patentee before: Perceived Intelligence (Ningbo) Technology Co.,Ltd.

Country or region before: China