CN110378276B - 车辆状态获取方法、装置、设备、及存储介质 - Google Patents
车辆状态获取方法、装置、设备、及存储介质 Download PDFInfo
- Publication number
- CN110378276B CN110378276B CN201910639361.3A CN201910639361A CN110378276B CN 110378276 B CN110378276 B CN 110378276B CN 201910639361 A CN201910639361 A CN 201910639361A CN 110378276 B CN110378276 B CN 110378276B
- Authority
- CN
- China
- Prior art keywords
- state
- vehicle
- recognized
- identified
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请实施例公开了一种车辆状态获取方法、装置、设备及计算机可读存储介质,本申请实施例通过获取包含待识别状态车辆的待识别状态图像;对所述待识别状态图像进行区域划分,获得所述待识别状态图像的前景区域;通过训练后编码解码模型提取所述待识别状态图像的语义信息,并根据所述语义信息确定所述前景区域的深度图;根据所述前景区域的深度图确定所述待识别状态车辆的车辆状态。提高了车辆状态获取的准确性以及效率。
Description
技术领域
本申请涉及数据处理技术领域,具体涉及一种车辆状态获取方法、装置、设备及存储介质。
背景技术
违法停车不仅影响正常的道路交通秩序,阻碍车辆的正常通行影响广大市民的生活,而且容易造成交通拥堵,污染环境,重则导致交通事故,造成人员伤亡,因此政府每年都要花费很大力气来治理。目前主要有两种方式:人工执法和定点式的视频监控。
但通过人工执法和定点式进行治理的人工成本高,效率低而且覆盖范围有限。而通过视频监控进行治理,而通过视频监控时,需要通过识别视频中的车辆,现有的识别视频中的车辆,一般采用人工查看方法,或者自动识别视频方法,而现有的自动识别视频方法,由于光线变化、外部车辆车速变化等原因,识别车辆过程中容易发生误判,容易产生纠纷,不仅影响当事人的信誉,而且会造成更大的社会运行成本,而通过人工查看,人工成本高,而且查看时间长,因此造成识别车辆的准确性以及效率较低。
发明内容
本申请实施例提供一种车辆状态获取方法、装置、设备及存储介质,可以提高识别车辆状态的准确性以及效率。
第一方面,本申请实施例提供了一种车辆状态获取方法,包括:
获取包含待识别状态车辆的待识别状态图像;
对所述待识别状态图像进行区域划分,获得所述待识别状态图像的前景区域;
通过训练后编码解码模型提取所述待识别状态图像的语义信息,并根据所述语义信息确定所述前景区域的深度图;
根据所述前景区域的深度图确定所述待识别状态车辆的车辆状态。
在一些实施方式中,所述对所述待识别状态图像进行区域划分,获得所述待识别状态图像的前景区域,包括:
通过预设检测模型,对所述待识别状态图像进行特征提取,得到所述待识别状态图像的特征图;
根据所述待识别状态图像的特征图将所述待识别状态图像划分为前景区域。
在一些实施方式中,所述根据所述语义信息确定所述前景区域的深度图,包括:
通过训练后编码解码模型获取前景区域的初始深度图;
通过所述语义信息获取所述待识别状态图像的像素类别;
根据待识别状态图像的像素类别调整所述前景区域的初始深度图中的物体边界,获得所述前景区域的深度图。
在一些实施方式中,所述通过训练后编码解码模型获取前景区域的初始深度图,包括:
获取相邻两张前景区域图像;
获取所述相邻两张前景区域图像像素信息;
获取待识别状态图像对应的相机内参;
通过训练后编码解码模型,基于所述相邻两张前景区域图像像素信息以及相机内参,获取前景区域的初始深度图。
在一些实施方式中,所述根据所述前景区域的深度图确定所述待识别状态车辆的车辆状态,包括:
检测所述前景区域的深度图中的待识别状态车辆;
根据所述前景区域的深度图获取待识别状态车辆的距离;
根据所述距离获取待识别状态车辆对应的车辆状态。
在一些实施方式中,所述距离包括多个,所述根据所述距离获取待识别状态车辆对应的车辆状态,包括:
获取所述多个距离的平均值;
根据所述平均值与多个距离获取所述多个距离的平均差;
根据所述平均差获取待识别状态车辆对应的车辆状态。
在一些实施方式中,所述获取包含待识别状态车辆的待识别状态图像,包括:
获取包含待识别状态车辆的待识别状态视频;
通过所述待识别状态视频获取初始待识别状态图像;
将所述初始待识别状态图像转换为灰度图像,得到灰度图像;
将每帧灰度图像与预设拉普拉斯核进行卷积操作,得到多帧响应图像;
计算每帧响应图像的方差,并筛选出方差大于或等于预设阈值所对应的初始待识别状态图像,得到包含待识别状态车辆的待识别状态图像。
第二方面,本申请实施例还提供了一种车辆状态获取装置,包括:
获取单元,用于获取包含待识别状态车辆的待识别状态图像;
区域划分单元,用于对所述待识别状态图像进行区域划分,获得所述待识别状态图像的前景区域;
提取单元,用于通过训练后编码解码模型提取所述待识别状态图像的语义信息,并根据所述语义信息确定所述前景区域的深度图;
确定单元,用于根据所述前景区域的深度图确定所述待识别状态车辆的车辆状态。
在一些实施方式中,所述区域划分单元,包括:
提取子单元,用于通过预设检测模型,对所述待识别状态图像进行特征提取,得到所述待识别状态图像的特征图;
划分子单元,用于根据所述待识别状态图像的特征图将所述待识别状态图像划分为前景区域。
在一些实施方式中,所述提取单元,包括:
第一获取子单元,用于通过训练后编码解码模型获取前景区域的初始深度图,通过所述语义信息获取所述待识别状态图像的像素类别;
调整子单元,用于根据待识别状态图像的像素类别调整所述前景区域的初始深度图中的物体边界,获得所述前景区域的深度图。
在一些实施方式中,所述获取子单元,包括:
获取模块,用于获取相邻两张前景区域图像;获取所述相邻两张前景区域图像像素信息;获取待识别状态图像对应的相机内参;通过训练后编码解码模型,基于所述相邻两张前景区域图像像素信息以及相机内参,获取前景区域的初始深度图。
在一些实施方式中,所述确定单元,包括:
检测子单元,用于检测所述前景区域的深度图中的待识别状态车辆;
第二获取子单元,用于根据所述前景区域的深度图获取待识别状态车辆的距离;
第三获取子单元,用于根据所述距离获取待识别状态车辆对应的车辆状态。
在一些实施方式中,所述第三获取子单元,包括:
获取模块,用于获取所述多个距离的平均值;根据所述平均值与多个距离获取所述多个距离的平均差;根据所述平均差获取待识别状态车辆对应的车辆状态。
在一些实施方式中,所述获取单元,包括:
第四获取子单元,用于获取包含待识别状态车辆的待识别状态视频;通过所述待识别状态视频获取初始待识别状态图像;
转换子单元,用于将所述初始待识别状态图像转换为灰度图像,得到灰度图像;
卷积子单元,用于将每帧灰度图像与预设拉普拉斯核进行卷积操作,得到多帧响应图像;
计算子单元,用于计算每帧响应图像的方差,并筛选出方差大于或等于预设阈值所对应的初始待识别状态图像,得到包含待识别状态车辆的待识别状态图像。
第三方面,本申请实施例还提供了一种设备,所述设备包括处理器和存储器,所述存储器中存储有程序代码,所述处理器调用所述存储器中的程序代码时执行如上所述的车辆状态获取方法。
第四方面,本申请实施例还提供了一种存储介质,所述存储介质存储有计算机程序,该程序被处理器加载以执行如上所述的车辆状态获取方法。
本申请实施例通过获取包含待识别状态车辆的待识别状态图像,对待识别状态图像进行区域划分,获得待识别状态图像的前景区域;通过训练后编码解码模型提取所述待识别状态图像的语义信息;通过训练后编码解码模型以及所述语义信息确定所述前景区域的深度图,从而获得更准确的深度图;根据前景区域的深度图待识别状态车辆的车辆状态,由于获得的深度图更准确,从而使得识别的车辆状态更为准确,从而提高了识别车辆状态的准确性,并且不需要人工进行查看,从而提高了识别车辆状态的效率,以及降低了成本。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的车辆状态获取方法的流程示意图;
图2是本申请实施例提供的车辆状态获取方法的另一流程示意图;
图3是本申请实施例提供的车辆状态获取装置的结构示意图;
图4是本申请实施例提供的设备的结构示意图;
图5是本申请实施例提供的根据前景类型,划分得到前景区域图像的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参阅图1,图1是本申请一实施例提供的车辆状态获取方法的流程示意图。该车辆状态获取方法的执行主体可以是本申请实施例提供的车辆状态获取装置,或者集成了该车辆状态获取装置的设备,比如终端或服务器等,该设备可以是智能手机、平板电脑、掌上电脑、或者笔记本电脑、固定电脑、以及服务器等等。该车辆状态获取方法可以包括:
S101,获取包含待识别状态车辆的待识别状态图像。
具体地,在本实施例中,待识别状态图像可通过视频获取,视频具体可通过安装在运输快递的车上的拍摄装置拍摄得到,还可以通过安装在公共运输车辆上的拍摄装置拍摄得到,具体此处不作限定。
具体地,步骤S101可包括:
获取包含待识别状态车辆的待识别状态视频;
通过所述待识别状态视频获取初始待识别状态图像;
将所述初始待识别状态图像转换为灰度图像,得到灰度图像;
将每帧灰度图像与预设拉普拉斯核进行卷积操作,得到多帧响应图像;
计算每帧响应图像的方差,并筛选出方差大于或等于预设阈值所对应的初始待识别状态图像,得到包含待识别状态车辆的待识别状态图像。
获取包含待识别状态车辆的待识别状态视频,其中待识别状态视频为通过安装在运输快递的车上的拍摄装置,进行拍摄包含待识别状态车辆,从而得到待识别状态视频。然后对待识别状态视频进行处理,得到初始待识别状态图像,具体地,将待识别状态视频中的模拟信号由电信号转化为处于压缩状态的图像信号。在本发明实施例的方案中,可以根据实际情况选取实现待识别状态视频的模拟信号到图像信号的转换的方法,对于具体的转换方法和算法不做限制。通过该步骤的转换工作,便可以获得待识别状态视频的图像信号了,但该图像信号是处于压缩状态的,需要进一步对该压缩状态的图像信号进行解压缩,即可获得待识别状态视频的初始待识别状态图像,对于具体的解压缩方法和算法不做限制。在获得初始待识别状态图像之后,为了提高图像的精度,可以预先对初始待识别状态图像进行筛选,以筛选出清晰度较高的待识别状态图像。首先,将初始待识别状态图像从三原色(RGB,Red Green Blue)图像转换为灰度图像,得到多张灰度图像。然后对每张灰度图像进行拉普拉斯变换(Laplacian Transform),例如,可以将每张灰度图像与预设拉普拉斯核进行卷积操作,得到多张响应图像,其中,预设拉普拉斯核可以根据实际需要进行灵活设置,例如,该预设拉普拉斯核可以为3*3的拉普拉斯核。
此时,可以计算每张响应图像的方差,并筛选出方差大于或等于预设阈值所对应的初始待识别状态图像,得到有效待识别状态图像,其中,预设阈值可以根据实际需要进行灵活设置,方差大于或等于预设阈值则说明初始待识别状态图像较清晰,而方差小于预设阈值则说明初始待识别状态图像较模糊,因此需要将方差小于预设阈值的模糊初始待识别状态图像剔除,得到待识别状态图像。
S102,对所述待识别状态图像进行区域划分,获得所述待识别状态图像的前景区域。
在获得待识别状态图像之后,可对待识别状态图像进行区域划分,获得待识别状态图像的前景区域,在具体划分过程中,还可以进一步获得待识别状态图像的背景区域。
例如,可以通过预设检测模型,对待识别状态图像进行特征提取,得到待识别状态图像的特征图,根据该待识别状态图像的特征图将待识别状态图像划分为前景区域和背景区域。
即步骤S102包括:
通过预设检测模型,对所述待识别状态图像进行特征提取,得到所述待识别状态图像的特征图;
根据所述待识别状态图像的特征图将所述待识别状态图像划分为前景区域。
比如,具体可以根据该待识别状态图像的特征图,筛选满足前景类型的前景区域,然后,获取该待识别状态图像中除前景区域之外的区域,便可以得到背景区域。其中前景类型可根据实际需求进行设置,比如在本实施例中,可以将车辆以及人物设置为前景类型。
S103,通过训练后编码解码模型提取所述待识别状态图像的语义信息,并根据所述语义信息确定所述前景区域的深度图。
通过训练后编码解码模型提取待识别状态图像的语义信息,其中待识别状态图像的语义信息包括前景区域的语义信息与背景区域的语义信息,训练后编码解码模型由多个标注了像素类别信息,即语义信息的样本图像训练而成,其中,像素类别信息可以为墙壁、楼宇、室内地面、室外地面、餐桌、办公桌、人物、住宅、窗户、门、箱子、海报公告牌、屏幕、车、柱子、计算机、电视、柜台、舞台、显示器、其他前景、或者其他背景等。具体可以通过编码解码模型,对样本图像进行检测,得到预测的像素类别信息,将该预测的像素类别信息和标注的像素类别信息进行收敛,使得预测的像素类别信息无限接近于标注的像素类别信息,以此类推进行多次训练,最终便可得到训练后编码解码模型。
其中,像素类别信息的标注可以由标注审核人员根据专业影像人员的指导进行标注的像素类别信息的标注规则可根据实际应用的需求而定。
训练后编码解码模型具体可以由其他设备进行训练后,提供给该车辆状态识别装置,从而集成在车辆识别装置中,或者,也可以由该车辆状态识别装置自行进行训练,在此不做限制。
然后通过训练后编码解码模型获取前景区域的初始深度图,并将语义信息结合初始深度图,从而获得前景区域的深度图。
具体地,步骤S103包括:
通过训练后编码解码模型获取前景区域的初始深度图;
通过所述语义信息获取所述待识别状态图像的像素类别;
根据待识别状态图像的像素类别调整所述前景区域的初始深度图中的物体边界,获得所述前景区域的深度图。
通过训练后编码解码模型获取前景区域的初始深度图,同理,训练后编码解码模型由多个标注了深度图的样本图像训练而成,然后通过语义信息获取待识别状态图像的像素类别,通过增加像素类别来纠正初始深度图中每个像素点的分类,即可根据待识别状态图像的像素类别调整前景区域的初始深度图中的物体边界,使得物体间深度估计更准确,从而获得准确性更高前景区域的深度图。
其中,通过训练后编码解码模型获取前景区域的初始深度图的过程可包括:
获取相邻两张前景区域图像;
获取所述相邻两张前景区域图像像素信息;
获取待识别状态图像对应的相机内参;
通过训练后编码解码模型,基于所述相邻两张前景区域图像像素信息以及相机内参,获取前景区域的初始深度图。
首先根据待识别状态视频,获取每张前景区域图像的顺序,根据每张前景区域图像的顺序即可获取到相邻两张前景区域图像,然后获取相邻两张前景区域图像像素信息,以及获取待识别状态图像对应的相机内参,即获取拍摄待识别状态图像对应的待识别状态视频的相机的内部参数,通过训练后编码解码模型,基于相邻两张前景区域图像像素信息以及相机内参,识别得到前景区域的初始深度图。具体地,在进行初始深度图识别之前,需要对训练背景区域以及前景区域划分后的编码解码模型进行进一步训练。具体地,获取区域自适应的损失函数,并将区域自适应的损失函数集成至编码解码模型中,其中,区域自适应的损失函数用公式表示即为:
其中,p是图像上像素的位置,是Is源图像利用深度信息和姿态信息变换到目标图像Is位置的结果,变换关系具体为,其中,K是相机的内部参数。通过参数C(p)使得深度图的边界更清晰。语义分割的结果是给每一个像素分配一个属于某个类的概率,这个概率的特点是在物体内部区域得到的概率值比较大,但是在边界上概率值处于中间值0.5左右,因为不能很好的判断它到底属于哪一类。所以这时在估计深度时通过参数C(p)弱化在边界的影响,这样计算的边界将更准确。通过参数E(p)使得估计的姿态更准确,姿态的估计主要的假设是光强变化的一致性,由于空间位置的变化,光强变化比较大,导致估计不准,而背景实际上是独立于运动,虽然摄像机在移动,但是它们在前后两帧光强的变化比较稳定,因此把在背景区域的权值设置更大一点,比如0.6~0.9,在前景区域设置更小一点,比如0.3~0.5,也就是参数E(p)是个随机的分段函数,在背景区域和前景区域取值不同,从而使得估计的姿态更准确。
然后通过对集成了区域自适应的损失函数的编码解码模型进行训练,具体地,获取标注有深度信息、相机内参以及图像像素信息的样本图像,并通过集成了区域自适应的损失函数的编码解码模型对样本图像进行检测,得到预测的深度图,即深度信息,将该预测的深度信息和标注的深度信息进行收敛,使得预测的深度信息无限接近于标注的深度信息,以此类推进行多次训练,最终便可得到训练后编码解码模型。
S104,根据所述前景区域的深度图确定所述待识别状态车辆的车辆状态。
在获得前景区域的深度图之后,即可根据前景区域的深度图确定待识别状态车辆的车辆状态。具体地,检测前景区域的深度图中的待识别状态车辆;根据前景区域的深度图获取待识别状态车辆的距离,即获取待识别状态车辆与拍摄待识别状态图像对应的待识别状态视频的相机之间的距离,其中每一张前景区域的深度图对应一个距离;根据多个距离获取待识别状态车辆对应的车辆状态。
具体地,步骤S104包括:
检测所述前景区域的深度图中的待识别状态车辆;
根据所述前景区域的深度图获取待识别状态车辆的距离;
根据所述距离获取待识别状态车辆对应的车辆状态。
具体地,检测前景区域的深度图中的待识别状态车辆,具体可通过训练后编码解码模型直接对前景区域进行检测即可;根据前景区域的深度图获取待识别状态车辆的距离,即获取待识别状态车辆与拍摄待识别状态图像对应的待识别状态视频的相机之间的距离,其中每一张前景区域的深度图对应一个距离;根据多个距离获取待识别状态车辆对应的车辆状态。
进一步地,如上所述,距离包括多个距离,“根据所述距离获取待识别状态车辆对应的车辆状态”的过程包括:
获取所述多个距离的平均值;
根据所述平均值与多个距离获取所述多个距离的平均差;
根据所述平均差获取待识别状态车辆对应的车辆状态。
首先计算多个距离之间的平均值,然后根据平均值与多个距离计算多个距离的平均差,分别获取车辆静止状态和运动状态的阈值,并将多个距离的平均差分别与车辆静止状态和运动状态的阈值进行对比,若多个距离的平均差与车辆静止状态对应的阈值一致,则确定待识别状态车辆对应的车辆状态为静止,若多个距离的平均差与车辆运动状态对应的阈值一致,则确定待识别状态车辆对应的车辆状态为运动。在后续进行违法停车判断时,若车辆所在区域为不允许停车,且确定待识别状态车辆对应的车辆状态为静止时,则确定车辆违规停车,若确定待识别状态车辆对应的车辆状态为运动时,则确定车辆没有进行违规停车。
本实施例通过获取包含待识别状态车辆的待识别状态图像,对待识别状态图像进行区域划分,获得待识别状态图像的前景区域;通过训练后编码解码模型提取所述待识别状态图像的语义信息;通过训练后编码解码模型以及所述语义信息确定所述前景区域的深度图,从而获得更准确的深度图;根据前景区域的深度图待识别状态车辆的车辆状态,由于获得的深度图更准确,从而使得识别的车辆状态更为准确,从而提高了识别车辆状态的准确性,并且不需要人工进行查看,从而提高了识别车辆状态的效率,以及降低了成本。
根据上述实施例所描述的车辆状态获取方法,以下将作进一步详细说明。本实施例执行主体为具体服务器与安装在快递运输车辆上的拍摄装置,识别车辆状态的用途具体为识别车辆是否为违规停车为例进行描述获取车辆状态获取方法。
请参阅图2,图2为本申请实施例提供的车辆状态获取方法的又一流程图。
S201,拍摄装置采集包括待识别状态车辆的待识别状态视频。
S202,拍摄装置将待识别状态视频发送至服务器。
具体地,安装在快递运输车辆上的拍摄装置,在快递运输车辆运行过程中,在识别到车辆时,进行实时采集视频,并将采集到的视频发送至服务器。
S203,服务器接收包含待识别状态车辆的待识别状态视频。
S204,服务器通过待识别状态视频获取初始待识别状态图像。
S205,服务器将初始待识别状态图像转换为灰度图像,得到灰度图像。
S206,服务器将每帧灰度图像与预设拉普拉斯核进行卷积操作,得到多帧响应图像。
S207,服务器计算每帧响应图像的方差,并筛选出方差大于或等于预设阈值所对应的初始待识别状态图像,得到包含待识别状态车辆的待识别状态图像。
服务器接收拍摄装置发送的包含待识别状态车辆的待识别状态视频,在接收得到视频之后,可进一步根据需要进行识别车辆是否违规停车的车牌号以及待识别区域选取对应的待识别状态视频,具体地,首先根据待识别区域获取通过待识别区域的快递运输车辆对应的拍摄装置所拍摄的待识别状态视频,然后通过车辆的车牌号精确定位至对应的待识别状态视频。
然后对待识别状态视频进行处理,得到初始待识别状态图像,具体地,将待识别状态视频中的模拟信号由电信号转化为处于压缩状态的图像信号。通过该步骤的转换工作,便可以获得待识别状态视频的图像信号了,但该图像信号是处于压缩状态的,需要进一步对该压缩状态的图像信号进行解压缩,即可获得待识别状态视频的初始待识别状态图像。在获得初始待识别状态图像之后,为了提高图像的精度,可以预先对初始待识别状态图像进行筛选,以筛选出清晰度较高的待识别状态图像。首先,将初始待识别状态图像从RGB图像转换为灰度图像,得到多张灰度图像。然后对每张灰度图像进行拉普拉斯变换,例如,可以将每张灰度图像与预设拉普拉斯核进行卷积操作,得到多张响应图像,其中,预设拉普拉斯核可以根据实际需要进行灵活设置,例如,该预设拉普拉斯核可以为3*3的拉普拉斯核。
此时,可以计算每张响应图像的方差,并筛选出方差大于或等于预设阈值所对应的初始待识别状态图像,得到有效待识别状态图像,其中,预设阈值可以根据实际需要进行灵活设置,方差大于或等于预设阈值则说明初始待识别状态图像较清晰,而方差小于预设阈值则说明初始待识别状态图像较模糊,因此需要将方差小于预设阈值的模糊初始待识别状态图像剔除。得到待识别状态图像。
S208,通过服务器中的预设检测模型,对待识别状态图像进行特征提取,得到待识别状态图像的特征图。
S209,服务器根据待识别状态图像的特征图将待识别状态图像划分为前景区域。
比如,具体可以根据该待识别状态图像的特征图,筛选满足前景类型的前景区域,然后,获取该待识别状态图像中除前景区域之外的区域,便可以得到背景区域。其中前景类型可根据实际需求进行设置,比如在本实施例中,如图5所示,可以将车辆以及人物设置为前景类型,得到包括车辆以及人物的前景区域图像。
S210,服务器获取相邻两张前景区域图像。
S211,服务器获取相邻两张前景区域图像像素信息。
S212,服务器获取待识别状态图像对应的相机内参。
S213,通过服务器中的训练后编码解码模型,基于相邻两张前景区域图像像素信息以及相机内参,获取前景区域的初始深度图。
首先服务器根据待识别状态视频,获取每张前景区域图像的顺序,根据每张前景区域图像的顺序即可获取到相邻两张前景区域图像,然后获取相邻两张前景区域图像像素信息,以及获取待识别状态图像对应的相机内参,即获取拍摄待识别状态图像对应的待识别状态视频的相机的内部参数,通过训练后编码解码模型,基于相邻两张前景区域图像像素信息以及相机内参,识别得到前景区域的初始深度图。
S214,服务器通过语义信息获取待识别状态图像的像素类别。
S215,服务器根据待识别状态图像的像素类别调整所述前景区域的初始深度图中的物体边界,获得所述前景区域的深度图。
通过服务器中的训练后编码解码模型获取前景区域的初始深度图,同理,训练后编码解码模型由多个标注了深度图的样本图像训练而成,然后通过语义信息获取待识别状态图像的像素类别,通过增加像素类别来纠正初始深度图中每个像素点的分类,即可根据待识别状态图像的像素类别调整前景区域的初始深度图中的物体边界,使得物体间深度估计更准确,从而获得准确性更高前景区域的深度图。
S216,检测前景区域的深度图中的待识别状态车辆。
S217,根据前景区域的深度图获取待识别状态车辆的距离。
S218,获取多个距离的平均值。
S219,根据平均值与多个距离获取多个距离的平均差。
S220,根据平均差判断待识别状态车辆是否违规停车。
具体地,服务器中的编码解码模型检测前景区域的深度图中的待识别状态车辆;根据前景区域的深度图获取待识别状态车辆的距离,即获取待识别状态车辆与拍摄待识别状态图像对应的待识别状态视频的相机之间的距离,其中每一张前景区域的深度图对应一个距离。然后计算多个距离之间的平均值,根据平均值与多个距离计算多个距离的平均差,分别获取车辆静止状态和运动状态的阈值,并将多个距离的平均差分别与车辆静止状态和运动状态的阈值进行对比,若多个距离的平均差与车辆静止状态对应的阈值一致,则确定待识别状态车辆对应的车辆状态为静止,若多个距离的平均差与车辆运动状态对应的阈值一致,则确定待识别状态车辆对应的车辆状态为运动。在进行违法停车判断时,若车辆所在区域为不允许停车,且确定待识别状态车辆对应的车辆状态为静止时,则确定车辆违规停车,若确定待识别状态车辆对应的车辆状态为运动时,则确定车辆没有进行违规停车。
本实施例通过获取包含待识别状态车辆的待识别状态图像,获取待识别状态图像的前景区域;通过训练后编码解码模型提取所述待识别状态图像的语义信息;通过训练后编码解码模型以及所述语义信息确定所述前景区域的深度图,从而获得更准确的深度图;根据前景区域的深度图待识别状态车辆的车辆状态,由于获得的深度图更准确,从而使得识别的车辆状态更为准确,从而提高了识别车辆状态的准确性,并且不需要人工进行查看,从而提高了识别车辆状态的效率,以及降低了成本。
为便于更好的实施本申请实施例提供的车辆状态获取方法,本申请实施例还提供一种基于上述车辆状态获取装置。其中名词的含义与上述车辆状态获取方法中相同,具体实现细节可以参考方法实施例中的说明。
请参阅图3,图3为本申请实施例提供的车辆状态获取装置的结构示意图,其中该物车辆状态获取装置可以包括获取单元301、区域划分单元302、提取单元303以及确定单元304等。
具体地,车辆状态获取装置包括:
获取单元301,用于获取包含待识别状态车辆的待识别状态图像;
区域划分单元302,用于对所述待识别状态图像进行区域划分,获得所述待识别状态图像的前景区域;
提取单元303,用于通过训练后编码解码模型提取所述待识别状态图像的语义信息,并根据所述语义信息确定所述前景区域的深度图;
确定单元304,用于根据所述前景区域的深度图确定所述待识别状态车辆的车辆状态。
在一些实施方式中,所述区域划分单元302,包括:
提取子单元,用于通过预设检测模型,对所述待识别状态图像进行特征提取,得到所述待识别状态图像的特征图;
划分子单元,用于根据所述待识别状态图像的特征图将所述待识别状态图像划分为前景区域。
在一些实施方式中,所述提取单元303,包括:
第一获取子单元,用于通过训练后编码解码模型获取前景区域的初始深度图,通过所述语义信息获取所述待识别状态图像的像素类别;
调整子单元,用于根据待识别状态图像的像素类别调整所述前景区域的初始深度图中的物体边界,获得所述前景区域的深度图。
在一些实施方式中,所述获取子单元,包括:
获取模块,用于获取相邻两张前景区域图像;获取所述相邻两张前景区域图像像素信息;获取待识别状态图像对应的相机内参;通过训练后编码解码模型,基于所述相邻两张前景区域图像像素信息以及相机内参,获取前景区域的初始深度图。
在一些实施方式中,所述确定单元304,包括:
检测子单元,用于检测所述前景区域的深度图中的待识别状态车辆;
第二获取子单元,用于根据所述前景区域的深度图获取待识别状态车辆的距离;
第三获取子单元,用于根据所述距离获取待识别状态车辆对应的车辆状态。
在一些实施方式中,所述第三获取子单元,包括:
获取模块,用于获取所述多个距离的平均值;根据所述平均值与多个距离获取所述多个距离的平均差;根据所述平均差获取待识别状态车辆对应的车辆状态。
在一些实施方式中,所述获取单元301,包括:
第四获取子单元,用于获取包含待识别状态车辆的待识别状态视频;通过所述待识别状态视频获取初始待识别状态图像;
转换子单元,用于将所述初始待识别状态图像转换为灰度图像,得到灰度图像;
卷积子单元,用于将每帧灰度图像与预设拉普拉斯核进行卷积操作,得到多帧响应图像;
计算子单元,用于计算每帧响应图像的方差,并筛选出方差大于或等于预设阈值所对应的初始待识别状态图像,得到包含待识别状态车辆的待识别状态图像。
其中,以上各个操作的具体实施可参见前面的第一实施例,在此不再赘述。
图4示出了本发明实施例提供的设备的具体结构框图,该设备为车辆状态获取设备,具体用于实施上述实施例中提供的车辆状态获取方法。该设备400可以为智能手机或平板电脑等终端,或者是服务器。
如图4所示,设备400可以包括RF(Radio Frequency,射频)电路110、包括有一个或一个以上(图中仅示出一个)计算机可读存储介质的存储器120、输入单元130、显示单元140、传输模块170、包括有一个或者一个以上(图中仅示出一个)处理核心的处理器180以及电源190等部件。本领域技术人员可以理解,图4中示出的设备400结构并不构成对设备400的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
RF电路110用于接收以及发送电磁波,实现电磁波与电信号的相互转换,从而与通讯网络或者其他设备进行通讯。RF电路110可包括各种现有的用于执行这些功能的电路元件,例如,天线、射频收发器、数字信号处理器、加密/解密芯片、用户身份模块(SIM)卡、存储器等等。RF电路110可与各种网络如互联网、企业内部网、无线网络进行通讯或者通过无线网络与其他设备进行通讯。上述的无线网络可包括蜂窝式电话网、无线局域网或者城域网。上述的无线网络可以使用各种通信标准、协议及技术,包括但并不限于全球移动通信系统(Global System for Mobile Communication,GSM)、增强型移动通信技术(Enhanced DataGSM Environment,EDGE),宽带码分多址技术(Wideband Code Division MultipleAccess,WCDMA),码分多址技术(Code Division Access,CDMA)、时分多址技术(TimeDivision Multiple Access,TDMA),无线保真技术(Wireless Fidelity,Wi-Fi)(如美国电气和电子工程师协会标准IEEE 802.11a,IEEE 802.11b,IEEE802.11g和/或IEEE802.11n)、网络电话(Voice over Internet Protocol,VoIP)、全球微波互联接入(Worldwide Interoperability for Microwave Access,Wi-Max)、其他用于邮件、即时通讯及短消息的协议,以及任何其他合适的通讯协议,甚至可包括那些当前仍未被开发出来的协议。
存储器120可用于存储软件程序以及模块,如上述实施例中车辆状态获取方法的程序指令/模块,处理器180通过运行存储在存储器120内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现物体体积计算的功能。存储器120可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器120可进一步包括相对于处理器180远程设置的存储器,这些远程存储器可以通过网络连接至设备400。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入单元130可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。具体地,输入单元130可包括触敏表面131以及其他输入设备132。触敏表面131,也称为触摸显示屏或者触控板,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触敏表面131上或在触敏表面131附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触敏表面131可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器180,并能接收处理器180发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触敏表面131。除了触敏表面131,输入单元130还可以包括其他输入设备132。具体地,其他输入设备132可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元140可用于显示由用户输入的信息或提供给用户的信息以及设备400的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元140可包括显示面板141,可选的,可以采用LCD(Liquid Crystal Display,液晶显示器)、OLED(Organic Light-Emitting Diode,有机发光二极管)等形式来配置显示面板141。进一步的,触敏表面131可覆盖显示面板141,当触敏表面131检测到在其上或附近的触摸操作后,传送给处理器180以确定触摸事件的类型,随后处理器180根据触摸事件的类型在显示面板141上提供相应的视觉输出。虽然在图4中,触敏表面131与显示面板141是作为两个独立的部件来实现输入和输出功能,但是在某些实施例中,可以将触敏表面131与显示面板141集成而实现输入和输出功能。
设备400通过传输模块170(例如Wi-Fi模块)可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图4示出了传输模块170,但是可以理解的是,其并不属于设备400的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器180是设备400的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器120内的软件程序和/或模块,以及调用存储在存储器120内的数据,执行设备400的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器180可包括一个或多个处理核心;在一些实施例中,处理器180可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器180中。
设备400还包括给各个部件供电的电源190(比如电池),在一些实施例中,电源可以通过电源管理系统与处理器180逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源190还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
具体在本实施例中,设备400的显示单元140是触摸屏显示器,设备400还包括有存储器120,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器120中,且经配置以由一个或者一个以上处理器180执行一个或者一个以上程序包含用于进行以下操作的指令:
获取包含待识别状态车辆的待识别状态图像;
对所述待识别状态图像进行区域划分,获得所述待识别状态图像的前景区域;
通过训练后编码解码模型提取所述待识别状态图像的语义信息,并根据所述语义信息确定所述前景区域的深度图;
根据所述前景区域的深度图确定所述待识别状态车辆的车辆状态。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见上文针对车辆状态获取方法的详细描述,此处不再赘述。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过程序来完成,或通过程序控制相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种存储介质,所述存储介质存储有计算机程序,该程序被处理器加载以执行本申请实施例所提供的任一种车辆状态获取方法中的步骤。例如,该计算机程序可以执行如下步骤:
获取包含待识别状态车辆的待识别状态图像;
对所述待识别状态图像进行区域划分,获得所述待识别状态图像的前景区域;
通过训练后编码解码模型提取所述待识别状态图像的语义信息,并根据所述语义信息确定所述前景区域的深度图;
根据所述前景区域的深度图确定所述待识别状态车辆的车辆状态。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的计算机程序,可以执行本申请实施例所提供的任一种车辆状态获取方法中的步骤,因此,可以实现本申请实施例所提供的任一种车辆状态获取方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种车辆状态获取方法、装置、设备及存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (9)
1.一种车辆状态获取方法,其特征在于,包括:
获取包含待识别状态车辆的待识别状态图像;
对所述待识别状态图像进行区域划分,获得所述待识别状态图像的前景区域;
通过训练后编码解码模型提取所述待识别状态图像的语义信息;
通过训练后编码解码模型获取前景区域的初始深度图;
通过所述语义信息获取所述待识别状态图像的像素类别;
根据待识别状态图像的像素类别调整所述前景区域的初始深度图中的物体边界,获得所述前景区域的深度图;
根据所述前景区域的深度图确定所述待识别状态车辆的车辆状态。
2.根据权利要求1所述的车辆状态获取方法,其特征在于,所述对所述待识别状态图像进行区域划分,获得所述待识别状态图像的前景区域,包括:
通过预设检测模型,对所述待识别状态图像进行特征提取,得到所述待识别状态图像的特征图;
根据所述待识别状态图像的特征图将所述待识别状态图像划分为前景区域。
3.根据权利要求1所述的车辆状态获取方法,其特征在于,所述通过训练后编码解码模型获取前景区域的初始深度图,包括:
获取相邻两张前景区域图像;
获取所述相邻两张前景区域图像像素信息;
获取待识别状态图像对应的相机内参;
通过训练后编码解码模型,基于所述相邻两张前景区域图像像素信息以及相机内参,获取前景区域的初始深度图。
4.根据权利要求1所述的车辆状态获取方法,其特征在于,所述根据所述前景区域的深度图确定所述待识别状态车辆的车辆状态,包括:
检测所述前景区域的深度图中的待识别状态车辆;
根据所述前景区域的深度图获取待识别状态车辆的距离;
根据所述距离获取待识别状态车辆对应的车辆状态。
5.根据权利要求4所述的车辆状态获取方法,其特征在于,所述距离包括多个,所述根据所述距离获取待识别状态车辆对应的车辆状态,包括:
获取所述多个距离的平均值;
根据所述平均值与多个距离获取所述多个距离的平均差;
根据所述平均差获取待识别状态车辆对应的车辆状态。
6.根据权利要求1所述的车辆状态获取方法,其特征在于,所述获取包含待识别状态车辆的待识别状态图像,包括:
获取包含待识别状态车辆的待识别状态视频;
通过所述待识别状态视频获取初始待识别状态图像;
将所述初始待识别状态图像转换为灰度图像,得到灰度图像;
将每帧灰度图像与预设拉普拉斯核进行卷积操作,得到多帧响应图像;
计算每帧响应图像的方差,并筛选出方差大于或等于预设阈值所对应的初始待识别状态图像,得到包含待识别状态车辆的待识别状态图像。
7.一种车辆状态获取装置,其特征在于,包括:
获取单元,用于获取包含待识别状态车辆的待识别状态图像;
区域划分单元,用于对所述待识别状态图像进行区域划分,获得所述待识别状态图像的前景区域;
提取单元,用于通过训练后编码解码模型提取所述待识别状态图像的语义信息,并根据所述语义信息确定所述前景区域的深度图;
确定单元,用于根据所述前景区域的深度图确定所述待识别状态车辆的车辆状态;
所述提取单元,还用于:
通过训练后编码解码模型获取前景区域的初始深度图;
通过所述语义信息获取所述待识别状态图像的像素类别;
根据待识别状态图像的像素类别调整所述前景区域的初始深度图中的物体边界,获得所述前景区域的深度图。
8.一种设备,其特征在于,包括处理器和存储器,所述存储器中存储有程序代码,所述处理器调用所述存储器中的程序代码时执行如权利要求1至6任一项所述的车辆状态获取方法。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,该程序被处理器加载以执行如权利要求1至6任一项所述的车辆状态获取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910639361.3A CN110378276B (zh) | 2019-07-16 | 2019-07-16 | 车辆状态获取方法、装置、设备、及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910639361.3A CN110378276B (zh) | 2019-07-16 | 2019-07-16 | 车辆状态获取方法、装置、设备、及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110378276A CN110378276A (zh) | 2019-10-25 |
CN110378276B true CN110378276B (zh) | 2021-11-30 |
Family
ID=68253324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910639361.3A Active CN110378276B (zh) | 2019-07-16 | 2019-07-16 | 车辆状态获取方法、装置、设备、及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110378276B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112146578B (zh) * | 2019-06-28 | 2022-07-05 | 顺丰科技有限公司 | 尺度比计算方法、装置、设备、及存储介质 |
CN112862856A (zh) * | 2019-11-27 | 2021-05-28 | 深圳市丰驰顺行信息技术有限公司 | 违停车辆的识别方法、装置、设备及计算机可读存储介质 |
CN113689705B (zh) * | 2020-05-19 | 2022-11-29 | 深圳市丰驰顺行信息技术有限公司 | 车辆闯红灯检测方法、装置、计算机设备和存储介质 |
CN111951601B (zh) * | 2020-08-05 | 2021-10-26 | 智慧互通科技股份有限公司 | 一种识别配送车辆停放位置的方法及装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102223553A (zh) * | 2011-05-27 | 2011-10-19 | 山东大学 | 一种二维视频到三维视频的自动转换方法 |
CN102288613A (zh) * | 2011-05-11 | 2011-12-21 | 北京科技大学 | 一种灰度和深度信息融合的表面缺陷检测方法 |
CN105225482A (zh) * | 2015-09-02 | 2016-01-06 | 上海大学 | 基于双目立体视觉的车辆检测系统和方法 |
CN105608699A (zh) * | 2015-12-25 | 2016-05-25 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN105654732A (zh) * | 2016-03-03 | 2016-06-08 | 上海图甲信息科技有限公司 | 一种基于深度图像的道路监控系统及方法 |
WO2017065883A1 (en) * | 2015-10-14 | 2017-04-20 | Qualcomm Incorporated | Systems and methods for producing an image visualization |
CN106780516A (zh) * | 2017-01-04 | 2017-05-31 | 努比亚技术有限公司 | 一种实现交互式图像分割的方法、装置及终端 |
CN106846345A (zh) * | 2017-01-04 | 2017-06-13 | 努比亚技术有限公司 | 一种实现交互式图像分割的方法、装置及终端 |
CN107563388A (zh) * | 2017-09-18 | 2018-01-09 | 东北大学 | 一种基于深度信息预分割的卷积神经网络物体识别方法 |
CN108537815A (zh) * | 2018-04-17 | 2018-09-14 | 芜湖岭上信息科技有限公司 | 一种视频图像前景分割方法和装置 |
-
2019
- 2019-07-16 CN CN201910639361.3A patent/CN110378276B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102288613A (zh) * | 2011-05-11 | 2011-12-21 | 北京科技大学 | 一种灰度和深度信息融合的表面缺陷检测方法 |
CN102223553A (zh) * | 2011-05-27 | 2011-10-19 | 山东大学 | 一种二维视频到三维视频的自动转换方法 |
CN105225482A (zh) * | 2015-09-02 | 2016-01-06 | 上海大学 | 基于双目立体视觉的车辆检测系统和方法 |
WO2017065883A1 (en) * | 2015-10-14 | 2017-04-20 | Qualcomm Incorporated | Systems and methods for producing an image visualization |
CN108140235A (zh) * | 2015-10-14 | 2018-06-08 | 高通股份有限公司 | 用于产生图像视觉显示的系统和方法 |
CN105608699A (zh) * | 2015-12-25 | 2016-05-25 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN105654732A (zh) * | 2016-03-03 | 2016-06-08 | 上海图甲信息科技有限公司 | 一种基于深度图像的道路监控系统及方法 |
CN106780516A (zh) * | 2017-01-04 | 2017-05-31 | 努比亚技术有限公司 | 一种实现交互式图像分割的方法、装置及终端 |
CN106846345A (zh) * | 2017-01-04 | 2017-06-13 | 努比亚技术有限公司 | 一种实现交互式图像分割的方法、装置及终端 |
CN107563388A (zh) * | 2017-09-18 | 2018-01-09 | 东北大学 | 一种基于深度信息预分割的卷积神经网络物体识别方法 |
CN108537815A (zh) * | 2018-04-17 | 2018-09-14 | 芜湖岭上信息科技有限公司 | 一种视频图像前景分割方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110378276A (zh) | 2019-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110378276B (zh) | 车辆状态获取方法、装置、设备、及存储介质 | |
CN111461089B (zh) | 一种人脸检测的方法、人脸检测模型的训练方法及装置 | |
US10902234B2 (en) | Image recognition method and apparatus | |
RU2731370C1 (ru) | Способ распознавания живого организма и терминальное устройство | |
CN106296617B (zh) | 人脸图像的处理方法及装置 | |
CN111464716B (zh) | 一种证件扫描方法、装置、设备及存储介质 | |
CN106446950B (zh) | 一种图像处理方法及装置 | |
CN108259758B (zh) | 图像处理方法、装置、存储介质和电子设备 | |
CN106874906B (zh) | 一种图片的二值化方法、装置及终端 | |
CN107784271B (zh) | 指纹识别方法及相关产品 | |
CN104143078A (zh) | 活体人脸识别方法、装置和设备 | |
KR101179276B1 (ko) | 비정상 집단 행동 탐지 방법 및 장치 | |
CN111160175A (zh) | 智能行人违章行为管理方法及相关产品 | |
CN110009004B (zh) | 图像数据处理方法、计算机设备和存储介质 | |
CN112703530B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN104200249A (zh) | 一种衣物自动搭配的方法,装置及系统 | |
US20180314916A1 (en) | Object detection with adaptive channel features | |
CN110555171A (zh) | 一种信息处理方法、装置、存储介质及系统 | |
CN114140797A (zh) | 图像处理方法、智能终端及存储介质 | |
CN107832598B (zh) | 解锁控制方法及相关产品 | |
CN108021669B (zh) | 图像分类方法和装置、电子设备、计算机可读存储介质 | |
CN113421211B (zh) | 光斑虚化的方法、终端设备及存储介质 | |
CN114119964A (zh) | 一种网络训练的方法及装置、目标检测的方法及装置 | |
CN116342940A (zh) | 图像审批方法、装置、介质及设备 | |
CN110751120A (zh) | 一种检测方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |