CN113850112A - 基于孪生神经网络的路况识别方法和系统 - Google Patents
基于孪生神经网络的路况识别方法和系统 Download PDFInfo
- Publication number
- CN113850112A CN113850112A CN202110458177.6A CN202110458177A CN113850112A CN 113850112 A CN113850112 A CN 113850112A CN 202110458177 A CN202110458177 A CN 202110458177A CN 113850112 A CN113850112 A CN 113850112A
- Authority
- CN
- China
- Prior art keywords
- road condition
- frame sequence
- background
- time series
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Abstract
本发明提供了一种基于孪生神经网络的路况识别方法和系统。该方法包括:获取待进行路况识别的视频;对获取的视频的帧序列进行语义分割以区分路况对象与背景对象,其中所述路况对象包括道路、行人以及车辆中的一者或多者;对经语义分割的帧序列进行图像切分以得到路况帧序列和背景帧序列;分别对所述路况帧序列和所述背景帧序列进行特征提取;对从所述路况帧序列和所述背景帧序列中提取的特征进行融合;对多个连续帧的经融合特征进行时间序列特征提取;以及基于所提取的时间序列特征识别路况。
Description
技术领域
本发明涉及图像识别领域,更具体地,涉及基于孪生神经网络技术通过车载摄像头实时录像进行路况识别的方法和系统。
背景技术
随着AI深度学习的发展,人工智能在很多行业得以广泛应用,特别是基于计算机视觉的图像分类、物体检测、语义分割、目标跟踪技术,在人脸识别、车牌识别、路况识别等方面,传统的路况识别都是基于GPS的,但基于视频图像的路况识别以高识别率的优势逐渐处于主导地位。
基于视频图像的路况识别常用有两种方法,基于图像分类的方法和基于目标跟踪的方法,图像分类的方法使用LSTM技术把图像序列的高维特征直接喂到神经网络里进行分类,基于目标跟踪的方法是先使用Yolo、SSD等技术对摄像头视野范围内的车辆进行检测,然后进行跟踪,根据跟踪目标的状态来判断路况状态。
题为“一种以视觉为中心的基于深度学习的路况分析方法及系统”的中国专利申请(CN201710313838.X)提出了一种视觉为中心的基于深度学习的路况分析方法及系统。所述方法包括:接收来自一摄像头的实时交通环境的视觉输入;使用循环YOLO引擎,通过使用CNN训练方法,从所述的实时交通环境的视觉输入中确认至少一个初始兴趣区域;在所述至少一个的初始兴趣区域中,验证在所述至少一个的初始兴趣区域内的一检测对象是否为所追踪的候选对象;使用LSTMs来跟踪基于实时交通环境视觉输入的所述检测对象,并通过使用CNN训练方法,预测所述检测对象的未来状态。
题为“一种基于实时路况视频的精准路况分析方法及系统”的中国专利申请(CN201510488609.2)一种基于实时路况视频的精准路况分析方法,包含以下步骤:1)在市区各街道架设视频摄像头,获取街道的实时视频;2)处理实时视频为路况视频,将该路况视频转换为路况图片;3)对路况图片进行识别和分析,生成适合数据库存储的格式化数据;4)将已获取实时路况视频的街道与全部街道进行匹配,找出还未获取路况视频的街道;5)通过高德地图获取未获取路况视频街道的路况信息;6)步骤3)中的格式化数据和高德地图数据汇总形成最终完整的路况信息。
目前的发明和方案都是基于静态摄像头的视频录像进行路况识别,但在行车记录仪里的摄像头,在一个动态的环境下,道内的车辆和路边的环境都在变化,如果直接进行跟踪或者分类,整个图片的噪声数据较大,训练的模型很难收敛。
发明内容
提供本发明内容以便以简化形式介绍将在以下具体实施方式中进一步的描述一些概念。本发明内容并非旨在标识所要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护的主题的范围。
为了克服现有技术中的问题,本发明旨在提供一种路况识别方法和系统,能够根据行车环境下行车记录仪的海量动态图片,进行路况识别,并结合GPS数据,给司机提供一个准确的路况状况信息。
根据本发明的一个方面,提供了一种路况识别方法,方法包括:
获取待进行路况识别的视频;
对获取的视频的帧序列进行语义分割以区分路况对象与背景对象,其中所述路况对象包括道路、行人以及车辆中的一者或多者;
对经语义分割的帧序列进行图像切分以得到路况帧序列和背景帧序列;
分别对所述路况帧序列和所述背景帧序列进行特征提取;
对从所述路况帧序列和所述背景帧序列中提取的特征进行融合;
对多个连续帧的经融合特征进行时间序列特征提取;以及
基于所提取的时间序列特征识别路况。
根据本发明的另一个方面,提供了一种路况识别系统,包括:
视频捕捉模块,所述视频捕捉模块被配置成捕捉实时路况视频;
路况识别模块,所述路况识别模块被配置成:
对获取的实时路况视频的帧序列进行语义分割以区分路况对象与背景对象,其中所述路况对象包括道路、行人以及车辆中的一者或多者;
对经语义分割的帧序列进行图像切分以得到路况帧序列和背景帧序列;
分别对所述路况帧序列和所述背景帧序列进行特征提取;
对从所述路况帧序列和所述背景帧序列中提取的特征进行融合;
对多个连续帧的经融合特征进行时间序列特征提取;以及
基于所提取的时间序列特征识别路况;以及
通信模块,所述通信模块用于将所述路况识别模块的识别结果发送给路况监测平台。
根据本发明的进一步实施例,对获取的视频的帧序列进行语义分割以区分路况对象与背景对象进一步包括:
使用预训练的路况语义分割模型来将路况对象与背景对象区分开,以得到蒙版帧序列。
根据本发明的进一步实施例,对经语义分割的帧序列进行图像切分以得到路况帧序列和背景帧序列进一步包括:
对所述蒙板帧序列进行二值化操作;
将经二值化后的蒙板帧序列调整到原图大小;
使用经调整的蒙板帧序列对原图进行蒙板操作以将原图中的背景对象替换为黑色以得到路况帧序列;以及
使用所述经调整的蒙板帧序列的反值图序列对原图进行蒙板操作以将原图中的路况对象替换为黑色以得到背景帧序列。
根据本发明的进一步实施例,对多个连续帧的经融合特征进行时间序列特征提取进一步包括:
将所述多个连续帧的经融合特征输入预训练的循环神经网络,以提取所述时间序列特征。
根据本发明的进一步实施例,基于所提取的时间序列特征识别路况进一步包括:
将所提取的时间序列特征输入预训练的路况分类器模型以得到路况识别结果。
与现有技术中的方案相比,本发明所提供的路况识别方法和系统至少具有以下优点:
(1)具备高准确性,把车道信息和环境信息分割分别训练,结合LSTM时序模型,使得训练的模型准确性更高;
(2)具备高效性,单个孪生分支的输入图片噪声变小,使得模型训练在较少的训练样本下可以快速收敛;
(3)具备稳定性,本发明基于深度学习神经网络技术,泛化能力更强,识别较稳定;以及
(4)具备经济性,本发明对训练样本的数量大幅降低,训练的GPU资源也大幅降低,具备一定的经济性。
通过阅读下面的详细描述并参考相关联的附图,这些及其他特点和优点将变得显而易见。应该理解,前面的概括说明和下面的详细描述只是说明性的,不会对所要求保护的各方面形成限制。
附图说明
为了能详细地理解本发明的上述特征所用的方式,可以参照各实施例来对以上简要概述的内容进行更具体的描述,其中一些方面在附图中示出。然而应该注意,附图仅示出了本发明的某些典型方面,故不应被认为限定其范围,因为该描述可以允许有其它等同有效的方面。
图1是根据本发明的一个实施例的路况识别方法的流程图。
图2是根据本发明的一个实施例的对视频进行处理的整体流程的示意图。
图3是根据本发明的一个实施例的路况识别系统的示意结构图。
图4是根据本发明的一个实施例的用于训练路况识别模型的系统的示意结构图。
具体实施方式
下面结合附图详细描述本发明,本发明的特点将在以下的具体描述中得到进一步的显现。
图1是根据本发明的一个实施例的路况识别方法100的流程图。图2是根据本发明的一个实施例的对视频进行处理的整体流程的示意图。
方法100开始于步骤102,获取待识别的视频。作为一个示例,待识别的视频可以是由行车记录仪或安装在汽车上的相机或其他图像捕获设备所捕捉的实时路况视频。典型地,路况视频通常捕捉汽车正前方一定视角范围内的环境画面,环境中一般包括道路、行人、车辆等路况对象以及道路两旁的建筑物、树木等背景对象。
在步骤104,对获取的视频的帧序列进行语义分割以区分路况对象与背景对象。如之前提到的,路况对象可包括但不限于道路、行人以及车辆,背景对象可包括但不限于建筑物、树木、以及不属于路况对象的任何其他对象。作为一个示例,语义分割可使用经训练的路况语义分割模型对所获取视频的帧序列中的每一帧逐一进行。
作为一个示例,将帧输入路况语义分割模型后,模型能够输出将路况对象与背景对象区分开的二分类分割图,其中路况对象可被标记为一种颜色,背景可被标记为另一种颜色。该帧在后续将作为蒙板使用,因此被称为蒙板帧,对抽取的帧序列的每一帧进行处理后即得到蒙板帧序列。本发明可使用全卷积网络、U-Net、SegNet或类似地分割网络来搭建和训练用于路况语义分割的学习网络。优选地,不同的目标可在像素层面进行分类。
可选地,在对获取的视频进行语义分割之前,可先对获取的视频进行抽帧。视频是由多个连续帧组成的,常见的视频格式帧速率一般为每秒钟24帧/30帧/60帧。对于路况场景,连续的帧不能全局代表当前的行驶路况。因此,可以指定抽取的帧率,例如每隔几秒(例如3秒、5秒)或者是一定的帧数(例如24fps的视频可以每隔72帧或120帧)从视频中抽取一定数量的帧。在一个示例中,可以对视频的时长进行限定,例如每段视频为30秒或60秒。如果超过这一时长,可以先对视频进行分割。当视频时长是固定的,从视频中抽取出的帧的数量也将是固定的。在另一示例中,视频的时长可以不固定,但抽取出的帧的数量可以被限定,例如抽取10帧或其他数量的帧。
在步骤106,对经语义分割的帧序列进行图像切分,以得到路况帧序列和背景帧序列。例如,在前一步骤中,路况语义分割模型已对视频的帧序列进行了语义分割,并输出了将路况对象与背景对象区分开的二分类分割图序列,即蒙板帧序列。通过该蒙版帧序列,可对原始的视频的帧序列进行蒙板处理,将每一原始帧切分为仅包含路况对象的路况图像帧和仅包含背景对象的背景图像帧。作为一个示例,蒙板处理可进一步包括对蒙板帧序列进行二值化操作(例如处理为0和1),接着使用经调整的二值化图对原图进行蒙板(mask)操作,以将原图中的背景对象替换为黑色,而原图中的路况对象保留为原始颜色。可以理解,此处背景替换为黑色只是一个示例,也可以是其他任何能够便于区分背景对象与路况对象的颜色。通过这一步骤,经处理后的帧序列中仅保留了道路、人、车辆等路况对象,其余的背景信息(即噪声)通过蒙板处理被有效滤除。类似地,将该二值化图中得0和1进行反值再作为蒙版,就可以用于将原图中的路况对象替换为黑色,而原图中的背景对象保留为原始颜色。
在步骤108,分别对路况帧序列和背景帧序列进行特征提取。作为一个示例,可构建两个结构完全相同、但权重不共享的孪生神经网络,例如图2中所示的车道分支网络模型和环境分支网络模型,分别对经蒙板处理的路况帧序列和背景帧序列进行特征提取。由于输入给车道分支网络模型和环境分支网络模型的分别是仅包括路况对象的路况帧序列和仅包括背景对象的背景帧序列,因此对于孪生神经网络的两个分支中的每一个而言,输入对象中包含的噪声被显著滤除,并因而准确率更高,同时在整个网络模型的训练过程中,可大幅降低训练样本的数量,同时也可显著降低训练所需的GPU资源。此外,与仅进行语义分割但仅针对路况对象进行特征提取和路况识别相比,背景对象的加入提高了模型整体的准确率。例如,当车往前走的时候,树木和建筑在做一个反向的运动。在一些情况下,如果两辆车在同速运行,距离也比较近,单单车道信息没法确定是拥堵还是缓行,这个时候周边的环境就是一个很好的参照。
在步骤110,对从路况帧序列和背景帧序列中提取的特征进行融合。在前一步骤中,孪生神经网络中的两个分支即车道分支网络模型和环境分支网络模型分别对路况帧序列和背景帧序列进行了特征提取,得到各自的高维特征,例如每一个原始帧切分成的一组路况图像帧和背景图像帧可分别得到一个512*7*7的特征向量,这两个512*7*7的特征向量可通过诸如concatenate连接函数融合为一个1024*7*7的特征向量。
在步骤112,对多个连续帧的经融合特征进行时间序列特征提取。路况场景中仅仅提取图像的语义特征和空间特征是不能判别路况的,需要将图像序列之间的序列语义信息考虑在内才能反应路况的真实状态。因此,之前的步骤中提取出的每一帧的图像特征可被提供给例如循环神经网络(诸如LSTM网络)来进行时间序列特征提取。
在步骤114,基于所提取的时间序列特征来识别路况。例如,可将步骤112提取的特征输入到全连接神经网络中进行路况分类。作为一个示例,分类可包括将高维特征向量通过诸如flatten操作来变为1维向量,随后通过至少一个全连接层来进行权重提取,最后在使用诸如softmax来进行分类。在一个示例中,路况可分为畅行、缓行、拥堵、封闭四种。本领域技术人员可以理解,也可以根据实际需要设置更多或更少的分类数量。最终的输出可以是每一帧路况分类的预测概率。
图3是根据本发明的一个实施例的路况识别系统300的示意结构图。如图3中所示,系统300可包括视频捕捉模块302、路况识别模块304、以及通信模块306。作为一个示例,视频捕捉模块302可以是行车记录仪或安装在汽车上的相机或其他图像捕获设备,用于捕捉实时路况视频。路况识别模块304可被配置成集成在行车记录仪或汽车中的硬件或软件,用于根据视频捕捉模块302所捕捉的实时路况视频进行路况识别,例如可通过以上结合图1和图2描述的方法对当前路况进行识别,并给出相应路况的预测概率。通信模块306也可被集成在行车记录仪或汽车中,用于将路况识别模块304所输出的识别结果和/或其他相关数据报告给云端,例如可上报给路况监测平台或交通管理部门下属的其他智慧管理平台(例如智能城市平台、智慧城市大脑等等),通过汇总不同汽车上报的路况,路况监测平台可以生成全局实时路况,智慧管理平台可以根据上传的数据做进一步分析和处理,例如用于生成交通管理决策(例如,车道设置、交通信号灯设置等等)。
图4是根据本发明的一个实施例的用于训练路况识别模型的系统400的示意结构图。相同400可包括车道语义分割模块402、图片切分模块404、孪生神经网络模块406、特征融合模块408、LSTM序列模块410、以及车况分类模块412。
车道语义分割模块402可被配置用于收集真实路况图片,例如来自行车记录仪里车况的图片,并以多分类方式进行ground truth的标签化,然后训练语义分割模型,并根据训练出的语义分割模型对每一帧图片进行推理预测。
图片切分模块404可被配置用于将路况车辆信息和环境背景信息根据车道语义分割模块的结果分割成两张图片。
孪生神经网络模块406可被配置用于把路况车辆信息和环境背景信息放到两个不共享权重的孪生网络里分别进行权重的训练,经训练后的分支可各自对仅包含路况车辆信息和仅包含环境背景信息的图像帧进行高维特征提取。
特征融合模块408可被配置用于把两分支的孪生神经网络模型提取的高维特征进行融合为1个高维特征。
LSTM序列模块410可被配置用于把融合后的特征喂入到LSTM网络中以提取时间序列特征。
车况分类模块412可被配置用于对时间序列特征进行全连接权重的训练提取全局特征,最终通过softmax进行分类。
以上所已经描述的内容包括所要求保护主题的各方面的示例。当然,出于描绘所要求保护主题的目的而描述每一个可以想到的组件或方法的组合是不可能的,但本领域内的普通技术人员应该认识到,所要求保护主题的许多进一步的组合和排列都是可能的。从而,所公开的主题旨在涵盖落入所附权利要求书的精神和范围内的所有这样的变更、修改和变化。
Claims (10)
1.一种路况识别方法,包括:
获取待进行路况识别的视频;
对获取的视频的帧序列进行语义分割以区分路况对象与背景对象,其中所述路况对象包括道路、行人以及车辆中的一者或多者;
对经语义分割的帧序列进行图像切分以得到路况帧序列和背景帧序列;
分别对所述路况帧序列和所述背景帧序列进行特征提取;
对从所述路况帧序列和所述背景帧序列中提取的特征进行融合;
对多个连续帧的经融合特征进行时间序列特征提取;以及
基于所提取的时间序列特征识别路况。
2.如权利要求1所述的方法,其特征在于,对获取的视频的帧序列进行语义分割以区分路况对象与背景对象进一步包括:
使用预训练的路况语义分割模型来将路况对象与背景对象区分开,以得到蒙版帧序列。
3.如权利要求2所述的方法,其特征在于,对经语义分割的帧序列进行图像切分以得到路况帧序列和背景帧序列进一步包括:
对所述蒙板帧序列进行二值化操作;
将经二值化后的蒙板帧序列调整到原图大小;
使用经调整的蒙板帧序列对原图进行蒙板操作以将原图中的背景对象替换为黑色以得到路况帧序列;以及
使用所述经调整的蒙板帧序列的反值图序列对原图进行蒙板操作以将原图中的路况对象替换为黑色以得到背景帧序列。
4.如权利要求1所述的方法,其特征在于,对多个连续帧的经融合特征进行时间序列特征提取进一步包括:
将所述多个连续帧的经融合特征输入预训练的循环神经网络,以提取所述时间序列特征。
5.如权利要求1所述的方法,其特征在于,基于所提取的时间序列特征识别路况进一步包括:
将所提取的时间序列特征输入预训练的路况分类器模型以得到路况识别结果。
6.一种路况识别系统,包括:
视频捕捉模块,所述视频捕捉模块被配置成捕捉实时路况视频;
路况识别模块,所述路况识别模块被配置成:
对获取的实时路况视频的帧序列进行语义分割以区分路况对象与背景对象,其中所述路况对象包括道路、行人以及车辆中的一者或多者;
对经语义分割的帧序列进行图像切分以得到路况帧序列和背景帧序列;
分别对所述路况帧序列和所述背景帧序列进行特征提取;
对从所述路况帧序列和所述背景帧序列中提取的特征进行融合;
对多个连续帧的经融合特征进行时间序列特征提取;以及
基于所提取的时间序列特征识别路况;以及
通信模块,所述通信模块用于将所述路况识别模块的识别结果发送给路况监测平台。
7.如权利要求6所述的路况识别系统,其特征在于,对获取的视频的帧序列进行语义分割以区分路况对象与背景对象进一步包括:
使用预训练的路况语义分割模型来将路况对象与背景对象区分开,以得到蒙版帧序列。
8.如权利要求7所述的路况识别系统,其特征在于,对经语义分割的帧序列进行图像切分以得到路况帧序列和背景帧序列进一步包括:
对所述蒙板帧序列进行二值化操作;
将经二值化后的蒙板帧序列调整到原图大小;
使用经调整的蒙板帧序列对原图进行蒙板操作以将原图中的背景对象替换为黑色以得到路况帧序列;以及
使用所述经调整的蒙板帧序列的反值图序列对原图进行蒙板操作以将原图中的路况对象替换为黑色以得到背景帧序列。
9.如权利要求6所述的路况识别系统,其特征在于,对多个连续帧的经融合特征进行时间序列特征提取进一步包括:
将所述多个连续帧的经融合特征输入预训练的循环神经网络,以提取所述时间序列特征。
10.如权利要求6所述的路况识别系统,其特征在于,基于所提取的时间序列特征识别路况进一步包括:
将所提取的时间序列特征输入预训练的路况分类器模型以得到路况识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110458177.6A CN113850112A (zh) | 2021-04-27 | 2021-04-27 | 基于孪生神经网络的路况识别方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110458177.6A CN113850112A (zh) | 2021-04-27 | 2021-04-27 | 基于孪生神经网络的路况识别方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113850112A true CN113850112A (zh) | 2021-12-28 |
Family
ID=78972923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110458177.6A Pending CN113850112A (zh) | 2021-04-27 | 2021-04-27 | 基于孪生神经网络的路况识别方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113850112A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114820691A (zh) * | 2022-06-28 | 2022-07-29 | 苏州魔视智能科技有限公司 | 本车运动状态检测方法、装置、设备及存储介质 |
-
2021
- 2021-04-27 CN CN202110458177.6A patent/CN113850112A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114820691A (zh) * | 2022-06-28 | 2022-07-29 | 苏州魔视智能科技有限公司 | 本车运动状态检测方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tseng et al. | Real-time video surveillance for traffic monitoring using virtual line analysis | |
CN110738857B (zh) | 一种车辆违章取证方法、装置及设备 | |
Chang et al. | Video analytics in smart transportation for the AIC'18 challenge | |
KR102122850B1 (ko) | 딥 러닝 기반의 교통분석 및 차량번호 인식 솔루션 | |
KR20210052031A (ko) | 딥러닝 기반 교통 흐름 분석 방법 및 시스템 | |
Abidin et al. | A systematic review of machine-vision-based smart parking systems | |
CN108156406A (zh) | 行车记录仪的信息处理方法和装置 | |
Ketcham et al. | Recognizing the Illegal Parking Patterns of Cars on the Road in Front of the Bus Stop Using the Support Vector Machine | |
Arthi et al. | Object detection of autonomous vehicles under adverse weather conditions | |
CN111339834B (zh) | 车辆行驶方向的识别方法、计算机设备及存储介质 | |
CN113850112A (zh) | 基于孪生神经网络的路况识别方法和系统 | |
CN113850111A (zh) | 基于语义分割和神经网络技术的路况识别方法和系统 | |
Pan et al. | Identifying Vehicles Dynamically on Freeway CCTV Images through the YOLO Deep Learning Model. | |
CN114241373A (zh) | 一种端到端的车辆行为检测方法、系统、设备及存储介质 | |
Dinh et al. | Vehicle classification and detection based coarse data for warning traffic jam in VietNam | |
CN114937248A (zh) | 用于跨相机的车辆跟踪方法、装置、电子设备、存储介质 | |
Fratama et al. | Improved accuracy of vehicle counter for real-time traffic monitoring system | |
Umar et al. | Traffic violation detection system using image processing | |
Zaman et al. | Deep Learning Approaches for Vehicle and Pedestrian Detection in Adverse Weather | |
CN113378787B (zh) | 一种基于多特征视觉的智能交通电子提示装置检测方法及系统 | |
Sharma et al. | Categorical vehicle classification and tracking using deep neural networks | |
KR102595910B1 (ko) | 차량 번호 자동인식 시스템 및 그 방법 | |
Triwibowo et al. | Analysis of Classification and Calculation of Vehicle Type at APILL Intersection Using YOLO Method and Kalman Filter | |
Tawfeeq et al. | Road Sign Board Direction and Location Extraction and Recognition for Autonomous Vehicle. | |
Ghani et al. | Radar Based Pedestrian Classification using Deep Learning Approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220126 Address after: Room 1423, No. 1256 and 1258, Wanrong Road, Jing'an District, Shanghai 200072 Applicant after: Tianyi Digital Life Technology Co.,Ltd. Address before: 201702 3rd floor, 158 Shuanglian Road, Qingpu District, Shanghai Applicant before: Tianyi Smart Family Technology Co.,Ltd. |
|
TA01 | Transfer of patent application right |