CN108563329B - 一种基于深度图的人体手臂位置参数提取算法 - Google Patents

一种基于深度图的人体手臂位置参数提取算法 Download PDF

Info

Publication number
CN108563329B
CN108563329B CN201810285720.5A CN201810285720A CN108563329B CN 108563329 B CN108563329 B CN 108563329B CN 201810285720 A CN201810285720 A CN 201810285720A CN 108563329 B CN108563329 B CN 108563329B
Authority
CN
China
Prior art keywords
arm
pixel
point
depth map
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810285720.5A
Other languages
English (en)
Other versions
CN108563329A (zh
Inventor
应忍冬
葛昊
邹耀
刘佩林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Data Miracle Intelligent Technology Co ltd
Original Assignee
Shanghai Data Miracle Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Data Miracle Intelligent Technology Co ltd filed Critical Shanghai Data Miracle Intelligent Technology Co ltd
Priority to CN201810285720.5A priority Critical patent/CN108563329B/zh
Publication of CN108563329A publication Critical patent/CN108563329A/zh
Application granted granted Critical
Publication of CN108563329B publication Critical patent/CN108563329B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于深度图的人体手臂位置参数提取算法,该方法包括如下步骤:(1)对深度相机采集的深度图进行运动点切割;(2)基于圆周采样算法的手臂中心线定位;(3)基于3D连通域检测的手臂像素识别;(4)基于3D点云直线拟合的手臂位置参数提取。该基于深度图的人体手臂位置参数提取算法通过这几个算法模块对深度数据进行处理,实现背景干扰物排除、快速识别手臂区域并获得手臂空间位置的参数。

Description

一种基于深度图的人体手臂位置参数提取算法
技术领域
本发明涉及3D深度相机的信号处理技术领域,具体为一种基于深度图的人体手臂位置参数提取算法。
背景技术
手臂检测和位置参数提取是基于人体动作的人机交互技术核心,传统的基于RGB相机的方法由于其无法直接得到3D距离信息,需要大量的运算才能够获取手臂位置信息,效率低且误差大。随着3D深度相机的技术成熟和普及,利用3D深度相机提供的深度图,能够克服传统RGB相机在手臂检测方面遇到的困难,直接利用人体手臂在空间3D的距离信息(即:深度图)精确计算手臂位置参数,为基于手臂动作的人机交互技术提供支撑。
通过3D深度相机得到的人体深度图中除了反映人体形状和位置信息的像素点之外,还有大量背景物体像素点。此外由于3D深度相机特有的噪声干扰,使得利用深度图获取人体手臂参数前需要经过一系列的运算处理,只有去除了背景和各种干扰之后才能够得到准确可靠的手臂位置参数。
在这一领域相对先进的研究来自微软公司,根据公开的资料,微软公司的kinect设备内置了基于随机森林的点云分类算法,该算法通过比较深度图中某个像素和相邻点的深度差得到点云分类结果,根据人的不同肢体对点云分类。相比微软的这一研究成果,本专利关注的是手臂的检测和参数提取,使用多重过滤算法分离出手臂像素点,这和微软基于单一的随机森林点云分类方式不同。另外在手臂参数提取上,采用基于空间3D直线端拟合算法,这和微软使用的基于不同肢体点云交界处识别关节的算法不同。
发明内容
本发明的目的在于提供一种基于深度图的人体手臂位置参数提取算法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种基于深度图的人体手臂位置参数提取算法,该方法包括如下步骤:
(1)对包含手臂的输入深度图图像序列中的运动点切割,分离人体运动部分对应的深度图像素和静止背景对应的深度图像素,滤除静止背景对应的深度图像素;
(2)基于圆周采样算法的手臂中心线定位,对于人体运动部分的每个像素点,检测以它为中心的给定半径的圆周上的像素点是否和圆心像素点在相同物体表面,并根据检测结果判断该点是否是待选的手臂中心线;
(3)基于3D连通域检测的手臂像素识别,检测深度图中和手臂中心线像素连通的像素集合,将深度图上的像素分成一个或者多个连通域,形成连通的像素集合,根据手臂尺寸参考值,滤除体积过小的连通域,只保留和手臂尺寸匹配的连通域作为手臂像素点;
(4)基于空间3D点云直线拟合的手臂位置参数提取,对上一步输出的手臂像素点,进行3D空间直线拟合,计算手臂的起始和终止点和以及手臂的空间角度。
优选的,所述的基于深度图的人体手臂位置参数提取算法,所述的步骤(1)对包含手臂的输入深度图图像序列中的运动点切割算法,同时分析当前帧和之前的若干帧深度图,根据特定位置像素的深度变化规律和统计量确定该像素位置是否是静止背景像素,滤除被判定为静止背景的像素点。
优选的,所述的基于深度图的人体手臂位置参数提取算法,所述的(2)基于圆周采样算法的手臂中心线定位算法,对于每一个输入点云上的点,计算以它为圆心,半径为成人平均手臂半径1.414倍的圆,根据该圆周上的像素点深度和圆心像素点深度差别确定该圆周上的像素和圆心是否位于同一个物体表面,并据此判断圆心是否处于手臂中心线。
优选的,所述的基于深度图的人体手臂位置参数提取算法,所述的步骤(3)基于3D空间点云连通域检测的点云分类算法,分析来自之前处理输出的运动点像素以及手臂中心线像素,计算包含手臂中心线像素点的连通域即像素集合,对于不同连通域,滤除内部像素点数量小于手臂尺寸对应的像素点数量门限的连通域,留下的为手臂像素点连通域。
优选的,所述的基于深度图的人体手臂位置参数提取算法,所述的步骤(4)基于空间3D点云直线拟合的手臂位置参数提取算法,基于上一步得到的手臂像素点,计算他们对应的点云的3D直线拟合,根据拟合结果得到手臂的空间角度和的起点和终点位置数据。
与现有技术相比,本发明的有益效果是:该算法架构在实现手臂检测前经过了层层过滤以避免检测错误,通过数据过滤“净化”了待分析的深度图数据,只保留手臂区域对应的像素,使得能够利用3D直线拟合实现手臂参数的可靠提取。其中数据过滤是基于3D直线拟合实现手臂参数提取的前提,因为没有过滤的深度图数据中,非手臂部分的像素数量通常远大于手臂部分的像素数量,使得简单的3D直线拟合算法无法拟合到手臂位置。
附图说明
图1为本发明架构框图。
图2为本发明运动点切割的实现架构框图。
图3为本发明圆周采样手臂中心线识别的原理。
图4为本发明圆周采样手臂中心线识别的例子图。
图5为本发明连通域检测并计算连通域面积图。
图6为本发明圆周采样手臂连线示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-图6,本发明提供一种技术方案:
实施例1:
一种基于深度图的人体手臂位置参数提取算法,该方法包括如下步骤:
(1)对包含手臂的输入深度图图像序列中的运动点切割,分离人体运动部分对应的深度图像素和静止背景对应的深度图像素,滤除静止背景对应的深度图像素;
(2)基于圆周采样算法的手臂中心线定位,对于人体运动部分的每个像素点,检测以它为中心的给定半径的圆周上的像素点是否和圆心像素点在相同物体表面,并根据检测结果判断该点是否是待选的手臂中心线;
(3)基于3D连通域检测的手臂像素识别,检测深度图中和手臂中心线像素连通的像素集合,将深度图上的像素分成一个或者多个连通域,形成连通的像素集合,根据手臂尺寸参考值,滤除体积过小的连通域,只保留和手臂尺寸匹配的连通域作为手臂像素点;
(4)基于空间3D点云直线拟合的手臂位置参数提取,对上一步输出的手臂像素点,进行3D空间直线拟合,计算手臂的起始和终止点和以及手臂的空间角度。
实施例2:
根据实施例1所述的基于深度图的人体手臂位置参数提取算法,所述的步骤(1)对包含手臂的输入深度图图像序列中的运动点切割算法,同时分析当前帧和之前的若干帧深度图,根据特定位置像素的深度变化规律和统计量确定该像素位置是否是静止背景像素,滤除被判定为静止背景的像素点。
实施例3:
根据实施例1或2所述的基于深度图的人体手臂位置参数提取算法,所述的(2)基于圆周采样算法的手臂中心线定位算法,对于每一个输入点云上的点,计算以它为圆心,半径为成人平均手臂半径1.414倍的圆,根据该圆周上的像素点深度和圆心像素点深度差别确定该圆周上的像素和圆心是否位于同一个物体表面,并据此判断圆心是否处于手臂中心线。
实施例4:
根据实施例1或2或喔所述的基于深度图的人体手臂位置参数提取算法,所述的步骤(3)基于3D空间点云连通域检测的点云分类算法,分析来自之前处理输出的运动点像素以及手臂中心线像素,计算包含手臂中心线像素点的连通域即像素集合,对于不同连通域,滤除内部像素点数量小于手臂尺寸对应的像素点数量门限的连通域,留下的为手臂像素点连通域。
实施例5:
根据实施例1或2或3或4所述的基于深度图的人体手臂位置参数提取算法,所述的步骤(4)基于空间3D点云直线拟合的手臂位置参数提取算法,基于上一步得到的手臂像素点,计算他们对应的点云的3D直线拟合,根据拟合结果得到手臂的空间角度和的起点和终点位置数据。
实施例6:
根据实施例1或2或3或4或5所述的基于深度图的人体手臂位置参数提取算法,通过图1给出的总体算法架构实现的。算法包括几个处理过程:1)对包含手臂的输入深度图图像序列中的运动点切割(图中标号1)——分离人体运动部分对应的深度图像素和静止背景对应的深度图像素,滤除静止背景对应的深度图像素;2)基于圆周采样算法的手臂中心线定位(图中标号2)——对于人体运动部分的每个像素点,检测以它为中心的给定半径的圆周上的像素点是否和圆心像素点在相同物体表面,并根据检测结果判断该点是否是待选的手臂中心线;3)基于3D连通域检测的手臂像素识别(图中标号3)——检测深度图中和手臂中心线像素连通的像素集合,将深度图上的像素分成一个或者多个连通域(即:连通的像素集合),根据手臂尺寸参考值,滤除体积过小的连通域,只保留和手臂尺寸匹配的连通域作为手臂像素点;4)基于空间3D点云直线拟合的手臂位置参数提取(图中标号4)——对上一步输出的手臂像素点,进行3D空间直线拟合,计算手臂的起始和终止点和以及手臂的空间角度。
不同与传统的检测方案,该算法架构在实现手臂检测前经过了层层过滤(图中标号1,2,3)以避免检测错误,通过数据过滤“净化”了待分析的深度图数据,只保留手臂区域对应的像素,使得能够利用3D直线拟合实现手臂参数的可靠提取。其中数据过滤是基于3D直线拟合实现手臂参数提取的前提,因为没有过滤的深度图数据中,非手臂部分的像素数量通常远大于手臂部分的像素数量,使得简单的3D直线拟合算法无法拟合到手臂位置。
图1中各个算法框的具体实现原理如下给出。
1.运动点切割
运动点切割算法的细节由图2给出。该算法包括了几个子模块:1)像素深度方差计算(图中标号2)——计算给定时间窗口多帧深度图(图中标号1)中相同位置像素的随时间变化的方差估计;2)像素最近距离计算(图中标号3)——计算给定时间窗口内多帧深度图中相同位置像素的最近距离(离深度相机镜头的最近距离);3)像素过滤器(图中标号4)——对于最新输入的深度图数据帧,如果给定位置上的像素对应的深度比“像素最近距离计算”输出的结果大出固定的门限,并且该像素位置“像素深度方差计算”输出的方差低于门限,则判为背景点,予以滤除。经过这一计算,切除背景静止点,留下的是运动点。
2.基于圆周采样算法的手臂中心线定位
这一部分的基本原理是根据每个待判别的深度图像素点,对以它为中心,半径为普通成年人手臂半径1.414倍的圆的圆周上的像素点进行比较,计算圆周上像素点和圆心像素点的深度差。根据给定的门限区分和圆心处于同一物体表面的像素点以及和圆心处于不同物体表面的像素点。如图3所示,图中圆周的实线部分是和圆心处于相同物体表面的像素,而圆周的虚线部分是和圆心处于不同物体表面的像素。
根据成年人手臂尺寸的平均值,可以发现,如果所分析的深度图像素处于手臂中心,则基于圆周采样得到的像素分类结果将圆周分为近似等长的4段,其中实线和虚线(分别对应和圆心在相同物体表面和不同物体表面的圆周)交替出现。根据这个特点,可以识别出手臂中心对应的像素点。图4中给出了3个像素点根据该算法识别的手臂中心像素点的例子。图中3个圆的中心位于这3个像素点上,其中圆1和2的圆心在手臂的中心线上,通过圆周采样看到他们的采样结果满足“虚线、实线”交替,将圆周分为等长的4段。而圆3不处于手臂中心线上,通过圆采样得到的圆周的分类结果对应的虚实线分段不满足“虚实”交替等分圆周为4段的特点。
3.基于3D连通域检测的手臂像素识别
这一部分基于之前得到的手臂中心线像素位置信息,将和手臂中心像素连通的像素点标注为待选手臂区域。如图5所示:图中区域1对应的像素点集合中任意两个像素对应的点可以通过相同区域内空间距离小于特定门限的像素点序列联通。由于手臂中心线检测过程中不可避免的出现误检,比如图5的区域2,该区域是半径和手臂接近的条块,在前一步检测中,该条块的中心被误认为是手臂中心,因此需要进一步过滤,这一过滤是通过检测连通的点云集合的尺寸进行的。根据成年人平均手臂尺寸对应的像素面积即:手臂对应像素数量,定义门限,对像素数量小于该门限的连通域,被判定为非手臂部分,被滤除。
4.基于空间3D点云直线拟合的手臂位置参数提取
经过以上步骤过滤,留下的深度图像素点中,手臂部分的像素数量占主要部分,通过直线拟合算法,比如最小二乘法和RANSAC方法,可以得到这些点云拟合的直线(图中标号3)的方位角,并且在深度图中根据直线的投影(从3D空间投影到深度图)和上一步检测得到的连通域边界的交点,得到手臂的起始和结束位置(图中标号1,2)。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (5)

1.一种基于深度图的人体手臂位置参数提取算法,其特征是:该方法包括如下步骤:
(1)对包含手臂的输入深度图图像序列中的运动点切割,分离人体运动部分对应的深度图像素和静止背景对应的深度图像素,滤除静止背景对应的深度图像素;
(2)基于圆周采样算法的手臂中心线定位,对于人体运动部分的每个像素点,检测以它为中心的给定半径的圆周上的像素点是否和圆心像素点在相同物体表面,并根据检测结果判断该点是否是待选的手臂中心线;
(3)基于3D连通域检测的手臂像素识别,检测深度图中和手臂中心线像素连通的像素集合,将深度图上的像素分成一个或者多个连通域,形成连通的像素集合,根据手臂尺寸参考值,滤除体积过小的连通域,只保留和手臂尺寸匹配的连通域作为手臂像素点;
(4)基于空间3D点云直线拟合的手臂位置参数提取,对上一步输出的手臂像素点,进行3D空间直线拟合,计算手臂的起始和终止点和以及手臂的空间角度。
2.根据权利要求1所述的基于深度图的人体手臂位置参数提取算法,其特征是:所述的步骤(1)对包含手臂的输入深度图图像序列中的运动点切割算法,同时分析当前帧和之前的若干帧深度图,根据特定位置像素的深度变化规律和统计量确定该像素位置是否是静止背景像素,滤除被判定为静止背景的像素点。
3.根据权利要求1所述的基于深度图的人体手臂位置参数提取算法,其特征是:所述的(2)基于圆周采样算法的手臂中心线定位算法,对于每一个输入点云上的点,计算以它为圆心,半径为成人平均手臂半径1.414倍的圆,根据该圆周上的像素点深度和圆心像素点深度差别确定该圆周上的像素和圆心是否位于同一个物体表面,并据此判断圆心是否处于手臂中心线。
4.根据权利要求1所述的基于深度图的人体手臂位置参数提取算法,其特征是:所述的步骤(3)基于3D空间点云连通域检测的点云分类算法,分析来自之前处理输出的运动点像素以及手臂中心线像素,计算包含手臂中心线像素点的连通域即像素集合,对于不同连通域,滤除内部像素点数量小于手臂尺寸对应的像素点数量门限的连通域,留下的为手臂像素点连通域。
5.根据权利要求1所述的基于深度图的人体手臂位置参数提取算法,其特征是:所述的步骤(4)基于空间3D点云直线拟合的手臂位置参数提取算法,基于上一步得到的手臂像素点,计算他们对应的点云的3D直线拟合,根据拟合结果得到手臂的空间角度和的起点和终点位置数据。
CN201810285720.5A 2018-03-23 2018-03-23 一种基于深度图的人体手臂位置参数提取算法 Active CN108563329B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810285720.5A CN108563329B (zh) 2018-03-23 2018-03-23 一种基于深度图的人体手臂位置参数提取算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810285720.5A CN108563329B (zh) 2018-03-23 2018-03-23 一种基于深度图的人体手臂位置参数提取算法

Publications (2)

Publication Number Publication Date
CN108563329A CN108563329A (zh) 2018-09-21
CN108563329B true CN108563329B (zh) 2021-04-27

Family

ID=63533797

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810285720.5A Active CN108563329B (zh) 2018-03-23 2018-03-23 一种基于深度图的人体手臂位置参数提取算法

Country Status (1)

Country Link
CN (1) CN108563329B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101657825B (zh) * 2006-05-11 2014-02-19 普莱姆传感有限公司 根据深度图对人形进行建模
CN104268138A (zh) * 2014-05-15 2015-01-07 西安工业大学 融合深度图和三维模型的人体运动捕捉方法
CN106250867A (zh) * 2016-08-12 2016-12-21 南京华捷艾米软件科技有限公司 一种基于深度数据的人体骨骼跟踪系统的实现方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899591B (zh) * 2015-06-17 2018-01-05 吉林纪元时空动漫游戏科技集团股份有限公司 基于深度相机的手腕点和手臂点的提取方法
WO2017204120A1 (ja) * 2016-05-25 2017-11-30 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法およびプログラム
CN107341811B (zh) * 2017-06-20 2020-11-13 上海数迹智能科技有限公司 基于深度图像的利用MeanShift算法进行手部区域分割的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101657825B (zh) * 2006-05-11 2014-02-19 普莱姆传感有限公司 根据深度图对人形进行建模
CN104268138A (zh) * 2014-05-15 2015-01-07 西安工业大学 融合深度图和三维模型的人体运动捕捉方法
CN106250867A (zh) * 2016-08-12 2016-12-21 南京华捷艾米软件科技有限公司 一种基于深度数据的人体骨骼跟踪系统的实现方法

Also Published As

Publication number Publication date
CN108563329A (zh) 2018-09-21

Similar Documents

Publication Publication Date Title
US10074020B2 (en) Vehicular lane line data processing method, apparatus, storage medium, and device
EP2811423B1 (en) Method and apparatus for detecting target
CN104715471B (zh) 目标定位跟踪方法及其装置
CN109086734B (zh) 一种对人眼图像中瞳孔图像进行定位的方法及装置
US20200334571A1 (en) Method and apparatus for training trajectory classification model, and electronic device
CN103455813A (zh) 一种ccd图像测量系统光斑中心定位的方法
CN104036516B (zh) 基于对称性分析的摄像机标定棋盘图像角点检测方法
CN103679167A (zh) 一种ccd图像处理的方法
CN111881790A (zh) 一种高精度地图制作中道路人行横道自动化提取方法和装置
CN110458126B (zh) 一种受电弓状态监测方法及装置
US20160180201A1 (en) Image processing
CN102749034B (zh) 基于图像处理的铁路道岔缺口偏移量检测方法
CN111295666A (zh) 一种车道线检测方法、装置、控制设备及存储介质
CN115376109B (zh) 障碍物检测方法、障碍物检测装置以及存储介质
CN111213154A (zh) 一种车道线检测方法、设备、移动平台及存储介质
CN112434715A (zh) 基于人工智能的目标识别方法、装置及存储介质
CN108563329B (zh) 一种基于深度图的人体手臂位置参数提取算法
CN110322508B (zh) 一种基于计算机视觉的辅助定位方法
EP4375924A1 (en) Cell alignment degree measurement method, controller, detection system, and storage medium
CN103093481A (zh) 一种基于分水岭分割的静态背景下运动目标检测方法
CN103455998A (zh) 视频图像中阴影的检测方法及装置
CN110687548A (zh) 一种基于无人船的雷达数据处理系统
CN110348408A (zh) 瞳孔定位方法及装置
CN114724091A (zh) 一种输电线路导线异物识别方法及装置
CN114037969A (zh) 基于雷达点云和图像融合的自动驾驶车道信息检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant