CN114463832A - 一种基于点云的交通场景视线追踪方法及系统 - Google Patents

一种基于点云的交通场景视线追踪方法及系统 Download PDF

Info

Publication number
CN114463832A
CN114463832A CN202210108276.6A CN202210108276A CN114463832A CN 114463832 A CN114463832 A CN 114463832A CN 202210108276 A CN202210108276 A CN 202210108276A CN 114463832 A CN114463832 A CN 114463832A
Authority
CN
China
Prior art keywords
point cloud
coordinate system
sight
driver
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210108276.6A
Other languages
English (en)
Other versions
CN114463832B (zh
Inventor
常发亮
杨易蓉
刘春生
刘泽昊
路彦沙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN202210108276.6A priority Critical patent/CN114463832B/zh
Publication of CN114463832A publication Critical patent/CN114463832A/zh
Application granted granted Critical
Publication of CN114463832B publication Critical patent/CN114463832B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供了一种基于点云的交通场景视线追踪方法及系统,获取驾驶员图像、车外图像数据和点云数据;对驾驶员图像进行人脸检测,获取包含眼睛区域的面部关键点;对驾驶员图像进行眼睛视线估计,并进行三维坐标转换;将转换后的三维坐标转换至雷达坐标系;对点云数据进行预处理,提取地面点,并将地表建筑物进行聚类,计算每类形心坐标;计算每类形心坐标距离雷达坐标系下视线的欧氏距离,保留符合要求的形心坐标,并计算平均值;将平均值对应的点投影至车外图像上,得到驾驶员的视线追踪目标。本发明能够检测到驾驶员当前正在看向的目标物体或区域,解决头部偏转时视线追踪定位不精准等问题。

Description

一种基于点云的交通场景视线追踪方法及系统
技术领域
本发明属于驾驶员注意力追踪技术领域,具体涉及一种基于点云的交通场景视线追踪方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
车辆辅助驾驶系统(ADAS)在减少交通事故方面发挥着越来越重要的作用。近年来,ADAS中的注视估计是智能座舱系统中的一个热门话题,有人提出用它来监测驾驶员的注意力状态。但是驾驶员注视估计存在一些困难,包括头部姿态、捕捉方向、遮挡、不同驾驶员的个性化、实时性要求等。这些困难使得驾驶员的注视估计仍然是一个待解决的问题。
目前有研究学者提出可以通过可穿戴智能眼镜或头部方位传感器等设备来监测驾驶员当前状态;然而,在真实驾驶环境中,基于传感器的监测方法会对驾驶员产生干扰,造成不可预测的风险,也会影响驾驶员的驾驶体验,并不能反映真实结果。
发明内容
本发明为了解决上述问题,提出了一种基于点云的交通场景视线追踪方法及系统,本发明能够检测到驾驶员当前正在看向的目标物体或区域,解决头部偏转时视线追踪定位不精准等问题。
根据一些实施例,本发明采用如下技术方案:
一种基于点云的交通场景视线追踪方法,包括以下步骤:
获取驾驶员图像、车外图像数据和点云数据;
对驾驶员图像进行人脸检测,获取包含眼睛区域的面部关键点;
对驾驶员图像进行眼睛视线估计,并进行三维坐标转换;
将转换后的三维坐标转换至雷达坐标系;
对点云数据进行预处理,提取地面点,并将地表建筑物进行聚类,计算每类形心坐标;
计算每类形心坐标距离雷达坐标系下视线的欧氏距离,保留符合要求的形心坐标,并计算平均值;
将平均值对应的点投影至车外图像上,得到驾驶员的视线追踪目标。
作为可选择的实施方式,所述眼睛区域包括驾驶员左眼,提取左眼二维坐标,利用左眼两个眼角的坐标平均值代替眼球中心位置。
作为可选择的实施方式,进行三维坐标转换的具体过程包括:利用视线估计模型,得到基于人头坐标系的驾驶员左眼视线,转换为视线欧拉角,将左眼二维坐标转换为六元数。
作为可选择的实施方式,将转换后的三维坐标转换至雷达坐标系的具体过程为构建相机系统和雷达坐标系的转换关系,利用转换关系进行转换。
作为进一步的,具体包括:
将转换相机旋转至与室内相机相同视角,用棋盘格标定单目相机的内外参;
将转换相机翻转至车外相机视角,采用雷达与相机联合标定的方法,得到转换相机坐标系在雷达坐标系下的转换关系;
记录此时转换相机的坐标系相对于固定云台坐标系的相对位置;
利用标定得到外参矩阵做矩阵乘法,得到车内相机坐标系转换至雷达坐标系下的转换关系;
将左眼六元数转换为雷达坐标系下的左眼六元数。
作为可选择的实施方式,对点云数据进行预处理,提取地面点,并将地表建筑物进行聚类的具体过程包括采用布料点云滤波算法,分离地面点云,将可能代表地面的点被标记为地面点而不用于聚类,其次,把剩余的地表建筑、障碍物点组分为多个聚类,同一类的点具有相同的一个标签,核心对象邻域内稀疏的点数,聚类后被当做噪声点,过滤掉所有的噪声离群点,标记为-1,另作存储;对分隔聚类点按照标签存储。
作为可选择的实施方式,计算每类形心坐标的具体过程包括:在得到聚类后的点云坐标后,计算每一类簇的形心坐标,在三维空间中,假设每类障碍物的质量分布均匀,取将障碍物类分为相等的两部分的所有超平面的交点,即为该类所有点的平均值。
作为可选择的实施方式,计算每类形心坐标距离雷达坐标系下视线的欧氏距离,保留符合要求的形心坐标的具体过程包括:计算各个聚类中的形心坐标离视线的欧式距离,为每类点云增加欧氏距离属性,保留欧氏距离TopK小的形心坐标。
一种基于点云的交通场景视线追踪系统,包括:
图像采集模块,被配置为获取驾驶员图像、车外图像数据和点云数据;
关键点提取模块,被配置为对驾驶员图像进行人脸检测,获取包含眼睛区域的面部关键点;
视线估计模块,被配置为对驾驶员图像进行眼睛视线估计,并进行三维坐标转换;
坐标转换模块,被配置为将转换后的三维坐标转换至雷达坐标系;
聚类模块,被配置为对点云数据进行预处理,提取地面点,并将地表建筑物进行聚类,计算每类形心坐标;
计算模块,被配置为计算每类形心坐标距离雷达坐标系下视线的欧氏距离,保留符合要求的形心坐标,并计算平均值;
图像融合模块,被配置为将平均值对应的点投影至车外图像上,得到驾驶员的视线追踪目标。
一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成上述方法中的步骤。
一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成上述方法中的步骤。
与现有技术相比,本发明的有益效果为:
本发明能够准确估计驾驶员在当前正在注视的目标物体的要求,实现驾驶员头部偏转时的视线估计任务,完成从视线到3D注视目标物体的转换。能够检测到驾驶员当前正在看向的目标物体或区域,解决头部偏转时视线追踪定位不精准等问题。
本发明将基于驾驶室内相机中的人头坐标系转换至车外相机系统下,便于统一空间视线点计算的坐标系。
本发明提出了视线方向向量上3D点云物体到图像的转换方法,有效解决点云聚类算法带来的误差问题和点云数据降采样后稀疏噪声点的干扰;通过对比驾驶员当前视线落点区域和交通场景下的显著性目标之间的误差,给予驾驶员安全注视信息提醒,实现智能辅助驾驶。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为本实施例的流程图;
图2为本实施例的雷达和多视角相机系统标定转换图。
图3为本实施例点云坐标计算图;
图4为本实施例的视线追踪结果图。
具体实施方式:
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
一种基于点云的交通场景视线追踪方法,如图1所示,包括:
步骤1、输入驾驶员图像、车外图像、点云数据
将固定在车内方向盘上方,用于采集驾驶员面部的Realsense相机、固定在车外雷达四周的USB相机和固定在车顶的雷达设备采集到的图像与点云数据输入到我们的框架中。在图像和点云预处理初期仅针对单帧图像和点云信息研究,因此只需要在预处理过程中处理所采集的图像和点云。
步骤2、驾驶员人脸检测和面部关键点检测
将对齐深度帧后的RGB图像使用Dockerface检测每张图像中的人脸。与普通的面部关键点检测任务相比,驾驶员面部关键点检测存在光照变化大、面部遮挡、头部偏角大等困难。本发明采用在LS3D-W 数据集上训练的2D-FAN检测方法。输出驾驶员左眼的2D坐标E’(x’, y’)。本发明用左眼两个眼角的坐标平均值代替眼球中心位置。
步骤3、视线估计与左眼3D坐标转换
将检测到的人脸特征和人眼图像送入MPIIGaze视线估计模型中,得到基于人头坐标系的驾驶员左眼视线,转换为视线欧拉角g(α,β, γ)。从对齐后的RGB图像和深度图中求得左眼2D点坐标E’(x’,y’) 在P1坐标系下的3D点坐标E”(x”,y”,z”),将其转换为六元数E1(x1,y1,z1111)。
步骤4、转换相机标定
本发明采用放置在固定云台上的转换相机S来标定不同视角下的相机系统,如图2所示,为本发明提出的雷达和多视角相机系统标定转换图。对于多相机系统需要标定的参数有:单目相机的内参矩阵、畸变系数、旋转矩阵和平移矩阵,除此之外,还需要标定出多相机坐标系之间的相对关系。首先将转换相机S旋转至与室内相机相同视角,用棋盘格标定单目相机的内外参,得到R11T11和R12T12。若此时,假设空间中有一点Pw,Pw在转换相机P2坐标系与室内相机坐标系P2下的坐标可以表示为:
P1=R11PW+T11
P2=R12PW+T12
其中P1和P2又有如下关系:
P2=R1P1+T1
综上所述,可以得到:
Figure BDA0003494102560000081
Figure BDA0003494102560000082
R1T1就是坐标系P1和转换相机S的坐标系P2之间的相对位置关系,且记录此时转换相机S的坐标系P2相对于固定云台坐标系P4的相对位置得到R2T2;然后,将转换相机翻转至车外相机视角,采用雷达与相机联合标定的方法,得到转换相机S坐标系P3在雷达坐标系P5下的转换关系R3T3,且记录此时转换相机S的坐标系P3相对于固定云台坐标系P4的相对位置R4T4。至此,标定部分完成,使用标定所得到的 P1-P5外参矩阵做矩阵乘法,得到车内相机坐标系P1转换至雷达坐标系P5下的转换公式如下:
Figure BDA0003494102560000083
将P1坐标系下的左眼六元数E1(x1,y1,z1,α,β,γ)按照雷达和多视角相机系统标定方法得到的转换公式,
Figure BDA0003494102560000084
所得E5(x5,y5,z5,α,β,γ)为转换至雷达坐标系P5下的左眼六元数。
步骤5、点云数据预处理
首先对点云做曲率降采样处理,降低点云数量;然后,在聚类之前进行地面点的提取,采用布料点云滤波算法,分离地面点云,将可能代表地面的点被标记为地面点而不用于聚类,其次,把剩余的地表建筑、障碍物点组分为多个聚类,同一类的点具有相同的一个标签(地面是较为特殊的一类),核心对象邻域内稀疏的点数,聚类后被当做噪声点,过滤掉所有的噪声离群点,标记为-1,另作存储;对分隔聚类点按照标签存储。
步骤6、计算每类形心坐标
在得到聚类后的点云坐标后,计算每一类簇的形心坐标 Gc(xc,yc,zc);在三维空间中,假设每类障碍物的质量分布均匀,我们取将障碍物类分为相等的两部分的所有超平面的交点,即就是该类所有点Gi(xi,yi,zi)的平均,计算公式如下所示:
Figure BDA0003494102560000091
其中,n代表该类簇中共有n个点,Gc代表该类簇的形心坐标。
步骤7、计算欧氏距离,取TopK小欧氏距离求平均
如图3所示,构建经过点E5(x5,y5,z5),方向向量为(α,β, γ)的两点式方程,
Figure 1
求在m个聚类中的形心坐标离该直线方程的欧式距离,为每类点云增加欧氏距离属性,另作存储;取topK小的欧氏距离dk,计算过程如下所示,
Figure 2
保留该欧氏距离TopK小的形心坐标,计算该K个形心坐标Gk(xk, yk,zk)的平均值
Figure BDA0003494102560000103
Figure BDA0003494102560000104
步骤8、雷达信息与图像融合
标定雷达与车外相机,得到雷达坐标系P5在车外相机坐标系P6下的相对位置关系,将
Figure BDA0003494102560000105
点投影在车外图像上,如图4所示,即得到了驾驶员的视线追踪目标。
具体包括:步骤1、舍弃雷达坐标系下的x轴上的数据,与图像数据融合。
步骤2、通过雷达与车外前视摄像头之间的转换关系,将
Figure BDA0003494102560000106
投影至图像上,得到图像上的视线点O(x,y)。
步骤3、设定阈值半径r,画出以当前视线点O(x,y)为中心,经验阈值r为半径的视锥投影圆。
本发明得到基于驾驶室内相机坐标系下的左眼2D点坐标,通过驾驶室内相机采集得到的RGB图与深度图结合得到人眼的3D点坐标,求得基于人头坐标系下视线的欧拉角,生成车内相机坐标系下左眼的六元数。然后,本发明提出一种不同视角坐标系下的相对位置标定方法,通过分别标定中间转换相机S与车内相机之间的内参、外参;与雷达之间的内参,外参,通过外参矩阵内积,得到基于雷达坐标系下的人眼3D坐标。其次,在该视线向量上稀疏采样,得到与点云聚类后各个类的形心与该向量欧氏距离最近的topk个点,输出该点的3D 坐标。最后,将该点通过雷达与车外usb相机间的转换关系,将该点映射在图像区域上。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (10)

1.一种基于点云的交通场景视线追踪方法,其特征是:包括以下步骤:
获取驾驶员图像、车外图像数据和点云数据;
对驾驶员图像进行人脸检测,获取包含眼睛区域的面部关键点;
对驾驶员图像进行眼睛视线估计,并进行三维坐标转换;
将转换后的三维坐标转换至雷达坐标系;
对点云数据进行预处理,提取地面点,并将地表建筑物进行聚类,计算每类形心坐标;
计算每类形心坐标距离雷达坐标系下视线的欧氏距离,保留符合要求的形心坐标,并计算平均值;
将平均值对应的点投影至车外图像上,得到驾驶员的视线追踪目标。
2.如权利要求1所述的一种基于点云的交通场景视线追踪方法,其特征是:所述眼睛区域包括驾驶员左眼,提取左眼二维坐标,利用左眼两个眼角的坐标平均值代替眼球中心位置。
3.如权利要求1所述的一种基于点云的交通场景视线追踪方法,其特征是:进行三维坐标转换的具体过程包括:利用视线估计模型,得到基于人头坐标系的驾驶员左眼视线,转换为视线欧拉角,将左眼二维坐标转换为六元数。
4.如权利要求1所述的一种基于点云的交通场景视线追踪方法,其特征是:将转换后的三维坐标转换至雷达坐标系的具体过程为构建相机系统和雷达坐标系的转换关系,利用转换关系进行转换;
具体包括:
将转换相机旋转至与室内相机相同视角,用棋盘格标定单目相机的内外参;
将转换相机翻转至车外相机视角,采用雷达与相机联合标定的方法,得到转换相机坐标系在雷达坐标系下的转换关系;
记录此时转换相机的坐标系相对于固定云台坐标系的相对位置;
利用标定得到外参矩阵做矩阵乘法,得到车内相机坐标系转换至雷达坐标系下的转换关系;
将左眼六元数转换为雷达坐标系下的左眼六元数。
5.如权利要求1所述的一种基于点云的交通场景视线追踪方法,其特征是:对点云数据进行预处理,提取地面点,并将地表建筑物进行聚类的具体过程包括采用布料点云滤波算法,分离地面点云,将可能代表地面的点被标记为地面点而不用于聚类,其次,把剩余的地表建筑、障碍物点组分为多个聚类,同一类的点具有相同的一个标签,核心对象邻域内稀疏的点数,聚类后被当做噪声点,过滤掉所有的噪声离群点,标记为-1,另作存储;对分隔聚类点按照标签存储。
6.如权利要求1所述的一种基于点云的交通场景视线追踪方法,其特征是:计算每类形心坐标的具体过程包括:在得到聚类后的点云坐标后,计算每一类簇的形心坐标,在三维空间中,假设每类障碍物的质量分布均匀,取将障碍物类分为相等的两部分的所有超平面的交点,即为该类所有点的平均值。
7.如权利要求1所述的一种基于点云的交通场景视线追踪方法,其特征是:计算每类形心坐标距离雷达坐标系下视线的欧氏距离,保留符合要求的形心坐标的具体过程包括:计算各个聚类中的形心坐标离视线的欧式距离,为每类点云增加欧氏距离属性,保留欧氏距离TopK小的形心坐标。
8.一种基于点云的交通场景视线追踪系统,其特征是:包括:
图像采集模块,被配置为获取驾驶员图像、车外图像数据和点云数据;
关键点提取模块,被配置为对驾驶员图像进行人脸检测,获取包含眼睛区域的面部关键点;
视线估计模块,被配置为对驾驶员图像进行眼睛视线估计,并进行三维坐标转换;
坐标转换模块,被配置为将转换后的三维坐标转换至雷达坐标系;
聚类模块,被配置为对点云数据进行预处理,提取地面点,并将地表建筑物进行聚类,计算每类形心坐标;
计算模块,被配置为计算每类形心坐标距离雷达坐标系下视线的欧氏距离,保留符合要求的形心坐标,并计算平均值;
图像融合模块,被配置为将平均值对应的点投影至车外图像上,得到驾驶员的视线追踪目标。
9.一种电子设备,其特征是:包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成权利要求1-7中任一项所述的方法中的步骤。
10.一种计算机可读存储介质,其特征是:用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-7中任一项所述的方法中的步骤。
CN202210108276.6A 2022-01-28 2022-01-28 一种基于点云的交通场景视线追踪方法及系统 Active CN114463832B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210108276.6A CN114463832B (zh) 2022-01-28 2022-01-28 一种基于点云的交通场景视线追踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210108276.6A CN114463832B (zh) 2022-01-28 2022-01-28 一种基于点云的交通场景视线追踪方法及系统

Publications (2)

Publication Number Publication Date
CN114463832A true CN114463832A (zh) 2022-05-10
CN114463832B CN114463832B (zh) 2024-09-17

Family

ID=81411111

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210108276.6A Active CN114463832B (zh) 2022-01-28 2022-01-28 一种基于点云的交通场景视线追踪方法及系统

Country Status (1)

Country Link
CN (1) CN114463832B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998872A (zh) * 2022-06-08 2022-09-02 安徽悠然云端科技有限公司 一种建筑起重机械驾驶员视野偏离估计方法
CN116959086A (zh) * 2023-09-18 2023-10-27 南昌虚拟现实研究院股份有限公司 一种视线估计方法、系统、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110208793A (zh) * 2019-04-26 2019-09-06 纵目科技(上海)股份有限公司 基于毫米波雷达的辅助驾驶系统、方法、终端和介质
US20200409161A1 (en) * 2019-06-28 2020-12-31 Beijing Boe Optoelectronics Technology Co., Ltd. Image Processing method for Augmented Reality Device, Augmented Reality Device and Storage Medium
CN113743391A (zh) * 2021-11-08 2021-12-03 江苏天策机器人科技有限公司 应用于低速自主驾驶机器人的三维障碍物检测系统与方法
CN113822174A (zh) * 2021-09-02 2021-12-21 北京的卢深视科技有限公司 视线估计的方法、电子设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110208793A (zh) * 2019-04-26 2019-09-06 纵目科技(上海)股份有限公司 基于毫米波雷达的辅助驾驶系统、方法、终端和介质
US20200409161A1 (en) * 2019-06-28 2020-12-31 Beijing Boe Optoelectronics Technology Co., Ltd. Image Processing method for Augmented Reality Device, Augmented Reality Device and Storage Medium
CN113822174A (zh) * 2021-09-02 2021-12-21 北京的卢深视科技有限公司 视线估计的方法、电子设备及存储介质
CN113743391A (zh) * 2021-11-08 2021-12-03 江苏天策机器人科技有限公司 应用于低速自主驾驶机器人的三维障碍物检测系统与方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘觅涵;代欢欢;: "基于RGB相机的驾驶员注视区域估计", 现代计算机, no. 36, 25 December 2019 (2019-12-25) *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998872A (zh) * 2022-06-08 2022-09-02 安徽悠然云端科技有限公司 一种建筑起重机械驾驶员视野偏离估计方法
CN116959086A (zh) * 2023-09-18 2023-10-27 南昌虚拟现实研究院股份有限公司 一种视线估计方法、系统、设备及存储介质
CN116959086B (zh) * 2023-09-18 2023-12-15 南昌虚拟现实研究院股份有限公司 一种视线估计方法、系统、设备及存储介质

Also Published As

Publication number Publication date
CN114463832B (zh) 2024-09-17

Similar Documents

Publication Publication Date Title
CN111783820B (zh) 图像标注方法和装置
CN109144095B (zh) 用于无人驾驶飞行器的基于嵌入式立体视觉的障碍躲避系统
CN109544615B (zh) 基于图像的重定位方法、装置、终端及存储介质
CN111830953B (zh) 车辆自定位方法、装置及系统
CN113985445B (zh) 一种基于相机与激光雷达数据融合的3d目标检测算法
CN107665506B (zh) 实现增强现实的方法及系统
CN109101957B (zh) 双目立体数据处理方法、装置、智能驾驶设备及存储介质
CN107665505B (zh) 基于平面检测实现增强现实的方法及装置
JP2022517254A (ja) 注視エリア検出方法、装置、及び電子デバイス
CN111797657A (zh) 车辆周边障碍检测方法、装置、存储介质及电子设备
US11783443B2 (en) Extraction of standardized images from a single view or multi-view capture
CN114463832B (zh) 一种基于点云的交通场景视线追踪方法及系统
CN113743391A (zh) 应用于低速自主驾驶机器人的三维障碍物检测系统与方法
CN107665507B (zh) 基于平面检测实现增强现实的方法及装置
WO2023272453A1 (zh) 视线校准方法及装置、设备、计算机可读存储介质、系统、车辆
US20210233307A1 (en) Landmark location reconstruction in autonomous machine applications
WO2023056789A1 (zh) 农机自动驾驶障碍物识别方法、系统、设备和存储介质
WO2018222122A1 (en) Methods for perspective correction, computer program products and systems
CN112242009A (zh) 显示效果融合方法、系统、存储介质及主控单元
CN113537047A (zh) 障碍物检测方法、装置、交通工具及存储介质
WO2020237675A1 (zh) 目标检测方法、目标检测装置和无人机
CN117115271A (zh) 无人机飞行过程中的双目相机外参数自标定方法及系统
CN114972514B (zh) Slam定位方法、装置、电子设备和可读存储介质
CN111191596A (zh) 一种封闭区域制图方法、装置及存储介质
WO2023283929A1 (zh) 双目相机外参标定的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant