CN113820694A - 一种仿真测距的方法、相关装置、设备以及存储介质 - Google Patents

一种仿真测距的方法、相关装置、设备以及存储介质 Download PDF

Info

Publication number
CN113820694A
CN113820694A CN202111400189.XA CN202111400189A CN113820694A CN 113820694 A CN113820694 A CN 113820694A CN 202111400189 A CN202111400189 A CN 202111400189A CN 113820694 A CN113820694 A CN 113820694A
Authority
CN
China
Prior art keywords
pixel point
radar sensor
detection
distance
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111400189.XA
Other languages
English (en)
Other versions
CN113820694B (zh
Inventor
宋科科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202111400189.XA priority Critical patent/CN113820694B/zh
Publication of CN113820694A publication Critical patent/CN113820694A/zh
Application granted granted Critical
Publication of CN113820694B publication Critical patent/CN113820694B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本申请公开了一种仿真测距的方法,可应用的领域包括但不限于地图、自动驾驶、导航、车联网、车路协同和即时通信等领域。本申请包括:获取深度场景图像;获取每个像素点与第一雷达传感器之间的探测距离;根据每个像素点的深度值和像素点与第一雷达传感器之间的探测距离,确定像素点的方向夹角;针对每个像素点,根据像素点的方向夹角和第一雷达传感器的第一内部参数,确定像素点的探测范围阈值;根据K个像素点中每个像素点的探测范围阈值和探测距离,确定第一雷达传感器的测距结果。本申请还提供装置、设备和介质。本申请针对每个具有深度值的像素点计算其对应的探测范围阈值,将探测范围阈值作为探测范围的约束,提升仿真测试的准确性。

Description

一种仿真测距的方法、相关装置、设备以及存储介质
技术领域
本申请涉及计算机仿真领域,尤其涉及一种仿真测距的方法、相关装置、设备以及存储介质。
背景技术
随着科学技术的发展,计算机仿真已经应用于很多领域,例如,在自动驾驶在研发过程中需要进行大量的测试。为了保障测试的安全性,可使用游戏引擎来实现对不同类型传感器的仿真,通过对传感器数据进行分析处理来感知周围环境。
目前,在计算机仿真技术中,可对超声波雷达进行仿真。超声波雷达的主要功能是测距,通常应用于低速场景中(例如,泊车)。在低速场景中对于近处的精准度要求较高,而对远处的精准度要求较低,因此,仿真方法可在视场角(field of view,FOV)内对物体进行测距。
然而,发明人发现现有方案中至少存在如下问题,基于FOV的方式进行测距,在精度上与真实结果相差较大,尤其对于盲区的位置,存在更大的偏差,从而导致仿真测试的准确度较低。
发明内容
本申请实施例提供了一种仿真测距的方法、相关装置、设备以及存储介质。可针对每个具有深度值的像素点计算其对应的探测范围阈值,将探测范围阈值作为探测范围的约束,能够提升仿真测试的准确性。
有鉴于此,本申请一方面提供一种仿真测距的方法,包括:
获取深度场景图像,其中,深度场景图像包括K个像素点,每个像素点对应于深度值,K为大于或等于1的整数;
针对每个像素点,获取像素点与第一雷达传感器之间的探测距离,其中,第一雷达传感器为在仿真环境中创建的雷达;
针对每个像素点,根据像素点的深度值以及像素点与第一雷达传感器之间的探测距离,确定像素点所对应的方向夹角;
针对每个像素点,根据像素点所对应的方向夹角以及第一雷达传感器的第一内部参数,确定像素点所对应的探测范围阈值,其中,第一内部参数为第一雷达传感器在仿真环境中的内部参数;
根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果。
本申请另一方面提供一种仿真测距装置,包括:
获取模块,用于获取深度场景图像,其中,深度场景图像包括K个像素点,每个像素点对应于深度值,K为大于或等于1的整数;
获取模块,还用于针对每个像素点,获取像素点与第一雷达传感器之间的探测距离,其中,第一雷达传感器为在仿真环境中创建的雷达;
确定模块,用于针对每个像素点,根据像素点的深度值以及像素点与第一雷达传感器之间的探测距离,确定像素点所对应的方向夹角;
确定模块,还用于针对每个像素点,根据像素点所对应的方向夹角以及第一雷达传感器的第一内部参数,确定像素点所对应的探测范围阈值,其中,第一内部参数为第一雷达传感器在仿真环境中的内部参数;
确定模块,还用于根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,具体用于获取目标帧所对应的图像数据,其中,图像数据包括针对环境物体的每个像素点所对应的深度值;
调用渲染引擎对图像数据进行渲染,得到深度场景图像。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,仿真测距装置还包括显示模块;
显示模块,用于显示引擎设置界面,其中,引擎设置界面上显示有M个可选控件,每个可选控件对应于一个可选环境物体,M为大于或等于1的整数;
显示模块,还用于响应针对于可选控件的选择操作,显示可选控件所对应的环境物体;
显示模块,还用于若响应针对于环境物体的位置设置操作,则显示经过位置更新后的环境物体;
显示模块,还用于若响应针对于环境物体的深度设置操作,则显示经过深度值更新后的环境物体。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,具体用于获取像素点在深度场景图像中的横坐标以及纵坐标;
获取深度场景图像所对应的宽度值和高度值;
根据像素点所对应的横坐标、纵坐标和深度值,以及,深度场景图像所对应的宽度值和高度值,计算得到像素点与第一雷达传感器之间的探测距离。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,具体用于通过渲染引擎从第一雷达传感器所在位置向像素点所在位置发射目标射线;
通过渲染引擎获取目标射线的长度,并将目标射线的长度作为像素点与第一雷达传感器之间的探测距离。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,第一内部参数包括声波波长以及发声器半径;
确定模块,具体用于根据声波波长以及圆周参数,确定关联参数;
根据关联参数、发声器半径以及像素点所对应的方向夹角,确定像素点所对应的能量探测强度阈值,并将能量探测强度阈值作为探测范围阈值。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,第一内部参数还包括雷达最大探测距离;
确定模块,具体用于针对每个像素点,根据像素点与第一雷达传感器之间的探测距离以及雷达最大探测距离,确定像素点所对应的能量探测强度;
若K个像素点中存在至少一个像素点所对应的能量探测强度小于探测范围阈值,则确定第一雷达传感器的测距结果为有效测距结果,其中,有效测距结果包括至少一个像素点与第一雷达传感器之间的最小探测距离;
若K个像素点中每个像素点所对应的能量探测强度均大于或等于探测范围阈值,则确定第一雷达传感器的测距结果为无效测距结果。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,第一内部参数包括雷达最大探测距离、声波波长以及发声器半径;
确定模块,具体用于根据声波波长以及圆周参数,确定关联参数;
根据关联参数、发声器半径以及像素点所对应的方向夹角,确定像素点所对应的能量探测强度阈值;
根据能量探测强度阈值以及雷达最大探测距离,确定探测距离阈值,并将探测距离阈值作为探测范围阈值。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
确定模块,具体用于若K个像素点中存在至少一个像素点与第一雷达传感器之间的探测距离小于探测范围阈值,则确定第一雷达传感器的测距结果为有效测距结果,其中,有效测距结果包括至少一个像素点与第一雷达传感器之间的最小探测距离;
若K个像素点中每个像素点与第一雷达传感器之间的探测距离大于或等于探测范围阈值,则确定第一雷达传感器的测距结果为无效测距结果。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,还用于获取深度场景图像之后,针对每个像素点,获取像素点与第二雷达传感器之间的探测距离,其中,第二雷达传感器为在仿真环境中创建的雷达;
确定模块,还用于针对每个像素点,根据像素点的深度值以及像素点与第二雷达传感器之间的探测距离,确定像素点所对应的方向夹角;
确定模块,还用于针对每个像素点,根据像素点所对应的方向夹角以及第二雷达传感器的第二内部参数,确定像素点所对应的探测范围阈值,其中,第二内部参数为第二雷达传感器在仿真环境中的内部参数;
确定模块,还用于根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第二雷达传感器的测距结果。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,仿真测距装置还包括控制模块;
控制模块,用于根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果之后,若测距结果为无效测距结果,则控制虚拟车辆进行移动,其中,虚拟车辆上至少部署有第一雷达传感器;
控制模块,还用于根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果之后,若测距结果为有效测距结果,则根据预设控制策略对虚拟车辆进行控制。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
控制模块,具体用于若像素点与第一雷达传感器之间的最小探测距离小于警戒距离阈值,则检测像素点所属的环境物体的物体类别;
若物体类别属于待避让物体类别,则控制虚拟车辆停止移动;
若物体类别不属于待避让物体类别,则控制虚拟车辆减速移动。
本申请另一方面提供一种计算机设备,包括:存储器、处理器以及总线系统;
其中,存储器用于存储程序;
处理器用于执行存储器中的程序,处理器用于根据程序代码中的指令执行上述各方面的方法;
总线系统用于连接存储器以及处理器,以使存储器以及处理器进行通信。
本申请的另一方面提供了一种计算机可读存储介质,计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述各方面的方法。
本申请的另一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各方面所提供的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请实施例中,提供了一种仿真测距的方法,首先,获取深度场景图像,这里的深度场景图像包括K个具体深度值的像素点。于是,针对每个像素点,获取像素点与第一雷达传感器之间的探测距离,然后,根据像素点的深度值以及像素点与第一雷达传感器之间的探测距离,确定像素点所对应的方向夹角。基于此,根据像素点所对应的方向夹角以及第一雷达传感器的第一内部参数,可以确定像素点所对应的探测范围阈值。最后,根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果。通过上述方式,在仿真环境中基于雷达的工作原理模拟真正的声波波形,并结合渲染得到的深度场景图像,可针对每个具有深度值的像素点计算其对应的探测范围阈值,以像素点维度对应的探测范围阈值作为探测范围的约束,能够模拟得到更精确的探测范围,从而提升仿真测试的准确性。
附图说明
图1为本申请实施例中仿真测试系统的一个模块关系示意图;
图2为本申请实施例中仿真测试系统的一个架构示意图;
图3为本申请实施例中仿真测距方法的一个流程示意图;
图4为本申请实施例中基于仿真测试平台创建雷达传感器的一个界面示意图;
图5为本申请实施例中小孔成像原理的一个示意图;
图6为本申请实施例中仿真测距方法的另一个流程示意图;
图7为本申请实施例中深度场景图像的一个示意图;
图8为本申请实施例中引擎设置界面的一个示意图;
图9为本申请实施例中显示位置更新后的环境物体的一个示意图;
图10为本申请实施例中显示深度值更新后的环境物体的一个示意图;
图11为本申请实施例中计算探测距离的一个原理示意图;
图12为本申请实施例中超声波辐射范围的一个示意图;
图13为本申请实施例中基于超声波辐射范围实现像素点探测的一个示意图;
图14为本申请实施例中基于仿真环境部署多个雷达传感器的一个示意图;
图15为本申请实施例中基于仿真环境部署多个雷达传感器的又一个示意图;
图16为本申请实施例中基于仿真环境部署多个雷达传感器的另一个示意图;
图17为本申请实施例中基于仿真环境部署多个雷达传感器的再一个示意图;
图18为本申请实施例中仿真测距装置的一个结构示意图;
图19为本申请实施例中终端设备的一个结构示意图;
图20为本申请实施例中服务器的一个结构示意图。
具体实施方式
本申请实施例提供了一种仿真测距的方法、相关装置、设备以及存储介质。可针对每个具有深度值的像素点计算其对应的探测范围阈值,将探测范围阈值作为探测范围的约束,能够提升仿真测试的准确性。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“对应于”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
计算机仿真是在仿真系统中对真实世界的事物进行模拟的技术,利用计算机仿真技术可以检查计算机算法在真实环境中的有效性。近年来,基于雷达的目标检测可以应用在自动驾驶以及机器人视觉中,具有不同的功能,例如,发现障碍物,预测碰撞,自适应巡航控制等。在计算机仿真技术中,可对雷达系统进行仿真以模拟雷达系统真实的工作状态。
仿真测试系统由不同模块组成,为了便于说明,请参阅图1,图1为本申请实施例中仿真测试系统的一个模块关系示意图,如图所示,仿真测试系统通常包括“交通场景模块”、“传感器模块”、“自动驾驶算法模块”、“车辆动力学模块”以及“测试管理模块”。下面将分别对这些模型进行介绍。
1、交通场景模块;
该模块主要用于模拟车辆运行的外部世界。不仅模拟各种交通场景要素,例如,车辆、基础设施、天气、光照和障碍物等,还可以模拟这些要素综合交互的过程。即,既包含场景中的各类实体,还包含实体执行的动作以及实体间的连接关系。
2、传感器模块;
该模块主要用于模拟车辆上安装的各种传感器,从而获得交通场景的状态。根据不同传感器类型模拟不同的信号。例如,利用相机传感器输出图像信号,利用雷达传感器输出点云信号,利用导航传感器输出定位信号等。与此同时,还可以调整传感器的参数(包括内部参数和外部参数),以雷达传感器为例,外部参数包含但不仅限于安装位置和安装角度,内部参数包含但不仅限于探测距离、声波波长、发声器半径和有效分贝。
3、自动驾驶算法模块;
该模块主要用于通过各种传感器探测周围环境的状态,进行决策后对车辆进行控制。
4、车辆动力学模块;
该模块主要用于模拟车辆本身对自动驾驶算法控制的响应,例如,对加速、制动和转向的响应。车辆动力学模块一般参照真实车辆,由车身、动力传动系统、悬架系统、转向系统、制动系统和车轮等不同的部分构成。
5、测试管理模块;
该模块主要用于对仿真测试环境的管理,保证仿真测试的效果和效率。
基于此,本申请提出了一种仿真测距方法,该方法应用于图2所示的仿真测试系统,如图所示,仿真测试系统包括服务器和终端设备,且客户端部署于终端设备上,其中,客户端可以通过浏览器的形式运行于终端设备上,也可以通过独立的应用程序(application,APP)的形式运行于终端设备上等,对于客户端的具体展现形式,此处不做限定。本申请涉及的服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端设备可以是智能手机、平板电脑、笔记本电脑、掌上电脑、个人电脑、智能电视、智能手表、车载设备、可穿戴设备等,但并不局限于此。终端设备以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。服务器和终端设备的数量也不做限制。本申请提供的方案可以由终端设备独立完成,也可以由服务器独立完成,还可以由终端设备与服务器配合完成,对此,本申请并不做具体限定。
相较于单机版的仿真测试,借助云技术可以大幅地提高算力,实现高效的仿真测试。图2示出的云服务可部署于服务器,云服务包括平台即服务(Platform-as-a-Service,PaaS)和软件即服务(Software-as-a-Service,SaaS)。在云服务的基础上,结合虚幻引擎(unreal engine,UE)、虚拟现实以及云游戏技术等,集成车辆动力学模型和渲染引擎,辅以三维重建技术和虚实一体交通流,可实现自动驾驶感知、决策和控制等全部模块的闭环仿真验证。通过终端设备还可以显示仿真测试的评价指标、测试日志和回放数据等。
鉴于本申请涉及到一些与专业领域相关的术语,为了便于理解,下面将进行解释。
(1)游戏渲染引擎:为游戏制作而生的图形渲染软件框架。
(2)超声波雷达传感器:其工作原理是通过超声波发射装置向外发出超声波,到通过接收器接收到发送过来超声波时的时间差来测算距离。常用探头的工作频率有 40千赫兹(kHz), 48kHz 和 58kHz 三种。一般来说,频率越高,灵敏度越高,但水平与垂直方向的探测角度就越小,故一般采用 40kHz 的探头。超声波雷达传感器防水、防尘,即使有少量的泥沙遮挡也不影响。探测范围在0.1至3米之间,而且精度较高,因此,很适合应用于泊车。
(3)激光雷达传感器:是以发射激光束探测目标的位置、速度等特征量的雷达系统,激光雷达也称光学雷达。其工作原理是向目标发射探测信号(激光束),然后将接收到的从目标反射回来的信号(目标回波)与发射信号进行比较,作适当处理后,就可获得目标的有关信息,例如,目标距离、方位、高度、速度、姿态以及形状等参数。
(4)毫米波雷达传感器:是工作在毫米波波段探测的雷达,毫米波的波长介于微波和厘米波之间,因此,毫米波雷达兼有微波雷达和光电雷达的一些优点。测距原理是把无线电波(雷达波或电磁波)发射出去,根据接收回波与发送之间的时间差测得目标位置距离数据。
(5)圆形活塞换能器:活塞由电压驱动,用电压让活塞震动,震动产生声音,整个发声装置叫活塞换能器,雷达通常使用的是圆形活塞换能器,此外,也可以使用其他形状的活塞换能器。
(6)深度场景图像:也可以称为深度图(depth map)或距离图(range map)。是指将从图像采集器到场景中各点的距离(即,深度)作为像素值的图像。在三维计算机图形中,深度图是包含与视点的场景对象的表面的距离有关的信息的图像或图像通道。其中,深度图类似于灰度图像,只是它的每个像素值是传感器距离物体的实际距离。图形学中的深度图,可理解为玩游戏看到的画面,它是显卡渲染出来的,区别在于,屏幕看到的是彩色像素,而深度图存储的是相机坐标的深度值。
结合上述介绍,下面将对本申请中仿真测距的方法进行介绍,请参阅图3,本申请实施例中仿真测距方法的一个实施例包括:
110、获取深度场景图像,其中,深度场景图像包括K个像素点,每个像素点对应于深度值,K为大于或等于1的整数;
在一个或多个实施例中,仿真测距装置可获取深度数据流,深度数据流由连续的多个图像帧组成,为了便于介绍,本申请将以深度数据流中的一帧图像作为示例,在实际应用中,为了达到更真实的效果,可以按照每秒100帧的速率播放深度数据流。可以理解的是,深度数据流中的其他图像帧也采用类似的方式进行处理,此处不做赘述。
具体地,深度场景图像中的每个像素点的深度值表示在深度感应的视野中,该像素点坐标处的物体距离相机平面的最短距离。基于此,假设深度场景图像的尺寸为720 x1280,即包括921600个像素点,每个像素点对应于一个深度值,深度值的单位可以是“米”或“毫米”等,此处不做限定。
需要说明的是,仿真测距装置可部署于服务器,或者,部署于终端设备,又或者部署于由服务器和终端设备组成的系统,此处不做限定。
120、针对每个像素点,获取像素点与第一雷达传感器之间的探测距离,其中,第一雷达传感器为在仿真环境中创建的雷达;
在一个或多个实施例中,由于深度场景图像的每个像素点分别具有对应的深度值,因此,仿真测距装置需要以像素点为单位,分别计算每个像素点与第一雷达传感器之间的探测距离。第一雷达传感器属于仿真测试系统中的传感器模块的一个部分。
具体地,为了便于理解,请参阅图4,图4为本申请实施例中基于仿真测试平台创建雷达传感器的一个界面示意图,如图所示,用户为仿真环境下的虚拟车辆设置一个或多个第一雷达传感器,并在仿真测试平台提供的界面上设置第一雷达传感器的相关参数。例如,图中的预览窗口上示出设置有4个第一雷达传感器的虚拟车辆,在用户选择某个第一雷达传感器(例如,1号第一雷达传感器)之后,即可设置其对应的外部参数(例如,安装位置和安装角度等)和内部参数(例如,探测距离、声波波长、发声器半径和有效分贝等)。
可见,仿真部件(例如,超声波仿真部件)设置虚拟安装的位置和朝向,和虚拟车辆一起组合成刚体,当虚拟车辆移动时,仿真部件也跟着移动。启动仿真后,仿真部件根据参数计算出探测的范围,在范围内对环境物体测距。本申请中的仿真部件包括雷达传感器。
需要说明的是,图4所示的仿真测试平台界面仅为一个示意,界面上的元素、文案以及布局方式可根据实际应用进行灵活调整,此处不做限定。
130、针对每个像素点,根据像素点的深度值以及像素点与第一雷达传感器之间的探测距离,确定像素点所对应的方向夹角;
在一个或多个实施例中,仿真测距装置在获取到深度场景图像中每个像素点的深度值,以及每个像素点与第一雷达传感器之间的探测距离之后,可根据深度值和探测距离,计算得到像素点与主轴正前方之间的方向夹角。
具体地,为了便于说明,请参阅图5,图5为本申请实施例中小孔成像原理的一个示意图,如图所示,主轴表示从光心到物理成像平面所在平面的轴线,即,相机坐标系下的z轴。其中,光心O即为相机所在的位置,由于是在仿真环境下,因此,第一雷达传感器所在位置与相机所在位置可以重合,从而便于计算。物理成像平面平行于像素平面,其中,像素平面表示相机感光的平面,也就是深度场景图像所在的平面。物理成像平面中的P'点表示某个像素点在物理空间中的实际位置。基于像素平面构建坐标系O'-x'-y',从原点O'到光心O的距离为焦距f。
140、针对每个像素点,根据像素点所对应的方向夹角以及第一雷达传感器的第一内部参数,确定像素点所对应的探测范围阈值,其中,第一内部参数为第一雷达传感器在仿真环境中的内部参数;
在一个或多个实施例中,仿真测距装置基于第一雷达传感器的第一内部参数,结合每个像素点的方向夹角,可计算其对应的探测范围阈值(例如,能量探测强度阈值或探测距离阈值)。其中,第一内部参数为第一雷达传感器在仿真环境中的内部参数。
150、根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果。
在一个或多个实施例中,仿真测距装置在得到K个像素点中每个像素点的探测范围阈值之后,可基于像素点对应的探测距离,判断是否在探测范围阈值内,如果存在至少一个像素点的探测距离小于探测范围阈值,则确定第一雷达传感器具有有效测距结果,由此,选择最小的探测距离作为第一雷达传感器的有效测距结果。反之,如果所有像素点的探测距离都大于探测范围阈值,则确定第一雷达传感器具有无效测距结果。
综上,为了便于理解,下面将结合图6介绍仿真测距方法,请参阅图6,图6为本申请实施例中仿真测距方法的另一个流程示意图,如图所示,具体地:
在步骤A1中,首先,用户可以通过仿真测试平台搭建仿真环境,并输入与雷达传感器有关的内部参数和外部参数。
在步骤A2中,按照声波辐射能量计算雷达传感器的探测辐射范围,并将探测辐射范围作为探测范围阈值,可以对小于探测范围阈值之内的环境物体进行测距。
在步骤A3中,调用渲染引擎进行图像渲染。
在步骤A4中,生成渲染后的深度场景图像,其中,深度场景图像中的每个像素点具有对应的深度值。
在步骤A5中,计算每个像素点的探测距离和方向夹角,从而可以进一步计算出像素点到雷达传感器之间的探测距离。
在步骤A6中,判断每个像素点对应的探测距离是否小于探测范围阈值,如果存在至少一个像素点的探测距离小于探测范围阈值,则执行步骤A7。
在步骤A7中,从至少一个像素点中选择最小的探测距离作为最终的测距结果。
可见,上述过程模拟了雷达传感器的工作原理,在仿真环境中模拟一个雷达传感器,并输出模拟的数据。仿真最终输出的是雷达传感器探测到环境物体的距离,这个距离在探测范围阈值之内,于是需要从仿真环境中计算出雷达传感器的探测范围阈值,并把小于探测范围阈值的障碍物探测距离计算出来。探测范围阈值的表现形式类似椎体,会探测到多个距离,最终选择最短的探测距离。
本申请实施例中,提供了一种仿真测距的方法。通过上述方式,在仿真环境中基于雷达的工作原理模拟真正的声波波形,并结合渲染得到的深度场景图像,可针对每个具有深度值的像素点计算其对应的探测范围阈值,以像素点维度对应的探测范围阈值作为探测范围的约束,能够模拟得到更精确的探测范围,从而提升仿真测试的准确性。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,获取深度场景图像,具体可以包括:
获取目标帧所对应的图像数据,其中,图像数据包括针对环境物体的每个像素点所对应的深度值;
调用渲染引擎对图像数据进行渲染,得到深度场景图像。
在一个或多个实施例中,介绍了一种基于渲染引擎模拟环境物体的方式。由前述实施例可知,深度场景图像属于深度数据流中的任意一帧深度图,假设从深度数据流选择第200帧作为目标帧,于是,渲染引擎采用目标帧所对应的图像数据,对该目标帧进行渲染,由此得到深度场景图像。目前基本的渲染引擎都提供了深度图渲染接口,类似彩色图像的渲染方式,深度图的渲染输出的不是场景的红绿蓝(red green blue,RGB)值,而是距离相机平面的距离,该距离等同于相机坐标下的深度值。
可以理解的是,图像数据不仅包括针对环境物体的每个像素点所对应的深度值,还包括非环境物体(例如,背景区域)中每个像素点所对应的深度值。
具体地,为了便于理解,请参阅图7,图7为本申请实施例中深度场景图像的一个示意图,如图所示,B1用于指示的环境物体为“路牌”,B2用于指示的环境物体为“红绿灯”,其中,“路牌”对应的每个像素点深度值可设置为50米,“红绿灯”对应的每个像素点深度值可设置为48米。可见,在深度场景图像中,距离较近的环境物体颜色较深,而距离较远的环境物体颜色较浅。需要说明的是,环境物体包含但不仅限于路牌、建筑、墙面、杆子和植被等。
仿真环境为类似游戏场景的虚拟世界,雷达传感器可安装在虚拟车辆上,虚拟车辆在仿真环境中自由行驶。开启雷达传感器的仿真功能后,雷达传感器能够时刻对辐射范围内进行测距,测距方法和测距性能需要遵循超声波的仿真模型。
在理想情况下,希望能够实时计算出雷达传感器的辐射范围内是否存在环境物体,并直接计算出最小距离。然而,在仿真环境中包含的环境物体类型较多,因此,其对应的美术模型数量也较多,难以实时计算出环境物体和雷达传感器之间的位置关系,因此,基于深度渲染的方法能够得到成像屏幕上每个像素点到雷达传感器之间的距离,从而降低了仿真的复杂度,有利于提升检测效率。
其次,本申请实施例中,提供了一种基于渲染引擎模拟环境物体的方式,通过上述方式,由于渲染引擎工作在图形处理器(graphics processing unit,GPU)上,具有实时性较高的特点,从而提升仿真测试的效率。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,还可以包括:
显示引擎设置界面,其中,引擎设置界面上显示有M个可选控件,每个可选控件对应于一个可选环境物体,M为大于或等于1的整数;
响应针对于可选控件的选择操作,显示可选控件所对应的环境物体;
若响应针对于环境物体的位置设置操作,则显示经过位置更新后的环境物体;
若响应针对于环境物体的深度设置操作,则显示经过深度值更新后的环境物体。
在一个或多个实施例中,介绍了一种基于渲染引擎设置环境物体的方式。由前述实施例可知,渲染引擎需要获取每一帧图像数据,这里的图像数据包括环境物体的数据,下面将结合图示,介绍一种高效的环境物体布局方法。
为了便于说明,请参阅图8,图8为本申请实施例中引擎设置界面的一个示意图,如图所示,C1用于指示可选控件,图中示出5个可选控件(即,M等于5)。C2用于指示“上一页”控件,C3用于指示“下一页”控件,C4用于指示预览窗口。用户点击任一个可选控件,即可触发针对该可选控件的选择指令,由此,在预览窗口上显示对应的该可选控件对应的环境物体。例如,用户选择“树木1”对应的可选控件,即可在预览窗口上显示相应的环境物体——“树木1”。当用户点击“上一页”控件或“下一页”控件时,可在引擎设置界面上显示其他可选控件。
用户还可以对某个环境物体的相关参数进行调整,本申请以调整环境物体的位置和深度值为例进行说明,具体地:
一、调整环境物体的位置;
为了便于说明,请参阅图9,图9为本申请实施例中显示位置更新后的环境物体的一个示意图,如图所示,D1用于指示预览窗口,D2用于指示位置设置区域。用户在预览窗口中选中某个环境物体,由此,可显示该环境物体当前的坐标位置,例如,(150,120)。用户可基于位置设置区域中提供的控件进行位置设置操作,点击“设置完成”控件之后,在预览窗口上可显示经过位置更新后的环境物体。
二、调整环境物体的深度值;
为了便于说明,请参阅图10,图10为本申请实施例中显示深度值更新后的环境物体的一个示意图,如图所示,E1用于指示预览窗口,E2用于指示深度设置区域。用户在预览窗口中选中某个环境物体,由此,可显示该环境物体当前的深度值,例如,50米。用户可基于深度设置区域中提供的控件进行深度设置操作,点击“设置完成”控件之后,在预览窗口上可显示经过深度值更新后的环境物体。
需要说明的是,图8、图9和图10所示的仿真测试平台界面仅为一个示意,界面上的元素、文案以及布局方式可根据实际应用进行灵活调整,此处不做限定。
其次,本申请实施例中,提供了一种基于渲染引擎设置环境物体的方式,通过上述方式,用户可以在引擎设置界面上选择出现在仿真环境中的环境物体,相当于预先为用户提供了一些可选的环境物体,便于用户根据实际情况进行灵活地选取和设置,无需用户额外构建环境物体的美术模型,从而提升仿真效率。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,获取像素点与第一雷达传感器之间的探测距离,具体可以包括:
获取像素点在深度场景图像中的横坐标以及纵坐标;
获取深度场景图像所对应的宽度值和高度值;
根据像素点所对应的横坐标、纵坐标和深度值,以及,深度场景图像所对应的宽度值和高度值,计算得到像素点与第一雷达传感器之间的探测距离。
在一个或多个实施例中,介绍了一种基于三角形勾股定理和平行线定理计算探测距离的方式。由前述实施例可知,对于深度场景图像中的任意一个像素点,可计算出该像素点在物理成像空间中与雷达传感器之间的探测距离(即,实际的距离)。下面将结合图示介绍计算深度场景图像中的一个像素点与第一雷达传感器之间的探测距离,可以理解的是,深度场景图像中其他像素点与第一雷达传感器之间的探测距离,也可以采用类似方式进行计算,此处不做赘述。
具体地,为了便于说明,请参阅图11,图11为本申请实施例中计算探测距离的一个原理示意图,如图11中(a)图所示,假设深度场景图像的宽度值为“W”,高度值为“H”,该深度场景图像上的一个像素点坐标为(u,v),该像素点(u,v)在物理成像空间中即为实际点(P')。焦点(P点)到实际点(P')的水平距离即为深度值(z)。其中,焦点(P点)到深度场景图像的水平距离为焦距(f),而焦点(P点)到实际点(P')所构成的直线与焦点(P点)到深度场景图像所构成的水平线之间的角度即为方向夹角(θ)。
像素点坐标为(u,v)在深度场景图像中的位置如图11中(b)图所示,可见,像素点在深度场景图像中的横坐标为u,纵坐标为v。
为了简化计算,可将深度场景图像的分辨率设置为正方形,即宽度值(W)=高度值(H),焦距(f)设置为W/2,此时的成像视场角(field of view,FOV)为90度。基于此,可采用如下方式计算像素点与雷达传感器(例如,第一雷达传感器)之间的探测距离:
Figure DEST_PATH_IMAGE001
;式(1)
其中,d表示像素点与雷达传感器之间的探测距离。u表示像素点的横坐标,v表示像素点的纵坐标。W表示深度场景图像的宽度值,H表示深度场景图像的宽度值。z表示像素点的深度值。f表示焦距,即,f=W/2。
其次,本申请实施例中,提供了一种基于三角形勾股定理和平行线定理计算探测距离的方式,通过上述方式,基于三角形勾股定理计算雷达传感器到深度场景图像中任一个像素点的实际距离,然后基于平行线定理计算出与实际距离对应的探测距离,从而实现对探测距离的计算,由此,提升方案的可行性。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,获取像素点与第一雷达传感器之间的探测距离,具体可以包括:
通过渲染引擎从第一雷达传感器所在位置向像素点所在位置发射目标射线;
通过渲染引擎获取目标射线的长度,并将目标射线的长度作为像素点与第一雷达传感器之间的探测距离。
在一个或多个实施例中,介绍了一种基于渲染引擎输出探测距离的方式。由前述实施例可知,通过渲染引擎可渲染出每帧深度场景图像,此外,渲染引擎还具有射线检测的功能,简单而言,首先允许指定起点A和终点B,然后渲染引擎会发射一条由起点A和终点B的射线,射线会与AB之间的对象发生碰撞,并把位置和法线等信息返回给系统,由此,得到AB之间的距离。
具体地,将第一雷达传感器所在位置作为起点,将深度场景图像上某个像素点所在位置作为终点。探测距离可以使用渲染引擎提供的射线法测距,从第一雷达传感器向外不同角度发射若干射线,每条射线返回前方遇到障碍物的距离。为了满足性能要求,射线不能太多,而太少又容易产生遗漏,所以需要兼顾精准和性能。
需要说明的是,射线数量可根据FOV决定,以夹角为5度发射一条射线,例如FOV为60度,则一共需要发射12*12条射线。
其次,本申请实施例中,提供了一种基于渲染引擎输出探测距离的方式,通过上述方式,渲染引擎可根据设定好的参数构建一个虚拟的物理世界,然后采用射线检测方法可以直接探测出在虚拟物理世界中物体之间的距离。从而增加方案实施的灵活性。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,第一内部参数包括声波波长以及发声器半径;
根据像素点所对应的方向夹角以及第一雷达传感器的第一内部参数,确定像素点所对应的探测范围阈值,具体可以包括:
根据声波波长以及圆周参数,确定关联参数;
根据关联参数、发声器半径以及像素点所对应的方向夹角,确定像素点所对应的能量探测强度阈值,并将能量探测强度阈值作为探测范围阈值。
在一个或多个实施例中,介绍了一种基于能量探测强度计算得到探测范围阈值的方式。由前述实施例可知,在一种实现方式中,探测范围阈值可以是能量探测强度阈值,其中,能量探测强度阈值的取值范围为[0,1]。
具体地,为了便于理解,请参阅图12,图12为本申请实施例中超声波辐射范围的一个示意图,如图所示,F1所指示的区域描述了超声波的探测边缘,该探测边缘即为能量探测强度阈值。通常情况下,考虑到圆形活塞换能器发声之后,由于圆形活塞换能器的后面是一个外壳,因此,向后传播的意义不大,故可将上半部分(即,[-180°,180°])为有效的辐射范围,该有效的辐射范围即为能量探测强度阈值。
下面将说明计算能量探测强度阈值的过程。
首先,采用如下方式计算关联参数:
k=2π/λ;式(2)
其中,k表示关联参数。π表示圆周参数(即,3.1415926)。λ表示雷达传感器所对应的内部参数中的声波波长。
然后,基于圆形活塞换能器的指向性函数计算能量探测强度阈值:
Figure 844662DEST_PATH_IMAGE002
;式(3)
令r=kαsinθ,利用公式
Figure DEST_PATH_IMAGE003
,则:
Figure 455772DEST_PATH_IMAGE004
;式(4)
其中,D(θ)表示像素点所对应的能量探测强度阈值。D(α,θ)表示像素点所对应的指向性函数。k表示关联参数。π表示圆周参数(即,3.1415926)。α表示发声器半径。θ表示像素点所对应的方向夹角。J0表示零阶贝塞尔函数。J1表示零阶贝塞尔函数。
其次,本申请实施例中,提供了一种基于能量探测强度计算得到探测范围阈值的方式,通过上述方式,根据超声波参数(即,雷达传感器的内部参数)计算超声波的能量探测强度阈值,有效模拟了雷达传感器的探测盲区,相比于直接以FOV的方式进行测距,在精度上得到较大的提升,从而提升了仿真测试的准确度。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,第一内部参数还包括雷达最大探测距离;
根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果,具体可以包括:
针对每个像素点,根据像素点与第一雷达传感器之间的探测距离以及雷达最大探测距离,确定像素点所对应的能量探测强度;
若K个像素点中存在至少一个像素点所对应的能量探测强度小于探测范围阈值,则确定第一雷达传感器的测距结果为有效测距结果,其中,有效测距结果包括至少一个像素点与第一雷达传感器之间的最小探测距离;
若K个像素点中每个像素点所对应的能量探测强度均大于或等于探测范围阈值,则确定第一雷达传感器的测距结果为无效测距结果。
在一个或多个实施例中,介绍了一种基于能量探测强度确定测距结果的方式。由前述实施例可知,对于深度场景图像中的任意一个像素点而言,可计算出该像素点在物理成像空间中与雷达传感器之间的探测距离(即,实际的距离)。因此,利用反三角函数原理可进一步推导出像素点所对应的方向夹角(θ)。下面将结合图示介绍计算深度场景图像中的一个像素点所对应的方向夹角(θ),可以理解的是,深度场景图像中其他像素点的方向夹角,也可以采用类似方式进行计算,此处不做赘述。
具体地,为了便于说明,请再次参阅图11,可见,方向夹角(θ)即为焦点(P点)到实际点(P')所构成的直线与焦点(P点)到深度场景图像所构成的水平线之间的角度。采用如下方式计算像素点所对应的方向夹角:
Figure DEST_PATH_IMAGE005
;式(5)
其中,θ表示像素点所对应的方向夹角。d表示像素点与雷达传感器(例如,第一雷达传感器)之间的探测距离。z表示像素点所对应的深度值。
基于此,将像素点所对应的方向夹角(θ)代入至上述式(4)中,即可得到像素点所对应的能量探测强度阈值(D(θ))。可用如下方式计算像素点所对应的能量探测强度:
Figure 324240DEST_PATH_IMAGE006
;式(6)
其中,D'表示像素点所对应的能量探测强度。d表示像素点与雷达传感器(例如,第一雷达传感器)之间的探测距离。Tm表示雷达传感器(例如,第一雷达传感器)的最大探测距离,即雷达最大探测距离。
如果某个像素点满足D'<D(θ),则表示该像素点所对应的能量探测强度小于探测范围阈值,因此,该像素点可被雷达传感器(例如,第一雷达传感器)探测到。如果K个像素点中存在至少一个像素点所对应的能量探测强度小于探测范围阈值,那么采用如下方式计算最小探测距离:
Figure DEST_PATH_IMAGE007
;式(7)
其中,T表示最小探测距离。d表示像素点与雷达传感器(例如,第一雷达传感器)之间的探测距离。D'表示像素点所对应的能量探测强度。D(θ)表示像素点所对应的能量探测强度阈值。此时,有效测距结果包括最小探测距离。
如果K个像素点中每个像素点均满足D'≥D(θ),则表示K个像素点中每个像素点所对应的能量探测强度均大于或等于探测范围阈值,因此,雷达传感器(例如,第一雷达传感器)无法探测到任意一个像素点,因此,雷达传感器(例如,第一雷达传感器)的测距结果为无效测距结果。
为了便于说明,请参阅图13,图13为本申请实施例中基于超声波辐射范围实现像素点探测的一个示意图,如图所示,主轴表示从光心到物理成像平面所在平面的轴线,即,相机坐标系下的z轴。其中,光心O即为相机和雷达传感器所在的位置。物理成像平面平行于像素平面,像素平面表示深度场景图像所在的平面。雷达传感器的探测范围阈值可表示为从光心O出发的探测范围。
再次,本申请实施例中,提供了一种基于能量探测强度确定测距结果的方式,通过上述方式,将能量探测强度阈值作为探测范围阈值的情况下,分别计算每个像素点的能量探测强度,将能量探测强度小于能量探测强度阈值的像素点作为可被雷达传感器探测到的像素点,从而进一步确定最小探测距离。由此,能够实现像素点探测,从而提升方案的可行性和可操作性。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,第一内部参数包括雷达最大探测距离、声波波长以及发声器半径;
根据像素点所对应的方向夹角以及第一雷达传感器的第一内部参数,确定像素点所对应的探测范围阈值,具体可以包括:
根据声波波长以及圆周参数,确定关联参数;
根据关联参数、发声器半径以及像素点所对应的方向夹角,确定像素点所对应的能量探测强度阈值;
根据能量探测强度阈值以及雷达最大探测距离,确定探测距离阈值,并将探测距离阈值作为探测范围阈值。
在一个或多个实施例中,介绍了一种基于能量探测强度阈值计算得到探测距离阈值的方式。由前述实施例可知,在另一种实现方式中,探测范围阈值可以是探测距离阈值,其中,探测距离阈值的取值范围为[0,+∞]。
具体地,为了便于理解,请再次参阅图12,F1所指示的区域描述了超声波的探测边缘,该探测边缘即为能量探测强度阈值。通常情况下,考虑到圆形活塞换能器发声之后,向后传播的意义不大,故可将上半部分(即,[-180°,180°])为有效的辐射范围,该有效的辐射范围即为能量探测强度阈值。
下面将说明计算能量探测强度阈值的过程。
首先,采用如下方式计算关联参数:
k=2π/λ;式(8)
其中,k表示关联参数。π表示圆周参数(即,3.1415926)。λ表示雷达传感器所对应的内部参数中的声波波长。
然后,基于圆形活塞换能器的指向性函数计算能量探测强度阈值:
Figure 653590DEST_PATH_IMAGE008
;式(9)
令r=kαsinθ,利用公式
Figure 852490DEST_PATH_IMAGE003
,则:
Figure 786948DEST_PATH_IMAGE004
;式(10)
其中,D(θ)表示像素点所对应的能量探测强度阈值。D(α,θ)表示像素点所对应的指向性函数。k表示关联参数。π表示圆周参数(即,3.1415926)。α表示发声器半径。θ表示像素点所对应的方向夹角。J0表示零阶贝塞尔函数。J1表示零阶贝塞尔函数。
最后,采用如下方式计算像素点所对应的探测距离阈值:
Dmax= D(θ)×Tm;式(11)
其中,Dmax表示像素点所对应的探测距离阈值。D(θ)表示像素点所对应的能量探测强度阈值。Tm表示雷达传感器(例如,第一雷达传感器)的最大探测距离,即雷达最大探测距离。
其次,本申请实施例中,提供了一种基于能量探测强度阈值计算得到探测距离阈值的方式,通过上述方式,根据超声波参数(即,雷达传感器的内部参数)计算超声波的探测距离阈值,有效模拟了雷达传感器的探测盲区,相比于直接以FOV的方式进行测距,在精度上得到较大的提升,从而提升了仿真测试的准确度。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果,具体可以包括:
若K个像素点中存在至少一个像素点与第一雷达传感器之间的探测距离小于探测范围阈值,则确定第一雷达传感器的测距结果为有效测距结果,其中,有效测距结果包括至少一个像素点与第一雷达传感器之间的最小探测距离;
若K个像素点中每个像素点与第一雷达传感器之间的探测距离大于或等于探测范围阈值,则确定第一雷达传感器的测距结果为无效测距结果。
在一个或多个实施例中,介绍了一种基于探测距离确定雷达传感器测距结果的方式。由前述实施例可知,对于深度场景图像中的任意一个像素点而言,可计算出该像素点在物理成像空间中与雷达传感器之间的探测距离(即,实际的距离)。因此,利用反三角函数原理可进一步推导出像素点所对应的方向夹角(θ)。下面将结合图示介绍计算深度场景图像中的一个像素点所对应的方向夹角(θ)可以理解的是,深度场景图像中其他像素点的方向夹角,也可以采用类似方式进行计算,此处不做赘述。
具体地,为了便于说明,请再次参阅图11,可见,方向夹角(θ)即为焦点(P点)到实际点(P')所构成的直线与焦点(P点)到深度场景图像所构成的水平线之间的角度。采用如下方式计算像素点所对应的方向夹角:
Figure 45891DEST_PATH_IMAGE005
;式(12)
其中,θ表示像素点所对应的方向夹角。d表示像素点与雷达传感器(例如,第一雷达传感器)之间的探测距离。z表示像素点所对应的深度值。
基于此,将像素点所对应的方向夹角(θ)代入至上述式(10)中,即可得到像素点所对应的能量探测强度阈值(D(θ))。再将能量探测强度阈值(D(θ))代入至上述式(11)中,即可得到像素点所对应的探测距离阈值(Dmax)。
如果某个像素点满足d<Dmax,则表示该像素点所对应的探测距离小于探测范围阈值,因此,该像素点可被雷达传感器(例如,第一雷达传感器)探测到。如果K个像素点中存在至少一个像素点所对应的探测距离小于探测范围阈值,那么采用如下方式计算最小探测距离:
Figure DEST_PATH_IMAGE009
;式(13)
其中,T表示最小探测距离。d表示像素点与雷达传感器(例如,第一雷达传感器)之间的探测距离。Dmax表示像素点所对应的探测距离阈值。此时,有效测距结果包括最小探测距离。
如果K个像素点中每个像素点均满足d≥Dmax,则表示K个像素点中每个像素点所对应的探测距离大于或等于探测范围阈值,因此,雷达传感器(例如,第一雷达传感器)无法探测到任意一个像素点,因此,雷达传感器(例如,第一雷达传感器)的测距结果为无效测距结果。
再次,本申请实施例中,提供了一种基于探测距离确定雷达传感器测距结果的方式,通过上述方式,将探测范围阈值作为探测范围阈值的情况下,分别获取每个像素点的探测距离,将能量探测距离小于探测范围阈值的像素点作为可被雷达传感器探测到的像素点,从而进一步确定最小探测距离。由此,能够实现像素点探测,从而提升方案的可行性和可操作性。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,获取深度场景图像之后,还可以包括:
针对每个像素点,获取像素点与第二雷达传感器之间的探测距离,其中,第二雷达传感器为在仿真环境中创建的雷达;
针对每个像素点,根据像素点的深度值以及像素点与第二雷达传感器之间的探测距离,确定像素点所对应的方向夹角;
针对每个像素点,根据像素点所对应的方向夹角以及第二雷达传感器的第二内部参数,确定像素点所对应的探测范围阈值,其中,第二内部参数为第二雷达传感器在仿真环境中的内部参数;
根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第二雷达传感器的测距结果。
在一个或多个实施例中,介绍了一种同时基于多个雷达传感器进行测距的方式。由前述实施例可知,在仿真环境中,不仅可以对于同一台虚拟车辆可设置多个雷达传感器,还可以在同一个虚拟车辆的相同位置行设置多个雷达传感器。基于此,不同的雷达传感器基于相似的原理进行测距,例如,对于第二雷达传感器而言,也需要分别获取每个像素点与第二雷达传感器之间的探测距离,然后根据每个像素点的深度值以及像素点与第二雷达传感器之间的探测距离,确定像素点所对应的方向夹角。进而,通过方向夹角以及第二雷达传感器的第二内部参数,计算出每个像素点的探测范围阈值。基于此,利用探测范围阈值输出第二雷达传感器的测距结果。
具体地,下面将结合四个示例对多个雷达传感器的部署策略进行进一步介绍。
一、同类雷达传感器部署于同一虚拟车辆的不同位置;
示例性地,请参阅图14,图14为本申请实施例中基于仿真环境部署多个雷达传感器的一个示意图,如图所示,G1用于指示第一雷达传感器,G2用于指示第二雷达传感器,其中,第一雷达传感器和第二雷达传感器分别设置于虚拟车辆前方的不同位置,且,第一雷达传感器的第一内部参数和第二雷达传感器的第二内部参数可根据实际情况进行设置,可相同也可不同。
需要说明的是,第一雷达传感器和第二雷达传感器可以均为超声波雷达传感器,或者,均为毫米波雷达传感器,或者,均为激光雷达传感器,又或者,均为其他相同类型的雷达传感器,此处不做限定。
二、非同类雷达传感器部署于同一虚拟车辆的不同位置;
示例性地,请参阅图15,图15为本申请实施例中基于仿真环境部署多个雷达传感器的又一个示意图,如图所示,H1用于指示第一雷达传感器,H2用于指示第二雷达传感器,其中,第一雷达传感器和第二雷达传感器分别设置于虚拟车辆前方的不同位置,且,第一雷达传感器的第一内部参数和第二雷达传感器的第二内部参数可根据实际情况进行设置,可相同也可不同。
需要说明的是,第一雷达传感器可以是超声波雷达传感器,第二雷达传感器可以是毫米波雷达传感器,或者,第一雷达传感器可以是激光雷达传感器,第二雷达传感器可以是超声波雷达传感器,又或者,分别采用其他不同类型的雷达传感器,此处不做限定。
三、同类雷达传感器部署于同一虚拟车辆的相同位置;
示例性地,请参阅图16,图16为本申请实施例中基于仿真环境部署多个雷达传感器的另一个示意图,如图所示,I1用于指示第一雷达传感器,I2用于指示第二雷达传感器,其中,第一雷达传感器和第二雷达传感器设置于虚拟车辆前方的相同位置,且,第一雷达传感器的第一内部参数和第二雷达传感器的第二内部参数通常设置为不同。
需要说明的是,第一雷达传感器和第二雷达传感器可以均为超声波雷达传感器,或者,均为毫米波雷达传感器,或者,均为激光雷达传感器,又或者,均为其他相同类型的雷达传感器,此处不做限定。
四、非同类雷达传感器部署于同一虚拟车辆的相同位置;
示例性地,请参阅图17,图17为本申请实施例中基于仿真环境部署多个雷达传感器的再一个示意图,如图所示,J1用于指示第一雷达传感器,J2用于指示第二雷达传感器,其中,第一雷达传感器和第二雷达传感器设置于虚拟车辆前方的相同位置,且,第一雷达传感器的第一内部参数和第二雷达传感器的第二内部参数可根据实际情况进行设置,可相同也可不同。
需要说明的是,第一雷达传感器可以是超声波雷达传感器,第二雷达传感器可以是毫米波雷达传感器,或者,第一雷达传感器可以是激光雷达传感器,第二雷达传感器可以是超声波雷达传感器,又或者,分别采用其他不同类型的雷达传感器,此处不做限定。
其次,本申请实施例中,提供了一种同时基于多个雷达传感器进行测距的方式,通过上述方式,在仿真环境中可以为多个雷达传感器设置不同的参数(包括外部参数和/或内部参数),从而达到在同一台虚拟车辆的不同位置上模拟多个雷达传感器的效果。并且,为了进一步提升测试效率,还可以在同一台虚拟车辆的相同位置上模拟多个雷达传感器,由此,提升仿真性能,满足自动驾驶仿真的要求,有利于提高泊车算法的迭代速度,进而有助于推动智能汽车的发展。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果之后,还可以包括:
若测距结果为无效测距结果,则控制虚拟车辆进行移动,其中,虚拟车辆上至少部署有第一雷达传感器;
若测距结果为有效测距结果,则根据预设控制策略对虚拟车辆进行控制。
在一个或多个实施例中,介绍了一种将测距结果反馈至下游任务的方式。由前述实施例可知,对于每帧深度场景图像而言,均可获取第一雷达传感器的测距结果。其中,测距结果包括有效测距结果和无效测距结果,测距结果能够引导测试程序执行后续操作。
具体地,如果测距结果为无效测距结果,则表示第一雷达传感器并未探测到存在环境物体(即,障碍物),因此,可继续控制虚拟车辆进行运动。如果虚拟车辆设置有多个雷达传感器,那么还需要综合考虑各个雷达传感器的测距结果,并以此输出相应的行为。如果第一雷达传感器具有有效测距结果,则表示已经探测到环境物体(即,障碍物),于是,应按照预设控制策略对虚拟车辆进行控制。
可见,雷达传感器在虚拟世界中仿真得到的有效测距结果,发送给下游任务(例如,泊车算法),然后下游任务做出反馈,用于验证算法的优劣。
其次,本申请实施例中,提供了一种将测距结果反馈至下游任务的方式,通过上述方式,基于每一帧深度场景图像可得到相应的测距结果,将测距结果喂给下游任务,能够让下游任务做出响应,实现决策与环境的融合,从而达到更真实且可靠的仿真效果。
可选地,在上述图3对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据预设控制策略对虚拟车辆进行控制,具体可以包括:
若像素点与第一雷达传感器之间的最小探测距离小于警戒距离阈值,则检测像素点所属的环境物体的物体类别;
若物体类别属于待避让物体类别,则控制虚拟车辆停止移动;
若物体类别不属于待避让物体类别,则控制虚拟车辆减速移动。
在一个或多个实施例中,介绍了一种基于预设控制策略实现车辆的方式。由前述实施例可知,如果深度场景图像中的像素点与第一雷达传感器之间的最小探测距离小于警戒距离阈值,则表示仿真环境中的虚拟车辆即将与环境物体发生碰撞。基于此,需要进一步检测环境物体的物体类别,并基于类别对虚拟车辆进行控制。
示例性地,一种情况下,在用户设置环境物体的过程中,即可选择环境物体的物体类别,由此,只需要检测每个像素点所属的环境物体,即可确定该像素点所对应的物体类别。
示例性地,另一种情况下,可将深度场景图像作为神经网络的输入,通过神经网络输出显示于深度场景图像上的各个环境物体所对应的物体类别。然后,检测每个像素点所属的环境物体,即可确定该像素点所对应的物体类别。
具体地,为了便于理解,请参阅表1,表1为物体类别与预设控制策略之间对应关系的一个示意。
表1
Figure 82111DEST_PATH_IMAGE010
可见,如果检测到环境物体是“树枝”,则确定该环境物体不属于待避让物体类别,因此,可控制虚拟车辆减速移动或者按照原本的速度正常行驶。如果检测到环境物体是“路障”,则确定该环境物体属于待避让物体类别,因此,需要控制虚拟车辆停止移动。
需要说明的是,表1所示的物体类别与预设控制策略之间对应关系仅为一个示意,不应理解为对本申请的限定。
再次,本申请实施例中,提供了一种基于预设控制策略实现车辆的方式,通过上述方式,在仿真测试的过程中,对于不同环境物体的物体类别,采用合理的策略控制其移动,一方面,不仅能够避免车辆与影响行车的环境物体出现碰撞。另一方面,对于不影响实际行驶的环境物体可以不予以避让。由此可见,基于预设控制策略并结合物体类别控制车辆移动,能够更好地模拟实际行车,从而提升仿真测试的真实性。
下面对本申请中的仿真测距装置进行详细描述,请参阅图18,图18为本申请实施例中仿真测距装置的一个实施例示意图,仿真测距装置20包括:
获取模块210,用于获取深度场景图像,其中,深度场景图像包括K个像素点,每个像素点对应于深度值,K为大于或等于1的整数;
获取模块210,还用于针对每个像素点,获取像素点与第一雷达传感器之间的探测距离,其中,第一雷达传感器为在仿真环境中创建的雷达;
确定模块220,用于针对每个像素点,根据像素点的深度值以及像素点与第一雷达传感器之间的探测距离,确定像素点所对应的方向夹角;
确定模块220,还用于针对每个像素点,根据像素点所对应的方向夹角以及第一雷达传感器的第一内部参数,确定像素点所对应的探测范围阈值,其中,第一内部参数为第一雷达传感器在仿真环境中的内部参数;
确定模块220,还用于根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果。
本申请实施例中,提供了一种仿真测距装置。采用上述装置,在仿真环境中基于雷达的工作原理模拟真正的声波波形,并结合渲染得到的深度场景图像,可针对每个具有深度值的像素点计算其对应的探测范围阈值,以像素点维度对应的探测范围阈值作为探测范围的约束,能够模拟得到更精确的探测范围,从而提升仿真测试的准确性。
可选地,在上述图18所对应的实施例的基础上,本申请实施例提供的仿真测距装置20的另一实施例中,
获取模块210,具体用于获取目标帧所对应的图像数据,其中,图像数据包括针对环境物体的每个像素点所对应的深度值;
调用渲染引擎对图像数据进行渲染,得到深度场景图像。
本申请实施例中,提供了一种仿真测距装置。采用上述装置,由于渲染引擎工作在GPU上,具有实时性较高的特点,从而提升仿真测试的效率。
可选地,在上述图18所对应的实施例的基础上,本申请实施例提供的仿真测距装置20的另一实施例中,仿真测距装置20还包括显示模块230;
显示模块230,用于显示引擎设置界面,其中,引擎设置界面上显示有M个可选控件,每个可选控件对应于一个可选环境物体,M为大于或等于1的整数;
显示模块230,还用于响应针对于可选控件的选择操作,显示可选控件所对应的环境物体;
显示模块230,还用于若响应针对于环境物体的位置设置操作,则显示经过位置更新后的环境物体;
显示模块230,还用于若响应针对于环境物体的深度设置操作,则显示经过深度值更新后的环境物体。
本申请实施例中,提供了一种仿真测距装置。采用上述装置,用户可以在引擎设置界面上选择出现在仿真环境中的环境物体,相当于预先为用户提供了一些可选的环境物体,便于用户根据实际情况进行灵活地选取和设置,无需用户额外构建环境物体的美术模型,从而提升仿真效率。
可选地,在上述图18所对应的实施例的基础上,本申请实施例提供的仿真测距装置20的另一实施例中,
获取模块210,具体用于获取像素点在深度场景图像中的横坐标以及纵坐标;
获取深度场景图像所对应的宽度值和高度值;
根据像素点所对应的横坐标、纵坐标和深度值,以及,深度场景图像所对应的宽度值和高度值,计算得到像素点与第一雷达传感器之间的探测距离。
本申请实施例中,提供了一种仿真测距装置。采用上述装置,基于三角形勾股定理计算雷达传感器到深度场景图像中任一个像素点的实际距离,然后基于平行线定理计算出与实际距离对应的探测距离,从而实现对探测距离的计算,由此,提升方案的可行性。
可选地,在上述图18所对应的实施例的基础上,本申请实施例提供的仿真测距装置20的另一实施例中,
获取模块210,具体用于通过渲染引擎从第一雷达传感器所在位置向像素点所在位置发射目标射线;
通过渲染引擎获取目标射线的长度,并将目标射线的长度作为像素点与第一雷达传感器之间的探测距离。
本申请实施例中,提供了一种仿真测距装置。采用上述装置,渲染引擎可根据设定好的参数构建一个虚拟的物理世界,然后采用射线检测方法可以直接探测出在虚拟物理世界中物体之间的距离。从而增加方案实施的灵活性。
可选地,在上述图18所对应的实施例的基础上,本申请实施例提供的仿真测距装置20的另一实施例中,第一内部参数包括声波波长以及发声器半径;
确定模块220,具体用于根据声波波长以及圆周参数,确定关联参数;
根据关联参数、发声器半径以及像素点所对应的方向夹角,确定像素点所对应的能量探测强度阈值,并将能量探测强度阈值作为探测范围阈值。
本申请实施例中,提供了一种仿真测距装置。采用上述装置,根据超声波参数(即,雷达传感器的内部参数)计算超声波的能量探测强度阈值,有效模拟了雷达传感器的探测盲区,相比于直接以FOV的方式进行测距,在精度上得到较大的提升,从而提升了仿真测试的准确度。
可选地,在上述图18所对应的实施例的基础上,本申请实施例提供的仿真测距装置20的另一实施例中,第一内部参数还包括雷达最大探测距离;
确定模块220,具体用于针对每个像素点,根据像素点与第一雷达传感器之间的探测距离以及雷达最大探测距离,确定像素点所对应的能量探测强度;
若K个像素点中存在至少一个像素点所对应的能量探测强度小于探测范围阈值,则确定第一雷达传感器的测距结果为有效测距结果,其中,有效测距结果包括至少一个像素点与第一雷达传感器之间的最小探测距离;
若K个像素点中每个像素点所对应的能量探测强度均大于或等于探测范围阈值,则确定第一雷达传感器的测距结果为无效测距结果。
本申请实施例中,提供了一种仿真测距装置。采用上述装置,将能量探测强度阈值作为探测范围阈值的情况下,分别计算每个像素点的能量探测强度,将能量探测强度小于能量探测强度阈值的像素点作为可被雷达传感器探测到的像素点,从而进一步确定最小探测距离。由此,能够实现像素点探测,从而提升方案的可行性和可操作性。
可选地,在上述图18所对应的实施例的基础上,本申请实施例提供的仿真测距装置20的另一实施例中,第一内部参数包括雷达最大探测距离、声波波长以及发声器半径;
确定模块220,具体用于根据声波波长以及圆周参数,确定关联参数;
根据关联参数、发声器半径以及像素点所对应的方向夹角,确定像素点所对应的能量探测强度阈值;
根据能量探测强度阈值以及雷达最大探测距离,确定探测距离阈值,并将探测距离阈值作为探测范围阈值。
本申请实施例中,提供了一种仿真测距装置。采用上述装置,根据超声波参数(即,雷达传感器的内部参数)计算超声波的探测距离阈值,有效模拟了雷达传感器的探测盲区,相比于直接以FOV的方式进行测距,在精度上得到较大的提升,从而提升了仿真测试的准确度。
可选地,在上述图18所对应的实施例的基础上,本申请实施例提供的仿真测距装置20的另一实施例中,
确定模块220,具体用于若K个像素点中存在至少一个像素点与第一雷达传感器之间的探测距离小于探测范围阈值,则确定第一雷达传感器的测距结果为有效测距结果,其中,有效测距结果包括至少一个像素点与第一雷达传感器之间的最小探测距离;
若K个像素点中每个像素点与第一雷达传感器之间的探测距离大于或等于探测范围阈值,则确定第一雷达传感器的测距结果为无效测距结果。
本申请实施例中,提供了一种仿真测距装置。采用上述装置,将探测范围阈值作为探测范围阈值的情况下,分别获取每个像素点的探测距离,将能量探测距离小于探测范围阈值的像素点作为可被雷达传感器探测到的像素点,从而进一步确定最小探测距离。由此,能够实现像素点探测,从而提升方案的可行性和可操作性。
可选地,在上述图18所对应的实施例的基础上,本申请实施例提供的仿真测距装置20的另一实施例中,
获取模块210,还用于获取深度场景图像之后,针对每个像素点,获取像素点与第二雷达传感器之间的探测距离,其中,第二雷达传感器为在仿真环境中创建的雷达;
确定模块220,还用于针对每个像素点,根据像素点的深度值以及像素点与第二雷达传感器之间的探测距离,确定像素点所对应的方向夹角;
确定模块220,还用于针对每个像素点,根据像素点所对应的方向夹角以及第二雷达传感器的第二内部参数,确定像素点所对应的探测范围阈值,其中,第二内部参数为第二雷达传感器在仿真环境中的内部参数;
确定模块220,还用于根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第二雷达传感器的测距结果。
本申请实施例中,提供了一种仿真测距装置。采用上述装置,在仿真环境中可以为多个雷达传感器设置不同的参数(包括外部参数和/或内部参数),从而达到在同一台虚拟车辆的不同位置上模拟多个雷达传感器的效果。并且,为了进一步提升测试效率,还可以在同一台虚拟车辆的相同位置上模拟多个雷达传感器,由此,提升仿真性能,满足自动驾驶仿真的要求,有利于提高泊车算法的迭代速度,进而有助于推动智能汽车的发展。
可选地,在上述图18所对应的实施例的基础上,本申请实施例提供的仿真测距装置20的另一实施例中,仿真测距装置20还包括控制模块240;
控制模块240,用于根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果之后,若测距结果为无效测距结果,则控制虚拟车辆进行移动,其中,虚拟车辆上至少部署有第一雷达传感器;
控制模块240,还用于根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果之后,若测距结果为有效测距结果,则根据预设控制策略对虚拟车辆进行控制。
本申请实施例中,提供了一种仿真测距装置。采用上述装置,基于每一帧深度场景图像可得到相应的测距结果,将测距结果喂给下游任务,能够让下游任务做出响应,实现决策与环境的融合,从而达到更真实且可靠的仿真效果。
可选地,在上述图18所对应的实施例的基础上,本申请实施例提供的仿真测距装置20的另一实施例中,
控制模块240,具体用于若像素点与第一雷达传感器之间的最小探测距离小于警戒距离阈值,则检测像素点所属的环境物体的物体类别;
若物体类别属于待避让物体类别,则控制虚拟车辆停止移动;
若物体类别不属于待避让物体类别,则控制虚拟车辆减速移动。
本申请实施例中,提供了一种仿真测距装置。采用上述装置,在仿真测试的过程中,对于不同环境物体的物体类别,采用合理的策略控制其移动,一方面,不仅能够避免车辆与影响行车的环境物体出现碰撞。另一方面,对于不影响实际行驶的环境物体可以不予以避让。由此可见,基于预设控制策略并结合物体类别控制车辆移动,能够更好地模拟实际行车,从而提升仿真测试的真实性。
本申请实施例还提供了另一种仿真测距装置,该仿真测距装置可部署于终端设备。如图19所示,仅示出了与本申请实施例相关的部分,具体技术细节未揭示的,请参照本申请实施例方法部分。在本申请实施例中,以终端设备为智能手机为例进行说明:
图19示出的是与本申请实施例提供的终端设备相关的智能手机的部分结构的框图。参考图19,智能手机包括:射频(radio frequency,RF)电路310、存储器320、输入单元330、显示单元340、传感器350、音频电路360、无线保真(wireless fidelity,WiFi)模块370、处理器380、以及电源390等部件。本领域技术人员可以理解,图19中示出的智能手机结构并不构成对智能手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图19对智能手机的各个构成部件进行具体的介绍:
RF电路310可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器380处理;另外,将设计上行的数据发送给基站。通常,RF电路310包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(low noiseamplifier,LNA)、双工器等。此外,RF电路310还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统 (globalsystem of mobile communication,GSM)、通用分组无线服务(general packet radioservice,GPRS)、码分多址(code division multiple access,CDMA)、宽带码分多址(wideband code division multiple access, WCDMA)、长期演进 (long termevolution,LTE)、电子邮件、短消息服务(short messaging service,SMS)等。
存储器320可用于存储软件程序以及模块,处理器380通过运行存储在存储器320的软件程序以及模块,从而执行智能手机的各种功能应用以及数据处理。存储器320可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据智能手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器320可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元330可用于接收输入的数字或字符信息,以及产生与智能手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元330可包括触控面板331以及其他输入设备332。触控面板331,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板331上或在触控面板331附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板331可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器380,并能接收处理器380发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板331。除了触控面板331,输入单元330还可以包括其他输入设备332。具体地,其他输入设备332可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元340可用于显示由用户输入的信息或提供给用户的信息以及智能手机的各种菜单。显示单元340可包括显示面板341,可选的,可以采用液晶显示器(liquidcrystal display,LCD)、有机发光二极管(organic light-emitting diode,OLED)等形式来配置显示面板341。进一步的,触控面板331可覆盖显示面板341,当触控面板331检测到在其上或附近的触摸操作后,传送给处理器380以确定触摸事件的类型,随后处理器380根据触摸事件的类型在显示面板341上提供相应的视觉输出。虽然在图19中,触控面板331与显示面板341是作为两个独立的部件来实现智能手机的输入和输入功能,但是在某些实施例中,可以将触控面板331与显示面板341集成而实现智能手机的输入和输出功能。
智能手机还可包括至少一种传感器350,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板341的亮度,接近传感器可在智能手机移动到耳边时,关闭显示面板341和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别智能手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于智能手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路360、扬声器361,传声器362可提供用户与智能手机之间的音频接口。音频电路360可将接收到的音频数据转换后的电信号,传输到扬声器361,由扬声器361转换为声音信号输出;另一方面,传声器362将收集的声音信号转换为电信号,由音频电路360接收后转换为音频数据,再将音频数据输出处理器380处理后,经RF电路310以发送给比如另一智能手机,或者将音频数据输出至存储器320以便进一步处理。
WiFi属于短距离无线传输技术,智能手机通过WiFi模块370可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图19示出了WiFi模块370,但是可以理解的是,其并不属于智能手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器380是智能手机的控制中心,利用各种接口和线路连接整个智能手机的各个部分,通过运行或执行存储在存储器320内的软件程序和/或模块,以及调用存储在存储器320内的数据,执行智能手机的各种功能和处理数据,从而对智能手机进行整体监控。可选的,处理器380可包括一个或多个处理单元;可选的,处理器380可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器380中。
智能手机还包括给各个部件供电的电源390(比如电池),可选的,电源可以通过电源管理系统与处理器380逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,智能手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
本申请实施例中,处理器380用于执行如下步骤:
获取深度场景图像,其中,深度场景图像包括K个像素点,每个像素点对应于深度值,K为大于或等于1的整数;
针对每个像素点,获取像素点与第一雷达传感器之间的探测距离,其中,第一雷达传感器为在仿真环境中创建的雷达;
针对每个像素点,根据像素点的深度值以及像素点与第一雷达传感器之间的探测距离,确定像素点所对应的方向夹角;
针对每个像素点,根据像素点所对应的方向夹角以及第一雷达传感器的第一内部参数,确定像素点所对应的探测范围阈值,其中,第一内部参数为第一雷达传感器在仿真环境中的内部参数;
根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果。
上述实施例中由终端设备所执行的步骤可以基于该图19所示的终端设备结构。
本申请实施例还提供了另一种仿真测距装置,该仿真测距装置可部署于服务器。图20是本申请实施例提供的一种服务器结构示意图,该服务器400可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)422(例如,一个或一个以上处理器)和存储器432,一个或一个以上存储应用程序442或数据444的存储介质430(例如一个或一个以上海量存储设备)。其中,存储器432和存储介质430可以是短暂存储或持久存储。存储在存储介质430的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器422可以设置为与存储介质430通信,在服务器400上执行存储介质430中的一系列指令操作。
服务器400还可以包括一个或一个以上电源426,一个或一个以上有线或无线网络接口450,一个或一个以上输入输出接口458,和/或,一个或一个以上操作系统441,例如Windows ServerTM,Mac OS XTM,UnixTM, LinuxTM,FreeBSDTM等等。
本申请实施例中,CPU 422用于执行如下步骤:
获取深度场景图像,其中,深度场景图像包括K个像素点,每个像素点对应于深度值,K为大于或等于1的整数;
针对每个像素点,获取像素点与第一雷达传感器之间的探测距离,其中,第一雷达传感器为在仿真环境中创建的雷达;
针对每个像素点,根据像素点的深度值以及像素点与第一雷达传感器之间的探测距离,确定像素点所对应的方向夹角;
针对每个像素点,根据像素点所对应的方向夹角以及第一雷达传感器的第一内部参数,确定像素点所对应的探测范围阈值,其中,第一内部参数为第一雷达传感器在仿真环境中的内部参数;
根据K个像素点中每个像素点所对应的探测范围阈值以及探测距离,确定第一雷达传感器的测距结果。
上述实施例中由服务器所执行的步骤可以基于该图20所示的服务器结构。
本申请实施例中还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行如前述各个实施例描述的方法。
本申请实施例中还提供一种包括程序的计算机程序产品,当其在计算机上运行时,使得计算机执行前述各个实施例描述的方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (16)

1.一种仿真测距的方法,其特征在于,包括:
获取深度场景图像,其中,所述深度场景图像包括K个像素点,每个像素点对应于深度值,所述K为大于或等于1的整数;
针对所述每个像素点,获取像素点与第一雷达传感器之间的探测距离,其中,所述第一雷达传感器为在仿真环境中创建的雷达;
针对所述每个像素点,根据像素点的深度值以及所述像素点与所述第一雷达传感器之间的探测距离,确定所述像素点所对应的方向夹角;
针对所述每个像素点,根据像素点所对应的方向夹角以及所述第一雷达传感器的第一内部参数,确定所述像素点所对应的探测范围阈值,其中,所述第一内部参数为所述第一雷达传感器在仿真环境中的内部参数;
根据所述K个像素点中所述每个像素点所对应的探测范围阈值以及探测距离,确定所述第一雷达传感器的测距结果。
2.根据权利要求1所述的方法,其特征在于,所述获取深度场景图像,包括:
获取目标帧所对应的图像数据,其中,所述图像数据包括针对环境物体的每个像素点所对应的深度值;
调用渲染引擎对所述图像数据进行渲染,得到所述深度场景图像。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
显示引擎设置界面,其中,所述引擎设置界面上显示有M个可选控件,每个可选控件对应于一个可选环境物体,所述M为大于或等于1的整数;
响应针对于可选控件的选择操作,显示所述可选控件所对应的环境物体;
若响应针对于所述环境物体的位置设置操作,则显示经过位置更新后的环境物体;
若响应针对于所述环境物体的深度设置操作,则显示经过深度值更新后的环境物体。
4.根据权利要求1所述的方法,其特征在于,所述获取像素点与第一雷达传感器之间的探测距离,包括:
获取所述像素点在所述深度场景图像中的横坐标以及纵坐标;
获取所述深度场景图像所对应的宽度值和高度值;
根据所述像素点所对应的横坐标、纵坐标和深度值,以及,所述深度场景图像所对应的宽度值和高度值,计算得到所述像素点与所述第一雷达传感器之间的探测距离。
5.根据权利要求1所述的方法,其特征在于,所述获取像素点与第一雷达传感器之间的探测距离,包括:
通过渲染引擎从所述第一雷达传感器所在位置向所述像素点所在位置发射目标射线;
通过所述渲染引擎获取所述目标射线的长度,并将所述目标射线的长度作为所述像素点与所述第一雷达传感器之间的探测距离。
6.根据权利要求1所述的方法,其特征在于,所述第一内部参数包括声波波长以及发声器半径;
所述根据像素点所对应的方向夹角以及所述第一雷达传感器的第一内部参数,确定所述像素点所对应的探测范围阈值,包括:
根据所述声波波长以及圆周参数,确定关联参数;
根据所述关联参数、所述发声器半径以及所述像素点所对应的方向夹角,确定所述像素点所对应的能量探测强度阈值,并将所述能量探测强度阈值作为所述探测范围阈值。
7.根据权利要求6所述的方法,其特征在于,所述第一内部参数还包括雷达最大探测距离;
所述根据所述K个像素点中所述每个像素点所对应的探测范围阈值以及探测距离,确定所述第一雷达传感器的测距结果,包括:
针对所述每个像素点,根据像素点与第一雷达传感器之间的探测距离以及所述雷达最大探测距离,确定所述像素点所对应的能量探测强度;
若所述K个像素点中存在至少一个像素点所对应的能量探测强度小于所述探测范围阈值,则确定所述第一雷达传感器的测距结果为有效测距结果,其中,所述有效测距结果包括所述至少一个像素点与所述第一雷达传感器之间的最小探测距离;
若所述K个像素点中每个像素点所对应的能量探测强度均大于或等于所述探测范围阈值,则确定所述第一雷达传感器的测距结果为无效测距结果。
8.根据权利要求1所述的方法,其特征在于,所述第一内部参数包括雷达最大探测距离、声波波长以及发声器半径;
所述根据像素点所对应的方向夹角以及所述第一雷达传感器的第一内部参数,确定所述像素点所对应的探测范围阈值,包括:
根据所述声波波长以及圆周参数,确定关联参数;
根据所述关联参数、所述发声器半径以及所述像素点所对应的方向夹角,确定所述像素点所对应的能量探测强度阈值;
根据所述能量探测强度阈值以及所述雷达最大探测距离,确定探测距离阈值,并将所述探测距离阈值作为所述探测范围阈值。
9.根据权利要求8所述的方法,其特征在于,所述根据所述K个像素点中所述每个像素点所对应的探测范围阈值以及探测距离,确定所述第一雷达传感器的测距结果,包括:
若所述K个像素点中存在至少一个像素点与所述第一雷达传感器之间的探测距离小于所述探测范围阈值,则确定所述第一雷达传感器的测距结果为有效测距结果,其中,所述有效测距结果包括所述至少一个像素点与所述第一雷达传感器之间的最小探测距离;
若所述K个像素点中每个像素点与所述第一雷达传感器之间的探测距离大于或等于所述探测范围阈值,则确定所述第一雷达传感器的测距结果为无效测距结果。
10.根据权利要求1所述的方法,其特征在于,所述获取深度场景图像之后,所述方法还包括:
针对所述每个像素点,获取像素点与第二雷达传感器之间的探测距离,其中,所述第二雷达传感器为在仿真环境中创建的雷达;
针对所述每个像素点,根据像素点的深度值以及所述像素点与所述第二雷达传感器之间的探测距离,确定所述像素点所对应的方向夹角;
针对所述每个像素点,根据像素点所对应的方向夹角以及所述第二雷达传感器的第二内部参数,确定所述像素点所对应的探测范围阈值,其中,所述第二内部参数为所述第二雷达传感器在仿真环境中的内部参数;
根据所述K个像素点中所述每个像素点所对应的探测范围阈值以及探测距离,确定所述第二雷达传感器的测距结果。
11.根据权利要求1至10中任一项所述的方法,其特征在于,所述根据所述K个像素点中所述每个像素点所对应的探测范围阈值以及探测距离,确定所述第一雷达传感器的测距结果之后,所述方法还包括:
若所述测距结果为无效测距结果,则控制虚拟车辆进行移动,其中,所述虚拟车辆上至少部署有所述第一雷达传感器;
若所述测距结果为有效测距结果,则根据预设控制策略对所述虚拟车辆进行控制。
12.根据权利要求11所述的方法,其特征在于,所述根据预设控制策略对所述虚拟车辆进行控制,包括:
若像素点与所述第一雷达传感器之间的最小探测距离小于警戒距离阈值,则检测所述像素点所属的环境物体的物体类别;
若所述物体类别属于待避让物体类别,则控制所述虚拟车辆停止移动;
若所述物体类别不属于所述待避让物体类别,则控制所述虚拟车辆减速移动。
13.一种仿真测距装置,其特征在于,包括:
获取模块,用于获取深度场景图像,其中,所述深度场景图像包括K个像素点,每个像素点对应于深度值,所述K为大于或等于1的整数;
所述获取模块,还用于针对所述每个像素点,获取像素点与第一雷达传感器之间的探测距离,其中,所述第一雷达传感器为在仿真环境中创建的雷达;
确定模块,用于针对所述每个像素点,根据像素点的深度值以及所述像素点与所述第一雷达传感器之间的探测距离,确定所述像素点所对应的方向夹角;
所述确定模块,还用于针对所述每个像素点,根据像素点所对应的方向夹角以及所述第一雷达传感器的第一内部参数,确定所述像素点所对应的探测范围阈值,其中,所述第一内部参数为所述第一雷达传感器在仿真环境中的内部参数;
所述确定模块,还用于根据所述K个像素点中所述每个像素点所对应的探测范围阈值以及探测距离,确定所述第一雷达传感器的测距结果。
14.一种计算机设备,其特征在于,包括:存储器、处理器以及总线系统;
其中,所述存储器用于存储程序;
所述处理器用于执行所述存储器中的程序,所述处理器用于根据程序代码中的指令执行权利要求1至12中任一项所述的方法;
所述总线系统用于连接所述存储器以及所述处理器,以使所述存储器以及所述处理器进行通信。
15.一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如权利要求1至12中任一项所述的方法。
16.一种计算机程序产品,包括计算机程序和指令,其特征在于,该计算机程序/指令被处理器执行时实现如权利要求1至12中任一项所述的方法。
CN202111400189.XA 2021-11-24 2021-11-24 一种仿真测距的方法、相关装置、设备以及存储介质 Active CN113820694B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111400189.XA CN113820694B (zh) 2021-11-24 2021-11-24 一种仿真测距的方法、相关装置、设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111400189.XA CN113820694B (zh) 2021-11-24 2021-11-24 一种仿真测距的方法、相关装置、设备以及存储介质

Publications (2)

Publication Number Publication Date
CN113820694A true CN113820694A (zh) 2021-12-21
CN113820694B CN113820694B (zh) 2022-03-01

Family

ID=78918143

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111400189.XA Active CN113820694B (zh) 2021-11-24 2021-11-24 一种仿真测距的方法、相关装置、设备以及存储介质

Country Status (1)

Country Link
CN (1) CN113820694B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115032619A (zh) * 2022-05-05 2022-09-09 岚图汽车科技有限公司 一种超声波传感器阈值标定系统及方法
CN115371719A (zh) * 2022-10-10 2022-11-22 福思(杭州)智能科技有限公司 探测设备的参数标定方法和装置、存储介质及电子装置

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013029219A1 (zh) * 2011-08-26 2013-03-07 Huang Juehua 一种三维成像的方法和装置
CN105653350A (zh) * 2015-12-30 2016-06-08 南京乐飞航空技术有限公司 一种用于飞行模拟器的气象雷达仿真渲染方法
US20170147162A1 (en) * 2015-11-24 2017-05-25 The Boeing Company Simulation Environment
JP2018060512A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
CN108564615A (zh) * 2018-04-20 2018-09-21 驭势(上海)汽车科技有限公司 模拟激光雷达探测的方法、装置、系统及存储介质
CN108646233A (zh) * 2018-04-20 2018-10-12 驭势(上海)汽车科技有限公司 模拟超声波雷达探测的方法、装置、系统及存储介质
CN110133625A (zh) * 2019-05-20 2019-08-16 北京奥特贝睿科技有限公司 一种快速球坐标激光雷达仿真方法
WO2020022110A1 (ja) * 2018-07-27 2020-01-30 パナソニック株式会社 レーダデータ処理装置、物体判別装置、レーダデータ処理方法、および物体判別方法
CN110809723A (zh) * 2018-12-28 2020-02-18 深圳市大疆创新科技有限公司 雷达仿真方法、装置及系统
CN110824443A (zh) * 2019-04-29 2020-02-21 当家移动绿色互联网技术集团有限公司 雷达仿真方法、装置、存储介质及电子设备
CN110874510A (zh) * 2019-11-15 2020-03-10 中国人民解放军空军预警学院 基于算子的天波雷达探测概率柔性仿真建模方法
CN110956668A (zh) * 2019-09-27 2020-04-03 北京信息科技大学 一种基于聚焦测度的聚焦堆栈成像系统预置位标定方法
CN111091619A (zh) * 2019-12-30 2020-05-01 北京理工大学 基于光线追迹的激光雷达几何因子廓线仿真方法
US20200184027A1 (en) * 2018-12-07 2020-06-11 Zoox, Inc. System and method for modeling physical objects in a simulation
WO2020133206A1 (zh) * 2018-12-28 2020-07-02 深圳市大疆创新科技有限公司 雷达仿真方法及装置
US20200326717A1 (en) * 2019-04-10 2020-10-15 Argo AI, LLC Transferring synthetic lidar system data to real world domain for autonomous vehicle training applications
CN111860050A (zh) * 2019-04-27 2020-10-30 北京初速度科技有限公司 一种基于图像帧的回环检测方法及装置、车载终端
CN111896924A (zh) * 2020-08-17 2020-11-06 扬州船用电子仪器研究所(中国船舶重工集团公司第七二三研究所) 一种雷达海面低空探测性能仿真方法及仿真模型
CN112100071A (zh) * 2020-09-16 2020-12-18 腾讯科技(深圳)有限公司 测试用例生成方法、装置、计算机设备和存储介质
CN112379341A (zh) * 2020-11-02 2021-02-19 西安电子工程研究所 一种雷达接收机的数字化建模方法
CN113538551A (zh) * 2021-07-12 2021-10-22 Oppo广东移动通信有限公司 深度图生成方法、装置、电子设备

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013029219A1 (zh) * 2011-08-26 2013-03-07 Huang Juehua 一种三维成像的方法和装置
US20170147162A1 (en) * 2015-11-24 2017-05-25 The Boeing Company Simulation Environment
CN105653350A (zh) * 2015-12-30 2016-06-08 南京乐飞航空技术有限公司 一种用于飞行模拟器的气象雷达仿真渲染方法
JP2018060512A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
CN108564615A (zh) * 2018-04-20 2018-09-21 驭势(上海)汽车科技有限公司 模拟激光雷达探测的方法、装置、系统及存储介质
CN108646233A (zh) * 2018-04-20 2018-10-12 驭势(上海)汽车科技有限公司 模拟超声波雷达探测的方法、装置、系统及存储介质
WO2020022110A1 (ja) * 2018-07-27 2020-01-30 パナソニック株式会社 レーダデータ処理装置、物体判別装置、レーダデータ処理方法、および物体判別方法
US20200184027A1 (en) * 2018-12-07 2020-06-11 Zoox, Inc. System and method for modeling physical objects in a simulation
WO2020133230A1 (zh) * 2018-12-28 2020-07-02 深圳市大疆创新科技有限公司 雷达仿真方法、装置及系统
CN110809723A (zh) * 2018-12-28 2020-02-18 深圳市大疆创新科技有限公司 雷达仿真方法、装置及系统
WO2020133206A1 (zh) * 2018-12-28 2020-07-02 深圳市大疆创新科技有限公司 雷达仿真方法及装置
US20200326717A1 (en) * 2019-04-10 2020-10-15 Argo AI, LLC Transferring synthetic lidar system data to real world domain for autonomous vehicle training applications
CN111860050A (zh) * 2019-04-27 2020-10-30 北京初速度科技有限公司 一种基于图像帧的回环检测方法及装置、车载终端
CN110824443A (zh) * 2019-04-29 2020-02-21 当家移动绿色互联网技术集团有限公司 雷达仿真方法、装置、存储介质及电子设备
CN110133625A (zh) * 2019-05-20 2019-08-16 北京奥特贝睿科技有限公司 一种快速球坐标激光雷达仿真方法
CN110956668A (zh) * 2019-09-27 2020-04-03 北京信息科技大学 一种基于聚焦测度的聚焦堆栈成像系统预置位标定方法
CN110874510A (zh) * 2019-11-15 2020-03-10 中国人民解放军空军预警学院 基于算子的天波雷达探测概率柔性仿真建模方法
CN111091619A (zh) * 2019-12-30 2020-05-01 北京理工大学 基于光线追迹的激光雷达几何因子廓线仿真方法
CN111896924A (zh) * 2020-08-17 2020-11-06 扬州船用电子仪器研究所(中国船舶重工集团公司第七二三研究所) 一种雷达海面低空探测性能仿真方法及仿真模型
CN112100071A (zh) * 2020-09-16 2020-12-18 腾讯科技(深圳)有限公司 测试用例生成方法、装置、计算机设备和存储介质
CN112379341A (zh) * 2020-11-02 2021-02-19 西安电子工程研究所 一种雷达接收机的数字化建模方法
CN113538551A (zh) * 2021-07-12 2021-10-22 Oppo广东移动通信有限公司 深度图生成方法、装置、电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WEIWEI SHI 等: ""Mixed Design of SPAD Array Based TOF for Depth Camera and Unmanned Vehicle Applications"", 《2018 15TH INTERNATIONAL CONFERENCE ON SYNTHESIS, MODELING, ANALYSIS AND SIMULATION METHODS AND APPLICATIONS TO CIRCUIT DESIGN (SMACD)》 *
赵菁铭: ""激光回波仿真系统中深度图像生成及驱动技术研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115032619A (zh) * 2022-05-05 2022-09-09 岚图汽车科技有限公司 一种超声波传感器阈值标定系统及方法
CN115371719A (zh) * 2022-10-10 2022-11-22 福思(杭州)智能科技有限公司 探测设备的参数标定方法和装置、存储介质及电子装置
CN115371719B (zh) * 2022-10-10 2023-01-24 福思(杭州)智能科技有限公司 探测设备的参数标定方法和装置、存储介质及电子装置

Also Published As

Publication number Publication date
CN113820694B (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
US20200348408A1 (en) Vehicle Positioning Method and Vehicle Positioning Apparatus
US11987250B2 (en) Data fusion method and related device
CN111257866B (zh) 车载摄像头和车载雷达联动的目标检测方法、装置及系统
CN113820694B (zh) 一种仿真测距的方法、相关装置、设备以及存储介质
EP3798974B1 (en) Method and apparatus for detecting ground point cloud points
CN112256589B (zh) 一种仿真模型的训练方法、点云数据的生成方法及装置
CN111324115B (zh) 障碍物位置检测融合方法、装置、电子设备和存储介质
CN110888146B (zh) 自主交通工具计算系统、光检测和测距校准系统及其方法
CN110147705A (zh) 一种基于视觉感知的车辆定位方法及电子设备
CN111324945B (zh) 传感器方案确定方法、装置、设备及存储介质
CN112163280B (zh) 一种自动驾驶场景的模拟方法、装置、设备以及存储介质
CN109445425A (zh) 自动驾驶系统的性能检测方法、装置及存储介质
CA2979271A1 (en) Wayfinding and obstacle avoidance system
CN111618833A (zh) 部件的组装方法、装置、存储介质以及电子设备
CN113343457B (zh) 自动驾驶的仿真测试方法、装置、设备及存储介质
CN112562372B (zh) 一种轨迹数据的处理方法以及相关装置
CN113849969A (zh) 毫米波雷达仿真方法、装置及电子设备
CN116594028B (zh) 对齐参数的验证方法、装置、存储介质及电子设备
CN115526055B (zh) 模型鲁棒性检测方法、相关装置及存储介质
JP2020154913A (ja) 物体検出装置及び方法、交通支援サーバ、コンピュータプログラム及びセンサ装置
CN111856440B (zh) 位置检测方法、装置、设备及可读存储介质
CN115471495A (zh) 模型鲁棒性检测方法、相关装置及存储介质
JPWO2019031372A1 (ja) センサ制御装置
CN115375594A (zh) 一种图像拼接方法、装置及相关产品
KR20150121469A (ko) 스마트 웨어러블 지뢰탐지장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant