CN112671499B - 多传感器同步方法及系统、以及主控制设备 - Google Patents

多传感器同步方法及系统、以及主控制设备 Download PDF

Info

Publication number
CN112671499B
CN112671499B CN202110278546.3A CN202110278546A CN112671499B CN 112671499 B CN112671499 B CN 112671499B CN 202110278546 A CN202110278546 A CN 202110278546A CN 112671499 B CN112671499 B CN 112671499B
Authority
CN
China
Prior art keywords
sensor
time
image
view
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110278546.3A
Other languages
English (en)
Other versions
CN112671499A (zh
Inventor
肖健雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Antuzhihang Technology Co ltd
Original Assignee
Shenzhen Antuzhihang Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Antuzhihang Technology Co ltd filed Critical Shenzhen Antuzhihang Technology Co ltd
Priority to CN202110278546.3A priority Critical patent/CN112671499B/zh
Publication of CN112671499A publication Critical patent/CN112671499A/zh
Priority to US17/694,712 priority patent/US20220297721A1/en
Application granted granted Critical
Publication of CN112671499B publication Critical patent/CN112671499B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/12Limiting control by the driver depending on vehicle state, e.g. interlocking means for the control input for preventing unsafe operation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)

Abstract

本发明提供了一种多传感器同步方法,包括:获取第一传感器的第一视场方向;获取第二传感器的第二视场方向;获取当前时刻的时间;判断第二视场方向与第一视场方向是否相同;当第二视场方向与第一视场方向不相同时,计算第二视场方向与第一视场方向相同的同步时间;判断当前时刻的时间是否比同步时间提前预设时间;当当前时刻的时间比同步时间提前预设时间时,触发第一传感器输出第一图像;获取第一图像并根据第一图像调整第一传感器的第一感测参数以得到第二感测参数;以及当第二视场方向与第一视场方向相同时,触发第一传感器基于第二感测参数输出第二图像。本发明技术方案有效解决了多种传感器之间的同步问题。

Description

多传感器同步方法及系统、以及主控制设备
技术领域
本发明涉及无人驾驶技术领域,尤其涉及一种多传感器同步方法及系统、以及主控制设备。
背景技术
无人驾驶汽车在行驶过程中对障碍物的探测是环境感知系统的关键技术之一。现有技术中,通常在无人驾驶汽车上安装传感器,在无人驾驶汽车行驶过程中,利用传感器实时采集无人驾驶汽车周围的环境数据并传输至无人驾驶汽车的控制系统,通过对环境数据的分析实现对无人驾驶汽车的控制。
摄像头和激光雷达是目前最常用的两种传感器。然而,仅仅通过摄像头或者激光雷达采集的环境数据来对无人驾驶汽车进行控制是远远不够的。无人驾驶车辆在未知的复杂环境中行驶时,需要利用多种传感器对环境数据进行采集才能确保无人驾驶车辆的行驶安全。
因此,多种传感器之间的同步是亟需解决的问题。
发明内容
本发明提供了一种多传感器同步方法及系统、以及主控制设备,有效解决了多种传感器之间的同步问题。
第一方面,本发明实施例提供一种多传感器同步方法,所述多传感器同步方法包括:
获取第一传感器的第一视场方向;
获取第二传感器的第二视场方向;
获取当前时刻的时间;
判断所述第二视场方向与所述第一视场方向是否相同;
当所述第二视场方向与所述第一视场方向不相同时,计算所述第二视场方向与所述第一视场方向相同的同步时间;
判断所述当前时刻的时间是否比所述同步时间提前预设时间;
当所述当前时刻的时间比所述同步时间提前所述预设时间时,触发所述第一传感器输出第一图像;
获取所述第一图像并根据所述第一图像调整所述第一传感器的第一感测参数以得到第二感测参数;以及
当所述第二视场方向与所述第一视场方向相同时,触发所述第一传感器基于所述第二感测参数输出第二图像。
第二方面,本发明实施例提供一种主控制设备,所述主控制设备包括:
第一获取模块,用于获取第一传感器的第一视场方向;
第二获取模块,用于获取第二传感器的第二视场方向;
第三获取模块,用于获取当前时刻的时间;
第一判断模块,用于判断所述第二视场方向与所述第一视场方向是否相同;
计算模块,当所述第二视场方向与所述第一视场方向不相同时,所述计算模块用于计算所述第二视场方向与所述第一视场方向相同的同步时间;
第二判断模块,用于判断所述当前时刻的时间是否比所述同步时间提前预设时间;
第一触发模块,当所述当前时刻的时间比所述同步时间提前所述预设时间时,所述第一触发模块用于触发所述第一传感器输出第一图像;
图像获取模块,用于获取所述第一图像并根据所述第一图像调整所述第一传感器的第一感测参数以得到第二感测参数;以及
第二触发模块,当所述第二视场方向与所述第一视场方向相同时,所述第二触发模块用于触发所述第一传感器基于所述第二感测参数输出第二图像。
第三方面,本发明实施例提供一种多传感器同步系统,所述多传感器同步系统包括第一传感器、第二传感器、以及分别与所述第一传感器和所述第二传感器电连接的主控制设备,所述主控制设备包括处理器、以及存储器,所述存储器用于存储多传感器同步程序指令,所述处理器用于执行所述多传感器同步程序指令以实现如上所述的多传感器同步方法。
上述多传感器同步方法及系统、以及主控制设备,根据第二传感器的第二视场方向与第一传感器的第一视场方向是否相同,判断第一传感器与第二传感器是否同步。当第二视场方向与第一视场方向不相同时,第一传感器和第二传感器还未同步,触发第一传感器输出第一图像,根据第一图像调整第一传感器的第一感测参数以得到第二感测参数。当第二视场方向与第一视场方向相同时,第一传感器与第二传感器同步,触发第一传感器基于第二感测参数输出第二图像。当第一传感器和第二传感器未同步时,调整第一传感器的感测参数,使得第一传感器在与第二传感器同步时输出的第二图像质量更高,使得第一传感器和第二传感器的同步数据更加精准,从而能够保障无人驾驶车辆的行驶安全。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例提供的多传感器同步方法的流程图。
图2为本发明实施例提供的多传感器同步方法的子流程图。
图3为图1所示的无人驾驶车辆的立体图。
图4为图1所示的传感器视场角的示意图。
图5为图1所示的传感器视场方向的第一示意图。
图6为图1所示的传感器视场方向的第二示意图。
图7为本发明实施例提供的主控制设备的结构示意图。
图8为本发明实施例提供的多传感器同步系统的结构示意图。
元件符号说明
标号 名称 标号 名称
1000 多传感器同步系统 31 第一获取模块
100 无人驾驶车辆 32 第二获取模块
110 车顶 33 第三获取模块
120 车头 34 第一判断模块
130 车尾 35 计算模块
140 车身 36 第二判断模块
10 第一传感器 37 第一触发模块
20 第二传感器 38 图像获取模块
30 主控制设备 39 第二触发模块
301 处理器 F 预设方向
302 存储器 F1 第一视场方向
F2 第二视场方向
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,换句话说,描述的实施例根据除了这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,还可以包含其他内容,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于只清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者多个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
请结合参看图1和图3,其为本发明实施例提供的多传感器同步方法的流程图和无人驾驶车辆的立体图。多传感器同步方法包括但不限于应用于轿车、摩托车、卡车、运动型多用途车辆(SUV)、休闲车辆(RV)、飞行器等任何运输设备。运输设备安装有多个传感器,多传感器同步方法用于控制设置于运输设备上的多个传感器进行同步,从而能够准确获取环境数据,保障运输设备的行驶安全。其中,多传感器同步包括时间同步和空间同步。
在本实施例中,多传感器同步方法应用于无人驾驶车辆100。其中,无人驾驶车辆100具有所谓的四级或五级自动化系统。四级自动化系统指的是“高度自动化”,具有四级自动化系统的车辆原则上在其功能范围内不再需要人类驾驶员参加,即使人类驾驶员对干预请求没有做出适当响应,车辆也具备自动达到最小风险状态的能力。五级系统指的是“全自动化”,具有五级自动化系统的车辆可以在任何合法的、可行驶的道路环境下实现自动驾驶,人类驾驶员仅需要设置好目的地并开启系统,车辆就可以通过最优化的路线行驶至指定地点。多传感器同步方法具体包括如下步骤。
步骤S102,获取第一传感器的第一视场方向。本方法利用设置于无人驾驶车辆100的主控制设备30获取第一传感器10的第一视场方向F1。在本实施例中,无人驾驶车辆100设有多个第一传感器10(如图4所示)。其中,多个第一传感器10设置于无人驾驶车辆100的车顶110,且按预设方式排布于车顶110的四周。举例来说,当第一传感器10的数量为四个时,预设方式为四个第一传感器10分别排布于车顶110朝向车头120一侧的中间、车顶110朝向车尾130一侧的中间、以及车顶110左右两侧的中间。其中,设置于车顶110朝向车头120一侧中间的第一传感器10和设置于车顶110朝向车尾130一侧中间的第一传感器10位于同一直线上,设置于车顶110左右两侧中间的两个第一传感器10位于同一直线上。下文将以此为例进行详细描述。在一些可行的实施例中,多个第一传感器10也可以设置于无人驾驶车辆100的车身140,在此不做限定。在本实施例中,第一传感器10为摄像装置,第一视场方向F1为第一传感器10视场角的中轴线方向(如图5所示)。可以理解的是,设置于车顶110朝向车头120一侧中间的第一传感器10的第一视场方向F1朝向无人驾驶车辆100的正前方,设置于车顶110朝向车尾130一侧中间的第一传感器10的第一视场方向F1朝向无人驾驶车辆100的正后方,设置于车顶110左侧中间的第一传感器10的第一视场方向F1朝向无人驾驶车辆100的正左方,设置于车顶110右侧中间的第一传感器10的第一视场方向F1朝向无人驾驶车辆100的正右方。在本实施例中,主控制设备30可以同时获取多个第一传感器10的第一视场方向F1,也可以按预设顺序依次获取每一第一传感器10的第一视场方向F1。其中,预设顺序可以是顺时针方向,也可以是逆时针方向,还可以根据实际情况进行设置,在此不做限定。
步骤S104,获取第二传感器的第二视场方向。本方法利用主控制设备30获取第二传感器20的第二视场方向F2。在本实施例中,无人驾驶车辆100设有一个第二传感器20(如图4所示)。其中,一个第二传感器20设置于无人驾驶车辆100车顶110的中间处。在本实施例中,第二传感器20为机械式激光雷达,且第二传感器20可旋转。优选地,第二传感器20可以360度旋转。第二视场方向F2为第二传感器20视场角的中轴线(如图5所示)。可以理解的是,第二视场方向F2随第二传感器20的旋转而转动。主控制设备30可以根据第二传感器20的旋转方向依次获取每一第一传感器10的第一视场方向F1。举例来说,若第二传感器20的旋转方向为顺时针方向,当第二传感器20的第二视场方向F2旋转至朝向无人驾驶车辆100的正前方偏右36度时,主控制设备30获取第一传感器10的第一视场方向F1朝向无人驾驶车辆100的正右方。
步骤S106,获取当前时刻的时间。在本实施例中,主控制设备30可以通过无人驾驶车辆100上设有的时钟(图未示)获取当前时刻的时间,也可以通过无线网络等获取当前时刻的时间,在此不做限定。
步骤S108,判断第二视场方向与第一视场方向是否相同。在本实施例中,主控制设备30根据预设方向F和第一视场方向F1计算第一视场方向F1与预设方向F之间的第一夹角,根据预设方向F和第二视场方向F2计算第二视场方向F2与预设方向F之间的第二夹角,再判断第一夹角与第二夹角是否相同。其中,预设方向F为预先设定的标准方向。在本实施例中,预设方向F朝向无人驾驶车辆100的正前方。则,第一视场方向F1与预设方向之间的第一夹角为90度,第二视场方向F2与预设方向之间的第二夹角为36度,第一夹角与第二夹角不相同。因此,第二视场方向与第一视场方向不相同。
步骤S110,当第二视场方向与第一视场方向不相同时,计算第二视场方向与第一视场方向相同的同步时间。在本实施例中,当第二视场方向F2与第一视场方向F1不相同,即第二传感器20与第一传感器10不同步时,本方法利用主控制设备30计算第一夹角和第二夹角之间的差值,再根据差值和第二传感器20的转速计算旋转时间。其中,第二传感器20旋转360度所需要的时间为100毫秒。则,第二传感器20的转速为3.6度/毫秒。旋转时间为第二传感器20旋转至第二视场方向F2与第一视场方向F1相同所需要的时间。举例来说,第一夹角为90度,第二夹角为36度,则第一夹角和第二夹角之间的差值为54度。利用差值除以转速可得旋转时间。则,旋转时间为15毫秒。即是说,15毫秒后第二视场方向F2与第一视场方向F1相同。根据旋转时间和当前时刻的时间获得同步时间。可以理解的是,同步时间表示第二视场方向F2旋转至与第一视场方向F1相同时的时刻。举例来说,当前时刻的时间为8时10分10.020秒,旋转时间为15毫秒,则可得同步时间为8时10分10.035秒。即是说,8时10分10.035秒时,第二视场方向F2与第一视场方向F1相同。
步骤S112,判断当前时刻的时间是否比同步时间提前预设时间。其中,预设时间为9-25毫秒之间的任意数值。在本实施例中,预设时间为10毫秒。本方法利用主控制设备30判断当前时刻的时间是否比同步时间提前10毫秒。举例来说,当前时刻的时间为8时10分10.020秒,同步时间为8时10分10.035秒,当前时刻的时间比同步时间提前15毫秒,则当前时刻的时间比同步时间提前10毫秒。可以理解的是,判断当前时刻的时间是否比同步时间提前预设时间即是判断旋转时间是否大于预设时间。
步骤S114,当当前时刻的时间比同步时间提前预设时间时,触发第一传感器输出第一图像。在本实施例中,当当前时刻的时间比同步时间提前预设时间时,主控制设备30触发第一传感器10输出第一图像。其中,第一传感器10一直实时拍摄环境数据。当主控制设备30触发第一传感器10输出第一图像时,第一传感器10输出一帧图像。
步骤S116,获取第一图像并根据第一图像调整第一传感器的第一感测参数以得到第二感测参数。在本实施例中,本方法利用主控制设备30获取第一图像的清晰度,根据第一图像的清晰度调整第一感测参数以得到第二感测参数。其中,第一感测参数为第一传感器10当前设置的感测参数,第一感测参数包括第一曝光参数和第一白平衡参数。第二感测参数包括第二曝光参数和第二白平衡参数。则,主控制设备30根据第一图像的清晰度调整第一曝光参数以得到第二曝光参数,调整第一白平衡参数以得到第二白平衡参数。在一些可行的实施例中,主控制设备30还可以获取第一图像的亮度,根据第一图像的亮度调整第一感测参数以得到第二感测参数。
步骤S118,当第二视场方向与第一视场方向相同时,触发第一传感器基于第二感测参数输出第二图像。在本实施例中,当第一夹角与第二夹角相同,即第二视场方向F2转动至与第一视场方向F1相同时(如图6所示),本方法利用主控制设备30触发第一传感器10基于第二感测参数输出第二图像。此时,第二传感器20与第一传感器10同步。可以理解的是,第二传感器20的第二视场方向F2每100毫秒与其中一个第一传感器10的第一视场方向F1相同。当第二视场方向F2与第一视场方向F1相同,即第一传感器10与第二传感器20同步后,经过100毫秒第二视场方向F2与第一视场方向F1再次相同时,由于周围环境的改变,使得第一传感器10之前使用的第一曝光参数和第一白平衡参数与当前环境不相匹配,导致此时第一传感器10基于第一感测参数输出的图像可能会出现不清晰或者过亮或者过暗的情况。因此,当第二传感器20还没有旋转至第二视场方向F2与第一视场方向F1相同时,提前先将第一感测参数基于第一图像调整至第二感测参数。当第二视场方向F2与第一视场方向F1相同,即第二传感器20与第一传感器10同步时,可以使第一传感器10基于第二感测参数输出的第二图像的清晰度大于预设值。举例来说,若第一感测参数是基于光线较强的晴天环境设置的,当无人驾驶车辆100驶入光线较弱的隧道环境时,如果第一传感器10仍基于第一感测参数输出图像的话,会导致图像不清晰或者过暗。提前调整第一传感器10的感测参数,使第一传感器10的感测参数与光线较弱的隧道环境相匹配,从而使得第一传感器10输出的图像质量更高。
上述实施例中,根据第二传感器的第二视场方向与第一传感器的第一视场方向是否相同,判断第一传感器与第二传感器是否同步。当第二视场方向与第一视场方向不相同时,第一传感器和第二传感器还未同步,触发第一传感器输出第一图像,根据第一图像调整第一传感器的第一感测参数以得到第二感测参数。当第二视场方向与第一视场方向相同时,第一传感器与第二传感器同步,触发第一传感器基于第二感测参数输出第二图像。当第一传感器和第二传感器未同步时,调整第一传感器的感测参数,可以确保第一传感器与第二传感器同步时,第一传感器的曝光参数和白平衡参数均与周围环境相适配,从而使第一传感器输出的第二图像清晰且亮度合适、质量更高,使得第一传感器和第二传感器的同步数据更加精准,从而能够保障无人驾驶车辆的行驶安全。
请结合参看图2,其为本发明实施例提供的多传感器同步方法的子流程图。执行步骤S112之前,多传感器同步方法还包括如下步骤。
步骤S202,判断当前时刻的时间是否比同步时间提前预触发时间。其中,预触发时间大于预设时间。在本实施例中,预触发时间为25-32毫秒之间的任意数值。优选地,预触发时间为32毫秒。本方法利用主控制设备30判断当前时刻的时间是否比同步时间提前32毫秒。可以理解的是,判断当前时刻的时间是否比同步时间提前预触发时间即是判断旋转时间是否大于预触发时间。
步骤S204,当当前时刻的时间比同步时间提前预触发时间时,触发第一传感器输出第三图像。在本实施例中,当当前时刻的时间比同步时间提前预触发时间时,主控制设备30触发第一传感器10输出第三图像。
步骤S206,获取第三图像并根据第三图像调整第一传感器的第三感测参数以得到第一感测参数。在本实施例中,本方法利用主控制设备30获取第三图像的清晰度,根据第三图像的清晰度调整第三感测参数以得到第一感测参数。其中,第三感测参数为第一传感器10当前设置的感测参数,第三感测参数包括第三曝光参数和第三白平衡参数。主控制设备30根据第三图像的清晰度调整第三曝光参数以得到第一曝光参数,调整第三白平衡参数以得到第一白平衡参数,以使第一图像的清晰度大于预设值。在一些可行的实施例中,主控制设备30还可以获取第三图像的亮度,根据第三图像的亮度调整第三感测参数以得到第一感测参数。
上述实施例中,先根据第三图像将第三感测参数调整至第一感测参数,再根据第一图像将第一感测参数调整为第二感测参数。基于更多的图像来调整感测参数,可以使第一传感器和第二传感器更好地同步,即同步数据更加精确。
请结合参看图7,其为本发明实施例提供的主控制设备的结构示意图。主控制设备30具体包括如下模块。
第一获取模块31,用于获取第一传感器10的第一视场方向F1。本方法利用第一获取模块31获取第一传感器10的第一视场方向F1。第一获取模块31可以同时获取多个第一传感器10的第一视场方向F1,也可以按预设顺序依次获取每一第一传感器10的第一视场方向F1。其中,预设顺序可以是顺时针方向,也可以是逆时针方向,还可以根据实际情况进行设置,在此不做限定。
第二获取模块32,用于获取第二传感器20的第二视场方向F2。本方法利用第二获取模块32获取第二传感器20的第二视场方向F2。在本实施例中,第一获取模块31可以根据第二传感器20的旋转方向依次获取每一第一传感器10的第一视场方向F1。
第三获取模块33,用于获取当前时刻的时间。在本实施例中,第三获取模块33可以通过无人驾驶车辆100上设有的时钟(图未示)获取当前时刻的时间,也可以通过无线网络等获取当前时刻的时间,在此不做限定。
第一判断模块34,用于判断第二视场方向F2与第一视场方向F1是否相同。在本实施例中,第一判断模块34根据预设方向F和第一视场方向F1计算第一视场方向F1与预设方向F之间的第一夹角,根据预设方向F和第二视场方向F2计算第二视场方向F2与预设方向F之间的第二夹角,再判断第一夹角与第二夹角是否相同。其中,预设方向F为预先设定的标准方向。
计算模块35,当第二视场方向F2与第一视场方向F1不相同,即第二传感器20与第一传感器10不同步时,计算模块35用于计算第二视场方向F2与第一视场方向F1相同的同步时间。在本实施例中,计算模块35计算第一夹角和第二夹角之间的差值,再根据差值和第二传感器20的转速计算旋转时间,即利用差值除以转速得到旋转时间。其中,第二传感器20旋转360度所需要的时间为100毫秒。则,第二传感器20的转速为3.6度/毫秒。旋转时间为第二传感器20旋转至第二视场方向F2与第一视场方向F1相同所需要的时间。
第二判断模块36,用于判断当前时刻的时间是否比同步时间提前预设时间。其中,预设时间为9-25毫秒之间的任意数值。在本实施例中,预设时间为10毫秒。第二判断模块36判断当前时刻的时间是否比同步时间提前10毫秒。
第一触发模块37,当当前时刻的时间比同步时间提前预设时间时,第一触发模块37用于触发第一传感器10输出第一图像。其中,第一传感器10一直实时拍摄环境数据。当第一触发模块37触发第一传感器10输出第一图像时,第一传感器10输出一帧图像。
图像获取模块38,用于获取第一图像并根据第一图像调整第一传感器10的第一感测参数以得到第二感测参数。在本实施例中,图像获取模块38获取第一图像的清晰度,根据第一图像的清晰度调整第一感测参数以得到第二感测参数。其中,第一感测参数为第一传感器10当前设置的感测参数,第一感测参数包括第一曝光参数和第一白平衡参数。第二感测参数包括第二曝光参数和第二白平衡参数。则,主控制设备30根据第一图像的清晰度调整第一曝光参数以得到第二曝光参数,调整第一白平衡参数以得到第二白平衡参数。在一些可行的实施例中,主控制设备30还可以获取第一图像的亮度,根据第一图像的亮度调整第一感测参数以得到第二感测参数。
第二触发模块39,当第二视场方向F2与第一视场方向F1相同时,第二触发模块39用于触发第一传感器10基于第二感测参数输出第二图像。在本实施例中,当第一夹角与第二夹角相同,即第二视场方向F2转动至与第一视场方向F1相同时,第二触发模块39触发第一传感器10基于第二感测参数输出第二图像。此时,第二传感器20与第一传感器10同步。可以理解的是,第二传感器20的第二视场方向F2每100毫秒与其中一个第一传感器10的第一视场方向F1相同。当第二视场方向F2与第一视场方向F1相同,即第一传感器10与第二传感器20同步后,经过100毫秒第二视场方向F2与第一视场方向F1再次相同时,由于周围环境的改变,使得第一传感器10之前使用的第一曝光参数和第一白平衡参数与当前环境不相匹配,导致此时第一传感器10基于第一感测参数输出的图像可能会出现不清晰或者过亮或者过暗的情况。因此,当第二传感器20还没有旋转至第二视场方向F2与第一视场方向F1相同时,提前先将第一感测参数基于第一图像调整至第二感测参数。当第二视场方向F2与第一视场方向F1相同,即第二传感器20与第一传感器10同步时,可以使第一传感器10基于第二感测参数输出的第二图像的清晰度大于预设值。举例来说,若第一感测参数是基于光线较强的晴天环境设置的,当无人驾驶车辆100驶入光线较弱的隧道环境时,如果第一传感器10仍基于第一感测参数输出图像的话,会导致图像不清晰或者过暗。提前调整第一传感器10的感测参数,使第一传感器10的感测参数与光线较弱的隧道环境相匹配,从而使得第一传感器10输出的图像质量更高。
上述实施例中,第一触发模块和第二触发模块具有一定的触发频率,触发频率为100毫秒触发第一传感器60次,即16.66毫秒一次。即是说,第一触发模块和第二触发模块每16.66毫秒可以分别触发第一传感器输出一帧图像。利用第一触发模块和第二触发模块分别触发第一传感器输出第一图像和第二图像,可避免只使用一个触发模块时,触发输出第一图像后,来不及触发输出第二图像。
请结合参看图8,其为本发明实施例提供的多传感器同步系统的结构示意图。多传感器同步系统1000包括第一传感器10、第二传感器20、以及主控制设备30。主控制设备30分别与第一传感器10和第二传感器20电连接。在本实施例中,主控制设备30包括处理器301、以及存储器302。存储器302用于存储多传感器同步程序指令,处理器301用于执行多传感器同步程序指令以实现上述多传感器同步方法。
其中,处理器301在一些实施例中可以是一中央处理器(Central ProcessingUnit, CPU)、控制器、微控制器、微处理器或其它数据处理芯片,用于运行存储器302中存储的多传感器同步程序指令。
存储器302至少包括一种类型的可读存储介质,该可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器302在一些实施例中可以是计算机设备的内部存储单元,例如计算机设备的硬盘。存储器302在另一些实施例中也可以是外部计算机设备的存储设备,例如计算机设备上配备的插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(Secure Digital, SD)卡,闪存卡(FlashCard)等。进一步地,存储器302还可以既包括计算机设备的内部存储单元也包括外部存储设备。存储器302不仅可以用于存储安装于计算机设备的应用软件及各类数据,例如实现多传感器同步方法的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本发明实施例的流程或功能。该计算机设备可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。该计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,该计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,该单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
该作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
该集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、流动硬盘、只读存储介质(ROM,Read-Only Memory)、随机存取存储介质(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种多传感器同步方法,其特征在于,所述多传感器同步方法包括:
获取第一传感器的第一视场方向;
获取第二传感器的第二视场方向,其中,所述第二传感器可旋转;
获取当前时刻的时间;
判断所述第二视场方向与所述第一视场方向是否相同;
当所述第二视场方向与所述第一视场方向不相同时,计算所述第二视场方向转动至与所述第一视场方向相同的同步时间;
判断所述当前时刻的时间是否比所述同步时间提前预设时间;
当所述当前时刻的时间比所述同步时间提前所述预设时间时,触发所述第一传感器输出第一图像;
获取所述第一图像并根据所述第一图像调整所述第一传感器的第一感测参数以得到第二感测参数;以及
当所述第二视场方向转动至与所述第一视场方向相同时,触发所述第一传感器基于所述第二感测参数输出第二图像。
2.如权利要求1所述的多传感器同步方法,其特征在于,所述第一传感器为摄像装置,所述第二传感器为机械式激光雷达。
3.如权利要求2所述的多传感器同步方法,其特征在于,根据所述第一图像调整所述第一传感器的第一感测参数以得到第二感测参数具体包括:
获取所述第一图像的清晰度;
根据所述第一图像的清晰度调整所述第一感测参数以得到所述第二感测参数。
4.如权利要求3所述的多传感器同步方法,其特征在于,所述第一感测参数包括第一曝光参数和第一白平衡参数,所述第二感测参数包括第二曝光参数和第二白平衡参数,根据所述第一图像的清晰度调整所述第一感测参数以得到所述第二感测参数具体包括:
根据所述第一图像的清晰度调整所述第一曝光参数以得到所述第二曝光参数,调整所述第一白平衡参数以得到所述第二白平衡参数,以使所述第二图像的清晰度大于预设值。
5.如权利要求2所述的多传感器同步方法,其特征在于,判断所述第二视场方向与所述第一视场方向是否相同具体包括:
根据预设方向和所述第一视场方向计算所述第一视场方向与所述预设方向之间的第一夹角;
根据所述预设方向和所述第二视场方向计算所述第二视场方向与所述预设方向之间的第二夹角;
判断所述第一夹角与所述第二夹角是否相同。
6.如权利要求5所述的多传感器同步方法,其特征在于,计算所述第二视场方向转动至与所述第一视场方向相同的同步时间具体包括:
计算所述第一夹角和所述第二夹角之间的差值;
根据所述差值和所述第二传感器的转速计算旋转时间;
根据所述旋转时间和所述当前时刻的时间获得所述同步时间。
7.如权利要求2所述的多传感器同步方法,其特征在于,判断所述当前时刻的时间是否比所述同步时间提前预设时间之前,所述多传感器同步方法还包括:
判断所述当前时刻的时间是否比所述同步时间提前预触发时间,其中,所述预触发时间大于所述预设时间;
当所述当前时刻的时间比所述同步时间提前所述预触发时间时,触发所述第一传感器输出第三图像;
获取所述第三图像并根据所述第三图像调整所述第一传感器的第三感测参数以得到所述第一感测参数。
8.如权利要求7所述的多传感器同步方法,其特征在于,根据所述第三图像调整所述第一传感器的第三感测参数以得到所述第一感测参数具体包括:
获取所述第三图像的清晰度;
根据所述第三图像的清晰度调整所述第三感测参数以得到所述第一感测参数。
9.一种主控制设备,其特征在于,所述主控制设备包括:
第一获取模块,用于获取第一传感器的第一视场方向;
第二获取模块,用于获取第二传感器的第二视场方向,其中,所述第二传感器可旋转;
第三获取模块,用于获取当前时刻的时间;
第一判断模块,用于判断所述第二视场方向与所述第一视场方向是否相同;
计算模块,当所述第二视场方向与所述第一视场方向不相同时,所述计算模块用于计算所述第二视场方向转动至与所述第一视场方向相同的同步时间;
第二判断模块,用于判断所述当前时刻的时间是否比所述同步时间提前预设时间;
第一触发模块,当所述当前时刻的时间比所述同步时间提前所述预设时间时,所述第一触发模块用于触发所述第一传感器输出第一图像;
图像获取模块,用于获取所述第一图像并根据所述第一图像调整所述第一传感器的第一感测参数以得到第二感测参数;以及
第二触发模块,当所述第二视场方向转动至与所述第一视场方向相同时,所述第二触发模块用于触发所述第一传感器基于所述第二感测参数输出第二图像。
10.一种多传感器同步系统,其特征在于,所述多传感器同步系统包括第一传感器、第二传感器、以及分别与所述第一传感器和所述第二传感器电连接的主控制设备,所述主控制设备包括处理器、以及存储器,所述存储器用于存储多传感器同步程序指令,所述处理器用于执行所述多传感器同步程序指令以实现如权利要求1至8中任意一项所述的多传感器同步方法。
CN202110278546.3A 2021-03-16 2021-03-16 多传感器同步方法及系统、以及主控制设备 Active CN112671499B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110278546.3A CN112671499B (zh) 2021-03-16 2021-03-16 多传感器同步方法及系统、以及主控制设备
US17/694,712 US20220297721A1 (en) 2021-03-16 2022-03-15 Multi-sensor synchronization method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110278546.3A CN112671499B (zh) 2021-03-16 2021-03-16 多传感器同步方法及系统、以及主控制设备

Publications (2)

Publication Number Publication Date
CN112671499A CN112671499A (zh) 2021-04-16
CN112671499B true CN112671499B (zh) 2022-04-01

Family

ID=75399470

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110278546.3A Active CN112671499B (zh) 2021-03-16 2021-03-16 多传感器同步方法及系统、以及主控制设备

Country Status (2)

Country Link
US (1) US20220297721A1 (zh)
CN (1) CN112671499B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113734197A (zh) * 2021-09-03 2021-12-03 合肥学院 一种基于数据融合的无人驾驶的智能控制方案

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109479147A (zh) * 2016-07-14 2019-03-15 诺基亚技术有限公司 用于时间视点间预测的方法及技术设备
CN110753167A (zh) * 2019-11-13 2020-02-04 广州文远知行科技有限公司 时间同步方法、装置、终端设备及存储介质
CN111538032A (zh) * 2020-05-19 2020-08-14 北京数字绿土科技有限公司 基于相机和激光雷达独立制图轨迹的时间同步方法和装置
CN111736169A (zh) * 2020-06-29 2020-10-02 杭州海康威视数字技术股份有限公司 一种数据同步方法、设备及系统
CN111835496A (zh) * 2019-04-16 2020-10-27 百度(美国)有限责任公司 在自动驾驶系统的不同计算节点之间的定时同步方案

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833348B2 (ja) * 2016-05-25 2021-02-24 キヤノン株式会社 情報処理装置、画像処理システム、情報処理装置の制御方法、仮想視点画像の生成方法、及び、プログラム
US10268203B2 (en) * 2017-04-20 2019-04-23 GM Global Technology Operations LLC Calibration validation for autonomous vehicle operations
CN110832349B (zh) * 2017-05-15 2023-10-10 奥斯特公司 全景彩色lidar系统和用于lidar系统的方法
WO2019079211A1 (en) * 2017-10-19 2019-04-25 DeepMap Inc. LIDAR-CAMERA CALIBRATION TO GENERATE HIGH DEFINITION MAPS
US10845815B2 (en) * 2018-07-27 2020-11-24 GM Global Technology Operations LLC Systems, methods and controllers for an autonomous vehicle that implement autonomous driver agents and driving policy learners for generating and improving policies based on collective driving experiences of the autonomous driver agents
US11449067B1 (en) * 2018-08-03 2022-09-20 GM Global Technology Operations LLC Conflict resolver for a lidar data segmentation system of an autonomous vehicle
US10884131B1 (en) * 2018-08-03 2021-01-05 GM Global Technology Operations LLC Conflict resolver for a lidar data segmentation system of an autonomous vehicle
US11451688B2 (en) * 2018-09-26 2022-09-20 Zoox, Inc. Image scan line timestamping
US20220180643A1 (en) * 2019-03-22 2022-06-09 Vergence Automation, Inc. Vectorization for object detection, recognition, and assessment for vehicle vision systems
US11977167B2 (en) * 2019-12-04 2024-05-07 Waymo Llc Efficient algorithm for projecting world points to a rolling shutter image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109479147A (zh) * 2016-07-14 2019-03-15 诺基亚技术有限公司 用于时间视点间预测的方法及技术设备
CN111835496A (zh) * 2019-04-16 2020-10-27 百度(美国)有限责任公司 在自动驾驶系统的不同计算节点之间的定时同步方案
CN110753167A (zh) * 2019-11-13 2020-02-04 广州文远知行科技有限公司 时间同步方法、装置、终端设备及存储介质
CN111538032A (zh) * 2020-05-19 2020-08-14 北京数字绿土科技有限公司 基于相机和激光雷达独立制图轨迹的时间同步方法和装置
CN111736169A (zh) * 2020-06-29 2020-10-02 杭州海康威视数字技术股份有限公司 一种数据同步方法、设备及系统

Also Published As

Publication number Publication date
US20220297721A1 (en) 2022-09-22
CN112671499A (zh) 2021-04-16

Similar Documents

Publication Publication Date Title
CN107031508B (zh) 用于车辆的后视系统及其使用方法
CN108437893B (zh) 一种汽车偏离车道的预警方法及装置
US20170232890A1 (en) Parking Assist System For A Vehicle And Method Of Using The Same
EP1069536A2 (en) Stereo type vehicle monitoring apparatus with fail-safe function
US20220180483A1 (en) Image processing device, image processing method, and program
EP3115930A1 (en) Malfunction diagnosis apparatus
KR102631964B1 (ko) 차량 주행 정보를 이용한 이미지 분석 방법, 장치, 시스템, 프로그램 및 저장 매체
US6628210B2 (en) Control system to prevent lane deviation of vehicle and control method thereof
DE112018004891T5 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren, programm und mobiler körper
DE112018004691T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und bewegter körper
CN112671499B (zh) 多传感器同步方法及系统、以及主控制设备
CN110341621B (zh) 一种障碍物检测方法及装置
CN109345591B (zh) 一种车辆自身姿态检测方法和装置
CN114492679B (zh) 一种车辆数据处理方法、装置、电子设备及介质
JP6564127B2 (ja) 自動車用視覚システム及び視覚システムを制御する方法
CN110929475A (zh) 对象的雷达简档的注释
CN109470491A (zh) 盲点监测道路测试评价系统
US20180061008A1 (en) Imaging system and method
CN116203925A (zh) 一种针对域控制器的测试方法
CN110673609A (zh) 车辆行驶的控制方法、装置及系统
WO2020064543A1 (en) Vision system and method for a motor vehicle
US20220196431A1 (en) Driving assistance system, driving assistance apparatus, driving assistance method, image recognition apparatus, and image recognition method
CN114415200A (zh) 车辆定位方法、装置、电子设备及计算机可读存储介质
CN111880575A (zh) 基于颜色追踪的控制方法、装置、存储介质及机器人
CN112793587B (zh) 感知方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 518057 2301, yuemeite building, No. 1, Gaoxin South seventh Road, high tech Zone community, Yuehai street, Nanshan District, Shenzhen, Guangdong

Applicant after: Shenzhen antuzhihang Technology Co.,Ltd.

Address before: 2301, yuemeite building, No.1, Gaoxin South 7th Road, high tech Zone community, Yuehai street, Nanshan District, Shenzhen, Guangdong 518000

Applicant before: Shenzhen Baodong Zhijia Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant
CP02 Change in the address of a patent holder
CP02 Change in the address of a patent holder

Address after: 518057, Office Building 2807, Haofang Tianji Square, No. 11008 Beihuan Avenue, Nanlian Community, Nantou Street, Nanshan District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen antuzhihang Technology Co.,Ltd.

Address before: 518057 2301, yuemeite building, No. 1, Gaoxin South seventh Road, high tech Zone community, Yuehai street, Nanshan District, Shenzhen, Guangdong

Patentee before: Shenzhen antuzhihang Technology Co.,Ltd.