CN114637023A - 用于激光深度图取样的系统及方法 - Google Patents

用于激光深度图取样的系统及方法 Download PDF

Info

Publication number
CN114637023A
CN114637023A CN202210280505.2A CN202210280505A CN114637023A CN 114637023 A CN114637023 A CN 114637023A CN 202210280505 A CN202210280505 A CN 202210280505A CN 114637023 A CN114637023 A CN 114637023A
Authority
CN
China
Prior art keywords
image
scene
spatial coordinates
lidar
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210280505.2A
Other languages
English (en)
Inventor
A·J·林德纳
V·斯洛博佳纽克
S·M·维罗尔
K·M·阿塔纳索夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN114637023A publication Critical patent/CN114637023A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种用于运载工具的自动控制的方法,包括:基于对第一接收到的图像的内容分析来生成第一多个空间坐标集,每个空间坐标集指示在第一接收到的图像中的第一对象内的片段的位置,其中,片段的至少一部分具有沿循第一对象的边界的边界;向LIDAR单元提供第一多个空间坐标集,以选择性地获得在场景中在运载工具外部的代表第一多个空间坐标的位置处的指示深度的信息;基于第一多个空间坐标集和从LIDAR单元接收的深度信息来确定第一对象相对于运载工具的位置;以及基于所确定的第一对象的位置来确定用于运载工具操作的指令。本发明还公开了一种利用电子设备捕获图像的方法。本发明还公开了若干其它方面。

Description

用于激光深度图取样的系统及方法
本申请是申请日为2016年7月11日,申请号为201680046908.3、名称为“用于激光深度图取样的系统及方法”的发明专利申请的分案申请。
技术领域
本发明大体来说涉及电子装置。更具体来说,本发明涉及用于深度图取样的系统及方法。
背景技术
在过去数十年,电子装置的使用已变得普通。特定来说,电子技术的进步已减少日益复杂且有用的电子装置的成本。成本减少及消费者需求已使电子装置的使用激增使得其在现代社会中实际上普遍存在。随着电子装置的使用已扩大,因此具有对电子装置的新且经改进的特征的需求。更具体来说,经常追求执行新功能及/或更快、更高效或以较高质量执行功能的电子装置。
一些电子装置(例如,相机、视频便携式摄像机、数字相机、蜂窝式电话、智能电话、计算机、电视等)可使用LIDAR(光+雷达)扫描创建深度图。使用LIDAR扫描对场景进行密集取样在时间及功率方面较昂贵。此可导致低帧速率及电池耗尽。如从此论述可观察到,改进LIDAR深度图取样的系统及方法可为有益的。
发明内容
本发明描述一种电子装置。所述电子装置包含经配置以捕获场景的图像的相机。所述电子装置还包含图像分割测绘仪,所述图像分割测绘仪经配置以基于图像内容而对图像执行分割以生成多个图像片段,所述多个图像片段中的每一个与指示每一片段在所述场景中的位置的空间坐标相关联。所述电子装置进一步包含经配置以存储所述图像及所述空间坐标的存储器。电子装置另外包含LIDAR(光+雷达)单元,LIDAR单元可转向以选择性获得对应于空间坐标的至少子集的深度值。所述电子装置进一步包含经配置以基于所述深度值及所述空间坐标而生成所述场景的深度图的深度测绘仪。
图像片段的至少部分包括界定对象在图像内的边界的不均匀片段。图像分割测绘仪可经配置以基于图像复杂度执行分割。所生成的片段的数量可随图像的所确定复杂度而变。
LIDAR单元可经配置以对含有场景内的基本上均匀对象的场景的区域执行粗糙扫描。图像分割测绘仪可经配置以将空间坐标提供到LIDAR单元且可经配置以将图像的片段提供到深度测绘仪。
深度测绘仪可经配置以通过将片段与对应深度值合并来生成深度图。深度测绘仪可经配置以通过用由LIDAR单元在空间坐标处获得的对应深度值填充每一片段来生成深度图。
由LIDAR单元获得的多个深度值可经配置以基于来自先前深度图的反馈得以调整。片段的空间坐标可对应于片段的图心。
本发明还描述一种方法。所述方法包含捕获场景的图像。所述方法还包含基于图像内容而对图像执行分割,所述多个片段中的每一个与指示每一片段在所述场景中的位置的空间坐标相关联。所述方法进一步包含通过LIDAR(光+雷达)单元获得对应于空间坐标的至少子集的深度值。所述LIDAR单元可转向以选择性获得所述深度值。所述方法另外包含基于所述深度值及所述空间坐标而生成所述场景的深度图。
本发明还描述一种设备。所述设备包含用于捕获场景的图像的装置。所述设备还包含用于基于图像内容而对图像执行分割的装置,所述多个图像片段中的每一个与指示每一片段在所述场景中的位置的空间坐标相关联。所述设备进一步包含用于通过LIDAR单元获得对应于空间坐标的至少子集的深度值的装置。所述LIDAR单元可转向以选择性获得所述深度值。所述设备另外包含用于基于所述深度值及所述空间坐标而生成所述场景的深度图的装置。
本发明还描述计算机程序产品。计算机程序产品包含其上具有指令的非暂时性有形计算机可读媒体。所述指令包含用于致使电子装置捕获场景的图像的代码。所述指令还包含用于致使电子装置基于图像内容而对图像执行分割以生成多个图像片段的代码,所述多个图像片段中的每一个与指示每一片段在所述场景中的位置的空间坐标相关联。所述指令进一步包含用于致使电子装置通过LIDAR单元获得对应于空间坐标的至少子集的深度值的代码。所述LIDAR单元可转向以选择性获得所述深度值。所述指令另外包含用于致使电子装置基于深度值及空间坐标生成场景的深度图的代码。
附图说明
图1为说明经配置以执行图像辅助的LIDAR(光+雷达)深度图取样的电子装置的框图;
图2为说明经配置以执行图像辅助的LIDAR深度图取样的电子装置的另一配置的框图;
图3为说明用于执行图像辅助的LIDAR深度图取样的方法的流程图;
图4为说明用于执行图像辅助的LIDAR深度图取样的另一方法的流程图;
图5A到5C说明从图像生成分割图的实例;
图6A到6D说明图像辅助的LIDAR深度图取样的实例;
图7A到7D说明图像辅助的LIDAR深度图取样的另一实例;
图8为说明其中可实施用于图像辅助的LIDAR深度图取样的系统及方法的电子装置的一个实例的框图;及
图9说明可包含在电子装置内的某些组件。
具体实施方式
在许多应用中,生成场景中的对象的深度图是重要的。例如,关于高级驾驶辅助系统(ADAS),识别车辆前面的可驾驶区以实现障碍回避是重要的。障碍检测可使用深度图来识别交通标志(例如,速度限制标志、停车标志、路标,等)。深度图为重要的另一情景为自主载具(例如,无人飞行载具(UAV)或自主汽车)感测器环境且无需人输入进行导航的载具自动化。
深度图生成还可用于各种生产及娱乐情景。例如,房间或环境的深度图可用于社交、增强或虚拟真实、3-D重建、安全和保安及类似应用。更进一步,可参考深度用于图像及/或视频捕获以例如辅助自动聚焦操作。在这些及其它情景中,智能地获取准确且精确地捕获场景、房间或环境的深度信息的深度图可为有利的。
可使用LIDAR(光+雷达)扫描来对对象的深度值进行取样。在LIDAR中,激光可照射对象且可通过分析反射光来确定对象距离参考位置的距离(即,深度值)。对场景的密集取样在时间及功率方面较昂贵,从而导致低帧速率及电池耗尽。然而,在正则点处的均匀(即,简捷)LIDAR扫描可导致差质量深度图。类似地,甚至在采用不考虑场景内容的均匀或预定义扫描模式时,密集取样可能仍丢失小对象,从而导致深度图误差。
在本文中所描述的系统及方法中,替代基于均匀扫描点执行LIDAR扫描,LIDAR单元可执行图像辅助的LIDAR深度图取样。定位在LIDAR单元附近的相机可捕获场景的一或多个图像。可对此图像或图像集进行分割。片段可在图像中沿循对象的边界,因此保留对象的边缘。例如,可将片段的图心的空间坐标(X、Y位置)提供到LIDAR单元,所述LIDAR单元在那些空间坐标处执行LIDAR扫描。可将由LIDAR单元从扫描产生的深度值填充在对应片段中以创建场景的深度图。例如,可赋予每一片段与相应片段图心的深度相关联的均匀深度。下文更详细地阐释用于图像辅助的LIDAR深度图采样的系统及方法。
图1为说明经配置以执行图像辅助的LIDAR深度图取样的电子装置102的框图。电子装置102还可被称作无线通信装置、移动装置、移动站、订户站、客户端、客户端站、用户设备(UE)、远程站、接入终端、移动终端、终端、用户终端、订户单元,等电子装置的实例包含膝上型或桌上型计算机、蜂窝式电话、智能电话、无线调制解调器、电子阅读器、平板装置、游戏系统,机器人、航空器、无人飞行载具(UAV)、汽车,等。这些装置中的一些可根据一或多个行业标准操作。
在许多情景中,电子装置102可使用场景的深度图120。在一个实例中,智能电话可生成场景的深度图120。在另一实例中,汽车可包含高级驾驶辅助系统(ADAS),所述ADAS可使用深度图120来基于所检测到交通标志、信号及/或其它对象而调节汽车的速度、转向、停车,等。在另一实例中,无人飞行载具(UAV)可从在飞行中时所记录的视频生成深度图120,可基于所检测到对象(例如,建筑、标志、人、包装,等)而进行导航,可挑选及/或递送所检测到包装,等。可根据本文中所公开的系统及方法实施许多其它实例。例如,本文中所公开的系统及方法可实施于机器人中,所述机器人基于使用深度图120检测到的一或多个对象而执行一或多个动作(例如,拿某物、装配某物、寻找物项,等)。
例如,电子装置102(例如智能电话或平板计算机)可包含相机104。相机104可包含图像传感器108及光学系统106(例如,透镜),所述光学系统将位于光学系统106的视野内的对象的图像聚焦于图像传感器108上。相机104可经配置以捕获数字图像。在实施方案中,数字图像可为彩色图像。尽管本发明的系统及方法是就所捕获图像方面进行描述,但本文中所论述的技术可用于任何数字图像。因此,术语视频帧及数字图像在本文中可交换地使用。同样地,在某些实施方案中,电子装置102可不包含相机104及光学系统106,但可接收或利用所存储的数字图像。
电子装置102还可包含相机软件应用程序及显示屏。在相机应用程序运行时,位于光学系统相机104的视野内的对象的图像可被图像传感器108记录。由图像传感器108记录的图像可被显示在显示屏上。可以相对高帧速率接连不断地显示这些图像,以使得,在任何给定时刻,位于相机104的视野内的对象被显示在显示屏上。
相机应用程序的用户接口112可准许选择被显示在显示屏上的一或多个对象。在一个配置中,显示器为接收来自物理触摸(例如,通过手指、触笔或其它工具)的输入的触摸屏110。触摸屏110可接收定义目标对象的触摸输入。可以任何合适方式选择目标对象。例如,可使用面部辨识、行人辨识等来选择目标对象。
电子装置102还可包含LIDAR单元114。LIDAR(光+雷达)为通过用激光照射目标且分析反射光来测量距离的远程感测技术。LIDAR单元114可对场景进行取样以确定场景内的对象的深度值。因此,LIDAR单元114可包括光产生(激光)部分137及光接收(传感器)部分131LIDAR单元可进一步包括各种光学件141以促进产生及接收光以及如下文所描述的额外特征。
在实施方案中,LIDAR单元114可感测某一方向上的激光脉冲且可测量激光脉冲回到LIDAR单元114所花费的时间。此过程类似于发送信号且接收回声的雷达。LIDAR单元114可记录发送激光与接收反射光之间的时间差。依据此时间差,LIDAR单元114可获得表示距离估计的深度值。在一些实施方案中,时间测量、记录及/或获得深度值可在LIDAR单元114外部执行,例如,在电子装置102内或远离所述电子装置的一或多个处理器142中。在一些实施方案中,存储器144可存储与图像辅助的LIDAR深度图取样(例如,图像、深度值、片段及深度图120)相关联的信息。
LIDAR单元114的激光可经定向到不同位置,例如,通过图像分割工艺识别的位置。因此,激光可为可转向的。在一个途径中,激光可为机械定向。例如,激光可用反射镜或致动器定向。在另一实例中,激光可经由可电子转向的光学元件定向。在此途径中,LIDAR单元114可不具有移动部件且提供更多灵活性。
由LIDAR单元114进行的对场景的密集取样在时间及功率方面较昂贵。上述情形可能减少电子装置102可处理的帧速率(例如,由相机104捕获的图像的数目)。此外,上述情形对使用电池的平台尤其重要。发送光脉冲消耗大量功率。针对由电池供电的移动平台(例如,移动电话),以非常高速率对周围场景进行取样可快速地耗尽电池。耗时获取及/或生成深度图在无功率约束或比移动平台少功率约束的平台中也可能较重要。例如,在自其捕获深度信息的场景为动态(例如,各种(有人及无人)陆地及航空载具、机器人,等)的情况中,速度可能为有利的。
此外,存在确定执行LIDAR扫描的最佳位置的问题。一些途径可执行均匀的LIDAR扫描。例如,旋转反射镜途径可获得对场景的相等取样,其中以相等或均匀增量执行LIDAR扫描。此途径可被称作简捷LIDAR扫描。在此途径中,反射镜以某一速度旋转且LIDAR每隔若干毫秒发送激光脉冲。旋转的均匀速度及均匀激光脉冲给出场景的均匀取样,即跨越场景的水平及垂直范围的均匀或其它预定义二维网格点。然而,此途径可能无法检测到场景内的某些对象。例如,均匀LIDAR取样可能无法检测在取样点之间的薄对象。
本文中所描述的系统及方法提供图像辅助的LIDAR深度图取样。LIDAR单元114可执行由通过相机104捕获的图像辅助的LIDAR扫描。LIDAR单元114可响应于如由图像捕获的场景内容而适应深度取样。
在实施方案中,电子装置102可包含图像分割测绘仪116。相机104可将所捕获图像提供到图像分割测绘仪116。图像分割测绘仪116可将图像分割以生成分割图。分割图可包含多个片段。片段的图心可具有空间坐标。图像分割测绘仪116可将片段图心的空间坐标发送到LIDAR单元114。图像分割测绘仪116还可将片段提供到深度测绘仪118。
LIDAR单元114可基于所接收空间坐标执行LIDAR扫描。在实施方案中,LIDAR单元114可使用可转向LIDAR在每一片段的图心对场景的深度进行取样。LIDAR单元114及相机104可经定位在彼此附近。LIDAR单元114及相机104可经对准使得其具有基本上相同视野(FOV)。LIDAR单元114及相机104可相对于彼此经校准。例如,变焦或相机104及LIDAR单元114可经校准。
针对准确场景坐标,系统可使用取样坐标(例如,图心)、校准参数及先前深度图。例如,LIDAR单元114可使激光转向以确定在图心的空间坐标处的场景的深度值。在一个实施方案中,LIDAR单元114可确定深度值且将深度值发送到深度测绘仪118。在另一实施方案中,LIDAR单元114可将原始数据(例如,时间测量值)发送到处理器142用于确定深度值。处理器142可接着将深度值提供到深度测绘仪118。
在接收到来自图像分割测绘仪116的片段及来自LIDAR单元114的深度值时,深度测绘仪可用每一片段的图心的深度值填充每一片段以创建深度图120。结合图2给出关于图像辅助的LIDAR深度图取样的更多细节。
所描述系统及方法提供适应于场景内容的深度取样。例如,LIDAR单元114可经指示以对含有场景的图像内的大且基本上均匀对象的场景的区域进行相对粗糙扫描(每单位面积较少点),而LIDAR单元114可经指示对含有为较小的、几何结构变化及/或包含多个邻近或接近对象的场景的区域执行相对精细扫描(每单位面积较多点)。
因此,通过基于场景内容适应性生成扫描图案,可在无需牺牲准确度的情况下高效获得深度图。实际上,通过捕获例如使用均匀扫描可能被遗漏的对象或对象部分处的点,准确度(即,接近地面实况的场景的深度图120)可比均匀间隔扫描得以改进。此产生较高准确度的深度图120及较高帧速率。由于LIDAR扫描基于所捕获图像得以优化,因此上述情形产生较少功率消耗,此对电池供电应用尤其重要。
图2为说明经配置以执行图像辅助的LIDAR深度图取样的电子装置202的另一配置的框图。电子装置102可包含相机204、图像分割测绘仪216、LIDAR单元214及深度测绘仪218。相机204、图像分割测绘仪216、LIDAR单元214及深度测绘仪218可为上文结合图1所描述的相机104、图像分割测绘仪116、LIDAR单元214及深度测绘仪118的配置。
相机204可经定位在LIDAR单元214上或其附近。例如,相机204可在电子装置202上靠近LIDAR单元214安装。相机204及LIDAR单元214可经定向使得其具有场景222的大约相同视图。场景222可包含在不同位置处的一或多个对象。因此,一或多个对象可在距相机204及LIDAR单元214相同或不同深度(例如,距离)处。
相机204可捕获场景222的图像224。图像224可为数字彩色图像。彩色图像可提供比灰度图像更佳的分割性能。在红色球在绿草上的图像的实例中,所述图像可在色域中容易分割,但可能因为草及球的灰度类似,从而导致不准确分割边界。
图像224可由多个像素构成。每一像素可具有空间坐标232。在实施方案中,空间坐标232可表达为笛卡儿坐标(例如,x-y坐标),其中x对应于像素的水平位置且对应于像素的垂直位置。
相机204可将图像224提供到图像分割测绘仪216。图像分割测绘仪216可从图像224生成分割图226。分割图226可由多个片段228构成。每一片段228可由空间坐标232识别。例如,片段228可由与其图心230相关联的空间坐标232识别。
图像分割测绘仪216可使用低级计算机视觉技术来生成分割图226。片段228可基于图像224的内容而确定。片段228可响应于图像224的内容而为不均匀的,具有不规则几何结构、大小及分布。一或多个片段228可在图像224中界定对象的边界。片段528的边界沿循来自图像224的对象边界或边缘。例如,图像分割测绘仪216可确定边界在图像224中的对象之间的位置。片段228可经生成以保留图像224中的对象之间的边界(例如,边缘)。结合图5描述分片段图226的实例。
图像分割测绘仪216可确定识别分割图226中的每一片段228的空间坐标232。空间坐标232指示每一片段228在场景222中的位置。在一个实施方案中,图像分割测绘仪216可确定每一片段228的图心230的空间坐标232。给定片段228的图心230为片段228的几何中心。图心230可被确定为所有点在片段228中的算术均值(例如,平均)位置。片段228的图心230具有相关联空间坐标232。例如,图心230可依据x(例如,水平)坐标及(例如,垂直)坐标来表达。
片段228的空间坐标232可通过其它途径识别。在一个途径中,片段228的空间坐标232可对应于围绕片段228的边界框的中心。在另一途径中,如果片段228是用聚类算法(例如,K均值)计算,最后迭代处的聚类中心可用作片段228的取样点(例如,空间坐标232)。在另一途径中,在片段228的形态侵蚀的情况下,最后点位置为取样位置(例如,空间坐标232)。
可根据不同途径确定通过图像分割测绘仪216生成的片段228的数目。在一个途径中,片段228的数目可为固定数目(例如,2,000个片段)。在另一途径中,片段228的数目可为最大数目。在另一途径中,片段228的数目或数量可基于来自所生成深度图220的反馈240而变化,如下文所描述。在另一途径中,片段228的数目或数量可经确定为随图像内容而变,例如,复杂场景222(例如,众多对象、小对象、变化对象可相对于较不复杂场景(例如,较少对象、大对象、均匀对象)利用更大数目个场景228。可利用各种途径(指示以下各项的度量:边缘数量、边缘长度、颜色、色差,等)来确定可用于导出片段228的数量的场景的复杂度。
图像分割测绘仪216可将片段228的空间坐标232提供到LIDAR单元214。例如,图像分割测绘仪216可将包含图心230的空间坐标232的空间坐标信息233发送到LIDAR单元214。图像分割测绘仪216还可将图像224的片段228提供到深度测绘仪218。例如,图像分割测绘仪216可将片段信息229发送到深度测绘仪218。
LIDAR单元214可基于片段228的空间坐标232执行LIDAR扫描。因此,空间坐标232可为LIDAR单元214执行LIDAR扫描的取样点。
LIDAR单元214可包含可转向激光234及深度值确定块236。可转向激光234可经校准以根据图像224的空间坐标232移动。因此,可转向激光234的方向可与图像224的空间坐标232协调。相机204及可转向激光234可经校准使得可将图像的空间坐标232转换成可转向激光234的位置。因此,通过对准并校准相机204及可转向激光234,电子装置202可确定从图像空间到LIDAR空间的转换。
在一些实施方案中,LIDAR单元214可接收来自例如处理器242的处理器的扫描指令。扫描指令可包含关于定位、转向、定向或以其它方式实现LIDAR单元214的移动以对场景222进行取样的命令及/或信息。在其它实施方案中,LIDAR单元214可接收片段228或图像224且产生片段228及/或图心230。
应注意,深度值238可从LIDAR空间转换到图像空间。深度数据(例如,深度值238)为世界坐标系统(即,XYZ空间)中的坐标。这些3D坐标可通过投影变换投射到图像224(即,图像空间)上。变换可从例如校准目标估计。
可转向激光234可经转向以在对应于片段228的空间坐标232的点处取得场景222的样本。应注意,由于LIDAR扫描基于分割图226的空间坐标232,因此LIDAR扫描可为不均匀扫描。
深度值确定块236可确定片段228的空间坐标232处的深度值238。上述情形可通过分析光从场景222中的对象反射且被接收所花费的时间量来完成。LIDAR单元214可将深度值238提供到深度测绘仪218。在另一实施方案中,LIDAR单元214可将数据(例如,指示深度值的时间数据)提供到处理器242以计算深度值238。
深度测绘仪218可通过使由图像分割测绘仪216提供的片段228与由LIDAR单元214提供的深度值238合并来创建深度图220。在一个途径中,深度测绘仪218可用如由LIDAR单元214确定的对应图像230的深度值238填充每一片段228。换句话说,深度测绘仪218可用所述片段的图心230的深度值238填充片段228内的每一像素。在此途径中,深度图220因此包含片段228的深度值238,其中给定片段228具有单个深度值238。
在另一途径中,深度测绘仪218可使用邻近片段228的加权平均数来用深度值238填充每一片段228。例如,深度测绘仪218可根据加权邻近片段228填充相同对象的片段228。邻近片段228的加权平均数可受片段228之间的色彩相似性及/或其共用边界的长度。
在另一途径中,距离图心230的距离还可为影响深度值238的内插的参数。深度测绘仪218可通过基于距图心230的距离将片段228与深度值238合并来创建深度图220。
电子装置202可将深度图220用于各种应用。例如,在一个应用中,电子装置102可使用深度图220来在电子装置102围绕对象移动时构建对象的三维模型。在另一应用中,电子装置102可将深度图220用于室内导航,其中电子装置102安置在驾驶穿过停车场的汽车上。深度图220可用于相机204的自动聚焦应用。深度图220的其它应用可为用于创建场景222中的对象的图,对象检测(例如,行人检测、交通信号检测,等),自主驾驶及UAV导航。
在实施方案中,图像分割测绘仪216可使用来自先前深度图220的反馈240来调整图像224的片段228。深度测绘仪218可将反馈240提供到图像分割测绘仪216。图像分割测绘仪216可基于来自深度测绘仪218的反馈240来生成更多或更少片段228来使片段优化。例如,如果两个相邻片段228具有类似颜色且其在最后10帧中具有相同深度值238,那么图像分割测绘仪216可将两个片段228组合到下一帧的一个片段228中。LIDAR单元214可接着取得组合片段228的一个样本,而非两个样本。此可进一步改进帧速率且减少电池消耗。
如图2中所说明,所说明组件中的一或多个可任选地由处理器242实施。在一些配置中,可使用不同处理器来实施不同组件(例如,一个处理器可实施图像分割测绘仪216,另一处理器可用于实施深度值确定块236,且另一处理器可用于实施深度测绘仪218)。
图3为说明用于执行图像辅助的LIDAR深度图取样的方法300的流程图。方法300可由如图2中所描绘的电子装置202实施。具体来说,方法300可由电子装置202的LIDAR单元214实施。在一些实施方案中,方法300可部分地由电子装置202中的LIDAR单元214及处理器(例如,处理器242)实施。
参考图2及图3,LIDAR单元214可接收302来自图像分割测绘仪216的空间坐标232。空间坐标232可基于场景222的图像224生成。例如,图像分割测绘仪216可接收来自定位在LIDAR单元214上或其附近的相机204的图像224。图像分割测绘仪216可从图像224产生分割图226。分割图226可包含多个片段228。一或多个片段228可界定图像224中的对象的边界。
每一片段228可能具有图心230及相关联空间坐标232QLIDAR单元214可接收302来自的图像分割测绘仪216的图心230及/或相关联空间坐标232。在一些实施方案中,LIDAR单元214可接收来自例如处理器242的处理器的扫描指令。扫描指令可包含关于定位、转向、定向或以其它方式实现LIDAR单元214的移动以对场景222进行取样的命令及/或信息。在其它实施方案中,LIDAR单元214可接收片段228或图像224且产生片段228及/或图心。
LIDAR单元214可基于空间坐标232而执行304LIDAR扫描。LIDAR单元214可经转向以对空间坐标232处的场景222进行取样。例如,可转向激光234可经转向以取得对应于图心230的空间坐标232的点处的场景222的样本。在另一实例中,可转向激光234可经转向以取得对应于围绕给定片段228的边界框的中心的空间坐标232的点处的场景222的样本。还可根据其它途径(例如,聚类中心或形态侵蚀)来确定取样点。
LIDAR单元214可确定片段228的空间坐标232处的深度值238。深度值238可对应于一或多个对象距LIDAR单元214的距离。在一些实施方案中,LIDAR单元214可将例如指示深度值的时间数据的数据提供到电子装置202的例如处理器242的处理器。
LIDAR单元214可将通过LIDAR扫描获得的深度值238提供306到深度测绘仪218以形成深度图220。深度测绘仪218可从图像分割测绘仪216接收图像224的片段228。深度测绘仪218可用对应于由LIDAR单元214提供的片段228的空间坐标232的深度值238填充每一片段228。
在一个途径中,深度测绘仪218可用如LIDAR单元214确定的对应图心230的深度值238填充每一片段228。在另一途径中,深度测绘仪218可使用邻近片段228的加权平均数来用深度值238填充每一片段228。在另一途径中,深度测绘仪218可通过基于距图心230的距离将片段228与深度值238合并来创建深度图220。
图4为说明用于执行图像辅助的LIDAR深度图取样的另一方法400的流程图。方法400可通过例如如图2中所描绘的电子装置202实施。
参考图2及图4,电子装置202可获得402场景222的彩色图像224。例如,相机204可捕获彩色图像224。相机204可定位(例如,安装)在LIDAR单元214上或其附近。相机204可将图像224提供到图像分割测绘仪216。
电子装置202可从图像224生成404包含多个片段228的分割图226。一或多个片段228可界定图像224中的对象的边界。由电子装置202生成的片段228的数目可根据不同方法确定。在一个途径中,片段228的数目可为固定数目。在另一途径中,片段228的数目可为最大数目。在另一途径中,片段228的数目可基于反馈240变化。在另一途径中,片段228的数目可经确定为随图像内容而变,其中相对复杂场景222可相对于较不复杂场景利用较多数目个片段228。
电子装置202可确定406片段228的空间坐标232.空间坐标232指示场景222中的每一片段228的位置。空间坐标232可为用于执行LIDAR扫描的取样点。在一个实施方案中,电子装置202可确定406片段228的图心230的空间坐标232。每一片段228可具有图心230。图心230可表达为空间坐标232。例如,图心230可具有x(例如,水平)坐标及(例如,垂直)坐标。片段228的空间坐标232还可根据其它途径(例如,聚类中心或形态侵蚀)来确定。
电子装置202可在片段228的空间坐标232处执行408LIDAR扫描来确定深度值238。空间坐标232可与和片段228相关联的取样点(例如,图心230、边界框的中心、聚类中心或形态侵蚀)相关联。可转向激光234可经转向以在对应于空间坐标232的点处取得场景222的样本。针对给定片段228的空间坐标232,电子装置202可分析光从场景222中的对象反射所花费的时间量来确定所述位置的深度值238。
电子装置202可合并410深度值238与片段228以形成场景222的深度图220。例如,电子装置202可用对应于如由LIDAR扫描确定的片段228的空间坐标232的深度值238填充每一片段228。
电子装置202可(任选地)使用来自先前深度图220的反馈240来调整412图像224的片段228。例如,深度测绘仪218可将反馈240提供到图像分割测绘仪216。图像分割测绘仪216可基于来自深度测绘仪218的反馈240来生成更多或更少片段228来使片段优化。
图5A到5C说明从图像524产生的片段图像526的实例。图像524可为由位于LIDAR单元214上或其附近的相机204捕获的彩色图像。图像524可为包含一或多个对象的场景222的图片。图像524可为数字图像或可从视频的帧获得。
在此实例中,图5A中所展示的图像524含有在不同深度处的多个对象。图像524中的对象中的一些包含锥体554(在图像524的左侧)、装有铅笔558的杯子(在图像524的右前景中)及格栅560。
分割图526由图像524生成。在确定用于图像524的分割的片段528的数目时可考虑各种因素。可与确定片段528的数目相关的因素可包含图像内容/复杂度、每秒最小帧数(fps)、所要准确度(例如,最大片段大小)及资源利用率(例如,电池利用率/MIPS/时间)。
在此实例中,分割图526包含2000个片段528。在其它实例中,可利用较少或较多片段528。如从图5B及5C所见,片段528在此实例中并不均匀,但响应于图像524的内容在几何结构、大小及分布方面不规则。片段528的边界沿循来自图像524的对象边界或边缘,如在图5C的锥体554的特写视图中所说明。应注意,针对薄对象(例如,在图像524的右下方中的铅笔558),对象的宽度可通过单个片段528界定。
每一片段528具有对应图心530。在此实例中,单个图心530经说明用于给定片段。图心530可通过空间坐标232表征。可根据图像524内的图心530的位置来确定这些空间坐标232。在实施方案中,图心530可以按照x(例如,水平)坐标及(例如,垂直)坐标表达。
图6A到6D说明图像辅助的LIDAR深度图620取样的实例。图6A中所描绘的图像624为结合图5A所描述的场景的相同图像524。除其它对象外,图像624还包含多个锥体654、铅笔656及格栅660。图像624可为数字图像或可从视频的帧获得。
地面实况662为深度图620可与其进行比较的参考物。地面实况662包含在图6B中以目测检查分别使用辅助及无辅助途径取样的深度图620的质量。应注意,地面实况662并非本文中所描述的系统及方法的部分。
图6C及6D中所说明的深度图620a到b为深度值238的视觉表示。深度值238在深度图620内经指示为不同阴影。深度图620中的较淡阴影指示对象较接近于LIDAR单元214。深度图620中的较暗阴影指示对象距离LIDAR单元214较远。因此,场景的背景中的对象在深度图620中经描绘为较暗阴影,而场景的前景中的对象在深度图620中经描绘为较淡阴影。
应注意,深度图图像为出于视觉化及说明目的所提供的深度图信息的一个实例性视觉描绘。实际上,深度的视觉化620可经不同地表示或根本不表示。替代地,深度图信息可用于各种操作或过程,例如构建三维模型、室内导航、自主导航、对象检测及其它应用。
无辅助的LIDAR深度图620a在图6C中予以说明。无辅助的LIDAR深度图620a是使用深度值238的原始的规则LIDAR取样来获得。在此状况下,LIDAR取样是使用2,000个经规则间隔取样点以均匀方式执行。因此,此途径在确定执行LIDAR扫描的位置时不考虑场景内的对象。
图像辅助的LIDAR深度图620b是根据本文中所描述的系统及方法生成。在此状况下,用2,000个片段228创建分割图226。片段228边界沿循对象边界,如结合图5所描述。接着在片段228的空间坐标232处执行LIDAR扫描。接着将来自LIDAR扫描的深度值238填充在对应片段228以生成图像辅助的LIDAR深度图620b。
如通过将图6C及6D进行比较所观察到,无辅助的LIDAR深度图620a产生不良性能,尤其在边界线处。例如,图6C的无辅助的LIDAR深度图620a中的锥体654经分割且格栅660开口为畸形。此外,薄对象(例如,铅笔656)可介于取样点之间且可能无法被LIDAR扫描检测到,如在图6C中所演示。
LIDAR取样可使用相对密集水平网格,具有相当准确分辨率(例如,0.1度)。然而,在垂直视野中,分辨率可为相当粗糙分辨率(例如,范围为从0.5度到4度)。垂直视野可被限制在例如8到20度之间。扫描速率通常在10fps到50fps之间。
在这些假设下,可在一个帧(范围从20ms到100ms)中获取一个LIDAR扫描。此为使系统考虑移动及/或抖动的足够间隔。例如,可使用惯性测量单元(IMU)来考虑LIDAR单元114的运动及/或抖动。IMU可与LIDAR单元114耦合以将自身运动中心数据(例如,与环境内的LIDAR单元114的三维运动有关的数据)内插到在全球范围坐标系统中引用的事物中。
在LIDAR单元耦合到载具的实施方案中,载具运动也如此。通过默认,来自LIDAR单元114的原始数据将在本地坐标系统中提供点云。由于所描述系统可位于移动平台(例如,载具)上,因此可寻址此移动以便将这些点转移到全球参考坐标系统。
如由图6A、6B、6C及6D中所说明的实例所演示,由图像辅助的LIDAR深度图620b生成的深度图620b的准确度优于由无辅助的LIDAR深度图620a生成的深度图620a。虽然深度图620在此实例中使用相同数目个扫描点(即,2,000),但应注意,根据图像辅助的LIDAR取样途径使用较少扫描点生成的深度图620可能比根据无辅助途径用更多扫描点生成的深度图620更准确。
由于图像辅助的途径在对图像624进行分割时考虑场景中的对象,因此可能需要较少片段228来表示不同对象。片段228可经生成以保留图像224中的对象之间的边界(例如,边缘)。保留对象之间的边界的大片段228可足以根据本文中所描述的图像辅助的方法生成准确深度图620。因此,用较低片段密度生成的深度图620可提供足够准确度。此外,使用较多片段228产生较少片段228,此继而产生较少扫描点。通过使用较少LIDAR样本来生成深度图620,电子装置202可实现高效增益(例如,处理、电池消耗、时间,等),同时保留足够准确度。
图像辅助的LIDAR深度图620b比无辅助的LIDAR深度图620a更准确。由于片段228沿循图像624中的对象的边界,与无辅助的LIDAR深度图620a相比较,图6D中的图像辅助的LIDAR深度图620b保留对象(例如,锥体654及格栅660开口)的较清晰边缘。此外,薄对象(例如,铅笔656)经捕获在图像辅助的LIDAR深度图620b中。
图7A到7D说明图像辅助的LIDAR深度图720取样的另一实例。图7A中展示场景的图像724,且图7B中展示对应地面实况762。除其它对象外,图像724还包含织物764、植物766及鸟舍768。
图7C中说明无辅助的LIDAR深度图720a。无辅助的LIDAR深度图720a是使用深度值238的规则LIDAR取样来获得。在此状况下,LIDAR取样是使用2,000个经规则间隔取样点以均匀方式执行。因此,此途径在确定执行LIDAR扫描的位置时不考虑场景内的对象。
图像辅助的LIDAR深度图720b是根据本文中所描述的系统及方法生成。在此状况下,用2,000个片段228创建分割图226。片段228边界沿循对象边界,如结合图5所描述。接着在片段228的空间坐标732处执行LIDAR扫描。接着将来自LIDAR扫描的深度值238填充在对应片段228以生成图像辅助的LIDAR深度图720b。
如通过将图7C及7D进行比较所观察到,图像辅助的LIDAR深度图720b产生较佳性能,尤其在对象边界线处。如与图7C的无辅助的LIDAR深度图720a相比,织物764的边缘、植物766的叶子及鸟舍768的屋顶在图7D中的图像辅助的LIDAR深度图720b中较清晰。
图8为说明其中可实施用于图像辅助的LIDAR深度图取样的系统及方法的电子装置802的一个实例的框图。电子装置802的实例包含相机、视频便携式摄像机、数字相机、蜂窝式电话、智能电话、计算机(例如,桌面式计算机、膝上型计算机,等)、平板装置、媒体播放器、电视、汽车、个人相机、动作摄像机、监控摄像机、安装式摄像机、连接式摄像机、机器人、航空器、无人机、无人飞行载具(UAV)、医疗设备、游戏主控台、个人数字助理(PDA)、机顶盒,等。电子装置802可包含一或多个组件或元件。组件或元件中的一或多个可以硬件(例如,电路)或硬件及软件的组合(例如,具有指令的处理器)实施。
在一些配置中,电子装置802可包含处理器842、存储器844、显示器846、相机804、LIDAR单元814及/或通信接口805。处理器842可耦合到存储器844、显示器846、相机804、LIDAR单元814及/或通信接口805(例如,与其电子通信)。应注意,图8中所说明的元件中的一或多个可为任选的。特定来说,电子装置802可能在一些配置中不包含图8中所说明的元件中的一或多个。例如,电子装置802可或可不包含通信接口805。另外或替代地,电子装置802可或可不包含显示器846。
通信接口805可使得电子装置802能够与一或多个其它电子装置进行通信。例如,通信接口805可提供用于有线及/或无线通信的接口。在一些配置中,通信接口805可耦合到用于发射及/或接收射频(RF)信号的一或多个天线807。另外或替代地,通信接口805可实现一或多个有线(例如,通用串行总线(USB)、以太网,等)通信。
在一些配置中,可实施及/或利用多个通信接口805。例如,一个通信接口805可为蜂窝式(例如,3G、长期演进(LTE)、CDMA,等)通信接口805,另一通信接口805可为以太网接口、另一通信接口805可为通用串行总线(USB)接口,且另一通信接口805可为无线局域网(WLAN)接口(例如,电气与电子工程师协会(IEEE)802.11接口)。
在一些配置中,电子装置802可执行结合图1到8中的一或多个所描述的功能、程序、方法、步骤等中的一或多个。另外或替代地,电子装置802可包含结合图1到8中的一或多个所描述的结构中的一或多个。在一些配置中,结合图8所描述的图像辅助的LIDAR深度图取样可结合途径(结合图1到8中的一或多个所描述)中的一或多个实施。应注意,除结合图1到8中的一或多个所描述的图像扫描及/或对象追踪的途径中的一或多个外或替代地,还可实施结合图8所描述的图像辅助的LIDAR深度图取样。
电子装置802可获得一或多个图像824(例如,数字图像、图像帧、视频,等)。例如,电子装置802可包含相机804,所述相机具有光学系统106(例如,透镜)及图像传感器108。在一些配置中,相机804可捕获一或多个图像824。相机804可耦合到处理器842及/或由所述处理器控制。额外或替代地,电子装置802可请求及/或接收来自另一装置(例如,耦合到电子装置802的外部图像传感器、网络服务器、交通摄像机、水下摄像机、自动相机、网络摄像机,等)的一或多个图像824。在一些配置中,电子装置802可经由通信接口805请求及/或接收一或多个图像824。例如,电子装置802可或可不包含摄像机804且可接收来自一或多个远程装置的图像824。
一或多个图像824可存储在存储器844中。图像824中的一或多个可包含场景222中的对象。
存储器844可存储指令及/或数据。处理器842可存取(例如,读取及/或写入到)存储器844。可由存储器844存储的指令及/或数据的实例可包含图像数据(例如,一或多个图像824)、图像分割测绘仪816指令、LIDAR单元814指令、深度测绘仪818指令及/或用于其它元件的指令,等。在一些配置中,电子装置802(例如,存储器844)可包含图像数据缓冲器(未展示)。图像数据缓冲器可缓冲(例如,存储)来自相机804的图像数据(例如,图像824)。可将所缓冲图像数据提供到处理器842。
在一些配置中,电子装置802可包含相机软件应用程序及/或显示器846。在相机应用程序运行时,位于相机804的视野内的对象的图像824可被相机804捕获。由相机804捕获的图像824可被呈现在显示器846上。在一些配置中,这些图像824可以相当高帧速率接连不断地被显示以使得在任何给定蚀刻位于相机804的视野内的对象被呈现在显示器846上。由电子装置802获得的一或多个图像824可为一或多个视频帧及/或一或多个静止图像。
处理器842可包含及/或实施图像分割测绘仪816、LIDAR单元控制器848及/或深度测绘仪818。在一些配置中,处理器842可为结合图2所描述的处理器242的实例。应注意,电子装置802及/或处理器842中所说明的元件中的一或多个可为任选的。例如,可或可不包含及/或实施处理器842中所说明的元件中的一或多个。另外或替代地,处理器842中所说明的元件中的一或多个可与处理器842分离地实施(例如,在其它电路中、在另一处理器上、在单独电子装置上,等)。例如,LIDAR单元控制器848可不实施于电子装置802上。
处理器842可包含及/或实施图像分割测绘仪816。在一些配置中,图像分割测绘仪816可为结合图1到2中的一或多个所描述的图像分割测绘仪116、216中的一或多个的实例。图像分割测绘仪816可从场景222的图像824生成分割图226。分割图226可包含多个片段228。
处理器842可包含及/或实施LIDAR单元控制器848。LIDAR单元控制器848可接收片段228的图心230的空间坐标2301IDAR单元控制器848可指示LIDAR单元814在图心230的空间坐标232处执行LIDAR扫描。LIDAR单元814可经转向以在空间坐标232处对场景222进行取样。LIDAR单元814可确定图心230的空间坐标232处的场景222的深度值238。
处理器842可包含及/或实施深度测绘仪818。在一些配置中,深度测绘仪818可为本文中所描述的深度测绘仪118、218中的一或多个的实例。可将深度值238中的一或多个提供到深度测绘仪818。深度测绘仪818可用片段228的图心230的深度值238填充每一片段228以形成深度图820。
在一些配置中,电子装置802可基于深度图820执行辅助驱动。例如,处理器842可包含(例如,实施)高级驾驶辅助系统(ADAS)或可与其通信。例如,电子装置802(例如,ADAS)可基于深度图820执行辅助驱动。电子装置802可基于深度图820执行一或多个操作。操作的实例可包含对象检测及/或对象追踪。操作的实例还可包含显示指示符(例如,速度限制、停车标志、行人警告、可能碰撞警告、车道偏离警告、街道名称、地址,等)。输出声音(例如,鸣笛、警笛、语音、按车辆喇叭,等),控制车辆速度(例如,以标示的速度限制驾驶、刹车以避免碰撞,等),控制车辆转向(例如,转向以避免碰撞、平行停车,等),控制车辆气候(例如,控制除霜器或除雾器,等),控制车灯(例如,打开雾灯,起动紧急闪光灯,控制转向信号,等)。应注意,在一些配置中,电子装置802可与汽车分离或可整合到汽车中。
在一些配置中,处理器842可包含及/或实施一或多个其它元件。例如,处理器842可包含对象检测器、对象追踪器,等。
在一些配置中,电子装置802可在显示器846上呈现用户接口812。例如,用户接口812可使得用户能够与电子装置802交互。在一些配置中,用户接口846可为触摸屏110,所述触摸屏接收来自物理触摸(例如,通过手指、触笔或其它工具)的输入。另外或替代地,电子装置802可包含或耦合到另一输入接口。例如,电子装置802可包含面向用户的摄像机且可检测用户姿态(例如,手势、手臂姿态、眼睛追踪、眼睑眨眼,等)。在另一实例中,电子装置802可耦合到鼠标且可检测鼠标单击。
应注意,在一些配置中可能不需要任何用户输入。例如,电子装置802可自动地执行图像辅助的LIDAR深度图取样。
图9说明可包含在电子装置902内的某些组件。电子装置902可为或可包含在以下内:相机、视频便携式摄像机、数字相机、蜂窝式电话、智能电话、计算机(例如,桌面式计算机、膝上型计算机,等)、平板装置、媒体播放器、电视、汽车、个人相机、动作摄像机、监控摄像机、安装式摄像机、连接式摄像机、机器人、航空器、无人机、无人飞行载具(UAV)、医疗设备、游戏主控台、个人数字助理(PDA)、机顶盒,等。电子装置902包含处理器942。处理器942可为通用单芯片或多芯片微处理器(例如,ARM)、专用微处理器(例如,数字信号处理器(DSP))、微控制器、可编程门阵列,等。处理器942可被称作中央处理单元(CPU)。尽管仅单个处理器942经展示在电子装置902中,但在替代配置中,可使用处理器(例如,ARM及DSP)的组合。
电子装置902还包含存储器944。存储器944可为能够存储电子信息的任何电子组件。存储器944可体现为随机存取存储器(RAM)、只读存储器(ROM)、磁盘存储媒体、光学存储媒体、RAM中的快闪存储器装置、与处理器一起包含的机载存储器、EPROM存储器、EEPROM存储器、寄存器,等等,包含其组合。
数据950a及指令952a可存储在存储器944中。指令952a可由处理器942执行以实施本文中所描述方法中的一或多个。执行指令952a可涉及使用存储在存储器944中的数据。在处理器942执行指令952时,可将指令952b的各种部分加载到处理器942上,且可将各种数据950b段加载到处理器942上。
电子装置902还可包含发射器925及接收器927以允许信号去往及来自电子装置902的发射及接收。发射器925及接收器927可被共同称作收发器935。一或多个天线907a到b可电耦合到收发器935。电子装置902还可包含(未展示)多个发射器、多个接收器、多个收发器及/或额外天线。
电子装置902可包含数字信号处理器(DSP)931。电子装置902还可包含通信接口905。通信接口905可允许实现一或多个种类的输入及/或输出。例如,通信接口905可包含用于将其它装置链接到电子装置902的一或多个端口及/或通信装置。另外或替代地,通信接口905可包含一或多个其它接口(例如,触摸屏、小键盘、键盘、麦克风、相机,等)。例如,通信接口905可适当用户能够与电子装置902交互。
电子装置902的各种组件可通过一或多个总线耦合在一起,所述总线可包含电源总线、控制信号总线、状态信号总线、数据总线,等。为清楚起见,各种总线在图9中经说明为总线系统923。
根据本发明,电子装置中的电路可经调适以获得接收来自图像分割测绘仪的空间坐标。空间坐标可为基于场景的图像而生成。相同电路、不同电路或相同或不同电路的第二区段可经调适以执行深度图的垂直处理以执行LIDAR扫描。LIDAR单元可经转向以在空间坐标处对场景进行取样。相同电路、不同电路或相同或不同电路的第三区段可经调适以将由LIDAR扫描获得的深度值提供到深度测绘仪以形成深度图。另外,相同电路、不同电路或相同或不同电路的第四区段可经调适以控制提供上文所描述功能性的电流或电路区段的配置。
术语“确定”囊括广泛各种动作,且因此“确定”可包含运算、计算、处理、导出、调查、查找(例如,在表、数据库或另一数据结构中查找)、确定等。另外,“确定”可包含接收(例如,接收信息)、存取(例如,存取存储器中的数据)等。此外,“确定”可包含解析、选择、挑选、建立等。
除非另有明确规定,否则短语“基于”并不意味着“仅基于”。换句话说,短语“基于”描述“仅基于”及“至少基于”两者。
术语“处理器”应广泛公开为囊括通用处理器、中央处理单元(CPU)、微处理器、数字信号处理器(DSP)、控制器、微控制器、状态机,等等。在一些情况下,“处理器”可指专用集成电路(ASIC)、可编程逻辑装置(PLD)、场可编程门阵列(FPGA)等。术语“处理器”可指处理装置的组合,例如,DSP与微处理器的组合、多个微处理器、一或多个微处理器结合DSP核心,或任何其它此配置。
术语“存储器”应广泛解释为囊括能够存储电子信息的任何电子组件。术语存储器可指各种类型的处理器可读媒体,例如随机存取存储器(RAM)、只读存储器(ROM)、非易失性随机存取存储器(NVRAM)、可编程只读存储器(PROM)、可擦除可编程只读存储器(EPROM)、电可擦除PROM(EEPROM)、快闪存储器、磁性或光学数据存储器、寄存器,等。如果处理器可从存储器读取信息及/或将信息写入到存储器,那么存储器被认为与处理器电子通信。与处理器成整体的存储器与处理器电子通信。
术语“指令”及“代码”应广泛公开为包含任何类型的计算机可读语句。例如,术语“指令”及“代码”可指一或多个程序、例程、子例程、函数、程序,等。“指令”及“代码”可包括单个计算机可读语句或许多计算机可读语句。
本文中所描述功能可以由硬件执行的软件或固件实施。功能可作为一或多个指令被存储在计算机可读媒体上。术语“计算机可读媒体”或“计算机程序产品”是指可由计算机或处理器存取的任何有形存储媒体。通过实例的方式且非限制性,计算机可读媒体可包括RAM、ROM、EEPROM、CD-ROM或其它光学磁碟存储装置、磁盘存储装置或其它磁性存储装置或可用于以指令或数据结构的形式存储所要程序代码且可由计算机存取的其它媒体。如本文中所使用,磁盘及光盘包含光盘(CD)、激光光盘、光学光盘、数字多功能光盘(DVD)、软盘及Blu-
Figure BDA0003556915230000121
光盘,其中磁盘通常以磁性方式再现数据,而光盘通过激光以光学方式再现数据。应注意,计算机可读媒体可为有形的且非易失性。术语“计算机程序产品”是指结合可由计算装置或处理器执行、处理或计算的代码或指令(例如,“程序”)的计算装置或处理器。如本文中所使用,术语“代码”可是指可由计算装置或处理器执行的软件、指令、代码或数据。
软件或指令还可经由传输媒体来传输。举例来说,如果使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)或例如红外线、无线电及微波等无线技术从网站、服务器或其它远程源传输软件,那么所述同轴电缆、光纤电缆、双绞线、DSL或例如红外线、无线电及微波等无线技术皆包含于媒体的定义中。
本文中所公开的方法包括用于实现所描述方法的一或多个步骤或动作。方法步骤及/或动作可彼此互换而不背离权利要求书的范围。换句话说,除非所描述的方法的恰当操作需要特定次序的步骤或动作,否则具体步骤及/或动作的次序及/或使用可被修改而不脱离权利要求书的范围。
此外,应了解,用于执行本文中所描述的方法及技术的模块及/或其它适当装置可通过装置下载及/或以它方式获得。例如,装置可耦合到服务器以促使用于执行本文中所描述方法的装置的转移。替代地,本文中所描述的各种方法可经由存储装置(例如,随机存取存储器(RAM)、只读存储器(ROM)、例如光盘(CD)或软盘物理存储媒体,等)提供,使得装置可在将存储装置耦合或提供到装置时获得各种方法。
应理解,权利要求书并不限制于上文所说明的精确配置及组件。可在本文中所描述的系统、方法及设备的布置、操作及细节作出各种修改、改变及变化而不会背离权利要求书的范围。

Claims (33)

1.一种用于运载工具的自动控制的装置,包括:
存储器;以及
至少一个处理器,其耦合到所述存储器,所述至少一个处理器被配置为:
基于对第一接收到的图像的内容分析来生成第一多个空间坐标集,每个空间坐标集指示在所述第一接收到的图像中的第一对象内的片段的位置,其中,所述片段的至少一部分具有沿循所述第一对象的边界的边界;
向通信地耦合到所述处理器的LIDAR(光+雷达)单元提供所述第一多个空间坐标集,以选择性地获得在场景中在所述运载工具外部的代表所述第一多个空间坐标的位置处的指示深度的信息;
基于所述第一多个空间坐标集和从所述LIDAR单元接收的所述深度信息来确定所述第一对象相对于所述运载工具的位置;以及
基于所确定的所述第一对象的位置来确定用于运载工具操作的指令。
2.根据权利要求1所述的装置,其中,所述片段的至少一部分是几何结构和大小不规则的,并且所述片段是在所述第一对象内不均匀分布的。
3.根据权利要求1所述的装置,其中,所述处理器还被配置为:
基于所接收的深度信息和所述第一多个空间坐标集来生成针对所述第一对象的第二多个空间坐标集,其中,所述第二多个空间坐标集在所述第一对象内相对于所述第一多个空间坐标集不同地分布;以及
向所述LIDAR单元提供所述第二多个空间坐标集,以选择性地获得在所述场景中在所述运载工具外部的代表所述第二多个空间坐标的位置处的更新的指示深度的信息。
4.根据权利要求3所述的装置,其中,所述第一多个空间坐标集和所接收的深度信息是基于所述运载工具的移动来转换的。
5.根据权利要求3所述的装置,其中,内容分析包括所述处理器配置为执行以下操作中的至少一项:确定所述第一对象的多个边界;或者确定所述第一对象的颜色或灰度差。
6.根据权利要求5所述的装置,其中,所述多个边界中的至少一部分具有与对象中的一个或多个对象对齐的不规则的几何结构。
7.根据权利要求1所述的装置,其中,所述处理器或所述LIDAR单元被配置为将所述第一多个空间坐标集转换为LIDAR坐标空间。
8.根据权利要求1所述的装置,其中,所述第一对象是第二运载工具、行人、车道边界或标志中的一者。
9.根据权利要求1所述的装置,其中,所述运载工具操作是速度改变、刹车操作、转向操作、或驾驶者或乘客通知中的至少一项。
10.一种用于运载工具的自动控制的方法,包括:
基于对第一接收到的图像的内容分析来生成第一多个空间坐标集,每个空间坐标集指示在所述第一接收到的图像中的第一对象内的片段的位置,其中,所述片段的至少一部分具有沿循所述第一对象的边界的边界;
向LIDAR(光+雷达)单元提供所述第一多个空间坐标集,以选择性地获得在场景中在所述运载工具外部的代表所述第一多个空间坐标的位置处的指示深度的信息;
基于所述第一多个空间坐标集和从所述LIDAR单元接收的所述深度信息来确定所述第一对象相对于所述运载工具的位置;以及
基于所确定的所述第一对象的位置来确定用于运载工具操作的指令。
11.根据权利要求10所述的方法,其中,所述片段的至少一部分是几何结构和大小不规则的,并且所述片段是在所述第一对象内不均匀分布的。
12.根据权利要求10所述的方法,还包括:
基于所接收的深度信息和所述第一多个空间坐标集来生成针对所述第一对象的第二多个空间坐标集,其中,所述第二多个空间坐标集在所述第一对象中相对于所述第一多个空间坐标集不同地分布;以及
向所述LIDAR单元提供所述第二多个空间坐标集,以选择性地获得在所述场景中在所述运载工具外部的代表所述第二多个空间坐标的位置处的更新的指示深度的信息。
13.根据权利要求10所述的方法,其中,内容分析包括以下操作中的至少一项:确定针对所述第一对象的多个边界;或者确定针对所述第一对象的颜色或灰度差。
14.根据权利要求13所述的方法,所述多个边界中的至少一部分具有与对象中的一个或多个对象对齐的不规则的几何结构。
15.一种成像设备,包括:
照相机,其被配置为获得场景的图像信息,其中,所述照相机能够自动聚焦在所述场景中的感兴趣的区域上;
LIDAR(光+雷达)单元,其被配置为获得在多个指定的扫描位置处的所述场景的至少一部分的深度信息,所述多个指定的扫描位置不均匀地分布在所述场景中;以及
处理器,其被配置为:
使用从所述照相机获得的图像信息或从所述LIDAR单元获得的深度信息中的至少一项来检测在所述场景中的对象;
向所述LIDAR单元提供一个或多个指令以获得在所述多个指定的扫描位置处的深度信息,其中,所述指定的扫描位置由以下表征:针对所述场景的与所述对象相关联的第一部分的第一扫描点密度,以及针对所述场景的第二部分的第二扫描点密度;以及
基于所获得的与同所述对象相关联的所述指定的扫描位置相关联的深度信息来向所述照相机提供一个或多个指令,以将所述照相机的焦点调整到所述感兴趣的区域并且捕获所述场景的图像。
16.根据权利要求15所述的成像设备,其中,所述处理器还被配置为:生成与所述对象相关联的所述图像信息的第一图像片段;以及生成与所述场景的不与所述对象相关联的部分相关联的所述图像信息的第二图像片段。
17.根据权利要求16所述的成像设备,其中,所述场景的所述第一部分的所述指定的扫描位置是基于所述第一图像片段的,并且其中,所述场景的所述第二部分的所述指定的扫描位置是基于所述第二图像片段的。
18.根据权利要求17所述的成像设备,其中,所述第一扫描点密度大于所述第二扫描点密度。
19.根据权利要求15所述的成像设备,其中,所述对象是人或脸部。
20.根据权利要求19所述的成像设备,其中,所述处理器还被配置为使用脸部识别来检测所述脸部。
21.根据权利要求15所述的成像设备,其中,所述对象是使用从所述LIDAR单元获得的深度信息来检测的,并且其中,所述处理器还被配置为:基于从所述LIDAR单元获得的所述深度信息来向所述LIDAR单元提供更新的多个指定的扫描位置。
22.根据权利要求15所述的成像设备,还包括用户界面,其被配置为:显示从所述照相机获得的图像信息,并且能够接收用户输入的对所述对象的选择,其中,所述处理器还被配置为:基于从所述用户界面接收的选择信息来检测所述对象。
23.根据权利要求15所述的成像设备,其中,所述处理器还被配置为:基于从所述LIDAR单元获得的深度信息来生成针对所述场景的至少一部分的深度图。
24.根据权利要求23所述的成像设备,其中,所述处理器还被配置为:基于所述深度图来建立所述对象的三维模型。
25.根据权利要求23所述的成像设备,其中,所述处理器还被配置为:生成与所述对象相关联的所述图像的图像片段;以及基于所述图像片段来生成精细化的深度图。
26.一种利用电子设备捕获图像的方法,包括:
从所述电子设备的照相机获得场景的图像信息;
利用所述电子设备的LIDAR(光+雷达)单元获得所述场景的至少一部分的深度信息,所述LIDAR单元被配置为获得在所述场景中不均匀分布的多个指定的扫描位置处的深度信息;
由处理器使用从所述照相机获得的图像信息或从所述LIDAR单元获得的深度信息中的至少一项来检测在所述场景中的对象;
由所述处理器向所述LIDAR单元提供所述多个指定的扫描位置以获得更新的深度信息,其中,所述指定的扫描位置由以下表征:针对所述场景的与所述对象相关联的第一部分的第一扫描点密度,以及针对所述场景的第二部分的第二扫描点密度;
基于所述更新的与同所述对象相关联的所述指定的扫描位置相关联的深度信息来向所述照相机提供一个或多个指令,以将所述照相机的焦点调整到与所述对象相关联的感兴趣的区域;以及
利用所调整的角度来捕获所述场景的图像。
27.根据权利要求26所述的方法,还包括:生成与所述对象相关联的所述图像信息的第一图像片段;以及生成与所述场景的不与所述对象相关联的部分相关联的所述图像信息的第二图像片段。
28.根据权利要求27所述的方法,其中,所述场景的所述第一部分的所述指定的扫描位置是基于所述第一图像片段的,并且其中,所述场景的所述第二部分的所述指定的扫描位置是基于所述第二图像片段的。
29.根据权利要求28所述的方法,其中,所述第一扫描点密度大于所述第二扫描点密度。
30.根据权利要求26所述的方法,其中,所述对象是人或脸部。
31.根据权利要求30所述的方法,还包括:由所述处理器使用脸部识别来检测所述脸部。
32.根据权利要求26所述的方法,其中,所述对象是使用从所述LIDAR单元获得的深度信息来检测的,并且由所述处理器基于从所述LIDAR单元获得的所述深度信息来向所述LIDAR单元提供更新的多个指定的扫描位置。
33.根据权利要求26所述的方法,还包括:
在屏幕上显示从所述照相机获得的图像信息;以及
利用用户界面,基于所显示的图像信息来获得对象选择信息,其中,由所述处理器检测所述对象是基于所述对象选择信息的。
CN202210280505.2A 2015-08-24 2016-07-11 用于激光深度图取样的系统及方法 Pending CN114637023A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US14/833573 2015-08-24
US14/833,573 US10282591B2 (en) 2015-08-24 2015-08-24 Systems and methods for depth map sampling
PCT/US2016/041782 WO2017034689A1 (en) 2015-08-24 2016-07-11 System and method for laser depth map sampling
CN201680046908.3A CN108419446B (zh) 2015-08-24 2016-07-11 用于激光深度图取样的系统及方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201680046908.3A Division CN108419446B (zh) 2015-08-24 2016-07-11 用于激光深度图取样的系统及方法

Publications (1)

Publication Number Publication Date
CN114637023A true CN114637023A (zh) 2022-06-17

Family

ID=56497905

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201680046908.3A Active CN108419446B (zh) 2015-08-24 2016-07-11 用于激光深度图取样的系统及方法
CN202210280505.2A Pending CN114637023A (zh) 2015-08-24 2016-07-11 用于激光深度图取样的系统及方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201680046908.3A Active CN108419446B (zh) 2015-08-24 2016-07-11 用于激光深度图取样的系统及方法

Country Status (8)

Country Link
US (3) US10282591B2 (zh)
EP (1) EP3317691B1 (zh)
JP (1) JP6571274B2 (zh)
KR (1) KR102032070B1 (zh)
CN (2) CN108419446B (zh)
BR (1) BR112018003305A2 (zh)
CA (1) CA2993616A1 (zh)
WO (1) WO2017034689A1 (zh)

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10282591B2 (en) 2015-08-24 2019-05-07 Qualcomm Incorporated Systems and methods for depth map sampling
CA3085049C (en) 2015-11-24 2023-08-15 Drone Go Home, LLC Drone defense system
US10042159B2 (en) 2016-02-18 2018-08-07 Aeye, Inc. Ladar transmitter with optical field splitter/inverter
US9933513B2 (en) 2016-02-18 2018-04-03 Aeye, Inc. Method and apparatus for an adaptive ladar receiver
US10754015B2 (en) 2016-02-18 2020-08-25 Aeye, Inc. Adaptive ladar receiver
EP3545337A1 (en) * 2017-01-26 2019-10-02 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and lidar information
US10209349B2 (en) 2017-02-17 2019-02-19 Aeye, Inc. Method and system for ladar pulse deconfliction to detect and track other ladar systems
CN107466404B (zh) * 2017-05-11 2023-01-31 达闼机器人股份有限公司 物品搜索方法、装置及机器人
EP3438777B1 (en) * 2017-08-04 2022-05-11 Bayerische Motoren Werke Aktiengesellschaft Method, apparatus and computer program for a vehicle
EP3438776B1 (en) * 2017-08-04 2022-09-07 Bayerische Motoren Werke Aktiengesellschaft Method, apparatus and computer program for a vehicle
US10447973B2 (en) * 2017-08-08 2019-10-15 Waymo Llc Rotating LIDAR with co-aligned imager
US10816354B2 (en) 2017-08-22 2020-10-27 Tusimple, Inc. Verification module system and method for motion-based lane detection with multiple sensors
US10565457B2 (en) 2017-08-23 2020-02-18 Tusimple, Inc. Feature matching and correspondence refinement and 3D submap position refinement system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
US10762673B2 (en) 2017-08-23 2020-09-01 Tusimple, Inc. 3D submap reconstruction system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
JP6689006B2 (ja) 2017-08-25 2020-04-28 ベイジン・ボイジャー・テクノロジー・カンパニー・リミテッド 車両の環境情報を検出するための方法およびシステム
US10495757B2 (en) 2017-09-15 2019-12-03 Aeye, Inc. Intelligent ladar system with low latency motion planning updates
US11758111B2 (en) 2017-10-27 2023-09-12 Baidu Usa Llc 3D lidar system using a dichroic mirror for autonomous driving vehicles
US11745727B2 (en) * 2018-01-08 2023-09-05 STEER-Tech, LLC Methods and systems for mapping a parking area for autonomous parking
EP3737595B1 (en) 2018-01-09 2023-12-27 TuSimple, Inc. Real-time remote control of vehicles with high redundancy
CN115834617A (zh) 2018-01-11 2023-03-21 图森有限公司 用于自主车辆操作的监视系统
US11009365B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization
US11009356B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization and fusion
CN111133447B (zh) 2018-02-18 2024-03-19 辉达公司 适于自主驾驶的对象检测和检测置信度的方法和系统
WO2019168869A1 (en) 2018-02-27 2019-09-06 Nvidia Corporation Real-time detection of lanes and boundaries by autonomous vehicles
US10776983B2 (en) 2018-02-27 2020-09-15 Nvidia Corporation Analysis of point cloud data using depth and texture maps
US10628920B2 (en) 2018-03-12 2020-04-21 Ford Global Technologies, Llc Generating a super-resolution depth-map
US11537139B2 (en) 2018-03-15 2022-12-27 Nvidia Corporation Determining drivable free-space for autonomous vehicles
US11353587B2 (en) * 2018-03-26 2022-06-07 Facebook Technologies, Llc Lidar depth measurement systems and methods
CN110378185A (zh) 2018-04-12 2019-10-25 北京图森未来科技有限公司 一种应用于自动驾驶车辆的图像处理方法、装置
CN116129376A (zh) 2018-05-02 2023-05-16 北京图森未来科技有限公司 一种道路边缘检测方法和装置
CN108827306B (zh) * 2018-05-31 2022-01-07 北京林业大学 一种基于多传感器融合的无人机slam导航方法及系统
AU2019339418A1 (en) 2018-09-13 2021-05-13 Tusimple, Inc. Remote safe driving methods and systems
JP2022502647A (ja) * 2018-09-26 2022-01-11 エージーシー グラス ユーロップAgc Glass Europe 検出装置用の光学カバー
KR102086663B1 (ko) * 2018-09-28 2020-03-09 에스케이텔레콤 주식회사 영상생성장치 및 영상생성장치의 동작 방법
US10699430B2 (en) 2018-10-09 2020-06-30 Industrial Technology Research Institute Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof
CN110160502B (zh) * 2018-10-12 2022-04-01 腾讯科技(深圳)有限公司 地图要素提取方法、装置及服务器
US10656252B1 (en) 2018-10-25 2020-05-19 Aeye, Inc. Adaptive control of Ladar systems using spatial index of prior Ladar return data
US10942271B2 (en) 2018-10-30 2021-03-09 Tusimple, Inc. Determining an angle between a tow vehicle and a trailer
CA3028223C (en) 2018-11-16 2021-02-16 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for positioning vehicles under poor lighting conditions
US10716177B2 (en) * 2018-12-13 2020-07-14 Zebra Technologies Corporation Method and apparatus for control of mobile automation apparatus light emitters
CN111319629B (zh) 2018-12-14 2021-07-16 北京图森智途科技有限公司 一种自动驾驶车队的组队方法、装置及系统
CN111316119A (zh) * 2018-12-28 2020-06-19 深圳市大疆创新科技有限公司 雷达仿真方法及装置
US11170299B2 (en) 2018-12-28 2021-11-09 Nvidia Corporation Distance estimation to objects and free-space boundaries in autonomous machine applications
WO2020140049A1 (en) 2018-12-28 2020-07-02 Nvidia Corporation Distance to obstacle detection in autonomous machine applications
DE112019006468T5 (de) * 2018-12-28 2021-10-14 Nvidia Corporation Erkennung des abstands zu hindernissen bei anwendungen mit autonomen maschinen
US11648945B2 (en) 2019-03-11 2023-05-16 Nvidia Corporation Intersection detection and classification in autonomous machine applications
CN111815696B (zh) * 2019-04-11 2023-08-22 曜科智能科技(上海)有限公司 基于语义实例分割的深度图优化方法、装置、设备和介质
US11513223B2 (en) 2019-04-24 2022-11-29 Aeye, Inc. Ladar system and method with cross-receiver
US11620752B2 (en) * 2019-06-03 2023-04-04 Technion Research & Development Foundation Limited Image-guided depth sampling and reconstruction
US11823460B2 (en) 2019-06-14 2023-11-21 Tusimple, Inc. Image fusion for autonomous vehicle operation
US10841483B1 (en) * 2019-07-11 2020-11-17 Denso International America, Inc. System and method for calibrating at least one camera and a light detection and ranging sensor
DE112020004139T5 (de) 2019-08-31 2022-05-12 Nvidia Corporation Erstellung von karten und lokalisierung für anwendungen im bereich des autonomen fahrens
CN110727748B (zh) * 2019-09-17 2021-08-24 禾多科技(北京)有限公司 小体量高精度定位图层的构建、编译及读取方法
JP7348300B2 (ja) * 2019-09-30 2023-09-20 富士フイルム株式会社 処理装置、電子機器、処理方法、及びプログラム
JP7311617B2 (ja) * 2019-09-30 2023-07-19 富士フイルム株式会社 処理装置、電子機器、処理方法、及びプログラム
US20210132213A1 (en) * 2019-10-31 2021-05-06 Samsung Electronics Co., Ltd. Apparatus and methods for multi-sensor slam systems
US11260752B2 (en) * 2019-12-27 2022-03-01 Kawasaki Jukogyo Kabushiki Kaisha Instrument panel for leisure vehicle
WO2021134325A1 (zh) * 2019-12-30 2021-07-08 深圳元戎启行科技有限公司 基于无人驾驶技术的障碍物检测方法、装置和计算机设备
CN111311709B (zh) * 2020-02-05 2023-06-20 北京三快在线科技有限公司 一种生成高精地图的方法及装置
EP3893150A1 (en) 2020-04-09 2021-10-13 Tusimple, Inc. Camera pose estimation techniques
CN111429386B (zh) * 2020-06-11 2020-09-25 北京云迹科技有限公司 图像处理方法、装置和电子设备
AU2021203567A1 (en) 2020-06-18 2022-01-20 Tusimple, Inc. Angle and orientation measurements for vehicles with multiple drivable sections
CN111735479B (zh) * 2020-08-28 2021-03-23 中国计量大学 一种多传感器联合标定装置及方法
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
KR20220075476A (ko) * 2020-11-30 2022-06-08 한국전자기술연구원 다중 영상을 이용한 라이다 센서 정보 보정 및 업-샘플링 방법 및 장치
US11630188B1 (en) 2021-03-26 2023-04-18 Aeye, Inc. Hyper temporal lidar with dynamic laser control using safety models
US11635495B1 (en) 2021-03-26 2023-04-25 Aeye, Inc. Hyper temporal lidar with controllable tilt amplitude for a variable amplitude scan mirror
US11486977B2 (en) 2021-03-26 2022-11-01 Aeye, Inc. Hyper temporal lidar with pulse burst scheduling
US11686845B2 (en) 2021-03-26 2023-06-27 Aeye, Inc. Hyper temporal lidar with controllable detection intervals based on regions of interest
US11604264B2 (en) 2021-03-26 2023-03-14 Aeye, Inc. Switchable multi-lens Lidar receiver
US11500093B2 (en) 2021-03-26 2022-11-15 Aeye, Inc. Hyper temporal lidar using multiple matched filters to determine target obliquity
US11460552B1 (en) 2021-03-26 2022-10-04 Aeye, Inc. Hyper temporal lidar with dynamic control of variable energy laser source
US11741631B2 (en) 2021-07-15 2023-08-29 Vilnius Gediminas Technical University Real-time alignment of multiple point clouds to video capture
KR20230084978A (ko) * 2021-12-06 2023-06-13 삼성전자주식회사 라이다 장치를 포함하는 전자 장치 및 이의 동작 방법
WO2023152422A1 (en) * 2022-02-11 2023-08-17 Teknologian Tutkimuskeskus Vtt Oy Light-emitting device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050225479A1 (en) * 2004-04-09 2005-10-13 Noriaki Shirai Device for detecting object in front of vehicle
CN101943847A (zh) * 2010-08-31 2011-01-12 福建网讯科技有限公司 一种单投影宽屏投影方法
CN102490868A (zh) * 2011-12-02 2012-06-13 大连海事大学 航标防碰撞雷达装置
EP2511781A1 (de) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH System und Verfahren zur Steuerung eines unbemannten Fluggeräts
CN103198473A (zh) * 2013-03-05 2013-07-10 腾讯科技(深圳)有限公司 一种深度图生成方法及装置
US8989944B1 (en) * 2013-11-26 2015-03-24 Google Inc. Methods and devices for determining movements of an object in an environment
CN104581124A (zh) * 2013-10-29 2015-04-29 汤姆逊许可公司 产生场景的深度图的方法和装置
US20150153444A1 (en) * 2013-12-04 2015-06-04 Trimble Navigation Limited System and methods for data point detection and spatial modeling

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US7321669B2 (en) * 2003-07-10 2008-01-22 Sarnoff Corporation Method and apparatus for refining target position and size estimates using image and depth data
US8042056B2 (en) * 2004-03-16 2011-10-18 Leica Geosystems Ag Browsers for large geometric data visualization
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
JP2010091426A (ja) * 2008-10-08 2010-04-22 Toyota Central R&D Labs Inc 距離計測装置及びプログラム
KR101030763B1 (ko) 2010-10-01 2011-04-26 위재영 이미지 획득 유닛, 방법 및 연관된 제어 유닛
US8447549B2 (en) * 2011-02-11 2013-05-21 Quality Vision International, Inc. Tolerance evaluation with reduced measured points
CN103049933A (zh) * 2011-10-17 2013-04-17 联咏科技股份有限公司 图像处理装置与其方法
US8873835B2 (en) * 2011-11-30 2014-10-28 Adobe Systems Incorporated Methods and apparatus for correcting disparity maps using statistical analysis on local neighborhoods
US8824733B2 (en) * 2012-03-26 2014-09-02 Tk Holdings Inc. Range-cued object segmentation system and method
US9207070B2 (en) 2012-05-24 2015-12-08 Qualcomm Incorporated Transmission of affine-invariant spatial mask for active depth sensing
CN102761768A (zh) * 2012-06-28 2012-10-31 中兴通讯股份有限公司 一种实现立体成像的方法及装置
US9383753B1 (en) * 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
CN103795961A (zh) * 2012-10-30 2014-05-14 三亚中兴软件有限责任公司 会议电视网真系统及其图像处理方法
US9111444B2 (en) 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
KR101370785B1 (ko) * 2012-11-06 2014-03-06 한국과학기술원 입체 영상의 깊이 맵 생성 방법 및 장치
US20140132723A1 (en) 2012-11-13 2014-05-15 Osmose Utilities Services, Inc. Methods for calibrating a digital photographic image of utility structures
US11509880B2 (en) * 2012-11-14 2022-11-22 Qualcomm Incorporated Dynamic adjustment of light source power in structured light active depth sensing systems
US8891905B2 (en) * 2012-12-19 2014-11-18 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Boundary-based high resolution depth mapping
US9164511B1 (en) * 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
US9208548B1 (en) * 2013-05-06 2015-12-08 Amazon Technologies, Inc. Automatic image enhancement
US9406137B2 (en) 2013-06-14 2016-08-02 Qualcomm Incorporated Robust tracking using point and line features
US20150116458A1 (en) * 2013-10-30 2015-04-30 Barkatech Consulting, LLC Method and apparatus for generating enhanced 3d-effects for real-time and offline appplications
US10346465B2 (en) 2013-12-20 2019-07-09 Qualcomm Incorporated Systems, methods, and apparatus for digital composition and/or retrieval
WO2015097824A1 (ja) * 2013-12-26 2015-07-02 株式会社日立製作所 物体認識装置
CN103955886A (zh) * 2014-05-22 2014-07-30 哈尔滨工业大学 一种基于图论和灭点检测的2d-3d图像转换方法
EP3265885A4 (en) * 2015-03-03 2018-08-29 Prenav Inc. Scanning environments and tracking unmanned aerial vehicles
CN104820981B (zh) * 2015-04-22 2017-10-31 上海交通大学 一种基于视差分层分割的图像立体表示方法及系统
US9729782B2 (en) * 2015-06-05 2017-08-08 Digital Signal Corporation System and method for intelligent camera control
US9589327B2 (en) * 2015-06-10 2017-03-07 Samsung Electronics Co., Ltd. Apparatus and method for noise reduction in depth images during object segmentation
US10282591B2 (en) 2015-08-24 2019-05-07 Qualcomm Incorporated Systems and methods for depth map sampling

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050225479A1 (en) * 2004-04-09 2005-10-13 Noriaki Shirai Device for detecting object in front of vehicle
CN101943847A (zh) * 2010-08-31 2011-01-12 福建网讯科技有限公司 一种单投影宽屏投影方法
EP2511781A1 (de) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH System und Verfahren zur Steuerung eines unbemannten Fluggeräts
CN102490868A (zh) * 2011-12-02 2012-06-13 大连海事大学 航标防碰撞雷达装置
CN103198473A (zh) * 2013-03-05 2013-07-10 腾讯科技(深圳)有限公司 一种深度图生成方法及装置
CN104581124A (zh) * 2013-10-29 2015-04-29 汤姆逊许可公司 产生场景的深度图的方法和装置
US8989944B1 (en) * 2013-11-26 2015-03-24 Google Inc. Methods and devices for determining movements of an object in an environment
US20150153444A1 (en) * 2013-12-04 2015-06-04 Trimble Navigation Limited System and methods for data point detection and spatial modeling

Also Published As

Publication number Publication date
CN108419446B (zh) 2022-03-25
WO2017034689A1 (en) 2017-03-02
KR20180044279A (ko) 2018-05-02
EP3317691A1 (en) 2018-05-09
US20170061632A1 (en) 2017-03-02
JP6571274B2 (ja) 2019-09-04
KR102032070B1 (ko) 2019-10-14
US20210279444A1 (en) 2021-09-09
CN108419446A (zh) 2018-08-17
US10282591B2 (en) 2019-05-07
EP3317691B1 (en) 2021-11-10
BR112018003305A2 (pt) 2018-09-18
CA2993616A1 (en) 2017-03-02
US20190220650A1 (en) 2019-07-18
US11042723B2 (en) 2021-06-22
JP2018526641A (ja) 2018-09-13
US11915502B2 (en) 2024-02-27

Similar Documents

Publication Publication Date Title
US11915502B2 (en) Systems and methods for depth map sampling
CN112567201B (zh) 距离测量方法以及设备
CN110988912B (zh) 自动驾驶车辆的道路目标与距离检测方法、系统、装置
EP3378033B1 (en) Systems and methods for correcting erroneous depth information
US11422265B2 (en) Driver visualization and semantic monitoring of a vehicle using LiDAR data
US20220043449A1 (en) Multi-channel sensor simulation for autonomous control systems
CN111436216B (zh) 用于彩色点云生成的方法和系统
EP3347789B1 (en) Systems and methods for detecting and tracking movable objects
CN113887400B (zh) 障碍物检测方法、模型训练方法、装置及自动驾驶车辆
US11460855B1 (en) Systems and methods for sensor calibration
CN111833443A (zh) 自主机器应用中的地标位置重建
CN112733678A (zh) 测距方法、装置、计算机设备和存储介质
US11763492B1 (en) Apparatus and methods to calibrate a stereo camera pair
JP2021103410A (ja) 移動体及び撮像システム
WO2022160101A1 (zh) 朝向估计方法、装置、可移动平台及可读存储介质
US20240112363A1 (en) Position estimation system, position estimation method, and program
US20230100412A1 (en) A system, a method and a computer program for generating a digital map of an environment
CN117359608A (zh) 机器人运动控制法以及装置
JP2021086268A (ja) 移動体、情報処理装置、及び撮像システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination