CN108961320B - 确定移动物体速度的方法和系统 - Google Patents

确定移动物体速度的方法和系统 Download PDF

Info

Publication number
CN108961320B
CN108961320B CN201810461767.2A CN201810461767A CN108961320B CN 108961320 B CN108961320 B CN 108961320B CN 201810461767 A CN201810461767 A CN 201810461767A CN 108961320 B CN108961320 B CN 108961320B
Authority
CN
China
Prior art keywords
point cloud
point
point clouds
autonomous vehicle
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810461767.2A
Other languages
English (en)
Other versions
CN108961320A (zh
Inventor
I·吕斯特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of CN108961320A publication Critical patent/CN108961320A/zh
Application granted granted Critical
Publication of CN108961320B publication Critical patent/CN108961320B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/74Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/874Combination of several systems for attitude determination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/295Means for transforming co-ordinates or for evaluating data, e.g. using computers
    • G01S7/2955Means for determining the position of the radar coordinate system for evaluating the position data of the target in another coordinate system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9318Controlling the steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9319Controlling the accelerator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9321Velocity regulation, e.g. cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Power Engineering (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

提供了用于控制自主车辆的系统和方法。该系统和方法从自主车辆的传感器获取基于自主车辆外部场景的三维位置数据的第一和第二时间间隔点云。该系统和方法将第一点云中的场景的静态方面与第二点云中的场景的静态方面进行位置对准,以获得位置对准第一和第二点云。该系统和方法通过处理器,确定位置对准第一和第二点云中的移动物体的速度。该系统和方法使用移动物体的速度执行自主车辆控制功能。

Description

确定移动物体速度的方法和系统
技术领域
本发明主要涉及车辆,更具体地涉及关于确定移动物体的速度来控制自主车辆的系统和方法。
背景技术
自主车辆是一种能够感测它周围环境并仅需很少或无需用户输入进行导航的车辆。这可以通过使用诸如雷达、激光雷达、图像传感器等感测装置来实现。自主车辆还使用来自全球定位系统(GPS)技术、导航系统、车对车通信、车对基础设施技术和/或线控驾驶系统的信息来导航车辆。
虽然自主车辆比传统车辆有更多潜在的优势,但在某些情况下,可能需要改进自主车辆的操作,例如对确定移动物体速度的有效方式进行处理。
因此,需要提供用于确定移动物体速度的系统和方法。此外,结合附图和上述技术领域和背景,并根据以下详细描述和所附权利要求,本发明的其他所需特征和特性将变得显而易见。
发明内容
提供了用于控制自主车辆的系统和方法。在一个实施例中,一种用于执行自主车辆控制功能的方法包括基于自主车辆外部场景的三维位置数据从自主车辆的传感器获取第一和第二时间间隔点云。该方法包括通过处理器,将第一点云中的场景的静态方面与第二点云中的场景的静态方面进行位置对准,以获得位置对准第一和第二点云。该方法包括通过处理器,确定位置对准第一和第二点云中的移动物体的速度。该方法包括通过处理器,利用移动物体的速度执行自主车辆控制功能。
在实施例中,该确定步骤包括确定移动物体在位置对准第一和第二点云之间移动的距离。根据移动的距离确定移动物体的速度。
在实施例中,该确定步骤包括使用第一和第二时间间隔点云之间的流逝时间来确定速度。第一和第二点云可以具有由传感器的帧速率限定的时间空间。
在实施例中,该方法包括识别对应于移动物体的第一和第二时间间隔点云中的一群数据点。该方法可以包括将点云中所识别的数据点群与第二点云中所识别的数据点群进行匹配。该匹配步骤可以包括确定第一点云中的一群数据点与第二点云中的一群数据点之间的空间变换。该确定步骤可以包括根据位置对准第一和第二点云中的匹配数据点群之间的移动距离来确定物体的速度。该确定步骤可以导出空间变换导致的移动距离。
在实施例中,该方法包括将第一和第二点云分割成移动数据点和静态数据点。该位置对准步骤可以使用静态数据点作为静态方面。该确定步骤可以使用位置对准第一和第二点云中的移动数据点来确定物体的速度。上述识别对应于移动物体的第一和第二时间间隔点云中的每一个的一群数据点的步骤可以使用移动数据点。
在实施例中,该方法包括迭代最近点计算,用于确定移动数据点群之间的空间变换。空间变换使得移动物体的移动距离被确定,其中根据移动距离来确定移动物体的速度。在其他实施例中,该方法包括在对应于移动物体的第一和第二点云中的数据点周围生成网格。根据上述分割和识别步骤,可以将网格设置在所识别的移动数据点群的周围。该方法可以包括确定第一和第二位置对准点云中的网格的空间变换,从而确定移动的距离。根据移动的距离确定速度。
在实施例中,第一和第二点云对应于捕捉场景的传感器的连续帧。可以针对由传感器捕捉的场景的每组连续帧执行获取、位置对准和确定步骤。
在实施例中,传感器是激光雷达传感器或其他测距传感器(例如雷达传感器)。传感器也可以是光学相机。
在另一个实施例中,提供了一种用于执行自主车辆控制功能的系统。该系统包括数据接收模块,其被配置为基于自主车辆外部场景的三维位置数据从自主车辆的传感器接收第一和第二时间间隔点云。静态场景对准模块被配置为将第一点云中的场景的静态方面与第二点云中的场景的静态方面进行位置对准,以获得位置对准第一和第二点云。速度计算模块被配置为计算位置对准第一和第二点云中移动物体的速度。自主车辆控制系统被配置为利用移动物体的速度来控制车辆特征。
在实施例中,该系统包括静态和移动分割模块,其被配置为识别静态数据点和移动数据点。静态场景对准模块可以被配置为根据静态数据点对第一和第二点云的静态方面进行位置对准。
在实施例中,该系统包括物体匹配模块,其被配置为将第一点云中的移动物体与第二点云中的移动物体进行匹配。该匹配过程可以导出移动物体之间的空间变换,这些移动物体用移动数据点群来表示。速度计算模块可以被配置为根据位置对准第一点云和第二点云中的匹配移动物体来计算移动物体的速度。物体匹配模块可以被配置为识别移动数据点群以识别移动物体。移动数据点可以被识别为通过上述分割模块移动。该匹配过程可以使用迭代最近点算法或者在位置对准第一和第二点云中的移动物体的移动数据点周围设置网格的算法。
在实施例中,该系统包括距离模块,其被配置为确定位置对准第一和第二点云中移动物体的移动距离。该速度计算模块可以被配置为利用移动物体的移动距离以及第一和第二点云之间时间间隔的长度来计算移动物体的速度。时间空间可以由传感器的帧速率限定。
在实施例中,移动物体的移动距离由表示第一位置对准点云中的移动物体的第一识别数据点群的位置差异以及表示第二位置对准点云中的移动物体的第二识别数据点群的位置来确定。可以通过上述匹配模块将数据点群识别为对应于移动物体。
在一个实施例中,提供了一种自主车辆。该车辆包括传感器,其被配置为捕捉自主车辆外部场景的第一和第二帧三维位置数据。数据接收模块被配置为分别基于第一和第二帧三维位置数据,生成第一和第二时间间隔点云。静态场景对准模块被配置为将第一点云中的场景的静态方面与第二点云中的场景的静态方面进行位置对准,以获取位置对准第一和第二点云。速度计算模块被配置为计算位置对准第一和第二点云中的移动物体的速度。自主车辆控制系统被配置为利用移动物体的速度来控制车辆特征。
在实施例中,该车辆包括移动和静态分割模块,其被配置为识别移动数据点和静态数据点。静态场景对准模块可以被配置为根据静态数据点将第一点云中的场景的静态方面与第二点云中的场景的静态方面进行位置对准。该车辆可以包括物体匹配模块,其被配置为根据移动数据点来识别彼此对应的位置对准第一点云中的第一移动物体与位置对准第二点云中的第二移动物体。第一物体和第二物体可以由一组移动数据点限定。
在实施例中,距离模块被配置为针对每个移动物体确定在位置对准第一点云与位置对准第二点云之间移动的距离。可以通过上述物体匹配模块识别位置对准点云中的相应移动物体。该速度计算模块可以被配置为根据移动的距离以及传感器的帧速率来计算每个移动物体的速度,传感器的帧速率限定第一和第二点云的时间空间。
可以根据彼此对应的各个点云中的移动数据点群之间的空间变换来确定移动的距离。可以使用迭代最近点或通过使用网格匹配算法来确定空间变换。网格匹配算法可以包括根据第一和第二点云中的每一个的移动数据点群来生成网格的步骤。可以根据位置对准第一和第二点云中网格之间的距离来确定如上所述移动的距离。
传感器是激光雷达传感器或其他测距传感器(例如雷达)。传感器也可以是光学相机。
附图说明
以下将结合附图描述示例性实施例,附图中相同附图标记表示相同元件,其中:
图1是示出了根据各种实施例的自主车辆的功能框图;
图2是示出了根据各种实施例,具有如图1所示的一个或多个自主车辆的交通系统的功能框图;
图3是示出了根据各种实施例与自主车辆相关的自主驾驶系统(ADS)的功能框图;
图4是示出了根据各种实施例用于确定物体速度以及模块之间的数据流的点云处理系统的模块的示意图;并且
图5是根据各种实施例用于根据点云数据来确定物体速度的控制方法的流程图。
具体实施方式
以下详细描述本质上仅仅是示例性的,并不旨在限制应用和用途。而且,不希望受到前述的技术领域、背景技术、发明内容或以下详细描述中所述的任何明确或暗示性于理论的束缚。如本文所使用的,术语“模块”是指单独或以任何组合方式使用的任何硬件、软件、固件、电子控制组件、处理逻辑和/或处理器装置,包括但不限于:专用集成电路(ASIC)、现场可编程门阵列(FPGA)、电子电路、处理器(共享、专用或群组)以及执行一个或多个软件或固件程序的存储器、组合逻辑电路、和/或提供所述功能的其他合适组件。
本文中,可以根据功能和/或逻辑块组件以及各种处理步骤来描述本发明的实施例。应当理解的是,可以通过被配置为执行特定功能的任何数量的硬件、软件和/或固件组件来实现这种块组件。例如,本发明的一个实施例可以采用各种集成电路组件,例如存储器元件、数字信号处理元件、逻辑元件、查找表等,这些集成电路组件可以在一个或多个微处理器或其他控制装置的控制下执行各种功能。此外,本领域技术人员将理解的是,可以结合任何数量的系统实现本发明的实施例,本文所述的系统仅仅是本发明的示例性实施例。
为了简便起见,可能不会在本文中详细描述与信号处理、数据传输、信令、控制、机器学习、图像分析和系统的其他功能方面(以及系统的各个操作组件)有关的传统技术。而且,本文所包含的各个附图中所示的连接线旨在表示各种元件之间的示例性功能关系和/或物理连接。应该注意的是,本发明的实施例中可以存在许多替代或额外的功能关系或物理连接。
参照图1,根据各种实施例,一种用于执行自主车辆控制的系统(总体上示为100)与车辆10相关。通常,系统100以点云的形式对车辆10周围环境的三维图像进行低级处理,以确定用于控制车辆10的周围物体的速度。
如图1所示,车辆10主要包括底盘12、车身14、前轮16和后轮18。车身14设置在底盘12上,基本上包封车辆10的组件。车身14和底盘12可以共同形成车架。车轮16-18各自在车身14的相应拐角附近可旋转地连接到底盘12。
在各种实施例中,车辆10是自主车辆,系统100和/或其组件并入自主车辆10(以下称为自主车辆10)。例如,自主车辆10是一种自动控制以将乘客从一个位置送到另一个位置的车辆。在所示的实施例中,车辆10被描绘为乘用车,但是应当理解的是,也可以使用任何其他车辆,包括摩托车、卡车、运动型多用途车(SUV)、休闲车(RV)、船舶、飞机等。
在一个示例性实施例中,自主车辆10对应于美国汽车工程师学会(SAE)“J3016”标准自动驾驶等级分类下的四级或五级自动化系统。使用这个术语,四级系统表示“高度自动化”,指的是即使驾驶员不对请求进行适当的干预,自动驾驶系统仍执行动态驾驶任务的所有方面的驾驶模式。另一方面,五级系统表示“全自动化”,指的是自动驾驶系统在所有可由驾驶员管理的道路和环境条件下执行动态驾驶任务的所有方面的驾驶模式。但是,将理解的是,根据本发明主题的实施例不限于自动化类别的任何特定分类或标题。而且,根据本实施例的系统可以与使用导航系统和/或其他系统来提供路线引导和/或实施的任何自主车辆或其他车辆结合使用。
如图所示,自主车辆10主要包括推进系统20、传动系统22、转向系统24、制动系统26、传感器系统28、致动器系统30、至少一个数据存储设备32、至少一个控制器34和通信系统36。在各种实施例中,推进系统20可以包括内燃机,诸如牵引马达等电机,和/或燃料电池推进系统。传动系统22被配置为根据可选速度比将动力从推进系统20传递到车轮16和18。根据各种实施例,传动系统22可以包括步长比自动变速器,无级变速器或其他合适的变速器。
制动系统26被配置为向车轮16和18提供制动扭矩。在各种实施例中,制动系统26可以包括摩擦制动器、线控制动器、再生制动系统(例如电机)和/或其他合适的制动系统。
转向系统24影响车轮16和/或18的位置。尽管为了说明的目的将其描绘为包括方向盘25,但是,在本发明范围内可想到的一些实施例中,转向系统24可以不包括方向盘。
传感器系统28包括一个或多个感测装置40a-40n,其感测自主车辆10的外部环境和/或内部环境的可观察状况。感测装置40a-40n可以包括但不限于雷达、激光雷达、全球定位系统、光学相机、热像仪、超声波传感器和/或其他传感器。致动器系统30包括一个或多个致动器装置42a-42n,其控制一个或多个车辆特征,例如但不限于推进系统20、传动系统22、转向系统24和制动系统26。在各种实施例中,自主车辆10还可以包括图1中未示出的内部和/或外部车辆特征。例如车门、行李箱以及驾驶室特征(例如空气、音乐、照明、触屏显示组件(例如与导航系统结合使用的那些组件))。
数据存储设备32存储用于自动控制自主车辆10的数据。在各种实施例中,数据存储设备32存储可导航环境的限定地图。在各种实施例中,限定地图可以由远程系统预限定并且从远程系统获得(参照图2进一步详细描述)。例如,限定地图可以由远程系统组装并且传送到自主车辆10(以无线方式和/或以有线方式),并且存储在数据存储设备32中。路线信息还可以存储在数据设备32内,即一组道路段(在地理上与一个或多个限定地图相关联),这组道路段共同限定了用户可以从起始位置(例如,用户的当前位置)到达目标位置的路线。同样,在各种实施例中,数据存储设备32存储处理算法和数据,用于处理三维点云以逐帧的方式确定周围环境中物体的速度。应当理解的是,数据存储设备32可以是控制器34的一部分,与控制器34分开,或者是控制器34的一部分并且是单独系统的一部分。
控制器34包括至少一个处理器44和计算机可读存储设备或介质46。处理器44可以是任何定制的或市场可买到的处理器、中央处理单元(CPU)、图形处理单元(GPU)、与控制器34相关的若干处理器中的辅助处理器、基于半导体的微处理器(微芯片或芯片组的形式),其任何组合,或者通常用于执行指令的任何装置。例如,计算机可读存储设备或介质46可以包括只读存储器(ROM)、随机存取存储器(RAM)和持续修正存储器(KAM)中的易失性和非易失性存储器。KAM是持久性或非易失性存储器,可用于在处理器44断电时存储各种操作变量。计算机可读存储设备或介质46可以使用许多已知存储器装置中的任何一种来实现,例如PROMs(可编程只读存储器),EPROMs(电PROM),EEPROMs(电可擦除PROM),闪存或能够存储数据的任何其他电、磁、光或组合存储器装置,这些存储设备中一些表示可执行指令,通过控制器34来控制自主车辆10。
指令可以包括一个或多个单独的程序,每个程序包括用于实现逻辑功能的可执行指令的有序列表。由处理器44执行这些指令时,这些指令接收并处理来自传感器系统28的信号,执行用于自动控制自主车辆10的组件的逻辑、计算、方法和/或算法,并生成控制信号,控制信号传送到致动器系统30,以便根据逻辑、计算、方法和/或算法自动控制自主车辆10的组件。尽管图1仅示出了一个控制器34,但自主车辆10的实施例可以包括任何数量的控制器34,这些控制器通过任何合适的通信介质或通信介质的组合进行通信并且协同处理传感器信号,执行逻辑、计算、方法和/或算法,并且生成控制信号来自动控制自主车辆10的特征。在一个实施例中,如以下将详细讨论的,控制器34被配置为以点云的形式处理车辆10周围环境的三维成像数据,以便以逐帧的方式确定速度。控制器34还被配置为根据所确定的速度执行无人控制功能。
通信系统36被配置为与其他实体48(例如但不限于其他车辆(“V2V”通信),基础设施(“V2I”通信),远程交通系统和/或用户设备(参照图2更详细地描述)进行无线通信。在一个示例性实施例中,通信系统36是被配置为使用IEEE 802.11标准或使用蜂窝数据通信通过无线局域网(WLAN)进行通信的无线通信系统。但是,诸如专用短程通信(DSRC)信道等额外或替代的通信方法也被认为在本发明的范围内。DSRC信道是指专门为汽车使用而设计的单向或双向短距至中距无线通信信道,以及相应的一套协议和标准。
现在参照图2,在各种实施例中,如图1所述的自主车辆10可以适合于在特定地理区域(例如,城市,学校或商业园区,购物中心,游乐园,活动中心等)中出租车或班车系统的情况下使用,或者可以只由远程系统进行管理。例如,自主车辆10可以与基于自主车辆的远程交通系统相关。图2示出了总体上以50示出的操作环境的示例性实施例,该操作环境包括基于自主车辆的远程交通系统(或简称为“远程交通系统”)52,该远程交通系统与如图1所述的一个或多个自主车辆10a-10n相关。在各种实施例中,操作环境50(其全部或一部分可对应于图1所示的实体48)还包括一个或多个用户设备54,该用户设备通过通信网络56与自主车辆10和/或远程交通系统52进行通信。
通信网络56根据需要支持在由操作环境50支持的装置、系统和组件之间(例如,通过有形通信链路和/或无线通信链路)进行通信。例如,通信网络56可以包括无线载波系统60,例如包括多个蜂窝塔(未示出)的蜂窝电话系统,一个或多个移动交换中心(MSCs)(未示出)以及将无线载波系统60与陆地通信系统连接所需的任何其他网络组件。每个蜂窝塔包括发送和接收天线以及基站,不同蜂窝塔的基站直接或通过中间设备(例如基站控制器)连接到MSC。无线载波系统60可以实现任何合适的通信技术,包括例如数字技术(例如CDMA(例如CDMA2000)、LTE(例如4G LTE或5G LTE)、GSM/GPRS或其他当前或新兴的无线技术。其他蜂窝塔/基站/MSC配置也是可能的,并且可以与无线载波系统60一起使用。例如,基站和蜂窝塔可以共同定位在同一地点上或者它们可以以彼此远离的方式定位,每个基站可以负责单个蜂窝塔或者单个基站可以服务多个蜂窝塔,或者多个蜂窝塔可以连接到单个MSC,仅举几个可能配置的示例。
除了包括无线载波系统60之外,还可以包括卫星通信系统64形式的第二无线载波系统,用于与自主车辆10a-10n进行单向或双向通信。这可以使用一个或多个通信卫星(未示出)和上行链路发射站(未示出)来完成。单向通信可以包括例如卫星无线电服务,其中节目内容(新闻、音乐等)由发送站接收,打包上传,然后发送给卫星,而卫星再向用户广播节目。双向通信可以包括例如卫星电话服务,其使用卫星在车辆10与基站之间进行中继电话通信。卫星电话可以作为无线载波系统60的补充或者代替无线载波系统60。
还可以包括陆地通信系统62,其是连接到一个或多个陆线电话并且将无线载波系统60连接到远程交通系统52的传统的基于陆地的电信网络。例如,陆地通信系统62可以包括公共交换电话网络(PSTN),例如用于提供硬连线电话、分组交换数据通信和因特网基础设施的公共交换电话网络。陆地通信系统62的一个或多个分段可以通过使用标准有线网络、光纤或其它光学网络、电缆网络、电力线、其他无线网络(例如无线局域网(WLAN))、或提供宽带无线接入(BWA)的网络、或其任何组合来实现。此外,远程交通系统52不需要通过陆地通信系统62连接,而是可以包括无线电话设备,从而它可以直接与无线网络(例如无线载波系统60)进行通信。
尽管图2仅示出了一个用户设备54,但操作环境50的实施例可以支持任意数量的用户设备54,包括由一个人拥有、操作或以其他方式使用的多个用户设备54。操作环境50所支持的每个用户设备54可以使用任何合适的硬件平台来实现。在这方面,用户设备54可以以任何常见形式规格实现,包括但不限于:台式计算机、移动计算机(例如平板电脑、膝上计算机或笔记本电脑)、智能电话、视频游戏设备、数字媒体播放器、家庭娱乐设备的组件、数字摄影机或视频摄影机、可穿戴计算设备(例如智能手表、智能眼镜、智能服装)、等等。由操作环境50支持的每个用户设备54被实现为具有执行本文所述的各种技术和方法所需的硬件、软件、固件和/或处理逻辑的计算机实现的或基于计算机的设备。例如,用户设备54包括可编程设备形式的微处理器,其包括存储在内部存储器结构中并用于接收二进制输入以创建二进制输出的一个或多个指令。在一些实施例中,用户设备54包括能够接收GPS卫星信号并根据这些信号生成GPS坐标的GPS模块。在其他实施例中,用户设备54包括蜂窝通信功能,使得设备使用一个或多个蜂窝通信协议通过通信网络56执行语音和/或数据通信,如本文所述。在各种实施例中,用户设备54包括可视显示器,例如触屏图形显示器,或其他显示器。
远程交通系统52包括一个或多个后端服务器系统(未示出),其可以基于云,基于网络或常存于由远程交通系统52服务的特定校园或地理位置中。远程交通系统52可以配备现场顾问、自动顾问、人工智能系统或其组合。远程交通系统52可以与用户设备54和自主车辆10a-10n进行通信,用于安排乘车,派遣自主车辆10a-10n等。在各种实施例中,远程交通系统52存储诸如用户认证信息、车辆标识符、简档记录、生物特征数据、行为模式和其他相关用户信息的存储帐户信息。在一个实施例中,如以下将进一步详细描述的,远程交通系统52包括路线数据库53,其存储与导航系统路线有关的信息,包括沿各种路线的道路车道标记,并且特定路线段是否以及在何种程度上受到建筑区域或已由一个或多个自主车辆10a-10n检测到的其他可能危险或阻碍的影响。
根据典型的用例工作流程,远程交通系统52的注册用户可以通过用户设备54创建乘车请求。乘车请求通常将指示乘客所需的乘车位置(或当前GPS位置),所需的目的地位置(其可以识别预定义的车辆停靠站和/或用户指定的乘客目的地)以及乘车时间。远程交通系统52接收乘车请求,处理该请求,并且分派自主车辆10a-10n中的选定的一个车辆(当并且如果车辆可用时)在指定的乘车位置和适当的时间接乘客。交通系统52还可以生成并向用户设备54发送适当配置的确认消息或通知,以便让乘客知道车辆正在路上。
可以理解的是,本文所公开的技术主题向可被认为是标准或基准自主车辆10和/或基于自主车辆的远程交通系统52提供某些增强特征和功能。为此,可以对自主车辆和基于自主车辆的远程交通系统进行改进、增强或以其他方式补充,以提供下面更详细描述的额外特征。
根据各种实施例,控制器34实施如图3所示的自主驾驶系统(ADS)70。也就是说,利用控制器34(例如处理器44和计算机可读存储设备46)的合适软件和/或硬件组件来提供与车辆10结合使用的自主系统70。
在各种实施例中,自主驾驶系统70的指令可以由功能或系统进行组织。例如,如图3所示,自主驾驶系统70可以包括传感器融合系统74、定位系统76、引导系统78和车辆控制系统80。如可以理解的,在各种实施例中,由于本发明不限于本示例,因此可以将指令组织为任何数量的系统(例如,通过组合、进一步划分等方式)。
在各种实施例中,传感器融合系统74合成并处理传感器数据,预测物体的存在、位置、分类和/或路径以及车辆10的环境特征。在各种实施例中,传感器融合系统74可以结合来自多个传感器的信息,包括但不限于相机、激光雷达、雷达和/或任何数量的其他类型的传感器。
定位系统76处理传感器数据以及其他数据,用于确定车辆10相对于环境位置(例如,相对于地图的本地位置、相对于道路车道的精确位置、车辆航向、速度等)。引导系统78处理传感器数据以及其他数据,用于确定车辆10遵循的路径。车辆控制系统80根据所确定的路径生成用于控制车辆10的控制信号。
在各种实施例中,控制器34实施机器学习技术,用于辅助控制器34的功能,例如特征检测/分类、障碍排除、路线行进、映射、传感器集成、地面真实情况确定等。
自主系统被配置为生成驾驶输出,其被传送到致动器系统30。在一个示例性实施例中,致动器42包括转向控制器、换档器控制器、节气门控制器和制动器控制器。例如,转向控制器可以控制转向系统24,如图1所示。例如,换档器控制器可以控制传动系统22,如图1所示。例如,节气门控制器可以控制推进系统20,如图1所示。例如,制动器控制器可以控制轮制动系统26,如图1所示。
如上简要所述的,图1所示的系统100包括在自主驾驶系统70内,例如,作为用于处理激光雷达或其他三维位置数据、点云的系统,以便确定周围物体的速度。在实施例中,以下参照图4和图5进一步描述的用于确定速度的系统和方法并入定位系统76中,并且可以包括在传感器融合系统74的下游。
例如,如参照图4更详细示出并继续参照如图3所示,系统100包括点云处理系统400。在各种实施例中,如图4所示的点云处理系统400由至少一个处理器44实现,该处理器执行从计算机可读介质46获得的指令。点云处理系统400被配置为处理通过传感器系统28获得的多个帧点云,以便确定用于自主驾驶系统70中的周围物体的速度,特别是作为定位系统76的跟踪功能的一部分,交叉检查由定位系统76确定的车辆10的位置。
传感器系统28通过传感器装置42n获得车辆10周围的三维成像数据402。三维成像数据402可以从激光雷达装置、雷达装置或其他测距装置42n或光学相机获得。三维数据402可以被分成多个帧,由此传感器装置42n捕抓车辆10周围的每个场景的时间间隔图像。车辆10周围的场景包括可以被识别的物体(未示出),并且可以通过本文中参照图4和图5所示的处理方法确定物体的速度。可以通过传感器融合系统74获得三维成像数据402。
传感器装置42n通常具有限定每个图像捕抓之间流逝时间的帧速率。例如,在旋转激光雷达装置42n的情况下,在激光雷达装置42n连续旋转中捕抓连续帧。从传感器系统28获得的三维数据402可以由传感器融合系统74预处理,传感器融合系统74可以作为数据接收模块404的一部分,用于生成点云数据406。点云数据406包括以x和y维度分布的点阵列,每个点包括沿z方向的范围数据(以及诸如强度等其他数据字段)。尽管本文描述了笛卡尔坐标系,但是可以使用其他三维坐标系,例如极坐标。将获得多个帧点云数据406,每个帧均基于三维成像数据402。图4示出了示例性第一和第二帧点云数据406a、406b,其可以用来确定点云数据406中移动物体的速度。然而,应当理解的是,可以相对于多个先前帧点云数据,将一个或多个最近帧三维数据406a处理为至少一个第二帧点云数据406b。
点云处理系统400包括静态/移动分割模块408,其被配置为接收第一点云和至少一个第二点云406a、406b,并且被配置为分割第一点云406a中的移动和静态数据点。静态/移动分割模块408输出第一和第二点云410a、410b,第一和第二点云410a、410b中的每个均包括分割移动数据点413a、413b以及分割静态数据点411a、411b(第二点云410b先前已被分割)。也就是说,每个数据点可以包括静态数据或移动数据的标识符字段。移动数据点413a、413b被分成移动数据点群413a、413b。
静态/移动分割模块408可以利用由先前点云分析确定的速度参数,如以下参照速度计算模块424所描述的。一旦通过先前点云406b推导出速度参数,就可以将速度参数分组(即分割),以便具有相同的推导旋转/线性速度。静态物体的旋转/平移速度接近于0。因此,可以将先前的信息转移至数据点的当前场景,用于推导当前速度,从而对静态和移动数据进行分割。
点云处理系统400包括静态场景对准模块414,其被配置为使用分割静态数据点411a、411b将第一点云410a与至少一个第二点云410b进行位置对准,至少一个第二点云410b不是最近的点云。也就是说,由第一点云410a中的静态数据点411a、411b所标识的静态特征与第二点云410b中的对应静态特征对准。静态场景对准模块414被配置为输出位置对准第一和第二点云416,位置对准第一和第二点云416具有来自第一点云410a的移动数据点413a,其在由位置对准第一和第二点云416提供的共同静态参照帧中相对于来自第二点云410b的移动数据点413b相对偏移。相对移动数据点413a、413b形成来自第一点云410a的移动数据点413a的群,当在由位置对准第一和第二点云416提供的共同静态参照帧中观察时,移动数据点413a群在相对于来自第二点云的移动数据点413b群的位置上偏移。
移动数据点群413a、413b的偏移位置是x、y和z维度的三维偏移,也可以包括旋转移动。移动的距离由位置的相对偏移限定,其可用于确定对应于每个移动数据点群413a、413b的物体的移动速度。
在一种可能性中,静态场景对准模块414被配置使用更近的点云416注册静态地图(预先创建)。用静态地图注册点云可以使用诸如迭代最近点或其他优化技术等方法尽可能减少点云416与静态地图之间的差异。静态地图可以由先前处理并相对于彼此对准(可能网格化处理)的密集点云组成。
在另一种可能性中,静态场景对准模块414被配置为根据视觉测距法注册点云416,其中比较两个帧并且尽可能减少这两个帧之间的差异。这种方法能够消除惯性传感器的误差,并且能够建立高分辨率局部地图。
点云处理系统400包括物体匹配模块418,其被配置为匹配或注册位置对准第一和第二点云416中相应的移动数据点413a、413b群。也就是说,识别相应的移动点413a、413b群,并且执行匹配或注册,以便将来自第一位置对准点云的一群移动数据点413a与来自第二位置对准点云的一群移动数据点413b进行注册或匹配。
存在各种可能性,用于识别匹配移动数据点413a、413b。例如,可以根据相似的旋转/平移速度进行分组。可以根据最近点云416之间的相似形状进行分组。可以根据预定障碍物设置的形状进行分组。例如,这个障碍物的成员可能是特定的车型,无论我们在何时何地看到它们,它们都看起来一样。另一种可能性是根据与先前点云中所见群的接近度进行分组,通常根据其过去的位置预测它现在将在哪里以及它如何移动。
针对真实空间中对应于相应移动物体的每个识别移动数据点群o1..on,由物体匹配模块418执行的匹配或注册过程生成变换矩阵t1..tn。物体匹配模块被配置为根据由物体匹配模块418执行的匹配过程输出变换数据集420,物体匹配模块418包括变换数据t1..tn,其用于以彼此相对的方式将已被识别为对应的第一和第二群移动数据点o1...on进行空间变换。
在一个实施例中,匹配或注册过程包括迭代最近点算法。采用迭代最近点算法尽可能减少来自第一点云410a的识别移动数据点413a群与来自第二点云410b的识别数据点群413b之间的位置差异。相对于通过静态场景对准模块414确定的静态参照帧来确定位置差异。在迭代最近点算法中,作为参考的数据点群413a、413b中的一个群保持固定,而数据点群413a、413b中的另一个群(源)被变换,用于最佳地匹配参考。该算法以迭代的方式修正变换(使用平移和旋转的组合),以便尽可能减少从源到数据点413a、413b的参考群之间的距离。该算法针对每个识别匹配移动数据点413a、413b群输出改进变换t1..tn
在迭代最近点算法的一个实施方式中,执行以下迭代过程。对于源点群413a、413b中的每个点,找到参考点群413a、413b中的最近点。然后,该算法使用成本函数(例如均方误差)估算旋转和平移的组合,其将以最佳的方式使每个源点与其匹配参考点对准。接着,使用获得的变换对源点进行变换。
在各种实施例中,匹配或注册过程包括网格匹配算法。示例性网格匹配算法将第一和第二移动数据点群413a、413b转换为搜索和模板多边形或三角形网格模型,其表示移动数据点群413a、413b的拓扑。模板的每个网格表面都与搜索表面相匹配,并且确定其之间的变换参数。在一种可能性中,匹配模板与搜索表面之间的垂直距离是在每个表面的法向矢量之后确定的。变换参数的集合(例如垂直距离)构成变换矩阵t1..tn
针对每对匹配数据点群413a、413b确定变换数据t1..tn,其组合形成从物体匹配模块418输出的变换数据420。
图4所示的点云处理系统400包括距离模块422,其被配置为针对每个物体根据变换数据420确定移动的距离。变换数据420表示每个识别和匹配的移动数据点群413a、413b之间的位置关系,通过该位置关系,距离模块422可以导出标量或矢量距离参数d1..dn。距离参数d1..dn表示针对每个匹配移动数据点群413a、413b的移动距离。
点云处理系统400包括速度计算模块424,其被配置为根据代表移动距离的距离参数d1..dn确定每个识别的移动数据点群的速度v1..vn。速度计算模块可以从数据存储设备32(举例而言)检索帧速率数据f,用于计算速度v1..vn。帧速率数据提供了多个帧三维成像数据402之间流逝的时间,该流逝时间对应于第一和第二点云406a、406b之间流逝的时间。速度计算模块将距离参数d1..dn与时间维度帧速率f组合,用于确定速度v1..vn。速度v1..vn可以是矢量或标量参数。速度参数可以包括旋转速度分量和平移速度分量。
自主驾驶系统70使用由速度计算模块424输出的,针对相应移动数据点群413a、413b的速度v1..vn参数。例如,自主驾驶系统70可以使用物体跟踪中的速度v1..vn作为定位系统76的一部分和/或位置交叉检查的速度v1..vn作为定位系统76的一部分。在任何情况下,自主驾驶系统70使用速度v1..vn来控制至少一个自主车辆控制特征。
自主驾驶系统70使用速度参数的一个示例包括推导所识别物体未来的移动。这种推导可以涉及使用假定预定移动模型的卡尔曼滤波器,或者在过去类似外观障碍物如何移动方面已经过训练的再生模型,例如,行人道上的行人往往忽略车灯之类。根据推导出的未来的移动,自主驾驶系统70可以生成一个或多个自主命令,同时考虑到未来所识别物体可能的移动。
使用速度参数的另一个示例可以是去除其他系统中的错误。例如,惯性传感器可能有噪音或其他误差,而这导致自主驾驶系统70确定车辆10移动发生错误,例如,比现实情况或多或少。通过将当前点云注册到至少一个先前点云或由先前点云组成的静态地图,可以抑制这种误差的影响。
本发明提出了无需进行物体分类或通过例如定位系统76进行高级处理(通常涉及确定和跟踪边界框以及其他高级处理操作),根据点云数据406确定物体速度的方法和系统。本发明实现了根据多个帧点云数据406,处理物体速度的有效确定。
现在参照图5并继续参考图1-4,流程图示出了根据本发明可以由图1所示的系统100执行的控制方法500,系统100包括图3所示的自主驾驶系统70以及图5所示的点云处理系统400。如根据本发明可以理解的那样,该方法中的操作顺序不限于如图5所示的顺序执行,但是可以按照适用的并根据本发明的一个或多个变化顺序执行。在各种实施例中,方法400可以设定为根据一个或多个预定事件运行,和/或可以在自主驾驶自主车辆10的操作期间连续运行。
方法500包括对车辆10周围的场景进行测距并生成点云数据406的步骤502。具体地,传感器系统28,特别是其测距传感器42n,以传感器42n的帧速率感测三维图像402。根据三维图像402,通过数据接收模块和传感器融合与预处理模块74生成第一和至少一个第二帧三维点云数据406a、406b。
方法500包括将点云数据(特别是其第一最近帧406a)分割成静态数据点411a、411b和移动数据点413a、413b的步骤504。在步骤504中,将在每个帧点云数据406a、406b中限定移动数据点群413a、413b。通过静态/移动分割模块408执行步骤504,并利用如上所述的分割算法对移动和静态数据点进行分类。
方法500包括将第一点云406a的静态场景与至少一个第二点云406b的静态场景对准的步骤506。第二点云406b可以是由多个先前注册帧的静态点云数据组成的静态地图。通过这种方式,移动数据点群413a、413b的任何相对移动都可以在相同的参照帧中被识别。对准静态场景的步骤506使用第一和第二点云406a、406b的静态数据点411a、411b对静态场景进行位置对准。具体地,通过使用如上所述的对准算法的静态场景对准模块执行对准步骤506,从而产生位置对准第一和第二点云416。
方法500包括匹配移动数据点群413a、413b的步骤508。当第一和第二点云410a、410b在步骤506中位置对准时,第一点云410a中的移动数据点群413a相对于至少一个第二点云410b中的移动数据点群413b移动。在匹配步骤508中识别对应于真实空间中相同物体的移动数据点群413a、413b。在步骤508中运行注册或匹配算法,用于导出从参考移动数据点群413a至目标移动数据点群413b的空间变换。在示例性实施例中,注册或匹配算法可以是迭代最近点算法或网格匹配算法。通过物体匹配模块418执行匹配步骤508,产生变换数据420。
方法500包括确定在步骤508中被识别为对应的每个群的移动距离d1..dn的步骤510。具体地,变换数据420提供移动数据点群413a、413b之间的空间关系,而这些移动数据点群413a、413b已经在构成静态参照帧的位置对准静态场景416中移动。这种空间关系使得距离参数d1..dn以标量或矢量形式导出。通过距离模块422执行确定移动距离d1..dn的步骤510。
方法500包括计算每个移动数据点群413a、413b的速度v1..vn的步骤512,速度v1..vn对应于真实空间中物体的速度。根据距离参数d1..dn和传感器装置42n的帧速率f,可以导出速度v1..vn。通过速度计算模块424执行步骤512的速度计算。
方法500包括使用步骤512计算所得的速度v1..vn作为自主驾驶系统70的输入以生成用于车辆10的至少一个控制功能的步骤514。具体地,计算所得的速度v1..vn可以用于如上所述的跟踪控制和/或位置控制。
如上所述,根据静态/移动数据分割、静态对准和物体匹配处理描述第一和第二时间间隔点云。可以想到的是,可以根据具有一个以上先前点云的一个或多个最近点云执行这些步骤。例如,可以生成组合并对准的先前点云的静态地图,并将其用作与一个或多个最近点云进行比较的参照。
尽管以上详细描述中已经给出了至少一个示例性实施例,但应该理解的是还存在大量的变型。还应当理解的是,一个示例性实施例或多个示例性实施例仅仅是示例性的,并不旨在以任何方式限制本发明的范围、适用性或配置。相反,以上详细描述将为本领域技术人员提供用于一个实施示例性实施例或多个示例性实施例的便捷路线图。应当理解的是,在不背离如所附权利要求及其合法等同物中所述的本发明范围的情况下,可以对元件的功能和设置进行各种改变。

Claims (10)

1.一种用于执行自主车辆控制功能的方法,所述方法包括:
基于所述自主车辆外部场景的三维位置数据从所述自主车辆的至少一个传感器获得在时间上间隔开的第一点云和至少一个第二点云;
通过至少一个处理器,将所述第一点云中的所述场景的至少一个静态方面与所述至少一个第二点云中的所述场景的至少一个静态方面进行位置对准,以获得位置对准第一和第二点云;
在对应于移动物体的第一和第二点云中的数据点周围生成网格;
确定所述位置对准第一和第二点云中的网格之间移动的距离;
通过至少一个处理器,基于所述移动的距离确定在所述位置对准第一和第二点云中的至少一个移动物体的速度;并且
通过至少一个处理器,利用所述至少一个移动物体的速度执行自主车辆控制功能。
2.如权利要求1所述的方法,其中,所述确定步骤包括针对所述至少一个移动物体,确定在所述位置对准第一和第二点云之间移动的距离,
并且其中,根据所述移动距离,确定所述至少一个移动物体的速度。
3.如权利要求1所述的方法,其中,所述确定步骤包括使用所述第一和第二时间间隔点云之间的流逝时间,确定所述速度。
4.如权利要求1所述的方法,包括识别对应于所述至少一个移动物体的所述第一和第二时间间隔点云中的至少一个数据点群。
5.如权利要求4所述的方法,包括将所述点云中的至少一个数据点群与所述至少一个第二点云中的至少一个数据点群进行匹配,其中,所述确定步骤包括根据在所述位置对准第一和第二点云中的匹配数据点群之间移动的距离,确定所述至少一个移动物体的速度。
6.如权利要求5所述的方法,其中,所述匹配包括迭代最近点算法或者网格匹配算法。
7.如权利要求1所述的方法,包括将所述第一和第二点云分割成移动和静态数据点,其中,所述位置对准步骤使用所述静态数据点作为所述至少一个静态方面。
8.如权利要求7所述的方法,其中,所述确定步骤使用所述位置对准第一和第二点云中的移动数据点,确定所述至少一个移动物体的速度。
9.一种用于执行自主车辆控制功能的系统,所述系统包括:
数据接收模块,其被配置为基于所述自主车辆外部场景的三维位置数据从所述自主车辆的至少一个传感器获得在时间上间隔开的第一点云和至少一个第二点云;
静态场景对准模块,其被配置为通过处理器,将所述第一点云中的所述场景的至少一个静态方面与所述至少一个第二点云中的所述场景的至少一个静态方面进行位置对准,以获得位置对准第一和第二点云;
物体匹配模块,其被配置为在对应于移动物体的第一和第二点云中的数据点周围生成网格来匹配所述位置对准第一和第二点云中的对应移动物体;
距离模块,其被配置为通过处理器确定所述位置对准第一和第二点云中的网格之间移动的距离;
速度计算模块,其被配置为通过处理器,基于所述移动的距离确定在所述位置对准第一和第二点云中的至少一个移动物体的速度;以及
自主车辆控制系统,其被配置为通过处理器,使用所述至少一个移动物体的速度控制所述自主车辆的至少一个特征。
10.一种自主车辆,包括:
至少一个传感器,其被配置为捕抓所述自主车辆外部场景的第一帧三维数据和至少一个第二帧三维位置数据;
数据接收模块,其被配置为分别基于所述第一帧三维数据和所述至少一个第二帧三维数据,生成第一点云和至少一个第二点云,所述第一点云和至少一个第二点云是时间间隔点云;
静态场景对准模块,其被配置为通过处理器,将所述第一点云中的所述场景的至少一个静态方面与所述至少一个第二点云中的所述场景的至少一个静态方面进行位置对准,以获得位置对准第一和第二点云;
物体匹配模块,其被配置为在对应于移动物体的第一和第二点云中的数据点周围生成网格来匹配所述位置对准第一和第二点云中的对应移动物体;
距离模块,其被配置为通过处理器确定所述位置对准第一和第二点云中的网格之间移动的距离;
速度计算模块,其被配置为通过处理器,基于所述移动的距离确定在所述位置对准第一和第二点云中的至少一个移动物体的速度;以及
自主车辆控制系统,其被配置为通过处理器,使用所述至少一个移动物体的速度控制所述自主车辆的至少一个特征。
CN201810461767.2A 2017-05-25 2018-05-15 确定移动物体速度的方法和系统 Active CN108961320B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/605,400 US10365650B2 (en) 2017-05-25 2017-05-25 Methods and systems for moving object velocity determination
US15/605400 2017-05-25

Publications (2)

Publication Number Publication Date
CN108961320A CN108961320A (zh) 2018-12-07
CN108961320B true CN108961320B (zh) 2021-12-28

Family

ID=64109316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810461767.2A Active CN108961320B (zh) 2017-05-25 2018-05-15 确定移动物体速度的方法和系统

Country Status (3)

Country Link
US (1) US10365650B2 (zh)
CN (1) CN108961320B (zh)
DE (1) DE102018112115A1 (zh)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106796728A (zh) * 2016-11-16 2017-05-31 深圳市大疆创新科技有限公司 生成三维点云的方法、装置、计算机系统和移动设备
WO2018101080A1 (ja) * 2016-11-30 2018-06-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法及び三次元モデル配信装置
CN113119963B (zh) * 2017-07-28 2024-03-26 现代摩比斯株式会社 智能超声系统、车辆后方碰撞警告装置及其控制方法
US10296798B2 (en) * 2017-09-14 2019-05-21 Ncku Research And Development Foundation System and method of selecting a keyframe for iterative closest point
US10890919B2 (en) * 2017-09-22 2021-01-12 Waymo Llc Calculating velocity of an autonomous vehicle using radar technology
US10691135B2 (en) 2017-09-22 2020-06-23 Waymo Llc Detecting motion of an autonomous vehicle using radar technology
US10962650B2 (en) 2017-10-31 2021-03-30 United States Of America As Represented By The Administrator Of Nasa Polyhedral geofences
CN108460791A (zh) * 2017-12-29 2018-08-28 百度在线网络技术(北京)有限公司 用于处理点云数据的方法和装置
US11046328B2 (en) * 2018-09-25 2021-06-29 GM Global Technology Operations LLC Velocity estimation of an object
US11899099B2 (en) * 2018-11-30 2024-02-13 Qualcomm Incorporated Early fusion of camera and radar frames
CN111367252B (zh) * 2018-12-26 2024-02-06 北京图森智途科技有限公司 一种停车控制方法、设备及系统
EP3683596B1 (en) * 2019-01-16 2022-09-21 NXP USA, Inc. Method and processor for determining spatial information regarding a vehicle
KR102376709B1 (ko) * 2019-01-30 2022-03-18 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 자율 주행 차량을 위한 포인트 클라우드 등록 시스템
EP3714290B1 (en) 2019-01-30 2022-08-03 Baidu.com Times Technology (Beijing) Co., Ltd. Lidar localization using 3d cnn network for solution inference in autonomous driving vehicles
CN109782015A (zh) * 2019-03-21 2019-05-21 同方威视技术股份有限公司 激光测速方法、控制装置和激光测速仪
CN110045733B (zh) * 2019-04-04 2022-11-01 肖卫国 一种实时定位方法及其系统、计算机可读介质
DE102019205444A1 (de) * 2019-04-16 2020-10-22 Zf Friedrichshafen Ag System und Verfahren zum Verarbeiten von Messsignalen
CN113853532A (zh) * 2019-06-14 2021-12-28 Kpit技术有限责任公司 基于激光雷达和雷达的跟踪和映射系统及其方法
WO2021007716A1 (en) * 2019-07-12 2021-01-21 Beijing Voyager Technology Co., Ltd. Systems and methods for positioning
DE102019123483B4 (de) 2019-09-02 2021-12-09 Audi Ag Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene
US11281917B2 (en) * 2019-10-31 2022-03-22 Aptiv Technologies Limited Multi-domain neighborhood embedding and weighting of point cloud data
CN113137961A (zh) * 2020-01-17 2021-07-20 阿里巴巴集团控股有限公司 移动设备定位系统、相关方法、装置及设备
CN115136602A (zh) * 2020-02-06 2022-09-30 Pcms控股公司 具有多个测量结果的3d点云增强
CN111351487B (zh) * 2020-02-20 2024-06-25 达闼机器人股份有限公司 多传感器的时钟同步方法、装置及计算设备
CN111402308B (zh) * 2020-03-17 2023-08-04 阿波罗智能技术(北京)有限公司 障碍物速度的确定方法、装置、设备和介质
DE102020119498A1 (de) * 2020-07-23 2022-01-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Schätzen einer Eigenbewegung eines Fahrzeugs anhand von Messungen eines Lidar-Sensors sowie Recheneinrichtung
CN113838125A (zh) * 2021-09-17 2021-12-24 中国第一汽车股份有限公司 目标位置确定方法、装置、电子设备以及存储介质
CN113838112A (zh) * 2021-09-24 2021-12-24 东莞市诺丽电子科技有限公司 图像采集系统的触发信号确定方法及触发信号确定系统
US20230211798A1 (en) * 2022-01-06 2023-07-06 GM Global Technology Operations LLC Motion monitor using lidar registration
CN114581481B (zh) * 2022-03-07 2023-08-25 广州小鹏自动驾驶科技有限公司 一种目标物速度的估计方法及装置、车辆和存储介质
US20230410423A1 (en) * 2022-06-15 2023-12-21 Gm Cruise Holdings Llc Three-dimensional motion grid system for autonomous vehicle perception
CN115236690B (zh) * 2022-09-20 2023-02-10 图达通智能科技(武汉)有限公司 用于激光雷达系统的数据融合方法、装置及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8989944B1 (en) * 2013-11-26 2015-03-24 Google Inc. Methods and devices for determining movements of an object in an environment
US9043069B1 (en) * 2012-11-07 2015-05-26 Google Inc. Methods and systems for scan matching approaches for vehicle heading estimation
CN106489062A (zh) * 2015-06-26 2017-03-08 深圳市大疆创新科技有限公司 用于测量移动平台的位移的系统和方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2957077C (en) * 2009-06-01 2019-07-02 Gerd Hausler Method and device for three-dimensional surface detection with a dynamic reference frame
US8754887B2 (en) * 2012-07-20 2014-06-17 Google Inc. Determining three-dimensional (3D) object data models based on object movement
US9383753B1 (en) * 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US8886387B1 (en) * 2014-01-07 2014-11-11 Google Inc. Estimating multi-vehicle motion characteristics by finding stable reference points
US9619691B2 (en) * 2014-03-07 2017-04-11 University Of Southern California Multi-view 3D object recognition from a point cloud and change detection
US9818216B2 (en) * 2014-04-08 2017-11-14 Technion Research And Development Foundation Limited Audio-based caricature exaggeration
EP2958130A1 (en) * 2014-06-18 2015-12-23 Fei Company Mathematical image assembly in a scanning-type microscope
EP2958054B1 (en) * 2014-06-18 2024-07-03 Mobileye Vision Technologies Ltd. Hazard detection in a scene with moving shadows
US20160321838A1 (en) * 2015-04-29 2016-11-03 Stmicroelectronics S.R.L. System for processing a three-dimensional (3d) image and related methods using an icp algorithm
US20170357267A1 (en) * 2016-06-10 2017-12-14 Cnh Industrial America Llc Autonomous work vehicle obstacle detection system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9043069B1 (en) * 2012-11-07 2015-05-26 Google Inc. Methods and systems for scan matching approaches for vehicle heading estimation
US8989944B1 (en) * 2013-11-26 2015-03-24 Google Inc. Methods and devices for determining movements of an object in an environment
CN106489062A (zh) * 2015-06-26 2017-03-08 深圳市大疆创新科技有限公司 用于测量移动平台的位移的系统和方法

Also Published As

Publication number Publication date
US10365650B2 (en) 2019-07-30
US20180341263A1 (en) 2018-11-29
CN108961320A (zh) 2018-12-07
DE102018112115A1 (de) 2018-11-29

Similar Documents

Publication Publication Date Title
CN108961320B (zh) 确定移动物体速度的方法和系统
CN109466548B (zh) 用于自主车辆操作的地面参照确定
CN108572663B (zh) 目标跟踪
CN108073170B (zh) 用于自主车辆的自动化协同驾驶控制
CN108628206B (zh) 道路施工检测系统和方法
CN109949590B (zh) 交通信号灯状态评估
CN108528458B (zh) 用于车辆尺寸预测的系统和方法
CN109902552B (zh) 用于车道特征分类和定位的人工神经网络
CN108693876B (zh) 用于具有控制部件的车辆的目标跟踪系统及方法
CN109131346B (zh) 用于预测自主车辆中的交通模式的系统和方法
CN108574929B (zh) 用于自主驾驶系统中的车载环境中的联网场景再现和增强的方法和设备
US11042157B2 (en) Lane/object detection and tracking perception system for autonomous vehicles
CN108062094B (zh) 基于处理器实现车辆行驶轨迹规划的自主系统和方法
CN109814543B (zh) 道路廊道
CN109426806B (zh) 用于车辆信号灯检测的系统和方法
US20180074506A1 (en) Systems and methods for mapping roadway-interfering objects in autonomous vehicles
CN109552212B (zh) 用于自主车辆中的雷达定位的系统和方法
CN108766011B (zh) 用于自主车辆的停车评分
CN109808701B (zh) 用于自主车辆进入交通流的系统和方法
US20190072978A1 (en) Methods and systems for generating realtime map information
US10495493B2 (en) Systems and methods for controlling sensing device field of view
CN112498349A (zh) 用于紧急车道改变的操纵计划
CN109115230B (zh) 用于车辆的自主驾驶系统及其车辆
US20180024239A1 (en) Systems and methods for radar localization in autonomous vehicles
US20200050191A1 (en) Perception uncertainty modeling from actual perception systems for autonomous driving

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant