CN113287076A - 传感器模块及包括其的自动驾驶系统和车辆 - Google Patents

传感器模块及包括其的自动驾驶系统和车辆 Download PDF

Info

Publication number
CN113287076A
CN113287076A CN202080007594.2A CN202080007594A CN113287076A CN 113287076 A CN113287076 A CN 113287076A CN 202080007594 A CN202080007594 A CN 202080007594A CN 113287076 A CN113287076 A CN 113287076A
Authority
CN
China
Prior art keywords
vehicle
sensor module
sensor
sub
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080007594.2A
Other languages
English (en)
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeepRoute AI Ltd
Original Assignee
DeepRoute AI Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeepRoute AI Ltd filed Critical DeepRoute AI Ltd
Publication of CN113287076A publication Critical patent/CN113287076A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

一种用于自动驾驶系统的传感器模块(100)以及包括该传感器模块(100)的自动驾驶系统和车辆。该传感器模块(100)包括:第一子传感器模块(1),其设置在车辆的顶部,用于获取车辆周围的环境物体的图像和车辆周围的物体距该车辆的第一距离,并生成图像信息和第一距离信息;第二子传感器模块(2),其可拆卸地设置在车辆的两侧,用于获取车辆周围的物体距该车辆的第二距离,并生成第二距离信息;以及第三子传感器模块(3),其设置在车辆的前部的中央,用于获取车辆周围的物体距该车辆的第三距离,并生成第三距离信息,其中,第一子传感器模块(1)包括多个第一传感器(11),多个第一传感器(11)呈放射状等角间隔布置。

Description

传感器模块及包括其的自动驾驶系统和车辆
技术领域
本申请涉及传感器模块以及包括该传感器模块的自动驾驶系统和车辆。
背景技术
现有的L4级别无人驾驶汽车所采用的传感器布局主要包含两部分:车顶传感器模块和车身传感器模块。一般地,由于需要兼顾不同的车顶传感器的检测范围,位于车顶上的传感器设置得相对集中,从而存在车顶传感器模块整体高度较高,体积较大的问题。此外,由于安装车身传感器需要对车辆本身进行较多的改装设计,因此导致设计成本相对较高,而且安装难度较大。此外,在传感器数量方面,由于传感器本身的限制,现有的设计常常导致需要增加传感器数量实现对车辆周围全方位环境的监测。
发明内容
为了克服现有技术中存在的问题,根据本申请公开的各种实施例,提供一种用于自动驾驶系统的传感器模块和包括该传感器模块的自动驾驶系统。
根据本申请的一方面,一种用于自动驾驶系统的传感器模块可包括:
第一子传感器模块,其设置在车辆的顶部,用于获取车辆周围的环境物体的图像和该车辆周围的物体距该车辆的第一距离,并生成图像信息和第一距离信息;
第二子传感器模块,其可拆卸地设置在车辆的两侧,用于获取该车辆周围的物体距该车辆的第二距离,并生成第二距离信息;以及
第三子传感器模块,其设置在车辆的前部的中央,用于获取该车辆周围的物体距该车辆的第三距离,并生成第三距离信息,
其中,第一子传感器模块包括多个第一传感器,多个第一传感器呈放射状等角间隔布置。
在其中一个示例中,多个第一传感器可相对于地面水平地设置在同一平面内,用于获取车辆周围的环境物体的图像,以生成图像信息中的第一图像信息,并且第一子传感器模块还可包括:
第二传感器,其设置在第一子传感器模块的中央,用于生成第一距离信息;以及
至少一个第三传感器,其设置在第一子传感器模块的前侧的中部,并面向车辆的前方,用于获取车辆前方的交通灯的图像,以生成图像信息中的第二图像信息。
在其中一个示例中,第三传感器可设置为在设置有多个第一传感器11的平面中相对于水平面向上倾斜约3°至7°。
在其中一个示例中,第三传感器可设置为相对于水平面向上倾斜5°。
在其中一个示例中,第二子传感器模块可通过能调整其安装角度的安装支座设置在车辆的两侧的后视镜上。
在其中一个示例中,第一传感器的数量可以为4个。
在其中一个示例中,第一传感器的数量可以为6个。
在其中一个示例中,第二传感器可以为机械激光雷达。
在其中一个示例中,第二子传感器模块的传感器相对于水平面的第一安装角度的范围可在0°至-15°之间,第三子传感器模块的传感器相对于水平面的第二安装角度的范围可在-15°至-25°之间。
根据本公开的另一方面,一种自动驾驶系统可包括:
根据以上所述的传感器模块,其采集车辆周围的环境物体的图像信息和车辆周围的物体距车辆的距离信息;
信息处理单元,其包括图像数据处理中心和云数据处理中心,图像数据处理中心从传感器模块获取图像信息以进行处理,云数据处理中心从传感器模块获取距离信息以进行处理;
图形处理单元,其分别从图像数据处理中心和云数据处理中心获取处理后的图像信息和处理后的距离信息,进行融合处理,以生成车辆周围的实时三维立体环境模型;以及
控制中心,其根据所生成的车辆周围的实时三维立体环境模型获取车辆的行驶参数,以控制车辆的行驶。
根据本公开的又一方面,提供一种包括根据以上所述的传感器模块的车辆。
本申请的一个或多个实施例的细节在下面的附图和描述中提出。本申请的其它特征和优点将从说明书、附图以及权利要求书变得显而易见。
附图说明
为了更清楚地说明本申请的实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是根据本申请的实施例的安装有传感器模块的车辆的透视图。
图2是根据本申请的实施例的安装有传感器模块的车辆的前视图。
图3是根据本申请的实施例的安装有传感器模块的车辆的俯视图。
图4是根据本申请的实施例的安装有传感器模块的车辆的去掉第一子传感器模块的上壳体后的俯视图。
图5是根据本申请的实施例的第一子传感器模块的变型。
图6是根据本申请的实施例的传感器模块的检测区域的侧视图。
图7是根据本申请的实施例的传感器模块的检测区域的前视图。
图8是根据本申请的实施例的传感器模块的检测区域的俯视图。
图9是根据对比示例的传感器模块的检测区域的侧视图。
图10是根据对比示例的传感器模块的检测区域的后视图。
具体实施方式
为了使本申请的技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
下文将示例而非限制地以该传感器模块应用在车辆上例来对其进行阐述。图1是采用了根据本申请的一个示例的传感器模块的车辆的透视图。参照图1,传感器模块100包括:第一子传感器模块1,其设置在车辆的顶部,用于获取车辆周围的环境物体的图像和车辆周围的物体距本车辆的第一距离,并生成图像信息和第一距离信息;第二子传感器模块2,其可拆卸地设置在车辆的两侧,用于获取车辆周围的物体距本车辆的第二距离,并生成第二距离信息;以及第三子传感器模块3,其设置在车辆的前部的中央,用于获取车辆周围的物体距本车辆的第三距离,并生成第三距离信息。其中,第一子传感器模块1包括多个第一传感器11,多个第一传感器11可呈放射状等角间隔布置。自动驾驶系统可通过信息处理单元和图形处理单元(GPU)处理图像信息、第一距离信息、第二距离信息和第三距离信息来生成本车辆周围的三维立体环境模型,并可根据所生成的实时三维立体环境模型确定本车辆周围的环境特征,例如,确定本车辆周围是否存在行人、其他车辆、障碍物等及其距离本车辆的距离,交通灯的状态等,从而自动驾驶系统可通过控制中心生成相对应的指令,以使本车辆在遵守交通规则的前提下避开行人、其他车辆或障碍物,或者进行变道等,确保本车辆自动驾驶时的安全性。
在一个实施例中,第一子传感器模块1的多个第一传感器11可相对于地面水平地设置在同一平面内,用于获取本车辆周围的环境物体(例如,车道、斑马线、其他车辆、行人、障碍物等)的图像,以生成图像信息中的第一图像信息。此外,第一子传感器模块1还可包括:第二传感器12,其设置在第一子传感器模块1的中央,用于生成第一距离信息;以及至少一个第三传感器13,其设置在第一子传感器模块1的前侧的中部,并面向车辆的前方,用于获取本车辆前方的交通灯的图像,以生成图像信息中的第二图像信息。
在一些示例中,参照图2至图4,第一传感器11为图像传感器。由于多个第一传感器11呈放射状等角间隔布置,因此,多个第一传感器11可在一个很短的时间段内(例如,在10ms内)依次获取本车辆周围的环境物体的图像,以生成第一图像信息(即,360°环境图像信息),并将所获取的与第一图像信息有关的数据传输至自动驾驶系统的信息处理单元的图像数据处理中心进行数据拼接,从而生成关于本车辆周围的360°全景图像信息。
在一些示例中,如图2至图4所示,第一传感器11的数量可以为6个,此时,6个第一传感器11可呈60°的放射状等角间隔布置,并且第一传感器11的识别距离可约为300m,水平视场角可约为70°,垂直视场角可约为45°。在另一示例中,如图5所示,第一传感器11的数量可以为4个,此时,4个第一传感器11可呈90°的放射状等角间隔布置,并且第一传感器11的水平视场角可约为100°或120°。然而,第一传感器11的数量和布置不限于此,只要能够满足获取车辆周围的360°全景图像的功能,本领域技术人员可根据实际需求任意改变第一传感器11的数量和布置。
第一传感器11可具有第一环形视场区域边界11C,如图6和图8所示。根据第一传感器11的安装高度和安装有第一传感器11的车辆的车身的长度,第一环形视场区域边界11C距车辆的第一盲区距离d1至多为1.8m。大于第一环形视场区域边界11C的区域内的所有环境物体的图像(或称为环境图像)均可被第一传感器11所获取。应注意的是,图6和图8中所示出的第一环形视场区域边界11C仅为示例,第一盲区距离d1可根据第一传感器11在车辆上的安装高度以及车身的长度而改变,因此,不应理解为将本申请的范围限制于此。
在一些示例中,第二传感器12为距离传感器,例如,机械激光雷达,其采用机械旋转结构,通过旋转其激光发射器模块与接收器模块来扫描车辆周围的环境,由此获取本车辆的360°范围内的物体(例如,其他车辆、行人、障碍物等)距本车辆的第一距离,生成第一距离信息。
在一些示例中,第二传感器12的识别距离可约为200m,第二传感器12的水平视场角可约为180°,第二传感器12的垂直视场角可约为-25°至+15°。因此,第一距离信息可以为车辆周围的较远处的物体距本车辆的距离信息。在一些示例中,在兼顾降低第一子传感器模块1的高度并保证第一子传感器模块1中的各个传感器互不干扰、有效工作的情况下,第二传感器12可设置为尽可能地靠近多个第一传感器11所在的平面,例如,第二传感器12距多个第一传感器11所在的平面的距离可约为100mm-140mm,优选120mm。第二传感器12可具有第二环形视场区域边界12C,如图6至图8所示。根据第二传感器12在车辆上的安装高度和第一子传感器模块的大小(长×宽),第二环形视场区域边界12C距车辆的第二盲区距离d2至多为4m。大于第二环形视场区域边界12C的区域为第二传感器12的有效检测范围。第二传感器12可以是具有更大视场角的传感器,以进一步提高第二传感器12的检测范围。应注意的是,图6至图8中所示出的第二环形视场区域边界12C仅为示例,第二盲区距离d2可根据第二传感器12在车辆上的安装高度以及第一子传感器模块的大小而改变,因此,不应理解为将本申请的范围限制于此。
在一些示例中,第三传感器13为图像传感器,并且可设置为在多个传感器11所在的平面中相对于水平面向上倾斜约3°至7°,优选地,5°,以获取本车辆前方的特定高度的物体图像,例如,获取本车辆前方的关于交通灯的图像,以生成第二图像信息。在车辆行驶的过程中,第三传感器13每间隔一个较小的时间段(例如,10ms),可进行一次图像获取并生成第二图像信息,并将与第二图像信息有关的数据发送至图像数据处理中心进行交通灯的识别,从而确保自动驾驶车辆遵守交通规则。
第三传感器13的数量可以为1个或2个。在一些示例中,第三传感器13的识别距离可约为100m,第三传感器13的水平视场角可约为35°,第三传感器13的垂直视场角可约为15°。因此,第三传感器13可获取车辆在自动驾驶时道路前方的所有关于交通灯的信息,从而确保车辆能够在自动驾驶时始终遵守交通规则。
虽然图4中示出了根据本申请的6个第一传感器11和2个第三传感器13的布局示例以及图5中示出了根据本申请的4个第一传感器11和1个第三传感器13的布局示例,但其仅是示例,本申请不限于此,只要满足实现充分获取自动驾驶车辆的前方的交通灯的图像和车辆周围的360°的全景图像的功能,本领域技术人员可根据实际情况对第一传感器11和第三传感器13的布局进行各种改变。
根据本申请的实施例,通过将多个传感器11水平地布置在同一平面内、将第二传感器12设置为尽可能地靠近多个第一传感器11所在的平面以及将第三传感器13设置在多个第一传感器11所在的平面中,能够较大程度的缩小应用于L4及更高级别的无人驾驶车辆的车顶的第一子传感器模块1的高度。例如,现有技术中的车顶传感器模块的高度通常为400mm左右,而根据本申请的第一子传感器模块1的高度可仅为270mm。此外,根据本申请的第一子传感器模块1的设计,不仅可降低第一子传感器模块1的高度,还可减小第一子传感器模块1的大小,例如,第一子传感器模块1的大小可从现有技术中的(1200mm~1500mm)×(1000mm~1200mm)(长×宽)减小至800mm×800mm(长×宽),这极大地降低了位于车辆顶部的第一子传感器模块1的整体体积,从而降低了自动驾驶车辆的前进阻力,提升了自动驾驶车辆的美感。
此外,通过以上方式设置第一子传感器模块1,可在保证第一子传感器模块1中的不同的传感器的之间互不干扰或影响的情况下充分利用它们的检测范围和检测对象,由远及近地检测本车辆周围的环境信息。因此,根据本申请的第一子传感器模块1能够最大限度地利用其自身的有限空间同时保证多个传感器的有效检测。
在一些实施例中,第二子传感器模块2可包括第四传感器21和第五传感器22。第四传感器21和第五传感器22可以为距离传感器,例如,机械激光雷达或固态激光雷达,优选机械激光雷达,并且分别通过安装支座可拆卸地设置在本车辆的两侧的后视镜上。第四传感器21和第五传感器22可分别通过安装支座调整其与水平面的夹角,从而使得第二子传感器模块2可根据不同车辆的检测需求实现所需的检测范围。由于第四传感器21和第五传感器22通过安装支座可拆卸地安装在后视镜上,因此与现有技术相比,根据本申请的第二子传感器模块2的结构相对简单,不涉及复杂的车辆改装过程,同时有利于自动驾驶系统的安装、集成和后期的维护工作,并可节省设计、制造和维护成本。此外,根据本申请的安装支座可以是任意类型的安装支座,只要能够将第四传感器21和第五传感器22安装在车辆的后视镜上并可调整其相对于水平面的安装角度即可。
在一些示例中,第四传感器21和第五传感器22的识别距离可约为20m,第四传感器21和第五传感器22的水平视场角可约为180°,第四传感器21和第五传感器22的垂直视场角可约为-15°至+15°。因此,第四传感器21和第五传感器22可根据其相对于水平面的第一安装角度来生成相应的第二距离信息。
在一些示例中,第一安装角度的范围可在0°至-15°之间,第二距离信息可以为自动驾驶车辆的侧面的近处的物体距本车辆的距离信息,并具有第三视场区域边界2C,如图7所示。根据第四传感器21和第五传感器22在车辆上的第一安装角度,第三视场区域边界2C距车辆的第三盲区距离d3至多为0.5m。大于第三视场区域边界2C的区域为第四传感器21和第五传感器22的有效检测范围。此外,第四传感器21和第五传感器22可以是具有更大视场角的传感器,以进一步提高第二子传感器模块2的有效检测范围。应注意的是,图7中所示出的第三视场区域边界2C仅为示例,不应理解为将本申请的范围限制于此。
作为一个示例,相比于将第二子传感器模块设置在车顶传感器模块中的对比示例,本申请通过将第二子传感器模块2可拆卸地、灵活地设置于车辆的后视镜处,不仅可简化对车辆的改装设计,降低设计成本,还节省了第一子传感器模块1的空间并由此降低了第一子传感器模块1的高度,进而降低了第二子传感器模块2和第一子传感器模块1的各类传感器的盲区范围。例如,参照图9和图10,当第二子传感器模块2’设置在车顶传感器模块中时,车顶传感器模块的高度相应增加,从而致使第一传感器11’的第一环形视场边界11C’距车辆的第一盲区距离d’1约为2.5m并且第二传感器12’的第二环形视场区域边界12C’距车辆的第二盲区距离d’2约为6m,同时致使第二子传感器模块2’的第三视场区域边界2C’距车辆的第三盲区距离d’3约为1.2m,而根据本申请,d1至多为1.8m,d2至多为4m,d3至多为0.5m,这大大降低了传感器模块1的盲区的范围。
在一些实施例中,第三子传感器模块3可包括第六传感器31。第六传感器31可以为距离传感器,例如,固态激光雷达或机械激光雷达,优选固态激光雷达。第六传感器31可例如固定在本车辆的前部的保险杠的中央处。
在一些示例中,第六传感器31的识别距离可约为20m,第六传感器31的水平视场角可约为180°,第六传感器31的垂直视场角可约为-45°至+45°。因此,第六传感器31可根据其相对于水平面的第二安装角度来生成相应的第三距离信息。该第二安装角度的范围可在-15°至-25°之间,第三距离信息可以为自动驾驶车辆的前方的近处的物体的距离信息,并具有第四视场区域边界3C,如图6所示。根据第六传感器31在车辆上的第二安装角度,第四视场区域边界3C距车辆的第四盲区距离至多为0.2m。大于第四视场区域边界3C的区域为第六传感器31的有效检测范围。第六传感器31可以是具有更大视场角的传感器,以进一步提高第三子传感器模块3的检测范围。应注意的是,图6中所示出的第四视场区域边界3C仅为示例,不应理解为将本申请的范围限制于此。
针对车辆周围的距离信息,第一子传感器模块1的第二传感器12、第二子传感器模块2的第四传感器21和第五传感器22以及第三子传感器模块3的第六传感器31可在其各自的有效检测范围内共同生成本车辆周围的近处和远处的几乎所有物体的距离信息(例如,第一距离信息、第二距离信息和第三距离信息),从而为自动驾驶车辆提供有效的安全保障,最大程度地避免出现行驶过程中的盲区。此外,由于车辆在行驶过程中不进行倒退行驶,并且第一子传感器模块1的第一传感器11所生成的环境物体的图像信息(即,第一图像信息)和第二传感器12所生成的物体的距离信息(即,第一距离信息)可满足自动驾驶车辆的实际行驶需求,因此,可不在本车辆的尾部另外设置传感器,但本申请并不必然受限于此,可根据实际需求在车辆尾部设置另外的传感器。
作为一个示例,在车辆行驶的过程中,第一子传感器模块1的第二传感器12、第二子传感器模块2的第四传感器21和第五传感器22以及第三子传感器模块3的第六传感器31在一个很短的时间段内(例如,在10ms内)依次获取周围的物体的距离,生成相对应的距离信息,并将所生成的距离信息云数据传输至信息处理单元的点云数据处理中心进行数据过滤、拼接处理。由于信息处理单元的图像数据处理中心与点云数据处理中心是两个不同的子处理中心,因此图像数据处理中心和点云数据处理中心可同时从相应的传感器采集信息。在图像数据处理中心处理来自第一传感器11的与第一图像信息有关的原始数据以及点云数据处理中心处理来自第二传感器12的与第一距离信息有关的原始数据、来自第四传感器21和第五传感器22的与第二距离信息有关的原始数据以及来自第六传感器31的与第三距离有关的原始数据之后,图像数据处理中心和点云数据处理中心分别将处理后的数据发送至图形处理单元(GPU),GPU将两种处理后的数据进行融合处理,生成本车辆周围的具有颜色信息的实时三维立体环境模型,从而自动驾驶系统的控制中心可根据所生成的三维模型来获取自动驾驶车辆的行驶参数,例如,道路特征、驾驶特征、环境特征等,以例如实时控制自动驾驶车辆的速度、确定自动驾驶车辆是否变道、何时变道、是否转弯、何时转弯等,使得自动驾驶车辆能够在遵守交通规则的前提下避让其他车辆、行人或障碍物等,并能够避免自动驾驶车辆的速度在行驶过程中出现剧烈的变化,提高乘坐人员的舒适度。
根据本申请的传感器模块的结构设计,所有的传感器均可生成所安装区域需求的环境信息,并且不同的传感器之间相互补充。虽然不同的传感器的检测区域部分地重叠,但此种重叠有助于传感器检测冗余安全,提高传感器资源的利用率。
此外,与现有技术相比,根据本申请的传感器模块利用较少的传感器数量实现了对车辆周围的360°环境信息的监测。相对于现有技术,根据本申请的传感器模块结构简单,设计、制造、维护成本低,并且可提高自动驾驶车辆的美感。
根据本公开的各个实施例,本文所述的传感器模块可应用于各种自动驾驶系统,例如,辅助驾驶系统(例如,高级驾驶辅助系统)、无人驾驶系统等。
此外,根据本申请的另一实施例,提供一种车辆,该车辆包括如上所述的传感器模块100。
此外,根据本申请的又一实施例,提供一种自动驾驶系统。该自动驾驶系统包括:以上所述的传感器模块100,其采集本车辆周围的环境物体的图像信息和本车辆周围的物体距本车辆的距离信息;信息处理,其包括图像数据处理中心和云数据处理中心,图像数据处理中心从传感器模块100获取图像信息以进行处理,云数据处理中心从传感器模块100获取距离信息以进行处理;图形处理单元,其分别从图像数据处理中心和云数据处理中心获取处理后的图像信息和处理后的距离信息,进行融合处理,以生成本车辆周围的实时三维立体环境模型;以及控制中心,其根据所生成的本车辆周围的实时三维立体环境模型获取本车辆的行驶参数,例如,道路特征、驾驶特征、环境特征等,以控制本车辆的行驶,例如,车辆在平坦道路的速度、变道的速度和时机、转弯的速度和时间等,以保证车辆在自动驾驶时的安全性和舒适性。
本领域技术人员可以理解,图1至图8中示出的结构仅为示例,并不构成对本申请的方案应用于其他可移动设备上的限定。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (11)

1.一种传感器模块,所述传感器模块用于自动驾驶系统,包括:
第一子传感器模块,其设置在车辆的顶部,用于获取所述车辆周围的环境物体的图像和所述车辆周围的物体距所述车辆的第一距离,并生成图像信息和第一距离信息;
第二子传感器模块,其可拆卸地设置在所述车辆的两侧,用于获取所述车辆周围的物体距所述车辆的第二距离,并生成第二距离信息;以及
第三子传感器模块,其设置在所述车辆的前部的中央,用于获取所述车辆周围的物体距所述车辆的第三距离,并生成第三距离信息,
其中,所述第一子传感器模块包括多个第一传感器,所述多个第一传感器呈放射状等角间隔布置。
2.根据权利要求1所述的传感器模块,其特征在于,所述多个第一传感器相对于地面水平地设置在同一平面内,用于获取所述车辆周围的环境物体的图像,以生成所述图像信息中的第一图像信息,并且所述第一子传感器模块还包括:
第二传感器,其设置在所述第一子传感器模块的中央,用于生成所述第一距离信息;以及
至少一个第三传感器,其设置在所述第一子传感器模块的前侧的中部,并面向所述车辆的前方,用于获取所述车辆前方的交通灯的图像,以生成所述图像信息中的第二图像信息。
3.根据权利要求2所述的传感器模块,其特征在于,所述第三传感器设置为在设置有所述多个第一传感器11的平面中相对于水平面向上倾斜约3°至7°。
4.根据权利要求3所述的传感器模块,其特征在于,所述第三传感器设置为相对于水平面向上倾斜5°。
5.根据权利要求1所述的传感器模块,其特征在于,所述第二子传感器模块通过能调整其安装角度的安装支座设置在所述车辆的两侧的后视镜上。
6.根据权利要求1所述的传感器模块,其特征在于,所述第一传感器的数量为4个。
7.根据权利要求1所述的传感器模块,其特征在于,所述第一传感器的数量为6个。
8.根据权利要求2所述的传感器模块,其特征在于,所述第二传感器为机械激光雷达。
9.根据权利要求1所述的传感器模块,其特征在于,所述第二子传感器模块的传感器相对于水平面的第一安装角度的范围在0°至-15°之间,所述第三子传感器模块的传感器相对于水平面的第二安装角度的范围在-15°至-25°之间。
10.一种自动驾驶系统,包括:
根据权利要求1所述的传感器模块,其采集车辆周围的环境物体的图像信息和所述车辆周围的物体距所述车辆的距离信息;
信息处理单元,其包括图像数据处理中心和云数据处理中心,所述图像数据处理中心从所述传感器模块获取图像信息以进行处理,所述云数据处理中心从所述传感器模块获取距离信息以进行处理;
图形处理单元,其分别从所述图像数据处理中心和所述云数据处理中心获取处理后的所述图像信息和处理后的所述距离信息,进行融合处理,以生成所述车辆周围的实时三维立体环境模型;以及
控制中心,其根据所生成的所述车辆周围的实时三维立体环境模型获取所述车辆的行驶参数,以控制所述车辆的行驶。
11.一种车辆,包括根据权利要求1所述的传感器模块。
CN202080007594.2A 2020-05-20 2020-05-20 传感器模块及包括其的自动驾驶系统和车辆 Pending CN113287076A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2020/091220 WO2021232274A1 (zh) 2020-05-20 2020-05-20 传感器模块及包括其的自动驾驶系统和车辆

Publications (1)

Publication Number Publication Date
CN113287076A true CN113287076A (zh) 2021-08-20

Family

ID=77275571

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080007594.2A Pending CN113287076A (zh) 2020-05-20 2020-05-20 传感器模块及包括其的自动驾驶系统和车辆

Country Status (2)

Country Link
CN (1) CN113287076A (zh)
WO (1) WO2021232274A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114261340A (zh) * 2021-12-02 2022-04-01 智己汽车科技有限公司 一种汽车固态激光雷达后视镜与汽车

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114719867B (zh) * 2022-05-24 2022-09-02 北京捷升通达信息技术有限公司 一种基于传感器的车辆导航方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170038466A1 (en) * 2013-09-10 2017-02-09 Scania Cv Ab Detection of an object by use of a 3d camera and a radar
CN107103655A (zh) * 2017-05-23 2017-08-29 郑州云海信息技术有限公司 基于云计算的汽车驾驶互助系统及方法
CN109116846A (zh) * 2018-08-29 2019-01-01 五邑大学 一种自动驾驶方法、装置、计算机设备和存储介质
CN109515448A (zh) * 2018-12-12 2019-03-26 安徽江淮汽车集团股份有限公司 一种自动驾驶传感器布置方法和结构
CN110386073A (zh) * 2019-07-12 2019-10-29 深圳元戎启行科技有限公司 无人驾驶汽车车顶传感器集成装置及无人驾驶汽车
CN209955874U (zh) * 2019-03-08 2020-01-17 深圳市大疆创新科技有限公司 一种车辆以及用于安装于车辆的侧后视镜
CN210554536U (zh) * 2019-06-25 2020-05-19 白犀牛智达(北京)科技有限公司 一种自动驾驶汽车

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11495877B2 (en) * 2018-08-17 2022-11-08 Metawave Corporation Multi-layer, multi-steering antenna system for autonomous vehicles

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170038466A1 (en) * 2013-09-10 2017-02-09 Scania Cv Ab Detection of an object by use of a 3d camera and a radar
CN107103655A (zh) * 2017-05-23 2017-08-29 郑州云海信息技术有限公司 基于云计算的汽车驾驶互助系统及方法
CN109116846A (zh) * 2018-08-29 2019-01-01 五邑大学 一种自动驾驶方法、装置、计算机设备和存储介质
CN109515448A (zh) * 2018-12-12 2019-03-26 安徽江淮汽车集团股份有限公司 一种自动驾驶传感器布置方法和结构
CN209955874U (zh) * 2019-03-08 2020-01-17 深圳市大疆创新科技有限公司 一种车辆以及用于安装于车辆的侧后视镜
CN210554536U (zh) * 2019-06-25 2020-05-19 白犀牛智达(北京)科技有限公司 一种自动驾驶汽车
CN110386073A (zh) * 2019-07-12 2019-10-29 深圳元戎启行科技有限公司 无人驾驶汽车车顶传感器集成装置及无人驾驶汽车

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114261340A (zh) * 2021-12-02 2022-04-01 智己汽车科技有限公司 一种汽车固态激光雷达后视镜与汽车

Also Published As

Publication number Publication date
WO2021232274A1 (zh) 2021-11-25

Similar Documents

Publication Publication Date Title
US10479274B2 (en) Vehicle and control method for the same
US10077007B2 (en) Sidepod stereo camera system for an autonomous vehicle
CN111373333A (zh) 用于自主半卡车的传感器配置
US10331963B2 (en) Camera apparatus and in-vehicle system capturing images for vehicle tasks
CN107176165B (zh) 车辆的控制装置
KR102201290B1 (ko) 차량용 디스플레이 장치 및 차량
JP6332384B2 (ja) 車両用物標検出システム
EP3990330B1 (en) Maintaining road safety when there is a disabled autonomous vehicle
KR102649924B1 (ko) 주변 센서 하우징
US8145413B2 (en) Perimeter monitor
KR102665624B1 (ko) 근접 감지 카메라 시스템
JP7310524B2 (ja) 遠隔自動運転車両、及び車両遠隔指示システム
KR20180095660A (ko) 자동차 상의 라이다 스캐닝 장치
JP6384534B2 (ja) 車両用物標検出システム
JP6332383B2 (ja) 車両用物標検出システム
CN104115198A (zh) 车辆合流辅助系统和方法
CN111221342A (zh) 一种自动驾驶汽车环境感知系统
CN210554536U (zh) 一种自动驾驶汽车
CN113287076A (zh) 传感器模块及包括其的自动驾驶系统和车辆
US20220080829A1 (en) Vehicle image processing device and method for displaying visual information on display included in vehicle
KR101936629B1 (ko) 차량 및 그 제어방법
CN114492679B (zh) 一种车辆数据处理方法、装置、电子设备及介质
JP2008165610A (ja) 道路区画線認識装置
JP7244562B2 (ja) 移動体の制御装置及び制御方法並びに車両
CN114348018A (zh) 商用车辆的自动驾驶系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210820