WO2020170678A1 - 車両用センシングシステム及び車両 - Google Patents

車両用センシングシステム及び車両 Download PDF

Info

Publication number
WO2020170678A1
WO2020170678A1 PCT/JP2020/001731 JP2020001731W WO2020170678A1 WO 2020170678 A1 WO2020170678 A1 WO 2020170678A1 JP 2020001731 W JP2020001731 W JP 2020001731W WO 2020170678 A1 WO2020170678 A1 WO 2020170678A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
lidar unit
lidar
sensing system
unit
Prior art date
Application number
PCT/JP2020/001731
Other languages
English (en)
French (fr)
Inventor
良明 相磯
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to US17/431,972 priority Critical patent/US20220206153A1/en
Priority to CN202080014924.0A priority patent/CN113454418A/zh
Priority to JP2021501713A priority patent/JPWO2020170678A1/ja
Publication of WO2020170678A1 publication Critical patent/WO2020170678A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/004Arrangements for holding or mounting articles, not otherwise provided for characterised by position outside the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles

Definitions

  • the present disclosure relates to a vehicle sensing system and a vehicle.
  • the vehicle system automatically controls the traveling of the vehicle. Specifically, in the automatic driving mode, the vehicle system performs steering control based on information (surrounding environment information) indicating the surrounding environment of the vehicle obtained from sensors such as cameras and radars (for example, laser radar and millimeter wave radar). At least one of (control of traveling direction of vehicle), brake control and accelerator control (control of vehicle braking, acceleration/deceleration) is automatically performed.
  • the driver controls the traveling of the vehicle, as is the case with most conventional vehicles.
  • the traveling of the vehicle is controlled in accordance with the driver's operation (steering operation, braking operation, accelerator operation), and the vehicle system does not automatically perform steering control, brake control and accelerator control.
  • the driving mode of the vehicle is not a concept that exists only in some vehicles, but a concept that exists in all vehicles including conventional vehicles that do not have an automatic driving function. It is classified according to the method.
  • Patent Document 1 discloses an automatic following system in which a following vehicle automatically follows a preceding vehicle.
  • each of the preceding vehicle and the following vehicle is provided with an illumination system, and character information for preventing another vehicle from interrupting between the preceding vehicle and the following vehicle is added to the illumination system of the preceding vehicle.
  • the character information indicating that the vehicle is automatically following is displayed on the illumination system of the following vehicle.
  • the plurality of sensors do not affect the shadow of other vehicles existing in the vicinity of the vehicle. It is not possible to detect objects such as pedestrians and motorcycles hidden behind. For example, it is assumed that a pedestrian who is hidden behind another vehicle suddenly jumps out in front of the own vehicle. Even in such a situation, the self-driving vehicle needs to instantly determine the optimum vehicle control according to the behavior of the pedestrian.
  • the present disclosure aims to provide a vehicle sensing system and a vehicle that can detect an object hidden behind another vehicle.
  • a vehicular sensing system is provided in a vehicle, is disposed on a back surface of a vehicle body that faces a road, and is configured to acquire point cloud data indicating a surrounding environment of the vehicle. It comprises at least one LiDAR unit.
  • the LiDAR unit since the LiDAR unit is arranged on the back surface of the vehicle body, the LiDAR unit targets objects such as pedestrians and other vehicles existing around the vehicle through the space between the back surface of the vehicle body and the road. It becomes possible to detect. Therefore, the LiDAR unit can detect objects such as pedestrians and motorcycles hidden behind other vehicles through the space between the back surface of the body of the other vehicle and the road.
  • the vehicle sensing system further includes at least one camera that is arranged at a predetermined position of the vehicle body other than the back surface of the vehicle body and that is configured to acquire image data indicating the surrounding environment of the vehicle. Good.
  • the surrounding environment of the vehicle which cannot be detected by the LiDAR unit, can be detected by the camera arranged at a predetermined position on the vehicle body other than the back surface of the vehicle body.
  • the camera arranged at a predetermined position on the vehicle body other than the back surface of the vehicle body.
  • the vehicle sensing system may further include a LiDAR control unit configured to acquire the surrounding environment information of the vehicle based on the point cloud data acquired from the LiDAR unit.
  • the LiDAR control unit may be configured to delete information about the vehicle tire from the surrounding environment information.
  • the information regarding the tire of the vehicle is deleted from the surrounding environment information, so that it is possible to prevent the situation where the tire is detected as an object existing around the vehicle.
  • the at least one LiDAR unit comprises A front LiDAR unit arranged near the rear ends of a pair of front tires of the vehicle in the front-rear direction of the vehicle, and arranged near the center of the vehicle in the left-right direction of the vehicle;
  • a rear LiDAR unit may be arranged near the rear ends of a pair of rear tires of the vehicle in the front-rear direction and near the center of the vehicle in the left-right direction.
  • a vehicle equipped with a vehicle sensing system may be provided.
  • FIG. 1A is a plan view of a vehicle according to an embodiment of the present invention (hereinafter, simply referred to as the present embodiment) viewed from above.
  • (B) is a plan view of the vehicle according to the present embodiment as seen from below. It is a block diagram showing a vehicle system concerning this embodiment. It is a figure which shows the pedestrian and the motorcycle which exist in the blind spot of the vehicle which concerns on this embodiment.
  • lateral direction”, “vertical direction”, and “front-back direction” may be referred to as appropriate. These directions are the relative directions set for the vehicle 1 shown in FIG.
  • the “left-right direction” is a direction including the “left direction” and the “right direction”.
  • “Up-down direction” is a direction that includes “upward” and “downward”.
  • the “front-rear direction” is a direction including the “front direction” and the “rear direction”.
  • the up-down direction is a direction orthogonal to the left-right direction and the front-back direction.
  • FIG. 1A is a plan view of the vehicle 1 viewed from above.
  • FIG. 1B is a plan view of the vehicle 1 viewed from below.
  • FIG. 2 is a block diagram showing the vehicle system 2 of the vehicle 1.
  • the vehicle 1 is a vehicle (automobile) capable of traveling in an automatic driving mode, and includes a vehicle system 2.
  • the vehicle system 2 includes a vehicle control unit 3, a front camera 4, a rear camera 5, a front LiDAR (Light Detection and Ranging) unit 6, and a rear LiDAR unit 7.
  • the vehicle system 2 also includes a sensor 18, an HMI (Human Machine Interface) 8, a GPS (Global Positioning System) 9, a wireless communication unit 10, and a storage device 11.
  • the vehicle system 2 includes a steering actuator 12, a steering device 13, a brake actuator 14, a brake device 15, an accelerator actuator 16, and an accelerator device 17.
  • the front camera 4, the rear camera 5, the front LiDAR unit 6, the rear LiDAR unit 7, and the vehicle control unit 3 configure the vehicle sensing system 20 (hereinafter, simply referred to as “sensing system”). ) Is configured. In this way, the sensing system 20 has the sensing function of the vehicle system 2.
  • the vehicle control unit 3 is configured to control the traveling of the vehicle 1.
  • the vehicle control unit 3 is composed of, for example, at least one electronic control unit (ECU: Electronic Control Unit).
  • the electronic control unit includes a computer system (for example, SoC (System on a Chip)) including one or more processors and one or more memories, and an electronic circuit including active elements such as transistors and passive elements.
  • the processor includes, for example, at least one of a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and a TPU (Tensor Processing Unit).
  • the CPU may be composed of a plurality of CPU cores.
  • the GPU may be composed of a plurality of GPU cores.
  • the memory includes a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • a vehicle control program may be stored in the ROM.
  • the vehicle control program may include an artificial intelligence (AI) program for autonomous driving.
  • the AI program is a program (learned model) constructed by supervised or unsupervised machine learning (especially deep learning) using a multilayer neural network.
  • the RAM may temporarily store a vehicle control program, vehicle control data, and/or surrounding environment information indicating a surrounding environment of the vehicle.
  • the processor may be configured to develop a program designated from various vehicle control programs stored in the ROM on the RAM and execute various processes in cooperation with the RAM.
  • the computer system may be configured by a non-Neumann type computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array). Further, the computer system may be configured by a combination of a Neumann type computer and a non-Neumann type computer.
  • a non-Neumann type computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).
  • the computer system may be configured by a combination of a Neumann type computer and a non-Neumann type computer.
  • the vehicle control unit 3 functions as a camera control unit configured to control the front camera 4 and the rear camera 5, and LiDAR control configured to control the front LiDAR unit 6 and the rear LiDAR unit 7. Function as a department.
  • the vehicle control unit 3 is configured to acquire the surrounding environment information in the front area of the vehicle 1 based on the image data transmitted from the front camera 4 and/or the point cloud data transmitted from the front LiDAR unit 6. Has been done.
  • the vehicle control unit 3 is configured to acquire the surrounding environment information in the rear area of the vehicle 1 based on the image data transmitted from the rear camera 5 and/or the point cloud data transmitted from the rear LiDAR unit 7.
  • the surrounding environment information may include information about an object existing outside the vehicle 1.
  • the surrounding environment information may include information on the attribute of the target object and information on the distance, direction, and/or position of the target object with respect to the vehicle 1.
  • the front camera 4 is arranged on the front side of the front surface 51 of the vehicle body 50, as shown in FIG.
  • the vehicle body 50 refers to the portion of the vehicle 1 excluding the tires 22 and 26 shown in FIG.
  • the front camera 4 is configured to acquire image data indicating the surrounding environment in the front area of the vehicle 1.
  • the rear camera 5 is arranged on the rear side of the front surface 51 of the vehicle body 50.
  • the rear camera 5 is configured to acquire image data showing the surrounding environment in the rear area of the vehicle 1.
  • the front camera 4 and the rear camera 5 include image pickup devices such as a CCD (Charge-Coupled Device) and a CMOS (Complementary MOS: Metal Oxide Semiconductor).
  • the front camera 4 and the rear camera 5 may be configured as a monocular camera or a stereo camera.
  • the front LiDAR unit 6 and the rear LiDAR unit 7 each have a flight time of a laser beam (light pulse) at each emission angle (horizontal angle ⁇ , vertical angle ⁇ ) of the laser beam.
  • TOF Time of Flight
  • the LiDAR unit can acquire information regarding the distance D between the LiDAR unit and an object existing outside the vehicle 1 at each emission angle based on the information regarding the flight time ⁇ T1 at each emission angle.
  • Flight time ⁇ T1 time t1 when the laser beam returns to the LiDAR unit 1-time t0 when the LiDAR unit emits the laser beam In this way, the LiDAR unit can acquire the point cloud data indicating the surrounding environment of the vehicle 1.
  • the LiDAR unit includes, for example, a light emitting unit configured to emit laser light, an optical deflector configured to scan the laser light in the horizontal direction and the vertical direction, and an optical system such as a lens. And a light receiving section configured to receive the laser beam reflected by the object.
  • the peak wavelength of the laser light emitted from the light emitting section is not particularly limited.
  • the laser light may be invisible light (infrared light) having a peak wavelength near 900 nm.
  • the light emitting unit is, for example, a laser diode.
  • the optical deflector is, for example, a MEMS (Micro Electro Mechanical Systems) mirror or a polygon mirror.
  • the light receiving unit is, for example, a photodiode.
  • the LIDAR unit may acquire the point cloud data without scanning the laser light with the light deflector.
  • the LiDAR unit may acquire point cloud data by a phased array method or a flash method. Further, the LiDAR unit may acquire the point cloud data by mechanically rotating the light emitting unit and the light receiving unit.
  • the front LiDAR unit 6 is configured to acquire point cloud data indicating the surrounding environment in the front area of the vehicle 1. As shown in FIG. 1B, the front LiDAR unit 6 is arranged on the back surface 52 of the vehicle body 50 facing the road. In particular, the front LiDAR unit 6 is arranged near the rear ends of the pair of front tires 22 in the front-rear direction of the vehicle 1 and near the center of the vehicle 1 in the left-right direction of the vehicle 1. More specifically, the front LiDAR unit 6 is arranged in the vicinity of a virtual line L2 passing through the rear ends of the pair of front tires 22 in the front-rear direction, and on the virtual line L1 passing through the center of the vehicle 1 in the left-right direction. Will be placed. For example, when the outer diameter of the front LiDAR unit 6 is 100 mm, the center axis 6x of the front LiDAR unit 6 may be located at a position 50 mm rearward from the imaginary line L2.
  • the rear LiDAR unit 7 is configured to acquire the point cloud data indicating the surrounding environment in the rear area of the vehicle 1.
  • the rear LiDAR unit 7 is arranged on the back surface 52 of the vehicle body 50.
  • the rear LiDAR unit 7 is arranged near the rear ends of the pair of rear tires 26 in the front-rear direction and near the center of the vehicle 1 in the left-right direction.
  • the rear LiDAR unit 7 is arranged near the virtual line L3 passing through the rear ends of the pair of rear tires 26 in the front-rear direction and also on the virtual line L1.
  • the center axis 7x of the rear LiDAR unit 7 may be located 50 mm rearward from the imaginary line L3.
  • the point cloud data acquired by the front LiDAR unit 6 and the rear LiDAR unit 7 includes a pair of front tires 22 as an object. And a pair of rear tires 26 are shown. Therefore, when the vehicle control unit 3 that functions as the LiDAR control unit acquires the surrounding environment information of the vehicle 1 based on the received point cloud data, the pair of front tires 22 and the pair of rear tires 26 are acquired from the surrounding environment information. Configured to remove information about. In this way, since the information on the front tire 22 and the rear tire 26 of the vehicle 1 is deleted from the surrounding environment information, it is possible to prevent a situation in which these tires are detected as objects existing around the vehicle 1.
  • the front LiDAR unit 6 and the rear LiDAR unit 7 are arranged on the back surface 52 of the vehicle body 50. It is possible to detect pedestrians, other vehicles, and the like existing around the vehicle 1 through the space between them. For example, as shown in FIG. 3, the front LiDAR unit 6 or the rear LiDAR unit 7 mounted on the vehicle 1 passes through a space between the vehicle 1 and the road R and a space between the front vehicle 1C and the road R, The pedestrian P hidden behind the vehicle 1C in front can be detected. Further, the front LiDAR unit 6 or the rear LiDAR unit 7 detects the motorcycle B hidden behind the front vehicle 1B through the space between the vehicle 1 and the road R and the space between the front vehicle 1B and the road R. be able to. In this way, it is possible to provide the sensing system 20 and the vehicle 1 that can detect an object hidden behind another vehicle.
  • the vehicle control unit 3 can acquire the information about the front vehicles 1C and 1B based on the image data acquired by the front camera 4, while the pedestrian located in the blind spot of the front camera 4 Unable to get information about P and Bike B.
  • the vehicle control unit 3 can acquire information regarding the pedestrian P and the motorcycle B based on the point cloud data acquired by the front LiDAR unit 6 or the rear LiDAR unit 7. As described above, by using both the point cloud data and the image data, it is possible to improve the detection accuracy of the surrounding environment of the vehicle 1.
  • the front LiDAR unit 6 is arranged near the virtual line L2 and on the virtual line L1
  • the rear LiDAR unit 7 is near the virtual line L3 and on the virtual line L1. It is located in. Therefore, when the two LiDAR units are arranged on the back surface 52, it is possible to reduce the blind spot of the detection region formed by the two LiDAR units in the rear region of the vehicle 1.
  • the front LiDAR unit 6 is near the imaginary line L4 passing through the front ends of the pair of front tires 22, It may be arranged on the line L1.
  • the rear LiDAR unit 7 may be arranged near the virtual line L5 passing through the front ends of the pair of rear tires 26 and on the virtual line L1.
  • another LiDAR unit may be arranged on the back surface 52.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

車両(1)に設けられた車両用センシングシステムは、前方LiDARユニット(6)と後方LiDARユニット(7)とを備える。前方LiDARユニット(6)と後方LiDARユニット(7)は、道路と対向する車体(50)の裏面(52)に配置されると共に、車両(1)の周辺環境を示す点群データを取得するように構成されている。

Description

車両用センシングシステム及び車両
 本開示は、車両用センシングシステム及び車両に関する。
 現在、自動車の自動運転技術の研究が各国で盛んに行われており、自動運転モードで車両(以下、「車両」は自動車のことを指す。)が公道を走行することができるための法整備が各国で検討されている。ここで、自動運転モードでは、車両システムが車両の走行を自動的に制御する。具体的には、自動運転モードでは、車両システムは、カメラ、レーダ(例えば、レーザレーダやミリ波レーダ)等のセンサから得られる車両の周辺環境を示す情報(周辺環境情報)に基づいてステアリング制御(車両の進行方向の制御)、ブレーキ制御及びアクセル制御(車両の制動、加減速の制御)のうちの少なくとも1つを自動的に行う。一方、以下に述べる手動運転モードでは、従来型の車両の多くがそうであるように、運転者が車両の走行を制御する。具体的には、手動運転モードでは、運転者の操作(ステアリング操作、ブレーキ操作、アクセル操作)に従って車両の走行が制御され、車両システムはステアリング制御、ブレーキ制御及びアクセル制御を自動的に行わない。尚、車両の運転モードとは、一部の車両のみに存在する概念ではなく、自動運転機能を有さない従来型の車両も含めた全ての車両において存在する概念であって、例えば、車両制御方法等に応じて分類される。
 このように、将来において、公道上では自動運転モードで走行中の車両(以下、適宜、「自動運転車」という。)と手動運転モードで走行中の車両(以下、適宜、「手動運転車」という。)が混在することが予想される。
 自動運転技術の一例として、特許文献1には、先行車に後続車が自動追従走行した自動追従走行システムが開示されている。当該自動追従走行システムでは、先行車と後続車の各々が照明システムを備えており、先行車と後続車との間に他車が割り込むことを防止するための文字情報が先行車の照明システムに表示されると共に、自動追従走行である旨を示す文字情報が後続車の照明システムに表示される。
日本国特開平9-277887号公報
 ところで、自動運転技術の発展において、車両の周辺環境の検出精度を飛躍的に増大させる必要がある。この点において、車両に複数の異なる種類のセンサ(例えば、カメラ、LiDARユニット、ミリ波レーダ等)を搭載することが現在検討されている。例えば、車両の前面及び後面の各々にLiDARユニットとカメラを搭載することが現在検討されている。
 一方で、車両の全周囲(360度)における周辺環境を検出できるように複数のセンサが車両に配置された場合であっても、当該複数のセンサでは当該車両の周辺に存在する他車両の陰に隠れた歩行者や自動二輪車等の対象物を検出することができない。例えば、他車両の陰に隠れた歩行者が自車の前方に突然飛び出してくる状況も想定される。このような状況についても、自動運転車は、歩行者の挙動に応じた最適な車両制御を瞬時に判断する必要がある。
 上記観点を考慮した上で、本開示は、他車両の陰に隠れた対象物を検出可能な車両用センシングシステム及び車両を提供することを目的とする。
 本開示の一態様の車両用センシングシステムは、車両に設けられており、道路と対向する車体の裏面に配置されると共に、前記車両の周辺環境を示す点群データを取得するように構成された少なくとも一つのLiDARユニットを備える。
 上記構成によれば、LiDARユニットが車体の裏面に配置されているため、LiDARユニットは、車体の裏面と道路との間の空間を通じて車両の周辺に存在する歩行者や他車両等の対象物を検出することが可能となる。このため、LiDARユニットは、他車両の陰に隠れた歩行者や自動二輪車等の対象物を他車両の車体の裏面と道路との間の空間を通じて検出することができる。
 また、車両用センシングシステムは、前記車体の裏面以外の前記車体の所定箇所に配置されると共に、前記車両の周辺環境を示す画像データを取得するように構成された少なくとも一つのカメラをさらに備えてもよい。
 上記構成によれば、車体の裏面以外の車体の所定箇所に配置されたカメラによって、LiDARユニットによって検出できない車両の周辺環境を検出することができる。このように、点群データと画像データの両方を用いることで、車両の周辺環境の検出精度を向上させることが可能となる。
 また、車両用センシングシステムは、前記LiDARユニットから取得された点群データに基づいて、前記車両の周辺環境情報を取得するように構成されたLiDAR制御部をさらに備えもよい。前記LiDAR制御部は、前記周辺環境情報から前記車両のタイヤに関する情報を削除するように構成されてもよい。
 上記構成によれば、周辺環境情報から車両のタイヤに関する情報が削除されるため、タイヤが車両の周辺に存在する対象物として検出される状況を防ぐことができる。
 また、前記少なくとも一つのLiDARユニットは、
 前記車両の前後方向において前記車両の一対の前方タイヤの後端の付近に配置されると共に、前記車両の左右方向において前記車両の中央付近に配置された前方LiDARユニットと、
 前記前後方向において前記車両の一対の後方タイヤの後端の付近に配置されると共に、前記左右方向において前記車両の中央付近に配置された後方LiDARユニットと、を含んでもよい。
 上記構成によれば、2つのLiDARユニットを車両の裏面上に配置する場合において、車両の後方領域におけるLiDARユニットの死角を減らすことが可能となる。
 また、車両用センシングシステムを備えた車両が提供されてもよい。
 上記によれば、他車両の陰に隠れた対象物を検出可能な車両を提供することができる。
 本開示によれば、他車両の陰に隠れた対象物を検出可能な車両用センシングシステム及び車両を提供することができる。
(a)は、本発明の実施形態(以下、単に本実施形態という。)に係る車両を上から見た平面図である。(b)は、本実施形態に係る車両を下から見た平面図である。 本実施形態に係る車両システムを示すブロック図である。 本実施形態に係る車両の死角に存在する歩行者及びバイクを示す図である。
 以下、本発明の実施形態(以下、本実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
 また、本実施形態の説明では、説明の便宜上、「左右方向」、「上下方向」、「前後方向」について適宜言及する場合がある。これらの方向は、図1に示す車両1について設定された相対的な方向である。ここで、「左右方向」は、「左方向」及び「右方向」を含む方向である。「上下方向」は、「上方向」及び「下方向」を含む方向である。「前後方向」は、「前方向」及び「後方向」を含む方向である。上下方向は、図1では示されていないが、左右方向及び前後方向に直交する方向である。
 最初に、図1及び図2を参照して、本実施形態に係る車両1及び車両システム2について以下に説明する。図1(a)は、車両1を上から見た平面図である。図1(b)は、車両1を下から見た平面図である。図2は、車両1の車両システム2を示すブロック図である。
 車両1は、自動運転モードで走行可能な車両(自動車)であって、車両システム2を備える。図2に示すように、車両システム2は、車両制御部3と、前方カメラ4と、後方カメラ5と、前方LiDAR(Light Detection and Ranging)ユニット6と、後方LiDARユニット7とを備える。また、車両システム2は、センサ18と、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、記憶装置11とを備える。さらに、車両システム2は、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備える。
 また、本実施形態では、前方カメラ4と、後方カメラ5と、前方LiDARユニット6と、後方LiDARユニット7と、車両制御部3とによって車両用センシングシステム20(以下、単に「センシングシステム」という。)が構成される。このように、センシングシステム20は、車両システム2のセンシング機能を担っている。
 車両制御部3は、車両1の走行を制御するように構成されている。車両制御部3は、例えば、少なくとも一つの電子制御ユニット(ECU:Electronic Control Unit)により構成されている。電子制御ユニットは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC(System on a Chip)等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)及びTPU(Tensor Processing Unit)のうちの少なくとも一つを含む。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROM(Read Only Memory)と、RAM(Random Access Memory)を含む。ROMには、車両制御プログラムが記憶されてもよい。例えば、車両制御プログラムは、自動運転用の人工知能(AI)プログラムを含んでもよい。AIプログラムは、多層のニューラルネットワークを用いた教師有り又は教師なし機械学習(特に、ディープラーニング)によって構築されたプログラム(学習済みモデル)である。RAMには、車両制御プログラム、車両制御データ及び/又は車両の周辺環境を示す周辺環境情報が一時的に記憶されてもよい。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。また、コンピュータシステムは、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等の非ノイマン型コンピュータによって構成されてもよい。さらに、コンピュータシステムは、ノイマン型コンピュータと非ノイマン型コンピュータの組み合わせによって構成されてもよい。
 また、車両制御部3は、前方カメラ4と後方カメラ5を制御するように構成されたカメラ制御部として機能すると共に、前方LiDARユニット6と後方LiDARユニット7を制御するように構成されたLiDAR制御部として機能する。特に、車両制御部3は、前方カメラ4から送信された画像データ及び/又は前方LiDARユニット6から送信された点群データに基づいて、車両1の前方領域における周辺環境情報を取得するように構成されている。また、車両制御部3は、後方カメラ5から送信された画像データ及び/又は後方LiDARユニット7から送信された点群データに基づいて、車両1の後方領域における周辺環境情報を取得するように構成されている。ここで、周辺環境情報とは、車両1の外部に存在する対象物に関する情報を含んでもよい。例えば、周辺環境情報は、当該対象物の属性に関する情報と、車両1に対する対象物の距離、方向及び/又は位置に関する情報を含んでもよい。
 前方カメラ4は、図1(a)に示すように、車体50の表面51の前方側に配置されている。ここで、車体50とは、図1(b)に示すタイヤ22,26を除く車両1の部分を指すものとする。また、前方カメラ4は、車両1の前方領域における周辺環境を示す画像データを取得するように構成されている。後方カメラ5は、車体50の表面51の後方側に配置されている。後方カメラ5は、車両1の後方領域における周辺環境を示す画像データを取得するように構成されている。前方カメラ4及び後方カメラ5は、CCD(Charge-Coupled Device)やCMOS(相補型MOS:Metal Oxide Semiconductor)等の撮像素子を含む。前方カメラ4及び後方カメラ5は、単眼カメラとしても構成されてもよいし、ステレオカメラとして構成されてもよい。
 前方LiDARユニット6及び後方LiDARユニット7(以下、単に「LiDARユニット」という場合がある。)は、レーザ光の各出射角度(水平角度θ、垂直角度φ)におけるレーザ光(光パルス)の飛行時間(TOF:Time of Flight)ΔT1に関する情報を取得する。LiDARユニットは、各出射角度における飛行時間ΔT1に関する情報に基づいて、各出射角度におけるLiDARユニットと車両1の外部に存在する物体との間の距離Dに関する情報を取得することができる。
 
   飛行時間ΔT1=レーザ光がLiDARユニットに戻ってきた時刻t1-LiDARユニットがレーザ光を出射した時刻t0
 
 このように、LiDARユニットは、車両1の周辺環境を示す点群データを取得することができる。
 また、LiDARユニットは、例えば、レーザ光を出射するように構成された発光部と、レーザ光を水平方向及び垂直方向に走査させるように構成された光偏向器と、レンズ等の光学系と、物体によって反射されたレーザ光を受光するように構成された受光部とを備える。発光部から出射されるレーザ光のピーク波長は特に限定されない。例えば、レーザ光は、ピーク波長が900nm付近である非可視光(赤外線)であってもよい。発光部は、例えば、レーザダイオードである。光偏向器は、例えば、MEMS(Micro Electro Mechanical Systems)ミラー又はポリゴンミラーである。受光部は、例えば、フォトダイオードである。尚、LIDARユニットは、光偏向器によってレーザ光を走査せずに、点群データを取得してもよい。例えば、LiDARユニットは、フェイズドアレイ方式又はフラッシュ方式で点群データを取得してもよい。また、LiDARユニットは、発光部と受光部を機械的に回転駆動させることで点群データを取得してもよい。
 前方LiDARユニット6は、車両1の前方領域における周辺環境を示す点群データを取得するように構成されている。図1(b)に示すように、前方LiDARユニット6は、道路と対向する車体50の裏面52に配置される。特に、前方LiDARユニット6は、車両1の前後方向において一対の前方タイヤ22の後端の付近に配置されると共に、車両1の左右方向において車両1の中央付近に配置される。より具体的には、前方LiDARユニット6は、前後方向において一対の前方タイヤ22の後端を通る仮想線L2の付近に配置されると共に、左右方向における車両1の中心を通る仮想線L1上に配置される。例えば、前方LiDARユニット6の外径が100mmである場合、前方LiDARユニット6の中心軸6xは、仮想線L2から後方に50mm離れた場所に位置してもよい。
 後方LiDARユニット7は、車両1の後方領域における周辺環境を示す点群データを取得するように構成されている。後方LiDARユニット7は、車体50の裏面52に配置される。特に、後方LiDARユニット7は、前後方向において一対の後方タイヤ26の後端の付近に配置されると共に、左右方向において車両1の中央付近に配置される。より具体的には、後方LiDARユニット7は、前後方向において一対の後方タイヤ26の後端を通る仮想線L3の付近に配置されると共に、仮想線L1上に配置される。例えば、後方LiDARユニット7の外径が100mmである場合、後方LiDARユニット7の中心軸7xは、仮想線L3から後方に50mm離れた場所に位置してもよい。
 前方LiDARユニット6及び後方LiDARユニット7は、車体50の裏面52に配置されているため、前方LiDARユニット6及び後方LiDARユニット7によって取得された点群データには、対象物として一対の前方タイヤ22と一対の後方タイヤ26が示されてしまう。このため、LiDAR制御部として機能する車両制御部3は、受信した点群データに基づいて車両1の周辺環境情報を取得する際に、周辺環境情報から一対の前方タイヤ22と一対の後方タイヤ26に関する情報を削除するように構成されている。このように、周辺環境情報から車両1の前方タイヤ22及び後方タイヤ26に関する情報が削除されるため、これらのタイヤが車両1の周辺に存在する対象物として検出される状況を防ぐことができる。
 このように、本実施形態によれば、前方LiDARユニット6及び後方LiDARユニット7が車体50の裏面52に配置されているため、前方LiDARユニット6及び後方LiDARユニット7は、裏面52と道路との間の空間を通じて車両1の周辺に存在する歩行者や他車両等を検出することが可能となる。例えば、図3に示すように、車両1に搭載された前方LiDARユニット6又は後方LiDARユニット7は、車両1と道路Rとの間の空間及び前方車両1Cと道路Rとの間の空間を通じて、前方車両1Cの陰に隠れた歩行者Pを検出することができる。さらに、前方LiDARユニット6又は後方LiDARユニット7は、車両1と道路Rとの間の空間及び前方車両1Bと道路Rとの間の空間を通じて、前方車両1Bの陰に隠れたバイクBを検出することができる。このように、他車両の陰に隠れた対象物を検出可能なセンシングシステム20及び車両1を提供することができる。
 この点において、車両制御部3は、前方カメラ4によって取得された画像データに基づいて、前方車両1C,1Bの関する情報を取得することができる一方で、前方カメラ4の死角に位置する歩行者PとバイクBに関する情報を取得することができない。その一方、車両制御部3は、前方LiDARユニット6又は後方LiDARユニット7によって取得された点群データに基づいて、歩行者P及びバイクBに関する情報を取得することができる。このように、点群データと画像データの両方を用いることで、車両1の周辺環境の検出精度を向上させることが可能となる。
 また、本実施形態によれば、前方LiDARユニット6が仮想線L2の付近であって仮想線L1上に配置されていると共に、後方LiDARユニット7が仮想線L3の付近であって仮想線L1上に配置されている。このため、2つのLiDARユニットを裏面52上に配置する場合において、車両1の後方領域における2つのLiDARユニットによって形成される検出領域の死角を減らすことが可能となる。
 尚、車両1の前方領域における2つのLiDARユニットによって形成される検出領域の死角を減らすために、前方LiDARユニット6は、一対の前方タイヤ22の前端を通る仮想線L4の付近であって、仮想線L1上に配置されてもよい。この場合、後方LiDARユニット7は、一対の後方タイヤ26の前端を通る仮想線L5の付近であって、仮想線L1上に配置されてもよい。また、車両1の前方領域における2つのLiDARユニットによって形成される検出領域の死角をさらに減らすために、さらに別の一つのLiDARユニットが裏面52に配置されてもよい。
 以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではないのは言うまでもない。本実施形態は単なる一例であって、請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
 本出願は、2019年2月18日に出願された日本国特許出願(特願2019-026547号)に開示された内容を適宜援用する。

Claims (5)

  1.  車両に設けられた車両用センシングシステムであって、
     道路と対向する車体の裏面に配置されると共に、前記車両の周辺環境を示す点群データを取得するように構成された少なくとも一つのLiDARユニットを備えた、車両用センシングシステム。
  2.  前記車体の裏面以外の前記車体の所定箇所に配置されると共に、前記車両の周辺環境を示す画像データを取得するように構成された少なくとも一つのカメラをさらに備えた、請求項1に記載の車両用センシングシステム。
  3.  前記LiDARユニットから取得された点群データに基づいて、前記車両の周辺環境情報を取得するように構成されたLiDAR制御部をさらに備え、
     前記LiDAR制御部は、前記周辺環境情報から前記車両のタイヤに関する情報を削除するように構成されている、請求項1又は2に記載の車両用センシングシステム。
  4.  前記少なくとも一つのLiDARユニットは、
     前記車両の前後方向において前記車両の一対の前方タイヤの後端の付近に配置されると共に、前記車両の左右方向において前記車両の中央付近に配置された前方LiDARユニットと、
     前記前後方向において前記車両の一対の後方タイヤの後端の付近に配置されると共に、前記左右方向において前記車両の中央付近に配置された後方LiDARユニットと、を含む、請求項1から3のうちいずれか一項に記載の車両用センシングシステム。
  5.  請求項1から4のうちいずれか一項に記載の車両用センシングシステムを備えた車両。
PCT/JP2020/001731 2019-02-18 2020-01-20 車両用センシングシステム及び車両 WO2020170678A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/431,972 US20220206153A1 (en) 2019-02-18 2020-01-20 Vehicular sensing system and vehicle
CN202080014924.0A CN113454418A (zh) 2019-02-18 2020-01-20 车辆用传感系统及车辆
JP2021501713A JPWO2020170678A1 (ja) 2019-02-18 2020-01-20 車両用センシングシステム及び車両

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019026547 2019-02-18
JP2019-026547 2019-02-18

Publications (1)

Publication Number Publication Date
WO2020170678A1 true WO2020170678A1 (ja) 2020-08-27

Family

ID=72144860

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/001731 WO2020170678A1 (ja) 2019-02-18 2020-01-20 車両用センシングシステム及び車両

Country Status (4)

Country Link
US (1) US20220206153A1 (ja)
JP (1) JPWO2020170678A1 (ja)
CN (1) CN113454418A (ja)
WO (1) WO2020170678A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11887481B2 (en) * 2021-06-30 2024-01-30 Volvo Car Corporation Rear view collision warning indication and mitigation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015147486A (ja) * 2014-02-06 2015-08-20 小林 正和 サスペンション制御システム及び車両
US20180052236A1 (en) * 2016-08-19 2018-02-22 Dura Operating, Llc Sensor housing assembly for attachment to a motor vehicle

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11953599B2 (en) * 2017-01-26 2024-04-09 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and LIDAR information
US10317907B2 (en) * 2017-04-28 2019-06-11 GM Global Technology Operations LLC Systems and methods for obstacle avoidance and path planning in autonomous vehicles

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015147486A (ja) * 2014-02-06 2015-08-20 小林 正和 サスペンション制御システム及び車両
US20180052236A1 (en) * 2016-08-19 2018-02-22 Dura Operating, Llc Sensor housing assembly for attachment to a motor vehicle

Also Published As

Publication number Publication date
JPWO2020170678A1 (ja) 2021-12-23
US20220206153A1 (en) 2022-06-30
CN113454418A (zh) 2021-09-28

Similar Documents

Publication Publication Date Title
EP3663134B1 (en) Vehicular lighting system and vehicle
WO2019082926A1 (ja) センシングシステム及び車両
US20220073035A1 (en) Dirt detection system, lidar unit, sensing system for vehicle, and vehicle
JP7187291B2 (ja) 赤外線カメラシステム及び車両
JP7331083B2 (ja) 車両用センシングシステム及び車両
US20220334258A1 (en) Apparatus for assisting driving of vehicle and method thereof
WO2020100656A1 (ja) 赤外線カメラシステム、赤外線カメラモジュール及び車両
WO2020170678A1 (ja) 車両用センシングシステム及び車両
US11858410B2 (en) Vehicular lamp and vehicle
CN211468304U (zh) 红外线相机系统以及车辆
CN211468303U (zh) 红外线相机系统以及车辆
CN211468307U (zh) 红外线相机模块以及车辆
JP7028838B2 (ja) 周辺認識装置、周辺認識方法、およびプログラム
CN211468306U (zh) 红外线相机模块以及车辆
CN211468305U (zh) 红外线相机系统以及车辆
KR20220106875A (ko) 운전자 보조 시스템 및 그의 방법
US20230184902A1 (en) Vehicular light source system, vehicular sensing system, and vehicle
US11871130B2 (en) Compact perception device
US20230356716A1 (en) Apparatus and method for controlling the same
US11624806B2 (en) Systems and apparatuses for mitigating LiDAR noise, vibration, and harshness
JP7340607B2 (ja) 車両用照明システム、車両システム及び車両
KR20230083831A (ko) 차량 및 그 제어 방법
KR20230142001A (ko) 차량 및 차량의 제어방법
EP4200635A1 (en) Methods of using background images from a light detection and ranging (lidar) device
KR20220029823A (ko) 자율 주행 시스템 및 자율 주행 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20758995

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021501713

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20758995

Country of ref document: EP

Kind code of ref document: A1