JP2011145166A - Vehicle detector - Google Patents

Vehicle detector Download PDF

Info

Publication number
JP2011145166A
JP2011145166A JP2010006100A JP2010006100A JP2011145166A JP 2011145166 A JP2011145166 A JP 2011145166A JP 2010006100 A JP2010006100 A JP 2010006100A JP 2010006100 A JP2010006100 A JP 2010006100A JP 2011145166 A JP2011145166 A JP 2011145166A
Authority
JP
Japan
Prior art keywords
vehicle
detection
lidar
points
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010006100A
Other languages
Japanese (ja)
Inventor
Hiroshi Nakamura
弘 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2010006100A priority Critical patent/JP2011145166A/en
Publication of JP2011145166A publication Critical patent/JP2011145166A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle detector that accurately detects the end on a vehicle using a detection point of a laser detection means. <P>SOLUTION: The vehicle detector includes a laser detection means to obtain a detection point relative to an object by receiving the laser beam reflected by the object while irradiating the laser beam in many different directions in each of upper/lower and right/left directions, an imaging means to image the side being detected by the laser detection means, a region search means to search a region including a vehicle from a picture imaged by the imaging means, and a vehicle end identification means to extract a detection point that is included in a specific region among regions searched by the region search means and is detected by the laser detection means for identifying an end on the vehicle based on the extracted detection point. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、車両検出装置に関する。   The present invention relates to a vehicle detection device.

従来、衝突防止装置やACC[Adaptive Cruise Control]システムなどにおいて、先行車両や対向車両などの他車両との衝突を回避するために、他車両の位置や向きを検出する車両検出装置が用いられている。車両検出装置には、LIDAR[LIght Detection And Ranging](レーザレーダ)を用いたものがある。特許文献1に記載の車両検出装置では、LIDARで自車両の前方の検出点を取得するとともにカメラで自車両の前方の撮像画像を取得し、その検出点と撮像画像を用いて前方の他車両の端部を特定し、その端部から他車両の位置や向きを検出している。   Conventionally, in a collision prevention device, an ACC [Adaptive Cruise Control] system, and the like, a vehicle detection device that detects the position and orientation of another vehicle has been used to avoid a collision with another vehicle such as a preceding vehicle or an oncoming vehicle. Yes. Some vehicle detection devices use LIDAR [LIght Detection And Ranging] (laser radar). In the vehicle detection device described in Patent Document 1, a detection point in front of the host vehicle is acquired with LIDAR, a captured image in front of the host vehicle is acquired with a camera, and the other vehicle in front using the detection point and the captured image. The end of the vehicle is specified, and the position and orientation of the other vehicle are detected from the end.

特開2009−98025号公報JP 2009-98025 A 特開2005−90974号公報JP-A-2005-90974

通常、車両の中で出っ張りかつ車両の左右端まで延びるバンパに対する検出点だけを用いて直線フィッティングを行うと、車両の端部を高精度に特定することができる。しかし、バンパ以外の車両の各部位にもレーザ光は当たるので、バンパ以外の各部位に対する検出点も得られる。このバンパ以外の各部位に対する検出点も用いて直線フィッティングを行うと、直線フィッティングの際に誤差が大きくなり、車両の端部を精度良く特定できない。   Usually, if linear fitting is performed using only detection points for bumpers that protrude in the vehicle and extend to the left and right ends of the vehicle, the end of the vehicle can be identified with high accuracy. However, since the laser beam also strikes each part of the vehicle other than the bumper, detection points for each part other than the bumper are also obtained. If straight line fitting is performed using detection points for each part other than the bumper, an error increases during straight line fitting, and the end portion of the vehicle cannot be accurately identified.

そこで、本発明は、レーザ検出手段の検出点を用いて車両の端部を高精度に検出する車両検出装置を提供することを課題とする。   Therefore, an object of the present invention is to provide a vehicle detection device that detects an end portion of a vehicle with high accuracy using a detection point of a laser detection means.

本発明に係る車両検出装置は、上下方向及び左右方向についてそれぞれ異なる複数方向にレーザ光を照射するとともに物体で反射されたレーザ光を受光することにより、物体に対する検出点を取得するレーザ検出手段と、レーザ検出手段で検出している側を撮像する撮像手段と、撮像手段で撮像した撮像画像から車両を含む領域を探索する領域探索手段と、領域探索手段で探索した領域のうちの特定領域に含まれるレーザ検出手段で検出した検出点を抽出し、当該抽出した検出点に基づいて車両の端部を特定する車両端部特定手段を備えることを特徴とする。   A vehicle detection apparatus according to the present invention includes laser detection means for acquiring a detection point for an object by irradiating laser light in a plurality of directions different from each other in the vertical direction and the horizontal direction and receiving the laser light reflected by the object. An imaging means for imaging the side detected by the laser detection means, an area searching means for searching for an area including the vehicle from a captured image captured by the imaging means, and a specific area among the areas searched for by the area searching means It is characterized by comprising vehicle end specifying means for extracting detection points detected by the included laser detection means and specifying the end of the vehicle based on the extracted detection points.

この車両検出装置では、レーザ検出手段によって上下方向及び左右方向についてのそれぞれ異なる複数方向の検出点を取得する。また、車両検出装置では、撮像手段によってレーザ検出手段で検出している側の撮像画像を取得する。そして、車両検出装置では、領域探索手段によって撮像画像から車両を含む領域を探索する。さらに、車両検出装置では、車両端部特定手段によって、その探索した領域のうちの特定領域に含まれる検出点を抽出し、その抽出した検出点に基づいて車両の端部を特定する。特定領域は、車両の端部を特定するのに適した車両の部位を含む領域である。このように、車両検出装置では、車両を含む領域のうちの限定した特定領域内の検出点だけを用いることにより、車両の端部特定に不要な検出点を排除でき、車両の端部を高精度に検出することができる。   In this vehicle detection device, detection points in different directions in the vertical direction and the horizontal direction are acquired by the laser detection means. Further, in the vehicle detection device, a captured image on the side detected by the laser detection unit is acquired by the imaging unit. And in a vehicle detection apparatus, the area | region containing a vehicle is searched from a captured image by an area search means. Further, in the vehicle detection device, the vehicle end specifying means extracts the detection points included in the specific area of the searched areas, and specifies the end of the vehicle based on the extracted detection points. The specific region is a region including a part of the vehicle suitable for specifying the end of the vehicle. Thus, in the vehicle detection device, by using only the detection points in the limited specific region of the region including the vehicle, it is possible to eliminate detection points unnecessary for specifying the end of the vehicle, and to increase the end of the vehicle. It can be detected with accuracy.

本発明の上記車両検出装置では、車両端部特定手段は、領域探索手段で探索した領域のうちの上下方向の中心より下側の領域に含まれるレーザ検出手段で検出した検出点を抽出し、当該抽出した検出点に基づいて車両の端部を特定すると好適である。   In the vehicle detection device of the present invention, the vehicle end specifying means extracts the detection points detected by the laser detection means included in the area below the center in the vertical direction among the areas searched by the area search means, It is preferable to identify the end of the vehicle based on the extracted detection points.

この車両検出装置では、車両端部特定手段によって、探索した領域のうちの上下方向の中心より下側の領域に含まれる検出点を抽出し、その抽出した検出点に基づいて車両の端部を特定する。上下方向の中心より下側の領域には、車両の前端部又は後端部を検出するのに適した車両のバンパが含まれる可能性が非常に高い。このように、車両検出装置では、車両を含む領域のうちの下方側の限定した領域内の検出点(特に、バンパに対する検出点)だけを用いることにより、車両の端部特定に不要な検出点を排除でき、車両の端部をより高精度に検出することができる。   In this vehicle detection device, the vehicle end specifying means extracts detection points included in the area below the center in the vertical direction in the searched area, and the end of the vehicle is determined based on the extracted detection points. Identify. The region below the center in the vertical direction is very likely to include a vehicle bumper suitable for detecting the front end or the rear end of the vehicle. As described above, the vehicle detection device uses only detection points (particularly, detection points for the bumper) in a limited region on the lower side of the region including the vehicle, thereby detecting points unnecessary for specifying the end of the vehicle. And the end of the vehicle can be detected with higher accuracy.

本発明によれば、車両を含む領域のうちの限定した特定領域内の検出点だけを用いることにより、車両の端部特定に不要な検出点を排除でき、車両の端部を高精度に検出することができる。   According to the present invention, by using only the detection points within a limited specific region of the region including the vehicle, detection points unnecessary for specifying the vehicle end can be eliminated, and the vehicle end can be detected with high accuracy. can do.

本実施の形態に係る衝突防止装置の構成図である。It is a block diagram of the collision prevention apparatus which concerns on this Embodiment. LIDARによる左右方向の走査状況及びカメラの撮像画像を示す模式図である。It is a schematic diagram which shows the scanning condition of the left-right direction by LIDAR, and the captured image of a camera. LIDARによる上下方向の走査状況及びカメラの撮像画像を示す模式図である。It is a schematic diagram which shows the scanning condition of the up-down direction by LIDAR, and the captured image of a camera. グルーピングされたLIDAR点列の一例である。It is an example of a grouped LIDAR point sequence. グルーピングされたLIDAR点列とレイヤを重畳した一例である。It is an example which superimposed the LIDAR point sequence and layer which were grouped. 図1のECUにおける処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in ECU of FIG.

以下、図面を参照して、本発明に係る車両検出装置の実施の形態を説明する。なお、各図において同一又は相当する要素については同一の符号を付し、重複する説明を省略する。   Hereinafter, an embodiment of a vehicle detection device according to the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected about the element which is the same or it corresponds in each figure, and the overlapping description is abbreviate | omitted.

本実施の形態では、本発明に係る車両検出装置を、車両に搭載される衝突防止装置に適用する。本実施の形態に係る衝突防止装置は、自車両前方の他車両を検出するための車両検出装置と衝突回避の自動ブレーキを行うための制動部を備えている。   In the present embodiment, the vehicle detection device according to the present invention is applied to a collision prevention device mounted on a vehicle. The collision prevention apparatus according to the present embodiment includes a vehicle detection apparatus for detecting other vehicles in front of the host vehicle and a braking unit for performing automatic collision avoidance braking.

図1〜図5を参照して、本実施の形態に係る衝突防止装置1について説明する。図1は、本実施の形態に係る衝突防止装置の構成図である。図2は、LIDARによる左右方向の走査状況及びカメラの撮像画像を示す模式図である。図3は、LIDARによる上下方向の走査状況及びカメラの撮像画像を示す模式図である。図4は、グルーピングされたLIDAR点列の一例である。図5は、グルーピングされたLIDAR点列とレイヤを重畳した一例である。   With reference to FIGS. 1-5, the collision prevention apparatus 1 which concerns on this Embodiment is demonstrated. FIG. 1 is a configuration diagram of a collision prevention apparatus according to the present embodiment. FIG. 2 is a schematic diagram illustrating a scanning situation in the horizontal direction by LIDAR and a captured image of the camera. FIG. 3 is a schematic diagram illustrating a vertical scanning situation by LIDAR and a captured image of the camera. FIG. 4 is an example of a grouped LIDAR point sequence. FIG. 5 is an example in which the grouped LIDAR point sequence and the layer are superimposed.

衝突防止装置1は、自車両前方の他車両を検出し、検出した他車両との衝突の可能性がある場合には衝突を回避するためにブレーキを作動させる。そのために、衝突防止装置1は、車両検出装置10と制動部20を備えている。   The collision prevention device 1 detects another vehicle in front of the host vehicle, and activates a brake to avoid the collision when there is a possibility of collision with the detected other vehicle. Therefore, the collision prevention device 1 includes a vehicle detection device 10 and a braking unit 20.

車両検出装置10は、レーザ光による検出点と撮像画像を用いて前方の他車両の端部(バンパに相当)を特定し、その端部から他車両の位置及び向きを検出する。特に、車両検出装置10は、他車両の端部を高精度に特定するために、撮像画像から探索された他車両の画像を含む矩形領域の中の下方側の検出点だけを用いて他車両の端部を特定する。そのために、車両検出装置10は、LIDAR11、カメラ12及びECU[Electronic Control Unit]13を備えている。   The vehicle detection device 10 identifies an end portion (corresponding to a bumper) of the other vehicle ahead by using a detection point by laser light and a captured image, and detects the position and orientation of the other vehicle from the end portion. In particular, the vehicle detection device 10 uses only the detection points on the lower side in the rectangular area including the image of the other vehicle searched from the captured image in order to specify the end of the other vehicle with high accuracy. Identify the end of. For this purpose, the vehicle detection device 10 includes a LIDAR 11, a camera 12, and an ECU [Electronic Control Unit] 13.

なお、本実施の形態では、LIDAR11が特許請求の範囲に記載するレーザ検出手段に相当し、カメラ12が特許請求の範囲に記載する撮像手段に相当し、ECU13における各処理が特許請求の範囲に記載する領域探索手段及び車両端部特定手段に相当する。   In the present embodiment, LIDAR 11 corresponds to the laser detection means described in the claims, the camera 12 corresponds to the imaging means described in the claims, and each process in the ECU 13 falls within the claims. This corresponds to the area searching means and vehicle end specifying means to be described.

LIDAR11は、複数レイヤ型のレーザレーダであり、レーザ光を利用して物体(特に、車両)を検出する走査型のレーダである。LIDAR11は、自車両の前端部の中央に取り付けられる。LIDAR11は、レーザ光の照射部と受光部を自車両の左右方向に一定角度毎に回転させる機構及び上下方向に一定角度毎に回転させる機構を備えている。LIDAR11では、上下方向の所定角度において、左右方向に一定角度毎に向きを変えながらレーザ光を照射するとともに物体に当たって反射してきたレーザ光を受光し、左右方向を走査する。さらに、LIDAR11では、左右方向の走査が終了する毎に上下方向に一定角度毎に向きを変え、上下方向を走査する。LIDAR11では、一定周期毎に上記の左右方向及び上下方向の走査を行い、受光できた各反射点(各検出点)についてのデータ(自車両(LIDAR11)との相対距離、相対方向など)からなるレーダ信号をECU13に送信する。相対距離は、レーザ光の速度及び照射時刻と受光時刻との時間差から算出される。相対方向は、左右方向の走査角度及び上下方向の走査角度から得られる。この相対距離と相対方向が、検出点の自車両に対する相対位置に相当する。   The LIDAR 11 is a multi-layer type laser radar, and is a scanning type radar that detects an object (particularly, a vehicle) using laser light. LIDAR 11 is attached to the center of the front end of the host vehicle. The LIDAR 11 includes a mechanism for rotating the laser beam irradiation unit and the light receiving unit in the left-right direction of the host vehicle at a certain angle and a mechanism for rotating the laser beam irradiation unit and the light-receiving unit in the vertical direction at a certain angle. The LIDAR 11 scans in the left-right direction by irradiating the laser beam while changing the direction at a certain angle in the left-right direction at a predetermined angle in the up-down direction and receiving the reflected laser beam. Further, in LIDAR 11, every time scanning in the left-right direction is completed, the direction is changed in the vertical direction at a certain angle, and scanning is performed in the vertical direction. The LIDAR 11 scans in the left-right direction and the up-down direction at regular intervals, and consists of data about each reflection point (each detection point) that can be received (relative distance, relative direction, etc. with the host vehicle (LIDAR 11)). A radar signal is transmitted to the ECU 13. The relative distance is calculated from the speed of the laser beam and the time difference between the irradiation time and the light reception time. The relative direction is obtained from the horizontal scanning angle and the vertical scanning angle. This relative distance and relative direction correspond to the relative position of the detection point with respect to the host vehicle.

図2に示すように、LIDAR11では、自車両MVの前方に向けて左右方向の一定角度毎にレーザ光LHを照射して他車両OVで反射された反射光を受光することにより、他車両OVに対する左右方向の異なる検出点PH,PH,・・・を取得する。また、図3に示すように、LIDAR11では、自車両MVの前方に向けて上下方向の一定角度毎にレーザ光LVを照射して他車両OVで反射された反射光を受光することにより、他車両OVに対する上下方向の異なる検出点PV,PV,・・・を取得する。LIDAR11では、この左右方向の走査と上下方向の走査によって自車両MVの前方の所定範囲内に存在する一又は複数の他車両OVを検出することができ、他車両OV毎に複数の検出点を取得できる。なお、本実施の形態では、LIDAR11で検出される検出点の点列は、3D点列であり、LIDAR点列とする。   As shown in FIG. 2, the LIDAR 11 receives the reflected light reflected by the other vehicle OV by irradiating the laser beam LH toward the front of the host vehicle MV at every predetermined angle in the left-right direction, thereby receiving the other vehicle OV. Are obtained at different detection points PH, PH,. In addition, as shown in FIG. 3, LIDAR 11 emits laser light LV at a predetermined angle in the vertical direction toward the front of the host vehicle MV, and receives reflected light reflected by the other vehicle OV. Detection points PV, PV,... Different in the vertical direction with respect to the vehicle OV are acquired. In LIDAR 11, one or a plurality of other vehicles OV existing within a predetermined range in front of the host vehicle MV can be detected by the horizontal scanning and the vertical scanning, and a plurality of detection points are set for each of the other vehicles OV. You can get it. In the present embodiment, the point sequence of detection points detected by the LIDAR 11 is a 3D point sequence, which is a LIDAR point sequence.

カメラ12は、自車両の前方(LIDAR11で検出を行う側)を撮像するカメラである。カメラ12は、自車両の前端部の中央のLIDAR11の近傍に取り付けられる。カメラ12では、一定周期毎に自車両の前方を撮像し、撮像画像情報からなる画像信号をECU13に送信する。図2と図3には、自車両MVと他車両OVとの間にあってカメラ12の倍率設定などにより定まる所定位置に配置された撮像画像Iを模式的に示している。なお、図2と図3では、わかり易くするために、撮像画像Iを立体的に傾斜させている。   The camera 12 is a camera that captures an image of the front of the host vehicle (the side on which detection is performed by the LIDAR 11). The camera 12 is attached in the vicinity of the center LIDAR 11 at the front end of the host vehicle. The camera 12 images the front of the host vehicle at regular intervals, and transmits an image signal including captured image information to the ECU 13. FIGS. 2 and 3 schematically show a captured image I placed between a host vehicle MV and another vehicle OV and located at a predetermined position determined by the magnification setting of the camera 12 and the like. 2 and 3, the captured image I is three-dimensionally inclined for easy understanding.

ECU13は、CPU[CentralProcessing Unit]、ROM[Read Only Memory]、RAM[RandomAccess Memory]などからなる電子制御ユニットであり、車両検出装置10を統括制御する。ECU13では、LIDAR11からレーダ信号を受信し、検出点データ(LIDAR点列)を取得するとともに、カメラ12から画像信号を受信し、撮像画像を取得する。ECU13では、LIDAR11からの各検出点について、検出点の相対距離及び相対方向(相対位置)に基づいて、カメラ12のレンズ中心を原点としたカメラ座標系の位置(x,y)に変換する(撮像画像上に投影する)。そして、ECU13では、この検出点データ(LIDAR点列)と撮像画像に基づいて他車両の端部(バンパ部分)を特定し、その端部から他車両の位置と向きを推定する。さらに、ECU13では、その推定した他車両の位置と向きの情報からなる他車両情報信号を制動部20に送信する。   The ECU 13 is an electronic control unit including a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like, and comprehensively controls the vehicle detection device 10. The ECU 13 receives a radar signal from the LIDAR 11, acquires detection point data (LIDAR point sequence), receives an image signal from the camera 12, and acquires a captured image. The ECU 13 converts each detection point from the LIDAR 11 into a position (x, y) in the camera coordinate system with the lens center of the camera 12 as the origin based on the relative distance and relative direction (relative position) of the detection point ( Project on the captured image). Then, the ECU 13 specifies an end portion (bumper portion) of the other vehicle based on the detection point data (LIDAR point sequence) and the captured image, and estimates the position and orientation of the other vehicle from the end portion. Further, the ECU 13 transmits an other vehicle information signal including information on the estimated position and orientation of the other vehicle to the braking unit 20.

ECU13では、LIDAR点列(全検出点)に対して、グルーピング処理を行う。このグルーピング処理についは、従来の方法を適用する。これによって、他車両毎にLIDAR点列がグルーピングされる。図4には、自車両の斜め前方を対向して走行する他車両OVに対して、グルーピングされたLIDAR点列Gの一例を示している。このグルーピングされたLIDAR点列Gは、カメラ座標系の撮像画像I上に投影された状態で示されている。グルーピングされたLIDAR点列Gは、他車両OVからの反射波を受光して得られる複数の検出点からなり、他車両OVが存在する方向範囲内で上下方向及び左右方向においてそれぞれ異なる方向について得られる複数の検出点である。なお、以下の処理については、グルーピングされたLIDAR点列毎に行われる。   The ECU 13 performs a grouping process on the LIDAR point sequence (all detection points). A conventional method is applied to this grouping process. As a result, the LIDAR point sequence is grouped for each other vehicle. FIG. 4 shows an example of a LIDAR point sequence G grouped with respect to another vehicle OV that runs diagonally in front of the host vehicle. This grouped LIDAR point sequence G is shown in a state of being projected on the captured image I in the camera coordinate system. The grouped LIDAR point sequence G includes a plurality of detection points obtained by receiving reflected waves from the other vehicle OV, and is obtained in different directions in the vertical direction and the left-right direction within the direction range in which the other vehicle OV exists. A plurality of detection points. The following processing is performed for each grouped LIDAR point sequence.

ECU13では、撮像画像から、車両画像を含む矩形領域を抽出する。ここでは、撮像画像上に投影されているグルーピングされたLIDAR点列が存在する周辺領域について、車両のテンプレートを用いてパターンマッチングを行い、車両を含む画像を探索する。そして、探索された車両画像を含む矩形領域を抽出する。この矩形領域は、左右端が車両画像の左右端と略同一、上下端が車両の上下端と略同一となるように抽出される。矩形領域の大きさは、自車両と他車両の相対的な位置関係に応じて変わり、近いほど大きくなる。なお、車両画像の探索手法については他の手法でもよいし、また、車両画像の探索範囲としては、グルーピングされたLIDAR点列の位置に関係なく、撮像画像全てあるいは一部を対象としてもよい。   The ECU 13 extracts a rectangular area including the vehicle image from the captured image. Here, pattern matching is performed using a vehicle template for a peripheral region where a grouped LIDAR point sequence projected on the captured image is present, and an image including the vehicle is searched. Then, a rectangular area including the searched vehicle image is extracted. This rectangular region is extracted so that the left and right ends are substantially the same as the left and right ends of the vehicle image, and the upper and lower ends are substantially the same as the upper and lower ends of the vehicle. The size of the rectangular area changes according to the relative positional relationship between the host vehicle and the other vehicle, and increases as the distance from the vehicle increases. The vehicle image search method may be another method, and the vehicle image search range may be all or a part of the captured image regardless of the position of the grouped LIDAR point sequence.

図5には、図4のグルーピングされたLIDAR点列Gの周辺から抽出された矩形領域RAを示している。ここでは、グルーピングされたLIDAR点列と矩形領域RAに含まれる複数のレイヤとを重畳して示している。この例では、矩形領域RAには8つのレイヤL1〜L8が含まれている。   FIG. 5 shows a rectangular area RA extracted from the periphery of the grouped LIDAR point sequence G in FIG. Here, the grouped LIDAR point sequence and a plurality of layers included in the rectangular area RA are superimposed. In this example, the rectangular area RA includes eight layers L1 to L8.

なお、レイヤは、LIDAR11の上下方向の一定角度毎の走査に応じて設定され、LIDAR11の上下方向の走査数に応じた数となる。例えば、上下方向の走査範囲が30°であり、一定角度として1°毎に走査する場合、30個のレイヤが設定されることになる。上記したように矩形領域の大きさは自車両と他車両との相対的な位置関係に応じて変わるので、車両を含む矩形領域に含まれるレイヤの数も相対的な位置関係に応じて変わり、近いほど多くなる。各レイヤは、上下方向に互いに異なる高さ位置であり、各上下位置において横方向に延びている。本実施の形態では、各レイヤは、同一の高さ位置に存在するLIDAR点(検出点)の数をカウントするための領域となる。   Note that the number of layers is set according to the scanning of the LIDAR 11 in the up and down direction at a certain angle, and the number corresponds to the number of scanning of the LIDAR 11 in the up and down direction. For example, when the scanning range in the vertical direction is 30 ° and scanning is performed every 1 ° as a constant angle, 30 layers are set. As described above, since the size of the rectangular area changes according to the relative positional relationship between the host vehicle and the other vehicle, the number of layers included in the rectangular area including the vehicle also changes according to the relative positional relation. The closer you get, the more. Each layer has different height positions in the vertical direction, and extends in the horizontal direction at each vertical position. In the present embodiment, each layer is an area for counting the number of LIDAR points (detection points) existing at the same height position.

ECU13では、矩形領域から下方のレイヤを抽出する。抽出する下方のレイヤとしては、例えば、矩形領域の下端から1/2の領域に含まれるレイヤ、下端から1/3の領域に含まれるレイヤ、下端から1/4の領域に含まれるレイヤとする。例えば、図5に示す例の場合、矩形領域RAに含まれる8つのレイヤL1〜L8のうち、下端から4つのレイヤL1〜L4を抽出する。   The ECU 13 extracts the lower layer from the rectangular area. As the lower layer to be extracted, for example, a layer included in a region 1/2 from the lower end of the rectangular region, a layer included in a region 1/3 from the lower end, and a layer included in a region 1/4 from the lower end . For example, in the case of the example illustrated in FIG. 5, four layers L1 to L4 are extracted from the lower end among the eight layers L1 to L8 included in the rectangular area RA.

このように下方のレイヤを抽出するのは、車両の下方に位置するバンパに対するLIDAR点列のみを確実に抽出するために、矩形領域の下方のレイヤのみを処理対象とするためである。バンパは、車両の中でも出っ張っておりかつ車両の左右端まで延びている。そのため、このバンパに対するLIDAR点列だけを用いて直線フィッティングなどを行うことにより、車両の端部を高精度に特定することができる。ちなみに、車両の上方には車両の左右端まで延びている屋根などがあり、これらの車両の端部の特定に不要なLIDAR点列を確実に排除する必要がある。   The reason why the lower layer is extracted in this way is that only the lower layer of the rectangular area is to be processed in order to reliably extract only the LIDAR point sequence for the bumper located below the vehicle. The bumper protrudes in the vehicle and extends to the left and right ends of the vehicle. Therefore, the end of the vehicle can be specified with high accuracy by performing linear fitting or the like using only the LIDAR point sequence for the bumper. Incidentally, there is a roof or the like that extends to the left and right ends of the vehicle above the vehicle, and it is necessary to reliably eliminate the LIDAR point sequence that is unnecessary for specifying the end of these vehicles.

ECU13では、抽出した下方の各レイヤについて、レイヤ内に包含されるLIDAR点(検出点)の数をカウントする。図5に示す例の場合、レイヤL1には0個、レイヤL2には2個のLIDAR点P2,P2、レイヤL3には6個のLIDAR点P3,P3,P3,P3,P3,P3、レイヤL4には2個のLIDAR点P4,P4が包含される。ちなみに、レイヤL5には2個のLIDAR点P5,P5、レイヤL6には1個のLIDAR点P6、レイヤL7には0個、レイヤL8には3個のLIDAR点P8,P8,P8が包含されるが、これらの各レイヤの包含点数は以下の処理では用いられない。   The ECU 13 counts the number of LIDAR points (detection points) included in each extracted lower layer. In the case of the example shown in FIG. 5, there are 0 LIDAR points P2 and P2 for the layer L1, 2 LIDAR points P3 and P3 for the layer L3, P3, P3, P3, P3 and P3, L4 includes two LIDAR points P4 and P4. Incidentally, the layer L5 includes two LIDAR points P5 and P5, the layer L6 includes one LIDAR point P6, the layer L7 includes zero, and the layer L8 includes three LIDAR points P8, P8, and P8. However, the number of inclusion points of each layer is not used in the following processing.

ECU13では、下方の各レイヤの包含点数を比較し、包含点数が最多のレイヤ(以下、「最多レイヤ」という)を判定する。そして、ECU13では、その最多レイヤのLIDAR点列を抽出する。この最多レイヤのLIDAR点列が、自車両に最もよく対向している他車両の面(対向面)に対する検出点列であり、他車両のバンパに対する検出点と見做すことができる。図5に示す例の場合、レイヤL1の包含点数が0個、レイヤL2の包含点数が2個、レイヤL3の包含点数が6個、レイヤL4の包含点数が2個なので、最多レイヤとしてレイヤL3が判定され、レイヤL3に包含されるLIDAR点例P3,・・・が抽出される。このレイヤL3のLIDAR点例P3,・・・が、他車両OVのバンパに対する検出点である。なお、包含点数が最多のレイヤだけでなく、この最多レイヤの上方又は下方に隣接するレイヤも多くの包含点数の場合には、その隣接するレイヤも抽出してもよい。   The ECU 13 compares the number of inclusion points of each lower layer, and determines the layer having the largest number of inclusion points (hereinafter referred to as “most frequent layer”). Then, the ECU 13 extracts the LIDAR point sequence of the most frequent layer. This LIDAR point sequence of the most layers is a detection point sequence for the surface (opposite surface) of the other vehicle that is most opposed to the host vehicle, and can be regarded as a detection point for the bumper of the other vehicle. In the case of the example shown in FIG. 5, the number of inclusion points of layer L1 is 0, the number of inclusion points of layer L2 is 2, the number of inclusion points of layer L3 is 6, and the number of inclusion points of layer L4 is 2. Are determined, and LIDAR point examples P3,... Included in the layer L3 are extracted. The LIDAR point examples P3,... Of the layer L3 are detection points for the bumper of the other vehicle OV. In addition, not only the layer with the most inclusion points but also the layers adjacent above or below the most layers may have many inclusion points, the adjacent layers may be extracted.

なお、バンパは、LIDAR11から照射されるレーザ光に対して最も垂直に近い面(他車両の対向面)を有しており、照射されたレーザ光をLIDAR11に向けて反射することができる。そのため、バンパに対応するレイヤに包含されるLIDAR点(検出点)の数が多くなる。しかし、下方のレイヤに含まれる可能性のある車両の部位としては、バンパの下部、フロントグリル、ヘッドライト、ボンネットなどがあるが、これらの各部位はレーザ光に対して傾斜しており、レーザ光をLIDAR11に向けて反射し難い。そのため、これらの各部位に対応するレイヤに包含されるLIDAR点の数が少なくなる。ちなみに、上方のレイヤに含まれる可能性のある車両の部位については、レイヤの包含点数を比較する対象から排除されている。したがって、最多レイヤのLIDAR点列を、他車両のバンパに対するLIDAR点(検出点)と見做すことができる。   The bumper has a surface that is closest to the laser beam emitted from the LIDAR 11 (an opposite surface of another vehicle) and can reflect the emitted laser beam toward the LIDAR 11. Therefore, the number of LIDAR points (detection points) included in the layer corresponding to the bumper increases. However, there are parts of the vehicle that may be included in the lower layer, such as the lower part of the bumper, the front grille, the headlights, and the bonnet. Each of these parts is inclined with respect to the laser beam. Difficult to reflect light toward LIDAR11. Therefore, the number of LIDAR points included in the layer corresponding to each of these parts is reduced. Incidentally, parts of the vehicle that may be included in the upper layer are excluded from the targets for comparison of the inclusion points of the layers. Therefore, the LIDAR point sequence of the most layers can be regarded as a LIDAR point (detection point) for a bumper of another vehicle.

ECU13では、最多レイヤのLIDAR点列に対して直線をフィッティングする。そして、ECU13では、そのフィッティングした直線から最多レイヤのLIDAR点列の左右端の各点を左右端点とした線分を抽出する。さらに、ECU13では、その線分を車両の前面又は後面(端部)として、一般的な車両の形状に対応した矩形のテンプレートを拡大又は縮小して当てはめる。そして、ECU13では、その当てはまった大きさの矩形の中心位置及び向きから、他車両の中心位置及び向きを算出する。なお、最多レイヤのLIDAR点列を用いて他車両の中心位置及び向きを求める手法としては、他の手法でもよい。例えば、最多レイヤのLIDAR点列に対して、直接、一般的な車両の形状に対応した矩形のテンプレートを当てはめてもよい。   In the ECU 13, a straight line is fitted to the LIDAR point sequence of the most layers. Then, the ECU 13 extracts a line segment having the left and right end points of the LIDAR point sequence of the most layers as the left and right end points from the fitted straight line. Further, the ECU 13 applies the line segment as a front or rear surface (end portion) of the vehicle by enlarging or reducing a rectangular template corresponding to a general vehicle shape. Then, the ECU 13 calculates the center position and orientation of the other vehicle from the center position and orientation of the rectangle having the size. In addition, as a method for obtaining the center position and direction of another vehicle using the LIDAR point sequence of the most layers, another method may be used. For example, a rectangular template corresponding to a general vehicle shape may be directly applied to the LIDAR point sequence of the most layers.

制動部20は、他車両と衝突の可能性がある場合、ブレーキ(図示せず)を制御して、自車両に制動力を与える制動制御を行う。制動部20では、ECU13からの他車両情報信号を受信すると、他車両情報信号から他車両の位置及び向きの情報を取得する。そして、制動部20では、他車両の位置及び向きに基づいて、自車両がこの他車両と衝突する可能性があるか否かを判定する。そして、制動部20では、衝突する可能性があると判定した場合、自車両を減速させるためにブレーキを作動させる。例えば、各輪のホイールシリンダのブレーキ油圧を調整するブレーキアクチュエータを備えており、このブレーキアクチュエータを制御してホイールシリンダのブレーキ油圧を調整する。   When there is a possibility of a collision with another vehicle, the braking unit 20 controls a brake (not shown) to perform a braking control that applies a braking force to the host vehicle. When receiving the other vehicle information signal from the ECU 13, the braking unit 20 acquires information on the position and orientation of the other vehicle from the other vehicle information signal. Then, the braking unit 20 determines whether or not the host vehicle may collide with the other vehicle based on the position and orientation of the other vehicle. When the braking unit 20 determines that there is a possibility of a collision, the brake is operated to decelerate the host vehicle. For example, a brake actuator for adjusting the brake hydraulic pressure of the wheel cylinder of each wheel is provided, and this brake actuator is controlled to adjust the brake hydraulic pressure of the wheel cylinder.

図1を参照して、衝突防止装置1の動作について説明する。特に、ECU13における処理については図6のフローチャートに沿って説明する。図6は、図1のECUにおける処理の流れを示すフローチャートである。ECU13では、以下の処理をエンジンが始動されてから停止されるまでの間、繰り返し実行する。   The operation of the collision preventing apparatus 1 will be described with reference to FIG. In particular, the processing in the ECU 13 will be described along the flowchart of FIG. FIG. 6 is a flowchart showing a flow of processing in the ECU of FIG. The ECU 13 repeatedly executes the following processing from when the engine is started until it is stopped.

LIDAR11では、一定周期毎に、上下方向及び左右方向においてそれぞれ一定角度毎に向きを変えながらレーザ光を照射するとともに反射してきたレーザ光を受光し、検出点データからなるレーダ信号をECU13に送信する。ECU13では、このレーザ信号を受信し、検出点データ(LIDAR点列)を取得する(S1)。   The LIDAR 11 irradiates the laser beam while receiving the reflected laser beam while changing the direction by a certain angle in the vertical direction and the horizontal direction at regular intervals, and transmits a radar signal composed of detection point data to the ECU 13. . The ECU 13 receives this laser signal and acquires detection point data (LIDAR point sequence) (S1).

カメラ12では、一定周期毎に、自車両の前方を撮像し、撮像画像情報からなる画像信号をECU13に送信する。ECU13では、この画像信号を受信し、撮像画像を取得する(S2)。   The camera 12 images the front of the host vehicle at regular intervals, and transmits an image signal including captured image information to the ECU 13. The ECU 13 receives this image signal and acquires a captured image (S2).

ECU13では、取得した全てのLIDAR点列に対してグルーピング処理を行い、グループピングされた各LIDAR点列を得る(S3)。   The ECU 13 performs a grouping process on all acquired LIDAR point sequences to obtain each grouped LIDAR point sequence (S3).

グループピングされたLIDAR点列毎に、ECU13では、撮像画像に対して画像認識処理を行い、グループピングされたLIDAR点列に対応する他車両の画像を含む矩形領域を抽出する(S4)。   For each grouped LIDAR point sequence, the ECU 13 performs an image recognition process on the captured image, and extracts a rectangular area including an image of another vehicle corresponding to the grouped LIDAR point sequence (S4).

ECU13では、その抽出した矩形領域に含まれるレイヤの中から下方のレイヤを抽出する(S5)。さらに、ECU13では、その抽出した下方の各レイヤについてレイヤに包含されるLIDAR点の数をそれぞれカウントし、各レイヤの包含点数を得る(S6)。そして、ECU13では、各レイヤの包含点数を比較して最多レイヤを判定し、その最多レイヤに属するLIDAR点列を抽出する(S7)。   The ECU 13 extracts a lower layer from the layers included in the extracted rectangular area (S5). Further, the ECU 13 counts the number of LIDAR points included in each of the extracted lower layers, and obtains the number of included points in each layer (S6). The ECU 13 compares the number of inclusion points of each layer to determine the most frequent layer, and extracts a LIDAR point sequence belonging to the most frequent layer (S7).

ECU13では、その最多レイヤのLIDAR点列に基づいて車両の端部を特定し(S8)、その他車両の端部から他車両の位置と向きを推定する(S9)。そして、ECU13では、その他車両の位置と向きの情報からなる他車両情報信号を制動部20に送信する。   The ECU 13 identifies the end of the vehicle based on the LIDAR point sequence of the most layer (S8), and estimates the position and orientation of the other vehicle from the end of the other vehicle (S9). Then, the ECU 13 transmits an other vehicle information signal including information on the position and orientation of the other vehicle to the braking unit 20.

この他車両情報信号を受信すると、制動部20では、他車両の位置と向きに基づいて自車両が他車両と衝突する可能性があるか否かを判定し、衝突する可能性があると判定した場合にはブレーキを作動させる。これによって、自車両が減速し、衝突を回避できる。   When the other vehicle information signal is received, the braking unit 20 determines whether or not the own vehicle may collide with the other vehicle based on the position and orientation of the other vehicle, and determines that there is a possibility of the collision. If so, activate the brake. As a result, the host vehicle decelerates and collision can be avoided.

この衝突防止装置1(特に、車両検出装置10)によれば、他車両を含む矩形領域のうちの下方側の限定した領域内の検出点だけを用いることにより、車両の端部の特定に不要な部位に対する検出点を排除でき、他車両の端部(ひいては、他車両の位置や向き)を高精度に検出することができる。   According to this collision prevention device 1 (particularly, the vehicle detection device 10), only the detection points in the limited region on the lower side of the rectangular region including other vehicles are used, so that it is not necessary to specify the end of the vehicle. Detection points for various parts can be eliminated, and the end of the other vehicle (and thus the position and orientation of the other vehicle) can be detected with high accuracy.

衝突防止装置1では、矩形領域の下方側の領域に含まれる各レイヤの包含点数を比較し、包含点数が最多のレイヤを抽出することにより、その最多レイヤによってバンパに対する検出点だけを用いて車両の端部を高精度に特定できる。   The collision prevention apparatus 1 compares the number of inclusion points of each layer included in the area below the rectangular area, extracts the layer with the largest number of inclusion points, and uses only the detection points for the bumper by the most frequent layer. Can be identified with high accuracy.

以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。   As mentioned above, although embodiment which concerns on this invention was described, this invention is implemented in various forms, without being limited to the said embodiment.

例えば、本実施の形態では衝突防止装置に含まれる車両検出装置に適用したが、車両検出装置単体でもよいし、あるいは、ACCシステムなどの他のシステムに含まれる車両検出装置でもよい。   For example, in the present embodiment, the present invention is applied to the vehicle detection device included in the collision prevention device, but it may be a vehicle detection device alone or a vehicle detection device included in another system such as an ACC system.

また、本実施の形態では自車両の前方の他車両を検出する場合に適用したが、前方以外に存在する他車両を検出する場合にも適用可能である。   Further, although the present embodiment is applied when detecting other vehicles in front of the host vehicle, the present invention can also be applied when detecting other vehicles existing in front of the vehicle.

また、本実施の形態では車両の矩形領域内の上下方向のレイヤにおける下方側のレイヤを抽出し、その抽出したレイヤの中から包含点数が最多のレイヤを抽出して他車両の端部を特定する構成としたが、レイヤを用いずに、車両の矩形領域の下方側のLIDAR点(検出点)を抽出し、その抽出したLIDAR点を用いて他車両の端部を特定するようにしてもよい。また、車両の端部としてバンパ以外の部位を対象とする場合、矩形領域の下方側ではなくて、矩形領域の上方側、左方側、右方側などの他の側のLIDAR点を用いて車両の端部を検出するようにしてもよい。   Also, in this embodiment, the lower layer in the vertical layer within the rectangular area of the vehicle is extracted, and the layer with the largest number of inclusion points is extracted from the extracted layers to identify the end of the other vehicle However, the LIDAR point (detection point) below the rectangular area of the vehicle is extracted without using the layer, and the end of the other vehicle is specified using the extracted LIDAR point. Good. In addition, when a part other than the bumper is targeted as an end of the vehicle, the LIDAR point on the other side such as the upper side, the left side, the right side, etc. of the rectangular region is used instead of the lower side of the rectangular region. You may make it detect the edge part of a vehicle.

1…衝突防止装置、10…車両検出装置、11…LIDAR、12…カメラ、13…ECU、20…制動部。   DESCRIPTION OF SYMBOLS 1 ... Collision prevention apparatus, 10 ... Vehicle detection apparatus, 11 ... LIDAR, 12 ... Camera, 13 ... ECU, 20 ... Braking part.

Claims (2)

上下方向及び左右方向についてそれぞれ異なる複数方向にレーザ光を照射するとともに物体で反射されたレーザ光を受光することにより、物体に対する検出点を取得するレーザ検出手段と、
前記レーザ検出手段で検出している側を撮像する撮像手段と、
前記撮像手段で撮像した撮像画像から車両を含む領域を探索する領域探索手段と、
前記領域探索手段で探索した領域のうちの特定領域に含まれる前記レーザ検出手段で検出した検出点を抽出し、当該抽出した検出点に基づいて車両の端部を特定する車両端部特定手段
を備えることを特徴とする車両検出装置。
Laser detection means for acquiring a detection point for an object by irradiating laser light in a plurality of directions different from each other in the vertical direction and the horizontal direction and receiving the laser light reflected by the object;
Imaging means for imaging the side detected by the laser detection means;
Area search means for searching for an area including a vehicle from a captured image captured by the imaging means;
Vehicle end identification means for extracting detection points detected by the laser detection means included in a specific area of the areas searched by the area search means, and specifying an end of the vehicle based on the extracted detection points; A vehicle detection apparatus comprising:
前記車両端部特定手段は、前記領域探索手段で探索した領域のうちの上下方向の中心より下側の領域に含まれる前記レーザ検出手段で検出した検出点を抽出し、当該抽出した検出点に基づいて車両の端部を特定することを特徴とする請求項1に記載の車両検出装置。   The vehicle end specifying means extracts detection points detected by the laser detection means included in a region below the center in the vertical direction among the regions searched by the region search means, and the extracted detection points are used as the extracted detection points. The vehicle detection device according to claim 1, wherein an end portion of the vehicle is specified based on the vehicle.
JP2010006100A 2010-01-14 2010-01-14 Vehicle detector Pending JP2011145166A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010006100A JP2011145166A (en) 2010-01-14 2010-01-14 Vehicle detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010006100A JP2011145166A (en) 2010-01-14 2010-01-14 Vehicle detector

Publications (1)

Publication Number Publication Date
JP2011145166A true JP2011145166A (en) 2011-07-28

Family

ID=44460153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010006100A Pending JP2011145166A (en) 2010-01-14 2010-01-14 Vehicle detector

Country Status (1)

Country Link
JP (1) JP2011145166A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060572A (en) * 2012-09-05 2018-04-12 ウェイモ エルエルシー Construction zone detection using plural information sources
US10436898B2 (en) 2013-12-26 2019-10-08 Hitachi, Ltd. Object recognition device
US10466709B2 (en) 2013-11-08 2019-11-05 Hitachi, Ltd. Autonomous driving vehicle and autonomous driving system
JP2020026981A (en) * 2018-08-09 2020-02-20 株式会社Ihi Object detection device and object detection method
CN113281783A (en) * 2021-05-13 2021-08-20 江苏徐工工程机械研究院有限公司 Mining truck
EP4053593A1 (en) * 2021-03-03 2022-09-07 Elektrobit Automotive GmbH Processing of sensor data in a means of transport

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060572A (en) * 2012-09-05 2018-04-12 ウェイモ エルエルシー Construction zone detection using plural information sources
US10466709B2 (en) 2013-11-08 2019-11-05 Hitachi, Ltd. Autonomous driving vehicle and autonomous driving system
US10436898B2 (en) 2013-12-26 2019-10-08 Hitachi, Ltd. Object recognition device
JP2020026981A (en) * 2018-08-09 2020-02-20 株式会社Ihi Object detection device and object detection method
JP7067354B2 (en) 2018-08-09 2022-05-16 株式会社Ihi Object detection device and object detection method
EP4053593A1 (en) * 2021-03-03 2022-09-07 Elektrobit Automotive GmbH Processing of sensor data in a means of transport
CN113281783A (en) * 2021-05-13 2021-08-20 江苏徐工工程机械研究院有限公司 Mining truck

Similar Documents

Publication Publication Date Title
JP5470886B2 (en) Object detection device
JP5407898B2 (en) Object detection apparatus and program
CN107848529B (en) Variable object detection focal field for automated vehicle control
CN107408345B (en) Method and device for determining presence of target object
JP6454554B2 (en) External environment recognition device for vehicle and vehicle behavior control device using the same
JP6281460B2 (en) Object detection device
WO2017171082A1 (en) Vehicle control device and vehicle control method
JP6614108B2 (en) Vehicle control apparatus and vehicle control method
JP5098563B2 (en) Object detection device
JP4985306B2 (en) Obstacle determination device and method, and vehicle equipped with an obstacle determination device
US20120081542A1 (en) Obstacle detecting system and method
WO2016031494A1 (en) Object detecting device
US12077161B2 (en) Method and processing unit for determining information with respect to an object in an environment of a vehicle
US10527719B2 (en) Object detection apparatus and object detection method
JP6458651B2 (en) Road marking detection device and road marking detection method
JP2011145166A (en) Vehicle detector
WO2005086078A1 (en) Method and apparatus for classifying an object
JP6477453B2 (en) Object detection device and object detection method
JP2009276200A (en) On-vehicle object detection device
JP2006258497A (en) Object recognition apparatus for vehicle
WO2012133457A1 (en) Object recognition device
JP2008037361A (en) Obstacle recognition device
JP2011232155A (en) Object recognition device and program
JP2021196939A (en) On-vehicle sensor system
JP2011053139A (en) Object detection device