JP5470886B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP5470886B2
JP5470886B2 JP2009029933A JP2009029933A JP5470886B2 JP 5470886 B2 JP5470886 B2 JP 5470886B2 JP 2009029933 A JP2009029933 A JP 2009029933A JP 2009029933 A JP2009029933 A JP 2009029933A JP 5470886 B2 JP5470886 B2 JP 5470886B2
Authority
JP
Japan
Prior art keywords
vehicle
template
detection
contour
point sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009029933A
Other languages
Japanese (ja)
Other versions
JP2010185769A (en
Inventor
弘 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009029933A priority Critical patent/JP5470886B2/en
Publication of JP2010185769A publication Critical patent/JP2010185769A/en
Application granted granted Critical
Publication of JP5470886B2 publication Critical patent/JP5470886B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両などの物体を検出する物体検出装置に関するものである。   The present invention relates to an object detection device that detects an object such as a vehicle.

従来、車両などの物体を検出する装置として、例えば特開2000−206241号公報に記載されるように、レーダにより検出された複数の反射箇所をグループ化し物体の輪郭を構成する線分を抽出するものが知られている。この装置は、抽出された二本の線分がほぼ直交する点を物体の端点として認識しようとするものである。   Conventionally, as an apparatus for detecting an object such as a vehicle, for example, as described in Japanese Patent Application Laid-Open No. 2000-206241, a plurality of reflection points detected by a radar are grouped to extract a line segment constituting the contour of the object. Things are known. This apparatus is intended to recognize a point where two extracted line segments are substantially orthogonal as an end point of an object.

特開2000−206241号公報JP 2000-206241 A

しかしながら、上述した装置にあっては、二つの線分を分離して抽出できなかった場合には物体の異なる側面を一つの側面として認識してしまい適切な物体の検出が行えないという不具合がある。   However, in the above-described apparatus, if two line segments cannot be separated and extracted, different sides of the object are recognized as one side and an appropriate object cannot be detected. .

そこで本発明は、このような問題点を解決するためになされたものであって、物体の向きに適応した物体の輪郭検出を行うことにより物体の検出精度を高められる物体検出装置を提供することを目的とする。   Accordingly, the present invention has been made to solve such problems, and provides an object detection device that can improve the object detection accuracy by detecting the contour of an object adapted to the direction of the object. With the goal.

すなわち、本発明に係る物体検出装置は、物体の検出を行う物体検出装置において、レーダにより前記物体の検出点を検出するレーダ検出手段と、前記物体の撮像画像に基づいて前記物体の向きを検出する物体方向検出手段と、異なる形状の複数のテンプレートを有し、前記物体の向きが斜めである場合にL字形を含む形状のテンプレートを選択し、前記物体の向きが斜めでない場合に直線形状のテンプレートを前記レーダ検出手段により検出された検出点の点列に当てはめて、前記物体の輪郭を検出する輪郭検出手段とを備えて構成されている。 That is, the object detection device according to the present invention is an object detection device that detects an object, and detects a direction of the object based on a radar detection unit that detects a detection point of the object by a radar and a captured image of the object. A plurality of templates having different shapes, a template having an L shape is selected when the direction of the object is diagonal, and a linear shape is selected when the direction of the object is not diagonal. Contour detection means for detecting a contour of the object by applying a template to a point sequence of detection points detected by the radar detection means.

この発明によれば、物体の向きに応じて選択されたテンプレートをレーダ検出点の点列に当てはめて物体の輪郭を検出することにより、物体の向きに適応した形状のテンプレートを用いて物体の輪郭を検出することができる。このため、物体の輪郭を適切に検出して物体の検出精度を高めることができる。   According to the present invention, by applying a template selected according to the direction of an object to a point sequence of radar detection points to detect the contour of the object, the contour of the object is used using a template having a shape adapted to the direction of the object. Can be detected. For this reason, it is possible to appropriately detect the contour of the object and increase the detection accuracy of the object.

また、物体の向きが斜めである場合にL字形を含む形状のテンプレートを選択し物体の向きが斜めでない場合に直線形状のテンプレートを選択することにより、物体の向きに対応したテンプレートを用いて物体の輪郭を検出することができる。このため、物体の輪郭を適切に検出することが可能となり、物体の検出精度を高めることができる。 Further , by selecting a template having a shape including an L shape when the direction of the object is oblique and selecting a linear template when the direction of the object is not oblique, the object corresponding to the direction of the object is used. Can be detected. For this reason, it becomes possible to detect the outline of an object appropriately, and to improve the detection accuracy of an object.

また本発明に係る物体検出装置において、前記輪郭検出手段により検出した物体の輪郭の位置に基づいて前記物体の中心位置及び向きを検出する物体検出手段を備えることが好ましい。   The object detection apparatus according to the present invention preferably further comprises object detection means for detecting the center position and orientation of the object based on the position of the contour of the object detected by the contour detection means.

また本発明に係る物体検出装置において、前記物体は他車両であり、自車両に搭載され前記他車両を検出することが好ましい。   In the object detection device according to the present invention, it is preferable that the object is another vehicle and is mounted on the own vehicle to detect the other vehicle.

本発明によれば、物体の向きに応じて選択されたテンプレートをレーダ検出点の点列に当てはめて物体の輪郭を検出することにより、物体の向きに適応した形状のテンプレートを用いて物体の輪郭を検出することができる。このため、物体の輪郭を適切に検出して物体の検出精度を高めることができる。   According to the present invention, by applying a template selected according to the orientation of an object to a point sequence of radar detection points to detect the contour of the object, the contour of the object is used using a template having a shape adapted to the orientation of the object. Can be detected. For this reason, it is possible to appropriately detect the contour of the object and increase the detection accuracy of the object.

本発明の実施形態に係る物体検出装置の構成概要図である。1 is a schematic configuration diagram of an object detection device according to an embodiment of the present invention. 図1の物体検出装置における物体検出処理を示すフローチャートである。It is a flowchart which shows the object detection process in the object detection apparatus of FIG. 図2の物体検出処理の説明図である。It is explanatory drawing of the object detection process of FIG. 図2の物体検出処理の説明図である。It is explanatory drawing of the object detection process of FIG. 図2の物体検出処理の説明図である。It is explanatory drawing of the object detection process of FIG. 図2の物体検出処理の説明図である。It is explanatory drawing of the object detection process of FIG.

以下、添付図面を参照して本発明の実施の形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。本実施形態は、本発明に係る物体検出装置及び物体検出方法を衝突防止装置に適用したものである。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted. In this embodiment, the object detection apparatus and the object detection method according to the present invention are applied to a collision prevention apparatus.

図1は、実施形態に係る衝突防止装置10のブロック構成を示した図である。   FIG. 1 is a diagram illustrating a block configuration of a collision prevention apparatus 10 according to the embodiment.

図1に示すように、本実施形態の衝突防止装置10は、車両に搭載されて前方を走行する他車両との衝突を防止する装置であり、物体検出装置1と、制動部5とを備えて構成される。   As shown in FIG. 1, the collision prevention device 10 of the present embodiment is a device that prevents a collision with another vehicle that is mounted on a vehicle and travels forward, and includes an object detection device 1 and a braking unit 5. Configured.

物体検出装置1は、自車両の前方(斜め前方を含む)を走行する他車両の端部を特定すると共に、この他車両の中心位置及び向きを検出するものである。このため、物体検出装置1は、LIDAR(Light Detection And Ranging)2と、カメラ3と、ECU(Electronic Control Unit)4とを備える。   The object detection device 1 specifies an end portion of another vehicle that travels in front of the host vehicle (including an oblique front) and detects the center position and orientation of the other vehicle. For this reason, the object detection apparatus 1 includes a LIDAR (Light Detection And Ranging) 2, a camera 3, and an ECU (Electronic Control Unit) 4.

LIDAR2は、レーダにより他車両の検出点を検出するレーダ検出手段として機能するものであり、例えばレーザレーダが用いられる。このLIDAR2は、自車両の前方を走行する他車両の位置情報を一定の周期で繰り返して検出する。LIDAR2は、車両前部に取り付けられており、一定周期で繰り返してレーザ光を前方に照射し、その反射光を検出することで、他車両の自車両側の面(前面、側面、後面)の位置情報を検出する。   The LIDAR 2 functions as a radar detection unit that detects a detection point of another vehicle using a radar. For example, a laser radar is used. This LIDAR 2 repeatedly detects position information of other vehicles traveling in front of the host vehicle at a constant cycle. The LIDAR 2 is attached to the front part of the vehicle, and repeatedly irradiates the laser beam forward at a constant period and detects the reflected light, thereby detecting the vehicle side surface (front surface, side surface, rear surface) of the other vehicle. Detect location information.

また、LIDAR2は、所定角度(例えば0.8度)毎に上下左右方向に向きを変えながらレーザ光を照射している。このため、LIDAR2では、自車両に対して所定範囲内を走行する一又は複数の車両を検出することができ、他車両ごとに複数の検出点が得られる。なお、本実施形態では、LIDAR2で検出される検出点の点列を、LIDAR点列という。そして、LIDAR2は、随時、検出したLIDAR点列をECU4に送信する。   The LIDAR 2 emits laser light while changing the direction in the vertical and horizontal directions at every predetermined angle (for example, 0.8 degrees). For this reason, in LIDAR2, it is possible to detect one or a plurality of vehicles traveling within a predetermined range with respect to the own vehicle, and a plurality of detection points are obtained for each other vehicle. In the present embodiment, the point sequence of detection points detected by LIDAR 2 is referred to as a LIDAR point sequence. And LIDAR2 transmits the detected LIDAR point sequence to ECU4 at any time.

カメラ3は、自車両の前方を撮像すると共に自車両の前方を走行する他車両を撮像する画像撮像手段であり、車両前部のLIDAR2近傍に取り付けられている。カメラ3は、撮像した撮像画像を、随時ECU4に送信する。   The camera 3 is an image capturing unit that captures an image of the front of the host vehicle and an image of another vehicle traveling in front of the host vehicle, and is attached in the vicinity of LIDAR 2 at the front of the vehicle. The camera 3 transmits the captured image to the ECU 4 as needed.

ECU4は、装置全体の制御を行う制御ユニットであり、例えばCPU、ROM、RAMを含むコンピュータを主体として構成されている。ECU4は、LIDAR2及びカメラ3に接続されており、LIDAR2から送信されるLIDAR点列を取得すると共に、カメラ3から送信される撮像画像を取得する。   The ECU 4 is a control unit that controls the entire apparatus, and is configured mainly by a computer including a CPU, a ROM, and a RAM, for example. The ECU 4 is connected to the LIDAR 2 and the camera 3, acquires a LIDAR point sequence transmitted from the LIDAR 2, and acquires a captured image transmitted from the camera 3.

ECU4は、検出対象となる物体、すなわち他車両の向きを検出する物体方向検出手段として機能する。例えば、カメラ3の撮像画像を入力し、その撮像画像に対し車両向き検出用のテンプレートを用いて他車両の向きが検出される。   The ECU 4 functions as an object direction detection unit that detects an object to be detected, that is, a direction of another vehicle. For example, a captured image of the camera 3 is input, and the orientation of another vehicle is detected using the vehicle orientation detection template for the captured image.

また、ECU4は、輪郭検出用のテンプレートをLIDAR2により検出された検出点の点列に当てはめて物体の輪郭を検出する輪郭検出手段として機能する。例えば、ECU4は、輪郭検出用のテンプレートとしてL字形状を含むものや直線状のものなど異なる形状の複数のテンプレートを有しており、他車両の向きに応じて輪郭検出用のテンプレートを選択する。このとき、ECU4は、テンプレート選択手段として機能する。そして、選択した輪郭検出用のテンプレートを検出点の点列に当てはめて他車両の輪郭を検出する。   In addition, the ECU 4 functions as a contour detection unit that detects a contour of an object by applying a contour detection template to a point sequence of detection points detected by the LIDAR 2. For example, the ECU 4 has a plurality of templates having different shapes such as an L-shaped template or a linear one as a contour detection template, and selects a contour detection template according to the direction of another vehicle. . At this time, the ECU 4 functions as a template selection unit. Then, the contour of the other vehicle is detected by applying the selected contour detection template to the point sequence of the detection points.

なお、L字形状を含む輪郭検出用のテンプレートとしては、例えば二つの直交する直線からなるものでもよいし、矩形状のものであってもよい。このとき、L字形状とは、略90度に直交する略L字形状を含むものである。   Note that the outline detection template including the L-shape may be composed of, for example, two orthogonal straight lines or a rectangular shape. At this time, the L shape includes a substantially L shape orthogonal to approximately 90 degrees.

ECU4は、輪郭検出用のテンプレートを選択する際に、他車両の向きが斜めである場合にL字形を含む形状のテンプレートを選択し、他車両の向きが斜めでない場合(正面向き、背面向き又は横向きの場合)に直線形状のテンプレートを選択する。   When selecting the contour detection template, the ECU 4 selects a template including an L shape when the direction of the other vehicle is oblique, and when the direction of the other vehicle is not oblique (front direction, rear direction or Select a linear template for landscape orientation.

制動部5は、ブレーキ(不図示)を制御して、自車両に制動力を与える制動制御を行うものである。つまり、制動部5は、他車両の中心位置及び向きに基づき、自車両がこの他車両と衝突するか否かを判断する。そして、制動部5は、衝突すると判断すると、ブレーキに制動力を与えて自車両を減速させる。   The braking unit 5 controls a brake (not shown) to perform a braking control that gives a braking force to the host vehicle. That is, the braking unit 5 determines whether or not the host vehicle collides with the other vehicle based on the center position and orientation of the other vehicle. And if the braking part 5 judges that it collides, it will give the braking force to a brake, and will decelerate the own vehicle.

次に、衝突防止装置10及び物体検出装置1の動作について説明する。   Next, operations of the collision prevention device 10 and the object detection device 1 will be described.

図2は、ECUの動作を示すフローチャートであり、図3は、LIDARにより検出された検出点を示す図であり、図4は、カメラにより撮像された撮像画像を示す図である。なお、以下の制御は、例えばECU4により繰り返し実行される。   2 is a flowchart illustrating the operation of the ECU, FIG. 3 is a diagram illustrating detection points detected by the LIDAR, and FIG. 4 is a diagram illustrating a captured image captured by the camera. The following control is repeatedly executed by the ECU 4, for example.

まず、ステップS1では、LIDAR点列の取得処理が行われる。すなわち、LIDAR2では、LIDAR点列である複数の検出点により一又は複数の他車両が検出されており、LIDAR2からLIDAR点列が送信されることにより、LIDAR点列が取得される。図3は、自車両20の前方に他車両21が走行している場合の例を示している。この場合、複数の検出点pにより構成されるLIDAR点列Pにより、他車両21が検出される。なお、LIDAR2で検出される各検出点の位置情報は、カメラ3のレンズ中心を原点とした座標軸(カメラ3の座標系)で表される。   First, in step S1, an LIDAR point sequence acquisition process is performed. That is, in LIDAR2, one or a plurality of other vehicles are detected by a plurality of detection points which are LIDAR point sequences, and the LIDAR point sequence is acquired by transmitting the LIDAR point sequence from LIDAR2. FIG. 3 shows an example in which another vehicle 21 is traveling ahead of the host vehicle 20. In this case, the other vehicle 21 is detected by the LIDAR point sequence P configured by a plurality of detection points p. Note that the position information of each detection point detected by the LIDAR 2 is represented by a coordinate axis (coordinate system of the camera 3) with the lens center of the camera 3 as the origin.

そして、ステップS2に移行し、LIDAR点列のグルーピング処理が行われる。このグルーピング処理では、ステップS1で取得されたLIDAR点列が、各他車両に対応してグルーピングされる。なお、以下の説明では、ステップS2でグルーピングされたLIDAR点列ごとに、各ステップの処理が行われる。   And it transfers to step S2 and the grouping process of a LIDAR point sequence is performed. In this grouping process, the LIDAR point sequence acquired in step S1 is grouped corresponding to each other vehicle. In the following description, the process of each step is performed for each LIDAR point sequence grouped in step S2.

次に、ステップS3に移行し、点列変換処理が行われる。点列変換処理は、LIDAR点列を水平面上の点列に変換する処理である。例えば、三次元情報として取得されたLIDAR点列の座標値が真上からみたような二次元のx−y座標系の座標値に変換される。この点列変換処理により、他車両の輪郭に対応する点列の座標値を取得することができる。   Next, it transfers to step S3 and a point sequence conversion process is performed. The point sequence conversion processing is processing for converting a LIDAR point sequence into a point sequence on a horizontal plane. For example, the coordinate value of the LIDAR point sequence acquired as three-dimensional information is converted into a coordinate value of a two-dimensional xy coordinate system as seen from directly above. By this point sequence conversion process, the coordinate value of the point sequence corresponding to the contour of the other vehicle can be acquired.

次に、ステップS4に移行し、カメラ3で撮像された撮像画像の取得処理が行われる。なお、自車両の前方に一又は複数台の他車両が走行している場合は、一又は複数台の他車両の画像を含む撮像画像が取得される。   Next, it transfers to step S4 and the acquisition process of the captured image imaged with the camera 3 is performed. When one or more other vehicles are traveling in front of the host vehicle, a captured image including an image of one or more other vehicles is acquired.

そして、ステップS5に移行し、点列座標変換処理が行われる。点列座標変換処理は、LIDAR点列の座標値をカメラ3から見た平面画像上の座標値に変換する処理である。例えば、LIDAR点列の座標値がu−v座標系の二次元座標値に変換される。この点列座標変換処理により、撮像画像上の点列情報が取得できる。   And it transfers to step S5 and a point sequence coordinate conversion process is performed. The point sequence coordinate conversion process is a process for converting the coordinate value of the LIDAR point sequence into a coordinate value on a planar image viewed from the camera 3. For example, the coordinate value of the LIDAR point sequence is converted into a two-dimensional coordinate value in the uv coordinate system. The point sequence information on the captured image can be acquired by this point sequence coordinate conversion process.

次に、ステップS6に移行し、矩形領域抽出処理が行われる。矩形領域抽出処理は、ステップS5にて取得された点列を含むように、撮像画像上に矩形領域を抽出する処理である。例えば、ステップS5にて取得された点列を含む矩形領域が複数設定され、他車両の外形に近いものが選択され矩形領域として抽出される。   Next, the process proceeds to step S6, and rectangular area extraction processing is performed. The rectangular area extraction process is a process of extracting a rectangular area on the captured image so as to include the point sequence acquired in step S5. For example, a plurality of rectangular areas including the point sequence acquired in step S5 are set, and those close to the outer shape of the other vehicle are selected and extracted as rectangular areas.

具体的には、図4に示すように、LIDAR点列Pを含み車両の外形に沿うように矩形領域Aが抽出される。このとき、矩形領域Aの左右端部が他車両の画像の左右端部に合うように、矩形領域Aが抽出される。   Specifically, as shown in FIG. 4, a rectangular area A is extracted so as to include the LIDAR point sequence P and conform to the outer shape of the vehicle. At this time, the rectangular area A is extracted so that the left and right end portions of the rectangular area A match the left and right end portions of the image of the other vehicle.

図4では、他車両の正面の画像Gを示しているが、実際には、他車両が背面、側面又は斜めに傾いた画像となる場合もある。この場合、矩形領域Aの左右端部が他車両の画像の左右端部に合うように矩形領域Aが抽出される。   In FIG. 4, the image G of the front of the other vehicle is shown. However, in actuality, the other vehicle may be an image inclined to the back, side, or diagonally. In this case, the rectangular area A is extracted so that the left and right end portions of the rectangular area A match the left and right end portions of the image of the other vehicle.

なお、他車両の画像の検索は、例えば予め用意された所定の車両画像テンプレートとのマッチングにより行ってもよい。また、他車両の画像の検索は、LIDAR点列を用いることなく、撮像画像の全て又は一部を走査することにより行ってもよい。   In addition, you may perform the search of the image of other vehicles by matching with the predetermined vehicle image template prepared previously, for example. Moreover, you may perform the search of the image of another vehicle by scanning all or one part of a captured image, without using a LIDAR point sequence.

次に、ステップS7に移行し、他車両の向き検出処理が行われる。他車両の向き検出処理は、ステップS6において抽出した矩形領域の画像に基づいて他車両の向きを検出する処理である。例えば、予め記録されている車両画像のテンプレートを用いて他車両の向きが検出される。   Next, the process proceeds to step S7, and the direction detection process of the other vehicle is performed. The direction detection process of the other vehicle is a process of detecting the direction of the other vehicle based on the image of the rectangular area extracted in step S6. For example, the direction of another vehicle is detected using a template of a vehicle image recorded in advance.

次に、ステップS8に移行し、矩形領域の左右端の位置の座標変換処理が行われる。この左右端の位置の座標変換処理では、まず、ステップS6で抽出された矩形領域の左右端(図4のa1、a2)の左右方向の位置が求められる。そして、この左右端の位置が、LIDAR2で検出される検出点と同一座標軸上であって、カメラ3のレンズ中心を原点とした水平面上の対応位置に座標変換される。   Next, the process proceeds to step S8, and coordinate conversion processing of the positions of the left and right ends of the rectangular area is performed. In the coordinate conversion processing of the left and right end positions, first, the left and right positions of the left and right ends (a1 and a2 in FIG. 4) of the rectangular area extracted in step S6 are obtained. The left and right end positions are coordinate-converted to corresponding positions on the horizontal plane on the same coordinate axis as the detection point detected by LIDAR 2 and with the lens center of the camera 3 as the origin.

図5は、水平面上の位置関係を示した図である。図5に示すように、ステップS8では、撮像画像Gが自車両20と他車両21との間であってカメラ3の倍率設定等により定まる所定位置に配置されたものとして、座標変換が行われる。なお、図5では、分かり易くするために、撮像画像Gを立体的に傾斜させて示している。   FIG. 5 is a diagram showing a positional relationship on the horizontal plane. As shown in FIG. 5, in step S <b> 8, coordinate conversion is performed on the assumption that the captured image G is arranged between the host vehicle 20 and the other vehicle 21 and at a predetermined position determined by the magnification setting of the camera 3. . In FIG. 5, the captured image G is shown in a three-dimensionally inclined manner for easy understanding.

次に、ステップS9に移行し、ステップS8で座標変換が行われた矩形領域の左右端の方位直線β1,β2の算出処理が行われる。図5に示すように、この方位直線β1,β2の算出処理では、座標軸の原点であるカメラ3のレンズ中心Oと、ステップS6で座標変換が行われた矩形領域の左右端の位置a11,a12とを通る直線が算出される。そして、この算出された直線が、方位直線β1,β2とされる。このため、方位直線β1,β2は、座標軸の原点であるカメラ3のレンズ中心Oから見て他車両21の左右端部を通る直線となる。   Next, the process proceeds to step S9, and the calculation processing of the azimuth straight lines β1 and β2 at the left and right ends of the rectangular area where the coordinate conversion is performed in step S8 is performed. As shown in FIG. 5, in the calculation processing of the azimuth straight lines β1 and β2, the lens center O of the camera 3 that is the origin of the coordinate axes and the positions a11 and a12 of the left and right ends of the rectangular area in which the coordinate conversion is performed in step S6. A straight line passing through is calculated. The calculated straight lines are set as azimuth straight lines β1 and β2. Therefore, the azimuth straight lines β1 and β2 are straight lines passing through the left and right end portions of the other vehicle 21 when viewed from the lens center O of the camera 3 that is the origin of the coordinate axes.

次に、ステップS10に移行し、テンプレート選択処理が行われる。テンプレート選択処理は、他車両の輪郭を検出するために用いられるテンプレートを選択する処理である。例えば。輪郭検出用のテンプレートとしては、L字形を含む形状のテンプレートと直線形状のテンプレートが設定されている。そして、他車両の向きが斜めである場合にL字形を含む形状のテンプレートが選択され、他車両の向きが斜めでない場合に直線形状のテンプレートが選択される。他車両の向きが正面向き、背面向き、側面向きの場合には、他車両の向きが斜めでない場合に直線形状のテンプレートが選択される。   Next, the process proceeds to step S10, and template selection processing is performed. The template selection process is a process for selecting a template used for detecting the contour of another vehicle. For example. As a template for contour detection, a template having a shape including an L shape and a template having a linear shape are set. A template having an L shape is selected when the direction of the other vehicle is oblique, and a linear template is selected when the direction of the other vehicle is not oblique. When the direction of the other vehicle is the front direction, the back direction, or the side direction, the linear template is selected when the direction of the other vehicle is not oblique.

次に、ステップS11に移行し、輪郭検出処理が行われる。輪郭検出処理は、他車両の点列に対し輪郭検出用のテンプレートを当てはめて輪郭を検出し、輪郭検出用テンプレートと方位直線との交点を算出する処理である。   Next, it transfers to step S11 and an outline detection process is performed. The contour detection processing is processing for detecting a contour by applying a contour detection template to a point sequence of another vehicle, and calculating an intersection between the contour detection template and the azimuth line.

例えば、図5に示すように、他車両が正面向きである場合(斜め向きでない場合)には、輪郭検出用テンプレートとして直線形状のテンプレートαが用いられ、テンプレートαを点列Pに当てはめてテンプレートαの位置が設定される。そして、その位置におけるテンプレートαと方位直線β1、β2の交点X1、X2が算出される。   For example, as shown in FIG. 5, when the other vehicle is facing the front (not obliquely), a linear template α is used as the contour detection template, and the template α is applied to the point sequence P as a template. The position of α is set. Then, intersections X1 and X2 of the template α and the azimuth lines β1 and β2 at the position are calculated.

また、図6に示すように、他車両が斜めの向きである場合には、輪郭検出用テンプレートとしてL字形状のテンプレートαLが用いられ、テンプレートαLを点列Pに当てはめてテンプレートαの位置が設定される。そして、その位置におけるテンプレートαLと方位直線β1、β2の交点X1、X2が算出され、テンプレートαLの角部の位置Xcが算出される。位置Xcは、テンプレートαLの位置及び傾き角度に基づいて算出すればよい。   Further, as shown in FIG. 6, when the other vehicle is in an oblique direction, an L-shaped template αL is used as a contour detection template, and the position of the template α is determined by applying the template αL to the point sequence P. Is set. Then, the intersections X1 and X2 of the template αL and the azimuth lines β1 and β2 at the position are calculated, and the corner position Xc of the template αL is calculated. The position Xc may be calculated based on the position and tilt angle of the template αL.

この場合、他車両21が自車両20に対し斜めであるから、点列Pが角部を有する形状となっている。このため、点列Pに対しL字形状のテンプレートαLが当てはめやすく、当てはめの誤りが低減され、適切な輪郭検出が可能となる。   In this case, since the other vehicle 21 is oblique with respect to the host vehicle 20, the point sequence P has a shape having a corner. For this reason, the L-shaped template αL can be easily applied to the point sequence P, the fitting error is reduced, and appropriate contour detection can be performed.

次に、ステップS12に移行し、他車両の中心位置及び向きの算出処理が行われる。この他車両の中心位置及び向きの算出処理では、ステップS11で算出された交点x1、x2を端点とした矩形が当てはめられる。   Next, it transfers to step S12 and the calculation process of the center position and direction of another vehicle is performed. In the calculation process of the center position and direction of the other vehicle, a rectangle having the intersection points x1 and x2 calculated in step S11 as end points is applied.

物体検出装置1には、予め車両の形状に対応した矩形のテンプレートが用意されており、ステップS12では、この矩形のテンプレートが、テンプレートα又はαLに沿って配置され、拡大又は縮小されることによって当てはめられる。   In the object detection device 1, a rectangular template corresponding to the shape of the vehicle is prepared in advance. In step S12, the rectangular template is arranged along the template α or αL, and enlarged or reduced. Applied.

このとき、他車両が斜めでない場合に、他車両が正面向き、後ろ向き又は横向きであるかは、交点X1、X2の間の距離に基づいて向きを推定して矩形テンプレートを当てはめればよい。そして、当てはめられた矩形の中心位置及び向きが、他車両の中心位置及び向きとして算出される。   At this time, when the other vehicle is not inclined, whether the other vehicle is front-facing, rearward-facing, or lateral-facing may be determined by estimating the direction based on the distance between the intersections X1 and X2 and applying a rectangular template. Then, the center position and orientation of the fitted rectangle are calculated as the center position and orientation of the other vehicle.

物体検出装置1により他車両の中心位置及び向きが算出されると、制動部5により、制動制御が行われる。つまり、物体検出装置1により算出された他車両の中心位置及び向きから、各他車両との衝突可能性が判定される。その結果、何れかの他車両との衝突可能性があると判定されると、ブレーキを制御することにより、自車両に制動力を与えられ、当該他車両との接触が防止される。   When the center position and orientation of the other vehicle are calculated by the object detection device 1, braking control is performed by the braking unit 5. That is, the possibility of collision with each other vehicle is determined from the center position and orientation of the other vehicle calculated by the object detection device 1. As a result, if it is determined that there is a possibility of collision with any other vehicle, the braking force is applied to the host vehicle by controlling the brake, and contact with the other vehicle is prevented.

以上のように、本実施形態に係る物体検出装置1によれば、他車両の向きに応じて選択されたテンプレートをレーダ検出点の点列に当てはめて他車両の輪郭を検出することにより、他車両の向きに適応した形状のテンプレートを用いて他車両の輪郭を検出することができる。このため、他車両の輪郭を適切に検出して他車両の検出精度を高めることができる。例えば、他車両の正面と側面を直線と認識して他車両の輪郭を誤検出するようなことが抑制され、他車両の検出精度が高められる。   As described above, according to the object detection apparatus 1 according to the present embodiment, the template selected according to the direction of the other vehicle is applied to the point sequence of the radar detection points to detect the contour of the other vehicle. The contour of another vehicle can be detected using a template having a shape adapted to the direction of the vehicle. For this reason, it is possible to appropriately detect the contour of the other vehicle and increase the detection accuracy of the other vehicle. For example, it is suppressed that the front and side surfaces of the other vehicle are recognized as straight lines and the contour of the other vehicle is erroneously detected, and the detection accuracy of the other vehicle is improved.

また、本実施形態に係る物体検出装置1において、他車両の向きが斜めである場合にL字形を含む形状のテンプレートを選択し他車両の向きが斜めでない場合に直線形状のテンプレートを選択することにより、他車両の向きに対応したテンプレートを用いて他車両の輪郭を検出することができる。このため、他車両の輪郭を適切に検出することが可能となり、物体の検出精度を高めることができる。   Moreover, in the object detection apparatus 1 according to the present embodiment, a template having an L shape is selected when the direction of the other vehicle is oblique, and a linear template is selected when the direction of the other vehicle is not oblique. Thus, it is possible to detect the contour of the other vehicle using a template corresponding to the direction of the other vehicle. For this reason, it becomes possible to detect the outline of other vehicles appropriately, and to improve the detection accuracy of an object.

なお、上述した実施形態は本発明に係る物体検出装置の一例を説明したものであり、本発明に係る物体検出装置は本実施形態に記載したものに限定されるものではない。本発明に係る物体検出装置は、各請求項に記載した要旨を変更しないように実施形態に係る物体検出装置を変形し、又は他のものに適用したものであってもよい。   The embodiment described above is an example of the object detection device according to the present invention, and the object detection device according to the present invention is not limited to the one described in the present embodiment. The object detection apparatus according to the present invention may be a modification of the object detection apparatus according to the embodiment or application to other objects without changing the gist described in each claim.

例えば、上述の本実施形態では、レーダ検出手段としてLIDAR2を用いる場合について説明したが、LIDAR2以外のものを用いて自車両の周囲に存在する他車両の位置情報を検出してもよい。例えば、ミリ波レーダであってもよい。   For example, in the above-described embodiment, the case where LIDAR2 is used as the radar detection unit has been described. However, position information of other vehicles existing around the host vehicle may be detected using a device other than LIDAR2. For example, a millimeter wave radar may be used.

また、上述の本実施形態では、他車両を検出対象の物体とする場合について説明したが、他車両以外の物体の検出に適用してもよい。   In the above-described embodiment, the case where the other vehicle is set as the detection target object has been described. However, the present invention may be applied to detection of an object other than the other vehicle.

1…物体検出装置、2…LIDAR、3…カメラ、4…ECU、5…制動部。   DESCRIPTION OF SYMBOLS 1 ... Object detection apparatus, 2 ... LIDAR, 3 ... Camera, 4 ... ECU, 5 ... Brake part.

Claims (3)

物体の検出を行う物体検出装置において、
レーダにより前記物体の検出点を検出するレーダ検出手段と、
前記物体の撮像画像に基づいて前記物体の向きを検出する物体方向検出手段と、
異なる形状の複数のテンプレートを有し、前記物体の向きが斜めである場合にL字形を含む形状のテンプレートを選択し、前記物体の向きが斜めでない場合に直線形状のテンプレートを選択するテンプレート選択手段と、
前記テンプレート選択手段により選択されたテンプレートを前記レーダ検出手段により検出された検出点の点列に当てはめて、前記物体の輪郭を検出する輪郭検出手段と、
を備えた物体検出装置。
In an object detection device that detects an object,
Radar detecting means for detecting a detection point of the object by radar;
Object direction detection means for detecting the direction of the object based on a captured image of the object;
A template selection unit that includes a plurality of templates having different shapes, selects a template having an L shape when the direction of the object is oblique, and selects a linear template when the direction of the object is not oblique. When,
Contour detection means for detecting the contour of the object by applying the template selected by the template selection means to a point sequence of detection points detected by the radar detection means;
An object detection apparatus comprising:
前記輪郭検出手段により検出した物体の輪郭の位置に基づいて前記物体の中心位置及び向きを検出する物体検出手段を備える、
請求項1に記載の物体検出装置。
An object detection means for detecting the center position and orientation of the object based on the position of the contour of the object detected by the contour detection means;
The object detection apparatus according to claim 1.
前記物体は他車両であり、自車両に搭載され前記他車両を検出する、
請求項1又は2に記載の物体検出装置。
The object is another vehicle and is mounted on the own vehicle to detect the other vehicle.
The object detection apparatus according to claim 1 or 2 .
JP2009029933A 2009-02-12 2009-02-12 Object detection device Expired - Fee Related JP5470886B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009029933A JP5470886B2 (en) 2009-02-12 2009-02-12 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009029933A JP5470886B2 (en) 2009-02-12 2009-02-12 Object detection device

Publications (2)

Publication Number Publication Date
JP2010185769A JP2010185769A (en) 2010-08-26
JP5470886B2 true JP5470886B2 (en) 2014-04-16

Family

ID=42766515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009029933A Expired - Fee Related JP5470886B2 (en) 2009-02-12 2009-02-12 Object detection device

Country Status (1)

Country Link
JP (1) JP5470886B2 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101030763B1 (en) * 2010-10-01 2011-04-26 위재영 Image acquisition unit, acquisition method and associated control unit
JP5655497B2 (en) * 2010-10-22 2015-01-21 トヨタ自動車株式会社 Obstacle recognition device and obstacle recognition method
KR20140006462A (en) * 2012-07-05 2014-01-16 현대모비스 주식회사 Apparatus and method for assisting safe driving
KR101534927B1 (en) 2013-10-08 2015-07-07 현대자동차주식회사 Apparatus and method for recognizing of vehicle
JP6523196B2 (en) * 2016-03-17 2019-05-29 株式会社東芝 Estimation apparatus, method and program
JP6685836B2 (en) * 2016-05-30 2020-04-22 株式会社東芝 Information processing apparatus and information processing method
JP6786302B2 (en) 2016-08-12 2020-11-18 株式会社小糸製作所 Lighting device
EP3998176A1 (en) 2016-08-12 2022-05-18 Koito Manufacturing Co., Ltd. Illumination system and sensor system
WO2018051906A1 (en) 2016-09-15 2018-03-22 株式会社小糸製作所 Sensor system, sensor module, and lamp device
JP6908993B2 (en) * 2016-12-26 2021-07-28 株式会社デンソーテン Information processing device, information processing method, and driving support system
US10611378B2 (en) 2017-02-01 2020-04-07 Toyota Research Institute, Inc. Systems and methods for operating a vehicle on a roadway
JP2018129259A (en) * 2017-02-10 2018-08-16 株式会社小糸製作所 Lamp device
JPWO2018173855A1 (en) 2017-03-21 2020-01-23 株式会社小糸製作所 Sensor module, sensor system, and method of mounting sensor system on vehicle
JP7096823B2 (en) 2017-07-24 2022-07-06 株式会社小糸製作所 Lamp device
CN107632308B (en) * 2017-08-24 2021-02-05 吉林大学 Method for detecting contour of obstacle in front of vehicle based on recursive superposition algorithm
JPWO2019172118A1 (en) 2018-03-05 2021-02-18 株式会社小糸製作所 Sensor systems, sensor modules, and lamp devices
JP7141242B2 (en) 2018-05-18 2022-09-22 株式会社小糸製作所 sensor system
CN113015653A (en) 2018-11-12 2021-06-22 株式会社小糸制作所 Vehicle lamp system
EP3857208A1 (en) * 2018-11-15 2021-08-04 BASF Coatings GmbH Method and device for simulating the visibility of a paint for a lidar sensor, which paint is applied to a surface
WO2020152816A1 (en) * 2019-01-24 2020-07-30 三菱電機株式会社 Tracking device and tracking method
JP7236687B2 (en) * 2019-01-31 2023-03-10 株式会社デンソー RADAR DEVICE, VEHICLE CONTROL SYSTEM AND TARGET INFORMATION ESTIMATION METHOD
CN113781797B (en) * 2021-11-11 2022-02-18 成都古河云科技有限公司 Automatic optical recognition system for vehicle outline

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000131436A (en) * 1998-10-29 2000-05-12 Aisin Seiki Co Ltd Curve estimation method and vehicle speed controlling device using the same
JP2004265209A (en) * 2003-03-03 2004-09-24 Fujitsu Ten Ltd Object recognition method
JP2006276985A (en) * 2005-03-28 2006-10-12 Aisin Seiki Co Ltd Method and device for recognizing object
JP4817982B2 (en) * 2006-06-20 2011-11-16 アルパイン株式会社 Vehicle identification system and vehicle identification method
JP2009042181A (en) * 2007-08-10 2009-02-26 Denso Corp Estimating apparatus

Also Published As

Publication number Publication date
JP2010185769A (en) 2010-08-26

Similar Documents

Publication Publication Date Title
JP5470886B2 (en) Object detection device
US10169667B2 (en) External environment recognizing device for vehicle and vehicle behavior control device
JP5098563B2 (en) Object detection device
JP5645769B2 (en) Image processing device
JP2010061567A (en) Object detecting apparatus
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
JP2009086787A (en) Vehicle detection device
US10527719B2 (en) Object detection apparatus and object detection method
JP2010271788A (en) Object detection device
JP6687039B2 (en) Object detection device, device control system, imaging device, object detection method, and program
WO2012133457A1 (en) Object recognition device
JP6424467B2 (en) Target detection device
JP2007304033A (en) Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring
JP2018081628A (en) Vehicle control device, vehicle control method
JP4052291B2 (en) Image processing apparatus for vehicle
JP2014142241A (en) Three-dimensional position estimation device, vehicle controller, and three-dimensional position estimation method
JP2017098932A (en) Vehicle display device and vehicle display method
JP2017162178A (en) Determination device, determination method and determination program
US10657392B2 (en) Object detection device, object detection method, and program
JP2009186353A (en) Object detecting device and object detecting method
JP2010032429A (en) Object detector
JP2011145166A (en) Vehicle detector
JP6458577B2 (en) Image ranging device
JP2005156199A (en) Vehicle detection method and vehicle detector
JP2010071942A (en) Object detecting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R151 Written notification of patent or utility model registration

Ref document number: 5470886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees