JP5556317B2 - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP5556317B2
JP5556317B2 JP2010088681A JP2010088681A JP5556317B2 JP 5556317 B2 JP5556317 B2 JP 5556317B2 JP 2010088681 A JP2010088681 A JP 2010088681A JP 2010088681 A JP2010088681 A JP 2010088681A JP 5556317 B2 JP5556317 B2 JP 5556317B2
Authority
JP
Japan
Prior art keywords
vehicle
search area
target
object recognition
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010088681A
Other languages
Japanese (ja)
Other versions
JP2011220766A (en
Inventor
孝行 宮原
高志 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2010088681A priority Critical patent/JP5556317B2/en
Publication of JP2011220766A publication Critical patent/JP2011220766A/en
Application granted granted Critical
Publication of JP5556317B2 publication Critical patent/JP5556317B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、車幅方向(水平方向)の所定範囲内に渡り送信波を照射し、その反射波に基づいて車両前方の物体を認識する技術に関する。   The present invention relates to a technique for irradiating a transmission wave over a predetermined range in a vehicle width direction (horizontal direction) and recognizing an object in front of a vehicle based on the reflected wave.

従来、例えばレーザ光,ミリ波などの送信波を照射し、その反射波を検出することによって、車両前方の物体を認識する物体認識装置が考えられている。この種の装置としては、例えば、先行車両などの障害物を検出して警報を発生する装置や、先行車両と所定の車間距離を保持するように車速を制御する装置などに適用され、それらの制御対象としての先行車両などの物体認識に利用されている。   Conventionally, for example, an object recognition device that recognizes an object in front of a vehicle by irradiating a transmission wave such as a laser beam or a millimeter wave and detecting a reflected wave thereof has been considered. This type of device is applied to, for example, a device that detects an obstacle such as a preceding vehicle and generates an alarm, or a device that controls the vehicle speed so as to maintain a predetermined distance from the preceding vehicle. It is used for object recognition such as a preceding vehicle as a control target.

このような物体認識に際して、路側物(例えば中央分離帯付近の植え込みなど)を誤って前方に存在する車両であると認識してしまわないようにする手法が考えられている(例えば特許文献1参照)。この手法は、検出対象空間ごとに物体の反射強度による車両/非車両判定レベルを設定し、物体からの反射強度に基づいて先行車と非車両を区別するものである。   At the time of such object recognition, a method is conceived in which a roadside object (for example, planting in the vicinity of the median strip) is not mistakenly recognized as a vehicle existing ahead (see, for example, Patent Document 1). ). In this method, a vehicle / non-vehicle determination level based on the reflection intensity of an object is set for each detection target space, and a preceding vehicle and a non-vehicle are distinguished based on the reflection intensity from the object.

例えば図9に示すような非車両判定マップを用いて測距データの対応領域を判定し、測距データが車両に対応する領域なのか、非車両に対応する領域なのかを判断している。この非車両判定マップは、車幅方向、車高方向及び車両前方方向(車両進行方向)をそれぞれX軸、Y軸及びZ軸とした場合の反射物体の存在領域に対応して、車両と非車両を区別するための受光強度の範囲が設定された3次元マップである。具体的には、XY方向については、中心付近の領域、その周囲の領域、最下端領域の3つに分けられており、それら各領域に対応してZ方向位置と受光強度との対応関係が(a)〜(c)のように設定されている。XY方向についての中心付近の領域は(b)の対応関係が対応し、その周囲の領域は(a)の対応関係が対応し、最下端領域は(c)の対応関係が対応している。   For example, a corresponding area of distance measurement data is determined using a non-vehicle determination map as shown in FIG. 9, and it is determined whether the distance measurement data is an area corresponding to a vehicle or an area corresponding to a non-vehicle. This non-vehicle determination map corresponds to the existence area of the reflecting object when the vehicle width direction, the vehicle height direction, and the vehicle front direction (vehicle traveling direction) are the X axis, the Y axis, and the Z axis, respectively. It is a three-dimensional map in which a range of received light intensity for distinguishing vehicles is set. Specifically, the XY direction is divided into an area near the center, an area around it, and a lowermost area, and the correspondence between the Z direction position and the received light intensity corresponds to each of these areas. (A) to (c) are set. The region near the center in the XY direction corresponds to the correspondence relationship (b), the surrounding region corresponds to the correspondence relationship (a), and the lowermost region corresponds to the correspondence relationship (c).

特開2002−131433号公報JP 2002-131433 A

しかし、路側に存在する物体は、必ずしも低反射物とは限らない。例えば、ガードレールに取り付けられているデリニエータや反射誘導板は高反射物であり、受光強度による判別では十分に対応しきれない場合もある。また、デリニエータや反射誘導板などのように元々高反射性を持たせたものではなく、ガードレールや壁であってもそれなりの反射強度を有するため、例えば汚れて反射強度の低下した車両との区別が付きにくくなる場合もある。このように最終的な車両/非車両の区別を反射強度に依存してしまうと、誤判定の可能性がある。   However, an object present on the roadside is not necessarily a low reflection object. For example, a delineator or a reflection guide plate attached to a guard rail is a highly reflective object, and there are cases where it is not possible to sufficiently cope with discrimination based on received light intensity. In addition, it does not have high reflectivity like a delineator or a reflection guide plate, and even a guardrail or a wall has a certain reflection strength. May be difficult to attach. Thus, if the final vehicle / non-vehicle distinction depends on the reflection intensity, there is a possibility of erroneous determination.

そしてまた、単に車両/非車両の判定だけでなく、車両同士を区別する場合であっても、反射強度への依存度合いが大きな判定手法だと、並走する車両同士を精度良く区別できない場合もある。   In addition, not only vehicle / non-vehicle determination but also a case where the vehicles are distinguished from each other even if the vehicles are distinguished from each other even if they are distinguished from each other. is there.

本発明は、上記問題点を解決するために、物体を精度よく認識する物体認識技術を提供することを目的とする。   In order to solve the above-described problems, an object of the present invention is to provide an object recognition technique for accurately recognizing an object.

上記目的を達成するためになされた本発明の物体認識装置は、車両に搭載され、少なくとも車幅方向に沿って隣接するように設定された複数の送信波ビームを用いて走査を実行した結果に基づき、送信波を反射した物体を認識する。   The object recognition apparatus of the present invention made to achieve the above object is a result of performing scanning using a plurality of transmission wave beams mounted on a vehicle and set to be adjacent at least along the vehicle width direction. Based on this, the object that reflected the transmitted wave is recognized.

そして、検出手段が、走査によって得られた物体からの反射波の受信信号に基づいて、送信波ビーム毎に受信強度、及び物体の位置を検出し、物標化手段が、検出手段での検出結果に基づき、ある検出結果の位置を基準として設定した探索領域内に別の検出結果の位置も含まれていれば同一物標に属するものとして複数の検出結果を一体化する。   Then, the detection means detects the received intensity and the position of the object for each transmission wave beam based on the received signal of the reflected wave from the object obtained by scanning, and the target means detects the detection means. Based on the result, a plurality of detection results are integrated as belonging to the same target if the position of another detection result is also included in the search region set based on the position of a certain detection result.

物標化手段が複数の検出結果を一体化する際に用いる探索領域の車幅方向の長さは、隣接する2つの送信波ビームからの反射波が丁度含まれるような長さに設定され、探索領域の車両進行方向の長さは、送信波ビームの走査周期の間に前記車両が移動する距離を基準として設定されており、物標化手段にて生成された物標を基準として物体を認識する。   The length in the vehicle width direction of the search region used when the target unit integrates a plurality of detection results is set to a length that exactly includes the reflected waves from the two adjacent transmission wave beams, The length of the search area in the vehicle traveling direction is set with reference to the distance traveled by the vehicle during the transmission wave beam scanning period, and the object is determined based on the target generated by the targetization means. recognize.

このように設定された探索領域を用いて一体化することにより、道路に沿った方向(車両進行方向)に長く延びた、あるいは当該方向に並んだ物標が同一物体とみなされるようにする。そのため、ガードレール等の路側物と先行車とを正しく区別できる。また、車幅方向に物体自体が離れていれば、それら別の物体の検出結果が同一物標に属するものとして一体化されることがなくなる。つまり、先行車と路側物はもちろん、先行車同士であっても、正しく区別でき、物体を精度よく認識することができる。   By integrating using the search area set in this way, targets that extend long in the direction along the road (vehicle traveling direction) or are aligned in the direction are regarded as the same object. Therefore, a roadside object such as a guardrail and a preceding vehicle can be correctly distinguished. Further, if the object itself is separated in the vehicle width direction, the detection results of these other objects are not integrated as belonging to the same target. That is, not only the preceding vehicle and the roadside object, but also the preceding vehicles can be correctly distinguished and the object can be recognized with high accuracy.

このように本発明の物体認識装置によれば、物体を精度よく認識することができる。
車両の走行路がカーブしている場合には、例えば請求項2に示すように探索領域を設定することが考えられる。つまり、車両の走行路上の任意地点における走行路の方向を取得可能に構成されており、物標化手段の探索領域を、検出結果の位置における前記走行路の方向を車両進行方向だとみなして設定するのである。
Thus, according to the object recognition device of the present invention, an object can be recognized with high accuracy.
In the case where the traveling path of the vehicle is curved, for example, it is conceivable to set a search area as shown in claim 2. In other words, it is configured to be able to acquire the direction of the travel path at an arbitrary point on the travel path of the vehicle, and the search area of the target means is regarded as the vehicle travel direction in the direction of the travel path at the position of the detection result. Set it.

このようにすれば、車両前方の走行路がカーブしている場合に、そのカーブに応じた適切な状態で探索領域が設定されることとなる。そのため、上述したように、先行車と路側物の区別、先行車同士の区別が正しくでき、物体を精度よく認識することができる。   In this way, when the traveling road ahead of the vehicle is curved, the search area is set in an appropriate state according to the curve. Therefore, as described above, it is possible to correctly distinguish between the preceding vehicle and the roadside object and between the preceding vehicles, and to recognize the object with high accuracy.

物体認識装置の全体構成図。1 is an overall configuration diagram of an object recognition device. 制御部が実行する物体認識処理の内容を示すフローチャート。The flowchart which shows the content of the object recognition process which a control part performs. 物体認識処理中の一体化処理の内容を示すフローチャート。The flowchart which shows the content of the integration process in an object recognition process. 自車と先行車・ガードレールとの位置関係、および一体化の説明図。Explanatory drawing of the positional relationship of an own vehicle and a preceding vehicle and a guardrail, and integration. 探索領域を示す説明図。Explanatory drawing which shows a search area | region. 前方がカーブしている道路における自車と先行車・ガードレールとの位置関係を示す説明図。Explanatory drawing which shows the positional relationship of the own vehicle and the preceding vehicle and guardrail in the road where the front is curving. カーブ道路の場合の探索領域を示す説明図。Explanatory drawing which shows the search area | region in the case of a curve road. カーブ道路の場合の探索領域を示す説明図。Explanatory drawing which shows the search area | region in the case of a curve road. 従来技術を示す説明図。Explanatory drawing which shows a prior art.

以下に本発明の実施形態を図面と共に説明する。
図1は、本発明が適用された物体認識装置1の全体構成を示すブロック図である。
この物体認識装置1は、車両に搭載され、車両前方に存在する物体を認識し、その物体に関する情報(位置,大きさ等)からなる物体データを生成する装置である。なお、物体認識装置1で生成された物体データは、車両制御装置(図示せず)に供給され、例えば、物体候補が予め設定された警報領域に存在する障害物である場合に警報を発生させる警報制御や、物体候補が先行車両である場合には、その先行車両の状況に応じてブレーキ,スロットル,自動変速器等を動作させることによって車速を制御するいわゆる車間制御等に使用される。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing an overall configuration of an object recognition apparatus 1 to which the present invention is applied.
The object recognition apparatus 1 is an apparatus that is mounted on a vehicle, recognizes an object existing in front of the vehicle, and generates object data including information (position, size, etc.) on the object. The object data generated by the object recognition device 1 is supplied to a vehicle control device (not shown), and generates an alarm when, for example, the object candidate is an obstacle existing in a preset alarm area. When the object candidate is a preceding vehicle, it is used for alarm control or so-called inter-vehicle control for controlling the vehicle speed by operating a brake, a throttle, an automatic transmission or the like according to the situation of the preceding vehicle.

なお、車両制御装置は、ステアリングセンサからの信号に基づいて操舵角を求め、ヨーレートセンサからの信号に基づいてヨーレートを演算し、車速と操舵角とヨーレートとに基づいて、カーブ半径(曲率半径)を算出することができるように構成されている。このような構成は周知であり、例えば特許文献1として示した特開2002−131433号公報などにも説明されている。   The vehicle control device obtains the steering angle based on the signal from the steering sensor, calculates the yaw rate based on the signal from the yaw rate sensor, and calculates the curve radius (curvature radius) based on the vehicle speed, the steering angle, and the yaw rate. It is comprised so that can be calculated. Such a configuration is well known and is described in, for example, Japanese Patent Application Laid-Open No. 2002-131433 shown as Patent Document 1.

<全体構成>
図1に示すように、物体認識装置1は、車両前方をレーザ光によって走査する発光部10と、発光部10から照射されたレーザ光を反射した物体からの反射光を受光する受光部20と、発光部10にてレーザ光が照射されてから受光部20にて反射光が受光されるまでの時間を計測して測距データを出力する検出回路30と、発光部10を駆動するための信号を出力すると共に、検出回路30からの測距データを入力して、これらの入出力信号に基づいて、レーザ光を反射した物体に関する物体データを生成する制御部40とを備えている。
<Overall configuration>
As shown in FIG. 1, the object recognition apparatus 1 includes a light emitting unit 10 that scans the front of the vehicle with laser light, and a light receiving unit 20 that receives reflected light from an object that reflects the laser light emitted from the light emitting unit 10. A detection circuit 30 for measuring the time from when the light emitting unit 10 irradiates the laser beam to when the reflected light is received by the light receiving unit 20 and outputting distance measurement data; and for driving the light emitting unit 10 A control unit 40 that outputs a signal, inputs distance measurement data from the detection circuit 30, and generates object data related to an object reflecting the laser beam based on these input / output signals.

このうち、発光部10は、レーザ光を発生させるレーザダイオード(LD)11と、制御部40からのLD駆動信号に従って、LD11に送信波となるパルス状のレーザ光を発生させるLD駆動回路12と、LD11が発生させたレーザ光のビーム幅を絞る発光レンズ13と、回転可能に軸支され、発光レンズ13を介して供給されるレーザ光を反射するポリゴンミラー、及びそのポリゴンミラーを回転駆動するモータにより構成されたスキャナ14と、制御部40からのモータ駆動信号に従って、スキャナ14を構成するモータを駆動してポリゴンミラーを回転させることにより、レーザ光の照射方向を変化させることで、予め設定された角度範囲内でのレーザ光の走査を実現するモータ駆動回路15とを備えている。   Among these, the light emitting unit 10 includes a laser diode (LD) 11 that generates laser light, and an LD drive circuit 12 that generates pulsed laser light serving as a transmission wave in the LD 11 in accordance with an LD drive signal from the control unit 40. The light emitting lens 13 for narrowing the beam width of the laser light generated by the LD 11, the polygon mirror that is rotatably supported and reflects the laser light supplied through the light emitting lens 13, and the polygon mirror is driven to rotate. In accordance with the motor drive signal from the scanner 14 constituted by the motor and the controller 40, the motor constituting the scanner 14 is driven to rotate the polygon mirror, thereby changing the irradiation direction of the laser light to set in advance. And a motor drive circuit 15 that realizes scanning of the laser beam within the set angle range.

なお、車幅方向へのビーム(水平ビーム)による走査は、具体的には、車両の正面方向を中心として車幅方向の所定角度範囲を走査エリアとし、その走査エリアを水平ビームの規定ビーム幅に等しい間隔で、所定回だけレーザ光を照射するように設定されている。そして、水平ビームは左方向から右方向へ走査され、その各水平ビームをビーム番号によって区別するものとする。   In the scanning with the beam in the vehicle width direction (horizontal beam), specifically, a predetermined angle range in the vehicle width direction centering on the front direction of the vehicle is used as the scanning area, and the scanning area is defined as the prescribed beam width of the horizontal beam. Is set to irradiate the laser beam a predetermined number of times at equal intervals. The horizontal beams are scanned from left to right, and each horizontal beam is distinguished by a beam number.

一方、受光部20は、レーザ光(水平ビーム)を反射した物体からの反射光を集光する受光レンズ21と、受光レンズ21を介して反射光を受光し、その強度に応じた電圧値を有する受光信号を発生させる受光素子22と、受光素子22からの受光信号を増幅するアンプ23とを備えている。   On the other hand, the light receiving unit 20 receives the reflected light via the light receiving lens 21 that collects the reflected light from the object that reflects the laser light (horizontal beam), and the voltage value corresponding to the intensity. A light receiving element 22 that generates a light receiving signal, and an amplifier 23 that amplifies the light receiving signal from the light receiving element 22.

検出回路30は、制御部40からのLD駆動信号とアンプ23からの出力信号とに基づいてレーザ光の往復時間を検出し、対応する走査角度θ(何番目のLD駆動信号か)と共に測距データとして制御部40に出力するように構成されている。   The detection circuit 30 detects the round-trip time of the laser beam based on the LD drive signal from the control unit 40 and the output signal from the amplifier 23, and measures the distance along with the corresponding scanning angle θ (what number LD drive signal). The data is output to the control unit 40 as data.

制御部40は、CPU,ROM,RAM等により構成された周知のマイクロコンピュータからなる。なお、ROMには、CPUが実行する処理(後述する)のプログラムなどが記憶されている。   The control unit 40 is composed of a known microcomputer configured with a CPU, ROM, RAM, and the like. The ROM stores a program for processing (to be described later) executed by the CPU.

<制御部での処理>
制御部40では、LD駆動信号及びモータ駆動信号によって発光部10を駆動して、走査エリア内の走査を実行する走査実行処理と、その走査によって得られた測距データに基づいて、レーザ光を反射した物体に関する物体データを生成する物体認識処理を少なくとも実行する。
<Processing in the control unit>
The control unit 40 drives the light emitting unit 10 with the LD drive signal and the motor drive signal, performs a scan execution process for executing a scan in the scan area, and the laser beam based on the distance measurement data obtained by the scan. At least an object recognition process for generating object data relating to the reflected object is executed.

このうち、走査実行処理は、予め設定された走査周期(100ms)毎に起動され、LD駆動信号を一定間隔で所定回数だけ出力すると共に、これに同期して、レーダ光の照射方向が所定角度ずつずれるようにスキャナ14を動作させるモータ駆動信号を出力する処理を実行する。   Among these, the scanning execution process is started every preset scanning period (100 ms), outputs an LD drive signal a predetermined number of times at regular intervals, and in synchronization with this, the irradiation direction of the radar light is a predetermined angle. A process of outputting a motor drive signal for operating the scanner 14 so as to be shifted one by one is executed.

一方、物体認識処理は、走査実行処理が処理を終了する毎に起動され、図2のフローチャートに示した処理を実行する。
即ち、物体認識処理では、まずS110にて、検出回路30から、1走査分の測距データの読み込みを行う。
On the other hand, the object recognition process is started every time the scanning execution process ends, and executes the process shown in the flowchart of FIG.
That is, in the object recognition process, first, ranging data for one scan is read from the detection circuit 30 in S110.

S120では、読み込んだ測距データから得られた距離データRと走査角度θによって極座標で表される位置を、直交座標で表される位置に変換する。なお、直交座標は、物体認識装置1の中心を原点(0,0)とし、車幅方向をX軸、車両前方方向をY軸とするXY直交座標を用いる。   In S120, the position represented by polar coordinates is converted into the position represented by orthogonal coordinates by the distance data R obtained from the read distance measurement data and the scanning angle θ. The orthogonal coordinates are XY orthogonal coordinates in which the center of the object recognition apparatus 1 is the origin (0, 0), the vehicle width direction is the X axis, and the vehicle forward direction is the Y axis.

S130では、直交座標に変換された測距データに対して一体化処理を行い、物標データを生成する。この一体化処理については、図3を参照して後述するが、測距データ同士のX軸方向の距離△XとY方向の距離△Yに基づく所定条件を満たす場合に、その点集合を一体化して物標データを生成する。   In S130, integration processing is performed on the distance measurement data converted into the Cartesian coordinates to generate target data. This integration process will be described later with reference to FIG. 3. However, when a predetermined condition based on the distance ΔX in the X-axis direction and the distance ΔY in the Y direction between the distance measurement data is satisfied, the point set is integrated. To generate target data.

なお、物標は、一体化によって一体化された点集合を含むような大きさに設定された、長方形の領域であり、物標データには、その領域の中心座標(X,Y)と、その領域の大きさを表す2辺のデータ(W(幅),D(奥行き))と、その領域の左端及び右端のビーム番号とが少なくとも含まれているものとする。   The target is a rectangular area set to a size including a set of points integrated by integration, and the target data includes the center coordinates (X, Y) of the area, It is assumed that at least two side data (W (width), D (depth)) representing the size of the region and the left and right beam numbers of the region are included.

続くS140では物体データの生成を行う。S130で得られた物標データに基づいて、物体の中心位置(X,Y)、大きさ(W,D)を求めると共に、中心位置(X,Y)の時間的変化に基づいて、自車位置を基準とする先行車等の移動物の相対速度(Vx,Vy)を求める。   In subsequent S140, object data is generated. Based on the target data obtained in S130, the center position (X, Y) and size (W, D) of the object are obtained, and the own vehicle is determined based on the temporal change of the center position (X, Y). The relative speed (Vx, Vy) of a moving object such as a preceding vehicle with respect to the position is obtained.

このようにして物体認識装置1で生成された物体データは、上述のように車両制御装置(図示せず)に供給され、物体が警報領域に存在する障害物である場合に警報を発生させる警報制御や、物体が先行車両である場合に先行車両の状況に応じて自車両の車速を制御するいわゆる車間制御等に使用される。   The object data generated by the object recognition device 1 in this manner is supplied to the vehicle control device (not shown) as described above, and an alarm that generates an alarm when the object is an obstacle existing in the alarm region. It is used for control and so-called inter-vehicle distance control for controlling the vehicle speed of the host vehicle according to the situation of the preceding vehicle when the object is the preceding vehicle.

それでは、図2のS130における一体化処理の詳細を、図3を参照して説明する。
まず探索を開始する測距データを設定する(S131)。そして、探索領域を設定し(S132)、同じ探索領域に含まれる測距データ同士の結合を行う(S133)。この処理が一体化である。
Details of the integration process in S130 of FIG. 2 will be described with reference to FIG.
First, distance measurement data for starting the search is set (S131). Then, a search area is set (S132), and the distance measurement data included in the same search area are combined (S133). This process is integrated.

S134では、一体化が終了か否かを判断し、一体化が終了していなければ(S134:NO)、次の測距データを設定し(S135)、S132へ戻って探索領域を設定し、測距データの結合を行う(S133)。一体化が全て終了したら(S134:YES)、本処理を終了する。   In S134, it is determined whether or not the integration is completed. If the integration is not completed (S134: NO), the next distance measurement data is set (S135), and the process returns to S132 to set the search area. Ranging data is combined (S133). When all the integrations are completed (S134: YES), this process ends.

例えば図4(a)に示すように、自車が走行している道路(走行路)の前方には先行車が存在し、また道路の左側にガードレールが存在する状況を想定する。一体化処理によって、図4(b)に示すように、先行車に対応する物標データと、ガードレールに対応する物標データが生成される。なお、図4は、自車と先行車・ガードレールとの位置関係、および一体化の説明図である。図4(b)において、測距データの検出位置を※印で示しており、一体化処理によって測距データを一体化した点集合を含む物標データを長方形で示している。   For example, as shown in FIG. 4A, a situation is assumed in which a preceding vehicle is present in front of a road (traveling road) on which the host vehicle is traveling and a guardrail is present on the left side of the road. By the integration process, as shown in FIG. 4B, target data corresponding to the preceding vehicle and target data corresponding to the guardrail are generated. FIG. 4 is an explanatory view of the positional relationship and integration between the host vehicle and the preceding vehicle / guard rail. In FIG. 4B, the detection position of the distance measurement data is indicated by *, and the target data including the point set in which the distance measurement data is integrated by the integration process is indicated by a rectangle.

<探索領域設定および測距データの一体化>
ここで、図3のS132,S133における探索領域設定および測距データの一体化に関して、図5〜図7を参照してさらに詳細に説明する。
<Integration of search area setting and ranging data>
Here, the search area setting and the integration of distance measurement data in S132 and S133 of FIG. 3 will be described in more detail with reference to FIGS.

図5は、一体化対象の探索領域を示す説明図であり、図中に破線で示す楕円形状の領域が、測距データを一体化する際に用いる探索領域である。この領域の楕円を示す方程式が、下記式(1)である。   FIG. 5 is an explanatory diagram showing search areas to be integrated, and an elliptical area indicated by a broken line in the figure is a search area used when integrating distance measurement data. The equation showing the ellipse in this region is the following equation (1).

2=(ΔX/αX)2+(ΔY/αY)2 …(1)
このとき、
△X…データ同士のX軸方向の距離
△Y…データ同士のY軸方向の距離
αX…k1*物体認識装置1から測距データまでの距離*物体認識装置1の分解能
αY…k2*自車速*物体認識装置1のサンプリング周期
(サンプリング周期は物体認識装置1のスキャン周期(100ms)に一致する。また、k1,k2は係数である。)
(1)式の右辺の値がd2以下である場合に測距データは一体化される。
d 2 = (ΔX / αX) 2 + (ΔY / αY) 2 (1)
At this time,
ΔX: Distance between data in the X-axis direction ΔY: Distance between data in the Y-axis direction αX: k1 * Distance from the object recognition device 1 to the distance measurement data * Resolution of the object recognition device 1 αY ... k2 * Vehicle speed * Sampling period of the object recognition apparatus 1 (the sampling period coincides with the scan period (100 ms) of the object recognition apparatus 1 and k1 and k2 are coefficients).
When the value on the right side of the equation (1) is d 2 or less, the distance measurement data is integrated.

この探索領域を設定するにあたっては、次のような点に配慮する。
αYの値を相対的に大きくすることで、図5に示すように、探索領域をY方向(進行方向)に長い楕円形状とする。より具体的に説明する。
In setting this search area, the following points are taken into consideration.
By relatively increasing the value of αY, as shown in FIG. 5, the search area has an elliptical shape that is long in the Y direction (traveling direction). This will be described more specifically.

探索領域のX方向(車幅方向)の長さは、隣接する水平ビーム1本〜2本に相当する長さに設定されている。この意図は、同一物体の隣接する2つの測距データが丁度含まれるような長さにし、逆に別の物体からの2つの測距データは含まれないような長さにするというものである。   The length of the search region in the X direction (vehicle width direction) is set to a length corresponding to one or two adjacent horizontal beams. The intention is to make the length so that two adjacent distance measurement data of the same object are included exactly, and conversely to make the length not include two distance measurement data from another object. .

つまり、例えば複数の先行車両が並行していたとしても、ある程度の距離を隔てて走行することとなる。また、先行車両が例えばガードレールなどの路側物に近寄って走行したとしても、やはりある程度の距離を隔てて走行することとなる。したがって、そのような別の物体からの測距データについては含まれないように、探索領域のX方向(車幅方向)の長さを設定する。しかし、同一物体の隣接する2つの測距データは含まれるような長さにするのである。   That is, for example, even if a plurality of preceding vehicles are in parallel, the vehicle travels at a certain distance. Moreover, even if the preceding vehicle travels near a roadside object such as a guard rail, the vehicle travels at a certain distance. Accordingly, the length of the search area in the X direction (vehicle width direction) is set so that distance measurement data from such another object is not included. However, the length is set such that two adjacent distance measurement data of the same object are included.

このように設定した探索領域を用いて測距データを一体化することにより、探索領域のX方向(車幅方向)において物体自体が離れていれば、それら別の物体の検出データが一体化されることがなくなる。つまり、先行車と路側物はもちろん、先行車同士であっても、誤って一体化されることなく、正しく区別できる。   By integrating the distance measurement data using the search area set in this way, if the object itself is separated in the X direction (vehicle width direction) of the search area, the detection data of these other objects are integrated. It will not be. That is, not only the preceding vehicle and the roadside object but also the preceding vehicles can be correctly distinguished without being mistakenly integrated.

探索領域のY方向については、サンプリング周期の間に自車が移動する距離を基準として設定する。係数k2を1よりやや大きくすれば、サンプリング周期の間に自車が移動する距離+αが探索領域の進行方向長さとなる。このように設定した探索領域を用いて測距データを結合することにより、道路に沿った方向(進行方向)に長く延びた、あるいは当該方向に並んだ路側物に対応する物標が同一物体とみなされるようにする。   The Y direction of the search area is set based on the distance traveled by the vehicle during the sampling period. If the coefficient k2 is slightly larger than 1, the distance + α that the vehicle moves during the sampling period becomes the traveling direction length of the search region. By combining the distance measurement data using the search area set in this way, a target corresponding to a roadside object extending in the direction along the road (traveling direction) or aligned in the direction is the same object. To be considered.

このような路側物としては、例えばガードレールや壁のように連続して設置されているものもあれば、立木やデリニエータのように、ある間隔で設置されている(いわば不連続)ものもある。いずれにしても、道路に沿って設置されている路側物に対しては、上述のように探索領域を設定することで、同一物体として認識されやすくなり、したがって、先行車と区別しやすくなる。   As such a roadside object, for example, there are things that are continuously installed like a guard rail or a wall, and there are things that are installed at certain intervals (so-called discontinuous) like a standing tree or a delineator. In any case, the roadside objects installed along the road are easily recognized as the same object by setting the search area as described above, and thus can be easily distinguished from the preceding vehicle.

次に、前方の道路がカーブしている場合における一体化対象の探索領域の設定について説明する。
図6に示すように、前方の道路がカーブしている場合には道路形状(カーブ半径)を周知の方法によって推定する。例えば操舵角に基づいて求めたり、車両前方の画像を撮影し、その画像中に存在する走行区分線(いわゆる白線)の形状に基づいて求めたり,地図データから道路形状を求めるなど、種々の方法が提案されている。
Next, the setting of the search area to be integrated when the road ahead is curved will be described.
As shown in FIG. 6, when the road ahead is curved, the road shape (curve radius) is estimated by a known method. For example, various methods such as obtaining based on the steering angle, taking an image of the front of the vehicle, obtaining based on the shape of a running division line (so-called white line) existing in the image, and obtaining the road shape from map data Has been proposed.

そして、任意地点における道路(走行路)の方向を、上述の推定した道路形状(カーブ半径)に基づいて算出し、図7に示すように、(探索領域の設定対象となる)測距データの位置における道路方向を車両進行方向だとみなして探索領域を設定する。それ以降は、図4、図5を用いて説明した直線道路の場合と同様に適用する。   Then, the direction of the road (traveling road) at an arbitrary point is calculated based on the estimated road shape (curve radius) described above, and as shown in FIG. The search area is set by regarding the road direction at the position as the vehicle traveling direction. Thereafter, the same applies as in the case of the straight road described with reference to FIGS.

探索領域の設定について、図8を参照してさらに具体的に説明する。図8中のY軸は現在の自車位置を基準とした進行方向を示しており、Y’軸は(任意の)測距データの位置における道路方向=車両進行方向を示している。   The setting of the search area will be described more specifically with reference to FIG. The Y axis in FIG. 8 indicates the traveling direction based on the current vehicle position, and the Y ′ axis indicates the road direction = vehicle traveling direction at the (arbitrary) distance measurement data position.

そのY軸に対するY’軸の傾きθに基づいてXY直交座標からX’Y’直交座標へ座標変換を行い、座標変換後のX’Y’直交座標において同様の探索領域を設定する。この探索領域の楕円を示す方程式が、下記式(2)である。   Based on the inclination θ of the Y ′ axis with respect to the Y axis, coordinate conversion from the XY orthogonal coordinates to the X′Y ′ orthogonal coordinates is performed, and a similar search region is set in the X′Y ′ orthogonal coordinates after the coordinate conversion. The equation showing the ellipse of this search area is the following equation (2).

(d')2=(ΔX’/αX)2+(ΔY’/αY)2 …(2)
このとき、
△X’…データ同士のX軸方向の距離
△Y’…データ同士のY軸方向の距離
αX…k1*物体認識装置1から測距データまでの距離*物体認識装置1の分解能
αY…k2*自車速*物体認識装置1のサンプリング周期
(サンプリング周期は物体認識装置1の走査周期(100ms)に一致する。また、k1,k2は係数である。)
(2)式の右辺の値が(d')2以下である場合に測距データは一体化される。
(d ′) 2 = (ΔX ′ / αX) 2 + (ΔY ′ / αY) 2 (2)
At this time,
ΔX ′: Distance between data in the X-axis direction ΔY ′: Distance between data in the Y-axis direction αX: k1 * Distance from the object recognition device 1 to distance measurement data * Resolution of the object recognition device 1 αY: k2 * Self-vehicle speed * Sampling cycle of the object recognition device 1 (the sampling cycle coincides with the scanning cycle (100 ms) of the object recognition device 1 and k1 and k2 are coefficients).
When the value on the right side of equation (2) is (d ′) 2 or less, the distance measurement data is integrated.

<効果>
以上説明したように物体認識装置1では、同じ探索領域に含まれる測距データ同士を一体化して物標データを生成し、生成した物標を基準として物体認識を行うが、この探索領域のY方向については、サンプリング周期の間に自車が移動する距離を基準として設定されている。このように設定した探索領域を用いて測距データを一体化することにより、道路に沿った方向(進行方向)に長く延びた、あるいは当該方向に並んだ物標が同一物体とみなされるようにする。そのため、ガードレール等の路側物と先行車とを正しく区別できる。
<Effect>
As described above, the object recognition device 1 generates target data by integrating distance measurement data included in the same search area, and performs object recognition using the generated target as a reference. The direction is set based on the distance traveled by the vehicle during the sampling period. By integrating distance measurement data using the search area set in this way, targets that extend long in the direction along the road (traveling direction) or are aligned in that direction are regarded as the same object. To do. Therefore, a roadside object such as a guardrail and a preceding vehicle can be correctly distinguished.

また、X方向(車幅方向)の長さは、隣接する水平ビーム1本〜2本に相当する長さに設定されている。このように設定した探索領域を用いて測距データを一体化することにより、探索領域のX方向(車幅方向)において物体自体が離れていれば、それら別の物体の測距データが一体化されることがなくなる。つまり、先行車と路側物はもちろん、先行車同士であっても、誤って一体化されることなく、正しく区別できる。   Further, the length in the X direction (vehicle width direction) is set to a length corresponding to one or two adjacent horizontal beams. By integrating distance measurement data using the search area set in this way, if the object itself is separated in the X direction (vehicle width direction) of the search area, the distance measurement data of these other objects are integrated. It will not be done. That is, not only the preceding vehicle and the roadside object but also the preceding vehicles can be correctly distinguished without being mistakenly integrated.

また、道路がカーブしている場合であっても、そのカーブに応じた適切な状態で探索領域が設定することができる。
このように、物体を精度よく認識する物体認識装置1を実現することができる。
Even when the road is curved, the search area can be set in an appropriate state according to the curve.
Thus, the object recognition apparatus 1 that recognizes an object with high accuracy can be realized.

[他の実施形態]
以上本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
[Other Embodiments]
Although one embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and can be implemented in various modes without departing from the gist of the present invention.

例えば、上記実施形態では送信波としてレーザ光を用いたがミリ波等の電波を用いてもよい。
上記実施形態では、探索領域として図5,7,8に示すような楕円形状の領域を設定したが、そのような形状に限定されない。上記実施形態では、探索領域のX方向(車幅方向)の長さは、隣接する水平ビーム1本〜2本に相当する長さに設定し、探索領域のY方向(進行方向)については、サンプリング周期の間に自車が移動する距離を基準として設定したが、この意図は、次のとおりである。
For example, although laser light is used as the transmission wave in the above embodiment, radio waves such as millimeter waves may be used.
In the above embodiment, an elliptical area as shown in FIGS. 5, 7, and 8 is set as the search area, but the search area is not limited to such a shape. In the above embodiment, the length of the search area in the X direction (vehicle width direction) is set to a length corresponding to one or two adjacent horizontal beams, and the Y direction (traveling direction) of the search area is The distance traveled by the vehicle during the sampling period is set as a reference. This intention is as follows.

つまり、X方向の長さは、同一物体の隣接する2つの測距データが丁度含まれるような長さにし、逆に別の物体からの2つの測距データは含まれないような長さにしており、またY方向については、道路に沿った方向(進行方向)に長く延びた、あるいは当該方向に並んだ路側物に対応する物標が同一物体とみなされるようにする、という意図である。したがって、このような意図を実現可能な形状の探索領域であればよい。   In other words, the length in the X direction is set so that two adjacent distance measurement data of the same object are just included, and conversely, two distance data from another object are not included. In addition, with respect to the Y direction, it is intended that the targets corresponding to roadside objects that extend long in the direction along the road (traveling direction) or are aligned in the direction are regarded as the same object. . Therefore, the search area may be a shape that can realize such an intention.

1…物体認識装置 10…発光部 11…レーザダイオード(LD) 12…LD駆動回路 13…発光レンズ 14…スキャナ 15…モータ駆動回路 20…受光部 21…受光レンズ 22…受光素子 23…アンプ 30…検出回路 40…制御部   DESCRIPTION OF SYMBOLS 1 ... Object recognition apparatus 10 ... Light emission part 11 ... Laser diode (LD) 12 ... LD drive circuit 13 ... Light emission lens 14 ... Scanner 15 ... Motor drive circuit 20 ... Light reception part 21 ... Light reception lens 22 ... Light reception element 23 ... Amplifier 30 ... Detection circuit 40 ... control unit

Claims (2)

車両に搭載され、少なくとも車幅方向に沿って隣接するように設定された複数の送信波ビームを用いて走査を実行した結果に基づき、送信波を反射した物体を認識する物体認識装置であって、
前記走査によって得られた前記物体からの反射波の受信信号に基づいて、前記送信波ビーム毎に受信強度、及び前記物体の位置を検出する検出手段と、
前記検出手段での検出結果に基づき、ある検出結果の位置を基準として設定した探索領域内に別の検出結果の位置も含まれていれば同一物標に属するものとして複数の前記検出結果を一体化する物標化手段と、
を備え、
前記物標化手段の前記探索領域の車幅方向の長さは、隣接する2つの送信波ビームからの反射波が丁度含まれるような長さに設定され、前記探索領域の車両進行方向の長さは、前記送信波ビームの走査周期の間に前記車両が移動する距離を基準として設定されており、
前記物標化手段にて生成された物標を基準として物体を認識することを特徴とする物体認識装置。
An object recognition device that is mounted on a vehicle and recognizes an object that reflects a transmission wave based on a result of scanning using a plurality of transmission wave beams set to be adjacent to each other at least along the vehicle width direction. ,
Detection means for detecting a reception intensity and a position of the object for each transmission wave beam based on a reception signal of a reflected wave from the object obtained by the scanning;
Based on the detection result of the detection means, if the position of another detection result is also included in the search region set based on the position of a certain detection result, a plurality of the detection results are integrated as belonging to the same target. A targetization means that
With
The length in the vehicle width direction of the search area of the target means is set to such a length that the reflected waves from two adjacent transmission wave beams are just included, and the length of the search area in the vehicle traveling direction is set. Is set with reference to the distance traveled by the vehicle during the scanning wave beam scanning period,
An object recognition apparatus for recognizing an object with reference to a target generated by the target converting means.
車両の走行路上の任意地点における走行路の方向を取得可能に構成されており、
前記物標化手段の前記探索領域は、前記検出結果の位置における前記走行路の方向を前記車両進行方向だとみなして設定されていることを特徴とする請求項1に記載の物体認識装置。
It is configured to be able to obtain the direction of the road at any point on the road of the vehicle,
The object recognition apparatus according to claim 1, wherein the search area of the target marking unit is set by regarding the direction of the traveling path at the position of the detection result as the vehicle traveling direction.
JP2010088681A 2010-04-07 2010-04-07 Object recognition device Active JP5556317B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010088681A JP5556317B2 (en) 2010-04-07 2010-04-07 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010088681A JP5556317B2 (en) 2010-04-07 2010-04-07 Object recognition device

Publications (2)

Publication Number Publication Date
JP2011220766A JP2011220766A (en) 2011-11-04
JP5556317B2 true JP5556317B2 (en) 2014-07-23

Family

ID=45037954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010088681A Active JP5556317B2 (en) 2010-04-07 2010-04-07 Object recognition device

Country Status (1)

Country Link
JP (1) JP5556317B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6074930B2 (en) * 2012-07-10 2017-02-08 株式会社デンソー Alarm device
JP5812064B2 (en) * 2012-11-22 2015-11-11 株式会社デンソー Target detection device
JP6505470B2 (en) * 2015-02-27 2019-04-24 株式会社デンソー Noise removal method and object recognition apparatus
JP6845117B2 (en) 2017-10-18 2021-03-17 株式会社Soken Moving object recognition device
JP7324059B2 (en) * 2019-06-10 2023-08-09 株式会社Subaru Vehicle object detection device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3104500B2 (en) * 1993-11-12 2000-10-30 トヨタ自動車株式会社 In-vehicle radar device
JP3487054B2 (en) * 1995-12-26 2004-01-13 株式会社デンソー Obstacle warning device for vehicles
JP3656301B2 (en) * 1995-12-28 2005-06-08 株式会社デンソー Obstacle warning device for vehicles
JP4561346B2 (en) * 2004-12-08 2010-10-13 株式会社豊田中央研究所 Vehicle motion estimation device and moving object detection device
JP4793094B2 (en) * 2006-05-17 2011-10-12 株式会社デンソー Driving environment recognition device
JP2008026997A (en) * 2006-07-18 2008-02-07 Denso Corp Pedestrian recognition device and pedestrian recognition method
JP2008070999A (en) * 2006-09-13 2008-03-27 Hitachi Ltd Obstacle detecting device for vehicle and automobile loaded with the same device
JP5570708B2 (en) * 2008-05-29 2014-08-13 オムロンオートモーティブエレクトロニクス株式会社 Object detection device
JP2010009607A (en) * 2009-07-03 2010-01-14 Mazda Motor Corp Obstacle alarm device for vehicle

Also Published As

Publication number Publication date
JP2011220766A (en) 2011-11-04

Similar Documents

Publication Publication Date Title
JP4428208B2 (en) Vehicle object recognition device
JP5488518B2 (en) Road edge detection device, driver support device, and road edge detection method
JP5267592B2 (en) Object recognition device
JP5267588B2 (en) Marking line detection apparatus and marking line detection method
JP3915742B2 (en) Vehicle object recognition device
US8810445B2 (en) Method and apparatus for recognizing presence of objects
JP3736520B2 (en) Obstacle recognition device for vehicles
JP2000147124A (en) On-vehicle radar device
JP2007310595A (en) Traveling environment recognition system
JP2005291788A (en) Object recognition device for vehicle
JP2004177350A (en) Radar equipment for vehicle
JP2002040139A (en) Method and device for body recognition, and recording medium
JP5556317B2 (en) Object recognition device
JP2009133761A (en) Radar system
JP2004198323A (en) Object recognition device for vehicle
JP2011232230A (en) Overhead obstacle detector, collision preventing device, and overhead obstacle detection method
JP2004184331A (en) Object recognition apparatus for motor vehicle
JP2010127835A (en) Radar system
JP2012215521A (en) Laser radar apparatus
JP2011198279A (en) Apparatus for recognizing road shape
JP2009098023A (en) Object detector and object detection method
JP3757937B2 (en) Distance measuring device
JP3841047B2 (en) Vehicle distance control device
JP2005300307A (en) Object recognition device for vehicle and program
JP2002131433A (en) Method and device for recognizing object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140520

R151 Written notification of patent or utility model registration

Ref document number: 5556317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250