JP2010006270A - Vehicle behavior detecting device - Google Patents

Vehicle behavior detecting device Download PDF

Info

Publication number
JP2010006270A
JP2010006270A JP2008169155A JP2008169155A JP2010006270A JP 2010006270 A JP2010006270 A JP 2010006270A JP 2008169155 A JP2008169155 A JP 2008169155A JP 2008169155 A JP2008169155 A JP 2008169155A JP 2010006270 A JP2010006270 A JP 2010006270A
Authority
JP
Japan
Prior art keywords
vehicle
comparison
image
imaging
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008169155A
Other languages
Japanese (ja)
Inventor
Tatsuya Shiraishi
達也 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008169155A priority Critical patent/JP2010006270A/en
Publication of JP2010006270A publication Critical patent/JP2010006270A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle behavior detecting device detecting behavior of an own vehicle with a simple method. <P>SOLUTION: The vehicle behavior detecting device for detecting the behavior of the own vehicle is provided with: an imaging means for imaging the periphery of the own vehicle; a comparison means (S3) for comparing pixel information in a comparison region having a smaller proportion of a moving object than other regions among a plurality of images respectively imaged at different imaging time points by the imaging means; and a detection means (S3) for detecting a change in behavior of the own vehicle based on the comparison result. The comparison means compares luminance waveforms in the vertical direction of a vehicle in the comparison region among a plurality of images respectively imaged at different imaging time points by the imaging means. It is preferable that the detection means detect pitching of the own vehicle, based on the comparison result by the comparison means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両挙動検出装置に関する。   The present invention relates to a vehicle behavior detection device.

近年、衝突防止装置、車間距離制御装置、追従走行装置などの運転支援装置が開発されている。これら運転支援装置では、自車両の前方を走行する車両を検出することが重要となる。物体検出装置には、検出精度を向上させるために、ミリ波レーダなどのレーダによる検出手段とカメラによる画像を利用した検出手段の2つの特性の異なる検出手段を備える装置がある。この物体検出装置には、レーダによって検出された物体の位置情報に応じて画像処理領域を設定し、カメラによって撮像された画像においてその設定された画像処理領域について画像処理を行い、その画像処理領域から物体の情報を検出するものがある。   In recent years, driving support devices such as a collision prevention device, an inter-vehicle distance control device, and a following traveling device have been developed. In these driving assistance devices, it is important to detect a vehicle traveling in front of the host vehicle. In order to improve detection accuracy, an object detection apparatus includes an apparatus provided with detection means having two different characteristics: a detection means using a radar such as a millimeter wave radar and a detection means using an image from a camera. In this object detection device, an image processing area is set according to the position information of the object detected by the radar, image processing is performed on the set image processing area in the image captured by the camera, and the image processing area Some of them detect object information.

車両は、路面状況あるいは走行中の加減速や旋回などによって、挙動が変化(ピッチング、ロール、ヨーイング)する。そのため、例えば、ピッチング発生中にレーダによる位置情報に応じて画像処理領域を設定すると、レーダでは高さ方向の情報を検出できないので、その設定された画像処理領域内には物体の全部又は一部しか存在しない場合がある。このような場合、その画像処理領域から物体についての情報を検出することができない。したがって、この画像処理領域の位置を自車両の挙動に応じて補正する必要があり、そのためには自車両の挙動を検出することが重要となる。特許文献1に記載の装置では、カメラでそれぞれ撮像した時点の異なる画像において同じ特徴量とその変位量を検出し、その特徴量の変位量から自車両の旋回量を算出している。
特開2008−82932号公報
The behavior of a vehicle changes (pitching, rolling, yawing) depending on road surface conditions, acceleration / deceleration or turning during traveling. Therefore, for example, if the image processing area is set according to the position information by the radar during the occurrence of pitching, the radar cannot detect the information in the height direction. Therefore, all or part of the object is included in the set image processing area. May only exist. In such a case, information about the object cannot be detected from the image processing area. Therefore, it is necessary to correct the position of the image processing area in accordance with the behavior of the host vehicle. To that end, it is important to detect the behavior of the host vehicle. In the apparatus described in Patent Document 1, the same feature amount and its displacement amount are detected in different images taken by the cameras, and the turning amount of the host vehicle is calculated from the displacement amount of the feature amount.
JP 2008-82932 A

上記した装置では、画像から特徴量を抽出する処理が必要であり、処理が複雑なため、処理負荷が増大する。そのため、安価な画像処理チップでは実現できず、応答性も悪化する。   In the above-described apparatus, processing for extracting a feature amount from an image is necessary, and the processing is complicated. Therefore, the processing load increases. Therefore, it cannot be realized with an inexpensive image processing chip, and the responsiveness also deteriorates.

そこで、本発明は、簡易な手法により自車両の挙動を検出できる車両挙動検出装置を提供することを課題とする。   Then, this invention makes it a subject to provide the vehicle behavior detection apparatus which can detect the behavior of the own vehicle with a simple method.

本発明に係る車両挙動検出装置は、自車両周辺を撮像する撮像手段と、撮像手段でそれぞれ撮像した撮像時刻の異なる複数の画像間において、移動物体の占める割合が他の領域に比べて小さい比較領域における画素情報を比較する比較手段と、比較手段での比較結果に基づいて自車両の挙動の変化を検出する検出手段とを備えることを特徴とする。   The vehicle behavior detection apparatus according to the present invention is a comparison in which the proportion occupied by a moving object is small compared to other regions between an imaging unit that captures the periphery of the host vehicle and a plurality of images captured at different imaging times by the imaging unit. Comparing means for comparing pixel information in the region, and detecting means for detecting a change in the behavior of the host vehicle based on the comparison result of the comparing means.

この車両挙動検出装置では、撮像手段により自車両周辺を撮像し、比較手段により撮像時刻の異なる複数の画像間において所定の比較領域における画素情報(例えば、輝度情報、RGB情報)を比較する。この比較領域は、移動物体の占める割合が他の領域に比べて小さい領域である。例えば、比較領域に移動物体が全く存在しない場合、異なる撮像時刻の比較領域間における静止物体の動きが撮像手段(ひいては、自車両)の動きに相当することになる。したがって、移動物体が極力含まれていない比較領域間における輝度情報を比較することにより、静止物体の動きに応じた画素情報の差から自車両の動きを推測することができる。そこで、車両挙動検出装置では、検出手段により比較手段での比較結果に基づいて自車両の挙動を検出する。このように、車両挙動検出装置では、撮像時刻の異なる複数の画像間の比較領域における画素情報を比較するだけの簡単な手法により、自車両の挙動を検出できる。そのため、処理負荷が少なく、安価な画像処理チップでも応答性良く処理が可能となる。   In this vehicle behavior detection device, the periphery of the host vehicle is imaged by the imaging unit, and pixel information (for example, luminance information, RGB information) in a predetermined comparison region is compared between a plurality of images having different imaging times by the comparison unit. This comparison area is an area in which the moving object occupies a smaller ratio than other areas. For example, when there is no moving object in the comparison area, the movement of the stationary object between the comparison areas at different imaging times corresponds to the movement of the imaging means (and thus the own vehicle). Therefore, by comparing the luminance information between the comparison areas in which the moving object is not included as much as possible, the movement of the host vehicle can be estimated from the difference in pixel information corresponding to the movement of the stationary object. Therefore, in the vehicle behavior detection apparatus, the behavior of the host vehicle is detected by the detection means based on the comparison result of the comparison means. As described above, the vehicle behavior detection device can detect the behavior of the host vehicle by a simple method of simply comparing pixel information in a comparison region between a plurality of images having different imaging times. For this reason, even a cheap image processing chip with a low processing load can be processed with good responsiveness.

本発明の上記車両挙動検出装置では、比較領域を撮像手段で撮像した画像の中心から所定量外側に位置する領域としてもよい。   In the vehicle behavior detection apparatus of the present invention, the comparison region may be a region located outside by a predetermined amount from the center of the image captured by the imaging unit.

一般に、車両に搭載される撮像手段は障害物(例えば、他車両、歩行者)を検出するための手段として適用されるので、画像の中心付近にそのような障害物が入るように撮像位置や撮像方向が設定されている。したがって、画像の中心付近には、他車両などの移動物体が存在する可能性が高い。そこで、比較領域として、このような画像中心領域を避けるために、所定量外側に位置する領域を設定する。この所定量は、画像に入る左右方向や上下方向の範囲及び検出対象の物体の大きさなどを考慮して適宜の量が設定される。   In general, the imaging means mounted on the vehicle is applied as a means for detecting an obstacle (for example, another vehicle, a pedestrian), so that an imaging position or the like so that such an obstacle enters near the center of the image. The imaging direction is set. Therefore, there is a high possibility that a moving object such as another vehicle exists near the center of the image. Therefore, in order to avoid such an image center area, an area located outside a predetermined amount is set as a comparison area. The predetermined amount is set to an appropriate amount in consideration of the horizontal and vertical ranges that enter the image, the size of the object to be detected, and the like.

本発明の上記車両挙動検出装置では、比較手段は、撮像手段でそれぞれ撮像した撮像時刻の異なる複数の画像間において、比較領域における車両上下方向の輝度波形を比較し、検出手段は、比較手段での比較結果に基づいて自車両のピッチングを検出すると好適である。   In the vehicle behavior detection apparatus of the present invention, the comparison means compares the luminance waveform in the vehicle vertical direction in the comparison region between a plurality of images captured at different imaging times by the imaging means, and the detection means is the comparison means. It is preferable to detect the pitching of the host vehicle based on the comparison result.

この車両挙動検出装置では、比較手段により撮像時刻の異なる複数の画像間において比較領域の各画素の輝度値から生成される上下方向に延びる輝度波形を比較する。例えば、自車両のピッチングによって撮像時刻が異なる各画像が上下方向に位置ずれしており、その各画像の比較領域に移動物体が全く存在しない場合、各比較領域からそれぞれ生成される各輝度波形は、波形の形状は略同様であるが、上下方向にずれたものとなる。そこで、車両挙動検出装置では、検出手段によりその比較領域間の輝度波形の上下方向のずれから自車両の上下方向の動き(すなわち、ピッチング)を検出する。このように、車両挙動検出装置では、画素情報の比較において輝度波形を用いて比較することにより、処理負荷をより軽減できる。   In this vehicle behavior detection apparatus, the comparison means compares luminance waveforms extending in the vertical direction generated from the luminance values of the pixels in the comparison region between a plurality of images having different imaging times. For example, if each image with different imaging time is shifted in the vertical direction due to pitching of the host vehicle, and there is no moving object in the comparison area of each image, each luminance waveform generated from each comparison area is The shape of the waveform is substantially the same, but shifted in the vertical direction. Therefore, in the vehicle behavior detection device, the vertical movement (that is, pitching) of the host vehicle is detected from the vertical shift of the luminance waveform between the comparison regions by the detection means. Thus, in the vehicle behavior detection device, the processing load can be further reduced by comparing the pixel information using the luminance waveform.

本発明は、撮像時刻の異なる複数の画像間の比較領域における画素情報を比較するだけの簡単な手法により、自車両の挙動を検出できる。   The present invention can detect the behavior of the host vehicle by a simple method of simply comparing pixel information in a comparison region between a plurality of images having different imaging times.

以下、図面を参照して、本発明に係る車両挙動検出装置の実施の形態を説明する。   Hereinafter, an embodiment of a vehicle behavior detection device according to the present invention will be described with reference to the drawings.

本実施の形態では、本発明に係る物体検出装置を、車両に搭載される周辺監視装置に適用する。本実施の形態に係る周辺監視装置は、自車両前方の障害物(例えば、他車両、自転車、歩行者などの移動物体、落下物などの静止物体)を検出し、その検出した障害物情報を運転支援装置(衝突防止装置など)に出力あるいは音声や表示によって運転者に提供する。なお、検出方向としては、前方とするが、側方、後方などの他の方向でもよい。   In the present embodiment, the object detection device according to the present invention is applied to a periphery monitoring device mounted on a vehicle. The periphery monitoring device according to the present embodiment detects obstacles in front of the host vehicle (for example, moving objects such as other vehicles, bicycles, and pedestrians, stationary objects such as falling objects), and the detected obstacle information is detected. Provided to the driver by output or voice or display to a driving assistance device (such as a collision prevention device). The detection direction is front, but may be other directions such as side and rear.

図1〜図3を参照して、本実施の形態に係る周辺監視装置1について説明する。図1は、本実施の形態に係る周辺監視装置の構成図である。図2は、図1のECUにおけるピッチング補正量の推定方法の説明図である。図3は、自車両のピッチングと画像処理領域との関係を示す撮像画像の一例である。   With reference to FIGS. 1-3, the periphery monitoring apparatus 1 which concerns on this Embodiment is demonstrated. FIG. 1 is a configuration diagram of the periphery monitoring device according to the present embodiment. FIG. 2 is an explanatory diagram of a pitching correction amount estimation method in the ECU of FIG. FIG. 3 is an example of a captured image showing the relationship between the pitching of the host vehicle and the image processing area.

周辺監視装置1は、自車両前方の検出手段としてミリ波センサとカメラを備え、ミリ波センサによる障害物のセンシング情報を利用してカメラによる画像における障害物のセンシング領域(画像処理領域)を設定する。特に、周辺監視装置1では、自車両の挙動が変化(特に、ピッチング)した場合でもセンシング領域から確実に障害物の情報を検出するために、自車両のピッチングを検出し、そのピッチングに応じてセンシング領域を補正する。周辺監視装置1は、ミリ波センサ2、カメラ3及びECU[Electronic Control Unit]4を備えている。   The periphery monitoring device 1 includes a millimeter wave sensor and a camera as detection means in front of the host vehicle, and sets an obstacle sensing area (image processing area) in an image captured by the camera by using obstacle sensing information by the millimeter wave sensor. To do. In particular, the periphery monitoring device 1 detects the pitching of the host vehicle in order to reliably detect obstacle information from the sensing area even when the behavior of the host vehicle changes (especially pitching), and according to the pitching. Correct the sensing area. The periphery monitoring device 1 includes a millimeter wave sensor 2, a camera 3, and an ECU [Electronic Control Unit] 4.

なお、本実施の形態ではカメラ3が特許請求の範囲に記載する撮像手段に相当し、ECU4における機能が特許請求の範囲に記載する比較手段、検出手段に相当する。   In the present embodiment, the camera 3 corresponds to the imaging unit described in the claims, and the function in the ECU 4 corresponds to the comparison unit and the detection unit described in the claims.

ミリ波センサ2は、ミリ波を利用して物体を検出するレーダセンサである。ミリ波センサ2は、自車両の前側の中央の所定の高さ位置(検出対象の障害物を確実に検出可能な高さ位置)に取り付けられる。ミリ波センサ2では、ミリ波を左右方向に走査しながら自車両から前方に向けて送信し、反射してきたミリ波を受信する。ミリ波を送信する際の上下方向の角度は、固定であり、車両停止時には路面に対して平行となる角度が設定されている。ミリ波センサ2では、反射ミリ波を受信できた各反射点(検出点)についてのミリ波情報(左右方向の走査方位角、送信時刻、受信時刻、反射強度など)からなるミリ波信号をECU4に送信する。   The millimeter wave sensor 2 is a radar sensor that detects an object using millimeter waves. The millimeter wave sensor 2 is attached to a predetermined height position in the center of the front side of the host vehicle (a height position at which an obstacle to be detected can be reliably detected). The millimeter wave sensor 2 transmits the millimeter wave forward while scanning the millimeter wave in the left-right direction, and receives the reflected millimeter wave. The angle in the vertical direction when transmitting the millimeter wave is fixed, and an angle that is parallel to the road surface when the vehicle is stopped is set. In the millimeter wave sensor 2, a millimeter wave signal composed of millimeter wave information (scanning azimuth angle in the left and right direction, transmission time, reception time, reflection intensity, etc.) for each reflection point (detection point) that has been able to receive the reflected millimeter wave is converted into an ECU Send to.

カメラ3は、自車両の前方を撮像するカメラである。カメラ3は、自車両の前側の中央に取り付けられる。カメラ3は、自車両前方を撮像し、その撮像画像情報を画像信号としてECU4に送信する。この撮像画像は、一定時間(例えば、1/30秒)毎のフレームの画像である。カメラ3は、左右方向に撮像範囲が広く、車線数が少ない場合には走行車線及び対向車線の外側の歩道や路肩までを十分に含む範囲まで撮像可能である。ECU4では自車両のピッチングを検出するために画像の右側の側端領域を利用するので、右側(対向車線側)の範囲をより広角に撮像できるようにしてもよい。なお、撮像画像の各画素は少なくとも輝度情報を有していればよいので、カメラ3はカラーのカメラでも白黒のカメラでもよい。   The camera 3 is a camera that images the front of the host vehicle. The camera 3 is attached to the front center of the host vehicle. The camera 3 images the front of the host vehicle and transmits the captured image information to the ECU 4 as an image signal. This captured image is an image of a frame every certain time (for example, 1/30 second). The camera 3 has a wide imaging range in the left-right direction, and when the number of lanes is small, the camera 3 can capture images up to a range that sufficiently includes the side lanes and shoulders outside the driving lane and the opposite lane. Since the ECU 4 uses the right side end region of the image in order to detect the pitching of the host vehicle, the right side (opposite lane side) range may be imaged at a wider angle. Since each pixel of the captured image only needs to have at least luminance information, the camera 3 may be a color camera or a monochrome camera.

ECU4は、CPU[Central ProcessingUnit]、ROM[Read Only Memory]、RAM[Random Access Memory]及び画像処理チップなどからなる電子制御ユニットであり、周辺監視装置1を統括制御する。ECU4では、ROMに記憶されているアプリケーションプログラムをRAMにロードし、CPUで実行すると、ミリ波障害物検出機能、画像処理領域設定機能、自車両運動量推定機能、画像処理領域補正機能、画像障害物検出機能が構成される。ECU4では、一定時間毎に、ミリ波センサ2からのミリ波信号及びカメラ3からの画像信号を取り入れ、ミリ波情報及び撮像画像情報を時系列で記憶する。そして、ECU4では、これらの情報を用いて各機能における処理を行い、検出した障害物情報(例えば、相対距離、相対速度、横位置、大きさ情報、種別情報)を運転支援装置に出力あるいは運転者に提供する。   The ECU 4 is an electronic control unit including a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], an image processing chip, and the like, and comprehensively controls the periphery monitoring device 1. In the ECU 4, when an application program stored in the ROM is loaded into the RAM and executed by the CPU, the millimeter wave obstacle detection function, the image processing area setting function, the own vehicle momentum estimation function, the image processing area correction function, the image obstacle A detection function is configured. The ECU 4 takes in the millimeter wave signal from the millimeter wave sensor 2 and the image signal from the camera 3 at regular time intervals, and stores the millimeter wave information and the captured image information in time series. Then, the ECU 4 performs processing in each function using these pieces of information, and outputs detected obstacle information (for example, relative distance, relative speed, lateral position, size information, type information) to the driving support device or driving To provide

ミリ波障害物検出機能について説明する。ECU4では、現時刻(t)でのミリ波情報を利用し、ミリ波の送信から受信までの時間に基づいて前方の障害物までの相対距離を算出する。さらに、ECU4では、その現時刻(t)で算出された距離と前時刻(t−1)で算出された距離の変化に基づいて前方の障害物との相対速度を算出する。また、ECU4では、現時刻(t)でのミリ波情報を利用し、反射してきたミリ波の中で最も強く反射してきたミリ波の方向を検出し、その方向から自車両の進行方向と障害物の方向とのなす角度を求め、その角度から横位置を算出する。なお、相対速度を算出する場合、前時刻(t−1)よりも更に過去の相対距離データを用いてもよい。   The millimeter wave obstacle detection function will be described. The ECU 4 uses the millimeter wave information at the current time (t), and calculates the relative distance to the obstacle ahead based on the time from transmission to reception of the millimeter wave. Further, the ECU 4 calculates the relative speed with the obstacle ahead based on the change of the distance calculated at the current time (t) and the distance calculated at the previous time (t−1). Further, the ECU 4 uses the millimeter wave information at the current time (t) to detect the direction of the millimeter wave that is reflected most strongly among the reflected millimeter waves, and from the direction, the traveling direction of the host vehicle and the obstacle The angle formed with the direction of the object is obtained, and the lateral position is calculated from the angle. When calculating the relative speed, past relative distance data may be used further than the previous time (t−1).

画像処理領域設定機能について説明する。ECU4では、ミリ波障害物検出機能で検出した障害物情報(特に、相対距離、横位置)に基づいて画像処理領域を設定する。ここでは、相対距離や横位置などに基づいて画像処理領域の中心位置を決定し、その中心位置から予め設定された上下方向幅と左右方向幅をそれぞれ確保した画像処理領域を設定する。   The image processing area setting function will be described. The ECU 4 sets the image processing area based on the obstacle information (particularly relative distance and lateral position) detected by the millimeter wave obstacle detection function. Here, the center position of the image processing area is determined based on the relative distance, the horizontal position, and the like, and the image processing area that secures the preset vertical and horizontal widths from the central position is set.

自車両運動量推定機能について説明する。ECU4では、現時刻(t)のフレームの画像と前時刻(t−1)のフレームの画像から右側の側端領域(比較領域)をそれぞれ抽出する。この右側の側端領域は、画像中心から最も離れた領域であり、画像において自車両の走行車線や対向車線(ひいては、各車線を走行中の車両)を極力含まない背景領域である。したがって、側端領域は、画像の中で最も大きな移動物体である走行中の車両が含まれる可能性が低い領域であり、移動物体の占める割合が他の領域に比べて小さい領域となる。但し、車線数が多い場合には側端領域に車線を含む場合があるが、画像中心付近よりは走行中の車両の大きさが小さくなる。側端領域の左右方向の幅(画素数)としては、輝度波形の比較を行った場合に十分に差を検出できることを考慮し、実験などによって予め設定される。   The own vehicle momentum estimation function will be described. The ECU 4 extracts the right side edge region (comparison region) from the frame image at the current time (t) and the frame image at the previous time (t−1). This right side edge region is a region farthest from the center of the image, and is a background region that does not include the traveling lane or oncoming lane of the own vehicle (and thus the vehicle traveling in each lane) as much as possible. Therefore, the side edge area is an area where there is a low possibility that the running vehicle, which is the largest moving object in the image, is included, and the ratio occupied by the moving object is a smaller area than the other areas. However, when the number of lanes is large, the side edge region may include lanes, but the size of the traveling vehicle is smaller than the vicinity of the center of the image. The lateral width (number of pixels) of the side edge region is set in advance by experiment or the like in consideration that a sufficient difference can be detected when luminance waveforms are compared.

ECU4では、2フレームの側端領域内の全画素の情報から輝度波形をそれぞれ生成する。ここでは、側端領域の上下方向の列毎に左右方向の列に含まれる全ての画素の輝度値を積算し、その上下方向の列毎の積算した輝度値から上下方向に延びる輝度波形が形成される。例えば、自車両が直進走行しており、側端領域に移動物体が含まれていない場合、この2フレームの各輝度波形は、波形の形状が略同様であり、自車両の前後方向の動きと自車両の上下方向の動き(ピッチング)に応じて上下方向に位置ずれした波形となる。但し、自車両の前後方向の動きに応じた上下方向の位置ずれは、自車両の上下方向の動きに応じた上下方向の位置ずれに比べて小さく、誤差範囲である。したがって、2フレームの輝度波形間の上下方向のずれは、自車両のピッチングに応じたずれと想定できる。   The ECU 4 generates a luminance waveform from information on all pixels in the side end region of the two frames. Here, the luminance values of all the pixels included in the horizontal column are integrated for each vertical column of the side edge region, and a luminance waveform extending in the vertical direction is formed from the integrated luminance value for each vertical column. Is done. For example, when the host vehicle is traveling straight and no moving object is included in the side end region, the luminance waveforms of the two frames have substantially the same waveform shape, The waveform is shifted in the vertical direction in accordance with the vertical movement (pitching) of the host vehicle. However, the vertical position shift corresponding to the movement of the host vehicle in the front-rear direction is smaller than the vertical position shift corresponding to the vertical movement of the host vehicle, and is within an error range. Therefore, the vertical shift between the luminance waveforms of the two frames can be assumed as a shift corresponding to the pitching of the host vehicle.

ECU4では、2フレームの輝度波形を比較し、2つの輝度波形の上下方向のずれ量(画素数)を求める。この比較方法は、どのような方法でもよく、例えば、SAD[Sum of Absolute Difference]を利用したり、一方の輝度波形を上下方向に移動させて、移動させた一方の輝度波形と他方の輝度波形とのマッチング(相関)をとり、最もマッチングする移動量を探索する。算出される上下方向のずれ量は、自車両のピッチング(ピッチ角)に応じた2フレーム間の画像の上下方向のずれ量に相当し、画像処理領域の位置の上下方向の補正量となる。なお、輝度波形を比較する場合、前時刻(t−1)よりも更に過去のフレームの画像を用いてもよい。   The ECU 4 compares the luminance waveforms of the two frames and obtains the amount of deviation (number of pixels) in the vertical direction of the two luminance waveforms. This comparison method may be any method, for example, using SAD [Sum of Absolute Difference] or moving one luminance waveform in the vertical direction to move one luminance waveform and the other luminance waveform. To find the amount of movement that best matches. The calculated vertical shift amount corresponds to the vertical shift amount of the image between two frames according to the pitching (pitch angle) of the host vehicle, and is the vertical correction amount of the position of the image processing area. In addition, when comparing a luminance waveform, you may use the image of the past frame further from previous time (t-1).

図2には、自車両のピッチングによって上下方向に位置ずれしている前時刻(t−1)のフレーム画像Pt−1と現時刻(t)のフレーム画像Pの一例を示している。この各画像Pt−1,Pからは、輝度波形を比較するために、右側の側端領域At−1,Aが抽出される。側端領域At−1,Aは、他の背景部分とは輝度情報に特徴のあるポストTを含んでいる。そのため、側端領域At−1,Aから生成される輝度波形Wt−1,Wには、ポストTの部分に対応して輝度の積算値が大きくなる部分Bt−1,Bをそれぞれ有している。2つの輝度波形Wt−1,Wを比較することによって、上下方向のずれ量(画素数PW)が求められる。ちなみに、このポストのような輝度情報に特徴の物体が存在しない場合でも、側端領域が全面一様な画像でない限り、地上側と空との境界、歩道と建造物の境界など、側端領域内に輝度情報の変化する箇所があれば上下方向のずれ量を求めることができる。 FIG. 2 shows an example of a frame image P t frame image P t-1 and the current time before being displaced in the vertical direction by pitching the vehicle time (t-1) (t) . From this each image P t-1, P t, in order to compare the luminance waveform, the right side end area A t-1, A t is extracted. Side end region A t-1, A t includes a post T with characteristic luminance information of the other background portion. Therefore, the luminance waveform W t-1, W t that is generated from the side end area A t-1, A t, part B t-1 integrated value of luminance corresponding to the portion of the post T increases, B Each has t . By comparing the two luminance waveforms W t−1 and W t , the amount of vertical shift (number of pixels PW) is obtained. By the way, even if there is no object characterized by luminance information such as this post, the side edge area such as the boundary between the ground side and the sky, the boundary between the sidewalk and the building, etc. unless the side edge area is a uniform image throughout If there is a portion where the luminance information changes, the amount of deviation in the vertical direction can be obtained.

画像処理領域補正機能について説明する。ECU4では、自車両運動量推定機能で求めたピッチング補正量が閾値よりも大きいか否かを判定する。閾値は、自車両のピッチングによって位置ずれした画像処理領域(画像処理領域設定機能で設定した領域)で画像処理を行った場合に画像処理結果(障害物情報)に影響を与える程度のピッチング補正量(画素数)か否かを判定するための閾値であり、実験などによって予め設定される。ピッチング補正量が閾値よりも大きい場合、ECU4では、画像処理領域設定機能で設定した画像処理領域の位置をピッチング補正量分上下方向に平行移動し、画像処理領域を最終決定する。   The image processing area correction function will be described. In ECU4, it is determined whether the pitching correction amount calculated | required by the own vehicle momentum estimation function is larger than a threshold value. The threshold value is a pitching correction amount that affects the image processing result (obstacle information) when image processing is performed in an image processing region (region set by the image processing region setting function) that is displaced due to the pitching of the host vehicle. This is a threshold value for determining whether or not (the number of pixels), and is set in advance by an experiment or the like. When the pitching correction amount is larger than the threshold value, the ECU 4 translates the position of the image processing region set by the image processing region setting function in the vertical direction by the pitching correction amount, and finally determines the image processing region.

一方、ピッチング補正量が閾値以下の場合、ECU4では、画像処理領域設定機能で設定した画像処理領域を画像処理領域として最終決定する。   On the other hand, when the pitching correction amount is equal to or smaller than the threshold value, the ECU 4 finally determines the image processing area set by the image processing area setting function as the image processing area.

画像障害物検出機能について説明する。ECU4では、現時刻(t)の画像から最終的に決定した画像処理領域の画像を抽出する。そして、ECU4では、画像処理領域の画像から障害物の情報を検出する。画像から検出できる障害物の情報としては、障害物の大きさ情報(横幅、高さ)、パターン認識を利用した障害物の種別情報(例えば、車両、歩行者)などがある。   The image obstacle detection function will be described. The ECU 4 extracts an image of the image processing area that is finally determined from the image at the current time (t). The ECU 4 detects obstacle information from the image in the image processing area. Obstacle information that can be detected from an image includes obstacle size information (width, height), obstacle type information using pattern recognition (for example, a vehicle, a pedestrian), and the like.

図3に示す例は、自車両がピンチングしているときにミリ波情報による障害物情報に基づいて画像処理領域を設定した場合である。この場合、撮像画像Pにおける前方車両FVに対して下方向に位置ずれした画像処理領域IAが設定される。この際、自車両のピッチングに応じた上下方向の補正量(画素数PW)が求められ、この画素数PWに従って画像処理領域IAを上方に平行移動することにより、画像処理領域RAが再設定される。この画像処理領域RA内には、前方車両FVが十分に含まれる。   The example shown in FIG. 3 is a case where an image processing area is set based on obstacle information based on millimeter wave information when the host vehicle is pinching. In this case, an image processing area IA that is shifted downward with respect to the preceding vehicle FV in the captured image P is set. At this time, the vertical correction amount (pixel number PW) corresponding to the pitching of the host vehicle is obtained, and the image processing area RA is reset by moving the image processing area IA upward in accordance with the pixel number PW. The The front vehicle FV is sufficiently included in the image processing area RA.

図1〜図3を参照して、周辺監視装置1の動作について説明する。特に、ECU4における画像処理領域決定処理については図4のフローチャートに沿って説明する。図4は、図1のECUにおける画像処理領域決定処理の流れを示すフローチャートである。   With reference to FIGS. 1-3, operation | movement of the periphery monitoring apparatus 1 is demonstrated. In particular, the image processing area determination process in the ECU 4 will be described with reference to the flowchart of FIG. FIG. 4 is a flowchart showing a flow of image processing area determination processing in the ECU of FIG.

ミリ波センサ2では、一定時間毎に、ミリ波による走査を行い、各検出点についてのミリ波情報を示すミリ波信号をECU4に送信する。ECU4では、このミリ波信号を受信する毎に、ミリ波情報を時系列で記憶する。   The millimeter wave sensor 2 scans with a millimeter wave at regular time intervals, and transmits a millimeter wave signal indicating millimeter wave information about each detection point to the ECU 4. Every time the millimeter wave signal is received, the ECU 4 stores millimeter wave information in time series.

カメラ3では、一定時間毎に、自車両の前方を撮像し、その画像情報を示す画像信号をECU4に送信する。ECU4では、この画像信号を受信する毎に、そのフレームの画像情報を時系列で記憶する。   The camera 3 captures the front of the host vehicle at regular time intervals and transmits an image signal indicating the image information to the ECU 4. Each time the image signal is received, the ECU 4 stores the image information of the frame in time series.

ECU4では、現時刻(t)のミリ波情報を読み出し、そのミリ波情報に基づいて障害物情報(相対距離、相対速度、横位置など)を検出する(S1)。そして、ECU4では、その障害物情報に基づいて画像処理領域を設定する(S2)。   The ECU 4 reads out the millimeter wave information at the current time (t) and detects obstacle information (relative distance, relative speed, lateral position, etc.) based on the millimeter wave information (S1). Then, the ECU 4 sets an image processing area based on the obstacle information (S2).

ECU4では、現時刻(t)のフレームと前時刻(t−1)のフレームの画像をそれぞれ読み出し、2フレームの画像から右側の側端領域(比較領域)をそれぞれ抽出する。そして、ECU4では、各側端領域の輝度波形をそれぞれ算出し、2つの輝度波形の上下方向の差から自車両のピッチングに応じた補正量を推定する(S3)。   The ECU 4 reads the images of the frame at the current time (t) and the frame at the previous time (t−1), respectively, and extracts the right side end region (comparison region) from the images of the two frames. Then, the ECU 4 calculates the luminance waveform of each side edge region, and estimates the correction amount according to the pitching of the host vehicle from the vertical difference between the two luminance waveforms (S3).

ECU4では、ピッチング補正量が閾値よりも大きいか否かを判定する(S4)。S4にてピッチング補正量が閾値以下と判定した場合、ECU4では、S2で設定した画像処理領域を確定する。   The ECU 4 determines whether or not the pitching correction amount is larger than a threshold value (S4). If it is determined in S4 that the pitching correction amount is equal to or smaller than the threshold value, the ECU 4 determines the image processing area set in S2.

一方、S4にてピッチング補正量が閾値よりも大きいと判定した場合、ECU4では、そのピッチング補正量に従って画像処理領域の位置を補正し、その補正した画像処理領域を確定する(S5)。   On the other hand, when it is determined in S4 that the pitching correction amount is larger than the threshold value, the ECU 4 corrects the position of the image processing region according to the pitching correction amount, and determines the corrected image processing region (S5).

そして、ECU4では、現時刻(t)の画像におけるその確定した画像処理領域から障害物情報(大きさ情報、種別情報など)を検出する。   Then, the ECU 4 detects obstacle information (size information, type information, etc.) from the determined image processing area in the image at the current time (t).

ECU4では、その検出した障害物情報(相対距離、相対速度、横位置、大きさ情報、種別情報など)を運転支援装置に出力あるいは音声や表示によって運転者に提供する。   The ECU 4 provides the detected obstacle information (relative distance, relative speed, lateral position, size information, type information, etc.) to the driver by outputting to the driving support device or by voice or display.

この周辺監視装置1によれば、撮像時刻の異なる複数の画像間の比較領域における輝度波形を比較するだけの簡単な手法により、自車両のピッチング(特に、ピッチングに応じた補正量)を検出できる。そのため、処理負荷が少なく、安価な画像処理チップでも応答性良く処理が可能である。   According to the periphery monitoring device 1, it is possible to detect the pitching of the host vehicle (particularly, the correction amount corresponding to the pitching) by a simple method of simply comparing the luminance waveforms in the comparison region between the plurality of images having different imaging times. . For this reason, even an inexpensive image processing chip with a low processing load can be processed with good responsiveness.

特に、周辺監視装置1では、画像中の側端領域を比較領域としているので、走行中の車両などの大きな移動物体が入る可能性が少なく、その側端領域における輝度波形の比較によってピッチング補正量を高精度に求めることができる。また、周辺監視装置1では、輝度波形で比較することにより、処理負荷をより軽減できる。   In particular, since the peripheral monitoring device 1 uses the side edge area in the image as a comparison area, there is little possibility of a large moving object such as a traveling vehicle entering, and the pitching correction amount is obtained by comparing the luminance waveform in the side edge area. Can be obtained with high accuracy. Moreover, in the periphery monitoring apparatus 1, the processing load can be further reduced by comparing the luminance waveforms.

なお、自車両の挙動の変化によって画像処理領域の位置変動が最も大きくなるのは、ピッチングによる影響であり、本実施の形態のようなピッチングに応じた位置補正を行うことにより、画像処理領域の位置補正の効果としては非常に高い。ちなみに、ロールに応じた位置補正を行う場合、画像中心を回転軸として回転移動をして位置補正するので、画像中心付近に存在する画像処理領域の位置としてはそれほど変わらず、画像処理領域の位置補正の効果としては低い。このように、本実施の形態では、処理負荷を軽減するために、画像処理領域の位置補正の効果が最も高いピッチングに対する補正だけを行っている。   Note that the position variation of the image processing area becomes the largest due to the change in the behavior of the host vehicle due to the effect of pitching.By performing position correction according to pitching as in this embodiment, the position of the image processing area The effect of position correction is very high. By the way, when performing position correction according to the roll, the position is corrected by rotating the image center as the rotation axis, so the position of the image processing area that exists near the center of the image does not change so much. The correction effect is low. As described above, in this embodiment, in order to reduce the processing load, only the correction for the pitching with the highest effect of the position correction of the image processing region is performed.

以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。   As mentioned above, although embodiment which concerns on this invention was described, this invention is implemented in various forms, without being limited to the said embodiment.

例えば、本実施の形態では周辺監視装置に適用したが、車両挙動検出装置自体あるいは運転支援装置や車両挙動制御装置などにおける車両挙動検出機能などにも適用できる。   For example, in the present embodiment, the present invention is applied to the periphery monitoring device, but it can also be applied to the vehicle behavior detection device itself or a vehicle behavior detection function in a driving support device or a vehicle behavior control device.

また、本実施の形態ではミリ波センサを適用したが、ミリ波センサを適用したが、レーザセンサ、超音波センサなどの他のレーダセンサ、カメラの画像を利用したセンサ、インフラなどの他の手段を適用してもよい。   Further, although the millimeter wave sensor is applied in this embodiment, the millimeter wave sensor is applied, but other means such as other radar sensors such as a laser sensor and an ultrasonic sensor, a sensor using an image of a camera, and an infrastructure. May be applied.

また、本実施の形態では画素情報として輝度を利用し、輝度波形を比較する構成したが、RGBなどの他の画素情報を利用してもよいし、また、輝度波形以外にも他の情報を比較してもよい。   In this embodiment, the luminance is used as the pixel information and the luminance waveform is compared. However, other pixel information such as RGB may be used, and other information besides the luminance waveform may be used. You may compare.

また、本実施の形態では画像の上下方向の輝度波形を比較し、挙動としてピッチングを検出する構成としたが、左右方向などの他の方向で比較してもよく、また、ロール、ヨーイングなどの他の挙動を検出してもよい。   Further, in the present embodiment, the luminance waveform in the vertical direction of the image is compared and the pitching is detected as the behavior. Other behavior may be detected.

また、本実施の形態では予め決められた画像の側端部を比較領域としたが、上下端部などの他の領域でもよいし、また、ミリ波情報から検出した移動物体の位置情報に基づいて移動物体を含まないような領域を動的に設定してもよい。   In the present embodiment, the side edge of the predetermined image is used as the comparison area. However, other areas such as upper and lower edges may be used, and based on the position information of the moving object detected from the millimeter wave information. Thus, an area that does not include a moving object may be set dynamically.

また、本実施の形態では自車両の運動量として画像処理領域を補正するためのピッチング補正量(画素数)を求める構成としたが、自車両の運動量を直接示すピッチ角などを求める構成としてもよい。ちなみに、隣接画素間距離とピッチ角とは予め決まった関係なので、求められたピッチング補正量(画素数)からピッチ角に簡単に変換することができる。   In the present embodiment, the pitching correction amount (number of pixels) for correcting the image processing region is calculated as the amount of movement of the host vehicle. However, the pitch angle directly indicating the amount of movement of the host vehicle may be calculated. . Incidentally, since the distance between adjacent pixels and the pitch angle are determined in advance, the obtained pitching correction amount (number of pixels) can be easily converted into the pitch angle.

本実施の形態に係る周辺監視装置の構成図である。It is a block diagram of the periphery monitoring apparatus which concerns on this Embodiment. 図1のECUにおけるピッチング補正量の推定方法の説明図である。It is explanatory drawing of the estimation method of the pitching correction amount in ECU of FIG. 自車両のピッチングと画像処理領域との関係を示す撮像画像の一例である。It is an example of the captured image which shows the relationship between the pitching of the own vehicle, and an image processing area. 図1のECUにおける画像処理領域決定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image process area | region determination process in ECU of FIG.

符号の説明Explanation of symbols

1…周辺監視装置、2…ミリ波センサ、3…カメラ、4…ECU   DESCRIPTION OF SYMBOLS 1 ... Perimeter monitoring apparatus, 2 ... Millimeter wave sensor, 3 ... Camera, 4 ... ECU

Claims (3)

自車両周辺を撮像する撮像手段と、
前記撮像手段でそれぞれ撮像した撮像時刻の異なる複数の画像間において、移動物体の占める割合が他の領域に比べて小さい比較領域における画素情報を比較する比較手段と、
前記比較手段での比較結果に基づいて自車両の挙動の変化を検出する検出手段と
を備えることを特徴とする車両挙動検出装置。
Imaging means for imaging the periphery of the vehicle;
Comparison means for comparing pixel information in a comparison region in which the proportion of moving objects is smaller than other regions between a plurality of images captured at different imaging times by the imaging unit,
A vehicle behavior detection apparatus comprising: a detection unit that detects a change in behavior of the host vehicle based on a comparison result of the comparison unit.
前記比較領域は、前記撮像手段で撮像した画像の中心から所定量外側に位置する領域であることを特徴とする請求項1に記載する車両挙動検出装置。   The vehicle behavior detection device according to claim 1, wherein the comparison region is a region located outside a predetermined amount from the center of the image captured by the imaging unit. 前記比較手段は、前記撮像手段でそれぞれ撮像した撮像時刻の異なる複数の画像間において、比較領域における車両上下方向の輝度波形を比較し、
前記検出手段は、前記比較手段での比較結果に基づいて自車両のピッチングを検出することを特徴とする請求項1又は請求項2に記載する車両挙動検出装置。
The comparison means compares the luminance waveform in the vehicle vertical direction in the comparison area between a plurality of images with different imaging times captured by the imaging means,
The vehicle behavior detection device according to claim 1, wherein the detection unit detects pitching of the host vehicle based on a comparison result of the comparison unit.
JP2008169155A 2008-06-27 2008-06-27 Vehicle behavior detecting device Pending JP2010006270A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008169155A JP2010006270A (en) 2008-06-27 2008-06-27 Vehicle behavior detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008169155A JP2010006270A (en) 2008-06-27 2008-06-27 Vehicle behavior detecting device

Publications (1)

Publication Number Publication Date
JP2010006270A true JP2010006270A (en) 2010-01-14

Family

ID=41587248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008169155A Pending JP2010006270A (en) 2008-06-27 2008-06-27 Vehicle behavior detecting device

Country Status (1)

Country Link
JP (1) JP2010006270A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068935A (en) * 2010-09-24 2012-04-05 Toyota Motor Corp Object recognition device for vehicle
JP2013257258A (en) * 2012-06-14 2013-12-26 East Japan Railway Co Roadbed shape measuring method, roadbed shape measuring apparatus and vehicle
JP2014522589A (en) * 2011-05-31 2014-09-04 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method for defining the pitching of a camera incorporated in a vehicle and method for controlling the light emission of at least one headlight of a vehicle
JP2016125999A (en) * 2014-12-26 2016-07-11 株式会社デンソー Pitching determination device
JP2019120584A (en) * 2018-01-05 2019-07-22 三菱電機株式会社 Object recognition device and object recognition method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0339602A (en) * 1989-07-05 1991-02-20 Olympus Optical Co Ltd Movement quantity arithmetic unit for image
JP2001092970A (en) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd Lane recognizing device
JP2003247824A (en) * 2002-02-22 2003-09-05 Nissan Motor Co Ltd On-vehicle range finder
JP2006338272A (en) * 2005-06-01 2006-12-14 Nissan Motor Co Ltd Vehicle behavior detector and vehicle behavior detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0339602A (en) * 1989-07-05 1991-02-20 Olympus Optical Co Ltd Movement quantity arithmetic unit for image
JP2001092970A (en) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd Lane recognizing device
JP2003247824A (en) * 2002-02-22 2003-09-05 Nissan Motor Co Ltd On-vehicle range finder
JP2006338272A (en) * 2005-06-01 2006-12-14 Nissan Motor Co Ltd Vehicle behavior detector and vehicle behavior detection method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068935A (en) * 2010-09-24 2012-04-05 Toyota Motor Corp Object recognition device for vehicle
JP2014522589A (en) * 2011-05-31 2014-09-04 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method for defining the pitching of a camera incorporated in a vehicle and method for controlling the light emission of at least one headlight of a vehicle
JP2013257258A (en) * 2012-06-14 2013-12-26 East Japan Railway Co Roadbed shape measuring method, roadbed shape measuring apparatus and vehicle
JP2016125999A (en) * 2014-12-26 2016-07-11 株式会社デンソー Pitching determination device
JP2019120584A (en) * 2018-01-05 2019-07-22 三菱電機株式会社 Object recognition device and object recognition method

Similar Documents

Publication Publication Date Title
JP4453775B2 (en) Object detection device
JP5012718B2 (en) Image processing device
US9053554B2 (en) Object detection device using an image captured with an imaging unit carried on a movable body
EP2993654B1 (en) Method and system for forward collision warning
JP6471528B2 (en) Object recognition apparatus and object recognition method
EP2482250B1 (en) Object detection device
JP5664787B2 (en) Moving body detection apparatus and moving body detection method
US10592755B2 (en) Apparatus and method for controlling vehicle
US20120283895A1 (en) Collision probability calculation apparatus for vehicle and collision avoidance system using the same
JP2008172441A (en) Detection device, method, and program
JP6458651B2 (en) Road marking detection device and road marking detection method
JP2008171140A (en) Image processing apparatus, method and program
JP2008033750A (en) Object inclination detector
JP5233696B2 (en) Lane boundary detection device, boundary detection program, and departure warning device
JP2010006270A (en) Vehicle behavior detecting device
JP4721278B2 (en) Lane departure determination device, lane departure prevention device, and lane tracking support device
JP5304804B2 (en) Boundary detection device and boundary detection program
JP2010020710A (en) Device for detecting road side fixed object
JP2008171141A (en) Image processor, method, and program
JP4905496B2 (en) Object detection device
JP4239834B2 (en) Object detection device
JP2007122355A (en) License plate reader and license plate read control method
WO2013161817A1 (en) Travel zone line recognition device
JP2015099556A (en) Position locating device and headlamp control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121218