JP4849013B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP4849013B2
JP4849013B2 JP2007157736A JP2007157736A JP4849013B2 JP 4849013 B2 JP4849013 B2 JP 4849013B2 JP 2007157736 A JP2007157736 A JP 2007157736A JP 2007157736 A JP2007157736 A JP 2007157736A JP 4849013 B2 JP4849013 B2 JP 4849013B2
Authority
JP
Japan
Prior art keywords
lateral position
relative movement
position information
vehicle
right end
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007157736A
Other languages
Japanese (ja)
Other versions
JP2008310585A (en
Inventor
達也 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007157736A priority Critical patent/JP4849013B2/en
Publication of JP2008310585A publication Critical patent/JP2008310585A/en
Application granted granted Critical
Publication of JP4849013B2 publication Critical patent/JP4849013B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、車両周辺監視装置に関するものである。   The present invention relates to a vehicle periphery monitoring device.

近年、衝突低減装置、車間距離制御装置、追従走行装置などの運転支援装置が開発されている。これら運転支援装置では、自車両の周辺を常に監視し、前方に存在する物体(例えば前方を走行する車両など)と自車両との相対位置関係やその時間変化率を把握することが重要となる。車両周辺監視装置は、これらの情報を運転支援装置に提供する装置であり、物体の検出精度を向上させるために、ミリ波レーダなどのレーダ検出手段やステレオカメラなどの画像検出手段を備える。レーダ検出手段を用いると、物体の存在を正確に検出でき、また自車両と物体との距離を精度よく検出できる。また、画像検出手段により得られる画像データを用いると、画像の濃淡から物体の端部(エッジ)を精度よく検出できるので、端部(エッジ)に関する情報を用いて自車両に対する物体の位置を精度よく検出できる。したがって、この2つの検出手段を備える車両周辺監視装置は、レーダ検出手段によって得られる物体との距離情報と、画像検出手段によって得られる物体の位置情報とに基づいて、自車両に対する物体の相対移動方向及び相対移動速度(以下、相対移動ベクトルという)を精度よく算出できる。   In recent years, driving support devices such as a collision reducing device, an inter-vehicle distance control device, and a following traveling device have been developed. In these driving support devices, it is important to constantly monitor the surroundings of the host vehicle and grasp the relative positional relationship between the host vehicle (for example, a vehicle traveling ahead) and the host vehicle and the rate of change over time. . The vehicle periphery monitoring device is a device that provides such information to the driving support device, and includes radar detection means such as a millimeter wave radar and image detection means such as a stereo camera in order to improve object detection accuracy. By using the radar detection means, the presence of an object can be detected accurately, and the distance between the host vehicle and the object can be detected with high accuracy. In addition, using the image data obtained by the image detection means, it is possible to accurately detect the edge of the object from the shade of the image, so the information about the edge (edge) is used to accurately determine the position of the object with respect to the host vehicle. Can be detected well. Therefore, the vehicle periphery monitoring device including these two detection means is configured to move the object relative to the host vehicle based on the distance information to the object obtained by the radar detection means and the position information of the object obtained by the image detection means. The direction and relative movement speed (hereinafter referred to as a relative movement vector) can be calculated with high accuracy.

なお、自車両と周辺物体との相対位置関係を検出するための従来の装置としては、例えば以下のようなものがある。特許文献1に記載された衝突判定装置では、画像検出手段によって撮像された画像内に存在する物体の縦エッジ及び横エッジを抽出し、これらのエッジに関するオプティカルフローを算出し、オプティカルフローに基づいて該物体との衝突可能性を判断している。また、特許文献2に記載された車間距離推定装置では、レーダによって検出された自車両と前方車両との車間距離と、カメラ画像によって検出された前方車両のエッジ間隔とを関連づけて記憶しておき、車間距離が所定値より短くなった場合に、前回の車間距離及びエッジ間隔と今回のエッジ間隔とを用いて今回の車間距離を推定している。また、特許文献3に記載された画像認識装置では、一台の赤外線カメラが撮像した赤外線画像を解析することにより物体の高さ及び影の高さを検出し、検出された物体の高さと影の高さとの比率、及び物体に対する影の角度を算出し、算出された比率と角度とに基づいて車両から物体までの距離を算出している。
特開2006−99155号公報 特開2002−96702号公報 特開2005−92448号公報
As a conventional apparatus for detecting the relative positional relationship between the host vehicle and the surrounding object, for example, the following is available. In the collision determination apparatus described in Patent Literature 1, the vertical edge and the horizontal edge of an object existing in an image captured by the image detection unit are extracted, optical flows related to these edges are calculated, and based on the optical flow The possibility of collision with the object is determined. In the inter-vehicle distance estimation device described in Patent Document 2, the inter-vehicle distance between the host vehicle and the preceding vehicle detected by the radar and the edge interval of the preceding vehicle detected by the camera image are stored in association with each other. When the inter-vehicle distance becomes shorter than a predetermined value, the current inter-vehicle distance is estimated using the previous inter-vehicle distance, the edge interval, and the current edge interval. In the image recognition apparatus described in Patent Document 3, the height of an object and the height of a shadow are detected by analyzing an infrared image captured by one infrared camera, and the detected height and shadow of the object are detected. The ratio of the height of the object and the angle of the shadow with respect to the object are calculated, and the distance from the vehicle to the object is calculated based on the calculated ratio and angle.
JP 2006-99155 A JP 2002-96702 A JP 2005-92448 A

しかしながら、画像検出手段により撮像された画像を用いて物体の端部を検出する場合、画像検出手段から見た該端部の方向と画像検出手段の撮像中心軸線との成す角度が大きいほど(すなわち、画像中の物体の端部が画像の端に近づくほど)、その端部に関する位置検出精度が低下する。その結果、該物体に関する位置検出精度が低下してしまい、相対移動ベクトルの算出精度に影響することとなる。   However, when detecting the edge of an object using an image captured by the image detection means, the larger the angle formed between the direction of the edge viewed from the image detection means and the imaging center axis of the image detection means (that is, The closer the end of the object in the image is to the end of the image), the lower the position detection accuracy for that end. As a result, the position detection accuracy related to the object is lowered, which affects the calculation accuracy of the relative movement vector.

本発明は、上記した問題点を鑑みてなされたものであり、画像検出手段を備える車両周辺監視装置において、自車両に対する物体の相対移動ベクトルの算出精度を向上することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to improve the calculation accuracy of a relative movement vector of an object with respect to the host vehicle in a vehicle periphery monitoring device including image detection means.

上述した課題を解決するために、本発明による車両周辺監視装置は、自車両に対する物体の相対移動方向及び相対移動速度を検出する車両周辺監視装置であって、送信波を送信して物体で反射した反射波を受信することにより自車両に対する物体の距離情報および横位置情報を生成するレーダ検出手段と、物体を撮像することによって得た画像と横位置情報とを基に、物体の左端横位置情報及び右端横位置情報を生成する画像検出手段と、距離情報、左端横位置情報、及び右端横位置情報を基に、自車両に対する物体の相対移動方向及び相対移動速度を算出する演算手段とを備え、演算手段は、左端横位置情報及び右端横位置情報のそれぞれに重み付けを行って自車両に対する物体の相対移動方向及び相対移動速度を算出するとともに、重み付けの際に、左端横位置情報及び右端横位置情報のうち画像の中心に近い側の位置情報の重みを遠い側より大きくすることを特徴とする。   In order to solve the above-described problem, a vehicle periphery monitoring device according to the present invention is a vehicle periphery monitoring device that detects a relative movement direction and a relative movement speed of an object with respect to the host vehicle, and transmits a transmission wave to be reflected by the object. The left edge lateral position of the object based on the radar detection means for generating the distance information and lateral position information of the object with respect to the host vehicle by receiving the reflected wave, and the image and lateral position information obtained by imaging the object Image detecting means for generating information and right end lateral position information, and computing means for calculating the relative movement direction and relative movement speed of the object relative to the host vehicle based on the distance information, the left end lateral position information, and the right end lateral position information. And calculating means weights each of the left end lateral position information and the right end lateral position information to calculate a relative moving direction and a relative moving speed of the object with respect to the own vehicle, and When only the, characterized by greater than the far side of the weight of the positional information closer to the center of the image of the left lateral position information and the right end lateral position information.

上記した車両周辺監視装置においては、演算手段が、左端横位置情報及び右端横位置情報のそれぞれに重み付けを行って自車両に対する物体の相対移動ベクトルを算出するとともに、重み付けの際に、左端横位置情報及び右端横位置情報のうち画像の中心に近い側の位置情報の重みを遠い側より大きくしている。画像の中心に近い側の位置情報は、画像検出手段から見た当該端部の方向と画像検出手段の撮像中心軸線との成す角度が比較的小さいので、中心から遠い側の位置情報と比較して精度が高い。したがって、画像の中心に近い側の位置情報の重みを遠い側より大きくすることにより、自車両に対する物体の相対移動ベクトルを精度よく算出できる。   In the vehicle periphery monitoring device described above, the calculation means weights each of the left end lateral position information and the right end lateral position information to calculate the relative movement vector of the object with respect to the own vehicle, and at the time of weighting, the left end lateral position Among the information and right end lateral position information, the weight of the position information closer to the center of the image is made larger than that of the far side. The position information on the side close to the center of the image is relatively small in the angle formed by the direction of the end as viewed from the image detection means and the imaging center axis of the image detection means, so it is compared with the position information on the side far from the center. And high accuracy. Therefore, the relative movement vector of the object with respect to the host vehicle can be accurately calculated by increasing the weight of the position information on the side closer to the center of the image than on the far side.

上記した車両周辺監視装置において、演算手段が、左端横位置情報及び右端横位置情報のそれぞれに重み付けを行って自車両に対する物体の相対移動ベクトルを算出する方式としては、左端横位置情報に第1の重み付け係数を掛け合わせた第1の値と、右端横位置情報に第2の重み付け係数を掛け合わせた第2の値とを加算することによって自車両に対する物体の相対位置を算出し、該相対位置を基に、自車両に対する物体の相対移動方向及び相対移動速度を算出するとともに、物体の右端と比べて左端が画像の中心に近い場合には第1の重み付け係数を第2の重み付け係数より大きくし、物体の左端と比べて右端が画像の中心に近い場合には第2の重み付け係数を第1の重み付け係数より大きくする方式が挙げられる。   In the vehicle periphery monitoring apparatus described above, the calculation means weights each of the left end lateral position information and the right end lateral position information to calculate the relative movement vector of the object with respect to the own vehicle. The relative position of the object with respect to the host vehicle is calculated by adding the first value obtained by multiplying the weighting coefficient of the second position and the second value obtained by multiplying the right end lateral position information by the second weighting coefficient. Based on the position, the relative movement direction and the relative movement speed of the object with respect to the host vehicle are calculated, and when the left end is closer to the center of the image than the right end of the object, the first weighting coefficient is calculated from the second weighting coefficient. For example, when the right end is closer to the center of the image than the left end of the object, the second weighting coefficient is made larger than the first weighting coefficient.

また、車両周辺監視装置は、演算手段が、物体の横位置が自車両の中心線から所定の範囲内にある場合には、重み付けを行わずに、自車両に対する物体の左端の相対移動方向及び相対移動速度、及び自車両に対する物体の右端の相対移動方向及び相対移動速度をそれぞれ算出し、これらの相対移動方向及び相対移動速度に基づいて自車両に対する物体の相対移動方向及び相対移動速度を算出することを特徴としてもよい。   In addition, the vehicle periphery monitoring device may be configured such that when the lateral position of the object is within a predetermined range from the center line of the host vehicle, the vehicle periphery monitoring device does not perform weighting and the relative movement direction of the left end of the object with respect to the host vehicle Calculate the relative movement speed, the relative movement direction and the relative movement speed of the right end of the object with respect to the own vehicle, and calculate the relative movement direction and the relative movement speed of the object with respect to the own vehicle based on the relative movement direction and the relative movement speed. It may be characterized by.

物体の横位置が自車両の中心線から所定の範囲内にある場合には、画像中において、物体の左端及び右端の双方が画像の中心に近く、左端横位置情報及び右端横位置情報の双方の精度が高いといえる。したがって、そのような場合には、左端の相対移動ベクトルと、右端の相対移動ベクトルとを各々精度よく算出することができるので、これらに基づいて自車両に対する物体の相対移動ベクトルを精度よく算出できる。また、物体の相対移動ベクトルを算出する際には、或る時間間隔でもって認識された複数箇所の物体位置情報が必要となる。従来においては、左端横位置情報、右端横位置情報及び距離情報から物体位置を算出し、この物体位置を或る時間間隔でもって複数箇所認識することで物体の相対移動ベクトルを求めていた。これに対し、上記した車両周辺監視装置のように左端及び右端の相対移動ベクトルを各々個別に算出すれば、このような従来の方法と比較して、同等の精度を得るための演算量をより少なくすることができる。例えば、物体位置を10箇所認識して相対位置ベクトルを算出する方式と、物体の左端位置及び右端位置を5箇所ずつ認識して各々の相対移動ベクトルを算出する方式とでは、同等の精度が得られ、且つ後者の方式は前者の方式に比べて演算量が約半分となる。また、後者の方式において、左端位置及び右端位置を10箇所ずつ認識して各々の相対移動ベクトルを算出すれば、前者の方式とほぼ同じ演算量でもって2倍の演算精度を達成できる。   When the lateral position of the object is within a predetermined range from the center line of the host vehicle, both the left end and the right end of the object are close to the center of the image in the image, and both the left end lateral position information and the right end lateral position information are both It can be said that the accuracy of is high. Therefore, in such a case, the left end relative movement vector and the right end relative movement vector can be calculated with high accuracy, and the relative movement vector of the object with respect to the host vehicle can be calculated with high accuracy based on these. . Further, when calculating the relative movement vector of the object, the object position information of a plurality of places recognized at a certain time interval is required. Conventionally, an object position is calculated from left end lateral position information, right end lateral position information, and distance information, and a relative movement vector of the object is obtained by recognizing a plurality of positions at a certain time interval. On the other hand, if the relative movement vectors of the left end and the right end are individually calculated as in the vehicle periphery monitoring device described above, the amount of calculation for obtaining the same accuracy can be increased as compared with the conventional method. Can be reduced. For example, a method of calculating the relative position vector by recognizing ten object positions and a method of calculating the relative movement vector by recognizing the left end position and the right end position of the object five by five can obtain the same accuracy. The latter method requires about half the amount of calculation compared to the former method. Further, in the latter method, if the left end position and the right end position are recognized 10 positions and the relative movement vectors are calculated, the calculation accuracy can be doubled with the same amount of calculation as the former method.

本発明によれば、画像検出手段を備える車両周辺監視装置において、自車両に対する物体の相対移動ベクトルの算出精度を向上できる。   According to the present invention, in the vehicle periphery monitoring device provided with the image detection means, it is possible to improve the calculation accuracy of the relative movement vector of the object with respect to the host vehicle.

以下、添付図面を参照しながら本発明による車両周辺監視装置の実施の形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of a vehicle periphery monitoring device according to the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

まず、図1を参照して、車両周辺監視装置1の構成について説明する。図1は、本実施の形態に係る車両周辺監視装置1の構成を示す図である。   First, the configuration of the vehicle periphery monitoring device 1 will be described with reference to FIG. FIG. 1 is a diagram showing a configuration of a vehicle periphery monitoring device 1 according to the present embodiment.

車両周辺監視装置1は、自動車に搭載され、自車両の前方を走行する先行車両等の物体を検出し、自車両に対する該物体の相対移動ベクトルを演算する装置である。車両周辺監視装置1は、前方の物体に関する情報を必要とする衝突防止装置、車間距離制御装置、追従走行装置等の運転支援装置に、算出した相対移動ベクトルに関する各情報を提供する。車両周辺監視装置1は、ミリ波レーダ2、ステレオカメラ3及び電子制御装置(以下「ECU」という)4を備えている。なお、車両周辺監視装置1は、上述した運転支援装置と別体とし、算出した各情報を運転支援装置に送信する構成でもよいし、あるいは、運転支援装置に組み込まれる構成でもよい。   The vehicle periphery monitoring device 1 is a device that is mounted on an automobile, detects an object such as a preceding vehicle that travels in front of the host vehicle, and calculates a relative movement vector of the object with respect to the host vehicle. The vehicle periphery monitoring device 1 provides each piece of information related to the calculated relative movement vector to a driving support device such as a collision prevention device, an inter-vehicle distance control device, and a follow-up traveling device that require information about a forward object. The vehicle periphery monitoring device 1 includes a millimeter wave radar 2, a stereo camera 3, and an electronic control device (hereinafter referred to as “ECU”) 4. In addition, the vehicle periphery monitoring device 1 may be configured separately from the above-described driving support device, and may transmit the calculated information to the driving support device, or may be configured to be incorporated in the driving support device.

本実施の形態では、ミリ波レーダ2が特許請求の範囲に記載するレーダ検出手段に相当し、ステレオカメラ3が特許請求の範囲に記載する画像検出手段に相当し、ECU4が特許請求の範囲に記載する演算手段に相当する。   In the present embodiment, the millimeter wave radar 2 corresponds to the radar detection means described in the claims, the stereo camera 3 corresponds to the image detection means described in the claims, and the ECU 4 corresponds to the claims. This corresponds to the calculation means described.

ミリ波レーダ2は、ミリ波(送信波)を利用して前方の物体を検出するレーダである。ミリ波レーダ2は、自動車の前面の中央に取り付けられる。ミリ波レーダ2は、ミリ波を自車両から前方に向けて送信し、物体表面にて反射したミリ波を受信する。そして、ミリ波レーダ2は、送信から受信までの時間を計測することによって自車両の前端部から物体表面までの距離に関する情報(距離情報)を生成する。また、ミリ波レーダ2には受信部が横並びに複数設けられている。ミリ波レーダ2は、各受信部がミリ波を受信する際に生じる互いの時間差に基づいて、自車両に対する物体の横位置に関する情報(横位置情報)を生成する。ここで、物体の横位置とは、自車両の車幅方向の中心線と物体の同方向の中心線(共に仮想線)との距離のことである。ミリ波レーダ2は、ECU4に接続されており、生成した距離情報及び横位置情報をECU4に提供する。なお、本実施形態ではミリ波レーダ2が距離情報及び横位置情報を生成する構成としているが、ミリ波レーダ2から提供された信号に基づいてECU4や他のECUがこれらの情報を生成する構成としてもよい。   The millimeter wave radar 2 is a radar that detects a forward object using millimeter waves (transmission waves). The millimeter wave radar 2 is attached to the center of the front surface of the automobile. The millimeter wave radar 2 transmits the millimeter wave forward from the host vehicle and receives the millimeter wave reflected on the object surface. Then, the millimeter wave radar 2 generates information (distance information) related to the distance from the front end of the host vehicle to the object surface by measuring the time from transmission to reception. Further, the millimeter wave radar 2 is provided with a plurality of receiving units side by side. The millimeter wave radar 2 generates information (lateral position information) on the lateral position of the object with respect to the host vehicle based on the mutual time difference that occurs when each receiving unit receives the millimeter wave. Here, the lateral position of the object is the distance between the center line in the vehicle width direction of the host vehicle and the center line in the same direction of the object (both virtual lines). The millimeter wave radar 2 is connected to the ECU 4 and provides the generated distance information and lateral position information to the ECU 4. In the present embodiment, the millimeter wave radar 2 generates distance information and lateral position information. However, the ECU 4 and other ECUs generate such information based on signals provided from the millimeter wave radar 2. It is good.

ステレオカメラ3は、2台のCCDカメラ(図示せず)からなり、2台のCCDカメラが水平方向に数cm程度離間されて配置されている。ステレオカメラ3も、自車両の前面の中央に取り付けられる。ステレオカメラ3は、2つのCCDカメラで撮像した各画像データを画像処理部(図示せず)に送信する。この画像処理部は、ステレオカメラ3に一体で設けられてもよいし、ECU4や他のECU内に構成されてもよい。   The stereo camera 3 is composed of two CCD cameras (not shown), and the two CCD cameras are arranged at a distance of about several centimeters in the horizontal direction. The stereo camera 3 is also attached to the center of the front surface of the host vehicle. The stereo camera 3 transmits image data captured by the two CCD cameras to an image processing unit (not shown). This image processing unit may be provided integrally with the stereo camera 3, or may be configured in the ECU 4 or another ECU.

画像処理部は、各画像データとミリ波レーダ2からの横位置情報とを基に前方の物体を特定し、該物体の左端横位置及び右端横位置に関する情報を生成する。画像処理部は、画像データの濃淡変化が著しい箇所を物体の端部と判定し、左右の端部の横位置に関する情報、すなわち左端横位置情報及び右端横位置情報を生成する。画像処理部は、ECU4に接続されており、生成した左端横位置情報及び右端横位置情報をECU4に提供する。   The image processing unit identifies a forward object based on each image data and the lateral position information from the millimeter wave radar 2, and generates information regarding the left end lateral position and the right end lateral position of the object. The image processing unit determines that a portion where the change in shading of the image data is significant is an end portion of the object, and generates information on the horizontal positions of the left and right ends, that is, left end lateral position information and right end lateral position information. The image processing unit is connected to the ECU 4 and provides the generated left end lateral position information and right end lateral position information to the ECU 4.

ECU4は、演算を行うマイクロプロセッサ、マイクロプロセッサに各処理を実行させるためのプログラム等を記憶するROM、演算結果などの各種データを記憶するRAM及び12Vバッテリによってその記憶内容が保持されるバックアップRAM等により構成されている。ECU4は、ミリ波レーダ2から取得した物体との距離情報と、ステレオカメラ3から取得した物体の左端横位置情報及び右端横位置情報とに基づいて、自車両に対する物体の相対位置を演算する。また、ECU4は、現在の相対位置と、過去に演算した相対位置との差分に基づいて、自車両に対する物体の相対移動ベクトルを演算する。   The ECU 4 includes a microprocessor that performs calculations, a ROM that stores a program for causing the microprocessor to execute each process, a RAM that stores various data such as calculation results, and a backup RAM in which the stored contents are held by a 12V battery. It is comprised by. The ECU 4 calculates the relative position of the object with respect to the host vehicle based on the distance information to the object acquired from the millimeter wave radar 2 and the left end lateral position information and right end lateral position information of the object acquired from the stereo camera 3. Further, the ECU 4 calculates the relative movement vector of the object with respect to the host vehicle based on the difference between the current relative position and the relative position calculated in the past.

ここで、ステレオカメラ3による左端横位置情報及び右端横位置情報の生成には、次の特徴がある。ステレオカメラ3から見た位置特定対象の方向とステレオカメラ3の撮像中心軸線との成す角度が比較的小さい場合、すなわち画像中の位置特定対象が画像中心に近い場合には、解像度が高いので精度の良い位置情報を生成できる。これに対して、ステレオカメラ3から見た位置特定対象の方向とステレオカメラ3の撮像中心軸線との成す角度が大きい場合、すなわち画像中の位置特定対象が画像の端に近い場合には、解像度が低くなり位置情報の精度が低下する。   Here, the generation of the left end lateral position information and the right end lateral position information by the stereo camera 3 has the following characteristics. When the angle between the direction of the position specifying object viewed from the stereo camera 3 and the imaging center axis of the stereo camera 3 is relatively small, that is, when the position specifying object in the image is close to the image center, the resolution is high and the accuracy is high. Position information can be generated. On the other hand, when the angle formed by the direction of the position specifying target viewed from the stereo camera 3 and the imaging center axis of the stereo camera 3 is large, that is, when the position specifying target in the image is close to the edge of the image, the resolution Becomes lower and the accuracy of the position information decreases.

具体的に説明すると、図2に示すように、ステレオカメラ3から見た前方車両B(物体に相当)の左端BL及び右端BRの方向とステレオカメラ3の撮像中心軸線Caとの成す角度θ,θが比較的小さい場合には、図4(a)に示すように、画像D中の左端BL及び右端BRが画像中心に近くなる。このような場合には、左端BL及び右端BRに関する位置情報を高い精度で得ることができる。一方、図3に示すように、前方車両Bの横位置が自車両Aの車幅方向の中心線から右方向に離れると、ステレオカメラ3から見た前方車両Bの右端BRの方向とステレオカメラ3の撮像中心軸線Caとの成す角度θが大きくなり、図4(b)に示すように、画像D中の右端BRが画像の端に近くなる。このような場合には、右端BRに関する位置情報の精度が低下する。 More specifically, as shown in FIG. 2, an angle θ L formed between the direction of the left end BL and right end BR of the forward vehicle B (corresponding to an object) viewed from the stereo camera 3 and the imaging center axis Ca of the stereo camera 3. , theta when R is relatively small, as shown in FIG. 4 (a), left BL and right BR in the image D is close to the image center. In such a case, position information regarding the left end BL and the right end BR can be obtained with high accuracy. On the other hand, as shown in FIG. 3, when the lateral position of the forward vehicle B is separated from the center line in the vehicle width direction of the host vehicle A to the right, the direction of the right end BR of the forward vehicle B viewed from the stereo camera 3 and the stereo camera The angle θ R formed with the imaging center axis Ca of 3 increases, and the right end BR in the image D is close to the end of the image as shown in FIG. In such a case, the accuracy of the position information regarding the right end BR decreases.

そこで、本実施形態に係る車両周辺監視装置1は、左端横位置情報及び右端横位置情報それぞれの精度を考慮しつつ、自車両に対する物体の相対移動ベクトルを算出する。以下、車両周辺監視装置1の動作について、図5を参照しながら説明する。図5は、車両周辺監視装置1による自車両と物体との相対移動ベクトルの算出手順を示すフローチャートである。この処理は、ECU4において、ECU4の電源がオンされてからオフされるまでの間、所定のタイミングで繰り返し実行される。   Therefore, the vehicle periphery monitoring apparatus 1 according to the present embodiment calculates the relative movement vector of the object with respect to the host vehicle while considering the accuracy of the left end lateral position information and the right end lateral position information. Hereinafter, the operation of the vehicle periphery monitoring device 1 will be described with reference to FIG. FIG. 5 is a flowchart showing a procedure for calculating the relative movement vector between the host vehicle and the object by the vehicle periphery monitoring apparatus 1. This process is repeatedly executed at a predetermined timing in the ECU 4 from when the power source of the ECU 4 is turned on until it is turned off.

まず、ECU4は、ミリ波レーダ2において生成された、自車両から物体までの距離情報、及び自車両に対する物体の横位置情報を取得する(ステップS1)。続いて、ECU4は、ステレオカメラ3において生成された、当該物体の左端横位置Xl及び右端横位置Xrに関する情報を取得する(ステップS2)。   First, the ECU 4 acquires the distance information from the own vehicle to the object and the lateral position information of the object with respect to the own vehicle generated in the millimeter wave radar 2 (step S1). Subsequently, the ECU 4 acquires information regarding the left end lateral position Xl and the right end lateral position Xr of the object generated in the stereo camera 3 (step S2).

次に、ECU4は、物体の横位置に応じて、次の二つの処理(重み付け演算処理及び左右個別演算処理)のうちいずれか一方を選択的に行う。なお、これらの処理のいずれを実行するかの判定に用いられる物体の横位置としては、ステップS1においてミリ波レーダによって生成された横位置情報でも良いし、前回の演算において左端横位置Xl及び右端横位置Xrを基に算出されたものでも良い。   Next, the ECU 4 selectively performs one of the following two processes (weighting calculation process and left and right individual calculation process) according to the lateral position of the object. Note that the lateral position of the object used for determining which of these processes is to be performed may be the lateral position information generated by the millimeter wave radar in step S1, or the left end lateral position X1 and the right end in the previous calculation. It may be calculated based on the lateral position Xr.

[重み付け演算処理]
物体の横位置が自車両の中心線から所定の範囲内にない場合(例えば、図3に示したように前方車両Bの横位置が自車両Aの車幅方向の中心線から離れている場合)、ECU4は次の処理を行う。ECU4は、左端横位置Xl及び右端横位置Xrのそれぞれに重み付けを行って、物体の横位置Xを算出する。すなわち、ECU4は、左端横位置情報の重み付けを定める重み付け係数α(第1の重み付け係数)を左端横位置Xlに掛け合わせることによって得られる値(第1の値)αXlと、右端横位置情報の重み付けを定める重み付け係数β(第2の重み付け係数、α+β=1)を右端横位置Xrに掛け合わせることによって得られる値(第2の値)βXrとを加算するよって、物体の横位置X(=αXl+βXr)を算出する(ステップS3)。
[Weighting calculation processing]
When the lateral position of the object is not within a predetermined range from the center line of the host vehicle (for example, when the lateral position of the forward vehicle B is away from the center line in the vehicle width direction of the host vehicle A as shown in FIG. ), The ECU 4 performs the following processing. The ECU 4 calculates the lateral position X of the object by weighting each of the left end lateral position Xl and the right end lateral position Xr. That is, the ECU 4 multiplies the left end lateral position Xl by a weighting coefficient α (first weighting coefficient) that determines the weight of the left end lateral position information and the right end lateral position information. By adding a value (second value) βXr obtained by multiplying the right end lateral position Xr by a weighting coefficient β (second weighting coefficient, α + β = 1) that determines weighting, the lateral position X (= αXl + βXr) is calculated (step S3).

ここで、上述の重み付け係数α及びβは、物体の横位置に応じて設定される。すなわち、右端横位置Xrと比べて左端横位置Xlが画像中心に近い場合には、重み付け係数αを重み付け係数βより大きくし、左端横位置Xlと比べて右端横位置Xrが画像中心に近い場合には、重み付け係数βを重み付け係数αより大きくする。この重み付け係数α、βに関する情報(重み付け係数マップ)はECU4に格納されており、ECU4が左端横位置Xl及び右端横位置Xrを取得すると、重み付け係数マップが参照されることによって重み付け係数が設定される。   Here, the above-described weighting coefficients α and β are set according to the lateral position of the object. That is, when the left end lateral position Xl is closer to the image center than the right end lateral position Xr, the weighting coefficient α is set larger than the weighting coefficient β, and the right end lateral position Xr is closer to the image center than the left end lateral position Xl. Is made larger than the weighting coefficient α. Information on the weighting coefficients α and β (weighting coefficient map) is stored in the ECU 4, and when the ECU 4 acquires the left end lateral position Xl and the right end lateral position Xr, the weighting coefficient is set by referring to the weighting coefficient map. The

重み付け係数αに関する重み付け係数マップの一例を図6(a)に示し、重み付け係数βに関する重み付け係数マップの一例を図6(b)示す。上述したように、ステレオカメラ3は、画像中の位置特定対象が画像中心に近い場合には、解像度が高いので精度の良い位置情報を生成できるが、画像中の位置特定対象が画像の端に近い場合には、解像度が低くなり位置情報の精度が低下するという特性を有する。そのため、重み付け係数α,βに関する重み付け係数マップは、物体の横位置が左方向に偏るほど重み付け係数αが大きくなり、重み付け係数βが小さくなるように定められている。逆に、物体の横位置が右方向に偏るほど重み付け係数βが大きくなり、重み付け係数αが小さくなるように定められている。なお、物体の横位置がゼロ、すなわち物体が自車両(ステレオカメラ3)の正面に位置する場合に、重み付け係数α,βは同等となるように定められている。   An example of the weighting coefficient map relating to the weighting coefficient α is shown in FIG. 6A, and an example of the weighting coefficient map relating to the weighting coefficient β is shown in FIG. As described above, when the position specifying target in the image is close to the center of the image, the stereo camera 3 can generate accurate position information because the resolution is high, but the position specifying target in the image is at the end of the image. In the case of being close, the resolution is lowered and the accuracy of the position information is lowered. Therefore, the weighting coefficient map regarding the weighting coefficients α and β is determined such that the weighting coefficient α increases and the weighting coefficient β decreases as the lateral position of the object is biased to the left. Conversely, it is determined that the weighting coefficient β increases and the weighting coefficient α decreases as the lateral position of the object deviates to the right. When the lateral position of the object is zero, that is, when the object is positioned in front of the host vehicle (stereo camera 3), the weighting coefficients α and β are determined to be equal.

ECU4は、上述のようにして物体の横位置Xを算出したのち、この横位置XとステップS1で求められた距離情報とを基に、自車両に対する物体の相対位置を認識する。そして、ECU4は、或る時間間隔でもって順次認識された複数(例えば10箇所)の相対位置に基づいて、自車両に対する物体の相対移動ベクトルを算出する(ステップS4)。   After calculating the lateral position X of the object as described above, the ECU 4 recognizes the relative position of the object with respect to the host vehicle based on the lateral position X and the distance information obtained in step S1. Then, the ECU 4 calculates a relative movement vector of the object with respect to the host vehicle based on a plurality of (for example, ten) relative positions sequentially recognized at a certain time interval (step S4).

[左右個別演算処理]
物体の横位置が自車両の中心線から所定の範囲内にある場合(例えば、図2に示したように前方車両Bの横位置が自車両Aの車幅方向の中心線に近い場合)、ECU4は次の処理を行う。この場合、ECU4は、[重み付け演算処理]のような重み付けを行わず、自車両に対する物体の左端の相対移動ベクトル、及び自車両に対する物体の右端の相対移動ベクトルをそれぞれ個別に算出し、これらの相対移動ベクトルに基づいて、自車両に対する物体の相対移動ベクトルを算出する。
[Right and left individual calculation processing]
When the lateral position of the object is within a predetermined range from the center line of the host vehicle (for example, when the lateral position of the front vehicle B is close to the center line in the vehicle width direction of the host vehicle A as shown in FIG. 2) The ECU 4 performs the following processing. In this case, the ECU 4 does not perform weighting such as [weighting calculation processing], and separately calculates the relative movement vector of the left end of the object with respect to the own vehicle and the relative movement vector of the right end of the object with respect to the own vehicle. Based on the relative movement vector, a relative movement vector of the object with respect to the host vehicle is calculated.

具体的には、ECU4は、ステップS2で求められた左端横位置Xlと、ステップS1で求められた距離情報とを基に、自車両から見た物体の左端位置を認識する。そして、或る時間間隔でもって順次認識された複数(例えば5つ)の左端位置に基づいて、物体の左端に関する相対移動ベクトルを算出する(ステップS5)。また、ECU4は、物体の右端についても同様の演算を行い、右端に関する相対移動ベクトルを算出する(ステップS5)。ECU4は、こうして算出した左端及び右端それぞれの相対移動ベクトルを平均化することにより、自車両に対する物体の相対移動ベクトルを算出する(ステップS6)。   Specifically, the ECU 4 recognizes the left end position of the object viewed from the host vehicle based on the left end lateral position X1 obtained in step S2 and the distance information obtained in step S1. Then, a relative movement vector regarding the left end of the object is calculated based on a plurality (for example, five) left end positions sequentially recognized at a certain time interval (step S5). The ECU 4 also performs the same calculation for the right end of the object, and calculates a relative movement vector for the right end (step S5). The ECU 4 calculates the relative movement vector of the object with respect to the host vehicle by averaging the relative movement vectors of the left end and the right end thus calculated (step S6).

以上に説明した本実施形態による車両周辺監視装置1においては、ECU4が、左端横位置Xl及び右端横位置Xrのそれぞれに重み付けを行って自車両に対する物体の相対移動ベクトルを算出するとともに、重み付けの際に、左端横位置Xl及び右端横位置Xrのうち画像の中心に近い側に対する重みを遠い側より大きくしている。前述したように、画像の中心に近い側の位置情報は遠い側の位置情報と比較して精度が高いので、画像の中心に近い側の位置情報の重みを遠い側より大きくすることにより、自車両に対する物体の相対移動ベクトルを精度よく算出できる。   In the vehicle periphery monitoring apparatus 1 according to the present embodiment described above, the ECU 4 calculates the relative movement vector of the object with respect to the host vehicle by weighting each of the left end lateral position Xl and the right end lateral position Xr, At this time, the weight on the side closer to the center of the image in the left end lateral position Xl and the right end lateral position Xr is set larger than that on the far side. As described above, the position information on the side closer to the center of the image is more accurate than the position information on the far side, so by increasing the weight of the position information on the side closer to the center of the image than on the far side, The relative movement vector of the object with respect to the vehicle can be calculated with high accuracy.

また、本実施形態のように、ECU4は、物体の横位置が自車両の中心線から所定の範囲内にある場合にはこのような重み付けを行わず、物体の左端及び右端の相対移動ベクトルをそれぞれ個別に算出し、これらの相対移動ベクトルに基づいて自車両に対する物体の相対移動ベクトルを算出することが好ましい。前述したように、物体の横位置が自車両の中心線に近い場合には、左端横位置Xl及び右端横位置Xrの双方の精度が高いといえる。したがって、そのような場合には、左端及び右端の相対移動ベクトルを各々精度よく算出することができるので、これらの相対移動ベクトルに基づいて、自車両に対する物体の相対移動ベクトルを精度よく算出できる。また、相対移動ベクトルを算出する際には、或る時間間隔でもって認識された複数箇所の位置情報が必要となる。従来においては、左端横位置Xl、右端横位置Xr及び距離情報から物体位置を算出し、この物体位置を或る時間間隔でもって複数箇所認識することで物体の相対移動ベクトルを求めていた。本実施形態のように、左端及び右端の相対移動ベクトルを各々個別に算出すれば、このような従来の方法と比較して、同等の精度を得るための演算量をより少なくすることができる。例えば、図7(a)に示すように物体位置P1を10箇所認識して物体(前方車両B)の相対位置ベクトルV1を算出する方式と、図7(b)に示すように物体の左端位置P2及び右端位置P3を5箇所ずつ認識して各々の相対移動ベクトルV2,V3を算出する方式とでは、算出精度は互いに同等であり、後者の方式は前者の方式に比べて演算量が約半分となる。また、後者の方式において、左端位置及び右端位置を10箇所ずつ認識して各々の相対移動ベクトルを算出すれば、前者の方式とほぼ同じ演算量でもって2倍の演算精度を達成できる。   Further, as in the present embodiment, the ECU 4 does not perform such weighting when the lateral position of the object is within a predetermined range from the center line of the host vehicle, and calculates the relative movement vectors at the left end and the right end of the object. It is preferable to calculate each separately and calculate the relative movement vector of the object with respect to the host vehicle based on these relative movement vectors. As described above, when the lateral position of the object is close to the center line of the host vehicle, it can be said that the accuracy of both the left end lateral position Xl and the right end lateral position Xr is high. Therefore, in such a case, the relative movement vectors of the left end and the right end can be calculated with high accuracy, and the relative movement vector of the object with respect to the host vehicle can be calculated with high accuracy based on these relative movement vectors. Further, when calculating the relative movement vector, position information of a plurality of locations recognized at a certain time interval is required. Conventionally, the object position is calculated from the left end lateral position Xl, the right end lateral position Xr, and the distance information, and the relative movement vector of the object is obtained by recognizing a plurality of the object positions at a certain time interval. If the relative movement vectors at the left end and the right end are individually calculated as in the present embodiment, the amount of calculation for obtaining the same accuracy can be reduced as compared with such a conventional method. For example, as shown in FIG. 7 (a), 10 positions of the object position P1 are recognized to calculate the relative position vector V1 of the object (front vehicle B), and the left end position of the object as shown in FIG. 7 (b). In the method of calculating the relative movement vectors V2 and V3 by recognizing P2 and the right end position P3 for each of the five positions, the calculation accuracy is equal to each other, and the latter method has about half the calculation amount as compared with the former method. It becomes. Further, in the latter method, if the left end position and the right end position are recognized 10 positions and the relative movement vectors are calculated, the calculation accuracy can be doubled with the same amount of calculation as the former method.

本発明は、上述した各実施形態に限定されるものではない。例えば上記実施形態では、レーダ検出手段としてミリ波レーダを使用しているが、レーダの種類はどのようなものであってもよい。また、画像検出手段としてステレオカメラを使用しているが、カメラの種類もどのようなものであってもよい。   The present invention is not limited to the above-described embodiments. For example, in the above embodiment, millimeter wave radar is used as the radar detection means, but any type of radar may be used. Further, although a stereo camera is used as the image detection means, any type of camera may be used.

本実施の形態に係る車両周辺監視装置の構成を示す図である。It is a figure which shows the structure of the vehicle periphery monitoring apparatus which concerns on this Embodiment. ステレオカメラから見た前方車両の左端及び右端の方向と、ステレオカメラの撮像中心軸線との成す角度が比較的小さい場合を示している。The case where the angle which the direction of the left end of the front vehicle seen from a stereo camera and the right end direction and the imaging center axis line of a stereo camera make is comparatively small is shown. ステレオカメラから見た前方車両の右端の方向と、ステレオカメラの撮像中心軸線との成す角度が大きい場合を示している。The case where the angle which the direction of the right end of the front vehicle seen from the stereo camera and the imaging center axis line of a stereo camera make is large is shown. (a)画像中の物体の左端及び右端が画像中心に近い場合を示している。(b)画像中の物体の右端が画像の端に近い場合を示している。(A) The case where the left end and the right end of the object in the image are close to the center of the image is shown. (B) The case where the right end of the object in the image is close to the end of the image is shown. 車両周辺監視装置による自車両と物体との相対移動ベクトルの算出手順を示すフローチャートである。It is a flowchart which shows the calculation procedure of the relative movement vector of the own vehicle and an object by a vehicle periphery monitoring apparatus. (a)重み付け係数αに関する重み付け係数マップの一例を示している。(b)重み付け係数βに関する重み付け係数マップの一例を示している。(A) An example of the weighting coefficient map regarding the weighting coefficient α is shown. (B) shows an example of a weighting coefficient map related to the weighting coefficient β. (a)物体位置を10箇所認識して物体(前方車両)の相対位置ベクトルを算出する様子を概念的に示している。(b)物体の左端位置及び右端位置を5箇所ずつ認識して各々の相対移動ベクトルを算出する様子を概念的に示している。(A) The state which recognizes ten object positions and calculates the relative position vector of an object (front vehicle) is shown notionally. (B) It shows conceptually how the relative movement vector is calculated by recognizing the left end position and the right end position of the object five by five.

符号の説明Explanation of symbols

1…車両周辺監視装置、2…ミリ波レーダ、3…ステレオカメラ、A…自車両、B…前方車両、BL…左端、BR…右端、Ca…撮像中心軸線、D…画像。   DESCRIPTION OF SYMBOLS 1 ... Vehicle periphery monitoring apparatus, 2 ... Millimeter wave radar, 3 ... Stereo camera, A ... Own vehicle, B ... Front vehicle, BL ... Left end, BR ... Right end, Ca ... Imaging center axis, D ... Image.

Claims (3)

自車両に対する物体の相対移動方向及び相対移動速度を検出する車両周辺監視装置であって、
送信波を送信して前記物体で反射した反射波を受信することにより前記自車両に対する前記物体の距離情報および横位置情報を生成するレーダ検出手段と、
前記物体を撮像することによって得た画像と前記横位置情報とを基に、前記物体の左端横位置情報及び右端横位置情報を生成する画像検出手段と、
前記距離情報、前記左端横位置情報、及び前記右端横位置情報を基に、前記自車両に対する前記物体の相対移動方向及び相対移動速度を算出する演算手段と
を備え、
前記演算手段は、前記左端横位置情報及び前記右端横位置情報のそれぞれに重み付けを行って前記自車両に対する前記物体の相対移動方向及び相対移動速度を算出するとともに、前記重み付けの際に、前記左端横位置情報及び前記右端横位置情報のうち前記画像の中心に近い側の位置情報の重みを遠い側より大きくすることを特徴とする、車両周辺監視装置。
A vehicle periphery monitoring device for detecting a relative movement direction and a relative movement speed of an object with respect to the own vehicle,
Radar detection means for generating distance information and lateral position information of the object relative to the host vehicle by transmitting a transmission wave and receiving a reflected wave reflected by the object;
Image detection means for generating left end lateral position information and right end lateral position information of the object based on the image obtained by imaging the object and the lateral position information;
Calculation means for calculating a relative movement direction and a relative movement speed of the object with respect to the host vehicle based on the distance information, the left end lateral position information, and the right end lateral position information;
The calculating means weights each of the left end lateral position information and the right end lateral position information to calculate a relative moving direction and a relative moving speed of the object with respect to the host vehicle, and at the time of the weighting, A vehicle periphery monitoring device, wherein the weight of the position information closer to the center of the image of the lateral position information and the right end lateral position information is made larger than that of the far side.
前記演算手段は、前記左端横位置情報に第1の重み付け係数を掛け合わせた第1の値と、前記右端横位置情報に第2の重み付け係数を掛け合わせた第2の値とを加算することによって前記自車両に対する前記物体の相対位置を算出し、該相対位置を基に、前記自車両に対する前記物体の相対移動方向及び相対移動速度を算出するとともに、
前記物体の右端と比べて左端が前記画像の中心に近い場合には前記第1の重み付け係数を前記第2の重み付け係数より大きくし、前記物体の左端と比べて右端が前記画像の中心に近い場合には前記第2の重み付け係数を前記第1の重み付け係数より大きくすることを特徴とする、請求項1に記載の車両周辺監視装置。
The computing means adds a first value obtained by multiplying the left end lateral position information by a first weighting factor and a second value obtained by multiplying the right end lateral position information by a second weighting factor. Calculating the relative position of the object with respect to the host vehicle, and calculating the relative movement direction and the relative movement speed of the object with respect to the host vehicle based on the relative position;
When the left end is closer to the center of the image than the right end of the object, the first weighting factor is made larger than the second weighting factor, and the right end is closer to the center of the image than the left end of the object. 2. The vehicle periphery monitoring apparatus according to claim 1, wherein the second weighting coefficient is made larger than the first weighting coefficient in some cases.
前記演算手段は、前記物体の横位置が前記自車両の中心線から所定の範囲内にある場合には、前記重み付けを行わずに、前記自車両に対する前記物体の左端の相対移動方向及び相対移動速度、及び前記自車両に対する前記物体の右端の相対移動方向及び相対移動速度をそれぞれ算出し、これらの相対移動方向及び相対移動速度に基づいて前記自車両に対する前記物体の相対移動方向及び相対移動速度を算出することを特徴とする、請求項1または2に記載の車両周辺監視装置。   When the lateral position of the object is within a predetermined range from the center line of the host vehicle, the calculation means does not perform the weighting and performs a relative movement direction and a relative movement of the left end of the object with respect to the host vehicle. The speed, the relative movement direction and the relative movement speed of the right end of the object with respect to the own vehicle are respectively calculated, and the relative movement direction and the relative movement speed of the object with respect to the own vehicle are calculated based on the relative movement direction and the relative movement speed. The vehicle periphery monitoring device according to claim 1, wherein the vehicle periphery monitoring device is calculated.
JP2007157736A 2007-06-14 2007-06-14 Vehicle periphery monitoring device Expired - Fee Related JP4849013B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007157736A JP4849013B2 (en) 2007-06-14 2007-06-14 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007157736A JP4849013B2 (en) 2007-06-14 2007-06-14 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2008310585A JP2008310585A (en) 2008-12-25
JP4849013B2 true JP4849013B2 (en) 2011-12-28

Family

ID=40238127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007157736A Expired - Fee Related JP4849013B2 (en) 2007-06-14 2007-06-14 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4849013B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102286174B1 (en) * 2015-09-01 2021-08-06 주식회사 만도 Driving assistance apparatus and driving assistance method
JP6531689B2 (en) 2016-03-22 2019-06-19 株式会社デンソー Moving trajectory detection device, moving object detecting device, moving trajectory detection method
JP2017194926A (en) 2016-04-22 2017-10-26 株式会社デンソー Vehicle control apparatus and vehicle control method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3835438B2 (en) * 2003-07-11 2006-10-18 トヨタ自動車株式会社 Vehicle control system for collision
JP5055691B2 (en) * 2004-10-22 2012-10-24 日産自動車株式会社 Front object detection apparatus and front object detection method
JP2007091025A (en) * 2005-09-28 2007-04-12 Fuji Heavy Ind Ltd Forward monitoring device for vehicle
JP4304517B2 (en) * 2005-11-09 2009-07-29 トヨタ自動車株式会社 Object detection device

Also Published As

Publication number Publication date
JP2008310585A (en) 2008-12-25

Similar Documents

Publication Publication Date Title
US11651595B2 (en) Road plane output with lateral slope
US10922561B2 (en) Object recognition device and vehicle travel control system
US8611609B2 (en) Lane line estimating apparatus
JP5926080B2 (en) Traveling lane marking recognition device and program
JP4970926B2 (en) Vehicle periphery monitoring device
US9043132B2 (en) Apparatus for estimating travel path of a vehicle
WO2017057058A1 (en) Information processing device, information processing method, and program
US10836388B2 (en) Vehicle control method and apparatus
US11300415B2 (en) Host vehicle position estimation device
JP2008116357A (en) Object detector
US20120136510A1 (en) Apparatus and method for detecting vehicles using laser scanner sensors
JP6302519B2 (en) Vehicle driving support device
US20170091565A1 (en) Object detection apparatus, object detection method, and program
JP2007155469A (en) Inter-vehicle distance detection system and inter-vehicle distance detection method
US11052907B2 (en) Parking control device and parking control method
US20180149740A1 (en) Object detection apparatus and object detection method
US12024161B2 (en) Vehicular control system
JP4052291B2 (en) Image processing apparatus for vehicle
JP2017151726A (en) Collision predicting device
JP4849013B2 (en) Vehicle periphery monitoring device
EP2913999A1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
JP6333437B1 (en) Object recognition processing device, object recognition processing method, and vehicle control system
US20130142388A1 (en) Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus
JP4644590B2 (en) Peripheral vehicle position detection device and peripheral vehicle position detection method
JP6718295B2 (en) Surrounding monitoring device and surrounding monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110920

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111003

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees