JPH09264954A - Image processing system using radar - Google Patents

Image processing system using radar

Info

Publication number
JPH09264954A
JPH09264954A JP8076859A JP7685996A JPH09264954A JP H09264954 A JPH09264954 A JP H09264954A JP 8076859 A JP8076859 A JP 8076859A JP 7685996 A JP7685996 A JP 7685996A JP H09264954 A JPH09264954 A JP H09264954A
Authority
JP
Japan
Prior art keywords
image processing
vehicle
radar
processing system
white line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8076859A
Other languages
Japanese (ja)
Inventor
Nobukazu Shima
伸和 島
Hisanori Yasuki
寿教 安木
Masahiro Babasaki
正博 馬場崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP8076859A priority Critical patent/JPH09264954A/en
Publication of JPH09264954A publication Critical patent/JPH09264954A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make it possible to improve the recognizing and identifying accuracies of a white line and forward vehicle by dividing the recognition of the line and vehicle of images to be processed and limiting it based on the distance to an object detected by a radar system. SOLUTION: An imaging processor 2 calculates the three-dimensional position and distance of a recognized white line and forward vehicle from two-dimensional screen position and set parameter of a camera 1. When the processor 2 inputs the distance data from a radar system 3, it converts into the coordinates of a screen, and obtains the position of an object. The system 3 has a millimeter wave radar and a laser radar and obtains the distance from the object disposed forward. The judgement of whether the object is a vehicle or not is conducted by the processor 2. When it inputs the distance data from the system 3, a region limiter 2A limits the white line searching region in the range of near distance side. Further, the limiter 2A limits the range of the recognizing region of the forward vehicle. The white line and forward vehicle of the processor 2 are recognized in the limited range.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、自動車の走行支援
を行うための画像処理システムに関し、特に画像処理量
を低減しかつ認識距離の精度を向上するためにレーダを
用いた画像処理システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing system for supporting driving of an automobile, and more particularly to an image processing system using a radar for reducing the amount of image processing and improving the accuracy of recognition distance.

【0002】[0002]

【従来の技術】まず、自動車の運転は、人間(ドライ
バ)の視覚に頼る部分が大きく、運転中に受け取る全情
報の90%以上を視覚情報が占めているといわれてい
る。このため、運転支援・予防安全システムの開発にお
いて、視覚情報を得る手段は大変重要で、その1つとし
て画像処理が期待されている。この画像処理では、車両
にカメラを搭載し、カメラの画像情報を基に、自車の走
行レーンを示す白線と、自車の走行レーン内の近距離側
の前方車両が認識される。画像処理のアルゴリズムで
は、エッジ抽出処理、白線認識処理、前方車両認識処理
が行われる。
2. Description of the Related Art First of all, it is said that when driving a car, the visual information of a human (driver) largely depends on 90% or more of all information received during driving. Therefore, a means for obtaining visual information is very important in the development of a driving support / preventive safety system, and image processing is expected as one of them. In this image processing, a camera is mounted on the vehicle, and the white line indicating the traveling lane of the own vehicle and the front vehicle on the short distance side in the traveling lane of the own vehicle are recognized based on the image information of the camera. In the image processing algorithm, edge extraction processing, white line recognition processing, and forward vehicle recognition processing are performed.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記画
像処理システムでは、画像処理が大であり、その負担が
大きいという問題がある。さらに、大きな処理量を必要
とする割りには、白線・前方車両の認識及び識別精度が
悪いという問題がある。したがって、本発明は、上記問
題点に鑑み、画像処理量を低減でき、かつ白線・前方車
両の認識及び識別精度を向上できる画像処理システムを
提供することを目的とする。
However, the above-mentioned image processing system has a problem that the image processing is large and the load is heavy. Further, although it requires a large amount of processing, there is a problem that the recognition and identification accuracy of the white line / front vehicle is poor. Therefore, in view of the above problems, it is an object of the present invention to provide an image processing system capable of reducing the amount of image processing and improving the recognition and identification accuracy of a white line / front vehicle.

【0004】[0004]

【課題を解決するための手段】本発明は、前記問題点を
解決するために、次の構成を有するレーダを用いた画像
処理システムを提供する。すなわち、車両に搭載され、
前方を撮像する画像入力手段を有し、画像を処理する画
像処理システムにおいて、前方の道路の白線、車両を認
識する画像処理装置と、前方の物体との距離を検出する
レーダシステムと、前記レーダシステムにより検出され
た物体までの距離を基に、前記画像処理装置で処理すべ
き画面のうち白線、車両の認識領域を分けて限定する領
域限定部とを備える。この手段により、画面の処理を限
定して行うので画像処理量が低減できかつ、レーダシス
テムで認識した対象物の識別精度が高くなる。
In order to solve the above problems, the present invention provides an image processing system using a radar having the following configuration. That is, it is installed in the vehicle,
An image processing system for processing an image, comprising image input means for imaging the front, an image processing device for recognizing a white line on a road ahead, a vehicle, a radar system for detecting a distance between an object in front, and the radar. The image processing apparatus further includes a white line on the screen to be processed by the image processing apparatus and an area limiting unit for limiting the recognition area of the vehicle based on the distance to the object detected by the system. By this means, the processing of the screen is limited so that the amount of image processing can be reduced and the identification accuracy of the object recognized by the radar system can be improved.

【0005】具体的には、前記画像処理装置は、領域限
定部により限定された領域中のエッジ量の分布から前方
車両を認識することにより、処理量が大幅に低減でき
る。前記画像処理装置は、エッジの分布の他にエッジの
左右対称を加えて前方車両を認識する。これにより、前
方車両の認識精度が高くなる。前記画像処理装置は、認
識された白線と前方車両との関係により、前記レーダシ
ステムにより検出された物体が自車走行レーンにあるか
否かを判断して支援動作を行う。このことにより、処理
量が低くなっても支援動作の精度が高く維持することが
できる。
Specifically, the image processing apparatus can significantly reduce the processing amount by recognizing the vehicle in front from the distribution of the edge amount in the region limited by the region limiting section. The image processing apparatus recognizes a forward vehicle by adding left-right symmetry to edges in addition to edge distribution. As a result, the accuracy of recognizing the preceding vehicle is increased. The image processing apparatus determines whether or not the object detected by the radar system is in the vehicle traveling lane based on the relationship between the recognized white line and the vehicle in front, and performs the assisting operation. As a result, the precision of the assisting operation can be kept high even if the processing amount becomes low.

【0006】前記レーダシステムにこれをステアするス
テア装置を設け、前記レーダシステムに狭いビーム角を
使用する場合に、前記画像処理装置の処理結果を基に、
前記レーダシステムをステアする。すなわち、カーブな
どで前記ステア装置は、自車走行レーン内に前方車両が
認識できない場合に、所定のステア角でレーダシステム
をステアする。この手段により、レーダシステムのビー
ム角を絞って狭くしても、レーダシステムをステアする
ので、前方車両の認識が可能になる。
When a steer device for steering the radar system is provided and a narrow beam angle is used in the radar system, based on the processing result of the image processing device,
Steer the radar system. That is, the steerer steers the radar system at a predetermined steer angle when a preceding vehicle cannot be recognized in the vehicle traveling lane on a curve or the like. By this means, even if the beam angle of the radar system is narrowed and narrowed, the radar system is steered, so that the vehicle ahead can be recognized.

【0007】前記ステア装置のステア角度と前記レーダ
システムの検出距離を基に前記領域限定部は、さらに前
記物体の幅方向に認識領域を限定する。この手段によ
り、さらに前記画像処理装置の処理すべき画面を限定す
るので、処理量が低減できる。前記レーダシステムが複
数の物体を検出する場合には、前記領域限定部は、それ
ぞれで複数の認識領域を設ける。この手段により、複数
の前方車両に対しても処理量を低減し、認識精度を高く
維持することができる。
The area limiting unit further limits the recognition area in the width direction of the object based on the steer angle of the steer device and the detection distance of the radar system. By this means, the screen to be processed by the image processing apparatus is further limited, so that the processing amount can be reduced. When the radar system detects a plurality of objects, the area limiting unit provides a plurality of recognition areas respectively. By this means, it is possible to reduce the processing amount and maintain high recognition accuracy even for a plurality of front vehicles.

【0008】[0008]

【発明の実施の形態】以下本発明の実施の形態について
図面を参照して説明する。図1は本発明に係るレーダを
用いた画像処理システムの例を示す図である。本図に示
すように、レーダを用いた画像処理システムは、車両に
搭載されるカメラ1と、これから画像入力して、自車の
走行レーンを示す白線と、近距離側の前方車両とを認識
する処理を行う画像処理装置2と、画像処理量を低減
し、距離の認識精度を向上するために、同様に車両に搭
載され前車両との距離を測定してそれとの距離データを
画像処理装置2に出力するレーダシステム3とを具備す
る。さらに、画像処理装置2には、後述する画像処理の
領域限定部2Aが設けられる。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing an example of an image processing system using a radar according to the present invention. As shown in the figure, an image processing system using a radar recognizes a camera 1 mounted on a vehicle, an image input from the camera 1, a white line indicating a traveling lane of the vehicle, and a front vehicle on a short distance side. In order to reduce the amount of image processing and improve the recognition accuracy of the distance, the image processing apparatus 2 that performs the processing described above is similarly mounted on the vehicle, measures the distance to the preceding vehicle, and obtains distance data from the distance processing device. 2 and a radar system 3 for outputting to 2. Further, the image processing apparatus 2 is provided with an area limiting unit 2A for image processing described later.

【0009】図2は搭載されたカメラの画像処理装置2
が入力する画像例を示す図である。本図に示すように、
画像処理装置2には、前方の車両と走行レーンを表示す
る白線の画像が入力される。次に、画像処理装置2の前
方車両認識では、前方車両の後部には、エッジが数多く
集まって現れるので、このエッジの分布状態が前方車両
の認識特徴とし、領域限定処理、投影処理、車両位置決
定処理が行われる。次に、領域限定処理では、レーダか
らの前方車両のキョリから画像中の前方車両の最下部と
乗用車の高さをもつ横長の前方車両の領域を設定する。
投影処理では、探索領域内のエッジの投影が求められ
る。投影は垂直方向の直線に沿った画像の濃度を逐次足
し合わせ、その合計を求めたものであり、投影分布が形
成される。車両位置決定処理では、投影結果である投影
分布を基に、乗用車の幅分の合計値が最大になる箇所が
前方車両の位置と決定する方法でもよい。
FIG. 2 shows an image processing apparatus 2 for a camera mounted on the camera.
It is a figure which shows the example of an image which is input. As shown in this figure,
The image of the white line that displays the vehicle in front and the driving lane is input to the image processing device 2. Next, in the front vehicle recognition of the image processing apparatus 2, many edges appear in the rear part of the front vehicle. Therefore, the distribution state of the edges is a recognition feature of the front vehicle, and the area limiting process, the projection process, and the vehicle position are performed. A decision process is performed. Next, in the region limiting process, the region of the horizontally long front vehicle having the height of the lowermost part of the front vehicle and the passenger car in the image is set based on the distance of the front vehicle from the radar.
In the projection process, the projection of edges in the search area is obtained. The projection is one in which the densities of the images along the vertical straight line are sequentially added and the total thereof is obtained, and a projection distribution is formed. In the vehicle position determination process, a method may be used in which the position where the total value of the widths of the passenger cars is maximum is determined as the position of the forward vehicle based on the projection distribution that is the projection result.

【0010】さらに、画像処理装置2では、認識した白
線や前方車両の三次元的な位置や距離が、二次元の画面
位置とカメラの設定パラメータから算出される。以下に
本発明に係るものについて説明する。図3は、画面のy
座標と実際の道路の自車からの距離Z0 との関係等を示
す図である。画像処理装置2は、レーダシステム3から
距離データを入力すると、以下のように、画面の座標に
換算して物体の位置を求める処理を行う。本図(a)に
示すように、カメラが道路から高さHに取り付けられ、
カメラの垂直画角をφ y とし、自車から距離Z0 のカメ
ラの俯角をθとする。本図(b)に示すように、画面に
x,y座標をとり、y方向の画像の解像度をRy とする
と、距離Z0 のy1座標は、以下のように、表される。
Further, in the image processing apparatus 2, the recognized white
A two-dimensional screen showing the three-dimensional position and distance of lines and vehicles in front.
It is calculated from the position and the setting parameters of the camera. less than
The thing concerning this invention is demonstrated. Figure 3 shows the y
Coordinates and distance Z from the vehicle on the actual road0Shows the relationship with
FIG. The image processing device 2 is connected to the radar system 3
When you enter the distance data, the coordinates of the screen are displayed as shown below.
The conversion is performed to obtain the position of the object. In this figure (a)
The camera is mounted at a height H from the road, as shown,
The vertical angle of view of the camera is φ yAnd the distance Z from the vehicle0Turtle
Let θ be the depression angle of La. As shown in this figure (b),
Take the x and y coordinates and set the resolution of the image in the y direction to RyTo be
And the distance Z0The y1 coordinate of is expressed as follows.

【0011】[0011]

【数1】 [Equation 1]

【0012】また、距離Z0 の位置で高さh(車両の高
さ)のy座標は、以下のように、表される。
The y-coordinate of the height h (vehicle height) at the position of the distance Z 0 is expressed as follows.

【0013】[0013]

【数2】 [Equation 2]

【0014】なお、車両の高さhは一般的な乗用車、ト
ラックなどの高さを基準に設定してもよい。上記のレー
ダシステム3にはミリ波レーダ、レーザレーダ等種々あ
り、例えば、ミリ波レーダを使用したFM−CWレーダ
では、周波数変調が3角波状に繰り返し行われ、送信波
と反射波の間のビート周波数を求めて、前にある物体と
の距離が求められる。レーダシステム3は距離は精度よ
くみつけるが、この物体が車両であるとの判断はできな
い。この判断を、画像処理装置2が行う。
The height h of the vehicle may be set on the basis of the heights of general passenger cars and trucks. There are various types of the radar system 3 such as a millimeter wave radar and a laser radar. For example, in an FM-CW radar that uses the millimeter wave radar, frequency modulation is repeatedly performed in a triangular wave shape, and the frequency between the transmitted wave and the reflected wave is increased. The beat frequency is calculated and the distance to the object in front is calculated. The radar system 3 can accurately find the distance, but cannot determine that this object is a vehicle. The image processing device 2 makes this determination.

【0015】図4は図1の領域限定部2Aを説明する図
である。レーダシステム3から距離Z0 のデータを入力
すると、本図(a)に示すように、領域限定部2Aは、
白線探索領域をy1(式(1)参照)より近距離側の範
囲について限定する。この限定された範囲で画像処理装
置2の白線の認識処理が行われるようにする。このた
め、白線の認識処理量が軽減される。また、本図(b)
に示すように、領域限定部2Aは、前方車両の認識領域
をy2−y1(式(1)及び(2)参照)の範囲につい
て限定する。この限定さらた範囲で画像処理装置2の前
方車両の認識処理が行われるようにする。このため、前
方車両の認識処理量が軽減される。
FIG. 4 is a diagram for explaining the area limiting unit 2A of FIG. When the data of the distance Z 0 is input from the radar system 3, as shown in FIG.
The white line search area is limited to a range on the short distance side from y1 (see Expression (1)). The white line recognition processing of the image processing apparatus 2 is performed within this limited range. Therefore, the amount of white line recognition processing is reduced. Also, this figure (b)
As shown in (2), the area limiting unit 2A limits the recognition area of the preceding vehicle within the range of y2-y1 (see the equations (1) and (2)). The front vehicle recognition process of the image processing apparatus 2 is performed within this limited range. Therefore, the amount of recognition processing of the preceding vehicle is reduced.

【0016】図5は前方車両の認識処理として、限定さ
れた領域内でエッジ分布を求める例を示す図である。本
図に示すように、限定されたy2−y1座標の範囲で水
平方向又は垂直方向のエッジ分布を求め、エッジの多い
部分が前方車両と認識される。ここで、エッジ抽出処理
の詳細について説明する。
FIG. 5 is a diagram showing an example of obtaining an edge distribution in a limited area as a process of recognizing a front vehicle. As shown in the figure, the edge distribution in the horizontal direction or the vertical direction is obtained in the limited range of y2-y1 coordinates, and the part with many edges is recognized as the vehicle ahead. Here, the details of the edge extraction processing will be described.

【0017】エッジを抽出する手段の1つとしてソーベ
ルオペレータ(Sobel Operator)の例を説明する図6が
ソーベルオペレータである。本図(a)に示すように、
Sxは水平方向のオペレータであり、Sy は垂直方向の
オペレータである。3×3の画素の濃度値をA,B,C
…Iとすると、水平、垂直オペレータSX 、Sy が作用
すると、中心の画素の濃度値Ex 、Ey は、 Ex =A+2B+C−(G+2H+I) Ey =A+2D+G−(C+2F+I) となる。濃度値は、本図(b)に示すように、白色側に
オペレータを作用すると、境界で0から正の大きな値に
なり、エッジが検出されることになる。
A sobel operator is shown in FIG. 6 for explaining an example of a sobel operator as one of means for extracting an edge. As shown in this figure (a),
Sx is a horizontal operator and Sy is a vertical operator. The density values of 3 × 3 pixels are A, B, C
.. I, when the horizontal and vertical operators SX and Sy act, the density values Ex and Ey of the central pixel are: Ex = A + 2B + C- (G + 2H + I) Ey = A + 2D + G- (C + 2F + I). As shown in FIG. 6B, when the operator acts on the white side, the density value changes from 0 to a large positive value at the boundary, and the edge is detected.

【0018】図7は車両の画像の水平エッジ、垂直エッ
ジの検出例を説明する図である。本図に示すように、車
両の画像を構成する輪郭線から水平エッジのみ、垂直エ
ッジのみが検出される。水平エッジを前方車両の認識に
用いることにより、白線や影などのエッジの誤認識を軽
減することが可能になる。また、垂直エッジを前方車両
の認識に用いることにより、方向、速度制限などの路面
表示の影響を軽減することが可能になる。
FIG. 7 is a diagram for explaining an example of detecting horizontal edges and vertical edges of a vehicle image. As shown in the figure, only horizontal edges and only vertical edges are detected from the contour lines forming the image of the vehicle. By using the horizontal edge for recognizing the front vehicle, it is possible to reduce erroneous recognition of edges such as white lines and shadows. Further, by using the vertical edge for recognizing the front vehicle, it is possible to reduce the influence of the road surface display such as the direction and the speed limit.

【0019】なお、水平、垂直オペレータSX 、Sy を
同時に作用させて、水平エッジ及び垂直エッジの分布状
態から、前方車両の認識を行ってもよい。双方の良い点
が組合わされて、車両位置識別の精度を向上させること
ができる。図8は前方車両の左右対称性を示す図であ
る。本図に示すように、前方車両は左右対称性を有する
ので、抽出されたエッジ分布の対称性がある場合には、
前方車両と判断する。前述のような、投影分布を基に、
乗用車の幅分の合計値が最大になる箇所が前方車両の位
置と決定する方式に、エッジ分布の対称性の判断を加え
ることにより、前方車両の認識精度がさらに向上でき
る。
The horizontal and vertical operators SX and Sy may be operated simultaneously to recognize the vehicle ahead from the distribution state of the horizontal edges and the vertical edges. The advantages of both can be combined to improve the accuracy of vehicle position identification. FIG. 8 is a diagram showing the left-right symmetry of the forward vehicle. As shown in this figure, the forward vehicle has left-right symmetry, so if the extracted edge distribution has symmetry,
Judge as a vehicle ahead. Based on the projection distribution as described above,
The recognition accuracy of the front vehicle can be further improved by adding the determination of the symmetry of the edge distribution to the method of determining the position of the front vehicle where the total value of the width of the passenger vehicle is the maximum.

【0020】図9は自車走行レーン内の物体の確認識別
例を説明する図である。本図に示すように、前述の画像
処理により確定した白線、確定した前方車両に対して確
定前方車両が確定白線で規定される自車走行レーン内に
あるか否かの認識を行う。この認識を基に、支援動作を
行うことができ、処理量の低減と共に、認識物体の識別
能力の信頼性が増す。
FIG. 9 is a diagram for explaining an example of confirmation and identification of an object in the vehicle traveling lane. As shown in this figure, it is recognized whether or not the fixed front vehicle is within the own vehicle traveling lane defined by the fixed white line with respect to the fixed white line and the fixed front vehicle determined by the above-described image processing. Based on this recognition, the assisting operation can be performed, the processing amount is reduced, and the reliability of the recognition ability of the recognition object is increased.

【0021】図10は自車走行レーン内の物体の確認識
別の別の例を説明する図である。本図に示すように、確
定白線と確定前方車両との間に白線にかすれなどがあ
り、前方車両位置まで白線が認識できない場合には、確
定白線のカーブ度からかすれ白線を予測し、レーダシス
テム3により検出された物体の距離の位置で、確定前方
車両が自車走行レーン内にあるか否かの認識を行う。こ
のようにして、白線がかすれた場合にも、前方車両が自
車の走行レーン内にあるかの認識が可能になる。
FIG. 10 is a diagram for explaining another example of confirmation and identification of an object in the vehicle traveling lane. As shown in this figure, if there is a blur in the white line between the confirmed white line and the confirmed front vehicle, and the white line cannot be recognized up to the vehicle ahead, the blurred white line is predicted from the curve degree of the confirmed white line, and the radar system At the position of the distance of the object detected by 3, it is recognized whether or not the confirmed front vehicle is in the vehicle driving lane. In this way, even if the white line is faint, it is possible to recognize whether the preceding vehicle is in the traveling lane of the own vehicle.

【0022】図11は、図1に示す、レーダを用いた画
像処理システムにヨーレートセンサを追加した例を示す
図である。本図に示すヨーレート4を用いて、前述のよ
うにかすれ白線のため、白線の認識が不可能な場合に
は、カーブ度を予測して、前方車両が自車の走行レーン
内にあるかの判断処理を行ってもよい。また、ヨーレー
ト4に代わり、ハンドル角を検出するセンサを用いて、
同様に予測を行ってもよい。
FIG. 11 is a diagram showing an example in which a yaw rate sensor is added to the image processing system using the radar shown in FIG. If the white line cannot be recognized using the yaw rate 4 shown in the figure because of the faint white line as described above, the curve degree is predicted to determine whether the preceding vehicle is in the traveling lane of the own vehicle. You may perform a judgment process. Also, instead of the yaw rate 4, a sensor for detecting the steering wheel angle is used,
You may make a prediction similarly.

【0023】図12は、図1に示す、レーダを用いた画
像処理システムのレーダシステム3にステア装置を設け
た例を示す図である。本図に示すように、レーダシステ
ム3に設けられたステア装置5は、画像処理装置2から
の白線認識より得られた自車の走行レーンのカーブ度を
基にレーダシステム3の向きを変えて、レーダシステム
3のビーム角が狭い場合にも、走行レーンの前方物体と
の距離の測定が可能になる。このようにビーム角を狭く
なるように絞るのは、無用な物体の検出を制限するため
である。
FIG. 12 is a diagram showing an example in which a steer device is provided in the radar system 3 of the image processing system using the radar shown in FIG. As shown in the figure, the steering device 5 provided in the radar system 3 changes the direction of the radar system 3 based on the curve degree of the traveling lane of the vehicle obtained from the white line recognition from the image processing device 2. Even when the beam angle of the radar system 3 is narrow, it is possible to measure the distance to the object ahead of the traveling lane. The reason why the beam angle is narrowed in this way is to limit detection of useless objects.

【0024】図13は図12のステア装置5の制御を説
明するフローチャートである。ステップS1において、
レーダシステム3により物体が検出されているかを判断
する。この判断が「NO」ならステップS4に進む。ス
テップS2において、上記判断が「YES」で物体が検
出された場合には、画像処理装置2の白線処理を基に、
自車走行レーン内に前方車両の認識ができたか否かを判
断する。この判断が「NO」ならステップS4に進む。
FIG. 13 is a flow chart for explaining the control of the steering device 5 of FIG. In step S1,
It is determined whether an object is detected by the radar system 3. If this determination is "NO", the process proceeds to step S4. In step S2, when the determination is “YES” and an object is detected, based on the white line processing of the image processing apparatus 2,
It is determined whether or not the preceding vehicle can be recognized in the own vehicle traveling lane. If this determination is "NO", the process proceeds to step S4.

【0025】ステップS3において、上記判断が「YE
S」の場合は、前方車両に向けてビームを出力するよう
レーダシステム3のステア制御を行う。ステップS4に
おいて、自車の走行レーンに向けてレーダシステム3を
振るステア装置の制御を行う。レーダシステム3からの
ビームが狭くて物体からはずれている場合には、この制
御により自車の走行レーン内の物体を見失うことなく検
出することが可能になる。物体が検出されていても、自
車の走行レーンからはずれた前方車両を検出している場
合にも、この制御により自車の走行レーン内の物体を検
出することが可能になる。
In step S3, the above judgment is "YE
In the case of "S", the steer control of the radar system 3 is performed so as to output the beam toward the vehicle ahead. In step S4, the steering device that swings the radar system 3 toward the traveling lane of the vehicle is controlled. When the beam from the radar system 3 is narrow and deviates from the object, this control makes it possible to detect the object in the traveling lane of the own vehicle without losing sight of it. Even if the object is detected, even if the vehicle ahead that is out of the traveling lane of the own vehicle is detected, the object in the traveling lane of the own vehicle can be detected by this control.

【0026】このようにして、レーダシステム3により
検出すべき物体のロストを低減できる。また、レーダシ
ステム3が自車走行レーン外の車両を捉えても、すぐ自
車走行レーンの前方にレーダシステム3を向けることが
可能になる。このため、前方車両、自車の車線変更にも
強い制御が可能になる。なお、上記ステップS1及びス
テップS2において、1回毎のステアの検出、認識結果
でなく、ステア数回分の検出を行い、ステップS3,S
4のステア装置のステア角を決定するようにしてもよ
い。これにより、検出、認識毎の結果を用いると、制御
がぎごちなくなるので、過去数回分の認識結果を平均化
することでなめらかなステア装置による制御が実現され
る。
In this way, the lost of the object to be detected by the radar system 3 can be reduced. Further, even if the radar system 3 captures a vehicle outside the vehicle traveling lane, the radar system 3 can be immediately directed to the front of the vehicle traveling lane. Therefore, it is possible to perform strong control even when the lane of the preceding vehicle or the own vehicle is changed. In the steps S1 and S2, the number of times of steer detection is performed instead of the detection and recognition result of each time steer, and steps S3 and S2 are performed.
The steer angle of the No. 4 steering device may be determined. As a result, the control becomes awkward when the result of each detection and recognition is used, so that smooth control by the steer device is realized by averaging the recognition results of the past several times.

【0027】図14はステア装置5を用いて図4(b)
の前方車両の認識領域をさらに狭める例を説明する図で
ある。本図(a)に示すように、ステア装置5によりレ
ーダシステム3をZ軸に対して、ステア角度をαとし、
ビーム角をβとすると、前方の物体を捉えたとすると、
X−Z平面において、前方の物体はX座標でX- からX
+ に存在することになる。ここに、 X- =Z0 ・ sinα+Z0 ・ sin(α−β) X+ =Z0 ・ sinα+Z0 ・ sin(α+β) である。これを画面の座標x−yに変換すると、x-
らx+ の範囲になる。ここに、
FIG. 14 shows the steering device 5 in FIG. 4 (b).
It is a figure explaining the example which further narrows down the recognition area of the vehicle ahead of. As shown in this figure (a), the steering system 5 causes the radar system 3 to move with respect to the Z axis, and the steering angle is α,
If the beam angle is β and an object in front is captured,
In the XZ plane, the object in front is in the X coordinate from X to X.
Will exist in + . Here, X = Z 0 · sin α + Z 0 · sin (α−β) X + = Z 0 · sin α + Z 0 · sin (α + β). Converting this to the coordinate x-y of the screen, x - the range of x + from. here,

【0028】[0028]

【数3】 (Equation 3)

【0029】[0029]

【数4】 (Equation 4)

【0030】である。このように、ステア装置5でレー
ダシステム3のステア角とビーム角の関係から、さらに
画面のx座標方向に画像処理を制限することにより、処
理量をさらに低減することが可能になる。図15は2つ
以上の物体との距離を出力するレーダシステム3との組
み合わせ例を説明する図である。レーダシステム3は複
数の物体に対しては複数の距離を出力するが、この場合
には、本図に示すように、自車の走行レーン内の30m
先の第1物体、50m先の第2物体に対して、領域限定
部2Aでは画像中に複数の認識領域を設定する。
## EQU1 ## As described above, the processing amount can be further reduced by further limiting the image processing in the x-coordinate direction of the screen based on the relationship between the steering angle and the beam angle of the radar system 3 by the steering device 5. FIG. 15 is a diagram illustrating a combination example with the radar system 3 that outputs the distance to two or more objects. The radar system 3 outputs a plurality of distances with respect to a plurality of objects. In this case, as shown in the figure, the radar system 3 outputs 30 m within the traveling lane of the vehicle.
The area limiting unit 2A sets a plurality of recognition areas in the image for the first object and the second object 50 m away.

【0031】図16はスキャン型で複数の物体との距離
を出力するレーダシステム3との組み合わせ例を説明す
る図である。本図に示すように、スキャン型のレーダシ
ステム3レーダシステム3により検出された物体に対し
て、レーダ方向と、距離からいくつかの認識少領域を設
定し、これらのエッジの分布状態から前方車両を認識す
ることも可能である。画像で何ら存在しないのにレーダ
システム3が距離を出力しているところは誤認識と判断
して除外する。
FIG. 16 is a diagram for explaining an example of combination with the radar system 3 which outputs the distances to a plurality of objects by the scan type. As shown in the figure, for the object detected by the scan type radar system 3, the radar system 3, several recognition small areas are set from the radar direction and the distance, and from the distribution state of these edges, the vehicle ahead is detected. It is also possible to recognize. A position where the radar system 3 outputs the distance even though there is no image is judged to be erroneous recognition and excluded.

【0032】このように複数の物体に対しても処理量が
低減することが可能になる。
In this way, the processing amount can be reduced even for a plurality of objects.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るレーダを用いた画像処理システム
の例を示す図である。
FIG. 1 is a diagram showing an example of an image processing system using a radar according to the present invention.

【図2】搭載されたカメラの配置画像処理装置2が入力
する画像例を示す図である。
FIG. 2 is a diagram showing an example of an image input by a placement image processing device 2 of a mounted camera.

【図3】画面のy座標と実際の道路の自車からの距離Z
0 との関係等を示す図である。
[Fig. 3] y-coordinate on the screen and the distance Z from the vehicle on the actual road
It is a figure which shows the relationship etc. with 0 .

【図4】図1の領域限定部2Aを説明する図である。FIG. 4 is a diagram illustrating a region limiting unit 2A of FIG.

【図5】前方車両の認識処理として、限定された領域内
でエッジ分布を求める例を示す図である。
FIG. 5 is a diagram showing an example of obtaining an edge distribution in a limited area as a process of recognizing a front vehicle.

【図6】エッジを抽出するソーベルオペレータ(Sobel
Operator)の例を説明する図である。
FIG. 6 is a Sobel operator (Sobel) that extracts an edge.
It is a figure explaining the example of (Operator).

【図7】車両の画像の水平エッジ、垂直エッジの検出例
を説明する図である。
FIG. 7 is a diagram illustrating an example of detecting a horizontal edge and a vertical edge of a vehicle image.

【図8】前方車両の左右対称性を示す図である。FIG. 8 is a diagram showing left-right symmetry of a forward vehicle.

【図9】自車走行レーン内の物体の確認識別例を説明す
る図である。
FIG. 9 is a diagram illustrating an example of confirmation and identification of an object in a vehicle traveling lane.

【図10】自車走行レーン内の物体の確認識別の別の例
を説明する図である。
FIG. 10 is a diagram illustrating another example of confirmation and identification of an object in a vehicle traveling lane.

【図11】図1に示す、レーダを用いた画像処理システ
ムにヨーレートセンサを追加した例を示す図である。
11 is a diagram showing an example in which a yaw rate sensor is added to the image processing system using the radar shown in FIG.

【図12】図1に示す、レーダを用いた画像処理システ
ムのレーダシステム3にステア装置を設けた例を示す図
である。
FIG. 12 is a diagram showing an example in which a steer device is provided in the radar system 3 of the image processing system using the radar shown in FIG.

【図13】図12のステア装置5の制御を説明するフロ
ーチャートである。
13 is a flowchart illustrating control of the steer device 5 in FIG.

【図14】ステア装置5を用いて図4(b)の前方車両
の認識領域をさらに狭める例を説明する図である。
FIG. 14 is a diagram illustrating an example of further narrowing the recognition area of the front vehicle of FIG. 4 (b) by using the steering device 5.

【図15】2つ以上の物体との距離を出力するレーダシ
ステム3との組み合わせ例を説明する図である。
FIG. 15 is a diagram illustrating an example of a combination with a radar system 3 that outputs a distance between two or more objects.

【図16】スキャン型で複数の物体との距離を出力する
レーダシステム3との組み合わせ例を説明する図であ
る。
FIG. 16 is a diagram illustrating an example of a combination with a radar system 3 that outputs the distances to a plurality of objects by a scan type.

【符号の説明】[Explanation of symbols]

1…画像入力手段 2…画像処理装置 2A…領域限定部 3…レーダシステム DESCRIPTION OF SYMBOLS 1 ... Image input means 2 ... Image processing apparatus 2A ... Area limiting part 3 ... Radar system

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 1/00 G06F 15/62 320P 380 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 1/00 G06F 15/62 320P 380

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】 車両に搭載され、前方を撮像する画像入
力手段を有し、画像を処理する画像処理システムにおい
て、 前方の道路の白線、車両を認識する画像処理装置と、 前方の物体との距離を検出するレーダシステムと、 前記レーダシステムにより検出された物体までの距離を
基に、前記画像処理装置で処理すべき画面のうち白線、
車両の認識領域を分けて限定する領域限定部とを備える
ことを特徴とするレーダを用いた画像処理システム。
1. An image processing system mounted on a vehicle, having image input means for capturing an image of the front, for processing an image, comprising: a white line on a road ahead, an image processing device for recognizing the vehicle; and an object in front. A radar system for detecting a distance, based on the distance to the object detected by the radar system, a white line in the screen to be processed by the image processing device,
An image processing system using a radar, comprising: a region limiting unit that divides and limits a recognition region of a vehicle.
【請求項2】 前記領域限定部は、前記物体から自車前
までの距離を含む画面を白線の認識領域と限定すること
を特徴とする、請求項1に記載のレーダを用いた画像処
理システム。
2. The image processing system using the radar according to claim 1, wherein the area limiting unit limits a screen including a distance from the object to the front of the own vehicle to a recognition area of a white line. .
【請求項3】 前記領域限定部は、前記物体までの距離
で車両の高さまでを含む画面を前方認識領域と限定する
ことを特徴とする、請求項1に記載のレーダを用いた画
像処理システム。
3. The image processing system using the radar according to claim 1, wherein the area limiting unit limits a screen including a distance up to the object to a height of the vehicle as a front recognition area. .
【請求項4】 前記画像処理装置は、前記領域限定部に
より限定された領域中のエッジ量の分布から前方車両を
認識することを特徴とする、請求項1に記載のレーダを
用いた画像処理システム。
4. The image processing using the radar according to claim 1, wherein the image processing apparatus recognizes a vehicle ahead from a distribution of edge amounts in the area limited by the area limiting unit. system.
【請求項5】 前記画像処理装置は、前記領域限定部に
より限定された領域中のエッジ量の水平エッジのみの分
布から前方車両を認識することを特徴とする、請求項1
に記載のレーダを用いた画像処理システム。
5. The image processing apparatus recognizes a forward vehicle from the distribution of only horizontal edges of the edge amount in the area limited by the area limiting unit.
An image processing system using the radar described in 1.
【請求項6】 前記画像処理装置は、前記領域限定部に
より限定された領域中のエッジ量のうち垂直エッジのみ
の分布から前方車両を認識することを特徴とする、請求
項1に記載のレーダを用いた画像処理システム。
6. The radar according to claim 1, wherein the image processing device recognizes a forward vehicle from a distribution of only vertical edges in the edge amount in the area limited by the area limiting unit. Image processing system using.
【請求項7】 前記画像処理装置は、前記領域限定部に
より限定された領域中のエッジ量のうち水平エッジのみ
と垂直エッジのみの分布の組み合わせから前方車両を認
識することを特徴とする、請求項1に記載のレーダを用
いた画像処理システム。
7. The image processing apparatus recognizes a forward vehicle based on a combination of distributions of only horizontal edges and only vertical edges in the edge amount in the area limited by the area limiting unit. An image processing system using the radar according to Item 1.
【請求項8】 前記画像処理装置は、エッジの分布の他
にエッジの左右対称を加えて前方車両を認識することを
特徴とする、請求項4乃至7のいずれかに記載のレーダ
を用いた画像処理システム。
8. The radar according to claim 4, wherein the image processing apparatus recognizes a forward vehicle by adding left-right symmetry to edges in addition to edge distribution. Image processing system.
【請求項9】 前記画像処理装置は、認識された白線と
前方車両との関係により、前記レーダシステムにより検
出された物体が自車走行レーンにあるか否かを判断して
支援動作を行うことを特徴とする、請求項1に記載のレ
ーダを用いた画像処理システム。
9. The image processing apparatus determines whether or not an object detected by the radar system is in a vehicle traveling lane based on the relationship between the recognized white line and a vehicle ahead and performs an assisting operation. An image processing system using the radar according to claim 1.
【請求項10】 前記画像処理装置は、白線が前方車両
の距離まで求められない場合、認識できた白線部分のカ
ーブ度をもとに、前記レーダシステムにより検出された
物体が自車走行レーンにあるか否かを判断することを特
徴とする、請求項9に記載のレーダを用いた画像処理シ
ステム。
10. The image processing apparatus, when the white line is not obtained up to the distance of the vehicle in front, detects the object detected by the radar system in the vehicle traveling lane based on the curve degree of the recognized white line portion. The image processing system using the radar according to claim 9, wherein it is determined whether or not there is.
【請求項11】 前記画像処理装置は、白線が前方車両
の距離まで求められない場合、ハンドル角、ヨーレート
センサなどの補助センサの情報を基に、前記レーダシス
テムにより検出された物体が自車走行レーンにあるか否
かを判断することを特徴とする、請求項9に記載のレー
ダを用いた画像処理システム。
11. When the white line cannot be obtained up to the distance of the vehicle ahead, the image processing device causes the object detected by the radar system to travel based on the information of auxiliary sensors such as a steering wheel angle and a yaw rate sensor. The image processing system using the radar according to claim 9, wherein it is determined whether or not the vehicle is in a lane.
【請求項12】 前記レーダシステムにこれをステアす
るステア装置を設け、前記レーダシステムに狭いビーム
角を使用する場合に、前記画像処理装置の処理結果を基
に、前記レーダシステムをステアすることを特徴とす
る、請求項1に記載のレーダを用いた画像処理システ
ム。
12. A steer device for steering the radar system is provided, and when the narrow beam angle is used in the radar system, the radar system is steered based on a processing result of the image processing device. An image processing system using the radar according to claim 1.
【請求項13】 前記ステア装置は、自車走行レーン内
に前方車両が認識できない場合に、所定のステア角でレ
ーダシステムをステアすることを特徴とする、請求項1
に記載のレーダを用いた画像処理システム。
13. The steerer device steers the radar system at a predetermined steer angle when a vehicle ahead cannot be recognized in the vehicle traveling lane.
An image processing system using the radar described in 1.
【請求項14】 前記ステア装置は、過去複数回分の測
定データからステア角を決定することを特徴とする、請
求項13に記載のレーダを用いた画像処理システム。
14. The image processing system using a radar according to claim 13, wherein the steer device determines a steer angle from measurement data of a plurality of past times.
【請求項15】 前記ステア装置のステア角度と前記レ
ーダシステムの検出距離を基に前記領域限定部は、さら
に前記物体の幅方向に認識領域を限定することを特徴と
する、請求項1に記載のレーダを用いた画像処理システ
ム。
15. The area limiting unit further limits a recognition area in a width direction of the object based on a steer angle of the steer device and a detection distance of the radar system. Image processing system using a radar.
【請求項16】 前記レーダシステムが複数の物体を検
出する場合には、前記領域限定部は、それぞれで複数の
認識領域を設けることを特徴とする、請求項1に記載の
レーダを用いた画像処理システム。
16. The image using the radar according to claim 1, wherein, when the radar system detects a plurality of objects, the area limiting unit provides a plurality of recognition areas respectively. Processing system.
【請求項17】 前記レーダシステムがスキャン型の場
合には、認識小領域を設け、その分布状態と白線との関
係から前方車両を認識することを特徴とする、請求項1
に記載のレーダを用いた画像処理システム。
17. If the radar system is a scan type, a recognition small area is provided and a front vehicle is recognized from the relationship between the distribution state and the white line.
An image processing system using the radar described in 1.
JP8076859A 1996-03-29 1996-03-29 Image processing system using radar Pending JPH09264954A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8076859A JPH09264954A (en) 1996-03-29 1996-03-29 Image processing system using radar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8076859A JPH09264954A (en) 1996-03-29 1996-03-29 Image processing system using radar

Publications (1)

Publication Number Publication Date
JPH09264954A true JPH09264954A (en) 1997-10-07

Family

ID=13617384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8076859A Pending JPH09264954A (en) 1996-03-29 1996-03-29 Image processing system using radar

Country Status (1)

Country Link
JP (1) JPH09264954A (en)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000131432A (en) * 1998-10-23 2000-05-12 Honda Motor Co Ltd Method for detecting obstruction to vehicle
JP2000221268A (en) * 1999-02-02 2000-08-11 Sumitomo Electric Ind Ltd Vehicle detecting device
JP2001099930A (en) * 1999-09-29 2001-04-13 Fujitsu Ten Ltd Sensor for monitoring periphery
JP2001134771A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognizing device
JP2001134772A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognizing device
JP2001330665A (en) * 2000-05-18 2001-11-30 Fujitsu Ten Ltd On-vehicle object detector using radar and image processing
FR2809360A1 (en) * 2000-05-24 2001-11-30 Daimler Chrysler Ag CRASH PRECEDING RECOGNITION SYSTEM BASED ON THE USE OF A CAMERA
JP2002163784A (en) * 2000-11-29 2002-06-07 Fujitsu Ten Ltd Deciding device for advancable range
JP2003084064A (en) * 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd Device and method for recognizing vehicle in front side
JP2003172780A (en) * 2001-12-06 2003-06-20 Daihatsu Motor Co Ltd Recognition device and recognition method of preceding vehicle
JP2003315458A (en) * 2002-04-23 2003-11-06 Daihatsu Motor Co Ltd Recognition apparatus and method for forward vehicle
JP2005025692A (en) * 2003-07-04 2005-01-27 Suzuki Motor Corp Vehicle information provision apparatus
JP2005284471A (en) * 2004-03-29 2005-10-13 Omron Corp Image processing apparatus and method
JP2005345251A (en) * 2004-06-02 2005-12-15 Toyota Motor Corp Obstacle recognition device
US7042389B2 (en) 2004-04-09 2006-05-09 Denso Corporation Device for detecting object in front of vehicle
JP2006151125A (en) * 2004-11-26 2006-06-15 Omron Corp On-vehicle image processing device
JP2006258507A (en) * 2005-03-15 2006-09-28 Omron Corp Apparatus for recognizing object in front
WO2006121088A1 (en) * 2005-05-10 2006-11-16 Olympus Corporation Image processing device, image processing method, and image processing program
WO2006121087A1 (en) * 2005-05-10 2006-11-16 Olympus Corporation Image processing device, image processing method, and image processing program
JP2007015676A (en) * 2005-05-13 2007-01-25 Honda Motor Co Ltd Apparatus and method for predicting collision
JP2008509413A (en) * 2004-08-07 2008-03-27 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Method and apparatus for operating sensor system
JP2008282409A (en) * 2008-05-30 2008-11-20 Honda Motor Co Ltd Object recognition device
JP2008293504A (en) * 2008-05-30 2008-12-04 Honda Motor Co Ltd Object recognition device
JP2009017157A (en) * 2007-07-04 2009-01-22 Omron Corp Image processor, method and program
JP2009068852A (en) * 2007-09-10 2009-04-02 Tokyo Metropolitan Univ Environment recognition system, autonomous type mobile and environment recognition program
JP2012068935A (en) * 2010-09-24 2012-04-05 Toyota Motor Corp Object recognition device for vehicle
JP2014142202A (en) * 2013-01-22 2014-08-07 Denso Corp Vehicle-mounted target detection device
JP2015011713A (en) * 2013-07-01 2015-01-19 株式会社リコー Vehicle detection method and device
JP2015200622A (en) * 2014-04-10 2015-11-12 本田技研工業株式会社 object recognition device
JP2015210729A (en) * 2014-04-28 2015-11-24 本田技研工業株式会社 Travel path recognition device
DE102012211495B4 (en) * 2012-02-08 2016-08-25 Mitsubishi Electric Corp. Vehicle environment monitoring device
JP2018049014A (en) * 2015-03-25 2018-03-29 ウェイモ エルエルシー Vehicle with multiple light detection and ranging devices (lidars)
WO2018220745A1 (en) * 2017-05-31 2018-12-06 三菱電機株式会社 Monitoring device
WO2020103533A1 (en) * 2018-11-20 2020-05-28 中车株洲电力机车有限公司 Track and road obstacle detecting method
CN112248936A (en) * 2020-10-23 2021-01-22 徐州徐工港口机械有限公司 Figure identification and blind area early warning detection system and detection method for front-lift crane
JP2021135061A (en) * 2020-02-21 2021-09-13 Jrcモビリティ株式会社 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05113482A (en) * 1991-10-22 1993-05-07 Omron Corp Rear end collision prevention device mounted on car
JPH06124340A (en) * 1992-07-21 1994-05-06 Nissan Motor Co Ltd Image processor for vehicle
JPH06293236A (en) * 1992-12-22 1994-10-21 Mitsubishi Electric Corp Travel environment monitoring device
JPH0728975A (en) * 1993-06-25 1995-01-31 Fujitsu Ltd Road environment recognizing device
JPH07117523A (en) * 1993-10-28 1995-05-09 Mitsubishi Motors Corp Travel controller of automobile
JPH07125567A (en) * 1993-11-04 1995-05-16 Mitsubishi Motors Corp Preceding car detecting mechanism of car traveling controller
JPH07182484A (en) * 1993-12-24 1995-07-21 Nissan Motor Co Ltd Recognition device for front of moving vehicle and vehicle travel controller
JPH0816995A (en) * 1994-06-27 1996-01-19 Mazda Motor Corp Judging device for traveling state of automobile

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05113482A (en) * 1991-10-22 1993-05-07 Omron Corp Rear end collision prevention device mounted on car
JPH06124340A (en) * 1992-07-21 1994-05-06 Nissan Motor Co Ltd Image processor for vehicle
JPH06293236A (en) * 1992-12-22 1994-10-21 Mitsubishi Electric Corp Travel environment monitoring device
JPH0728975A (en) * 1993-06-25 1995-01-31 Fujitsu Ltd Road environment recognizing device
JPH07117523A (en) * 1993-10-28 1995-05-09 Mitsubishi Motors Corp Travel controller of automobile
JPH07125567A (en) * 1993-11-04 1995-05-16 Mitsubishi Motors Corp Preceding car detecting mechanism of car traveling controller
JPH07182484A (en) * 1993-12-24 1995-07-21 Nissan Motor Co Ltd Recognition device for front of moving vehicle and vehicle travel controller
JPH0816995A (en) * 1994-06-27 1996-01-19 Mazda Motor Corp Judging device for traveling state of automobile

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000131432A (en) * 1998-10-23 2000-05-12 Honda Motor Co Ltd Method for detecting obstruction to vehicle
JP2000221268A (en) * 1999-02-02 2000-08-11 Sumitomo Electric Ind Ltd Vehicle detecting device
JP2001099930A (en) * 1999-09-29 2001-04-13 Fujitsu Ten Ltd Sensor for monitoring periphery
JP2001134771A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognizing device
JP2001134772A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognizing device
JP2001330665A (en) * 2000-05-18 2001-11-30 Fujitsu Ten Ltd On-vehicle object detector using radar and image processing
FR2809360A1 (en) * 2000-05-24 2001-11-30 Daimler Chrysler Ag CRASH PRECEDING RECOGNITION SYSTEM BASED ON THE USE OF A CAMERA
JP2002163784A (en) * 2000-11-29 2002-06-07 Fujitsu Ten Ltd Deciding device for advancable range
JP2003084064A (en) * 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd Device and method for recognizing vehicle in front side
JP2003172780A (en) * 2001-12-06 2003-06-20 Daihatsu Motor Co Ltd Recognition device and recognition method of preceding vehicle
JP2003315458A (en) * 2002-04-23 2003-11-06 Daihatsu Motor Co Ltd Recognition apparatus and method for forward vehicle
JP2005025692A (en) * 2003-07-04 2005-01-27 Suzuki Motor Corp Vehicle information provision apparatus
JP2005284471A (en) * 2004-03-29 2005-10-13 Omron Corp Image processing apparatus and method
US7042389B2 (en) 2004-04-09 2006-05-09 Denso Corporation Device for detecting object in front of vehicle
JP2005345251A (en) * 2004-06-02 2005-12-15 Toyota Motor Corp Obstacle recognition device
US7570198B2 (en) 2004-06-02 2009-08-04 Toyota Jidosha Kabushiki Kaisha Obstacle recognition system and obstacle recognition method
JP2008509413A (en) * 2004-08-07 2008-03-27 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Method and apparatus for operating sensor system
JP4814234B2 (en) * 2004-08-07 2011-11-16 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Method and apparatus for operating sensor system
US8193920B2 (en) 2004-08-07 2012-06-05 Robert Bosch Gmbh Method and device for operating a sensor system
JP2006151125A (en) * 2004-11-26 2006-06-15 Omron Corp On-vehicle image processing device
JP2006258507A (en) * 2005-03-15 2006-09-28 Omron Corp Apparatus for recognizing object in front
WO2006121087A1 (en) * 2005-05-10 2006-11-16 Olympus Corporation Image processing device, image processing method, and image processing program
WO2006121088A1 (en) * 2005-05-10 2006-11-16 Olympus Corporation Image processing device, image processing method, and image processing program
JP2007015676A (en) * 2005-05-13 2007-01-25 Honda Motor Co Ltd Apparatus and method for predicting collision
JP4598653B2 (en) * 2005-05-13 2010-12-15 本田技研工業株式会社 Collision prediction device
JP2009017157A (en) * 2007-07-04 2009-01-22 Omron Corp Image processor, method and program
JP2009068852A (en) * 2007-09-10 2009-04-02 Tokyo Metropolitan Univ Environment recognition system, autonomous type mobile and environment recognition program
JP2008293504A (en) * 2008-05-30 2008-12-04 Honda Motor Co Ltd Object recognition device
JP2008282409A (en) * 2008-05-30 2008-11-20 Honda Motor Co Ltd Object recognition device
JP2012068935A (en) * 2010-09-24 2012-04-05 Toyota Motor Corp Object recognition device for vehicle
DE102012211495B4 (en) * 2012-02-08 2016-08-25 Mitsubishi Electric Corp. Vehicle environment monitoring device
JP2014142202A (en) * 2013-01-22 2014-08-07 Denso Corp Vehicle-mounted target detection device
US9342897B2 (en) 2013-01-22 2016-05-17 Denso Corporation In-vehicle target detecting device
JP2015011713A (en) * 2013-07-01 2015-01-19 株式会社リコー Vehicle detection method and device
JP2015200622A (en) * 2014-04-10 2015-11-12 本田技研工業株式会社 object recognition device
JP2015210729A (en) * 2014-04-28 2015-11-24 本田技研工業株式会社 Travel path recognition device
JP2018049014A (en) * 2015-03-25 2018-03-29 ウェイモ エルエルシー Vehicle with multiple light detection and ranging devices (lidars)
JP2018517889A (en) * 2015-03-25 2018-07-05 ウェイモ エルエルシー Vehicle with multiple light detection and ranging devices (LIDAR)
US10120079B2 (en) 2015-03-25 2018-11-06 Waymo Llc Vehicle with multiple light detection and ranging devices (LIDARS)
AU2019204204B2 (en) * 2015-03-25 2020-10-29 Waymo Llc Vehicle with multiple light detection and ranging devices (LIDARS)
US10976437B2 (en) 2015-03-25 2021-04-13 Waymo Llc Vehicle with multiple light detection and ranging devices (LIDARS)
USRE48961E1 (en) 2015-03-25 2022-03-08 Waymo Llc Vehicle with multiple light detection and ranging devices (LIDARs)
WO2018220745A1 (en) * 2017-05-31 2018-12-06 三菱電機株式会社 Monitoring device
JPWO2018220745A1 (en) * 2017-05-31 2019-11-14 三菱電機株式会社 Monitoring device
WO2020103533A1 (en) * 2018-11-20 2020-05-28 中车株洲电力机车有限公司 Track and road obstacle detecting method
JP2021135061A (en) * 2020-02-21 2021-09-13 Jrcモビリティ株式会社 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program
CN112248936A (en) * 2020-10-23 2021-01-22 徐州徐工港口机械有限公司 Figure identification and blind area early warning detection system and detection method for front-lift crane

Similar Documents

Publication Publication Date Title
JPH09264954A (en) Image processing system using radar
EP3382639B1 (en) Image processing device, image pickup device, apparatus control system, distribution data generation method, and program
EP2422320B1 (en) Object detection device
US10860867B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, and recording medium
US11064177B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and recording medium
US20060115119A1 (en) Vehicle surroundings monitoring apparatus
JP6687039B2 (en) Object detection device, device control system, imaging device, object detection method, and program
US11691585B2 (en) Image processing apparatus, imaging device, moving body device control system, image processing method, and program product
US10628960B2 (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium
JPH08329393A (en) Preceding vehicle detector
EP3282389A1 (en) Image processing apparatus, image capturing apparatus, moving body apparatus control system, image processing method, and program
JP4052291B2 (en) Image processing apparatus for vehicle
JPH06229759A (en) System for estimating distance and speed of preceding vehicle using image
JP6340849B2 (en) Image processing apparatus, image processing method, image processing program, and mobile device control system
JPH0981757A (en) Vehicle position detecting device
JP3600314B2 (en) External environment recognition device for vehicles
JP3612821B2 (en) In-vehicle distance measuring device
JP3586938B2 (en) In-vehicle distance measuring device
JP4106163B2 (en) Obstacle detection apparatus and method
JP3399113B2 (en) Vehicle travel path recognition device and alarm / travel control device using the same
JP4629638B2 (en) Vehicle periphery monitoring device
US7545955B2 (en) Vehicle surroundings monitoring apparatus
JPH08329397A (en) Vehicle recognition device and vehicle approach reporting device using same
EP3287948B1 (en) Image processing apparatus, moving body apparatus control system, image processing method, and program
EP3327696B1 (en) Information processing apparatus, imaging device, device control system, mobile body, information processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040628

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050308