JPH0935197A - Vehicle recognizing method - Google Patents

Vehicle recognizing method

Info

Publication number
JPH0935197A
JPH0935197A JP7178986A JP17898695A JPH0935197A JP H0935197 A JPH0935197 A JP H0935197A JP 7178986 A JP7178986 A JP 7178986A JP 17898695 A JP17898695 A JP 17898695A JP H0935197 A JPH0935197 A JP H0935197A
Authority
JP
Japan
Prior art keywords
vehicle
night
information
identified
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7178986A
Other languages
Japanese (ja)
Inventor
Toshiaki Kakinami
並 俊 明 柿
Mitsuyoshi Saiki
木 充 義 斉
Kunihiko Soshi
雌 邦 彦 曽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP7178986A priority Critical patent/JPH0935197A/en
Publication of JPH0935197A publication Critical patent/JPH0935197A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make it possible to recognize a preceding vehicle by detecting the height of tail light by the distribution of featured points in the vertical direction of a picture and checking whether a vehicle can be recognized or not based upon vehicle width detected by the distribution of horizontal featured points and an estimated distance. SOLUTION: A telecamera 6b arranged on the upper part of the center of a fron window in a vehicle room photographs a two-dimensional (2D) picture including a traveling road surface and an A/D converter 6c converts the analog video signal into a digital signal and stores the digital signal in an image memory 5a. A CPU 1 synthetically photographs a white line on the end part of its own lane, an inter- vehicle distance between its own vehicle and the preceding vehicle, etc., displays the updated contents of these synthesized results and transfers these information to a host CPU 8 through a communication controller 7. The picture is scanned in the vertical direction, featured points of which brightness is changed are extracted, the height of tail light is detected based upon the distribution, and whether the vehicle can be recognized based upon the 2D picture or not is discriminated based upon the vehicle width detected based upon the distribution of horizontal featured points and an estimated distance from the preceding vehicle.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、車輌認識方法に関
し、車輌上に設置した撮影装置により車輌前方等の路面
を含むシ−ンを撮影して得られる2次元画像情報に基づ
いて、前方を走行する先行車輌や対向車を認識するため
に利用しうる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle recognition method, and based on two-dimensional image information obtained by photographing a scene including a road surface such as the front of the vehicle with a photographing device installed on the vehicle, It can be used to recognize a preceding vehicle or an oncoming vehicle traveling.

【0002】[0002]

【従来の技術】この種の検出装置の一例が、特開昭64-1
5605号公報に開示されている。これにおいては、車両に
搭載された撮影装置で得た、車両前方の路面を含むシ−
ンをX,Y直交座標系画面に表わす画像デ−タの、X軸
に対して45度の角度をなす方向の微分値を算出してそれ
が設定値以上のX,Y直交座標上の位置を特徴点とし
て、特徴点の連なりを細線に処理し、所定長以上の細線
を摘出して、車両上のテレビカメラから前方を撮影した
場合の、画面上の白線の特徴に基づいて設定された条件
を満す細線を、路面上の白線と認識する。すなわち自車
が走行中のレ−ンの左,右端白線を表わす二直線を得
る。二直線の交点を求めて、該交点から自車両までの二
直線間の領域(3角形領域)で物体の存否を検出し、物
体を検出すると自車両から該物体までの距離(物体が先
行車両であると車間距離)を算出する。この種の技術
は、撮影された画像から先行車両等の全体が認識できる
昼間に利用できる。しかし、夜間には、周囲が暗いので
先行車両は発光しているテ−ルライトの部分を除きほと
んど認識できず、従って先行車両が認識できない。
2. Description of the Related Art An example of this type of detection device is disclosed in Japanese Patent Laid-Open No. 64-1
It is disclosed in Japanese Patent No. 5605. In this case, a vehicle including a road surface in front of the vehicle obtained by an image pickup device mounted on the vehicle is used.
Position on the X, Y Cartesian coordinates above the set value by calculating the differential value of the image data showing the image on the X, Y Cartesian coordinate system screen in the direction forming an angle of 45 degrees with respect to the X axis. Is set as a feature point, a series of feature points is processed into a thin line, a thin line of a predetermined length or more is extracted, and it is set based on the feature of the white line on the screen when the front is photographed from the TV camera on the vehicle. A thin line that satisfies the conditions is recognized as a white line on the road surface. That is, two straight lines representing the left and right white lines of the lane on which the vehicle is traveling are obtained. The intersection of the two straight lines is obtained, and the presence or absence of an object is detected in the area between the two straight lines (triangle area) from the intersection to the own vehicle. When the object is detected, the distance from the own vehicle to the object (the object is the preceding vehicle Then the inter-vehicle distance) is calculated. This kind of technology can be used during the daytime when the entire preceding vehicle and the like can be recognized from the captured image. However, at night, since the surroundings are dark, the preceding vehicle can hardly recognize it except for the tail light portion that is emitting light, and therefore the preceding vehicle cannot be recognized.

【0003】一方、特開平2−190978号公報に開
示された技術では、車両前方の景色を赤色光透過フィル
タを介して撮影することにより、赤色成分のみを抽出し
た画像を得て、赤色のテ−ルランプの抽出を容易にして
いる。また、画像処理によって赤色の各々の領域の輪郭
を検出し、これらの輪郭情報から左右1対のテ−ルラン
プのそれぞれを認識する。そして、1対のテ−ルランプ
を認識した後、左側のテ−ルランプ左端から右側のテ−
ルランプ右端までの画像上の水平方向距離Xを検出し、
距離Xに基づいて当該車両(自車)と先行車両との車間
距離が検出される。この技術では、基本的に昼間も夜間
も先行車両の認識が可能であると考えられる。
On the other hand, in the technique disclosed in Japanese Patent Application Laid-Open No. 2-190978, a scene in front of the vehicle is photographed through a red light transmission filter to obtain an image in which only the red component is extracted, and the red color is extracted. -It facilitates the extraction of lulump. Further, the contour of each red region is detected by image processing, and each of the pair of left and right tail lamps is recognized from the contour information. Then, after recognizing a pair of tail lamps, the left tail lamp from the left end to the right tail lamp.
Detects the horizontal distance X on the image to the right edge of the lamp,
The inter-vehicle distance between the vehicle (own vehicle) and the preceding vehicle is detected based on the distance X. It is considered that this technology can basically recognize the preceding vehicle both during the day and at night.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、テ−ル
ランプの大きさや形状は車種によって様々であるため、
各々のテ−ルランプを正しく認識するのは非常に難し
い。認識精度を上げるために、赤色光透過フィルタなど
を用いてテ−ルランプ以外のノイズ画像を低減すると、
必要な情報、例えば道路上の白線,対向車のヘッドライ
トなどの検出が困難になる可能性がある。
However, since the size and shape of the tail lamp vary depending on the type of vehicle,
It is very difficult to correctly identify each tail lamp. To improve the recognition accuracy, if you reduce the noise image other than the tail lamp by using a red light transmission filter,
It may be difficult to detect necessary information such as white lines on the road and headlights of oncoming vehicles.

【0005】また一般に、テ−ルランプに着目した先行
車認識アルゴリズムは、テ−ルランプが点灯している夜
間には適用できるが、昼間は非点灯のテ−ルランプの画
像からの抽出が難しいので昼間は利用できない。
Generally, the preceding vehicle recognition algorithm focusing on the tail lamp can be applied at night when the tail lamp is lit, but it is difficult to extract from the image of the tail lamp that is not lit at daytime, so it is difficult to extract it from the daytime. Is not available.

【0006】暗視カメラ,赤外カメラなどの特殊な撮影
装置を用いて画像を撮影すれば、夜間であっても先行車
両全体の輪郭線を検出できるので、昼間と同様の先行車
認識アルゴリズムを用いることができるが、特殊な撮影
装置は極めて高価であり、実用上、一般の自動車に搭載
することはできない。
If an image is photographed using a special photographing device such as a night-vision camera or an infrared camera, the contour line of the entire preceding vehicle can be detected even at night. Although it can be used, a special photographing device is extremely expensive and cannot be mounted on a general automobile in practical use.

【0007】また、昼間と夜間とで全く異なる先行車認
識アルゴリズムを用いると、装置の構造が複雑になるの
は避けられない。特に、大量の画像情報を短時間で処理
するためには、マイクロコンピュ−タの他に、処理に適
した様々な専用のハ−ドウェア装置を用意しなければな
らないので、2種類のアルゴリズムを選択的に実行する
と、より多くのハ−ドウェア装置を搭載する必要があ
り、高価になるのは避けられない。
Further, if a preceding vehicle recognition algorithm that is completely different between daytime and nighttime is used, it is inevitable that the structure of the device becomes complicated. In particular, in order to process a large amount of image information in a short time, it is necessary to prepare various dedicated hardware devices suitable for processing in addition to the microcomputer, so two types of algorithms are selected. Execution requires more hardware devices to be installed, and inevitably becomes expensive.

【0008】更に、昼間と夜間とで先行車認識アルゴリ
ズムを変える場合には、昼と夜を正しく認識して、いず
れか適したアルゴリズムを選択する必要があるが、昼と
夜の自動認識は難しい。運転者のスイッチ操作でアルゴ
リズムを切換える場合には、操作の誤りなどによって不
適切なアルゴリズムが選択される可能性もある。
Further, when the preceding vehicle recognition algorithm is changed between daytime and nighttime, it is necessary to correctly recognize daytime and nighttime and select an appropriate one, but automatic recognition of daytime and nighttime is difficult. . When the algorithm is switched by the driver's switch operation, an inappropriate algorithm may be selected due to an operation error or the like.

【0009】本発明は、上述の課題を解決することを目
的とする。
The present invention aims to solve the above problems.

【0010】[0010]

【課題を解決するための手段】上記課題を解決するため
に、本願の請求項1では、車輌外側の路面を含むシ−ン
を、車輌上に搭載された撮影装置(6b)で撮影して得
られる二次元画像情報を処理し、画像中の特徴点の所定
方向の連なりとして検出される路面の複数の白線を識別
し、前記白線を表わす複数の直線の位置を基準にして決
定される領域について、前記二次元画像情報中の車輌を
認識する車輌認識方法において:車輌が走行するレ−ン
上の無限遠点の位置((XV,YV))を、前記複数の直
線の交点の位置に基づいて識別し(D4)、前記二次元
画像情報を、水平方向の複数の位置で、それぞれ実質上
鉛直方向に走査して、明るさが変化する第1の特徴点の
情報を複数検出し(132)、検出された前記複数の第
1の特徴点の情報の出現頻度が所定のしきい値以上であ
る鉛直方向の位置を鉛直方向基準位置として識別し(1
34,135)、前記鉛直方向基準位置の近傍の複数の
第1の特徴点の分布状態に基づいて、その重心の水平方
向位置を水平方向重心位置(Mx(NR))として識別し
(136)、前記水平方向重心位置に基づいて予測され
る対象物左端位置(XVLP)の近傍の所定範囲につい
て、前記二次元画像情報を水平方向に走査して得られ
る、第2の特徴点の情報に基づいて実際の対象物左端位
置を識別し(201,202L〜207L)、前記水平
方向重心位置に基づいて予測される対象物右端位置(X
VRP)の近傍の所定範囲について、前記二次元画像情報
を水平方向に走査して得られる、第3の特徴点の情報に
基づいて実際の対象物右端位置を識別し(201,20
2R〜207R)、前記無限遠点の位置(YV),前記
鉛直方向基準位置(My(NR)),前記撮影装置を設置し
た位置の高さ(Hc),予め定めた車輌上発光部位の地
面からの高さ(TL),及び前記撮影装置の焦点距離
(Sy)に基づいて、前記撮影装置から前記二次元画像
情報中の車輌までの距離に相当する推定距離(L1)を
求め、識別された前記実際の対象物左端位置と前記実際
の対象物右端位置との間隔(WV)と、前記推定距離
(L1)とに基づいて、少なくとも前記二次元画像情報
に基づく車輌認識の有無を識別する(H4)。
In order to solve the above problems, according to claim 1 of the present application, a scene including a road surface outside the vehicle is photographed by a photographing device (6b) mounted on the vehicle. A region determined by processing the obtained two-dimensional image information, identifying a plurality of white lines on the road surface detected as a series of feature points in the image in a predetermined direction, and determining the positions of a plurality of straight lines representing the white lines as a reference. Regarding the vehicle recognition method for recognizing the vehicle in the two-dimensional image information, the position of the point at infinity ((XV, YV)) on the lane on which the vehicle travels is set to the position of the intersection of the plurality of straight lines. Based on the identification (D4), the two-dimensional image information is scanned at a plurality of horizontal positions in a substantially vertical direction to detect a plurality of pieces of information on the first feature point whose brightness changes ( 132), information on the detected first feature points Frequency identifies the position in the vertical direction is equal to or greater than the predetermined threshold value as a vertical reference position (1
34, 135), and based on the distribution state of the plurality of first feature points in the vicinity of the vertical reference position, identify the horizontal position of the center of gravity as the horizontal center of gravity position (Mx (NR)) (136). , Based on information of second feature points obtained by scanning the two-dimensional image information in the horizontal direction for a predetermined range near the left end position (XVLP) of the object predicted based on the horizontal center of gravity position The actual left end position of the target object is identified (201, 202L to 207L), and the right end position of the target object (X is predicted based on the horizontal center of gravity position).
VRP), the actual right end position of the object is identified based on the information of the third feature point obtained by scanning the two-dimensional image information in the horizontal direction (201, 20).
2R to 207R), the position of the point at infinity (YV), the reference position in the vertical direction (My (NR)), the height (Hc) of the position where the image capturing device is installed, and the ground of a predetermined light emitting portion on the vehicle. Based on the height (TL) and the focal length (Sy) of the photographing device, an estimated distance (L1) corresponding to the distance from the photographing device to the vehicle in the two-dimensional image information is obtained and identified. Based on the distance (WV) between the actual left end position of the object and the right end position of the actual object and the estimated distance (L1), at least the presence or absence of vehicle recognition based on the two-dimensional image information is identified. (H4).

【0011】また、請求項2では、車輌外側の路面を含
むシ−ンを、車輌上に搭載された撮影装置(6b)で撮
影して得られる二次元画像情報を処理し、画像中の特徴
点の所定方向の連なりとして検出される路面の複数の白
線を識別し、前記白線を表わす複数の直線の位置を基準
にして決定される領域について、前記二次元画像情報中
の車輌を認識する車輌認識方法において:車輌が走行す
るレ−ン上の無限遠点の位置((XV,YV))を、前記
複数の直線の交点の位置に基づいて識別し(D4)、前
記二次元画像情報を、水平方向の複数の位置で、それぞ
れ実質上鉛直方向に走査して、明るさが変化する第1の
特徴点の情報を複数検出し(132)、検出された前記
複数の第1の特徴点の情報の出現頻度が所定のしきい値
以上である鉛直方向の位置を鉛直方向基準位置として識
別し(134,135)、前記鉛直方向基準位置の近傍
の複数の第1の特徴点の分布状態に基づいて、その重心
の水平方向位置を水平方向重心位置(Mx(NR))として
識別し(136)、前記水平方向重心位置に基づいて予
測される対象物左端位置(XVLP)の近傍の所定範囲に
ついて、前記二次元画像情報を水平方向に走査して得ら
れる、第2の特徴点の情報に基づいて実際の対象物左端
位置を識別し(201,202L〜207L)、前記水
平方向重心位置に基づいて予測される対象物右端位置
(XVRP)の近傍の所定範囲について、前記二次元画像
情報を水平方向に走査して得られる、第3の特徴点の情
報に基づいて実際の対象物右端位置を識別し(201,
202R〜207R)、少なくとも昼と夜とを識別し
(208A)、昼と識別された場合には、前記無限遠点
の位置(YV),前記鉛直方向基準位置(My(NR)),
前記撮影装置を設置した位置の高さ(Hc),及び前記
撮影装置の焦点距離(Sy)に基づいて、また夜と識別
された場合には、前記無限遠点の位置(YV),前記鉛
直方向基準位置(My(NR)),前記撮影装置を設置した
位置の高さ(Hc),予め定めた車輌上発光部位の地面
からの高さ(TL),及び前記撮影装置の焦点距離(S
y)に基づいて、それぞれ前記撮影装置から前記二次元
画像情報中の車輌までの距離に相当する推定距離(L
1)を求め(208B,208C)、識別された前記実
際の対象物左端位置と前記実際の対象物右端位置との間
隔(WV)と、前記推定距離(L1)とに基づいて、少
なくとも前記二次元画像情報に基づく車輌認識の有無を
識別する(H4)。
Further, according to a second aspect of the present invention, the two-dimensional image information obtained by photographing the scene including the road surface outside the vehicle with the photographing device (6b) mounted on the vehicle is processed, and the feature in the image is obtained. A vehicle that identifies a plurality of white lines on a road surface detected as a series of points in a predetermined direction and recognizes a vehicle in the two-dimensional image information with respect to a region determined based on the positions of a plurality of straight lines representing the white lines. In the recognition method: the position of the point at infinity ((XV, YV)) on the lane on which the vehicle is traveling is identified based on the position of the intersection of the plurality of straight lines (D4), and the two-dimensional image information is obtained. , At a plurality of positions in the horizontal direction, each of which is scanned substantially in the vertical direction to detect a plurality of pieces of information of the first feature points whose brightness changes (132), and the plurality of detected first feature points are detected. Vertical direction in which the occurrence frequency of the information of the Is identified as the vertical reference position (134, 135), and the horizontal position of the center of gravity is determined based on the distribution state of the plurality of first feature points in the vicinity of the vertical reference position. Mx (NR)) (136), and the two-dimensional image information is obtained by scanning the two-dimensional image information in the horizontal direction for a predetermined range near the left end position (XVLP) of the object predicted based on the horizontal center of gravity position. The actual left end position of the object is identified based on the information of the second feature point (201, 202L to 207L), and the position of the right end position (XVRP) of the object predicted based on the horizontal center of gravity position is determined. For the predetermined range, the actual right end position of the object is identified based on the information of the third feature point obtained by scanning the two-dimensional image information in the horizontal direction (201,
202R to 207R), at least day and night are identified (208A), and when it is identified as day, the position of the point at infinity (YV), the vertical reference position (My (NR)),
Based on the height (Hc) of the position where the photographing device is installed and the focal length (Sy) of the photographing device, and when it is identified as night, the position of the infinity point (YV), the vertical position. Direction reference position (My (NR)), height (Hc) of the position where the photographing device is installed, height (TL) of a predetermined light emitting part on the vehicle from the ground, and focal length (S) of the photographing device.
y), the estimated distance (L) corresponding to the distance from the imaging device to the vehicle in the two-dimensional image information.
1) is obtained (208B, 208C), and based on the distance (WV) between the identified left end position of the actual object and the right end position of the actual object and the estimated distance (L1), at least the two The presence or absence of vehicle recognition based on the three-dimensional image information is identified (H4).

【0012】また、請求項3では、前記第2の特徴点の
情報に基づいて前記実際の対象物左端位置を識別する
(206L)に際し、検出された前記複数の第2の特徴
点の情報の出現頻度(H(x))を第2のしきい値(Th
4)と比較して、出現頻度が大きい水平方向位置に基づ
いて前記実際の対象物左端位置を決定し、前記第3の特
徴点の情報に基づいて前記実際の対象物右端位置を識別
する(206R)に際し、検出された前記複数の第3の
特徴点の情報の出現頻度(H(x))を前記第2のしきい
値(Th4)と比較して、出現頻度が大きい水平方向位置
に基づいて前記実際の対象物右端位置を決定し、更に、
少なくとも昼と夜とを識別し、昼と識別された場合と夜
と識別された場合とで、前記第2のしきい値(Th4)の
大きさを切換える(229A,229B,229C)。
Further, in claim 3, when the actual left end position of the object is identified (206L) based on the information of the second feature points, information of the plurality of detected second feature points is included. The appearance frequency (H (x)) is set to the second threshold value (Th
Compared to 4), the actual left end position of the object is determined based on the horizontal position having a high appearance frequency, and the actual right end position of the object is identified based on the information of the third feature point ( 206R), the appearance frequency (H (x)) of the detected information of the plurality of third feature points is compared with the second threshold value (Th4), and the detected frequency is set to the horizontal position where the appearance frequency is large. Based on the actual right end position of the object based on the
At least day and night are identified, and the magnitude of the second threshold value (Th4) is switched depending on whether it is identified as day or night (229A, 229B, 229C).

【0013】また、請求項4では、処理対象とする前記
二次元画像情報中の領域を決定するに際して、少なくと
も昼と夜とを識別し(154A)、昼と識別された場合
と夜と識別された場合とで、前記車輌上発光部位の地面
からの高さ(TL)に応じた量だけ、前記領域の位置を
鉛直方向にずらす(154B)。
Further, according to a fourth aspect of the present invention, at the time of determining the area in the two-dimensional image information to be processed, at least day and night are identified (154A), and the case identified as day and the night are identified. Depending on the case, the position of the region is vertically shifted by an amount corresponding to the height (TL) of the light emitting portion on the vehicle from the ground (154B).

【0014】また、請求項5では、前記二次元画像情報
中の空に相当すると予想される特定の領域(RGS)内
に、複数の小領域(A1〜A16)を定め(S1)、各
々の小領域についてそれぞれ平均的な明るさを求め(S
2)、求めた平均的な明るさをしきい値と比較して(S
3)各小領域の明るさの識別結果を一次識別結果(S_f
lag(i))として得た後、これら複数の一次識別結果に基
づいて昼と夜とを識別する(S4)。
Further, in claim 5, a plurality of small areas (A1 to A16) are defined (S1) in a specific area (RGS) expected to correspond to the sky in the two-dimensional image information, and each of them is defined. Average brightness is calculated for each small area (S
2) Compare the calculated average brightness with a threshold (S
3) The primary identification result (S_f
After obtaining it as lag (i)), day and night are identified based on the plurality of primary identification results (S4).

【0015】なお上記括弧内に示した記号は、後述する
実施例中の対応する要素,座標,処理ステップ等の符号
を参考までに示したものであるが、本発明の各構成要素
は実施例中の具体的な要素のみに限定されるものではな
い。
The symbols shown in the above parentheses are the reference numerals of corresponding elements, coordinates, processing steps, etc. in the embodiments to be described later. It is not limited to the specific elements inside.

【0016】[0016]

【作用】車輌上に搭載された撮影装置(6b)により、
例えば前方の路面を含むシ−ンを撮影すると、図63,
図64,図65に示すような二次元画像情報が得られ
る。図63,図64及び図65は、それぞれ夜間,昼間
及び夕方の画像である。図63から分かるように、夜間
は、先行車の発光しているテ−ルライトや,自車のヘッ
ドライトによって照明された路面上の白線(レ−ン識別
用のマ−ク)以外には、ほとんど画像中に現われない。
従って、夜間の画像からは先行車の車体が認識できな
い。
[Operation] By the photographing device (6b) mounted on the vehicle,
For example, when shooting a scene including the road surface in front,
Two-dimensional image information as shown in FIGS. 64 and 65 is obtained. 63, 64, and 65 are images at night, daytime, and evening, respectively. As can be seen from FIG. 63, at night, in addition to the tail lights emitted by the preceding vehicle and the white line on the road surface (mark for lane identification) illuminated by the headlights of the own vehicle, It hardly appears in the image.
Therefore, the body of the preceding vehicle cannot be recognized from the nighttime image.

【0017】請求項1では、前記白線を表わす複数の直
線の位置を基準にして決定される領域、例えば図26に
示すウィンドウ2−1の縦線で塗りつぶして示す領域に
ついて、前記二次元画像情報を次のように処理する。勿
論、処理を実行する順番については、多少変更すること
もできる。まず、車輌が走行するレ−ン上の無限遠点の
位置((XV,YV))を、前記複数の直線の交点の位置
に基づいて識別する(D4:図22参照)。
According to a first aspect of the present invention, the two-dimensional image information is provided for an area determined based on the positions of a plurality of straight lines representing the white line, for example, an area indicated by a vertical line in the window 2-1 shown in FIG. Is processed as follows. Of course, the order in which the processes are executed can be slightly changed. First, the position of the point at infinity ((XV, YV)) on the lane on which the vehicle travels is identified based on the position of the intersection of the plurality of straight lines (D4: see FIG. 22).

【0018】次に、前記二次元画像情報を、水平方向の
複数の位置で、それぞれ実質上鉛直方向に走査して、明
るさが変化する第1の特徴点の情報を複数検出する(1
32:図31参照)。これによって、例えば自車が走行
するレ−ン内(白線の内側)で明るい画像部分の輪郭の
水平成分が、第1の特徴点として検出される。
Next, the two-dimensional image information is scanned at a plurality of horizontal positions in a substantially vertical direction to detect a plurality of pieces of information of the first characteristic point where the brightness changes (1
32: see FIG. 31). Thereby, for example, the horizontal component of the contour of the bright image portion in the lane (inside the white line) in which the vehicle is traveling is detected as the first feature point.

【0019】次に、検出された前記複数の第1の特徴点
の情報の出現頻度が所定のしきい値以上である鉛直方向
の位置を鉛直方向基準位置として識別する(134:図
34,135:図35)。第1の特徴点のそれぞれが存
在する鉛直方向(y方向)の位置について、ヒストグラ
ムを作成すると、第1の特徴点の分布状態を知ることが
できる。そして、処理している画像中に水平方向に延び
る領域(明るい部分)が存在すると、その位置(y座
標)で出現頻度が大きくなる。この位置が鉛直方向基準
位置として識別される。例えば図63に示す画像の場
合、自車レ−ンの前方を走行する先行車のテ−ルライト
の部分(あるいは対向車のヘッドライトの部分)で、第
1の特徴点が多数検出されるので、それが存在する位置
(y座標)が、鉛直方向基準位置(My(NR))として検
出される。
Next, the position in the vertical direction in which the appearance frequency of the detected information of the plurality of first characteristic points is equal to or higher than a predetermined threshold value is identified as the vertical direction reference position (134: FIGS. 34 and 135). : FIG. 35). When a histogram is created for the position in the vertical direction (y direction) where each of the first feature points is present, the distribution state of the first feature points can be known. If there is a horizontally extending region (bright portion) in the image being processed, the frequency of appearance increases at that position (y coordinate). This position is identified as the vertical reference position. For example, in the case of the image shown in FIG. 63, many first characteristic points are detected in the taillight portion of the preceding vehicle traveling in front of the own vehicle lane (or the headlight portion of the oncoming vehicle). , The position where it exists (y coordinate) is detected as the vertical reference position (My (NR)).

【0020】次に、前記鉛直方向基準位置の近傍の複数
の第1の特徴点の分布状態に基づいて、その重心の水平
方向位置を水平方向重心位置(Mx(NR))として識別す
る(136:図37参照)。この位置は、先行車の近傍
の明るい領域全体の中心位置、即ち、通常は発光してい
る左のテ−ルライトと右のテ−ルライトとの中間位置に
なる。
Next, the horizontal position of the center of gravity is identified as the horizontal center of gravity position (Mx (NR)) based on the distribution state of the plurality of first feature points in the vicinity of the vertical reference position (136). : See FIG. 37). This position is the center position of the entire bright area near the preceding vehicle, that is, the intermediate position between the normally emitting left tail light and the right tail light.

【0021】続いて、前記水平方向重心位置に基づいて
予測される対象物左端位置(XVLP:通常は、先行車の
左のテ−ルライトの左端位置:予測位置)近傍の所定範
囲について、前記二次元画像情報を水平方向に走査して
得られる、第2の特徴点の情報に基づいて実際の対象物
左端位置を識別する(201,202L〜207L)。
ここで検出される第2の特徴点は、対象物左端位置の近
傍に存在する、明るい画像部分の輪郭の鉛直成分であ
る。従って、第2の特徴点の情報に基づいて実際の対象
物左端位置(通常は、先行車の左のテ−ルライトの左端
位置:検出位置)を識別することができる。
Next, with respect to a predetermined range near the left end position of the object (XVLP: normally, the left end position of the tail light on the left of the preceding vehicle: the predicted position) predicted based on the horizontal center of gravity position, The actual left end position of the object is identified based on the information of the second feature point obtained by scanning the three-dimensional image information in the horizontal direction (201, 202L to 207L).
The second feature point detected here is the vertical component of the contour of the bright image portion existing near the left end position of the object. Therefore, the actual left end position of the object (usually, the left end position of the left tail light of the preceding vehicle: detected position) can be identified based on the information of the second feature point.

【0022】同様に、前記水平方向重心位置に基づいて
予測される対象物右端位置(XVRP:通常は、先行車の
右のテ−ルライトの右端位置:予測位置)の近傍の所定
範囲について、前記二次元画像情報を水平方向に走査し
て得られる、第3の特徴点の情報に基づいて実際の対象
物右端位置を識別する(201,202R〜207
R)。ここで検出される第3の特徴点は、対象物右端位
置の近傍に存在する、明るい画像部分の輪郭の鉛直成分
である。従って、第3の特徴点の情報に基づいて実際の
対象物右端位置(通常は、先行車の右のテ−ルライトの
右端位置:検出位置)を識別することができる。
Similarly, with respect to a predetermined range in the vicinity of the right end position of the object (XVRP: normally, the right end position of the right tail light of the preceding vehicle: the predicted position) predicted based on the horizontal center of gravity position, The actual right end position of the object is identified based on the information of the third feature point obtained by scanning the two-dimensional image information in the horizontal direction (201, 202R to 207).
R). The third feature point detected here is the vertical component of the contour of the bright image portion existing near the right end position of the object. Therefore, the actual right end position of the object (normally, the right end position of the right tail light of the preceding vehicle: detected position) can be identified based on the information of the third feature point.

【0023】前記無限遠点の位置(YV),前記鉛直方
向基準位置(My(NR)),前記撮影装置を設置した位置
の高さ(Hc),予め定めた車輌上発光部位の地面から
の高さ(TL),及び前記撮影装置の焦点距離(Sy)
が既知であると、それらに基づいて、前記撮影装置から
前記二次元画像情報中の車輌までの距離に相当する推定
距離(L1)を求めることができる(図23参照)。
The position of the point at infinity (YV), the reference position in the vertical direction (My (NR)), the height (Hc) of the position where the photographing device is installed, and the predetermined light emitting portion on the vehicle from the ground. Height (TL) and focal length (Sy) of the imaging device
Is known, the estimated distance (L1) corresponding to the distance from the imaging device to the vehicle in the two-dimensional image information can be obtained based on them (see FIG. 23).

【0024】 L1=Sy・(Hc−TL)/(My(NR)−YV) 一方、代表的な自動車の車幅は、約1.7mであり、実
際の車幅が変化することはないので、この実車幅WV3D
と前記推定距離L1と所定のスケ−ルファクタSxに基
づいて、2次元画像中の推定車幅WV2Dを求めることが
できる。
L1 = Sy · (Hc−TL) / (My (NR) −YV) On the other hand, a typical vehicle width is about 1.7 m, and the actual vehicle width does not change. , This actual vehicle width WV3D
Based on the estimated distance L1 and a predetermined scale factor Sx, the estimated vehicle width WV2D in the two-dimensional image can be obtained.

【0025】WV2D=WV3D×Sx/L1 2次元画像中において検出される車幅WVは、通常、前
記処理によって識別された実際の対象物左端位置と対象
物右端位置との間隔とほぼ一致する。従って、検出した
車幅WVと前記推定車幅WV2Dとの誤差に応じて、誤差が
小さい場合には、先行車等の車両の認識に成功したとみ
なすことができ、誤差が大きい場合には、車両を認識し
ていないとみなすことができる。
WV2D = WV3D.times.Sx / L1 The vehicle width WV detected in the two-dimensional image is usually substantially equal to the distance between the actual left end position of the object and the right end position of the object identified by the above processing. Therefore, depending on the error between the detected vehicle width WV and the estimated vehicle width WV2D, if the error is small, it can be considered that the vehicle such as the preceding vehicle has been recognized successfully, and if the error is large, It can be considered that the vehicle is not recognized.

【0026】なお、前記推定距離L1は比較的大きな誤
差を含む可能性があるが、車両の認識に成功した後で、
実車幅WV3Dと検出車幅WVに基づいて、比較的誤差の小
さい車間距離L2を求めることもできる。
Although the estimated distance L1 may include a relatively large error, after successful recognition of the vehicle,
Based on the actual vehicle width WV3D and the detected vehicle width WV, the inter-vehicle distance L2 with a relatively small error can be obtained.

【0027】L2=WV3D×Sx/WV ところで、図64に示すように、昼間は、先行車の車体
全体が画像に現われる。また、図64では階調が表現さ
れていないので現われていないが、実際の画像上では、
車体の下方の路面にそれの影が映る。この影の鉛直方向
位置は、前記処理を適用することにより、昼間の鉛直方
向基準位置(My(NR))として識別される。また、昼間
に前記処理を実行すると、先行車の車体の左端と右端が
それぞれ検出されるので、それらに基づいて車幅を求め
ることができる。つまり、非常に良く似た処理によっ
て、夜間も昼間も、先行車を認識することが可能であ
り、処理の大部分を夜間と昼間とで共通化することがで
きる。但し、全く同一の処理では、大きな誤差が生じ
る。
L2 = WV3D × Sx / WV By the way, as shown in FIG. 64, in the daytime, the entire body of the preceding vehicle appears in the image. In addition, in FIG. 64, since the gradation is not expressed, it is not shown, but in the actual image,
A shadow of it appears on the road surface below the car body. The vertical position of this shadow is identified as the vertical reference position (My (NR)) during the day by applying the above processing. Further, when the above process is executed in the daytime, the left end and the right end of the vehicle body of the preceding vehicle are respectively detected, and therefore the vehicle width can be obtained based on them. In other words, it is possible to recognize the preceding vehicle at night and day by a very similar process, and most of the process can be shared between night and day. However, if the processing is exactly the same, a large error will occur.

【0028】そこで、請求項2においては、夜間と昼間
とを識別して、部分的に処理を切換える。即ち、検出さ
れる鉛直方向基準位置が昼間と夜間とで鉛直方向にTL
(テ−ルライトの高さ)だけシフトするので、推定距離
L1を求める際に、昼間は L1=Sy・Hc/(My(NR)−YV) を適用し、夜間は L1=Sy・(Hc−TL)/(My(NR)−YV) を適用する。これにより、夜間と昼間のいずれにおいて
も、先行車両等を認識することができる。
Therefore, in claim 2, the processing is partially switched by distinguishing between nighttime and daytime. That is, the detected vertical reference position is TL in the vertical direction in the daytime and the nighttime.
Since it shifts by (the height of the tail light), when obtaining the estimated distance L1, L1 = Sy · Hc / (My (NR) −YV) is applied during the day and L1 = Sy · (Hc− at night. TL) / (My (NR) -YV) is applied. As a result, the preceding vehicle or the like can be recognized both at night and during the day.

【0029】請求項3では、前記第2の特徴点の情報に
基づいて前記実際の対象物左端位置を識別する(206
L)に際し、検出された前記複数の第2の特徴点の情報
の出現頻度(H(x))を第2のしきい値(Th4)と比較
して、出現頻度が大きい水平方向位置に基づいて前記実
際の対象物左端位置を決定する。また、前記第3の特徴
点の情報に基づいて前記実際の対象物右端位置を識別す
る(206R)に際し、検出された前記複数の第3の特
徴点の情報の出現頻度(H(x))を前記第2のしきい値
(Th4)と比較して、出現頻度が大きい水平方向位置に
基づいて前記実際の対象物右端位置を決定する。
In claim 3, the actual left end position of the object is identified based on the information of the second feature point (206).
In L), the appearance frequency (H (x)) of the detected information of the plurality of second feature points is compared with a second threshold value (Th4), and based on the horizontal position where the appearance frequency is large. To determine the actual left end position of the object. Further, when identifying the actual right end position of the object based on the information of the third feature point (206R), the appearance frequency (H (x)) of the information of the plurality of detected third feature points. Is compared with the second threshold value (Th4), and the actual right end position of the object is determined based on the horizontal position having a high appearance frequency.

【0030】ここで、夜間は検出対象物がテ−ルライト
等であるため、その鉛直方向高さが比較的小さいのに対
し、昼間は検出対象物が車体全体であるため、その鉛直
方向高さが比較的大きい。従って、前記複数の第2の特
徴点および第3の特徴点の情報の出現頻度(H(x))
は、夜間は小さく、昼間は大きくなる。そこで、請求項
3では、昼と夜とを識別し、昼と識別された場合と夜と
識別された場合とで、前記第2のしきい値(Th4)の大
きさを切換える。
Here, at night, since the object to be detected is a tail light or the like, the height in the vertical direction is relatively small, whereas in daytime, the object to be detected is the entire vehicle body. Is relatively large. Therefore, the appearance frequency (H (x)) of the information of the plurality of second feature points and the third feature points
Is small at night and large at daytime. Therefore, in the third aspect, day and night are identified, and the magnitude of the second threshold value (Th4) is switched depending on whether it is identified as day or night.

【0031】また、前記鉛直方向基準位置(My(NR))
は、夜間はテ−ルライト等の位置であるのに対し、昼間
は車体下方の路面上の影の位置であるため、検出対象物
の画像上の位置が、夜間と昼間とでテ−ルライトの高さ
相当だけずれる。そこで、請求項4では、処理対象とす
る前記二次元画像情報中の領域を決定するに際して、少
なくとも昼と夜とを識別し(154A)、昼と識別され
た場合と夜と識別された場合とで、前記車輌上発光部位
の地面からの高さ(TL)に応じた量だけ、前記領域の
位置を鉛直方向にずらす(154B)。
The vertical reference position (My (NR))
Is the position of the tail light at night, while it is the position of the shadow on the road surface below the vehicle body in the daytime, so the position on the image of the detection target is It is displaced by a height equivalent. Therefore, in claim 4, at the time of determining the region in the two-dimensional image information to be processed, at least day and night are identified (154A), and the case of identifying day and the case of identifying night. Then, the position of the region is vertically shifted by an amount corresponding to the height (TL) of the light emitting portion on the vehicle from the ground (154B).

【0032】ところで、車両上で撮影された画像に基づ
いて判定をする場合であっても、昼と夜とを正確に識別
するのは難しい。一般に、画像中の空の領域の明るさに
基づいて、昼と夜を識別することが可能である。しかし
例えば、夜間の画像において、空の領域内に街灯,広告
灯などが映っている場合には、空の領域の明るさが昼間
として誤認識される可能性がある。
By the way, it is difficult to accurately distinguish between day and night even when the determination is made based on the image taken on the vehicle. In general, it is possible to distinguish between day and night based on the brightness of the sky region in the image. However, for example, in a nighttime image, when street lights, advertising lights, etc. are reflected in the sky region, the brightness of the sky region may be erroneously recognized as daytime.

【0033】そこで請求項5では、前記二次元画像情報
中の空に相当すると予想される特定の領域(RGS)内
に、複数の小領域(A1〜A16)を定め(S1)、各
々の小領域についてそれぞれ平均的な明るさを求め(S
2)、求めた平均的な明るさをしきい値と比較して(S
3)各小領域の明るさの識別結果を一次識別結果(S_f
lag(i))として得た後、これら複数の一次識別結果に基
づいて昼と夜とを識別する(S4)。これにより、高い
信頼性で昼と夜とを識別しうる。
Therefore, in a fifth aspect, a plurality of small areas (A1 to A16) are defined (S1) in a specific area (RGS) expected to correspond to the sky in the two-dimensional image information, and each small area is defined. Average brightness is calculated for each area (S
2) Compare the calculated average brightness with a threshold (S
3) The primary identification result (S_f
After obtaining it as lag (i)), day and night are identified based on the plurality of primary identification results (S4). As a result, day and night can be discriminated with high reliability.

【0034】[0034]

【発明の実施の形態】図1に本発明の第1実施例の構成
を示す。このシステムはマイクロコンピュ−タ(以下C
PUという)1を中心に構成されており、そのバスライ
ンには、制御プログラムが格納された読み出し専用メモ
リ(ROM)2,処理中のパラメ−タが格納される読み
書きメモリ(RAM)3、および、各種構成要素が接続
された入出力ポ−ト(I/O)4,5,6等が接続され
ている。
FIG. 1 shows the configuration of a first embodiment of the present invention. This system is a microcomputer (hereinafter C
PU) 1 as a main component, and its bus line has a read-only memory (ROM) 2 in which a control program is stored, a read / write memory (RAM) 3 in which a parameter being processed is stored, and Input / output ports (I / O) 4, 5, 6 and the like to which various components are connected are connected.

【0035】テレビカメラ6bは、図2に示すように、
車内のフロントウィンドウの中央上部付近に設置されて
おり、前方のシ−ン、即ち自動車が走行する路面,空,
周囲の物体など含む像を2次元画像として撮影してアナ
ログ映像信号を出力する。このアナログ映像信号は、A
/Dコンバ−タ6cおよびCRTドライバ4aに与えら
れる。A/Dコンバ−タ6cにおいては、テレビカメラ
6bよりのアナログ映像信号を、画像を構成する所定の
画素毎のタイミングで、それぞれサンプリングし、各画
素の信号レベルを256階調(階調0が黒レベル、階調
255が白レベル)のデジタルデ−タ(8ビットの階調
デ−タ)に変換してイメ−ジメモリ5aに与える。この
実施例においては、画像の各フレ−ムは、512×51
2画素で構成される。なお、イメ−ジメモリ5aは、一
画面(512×512画素)の階調デ−タを記憶する領
域を一頁とするとその数頁分の階調デ−タ記憶領域と、
1ビット情報(2値デ−タ)を数画面分記憶する2値デ
−タ記憶領域を有する。
The television camera 6b, as shown in FIG.
It is installed near the upper center of the front window in the car, and the front scene, that is, the road surface on which the car runs, the sky,
An image including surrounding objects is photographed as a two-dimensional image and an analog video signal is output. This analog video signal is A
It is given to the / D converter 6c and the CRT driver 4a. In the A / D converter 6c, the analog video signal from the television camera 6b is sampled at a timing of each predetermined pixel forming an image, and the signal level of each pixel is set to 256 gradations (gradation 0 is set). It is converted into digital data (8-bit gradation data) of black level and gradation 255 of white level and supplied to the image memory 5a. In this example, each frame of the image is 512 × 51.
It is composed of two pixels. The image memory 5a has a gradation data storage area for several pages when the area for storing the gradation data of one screen (512 × 512 pixels) is one page.
It has a binary data storage area for storing 1-bit information (binary data) for several screens.

【0036】CPU1は、テレビカメラコントロ−ラ6
aを介してテレビカメラ6bの絞り等を制御し、A/D
コンバ−タ6cの入出力およびイメ−ジメモリ5aの書
込み処理等を同期制御する。テレビカメラ6bは、AG
C(オ−トゲインコントロ−ル)回路を内蔵しているの
で、A/Dコンバ−タ6cに入力されるアナログ映像信
号のレベル(電圧)は、画像中の最も明るい画素が現わ
れるタイミングで、予め定めた最大レベル、即ち図66
に示すVfになるように自動的に調整される。また、A
/Dコンバ−タ6cにおいては、入力信号の最大レベル
Vfがデジタルデ−タの最大の階調255になるよう
に、予めフルスケ−ルレベルが調整されている。
The CPU 1 is a television camera controller 6
The aperture of the TV camera 6b is controlled via a, and the A / D
The input / output of the converter 6c and the writing process of the image memory 5a are synchronously controlled. The TV camera 6b is AG
Since the C (auto gain control) circuit is built in, the level (voltage) of the analog video signal input to the A / D converter 6c is the timing at which the brightest pixel in the image appears. Predetermined maximum level, ie FIG. 66
It is automatically adjusted to Vf shown in. Also, A
In the / D converter 6c, the full scale level is adjusted in advance so that the maximum level Vf of the input signal becomes the maximum gradation 255 of the digital data.

【0037】CRTドライバ4aは、テレビカメラ6b
より与えられたアナログ映像信号が表わす画像(例えば
図16)に、CPU1の制御のもとに与えられるデジタ
ル画像(デジタル出力画像;例えば自車走行レ−ンの
左,右端の白線を近似した直線ならびに前方走行車両と
の車間距離を示す文字,数字情報)を合成した画像を、
車両上のインナ−パネルの中央付近に設置されたモニタ
テレビCRT4bに表示する。
The CRT driver 4a is a television camera 6b.
A digital image (digital output image) provided under the control of the CPU 1 to the image represented by the analog video signal given by the above (for example, FIG. 16); And an image that combines the character and numerical information indicating the distance to the vehicle ahead,
The information is displayed on the monitor television CRT 4b installed near the center of the inner panel on the vehicle.

【0038】図3に、CPU1の処理動作の概要を示
す。大略でCPU1は、それ自身に電源が投入されると
入出力ポ−トの初期化,内部レジスタ,内部カウンタの
初期化等(初期化A)を行なった後、一画面のアナログ
画信号を所定周期でデジタル変換してイメ−ジメモリ5
aの入力デ−タメモリ領域に書込む(画像入力B)。こ
れを行なう毎にCPU1は、「画面の校正」C,「昼夜
の判定」Sおよび「ウィンドウ2−1内の車両検出」D
ET1を実行し、このDET1で自車走行レ−ン上に先
行車両を検出しなかった場合にはDET1に加えて「ウ
ィンドウ2−2内の車両検出」DET2を実行する。こ
のDET2でも自車走行レ−ン上に先行車両を検出しな
かった場合には、DET2に加えて更に「ウィンドウ2
−3内の車両検出」DET3を実行する。DET1で
は、「自車レ−ン検出」Dおよび自車レ−ン検出の成否
チェックE、ならびに、自車レ−ン検出が成立(成功)
した場合は「隣接レ−ンの推定」F,「自車レ−ン先行
車認識及び測距」H,「右隣接レ−ン車両認識及び測
距」I,「左隣接レ−ン車両認識及び測距」Jおよび
「出力」Kを、この記載順に実行する。DET2および
DET3でもこれらを同様に実行する。ただし、画像デ
−タが表わす画面上の処理対象領域は異なる。
FIG. 3 shows an outline of the processing operation of the CPU 1. Generally, the CPU 1 initializes an input / output port, initializes an internal register and an internal counter (initialization A) when the power is turned on, and then determines an analog image signal for one screen. Image memory 5 with digital conversion in cycles
The data is written in the input data memory area of a (image input B). Every time this is performed, the CPU 1 performs “screen calibration” C, “day / night determination” S, and “vehicle detection in window 2-1” D.
When ET1 is executed and the preceding vehicle is not detected on the vehicle traveling lane by this DET1, in addition to DET1, "detection of vehicle in window 2-2" DET2 is executed. If the preceding vehicle is not detected on the own vehicle traveling lane even in this DET2, in addition to DET2, "Window 2
-3 vehicle detection ”DET3 is executed. In DET1, "own vehicle lane detection" D, own vehicle lane detection success check E, and own vehicle lane detection are established (success).
In case of "neighboring lane estimation" F, "own vehicle lane preceding vehicle recognition and ranging" H, "right adjacent lane vehicle recognition and ranging" I, "left adjacent lane vehicle recognition" And "distance measurement" J and "output" K are executed in this order. Do the same for DET2 and DET3. However, the processing target area on the screen represented by the image data is different.

【0039】そして「出力」Kでは、自車レ−ン端部の
白線を表わす直線,自車レ−ン先行車の検出有無を示す
文字情報,該先行車を囲む4角マ−クおよび該先行車と
の車間距離、右隣接レ−ン車両の検出有無を示す文字情
報,該先行車を囲む4角マ−クおよび該先行車との車間
距離、ならびに、左隣接レ−ン車両の検出有無を示す文
字情報,該先行車を囲む4角マ−クおよび該先行車との
車間距離、を撮影画像に合成してCRT4bに更新表示
すると共に、自車レ−ン端部の白線を表わす直線を示す
デ−タならびに各車間距離を表わすデ−タを、通信コン
トロ−ラ7(図1)を介してホストCPU8に転送す
る。ホストCPU8は、これらの情報を、車間距離制御
(車間距離対応のアクセル制御,オ−バドライブ遮断制
御および又は車輪ブレ−キ圧制御),障害物検知&車輪
ブレ−キ圧制御,レ−ン逸脱警報制御,レ−ン倣い走行
制御(ステアリング制御および又は各輪毎の車輪ブレ−
キ圧制御)等の、走行自動制御に使用する。以下、図3
に示す「画面の校正」C以下「左隣接レ−ン車両認識及
び測距」Jの各項目の内容を詳細に説明する。
In the "output" K, a straight line representing the white line at the end of the own vehicle lane, character information indicating whether or not a preceding vehicle of the own vehicle lane is detected, a square mark surrounding the preceding vehicle and the Distance between the preceding vehicle, character information indicating whether or not a right adjacent lane vehicle is detected, a square mark surrounding the preceding vehicle and a distance between the preceding vehicle and a left adjacent lane vehicle Character information indicating presence / absence, a square mark surrounding the preceding vehicle, and a distance between the preceding vehicle and the preceding vehicle are combined into a photographed image, which is updated and displayed on the CRT 4b, and a white line at the end of the own vehicle lane is displayed. The data representing a straight line and the data representing each inter-vehicle distance are transferred to the host CPU 8 via the communication controller 7 (FIG. 1). The host CPU 8 applies these information to the following distance control (accelerator control corresponding to the following distance, overdrive cutoff control and / or wheel brake pressure control), obstacle detection & wheel brake pressure control, lane. Deviation warning control, lane copying traveling control (steering control and / or wheel blurring for each wheel)
Used for automatic travel control such as pressure control). Below, FIG.
The contents of each item of "Screen calibration" C and "Left adjacent lane vehicle recognition and distance measurement" J will be described in detail.

【0040】C.「画面の校正」C(図4) この処理の内容を図4に示す。まず「特徴点検出ウィン
ドウセット」C1を実行する。
C. "Screen calibration" C (Fig. 4) The contents of this process are shown in Fig. 4. First, the "feature point detection window set" C1 is executed.

【0041】C1.「特徴点検出ウィンドウ1セット」
C1(図5) この内容を図5の(a)に示す。図5の(b)に示すよ
うに、テレビカメラ6bの撮影画面(画像デ−タは入力
デ−タメモリにある階調デ−タ)の左上を原点(0,
0)に定めて、一点(0,350)ともう一点(51
1,511)を対角コ−ナとする画像領域を特徴点検出
用の領域(ウィンドウ1)に定める。すなわち、定めよ
うとする領域の左上コ−ナのX座標値0をレジスタXU
Lに、Y座標値511をレジスタYULに、該領域の右
下コ−ナのX座標値511をレジスタXLRに、Y座標
値350をレジスタYLRに書込む(図5の(a)のス
テップ1;以下カッコ内ではステップという語は省略
し、ステップNo.のみを記す)。これらのレジスタの
それぞれのデ−タが示す値を以下、レジスタ記号そのも
ので表わす。
C1. "One set of feature point detection windows"
C1 (FIG. 5) This content is shown in FIG. As shown in FIG. 5 (b), the upper left of the shooting screen of the television camera 6b (the image data is gradation data in the input data memory) is the origin (0,
0), one point (0,350) and another point (51
1, 511) as diagonal corners is set as a feature point detection region (window 1). That is, the X coordinate value 0 of the upper left corner of the area to be determined is set in the register XU.
Write the Y coordinate value 511 to the register YUL, the X coordinate value 511 of the lower right corner of the area to the register XLR, and the Y coordinate value 350 to the register YLR (step 1 in FIG. 5A). ; In the following, in parentheses, the word step is omitted, and only the step number is described). The value indicated by the data of each of these registers will be represented below by the register symbol itself.

【0042】次に説明する「特徴点検出(UP)」C2
の処理(図6)に対して、上述の「特徴点検出ウィンド
ウセット」C1により、図5の(b)に示すように、2
点鎖線で示すブロック(特徴点検出ウィンドウ1)が、
処理対象領域に指定されたことになる。この領域は、図
5の(b)に示すように、車両のボンネットの先端エッ
ジ像を十分に含むものである。
"Feature point detection (UP)" C2 described next
5 (b) of FIG. 5 by the above-mentioned "feature point detection window set" C1 for the processing of FIG.
The block (feature point detection window 1) shown by the dotted line is
It has been designated as the processing target area. As shown in FIG. 5B, this region sufficiently includes the leading edge image of the hood of the vehicle.

【0043】次に「特徴点検出(UP)」C2を実行す
る。この内容を図6に示す。
Next, "feature point detection (UP)" C2 is executed. This content is shown in FIG.

【0044】C2.「特徴点検出(UP)」C2(図
6) ここでは、特徴点検出ウィンドウ1の左下コ−ナ(0,
511)よりY方向2画素上方の画素(0,509)か
ら、Y方向座標値を350まで順次小さくするY方向の
下から上への走査により、該方向(X=0の直線上)に
分布する画素を順次に注目画素に指定して(図6のaの
2〜11)、各注目画素(xs,ys)に関して、それ
より1画素下側の画素(xs,ys+1)と2画素下側
の画素(xs,ys+2)の階調デ−タが表わす輝度の
和と、注目画素(xs,ys)より1画素上側の画素
(xs,ys−1)と2画素上側の画素(xs,ys−
2)の、入力デ−タメモリにある階調デ−タが表わす輝
度の和、の差の絶対値すなわち上下方向(Y方向)の階
調微分値の絶対値を算出する(8)。これを注目画素点
(xs,ys)の階調微分値D(xs,ys)とする。
この階調微分値D(xs,ys)は、図6の(b)に示
すように、注目点(xs,ys)の上側2画素の画像濃
度和と下側2画素の画像濃度和との差の絶対値であるの
で、注目点を境にした上下方向の濃度変化を表わし、画
面上の各像の、水平方向に延びる輪郭線のところで大き
い値となる。この階調微分値D(xs,ys)がしきい
値Th1(設定値)以上であるかをチェックして
(9)、Th1以上であると、イメ−ジメモリ5aのあ
る領域に割り当てている2値デ−タテ−ブルの、注目画
素点(xs,ys)対応アドレスE(xs,ys)に、
「1」を書込む(10)。この情報「1」は、像の水平
方向に延びる輪郭線であることを意味する。Y方向にこ
のような処理を一ライン分(X=0,Y=509〜35
0)行なうと、走査線を右方向に移して(6)、次の一
ライン分(X=1,Y=509〜350)につき同様な
処理を行なう。以下同様に、最後のライン(X=51
1,Y=509〜350)まで同様な処理を行なう。
C2. “Feature point detection (UP)” C2 (FIG. 6) Here, the lower left corner (0,
511) The pixel (0, 509) two pixels above in the Y direction is scanned in the Y direction from the bottom to the top in which the Y direction coordinate value is sequentially reduced to 350. The pixels to be designated are sequentially designated as the target pixel (2 to 11 in FIG. 6A), and for each target pixel (xs, ys), the pixel (xs, ys + 1) one pixel below and the pixel two pixels below Of the brightness represented by the gradation data of the pixel (xs, ys + 2) of the pixel, and the pixel (xs, ys-1) one pixel above and the pixel (xs, ys) two pixels above the pixel of interest (xs, ys). −
The absolute value of the difference between 2) and the sum of the brightness represented by the gradation data in the input data memory, that is, the absolute value of the gradation differential value in the vertical direction (Y direction) is calculated (8). This is defined as the gradation differential value D (xs, ys) of the target pixel point (xs, ys).
This gradation differential value D (xs, ys), as shown in (b) of FIG. 6, is obtained by comparing the image density sum of the upper two pixels and the image density sum of the lower two pixels of the target point (xs, ys). Since it is the absolute value of the difference, it represents the change in density in the vertical direction with the point of interest as a boundary, and becomes a large value at the contour line extending horizontally in each image on the screen. It is checked whether or not this gradation differential value D (xs, ys) is equal to or more than a threshold value Th1 (set value) (9). If it is Th1 or more, it is assigned to an area of the image memory 5a. At the address E (xs, ys) corresponding to the pixel of interest (xs, ys) of the value data table,
Write "1" (10). This information "1" means that it is a contour line extending in the horizontal direction of the image. Such processing is performed in the Y direction for one line (X = 0, Y = 509 to 35).
0), the scanning line is moved to the right (6), and the same process is performed for the next one line (X = 1, Y = 509 to 350). Similarly, the last line (X = 51
1, Y = 509 to 350) are similarly processed.

【0045】以上の処理により、イメ−ジメモリ5aの
2値デ−タテ−ブルE(xs,ys),xs=0〜51
1,ys=509〜350)に、特徴点検出ウィンドウ
1(図5のb)内の像の水平方向に延びる輪郭線を示す
情報が書込まれたことになる。特徴点検出ウィンドウ1
は、ボンネットの先端エッジ像を含む領域に設定されて
いるので、2値デ−タテ−ブルE(xs,ys)にはボ
ンネットの先端エッジを表わす情報が含まれている。こ
の実施例では、ボンネットの先端エッジを直線と見なし
て、次の「ボンネット検出」C3で該直線を検出する。
この内容を図7に示す。
By the above processing, the binary data table E (xs, ys), xs = 0 to 51 of the image memory 5a.
1, ys = 509 to 350), information indicating the contour line extending in the horizontal direction of the image in the feature point detection window 1 (b in FIG. 5) is written. Feature point detection window 1
Is set in a region including the leading edge image of the bonnet, so the binary data table E (xs, ys) contains information representing the leading edge of the bonnet. In this embodiment, the leading edge of the bonnet is regarded as a straight line, and the straight line is detected by the next "bonnet detection" C3.
This content is shown in FIG.

【0046】C3.「ボンネット検出」C3(図7) まず大要を説明するとここでは、公知の「ハフ(Houg
h)変換」を用いて直線を検出する。ハフ変換は、直交
座標系(X−Y座標系;例えば特徴点検出ウィンドウ1
内の画素分布)で表現されている情報(例えば前記2値
デ−タテ−ブルE(xs,ys))を、極座標系(ρ−
θ座標系)で表現する手法であり、 ρ=Xcos(θ)+Ysin(θ) の変換を行なう。X−Y座標系におけるある一点(画
素)はρ−θ極座標系(ρとθを直交2軸の一方と他方
に割り当てる直交座標平面)ではある曲線となり、X−
Y座標系において直線上に乗っている各点をρ−θ座標
系で各曲線で表わすと、これらの曲線は一点で交わる。
この交点をX−Y座標系への変換式に代入することによ
り、X−Y座標系での直線式が得られる。
C3. "Bonnet detection" C3 (Fig. 7) First, the outline is explained here by the known "Houg (Houg
h) Transform ”to detect a straight line. The Hough transform is performed in a rectangular coordinate system (XY coordinate system; for example, the feature point detection window 1
Information (for example, the binary data table E (xs, ys)) represented by a pixel distribution in the polar coordinate system (ρ-
This is a method of expressing in the (θ coordinate system), and the conversion of ρ = Xcos (θ) + Ysin (θ) is performed. A certain point (pixel) in the XY coordinate system becomes a certain curve in the ρ-θ polar coordinate system (orthogonal coordinate plane that allocates ρ and θ to one and the other of the two orthogonal axes), and X-
When each point on the straight line in the Y coordinate system is represented by each curve in the ρ-θ coordinate system, these curves intersect at one point.
By substituting this intersection point into the conversion formula to the XY coordinate system, the linear formula in the XY coordinate system can be obtained.

【0047】したがって、前記2値デ−タテ−ブルE
(xs,ys)上の特徴点情報「1」を有する座標をρ
−θ極座標値に変換し、ρ−θ極座標系において曲線の
交点を求め、この交点をX−Y座標系への変換式に代入
することにより、特徴点を結ぶ直線を求めることができ
る。しかし、単に2点を結ぶ直線はX−Y座標系で直接
に求めることができ、ρ−θ極座標系への変換を行なう
意味はない。ところが、画面上のボンネット輪郭線は、
実際のボンネットの先端輪郭線がカ−ブしているとか、
ボンネットへの光の当り具合などにより画面上カ−ブし
ているとかあるいは粗れており、ボンネット輪郭線を直
線で近似する場合、単に2値デ−タテ−ブルE(xs,
ys)上の特徴点情報「1」がある2点を結ぶ直線を求
めたのでは、近似誤差が大き過ぎるし、ボンネットでな
いものの輪郭線を摘出してしまうこともあり得る。図5
の(b)および図16に示すように、ボンネット輪郭線
は広い領域に分布しているので、2値デ−タテ−ブルE
(xs,ys)上には特徴点情報「1」が多く存在す
る。したがって、該「1」がある2点(画素)を結ぶ直
線は多数得られる。多数得た直線群を代表する右下りの
一直線を確定すると、それはボンネットの先端輪郭線の
右半分を最も良く近似するものである(図7のb)。同
様に、多数得た直線群を代表する左下りの一直線を確定
すると、それはボンネットの先端輪郭線の左半分を最も
良く近似するものである(図7のb)。しかしながらこ
のような統計的処理をX−Y座標系で行なうと処理がき
わめて複雑となる。ところがハフ変換を用いて、2値デ
−タテ−ブルE(xs,ys)上の特徴点情報「1」が
ある座標(特徴点)をρ−θ極座標系へ変換すると、各
特徴点を表わす曲線の交点が2点(ボンネットの右半分
輪郭線と左半分輪郭線に対応)に集中する。したがって
2値デ−タテ−ブルE(xs,ys)の特徴点をハフ変
換し、ρ−θ極座標系上の各点で、曲線が通る度数(一
点を通る曲線の数)をカウントし、度数が最大の点と次
に大きい点の二点を選択して、選択した各点をX−Y座
標系への変換式に代入することによりボンネットの輪郭
線の右半分,左半分を表わす直線式が得られる。この実
施例ではこのような論理に従って、すなわちハフ変換と
ρ−θ極座標系上各点を曲線が通る度数のカウントによ
り、ボンネットの先端輪郭線を検出する。
Therefore, the binary data table E
The coordinates having the feature point information “1” on (xs, ys) are ρ
A straight line connecting the characteristic points can be obtained by converting into −θ polar coordinate values, obtaining the intersection of the curves in the ρ−θ polar coordinate system, and substituting this intersection into the conversion formula to the XY coordinate system. However, the straight line connecting the two points can be directly obtained in the XY coordinate system, and there is no point in converting to the ρ-θ polar coordinate system. However, the bonnet outline on the screen is
The contour of the tip of the actual bonnet is curved,
When the bonnet contour is approximated by a straight line, the binary data table E (xs,
If the straight line connecting the two points having the feature point information “1” on ys) is obtained, the approximation error is too large, and the contour line of the non-bonnet may be extracted. FIG.
As shown in FIG. 16B and FIG. 16, the bonnet outline is distributed over a wide area, so that the binary data table E
A lot of feature point information “1” exists on (xs, ys). Therefore, a large number of straight lines connecting the two points (pixels) having the "1" are obtained. When a straight line descending to the right that represents a large number of straight lines is determined, it is the one that best approximates the right half of the bonnet tip contour line (b in FIG. 7). Similarly, when a straight line to the left that represents a large number of straight lines is determined, it is the one that best approximates the left half of the bonnet tip contour line (b in FIG. 7). However, if such statistical processing is performed in the XY coordinate system, the processing becomes extremely complicated. However, when the coordinates (feature points) having the feature point information “1” on the binary data table E (xs, ys) are transformed into the ρ-θ polar coordinate system using the Hough transform, each feature point is represented. The intersections of the curves are concentrated at two points (corresponding to the right half contour line and the left half contour line of the bonnet). Therefore, the characteristic point of the binary data table E (xs, ys) is Hough-transformed, and the frequency (the number of curves passing through one point) of the curve is counted at each point on the ρ-θ polar coordinate system. Select the two points, the maximum point and the next largest point, and substitute each selected point into the conversion formula to the XY coordinate system to express the right half and the left half of the bonnet outline. Is obtained. In this embodiment, the tip contour line of the bonnet is detected according to such logic, that is, by counting the number of times the curve passes through each point on the ρ-θ polar coordinate system.

【0048】ところで、ρ−θ極座標系上各点での曲線
交鎖度数のカウントを、2値デ−タテ−ブルE(xs,
ys)のサイズ対応の大きさのρ−θ極座標系全領域の
各点で行なうと、曲線が通る度数のカウント処理が膨大
となり、直線検出処理に長い時間がかかる。そこでこの
実施例では、2値デ−タテ−ブルE(xs,ys)の最
下端の左右中間点(X=255,Y=511)をρ−θ
極座標系の原点(0,0)に定め、かつ、2値デ−タテ
−ブルE(xs,ys)を左右に2分して、右半分につ
いて、第1ハフ変換で、2値デ−タテ−ブルE(xs,
ys)の特徴点を、低密度(サンプリングピッチが大き
い)ρ−θ極座標系に変換して該極座標系の各点を曲線
が通る度数(一点を通る曲線の数)をカウントし、度数
が最大の点(第1予測点)を求める。次に第2ハフ変換
で、第1予測点を中心とする小範囲のρ−θ領域を設定
し、該領域の大きさの中密度ρ−θ極座標系に2値デ−
タテ−ブルE(xs,ys)の特徴点を変換してこのρ
−θ極座標系の各点を曲線が通る度数をカウントし、度
数が最大の点(第2予測点)を求める。そして第3ハフ
変換で、第2予測点を中心とする更に小範囲のρ−θ領
域を設定し、該領域の大きさの高密度ρ−θ極座標系に
2値デ−タテ−ブルE(xs,ys)の特徴点を変換し
てこのρ−θ極座標系の各点を曲線が通る度数をカウン
トし、度数が最大の点(第3予測点)を求める。そして
この第3予測点で表わされる直線をボンネットの先端輪
郭線の右半分と決定する(図7の12R〜14R)。2
値デ−タテ−ブルE(xs,ys)の左半分について
も、同様に第1ハフ変換,第2ハフ変換および第3ハフ
変換を行って、ボンネットの先端輪郭線の左半分を表わ
す直線を決定する(図7の12L〜14L)。
By the way, the count of the curve crossing frequency at each point on the ρ-θ polar coordinate system is represented by the binary data table E (xs,
If it is performed at each point in the entire region of the ρ-θ polar coordinate system having a size corresponding to the size of (ys), the count processing of the number of times the curve passes becomes enormous, and the straight line detection processing takes a long time. Therefore, in this embodiment, the right and left intermediate points (X = 255, Y = 511) at the lowermost end of the binary data table E (xs, ys) are set to ρ-θ.
It is set at the origin (0,0) of the polar coordinate system, and the binary data table E (xs, ys) is divided into left and right, and the right half is converted into binary data by the first Hough transform. -Bull E (xs,
ys) characteristic points are converted into a low-density (large sampling pitch) ρ-θ polar coordinate system and the number of times a curve passes through each point of the polar coordinate system (the number of curves passing through one point) is counted, and the maximum frequency is obtained. Point (first prediction point) is obtained. Next, the second Hough transform is used to set a small range ρ-θ region centered on the first prediction point, and the size of the region is set to the medium density ρ-θ polar coordinate system.
The characteristic point of the table E (xs, ys) is converted to
The number of times the curve passes through each point of the −θ polar coordinate system is counted, and the point with the highest frequency (second predicted point) is obtained. Then, in the third Hough transform, a smaller range ρ-θ region centered around the second prediction point is set, and the binary data table E (is set in the high density ρ-θ polar coordinate system of the size of the region. (xs, ys) are converted to count the number of times the curve passes through each point of this ρ-θ polar coordinate system, and the point with the highest frequency (third prediction point) is obtained. Then, the straight line represented by the third predicted point is determined as the right half of the bonnet tip contour line (12R to 14R in FIG. 7). Two
The left half of the value data table E (xs, ys) is similarly subjected to the first Hough transform, the second Hough transform and the third Hough transform to obtain a straight line representing the left half of the bonnet tip contour line. It is determined (12L to 14L in FIG. 7).

【0049】次に図7の(a)を参照して、「ボンネッ
ト検出」C3の内容を詳細に説明する。まずボンネット
の先端輪郭線の右半分を近似する直線を検出するための
パラメ−タを設定する(12R)。そして該近似する直
線対応の点(Rm3,Tm3)を検出する(13R)。Rm3
はρ−θ極座標系のρ値、Tm3はθ値である。求めた点
の座標値をレジスタRmR,TmRに格納する(14R)。
同様な処理をボンネットの先端輪郭線の左半分を近似す
る直線を検出するために行なう(12L〜14L)。ハ
フ変換により直線を検出する「直線当てはめ」13R,
13Lの内容は、図17〜図21に示す「直線当ては
め」63の内容と同様であるので、ここでの詳細な説明
は省略する。なお、「直線当てはめ」63は、特徴点検
出ウィンドウ1に接して上側の特徴点検出ウィンドウ2
−1(図16)の領域にある路上の白線像の近似直線を
検出するものであるが、「直線当てはめ」13Rはウィ
ンドウ1の右半分の領域の直線を検出するものであるの
で、処理対象のX−Y座標領域(始点座標値および終点
座標値)は異なる。「直線当てはめ」13Lでも同様に
処理対象のX−Y座標領域が「直線当てはめ」63とは
異なる。また「直線当てはめ」63では、ウィンドウ2
−1の全領域を処理対象領域とし、その内に右端白線と
左端白線が存在するので、度数が最大の点と次に大きい
点の二点(2直線)を求めるが、「直線当てはめ」13
Rと「直線当てはめ」13Lは左,右半分の領域である
ので、それぞれ、度数が最大の点のみを求める。他の処
理は同様である。
Next, the contents of the "bonnet detection" C3 will be described in detail with reference to FIG. First, parameters are set for detecting a straight line that approximates the right half of the bonnet tip contour line (12R). Then, the point (Rm3, Tm3) corresponding to the approximate straight line is detected (13R). Rm3
Is the ρ value in the ρ-θ polar coordinate system, and Tm3 is the θ value. The calculated coordinate value of the point is stored in the registers RmR and TmR (14R).
Similar processing is performed to detect a straight line that approximates the left half of the bonnet tip contour line (12L to 14L). "Line fitting" 13R, which detects straight lines by Hough transform,
The contents of 13L are the same as the contents of the "straight line fitting" 63 shown in FIGS. Note that the “straight line fitting” 63 is in contact with the feature point detection window 1 and the upper feature point detection window 2
-1 (FIG. 16) detects an approximate straight line of a white line image on the road, but the "straight line fitting" 13R detects a straight line in the right half region of the window 1, and therefore is to be processed. X-Y coordinate areas (start point coordinate value and end point coordinate value) are different. Similarly, in the "straight line fitting" 13L, the XY coordinate area to be processed is different from that of the "straight line fitting" 63. Also, in the "straight line fitting" 63, the window 2
Since the entire area of -1 is the processing target area and the right end white line and the left end white line are present in that area, two points (the two straight lines) of the point with the highest frequency and the point with the next highest frequency are obtained.
Since R and "straight line fitting" 13L are left and right half regions, only the point with the highest frequency is obtained. The other processing is the same.

【0050】「直線当てはめ」13Rおよび13Lで求
めた直線それぞれは、極座標系の点(RmR,TmR)およ
び(RmL,TmL)で表わされ、これらの直線をX−Y座
標系で表わすと、 RmR=Xcos(TmR)+Ysin(TmR) および RmL=Xcos(TmL)+Ysin(TmL) となる。これらの直線は、図7の(b)に示す如きもの
である。
"Line Fitting" The straight lines obtained by 13R and 13L are represented by points (RmR, TmR) and (RmL, TmL) in the polar coordinate system. These straight lines are represented by the XY coordinate system. RmR = Xcos (TmR) + Ysin (TmR) and RmL = Xcos (TmL) + Ysin (TmL). These straight lines are as shown in FIG. 7 (b).

【0051】C4.「直線交点計算」C4(図4) 図4を再度参照するとCPU1は、上述の「ボンネット
検出」C3を終了すると、「直線交点計算」C4のブロ
ックに接したブロック中に示す計算で、これらの直線の
交点(xc,yc)を算出する。この計算において、X
chは2値デ−タテ−ブルE(xs,ys)の領域のX
方向中央位置(Xch=255)、Ychは最下端位置
(Ych=509)であり、点(Xch,Ych)は前
述の直線検出で極座標原点に定めたものである。
C4. "Straight line intersection calculation" C4 (FIG. 4) Referring again to FIG. 4, when the above "bonnet detection" C3 is finished, the CPU 1 executes the calculation shown in the block in contact with the "straight line intersection calculation" C4 block. The intersection (xc, yc) of the straight line is calculated. In this calculation, X
ch is the X of the area of the binary data table E (xs, ys).
The center position in the direction (Xch = 255), Ych is the lowermost position (Ych = 509), and the point (Xch, Ych) is the polar coordinate origin determined by the above-described straight line detection.

【0052】C5.「ロ−ル角,パン移動量計算」C5
(図8) ここでロ−ル角とは、図8の(a)に示すように、前記
検出した2直線の交わる角を2等分する直線(車両の縦
軸線)と撮影画面のY軸線とのなす角θrであり、テレ
ビカメラ6bの視野中心線と車両の縦軸線が、それらを
水平面に投影した場合になす角度、すなわちテレビカメ
ラ6bの視野中心線の、車両の縦軸線に対するロ−ル方
向のずれ角である。パン移動量Xpは、撮影画面上で
の、該画面を左右に2等分する縦軸線に対する、ボンネ
ット先端中央(前記2直線の交点)の横方向ずれ量であ
る。自車から進行方向前方の車両(先行車両)を見てこ
の車両との車間距離を算出する場合、ロ−ル角θrある
いはパン移動量Xpが大きいと、自車の進行方向から外
れた方向にある車両や物体を自車レ−ン(自車が走行し
ているレ−ン)上の車両等と誤認する確率が高くなる。
この確率を下げるためにはロ−ル角θrおよびパン移動
量Xpが共に零となるように、カメラ6bの取付角を調
整すればよいが、この調整はむつかしくわずらわしい。
したがってある程度のロ−ル角θrおよびパン移動量X
pは避けられない。そこでこの実施例では、「画面の校
正」Cにより、画面上でロ−ル角θrおよびパン移動量
Xpを零に調整するが、この調整代の算出のために、前
述のC1〜C4の処理を行ない、かつここで説明する
「ロ−ル角,パン移動量計算」C5を行なう。ロ−ル角
θrおよびパン移動量Xpの計算式を、図4のブロック
C5に接するブロックに示す。算出したロ−ル角θrは
ロ−ル角レジスタθrに、算出したパン移動量Xpはパ
ン移動量レジスタXpに格納する。
C5. "Calculation of roll angle and pan movement amount" C5
(FIG. 8) Here, as shown in (a) of FIG. 8, the roll angle is a straight line (vertical axis of the vehicle) that divides the angle at which the two detected straight lines intersect each other and the Y-axis of the photographing screen. Is an angle θr formed by the vertical axis of the field of view of the television camera 6b and the vertical axis of the vehicle when they are projected on a horizontal plane, that is, the center of the field of view of the television camera 6b with respect to the vertical axis of the vehicle. This is the angle of deviation in the vertical direction. The pan movement amount Xp is a lateral shift amount of the center of the bonnet tip (intersection point of the two straight lines) with respect to a vertical axis that bisects the screen on the shooting screen. When a vehicle ahead of the own vehicle in the traveling direction (preceding vehicle) is calculated and the inter-vehicle distance to this vehicle is calculated, if the roll angle θr or the pan movement amount Xp is large, the vehicle is deviated from the traveling direction of the own vehicle. There is a high probability that a certain vehicle or object will be mistaken for a vehicle or the like on the vehicle lane (the lane on which the vehicle is traveling).
In order to reduce this probability, the mounting angle of the camera 6b may be adjusted so that the roll angle θr and the pan movement amount Xp are both zero, but this adjustment is difficult and troublesome.
Therefore, to some extent, the roll angle θr and the pan movement amount X
p is inevitable. Therefore, in this embodiment, the "angle of screen" C is used to adjust the roll angle θr and the pan movement amount Xp to zero on the screen. However, in order to calculate the adjustment margin, the above-described processing of C1 to C4 is performed. And "calculate roll angle and pan movement amount" C5 described here. The calculation formulas for the roll angle θr and the pan movement amount Xp are shown in the block in contact with the block C5 in FIG. The calculated roll angle θr is stored in the roll angle register θr, and the calculated pan movement amount Xp is stored in the pan movement amount register Xp.

【0053】C6〜8.「画像補正」C6〜8(図4) そして、次の、「補正画像メモリイニシャライズ」C
6,「画像回転平行移動」C7および「補間」C8を含
む「画像補正」により、イメ−ジメモリ5aの、入力デ
−タメモリ(1画面分の階調デ−タ記憶領域)の各画素
の階調デ−タのアドレス(図8の(b)のx,y)を、
ロ−ル角θrおよびパン移動量Xpに対応する回転およ
び平行移動を行なったアドレス(θr=0,Xp=0で
撮影画像を表わす画面座標系のアドレス;図8の(b)
のx’,y’)に変換して、入力デ−タメモリ対応の補
正画像メモリ(イメ−ジメモリ5aの、1画面分の階調
デ−タ記憶領域)に書込む(C6,C7)。
C6-8. "Image correction" C6 to 8 (Fig. 4) and the next "corrected image memory initialization" C
6. By "image correction" including "image rotation parallel movement" C7 and "interpolation" C8, the floor of each pixel of the input data memory (one screen of gradation data storage area) of the image memory 5a. The address of the key data (x, y in (b) of FIG. 8) is
The address that has been rotated and moved in parallel corresponding to the roll angle θr and the pan movement amount Xp (the address of the screen coordinate system representing the photographed image at θr = 0, Xp = 0; FIG. 8B).
X ', y') of the input data memory and write it in the corrected image memory corresponding to the input data memory (one screen of the gradation data storage area of the image memory 5a) (C6, C7).

【0054】C6.「補正画像メモリイニシャライズ」
C6(図9) このような回転および平行移動を行なうと、補正した画
面に階調デ−タが存在しない画素が生ずる。このような
画素を後に認識しうるように、「補正画像メモリイニシ
ャライズ」C6では、補正画像メモリの全アドレスに、
撮影画像デ−タ(階調デ−タ)には存在しない「−1」
を表わすデ−タを書込む。その処理の詳細を図9に示
す。
C6. "Corrected image memory initialization"
C6 (FIG. 9) When such rotation and parallel movement are performed, some pixels in the corrected screen do not have gradation data. In order to be able to recognize such pixels later, in the “correction image memory initialization” C6, all addresses of the correction image memory are
"-1" that does not exist in photographed image data (gradation data)
Write the data representing the. The details of the processing are shown in FIG.

【0055】C7.「画像回転平行移動」C7(図1
0) この処理内容を図10に示す。これにおいては、入力デ
−タメモリのアドレス(x,y);x=0〜511,y
=0〜511、のそれぞれを、撮影画像を表わす画面座
標系(補正画像メモリ)のアドレス(xn,yn);xn=
0〜511,yn=0〜511、に変換して(22〜2
8,30〜33)、入力デ−タメモリのアドレス(x,
y)の階調デ−タを、補正画像メモリの、該アドレス
(x,y)を変換したアドレス(x',y')に書込む
(29)。これにより、補正画像メモリの階調デ−タを
CRT4bに表示すると、図8の(a)に示すロ−ル角
θrおよびパン移動量Xp共に実質上零の、図16に示
す如き画像が表示される。ただし、この「画像回転平行
移動」により、補正画像メモリ上には、階調デ−タが存
在しないアドレス(画素=空白画素)が生じることがあ
り、その場合そこには、上述の「補正画像メモリイニシ
ャライズ」C6により、「−1」を示すデ−タが残存し
ていることになる。
C7. "Image rotation parallel movement" C7 (Fig. 1
0) The contents of this processing are shown in FIG. In this case, the input data memory address (x, y); x = 0 to 511, y
= 0 to 511, the address (xn, yn) of the screen coordinate system (correction image memory) representing the captured image; xn =
0-511, yn = 0-511 (22-2
8, 30 to 33), the address (x,
The gradation data of y) is written in the corrected image memory at the address (x ', y') obtained by converting the address (x, y) (29). As a result, when the gradation data of the corrected image memory is displayed on the CRT 4b, an image as shown in FIG. 16 in which both the roll angle θr and the pan movement amount Xp shown in FIG. 8A are substantially zero is displayed. To be done. However, due to this "image rotation parallel movement", an address (pixel = blank pixel) where gradation data does not exist may occur in the corrected image memory, and in that case, there is the above-mentioned "corrected image". By the memory initialization "C6", the data indicating "-1" remains.

【0056】C8.「補間」C8(図11の(a)&図1
2) 「補間」C8では、階調デ−タが存在しない画素に、そ
の周りの4画素の階調デ−タの平均値を割り当てる。周
り4画素のいずれかが空白画素であると、この割り当て
はしない。この「補間」C8の内容を図11の(a)お
よび図12に示す。これにおいては、補正画像メモリの
アドレス(画素)を順次に指定して、指定した画素(注
目画素)が空白画素(メモリデ−タが「−1」を示すも
の)であるかをチェックして(36)、注目画素が空白
画素であると、図11の(b)に示すように、その左隣
りの画素ロ,右隣りの画素ハ,上側の画素イおよび下側
の画素ニに階調デ−タがあるかをこの順にチェックし、
これら4個の画素の1つでも空白画素であるとそこで、
該注目画素に対する処理は終了(空白画素のまま放置)
し、注目画素を次に移す(39−42,42−46,4
6−50,50−54)。前記4画素を1つづつ階調デ
−タがあるかチェックしたとき、階調デ−タがあるとそ
れを累算レジスタIsの内容に加算し、得た和を累算レ
ジスタIsに更新メモリし(40,44,48,5
2)、回数レジスタNsの内容を1インクレメントする
(41,45,49,53)。前記4個の画素のすべて
についてこれを終了すると、これらの画素の階調デ−タ
の平均値Ic(x,y)を算出して、注目画素にメモリ
する(54,55)。
C8. "Interpolation" C8 ((a) of Fig. 11 & Fig. 1
2) In the "interpolation" C8, the average value of the gradation data of the four pixels surrounding the gradation data is assigned to the pixel having no gradation data. If any of the surrounding four pixels is a blank pixel, this allocation is not performed. The contents of this "interpolation" C8 are shown in FIG. 11 (a) and FIG. In this case, the addresses (pixels) of the corrected image memory are sequentially designated, and it is checked whether or not the designated pixel (pixel of interest) is a blank pixel (memory data indicates "-1") ( 36), if the pixel of interest is a blank pixel, as shown in (b) of FIG. -Check for data in this order,
If even one of these four pixels is a blank pixel,
Processing for the pixel of interest ends (leave blank pixel as is)
Then, the pixel of interest is moved to the next (39-42, 42-46, 4
6-50, 50-54). When it is checked whether each of the 4 pixels has gradation data, if there is gradation data, it is added to the contents of the accumulation register Is, and the obtained sum is updated in the accumulation register Is. Shi (40,44,48,5
2) The content of the frequency register Ns is incremented by 1 (41, 45, 49, 53). When this is completed for all of the four pixels, the average value Ic (x, y) of the gradation data of these pixels is calculated and stored in the target pixel (54, 55).

【0057】以上で、「画面の校正」C(図3)を終了
し、CPU1は次に「昼夜の判定」Sを実行する。この
処理Sは、簡単に言うと、イメ−ジメモリ5a上に存在
する画像デ−タを処理して周囲の明るさを調べ、昼と夜
とを自動的に識別するものであり、その識別結果はフラ
グS_night に反映される。この処理は多少複雑である
ので、便宜上、その詳細な説明は後まわしにする。
As described above, the "screen calibration" C (FIG. 3) is completed, and the CPU 1 next executes "day / night judgment" S. Briefly, this processing S is to process the image data existing on the image memory 5a to check the ambient brightness and automatically discriminate between day and night. Is reflected in the flag S_night. Since this process is somewhat complicated, its detailed description will be given later for convenience.

【0058】「昼夜の判定」Sに続いて、CPU1は
「ウィンドウ2−1内の車両検出」DET1を実行す
る。このDET1ではまず「自車レ−ン検出」Dを実行
する。
Subsequent to the "day / night determination" S, the CPU 1 executes "vehicle detection in window 2-1" DET1. In this DET1, first, "own vehicle lane detection" D is executed.

【0059】D.「自車レ−ン検出」D(図13) この内容を図13に示す。まず「特徴点検出ウィンドウ
2−1セット」D1を実行する。
D. "Own vehicle lane detection" D (Fig. 13) This content is shown in Fig. 13. First, the "feature point detection window 2-1 set" D1 is executed.

【0060】D1.「特徴点検出ウィンドウ2−1セッ
ト」D1(図14) この内容は、前述の「特徴点検出ウィンドウ1セット」
C1(図5)と類似であるが、ウィンドウ2−1のサイ
ズと位置がウィンドウ1とは異なり、しかも、ウィンド
ウ2−1を適用するメモリは補正画像メモリである。図
14および図16に示すように、ウィンドウ2−1は、
ウィンドウ1の上側に設定される。
D1. "Feature point detection window 2-1 set" D1 (Fig. 14)
Similar to C1 (FIG. 5), but the size and position of window 2-1 is different from window 1, and the memory to which window 2-1 is applied is a corrected image memory. As shown in FIGS. 14 and 16, the window 2-1 is
It is set on the upper side of the window 1.

【0061】D2.「特徴点検出(UP)」D2 ウィンドウ2−1を設定すると、補正画像メモリ上の該
ウィンドウ2−1内の特徴点を検出する。この内容は前
述の「特徴点検出(UP)」C2と同様であり、「特徴
点検出(UP)」D2でも特徴点を表わす「1」情報
は、2値デ−タテ−ブルE(xs,ys)に書込む。た
だし、検出領域がウィンドウ2−1である点、および、
処理対象デ−タが補正画像メモリ上のデ−タである点、
が異なる。 D3.「左右白線検出」D3(図15) ここでも前述の「ボンネット検出」C3と類似の処理
で、自車レ−ンの右端白線を近似する直線および左端白
線を近似する直線を検出する。ただし、ウィンドウ2−
1がウィンドウ1とサイズおよび位置が異なるので、極
座標原点が異なる(図16)。また、ウィンドウ2−1
は左,右に2分割しないので、左,右端白線の粗検出を
行なう第1回のハフ変換67で、度数最大点と次に大き
い点の2点を検出する点が異なる。先の「ボンネット検
出」C3では、「直線当てはめ」13R,13Lの内容
の詳細な説明を省略しているので、ここで、「直線当て
はめ」63の内容を、詳細に説明する。
D2. “Feature point detection (UP)” D2 When the window 2-1 is set, the feature points in the window 2-1 on the corrected image memory are detected. This content is similar to the above-mentioned "feature point detection (UP)" C2, and in "feature point detection (UP)" D2, the "1" information representing the feature point is the binary data table E (xs, ys). However, the detection area is the window 2-1 and
That the processing target data is the data on the corrected image memory,
Is different. D3. "Left and Right White Line Detection" D3 (FIG. 15) Here, similar processing to the above-mentioned "bonnet detection" C3 is performed to detect a straight line approximating the right end white line and a straight line approximating the left end white line of the own vehicle lane. However, window 2-
1 differs from window 1 in size and position, so the polar origin is different (FIG. 16). Also, window 2-1
Is not divided into two parts, left and right. Therefore, the first Hough transform 67 that roughly detects left and right white lines is different in that it detects two points, the maximum frequency point and the next largest point. In the above “bonnet detection” C3, the detailed description of the contents of the “straight line fitting” 13R and 13L is omitted, and therefore, the contents of the “straight line fitting” 63 will be described in detail.

【0062】63.「直線当てはめ」63(図17&図
18) この内容を図17および図18に示す。なお、「直線当
てはめ」63は、ウィンドウ2−1の全体に対して適用
される点に注意されたい。ここではまず、2値デ−タテ
−ブルE(xs,ys)上の特徴点をρ−θ極座標系に
変換してこの座標系の各点(r,t)の曲線が通る度数
カウント値を書込む、イメ−ジメモリ5aのある領域に
割り当てたデ−タテ−ブルHGn(r,t)、ここでは
n=1、のデ−タをクリアする(図17の65;詳細は
図19)。次にハフ変換パラメ−タ(変換領域およびハ
フ変換密度)を設定し(図17の66)、第1回のハフ
変換(HG1)を行なう(図17の67;詳細は図2
0)。
63. "Straight line fit" 63 (Figs. 17 & 18) This content is shown in Figs. 17 and 18. Note that the “straight line fit” 63 is applied to the entire window 2-1. Here, first, the characteristic points on the binary data table E (xs, ys) are converted into the ρ-θ polar coordinate system, and the frequency count value that the curve of each point (r, t) of this coordinate system passes The data of the data table HGn (r, t) assigned to a certain area of the image memory 5a to be written, where n = 1 in this case, is cleared (65 in FIG. 17; details are shown in FIG. 19). Next, the Hough transform parameters (transformation area and Hough transform density) are set (66 in FIG. 17), and the first Hough transform (HG1) is performed (67 in FIG. 17; details are shown in FIG. 2).
0).

【0063】「ハフ変換(HG1)」67(図20) 図20を参照する。これにおいては、2値デ−タテ−ブ
ルE(xs,ys)の、補正画像メモリ対応の一画面の
中のウィンドウ2−1対応領域、すなわち始点が(51
1,350)、終点が(0,250)の領域、に特徴点
(「1」情報)があるかをチェックする(87〜89,
95〜98)。特徴点がある毎に、該点を、X−Y座標
上で原点が(Xch=255,Ych=350)、θが
0〜πの範囲、かつ、θの単位が(π/2)×(1/3
2)の極座標ρ−θ上の位置(r,t)、t=0〜3
1、rは図20のステップ91のブロック中に示す演算
式で算出される値、に変換し、データテーブルHGn
(ここではn=1)の、位置(r,t)対応のアドレス
のデータを1インクレメントする(90〜94)。前に
説明したように、X−Y座標上の一点は極座標ρ−θに
変換すると極座標ρ−θ上では曲線となるので、前記変
換された位置(r,t)は、t=0〜31のそれぞれに
対応する32個(それらの連なりが曲線)となる。デー
タテーブルHGnの、これらの位置(r,t)に割り当
てたアドレスのデータが1インクレメントされるので、
各アドレスのデータは、X−Y座標上の特徴点それぞれ
の、ρ−θ座標上の曲線が通る度数を表わすことにな
る。
"Hough Transform (HG1)" 67 (FIG. 20) Referring to FIG. In this case, the area corresponding to the window 2-1 in the one screen corresponding to the corrected image memory of the binary data table E (xs, ys), that is, the starting point is (51
It is checked whether there is a feature point (“1” information) in the area whose end point is (0,250) (1,350) (87 to 89,
95-98). Every time there is a characteristic point, the origin is (Xch = 255, Ych = 350) on the XY coordinates, θ is in the range of 0 to π, and the unit of θ is (π / 2) × ( 1/3
Position (r, t) on the polar coordinate ρ-θ of 2), t = 0 to 3
20, r is converted into a value calculated by the arithmetic expression shown in the block of step 91 of FIG.
The data of the address (n = 1 in this case) corresponding to the position (r, t) is incremented by 1 (90 to 94). As described above, since one point on the XY coordinates becomes a curve on the polar coordinate ρ-θ when converted to the polar coordinate ρ-θ, the converted position (r, t) is t = 0 to 31. 32 (corresponding to a curve) corresponding to each of the above. Since the data of the addresses assigned to these positions (r, t) in the data table HGn is incremented by 1,
The data at each address represents the frequency at which the characteristic point on the XY coordinates passes through the curve on the ρ-θ coordinates.

【0064】図20のステップ91は、 r={(xs−Xch)・cos〔(t・(Te−Ts)/Td)+Ts〕+ (Ych−ys)・sin〔(t・(Te−Ts)/Td)+Ts〕−Rs}×Rd/(Re−Rs)・・・(1) を算出して、算出値rをレジスタrに格納することを意
味する。この(1)式を変形すると次の(1a)式となる。
In step 91 of FIG. 20, r = {(xs-Xch) .cos [(t. (Te-Ts) / Td) + Ts] + (Ych-ys) .sin [(t. (Te-Ts ) / Td) + Ts] −Rs} × Rd / (Re−Rs) (1) is calculated and the calculated value r is stored in the register r. When this equation (1) is modified, it becomes the following equation (1a).

【0065】 r/Rd/(Re−Rs)+Rs= (xs−Xch)・cos〔(t・(Te−Ts)/Td)+Ts〕 +(Ych−ys)・sin〔(t・(Te−Ts)/Td)+Ts〕 ・・・(1a) これは次の(1b)式で表わすことができる。R / Rd / (Re-Rs) + Rs = (xs-Xch) .cos [(t. (Te-Ts) / Td) + Ts] + (Ych-ys) .sin [(t. (Te- Ts) / Td) + Ts] (1a) This can be expressed by the following equation (1b).

【0066】 r/d+c= (xs−Xch)・cos(a・t+b) +(Ych−ys)・sin(a・t+b) ・・・(1b) ここで、a=(Te−Ts)/Td,b=Ts,c=Rs,d=Rd/
(Re−Rs)である。
R / d + c = (xs−Xch) · cos (a · t + b) + (Ych−ys) · sin (a · t + b) (1b) where a = (Te−Ts) / Td , B = Ts, c = Rs, d = Rd /
(Re-Rs).

【0067】この(1)式において、(Xch,Ych)は、極座標
原点のX−Y座標上の位置であり、ここでは Xch=255、Ych=350 である。xsは特徴点の、X−Y座標上のX座標値、y
sはY座標値である。
In the equation (1), (Xch, Ych) is the position on the XY coordinate of the polar coordinate origin, and here Xch = 255 and Ych = 350. xs is the X coordinate value of the feature point on the XY coordinate, y
s is a Y coordinate value.

【0068】ここで、 θ=〔(t・(Te−Ts)/Td)+Ts〕 と表わすと、図15のステップ62と図17のステップ
66での設定により、 (Te−Ts)/Td=π/32、 Ts=0 であるので、 θ=t・π/32 =(π/32)t a=π/32,b=0,c=0,d=1/8 であり、t=0〜31であるので、θ=0,θ=π/3
2,θ=2π/32,θ=3π/32,・・・,31π
/32と、π/32を最小単位として32点のρ値rが
算出される。すなわちこの第1ハフ変換では、ウィンド
ウ2−1の領域の特徴点各点が、θがπ/32を最小単
位とし、かつ0以上π未満の範囲の極座標平面上の位置
(r,t)に変換される。
Here, if θ = [(t (Te-Ts) / Td) + Ts] is expressed, (Te-Ts) / Td = by the setting in step 62 of FIG. 15 and step 66 of FIG. Since π / 32 and Ts = 0, θ = t · π / 32 = (π / 32) ta = π / 32, b = 0, c = 0, d = 1/8, and t = 0 .About.31, θ = 0, θ = π / 3
2, θ = 2π / 32, θ = 3π / 32, ..., 31π
/ 32 and π / 32 are the minimum units, and the ρ value r of 32 points is calculated. That is, in the first Hough transform, each of the feature points in the area of the window 2-1 is located at a position (r, t) on the polar coordinate plane in which θ has a minimum unit of π / 32 and is 0 or more and less than π. To be converted.

【0069】上記(1)式の、Rd/(Re−Rs)は、図15のス
テップ62と図17のステップ66での設定により、 Rd/(Re−Rs)=32/256 である。これは、θ=π/32をtの1単位としている
ので、すなわち、πを32分割しているので、これに対
応してρの範囲0〜256も同様に32分割するもので
ある。すなわちrの一単位は256/32である。
Rd / (Re-Rs) in the above equation (1) is Rd / (Re-Rs) = 32/256 by the setting in step 62 of FIG. 15 and step 66 of FIG. This is because θ = π / 32 is one unit of t, that is, π is divided into 32, and correspondingly, the range 0 to 256 of ρ is also divided into 32. That is, one unit of r is 256/32.

【0070】要約すると、「ハフ変換(HG1)」67
では、(1)式は具体的には次の(1-1)式である。
In summary, "Hough transform (HG1)" 67
Then, the expression (1) is specifically the following expression (1-1).

【0071】 r={(xs−255)・cos〔(t・(π/32)〕+(350−ys)・sin〔(t・(π/32)〕}×1/ 8 ・・・(1-1) これを(1b)式の形に変形して、 r/d1+c1= (xs−Xch)・cos(a1・t+b1) +(Ych−ys)・sin(a1・t+b1) ・・・(1-1b) で表わすと、a1=π/32,b1=0,c1=0,d1
1/8 である。
R = {(xs−255) · cos [(t · (π / 32)] + (350−ys) · sin [(t · (π / 32)]} × 1/8 ( 1-1) By transforming this into the form of equation (1b), r / d 1 + c 1 = (xs−Xch) ・ cos (a 1・ t + b 1 ) + (Ych−ys) ・ sin (a 1・t + b 1 ) ... (1-1b), a 1 = π / 32, b 1 = 0, c 1 = 0, d 1 =
It is 1/8.

【0072】このように第1ハフ変換では、ρ−θ極座
標のθの単位をπ/32と粗いものとし、しかもρの単
位を256/32と粗いものとしているので、1つの特
徴点(xs,ys)をρ−θ極座標に変換する演算回数
(tの切換回数32すなわち(1)式の演算を行なう回数)
が極く少く、rデータビット数が少く、特徴点各点をρ
−θ極座標へ変換する速度が速く、かつ、度数カウント
処理速度が速い。
As described above, in the first Hough transform, the unit of θ in the ρ-θ polar coordinate is coarse as π / 32, and the unit of ρ is coarse as 256/32, so that one feature point (xs , Ys) to ρ-θ polar coordinates (the number of times t is changed 32, that is, the number of times the calculation of the equation (1) is performed)
Is extremely small, the number of r data bits is small, and each feature point is ρ
-The conversion speed to polar coordinates is fast, and the frequency count processing speed is fast.

【0073】図17を再度参照すると、CPU1は、第
1回のハフ変換である「ハフ変換(HG1)」67を終
了すると、「最大点探索(HG1)」68を実行する。
その内容を図21に示す。
Referring to FIG. 17 again, when the CPU 1 completes the first Hough transform "Hough transform (HG1)" 67, it executes "Maximum point search (HG1)" 68.
The contents are shown in FIG.

【0074】「最大点探索(HG1)」68(図21) 前述のデータテーブルHGn(ここではn=1)の各ア
ドレス(r,t)のデータ(度数)を順次に読出して
(図21の99,100,105〜108)、読出した
データをレジスタGmのデータと比較して、読出しデー
タの方が大きいと読出しデータをレジスタGmに更新メ
モリし、かつこの時読出しデータのアドレス(r,t)
のrはレジスタrm11に、tはレジスタtm11に更新メモ
リする(101〜104)。読出しデ−タがGmより小
さいと、読出しデ−タをレジスタGmnのデ-タと比較し
て、読出しデータの方が大きいと読出しデータをレジス
タGmnに更新メモリし、かつこの時読出しデータのアド
レス(r,t)のrはレジスタrm12に、tはレジスタ
tm12に更新メモリする(102A〜102C)。デー
タテーブルHGnのすべてのアドレスに対してこのよう
な処理を終了すると、レジスタGmにはデータテーブル
HGnにある度数の最大値が、レジスタrm11,tm11に
は該最大値があるアドレス(rm11,tm11)が格納され
ていることになる。レジスタGmnにはデータテーブルH
Gnにある度数の最大値の次に大きい値が、レジスタr
m12,tm12には該最大値があるアドレス(rm12,tm1
2)が格納されていることになる。
"Maximum point search (HG1)" 68 (FIG. 21) The data (frequency) of each address (r, t) of the above-mentioned data table HGn (here, n = 1) is sequentially read (see FIG. 21). 99, 100, 105-108), the read data is compared with the data in the register Gm, and if the read data is larger, the read data is updated and stored in the register Gm, and at this time, the read data address (r, t )
Of r is updated in the register rm11 and t is updated in the register tm11 (101 to 104). If the read data is smaller than Gm, the read data is compared with the data in the register Gmn, and if the read data is larger, the read data is updated in the register Gmn and the address of the read data is read at this time. R of (r, t) is updated and stored in the register rm12 and t in the register tm12 (102A to 102C). When such processing is completed for all the addresses of the data table HGn, the register Gm has the maximum value of the frequency in the data table HGn, and the registers rm11 and tm11 have the maximum value (rm11, tm11). Will be stored. The data table H is stored in the register Gmn.
The next largest value of the frequency in Gn is the register r.
Addresses (rm12, tm1) that have the maximum value in m12, tm12
2) is stored.

【0075】図17を再度参照すると、CPU1は、
「最大点探索(HG1)」68を終了すると、r−t極
座標系で表現された前記アドレス(rm11,tm11)を、
X−Y座標系画面に対応するρ−θ極座標系アドレス
(Rm11,Tm11)に変換する(69R)。ここでは、 Rm11=rm11・(Re1−Rs1)/Rd1 ・・・(2) Tm11=tm11・(Te1−Ts1)/Td1 ・・・(3) を算出して、算出したRm11をレジスタRm11に、算出し
たTm11をレジスタTm11に格納する。同様に、アドレス
(rm12,tm12)を、X−Y座標系画面に対応するρ−
θ極座標系アドレス(Rm12,Tm12)に変換する(69
L)。図15のステップ62および図17のステップ6
6での設定により、ここでは、 (Re1−Rs1)=256 Rd1=32 (Te1−Ts1)=π Td1=32 であり、(2)式は、Rm11=8・rm11 を意味し、(3)式
は、Tm11=(π/32)・tm11を意味する。アドレス(Rm
11,Tm11),(Rm12,Tm12)をX−Y座標系への変
換式に代入すると、補正画像メモリの画像データを表示
する画面上の、ウィンドウ2−1の領域にある、2直線
(低密度ハフ変換67により検出した直線:以下第1回
検出の直線と称す)を示す式が得られる。
Referring again to FIG. 17, the CPU 1
When the “maximum point search (HG1)” 68 is completed, the address (rm11, tm11) expressed in the rt polar coordinate system is changed to
It is converted to ρ-θ polar coordinate system address (Rm11, Tm11) corresponding to the X-Y coordinate system screen (69R). Here, Rm11 = rm11. (Re1-Rs1) / Rd1 (2) Tm11 = tm11. (Te1-Ts1) / Td1 (3) is calculated, and the calculated Rm11 is stored in the register Rm11. The calculated Tm11 is stored in the register Tm11. Similarly, the address (rm12, tm12) is set to ρ− corresponding to the screen of the XY coordinate system.
Convert to θ polar coordinate system address (Rm12, Tm12) (69
L). Step 62 of FIG. 15 and Step 6 of FIG.
According to the setting in 6, here, (Re1−Rs1) = 256 Rd1 = 32 (Te1−Ts1) = π Td1 = 32, and the expression (2) means Rm11 = 8 · rm11, and (3) The formula means Tm11 = (π / 32) · tm11. Address (Rm
Substituting (11, Tm11), (Rm12, Tm12) into the conversion formula to the XY coordinate system, the two straight lines (low line) in the area of the window 2-1 on the screen displaying the image data of the corrected image memory are displayed. A straight line detected by the density Hough transform 67: hereinafter referred to as a first detection straight line) is obtained.

【0076】次にCPU1は、イメージメモリ5aのあ
る領域に割り当てたデータテーブルHGn(r,t)、
ここではn=2、のデータをクリアする(図17の70
R)。次に第2回のハフ変換である「ハフ変換(HG
2)」72Rの変換パラメータを設定する(図17の7
1R)。前述の第1回のハフ変換ではθの範囲Ts〜T
eを0〜π、単位(Te−Ts)/Tdをπ/32と
し、ρの範囲Rs〜Reは0〜256、単位Rd/(R
e−Rs)を1/8としたが、ここでは、θおよびρの
範囲を、前記(Rm11,Tm11)を中心とする小範囲に設
定し、θおよびρの単位も小さく設定する。具体的に
は、 Rs=8(rm11−2) Re=8(rm11+2) Rd=32 Ts=(π/32)(tm11−2) Te=(π/32)(tm11+2) Td=32 を設定する。なお、rm11=Rm11/8,tm1=Tm11/
(π/32)である。そして「ハフ変換(HG2)」72R
を行なう。
Next, the CPU 1 causes the data table HGn (r, t) assigned to an area of the image memory 5a,
Here, the data of n = 2 is cleared (70 in FIG. 17).
R). Next, the second Hough transform, "Hough transform (HG
2) ”72R conversion parameter is set (7 in FIG. 17).
1R). In the above-mentioned first Hough transform, the range of θ from Ts to T
where e is 0 to π, the unit (Te-Ts) / Td is π / 32, the range Rs to Re of ρ is 0 to 256, and the unit Rd / (R
Although e−Rs) is set to 1/8, here, the range of θ and ρ is set to a small range centered on the above (Rm11, Tm11), and the units of θ and ρ are set small. Specifically, Rs = 8 (rm11-2) Re = 8 (rm11 + 2) Rd = 32 Ts = (π / 32) (tm11-2) Te = (π / 32) (tm11 + 2) Td = 32 are set. . Note that rm11 = Rm11 / 8, tm1 = Tm11 /
(π / 32). And "Hough conversion (HG2)" 72R
Perform

【0077】「ハフ変換(HG2)」72R この「ハフ変換(HG2)」72Rの内容は、図20を
参照して説明した「ハフ変換(HG1)」67と同様で
あるが、図20中で、n=2である点と、ブロック91
内の演算式(前述の(1)式)の内容が異なる。ステップ7
1Rで設定したパラメータに基づいた、図20のステッ
プ91の演算式すなわち前記(1)式は具体的には次の(1-
2)式となる。
"Hough Transform (HG2)" 72R The content of this "Hough Transform (HG2)" 72R is the same as that of the "Hough Transform (HG1)" 67 described with reference to FIG. , N = 2, and block 91
The contents of the arithmetic expression ((1) above) are different. Step 7
Based on the parameters set in 1R, the arithmetic expression of step 91 of FIG. 20, that is, the above equation (1) is
It becomes the formula 2).

【0078】 r={(xs−255)・cos〔t・(π/256)+π(tm11−2)/32〕+ (350−ys)・sin〔t・(π/256)+π(tm11−2)/32〕−8(rm11−2)}×(1/1 ) ・・・(1
−2) これを(1b)式の形に変形して、 r/d2+c2= (xs−Xch)・cos(a2・t+b2) +(Ych−ys)・sin(a2・t+b2) ・・・(1-2b) で表わすと、前述の第1回の変換で、 a1=(π/32), b1=0, c1=0,
1=1/8 に対して、 a2=(π/256),b2=π(tm11−2)/32,c2=8(rm11
−2),d2=1 となる。
R = {(xs−255) · cos [t · (π / 256) + π (tm11-2) / 32] + (350−ys) · sin [t · (π / 256) + π (tm11− 2) / 32] -8 (rm11-2)} × (1/1) ・ ・ ・ (1
-2) which (1b) was modified into the form of equation, r / d 2 + c 2 = (xs-Xch) · cos (a 2 · t + b 2) + (Ych-ys) · sin (a 2 · t + b 2 ) When represented by (1-2b), in the first conversion described above, a 1 = (π / 32), b 1 = 0, c 1 = 0,
For d 1 = 1/8, a 2 = (π / 256), b 2 = π (tm11-2) / 32, c 2 = 8 (rm11
−2), d 2 = 1.

【0079】t=0〜31であるので、 θ= π(tm11−2)/32, θ= (π/256)+π(tm11−2)/32, θ= 2(π/256)+π(tm11−2)/32, θ= 3(π/256)+π(tm11−2)/32, ・ ・ ・ θ=31(π/256)+π(tm11−2)/32, と、(π/256)を最小単位として32点のθに対応するρ
値rが算出される。すなわちこの第2ハフ変換では、ウ
ィンドウ2−1の領域の特徴点各点が、θが(π/256)を
最小単位(tの1単位がπ/256)とし、かつθ=π(tm
11−2)/32 以上θ=31(π/256)+π(tm11−2)/32 以下
の範囲の極座標平面上の位置(r,t)に変換される。
ρの範囲は8(rm11−2)以上8(rm11+2)以下
で、ρの単位はこの範囲を32分割するものである。す
なわちrの1単位は32/32=(1/1)=1である。し
たがって、第2ハフ変換(72R)はウィンドウ2−1
の特徴点を、第1ハフ変換(67)よりも、狭い範囲か
つ高い密度の極座標に変換するものである。特徴点の1
つの極座標変換では、この第2ハフ変換(72R)でも
t=0〜31、すなわち32回の演算を行なうので、第
1ハフ変換(67)と処理時間は同程度である。1つの
特徴点(xs,ys)をρ−θ極座標に変換する演算回
数が極く少く、rデータビット数が少く、特徴点各点を
ρ−θ極座標へ変換する速度が速く、かつ、度数カウン
ト処理速度が速い。
Since t = 0 to 31, θ = π (tm11-2) / 32, θ = (π / 256) + π (tm11-2) / 32, θ = 2 (π / 256) + π (tm11 −2) / 32, θ = 3 (π / 256) + π (tm11-2) / 32, ··· θ = 31 (π / 256) + π (tm11-2) / 32, and (π / 256) Ρ corresponding to 32 points θ with the minimum unit
The value r is calculated. That is, in the second Hough transform, each of the feature points in the area of the window 2-1 has θ of (π / 256) as the minimum unit (one unit of t is π / 256), and θ = π (tm
It is converted to a position (r, t) on the polar coordinate plane within the range of 11-2) / 32 or more and θ = 31 (π / 256) + π (tm11-2) / 32 or less.
The range of ρ is 8 (rm11-2) or more and 8 (rm11 + 2) or less, and the unit of ρ is to divide this range into 32 parts. That is, one unit of r is 32/32 = (1/1) = 1. Therefore, the second Hough transform (72R) is the window 2-1.
Is converted into polar coordinates having a narrower range and higher density than the first Hough transform (67). Feature point 1
In one polar coordinate conversion, the second Hough transform (72R) also performs t = 0 to 31, that is, 32 times of calculation, so that the processing time is approximately the same as that of the first Hough transform (67). The number of operations for converting one feature point (xs, ys) into ρ-θ polar coordinates is extremely small, the number of r data bits is small, the speed of converting each feature point into ρ-θ polar coordinates is high, and the frequency is The count processing speed is fast.

【0080】図17を再度参照すると、CPU1は、第
2回のハフ変換である「ハフ変換(HG2)」72Rを
終了すると、「最大点探索(HG2)」73Rを実行す
る。その内容は前述の、「最大点探索(HG1)」68
と同様である。ただしn=2である。この処理を終了す
ると、レジスタGmにはデータテーブルHGnにある度
数の最大値が、レジスタrm2,tm2には該最大値がある
アドレス(rm2,tm2)が格納されていることになる。
Referring to FIG. 17 again, when the CPU 1 completes the second Hough transform "Hough transform (HG2)" 72R, it executes "Maximum point search (HG2)" 73R. The contents are the above-mentioned “maximum point search (HG1)” 68.
Is the same as However, n = 2. When this process ends, the maximum value of the frequency in the data table HGn is stored in the register Gm, and the address (rm2, tm2) having the maximum value is stored in the registers rm2 and tm2.

【0081】図17を再度参照すると、CPU1は、
「最大点探索(HG2)」73Rを終了すると、r−t
極座標系で表現された前記アドレス(rm2,tm2)を、
X−Y座標系画面に対応するρ−θ極座標系アドレス
(Rm2,Tm2)に変換する(74R)。演算式は、 Rm2=rm2・(Re2−Rs2)/Rd2+Rs2 ・・・(4) Tm2=tm2・(Te2−Ts2)/Td2+Ts2 ・・・(5) である。算出したRm2をレジスタRm2に、算出したTm2
をレジスタTm2に格納する(74R)。図17のステッ
プ71Rでの設定により、ここでは、 (Re2−Rs2)=32 Rd2=32 (Te2−Ts2)=π/8 Td2=32 であり、(4)式は、具体的には、 Rm2=rm2+8rm11−16 ・・・(4-1) であり、(5)式は、具体的には、 Tm2=tm2・(π/256)+(π/32)・(tm11−2) ・・・(5-1) を意味する。アドレス(Rm2,Tm2)をX−Y座標系へ
の変換式に代入すると、補正画像メモリの画像データを
表示する画面上の、ウィンドウ2の領域にある、1つの
直線(中密度ハフ変換72Rにより検出した直線:以下
第2回検出の直線と称す)を示す式が得られる。
Referring again to FIG. 17, the CPU 1
When the "maximum point search (HG2)" 73R ends, r-t
The address (rm2, tm2) expressed in polar coordinate system,
It is converted into ρ-θ polar coordinate system address (Rm2, Tm2) corresponding to the XY coordinate system screen (74R). The calculation formula is Rm2 = rm2 (Re2-Rs2) / Rd2 + Rs2 (4) Tm2 = tm2 (Te2-Ts2) / Td2 + Ts2 (5) The calculated Rm2 is stored in the register Rm2 and the calculated Tm2 is stored.
Is stored in the register Tm2 (74R). According to the setting in step 71R of FIG. 17, here, (Re2-Rs2) = 32 Rd2 = 32 (Te2-Ts2) = π / 8 Td2 = 32, and the equation (4) is, specifically, Rm2 = Rm2 + 8rm11-16 (4-1), and the equation (5) is specifically expressed as follows: Tm2 = tm2 · (π / 256) + (π / 32) · (tm11-2) Means (5-1). By substituting the address (Rm2, Tm2) into the conversion formula to the XY coordinate system, one straight line in the area of the window 2 on the screen displaying the image data of the corrected image memory (with the medium density Hough transform 72R The detected straight line: hereinafter referred to as the second detected straight line) is obtained.

【0082】次にCPU1は、イメージメモリ5aのあ
る領域に割り当てたデータテーブルHGn(r,t)、
ここではn=3、のデータをクリアする(図17の75
R)。次に第3回のハフ変換である「ハフ変換(HG
3)」77Rの変換パラメータを設定する(図18の7
6R)。ここでは、θおよびρの範囲を、前記「ハフ変
換(HG2)」72Rの場合よりも、前記(Rm2,Tm
2)を中心とする更に小さい範囲に設定し、θおよびρ
の単位も小さく設定する(76R)。具体的には、 Rs=rm2+8rm11−18 Re=rm2+8rm11−14 Rd=32 Ts=(π/256)tm2+(π/32)tm1−9π/128 Te=(π/256)tm2+(π/32)tm1−7π/128 Td=32 を設定する。なお、rm2,tm2は、Rm2,Tm2に対して
上記(4-1)式,(5-1)式で規定されるものである。そして
「ハフ変換(HG3)」77Rを行なう。
Next, the CPU 1 causes the data table HGn (r, t) assigned to a certain area of the image memory 5a,
Here, the data of n = 3 is cleared (75 in FIG. 17).
R). Next, the third Hough transform, "Hough Transform (HG
3) ”77R conversion parameter is set (7 in FIG. 18).
6R). Here, the range of θ and ρ is set to the above (Rm2, Tm
2) centered on a smaller range, and θ and ρ
The unit of is also set small (76R). Specifically, Rs = rm2 + 8rm11-18 Re = rm2 + 8rm11-14 Rd = 32 Ts = (π / 256) tm2 + (π / 32) tm1-9π / 128 Te = (π / 256) tm2 + (π / 32) tm1 Set -7π / 128 Td = 32. It should be noted that rm2 and tm2 are defined by the above equations (4-1) and (5-1) with respect to Rm2 and Tm2. Then, "Hough conversion (HG3)" 77R is performed.

【0083】「ハフ変換(HG3)」77R この「ハフ変換(HG3)」77Rの内容は、前述の
「ハフ変換(HG2)」72Rと同様であるが、図20
中に示すハフ変換処理で、n=3である点と、図20中
のブロック91内の演算式(前述の(1)式)の内容が異な
る。ステップ76Rで設定したパラメータに基づいた、
図20のステップ91の演算式すなわち前記(1)式は、
この「ハフ変換(HG3)」77Rでは、具体的には次
の(1-3)式となる。
"Hough Transform (HG3)" 77R This "Hough Transform (HG3)" 77R has the same contents as the above-mentioned "Hough Transform (HG2)" 72R, but FIG.
In the Hough transform process shown therein, the point that n = 3 is different from the content of the arithmetic expression (the above-mentioned expression (1)) in the block 91 in FIG. Based on the parameters set in step 76R,
The arithmetic expression of step 91 of FIG. 20, that is, the expression (1) is
In this “Hough transform (HG3)” 77R, specifically, the following equation (1-3) is obtained.

【0084】 r={(xs−255)・cos〔t・(π/2048)+(π/256)tm2+(π/32)tm11−9π/128 〕 +(350−ys)・sin〔t・(π/2048)+(π/256)tm2+(π/32)tm11−9π/128 〕 −rm2−8rm11+18}×8 ・・・(1−3) これを(1b)式の形に変形して、 r/d3+c3= (xs−Xch)・cos(a3・t+b3) +(Ych−ys)・sin(a3・t+b3) ・・・(1-3b) で表わすと、前述の第1回および第2回の変換で、 a1=(π/32), b1=0, c1=0,
1=1/8 a2=(π/256),b2=π(tm11−2)/32,c2=8(rm11
−2),d2=1 に対して、 a3=(π/2048),b3=(π/256)tm2+(π/32)tm11−9
π/128,c3=rm2+8rm11−18,d3=8 となる。
R = {(xs−255) · cos [t · (π / 2048) + (π / 256) tm2 + (π / 32) tm11−9π / 128] + (350−ys) · sin [t · (π / 2048) + (π / 256) tm2 + (π / 32) tm11−9π / 128] −rm2−8rm11 + 18} × 8 ・ ・ ・ (1-3) Change this into the form of equation (1b) , expressed in = r / d 3 + c 3 (xs-Xch) · cos (a 3 · t + b 3) + (Ych-ys) · sin (a 3 · t + b 3) ··· (1-3b), above In the first and second conversions of a 1 = (π / 32), b 1 = 0, c 1 = 0,
d 1 = 1/8 a 2 = (π / 256), b 2 = π (tm11-2) / 32, c 2 = 8 (rm11
−2), d 2 = 1 and a 3 = (π / 2048), b 3 = (π / 256) tm 2 + (π / 32) tm 11-9
π / 128, c 3 = rm2 + 8rm11-18, a d 3 = 8.

【0085】t=0〜31であるので、 θ= (π/256)tm2+(π/32)tm11−9π/128, θ= (π/2048)+(π/256)tm2+(π/32)tm11−9π/128, θ= 2(π/2048)+(π/256)tm2+(π/32)tm11−9π/128, θ= 3(π/2048)+(π/256)tm2+(π/32)tm11−9π/128, ・ ・ ・ θ=31(π/2048)+(π/256)tm2+(π/32)tm11−9π/128, と、(π/2048)を最小単位として32点のθ(t=0〜
31)に対応するρ値rが算出される。すなわちこの第
3ハフ変換では、ウィンドウ2−1の特徴点各点が、θ
が(π/2048)を最小単位(tの1単位がπ/2048)とし、
かつθ=(π/256)tm2+(π/32)tm11−9π/128以上 θ
=31(π/2048)+(π/256)tm2+(π/32)tm11−9π/128
以下 の範囲の極座標平面上の位置(r,t)に変換さ
れる。ρの範囲はRs=rm2+8rm11−18 以上 Re=r
m2+8rm11−14 以下で、ρの単位はこの範囲を32分
割するものである。すなわちrの1単位は4/32=
(1/8)である。したがって、第3ハフ変換(77
R)はウィンドウ2−1の特徴点を、第2ハフ変換(7
2R)よりも、更に狭い範囲かつ高い密度の極座標に変
換するものである。特徴点の1つの極座標変換では、こ
の第3ハフ変換(77R)でもt=0〜31であるの
で、32回の演算を行なうので、第2ハフ変換(72
R)と処理時間は同程度である。1つの特徴点(xs,
ys)をρ−θ極座標に変換する演算回数が極く少く、
rデータビット数が少く、特徴点各点をρ−θ極座標へ
変換する速度が速く、かつ、度数カウント処理速度が速
い。
Since t = 0 to 31, θ = (π / 256) tm2 + (π / 32) tm11−9π / 128, θ = (π / 2048) + (π / 256) tm2 + (π / 32) tm11-9π / 128, θ = 2 (π / 2048) + (π / 256) tm2 + (π / 32) tm11-9π / 128, θ = 3 (π / 2048) + (π / 256) tm2 + (π / 32) tm11-9π / 128, ··· θ = 31 (π / 2048) + (π / 256) tm2 + (π / 32) tm11-9π / 128, and (π / 2048) as the minimum unit, 32 points Θ (t = 0-
31) is calculated corresponding to ρ value r. That is, in the third Hough transform, each feature point of the window 2-1 is
Is the minimum unit (1 unit of t is π / 2048),
And θ = (π / 256) tm2 + (π / 32) tm11-9π / 128 or more θ
= 31 (π / 2048) + (π / 256) tm2 + (π / 32) tm11-9π / 128
It is converted to the position (r, t) on the polar coordinate plane in the following range. The range of ρ is Rs = rm2 + 8rm11-18 or more Re = r
m2 + 8rm11-14 or less, and the unit of ρ divides this range into 32 parts. That is, one unit of r is 4/32 =
(1/8). Therefore, the third Hough transform (77
R) uses the second Hough transform (7
2R), which is converted into polar coordinates with a narrower range and higher density. In the polar coordinate transformation of one feature point, since t = 0 to 31 in this third Hough transformation (77R), 32 times of calculations are performed. Therefore, the second Hough transformation (72R) is performed.
R) and processing time are comparable. One feature point (xs,
The number of calculations for converting (ys) into ρ-θ polar coordinates is extremely small,
The number of r data bits is small, the speed of converting each feature point into ρ-θ polar coordinates is high, and the frequency count processing speed is high.

【0086】図18を参照すると、CPU1は、第3回
のハフ変換である「ハフ変換(HG3)」77Rを終了
すると、「最大点探索(HG3)」78Rを実行する。
その内容は前述の、「最大点探索(HG1)」68と同
様である。ただしn=3である。この処理を終了する
と、レジスタGmにはデータテーブルHGnにある度数
の最大値が、レジスタrm3,tm3には該最大値があるア
ドレス(rm3,tm3)が格納されていることになる。
Referring to FIG. 18, when the CPU 1 completes the third Hough transform "Hough transform (HG3)" 77R, it executes "Maximum point search (HG3)" 78R.
The content is the same as that of the above-mentioned "maximum point search (HG1)" 68. However, n = 3. When this process ends, the maximum value of the frequency in the data table HGn is stored in the register Gm, and the address (rm3, tm3) having the maximum value is stored in the registers rm3 and tm3.

【0087】図18を参照すると、CPU1は、「最大
点探索(HG3)」78Rを終了すると、r−t極座標
系で表現された前記アドレス(rm3,tm3)を、X−Y
座標系画面に対応するρ−θ極座標系アドレス(Rm3
1,Tm31)に変換する(79R)。演算式は、 Rm31=rm3・(Re3−Rs3)/Rd3+Rs3・・・(6) Tm31=Tm3・(Te3−Ts3)/Td3+Ts3・・・(7) である。算出したRm31をレジスタRm31に、算出したT
m31をレジスタTm31に格納する(79R)。図18のス
テップ76Rの設定により、ここでは、 (Re3−Rs3)=4 Rd3=32 (Te3−Ts3)=π/64 Td3=32 であり、(6)式は、具体的には、 Rm31=(1/8)・rm3+rm2+8rm11−18 ・・・
(6−1) であり、(7)式は、具体的には、 Tm31=(π/64)・tm3+(π/256)tm2+(π/32)tm11−9π/128 ・・・(7-1) を意味する。アドレス(Rm31,Tm31)をX−Y座標系
への変換式に代入すると、補正画像メモリの画像データ
を表示する画面上の、ウィンドウ2-1の、1つの直線
(高密度ハフ変換77Rにより検出した直線:以下第3
回検出の直線と称す)を示す式が得られる。
Referring to FIG. 18, when the "maximum point search (HG3)" 78R is completed, the CPU 1 changes the address (rm3, tm3) expressed in the rt polar coordinate system to XY.
Ρ-θ polar coordinate system address (Rm3
1, Tm31) (79R). The calculation formula is Rm31 = rm3 (Re3-Rs3) / Rd3 + Rs3 (6) Tm31 = Tm3 (Te3-Ts3) / Td3 + Ts3 (7) The calculated Rm31 is stored in the register Rm31, and the calculated T
The m31 is stored in the register Tm31 (79R). By the setting of step 76R of FIG. 18, here, (Re3−Rs3) = 4 Rd3 = 32 (Te3−Ts3) = π / 64 Td3 = 32, and the equation (6) is, specifically, Rm31 = (1/8) ・ rm3 + rm2 + 8rm11-18 ・ ・ ・
(6-1), and the equation (7) is specifically expressed by Tm31 = (π / 64) · tm3 + (π / 256) tm2 + (π / 32) tm11-9π / 128 (7- 1) means By substituting the address (Rm31, Tm31) into the conversion formula to the XY coordinate system, one straight line (detected by the high-density Hough transform 77R) of the window 2-1 on the screen displaying the image data of the corrected image memory is detected. Straight line: third below
An equation showing a straight line of detection) is obtained.

【0088】以上でウィンドウ2−1内の、粗いハフ変
換(67)で検出した2直線(rm11,tm11)および(rm12,T
m12)の、第1直線(rm11,tm11)を検出したことになり、
この直線は、右端白線又は左端白線である。上述のステ
ップ70R〜79Lの処理を同様に第2直線(rm12,Tm1
2)に適用して、第2直線を精細に検出する(図18の7
0L〜79L)。
As described above, the two straight lines (rm11, tm11) and (rm12, T) detected by the rough Hough transform (67) in the window 2-1.
It means that the first straight line (rm11, tm11) of (m12) is detected,
This straight line is the right end white line or the left end white line. In the same manner as the above steps 70R to 79L, the second straight line (rm12, Tm1
2) to detect the second straight line finely (7 in FIG. 18).
0L-79L).

【0089】以上で図15に示す「直線当てはめ」63
(内容は図17&図18)を終了したことになり、ウィ
ンドウ2−1領域にある画像中の2直線(最も代表的な
直線と、次に代表的な直線)を表わす直線式を得たこと
になる。ウィンドウ2−1は、自車レーンの、自車直近
領域の左,右端の白線を検出するに最も適した領域に設
定されており、ウィンドウ2−1領域に右端白線および
左端白線の像があると、第3回検出の直線はこの白線を
近似する直線である確率が高い。したがって、「直線当
てはめ」63は、自車レーンの左,右端白線の検出であ
る。
As described above, the "straight line fitting" 63 shown in FIG.
(Contents: Fig. 17 & Fig. 18) has been completed, and we have obtained a linear equation that expresses two straight lines (the most representative straight line and the next representative straight line) in the image in the window 2-1 area. become. The window 2-1 is set as the most suitable area for detecting the left and right white lines of the area immediately adjacent to the own vehicle in the own vehicle lane, and there are images of the right end white line and the left end white line in the window 2-1 area. Then, the straight line of the third detection has a high probability of being a straight line approximating this white line. Therefore, the "straight line fitting" 63 is the detection of the left and right white lines of the vehicle lane.

【0090】図15を再度参照すると、CPU1は、次
に、検出した2直線を表わすデータ(Rm31,Tm31),
(Rm32,Tm32)の傾斜角を比較して(64A)、左上
りの直線を右直線レジスタ(RmR,TmR)に、右左上り
の直線を左直線レジスタ(RmL,TmL)に格納する(6
4B,64C)。以上で「左右白線検出」D3を終了す
る。CPU1は次に、「無限遠点計算」D4を行なう。
この内容を図22に示す。
Referring again to FIG. 15, the CPU 1 then outputs data (Rm31, Tm31) representing the detected two straight lines,
The inclination angles of (Rm32, Tm32) are compared (64A), the upper left straight line is stored in the right straight line register (RmR, TmR), and the right upper left straight line is stored in the left straight line register (RmL, TmL) (6
4B, 64C). The "left and right white line detection" D3 is thus completed. The CPU 1 then performs "infinity point calculation" D4.
This content is shown in FIG.

【0091】D4.「無限遠点計算」D4(図22) ここではまず、「直線交点計算」109で、レジスタR
mR,TmRのデータが表わす直線(自車レーン右端白線と
推定した)と、レジスタRmL,TmLのデータが表わす直
線(自車レーン左端白線と推定した)との交点(xc,
yc)を算出する。次に、算出した交点(xc,yc)
が、過去に算出した交点データを時系列で重み付け平滑
化(平均化)して得ている無限遠点(Xv,Yv)を中
心とする横60画素×縦60画素の領域内に存在するか
をチェックする(110,111)。この領域内である
と、今回求めた交点(xc,yc)が無限遠点である信
頼性が高いので、無限遠点データ(Xv,Yv)を、今
回求めた交点(xc,yc)に1/8の重み付けをし、
これまでの無限遠点データ(Xv,Yv)に7/8の重
み付けをして加算した値に更新する(112)。そし
て、無限遠点追跡に失敗した回数をカウントするための
レジスタNveをクリアする(113)。
D4. "Point calculation at infinity" D4 (Fig. 22) First, in "Line intersection calculation" 109, register R
An intersection (xc,) between a straight line (estimated to be the right end white line of the own vehicle lane) represented by mR and TmR data and a straight line (estimated to be the left end white line of the own vehicle lane) represented by data of registers RmL and TmL
yc) is calculated. Next, the calculated intersection (xc, yc)
Exists in an area of 60 pixels in the horizontal direction and 60 pixels in the vertical direction centered on the point at infinity (Xv, Yv) obtained by weighting smoothing (averaging) the intersection data calculated in the past in time series. Is checked (110, 111). Within this area, the intersection point (xc, yc) obtained this time is highly reliable because it is the point at infinity, so the infinity point data (Xv, Yv) is set to 1 at the intersection point (xc, yc) obtained this time. / 8 weighting,
The infinite point data (Xv, Yv) so far is weighted by 7/8 and updated to a value added (112). Then, the register Nve for counting the number of times the tracking of the point at infinity has failed is cleared (113).

【0092】今回算出した交点(xc,yc)が、前記
横60画素×縦60画素の領域内にないときには、無限
遠点追跡が失敗(今回の交点算出がエラー又はこれまで
の無限遠点データ(Xv,Yv)がエラー)であるとし
て、レジスタNveの内容を1インクレメントし(11
4)、レジスタNveの内容が5になったかをチェックす
る(115)。5になっていると、今回と過去4回の計
5回連続して交点算出がエラーであったことになり、こ
れは現在保待している無限遠点データ(Xv,Yv)が
エラーであると見なして、無限遠点データ(Xv,Y
v)を今回算出した交点(xc,yc)に更新する(1
16)。
If the intersection point (xc, yc) calculated this time is not within the area of 60 pixels in the horizontal direction and 60 pixels in the vertical direction, tracking of the point at infinity is unsuccessful. Assuming that (Xv, Yv) is an error, the content of the register Nve is incremented by 1 (11
4) It is checked whether the content of the register Nve has reached 5 (115). When it is 5, this means that the intersection calculation was in error five times in total, this time and the past four times. This is because the infinity point data (Xv, Yv) currently on hold is an error. Infinite point data (Xv, Y
v) is updated to the intersection (xc, yc) calculated this time (1
16).

【0093】D5.「左右白線間隔(WL)計算」D5
(図13&図23) 再度図13を参照すると、CPU1は次に、自車レーン
の右白線と左白線との間隔(レーン幅)WLを算出する
(D5)。これにおいては、カメラ6bの視野中心線
(図23の2点鎖線)が路面と交わる位置(画面上では
画面の中心点)での、画面上の右端白線(RmR,TmR)
のX位置を路面上位置XRに変換し、画面上の左端白線
(RmL,TmL)のX位置を路面上位置XLに変換して、
間隔WL=XR−XLを算出する。なお、図13の演算ブ
ロックD5内の、SxおよびSyはそれぞれカメラ6b
の横方向および縦方向のスケールファクタであり、Hc
は図23に示すように、カメラ6bのレンズ9の中心
の、路面からの高さである。
D5. "White line spacing (WL) calculation" D5
(FIGS. 13 & 23) Referring again to FIG. 13, the CPU 1 next calculates the interval (lane width) WL between the right white line and the left white line of the vehicle lane (D5). In this case, the rightmost white line (RmR, TmR) on the screen at the position where the center line of the field of view of the camera 6b (two-dot chain line in FIG. 23) intersects the road surface (the center point of the screen on the screen)
The X position of is converted to the road position XR, and the X position of the leftmost white line (RmL, TmL) on the screen is converted to the road position XL.
The interval WL = XR-XL is calculated. Note that Sx and Sy in the operation block D5 of FIG.
Horizontal and vertical scale factors of Hc
Is the height of the center of the lens 9 of the camera 6b from the road surface, as shown in FIG.

【0094】CPU1は次に、算出した、路面上のレー
ン間隔WLが正しい(自車レーン検出成功)かをチェック
する(D6)。すなわち、基準値WL3Dに対するWLの偏
差が、許容範囲DWL内であるかをチェックする。この実
施例では、日本の高速道路のレーン幅が3.5±0.2
mであるので、基準値WL3D=3.5mに、許容値DWL
=0.3mに定めている。
Next, the CPU 1 checks whether the calculated lane interval WL on the road surface is correct (success in detecting the own vehicle lane) (D6). That is, it is checked whether the deviation of WL from the reference value WL3D is within the allowable range DWL. In this example, the highway lane width of Japan is 3.5 ± 0.2.
m, the reference value WL3D = 3.5m, and the allowable value DWL
= 0.3m.

【0095】基準値WL3Dに対するWLの偏差が許容範囲
DWL内にあると、自車レーン検出に成功しているとし
て、これを表わす情報「1」をレジスタFLに書込み
(61)、基準値WL3Dに対するWLの偏差が許容範囲D
WLを外れていると、自車レーン検出に失敗しているとし
て、これを表わす情報「0」をレジスタFLに書込む
(62)。以上で、図3に示す「自車レーン検出」Dを
終了したことになり、自車レーン検出が成功している
と、レジスタFLのデータは「1」である。
If the deviation of WL with respect to the reference value WL3D is within the allowable range DWL, it is determined that the own vehicle lane has been successfully detected, and information "1" indicating this is written in the register FL (61) to the reference value WL3D. The deviation of WL is the allowable range D
If it is out of WL, it is considered that the own vehicle lane detection has failed, and information "0" indicating this is written in the register FL (62). As described above, the "vehicle lane detection" D shown in FIG. 3 is completed, and when the vehicle lane detection is successful, the data in the register FL is "1".

【0096】再度図3を参照する。「自車レーン検出」
Dを終了するとCPU1は、レジスタFLのデータをチ
ェックしてそれが「1」であると、「隣接レーン推定」
Fを実行する。この内容を図24に示す。
Referring again to FIG. "Own vehicle lane detection"
When D is finished, the CPU 1 checks the data in the register FL and if it is “1”, “adjacent lane estimation”
Execute F. This content is shown in FIG.

【0097】F.「隣接レーン推定」F(図24&図2
5) 図24を参照すると、ここではまずカメラ6bの下向き
角αを算出する(117)。ステップ117の計算式中
のYoは画面中心のY座標値、Ychは「画面の校正」
Cの「直線交点計算」C4で定めた画面下端のY座標値
である。次に、車両の進行方向に対する自車レーンの右
端白線のなす角φRおよび左端白線のなす角φLを算出し
て、それらの平均値φを算出する。「画面の校正」Cを
終えた画面(補正画像メモリの画像)では、先の「画面
の校正」Cで、車両進行方向が画面を左右に2等分する
中央線(Y=255)に合致しているので、φRはこの
線に対して右端白線が交鎖する角度、φLは左端白線が
交鎖する角度である。図25に示すように、それらの平
均値φの角度の直線が、自車レ−ンの中央線である。次
のステップ119には、カメラ6bの視野中心線が路面
と交わる点に対する右端白線の距離XRおよび左端白線
の距離XLを算出する式を示すが、これらXRおよびXL
は、「左右白線間隔(WL)計算」D5で算出している
ので、そこでの算出値を用いる。次に、自車レ−ン右端
白線の右側のレ−ン(右隣接レ−ン)の右端白線の有無
にかかわらず、これが存在すると仮定して、XRの点を
水平方向右側にレ−ン幅WL(D5で算出済)をとった
点と、無限遠点とを結ぶ直線が、右レ−ンの右端白線で
あるとして、その直線を表わす式Y=AX+Bの比例項
係数Aの値Aex1(水平線(X軸)となす角TmRRのta
n値)を算出し、定数項Bの値Bex1を算出する(12
0)。同様にして、左レ−ンの左端白線を表わす値Aex
2およびBex2を算出する(121)。そしてこれらの値
Aex1,Bex1およびAex2,Bex2を、それぞれρ−θ極
座標に変換する(122,123)。以上で、自車走行
レ−ンの両端白線(2直線)に加えて、左隣接レ−ンお
よび右隣接レ−ンを規定する2直線を更に追加決定した
ことになる。
F. "Adjacent lane estimation" F (Fig. 24 & 2
5) Referring to FIG. 24, here, the downward angle α of the camera 6b is first calculated (117). In the calculation formula of step 117, Yo is the Y coordinate value of the screen center, and Ych is “screen calibration”.
It is the Y coordinate value of the lower edge of the screen defined in “Calculation of straight line intersection” C4. Next, the angle φR formed by the right end white line and the angle φL formed by the left end white line of the vehicle lane with respect to the traveling direction of the vehicle are calculated, and the average value φ thereof is calculated. On the screen (image in the corrected image memory) that has completed the “screen calibration” C, the previous “screen calibration” C indicates that the vehicle traveling direction is aligned with the center line (Y = 255) that bisects the screen left and right. Therefore, φR is the angle at which the right end white line intersects with this line, and φL is the angle at which the left end white line intersects. As shown in FIG. 25, the straight line of the angles of the average values φ is the center line of the own vehicle lane. In the next step 119, formulas for calculating the distance XR of the right end white line and the distance XL of the left end white line to the point where the center line of the field of view of the camera 6b intersects the road surface are shown. XR and XL
Is calculated in "calculation of the space between the left and right white lines (WL)" D5, and the calculated value is used. Next, regardless of the presence or absence of the right end white line of the right side lane (right adjacent lane) of the own vehicle lane right end white line, it is assumed that this exists, and the point of XR is laneed to the right in the horizontal direction. Assuming that the straight line connecting the point having the width WL (calculated in D5) and the point at infinity is the right end white line of the right lane, the value Aex1 of the proportional term coefficient A of the formula Y = AX + B representing the straight line (Ta of the angle TmRR formed with the horizontal line (X axis)
Then, the value Bex1 of the constant term B is calculated (n value) (12)
0). Similarly, the value Aex representing the leftmost white line of the left lane
Calculate 2 and Bex2 (121). Then, these values Aex1, Bex1 and Aex2, Bex2 are converted into ρ-θ polar coordinates (122, 123). As described above, two straight lines defining the left adjacent lane and the right adjacent lane are additionally determined in addition to the white lines (two straight lines) at both ends of the own vehicle traveling lane.

【0098】再度図3を参照する。「隣接レ−ン推定」
Fを終了するとCPU1は、CPU1は、「自車レ−ン
先行車両認識及び測距」Hを実行する。この内容を図2
8に示す。
Referring again to FIG. "Adjacent lane estimation"
When F is completed, the CPU 1 executes "own vehicle lane preceding vehicle recognition and distance measurement" H. This content is shown in Figure 2.
8 shows.

【0099】H.「自車レ−ン先行車両認識及び測距」
H(図28&図29〜46) ここではまず「車両候補位置の検出1」H1を実行す
る。この内容を図29に示す。
H. "Self-vehicle lane preceding vehicle recognition and distance measurement"
H (FIGS. 28 & 29 to 46) First, "detection of candidate vehicle position 1" H1 is executed. This content is shown in FIG.

【0100】H1.「車両候補位置の検出1」H1(図
29) まず「特徴点メモリクリア」131で、補正画像メモリ
の画素(アドレス)数と対応する画素数の、多階調デ−
タメモリD(x,y)および2値デ−タメモリE(x,
y)をクリアする。その処理の詳細を図30に示す。次
に「水平特徴点の検出1」132を実行する。この内容
を図31に示す。
H1. "Detection 1 of vehicle candidate position" H1 (Fig. 29) First, in "feature point memory clear" 131, a multi-gradation data of the number of pixels corresponding to the number of pixels (addresses) in the corrected image memory.
Data memory D (x, y) and binary data memory E (x,
y) is cleared. Details of the processing are shown in FIG. Next, “horizontal feature point detection 1” 132 is executed. This content is shown in FIG.

【0101】「水平特徴点の検出1」132 図31および図26を参照するとここでは、図26に示
される画面上の、Y=350の横線(Y=350を通るX
軸平行線)を低辺とし、自車レ−ンの左,右端白線がY
=230(ウィンドウ2−2内:図26参照)と交わる
2点を結ぶ横線を頂辺とする台形のウィンドウ領域(図
26に縦線で塗りつぶして示す領域=自車レ−ン領域)
の、X=XvcなるY軸平行線で区分される左半分領域を
規定して、該左半分領域の内部を、下から上へY方向走
査し、X位置を更新しつつこの走査を繰返して(図31
の146L〜150L,152L〜153L)、補正画
像メモリ上の画像デ−タのY方向微分値を算出し、微分
値がしきい値以上の点を特徴点と検出する(151
L)。すなわち「1ライン水平特徴点検出」151Lを
実行する。この内容を図32に示す。この処理151L
は、図6に示す「特徴点検出(UP)」C2と良く似て
いるが、特別な処理としてステップ154Aおよび15
4Bが追加されている。
"Detection of Horizontal Feature Point 1" 132 Referring to FIGS. 31 and 26, here, a horizontal line of Y = 350 (X passing Y = 350 on the screen shown in FIG. 26 is displayed.
The axis parallel line is the lower side, and the white lines at the left and right ends of the vehicle lane are Y
= 230 (in window 2-2: refer to FIG. 26), a trapezoidal window area having a horizontal line connecting two points intersecting with it as a top side (area shown by vertical lines in FIG. 26 = own vehicle lane area)
Of the left half region defined by the Y-axis parallel line of X = Xvc, the inside of the left half region is scanned from the bottom to the top in the Y direction, and this scan is repeated while updating the X position. (Fig. 31
146L to 150L, 152L to 153L), the Y-direction differential value of the image data on the corrected image memory is calculated, and a point having a differential value equal to or larger than the threshold value is detected as a feature point (151).
L). In other words, "1 line horizontal feature point detection" 151L is executed. This content is shown in FIG. This processing 151L
Is very similar to the “feature point detection (UP)” C2 shown in FIG. 6, but steps 154A and 15
4B has been added.

【0102】ステップ154Aでは、フラグS_night
を参照することにより、昼か夜かを識別し、S_night
=1であれば、夜間であるので次のステップ154Bを
実行する。ステップ154Bは昼間は実行されない。ス
テップ154Bでは、y座標を示すパラメ−タys及び
yeの各々の補正により、参照するウィンドウ(台形領
域)の位置をy方向にずらす。実際には、計算を含む次
の処理を実行する。
At step 154A, the flag S_night is set.
By referring to, it is discriminated whether it is day or night, and S_night
If = 1, it means that it is nighttime, and therefore the following step 154B is executed. Step 154B is not executed during the daytime. In step 154B, the position of the window (trapezoidal region) to be referred to is shifted in the y direction by correcting each of the parameters ys and ye indicating the y coordinate. Actually, the following processing including calculation is executed.

【0103】 ys ← ys−(ys−YV)TL/Hc ・・・・・(8-1) ye ← ye−(ye−YV)TL/Hc ・・・・・(8-2) 但し、YV :無限遠点のy座標 TL:高さ補正量(45cm:テ−ルランプの地上高に
相当) Hc:テレビカメラ6b設置位置の地上高 矢印はその方向へ計算結果の代入を意味する 昼間は、図16に示すように、ウィンドウ2−1内に車
両(先行車両)の少くとも一部があると、先行車両の後
部像がウィンドウ2−1内に現われ、後部像の下部の路
面上に黒い影が現われる。従って昼間は、まず路面上の
先行車の影を検出する。一方、夜間は、例えば図63に
示すように、先行車の車体の輪郭は画像中に現われず、
テ−ルランプのように発光している部分だけが検出でき
る。そこで夜間は、まず先行車のテ−ルランプ等の位置
を検出対象とする。後述するように、昼間に現われる路
面上の先行車の影、及び、夜間に現われる先行車のテ−
ルランプ等の対象物は、良く似たアルゴリズムで検出す
ることができる。しかし、対象物の位置(高さ)は、昼
間と夜間とで違うので、その対象物の画像中の位置も変
化する(図23参照)。そこで、この実施例ではステッ
プ154Aおよび154Bの処理により、処理対象とす
るウィンドゥの高さ方向の位置を、昼間と夜間とで切換
えるようにしている。
Ys ← ys- (ys-YV) TL / Hc (8-1) ye ← ye- (ye-YV) TL / Hc (8-2) However, YV : Y-coordinate of the point at infinity TL: Height correction amount (45 cm: equivalent to the ground height of the tail lamp) Hc: Ground height at the position where the TV camera 6b is installed The arrow means substitution of calculation results in that direction. As shown in FIG. 16, when at least a part of the vehicle (preceding vehicle) is present in the window 2-1, a rear image of the preceding vehicle appears in the window 2-1 and black on the road surface below the rear image. A shadow appears. Therefore, in the daytime, the shadow of the preceding vehicle on the road surface is first detected. On the other hand, at night, as shown in FIG. 63, for example, the contour of the vehicle body of the preceding vehicle does not appear in the image,
Only the part that emits light like a tail lamp can be detected. Therefore, at night, the position of the tail lamp of the preceding vehicle is first detected. As will be described later, the shadow of the preceding vehicle on the road surface that appears in the daytime and the trail of the preceding vehicle that appears at night.
Objects such as lulump can be detected with a very similar algorithm. However, since the position (height) of the target object differs between daytime and nighttime, the position of the target object in the image also changes (see FIG. 23). Therefore, in this embodiment, the position in the height direction of the window to be processed is switched between daytime and nighttime by the processing of steps 154A and 154B.

【0104】図31に示す処理では、次に、前記自車レ
−ン領域の、X=XvcなるY軸平行線で区分される右半
分領域を規定して、該右半分領域の内部(X=Xvcは含
む)を、下から上へY方向走査し、X位置を更新しつつ
この走査を繰返して(ステップ146R〜150R,1
52R〜153R)、補正画像メモリ上の画像デ−タの
階調のY方向微分値を算出し、微分値がしきい値以上の
点を特徴点として検出する(151R)。
In the processing shown in FIG. 31, next, the right half region of the vehicle lane region divided by the Y-axis parallel line X = Xvc is defined, and the inside of the right half region (X = Xvc is included) is scanned from bottom to top in the Y direction, and this scanning is repeated while updating the X position (steps 146R to 150R, 1).
52R to 153R), the Y-direction differential value of the gradation of the image data on the corrected image memory is calculated, and a point whose differential value is equal to or greater than the threshold value is detected as a feature point (151R).

【0105】以上により、前記自車レ−ン領域の特徴点
検出を行なったことになり、2値デ−タメモリE(x,
y)の、特徴点に対応するアドレスに、そこが特徴点で
あることを示す「1」が書込まれている。なお、前述の
「特徴点メモリクリア」131で、2値デ−タメモリE
(x,y)を予めクリアしている(全アドレスに「0」
書込み)ので、2値デ−タメモリE(x,y)上では、
自車レ−ン領域内の特徴点に対応するアドレスのみに
「1」(特徴点である)が書込まれていることになる。
As described above, the characteristic points in the own vehicle lane area are detected, and the binary data memory E (x,
"1" indicating that the point is a feature point is written in the address corresponding to the feature point in y). In addition, in the above-mentioned "feature point memory clear" 131, the binary data memory E
Clear (x, y) in advance (“0” for all addresses)
Writing), so on the binary data memory E (x, y),
"1" (which is a feature point) is written only in the address corresponding to the feature point in the own vehicle lane area.

【0106】次にCPU1は、ヒストグラムメモリをク
リアする(図29の133)。この内容は図33に示
す。CPU1は次に、「y方向ヒストグラム作成」13
4を行なう。この内容を図34に示す。
Next, the CPU 1 clears the histogram memory (133 in FIG. 29). This content is shown in FIG. The CPU 1 then performs “y-direction histogram creation” 13
Do 4. This content is shown in FIG.

【0107】「y方向ヒストグラム作成」134(図3
4) ここでは、2値デ−タメモリE(x,y)上の、Y=0
〜Y=511のX軸平行線(X走査線;X方向の画素の
連なり)のそれぞれにつき、線上にある「1」(特徴
点)の数を、カウントして、ヒストグラムメモリH
(y)に走査線(Yアドレス)対応でカウント値を書込
む。
“Y-direction histogram creation” 134 (FIG. 3)
4) Here, Y = 0 on the binary data memory E (x, y).
Up to Y = 511 X-axis parallel lines (X scanning lines; a series of pixels in the X direction), the number of "1" (characteristic points) on the line is counted, and the histogram memory H
The count value is written in (y) in correspondence with the scanning line (Y address).

【0108】「y方向極大点検出」135(図35) ヒストグラムメモリH(y)のY=511のアドレス
(Y=511のX軸走査線)から順次にY=1まで、各
アドレスを注目線(y)に定めて、注目線(y)の特徴
点カウント値H(y),それよりY座標値が1つ小さい
走査線(y−1)の特徴点カウント値H(y−1)、お
よび、注目線(y)よりY座標値が1つ大きい走査線
(y+1)の特徴点カウント値H(y+1)を比較して
(図35の174,175)、H(y)がH(y−1)
およびH(y+1)のいずれよりも大きいと、すなわち
注目線(y)が特徴点数のピ−ク位置であると、注目線
(y)の位置(Yアドレス)での自車レ−ン左端点(X
1)と右端点(X2)を算出する(176,177;計算
式は図36に示す)。そして、しきい値Th2を(X2
−X1)/8に設定して(178)、注目線(y)の特
徴点カウント値H(y)がしきい値Th2以上である
と、注目線(y)上に横方向に延びる像輪郭線があると
見なして、注目線(y)のアドレス(Y座標値)をメモ
リMy(N)のアドレスNに書込む(180)。そして
レジスタNを1インクレメントする。レジスタNの値が
5以上(異なった6走査線で像輪郭線を検出した)にな
ると、あるいは最後の走査線Y=1を注目線とする上記
処理を終了すると、そこで、「y方向極大点検出」13
5を終了する。
[Detection of maximum point in y-direction] 135 (FIG. 35) From the address of Y = 511 (X-axis scanning line of Y = 511) of the histogram memory H (y) to Y = 1 in sequence, each address is the target line. (Y), the characteristic point count value H (y) of the attention line (y), the characteristic point count value H (y-1) of the scanning line (y-1) whose Y coordinate value is one smaller than that, Also, the feature point count values H (y + 1) of the scanning line (y + 1) whose Y coordinate value is one larger than the line of interest (y) are compared (174 and 175 in FIG. 35), and H (y) becomes H (y -1)
And H (y + 1), that is, if the attention line (y) is the peak position of the number of characteristic points, the left end point of the own vehicle lane at the position (Y address) of the attention line (y). (X
1) and the right end point (X2) are calculated (176, 177; the calculation formula is shown in FIG. 36). Then, the threshold Th2 is set to (X2
If -X1) / 8 is set (178) and the feature point count value H (y) of the attention line (y) is greater than or equal to the threshold value Th2, the image contour extending in the horizontal direction on the attention line (y). Assuming that there is a line, the address (Y coordinate value) of the line of interest (y) is written to the address N of the memory My (N) (180). Then, the register N is incremented by 1. When the value of the register N becomes 5 or more (the image contour line is detected by 6 different scanning lines), or when the above-mentioned processing with the last scanning line Y = 1 as the line of interest is completed, the "maximum inspection in the y direction" is performed. Out "13
Finish 5

【0109】昼間は、図16に示すように、ウィンドウ
2−1内にに車両(先行車両)の少くとも一部がある
と、先行車両の後部像がウィンドウ2−1内に現われ、
後部像の下部の路面上に影(黒)が現われ、先行車両の
後部像には、バンパ−(その下縁が特に高いコントラス
トの横線として現われる),ナンバ−プレ−ト,ブレ−
キランプパネル,後部窓,ル−フ等々の、横(X)方向
に延びる像輪郭線が多数あるので、メモリMy(N)の
アドレス0〜5に、自車に近い(Y座標値が大きい)6
個の像輪郭線の位置(Y座標)が書込まれていることに
なる。また夜間にウインドウ内に先行車あるいは対向車
が存在すると、点灯しているテ−ルランプ、あるいはヘ
ッドランプの部分の像輪郭線が検出され、その位置のY
座標がメモリMy(N)に書込まれる。
In the daytime, as shown in FIG. 16, when there is at least a part of the vehicle (preceding vehicle) in the window 2-1, a rear image of the preceding vehicle appears in the window 2-1.
A shadow (black) appears on the road surface below the rear image, and a bumper (the lower edge appears as a horizontal line with a particularly high contrast), number plate, and blur on the rear image of the preceding vehicle.
Since there are many image contour lines extending in the lateral (X) direction, such as the lamp panel, the rear window, and the roof, etc., they are close to the own vehicle (the Y coordinate value is large, at addresses 0 to 5 of the memory My (N). ) 6
The position (Y coordinate) of each image contour line is written. Further, if there is a preceding vehicle or an oncoming vehicle in the window at night, the image contour line of the tail lamp or the head lamp portion which is lit is detected, and the Y of that position is detected.
The coordinates are written in the memory My (N).

【0110】なお、ステップ178で、しきい値Th2
を(X2−X1)/8に設定するのは、カメラ6bに近い
ほど像輪郭線のコントラストが高く、特徴点が多く摘出
されるが、遠くの像輪郭線のコントラストは低く、特徴
点の摘出が少なくなるので、(X2−X1)により注目線
(y)上にある像輪郭の、カメラ6bからの距離を推定
し、距離に応じてしきい値を変更するためである。
In step 178, the threshold value Th2
Is set to (X2-X1) / 8, the closer to the camera 6b, the higher the contrast of the image contour line and the more feature points are extracted. However, the contrast of the farther image contour line is low, and the feature point is extracted. This is because the distance from the camera 6b of the image contour on the line of interest (y) is estimated from (X2-X1) and the threshold value is changed according to the distance.

【0111】「X方向重心計算」136(図37) 次に、メモリMy(N)に書込んだ、像輪郭線の位置
(Y座標値)のそれぞれにつき、該位置よりW1(設定
値)小さくW2(設定値)大きい領域内の、2値デ−タ
メモリE(x,y)上の特徴点(図27に縦線で塗りつ
ぶした自車レ−ン領域内の特徴点)のX座標値を累算レ
ジスタSumxに加算し、加算回数をレジスタNxでカウ
ントして(187〜197)、重心X座標値(平均座標
値)を算出してメモリMx(N)に書込む(198)。
これにより、「y方向極大点検出」135で検出した、
横方向に延びる像輪郭線それぞれのX方向重心位置(X
座標値)がメモリMx(N)に存在することになる。な
お、Y方向重心位置はメモリMy(N)に存在する。
[Calculation of Center of Gravity in X Direction] 136 (FIG. 37) Next, for each position (Y coordinate value) of the image contour line written in the memory My (N), W1 (set value) smaller than the position. W2 (setting value) The X coordinate value of the characteristic point on the binary data memory E (x, y) (the characteristic point in the own vehicle lane area filled with the vertical line in FIG. 27) in the large area is set. The value is added to the accumulation register Sumx, the number of additions is counted by the register Nx (187 to 197), the X-coordinate value of the center of gravity (average coordinate value) is calculated, and written in the memory Mx (N) (198).
As a result, the “y-direction maximum point detection” 135 detects
Center-of-gravity position in the X direction of each image contour line extending in the lateral direction (X
The coordinate value) exists in the memory Mx (N). The Y-direction center-of-gravity position exists in the memory My (N).

【0112】以上で、図28(詳細は図29)に示す
「車両候補位置の検出」H1を終了し、CPU1は次
に、後に使用するレジスタNRをクリアして(H2)、
「車両左右端の検出」H3を実行する。この内容を図3
8に示す。
With the above, the "detection of candidate vehicle position" H1 shown in FIG. 28 (details are shown in FIG. 29) is finished, and the CPU 1 next clears a register NR to be used later (H2),
"Detection of left and right ends of vehicle" H3 is executed. This content is shown in Figure 3.
8 shows.

【0113】H3.「車両左右端の検出」H3(図3
8) ここではまず「車両左右端位置推定」201を実行す
る。その内容を図39に示す。
H3. "Detection of left and right ends of vehicle" H3 (Fig. 3
8) Here, first, "vehicle left and right end position estimation" 201 is executed. The contents are shown in FIG.

【0114】「車両左右端位置推定」201(図39) まず、ステップ208AでフラグS_night を参照して
昼/夜を識別し、その結果に応じて、昼間はステップ2
08Bを実行し、夜間はステップ208Cを実行する。
ステップ208B又は208Cでは、メモリMy(N)
にある、像輪郭線のY座標値の最も大きい値のものMy
(NR)(N=NR=0のアドレスのデ−タ)、すなわち
自車に最も近い前方物体の像輪郭線(横線)のY位置、
を読出して、カメラ6bからそこまでの水平距離(路面
上の距離)L1を次式により算出する。
"Vehicle left and right edge position estimation" 201 (FIG. 39) First, in step 208A, day / night is identified with reference to the flag S_night, and step 2 is performed during daytime according to the result.
08B is executed, and step 208C is executed at night.
In step 208B or 208C, the memory My (N)
With the largest Y coordinate value of the image contour line in
(NR) (data of address N = NR = 0), that is, the Y position of the image contour line (horizontal line) of the front object closest to the own vehicle,
Is read out and the horizontal distance (distance on the road surface) L1 from the camera 6b to the camera 6b is calculated by the following equation.

【0115】昼間: L1=Sy・Hc/(My(NR)−YV) ・・・・・(9-1) 夜間: L1=Sy・(Hc−TL)/(My(NR)−YV) ・・・・・(9-2) 但し、Sy:テレビカメラの焦点距離 Hc:テレビカメラの地上高 TL:テ−ルライトの地上高(45cm) YV :無限遠点のy座標 My(NR):水平輪郭線のy座標 この実施例では、テレビカメラ6bの設置状態およびそ
の結像面10は、図23に示す位置関係にある。従っ
て、昼間に、先行車の下方に現われる影を検出すること
は、図23に示す点Pの位置を検出することに相当し、
点Pに相当する水平輪郭線のy座標が、メモリMy(NR)
に保持されている。図23に示すように、テレビカメラ
6bの光軸の中心が、水平線に対して角度αだけ傾斜
し、該光軸中心と、点Pに向かう軸との傾きがθである
と仮定すると、次の関係が成立する。 tan(α−θ)=Hc/L1 ・・・・・(9-3) tan(θ)=(256−My(NR))/Sy ・・・・・(9-4) 従って、(9-3),(9-4)式より、 L1=Hc・(Sy+B・tan(α))/(Sy・tan(α)−B)・・・(9−
5) 但し、B:(256−My(NR)) tan(α)=(256−YV)/Sy ・・・(9-6) ここで、α−θ及びθは非常に小さいので、近似的に次
の関係が成立する。
Daytime: L1 = Sy.Hc / (My (NR) -YV) (9-1) Nighttime: L1 = Sy. (Hc-TL) / (My (NR) -YV) (9-2) However, Sy: focal length of TV camera Hc: ground height of TV camera TL: ground height of tail light (45 cm) YV: y-coordinate of infinity point My (NR): horizontal Y Coordinate of Contour Line In this embodiment, the installation state of the television camera 6b and the image plane 10 thereof have the positional relationship shown in FIG. Therefore, detecting the shadow appearing below the preceding vehicle in the daytime is equivalent to detecting the position of the point P shown in FIG.
The y coordinate of the horizontal contour line corresponding to the point P is stored in the memory My (NR).
Is held in. As shown in FIG. 23, assuming that the center of the optical axis of the television camera 6b is inclined by an angle α with respect to the horizontal line and the inclination between the optical axis center and the axis toward the point P is θ, The relationship is established. tan (α-θ) = Hc / L1 (9-3) tan (θ) = (256-My (NR)) / Sy (9-4) Therefore, (9- From equations 3) and (9-4), L1 = Hc · (Sy + B · tan (α)) / (Sy · tan (α) −B) (9−
5) However, B: (256-My (NR)) tan (α) = (256-YV) / Sy (9-6) where α-θ and θ are very small The following relationship holds.

【0116】 α−θ=Hc/L1 ・・・(9-7) θ=(256−My(NR))/Sy ・・・(9-8) α=(256−YV)/Sy ・・・(9-9) 従って、昼間は前記(9-1)式により距離L1を求めるこ
とができる。また、検出対象物がテ−ルランプ部の場合
(夜間)には、テ−ルランプ部の地上高をTLとする
と、前記(9-1)式のHcをHc−TLで置き換えること
により、前述の場合と同様の関係式が成立するので、夜
間は前記(9-2)式を用いて距離L1を求めることができ
る。
Α-θ = Hc / L1 (9-7) θ = (256-My (NR)) / Sy (9-8) α = (256-YV) / Sy (9-9) Therefore, in the daytime, the distance L1 can be obtained by the above equation (9-1). Further, when the object to be detected is a tail lamp section (at night), if the ground clearance of the tail lamp section is TL, Hc in the above equation (9-1) is replaced with Hc-TL to obtain the above-mentioned value. Since the same relational expression as the case is established, the distance L1 can be obtained by using the expression (9-2) at night.

【0117】図39に示す処理においては、次に、前方
物体が車両であると仮定(この仮定の正誤は後述する
「車両の検定」H4で検証する)して、画面上の車幅W
V2Dpおよび車高HV2Dpを算出する(209)。この算出
に使用するWV3Dは、車幅学習値を格納したレジスタWV
3D(図46を参照して後述)のデ−タ(先行車両を過去
に検出していない場合には定数:最も代表的な実物車両
の車幅1.7m)であり、HV3Dは、ミニカ−もカバ−
する車高1.2mである。次に、画面上の車幅WV2Dp
と、メモリMx(N)にある像輪郭線の重心位置Mx
(NR)から、前方物体の画面上の左右端位置XVLP,X
VRPを推定演算する(210)。そして画面上の上下端
yVHP,yVLPを推定演算する(211)。
In the processing shown in FIG. 39, next, assuming that the front object is a vehicle (the correctness of this assumption is verified by "vehicle verification" H4 described later), the vehicle width W on the screen is displayed.
V2Dp and vehicle height HV2Dp are calculated (209). WV3D used for this calculation is a register WV that stores the vehicle width learning value.
3D (described later with reference to FIG. 46) data (a constant when the preceding vehicle has not been detected in the past: the most representative vehicle width of 1.7 m), and HV3D is a minicar. Also cover
The vehicle height is 1.2m. Next, the vehicle width WV2Dp on the screen
And the barycentric position Mx of the image contour line in the memory Mx (N)
From (NR), the left and right end positions XVLP, X on the screen of the front object
The VRP is estimated and calculated (210). Then, the upper and lower edges yVHP and yVLP on the screen are estimated and calculated (211).

【0118】次に多階調デ−タメモリD(x,y)およ
び2値デ−タメモリE(x,y)をクリアして(202
L)、「左端垂直特徴点検出」203Lを実行する。こ
の内容を図40に示す。
Next, the multi-gradation data memory D (x, y) and the binary data memory E (x, y) are cleared (202).
L), "Left edge vertical feature point detection" 203L is executed. This content is shown in FIG.

【0119】「左端垂直特徴点検出」203L(図4
0) 前記画面上の上下端yVHP,yVLPの間の、前記画面上の
左端位置XVLPを中心とし−WV2Dp/4から+WV2Dp/
4までの範囲の矩形のウィンドゥ領域の、補正画像メモ
リ上の画像デ−タのX方向微分値を算出して多階調デ−
タメモリD(x,y)に書込み、かつ、多階調デ−タを
しきい値Th3と比較して、Th3以上であると、2値デ−
タメモリE(x,y)に「1」を書込む。この特徴点検
出処理は、すでに説明した「特徴点検出(UP)」C2
の処理と同様である。次にCPU1はヒストグラムメモ
リ(先に使用したH(y))をクリアして(204
L)、「x方向ヒストグラム作成」205Lを実行す
る。この内容を図41に示す。
"Left edge vertical feature point detection" 203L (see FIG. 4)
0) -WV2Dp / 4 to + WV2Dp / centered on the left end position XVLP on the screen between the upper and lower ends yVHP and yVLP on the screen.
The multi-gradation data is calculated by calculating the X-direction differential value of the image data on the corrected image memory in the rectangular window area in the range up to 4.
Data is written in the data memory D (x, y) and the multi-gradation data is compared with the threshold value Th3. If it is Th3 or more, binary data is written.
Write "1" to the memory E (x, y). This feature point detection processing is performed by the "feature point detection (UP)" C2 described above.
The processing is the same as that described above. Next, the CPU 1 clears the histogram memory (H (y) used previously) (204
L), “Create x-direction histogram” 205L is executed. This content is shown in FIG.

【0120】「x方向ヒストグラム作成」205L(図
41) 前記「左端垂直特徴点検出」203Lで特徴点を検出し
た領域内の、X軸平行線(画素の連なり)上の特徴点
を、線単位でカウントして、線アドレス(X座標値)対
応でヒストグラムメモリ(ここではH(x)と表記す
る)に書込む。そして「x方向最大点検出」206Lを
実行する。その内容を図42に示す。
"Creation of x-direction histogram" 205L (FIG. 41) The characteristic points on the X-axis parallel line (consecutive of pixels) in the area where the characteristic point is detected by the "left-end vertical characteristic point detection" 203L are expressed in line units. Are counted and written in the histogram memory (herein denoted as H (x)) in correspondence with the line address (X coordinate value). Then, "detection of maximum point in x direction" 206L is executed. The contents are shown in FIG.

【0121】「x方向最大点検出」206L(図42) この処理は大要では、先に説明した「y方向極大点検
出」135と同様な処理を、Y軸をX軸に置き換えて、
「左端垂直特徴点検出」203Lで特徴点を検出した領
域内で行なうものである。但し、検出対象の領域の大き
さが違うので、極大点摘出のためのしきい値Th4は次
のように定められる。昼間、即ちフラグS_night が0
の場合には、HV2Dp/4なる定数がしきい値Th4として
利用され、夜間、即ちS_night が1の場合には、HV2D
p/24なる定数がしきい値Th4として利用される。つま
り、昼間は、先行車の車体全体が画像中に現われるの
で、垂直方向(鉛直方向)の車体の輪郭線の特徴量とし
て比較的大きな値が得られるのに対して、夜間は、先行
車の点灯しているテ−ルランプ部、あるいはヘッドラン
プ部の垂直方向輪郭線のみが検出されるので、しきい値
Th4としては、昼間は比較的大きく、夜間はそれより小
さい値が使用される。
"Detection of maximum point in x direction" 206L (FIG. 42) This process is basically the same as the process of "detection of maximum point in y direction" 135 described above, except that the Y axis is replaced with the X axis.
This is performed in the area where the feature point is detected in "left edge vertical feature point detection" 203L. However, since the size of the detection target region is different, the threshold value Th4 for extracting the maximum point is determined as follows. Daytime, that is, the flag S_night is 0
In the case of, the constant HV2Dp / 4 is used as the threshold value Th4, and at night, that is, when S_night is 1, HV2Dp
A constant p / 24 is used as the threshold Th4. In other words, in the daytime, the entire body of the preceding vehicle appears in the image, so a relatively large value is obtained as the feature amount of the contour line of the vehicle body in the vertical direction (vertical direction). Since only the vertical contour line of the tail lamp portion or the head lamp portion that is lit is detected, a value that is relatively large in the daytime and smaller than that in the nighttime is used as the threshold value Th4.

【0122】また、極大点の検出ごとに、極大点の特徴
点カウント数を極大値メモリHmのデ−タと比較して、
今回検出の極大点の方が大きいとこれを極大値メモリH
mに更新書込みし、そのX座標値を極大点レジスタXm
に書込む。前記領域内すべてのこの処理を終えると、前
記領域の中で、特徴点が最も多く存在するY軸平行線
(先行車両の左エッジ)のX座標値がレジスタXmに格
納されていることになる。このX座標値を車両左端位置
レジスタXVLに書込む(207L)。
Further, every time the maximum point is detected, the feature point count number of the maximum point is compared with the data of the maximum value memory Hm,
If the maximum point detected this time is larger, this is stored in the maximum value memory H
m is updated and written, and the X coordinate value is stored in the maximum point register Xm.
Write to. When this process is completed for all the regions, the X coordinate value of the Y-axis parallel line (the left edge of the preceding vehicle) having the most feature points in the region is stored in the register Xm. . This X coordinate value is written in the vehicle left end position register XVL (207L).

【0123】以上の「特徴点メモリクリア」202L〜
「x方向最大点検出」206Lと同様な処理を、画面上
の上下端yVHP,yVLPの間の、右端位置XVRPを中心と
し、−WV2Dp/4から+WV2Dp/4までの範囲の矩形の
ウィンドゥ領域について行って(図38の202R〜2
06R)、該領域内で特徴点が最も多く存在するX軸平
行線(先行車両の右エッジ)のX座標値を車両右端位置
レジスタXVRに書込む(207R)。「右端垂直特徴点
の検出」203Rの内容を図43に示す。
[Feature point memory clear] 202L-
The same process as "Maximum point detection in x direction" 206L is performed for a rectangular window area in the range from -WV2Dp / 4 to + WV2Dp / 4 with the right end position XVRP between the upper and lower ends yVHP and yVLP on the screen as the center. Go (202R-2 in FIG. 38)
06R), the X coordinate value of the X-axis parallel line (right edge of the preceding vehicle) having the most feature points in the area is written in the vehicle right end position register XVR (207R). FIG. 43 shows the contents of “Detect right vertical feature point” 203R.

【0124】以上で、「車両左右端の検出」H3を終了
する。CPU1は次に「車両の検定」H3を実行する。
その内容を図44に示す。
The "detection of the left and right ends of the vehicle" H3 is thus completed. The CPU 1 then executes "vehicle verification" H3.
The contents are shown in FIG.

【0125】H4.「車両の検定」H4(図44) ここでは、車幅学習値を格納したレジスタWV3D(図4
6を参照して後述)が保持する先行車両の車幅WV3D
を、「車両左右端位置推定」201で算出した前方物体
の自車からの距離L1とカメラ6bのスケ−ルファクタ
Sxを用いて画面上の車幅WV2Dに変換し(247)、
前述の車両左,右端位置XVL,XVRより画面上の車幅W
Vを算出して(248)、両者の差WV−WV2Dが、±WV
2D/4の範囲内にあるかをチェックする(249)。す
なわち、画面上の車幅計算値WVが、車幅学習値を格納
したレジスタWV3Dの車幅(実物幅)の画面上の幅WV2D
と実質上合致するかをチェックする。実質上合致する
と、先行車両検出/非検出を表わす情報「1」/「0」
を格納するレジスタFVMに「1」を書込む(250
a)。合致しないとレジスタFVMをクリアする(250
b)。即ち、先行車両が認識できた場合に、レジスタF
VMに「1」がセットされる。
H4. "Vehicle verification" H4 (Fig. 44) Here, the register WV3D (Fig. 4) that stores the vehicle width learning value is stored.
The vehicle width WV3D of the preceding vehicle held by
Is converted to a vehicle width WV2D on the screen by using the distance L1 of the front object from the own vehicle calculated by the "vehicle left and right end position estimation" 201 and the scale factor Sx of the camera 6b (247),
Vehicle width W on the screen from the above-mentioned vehicle left and right end positions XVL, XVR
V is calculated (248), and the difference WV-WV2D between them is ± WV
It is checked whether it is within the range of 2D / 4 (249). That is, the vehicle width calculation value WV on the screen is the vehicle width (actual width) WV2D on the screen of the register WV3D storing the vehicle width learning value.
And check if it substantially matches. Information "1" / "0" indicating detection / non-detection of a preceding vehicle when the vehicle substantially matches
Write "1" to the register FVM that stores
a). If they do not match, the register FVM is cleared (250
b). That is, when the preceding vehicle can be recognized, the register F
“1” is set in VM.

【0126】次にCPU1は、レジスタFVMに「1」を
書込んだときには後述する「車間距離計算」H6に進む
が、レジスタFVMに「0」を書込んだときには、レジス
タNRを1インクレメントして(H5−H8−H9)ま
た「車両左右端の検出」H3を実行する。「車両左右端
の検出」H3は、まずNR=0(自車両に最も近い)の
横方向輪郭線からこれを実行するので、2回目以降の
「車両左右端の検出」H3では、NR=1,2,・・と
なるので、2番目,3番目,・・・と、対象とする横方
向輪郭線を順次に自車両から遠いものに変更することに
なる。NRの最大値は5である(図35のN=0〜4で
5本の横方向輪郭線しか検出していない)ので、最大で
5回の「車両左右端の検出」H3を実行しそれでもFVM
=「1」にならないと後述の「車幅学習計算」H7に進
み、次に説明する「車間距離計算」H6は実行しない。
Next, when the CPU 1 writes "1" in the register FVM, the CPU 1 proceeds to "inter-vehicle distance calculation" H6 described later, but when "0" is written in the register FVM, the register NR is incremented by 1. (H5-H8-H9) or "Detect left and right ends of vehicle" H3. The "detection of the left and right ends of the vehicle" H3 is executed from the lateral contour line of NR = 0 (closest to the own vehicle). , 2, ..., The second, third, ..., And the target lateral contour lines are sequentially changed to those farther from the vehicle. Since the maximum value of NR is 5 (only 5 horizontal contour lines are detected at N = 0 to 4 in FIG. 35), a maximum of 5 times "detection of left and right ends of vehicle" H3 is executed and still FVM
If the value does not become "1", the process proceeds to "vehicle width learning calculation" H7 described later, and "vehicle distance calculation" H6 described below is not executed.

【0127】H6.「車間距離計算」H6(図45) レジスタFVMに「1」を書込んだときには、車間距離L
2(0)を算出する(251)。車幅学習値を格納した
レジスタWV3Dの車幅(実物幅)WV3D,画面上の車幅計
算値WV,「車両左右端位置推定」201で算出した前
方物体の自車からの水平距離L1(路上実物距離)、お
よび、カメラ6bのスケ−ルファクタSxを用いて、車
間距離L2(0)を算出する(251)。今回算出値L2
(0)と、前回算出値L2(1),前々回算出値L2
(2)および前々々回算出値L2(3)の平均値を算出
してレジスタL3に書込み(252)、前回算出値L2
(1),前々回算出値L2(2)および前々々回算出値
L2(3)を更新する(253)。以上により、レジス
タL3には、自車レ−ンの先行車との車間距離(最近の
時系列平均値)を格納したことになる。
H6. "Vehicle distance calculation" H6 (Fig. 45) When "1" is written in the register FVM, the vehicle distance L
2 (0) is calculated (251). The vehicle width (actual width) WV3D of the register WV3D that stores the vehicle width learning value, the vehicle width calculation value WV on the screen, the horizontal distance L1 of the front object calculated from the “vehicle left and right end position estimation” 201 from the vehicle (on the road) Using the actual distance) and the scale factor Sx of the camera 6b, the inter-vehicle distance L2 (0) is calculated (251). This time calculated value L2
(0), the previously calculated value L2 (1), the two-previously calculated value L2
(2) and the two-previously calculated value L2 (3) is calculated and the average value is written to the register L3 (252), and the previous calculated value L2 is calculated.
(1), the two-preceding calculation value L2 (2) and the two-preceding calculation value L2 (3) are updated (253). As a result, the inter-vehicle distance (latest time-series average value) from the preceding vehicle in the own vehicle lane is stored in the register L3.

【0128】図39のステップ208B又は208Cの
計算では、テレビカメラによって撮影した先行車両に相
当する対象物の縦方向の位置の違いだけに基づいて、車
間距離L1を求めているので、ここで求められた車間距
離L1は、比較的大きな誤差を含んでいる可能性があ
る。例えば、実際の車間距離が一定であっても、自車両
にピッチングの姿勢変化が生じると、求められる車間距
離L1が変化する可能性がある。検出される車間距離の
測定精度を上げるために、「車間距離計算」H6では、
検出した先行車の車幅に基づいて、車間距離L2を求め
ている。また、車間距離L2の信頼性を高めるために、
次に説明する「車幅学習計算」H7を実施している。
In the calculation of step 208B or 208C in FIG. 39, the inter-vehicle distance L1 is obtained only based on the difference in the vertical position of the object corresponding to the preceding vehicle photographed by the television camera. The obtained inter-vehicle distance L1 may include a relatively large error. For example, even if the actual inter-vehicle distance is constant, the required inter-vehicle distance L1 may change if the pitching attitude of the vehicle changes. In order to increase the measurement accuracy of the detected inter-vehicle distance, "inter-vehicle distance calculation" H6
The inter-vehicle distance L2 is calculated based on the detected vehicle width of the preceding vehicle. Further, in order to increase the reliability of the inter-vehicle distance L2,
The "vehicle width learning calculation" H7 described below is carried out.

【0129】H7.「車幅学習計算」H7(図46) レジスタL3の車間距離を前述のように更新するとCP
U1は、画面上の車幅WVを実物車幅Wvaに変換し、レ
ジスタWV3Dのデ−タ(時間軸上で、今回の車間距離計
算までに保持する車幅学習値WV3D)と今回の車幅計算
値Wvaを、47対1の重み付けで加算し、和を48で割
った値、すなわち重み付け平均値、をレジスタWV3Dに
更新メモリする(254,255a,255b)。自車
レ−ン先行車両を検出しない(FVM=「0」)でこの
「車幅学習計算」H7に進んだときには、レジスタWV3
Dに、この実施例では、最も代表的な車両(乗用車)の
車幅値1.7mを書込む(254,256)。
H7. "Vehicle width learning calculation" H7 (Fig. 46) CP is updated when the inter-vehicle distance in register L3 is updated as described above.
U1 converts the vehicle width WV on the screen into the actual vehicle width Wva, and the data of the register WV3D (the vehicle width learning value WV3D held on the time axis until the current inter-vehicle distance calculation) and the current vehicle width The calculated value Wva is added with weighting of 47 to 1, and the value obtained by dividing the sum by 48, that is, the weighted average value is updated and stored in the register WV3D (254, 255a, 255b). When the vehicle preceding the preceding vehicle lane is not detected (FVM = "0") and the "vehicle width learning calculation" H7 is entered, the register WV3
In this embodiment, the vehicle width value 1.7 m of the most typical vehicle (passenger vehicle) is written in D (254, 256).

【0130】以上で「自車レ−ン先行車両認識及び測
距」Hを終了する。次にCPU1は、「右隣接レ−ン先
行車両認識及び測距」Iを実行する。この内容を図47
に示す。なお、先に説明した「左右白線検出」D3で自
車レ−ン右端白線を表わすデ−タ(TmR,RmR)および
左端白線を表わすデ−タ(TmL,RmL)をレジスタに格
納し、しかも、「隣接レ−ン推定」Fで、右隣接レ−ン
の右端白線(推定)を表わすデ−タ(TmRR,RmRR)お
よび左隣接レ−ンの左端白線(推定)を表わすデ−タ
(TmLL,RmLL)をレジスタに格納している点に注意さ
れたい。
[0130] The "own vehicle lane preceding vehicle recognition and distance measurement" H is thus completed. Next, the CPU 1 executes "right adjacent lane preceding vehicle recognition and distance measurement" I. This content is shown in FIG.
Shown in In the above-mentioned "left and right white line detection" D3, the data (TmR, RmR) representing the right end white line of the own vehicle lane and the data (TmL, RmL) representing the left end white line are stored in the register, and , "Adjacent lane estimation" F, data (TmRR, RmRR) representing the right end white line (estimation) of the right adjacent lane and data (TmRR, RmRR) representing the left end white line (estimation) of the left adjacent lane. Note that TmLL and RmLL) are stored in the register.

【0131】I.「右隣接レ−ン先行車両認識及び測
距」I(図47,図48,図49) ここでは、ウィンドウ2の下辺(Y=350),自車レ
−ン右端白線(TmR,RmR)ならびに右隣接レ−ンの右
端白線(TmRR,RmRR)で囲まれる領域(右隣接レ−ン
領域)に、前述の「自車レ−ン先行車両認識及び測距」
Hの処理を同様に適用して、右隣接レ−ン領域の、自車
から見て前方の物体を検出し、自車からの距離を算出す
る。また、「自車レ−ン先行車両認識及び測距」Hと同
様に、参照するウィンドウ2のy方向位置は、昼と夜と
で自動的に切換えられる。
I. "Right adjacent lane preceding vehicle recognition and distance measurement" I (Fig. 47, Fig. 48, Fig. 49) Here, the lower side of the window 2 (Y = 350), the vehicle lane right end white line (TmR, RmR) and In the area (right adjacent lane area) surrounded by the white line (TmRR, RmRR) on the right end of the right adjacent lane, the above-mentioned "recognition and distance measurement of preceding vehicle lane preceding vehicle" is performed.
The process of H is similarly applied to detect an object in the right adjacent lane area in front of the own vehicle, and calculate the distance from the own vehicle. Further, as in the case of "recognition and distance measurement of preceding vehicle lane preceding vehicle" H, the position of the window 2 to be referred to in the y direction is automatically switched between day and night.

【0132】J.「左隣接レ−ン先行車両認識及び測
距」J(図50,図51,図52) これにおいても、ウィンドウ2の下辺(Y=350),
自車レ−ン左端白線(TmL,RmL)ならびに左隣接レ−
ンの左端白線(TmLL,RmLL)で囲まれる領域(左隣接
レ−ン領域)に、前述の「自車レ−ン先行車両認識及び
測距」Hの処理を同様に適用して、左隣接レ−ン領域
の、自車から見て前方の物体を検出し、自車からの距離
を算出する。また、前述の「自車レ−ン先行車両認識及
び測距」Hと同様に、参照するウィンドウ2のy方向位
置は、昼と夜とで自動的に切換えられる。
J. "Left adjacent lane preceding vehicle recognition and distance measurement" J (Figs. 50, 51, 52) Also in this case, the lower side of the window 2 (Y = 350),
Vehicle lane Left edge white line (TmL, RmL) and adjacent left rail
In the same way, the above-mentioned "own vehicle lane preceding vehicle recognition and distance measurement" process H is applied to the area (left adjacent lane area) surrounded by the leftmost white line (TmLL, RmLL) of the vehicle. An object in front of the own vehicle in the lane area is detected, and the distance from the own vehicle is calculated. Further, as in the case of "recognition and distance measurement of preceding vehicle by preceding vehicle lane" H, the position of the window 2 to be referred to in the y direction is automatically switched between day and night.

【0133】以上で、図3に示す「ウィンドウ2−1内
の車両検出」DET1を終了する。このDET1ではウ
ィンドウ2−1(図14,図16,図26)内の自車レ
−ン左,右端白線の検出,これに基づいた右隣接レ−ン
の右端白線の検出,左隣接レ−ンの左端白線の検出,ウ
ィンドウ2−1を中心にして、ウィンドウ2−2の略中
央部まで延びる領域内の自車レ−ン内(図26の縦線塗
りつぶし領域)の車両検出と距離算出,該領域内の右隣
接レ−ン内(図26の右側横線塗りつぶし領域)の車両
検出と距離算出、および、該領域内の左隣接レ−ン内
(図26の左側横線塗りつぶし領域)の車両検出と距離
算出を行なったことになる。これにおいて自車レ−ン内
の先行車両を検出しているとレジスタFVMには「1」が
書込まれている。右隣接レ-ンの車両を検出していると
レジスタFVRには「1」が書込まれている。また、左隣
接レ-ンの車両を検出しているとレジスタFVLには「1」
が書込まれている。
Thus, the "vehicle detection in window 2-1" DET1 shown in FIG. 3 is completed. In this DET1, the left and right white lines of the own vehicle lane in the window 2-1 (FIGS. 14, 16, and 26) are detected, the white line of the right edge of the right adjacent lane is detected based on this, and the left adjacent line is detected. Detection of the leftmost white line of the vehicle, detection of the vehicle within the own vehicle lane (the area filled with the vertical line in FIG. 26) within the area extending from the window 2-1 to the center of the window 2-2, and the distance calculation , Vehicle detection and distance calculation in the right adjacent lane in the area (right side horizontal line filled area in FIG. 26), and vehicle in the left adjacent lane in the area (left side horizontal line filled area in FIG. 26) This means that detection and distance calculation have been performed. In this case, when the preceding vehicle in the own vehicle lane is detected, "1" is written in the register FVM. When the vehicle in the right adjacent lane is detected, "1" is written in the register FVR. If a vehicle in the left adjacent lane is detected, the register FVL will show "1".
Is written.

【0134】CPU1は、次に、レジスタFVMの内容が
「1」(自車レ−ンに先行車両あり)であるかをチェッ
クして、「1」であると「出力」Kに進み、画像認識結
果を出力する。そしてまた「画像入力」Bを実行し、同
様な処理を行なう。すなわち、実質上ウィンドウ2−1
を対象とする処理で、自車レ−ン上に先行車両を検出し
ている間は、先行車両との車間距離が比較的に短いの
で、図3に示す「画像入力」B〜「出力」Kを繰返し実
行し、後述するウィンドウ2−2および2−2を対象と
する処理DET2およびDET2は実行しない。
Next, the CPU 1 checks whether the content of the register FVM is "1" (the preceding vehicle is in the own vehicle lane), and if it is "1", it proceeds to "output" K and the image is displayed. Output the recognition result. Then, "image input" B is executed again, and the same processing is performed. That is, substantially the window 2-1
In the processing targeting the above, while the preceding vehicle is detected on the own vehicle lane, the distance between the preceding vehicle and the preceding vehicle is relatively short, so "image input" B to "output" shown in FIG. K is repeatedly executed, and the processes DET2 and DET2 for windows 2-2 and 2-2 described later are not executed.

【0135】DET1で、自車レ−ン上に先行車両を検
出しなかったとき(FVM=0)には、CPU1はDET
1に続いて「ウィンドウ2−2内の車両検出」DET2
を実行する。DET2の処理は、図14,図16に示す
ウィンドウ2−2領域で、前述のDET1の処理と同様
な処理を実行するものであり、図27の(a)に示す自
車レ−ン領域(縦線の塗りつぶし領域),右隣接レ−ン
領域(右側の横線領域)および左隣接レ−ン領域(左側
の横線領域)の先行車両検出処理を行なう。自車レ−ン
領域で先行車両(路上物体)を検出するとレジスタFVM
に「1」を書込み、右隣接レ-ン領域で車両を検出するとレ
ジスタFVRに「1」を書込み、また、左隣接レ-ン領域で車
両を検出するとレジスタFVLに「1」を書込む。そして、
レジスタFVMに「1」を書込むと、「出力」Kに進み、D
ET3は実行しない。
When the preceding vehicle is not detected on the own vehicle lane in DET1 (FVM = 0), the CPU1 executes the DET.
1 followed by "Vehicle detection in window 2-2" DET2
To execute. The process of DET2 is to execute the same process as the process of DET1 described above in the window 2-2 area shown in FIGS. 14 and 16, and the own vehicle lane area ((a) of FIG. A preceding vehicle detection process is performed for a vertical line filled area), a right adjacent lane area (right horizontal line area), and a left adjacent lane area (left horizontal line area). When the preceding vehicle (on-road object) is detected in the own vehicle lane area, the register FVM
When a vehicle is detected in the right adjacent lane area, "1" is written in the register FVR, and when a vehicle is detected in the left adjacent lane area, "1" is written in the register FVL. And
Writing "1" to register FVM advances to "output" K and D
Do not execute ET3.

【0136】DET2で、自車レ−ン上に先行車両を検
出しなかったとき(FVM=0)には、CPU1はDET
2に続いて「ウィンドウ2−3内の車両検出」DET3
を実行する。DET3の処理は、図14,図16に示す
ウィンドウ2−3領域で、前述のDET1の処理と同様
な処理を実行するものであり、図27の(b)に示す自
車レ−ン領域(縦線の塗りつぶし領域),右隣接レ−ン
領域(右側の横線領域)および左隣接レ−ン領域(左側
の横線領域)の先行車両検出処理を行なう。なお、この
ウィンドウ2−3は、前方路上の物体検出領域の最後
(最遠)のものであるので、路面領域の最遠点は、検出
した2直線(図27のLR3,LL3)の交点(無限遠
点)又は、この交点が画面を外れるときには、画面端
(Y=0)として、路面領域を規定する。自車レ−ン領
域で先行車両(路上物体)を検出するとレジスタFVMに
「1」を書込み、右隣接レ-ン領域で車両を検出するとレジ
スタFVRに「1」を書込み、また、左隣接レ-ン領域で車両
を検出するとレジスタFVLに「1」を書込む。そして、
「出力」Kに進む。
When the preceding vehicle is not detected on the own vehicle lane in DET2 (FVM = 0), the CPU 1 executes the DET.
2 followed by "Detection of vehicle in window 2-3" DET3
To execute. The process of DET3 is to execute the same process as the process of DET1 described above in the window 2-3 area shown in FIGS. 14 and 16, and the own vehicle lane area ((b) of FIG. A preceding vehicle detection process is performed for a vertical line filled area), a right adjacent lane area (right horizontal line area), and a left adjacent lane area (left horizontal line area). Since this window 2-3 is the last (farthest) end of the object detection area on the road ahead, the farthest point of the road surface area is the intersection point of the two detected straight lines (LR3, LL3 in FIG. 27) ( At the point of infinity) or when this point of intersection deviates from the screen, the road surface area is defined as the screen edge (Y = 0). When a preceding vehicle (on-road object) is detected in the own vehicle lane area, "1" is written in the register FVM, when a vehicle is detected in the right adjacent lane area, "1" is written in the register FVR, and the left adjacent area is detected. -When a vehicle is detected in the zone, write "1" to the register FVL. And
Go to “Output” K.

【0137】ここで、図3に示した「昼夜の判定」Sに
ついて説明する。この処理は、大きく分けると図54に
示すステップS1,S2,S3及びS4の4つで構成さ
れている。TVカメラによって撮影される映像は、例え
ば図64に示すような2次元画像であり、この画像に
は、通常、空の領域,路面の領域およびその他の領域が
含まれる。そこでこの実施例では、図55に示すよう
に、無限遠点の座標(Xv,Yv)を基準にして、画像中
の領域を、空の領域RGS,路面の領域およびその他の
領域に区分している。そして、昼夜の判定を実施するた
めに、この実施例では、空の領域RGSの画像情報のみ
を参照している。即ち、空の領域RGSでは、昼夜の明
るさの変化が充分に大きく、ノイズ画像が現われる機会
も比較的少ないので、空の領域RGSの明るさの識別に
より、昼夜を判定しうる。
The "day / night determination" S shown in FIG. 3 will be described. This processing is roughly divided into four steps S1, S2, S3 and S4 shown in FIG. The video imaged by the TV camera is, for example, a two-dimensional image as shown in FIG. 64, and this image usually includes a sky region, a road region, and other regions. Therefore, in this embodiment, as shown in FIG. 55, the area in the image is divided into an empty area RGS, a road surface area and other areas based on the coordinates (Xv, Yv) of the point at infinity. There is. Then, in order to carry out the day / night determination, in this embodiment, only the image information of the sky region RGS is referred to. That is, in the sky region RGS, the change in the brightness of the day and night is sufficiently large, and the opportunity for the noise image to appear is relatively small. Therefore, it is possible to determine the day and night by identifying the brightness of the sky region RGS.

【0138】例えば、夜間に撮影して得られた画像であ
る図63,昼間に撮影して得られた画像である図64,
及び夕方に撮影して得られた画像である図65のそれぞ
れについて、空の領域に相当する1つの走査線SLの映
像信号を抽出すると、それぞれ、図66に示す(a),
(b)及び(c)になる。図66の(a)と(b)とで
は、明らかに信号レベルに差が認められるので、この映
像信号レベルに基づいて、昼夜の識別が可能である。
For example, FIG. 63, which is an image obtained by photographing at night, and FIG. 64, which is an image obtained by photographing during daytime.
65, which are images obtained by shooting in the evening and in the evening, when the video signal of one scanning line SL corresponding to the sky region is extracted, they are shown in FIG.
(B) and (c). 66 (a) and (b) of FIG. 66, a difference in signal level is clearly recognized, and thus day and night can be identified based on this video signal level.

【0139】しかし、空の領域RGSであっても、例え
ば街灯,広告灯などの影響により、昼夜の判定に悪影響
を及ぼすノイズ画像が画像中の参照領域に現われる場合
が度々ある。そこでこの実施例では、空の領域RGS中
に、多数の小領域を定め、各々の小領域について、その
平均的な明るさから昼夜を識別し、複数の小領域の識別
結果に基づいて、最終的に昼夜を識別している。
However, even in the sky region RGS, a noise image that adversely affects the determination of day and night often appears in the reference region in the image due to the influence of street lights, advertising lights, and the like. Therefore, in this embodiment, a large number of small areas are defined in the empty area RGS, day and night are identified from the average brightness of each small area, and the final result is determined based on the identification result of the plurality of small areas. It distinguishes day and night.

【0140】簡単に説明すると、図54のステップS1
では、空の領域RGS中に多数の小領域を定めるための
処理を実行し、ステップS2では、小領域の各々につい
て、その平均濃度(明るさ)を計算し、ステップS3で
は、小領域の各々について、その平均濃度を2値的に
(昼/夜に)識別し、最後のステップS4では、複数の
小領域の識別結果に基づいて、最終的な昼/夜を識別す
る。最終的な識別結果として、フラグS_night がセッ
トされる。
Briefly, step S1 in FIG.
In step S2, the average density (brightness) of each small area is calculated, and in step S3, each small area is calculated. The average density is binaryly identified (in day / night), and in the final step S4, the final day / night is identified based on the identification result of the plurality of small areas. As a final identification result, the flag S_night is set.

【0141】以下、各処理の詳細について説明する。な
お、図56以降に示すフロ−チャ−ト中の矩形の枠で示
す各処理中に現われる等号(=)は、式の右辺の内容又
は計算結果を左辺のメモリ(あるいはレジスタ,フラ
グ)に代入(即ちストア)することを意味している。
Details of each process will be described below. The equal sign (=) appearing in each process indicated by a rectangular frame in the flowcharts shown in FIG. 56 and subsequent figures indicates the contents of the right side of the expression or the calculation result in the memory (or register, flag) on the left side. It means to substitute (ie store).

【0142】図54のステップS1の詳細を図56に示
す。この処理では、空の領域RGS中に、図57に示す
ように16個の小領域A1,A2,A3,・・・A16
を定める。なお、図57中の数値は、画素数単位の座標
又は大きさを示している。
Details of step S1 in FIG. 54 are shown in FIG. In this process, 16 small areas A1, A2, A3, ... A16 are provided in the empty area RGS as shown in FIG.
Determine. It should be noted that the numerical values in FIG. 57 indicate the coordinates or size in units of the number of pixels.

【0143】図56を参照して説明する。この処理を初
めて実行する時には、初期化フラグS_init が0である
ので、ステップS1_1の次にS1_2に進み、ステップS1_
2で初期化フラグS_init をセットする。
Description will be made with reference to FIG. When this process is executed for the first time, since the initialization flag S_init is 0, the process proceeds to step S1_2 after step S1_1, and step S1_
In step 2, the initialization flag S_init is set.

【0144】次のステップS1_3では、フラグS_night
をクリアして、レジスタNo_maxに定数16をストアす
る。続くステップS1_4では、カウンタi,j及びkを
それぞれクリアする。次のステップS1_5からS1_12ま
での処理は、j<No_maxである間、ル−プ処理として
繰り返し実行される。
In the next step S1_3, the flag S_night is set.
Is cleared and the constant 16 is stored in the register No_max. In the subsequent step S1_4, the counters i, j and k are each cleared. The following steps S1_5 to S1_12 are repeatedly executed as a loop process while j <No_max.

【0145】ステップS1_5ではメモリS_xs(j+1),S_
ys(j+1),S_av(j+1)及びS_k(j+1)に、それぞれ(32
×j+16),20,255及び1.0をストアし、ス
テップS1_6ではカウンタjをインクリメント(+1)
し、ステップS1_7ではメモリS_pos(i,k)にjの値をス
トアし、ステップS1_8ではカウンタkをインクリメン
トする。また、カウンタkが4になる毎に、ステップS
1_9からS1_10に進み、メモリS_pos(i,k)をクリアし、
次のステップS1_11でカウンタkをクリアしてカウンタ
iをインクリメントする。
In step S1_5, memories S_xs (j + 1), S_
ys (j + 1), S_av (j + 1) and S_k (j + 1) are respectively (32
Xj + 16), 20, 255 and 1.0 are stored, and the counter j is incremented (+1) in step S1_6.
Then, in step S1_7, the value of j is stored in the memory S_pos (i, k), and in step S1_8, the counter k is incremented. Also, every time the counter k reaches 4, step S
Go from 1_9 to S1_10, clear the memory S_pos (i, k),
In the next step S1_11, the counter k is cleared and the counter i is incremented.

【0146】なお、例えばメモリS_xs(j+1)は、予め定
めたメモリ配列S_xs(0又は1)〜S_xs(最大値)の中の
一部分であり、括弧内のパラメ−タの値によって特定さ
れるメモリである。他のメモリについても同様の表記の
ものは、全て同様のメモリ配列の一部分を示している。
また、フロ−チャ−ト中のアスタリスク(*)は乗算を
意味している。
Note that, for example, the memory S_xs (j + 1) is a part of a predetermined memory array S_xs (0 or 1) to S_xs (maximum value) and is specified by the parameter values in parentheses. Memory. For other memories, the same notation all indicates a part of the same memory array.
The asterisk (*) in the flowchart means multiplication.

【0147】図56に示す処理を実行することによっ
て、メモリS_xs(1),S_xs(2),S_xs(3),S_xs(4),
・・・・,S_xs(16)に、それぞれ16,16+32,16+32
×2,16+32×3,・・・・,16+32×15がストアされる。
つまり、図57に示す小領域A1,A2,A3,A4,
・・・・A16のそれぞれの左端のx座標が、それぞれ
メモリS_xs(1),S_xs(2),S_xs(3),S_xs(4),・・
・・,S_xs(16)に保持される。また、小領域A1,A
2,A3,A4,・・・・A16のそれぞれの上端のy
座標(全て20)が、それぞれメモリS_ys(1),S_ys
(2),S_ys(3),S_ys(4),・・・・,S_ys(16)に保持
される。更に、メモリS_av(1)〜S_av(16)の内容は全
て最大値である255に初期化され、メモリS_k(1)〜
S_k(16)の内容は全て1.0に初期化される。また、2
次元配列メモリであるS_pos(0,0)〜S_pos(3,3)には、
図60の(a)に示すようにそれぞれ値がストアされ
る。
By executing the processing shown in FIG. 56, the memories S_xs (1), S_xs (2), S_xs (3), S_xs (4),
..., to S_xs (16), 16, 16 + 32, 16 + 32, respectively
× 2, 16 + 32 × 3, ..., 16 + 32 × 15 are stored.
That is, the small areas A1, A2, A3, A4 shown in FIG.
.... The x coordinate of the left end of each A16 is the memory S_xs (1), S_xs (2), S_xs (3), S_xs (4) ,.
.., held in S_xs (16). In addition, small areas A1 and A
2, A3, A4, ...
The coordinates (all 20) are the memory S_ys (1) and S_ys, respectively.
(2), S_ys (3), S_ys (4), ..., S_ys (16). Furthermore, the contents of the memories S_av (1) to S_av (16) are all initialized to the maximum value of 255, and the memories S_k (1) to S_av (16)
The contents of S_k (16) are all initialized to 1.0. Also, 2
In S_pos (0,0) to S_pos (3,3), which are three-dimensional array memories,
Values are stored as shown in FIG. 60 (a).

【0148】図54のステップS2の詳細を図58に示
す。図58を参照して説明する。この処理においては、
基本的に図57に示す小領域A1〜A16のそれぞれに
おける画像情報の平均的な階調を計算する。但し、図5
8の処理を1回実行するだけでは16個の領域A1〜A
16のうち4領域だけの階調を計算し、図58の処理を
4回実行することによって、16個の全ての領域の平均
階調が計算される。16個の領域A1〜A16のうちの
いずれを処理対象とするかが、図60に(a)として示
した2次元配列メモリS_pos(S_cy,j)の内容を参照す
ることにより決定される。例えば、カウンタS_cyが1
で、カウンタjが2であれば、メモリS_pos(S_cy,j)
の内容が7であるので、領域A7の平均階調を求める。
Details of step S2 in FIG. 54 are shown in FIG. This will be described with reference to FIG. In this process,
Basically, the average gradation of the image information in each of the small areas A1 to A16 shown in FIG. 57 is calculated. However, FIG.
If the processing of 8 is executed only once, 16 areas A1 to A
By calculating the gradations of only 4 areas out of 16, and executing the process of FIG. 58 four times, the average gradations of all 16 areas are calculated. Which of the 16 areas A1 to A16 is to be processed is determined by referring to the contents of the two-dimensional array memory S_pos (S_cy, j) shown as (a) in FIG. For example, the counter S_cy is 1
Then, if the counter j is 2, the memory S_pos (S_cy, j)
Is 7, the average gradation of the area A7 is calculated.

【0149】最初のステップS2_1ではカウンタjをク
リアし、次のステップS2_2では、カウンタS_cy,jに
よって特定されるメモリS_pos(S_cy,j)の内容を参照
し、その内容を領域番号レジスタnoにストアする。n
oの値が0でなければ、ステップS2_3を通ってS2_4に
進む。
In the first step S2_1, the counter j is cleared, and in the next step S2_2, the contents of the memory S_pos (S_cy, j) specified by the counter S_cy, j are referred to and the contents are stored in the area number register no. To do. n
If the value of o is not 0, the process proceeds to step S2_4 through step S2_3.

【0150】ステップS2_4では、メモリS_av(no)をク
リアし、カウンタcntをクリアし、レジスタnoの値
で示される小領域のx座標をメモリS_xs(no)から得
て、レジスタxs及びxにストアし、レジスタnoの値
で示される小領域のy座標をメモリS_ys(no)から得
て、レジスタys及びyにストアする。
In step S2_4, the memory S_av (no) is cleared, the counter cnt is cleared, the x coordinate of the small area indicated by the value of the register no is obtained from the memory S_xs (no), and stored in the registers xs and x. Then, the y coordinate of the small area indicated by the value of the register no is obtained from the memory S_ys (no) and stored in the registers ys and y.

【0151】ステップS2_7では、画像デ−タ中のレジ
スタx,yが示す座標に存在する画素の階調情報I(x,
y)をメモリS_av(no)に加算(累算)し、カウンタxお
よびcntをそれぞれインクリメントする。x<(xs
+16)であれば、次のステップS2_9からS2_7に戻
る。従って、x=(xs+16)になるまで、ステップS
2_7が繰り返される。これによって、座標(xs,y)から(xs
+15,y)までの16画素について、それらの階調情報I
(x,y)の累算値がメモリS_av(no)に保持される。
In step S2_7, the gradation information I (x, of the pixel existing at the coordinates indicated by the registers x and y in the image data.
y) is added (accumulated) to the memory S_av (no), and the counters x and cnt are respectively incremented. x <(xs
+16), the process returns from the next step S2_9 to S2_7. Therefore, until x = (xs + 16), step S
2_7 is repeated. This will convert the coordinates (xs, y) to (xs
For 16 pixels up to +15, y), their gradation information I
The accumulated value of (x, y) is held in the memory S_av (no).

【0152】ステップS2_10では、カウンタxにxsの
値(小領域の左端位置)をプリセットし、カウンタyに
3を加算する。続くステップS2_11では、yと(ys+
24)を比較する。そして、y<(ys+24)である
と、再びステップS2_7に戻る。従って、走査線の3ラ
インおきに、即ち、y座標がys,ys+3,ys+
6,ys+9,・・・,ys+21の各々の走査線に対
して、ステップS2_7,S2_9が実行される。つまり、y
=(ys+24)になり、ステップS2_11からS2_12に
進む場合には、16×24画素で構成される1つの小領
域の中で、図59にハッチングで示した全ての画素の階
調の累算値が、メモリS_av(no)に保持される。また、
カウンタcntには、当該小領域内で参照した画素の
数、即ち図59にハッチングで示した画素の数が保持さ
れる。ステップS2_12では、メモリS_av(no)の内容を
カウンタcntの値で割った結果をメモリS_av(no)に
ストアする。これによって、当該小領域内で参照した全
画素の平均階調が求められ、メモリS_av(no)に保持さ
れる。また、カウンタjがインクリメントされる。
In step S2_10, the value of xs (the left end position of the small area) is preset in the counter x, and 3 is added to the counter y. In the following step S2_11, y and (ys +
24) are compared. Then, if y <(ys + 24), the process returns to step S2_7 again. Therefore, every 3 lines of scanning lines, that is, the y coordinate is ys, ys + 3, ys +.
Steps S2_7 and S2_9 are executed for each of the scanning lines 6, ys + 9, ..., Ys + 21. That is, y
= (Ys + 24), and when the process proceeds from step S2_11 to S2_12, in one small region composed of 16 × 24 pixels, the cumulative value of the gradation of all the pixels shown by hatching in FIG. 59. Are held in the memory S_av (no). Also,
The counter cnt holds the number of pixels referred to in the small area, that is, the number of pixels hatched in FIG. In step S2_12, the result of dividing the content of the memory S_av (no) by the value of the counter cnt is stored in the memory S_av (no). As a result, the average gradation of all the pixels referred to in the small area is obtained and stored in the memory S_av (no). Also, the counter j is incremented.

【0153】ステップS2_12からS2_2に戻り、上記処
理を繰り返す。例えば、パラメ−タS_cyが0の場合に
は、メモリS_pos(S_cy,j)から読み出されてレジス
タnoにストアされる値が、カウンタjの値に応じて、
1,2,3,4,0と順に変化する(図60参照)の
で、1回目,2回目,3回目および4回目の処理で、そ
れぞれ小領域A1,A2,A3およびA4に関する平均
階調が求められ、その結果がそれぞれメモリS_av(no)
にストアされる。そして、メモリS_pos(S_cy,j)か
ら読み出された値が0になると、即ち4つの小領域の処
理が完了すると、ステップS2_3からS2_5に進む。
The process returns from step S2_12 to S2_2 and the above processing is repeated. For example, when the parameter S_cy is 0, the value read from the memory S_pos (S_cy, j) and stored in the register no is changed according to the value of the counter j.
1, 2, 3, 4, 0 (see FIG. 60), the average gradations for the sub-regions A1, A2, A3, and A4 are 1st, 2nd, 3rd, and 4th, respectively. Required and the results are stored in memory S_av (no)
Will be stored in. Then, when the value read from the memory S_pos (S_cy, j) becomes 0, that is, when the processing of the four small areas is completed, the process proceeds from step S2_3 to S2_5.

【0154】ステップS2_5ではカウンタS_cyをインク
リメントする。また、その結果、カウンタS_cyの値が
4になった場合には、ステップS2_6からS2_8に進み、
カウンタS_cyをクリアする。ステップS2_5を実行する
とカウンタS_cyが更新されるので、次回に図58の処
理を実行する場合には、メモリS_pos(S_cy,j)から
読み出される値、即ち処理対象の小領域は、今回とは違
うものになる。そして、図58の処理を4回繰り返し実
行すると、16個の小領域A1〜A16の全ての処理が
完了する。
In step S2_5, the counter S_cy is incremented. As a result, when the value of the counter S_cy reaches 4, the process proceeds from step S2_6 to S2_8,
Clear the counter S_cy. Since the counter S_cy is updated when step S2_5 is executed, the value read from the memory S_pos (S_cy, j), that is, the small area to be processed is different from this time when the processing of FIG. 58 is executed next time. It becomes a thing. Then, when the process of FIG. 58 is repeatedly executed four times, all the processes of the 16 small areas A1 to A16 are completed.

【0155】但し、図58の処理は、画像を入力する毎
に繰り返し実行され、処理の結果はそれが更新されるま
でメモリS_av(S_cy,j)に保持されているので、図5
8の処理を4回繰り返さなくても、16個の小領域の全
てについて平均階調を得ることができる。これによっ
て、昼/夜を識別する周期を短くすることができる。ま
た、この実施例では、小領域内の全ての画素を参照せず
に、水平走査線の3ラインに1ラインの割合いで各画素
を参照する、走査線の間引きを実施しているので、図5
8に示す処理の実行に要する時間を短縮することができ
る。
However, the process of FIG. 58 is repeatedly executed every time an image is input, and the result of the process is held in the memory S_av (S_cy, j) until it is updated.
Even if the process of 8 is not repeated 4 times, the average gradation can be obtained for all 16 small regions. As a result, the cycle for identifying day / night can be shortened. Further, in this embodiment, the scanning lines are thinned out by referring to each pixel at a ratio of one line to three lines of the horizontal scanning line without referring to all the pixels in the small area. 5
The time required to execute the process shown in 8 can be shortened.

【0156】図54のステップS3の詳細な内容を図6
1に示す。図61を参照して説明する。ステップS3_1
ではカウンタiに1をプリセットする。次のステップS
3_2では、カウンタiの値で特定されるメモリS_av(i)
に保持されている1つの小領域の平均階調値を予め定め
たしきい値THaと比較する。そして、S_av(i)<TH
aであれば、次のステップS3_4で、カウンタiの値で
特定されるフラグS_flag(i)をセットし、S_av(i)≧T
HaならステップS3_3で、カウンタiの値で特定され
るフラグS_flag(i)をクリアする。つまり、各小領域の
平均階調がしきい値より小さい(暗い)場合には、その
小領域を「夜」の候補とみなし、平均階調がしきい値以
上の(明るい)場合には、その小領域を「昼」の候補と
みなす。
The detailed contents of step S3 of FIG. 54 are shown in FIG.
It is shown in FIG. This will be described with reference to FIG. Step S3_1
Then, 1 is preset in the counter i. Next step S
In 3_2, the memory S_av (i) specified by the value of the counter i
The average gradation value of one small area held at is compared with a predetermined threshold value THa. And S_av (i) <TH
If it is a, in the next step S3_4, the flag S_flag (i) specified by the value of the counter i is set, and S_av (i) ≧ T
If it is Ha, the flag S_flag (i) specified by the value of the counter i is cleared in step S3_3. That is, when the average gradation of each small area is smaller than the threshold value (dark), the small area is considered as a candidate for "night", and when the average gradation is equal to or higher than the threshold value (bright), The small area is considered as a candidate for "daytime".

【0157】次のステップS3_5でカウンタiをインク
リメントし、続くステップS3_6ではカウンタiの値を
小領域の最大数No_maxと比較する。i≦No_maxであ
れば、ステップS3_2に戻って上記処理を繰り返す。つ
まり、16個の小領域のそれぞれについて、メモリS_a
v(i)に保持されている各平均階調値をしきい値THaに
よって2値的に識別し、その結果をフラグS_flag(i)に
保存する。従って、フラグS_flag(i)を参照することに
より、i番目の小領域が「夜」の候補か「昼」の候補か
を識別することができる。
In the next step S3_5, the counter i is incremented, and in the following step S3_6, the value of the counter i is compared with the maximum number No_max of small areas. If i ≦ No_max, the process returns to step S3_2 to repeat the above process. That is, for each of the 16 small areas, the memory S_a
Each average gradation value held in v (i) is binaryly identified by the threshold value THa, and the result is stored in the flag S_flag (i). Therefore, by referring to the flag S_flag (i), it is possible to identify whether the i-th small area is a “night” candidate or a “day” candidate.

【0158】図54のステップS4の詳細な内容を図6
2に示す。図62を参照して説明する。最初のステップ
S4_1では、カウンタiに1をプリセットし、カウンタ
cntおよびTHNをそれぞれクリアする。次のステッ
プS4_2では、カウンタTHNをインクリメントする。
続くステップS4_3では、カウンタiの値で特定される
フラグS_flag(i)を参照する。そして、S_flag(i)=1
なら、即ちi番目の小領域が「夜」の候補であると、次
のステップS4_4でカウンタcntをインクリメントす
る。S_flag(i)=0なら、即ちi番目の小領域が「昼」
の候補なら、カウンタcntは更新しない。
The detailed contents of step S4 of FIG. 54 are shown in FIG.
It is shown in FIG. This will be described with reference to FIG. In the first step S4_1, the counter i is preset to 1 and the counters cnt and THN are cleared. In the next step S4_2, the counter THN is incremented.
In the following step S4_3, the flag S_flag (i) specified by the value of the counter i is referred to. And S_flag (i) = 1
If so, that is, if the i-th small area is a candidate for "night", the counter cnt is incremented in the next step S4_4. If S_flag (i) = 0, that is, the i-th small area is "daytime"
, The counter cnt is not updated.

【0159】ステップS4_6では、カウンタiを小領域
の最大数No_maxと比較する。そして、i≦No_maxで
あれば、ステップS4_2に戻って上記処理を繰り返す。
これによって、フラグS_flag(1)〜S_flag(16)の全て
がステップS4_3でチェックされる。ステップS4_6から
S4_7に進む場合には、16個の小領域A1〜A16の
うち、「夜」の候補であった小領域の数が、カウンタc
ntに保持される。処理対象とした全ての小領域の数
(実際にはNo_max)がカウンタTHNに保持される。
In step S4_6, the counter i is compared with the maximum number No_max of small areas. Then, if i ≦ No_max, the process returns to step S4_2 to repeat the above process.
As a result, all of the flags S_flag (1) to S_flag (16) are checked in step S4_3. In the case of proceeding from step S4_6 to S4_7, the number of small areas that are candidates for "night" among the 16 small areas A1 to A16 is the counter c.
held in nt. The counter THN holds the number of all the small areas to be processed (actually No_max).

【0160】ステップS4_7では、THN×(3/4)
を計算し、その結果がTHNにストアされる。そして次
のステップS4_8では、カウンタcntの値とTHNの
値とを比較する。つまり、「夜」の候補であった小領域
の数を、処理対象とした全ての小領域の数(この場合は
16)を基準にして定めたしきい値(THNの内容)と
比較する。そして、cnt≧THNであると、次のステ
ップS4_10で昼夜識別フラグS_nightをセットし、cn
t<THNであると、ステップS4_9でフラグS_night
をクリアする。従って、「夜」の候補の小領域の数が全
小領域の3/4以上である場合に最終的に「夜」と識別
され、それ以外の場合には「昼」と識別される。
At step S4_7, THN × (3/4)
And the result is stored in THN. Then, in the next step S4_8, the value of the counter cnt is compared with the value of THN. In other words, the number of small areas that are candidates for "night" is compared with a threshold value (content of THN) determined based on the number of all small areas (16 in this case) that are the processing targets. If cnt ≧ THN, the day / night identification flag S_night is set in the next step S4_10, and cn is set.
If t <THN, the flag S_night is determined in step S4_9.
To clear. Therefore, when the number of small areas of the “night” candidate is 3/4 or more of all the small areas, it is finally identified as “night”, and in other cases, it is identified as “daytime”.

【0161】以上に説明した第1実施例では、自車両に
最も近いウィンドウ2−1の領域内で自車レ−ン左,右
端白線LR1,LL1(図26)を検出して、これに基
づいて、ウィンドウ2−1内の左,右隣接レ−ンの左
端,右端白線を推定し、ウィンドウ2−1からウィンド
ウ2−2の中程までの、LR1,LL1間領域(図26
の縦線塗りつぶし領域)に物体が存在するか否かを検出
し、かつ同様に左,右隣接レ−ン領域(図26の横線塗
りつぶし領域)を定めてそこに物体が存在するか否かを
検出して、物体を検出すると自車から該物体までの距離
を算出する。自車レ−ン上のこの領域で物体を検出する
とウィンドウ2−2および2−3に関する処理は実行し
ない。該物体を検出しなかったときにウィンドウ2−2
に関しても同様な処理(図27のa)を実行し、ここで
自車レ−ン領域の物体を検出しないとウィンドウ2−3
に関しても同様な処理(図27のb)を実行する。
In the first embodiment described above, the vehicle lane left and right end white lines LR1 and LL1 (FIG. 26) are detected in the area of the window 2-1 that is closest to the vehicle and based on this. Then, the left and right white lines of the left and right adjacent lanes in the window 2-1 are estimated, and the region between LR1 and LL1 from the window 2-1 to the middle of the window 2-2 (see FIG. 26).
Of the vertical line), and whether or not an object exists in the left and right adjacent lane regions (horizontal line filled region of FIG. 26) are similarly determined. When the object is detected and the object is detected, the distance from the vehicle to the object is calculated. When an object is detected in this area on the own vehicle lane, the processing regarding windows 2-2 and 2-3 is not executed. Window 2-2 when the object is not detected
The same processing (a in FIG. 27) is also executed for the window 2-3 if the object in the own vehicle lane area is not detected.
The same process (b in FIG. 27) is also executed for the above.

【0162】また、夜間には、処理するウィンドゥのy
方向の位置について、先行車両のテ−ルランプ部の高さ
(TL)に応じた補正が加えられる(図32の154
B)。このように、昼/夜の違いに応じて、処理するウ
ィンドゥの位置を補正し、更に図39のステップ208
B,208Cのように距離を求めるための計算式を切換
え(又は補正し)、また図42のステップ229B,2
29Cのように判別のためのしきい値を切換えることに
より、先行車両の認識のための処理のほとんどを、昼間
と夜間とが共通に利用することができる。そのため、ハ
−ドウェアの構成を複雑化することなく、昼間も夜間も
先行車両を認識しうる。
Also, at night, the y of Windu to be processed
The position in the direction is corrected according to the height (TL) of the tail lamp of the preceding vehicle (154 in FIG. 32).
B). In this way, the position of the window to be processed is corrected according to the day / night difference, and further, step 208 in FIG.
B, 208C, the calculation formula for obtaining the distance is switched (or corrected), and steps 229B, 2 in FIG.
By switching the threshold value for discrimination like 29C, most of the processing for recognizing the preceding vehicle can be commonly used in the daytime and the nighttime. Therefore, the preceding vehicle can be recognized both during the day and at night without complicating the hardware structure.

【0163】次に、第2実施例について説明する。Next, the second embodiment will be described.

【0164】この実施例では、CPU1は図53に示す
処理を実行する。すなわち、「昼夜の判定」Sの次に、
「自車レ−ン検出(2−1)」D1(前述のDの内容に
同じ)で、ウィンドウ2−1内の2直線LR1,LL1(図
14のc)を検出し、検出した直線に基づいて「隣接レ
−ン推定(2−1)」F1(前述のFの内容に同じ)
で、右隣接レ−ンの右端白線LRR1および左隣接レ−ン
の左端白線LLL1を推定する。そしてウィンドウを2−
2に切換えて、「自車レ−ン検出(2−2)」D2およ
び「隣接レ−ン推定(2−2)」F2で、同様な直線検
出および直線推定を実行して、ウィンドウ2−2内の自
車レ−ン端を表わす2直線LR2,LL2(図14のc)な
らびに右隣接レ−ンの右端白線LRR2および左隣接レ−
ンの左端白線LLL2を推定する。更に、ウィンドウを2
−3に切換えて、「自車レ−ン検出(2−3)」D3お
よび「隣接レ−ン推定(2−3)」F3で、同様な直線
検出および直線推定を実行して、ウィンドウ2−3内の
自車レ−ン端を表わす2直線LR3,LL3(図14のc)
ならびに右隣接レ−ンの右端白線LRR3および左隣接レ
−ンの左端白線LLL3を推定する。ここで処理するウィ
ンドウのy方向の位置についても、前記実施例と同様
に、夜間は、先行車両のテ−ルランプ部の高さ(TL)
に応じた補正が加えられる。
In this embodiment, the CPU 1 executes the processing shown in FIG. That is, next to the “day / night judgment” S,
The "self-vehicle lane detection (2-1)" D1 (same as the content of the above-mentioned D) detects two straight lines LR1 and LL1 (c in FIG. 14) in the window 2-1 and the detected straight line is detected. Based on "Adjacent lane estimation (2-1)" F1 (same as the content of the above-mentioned F)
Then, the right end white line LRR1 of the right adjacent lane and the left end white line LLL1 of the left adjacent lane are estimated. And the window 2-
2 is performed, and similar straight line detection and straight line estimation are executed by "own vehicle lane detection (2-2)" D2 and "adjacent lane estimation (2-2)" F2, and window 2- Two straight lines LR2 and LL2 (c in FIG. 14) representing the own vehicle lane end, and the right end white line LRR2 and the left adjacent lane of the right adjacent lane.
Estimate the leftmost white line LLL2 of the computer. In addition, 2 windows
-3, "Self-vehicle lane detection (2-3)" D3 and "Adjacent lane estimation (2-3)" F3 perform similar straight line detection and straight line estimation, and the window 2 Two straight lines LR3 and LL3 representing the vehicle lane end within -3 (c in FIG. 14)
Also, the right end white line LRR3 of the right adjacent lane and the left end white line LLL3 of the left adjacent lane are estimated. As for the position of the window to be processed here in the y direction, the height (TL) of the tail lamp portion of the preceding vehicle at night as in the above embodiment.
The correction according to is added.

【0165】以上により、自車レ−ンの右端白線を表わ
す3本の直線LR1〜LR3,左端白線を表わす3本の直線
LL1〜LL3(図14のc)、ならびに、それらの外側
の、右隣接レ−ンの右端白線(推定)を表わす3本の直
線LRR1〜LRR3および左隣接レ−ンの左端白線(推定)
を表わす3本の直線LLL1〜LLL3が求められたことにな
る。
As described above, the three straight lines LR1 to LR3 representing the white line at the right end of the own vehicle lane, the three straight lines LL1 to LL3 representing the white line at the left end (c in FIG. 14), and the outside of them, the right line Three straight lines LRR1 to LRR3 representing the rightmost white line (estimated) of the adjacent lane and the leftmost white line (estimated) of the left adjacent lane
That is, three straight lines LLL1 to LLL3 representing the above are obtained.

【0166】CPU1は次に、「自車レ−ン領域設定」
hで、直線LR1とウィンドウ2−2の右辺又は下辺(X=5
11の縦線又はY=350の横線)との交点,直線LR1とLR2の
交点(図14のcの丸印),LR2とLR3の交点,直線LL1
とウィンドウ2−1の左辺又は下辺(X=0の縦線又はY=35
0の横線)との交点,直線LL1とLL2の交点,LL2とLL3
の交点、ならびに、直線LR3とLL3との交点を算出し、
これらの交点のY方向で隣り合う2点を結ぶ直線とウィ
ンドウ2−1の下辺で囲まれる領域を自車走行レ−ン領
域と設定する。そして次の「自車レ−ン先行車両認識及
び測距」Hで、前述の第1実施例における物体検出と距
離算出(H)と同様な処理により、設定した領域内での
物体検出と距離算出を行なう。ここで処理するウィンド
ウのy方向の位置についても、前記実施例と同様に、夜
間は、先行車両のテ−ルランプ部の高さ(TL)に応じ
た補正が加えられる。
Next, the CPU 1 sets "own vehicle lane area setting".
h, the straight line LR1 and the right or lower side of the window 2-2 (X = 5
11 vertical line or Y = 350 horizontal line), intersection of straight lines LR1 and LR2 (circle mark in FIG. 14c), intersection of LR2 and LR3, straight line LL1
And the left or bottom side of window 2-1 (vertical line at X = 0 or Y = 35
Intersection of 0), intersection of straight lines LL1 and LL2, LL2 and LL3
And the intersection of the straight lines LR3 and LL3,
An area surrounded by a straight line connecting two points adjacent to each other in the Y direction at these intersections and the lower side of the window 2-1 is set as the vehicle traveling lane area. Then, in the next "recognition and distance measurement of preceding vehicle lane preceding vehicle" H, the object detection and the distance within the set area are performed by the same processing as the object detection and the distance calculation (H) in the first embodiment. Calculate. The position of the window to be processed here in the y direction is also corrected at night according to the height (TL) of the tail lamp portion of the preceding vehicle, as in the above-described embodiment.

【0167】CPU1は次に、「右隣接レ−ン領域設
定」iで、直線LR1とウィンドウ2−1の右辺又は下辺
(X=511の縦線又はY=350の横線)との交点,直線LR1とL
R2の交点,LR2とLR3の交点,直線LRR1とウィンドウ2
−1の右辺又は下辺(X=511の縦線又はY=350の横線)との
交点,直線LRR1とLRR2の交点,LRR2とLRR3の交点、
ならびに、直線LR3とLRR3との交点を算出し、これら
の交点のY方向で隣り合う2点を結ぶ直線とウィンドウ
2−1の下辺で囲まれる領域を右隣接レ−ン領域と設定
する。そして次の「右隣接レ−ン先行車両認識及び測
距」Iで、前述の第1実施例における右隣接レ−ンにお
ける物体検出と距離算出(I)と同様な処理により、設
定した領域内での物体検出と距離算出を行なう。ここで
処理するウィンドウのy方向の位置についても、前記実
施例と同様に、夜間は、先行車両のテ−ルランプ部の高
さ(TL)に応じた補正が加えられる。
Next, the CPU 1 executes the "right adjacent lane area setting" i, and the straight line LR1 and the right side or the lower side of the window 2-1.
Intersection with (vertical line of X = 511 or horizontal line of Y = 350), straight lines LR1 and L
R2 intersection, LR2 and LR3 intersection, straight line LRR1 and window 2
-1 right side or lower side (vertical line of X = 511 or horizontal line of Y = 350), intersection of straight lines LRR1 and LRR2, intersection of LRR2 and LRR3,
Further, the intersection between the straight lines LR3 and LRR3 is calculated, and the area surrounded by the straight line connecting two points adjacent to each other in the Y direction of these intersections and the lower side of the window 2-1 is set as the right adjacent lane area. Then, in the next "right adjacent lane preceding vehicle recognition and distance measurement" I, within the set area by the same processing as the object detection and distance calculation (I) in the right adjacent lane in the first embodiment described above. Object detection and distance calculation are performed. The position of the window to be processed here in the y direction is also corrected at night according to the height (TL) of the tail lamp portion of the preceding vehicle, as in the above-described embodiment.

【0168】CPU1は次に、「左隣接レ−ン領域設
定」jで、直線LL1とウィンドウ2−1の左辺又は下辺
(X=0の縦線又はY=350の横線)との交点,直線LL1とLL2
の交点,LL2とLL3の交点,直線LLL1とウィンドウ2−
1の左辺又は下辺(X=0の縦線又はY=350の横線)との交
点,直線LLL1とLLL2の交点,LLL2とLLL3の交点、な
らびに、直線LL3とLLL3との交点を算出し、これらの
交点のY方向で隣り合う2点を結ぶ直線とウィンドウ2
−1の下辺で囲まれる領域を左隣接レ−ン領域と設定す
る。そして次の「左隣接レ−ン先行車両認識及び測距」
Jで、前述の第1実施例における左隣接レ−ンにおける
物体検出と距離算出(J)と同様な処理により、設定し
た領域内での物体検出と距離算出を行なう。ここで処理
するウィンドウのy方向の位置についても、前記実施例
と同様に、夜間は、先行車両のテ−ルランプ部の高さ
(TL)に応じた補正が加えられる。
Next, the CPU 1 executes the "left adjacent lane area setting" j, and the straight line LL1 and the left or lower side of the window 2-1.
Intersection with (vertical line at X = 0 or horizontal line at Y = 350), straight lines LL1 and LL2
Intersection, intersection of LL2 and LL3, straight line LLL1 and window 2-
Calculate the intersection with the left side or the lower side of 1 (vertical line at X = 0 or horizontal line at Y = 350), the intersection between straight lines LLL1 and LLL2, the intersection between LLL2 and LLL3, and the intersection between straight lines LL3 and LLL3, and these A window and a straight line connecting two points adjacent to each other in the Y direction of the intersection of
The area surrounded by the lower side of -1 is set as the left adjacent lane area. And the next "Left adjacent lane preceding vehicle recognition and distance measurement"
In J, the object detection and the distance calculation in the set area are performed by the same processing as the object detection and the distance calculation (J) in the left adjacent lane in the first embodiment. The position of the window to be processed here in the y direction is also corrected at night according to the height (TL) of the tail lamp portion of the preceding vehicle, as in the above-described embodiment.

【0169】この第2実施例によっても、自車直前か
ら、自車レ−ンの左,右端白線が交わって見える遠方点
までの路面領域の全面(自車レ−ン,右隣接レ−ンおよ
び左隣接レ−ン)について、物体探索と検出した物体の
距離の算出が行なわれる。
Also according to the second embodiment, the entire road surface area (own vehicle lane, right adjacent lane) from immediately before the own vehicle to the far point where the left and right white lines of the own vehicle lane intersect. And the left adjacent lane), the object search and the distance of the detected object are calculated.

【0170】前述の第1実施例および第2実施例のいず
れにおいても、ウィンドウ2−1,2−2および2−3
と、自車直近から次第に遠方へ探索領域が設定されて各
領域でレ−ンを区切る白線の検出が行なわれて、検出し
た白線に基づいて探索領域が設定されるので、道路がカ
−ブしていても、探索領域が遠方で路面から外れる確率
が低く、路上物体の検出、特に遠方の路上物体の検出、
がより確実となる。
In both the first and second embodiments described above, windows 2-1, 2-2 and 2-3 are provided.
Then, a search area is set gradually from the immediate vicinity of the own vehicle to a distant area, and a white line that separates the lanes is detected in each area, and the search area is set based on the detected white line. Even if the search area is far away from the road surface, the probability of being off the road surface is low, and detection of road objects, especially detection of distant road objects,
Will be more certain.

【0171】前述の「昼夜の判定」(図3のステップ
S)について、以下に、様々な変形例を説明する。
Various modifications of the above-mentioned "day / night determination" (step S in FIG. 3) will be described below.

【0172】まず、画像中の空の領域RGS内に位置決
めされる多数の小領域の形状及び配置に関する様々な変
形例を、図67,図68及び図69に示す。まず図67
を参照する。
First, FIGS. 67, 68 and 69 show various modifications regarding the shape and arrangement of a large number of small regions positioned in the empty region RGS in the image. First, FIG. 67.
Refer to.

【0173】(a)小領域をそれぞれ1本の水平線と
し、この小領域を空の領域RGS内に縦方向に連続的に
並べてある。
(A) Each of the small areas is a horizontal line, and the small areas are continuously arranged vertically in the empty area RGS.

【0174】(b)小領域をそれぞれ1本の水平線と
し、この小領域を空の領域RGS内に縦方向に互いに間
隔をあけて並べてある。
(B) Each of the small areas is a horizontal line, and the small areas are arranged in the empty area RGS at intervals in the vertical direction.

【0175】(c)小領域を水平方向に細長い矩形と
し、この小領域を空の領域RGS内に縦方向に連続的に
並べてある。
(C) The small area is a rectangle elongated in the horizontal direction, and the small areas are continuously arranged in the vertical direction in the empty area RGS.

【0176】(d)小領域を水平方向に細長い矩形と
し、この小領域を空の領域RGS内に縦方向に互いに間
隔をあけて並べてある。
(D) The small regions are horizontally elongated rectangles, and the small regions are arranged in the empty region RGS with a space therebetween in the vertical direction.

【0177】(e)小領域を水平方向に細長い矩形と
し、この小領域を空の領域RGS内に縦方向に並べ、か
つ縦方向に隣接するもの同士が互いに一部分重なるよう
に並べてある。
(E) The small areas are formed in a rectangular shape elongated in the horizontal direction, and the small areas are arranged in the empty area RGS in the vertical direction, and those adjacent in the vertical direction are partially overlapped with each other.

【0178】(f)小領域を水平方向に細長い矩形と
し、この小領域を空の領域RGS内に縦方向に並べ、一
部分の隣接する小領域が互いに一部分重なるように並べ
てある。特に、上側の小領域は重なるように配置し、無
限遠点に近い下側の小領域は重ならないように配置して
ある。このようにすると、各々の小領域に、位置に応じ
た重み付けがされる。
(F) The small areas are formed in a horizontally elongated rectangular shape, and the small areas are arranged vertically in the empty area RGS so that some adjacent small areas partially overlap each other. In particular, the small areas on the upper side are arranged so as to overlap, and the small areas on the lower side near the point at infinity are arranged so as not to overlap. In this way, each small area is weighted according to its position.

【0179】図67に示した例では、各小領域の形状を
水平方向に長いものにしたが、図68に示す例は、いず
れも各小領域の形状を垂直方向に長いものに変更してあ
る。一般のテレビカメラにおいては、水平方向に対して
主走査を実施し、垂直方向(鉛直方向)に対して副走査
を実施するので、主走査方向と一致する水平方向が長く
なるように小領域を配置すると、小領域内の情報を短時
間で参照することができる。従って通常は、図67に示
す配置にする方が好ましい。しかし、例えばテレビカメ
ラを90度傾けて、水平方向と垂直方向が逆になるよう
に取付ける場合には、図の縦方向が主走査方向になり、
横方向が副走査方向になるので、図68に示すように小
領域を配置した方が、画像情報を短時間で参照すること
ができる。
In the example shown in FIG. 67, the shape of each small area is made long in the horizontal direction, but in the example shown in FIG. 68, the shape of each small area is changed to be long in the vertical direction. is there. In a general television camera, main scanning is performed in the horizontal direction and sub-scanning is performed in the vertical direction (vertical direction), so a small area is set so that the horizontal direction that matches the main scanning direction becomes longer. When arranged, the information in the small area can be referred to in a short time. Therefore, in general, the arrangement shown in FIG. 67 is preferable. However, for example, when the TV camera is tilted by 90 degrees and is attached so that the horizontal direction and the vertical direction are opposite to each other, the vertical direction of the drawing is the main scanning direction,
Since the horizontal direction is the sub-scanning direction, it is possible to refer to the image information in a short time by arranging the small areas as shown in FIG.

【0180】次に図69を参照して説明する。Next, description will be made with reference to FIG.

【0181】(a)全ての小領域を同一形状の矩形(正
方形)とし、この小領域を空の領域RGS内の全体に渡
って連続的に配置してある。
(A) All the small areas are rectangular (square) having the same shape, and the small areas are continuously arranged over the entire empty area RGS.

【0182】(b)全ての小領域を同一形状の矩形(正
方形)にしてある。空の領域RGS内の水平方向には小
領域を連続的に配置し、縦方向には互いに間隔をあけて
配置してある。
(B) All the small areas have the same shape of rectangle (square). In the empty region RGS, small regions are continuously arranged in the horizontal direction and are spaced apart from each other in the vertical direction.

【0183】(c)全ての小領域を同一形状の矩形(正
方形)にしてある。空の領域RGS内の縦方向には小領
域を連続的に配置し、水平方向には互いに間隔をあけて
配置してある。
(C) All the small areas have the same shape of rectangle (square). In the empty region RGS, small regions are continuously arranged in the vertical direction and are spaced apart from each other in the horizontal direction.

【0184】(d)全ての小領域を同一形状の矩形(正
方形)にしてある。空の領域RGS内に小領域を縦方向
及び水平方向に、それぞれ互いに間隔をあけて整然と並
べて配置してある。
(D) All the small areas have the same shape of rectangle (square). Small regions are arranged in the empty region RGS in the vertical direction and in the horizontal direction at regular intervals and at intervals.

【0185】(e)全ての小領域を同一形状の矩形(正
方形)にしてある。空の領域RGS内に小領域を縦方向
及び水平方向に、それぞれ互いに間隔をあけて配置して
ある。また、水平方向には小領域を整然と並べてある
が、縦方向には千鳥状に並べて配置してある。
(E) All the small areas are rectangular (square) having the same shape. Small regions are arranged in the empty region RGS in the vertical direction and in the horizontal direction at intervals from each other. Also, the small areas are arranged in order in the horizontal direction, but are arranged in a staggered manner in the vertical direction.

【0186】(f)正方形状の小領域と、各々1本の水
平線でなる小領域とを組合せて配置してある。前者の小
領域は上方に配置し、後者の小領域は下方(無限遠点に
近い方)に配置してある。
(F) Square small areas and small areas each consisting of one horizontal line are arranged in combination. The former small area is located above, and the latter small area is located below (closer to the point at infinity).

【0187】なお前述の実施例においては、図56の処
理において、メモリ配列S_pos(i,k)の各要素に、図6
0の(a)に示す値をそれぞれストアしているが、例え
ば図60の(b)のように値の配置を変更してもよい。
このようにすれば、A1,A5,A9,A13,A2,
A6,・・・の順で各小領域を処理するように、順番を
変更することができる。また、メモリ配列S_pos(i,k)
の要素数(パラメ−タi,kの最大数)を変更してもよ
い。
In the above-described embodiment, in the process of FIG. 56, each element of the memory array S_pos (i, k) is assigned to FIG.
Although the values shown in (a) of 0 are stored respectively, the arrangement of the values may be changed as shown in (b) of FIG. 60, for example.
In this way, A1, A5, A9, A13, A2
The order can be changed so that each small area is processed in the order of A6, .... Also, the memory array S_pos (i, k)
The number of elements (maximum number of parameters i and k) may be changed.

【0188】次に、図61に示した処理(図54のS
3)の変形例について説明する。1つの変形例を図70
に示す。図61の中の処理S3xを変更したものが図7
0の処理である。図70を参照して、変更された部分を
説明する。この実施例では、各小領域の平均階調値を保
持するメモリS_av(i)の内容を2値的に識別するための
しきい値として、THaとTHbの2つを用いている。
この例では、THaの値は60、THbの値は80であ
る。そして、各小領域の平均階調値を2値化する前に、
フラグS_flag(i)に保持されている以前の識別結果をス
テップS3_7で参照し、S_flag(i)=1(夜の候補)で
あればステップS3_8を、そうでなければステップS3_9
に進む。ステップS3_8では、メモリS_av(i)の内容を
しきい値THaと比較し、その結果に応じてフラグS_f
lag(i)の状態を更新する。またステップS3_9では、メ
モリS_av(i)の内容をしきい値THbと比較し、その結
果に応じてフラグS_flag(i)の状態を更新する。これに
よって、各小領域の平均階調の2値化にヒステリシス特
性を持たせることができる。従って例えば、夕方の画像
のように平均階調値がしきい値に近い場合であっても、
識別結果の「夜/昼」が頻繁に切換わるのを防止するこ
とができる。
Next, the processing shown in FIG. 61 (S in FIG. 54) is executed.
A modified example of 3) will be described. FIG. 70 shows one modified example.
Shown in A modification of the process S3x in FIG. 61 is shown in FIG.
0 processing. The changed portion will be described with reference to FIG. 70. In this embodiment, two thresholds THa and THb are used as threshold values for binaryly identifying the contents of the memory S_av (i) holding the average gradation value of each small area.
In this example, the THa value is 60 and the THb value is 80. Then, before binarizing the average gradation value of each small area,
The previous identification result held in the flag S_flag (i) is referred to in step S3_7, and if S_flag (i) = 1 (night candidate), step S3_8 is performed, otherwise step S3_9.
Proceed to. In step S3_8, the contents of the memory S_av (i) are compared with the threshold value THa, and the flag S_f is determined according to the result.
Update the status of lag (i). Further, in step S3_9, the content of the memory S_av (i) is compared with the threshold value THb, and the state of the flag S_flag (i) is updated according to the result. As a result, it is possible to impart a hysteresis characteristic to the binarization of the average gradation of each small area. Therefore, for example, even when the average gradation value is close to the threshold value as in the evening image,
It is possible to prevent frequent switching of the identification result “night / day”.

【0189】もう1つの変形例を図71に示す。図61
の処理S3xを変形したものが図71である。この実施
例では、各小領域の平均階調を2値的に識別する処理に
おいて、同一の状態が数回連続的に維持される場合に、
識別結果を切換えるようにしている。
Another modification is shown in FIG. FIG.
71 is a modification of the processing S3x of FIG. In this embodiment, when the same state is continuously maintained several times in the process of binaryly identifying the average gradation of each small area,
The identification result is switched.

【0190】図71を参照して説明する。ステップS3_
14では、各小領域の平均階調値を保持するメモリS_av
(i)の内容をしきい値THaと比較し、その結果に応じ
てステップS3_15又はS3_16に進む。ステップS3_15及
びS3_16では、i番目の小領域に割当てられたフラグS
_flag_N(i)の状態を更新する。次のステップS3_17で
は、最新の識別結果を保持するフラグS_flag_N(i)の状
態と、過去の識別結果を保持するフラグS_flag_O(i)と
を比較し、両者が一致する状合には次にステップS3_19
に進み、一致しないとステップS3_18に進む。
Description will be made with reference to FIG. Step S3_
In 14, the memory S_av that holds the average gradation value of each small area
The content of (i) is compared with the threshold value THa, and depending on the result, the process proceeds to step S3_15 or S3_16. In steps S3_15 and S3_16, the flag S assigned to the i-th small area
Update the state of _flag_N (i). In the next step S3_17, the state of the flag S_flag_N (i) holding the latest identification result is compared with the flag S_flag_O (i) holding the past identification result, and if the two match, the next step is S3_19
If not, the process proceeds to step S3_18.

【0191】ステップS3_18では、i番目の小領域に割
当てられたカウンタS_cnt(i)をクリアし、次のステッ
プS3_20では、フラグS_flag_N(i)の状態をフラグS_f
lag_O(i)に保存する。
In step S3_18, the counter S_cnt (i) assigned to the i-th small area is cleared, and in the next step S3_20, the state of the flag S_flag_N (i) is set to the flag S_f.
Save it in lag_O (i).

【0192】ステップS3_19では、i番目の小領域に割
当てられたカウンタS_cnt(i)をインクリメントする。
なお、記号「+=」は、左辺の内容に右辺の内容を加算
してその結果を左辺のメモリにストアすることを意味し
ている(例えば、プログラミング言語“C”において一
般的に規定されている)。次のステップS3_21では、カ
ウンタS_cnt(i)の値をしきい値である3と比較する。
カウンタS_cnt(i)の値が0,1又は2であるとステッ
プS3_21からS3_5に進むが、S_cnt(i)の値が3以上な
ら、次にステップS3_22に進む。
In step S3_19, the counter S_cnt (i) assigned to the i-th small area is incremented.
The sign “+ =” means that the content on the right side is added to the content on the left side and the result is stored in the memory on the left side (for example, it is generally defined in the programming language “C”). Exist). In the next step S3_21, the value of the counter S_cnt (i) is compared with a threshold value of 3.
If the value of the counter S_cnt (i) is 0, 1 or 2, the process proceeds from step S3_21 to S3_5, but if the value of S_cnt (i) is 3 or more, the process proceeds to step S3_22.

【0193】ステップS3_22では、カウンタS_cnt(i)
に3をストアする。次のステップS3_23では、最新の識
別結果を保持するフラグS_flag_N(i)の状態に応じてフ
ラグS_flag(i)を更新する。従ってこの例では、ステッ
プS3_14の結果が3回連続的に同一である場合に限り、
フラグS_flag(i)の内容が変更される。従って例えば、
夕方の画像のように平均階調値がしきい値THaに近い
場合であっても、識別結果の「夜/昼」が頻繁に切換わ
るのを防止することができる。
At step S3_22, the counter S_cnt (i)
Store 3 in. In the next step S3_23, the flag S_flag (i) is updated according to the state of the flag S_flag_N (i) holding the latest identification result. Therefore, in this example, only when the result of step S3_14 is the same three times consecutively,
The content of the flag S_flag (i) is changed. So, for example,
Even when the average gradation value is close to the threshold value THa as in the image in the evening, it is possible to prevent frequent switching of the identification result “night / day”.

【0194】前述の図70の処理と図71の処理とを組
合せることもできる。例えば、図71に示す処理S3y
を、図72に示す処理に置き換えればよい。
It is also possible to combine the processing of FIG. 70 and the processing of FIG. 71 described above. For example, the process S3y shown in FIG.
May be replaced with the processing shown in FIG.

【0195】次に、図62に示した処理(図54のS
4)の変形例について説明する。1つの変形例を図73
に示す。図62の中の処理S4xを変更したものが図7
3の処理である。図73を参照して、変更された部分を
説明する。この実施例では、最終的に「夜/昼」を識別
する処理において、同一の状態が数回連続的に維持され
る場合に、識別結果を切換えるようにしている。
Next, the processing shown in FIG. 62 (S in FIG. 54) is executed.
A modified example of 4) will be described. FIG. 73 shows one modification.
Shown in FIG. 7 shows a modification of the process S4x in FIG.
It is the process of 3. The changed portion will be described with reference to FIG. 73. In this embodiment, in the final "night / day" discrimination process, the discrimination result is switched when the same state is continuously maintained several times.

【0196】ステップS4_11では、「夜の候補」の小領
域数を保持するカウンタcntの内容をしきい値を保持
するカウンタTHNの値と比較し、その結果に応じてス
テップS4_12又はS4_13に進む。ステップS4_12及びS
4_13では、フラグS_night_Nの状態を更新する。次のス
テップS4_14では、最新の状態を保持するフラグS_nig
ht_Nと、過去の状態を保持するフラグS_night_Oとを比
較し、その結果に応じてステップS4_15又はS4_16に進
む。ステップS4_15では、カウンタS_cnt_nをクリア
し、次のステップS4_17では、フラグS_night_Nの状態
をフラグS_night_Oに保存する。ステップS4_16では、
カウンタS_cnt_nをインクリメントし、次のステップS
4_18では、カウンタS_cnt_nの値をしきい値である10
と比較する。そして、S_cnt_nが10以上の場合にの
み、次のステップS4_19,S4_20を実行する。ステップ
S4_19ではカウンタS_cnt_nに10をストアし、ステッ
プS4_20では、最新の状態を保持するフラグS_night_N
に応じて、最終的な識別結果であるフラグS_nightの状
態を更新する。従ってこの例では、フラグS_night_Nと
フラグS_night_Oとが一致する状態が10回連続的に生
じた場合にのみ、フラグS_nightの状態が変わる。これ
により、夕方の画像のように各小領域の平均階調値がし
きい値(THa)に近い場合であっても、最終識別結果
(S_night)が頻繁に切換わるのを防止することができ
る。
In step S4_11, the content of the counter cnt holding the number of small areas of "night candidate" is compared with the value of the counter THN holding the threshold value, and the process proceeds to step S4_12 or S4_13 according to the result. Steps S4_12 and S
In 4_13, the state of the flag S_night_N is updated. In the next step S4_14, a flag S_nig for holding the latest state is held.
ht_N is compared with the flag S_night_O holding the past state, and the process proceeds to step S4_15 or S4_16 according to the result. In step S4_15, the counter S_cnt_n is cleared, and in the next step S4_17, the state of the flag S_night_N is stored in the flag S_night_O. In step S4_16,
The counter S_cnt_n is incremented and the next step S
In 4_18, the value of the counter S_cnt_n is a threshold value of 10
Compare with Then, only when S_cnt_n is 10 or more, the following steps S4_19 and S4_20 are executed. In step S4_19, 10 is stored in the counter S_cnt_n, and in step S4_20, the flag S_night_N that holds the latest state is stored.
Accordingly, the state of the flag S_night, which is the final identification result, is updated. Therefore, in this example, the state of the flag S_night changes only when the state in which the flag S_night_N and the flag S_night_O coincide with each other occurs 10 times in a row. Thereby, even when the average gradation value of each small area is close to the threshold value (THa) as in the evening image, it is possible to prevent the final identification result (S_night) from being frequently switched. .

【0197】もう1つの変形例を図74に示す。図62
のステップS4_2〜S4_4の部分を変更したものが図74
の処理である。図74を参照して変更された部分を説明
する。この実施例では、予め小領域毎にそれぞれ独立し
た重み係数を割り当ててある。これらの重み係数が、メ
モリ配列S_k()に保持されており、i番目の小領域の重
み係数は、パラメ−タiで特定されるメモリS_k(i)か
ら得ることができる。ステップS4_22では、メモリS_k
(i)からi番目の小領域の重み係数を読み込み、レジス
タnにストアする。次のステップS4_23では、レジスタ
THNの内容にレジスタnの内容(重み係数)を加算し
てその結果をレジスタTHNに保存する。次のステップ
S4_24では、i番目の小領域のフラグS_flag(i)を参照
する。そして、S_flag(i)=1の場合には、次のステッ
プS4_25で、カウンタcntにレジスタnの内容を加算
して、その結果をカウンタcntに保存する。従って、
全小領域の処理が終了してステップS4_7に進む場合に
は、レジスタTHNの内容は、全小領域の重み係数の総
和であり、カウンタcntの内容は、全小領域のうち、
「夜の候補」とみなされた小領域の重み係数の総和であ
る。従って、ステップS4_7ではレジスタTHNの内容
に基づいてしきい値を決定し、ステップS4_8ではカウ
ンタcntの内容をしきい値(THNの値)と比較する
ことによって、最終的に夜か昼かを識別している。
Another modification is shown in FIG. FIG. 62
FIG. 74 shows a modified version of steps S4_2 to S4_4 of FIG.
This is the process. The changed portion will be described with reference to FIG. In this embodiment, independent weighting factors are assigned to each small area in advance. These weighting factors are held in the memory array S_k (), and the weighting factor of the i-th small area can be obtained from the memory S_k (i) specified by the parameter i. In step S4_22, the memory S_k
The weighting coefficient of the i-th small area is read from (i) and stored in the register n. In the next step S4_23, the content of register n (weighting coefficient) is added to the content of register THN, and the result is stored in register THN. In the next step S4_24, the flag S_flag (i) of the i-th small area is referred to. When S_flag (i) = 1, the content of the register n is added to the counter cnt in the next step S4_25, and the result is stored in the counter cnt. Therefore,
When the processing of all the small areas is completed and the process proceeds to step S4_7, the content of the register THN is the sum of the weighting factors of all the small areas, and the content of the counter cnt is
It is the sum of the weighting factors of the small areas regarded as “night candidates”. Therefore, in step S4_7, the threshold value is determined based on the content of the register THN, and in step S4_8, the content of the counter cnt is compared with the threshold value (value of THN) to finally determine whether it is night or day. are doing.

【0198】テレビカメラによって撮影される画像(例
えば図64)においては、通常は空の領域RGSであっ
ても、その部分に樹木,街路灯など他の画像(即ちノイ
ズ)が含まれる場合がある。また、ノイズが現われる頻
度は、画像上の位置に応じて異なり、一般に、画面の上
に近づくに従って、頻度が小さくなる。従って、例えば
図69の(a)のように空の領域RGS内に多数の小領
域を配置する場合には、小領域の配置される画面中の位
置が上になるに従って、大きな重み係数を割り当てるこ
とにより、ノイズの影響を軽減することができる。
In the image (for example, FIG. 64) taken by the television camera, even in the normally empty region RGS, other images (that is, noise) such as trees and street lights may be included in the portion. . Further, the frequency of appearance of noise varies depending on the position on the image, and generally, the frequency decreases as the position approaches the top of the screen. Therefore, for example, when a large number of small areas are arranged in the empty area RGS as shown in FIG. 69 (a), a larger weighting coefficient is assigned as the position of the small area in the screen is increased. As a result, the influence of noise can be reduced.

【0199】もう1つの変形例を図75に示す。図75
の処理は、既に説明した図73と図74の処理を組合せ
たものであり、同一の処理ステップには同一の番号を付
して示してある。
Another modification is shown in FIG. Figure 75
The above process is a combination of the processes of FIGS. 73 and 74 already described, and the same process steps are indicated by the same numbers.

【0200】なお上記実施例においては、画像中の空の
領域の明るさに基づいて、夜と昼とを2値的に識別して
いるが、しきい値の種類を増やすことにより、例えば夜
/夕方/昼のような3種類以上の明るさの識別も可能で
ある。先行車を認識するためのアルゴリズムとして、仮
に3種類以上のものを有するのであれば、夜/夕方/昼
のように3種類以上の明るさを識別し、最も好ましいア
ルゴリズムを選択するのが望ましい。
In the above embodiment, night and day are binary-identified on the basis of the brightness of the sky region in the image. It is also possible to identify three or more types of brightness such as / evening / daytime. If there are three or more types of algorithms for recognizing the preceding vehicle, it is desirable to identify three or more types of brightness such as night / evening / day and select the most preferable algorithm.

【0201】なお上記実施例においては、先行車など、
自車の前方に存在する被写体の画像を撮影して、先行車
や対向車を認識しているが、テレビカメラの光軸を後方
に向ければ、同一のアルゴリズムで後続車両を認識する
ことができる。
In the above embodiment, the preceding vehicle,
Although an image of a subject existing in front of the own vehicle is taken to recognize a preceding vehicle or an oncoming vehicle, if the optical axis of the TV camera is directed rearward, the following vehicle can be recognized by the same algorithm. .

【0202】[0202]

【発明の効果】本発明のいずれの請求項においても、夜
間に撮影した画像に基づいて、先行車両等を認識するこ
とができる。しかも、夜間とほとんど同一のアルゴリズ
ムによって、昼間も車両認識ができるので、夜間と昼間
の両方について車両を認識する場合であっても、夜間と
昼間の処理を共通化することが可能であり、認識装置の
構造が複雑化するのは避けられる。
In any of the claims of the present invention, the preceding vehicle or the like can be recognized based on the image taken at night. Moreover, since the vehicle can be recognized in the daytime by almost the same algorithm as in the nighttime, even if the vehicle is recognized in both the nighttime and the daytime, the processing in the nighttime and the daytime can be made common. A complicated structure of the device is avoided.

【0203】また請求項2,請求項3および請求項4に
おいては、いずれも、夜間と昼間とを自動的に識別し
て、認識処理を部分的に切換えるので、夜間と昼間の両
方について、確実に車両を認識することができる。
Further, in any of claims 2, 3 and 4, since nighttime and daytime are automatically discriminated and the recognition processing is partially switched, both nighttime and daytime can be reliably performed. The vehicle can be recognized.

【0204】また請求項5においては、例えば街灯のよ
うなノイズの影響が画像の空の領域中に現われたとして
も、最終的には正しい識別をすることができるので、高
い信頼性が得られる。
Further, according to the present invention, even if the influence of noise such as a street lamp appears in the sky region of the image, correct identification can be finally performed, so that high reliability can be obtained. .

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明を一態様で実施する、車両上の、前方
車両認識システムを示すブロック図である。
FIG. 1 is a block diagram illustrating a front vehicle recognition system on a vehicle embodying the present invention in one aspect.

【図2】 図1に示すテレビカメラ6bの、車両上の配
置位置を示す側面概要図である。
FIG. 2 is a schematic side view showing an arrangement position on the vehicle of the television camera 6b shown in FIG.

【図3】 テレビカメラ6bの撮影画像デ−タに基づい
た、図1に示すマイクロプロセッサ1の、第1実施例に
おける、自車両前方の路面上白線および先行車両を検出
する処理の概要を示すメインル−チンのフロ−チャ−ト
である。
FIG. 3 shows an outline of processing for detecting a white line on the road surface in front of the host vehicle and a preceding vehicle in the first embodiment of the microprocessor 1 shown in FIG. 1 based on the imaged data of the television camera 6b. It is a main routine flow chart.

【図4】 図3の「画面の校正」Cの内容を示すフロ−
チャ−トである。
FIG. 4 is a flow chart showing the contents of “Screen Calibration” C in FIG.
It is a chart.

【図5】 (a)は図4に示す「特徴点検出ウィンドウ
1セット」C1の内容を示すフロ−チヤ−ト、(b)は
図1に示すテレビカメラ6bの撮影画面を示す平面図で
ある。
5 (a) is a flow chart showing the contents of "1 set of feature point detection windows" C1 shown in FIG. 4, and FIG. 5 (b) is a plan view showing a shooting screen of the television camera 6b shown in FIG. is there.

【図6】 (a)は図4に示す「特徴点検出(UP)」
C2の内容を示すフロ−チャ−ト、(b)は撮影画面の
Y方向の画像デ−タの微分値を算出するときの、注目点
(算出点画素:×印)と、参照点(参照画素:白四角)
を示す平面図である。
6A is a “feature point detection (UP)” shown in FIG.
A flow chart showing the contents of C2, (b) is a target point (calculation point pixel: X mark) and a reference point (reference point) when calculating the differential value of the image data in the Y direction of the photographing screen. Pixel: White square)
FIG.

【図7】 (a)は図4に示す「ボンネット検出」C3
の内容を示すフロ−チャ−ト、(b)は撮影画面上のボ
ンネットエッジを近似する直線を示す平面図である。
7 (a) is a "bonnet detection" C3 shown in FIG.
2B is a plan view showing a straight line approximating the bonnet edge on the photographing screen.

【図8】 (a)は図4に示す「ロ−ル角,パン移動量
計算」C5で算出するロ−ル角とパン移動量を撮影画面
上に示す平面図、(b)は図4に示す「画像回転平行移
動」C7で撮影画面上の画素アドレスを、ロ−ル角分回
転しパン移動量分平行移動した補正画面上の画素アドレ
スに、変換する変換式を示す平面図である。
8A is a plan view showing the roll angle and the pan movement amount calculated by “calculation of roll angle and pan movement amount” C5 shown in FIG. 4 on a photographing screen, and FIG. FIG. 9 is a plan view showing a conversion formula for converting a pixel address on a photographing screen by a “image rotation parallel movement” C7 shown in FIG. 3 into a pixel address on a correction screen which is rotated by a roll angle and translated by a pan movement amount. .

【図9】 図4の「補正画像メモリイニシャライズ」C
6の内容を示すフロ−チャ−トである。
FIG. 9: “Corrected image memory initialization” C in FIG.
6 is a flowchart showing the contents of 6.

【図10】 図4の「画像回転平行移動」C7の内容を
示すフロ−チャ−トである。
FIG. 10 is a flowchart showing the contents of “image rotation parallel movement” C7 in FIG.

【図11】 図4の「補間」C8の一部を示すフロ−チ
ャ−トである。
11 is a flowchart showing a part of "interpolation" C8 in FIG.

【図12】 図4の「補間」C8の残り部分を示すフロ
−チャ−トである。
FIG. 12 is a flowchart showing the remaining portion of the “interpolation” C8 in FIG.

【図13】 図3の「自車レ−ン検出」Dを示すフロ−
チャ−トである。
FIG. 13 is a flow chart showing “own vehicle lane detection” D in FIG.
It is a chart.

【図14】 (a)は図13に示す「特徴点検出ウィン
ドウ2−1セット」D1の内容を示すフロ−チヤ−ト、
(b)は前記補正画面上に設定するウィンドウ2の領域
を示す平面図である。
14 (a) is a flowchart showing the contents of "feature point detection window 2-1 set" D1 shown in FIG.
FIG. 6B is a plan view showing an area of the window 2 set on the correction screen.

【図15】 図13の「左右白線検出」D3を示すフロ
−チャ−トである。
FIG. 15 is a flowchart showing “left and right white line detection” D3 in FIG.

【図16】 前記補正画面の画像とウィンドウ2を示す
平面図である。
16 is a plan view showing an image of the correction screen and a window 2. FIG.

【図17】 図15に示す「直線当てはめ」63の内容
の一部を示すフロ−チャ−トである。
FIG. 17 is a flowchart showing a part of the content of “straight line fitting” 63 shown in FIG.

【図18】 図15に示す「直線当てはめ」63の内容
の残りの部分を示すフロ−チャ−トである。
FIG. 18 is a flowchart showing the remaining part of the contents of “straight line fitting” 63 shown in FIG.

【図19】 図17および図18に示す「ハフグリッド
クリア(HG1)」65,「ハフグリッドクリア(HG
2)」70R,70Lおよび「ハフグリッドクリア(H
G3)」75R,75Lの内容を、汎用形式で示すフロ
−チャ−トであり、図19中のnは、1,2又は3であ
る。
FIG. 19 shows “Hough grid clear (HG1)” 65 and “Hough grid clear (HG) shown in FIGS. 17 and 18.
2) ”70R, 70L and“ Huff Grid Clear (H
G3) ”75R, 75L is a flowchart showing the contents in a general-purpose format, and n in FIG. 19 is 1, 2, or 3.

【図20】 図17および図18に示す「ハフ変換(H
G1)」67,「ハフ変換(HG2)」72R,72L
および「ハフ変換(HG3)」77R,77Lの内容
を、汎用形式で示すフロ−チャ−トであり、図20中の
nは、1,2又は3である。
FIG. 20 shows the “Hough transform (H
G1) "67," Hough conversion (HG2) "72R, 72L
And "Hough transform (HG3)" 77R, 77L are flow charts showing a general-purpose format, and n in FIG. 20 is 1, 2 or 3.

【図21】 図17および図18に示す「最大点探索
(HG1)」68,「最大点探索(HG2)」73R,
73Lおよび「最大点探索(HG3)」78R,78L
の内容を、汎用形式で示すフロ−チャ−トであり、図2
1中のnは、1,2又は3である。
21 is a "maximum point search (HG1)" 68, "maximum point search (HG2)" 73R shown in FIG. 17 and FIG.
73L and "maximum point search (HG3)" 78R, 78L
2 is a flow chart showing the contents of the general purpose format in FIG.
N in 1 is 1, 2, or 3.

【図22】 図13の「無限遠点計算」D4を示すフロ
−チャ−トである。
22 is a flowchart showing "infinity point calculation" D4 in FIG.

【図23】 図1に示すテレビカメラ6b内のレンズお
よび撮像素子と車両前方の先行車両との幾何学的関係を
示す側面概要図である。
FIG. 23 is a schematic side view showing the geometrical relationship between the lens and the image pickup element in the television camera 6b shown in FIG. 1 and a preceding vehicle ahead of the vehicle.

【図24】 図3の「隣接レ−ン推定」Fを示すフロ−
チャ−トである。
FIG. 24 is a flow chart showing “adjacent lane estimation” F in FIG.
It is a chart.

【図25】 前記補正画面上の、前記「隣接レ−ン推
定」Fで推定した隣接レ−ンを斜線で塗りつぶして示す
平面図である。
FIG. 25 is a plan view showing the adjacent lanes estimated by the “adjacent lane estimation” F on the correction screen, which are filled with diagonal lines.

【図26】 図3に示す「ウィンドウ2−1内の車両検
出」DET1の中の、図28,図47および図50に示
す車両認識および測距H,IおよびJで物体検出を行な
う探索領域を縦線および横線の塗りつぶしで示す平面図
である。
FIG. 26 is a search area in the “vehicle detection in window 2-1” DET1 shown in FIG. 3 for performing vehicle recognition and distance detection H, I and J shown in FIGS. 28, 47 and 50; FIG. 5 is a plan view showing a vertical line and a horizontal line with a black line.

【図27】 (a)は図3に示す「ウィンドウ2−2内
の車両検出」DET2で物体検出を行なう探索領域を縦
線および横線の塗りつぶしで示す平面図、(b)は図3
に示す「ウィンドウ2−2内の車両検出」DET3で物
体検出を行なう探索領域を縦線および横線の塗りつぶし
で示す平面図である。
FIG. 27 (a) is a plan view showing a search area for performing object detection by “vehicle detection in window 2-2” DET2 shown in FIG. 3 by filling vertical and horizontal lines, and FIG.
FIG. 8 is a plan view showing a search area in which an object is detected by “vehicle detection in window 2-2” DET3 shown in FIG.

【図28】 図3に示す「自車レ−ン先行車両認識及び
測距」Hの内容を示すフロ−チャ−トである。
28 is a flowchart showing the contents of "recognition and distance measurement of preceding vehicle by own vehicle lane" H shown in FIG.

【図29】 図28に示す「車両候補位置の検出1」H
1の内容を示すフロ−チャ−トである。
FIG. 29 shows “Detection of candidate vehicle position 1” H shown in FIG. 28.
It is a flowchart showing the contents of 1.

【図30】 図29に示す「特徴点メモリクリア」13
1の内容を示すフロ−チャ−トである。
FIG. 30 is a “feature point memory clear” 13 shown in FIG. 29.
It is a flowchart showing the contents of 1.

【図31】 図29に示す「水平特徴点の検出1」13
2の内容を示すフロ−チャ−トである。
[FIG. 31] “Horizontal feature point detection 1” 13 shown in FIG. 29
2 is a flowchart showing the contents of 2.

【図32】 (a)は図31に示す「1ライン水平特徴
点の検出」151Lの内容を示すフロ−チャ−ト、
(b)は水平特徴点の検出のため前記補正画面のY方向
の画像デ−タの微分値を算出するときの、注目点(算出
点画素:×印)と、参照点(参照画素:白四角)を示す
平面図である。
32 (a) is a flow chart showing the contents of "detection of 1-line horizontal feature point" 151L shown in FIG.
(B) is a target point (calculation point pixel: X mark) and a reference point (reference pixel: white) when calculating the differential value of the image data in the Y direction of the correction screen for detecting the horizontal feature point. It is a top view showing a square.

【図33】 図29の「ヒストグラムメモリクリア」1
33を示すフロ−チャ−トである。
FIG. 33: “Histogram memory clear” 1 in FIG. 29
33 is a flowchart showing 33.

【図34】 図29の「y方向ヒストグラム作成」13
4を示すフロ−チャ−トである。
FIG. 34: “y-direction histogram creation” 13 in FIG.
4 is a flowchart showing No. 4.

【図35】 図29の「y方向極大点検出」135を示
すフロ−チャ−トである。
FIG. 35 is a flowchart showing “y-direction maximum point detection” 135 in FIG. 29.

【図36】 図35の「レ−ン左端点計算」176およ
び「レ−ン右端点計算」177を示すフロ−チャ−トで
ある。
FIG. 36 is a flowchart showing “lane left end point calculation” 176 and “lane right end point calculation” 177 of FIG. 35.

【図37】 図29の「x方向重心計算」136を示す
フロ−チャ−トである。
FIG. 37 is a flowchart showing “calculation of center of gravity in x direction” 136 of FIG. 29.

【図38】 図28の「車両左右端の検出」H3を示す
フロ−チャ−トである。
FIG. 38 is a flowchart showing “detection of left and right ends of vehicle” H3 in FIG. 28.

【図39】 図38の「車両左右端位置推定」201を
示すフロ−チャ−トである。
FIG. 39 is a flowchart showing “Vehicle left and right end position estimation” 201 in FIG. 38.

【図40】 図38の「左端垂直特徴点検出」203L
を示すフロ−チャ−トである。
FIG. 40 is a “left end vertical feature point detection” 203L in FIG.
Is a flowchart showing.

【図41】 図38の「x方向ヒストグラム作成」20
5Lを示すフロ−チャ−トである。
FIG. 41: “Histogram creation in x direction” 20 of FIG.
It is a flowchart showing 5L.

【図42】 図38の「x方向最大点検出」206Lを
示すフロ−チャ−トである。
42 is a flowchart showing the "maximum point detection in x direction" 206L in FIG.

【図43】 図38の「右端垂直特徴点検出」203R
を示すフロ−チャ−トである。
[FIG. 43] “Right edge vertical feature point detection” 203R in FIG.
Is a flowchart showing.

【図44】 図28の「車両の検定」H4を示すフロ−
チャ−トである。
FIG. 44 is a flow chart showing “Vehicle verification” H4 in FIG. 28.
It is a chart.

【図45】 図28の「車間距離計算」H6を示すフロ
−チャ−トである。
FIG. 45 is a flowchart showing the “vehicle distance calculation” H6 of FIG. 28.

【図46】 図28の「車幅学習計算」H7を示すフロ
−チャ−トである。
FIG. 46 is a flowchart showing “vehicle width learning calculation” H7 in FIG. 28.

【図47】 図3の「右隣接レ−ン車両認識及び測距」
Iを示すフロ−チャ−トである。
47] "Right adjacent lane vehicle recognition and distance measurement" in FIG.
It is a flowchart showing I.

【図48】 図47の「車両候補の位置の検出2」I1
を示すフロ−チャ−トである。
FIG. 48: “Detection of position 2 of vehicle candidate 2” I1 in FIG.
Is a flowchart showing.

【図49】 図48の「水平特徴点の検出2」258を
示すフロ−チャ−トである。
FIG. 49 is a flowchart showing “horizontal feature point detection 2” 258 in FIG. 48.

【図50】 図3の「左隣接レ−ン車両認識及び測距」
Jを示すフロ−チャ−トである。
50] "Left adjacent lane vehicle recognition and distance measurement" in FIG.
It is a flowchart showing J.

【図51】 図50の「車両候補の位置の検出3」J1
を示すフロ−チャ−トである。
51. "Detection of position of vehicle candidate 3" J1 in FIG.
Is a flowchart showing.

【図52】 図51の「水平特徴点の検出3」277を
示すフロ−チャ−トである。
52 is a flowchart showing the "horizontal feature point detection 3" 277 in FIG. 51. FIG.

【図53】 テレビカメラ6bの撮影画像デ−タに基づ
いた、図1に示すマイクロプロセッサ1の、第2実施例
における、自車両前方の路面上白線および先行車両を検
出する処理の概要を示すフロ−チャ−トである。
FIG. 53 shows an outline of processing for detecting a white line on the road surface in front of the host vehicle and a preceding vehicle in the second embodiment of the microprocessor 1 shown in FIG. 1 based on the image data taken by the television camera 6b. It is a flow chart.

【図54】 図3の「昼夜の判定」Sを示すフロ−チャ
−トである。
FIG. 54 is a flowchart showing “day / night judgment” S in FIG.

【図55】 撮影して得られた2次元画像中の各領域の
位置関係を示す平面図である。
FIG. 55 is a plan view showing the positional relationship of each region in a two-dimensional image obtained by photographing.

【図56】 図54のステップS1の詳細を示すフロ−
チャ−トである。
56 is a flowchart showing the details of step S1 in FIG. 54.
It is a chart.

【図57】 領域RGS中に定めた小領域A1〜A16
の位置関係を示す平面図である。
FIG. 57 shows small areas A1 to A16 defined in the area RGS.
It is a plan view showing the positional relationship of.

【図58】 図54のステップS2の詳細を示すフロ−
チャ−トである。
FIG. 58 is a flowchart showing the details of step S2 in FIG. 54.
It is a chart.

【図59】 1つの小領域の画素構成を示す平面図であ
る。
FIG. 59 is a plan view showing a pixel configuration of one small area.

【図60】 2次元メモリ配列S_pos(S_cy,j)上の各
要素に割当てた数値を示すメモリマップである。
FIG. 60 is a memory map showing numerical values assigned to respective elements on the two-dimensional memory array S_pos (S_cy, j).

【図61】 図54のステップS3の詳細を示すフロ−
チャ−トである。
FIG. 61 is a flowchart showing the details of step S3 in FIG. 54.
It is a chart.

【図62】 図54のステップS4の詳細を示すフロ−
チャ−トである。
FIG. 62 is a flowchart showing the details of step S4 in FIG.
It is a chart.

【図63】 夜間に撮影される画像の一例を示す平面図
である。
FIG. 63 is a plan view showing an example of an image taken at night.

【図64】 昼間に撮影される画像の一例を示す平面図
である。
FIG. 64 is a plan view showing an example of an image taken in the daytime.

【図65】 夕方に撮影される画像の一例を示す平面図
である。
FIG. 65 is a plan view showing an example of an image photographed in the evening.

【図66】 1つの水平走査線SLの期間における映像
信号の波形図であり、(a),(b)及び(c)はそれ
ぞれ夜間,昼間及び夕方の信号に対応する。
FIG. 66 is a waveform diagram of a video signal in the period of one horizontal scanning line SL, and (a), (b) and (c) correspond to nighttime, daytime and evening signals, respectively.

【図67】 空の領域RGS上の小領域群の配置の6種
類の変形例を示す平面図である。
FIG. 67 is a plan view showing six kinds of modified examples of the arrangement of the small area group on the empty area RGS.

【図68】 空の領域RGS上の小領域群の配置の6種
類の変形例を示す平面図である。
FIG. 68 is a plan view showing six kinds of modified examples of the arrangement of the small region group on the empty region RGS.

【図69】 空の領域RGS上の小領域群の配置の6種
類の変形例を示す平面図である。
FIG. 69 is a plan view showing six kinds of modified examples of the arrangement of the small area groups on the empty area RGS.

【図70】 図61に示す処理の変形例を示すフロ−チ
ャ−トである。
FIG. 70 is a flowchart showing a modification of the processing shown in FIG. 61.

【図71】 図61に示す処理のもう1つの変形例を示
すフロ−チャ−トである。
71 is a flowchart showing another modification of the processing shown in FIG. 61.

【図72】 図61に示す処理のもう1つの変形例の処
理の一部を示すフロ−チャ−トである。
72 is a flowchart showing a part of the process of another modification of the process shown in FIG. 61. FIG.

【図73】 図62に示す処理の変形例を示すフロ−チ
ャ−トである。
73 is a flowchart showing a modification of the processing shown in FIG. 62.

【図74】 図62に示す処理のもう1つの変形例を示
すフロ−チャ−トである。
FIG. 74 is a flowchart showing another modification of the processing shown in FIG. 62.

【図75】 図62に示す処理のもう1つの変形例を示
すフロ−チャ−トである。
FIG. 75 is a flowchart showing another modification of the processing shown in FIG. 62.

【符号の説明】[Explanation of symbols]

1:マイクロプロセッサ(CPU) 2:ROM 3:RAM 4〜6:入出力ポ−
ト 4a:CRTドライバ 4b:CRT 5a:イメ−ジメモリ 6a:カメラコン
トロ−ラ 6b:テレビカメラ 6c:A/Dコン
バ−タ 7:通信コントロ−ラ 8:ホストマイクロ
プロセッサ(CPU) 特許出願人 アイシン精機株式会社代理人 弁理士
杉 信 興
1: Microprocessor (CPU) 2: ROM 3: RAM 4 to 6: Input / output port
4a: CRT driver 4b: CRT 5a: image memory 6a: camera controller 6b: television camera 6c: A / D converter 7: communication controller 8: host microprocessor (CPU) patent applicant Aisin Seiki Counsel attorney
Nobuoki Sugi

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 車輌外側の路面を含むシ−ンを、車輌上
に搭載された撮影装置で撮影して得られる二次元画像情
報を処理し、画像中の特徴点の所定方向の連なりとして
検出される路面の複数の白線を識別し、前記白線を表わ
す複数の直線の位置を基準にして決定される領域につい
て、前記二次元画像情報中の車輌を認識する車輌認識方
法において:車輌が走行するレ−ン上の無限遠点の位置
を、前記複数の直線の交点の位置に基づいて識別し、 前記二次元画像情報を、水平方向の複数の位置で、それ
ぞれ実質上鉛直方向に走査して、明るさが変化する第1
の特徴点の情報を複数検出し、 検出された前記複数の第1の特徴点の情報の出現頻度が
所定のしきい値以上である鉛直方向の位置を鉛直方向基
準位置として識別し、 前記鉛直方向基準位置の近傍の複数の第1の特徴点の分
布状態に基づいて、その重心の水平方向位置を水平方向
重心位置として識別し、 前記水平方向重心位置に基づいて予測される対象物左端
位置の近傍の所定範囲について、前記二次元画像情報を
水平方向に走査して得られる、第2の特徴点の情報に基
づいて実際の対象物左端位置を識別し、 前記水平方向重心位置に基づいて予測される対象物右端
位置の近傍の所定範囲について、前記二次元画像情報を
水平方向に走査して得られる、第3の特徴点の情報に基
づいて実際の対象物右端位置を識別し、 前記無限遠点の位置,前記鉛直方向基準位置,前記撮影
装置を設置した位置の高さ,予め定めた車輌上発光部位
の地面からの高さ,及び前記撮影装置の焦点距離に基づ
いて、前記撮影装置から前記二次元画像情報中の車輌ま
での距離に相当する推定距離を求め、 識別された前記実際の対象物左端位置と前記実際の対象
物右端位置との間隔と、前記推定距離とに基づいて、少
なくとも前記二次元画像情報に基づく車輌認識の有無を
識別する、ことを特徴とする車輌認識方法。
1. A two-dimensional image information obtained by photographing a scene including a road surface outside a vehicle with a photographing device mounted on the vehicle is detected as a series of feature points in the image in a predetermined direction. In a vehicle recognition method for recognizing a vehicle in the two-dimensional image information with respect to a region determined by identifying a plurality of white lines on a road surface to be determined based on positions of a plurality of straight lines representing the white line, the vehicle travels. The position of the point at infinity on the lane is identified based on the position of the intersection of the plurality of straight lines, and the two-dimensional image information is scanned at a plurality of positions in the horizontal direction in a substantially vertical direction. , The first with changing brightness
Detecting a plurality of pieces of feature point information, identifying a vertical position where the appearance frequency of the detected plurality of pieces of first feature point information is equal to or greater than a predetermined threshold value as a vertical direction reference position, The horizontal position of the center of gravity is identified as the horizontal center of gravity position based on the distribution state of the plurality of first feature points in the vicinity of the direction reference position, and the object left end position predicted based on the horizontal direction center of gravity position. For a predetermined range in the vicinity of, the actual left end position of the object is identified based on the information of the second feature point obtained by scanning the two-dimensional image information in the horizontal direction, and based on the horizontal position of the center of gravity. For a predetermined range in the vicinity of the predicted right end position of the object, the actual right end position of the object is identified based on the information of the third feature point obtained by scanning the two-dimensional image information in the horizontal direction, The position of the point at infinity, The two-dimensional image from the photographing device based on the vertical reference position, the height of the position where the photographing device is installed, the height of the predetermined light emitting part on the vehicle from the ground, and the focal length of the photographing device. An estimated distance corresponding to the distance to the vehicle in the information is obtained, and at least the two-dimensional based on the distance between the identified left end position of the actual object and the right end position of the actual object, and the estimated distance. A vehicle recognition method, characterized in that the presence or absence of vehicle recognition based on image information is identified.
【請求項2】 車輌外側の路面を含むシ−ンを、車輌上
に搭載された撮影装置で撮影して得られる二次元画像情
報を処理し、画像中の特徴点の所定方向の連なりとして
検出される路面の複数の白線を識別し、前記白線を表わ
す複数の直線の位置を基準にして決定される領域につい
て、前記二次元画像情報中の車輌を認識する車輌認識方
法において:車輌が走行するレ−ン上の無限遠点の位置
を、前記複数の直線の交点の位置に基づいて識別し、 前記二次元画像情報を、水平方向の複数の位置で、それ
ぞれ実質上鉛直方向に走査して、明るさが変化する第1
の特徴点の情報を複数検出し、 検出された前記複数の第1の特徴点の情報の出現頻度が
所定のしきい値以上である鉛直方向の位置を鉛直方向基
準位置として識別し、 前記鉛直方向基準位置の近傍の複数の第1の特徴点の分
布状態に基づいて、その重心の水平方向位置を水平方向
重心位置として識別し、 前記水平方向重心位置に基づいて予測される対象物左端
位置の近傍の所定範囲について、前記二次元画像情報を
水平方向に走査して得られる、第2の特徴点の情報に基
づいて実際の対象物左端位置を識別し、 前記水平方向重心位置に基づいて予測される対象物右端
位置の近傍の所定範囲について、前記二次元画像情報を
水平方向に走査して得られる、第3の特徴点の情報に基
づいて実際の対象物右端位置を識別し、 少なくとも昼と夜とを識別し、昼と識別された場合に
は、前記無限遠点の位置,前記鉛直方向基準位置,前記
撮影装置を設置した位置の高さ,及び前記撮影装置の焦
点距離に基づいて、また夜と識別された場合には、前記
無限遠点の位置,前記鉛直方向基準位置,前記撮影装置
を設置した位置の高さ,予め定めた車輌上発光部位の地
面からの高さ,及び前記撮影装置の焦点距離に基づい
て、それぞれ前記撮影装置から前記二次元画像情報中の
車輌までの距離に相当する推定距離を求め、 識別された前記実際の対象物左端位置と前記実際の対象
物右端位置との間隔と、前記推定距離とに基づいて、少
なくとも前記二次元画像情報に基づく車輌認識の有無を
識別する、ことを特徴とする車輌認識方法。
2. A two-dimensional image information obtained by photographing a scene including a road surface outside the vehicle with a photographing device mounted on the vehicle, and detecting it as a series of characteristic points in a predetermined direction in the image. In a vehicle recognition method for recognizing a vehicle in the two-dimensional image information with respect to a region determined by identifying a plurality of white lines on a road surface to be determined based on positions of a plurality of straight lines representing the white line, the vehicle travels. The position of the point at infinity on the lane is identified based on the position of the intersection of the plurality of straight lines, and the two-dimensional image information is scanned at a plurality of positions in the horizontal direction in a substantially vertical direction. , The first with changing brightness
Detecting a plurality of pieces of feature point information, identifying a vertical position where the appearance frequency of the detected plurality of pieces of first feature point information is equal to or greater than a predetermined threshold value as a vertical direction reference position, The horizontal position of the center of gravity is identified as the horizontal center of gravity position based on the distribution state of the plurality of first feature points in the vicinity of the direction reference position, and the object left end position predicted based on the horizontal direction center of gravity position. For a predetermined range in the vicinity of, the actual left end position of the object is identified based on the information of the second feature point obtained by scanning the two-dimensional image information in the horizontal direction, and based on the horizontal position of the center of gravity. The actual right end position of the object is identified based on the information of the third feature point obtained by scanning the two-dimensional image information in the horizontal direction in a predetermined range near the predicted right end position of the object, at least Day and night On the other hand, when it is identified as daytime, it is determined based on the position of the point at infinity, the vertical reference position, the height of the position where the image capturing device is installed, and the focal length of the image capturing device, and at night. If they are identified, the position of the point at infinity, the vertical reference position, the height of the position where the photographing device is installed, the height of a predetermined light emitting part on the vehicle from the ground, and the photographing device Based on the focal length, the estimated distance corresponding to the distance from the imaging device to the vehicle in the two-dimensional image information, respectively, is obtained, and the actual left end position of the actual object and the right end position of the actual object are identified. A vehicle recognition method, characterized in that the presence or absence of vehicle recognition based on at least the two-dimensional image information is identified based on the distance and the estimated distance.
【請求項3】 前記第2の特徴点の情報に基づいて前記
実際の対象物左端位置を識別するに際し、検出された前
記複数の第2の特徴点の情報の出現頻度を第2のしきい
値と比較して、出現頻度が大きい水平方向位置に基づい
て前記実際の対象物左端位置を決定し、前記第3の特徴
点の情報に基づいて前記実際の対象物右端位置を識別す
るに際し、検出された前記複数の第3の特徴点の情報の
出現頻度を前記第2のしきい値と比較して、出現頻度が
大きい水平方向位置に基づいて前記実際の対象物右端位
置を決定し、更に、少なくとも昼と夜とを識別し、昼と
識別された場合と夜と識別された場合とで、前記第2の
しきい値の大きさを切換える、前記請求項2記載の車輌
認識方法。
3. When the actual left end position of the object is identified based on the information of the second feature points, the appearance frequency of the detected information of the plurality of second feature points is determined as a second threshold. In comparison with the value, the actual object left end position is determined based on the horizontal position where the appearance frequency is large, and when identifying the actual object right end position based on the information of the third feature point, The detected appearance frequency of the information of the plurality of third feature points is compared with the second threshold value, and the actual object right end position is determined based on the horizontal position where the appearance frequency is large, 3. The vehicle recognition method according to claim 2, further comprising discriminating at least day and night, and switching the magnitude of the second threshold value depending on whether it is identified as day or night.
【請求項4】 処理対象とする前記二次元画像情報中の
領域を決定するに際して、少なくとも昼と夜とを識別
し、昼と識別された場合と夜と識別された場合とで、前
記車輌上発光部位の地面からの高さに応じた量だけ、前
記領域の位置を鉛直方向にずらす、前記請求項2記載の
車輌認識方法。
4. When determining a region in the two-dimensional image information to be processed, at least day and night are identified, and on the vehicle depending on whether it is identified as day or night. The vehicle recognition method according to claim 2, wherein the position of the region is vertically shifted by an amount corresponding to the height of the light emitting portion from the ground.
【請求項5】 前記二次元画像情報中の空に相当すると
予想される特定の領域内に、複数の小領域を定め、各々
の小領域についてそれぞれ平均的な明るさを求め、求め
た平均的な明るさをしきい値と比較して各小領域の明る
さの識別結果を一次識別結果として得た後、これら複数
の一次識別結果に基づいて昼と夜とを識別する、前記請
求項2,請求項3,又は請求項4記載の車輌認識方法。
5. A plurality of small areas are defined in a specific area expected to correspond to the sky in the two-dimensional image information, average brightness is obtained for each small area, and the obtained average brightness is calculated. The daytime and the night are discriminated based on the plurality of primary discrimination results after obtaining the discrimination result of the brightness of each small area as a primary discrimination result by comparing the different brightness with a threshold value. The vehicle recognition method according to claim 3 or claim 4.
JP7178986A 1995-07-14 1995-07-14 Vehicle recognizing method Pending JPH0935197A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7178986A JPH0935197A (en) 1995-07-14 1995-07-14 Vehicle recognizing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7178986A JPH0935197A (en) 1995-07-14 1995-07-14 Vehicle recognizing method

Publications (1)

Publication Number Publication Date
JPH0935197A true JPH0935197A (en) 1997-02-07

Family

ID=16058122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7178986A Pending JPH0935197A (en) 1995-07-14 1995-07-14 Vehicle recognizing method

Country Status (1)

Country Link
JP (1) JPH0935197A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293522A (en) * 2005-04-07 2006-10-26 Fuji Photo Film Co Ltd Straight line detection device, straight line detection method, and program for the same
JP2008287367A (en) * 2007-05-15 2008-11-27 Univ Nihon Vehicle detection system
US8204305B2 (en) 2006-12-29 2012-06-19 Alpine Electronics, Inc. Daytime and nighttime image recognizing method and apparatus
JP2013051736A (en) * 2012-11-13 2013-03-14 Honda Motor Co Ltd Vehicle periphery supervision device
JP2014164426A (en) * 2013-02-22 2014-09-08 Denso Corp Object detector
JP2016176736A (en) * 2015-03-19 2016-10-06 トヨタ自動車株式会社 Image distance measuring device
JP2017502875A (en) * 2013-10-02 2017-01-26 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Method and apparatus for monitoring the function of a driver assistant system
CN106887142A (en) * 2017-04-17 2017-06-23 浙江宇视科技有限公司 Changing method and device round the clock
JP2018041209A (en) * 2016-09-06 2018-03-15 本田技研工業株式会社 Object recognition device, model information generation device, object recognition method, and object recognition program
WO2019181284A1 (en) * 2018-03-23 2019-09-26 ソニー株式会社 Information processing device, movement device, method, and program
US20220108553A1 (en) * 2020-10-04 2022-04-07 Subaru Corporation Lane line recognition apparatus
CN116109830A (en) * 2023-04-17 2023-05-12 深圳亿维锐创科技股份有限公司 Vehicle separation method and device based on machine vision and computer equipment

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293522A (en) * 2005-04-07 2006-10-26 Fuji Photo Film Co Ltd Straight line detection device, straight line detection method, and program for the same
US8204305B2 (en) 2006-12-29 2012-06-19 Alpine Electronics, Inc. Daytime and nighttime image recognizing method and apparatus
JP2008287367A (en) * 2007-05-15 2008-11-27 Univ Nihon Vehicle detection system
JP2013051736A (en) * 2012-11-13 2013-03-14 Honda Motor Co Ltd Vehicle periphery supervision device
JP2014164426A (en) * 2013-02-22 2014-09-08 Denso Corp Object detector
US9367749B2 (en) 2013-02-22 2016-06-14 Denso Corporation Object detection apparatus
EP3052359B1 (en) * 2013-10-02 2019-11-20 Conti Temic microelectronic GmbH Method and device for monitoring the function of a driver assistance system
JP2017502875A (en) * 2013-10-02 2017-01-26 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Method and apparatus for monitoring the function of a driver assistant system
JP2016176736A (en) * 2015-03-19 2016-10-06 トヨタ自動車株式会社 Image distance measuring device
JP2018041209A (en) * 2016-09-06 2018-03-15 本田技研工業株式会社 Object recognition device, model information generation device, object recognition method, and object recognition program
CN106887142A (en) * 2017-04-17 2017-06-23 浙江宇视科技有限公司 Changing method and device round the clock
WO2019181284A1 (en) * 2018-03-23 2019-09-26 ソニー株式会社 Information processing device, movement device, method, and program
CN112119282A (en) * 2018-03-23 2020-12-22 索尼公司 Information processing apparatus, mobile apparatus, method, and program
US20220108553A1 (en) * 2020-10-04 2022-04-07 Subaru Corporation Lane line recognition apparatus
US11749002B2 (en) * 2020-10-04 2023-09-05 Subaru Corporation Lane line recognition apparatus
CN116109830A (en) * 2023-04-17 2023-05-12 深圳亿维锐创科技股份有限公司 Vehicle separation method and device based on machine vision and computer equipment
CN116109830B (en) * 2023-04-17 2023-06-16 深圳亿维锐创科技股份有限公司 Vehicle separation method and device based on machine vision and computer equipment

Similar Documents

Publication Publication Date Title
US5555555A (en) Apparatus which detects lines approximating an image by repeatedly narrowing an area of the image to be analyzed and increasing the resolution in the analyzed area
JP5372680B2 (en) Obstacle detection device
US5910817A (en) Object observing method and device
JP6082042B2 (en) Method and apparatus for detecting target object in vehicle blind spot
US7091837B2 (en) Obstacle detecting apparatus and method
JP5809785B2 (en) Vehicle external recognition device and light distribution control system using the same
US8582818B2 (en) Method and system of automatically detecting objects in front of a motor vehicle
JP3268325B2 (en) Preprocessing method of on-vehicle recognition target image data
JPH0935197A (en) Vehicle recognizing method
CN106169244A (en) The guidance information utilizing crossing recognition result provides device and method
JPH0995194A (en) Detecting device for object in front of vehicle
JP2002359838A (en) Device for supporting driving
TWI401473B (en) Night time pedestrian detection system and method
KR102318586B1 (en) Method of detecting median strip and predicting collision risk through analysis of images
US20190213427A1 (en) Detection and Validation of Objects from Sequential Images of a Camera
JP3993259B2 (en) Image processing device
KR101134857B1 (en) Apparatus and method for detecting a navigation vehicle in day and night according to luminous state
JPH0935059A (en) Discriminating device for illuminance on moving body
JP3143814B2 (en) Method for detecting the distance of an object ahead of the vehicle
JP3588728B2 (en) On-street line detector in front of vehicle
CN111881878A (en) Lane line identification method for look-around multiplexing
JP3146427B2 (en) Object detection method in front of vehicle
JPH06215290A (en) Method of detecting object existing ahead of vehicle
JPH06213659A (en) Detecting method for object in front of vehicle
Bertozzi et al. Experience of the ARGO autonomous vehicle