JP3358247B2 - Road vanishing point calculation method - Google Patents

Road vanishing point calculation method

Info

Publication number
JP3358247B2
JP3358247B2 JP22335693A JP22335693A JP3358247B2 JP 3358247 B2 JP3358247 B2 JP 3358247B2 JP 22335693 A JP22335693 A JP 22335693A JP 22335693 A JP22335693 A JP 22335693A JP 3358247 B2 JP3358247 B2 JP 3358247B2
Authority
JP
Japan
Prior art keywords
road
vehicle
value
point
vanishing point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22335693A
Other languages
Japanese (ja)
Other versions
JPH0778240A (en
Inventor
弘 下浦
健二 天目
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP22335693A priority Critical patent/JP3358247B2/en
Publication of JPH0778240A publication Critical patent/JPH0778240A/en
Application granted granted Critical
Publication of JP3358247B2 publication Critical patent/JP3358247B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、車載カメラで車両の前
方または後方を撮像して得られた画像情報に基づき、撮
像された画面内において道路が消失する点である道路消
失点を算出する方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention calculates a road vanishing point, which is a point where a road disappears in an imaged screen, based on image information obtained by photographing the front or rear of a vehicle with a vehicle-mounted camera. About the method.

【0002】[0002]

【従来の技術】車載カメラによって車両の前方や後方を
撮像し、撮像された画像中の物体を認識するための技術
が種々提案されている。たとえば、車両の前方を車載カ
メラで撮像し、撮像された画像を画像処理して前方の他
車両を認識することができれば、この認識結果は事故を
回避するための自動運転に用いることができる。すなわ
ち、他車両が異常接近したときには、ステアリングやブ
レーキを自動的に動作させることによって、自動的に事
故を回避できる。また、道路標識を認識することができ
れば、この認識された道路標識に対応する情報を、ナビ
ゲーション装置におけるいわゆる経路誘導機能のために
用いることができる。
2. Description of the Related Art Various techniques have been proposed for capturing images of the front and rear of a vehicle using a vehicle-mounted camera and recognizing an object in the captured image. For example, if an in-vehicle camera captures an image of the front of a vehicle, and the captured image can be image-processed to recognize another vehicle in front, the recognition result can be used for automatic driving to avoid an accident. That is, when another vehicle abnormally approaches, an accident can be automatically avoided by automatically operating the steering and the brake. If the road sign can be recognized, the information corresponding to the recognized road sign can be used for a so-called route guidance function in the navigation device.

【0003】車載カメラによって撮像される物体を画像
認識する場合、画面中における物体の位置が刻々と変化
する。このように画面中で移動していく物体を時々刻々
と画像認識する場合に、その認識効率を高めるために
は、道路に対する車載カメラの姿勢を表すカメラ姿勢パ
ラメータを正確に確定する必要がある。すなわち、カメ
ラ姿勢パラメータを正確に定めることによって、画面中
における物体の挙動が推定できる。この推定結果を利用
すれば、撮像された画面から物体を含む画像部分を切り
出し、この切り出された画像に関して画像認識処理を行
うことができる。
When recognizing an image of an object captured by a vehicle-mounted camera, the position of the object on the screen changes every moment. As described above, when an image of a moving object on a screen is recognized every moment, in order to increase the recognition efficiency, it is necessary to accurately determine a camera posture parameter indicating the posture of the vehicle-mounted camera with respect to the road. That is, the behavior of the object on the screen can be estimated by accurately determining the camera posture parameter. Using this estimation result, it is possible to cut out an image portion including an object from the captured screen and perform image recognition processing on the cut out image.

【0004】ところで、カメラ姿勢パラメータを算出す
る場合には、車両が走行中の道路が画面上において消失
する点である道路消失点の座標が必要となる。この道路
消失点は道路の無限遠点に相当するため、カメラ姿勢パ
ラメータの算出の際の基準として用いられる。道路消失
点は、道路に描かれた中央白線のような道路平行線の交
点として検出することができる。つまり、画面上の2本
以上の直線を抽出し、この直線の交点を求めれば、この
交点を道路消失点とすることができる。画面上の直線を
抽出する際には、たとえば、白線のエッジ部では輝度が
大きく変化することが利用される。すなわち、白線のエ
ッジ部が直線候補点として検出され、この直線候補点を
結ぶ直線が道路平行線として抽出される。
When calculating the camera posture parameters, the coordinates of the road vanishing point, which is the point at which the road on which the vehicle is running disappears on the screen, are required. Since this road vanishing point corresponds to a point at infinity on the road, it is used as a reference when calculating the camera posture parameter. The road vanishing point can be detected as an intersection of road parallel lines such as a center white line drawn on the road. That is, if two or more straight lines on the screen are extracted and the intersection of the straight lines is obtained, the intersection can be set as a road vanishing point. When a straight line on the screen is extracted, for example, a large change in luminance is used at the edge of a white line. That is, the edge of the white line is detected as a straight line candidate point, and a straight line connecting the straight line candidate points is extracted as a road parallel line.

【0005】[0005]

【発明が解決しようとする課題】ところが、画面上にお
ける道路平行線が道路消失点まで連続していることは稀
である。すなわち、車両の前方に他車両があれば、道路
中央線などは車両の影に隠れるから、画面上では途中で
途切れてしまう。したがって、直線候補点を結ぶ直線を
求めようとしても、最小自乗法のような通常の方法では
困難である。
However, it is rare that a road parallel line on a screen continues to a road vanishing point. That is, if there is another vehicle in front of the vehicle, the road center line and the like are hidden by the shadow of the vehicle, and thus are interrupted on the screen. Therefore, it is difficult to obtain a straight line connecting the straight line candidate points by an ordinary method such as the least square method.

【0006】また、画面上において道路平行線が道路消
失点まで連続している場合でも、最小自乗法のような通
常の方法では必ずしも正確な直線を見出すことができな
いおそれがある。そのため、カメラ姿勢パラメータの演
算が可能なほど正確な道路消失点を求めることが難しい
という問題がある。ところで、従来から、車両による走
行を支援する目的でナビゲーション処理装置が車両に搭
載されて用いられている。ナビゲーション処理装置は、
走行距離および進行方位に基づいて車両の現在位置を検
出し、それを道路地図とともに表示装置に表示すること
を基本機能とする装置である。
Further, even when the road parallel lines are continuous to the road vanishing point on the screen, there is a possibility that an accurate straight line cannot always be found by an ordinary method such as the least square method. Therefore, there is a problem that it is difficult to obtain a road vanishing point that is accurate enough to calculate the camera posture parameter. By the way, conventionally, a navigation processing device is mounted on a vehicle and used for the purpose of supporting traveling by the vehicle. The navigation processing device
This is a device having a basic function of detecting a current position of a vehicle based on a traveling distance and a traveling direction and displaying the current position on a display device together with a road map.

【0007】このナビゲーション処理装置が保有してい
るデータには、道路消失点の算出に少なからず影響を及
ぼすものがある。それにもかかわらず、従来技術では、
ナビゲーション処理装置によって取り扱われるデータが
有効に利用されていない。そのため、道路消失点の算出
が必ずしも効率良く行われていなかった。そこで、本発
明の目的は、上述の技術的課題を解決し、道路消失点を
確実にかつ正確に求めることができる道路消失点の算出
方法を提供することである。
[0007] Some of the data held by this navigation processing device have a considerable effect on the calculation of the road vanishing point. Nevertheless, in the prior art,
Data handled by the navigation processor is not being used effectively. Therefore, the calculation of the road vanishing point has not always been performed efficiently. Therefore, an object of the present invention is to solve the above-described technical problem and to provide a road vanishing point calculation method capable of reliably and accurately finding a road vanishing point.

【0008】[0008]

【課題を解決するための手段および作用】上記の目的を
達成するための請求項1記載の道路消失点の算出方法
は、車両の前方または後方を撮像することができる車載
カメラによって撮像された画面中において道路が消失す
る点である道路消失点を算出する方法であって、上記車
載カメラによって撮像された画面中において直線部分を
形成する点である直線候補点の座標を抽出し、抽出され
た直線候補点の座標に対して、上記直線候補点が属する
直線の方程式の係数を第1の変換座標とした1回目のH
ough変換処理を行って、上記第1の変換座標の座標平面
の所定範囲内に設定された一定の大きさの格子升目の各
計数値を求め、上記1回目のHough変換処理において格
子升目の計数値が一定値以上となる点、または周辺の所
定範囲内の格子升目の計数値の合計値が一定値以上とな
る点のみを使用し、この使用される点を通る直線の方程
式の係数を第2の変換座標とした2回目のHough変換処
理を行って、上記第2の変換座標の座標平面の所定範囲
内に設定された一定の大きさの格子升目の各計数値を求
め、上記第2の変換座標の座標平面において、格子升目
の計数値が最大である点、または周辺の所定範囲内の格
子升目の計数値の合計値が最大となる点を求め、この点
の座標に基づいて道路消失点を求めることを特徴とす
る。
According to a first aspect of the present invention, there is provided a method for calculating a vanishing point of a road, comprising the steps of: A method for calculating a road vanishing point, which is a point where a road disappears in the vehicle, extracting coordinates of a straight line candidate point which is a point forming a straight line portion in a screen captured by the on-vehicle camera, The straight line candidate point belongs to the coordinates of the straight line candidate point.
The first H using the coefficient of the equation of the straight line as the first transformed coordinate
ough transform processing is performed to obtain a coordinate plane of the first transformed coordinates.
Each of the grid cells of a certain size set within the predetermined range of
The count value is obtained, and the case is calculated in the first Hough transform process.
A point at or near a point where the count value of a child cell is a certain value or more
If the total value of the counts of the grid cells within the fixed range is
Using only points and the straight line passing through this used point
The second Hough transform processing using the coefficients of the equation as the second transform coordinates
A predetermined range on the coordinate plane of the second transformed coordinates.
Calculate each count value of a grid cell of a fixed size set in
In the coordinate plane of the second transformed coordinate,
At the point where the count value of the
Find the point where the total value of the counts of the child cells is the maximum, and find this point
The vanishing point of the road is obtained based on the coordinates of

【0009】この方法では、Hough変換処理を2回繰り
返すことによって、道路消失点が求められる。そのた
め、画面内で直線部分が途切れていたりする場合であっ
ても、道路消失点を求めることができる。しかも、最小
自乗法のような通常の方法とは異なり、極めて正確に道
路消失点を求めることができる
In this method, the road vanishing point is obtained by repeating the Hough transform process twice. Therefore, even when a straight line portion is interrupted in the screen, a road vanishing point can be obtained. In addition, unlike ordinary methods such as the least squares method, the road vanishing point can be obtained extremely accurately .

【0010】車載カメラによって撮像された画面内の複
数の直線部分が道路消失点で交わるとき、上記第1の変
換座標の座標平面では、格子升目の計数値が極大値をと
る点は1つの直線上に並ぶ。この直線の係数は、道路消
失点の座標と1:1に対応する。したがって、格子升目
の計数値が大きな点に関して2回目のHough処理を上記
第2の変換座標の座標平面に対して行うと、格子升目の
係数値が最大となる点の座標に基づいて、道路消失点を
求めることができる。
[0010] When a plurality of straight lines in the screen imaged by the on-vehicle camera intersect at the vanishing point on the road, the point at which the count value of the grid cell has the maximum value is one straight line on the coordinate plane of the first transformed coordinates. Line up. The coefficient of this straight line corresponds to the coordinates of the road vanishing point 1: 1. Therefore, if the second Hough processing is performed on the coordinate plane of the second transformed coordinates for the point where the count value of the grid cell is large, the road disappearance is calculated based on the coordinates of the point where the coefficient value of the grid cell is the maximum. Points can be determined.

【0011】請求項記載の道路消失点の算出方法は、
上記第1の変換座標の座標平面において、格子升目の計
数値が所定値以上である点、または周辺の所定範囲内の
格子升目の計数値の合計値が所定値以上である点を、上
記第1の変換座標の座標平面における距離が所定値以下
である点が同一群に属するように分類することを特徴と
する。
According to a second aspect of the present invention, there is provided a method for calculating a vanishing point of a road,
On the coordinate plane of the first transformed coordinates, the point where the count value of the grid cells is equal to or more than a predetermined value, or the point where the total value of the count values of the grid cells in a predetermined range around the grid is equal to or more than the predetermined value, The method is characterized in that points in which the distance of the transformed coordinate on the coordinate plane is equal to or less than a predetermined value are classified as belonging to the same group.

【0012】車載カメラによって撮像された画面内にお
いて同一直線に属する直線候補点は、上記第1の変換座
標の座標平面では或る1つの点の近傍に集まる。そこ
で、第1の変換座標の座標平面において、格子升目の計
数値が大きな点を、近接しているもの同士が同一群に属
するように分類すれば、各群には1つの直線に属する直
線候補点に対応した点が属することになる。このように
すれば、2回目のHough変換処理において用いる点を容
易に見出すことができるほか、各群に属する点に注目す
れば、道路平行線を見出すことができる
Line candidate points belonging to the same straight line in the screen imaged by the on-vehicle camera gather near a certain point on the coordinate plane of the first transformed coordinates. Therefore, on the coordinate plane of the first transformed coordinates, if the points having a large count value of the grid cells are classified so that adjacent ones belong to the same group, a straight line candidate belonging to one straight line belongs to each group. A point corresponding to the point belongs. In this way, it is possible to easily find points used in the second Hough transform process, and to find points belonging to each group so as to find road parallel lines .

【0013】請求項記載の道路消失点の算出方法は、
上記第1の変換座標の座標平面において、格子升目の計
数値が一定値以上となる点、または周辺の所定範囲内の
格子升目の計数値の合計値が一定値以上となる点であっ
て、同一群に属する点のうち、その座標を係数として使
用した直線が上記道路消失点の最も近くを通る点の座標
を、道路平行線の係数として求めることを特徴とする。
According to a third aspect of the present invention, there is provided a method for calculating a vanishing point of a road,
On the coordinate plane of the first transformed coordinates, a point at which the count value of the grid cells is equal to or more than a certain value, or a point at which the total value of the count values of the grid cells within a predetermined range around the grid is equal to or more than a certain value, Among the points belonging to the same group, the coordinates of a point where a straight line using the coordinates as a coefficient passes closest to the road vanishing point is obtained as a coefficient of a road parallel line.

【0014】このようにして、各群に属する点を用いて
道路平行線の係数を求めることができる。なお、求めら
れた道路平行線の係数のうち直線の傾きに係わるものの
符号に基づいて、当該道路平行線が車両の左側にあるか
右側にあるかを判定することができる(請求項)。こ
れは、車載カメラによって撮像された画像中では、車両
の右側にある道路平行線と左側にある道路平行線とが、
異なる符号の傾きを有するという経験的事実に基づく。
In this manner, the coefficient of the road parallel line can be obtained using the points belonging to each group. It is possible to determine whether the road parallel line is on the left side or right side of the vehicle based on the sign of the obtained coefficient of the road parallel line related to the inclination of the straight line (claim 4 ). This is because, in the image taken by the onboard camera, the road parallel line on the right side of the vehicle and the road parallel line on the left side of the vehicle are:
Based on the empirical fact that they have different sign slopes.

【0015】また、求められた道路平行線の係数のうち
道路平行線の傾きに関するものが、正または負のいずれ
か一方の符号のもののみであるときには、求められた道
路消失点および道路平行線を無効にすることが好ましい
(請求項)。すなわち、上記の場合には、車両のいず
れか一方の側に存在する道路平行線のみが求まったに過
ぎないから、道路消失点が精度良く求められていないお
それがあるからである。
When the coefficient of the road parallel line is only one of the positive or negative sign among the obtained coefficients of the road parallel line, the obtained road vanishing point and the road parallel line are obtained. Is preferably invalidated (claim 5 ). That is, in the above case, since only the road parallel lines existing on either side of the vehicle are obtained, the road vanishing point may not be obtained with high accuracy.

【0016】さらに、上記第1の変換座標の座標平面に
おいて、格子升目の計数値が一定値以上となる点、また
は周辺の所定範囲内の格子升目の計数値の合計値が一定
値以上となる点が一定数以上存在しない群については、
その群に属する点を2回目のHough変換処理では使用し
ないことが好ましい(請求項)。上記の状況は、或る
直線に属する直線候補点の数が少ない場合に生じる。こ
のような直線候補点の座標を用いると、道路消失点の算
出精度が悪くなるおそれがある。
Further, on the coordinate plane of the first transformed coordinates, a point at which the count value of the grid cells is equal to or more than a predetermined value, or a total value of the count values of the grid cells within a predetermined surrounding area is equal to or more than the predetermined value. For groups that do not have more than a certain number of points,
The points belonging to the group is preferably not used in the second Hough transform process (claim 6). The above situation occurs when the number of straight line candidate points belonging to a certain straight line is small. If the coordinates of such a straight line candidate point are used, there is a possibility that the calculation accuracy of the road vanishing point may deteriorate.

【0017】また、上記第1の変換座標の座標平面にお
いて、格子升目の計数値が所定値以上である点、または
周辺の所定範囲内の格子升目の計数値の合計値が所定値
以上である点の群が、2つ未満であるときには道路消失
点の算出を禁止することが好ましい(請求項)。群の
数が2つ未満の場合とは、直線候補点が属する直線の数
が1本以下の場合である。この場合には、直線の交点を
求めることができないから、道路消失点を求めることが
できない。したがって、群の数が2つ未満の場合には道
路消失点の算出を禁止することとすれば、無駄な算出処
理を省くことができる。
Further, on the coordinate plane of the first transformed coordinates, the point where the count value of the grid cells is equal to or more than a predetermined value, or the total value of the count values of the grid cells in a predetermined surrounding area is equal to or more than the predetermined value. group of points, it is preferable to prohibit the calculation of the road vanishing point when less than two (claim 7). The case where the number of groups is less than two is a case where the number of straight lines to which the straight line candidate points belong is one or less. In this case, since the intersection of the straight lines cannot be obtained, the vanishing point of the road cannot be obtained. Therefore, if the calculation of the road vanishing point is prohibited when the number of groups is less than two, useless calculation processing can be omitted.

【0018】なお、上記2回目のHough変換処理では、
上記第1の変換座標の座標平面において分類された各群
のなかで格子升目の計数値が最大となる点または周辺の
所定範囲内の計数値の合計値が最大となる点のみが用い
られてもよい(請求項)。また、上記第2の変換座標
の座標平面において、格子升目の計数値の最大値が一定
値に満たない場合、または所定範囲内の格子升目の計数
値の合計値の最大値が一定値に満たない場合には、道路
消失点の算出を禁止することが好ましい(請求項)。
このような場合には、道路消失点の算出精度が悪くなる
おそれがあるからである。
In the second Hough transform process,
Of the groups classified on the coordinate plane of the first transformed coordinates, only the point at which the count value of the grid cell is the maximum or the point at which the total value of the count values within a predetermined range around the grid cell is the maximum is used. (Claim 8 ). In the coordinate plane of the second transformed coordinates, when the maximum value of the count values of the grid cells is less than a certain value, or when the maximum value of the total value of the grid cells in a predetermined range is less than a certain value. If not, it is preferable to prohibit the calculation of the vanishing point of the road (claim 9 ).
In such a case, the calculation accuracy of the road vanishing point may be deteriorated.

【0019】請求項10記載の道路消失点の算出方法
は、少なくとも車両が走行している道路の直線性に関す
る情報を保有している装置からの情報を取得し、走行中
の道路が一定値以上の直線性を有しているかどうかを判
定し、走行中の道路が一定値以上の直線性を有していな
い場合には道路消失点の算出を禁止することを特徴とす
る。
According to a tenth aspect of the present invention, there is provided a method for calculating a road vanishing point, comprising acquiring at least information from a device having information on linearity of a road on which a vehicle is traveling, and determining whether or not the traveling road has a predetermined value or more. It is characterized in that it is determined whether or not the road has a linearity, and if the running road does not have a linearity equal to or more than a certain value, the calculation of the road vanishing point is prohibited.

【0020】この方法では、車両が走行している道路の
直線性に関する情報を保有している装置からの情報が取
得される。このような装置の典型的な例は、ナビゲーシ
ョン処理装置である。取得された情報に基づいて、走行
中の道路が一定値以上の直線性を有しているかどうかが
判定され、一定値以上の直線性を有しなければ、道路消
失点の算出が禁止される。或る程度の直線性を有する道
路を走行していなければ画面中には道路消失点は存在し
ない。したがって、上記の方法によれば、道路消失点が
無駄に算出されることを防止できる。
In this method, information is acquired from a device having information on the linearity of the road on which the vehicle is traveling. A typical example of such a device is a navigation processing device. Based on the acquired information, it is determined whether or not the traveling road has a linearity equal to or more than a certain value. If the road does not have linearity equal to or more than a certain value, the calculation of the road vanishing point is prohibited. . If the vehicle is not traveling on a road having a certain degree of linearity, there is no road vanishing point on the screen. Therefore, according to the above method, it is possible to prevent the road vanishing point from being calculated needlessly.

【0021】請求項11記載の道路消失点の算出方法
は、少なくとも車両が走行している道路の属性に関する
情報を保有している装置からの情報を取得し、走行中の
道路の属性が一定の基準を満たしているかどうかを判定
し、走行中の道路が一定の基準を満たしていない場合に
は道路消失点の算出を禁止することを特徴とする。この
方法では、車両が走行している道路の属性に関する情報
を保有している装置からの情報が取得される。このよう
な装置の典型例は、ナビゲーション処理装置である。取
得された情報に基づき、走行中の道路が一定の基準を満
たしている場合に限り、道路消失点の算出が行われる。
これにより、たとえば細街路を走行中の場合のように、
前方または後方を見通すことができる可能性が少なく、
したがって道路消失点が算出できる可能性が少ないよう
な場合には、道路消失点の算出が行われることを防止で
きる。
According to a eleventh aspect of the present invention, there is provided a method for calculating a road vanishing point, wherein at least information obtained from a device having information on attributes of a road on which a vehicle is traveling is obtained, and the attribute of the road on which the vehicle is traveling is constant. It is characterized in that it is determined whether or not a criterion is satisfied, and when a running road does not satisfy a certain criterion, calculation of a road vanishing point is prohibited. In this method, information is acquired from a device that has information on the attributes of the road on which the vehicle is traveling. A typical example of such a device is a navigation processing device. Based on the acquired information, the calculation of the road vanishing point is performed only when the traveling road satisfies a certain standard.
This allows, for example, when traveling on narrow streets,
It is unlikely that you can see ahead or behind,
Therefore, when it is unlikely that the road vanishing point can be calculated, the calculation of the road vanishing point can be prevented.

【0022】請求項12記載の道路消失点の算出方法
は、少なくとも車両の現在位置、車両の進行方位および
車両が走行中の道路の方位に関する情報を保有している
装置からの情報を取得し、車両の進行方位と道路の方位
とに一定値以上の差があるかどうかを判定し、車両の進
行方位と道路の方位とに一定値以上の差がある場合に
は、道路消失点の算出を禁止することを特徴とする。
According to a twelfth aspect of the present invention, there is provided a method for calculating a vanishing point of a road, comprising acquiring at least information from a device having information on a current position of the vehicle, a traveling direction of the vehicle, and a direction of a road on which the vehicle is traveling. It is determined whether or not the difference between the traveling direction of the vehicle and the direction of the road is greater than a certain value.If the difference between the traveling direction of the vehicle and the direction of the road is greater than a certain value, calculation of the road vanishing point is performed. It is characterized by prohibition.

【0023】この方法では、車両の現在位置、車両の進
行方位および車両が走行中の道路の方位に関する情報を
保有している装置からの情報が取得される。このような
装置の典型例は、ナビゲーション処理装置である。取得
された情報に基づき、車両の進行方位と道路の方位とに
一定値以上の差があると判定されたときには、道路消失
点の算出が禁止される。車両が道路と平行に走行してい
ないときには画面内に道路消失点が存在していない可能
性が高いからである。
According to this method, information is acquired from a device having information on the current position of the vehicle, the traveling direction of the vehicle, and the direction of the road on which the vehicle is traveling. A typical example of such a device is a navigation processing device. Based on the acquired information, when it is determined that the difference between the traveling direction of the vehicle and the direction of the road has a certain value or more, the calculation of the road vanishing point is prohibited. This is because when the vehicle is not traveling parallel to the road, there is a high possibility that the road vanishing point does not exist in the screen.

【0024】[0024]

【実施例】以下では、本発明の一実施例が適用された車
両用画像認識システムについて詳細に説明する。 1.車両用画像認識処理システムの概要 以下で説明する車両用画像認識処理システムは、車両に
搭載されたカラーカメラで車両の周囲を撮像し、撮像さ
れた画像に基づいて道路の周辺の物体を認識するための
装置である。認識される物体は、たとえば、信号機、道
路標識、道路の表面に描かれた道路表示および走行中の
道路と立体交差している高架道路等の道路施設ならびに
他車両などである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a vehicle image recognition system to which an embodiment of the present invention is applied will be described in detail. 1. Overview of Vehicle Image Recognition Processing System A vehicle image recognition processing system described below captures an image of the periphery of a vehicle with a color camera mounted on the vehicle, and recognizes an object around a road based on the captured image. It is a device for. Recognized objects are, for example, traffic lights, road signs, road markings drawn on the surface of the road, road facilities such as elevated roads that cross over the running road, and other vehicles.

【0025】車両用画像認識処理システムは、次の〜
の4つの処理を実行することによって、車載カラーカ
メラで撮像された画像から、道路に関連した施設などの
物体を認識する。なお、、およびの各処理に関し
ては、必ずしもカラーカメラが用いられる必要はない。 直線部抽出処理 道路消失点算出処理 カメラ姿勢パラメータ算出処理 物体認識処理 直線部抽出処理とは、車載カラーカメラによって撮像さ
れた画像中の車両の進行方向に沿った直線部分を抽出す
る処理である。直線部分には、道路の両側部、道路上の
白線や黄線、中央分離帯、路側帯、前方の車両の輪郭線
などがある。
The vehicle image recognition processing system has the following:
By executing the four processes, an object such as a facility related to a road is recognized from an image captured by the in-vehicle color camera. It should be noted that a color camera does not necessarily need to be used for the and processes. Straight line portion extraction process Road vanishing point calculation process Camera posture parameter calculation process Object recognition process The straight line portion extraction process is a process of extracting a straight line portion along an advancing direction of a vehicle in an image captured by an in-vehicle color camera. The straight portion includes both sides of the road, a white line and a yellow line on the road, a median strip, a road side zone, and a contour line of a vehicle ahead.

【0026】道路消失点算出処理とは、自車両が走行し
ている道路が画面上で消失する点を演算する処理であ
る。具体的には、直線部抽出処理によって抽出された直
線の交わる点が道路消失点として算出される。カメラ姿
勢パラメータ算出処理とは、道路に対する車載カメラの
姿勢などを求めるための処理である。この処理には、道
路消失点算出処理によって得られた道路消失点が利用さ
れる。
The road vanishing point calculation process is a process of calculating the point at which the road on which the vehicle is traveling disappears on the screen. Specifically, a point at which the straight lines extracted by the straight line portion extraction processing intersect is calculated as a road vanishing point. The camera posture parameter calculation process is a process for obtaining the posture of the vehicle-mounted camera with respect to the road. For this processing, the road vanishing point obtained by the road vanishing point calculation processing is used.

【0027】物体認識処理とは、車載カメラで撮像され
た画像中の物体を画像認識するための処理である。物体
認識処理では、特定の物体を認識する際に、その物体が
含まれている画像領域を画面から切り出す処理が行われ
る。この場合、画面中における物体の位置は車両の走行
に伴って変化していく。そこで、物体の画面上における
変位が、上記のカメラ姿勢パラメータなどに基づいて推
定され、これに基づいて画像の切り出しが行われる。
The object recognition process is a process for recognizing an object in an image picked up by a vehicle-mounted camera. In the object recognition process, when recognizing a specific object, a process of cutting out an image region including the object from the screen is performed. In this case, the position of the object on the screen changes as the vehicle travels. Therefore, the displacement of the object on the screen is estimated based on the above-described camera posture parameters and the like, and an image is cut out based on the estimated position.

【0028】このような車載用画像認識処理システムに
よれば、自車両の周囲の物体を認識することができる。
そのため、認識結果を車両のステアリングやブレーキの
自動制御に利用することにより、車両の自動運転への途
がひらかれ、車両の安全な運行に寄与できる。以下で
は、先ず、車載用画像認識処理システムの構成について
説明する。そして、上記〜の直線部抽出処理、道路
消失点算出処理、カメラ姿勢パラメータ算出処理および
物体認識処理について順に詳述する。 2.車両用画像認識処理システムの構成 図1は、車両用画像認識処理システムの電気的構成を示
すブロック図である。この車両用画像認識処理システム
は、車両の周辺の物体を画像認識するための画像認識処
理装置1を備えている。この画像認識処理装置1には、
車両の現在位置および車両の進行方位を検出して道路地
図とともに表示装置に表示するためのナビゲーション処
理装置2と、急制動操作時などにおいて車輪がロック状
態となることを回避するためのアンチロックブレーキ装
置3とが接続されている。画像認識処理装置1における
処理には、ナビゲーション処理装置2およびアンチロッ
クブレーキ装置3の各内部情報が支援情報として用いら
れる。
According to such an in-vehicle image recognition processing system, objects around the own vehicle can be recognized.
Therefore, by utilizing the recognition result for the automatic control of the steering and the brake of the vehicle, the way to the automatic driving of the vehicle is opened, which can contribute to the safe operation of the vehicle. Hereinafter, the configuration of the in-vehicle image recognition processing system will be described first. Then, the above-described linear portion extraction processing, road vanishing point calculation processing, camera posture parameter calculation processing, and object recognition processing will be sequentially described in detail. 2. Configuration of Vehicle Image Recognition Processing System FIG. 1 is a block diagram showing an electrical configuration of the vehicle image recognition processing system. This vehicle image recognition processing system includes an image recognition processing device 1 for recognizing an image of an object around a vehicle. This image recognition processing device 1 includes:
A navigation processing device 2 for detecting the current position of the vehicle and the traveling direction of the vehicle and displaying the current position and the traveling direction of the vehicle on a display device together with a road map; and an anti-lock brake for preventing the wheels from being locked during a sudden braking operation or the like. The device 3 is connected. In the processing in the image recognition processing device 1, each internal information of the navigation processing device 2 and the anti-lock brake device 3 is used as support information.

【0029】画像認識処理装置1は、車両のたとえば前
方部や車室内に取り付けられた車載カラーカメラ11を
備えている。この車載カラーカメラ11は、車両の前方
を撮像することができるものである。車載カラーカメラ
11のほかに、または車載カラーカメラ11に代えて、
車両の後方や車両の側方を撮像できる別の車載カメラが
備えられていてもよい。
The image recognition processing device 1 includes an in-vehicle color camera 11 mounted in, for example, a front portion of a vehicle or a vehicle interior. The in-vehicle color camera 11 can capture an image of the front of the vehicle. In addition to or instead of the in-vehicle color camera 11,
Another vehicle-mounted camera that can image the rear of the vehicle or the side of the vehicle may be provided.

【0030】車載カラーカメラ11は、撮像した画面の
各点をカラー表現したアナログ電気信号を出力する。こ
のアナログ信号は、画像処理回路13において、アナロ
グ/ディジタル変換等の処理を受けて、画像データに変
換される。この画像データは、マイクロコンピュータな
どを含む認識処理部15に入力される。認識処理部15
には、RAM(ランダム・アクセス・メモリ)などを含
む記憶部17が接続されている。また、認識処部15
には、ナビゲーション処理装置2およびアンチロックブ
レーキ装置3からの支援情報が与えられている。
The in-vehicle color camera 11 outputs an analog electric signal representing each point of the captured image in color. The analog signal is subjected to processing such as analog / digital conversion in the image processing circuit 13 and is converted into image data. This image data is input to a recognition processing unit 15 including a microcomputer and the like. Recognition processing unit 15
Is connected to a storage unit 17 including a RAM (random access memory) and the like. In addition, the recognition processing unit 15
Is provided with support information from the navigation processing device 2 and the anti-lock brake device 3.

【0031】ナビゲーション処理装置2は、車両の走行
距離を検出するための距離センサ21および車両の進行
方位を検出するための方位センサ22を備えている。こ
れらのセンサ21および22の出力は、センサ処理回路
23において処理されることにより、走行距離データお
よび現在方位データに変換される。これらのデータが、
マイクロコンピュータなどを内部に含む位置検出処理部
25に入力される。位置検出処理部25は、センサ処理
回路23から入力されるデータに基づいて、車両の現在
位置データを算出する。
The navigation processor 2 has a distance sensor 21 for detecting the traveling distance of the vehicle and a direction sensor 22 for detecting the traveling direction of the vehicle. Outputs of these sensors 21 and 22 are processed in a sensor processing circuit 23 to be converted into travel distance data and current direction data. These data
The data is input to the position detection processing unit 25 including a microcomputer and the like. The position detection processing unit 25 calculates the current position data of the vehicle based on the data input from the sensor processing circuit 23.

【0032】位置検出処理部25には、道路地図を記憶
した道路地図メモリ27と、RAMなどを含む記憶部2
8と、CRT(陰極線管)や液晶表示パネルからなる表
示部29とが接続されている。道路地図メモリ27は、
たとえば、CD−ROMで構成されている。位置検出部
25は、算出された現在位置データに基づいて道路地図
メモリ27を検索し、現在位置の周辺の道路地図を読み
出す。この道路地図は、表示部29に表示される。この
とき、車両の現在位置を表すマークが道路地図上に重ね
て表示される。
The position detection processing unit 25 includes a road map memory 27 storing a road map and a storage unit 2 including a RAM and the like.
8 and a display unit 29 composed of a CRT (cathode ray tube) or a liquid crystal display panel. The road map memory 27
For example, it is constituted by a CD-ROM. The position detector 25 searches the road map memory 27 based on the calculated current position data, and reads a road map around the current position. This road map is displayed on the display unit 29. At this time, a mark indicating the current position of the vehicle is displayed over the road map.

【0033】位置検出処理部25は、画像認識処理装置
1の認識処理部15に、道路地図データ、現在方位デー
タ、現在位置データおよび走行距離データを、支援情報
とし与える。これらのデータの他に、単位時間当たりま
たは単位走行距離当たりの進行方位の変化量を表す方位
変化データが支援情報として認識処理部15に与えられ
てもよい。
The position detection processing unit 25 gives the road map data, the current azimuth data, the current position data and the traveling distance data to the recognition processing unit 15 of the image recognition processing device 1 as support information. In addition to these data, azimuth change data representing the amount of change in the traveling azimuth per unit time or per unit traveling distance may be provided to the recognition processing unit 15 as support information.

【0034】アンチロックブレーキ装置3は、車輪の回
転速度を検出する車輪速センサ31と車体の加速度(減
速度を含む)を検出するためのgセンサ32とを備えて
いる。これらのセンサ31,32の出力は、センサ処理
回路33で処理されることにより、車輪速データおよび
gセンサデータに変換される。これらのデータは、マイ
クロコンピュータを内部に含む制動処理部35に入力さ
れる。制動処理部35には、RAMなどからなる記憶部
37が接続されている。なお、距離センサ21と車輪速
センサ31とは共用化が可能であり、いずれか1つのセ
ンサのみを設け、その1つのセンサの出力をナビゲーシ
ョン処理装置2およびアンチロックブレーキ装置3にお
いて共通に用いてもよい。
The anti-lock brake device 3 includes a wheel speed sensor 31 for detecting the rotational speed of the wheels and a g sensor 32 for detecting the acceleration (including deceleration) of the vehicle body. Outputs of these sensors 31 and 32 are converted into wheel speed data and g sensor data by being processed by a sensor processing circuit 33. These data are input to a braking processing unit 35 including a microcomputer. A storage unit 37 including a RAM and the like is connected to the braking processing unit 35. Note that the distance sensor 21 and the wheel speed sensor 31 can be shared, and only one of the sensors is provided, and the output of the one sensor is commonly used in the navigation processing device 2 and the antilock brake device 3. Is also good.

【0035】制動処理部35は、ブレーキペダルが操作
されると、車輪速データおよびgセンサデータに基づい
て、ブレーキデータを作成する。そして、このブレーキ
データに基づいて図外の電磁ソレノイドなどを制御す
る。これによって、各車輪のブレーキ圧力が制御され、
車輪がロックすることが防止される。制動処理部35
は、gセンサデータおよびブレーキデータを画像認識処
理装置1の認識処理部15に、支援情報として与える。 3.直線部抽出処理 次に、直線部抽出処理について説明する。
When the brake pedal is operated, the brake processing section 35 creates brake data based on the wheel speed data and the g sensor data. Then, an electromagnetic solenoid (not shown) is controlled based on the brake data. This controls the brake pressure on each wheel,
Locking of the wheels is prevented. Braking processing unit 35
Supplies the g sensor data and the brake data to the recognition processing unit 15 of the image recognition processing device 1 as support information. 3. Next, a straight line portion extraction process will be described.

【0036】図2は、車載カラーカメラ11によって撮
像された画像例を示す図である。車両の前方に向けられ
た車載カラーカメラ11によって撮像される画像中に
は、走行中の道路41が入っている。道路41には、中
央白線42が形成されており、路側付近には、路側白線
43が形成されている。また、道路41の側部には、路
側帯44が設けられている。画面中において、走行中の
道路41が消失する箇所が、道路消失点NPである。な
お、46,47,48は、前方を走行中の他車両であ
る。
FIG. 2 is a diagram showing an example of an image picked up by the in-vehicle color camera 11. The image taken by the in-vehicle color camera 11 directed in front of the vehicle includes a traveling road 41. A center white line 42 is formed on the road 41, and a roadside white line 43 is formed near the roadside. A roadside belt 44 is provided on the side of the road 41. In the screen, the point where the traveling road 41 disappears is the road vanishing point NP. In addition, 46, 47, and 48 are other vehicles running ahead.

【0037】図3は、画像中の直線部分を抽出した図で
ある。すなわち、道路41の両側部、中央白線42、路
側白線43、路側帯44の側部、および他車両46,4
7,48の輪郭が、直線部分として抽出されている。こ
の図3から明らかなように、道路消失点NPは、車両の
進行方向50(図2参照)に沿った直線L1,L2,・・
・・の交点として求めることができる。
FIG. 3 is a diagram illustrating a straight line portion extracted from an image. That is, both sides of the road 41, the center white line 42, the road side white line 43, the side portions of the road side belt 44, and the other vehicles 46, 4
7, 48 contours are extracted as straight line portions. As is apparent from FIG. 3, the road vanishing point NP is determined by the straight lines L1, L2,... Along the traveling direction 50 of the vehicle (see FIG. 2).
··· Can be obtained as the intersection of

【0038】直線部抽出処理では、車載カラーカメラ1
1で撮像された画像は、水平走査方向DHに沿って走査
される。この走査が、画面の上端から下端まで行われ
る。水平方向DHに沿った各走査線上において、直線L
1,L2,・・・・上の点が直線候補点P11,P12,・・・・;
21,P22,・・・・として検出される。この直線候補点の
検出処理は、車載カラーカメラ11から認識処理部15
を通って記憶部17に記憶された画像データを順に読み
出すようにして実行される。
In the straight line portion extraction processing, the in-vehicle color camera 1
The image captured in 1 is scanned along the horizontal scanning direction DH. This scanning is performed from the upper end to the lower end of the screen. On each scanning line along the horizontal direction DH, a straight line L
1, L2,..., The upper points are straight line candidate points P 11 , P 12 ,.
.. Are detected as P 21 , P 22 ,. The detection processing of this straight line candidate point is performed by the in-vehicle color camera 11 and the recognition processing unit 15.
The process is executed by sequentially reading out the image data stored in the storage unit 17 through the storage unit 17.

【0039】直線候補点は、水平走査方向DHに沿って
画面を構成する各画素を走査したときに、色度もしくは
輝度またはその両方が安定している安定状態と、色度も
しくは輝度またはその両方が大きく変化する不安定状態
との間で遷移したことに基づいて検出される。安定状態
および不安定状態は、それぞれ、次のようにして検出さ
れる。
The straight line candidate points are, when each pixel constituting the screen is scanned along the horizontal scanning direction DH, a stable state in which chromaticity and / or luminance are stable, and a chromaticity and / or luminance when both are stable. Is detected on the basis of a transition to an unstable state that greatly changes. The stable state and the unstable state are respectively detected as follows.

【0040】たとえば、車載カラーカメラが、赤
(R)、緑(G)および青(B)に対応した3原色信号
を出力するものであるとする。この3原色信号は色調を
表す信号である。色調とは、色度と輝度とを合わせて表
現した量である。この場合、記憶部17には、RGBの
3原色画像データが記憶されることになる。水平走査方
向DHに沿った走査線上の任意の点におけるR、G、B
の各画像データをr(t) 、g(t) 、b(t) とする。t
は、処理シーケンスを表し、水平走査方向DHに沿った
走査線上の1つの点に対応する。
For example, it is assumed that an in-vehicle color camera outputs three primary color signals corresponding to red (R), green (G), and blue (B). These three primary color signals are signals representing a color tone. The color tone is a quantity expressed by combining chromaticity and luminance. In this case, the storage unit 17 stores the RGB primary color image data. R, G, B at an arbitrary point on a scanning line along the horizontal scanning direction DH
Are image data r (t), g (t) and b (t). t
Represents a processing sequence, and corresponds to one point on a scanning line along the horizontal scanning direction DH.

【0041】この場合に、不安定状態は、下記第(1) 式
で定義される判定値P(t) に対して、下記第(2) 式が成
立することに基づいて検出される。m1は定数である。
また、j1 ,j2 およびj3 は重み付けのための定数で
ある。たとえば、Rデータは明るさの変化に対する変動
が大きいので定数j1 は比較的大きな値とされ、Bデー
タは明るさの変化に対する変動が小さいので定数j3
比較的小さな値とされる。
In this case, the unstable state is detected based on the following equation (2) being satisfied with respect to the judgment value P (t) defined by the following equation (1). m1 is a constant.
Further, j 1 , j 2 and j 3 are constants for weighting. For example, the constant j 1 has a relatively large value because the R data has a large variation with respect to the change in brightness, and the constant j 3 has a relatively small value since the B data has a small variation with respect to the change in brightness.

【0042】 P(t) =j1 |r(t) −r(t-1) | +j2 |g(t) −g(t-1) |+j3 |b(t) −b(t-1) | ・・・・ (1) P(t) >m1 ・・・・ (2) すなわち、水平走査方向DHに沿って隣接する2つの処
理対象点の色調の変化の絶対値の線形和が、所定の定数
m1よりも大きい場合に、色調が大きな変化を示してい
ることが検出される。隣接する処理対象点は、必ずしも
隣接する2つの画素とは限らず、或る所定数の画素間隔
で処理対象点を設定してもよい。
P (t) = j 1 | r (t) −r (t−1) | + j 2 | g (t) −g (t−1) | + j 3 | b (t) −b (t− (1) P (t)> m1 (2) That is, the linear sum of the absolute values of the color tone changes of two processing target points adjacent along the horizontal scanning direction DH is Is larger than the predetermined constant m1, it is detected that the color tone shows a large change. The adjacent processing target points are not necessarily two adjacent pixels, and the processing target points may be set at a certain predetermined number of pixel intervals.

【0043】なお、上記の判定値P(t) の代わりに、下
記第(3) 式で定義される判定値P1(t) を用い、この判
定値P1 (t) が下記第(4) 式を満たすときに不安定状態
であるものと判定してもよい。なお、m2は定数であ
る。また、k1 ,k2 およびk 3 は重み付けのための定
数である。 P1 (t) =k1 {r(t) −r(t-1) }2 +k2 {g(t) −g(t-1) }2 +k3 {b(t) −b(t-1) }2 ・・・・ (3) P1 (t) >m2 ・・・・ (4) この場合には、水平走査方向DHに沿って隣接する2つ
の処理対象点の色調の変化の自乗の線形和が、所定の定
数m2よりも大きい場合に、不安定状態であることが検
出される。
Note that, instead of the above determination value P (t),
Judgment value P defined by equation (3)1(t)
Fixed value P1Unstable state when (t) satisfies the following equation (4)
May be determined. Here, m2 is a constant.
You. Also, k1, KTwoAnd k ThreeIs a constant for weighting
Is a number. P1(t) = k1{R (t) −r (t-1)}Two + KTwo{G (t) -g (t-1)}Two+ KThree{B (t) −b (t-1)}Two ・ ・ ・ ・ (3) P1(t)> m2 (4) In this case, two adjacent pixels along the horizontal scanning direction DH
The linear sum of the squares of the change in the color tone of the processing target point
If it is larger than several m2, it is detected that the state is unstable.
Will be issued.

【0044】一方、色調の安定状態は、上記第(1) 式の
判定値P(t) に対して、下記第(5)式が、一定個数(た
とえば10個)以上の連続する処理対象点に関して成立
することに基づいて検出される。n1は定数である(た
だし、n1<m1)。 P(t) <n1 ・・・・ (5) すなわち、水平走査方向DHに隣接する2つの処理対象
点の色調の変化の絶対値の線形和が、所定の定数n1よ
りも小さい状態が、一定個数の処理対象点に関して続い
ている場合に、色調が安定していることが検出される。
On the other hand, the stable state of the color tone is determined by the following equation (5) with respect to the judgment value P (t) of the above equation (1), where a predetermined number (for example, 10) or more consecutive processing target points are obtained. Are detected based on the fact that n1 is a constant (where n1 <m1). P (t) <n1 (5) That is, a state where the linear sum of the absolute values of the color tone changes of two processing target points adjacent in the horizontal scanning direction DH is smaller than a predetermined constant n1 is constant. If the number of processing target points continues, it is detected that the color tone is stable.

【0045】なお、上記第(3) 式の判定値P1(t)を用
い、この判定値P1(t)が、下記第(6)式を、一定個数
(たとえば10個)以上の連続する処理対象点に関して
満たすときに、安定状態であるものと判定してもよい。
なお、n2は定数である(ただし、n2<m2)。 P1(t)<n2 ・・・・ (6) この場合には、水平走査方向DHに沿って隣接する2つ
の処理対象点の色調の変化の自乗の変形和が所定の定数
n2よりも小さい状態が、一定個数の処理対象点に関し
て続いている場合に、安定状態であることが検出され
る。
It is to be noted that, using the judgment value P 1 (t) of the above equation (3), this judgment value P 1 (t) is obtained by calculating the following equation (6) by a predetermined number (for example, 10) or more. When the processing target point is satisfied, it may be determined that the state is a stable state.
Note that n2 is a constant (where n2 <m2). P 1 (t) <n2 (6) In this case, the sum of the squares of the change in the tone of the two processing target points adjacent in the horizontal scanning direction DH is smaller than a predetermined constant n2. If the state continues for a certain number of processing target points, it is detected that the state is stable.

【0046】安定状態の検出には、上記の手法の他に
も、指数平滑を用いた手法を適用することができる。た
とえば、上記第(1) 式の判定値P(t) を用いて下記第
(7) 式の新たな判定値Q(t) を求め、この判定値Q(t)
が下記第(8) 式を満たすことに基づいて安定状態を検出
してもよい。この場合には、一定個数の連続する処理対
象点に対する判定結果を継続して監視する必要がない。
また、この指数平滑を用いた手法では、画像中のノイズ
の影響を排除して、安定状態の検出を良好に行えるとい
う利点がある。なお、下記第(7) 式のαおよび下記第
(8) 式のn3は、いずれも定数である。
For the detection of a stable state, a method using exponential smoothing can be applied in addition to the above method. For example, using the determination value P (t) of the above equation (1),
A new determination value Q (t) of the equation (7) is obtained, and this determination value Q (t) is obtained.
May detect a stable state based on satisfying the following expression (8). In this case, there is no need to continuously monitor the determination results for a fixed number of consecutive processing target points.
In addition, the technique using the exponential smoothing has an advantage that the influence of noise in the image is eliminated and the stable state can be detected satisfactorily. Note that α in the following equation (7) and
N3 in the equation (8) is a constant.

【0047】 Q(t) =α・P(t) +(1−α)・Q(t-1) ・・・・ (7) Q(t) <n3 ・・・・ (8) 同様に、上記第(3) 式の判定値P1(t)を用いて下記第
(9) 式の新たな判定値Q 1(t)を求め、この判定値Q1(t)
が下記第(10)式を満たすことに基づいて安定状態を検出
することもできる。n4は定数である。
Q (t) = α · P (t) + (1−α) · Q (t−1) (7) Q (t) <n3 (8) Similarly, Judgment value P of the above equation (3)1(t)
(9) New judgment value Q of equation 1(t), and this determination value Q1(t)
Detects a stable state based on satisfying the following equation (10)
You can also. n4 is a constant.

【0048】 Q1(t)=α・P1(t)+(1−α)・Q1(t-1) ・・・・ (9) Q1(t)<n4 ・・・・ (10) なお、RGBディジタル信号を用いる場合だけでなく、
HCV(Hue(彩度),Contrast(明度),Value(輝度))デ
ィジタル信号や、YUVディジタル信号(1つの輝度情
報および2つの色情報からなる信号)を用いる場合につ
いても、上記と同様にして安定状態および不安定状態を
それぞれ検出することができる。また、輝度および色度
のうちのいずれか一方のみを用いて安定状態および不安
定状態を検出してもよい。なお、彩度および明度は色度
に相当する。
Q 1 (t) = α · P 1 (t) + (1−α) · Q 1 (t−1) (9) Q 1 (t) <n4 (10) In addition, not only when using RGB digital signals,
The same applies to the case of using HCV (Hue (saturation), Contrast (brightness), Value (brightness)) digital signals and YUV digital signals (signals composed of one piece of luminance information and two pieces of color information). A stable state and an unstable state can be respectively detected. Alternatively, the stable state and the unstable state may be detected using only one of the luminance and the chromaticity. Note that saturation and lightness correspond to chromaticity.

【0049】RGBディジタル信号と、HCVディジタ
ル信号またはYUVディジタル信号とは、互いに変換可
能である。たとえば、RGBディジタル信号とYUVデ
ィジタル信号とは、下記第(11)式乃至第(16)式によって
相互に変換することができる(「インタフェース」1991
年12月号参照)。 Y= 0.2990・R+0.5870・G+0.1140・B ・・・・ (11) U=−0.1684・R−0.3316・G+0.5000・B ・・・・ (12) V= 0.5000・R−0.4187・G−0.0813・B ・・・・ (13) R=Y +1.4020・V ・・・・ (14) G=Y−0.3441・U−0.7139・V ・・・・ (15) B=Y+1.7718・U−0.0012・V ・・・・ (16) 図4は直線候補点の検出処理を説明するための図であ
る。図4(a) は車載カラーカメラ11によって撮像され
た画像例を示し、図4(b) は或る走査線SHL上におけ
るR、G、Bディジタルデータの変化を示す。R、G、
Bの各データの変化は、それぞれ曲線LR、LG、LB
で示されている。この図4から、道路51に形成された
白線52,53,54および中央分離帯55の付近で
は、色調が激しく変化することが理解される。また、白
線などが形成されていない道路表面に対応した画像部分
に対しては、色調が安定していることが理解される。
The RGB digital signal and the HCV digital signal or the YUV digital signal can be converted into each other. For example, an RGB digital signal and a YUV digital signal can be mutually converted by the following equations (11) to (16) ("Interface" 1991).
December issue). Y = 0.2990 · R + 0.5870 · G + 0.1140 · B · · · (11) U = -0.1684 · R-0.3316 · G + 0.5000 · B · · · (12) V = 0.5000 · R-0.4187 · G −0.0813 · B (13) R = Y + 1.4020 · V (14) G = Y−0.3441 · U−0.7139 · V (15) B = Y + 1.7718 · U−0.0012 · V (16) FIG. 4 is a diagram for explaining a process of detecting a straight line candidate point. FIG. 4A shows an example of an image taken by the in-vehicle color camera 11, and FIG. 4B shows changes in R, G, and B digital data on a certain scanning line SHL. R, G,
The change of each data of B is represented by curves LR, LG, and LB, respectively.
Indicated by From FIG. 4, it is understood that the color tone changes drastically in the vicinity of the white lines 52, 53, 54 formed on the road 51 and the median strip 55. Further, it is understood that the color tone is stable for the image portion corresponding to the road surface where the white line or the like is not formed.

【0050】図5は、直線候補点を検出するために認識
処理部15によって実行される処理を説明するためのフ
ローチャートである。ステップS1では、車載カラーカ
メラ11で撮像される1枚のカラー画像のデータが記憶
部17に格納される。そして、画像の上端から水平方向
に画素を走査しながら、処理対象の画素に対する処理が
行われる(ステップS2)。或る1本の走査線上の全て
の処理対象の画素に対する処理が終了したときには(ス
テップS3)、走査する対象を垂直方向に移動して処理
が実行される(ステップS4)。垂直方向への処理も終
了すれば(ステップS5)、1枚のカラー画像に対する
直線候補点の検出処理を終了する。
FIG. 5 is a flowchart for explaining the processing executed by the recognition processing unit 15 to detect a straight line candidate point. In step S <b> 1, data of one color image captured by the in-vehicle color camera 11 is stored in the storage unit 17. Then, processing is performed on the pixel to be processed while scanning the pixel in the horizontal direction from the upper end of the image (step S2). When the processing on all the pixels to be processed on one scanning line is completed (step S3), the processing is executed by moving the object to be scanned in the vertical direction (step S4). When the processing in the vertical direction is also completed (step S5), the processing of detecting a straight line candidate point for one color image is completed.

【0051】水平走査方向に沿った走査線上の全ての処
理対象の画素に対する処理が終了する以前には、ステッ
プS3からステップS6に処理が移る。ステップS6で
は、或る1つの処理対象の画素に対して安定状態か不安
定状態かを検出するために必要なデータが記憶部17か
ら読み出される。そして、ステップS7では、不安定状
態であるかどうかが判定される。すなわち、上記第(2)
式または上記第(4) 式が満たされているかどうかが判定
される。不安定状態であると判定されたときには、ステ
ップS8において、それ以前には、安定状態であるとの
判定がなされていたかどうかが判断される。もしそうで
あれは、その時点の処理対象の画素は、安定状態から不
安定状態への変化点の画素である。したがって、ステッ
プS11において、その処理対象の画素の座標(画面上
における座標)が、直線候補点の座標として記憶部17
に格納される。ステップS7において不安定状態と判定
される以前にも不安定状態と判定されていた場合には、
不安定状態が継続しているだけであるから、直線候補点
が検出されていないものとして、ステップS2に戻る。
Before the processing for all the pixels to be processed on the scanning line along the horizontal scanning direction is completed, the processing shifts from step S3 to step S6. In step S6, data necessary for detecting whether a certain pixel to be processed is in a stable state or an unstable state is read from the storage unit 17. Then, in step S7, it is determined whether or not the vehicle is in an unstable state. That is, the above (2)
It is determined whether the expression or the above expression (4) is satisfied. When it is determined that the vehicle is in the unstable state, it is determined in step S8 whether or not it has been determined that the vehicle is in the stable state before that. If so, the current pixel to be processed is the pixel at the transition point from the stable state to the unstable state. Therefore, in step S11, the coordinates of the processing target pixel (coordinates on the screen) are stored in the storage unit 17 as the coordinates of the straight line candidate point.
Is stored in If it is determined that the state is unstable before the state is determined to be unstable in step S7,
Since the unstable state only continues, it is determined that no straight line candidate point has been detected, and the process returns to step S2.

【0052】ステップS7において不安定状態でないと
判定されたときには、ステップS9に進む。ステップS
9では、それ以前に処理された一定個数(N)の処理対
象画素に関して、色調の変化が小さいかどうかが調べら
れる。すなわち、上記第(5)式または第(6) 式を満たす
処理対象点が一定個数(N)以上連続しているかどうか
が判断される。上記第(5) 式または第(6) 式を満たす処
理対象点が一定個数(N)以上連続していれば、ステッ
プS10において、さらに、(N+1)個前の処理対象
点において、不安定状態が検出されたかどうかが判断さ
れる。不安定状態が検出されていれば、その不安定状態
が検出された処理対象点が、直線候補点として検出さ
れ、その座標が記憶部17に格納される(ステップS1
1)。
If it is determined in step S7 that the vehicle is not in an unstable state, the process proceeds to step S9. Step S
In step 9, it is checked whether or not a change in color tone is small with respect to a predetermined number (N) of processing target pixels processed before that. That is, it is determined whether or not the processing target points satisfying Expression (5) or Expression (6) are continuous for a certain number (N) or more. If the processing target points satisfying the above formula (5) or (6) are continuous for a certain number (N) or more, in step S10, the unstable state is further set at the (N + 1) -th preceding processing target point. Is detected. If an unstable state has been detected, the processing target point where the unstable state has been detected is detected as a straight line candidate point, and its coordinates are stored in the storage unit 17 (step S1).
1).

【0053】一方、ステップS9において一定個数
(N)分の処理対象点に関して色調の変化が小さい状態
が継続しているわけではないと判断されたときは、ステ
ップS2に戻る。また、ステップS10において、(N
+1)個前の処理対象点において不安定状態が検出され
ていないときにも、ステップS2に戻る。このようにし
て、車載カラーカメラ11で撮像された画像が水平走査
方向に沿って走査され、走査線上における色調の変化の
程度が調べられる。そして、色調が安定している安定状
態と、色調が不安定な不安定状態とが切り換わる処理対
象点が、直線候補点として検出される。
On the other hand, if it is determined in step S9 that the state in which the change in color tone is not small for a certain number (N) of processing target points, the process returns to step S2. Also, in step S10, (N
Even when an unstable state is not detected at the (+1) -th previous processing target point, the process returns to step S2. In this manner, the image captured by the in-vehicle color camera 11 is scanned along the horizontal scanning direction, and the degree of change in color tone on the scanning line is checked. Then, the processing target point at which the stable state in which the color tone is stable and the unstable state in which the color tone is unstable is detected as a straight line candidate point.

【0054】直線を検出するためには、たとえば単に輝
度の強弱の変化点のみを捕らえて直線候補点とすること
も考えられる。しかし、この場合には、道路上の白線の
ように、コントラストの明瞭な直線のみしか検出できな
いおそれがある。これに対して、色度もしくは輝度また
はその両方の安定状態と不安定状態との切り換わりに基
づいて直線候補点を検出するようにした上記の構成で
は、路側帯や中央分離帯および車両の輪郭に対応した処
理対象点をも、直線候補点として抽出することができ
る。したがって、画像中に含まれる多数の直線を抽出す
ることができるので、次に説明する道路消失点算出処理
を良好に行うことができる。
In order to detect a straight line, for example, it is conceivable that only a change point of the intensity of the luminance is captured and used as a straight line candidate point. However, in this case, there is a possibility that only a straight line with a clear contrast can be detected, such as a white line on a road. On the other hand, in the above-described configuration in which the straight line candidate point is detected based on the switching between the stable state and the unstable state of the chromaticity and / or the luminance, the roadside zone, the central divider, and the outline of the vehicle are detected. Can be extracted as straight line candidate points. Therefore, since a large number of straight lines included in the image can be extracted, the road vanishing point calculation processing described below can be favorably performed.

【0055】なお、画像中に含まれるノイズの影響を排
除するために、不安定状態の検出に当たり、色調などの
変化が大きな状態が一定個数の処理対象点に関して継続
していることを条件としてもよい。また、1本の走査線
上のデータだけでなく、近傍の走査線上のデータも利用
して直線候補点の検出を行ってもよい。たとえば、或る
処理対象点が直線候補点であると考えられる場合に、垂
直方向に隣接する点が直線候補点であることを条件とし
て、その処理対象点を直線候補点と決定するようにして
もよい。このようにすれば、画像中に含まれるノイズの
影響を排除して、直線候補点を良好に検出できる。 4.道路消失点算出処理 道路消失点算出処理は、直線部抽出処理によって得られ
た直線候補点を用いて、図2に示す道路消失点NPを求
める処理である。図3から明らかなように、道路消失点
を求める処理は、直線候補点P11,P12,・・・・;P21
22,・・・・を連結する直線の交点を求める処理にほかな
らない。
In order to eliminate the influence of noise included in an image, the detection of an unstable state may be performed under the condition that a state in which a change in color tone or the like is large continues for a certain number of processing target points. Good. In addition, not only data on one scanning line but also data on a neighboring scanning line may be used to detect a straight line candidate point. For example, when a certain processing target point is considered to be a straight line candidate point, the processing target point is determined as a straight line candidate point on the condition that a point adjacent in the vertical direction is a straight line candidate point. Is also good. In this way, it is possible to eliminate the influence of noise included in the image and detect the line candidate points favorably. 4. Road vanishing point calculation process The road vanishing point calculation process is a process of calculating a road vanishing point NP shown in FIG. 2 using the straight line candidate points obtained by the straight line portion extraction process. As apparent from FIG. 3, the process for obtaining the road vanishing point, line candidate point P 11, P 12, ····; P 21,
P 22, none other than the process of obtaining an intersection of a straight line connecting ....

【0056】道路消失点算出処理は、直線候補点の座標
列に対して、Hough変換処理を2回繰り返して施すこと
によって行われる。そこで、まず、Hough変換について
概説する。図6(a) および図6(b) はHough変換を説明
するための図である。図6(a) に示すように、複数の点
(xi ,yi )(ただし、i=1,2,3,・・・・)が直
線x=ay+bの上に存在していれば、任意のiに対し
て、xi =ayi +bが成立する。この式を(a,b)
を変数とみなしてab座標平面で考えると、この座標平
面での直線の式は、b=−yi a+xi となる。全ての
iについてのab平面上におけるグラフ化は、図6(b)
に示されている。すなわち、複数のiに対応した複数の
直線群は、或る一点(a0 ,b0 )を通る。これは、複
数の点(xi,yi )がいずれも1つの直線上に存在し
ていることの当然の帰結である。
The road vanishing point calculation process is performed by repeating the Hough transform process twice on the coordinate sequence of the straight line candidate point. Therefore, first, the Hough transform will be outlined. FIGS. 6A and 6B are diagrams for explaining the Hough transform. As shown in FIG. 6A, if a plurality of points (x i , y i ) (i = 1, 2, 3,...) Exist on a straight line x = ay + b, For any i, x i = ay i + b holds. This equation is (a, b)
Given in the ab coordinates plane is regarded as a variable, wherein the straight line in the coordinate plane, a b = -y i a + x i . The graph on the ab plane for all i is shown in FIG.
Is shown in That is, a plurality of straight line groups corresponding to a plurality of i pass a certain point (a 0 , b 0 ). This is a natural consequence of the fact that the plurality of points (x i , y i ) all exist on one straight line.

【0057】そこで、ab座標平面を充分に細かな格子
升目に区画し、(xi ,yi )に対応する直線が或る格
子升目を通過するものであるときに、その格子升目の計
数を1だけ増やす。この操作を全ての(xi ,yi )関
して行う操作がHough変換である。上記の場合、
(a0 ,b0 )の点の格子升目の計数値が最大となるは
ずである。そこで、ab座標平面上で計数値が最大の格
子升目を求めれば、(a0 ,b0)が求まる。したがっ
て、複数の点(xi ,yi )を通る直線の方程式は、x
=a0 y+b0 と定めることができる。このように、H
ough変換は、画像処理の分野において、複数の点
(xi ,yi )を通る直線を求める際に用いられる。
Therefore, the ab coordinate plane is divided into sufficiently fine grid cells, and when the straight line corresponding to (x i , y i ) passes through a certain grid cell, the count of the grid cell is counted. Increase by one. The operation of performing this operation for all (x i , y i ) is Hough transform. In the above case,
The count value of the grid cell at the point (a 0 , b 0 ) should be the maximum. Therefore, if the grid cell with the largest count value is obtained on the ab coordinate plane, (a 0 , b 0 ) is obtained. Therefore, the equation of a straight line passing through a plurality of points (x i , y i ) is x
= A 0 y + b 0 . Thus, H
The ough transformation is used in the field of image processing when obtaining a straight line passing through a plurality of points (x i , y i ).

【0058】図7はHough変換を2回繰り返して道路消
失点を求めるための処理を説明するための図である。図
7(a) には車載カメラ11によって撮像された画面に対
応した座標平面であるxy座標平面が示されており、図
7(b) には1回目のHough変換における変換座標(第1
の変換座標)平面であるab座標平面が示されており、
図7(c) には2回目のHough変換における変換座標(第
2の変換座標)平面であるmn座標平面が示されてい
る。
FIG. 7 is a diagram for explaining a process for obtaining the road vanishing point by repeating the Hough transform twice. FIG. 7A shows an xy coordinate plane which is a coordinate plane corresponding to the screen imaged by the on-board camera 11, and FIG. 7B shows the transformed coordinates (first coordinate) in the first Hough transform.
Ab coordinate plane, which is a plane of (transformed coordinates)
FIG. 7C shows an mn coordinate plane which is a plane of the transformed coordinates (second transformed coordinates) in the second Hough transform.

【0059】図7(a) に示すように、直線候補点P11
12,・・・・;P21,P22,;P31,P32,・・・・がそれぞ
れ属する直線L1,L2,L3は、道路消失点(x0
0)で交わる。座標(x0 ,y0 )を通る直線の方程
式は、下記第(17)式のとおりである。なお、Cは定数で
ある。 x=C(y−y0 )+x0 =Cy+(x0 −Cy0 ) ・・・・ (17) そこで、a=C、b=x0 −Cy0 とおくと、変換式x
=ay+bが得られ、a,bの関係は下記第(18)式で表
される。
As shown in FIG. 7A, the straight line candidate points P 11 ,
P 12, ····; P 21, P 22,; P 31, P 32, the straight line L1, L2, L3 which ... belongs respectively, the road vanishing point (x 0,
y 0 ). The equation of a straight line passing through the coordinates (x 0 , y 0 ) is as shown in the following equation (17). Note that C is a constant. x = C (y−y 0 ) + x 0 = Cy + (x 0 −Cy 0 ) (17) Therefore, if a = C and b = x 0 −Cy 0 , the conversion equation x
= Ay + b, and the relationship between a and b is expressed by the following equation (18).

【0060】 b=−ay0 +x0 ・・・・ (18) 直線候補点P11,P12,・・・・;P21,P22,;P31,P
32,・・・・の座標に対してHough変換を施した場合、ab
座標平面では、複数の直線L1,L2,L3に対応し
て、計数値が極大値をとる格子升目が複数個得られるは
ずである。しかし、直線L1,L2,L3は一点
(x0 ,y0 )で交わるのであるから、極大値をとる格
子升目D1 ,D2 ,D3 は、上記第(18)式の直線上にな
ければならない(図7(b) 参照)。
B = −ay 0 + x 0 (18) Straight line candidate points P 11 , P 12 ,...; P 21 , P 22 ,; P 31 , P
When Hough transform is applied to the coordinates of 32 ,.
On the coordinate plane, a plurality of grid cells whose count values take the maximum value should be obtained corresponding to the plurality of straight lines L1, L2, and L3. However, since the straight lines L1, L2, and L3 intersect at one point (x 0 , y 0 ), the grid cells D 1 , D 2 , and D 3 having the maximum value must be on the straight line of the above equation (18). (See Fig. 7 (b)).

【0061】そこで、極大値をとる格子升目D1
2 ,D3 の座標に対して、下記第(19)式の変換式を用
いて、2回目のHough変換をmn座標平面上に行う。 b=ma+n ・・・・ (19) ab座標平面において計数値が極大となる格子升目
1 ,D2 ,D3 は第(18)式の直線上にあるから、mn
座標平面では、m=−y0 、n=x0 に対応した格子升
目の計数値が最大となる。これにより、xy座標平面に
おける道路消失点nPの座標(x0 ,y0 )を求めるこ
とができる。
Therefore, the grid cells D 1 ,
The second Hough transform is performed on the mn coordinate plane for the coordinates of D 2 and D 3 using the conversion formula of the following expression (19). b = ma + n (19) Since the grid cells D 1 , D 2 , and D 3 at which the count value becomes maximum on the ab coordinate plane are on the straight line of the expression (18), mn
On the coordinate plane, the count value of the grid cell corresponding to m = −y 0 and n = x 0 is the largest. Thereby, the coordinates (x 0 , y 0 ) of the road vanishing point nP on the xy coordinate plane can be obtained.

【0062】図8、図9、図10および図14は道路消
失点を算出するために認識処理部15(図1参照)にお
いて実行される処理を説明するためのフローチャートで
ある。先ず、ナビゲーション処理装置2から与えられる
支援情報が参照される(ステップS21)。この情報を
基に、車両の前方の道路が直線道路であるかどうか(ス
テップS22)、走行道路の属性(幹線道路かどうかな
ど)が所定の基準を満たしているかどうか(ステップS
23)、および車両が道路とほぼ平行に走行しているか
どうか(ステップS24)が調べられる。いずれかの条
件が満たされていないときには、道路消失点の算出を禁
止して、処理を終了する。これらの全ての条件が満たさ
れていなければ道路消失点を算出できない可能性が高い
ので、無駄な処理を省く目的である。たとえば、カーブ
走行中であれば、車載カメラ11によって撮像される画
面の中には道路消失点がない可能性が高く、しかも、直
線を抽出できないからHough変換による道路消失点の算
出は困難である。また、走行中の道路が幹線道路以外の
細い道路であれば、あまり長い直線区間が続かないこと
が多いので、道路消失点が見つからない可能性が高い。
さらに、車線変更中のように車両が道路と平行に走行し
ていないときには、撮像された画面中に道路消失点が存
在していないおそれがある。
FIGS. 8, 9, 10 and 14 are flowcharts for explaining the processing executed in the recognition processing section 15 (see FIG. 1) to calculate the road vanishing point. First, the support information provided from the navigation processing device 2 is referred to (step S21). Based on this information, whether the road ahead of the vehicle is a straight road (step S22), whether the attribute of the running road (such as whether it is a main road) satisfies a predetermined criterion (step S22).
23), and whether the vehicle is traveling substantially parallel to the road (step S24). If any of the conditions is not satisfied, the calculation of the road vanishing point is prohibited, and the process ends. If all of these conditions are not satisfied, there is a high possibility that the road vanishing point cannot be calculated. For example, if the vehicle is traveling on a curve, there is a high possibility that there is no road vanishing point in the screen imaged by the on-vehicle camera 11, and it is difficult to calculate the road vanishing point by the Hough transform because a straight line cannot be extracted. . In addition, if the road on which the vehicle is traveling is a narrow road other than the main road, a long straight section often does not continue, so that there is a high possibility that a road vanishing point cannot be found.
Furthermore, when the vehicle is not traveling parallel to the road, such as during a lane change, there is a possibility that the road vanishing point does not exist in the captured image.

【0063】なお、走行中の道路が直線道路かどうかの
判断や、その道路が所定の属性の道路であるかどうかの
判断は、ナビゲーション処理装置2から与えられる道路
地図データに基づいて行われる。ナビゲーション処理装
置2の位置検出処理部25は、車両が走行している道路
に関するデータを道路地図メモリ27から読み出して、
認識処理部15に与える。また、車両が道路と平行に走
行しているかどうかの判断は、走行中の道路の方位(道
路地図データとしてナビゲーション処理装置2から与え
られる。)と、車両の進行方位に対応した現在方位デー
タとを照合することによって行われる。
It is to be noted that the determination as to whether the running road is a straight road or whether the road is a road having a predetermined attribute is made based on road map data provided from the navigation processing device 2. The position detection processing unit 25 of the navigation processing device 2 reads data on the road on which the vehicle is traveling from the road map memory 27,
This is given to the recognition processing unit 15. The determination as to whether the vehicle is traveling parallel to the road is made based on the azimuth of the traveling road (given from the navigation processing device 2 as road map data) and the current azimuth data corresponding to the traveling azimuth of the vehicle. This is done by matching

【0064】上述のステップS22,S23およびS2
4の各条件が満たされているときには、ステップS25
に進む。ステップS25では、1回目のHough変換処理
のために、記憶部17から直線候補点の座標(x,y)
が読み出される。変換式は、x=ay+bである。ま
た、画面上ではx,yは、それぞれ1≦x≦256、1
≦y≦256の範囲内の値をとるものとする。なお、a
b座標平面においては、a軸方向に沿う長さΔaが
「0.01」でb軸方向に沿う長さΔbが「1」の格子
升目が設定される。
The above steps S22, S23 and S2
If the conditions of step 4 are satisfied, step S25
Proceed to. In step S25, the coordinates (x, y) of the line candidate point are stored in the storage unit 17 for the first Hough transform process.
Is read. The conversion equation is x = ay + b. On the screen, x and y are respectively 1 ≦ x ≦ 256, 1
It is assumed that the value is within a range of ≦ y ≦ 256. Note that a
On the b-coordinate plane, a lattice cell having a length Δa along the a-axis direction of “0.01” and a length Δb along the b-axis direction of “1” is set.

【0065】ステップS26では、直線の傾きに対応し
た係数aの値が下記第(20)式の範囲内のいずれかの値に
設定される。この第(20)式の範囲は、車両が道路にほぼ
沿って走行している場合には、道路消失点に至る画面中
の全直線の傾きをカバーできる範囲である。 k1≦a≦k2(たとえば、k1=−2、k2=2) ・・・・ (20) 続いて、ステップS27では、下記第(21)式に従って、
係数bの値が求められる。
In step S26, the value of the coefficient a corresponding to the slope of the straight line is set to any value within the range of the following equation (20). The range of Expression (20) is a range that can cover the inclination of all the straight lines in the screen up to the road vanishing point when the vehicle is traveling substantially along the road. k1 ≦ a ≦ k2 (for example, k1 = −2, k2 = 2) (20) Then, in step S27, according to the following equation (21),
The value of the coefficient b is determined.

【0066】 b=−ay+x ・・・・ (21) ステップS28では、求められたbが下記第(22)式の範
囲内の値かどうかが調べられる。この範囲は、上記車両
が道路と平行に走行している場合に画面中に現れる直線
であって道路消失点に至るものをカバーするのに必要充
分な範囲である。
B = −ay + x (21) In step S 28, it is checked whether or not the obtained b is a value within the range of the following equation (22). This range is a necessary and sufficient range to cover a straight line appearing on the screen when the vehicle is running parallel to the road and reaching the road vanishing point.

【0067】 k3≦b≦k4(たとえば、k3=−511 、k4=768 ) ・・・・ (22) bの値が上記の範囲内でなければ(ステップS29)、
ステップS26に戻り、aの値を変化させて(0.01
ずつ変化させる。)同様な処理が行われる。bの値が上
記の範囲内であれば、該当する格子升目の計数値がカウ
ントアップされる(ステップS30)。ステップS31
では、上記のa,bの範囲内の格子升目の計数値のうち
の最大値pが記憶部17に記憶される。
K3 ≦ b ≦ k4 (for example, k3 = −511, k4 = 768) (22) If the value of b is not within the above range (step S29),
Returning to step S26, the value of a is changed (0.01
Change in steps. ) Similar processing is performed. If the value of b is within the above range, the count value of the corresponding grid cell is counted up (step S30). Step S31
In, the maximum value p of the count values of the grid cells in the range of a and b is stored in the storage unit 17.

【0068】このような処理が、上記第(20)式のaの範
囲に関して行われる(ステップS32)。そして、上記
第(20)式の全範囲のaについての処理が終了すると、次
の直線候補点の座標(x,y)が記憶部17から読み出
されて同様な処理が行われる(ステップS33)。この
ようにして、全ての直線候補点に関してステップS25
〜S33の処理が行われることにより、1回目のHough
変換処理が達成される。
Such a process is performed for the range of a in the above equation (20) (step S32). Then, when the processing for a in the entire range of Expression (20) is completed, the coordinates (x, y) of the next straight line candidate point are read from the storage unit 17 and the same processing is performed (step S33). ). In this way, step S25 is performed for all the straight line candidate points.
To S33, the first Hough
A conversion process is achieved.

【0069】1回目のHough変換処理が終了すると、格
子升目の計数値が1つずつ順に参照される(図9のステ
ップS34)。ステップS35では、参照された計数値
が一定値k5・p(k5は定数であり、たとえば0.5
とされる。このとき、k・pは最大計数値pの2分の1
となる。)以上かどうかが調べられる。計数値が一定値
k5・p未満であれば、ステップS34に戻って、次の
格子升目の計数値に対して同様な処理が実行される。ま
た、計数値がk5・p以上のときは、さらに、一定値k
6(たとえば、3とされる。)以上かどうかが調べられ
る(ステップS36)。これは、最大計数値pが小さい
場合を考慮したものである。計数値が一定値k6に満た
なければ、ステップS34に戻る。
When the first Hough transform process is completed, the count values of the grid cells are sequentially referred to one by one (step S34 in FIG. 9). In step S35, the counted value referred to is a constant value k5 · p (k5 is a constant, for example, 0.5
It is said. At this time, k · p is a half of the maximum count value p.
Becomes ) Is checked. If the count value is less than the fixed value k5 · p, the process returns to step S34, and the same process is performed on the count value of the next grid cell. When the count value is equal to or greater than k5 · p, the constant value k is further increased.
It is checked whether the number is 6 (for example, 3) or more (step S36). This takes into account the case where the maximum count value p is small. If the count value does not reach the certain value k6, the process returns to step S34.

【0070】次に、格子升目の計数値が充分に大きいと
判断された点の座標が、記憶部17に登録されている格
子升目代表値と比較される(ステップS37)。格子升
目代表値とは、格子升目の計数値が充分に大きな点であ
って所定距離範囲内(たとえば、格子升目50個分)に
ある点のグループを代表する点の座標である。つまり、
格子升目の計数値が大きな点は、近くに有るもの同士が
同一群に属するようにグループ分けされる。格子升目代
表値は、グループ中の1つの格子升目の点の座標であ
る。たとえば、そのグループ内に最後に登録された点の
座標が、格子升目代表値とされる。各グループには群番
号が付与される。
Next, the coordinates of the point at which the count value of the grid cell is determined to be sufficiently large are compared with the grid cell representative value registered in the storage unit 17 (step S37). The grid cell representative value is a coordinate of a point whose count value of the grid cell is sufficiently large and represents a group of points within a predetermined distance range (for example, 50 grid cells). That is,
Points with a large count value in the grid cells are grouped so that nearby ones belong to the same group. The lattice cell representative value is the coordinates of a point of one lattice cell in the group. For example, the coordinates of the last registered point in the group are set as lattice grid representative values. Each group is assigned a group number.

【0071】近くに格子升目代表値がない場合には(ス
テップS38)、処理対象となっている格子升目の点の
座標が格子升目代表値として登録され、この格子升目代
表値に群番号が付与される(ステップS39)。近くに
格子升目代表値があれば、この処理は省かれる。次に、
処理対象の格子升目の点に対して、格子升目代表値に対
応した群番号が付与される(ステップS40)。このよ
うにして格子升目の計数値の大きな点に対しては、いず
れかの群番号が付与され、これによって格子升目の分類
が達成される。
If there is no lattice cell representative value nearby (step S38), the coordinates of points of the lattice cell to be processed are registered as lattice cell representative values, and a group number is assigned to this lattice cell representative value. Is performed (step S39). If there is a lattice cell representative value nearby, this processing is omitted. next,
A group number corresponding to the lattice cell representative value is assigned to the lattice cell point to be processed (step S40). In this manner, any group number is assigned to a point having a large count value of a grid cell, whereby classification of the grid cell is achieved.

【0072】上記のような処理が、上記第(20)式および
第(22)式のa,bの範囲内の全格子升目に関して実行さ
れる(ステップS41)。そして、ステップS42で
は、格子升目代表値が登録されたグループが、2つ以上
あるかどうかが判断される。2つ以上のグループがなけ
れば、道路消失点の算出を禁止して、処理を終了する
(ステップS42)。この場合には、1つの直線しか見
つからない場合であるので、道路消失点を算出すること
ができないからである。2つ以上のグループが登録され
ているときには、図10のステップS43からの2回目
のHough変換処理が実行される。
The above processing is executed for all the grid cells within the range of a and b in the above-mentioned equations (20) and (22) (step S41). In step S42, it is determined whether or not there are two or more groups in which the grid cell representative values are registered. If there are no more than two groups, the calculation of the road vanishing point is prohibited, and the process ends (step S42). In this case, since only one straight line is found, it is not possible to calculate the road vanishing point. When two or more groups are registered, the second Hough transform process from step S43 in FIG. 10 is executed.

【0073】2回目のHough変換処理では、群番号が付
与された点のみ、すなわち格子升目の計数値が大きな点
のみが用いられる。なお、上記の処理では格子升目が一
定値以上の点に対して群番号を付与しているが、その代
わりに、周囲の所定範囲内(たとえば格子升目5個分の
範囲内)の格子升目の計数値の合計値を求め、この合計
値が一定値以上となる点にのみ群番号を付与し、この群
番号が付与された点のみを2回目のHough変換処理に用
いてもよい。また、各群内において格子升目の計数値が
最大である点のみを2回目のHough変換処理に用いた
り、各群内において周囲の所定範囲内の格子升目の計数
値の合計が最大である点のみを2回目のHough変換処理
のために用いたりして、2回目のHough変換処理を軽減
してもよい。
In the second Hough transform process, only points to which group numbers are assigned, that is, only points having a large count value of a grid cell are used. In the above processing, the group numbers are assigned to points whose lattice cells are equal to or more than a certain value. Instead, the lattice cells within a predetermined range (for example, within the range of five lattice cells) in the surrounding area are assigned instead. A total value of the count values may be obtained, a group number may be assigned only to a point where the total value is equal to or more than a certain value, and only the point to which the group number is assigned may be used in the second Hough transform process. In addition, only the point where the count value of the grid cells in each group is the largest is used for the second Hough transform processing, or the point where the total count value of the grid cells in the surrounding predetermined range is the largest in each group. Only the second Hough transform may be used for the second Hough transform, or the second Hough transform may be reduced.

【0074】さらに、格子升目の計数値が一定値以上と
なる点、または周辺の所定範囲内の格子升目の計数値の
合計値が一定値以上となる点が一定数(たとえば5個)
以上存在しない群については、その群に属する点を2回
目のHough変換処理では使用しないようにしてもよい。
こうすれば、たとえば図3の直線L5〜L10のように
車両の輪郭線などに対応した直線候補点に相当する点を
排除して、道路平行線に対応した点のみを2回目のHou
gh変換処理のために用いることができる。そのため、道
路消失点の算出精度を高めることができる。
Further, a certain number (for example, 5) of points where the count value of the grid cells is equal to or more than a certain value or a point where the total value of the count values of the grid cells in a predetermined range around the grid is equal to or more than a certain value.
For a group that does not exist, points belonging to the group may not be used in the second Hough transform process.
In this way, for example, points corresponding to straight line candidate points corresponding to the outline of the vehicle, such as the straight lines L5 to L10 in FIG.
Can be used for gh conversion processing. Therefore, the calculation accuracy of the road vanishing point can be improved.

【0075】図10を参照して、2回目のHough変換処
理について説明する。ステップS43では、記憶部17
に記憶されているab座標平面上の点の座標(a,b)
が順に参照される。そして、群番号が付与されている点
に関してのみ(ステップS44)、Hough変換処理が行
われる。この場合の変換式は、b=ma+nである。な
お、mn座標平面においては、m軸方向に沿う長さΔm
が「1」でn軸方向に沿う長さΔnが「1」の格子升目
が設定される。
Referring to FIG. 10, the second Hough transform processing will be described. In step S43, the storage unit 17
(A, b) of the point on the ab coordinate plane stored in
Are sequentially referred to. Then, the Hough conversion process is performed only on the point to which the group number is assigned (step S44). The conversion equation in this case is b = ma + n. In the mn coordinate plane, the length Δm along the m-axis direction
Is set to “1”, and a grid cell whose length Δn along the n-axis direction is “1” is set.

【0076】ステップS45では、mの値が下記第(23)
式の範囲内のいずれかの値に設定される。この第(23)式
の範囲は、車両が道路にほぼ沿って走行している場合に
おいて、道路消失点に至る画面中の全直線をカバーでき
る範囲である。 k7≦m≦k8(たとえば、k7=−256、k8=−1)・・・・ (23) 続いて、ステップS46では、下記第(24)式に従って、
nの値が求められる。
In step S45, the value of m is set to the following (23)
Set to any value within the range of the expression. The range of Expression (23) is a range that can cover all the straight lines in the screen up to the road vanishing point when the vehicle is traveling substantially along the road. k7 ≦ m ≦ k8 (for example, k7 = −256, k8 = −1) (23) Subsequently, in step S46, according to the following equation (24),
The value of n is determined.

【0077】 n=−ma+b ・・・・ (24) ステップS47では、求められたnが下記第(25)式の範
囲内の値かどうかが調べられる。この範囲は、上記車両
が道路と平行に走行している場合に画面中に現れる直線
であって道路消失点に至るものをカバーするのに必要充
分な範囲である。
N = −ma + b (24) In step S 47, it is checked whether or not the obtained n is within a range of the following equation (25). This range is a necessary and sufficient range to cover a straight line appearing on the screen when the vehicle is running parallel to the road and reaching the road vanishing point.

【0078】 k9≦n≦k10(たとえば、k9=1、k10=256) ・・・・ (25) nの値が上記の範囲内でなければ(ステップS48)、
ステップS45に戻り、mの値を変化させて同様な処理
が行われる。nの値が上記の範囲内であれば、該当する
格子升目の計数値がカウントアップされる(ステップS
49)。ステップS50では、上記のm,nの範囲内の
格子升目の計数値のうちの最大値qが記憶部17に記憶
される。
K9 ≦ n ≦ k10 (for example, k9 = 1, k10 = 256) (25) If the value of n is not within the above range (step S48),
Returning to step S45, the same processing is performed by changing the value of m. If the value of n is within the above range, the count value of the corresponding grid cell is counted up (step S).
49). In step S50, the maximum value q of the count values of the grid cells in the range of m and n is stored in the storage unit 17.

【0079】このような処理が、上記第(23)式のmの範
囲に関して行われる(ステップS51)。そして、上記
第(23)式の全範囲のmについての処理が終了すると、次
の格子升目の点の座標(a,b)が記憶部17から読み
出されて同様な処理が行われる(ステップS52)。こ
のようにして、全ての格子升目の点に関する処理が行わ
れることにより、2回目のHough変換処理が達成され
る。
Such processing is performed for the range of m in the above equation (23) (step S51). Then, when the processing for m in the entire range of the above equation (23) is completed, the coordinates (a, b) of the point of the next grid cell are read from the storage unit 17 and the same processing is performed (step S23). S52). In this way, by performing the processing for all the grid points, the second Hough transform processing is achieved.

【0080】2回目のHough変換処理が終了すると、m
n座標平面の格子升目の計数値が1つずつ順に参照され
る(ステップS53)。ステップS54では、参照され
た計数値が一定値k11・q(k11は定数であり、たとえ
ば0.5とされる。このときk11・qは最大計数値qの
2分の1となる。)以上かどうかが調べられる(ステッ
プS54)。計数値が一定値k11・q未満であれば、ス
テップS53に戻って、次の格子升目の計数値に対して
同様な処理が実行される。また、計数値がk11・q以上
のときは、その点の周辺の所定範囲内にある格子升目の
計数値の合計値が算出される(ステップS55)。たと
えば、m軸方向およびn軸方向に関して±5個分の格子
升目の合計値が算出される。
When the second Hough transform processing is completed, m
The count values of the grid cells on the n-coordinate plane are sequentially referred to one by one (step S53). In step S54, the counted value referred to is equal to or greater than a fixed value k11 · q (k11 is a constant, for example, 0.5. At this time, k11 · q is one half of the maximum count value q). It is checked whether it is (step S54). If the count value is less than the fixed value k11 · q, the process returns to step S53, and the same processing is performed on the count value of the next grid cell. If the count value is equal to or larger than k11 · q, the total value of the count values of the grid cells within a predetermined range around the point is calculated (step S55). For example, the total value of ± 5 grid cells in the m-axis direction and the n-axis direction is calculated.

【0081】ステップS56では、上記の合計値の最大
値rと、この最大値rに対応した点の座標(m0
0 )とが記憶部17に記憶される。このような処理
が、上記第(23)式および第(25)式のm,nの範囲内の全
格子升目に関して実行される(ステップS57)。その
結果、上記の座標(m0 ,n0)は、上記のm,nの範
囲内で、周辺の所定範囲内の格子升目の計数値の合計が
最も大きい点の座標となる。
In step S56, the maximum value r of the total value and the coordinates (m 0 ,
n 0 ) are stored in the storage unit 17. Such processing is executed for all the grid cells within the range of m and n in the above formulas (23) and (25) (step S57). As a result, the coordinates (m 0 , n 0 ) are the coordinates of the point in the range of m and n where the sum of the count values of the lattice cells in a predetermined range around the coordinate is the largest.

【0082】ステップS58では、上記合計値の最大値
rが一定値k12(たとえば、50)以上かどうかが判断
される。最大値rが一定値k12に満たなければ、確信度
が低いものとして、道路消失点の算出を禁止して、処理
を終了する。最大値rが一定値k12以上であるときに
は、(n0 ,−m0 )が道路消失点として決定される。
なお、周辺の所定範囲内の格子升目の計数値が最大とな
る点を求める代わりに、格子升目の計数値が最大となる
点を求めて、この点の座標に基づいて道路消失点を求め
てもよい。この場合に、格子升目の計数値の最大値が一
定値に満たない場合には、道路消失点の算出を禁止する
ようにすればよい。
In step S58, it is determined whether the maximum value r of the total value is equal to or larger than a fixed value k12 (for example, 50). If the maximum value r is less than the constant value k12, the confidence is low and the calculation of the road vanishing point is prohibited, and the process is terminated. When the maximum value r is equal to or larger than the constant value k12, (n 0 , −m 0 ) is determined as a road vanishing point.
In addition, instead of finding the point at which the count value of the grid cells in the surrounding predetermined range is the largest, finding the point at which the count value of the grid cells is the largest, and finding the road vanishing point based on the coordinates of this point. Is also good. In this case, if the maximum count value of the grid cells is less than a certain value, the calculation of the road vanishing point may be prohibited.

【0083】ステップS60からの処理は、道路に平行
な直線である道路平行線を求めるための処理である。先
ず、ステップS60では、記憶部17の記憶内容が検索
され、ab座標平面における格子升目の点のなかの特定
の群番号のものが参照される。ステップS61では、b
−(am0 +n0 )の絶対値が誤差として算出される。
b=am0 +n0 が成立すれば、そのときの(a,b)
は、道路消失点(x0,y0 )を通る直線の切片および
傾きを与える。そのため、b−(am0 +n0)の絶対
値が最小値をとる(a,b)を見出すことによって、道
路平行線が求められる。つまり、同一群に属する点のう
ち、その座標を係数として使用したxy座標平面におけ
る直線が道路消失点の最も近くを通る点の座標が、道路
平行線の係数として求められる。
The processing from step S60 is processing for obtaining a road parallel line that is a straight line parallel to the road. First, in step S60, the contents stored in the storage unit 17 are searched, and a specific group number among the points of the grid cell on the ab coordinate plane is referred to. In step S61, b
The absolute value of-(am 0 + n 0 ) is calculated as an error.
If b = am 0 + n 0 holds, then (a, b) at that time
Gives the intercept and slope of a straight line passing through the road vanishing point (x 0 , y 0 ). Therefore, by finding (a, b) where the absolute value of b− (am 0 + n 0 ) takes the minimum value, the road parallel line is obtained. That is, among the points belonging to the same group, the coordinates of the point at which the straight line on the xy coordinate plane using the coordinates as the coefficient passes closest to the road vanishing point are obtained as the coefficient of the road parallel line.

【0084】ステップS62では、ステップS61で誤
差として求められたb−(am0 +n0 )の絶対値が一
定誤差k13(たとえば、5)以内であるかどうかが判断
される。一定誤差k1 以内なら、その誤差が、当該群番
号が付与された点であって既に処理が終了しているもの
の座標に対応した誤差のうちで、最小かどうかが判定さ
れる(ステップS63)。最小値であれば(ステップS
64)、その格子升目の点の座標に関して得られた誤差
が、当該群番号が付与されたグループにおける最小誤差
とされる(ステップS65)。
In step S62, it is determined whether or not the absolute value of b− (am 0 + n 0 ) obtained as an error in step S61 is within a fixed error k13 (for example, 5). If the error is within the fixed error k1, it is determined whether the error is the minimum among the errors corresponding to the coordinates of the point to which the group number is assigned and the processing has already been completed (step S63). If it is the minimum value (step S
64), the error obtained with respect to the coordinates of the points of the grid cell is determined as the minimum error in the group to which the group number is assigned (step S65).

【0085】ステップS66では、或る群番号が付与さ
れた全ての格子升目の点に対する処理が終了したかどう
が調べられる。同一群番号が付与された全ての点の処理
が終了すると、さらに、全群番号に関して処理が終了し
たかどうかが調べられる(ステップS67)。全群番号
に関して上記の処理が終了すると、各群の最小誤差の格
子升目が参照される(ステップS68)。そして、最小
誤差が記憶部17に記憶されている格子升目グループに
関しては、その最小誤差に対応した格子升目の座標
(a,b)が道路平行線の係数(傾きおよび切片)とさ
れる(ステップS69)。そして、係数aが正の場合に
は、その道路平行線が車両の左側の道路平行線とされ
(ステップS70)、係数aが負のときにはその道路平
行線が車両の右側の道路平行線とされる。
In step S66, it is checked whether or not the processing has been completed for all the grid cell points to which a certain group number has been assigned. When the processing for all points to which the same group number has been given is completed, it is further checked whether or not the processing has been completed for all group numbers (step S67). When the above processing is completed for all the group numbers, the grid cell having the minimum error of each group is referred to (Step S68). Then, for the grid cell group in which the minimum error is stored in the storage unit 17, the coordinates (a, b) of the grid cell corresponding to the minimum error are set as the coefficients (slope and intercept) of the road parallel line (step). S69). When the coefficient a is positive, the road parallel line is set as the road parallel line on the left side of the vehicle (step S70). When the coefficient a is negative, the road parallel line is set as the road parallel line on the right side of the vehicle. You.

【0086】図3の場合には、道路平行線L1,L2,
L3,L4に関して係数aおよびbが求まる。この場
合、各道路平行線L1,L2,L3,L4の方程式は、
下記第(26)式〜第(29)式のとおりであり、道路消失点N
Pの座標は(120,170)である。 L1:x= 1.333y−106.7 ・・・・ (26) L2:x= 0.863y−26.8 ・・・・ (27) L3:x=− 0.992y+288.7 ・・・・ (28) L4:x=− 1.844y+433.5 ・・・・ (29) なお、各群番号ごとに得られた係数aがいずれも正の値
であるか、またはいずれも負の値である場合には、求め
られた道路消失点およびを道路平行線を無効にすること
が好ましい。このような場合には、車両の左側または右
側のいずれかの側に位置する道路平行線のみが検出され
ているため、道路消失点の算出精度が低いおそれがある
からである。
In the case of FIG. 3, the road parallel lines L1, L2,
Coefficients a and b are obtained for L3 and L4. In this case, the equation of each road parallel line L1, L2, L3, L4 is:
Equations (26) to (29) below, and the road vanishing point N
The coordinates of P are (120, 170). L1: x = 1.333y−106.7 (26) L2: x = 0.63y−26.8 (27) L3: x = −0.992y + 288.7 (28) L4: x = − 1.844y + 433.5 (29) If the coefficient a obtained for each group number is either a positive value or a negative value, the calculated road is used. It is preferable to disable the vanishing point and the road parallel line. In such a case, since only the road parallel lines located on either the left side or the right side of the vehicle are detected, the calculation accuracy of the road vanishing point may be low.

【0087】本件発明者は、次の〜の4とおりの場
合について、上記の道路消失点算出処理を試験的に実行
した。 図3の直線L2,L3上の直線候補点の座標データ
を使用。 図3の直線L2,L3,L5〜L10 上の直線候補点の座標デ
ータを使用。 図3の直線L1〜L3, L5〜L10 上の直線候補点の座標
データを使用。
The inventor experimentally executed the above-described road vanishing point calculation process in the following four cases. The coordinate data of the straight line candidate points on the straight lines L2 and L3 in FIG. 3 are used. The coordinate data of the straight line candidate points on the straight lines L2, L3, L5 to L10 in FIG. 3 are used. The coordinate data of the straight line candidate points on the straight lines L1 to L3 and L5 to L10 in FIG. 3 are used.

【0088】 図3の直線L1〜L10上の直線候補
点の座標データを使用。 これらのいずれの場合にも、道路消失点の座標は正しく
求めることができた。とくに、,,の場合には前
方の他車両の輪郭線に対応した直線候補点が含まれてい
る場合であるが、このような場合にも、道路消失点の座
標が正しく求まることが確認された。また、道路平行線
についても、ほぼ誤差なく求めることができた。ただ
し、の場合には、直線L4に関しては、道路平行線と
して求めることができなかった。これは、直線候補点の
サンプルデータが少ないためであると考えられる。した
がって、サンプルデータを増やすことにより、直線L4
に関しても道路平行線を求めることができると考えられ
る。
The coordinate data of the straight line candidate points on the straight lines L1 to L10 in FIG. 3 is used. In each of these cases, the coordinates of the road vanishing point could be obtained correctly. In particular, in the case of ,, the case where a straight line candidate point corresponding to the contour of the other vehicle in front is included, it is confirmed that the coordinates of the road vanishing point can be correctly obtained also in such a case. Was. In addition, the road parallel lines could be obtained almost without errors. However, in the case of, the straight line L4 could not be obtained as a road parallel line. It is considered that this is because the sample data of the straight line candidate points is small. Therefore, by increasing the sample data, the straight line L4
It is considered that the road parallel line can also be obtained for.

【0089】このようにして求められた道路消失点と道
路平行線とは、次に説明するカメラ姿勢パラメータ算出
処理において用いられる。 5.カメラ姿勢パラメータ算出処理 この処理では、道路に対する車載カメラ11の姿勢を表
す姿勢パラメータが求められる。姿勢パラメータには、
鉛直軸まわりの回転角であるヨー角、車両の進行方向ま
わりの回転角であるロール角、水平面に沿うとともに進
行方向と直交している方向のまわりの回転角であるピッ
チ角、および道路に平行な所定の基準線からのカメラの
横ずれ(道路に対する横方向の相対位置)が含まれる。
The road vanishing point and the road parallel line obtained in this way are used in a camera posture parameter calculation process described below. 5. Camera Posture Parameter Calculation Process In this process, a posture parameter representing the posture of the vehicle-mounted camera 11 with respect to the road is obtained. Attitude parameters include
The yaw angle which is the rotation angle around the vertical axis, the roll angle which is the rotation angle around the traveling direction of the vehicle, the pitch angle which is the rotation angle around the direction which is along the horizontal plane and orthogonal to the traveling direction, and parallel to the road A lateral displacement of the camera from a predetermined reference line (lateral relative position to the road) is included.

【0090】車載カメラ11は、所定の姿勢で正確に車
両に取り付けるが、取付け誤差の発生は回避できない。
そこで、カメラ姿勢パラメータ算出処理では、車載カメ
ラ11の車両に対する取付け姿勢も併せて算出される。
先ず、座標系について説明する。道路座標系XYZと、
カメラ座標系X′Y′Z′とが定義される。車両の移動
によらずに道路座標系の原点に車両があるものとし、車
両の進行方向にY軸がとられている。また、進行方向に
対して右方向にX軸がとられ、鉛直方向にZ軸がとられ
ている。カメラ座標系と道路座標系とは原点を共有して
いる。車載カメラ11の撮像面は、XZ平面に平行で原
点から距離F(Fはカメラ11のレンズの焦点距離)の
ところにあるものとする。
Although the on-vehicle camera 11 is accurately mounted on the vehicle in a predetermined posture, occurrence of mounting errors cannot be avoided.
Therefore, in the camera posture parameter calculation process, the mounting posture of the vehicle-mounted camera 11 with respect to the vehicle is also calculated.
First, the coordinate system will be described. A road coordinate system XYZ,
A camera coordinate system X'Y'Z 'is defined. It is assumed that the vehicle is at the origin of the road coordinate system irrespective of the movement of the vehicle, and the Y axis is set in the traveling direction of the vehicle. The X axis is taken in the right direction with respect to the traveling direction, and the Z axis is taken in the vertical direction. The camera coordinate system and the road coordinate system share the origin. It is assumed that the imaging surface of the vehicle-mounted camera 11 is parallel to the XZ plane and at a distance F (F is the focal length of the lens of the camera 11) from the origin.

【0091】X,Y,Z軸のまわりの回転角をそれぞれ
ピッチ角θ、ロール角φ、ヨー角ψとし、いずれも右ね
じの方向を正方向とする。このとき、カメラの取付け誤
差または車両の回転に伴うカメラの座標系の変換式は、
下記第(30)式で与えられる。ただし、車載カメラ11の
レンズの主軸方向にY′軸をとり、撮像面と平行にX軸
およびZ′軸をとるものとする。
The rotation angles about the X, Y, and Z axes are a pitch angle θ, a roll angle φ, and a yaw angle そ れ ぞ れ, respectively, and the direction of the right-hand thread is the positive direction. At this time, the conversion formula of the camera's coordinate system accompanying the camera mounting error or the rotation of the vehicle is:
It is given by the following equation (30). However, it is assumed that the Y 'axis is set in the main axis direction of the lens of the vehicle-mounted camera 11, and the X axis and the Z' axis are set in parallel with the imaging surface.

【0092】[0092]

【数1】 (Equation 1)

【0093】各回転角が微小であれば、上記第(30)式
は、下記第(31)式の近似式に変形できる。
If each rotation angle is small, the above equation (30) can be transformed into an approximate equation of the following equation (31).

【0094】[0094]

【数2】 (Equation 2)

【0095】点P(X,Y,Z)が撮像面上の点p′
(x′,y′)に投影されるとき、次式が成立する。た
だし、座標(x′,y′)は撮像面上における2次元座
標である。x′軸はカメラ座標系のX′軸方向にとら
れ、y′軸はカメラ座標系のZ′軸方向にとられてい
る。 x′=F・X′/Y′ ・・・・ (32) y′=F・Z′/Y′ ・・・・ (33) カメラの姿勢パラメータは、ピッチ角θ、ロール角φお
よびヨー角ψに関して、それぞれ次のように分割され
る。
The point P (X, Y, Z) is a point p 'on the imaging surface.
When projected on (x ', y'), the following equation holds. Here, the coordinates (x ′, y ′) are two-dimensional coordinates on the imaging surface. The x 'axis is in the X' axis direction of the camera coordinate system, and the y 'axis is in the Z' axis direction of the camera coordinate system. x '= F.X' / Y '(32) y' = F.Z '/ Y' (33) The posture parameters of the camera are pitch angle θ, roll angle φ, and yaw angle. ψ is divided as follows.

【0096】ピッチ角θ:(道路に対する車両のピッチ
角θ0 )+(車両に対する車載カメラ11の取付けピッ
チ角θ1 ) ロール角φ:(道路に対する車両のロール角φ0 )+
(車両に対する車載カメラ11の取付けロール角φ1 ) ヨー角 ψ:(道路に対する車両のヨー角ψ0 )+(車
両に対する車載カメラ11の取付けヨー角ψ1 ) 道路に対する車両のヨー角ψ0 については、ナビゲーシ
ョン処理装置2から与えられる道路地図データおよび現
在方位データから求めることができる。つまり、車両が
走行中の道路の方向が道路地図データから判り、車両の
実際の進行方向が現在方位データから判る。そのため、
道路の方位に対する実際の進行方向の差を、道路に対す
る車両のヨー角ψ0 とすればよい。
Pitch angle θ: (Pitch angle θ 0 of vehicle with respect to road) + (Pitch angle θ 1 of mounting vehicle-mounted camera 11 with respect to vehicle) Roll angle φ: (Roll angle φ 0 of vehicle with respect to road) +
Yaw angle [psi 0 of the vehicle with respect to the yaw angle [psi :( road (attachment roll angle phi 1 of the on-vehicle camera 11 with respect to the vehicle)) + (the yaw angle [psi 0 of the vehicle with respect to the mounting yaw angle [psi 1) Road vehicle camera 11 with respect to the vehicle Can be obtained from the road map data and the current direction data provided from the navigation processing device 2. That is, the direction of the road on which the vehicle is traveling is known from the road map data, and the actual traveling direction of the vehicle is known from the current direction data. for that reason,
The difference between the actual traveling direction and the direction of the road may be defined as the yaw angle ψ 0 of the vehicle with respect to the road.

【0097】道路に対する車両のロール角φ0 やピッチ
角θ0 は、それ自体は検出することができないが、平均
値「0」でばらつくノイズとして把握できる。つまり、
充分に長い時間に渡るロール角φおよびピッチ角θの各
平均値をとれば、この平均値のなかには道路に対する車
両のロール角φ0 やピッチ角θ0 は含まれていないと考
えて差し支えない。
The roll angle φ 0 and the pitch angle θ 0 of the vehicle with respect to the road cannot be detected by themselves, but can be grasped as noise that varies with the average value “0”. That is,
If the average values of the roll angle φ and the pitch angle θ over a sufficiently long time are taken, it may be considered that the average value does not include the roll angle φ 0 and the pitch angle θ 0 of the vehicle with respect to the road.

【0098】車両が道路に対してψ0 の角度をなす方向
に走行しているものとし、道路は充分遠くまで直線でか
つ車両の平面(XY平面)内にあるものとする。また、
道路バンクや車両の左右の傾きは無視できるとする。そ
して、道路座標系XYZにおける道路消失点の座標を
(X0 ,Y0 ,Z0 )(ただし、Y0 =∞である。)と
し、この道路消失点の撮像面への写像点の座標が
(x0 ,y0 )であるとする。この写像点の座標は、上
記の道路消失点算出処理によって求められた道路消失点
に他ならない。
[0098] the vehicle is assumed to be traveling in a direction forming an angle of [psi 0 relative to the road, the road is assumed to be within the linear a and vehicle plane (XY plane) sufficiently far. Also,
It is assumed that left and right inclinations of road banks and vehicles can be ignored. Then, the coordinates of the road vanishing point in the road coordinate system XYZ are set to (X 0 , Y 0 , Z 0 ) (where Y 0 = 、), and the coordinates of the mapping point of this road vanishing point on the imaging surface are (X 0 , y 0 ). The coordinates of the mapping point are nothing but the road vanishing point determined by the road vanishing point calculation process.

【0099】ψ0 以外の姿勢パラメータが微小であると
すれば、ψ→ψ0 +ψ1 であり、θ、φおよびψ1 は微
小であるから、上記第(30)式ならびに上記第(32)式およ
び第(33)式より、下記第(34)式および第(35)式が得られ
る。 x0 =R12F≒sin(ψ0 +ψ1)F=(sinψ0 +ψ1cosψ0)F ・・・・ (34) y0 =R32F≒{φsin(ψ0 +ψ1)−θcos(ψ0 +ψ1)}F ・・・・ (35) さらに、ψ0 が微小であれば、下記第(36)式および第(3
7)式を得る。
Assuming that the posture parameters other than 微小0 are minute, ψ → ψ 0 + ψ 1 and θ, φ and ψ 1 are minute. Therefore, the above equation (30) and the above (32) From the equation and the equation (33), the following equations (34) and (35) are obtained. x 0 = R 12 F ≒ sin (ψ 0 + ψ 1) F = (sinψ 0 + ψ 1 cosψ 0) F ···· (34) y 0 = R 32 F ≒ {φsin (ψ 0 + ψ 1) -θcos ( ψ 0 + ψ 1 )} F (35) Further, if 微小0 is minute, the following equation (36) and (3
7) Obtain the formula.

【0100】 x0 =(ψ0 +ψ1 )F ・・・・ (36) y0 =−θF ・・・・ (37) 特に、車両が道路に平行に走行しているときには、ψ0
=0であるので、下記第(38)式および第(39)式が得られ
る。 x0 =R12F≒ψF=ψ1 F ・・・・ (38) y0 =R32F≒−θF ・・・・ (39) 一方、上記各パラメータが微小であるとすると、上記第
(31)式ならびに上記第(32) 式および第(33)式より、下
記第(41)式および第(42)式が得られる。
X 0 = (ψ 0 + ψ 1 ) F (36) y 0 = −θF (37) Particularly, when the vehicle is running parallel to the road, ψ 0
Since = 0, the following equations (38) and (39) are obtained. x 0 = R 12 F ≒ ψF = ψ 1 F (38) y 0 = R 32 F ≒ −θF (39) On the other hand, if each of the above parameters is minute,
From the expression (31) and the above expressions (32) and (33), the following expressions (41) and (42) are obtained.

【0101】 x′=F(X+ψ1 Y−φZ)/(−ψ1 X+Y+θZ) ・・・・ (41) y′=F(φX−θY+Z)/(−ψ1 X+Y+θZ) ・・・・ (42) 道路平行線の高さZは、道路から車載カメラ11までの
高さがhである場合、−hとなる。また、道路に平行な
基準線に対する車載カメラ11のX方向へのずれをAと
すると、車両が道路とψ0 の方向に走行しているため、
下記第(43)式が成り立つ。
[0102] x '= F (X + ψ 1 Y-φZ) / (- ψ 1 X + Y + θZ) ···· (41) y' = F (φX-θY + Z) / (- ψ 1 X + Y + θZ) ···· (42 ) The height Z of the road parallel line is -h when the height from the road to the vehicle-mounted camera 11 is h. Further, when the displacement in the X direction of the on-vehicle camera 11 and A for a reference line parallel to the road, because the vehicle is traveling in the direction of the road and [psi 0,
The following equation (43) holds.

【0102】 X=A/cosψ0 +Y tanψ0 ≒A+Yψ0 ・・・・ (43) したがって、上記第(41)式および第(42)式は、下記第(4
4)式および第(45)式にそれぞれ書き換えられる。
[0102] X = A / cosψ 0 + Y tanψ 0 ≒ A + Yψ 0 ···· (43) Therefore, the first (41) below and the (42) equation, the following first (4
Equation (4) and equation (45) can be rewritten respectively.

【0103】[0103]

【数3】 (Equation 3)

【0104】これより、Yを消去すると、下記第(46)式
を得る。
From this, when Y is eliminated, the following equation (46) is obtained.

【0105】[0105]

【数4】 (Equation 4)

【0106】もし、道路平行線が2本得られ、これらの
間隔Bが既知であれば、第(46)式と同様な下記第(47)お
よび第(48)式ならびに第(49)式が得られる。ただし、係
数a,bおよびAに付した添字「1」,「2」は、それ
が付与された係数が2本の道路平行線のそれぞれに対応
するものであることを表す。
If two road parallel lines are obtained and the distance B between them is known, the following equations (47), (48) and (49) similar to equation (46) are obtained. can get. However, the suffixes “1” and “2” added to the coefficients a, b, and A indicate that the assigned coefficient corresponds to each of the two road parallel lines.

【0107】[0107]

【数5】 (Equation 5)

【0108】このようにして、道路消失点(x0
0 )およびを道路平行線の係数aまたはbと、道路平
行線の間隔Bとが得られれば、上記第(36)式および第(3
7)式または上記第(38)式および第(39)式からψ1 および
θが求まり、上記第(47)式、第(48)式および第(49)式か
らφならびにA1 およびA2 が求まる。上記第(47)式お
よび第(48)式のうち、a1 , a2 に関する式を利用して
解くと、下記第(50)式、第(51)式および第(52)式より、
それぞれA1 , A2 およびφが求まる。
Thus, the vanishing point of the road (x 0 ,
y 0 ), and if the coefficient a or b of the road parallel line and the interval B of the road parallel line are obtained, the above equation (36) and (3
7) or the second (38) below and a (39) Motomari is [psi 1 and θ from the equation above the expression (47), the equation (48) and a (49) and φ from equation A 1 and A 2 Is found. Of the above equations (47) and (48), solving using the equations relating to a 1 and a 2 gives the following equations (50), (51) and (52):
A 1 , A 2 and φ are obtained respectively.

【0109】[0109]

【数6】 (Equation 6)

【0110】なお、間隔Bには、たとえば道路の幅や道
路の白線の間隔を用いることができる。これらの間隔
は、道路地図データから取得できる。たとえば、高速道
路の道路幅が決まっているから、ナビゲーション処理装
置2において高速道路を走行中であることが検出された
ときにのみ、上記のカメラ姿勢パラメータ算出処理を行
ってもよい。
The interval B may be, for example, the width of a road or the interval between white lines of a road. These intervals can be obtained from the road map data. For example, since the road width of the expressway is determined, the above-described camera posture parameter calculation process may be performed only when the navigation processing device 2 detects that the vehicle is traveling on the expressway.

【0111】また、上記の処理を車両が一定距離を走行
する度に行うこととし、求められた姿勢パラメータのう
ちθおよびφについて平均化処理を行ってもよい。この
場合、θ0 およびφ0 の平均値は上記のように零である
と考えられるので、車両に対する車載カメラ11の取付
けピッチ角θ1 および取付けロール角φ1 を求めること
ができる。したがって、上記の処理は、車両に対する車
載カメラ11の取付け姿勢を算出するための初期設定処
理として実行することもできる。したがって、θ0 、φ
0 が無視できる程度に小さければ、通常の周期処理で
は、初期設定処理の結果のみで代用することも可能であ
る。
The above-described processing may be performed every time the vehicle travels a certain distance, and the averaging processing may be performed on θ and φ of the obtained attitude parameters. In this case, since the average value of θ 0 and φ 0 is considered to be zero as described above, the mounting pitch angle θ 1 and the mounting roll angle φ 1 of the vehicle-mounted camera 11 with respect to the vehicle can be obtained. Therefore, the above process can also be executed as an initial setting process for calculating the mounting posture of the vehicle-mounted camera 11 with respect to the vehicle. Therefore, θ 0 , φ
If 0 is negligibly small, it is possible to substitute only the result of the initial setting process in the normal periodic process.

【0112】φ0 が上記無視できる程度に小さい値であ
れば、周期処理において、上記第(46)式においてφを初
期設定処理で求めたφ1 とおけば、道路平行線の道路間
隔Bが未知であっても、横方向のずれAを求めることが
できる。図12は、上述のカメラ姿勢パラメータ算出処
理のために認識処理部15において実行される処理を説
明するためのフローチャートである。ステップS81で
は、車載カメラ11で撮像された1枚の画像の画像デー
タが記憶部17に格納される。ステップS82ではナビ
ゲーション処理装置2からの支援データが取り込まれ、
ステップS83ではアンチロックブレーキ装置3からの
支援データが取り込まれる。そして、ステップS84で
は、ナビゲーション処理装置2から与えられたデータに
基づいて、道路に対する車両のヨー角ψ0 が算出され
る。
If φ 0 is a value small enough to be ignored, in the periodic processing, if φ is set to φ 1 obtained by the initial setting processing in the above equation (46), the road interval B between the road parallel lines becomes Even if unknown, the lateral deviation A can be obtained. FIG. 12 is a flowchart illustrating a process executed by the recognition processing unit 15 for the above-described camera posture parameter calculation process. In step S81, the image data of one image picked up by the vehicle-mounted camera 11 is stored in the storage unit 17. In step S82, support data from the navigation processing device 2 is fetched,
In step S83, support data from the anti-lock brake device 3 is fetched. In step S84, the yaw angle ψ 0 of the vehicle with respect to the road is calculated based on the data provided from the navigation processing device 2.

【0113】ステップS85では、道路消失点の算出が
可能かどうかが判断される。算出不能の場合には処理を
終了し、算出が可能であれば上述の道路消失点算出処理
を実行して道路消失点(x0 ,y0 )を算出する(ステ
ップS86)。さらにステップS87では、道路平行線
の係数a,bが算出される。道路消失点の算出が可能か
どうかの判断は、たとえば道路に対する車両のヨー角ψ
0 が所定値以下であるかどうかに基づいてなされる。そ
の他にも、道路消失点算出処理に関連する説明で明らか
にしたように、走行道路が直線道路であるかどうか、走
行道路の属性が一定の基準を満足しているかどうかなど
の条件も判断される。
In step S85, it is determined whether the calculation of the vanishing point of the road is possible. If the calculation is impossible, the process is terminated. If the calculation is possible, the above-described road vanishing point calculation process is executed to calculate the road vanishing point (x 0 , y 0 ) (step S86). Further, in step S87, coefficients a and b of the road parallel line are calculated. The determination as to whether the road vanishing point can be calculated is made, for example, by determining the yaw angle of the vehicle with respect to the road.
This is performed based on whether 0 is equal to or less than a predetermined value. In addition, as clarified in the explanation related to the road vanishing point calculation process, conditions such as whether the traveling road is a straight road, and whether the attribute of the traveling road satisfies a certain standard are also determined. You.

【0114】道路消失点および道路平行線の係数が算出
されると、次に、姿勢パラメータの算出が可能かどうか
が判断される(ステップS88)。この際の判断基準は
次の〜のとおりである。 車両の進行方向と道路平行線とのなす角が零である
とみなすことができる場合には、姿勢パラメータの算出
が可能であるものとする。このような条件を課すのは、
道路に対する車両のヨー角ψ0 が大きいと、その誤差が
大きい可能性があるからである。この場合、たとえば、
一定距離走行前後の車両の進行方位の変化と、上記一定
方位方向前後における道路の方位(道路地図データから
得られる。)の差との誤差が一定値以内(たとえば、
0.1°以内)であるときに、車両が道路に平行に走行
しているものとして、進行方向と道路平行線とのなす角
が零であることと判定してもよい。また、車両の進行方
位が一定距離以上連続して一定値以下(たとえば0.1
°以下)の変化しか示さなかった場合に、走行道路が直
線で、かつ、車両が道路に平行に走行しているものとし
て、進行方向と道路平行線とのなす角が零であると判定
してもよい。
When the coefficients of the road vanishing point and the road parallel line are calculated, it is next determined whether or not the posture parameter can be calculated (step S88). The judgment criteria at this time are as follows. When the angle between the traveling direction of the vehicle and the road parallel line can be regarded as zero, it is assumed that the posture parameter can be calculated. Imposing such conditions is
When the yaw angle [psi 0 of the vehicle is large with respect to the road, there is a possibility that the error is large. In this case, for example,
An error between a change in the traveling azimuth of the vehicle before and after traveling a certain distance and a difference in the road azimuth (obtained from road map data) before and after the constant azimuth direction is within a certain value (for example,
(Within 0.1 °), it may be determined that the vehicle is traveling parallel to the road and the angle between the traveling direction and the road parallel line is zero. Further, the traveling direction of the vehicle is continuously smaller than a predetermined value (for example, 0.1
° or less), it is determined that the angle between the traveling direction and the road parallel is zero, assuming that the traveling road is straight and the vehicle is traveling parallel to the road. You may.

【0115】 車両の速度が一定範囲内(たとえば、
100km/h以内)である場合に、姿勢パラメータの算出
が可能であるものとする。車両の速度は、現在位置デー
タまたは走行距離データから推定することができる。車
両の速度が上記一定範囲内にない場合には、車体に振動
が生じたりして、道路に対する車両の姿勢パラメータが
大きくなる可能性があり、姿勢パラメータの算出が不良
になるおそれがある。
When the speed of the vehicle is within a certain range (for example,
(Within 100 km / h), it is assumed that the posture parameter can be calculated. The speed of the vehicle can be estimated from the current position data or the traveling distance data. If the speed of the vehicle is not within the above-mentioned predetermined range, vibration of the vehicle body may occur, and the posture parameter of the vehicle with respect to the road may increase, and the calculation of the posture parameter may be poor.

【0116】 車両の加速度(減速度を含む)が一定
値(たとえば0.1g)未満である場合に、姿勢パラメ
ータの算出が可能であるものとする。加速度は、現在位
置データまたは走行距離データから推定することもでき
るし、gセンサデータやブレーキデータから求めること
もできる。また、ブレーキデータからブレーキが操作さ
れたことが検知されたときには、姿勢パラメータの算出
を行わないこととしてもよい。車両の減速度が上記一定
値以上の場合には、道路に対する車両のピッチ角θ0
異常に大きくなる可能性があり、姿勢パラメータの算出
が不良になるおそれがある。
When the acceleration (including deceleration) of the vehicle is less than a certain value (for example, 0.1 g), it is assumed that the posture parameter can be calculated. The acceleration can be estimated from the current position data or traveling distance data, or can be obtained from g sensor data or brake data. Further, when the operation of the brake is detected from the brake data, the calculation of the posture parameter may not be performed. When the deceleration of the vehicle is equal to or more than the above-mentioned fixed value, the pitch angle θ 0 of the vehicle with respect to the road may become abnormally large, and the calculation of the posture parameter may become poor.

【0117】 一定距離走行前後の車両の進行方位の
変化が一定値(たとえば0.1°)未満のときに、姿勢
パラメータの算出が可能であるものとする。一定距離走
行前後の進行方位の変化が上記一定値以上の場合には、
車両がカーブを走行していると考えられ、この場合には
遠心力のために道路に対する車両のロール角φ0 が異常
に大きくなるおそれがある。
It is assumed that the posture parameter can be calculated when the change in the traveling direction of the vehicle before and after traveling a certain distance is less than a certain value (for example, 0.1 °). If the change in heading before and after traveling a certain distance is equal to or greater than the certain value,
Vehicle is considered to be traveling on a curve, in this case there is a risk that the roll angle phi 0 of the vehicle with respect to the road becomes abnormally large due to the centrifugal force.

【0118】姿勢パラメータの算出が可能であると判断
されると、ステップS89において、上記第(36)式また
は第(38)式に従い、車載カメラ11の車両に対する取付
けヨー角ψ1 が求められる。さらに、上記第(37)式によ
ってピッチ角θが求められ(ステップS90)、上記第
(46)式または第(52)式によってロール角φが求められる
(ステップS91)。そして、上記第(46)式または第(5
0)式および第(51)式により横ずれAが算出される(ステ
ップS92)。
[0118] When the calculation of the orientation parameters are determined to be in step S89, in accordance with said first (36) below or the (38) equation, mounting the yaw angle [psi 1 is calculated for vehicle-vehicle camera 11. Further, the pitch angle θ is obtained by the above equation (37) (step S90).
The roll angle φ is obtained by the equation (46) or the equation (52) (step S91). Then, the above equation (46) or (5
The lateral shift A is calculated by the equations (0) and (51) (step S92).

【0119】ステップS93では、それまでに求められ
た取付けヨー角ψ1 、ピッチ角θおよびロール角φの平
均値がとられる。この場合、図12に示された姿勢パラ
メータ算出処理を一定走行距離(たとえば100km)ご
とに行うようにしていれば、一定走行距離ごとに求めら
れたパラメータの平均値がとられる。また、一定時間間
隔(たとえば2時間)で姿勢パラメータ算出処理を行う
ようにしている場合には、一定時間ごとに求められたパ
ラメータの平均値が求められる。この平均値を求める処
理によって、もっともらしい取付けヨー角ψ1 、ピッチ
角θおよびロール角φが求まる。
In step S93, the average values of the mounting yaw angle ψ 1 , the pitch angle θ, and the roll angle φ obtained so far are obtained. In this case, if the posture parameter calculation processing shown in FIG. 12 is performed for each constant traveling distance (for example, 100 km), an average value of the parameters obtained for each constant traveling distance is obtained. When the posture parameter calculation process is performed at regular time intervals (for example, two hours), an average value of the parameters determined at regular time intervals is obtained. By the process of calculating the average value, a plausible mounting yaw angle ψ 1 , pitch angle θ, and roll angle φ are determined.

【0120】さらに、ピッチ角θの平均値が車両に対す
る車載カメラ11の取付けピッチ角θ1 とされ(ステッ
プS94)、ロール角φの平均値が車両に対する車載カ
メラ11の取付けロール角φ1 とされる(ステップS9
5)。これらの処理が妥当なのは、道路に対する車両の
ピッチ角θ0 およびロール角φ0 は、充分に長い期間に
わたる時間平均をとることによって零にすることができ
るという事実に照らせば明らかであろう。
Further, the average value of the pitch angle θ is set to the mounting pitch angle θ 1 of the vehicle-mounted camera 11 with respect to the vehicle (step S94), and the average value of the roll angle φ is set to the mounting roll angle φ 1 of the vehicle-mounted camera 11 with respect to the vehicle. (Step S9
5). The relevance of these processes will be apparent in light of the fact that the pitch angle θ 0 and the roll angle φ 0 of the vehicle relative to the road can be made zero by averaging the time over a sufficiently long period.

【0121】このような処理によって、車載カメラ11
の姿勢パラメータθ,φおよびψが求まる。これらの姿
勢パラメータは、次に説明する物体認識処理において活
用される。 6.物体認識処理 物体認識処理は、車載カメラ11によって撮像された画
像中の一定種類の物体を認識するための処理である。す
なわち、道路標識、道路上の表示、他車両などが画像認
識される。この画像認識に当たっては、カメラ姿勢パラ
メータやナビゲーション処理装置2およびアンチロック
ブレーキ装置3から与えられる支援情報が用いられる。
By the above processing, the on-vehicle camera 11
Are obtained. These posture parameters are used in the object recognition processing described below. 6. Object Recognition Processing The object recognition processing is processing for recognizing a certain type of object in an image captured by the on-vehicle camera 11. That is, the image of a road sign, a display on a road, another vehicle, or the like is recognized. In this image recognition, camera posture parameters and support information given from the navigation processing device 2 and the antilock brake device 3 are used.

【0122】以下では、先ず道路標識や道路上の表示な
どのような静止物体の追従認識について説明し、その後
に他車両などのような移動物体の追従認識について述べ
る。 6-1. 静止物体の追従認識 カメラ姿勢パラメータ算出処理の説明において用いた上
記第(41)式および(42)式において、X,Yを変数とし、
撮像面の点(x′,y′)、カメラ姿勢パラメータおよ
び変数Zが既知であるものとして解くと、次式が得られ
る。
In the following, first, the following recognition of a stationary object such as a road sign or a display on a road will be described, and then the following recognition of a moving object such as another vehicle will be described. 6-1. Tracking Recognition of Still Object In the above equations (41) and (42) used in the description of the camera posture parameter calculation processing, X and Y are variables,
Solving assuming that the point (x ′, y ′) on the imaging surface, the camera attitude parameter, and the variable Z are known, the following equation is obtained.

【0123】[0123]

【数7】 (Equation 7)

【0124】ところで、各変数やパラメータは時間tの
変数であり、時間経過とともに変化する。時刻tにおい
て、或る物体の撮像面上における位置が(xt ′,
t ′)で得られ、カメラ姿勢パラメータと車両からみ
た物体の高さ方向の位置Z(一定値)が既知であれば、
車両から見た物体の位置(Xt ,Yt )は、上記第(53)
式において時刻tを陽に表現した下記第(54)式により与
えられる。
Incidentally, each variable or parameter is a variable of the time t, and changes with the passage of time. At time t, the position of an object on the imaging plane is (x t ′,
y t '), and if the camera orientation parameters and the position Z (constant value) in the height direction of the object viewed from the vehicle are known,
The position (X t , Y t ) of the object as seen from the vehicle is determined by the above (53)
This is given by the following equation (54), which expresses the time t explicitly in the equation.

【0125】[0125]

【数8】 (Equation 8)

【0126】さらに、車両が走行して時刻t+1になっ
たとする。時刻tから時刻t+1の間の車両の走行距離
データをLt+1 、現在方位データから求まる方位変化デ
ータ(ナビゲーション処理装置2から方位変化データが
与えられる場合には、それをそのまま用いることもでき
る。)をΔψ1t+1とすると、時刻t+1の物体の位置Λ
t+1 (Xt+1 ,Yt+1 )は、時刻を陽に表現して次式で
与えられる。
Further, it is assumed that the vehicle travels and time t + 1 is reached. Time L t + 1 the travel distance data of the vehicle between the time t + 1 from t, when the direction change data from the azimuth change data (navigation processing unit 2 which is obtained from the current heading data is given, can also be used as such .) Is Δψ 1t + 1 , the position of the object at time t + 1 Λ
t + 1 (X t + 1 , Y t + 1 ) is given by the following expression, expressing the time explicitly.

【0127】[0127]

【数9】 (Equation 9)

【0128】この第(55)式を、上記第(41)式および第(4
2)式において時刻を陽に表現した下記第(56)式および第
(57)式に代入することによって、時刻t+1における物
体の画面上での位置(xt+1 ′,yt+1 ′)を推定する
ことができる。
The expression (55) is obtained by dividing the expression (41) and the expression (4).
Equation (56), which expresses the time explicitly in equation (2), and
By substituting into the expression (57), the position (x t + 1 ′, y t + 1 ′) of the object on the screen at the time t + 1 can be estimated.

【0129】[0129]

【数10】 (Equation 10)

【0130】つまり、時刻tにおける物体の位置が判れ
ば、時刻t+1においてその物体が画面上のどの位置に
移動するかが、カメラ姿勢パラメータなどに基づいて推
定される。そのため、時々刻々と撮像される画面から或
る物体を認識する場合に、推定された位置の周辺の領域
の画像を切り出して認識処理を行えばよいので、認識処
理効率を高めることができる。
That is, if the position of the object at time t is known, the position on the screen at which the object moves at time t + 1 is estimated based on the camera posture parameters and the like. Therefore, when recognizing a certain object from a screen imaged momentarily, it is sufficient to cut out an image of a region around the estimated position and perform the recognition process, so that the efficiency of the recognition process can be improved.

【0131】推定された位置の周辺の画像切出し範囲
は、推定された画面上の位置である推定値と、実際に認
識された物体の位置である実績値との誤差を監視するこ
とによって確定される。具体的に説明する。まず、時刻
tにおける推定値を( Et ′, Et ′)とし、実績
値を( Mt ′, Mt ′)と表す。さらに、平均操作
をaveと表し、分散操作をvarと表し、平方根操作
をsqrtと表すと、下記第(58)式〜第(63)式が得られ
る。
The image cut-out range around the estimated position is determined by monitoring the error between the estimated value that is the estimated position on the screen and the actual value that is the position of the actually recognized object. You. This will be specifically described. First, the estimated value at time t and (E x t ', E y t'), representing the actual value (M x t ', M y t'). Further, when the averaging operation is represented by ave, the variance operation is represented by var, and the square root operation is represented by sqrt, the following expressions (58) to (63) are obtained.

【0132】 var(x) =ave(x−ave(x) )2 ・・・・ (58) std(x) =sqrt(var(x) ) ・・・・ (59) x= Et ′− Mt ′ ・・・・ (60) var(y) =ave(y−ave(y) )2 ・・・・ (61) std(y) =sqrt(var(y) ) ・・・・ (62) y= Et ′− Mt ′ ・・・・ (63) したがって、画面上の位置のx軸およびy軸方向の各誤
差は、たとえば、k・std(x) 、k・std(y) とし
て求めることができる(kは定数である。)。そこで、
この誤差範囲を含む画像の範囲を画像切出し範囲とすれ
ば、認識対象の物体を含む画像を切り出すことができ
る。
[0132] var (x) = ave (x -ave (x)) 2 ···· (58) std (x) = sqrt (var (x)) ···· (59) x = E x t ' −M xt ′ (60) var (y) = ave (y−ave (y)) 2 (61) std (y) = sqrt (var (y)) (62) y = E y t '- M y t' ···· (63) Therefore, the error of the x-axis and y-axis direction position on the screen, for example, k · std (x), k · std (y) (k is a constant). Therefore,
If the range of the image including the error range is set as the image cutout range, an image including the object to be recognized can be cut out.

【0133】なお、定数kを、車両の走行速度、方位変
化、姿勢パラメータの信頼度等に基づいて可変設定する
ようにしておけば、誤差範囲をより適切に設定できる。
具体的には、走行速度が一定値(たとえば100km/h)
以上の場合に、定数kを車両の走行速度にほぼ比例する
ように設定してもよい。また、車両の進行方位の単位時
間当たりまたは単位走行距離当たりの変化量が一定値
(たとえば0.1°)以上のときに、この方位変化量に
ほぼ比例するように上記定数kの値を設定してもよい。
If the constant k is variably set based on the running speed of the vehicle, the change in azimuth, the reliability of the posture parameter, and the like, the error range can be set more appropriately.
Specifically, the traveling speed is a constant value (for example, 100 km / h)
In the above case, the constant k may be set so as to be substantially proportional to the traveling speed of the vehicle. When the amount of change in the heading of the vehicle per unit time or per unit traveling distance is equal to or greater than a fixed value (for example, 0.1 °), the value of the constant k is set so as to be substantially proportional to the amount of change in heading. May be.

【0134】また、誤差範囲は認識すべき物体の種類ご
とに変化させてもよく、物体の種類によらずに共通の誤
差範囲を用いてもよい。物体が認識されたときには、新
たに得られた画面上の位置(xt+1 ′,yt+1′)に基
づき、上記第(54)式(ただし、tをt+1に置き換えた
式)に従って、空間上における物体の実際の位置(X
t+1 ,Yt+1 ,Zt+1 )を求める。これを用いて、次の
時刻における物体の位置が推定され、新たな画像切出し
範囲が求められる。
The error range may be changed for each type of object to be recognized, or a common error range may be used regardless of the type of the object. When the object is recognized, based on the newly obtained position (x t + 1 ′, y t + 1 ′) on the screen, the above equation (54) (where t is replaced by t + 1) is used. , The actual position of the object in space (X
t + 1 , Yt + 1 , Zt + 1 ). Using this, the position of the object at the next time is estimated, and a new image cutout range is obtained.

【0135】なお、第(54)式および第(55)式が誤差を含
むものであるとして、カルマンフィルタ等を用いて、走
行距離、方位変化の誤差、姿勢パラメータの推定誤差、
画面上の位置(x′,y′)の推定値と実績値との差等
から、フィタリングにより、物体の位置(X,Y,Z)
を時々刻々推定したりすることもできる。このようにし
て、たとえば、道路標識や信号機を時々刻々と追従して
認識する場合に、認識対象の物体の高さがほぼ一定であ
るものとして標識、信号機の中心部を追従対象とした
り、またはその接地面の高さがカメラの高さだけ低いも
のと考えて追従対象とすれば、上記の方法で探索範囲を
限ることによって、物体を容易に追従して認識すること
ができる。 6-2. 移動物体の追従認識 移動物体を追従して認識する場合には、上記第(55)式の
変換式を用いることができない。なぜなら、移動物体の
運動特性が未知だからである。そこで、移動物体の位置
の時間的な変化を考慮した下記第(64)式が上記第(55)式
に代えて用いられる。
Assuming that the equations (54) and (55) include errors, using a Kalman filter or the like, the mileage, the azimuth change error, the attitude parameter estimation error,
From the difference between the estimated value and the actual value of the position (x ', y') on the screen, the position (X, Y, Z) of the object is obtained by filtering.
Can be estimated every moment. In this way, for example, when recognizing a road sign or a traffic signal by following it moment by moment, assuming that the height of the object to be recognized is almost constant, the central portion of the traffic signal is to be tracked, or If the height of the ground contact surface is considered to be lower than the height of the camera and the object is to be followed, the object can be easily followed and recognized by limiting the search range by the above-described method. 6-2. Tracking Recognition of Moving Object When a moving object is tracked and recognized, the conversion formula of the above-mentioned formula (55) cannot be used. This is because the motion characteristics of the moving object are unknown. Therefore, the following equation (64) considering the temporal change of the position of the moving object is used instead of the above equation (55).

【0136】[0136]

【数11】 [Equation 11]

【0137】上式から明らかなように、最初に物体を認
識した次の処理周期では、Λt-1 が定義されていない。
したがって、このときには誤差範囲を充分に大きくして
おく必要がある。認識対象の移動物体が前方の他車両で
ある場合に、たとえばこの他車両の後部のみを追従して
ゆくときには、その左右の最下部を追従対象とすれば、
その高さがほぼ特定できる。
As is clear from the above equation, Λ t-1 is not defined in the next processing cycle after the first recognition of the object.
Therefore, at this time, it is necessary to make the error range sufficiently large. When the moving object to be recognized is another vehicle ahead, for example, when following only the rear part of this other vehicle, if the left and right lowermost parts are to be followed,
Its height can be almost specified.

【0138】なお、どのような道路を走行しているかに
より、認識対象となる物体を変えて、目的に沿った認識
を行うことができる。たとえば、高速道路を走行してい
る場合には、車両の安全な運行を目的として自動車のみ
を認識対象とし、その他の幹線道路を走行している場合
には、道路標識や信号機のみを認識対象とするなどの方
法が考えられる。前方の他車両の認識結果は、衝突防止
のために警報を発したり、ブレーキを自動制御したりす
るために用いることができる。また、たとえば、ナビゲ
ーション処理装置2の表示部29に経路誘導情報を表示
して目的地までの経路誘導を行う場合などには、道路標
識を認識することによって、交通規制に違反するような
経路誘導が行われることを事前に防止できる。さらに
は、信号機を認識することによって、走行中の道路が一
般道路であるのか高速道路であるのかの判別を行ったり
することもできる。 6-3. 物体の認識 画面上のデータから物体を認識する方法について概説す
る。画像データに基づいて物体を認識する方法は従来か
ら種々考案されている。たとえば、白黒カメラによるデ
ータ(輝度データのみ)の場合、濃度が大きく変化する
エッジ点を検出し、複数のエッジ点を接続することによ
って物体の輪郭が抽出される。この輪郭の形状をチェッ
クしたり、予め登録されている対象物体の標準的なパタ
ーンとのパターンマッチングを行ったりすることによっ
て、画面上の物体が認識される。カラーのデータを用い
る場合には、濃度だけでなく、色度のデータも利用でき
るので、認識確率を高めることができる。
It should be noted that the object to be recognized can be changed according to the type of road on which the vehicle is traveling, and recognition can be performed according to the purpose. For example, when driving on a highway, only vehicles are recognized for the purpose of safe operation of vehicles.When driving on other highways, only road signs and traffic lights are recognized. There is a method such as doing. The recognition result of the other vehicle ahead can be used for issuing an alarm for preventing a collision or for automatically controlling the brake. Further, for example, when route guidance information is displayed on the display unit 29 of the navigation processing device 2 to perform route guidance to a destination, by recognizing a road sign, route guidance that violates traffic regulations is performed. Can be prevented in advance. Further, by recognizing the traffic light, it is possible to determine whether the traveling road is a general road or an expressway. 6-3. Object Recognition This section outlines how to recognize objects from data on the screen. Various methods for recognizing an object based on image data have been conventionally devised. For example, in the case of data from a black-and-white camera (only luminance data), an edge point at which the density greatly changes is detected, and an outline of the object is extracted by connecting a plurality of edge points. The object on the screen is recognized by checking the shape of the contour or performing pattern matching with a standard pattern of the target object registered in advance. When color data is used, not only density but also chromaticity data can be used, so that the recognition probability can be increased.

【0139】画像データから抽出される認識対象ごとの
特徴例を以下に示す。たとえば、画像認識処理装置1の
記憶部17には、これらの特徴についての標準的な値が
記憶されている。認識処理部15は、画像データから下
記の特徴を抽出し、抽出された特徴と記憶部17に記憶
されている標準的な特徴とを照合することによって、物
体の認識を行う。
An example of a feature for each recognition target extracted from the image data is shown below. For example, the storage unit 17 of the image recognition processing device 1 stores standard values for these features. The recognition processing unit 15 performs the object recognition by extracting the following features from the image data and comparing the extracted features with standard features stored in the storage unit 17.

【0140】(1) 道路標識 円 円の半径 円周の色度 円内のデータ (2) 信号機 長方形 縦、横の大きさ 3個の円 円の半径 灯色 (3) 自動車 前部、後部の形状 横部の形状 車高、車幅、車長 6-4. 認識処理部の処理 次に、図13および図14のフローチャートを参照し
て、物体の認識のために認識処理部15が実行する処理
を説明する。この処理は、一定の周期で実行される。
(1) Road sign Circle radius of circle Circle chromaticity Data in circle (2) Traffic light Rectangle Vertical and horizontal size Three circles Radius of circle Light color (3) Car front and rear Shape Shape of Horizontal Part Vehicle Height, Vehicle Width, Vehicle Length 6-4. Processing of Recognition Processing Unit Next, with reference to the flowcharts of FIGS. 13 and 14, the recognition processing unit 15 executes for recognition of an object. The processing will be described. This process is executed at a constant cycle.

【0141】先ず、ステップS101において、車載カ
メラ11が撮像した1枚の画像が記憶部17に取り込ま
れる。そして、ステップS102では、カメラの姿勢パ
ラメータの信頼度が算出される。この信頼度は、姿勢パ
ラメータが用いられた経緯に基づいて算出される。たと
えば、当該周期における姿勢パラメータの算出を行うこ
とができず、以前に求めた姿勢パラメータの平均値を当
該周期における姿勢パメラータとして代用するような場
合には、信頼度は低くなる。また、車両の加速度(減速
度を含む。)が一定値(たとえば0.1g)以上のとき
には、姿勢パラメータの信頼度は低くなる。加速度は、
現在位置データ、走行距離データ、ブレーキデータまた
はgセンサデータから求まる。さらに、ブレーキデータ
によってブレーキが操作されたことが検知されたときに
も、信頼度は低くなる。
First, in step S 101, one image picked up by the vehicle-mounted camera 11 is loaded into the storage unit 17. Then, in step S102, the reliability of the posture parameter of the camera is calculated. This reliability is calculated based on how the posture parameters were used. For example, when the posture parameter cannot be calculated in the cycle and the average value of the previously obtained posture parameters is used as the posture parameter in the cycle, the reliability is low. When the acceleration (including deceleration) of the vehicle is equal to or more than a certain value (for example, 0.1 g), the reliability of the posture parameter is low. The acceleration is
It is obtained from the current position data, travel distance data, brake data or g sensor data. Further, when the brake data is detected to be operated by the brake data, the reliability is low.

【0142】姿勢パラメータの信頼度が算出されると、
次に、車両が走行している道路の属性(高速道路、一般
道路など)が参照される(ステップS103)。道路の
属性は、道路地図データ中に含まれている。そして、走
行中の道路の属性に基づいて、認識対象の物体の種類が
決定される(ステップS104)。すなわち、たとえば
高速道路を走行中であれば前方の他車両が認識対象物体
とされ、一般道路走行中であれば信号機や道路標識が認
識対象物体とされる。
When the reliability of the posture parameter is calculated,
Next, the attributes of the road on which the vehicle is traveling (expressways, general roads, etc.) are referenced (step S103). Road attributes are included in the road map data. Then, the type of the object to be recognized is determined based on the attribute of the traveling road (step S104). That is, for example, if the vehicle is traveling on a highway, another vehicle ahead is regarded as a recognition target object, and if the vehicle is traveling on a general road, a traffic signal or a road sign is regarded as a recognition target object.

【0143】次いで、前の周期のときの道路の属性が変
化したかどうかが調べられる(ステップS105)。そ
して、属性が前周期と変化していなければ、認識物体が
記憶部17に1つでも登録されているかどうかが判断さ
れる(ステップS106)。道路属性が前周期と異なる
場合には、ステップS130において、それ以前に記憶
部17に登録されていた全ての認識物体がクリアされ
る。
Next, it is checked whether or not the attribute of the road in the previous cycle has changed (step S105). Then, if the attribute has not changed from the previous cycle, it is determined whether at least one recognized object is registered in the storage unit 17 (step S106). If the road attribute is different from the previous cycle, in step S130, all the recognized objects registered in the storage unit 17 before that are cleared.

【0144】ステップS106において認識物体が1つ
も登録されていないと判断されたとき、およびステップ
S130において過去に登録されていた全認識物体がク
リアされたときには、ステップS131に進み、画面の
全領域を認識対象領域とした初期認識が行われる。そし
て、認識された物体の位置(X,Y,Z)が算出され
(ステップS132)、その物体が位置(X,Y,Z)
とともに記憶部17に登録されて(ステップS13
3)、当該周期の処理を終了する。
If it is determined in step S106 that no recognized objects have been registered, and if all previously registered recognized objects have been cleared in step S130, the flow advances to step S131 to change the entire area of the screen. Initial recognition as a recognition target area is performed. Then, the position (X, Y, Z) of the recognized object is calculated (step S132), and the position of the recognized object (X, Y, Z) is calculated.
Is registered in the storage unit 17 (step S13).
3), the processing of the cycle ends.

【0145】ステップS107では、認識対象物体の種
類に関する処理が順に行われる。すなわち、記憶部17
には、認識対象物体がその種類ごとに分類して記憶され
ており、各種類ごとの情報が参照される。認識対象物体
の種類のうちで、未処理の種類があれば(ステップS1
08)、その種類の認識対象物体のうちで前周期に認識
された物体があるかどうかが調べられる(ステップS1
09)。無ければステップS107に戻る。前周期に認
識された物体があれば、その物体の種類が自動車である
かどうかが調べられる(ステップS110)。そうであ
れば、前々周期においてもその物体(自動車)が認識さ
れているかどうかが調べられる(ステップS111)。
そして、その物体が前々周期において認識されていなけ
れば、ステップS112において、画像切出し領域を決
めるときの誤差範囲が充分に大きな一定値に設定され
る。これは、上述の移動物体の追従認識に関して説明し
たとおり、本周期における移動物体の画面上の位置を正
確に推定するためには、前周期と前々周期との移動物体
の位置が必要であるからである。したがって、前々周期
において移動物体が認識されていないときには、充分に
大きな誤差範囲を設定することによって、その移動物体
が確実に含まれている画像領域を切り出すことができ
る。
In step S107, the processing relating to the type of the object to be recognized is sequentially performed. That is, the storage unit 17
, The recognition target objects are classified and stored for each type, and information for each type is referred to. If there is an unprocessed type among the types of the recognition target objects (step S1)
08), it is checked whether or not there is an object recognized in the previous cycle among the objects to be recognized of the type (step S1).
09). If not, the process returns to step S107. If there is an object recognized in the previous cycle, it is checked whether the type of the object is a car (step S110). If so, it is checked whether or not the object (car) has been recognized even in the last two cycles (step S111).
If the object has not been recognized in the last two cycles, the error range for determining the image cutout area is set to a sufficiently large constant value in step S112. This is because, as described above with respect to the following recognition of a moving object, in order to accurately estimate the position of the moving object on the screen in the main cycle, the positions of the moving object in the previous cycle and the two cycles before the previous cycle are necessary. Because. Therefore, when the moving object is not recognized in the last two cycles, by setting a sufficiently large error range, it is possible to reliably cut out the image area including the moving object.

【0146】ステップS113では、前周期の物体の位
置(X,Y,Z)が参照され、さらにステップS114
では、前周期と本周期との間の走行距離L、および方位
変化データΔψ0 が、ナビゲーション処理装置2から与
えられる支援情報に基づいて求められる。次いで、図1
4のステップS115に処理が移る。ステップS115
では、上記第(55)式に従って、本周期の物体の位置
(X,Y,Z)が算出される。これに基づいて、本周期
における画面上での物体の位置(x′,y′)が上記第
(56)式および第(57)式に従って推定される(ステップS
116)。
In step S113, the position (X, Y, Z) of the object in the previous cycle is referred to, and further in step S114
Then, the travel distance L between the previous cycle and the main cycle, and the azimuth change data Δψ 0 are obtained based on the support information provided from the navigation processing device 2. Then, FIG.
The process moves to step S115 of No. 4. Step S115
Then, the position (X, Y, Z) of the object in this cycle is calculated according to the above equation (55). Based on this, the position (x ′, y ′) of the object on the screen in this cycle is
It is estimated according to the equations (56) and (57) (step S
116).

【0147】ステップS117では、走行速度、進行方
向の変化、および姿勢パラメータの信頼度が参照され
る。そして、これらに基づいて推定位置の誤差範囲の大
きさが修正される(ステップS118)。すなわち、誤
差範囲を定めるための上記の定数kの値が更新される。
ステップS119では、上記の誤差範囲に基づいて定め
られた画像切出し範囲の画像が本周期の画面から切り出
され、この切り出された画像に基づいて物体認識処理が
行われる。この処理によって処理対象の物体が正常に認
識できなければ(ステップS120)、その物体の登録
を抹消して(ステップS121)、図13のステップS
107に戻る。一方、処理対象の物体が正常に認識され
たときには、物体の画面上の正確な位置(x′,y′)
が求められ(ステップS122)、さらにそれに基づい
て上記第(54)式に従って物体の空間上の正確な位置
(X,Y,Z)が求められる(ステップS123)。そ
の後は、それまでに得られた推定値と実績値とから誤差
範囲を定めた後に(ステップS124)、図13のステ
ップS107に戻る。
In step S117, the running speed, the change in the traveling direction, and the reliability of the posture parameter are referred to. Then, the size of the error range of the estimated position is corrected based on these (step S118). That is, the value of the constant k for determining the error range is updated.
In step S119, an image in the image cut-out range determined based on the error range is cut out from the screen in the main cycle, and an object recognition process is performed based on the cut-out image. If the object to be processed cannot be recognized normally by this process (step S120), the registration of the object is deleted (step S121), and the process proceeds to step S121 in FIG.
Return to 107. On the other hand, when the object to be processed is normally recognized, the exact position of the object on the screen (x ', y')
Are obtained (step S122), and based on the obtained values, the accurate position (X, Y, Z) in the space of the object is obtained according to the above equation (54) (step S123). Thereafter, an error range is determined from the estimated value and the actual value obtained so far (step S124), and the process returns to step S107 in FIG.

【0148】このようにして、或る処理周期で認識され
た物体の次処理周期の画面上における位置が推定され、
その推定位置および誤差範囲に基づいて画像の切出し範
囲が求められる。そして、この切り出された画像部分に
関してのみ、物体認識処理が行われる。そのため、各周
期において全ての画像領域に関して物体認識処理を行う
必要がない。これにより、物体認識処理が極めて効率的
に、かつ、高速に行える。このことは、車載カメラ11
の撮像面内で変位する物体を時々刻々と認識する際に極
めて有益である。 7.むすび 以上のようにこの車載画像認識処理システムによれば、
直線検出処理においては白線以外の道路平行線をも算出
できるから、これに基づく道路消失点の算出が確実に行
える。そして、算出された道路消失点を基にカメラ姿勢
パラメータが求められ、このカメラ姿勢パラメータに基
づいて画面内で刻々と移動していく物体を良好に認識す
ることができる。各処理には、必要に応じてナビゲーシ
ョン処理装置2やアンチロックブレーキ装置3からの支
援情報が用いられている。
In this way, the position of the object recognized in a certain processing cycle on the screen in the next processing cycle is estimated,
An image cut-out range is obtained based on the estimated position and the error range. Then, the object recognition processing is performed only on the extracted image portion. Therefore, it is not necessary to perform the object recognition processing on all image areas in each cycle. Thereby, the object recognition processing can be performed very efficiently and at high speed. This means that the onboard camera 11
This is extremely useful in recognizing an object that is displaced within the imaging plane every moment. 7. Conclusion As described above, according to this in-vehicle image recognition processing system,
In the straight line detection processing, road parallel lines other than the white line can also be calculated, so that the vanishing point of the road can be calculated based on this. Then, a camera posture parameter is obtained based on the calculated road vanishing point, and an object moving every moment on the screen can be satisfactorily recognized based on the camera posture parameter. In each process, support information from the navigation processing device 2 and the anti-lock brake device 3 is used as needed.

【0149】このような構成により、車両の前方の物体
が確実に認識できるようになるから、認識結果を用いて
車両の自動運転を行ったり、ナビゲーション処理装置2
における経路誘導のための支援情報を作成したりするこ
とができる。なお、上記の例では、主として車両の前方
の物体の認識について説明したが、車両の後方を撮像す
るカメラを設けて、後方の物体の認識を行うようにして
もよい。
With such a configuration, an object ahead of the vehicle can be reliably recognized. Therefore, the vehicle can be automatically driven using the recognition result, or the navigation processing device 2 can be used.
, And support information for route guidance can be created. In the above example, recognition of an object in front of the vehicle has been mainly described. However, a camera that captures an image of the rear of the vehicle may be provided to perform recognition of an object behind.

【0150】また、上記の例では、画像認識処理装置
1、ナビゲーション処理装置2およびアンチロックブレ
ーキ装置3が個別に構成されているが、いずれか2つま
たは全部の装置を統合した構成としもよい。その他、本
発明の要旨を変更しない範囲で、種々の設計変更を施す
ことができる。
In the above example, the image recognition processing device 1, the navigation processing device 2, and the anti-lock brake device 3 are individually configured, but any two or all of them may be integrated. . In addition, various design changes can be made without changing the gist of the present invention.

【0151】[0151]

【発明の効果】以上のように本発明によれば、Hough変
換処理を2回繰り返すことによって、道路消失点が求め
られるので、画面内で直線部分が途切れていたりする場
合であっても、道路消失点を求めることができる。しか
も、最小自乗法のような通常の方法とは異なり、極めて
正確に道路消失点が求まる。このようにして算出された
道路消失点を利用すれば、車載カメラによって撮像され
た画像中の物体の認識を効率的に行うことができる。
As described above, according to the present invention, the road vanishing point is obtained by repeating the Hough transform process twice, so that even if a straight line portion is interrupted in the screen, the road disappears. A vanishing point can be determined. In addition, unlike ordinary methods such as the least squares method, the road vanishing point can be determined very accurately. By using the road vanishing point calculated in this way, it is possible to efficiently recognize an object in an image captured by the on-vehicle camera.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例が適用された画像認識処理シ
ステムの構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image recognition processing system to which an embodiment of the present invention has been applied.

【図2】車載カメラによって撮像された画像例を示す図
である。
FIG. 2 is a diagram illustrating an example of an image captured by a vehicle-mounted camera.

【図3】図2の画像から直線部分を抽出した例を示す図
である。
FIG. 3 is a diagram showing an example of extracting a straight line portion from the image of FIG. 2;

【図4】直線部抽出処理を説明するための図である。
(a) は車載カメラによって撮像された画像例を示し、
(b) は或る走査線上における3原色画像データの変動を
示す。
FIG. 4 is a diagram for explaining a straight line portion extraction process;
(a) shows an example of an image taken by the onboard camera,
(b) shows the fluctuation of the three primary color image data on a certain scanning line.

【図5】直線部抽出処理を説明するためのフローチャー
トである。
FIG. 5 is a flowchart for explaining a straight line portion extraction process.

【図6】Hough変換を説明するための図である。FIG. 6 is a diagram for explaining Hough transform.

【図7】Hough変換処理を2回繰り返して道路消失点を
求めるための処理を説明するための図である。
FIG. 7 is a diagram illustrating a process for obtaining a road vanishing point by repeating a Hough transform process twice.

【図8】道路消失点算出処理を説明するためのフローチ
ャートである。
FIG. 8 is a flowchart illustrating a road vanishing point calculation process.

【図9】道路消失点算出処理を説明するためのフローチ
ャートである。
FIG. 9 is a flowchart illustrating a road vanishing point calculation process.

【図10】道路消失点算出処理を説明するためのフロー
チャートである。
FIG. 10 is a flowchart illustrating a road vanishing point calculation process.

【図11】道路消失点算出処理を説明するためのフロー
チャートである。
FIG. 11 is a flowchart illustrating a road vanishing point calculation process.

【図12】カメラ姿勢パラメータ算出処理を説明するた
めのフローチャートである。
FIG. 12 is a flowchart illustrating a camera posture parameter calculation process.

【図13】物体認識処理を説明するためのフローチャー
トである。
FIG. 13 is a flowchart illustrating an object recognition process.

【図14】物体認識処理を説明するためのフローチャー
トである。
FIG. 14 is a flowchart illustrating an object recognition process.

【符号の説明】[Explanation of symbols]

1 画像認識処理装置 2 ナビゲーション処理装置 3 アンチロックブレーキ装置 11 車載カラーカメラ 15 認識処理部 17 記憶部 21 距離センサ 22 方位センサ 25 位置検出処理部 27 道路地図メモリ 28 記憶部 29 表示部 31 車輪速センサ 32 gセンサ 35 制動処理部 37 記憶部 Reference Signs List 1 image recognition processing device 2 navigation processing device 3 anti-lock brake device 11 in-vehicle color camera 15 recognition processing unit 17 storage unit 21 distance sensor 22 azimuth sensor 25 position detection processing unit 27 road map memory 28 storage unit 29 display unit 31 wheel speed sensor 32 g sensor 35 braking processing unit 37 storage unit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭63−142478(JP,A) 特開 平4−295973(JP,A) 特開 昭60−118987(JP,A) 特開 平2−90379(JP,A) 特開 平5−151341(JP,A) 特開 平5−149756(JP,A) 特開 平3−52083(JP,A) 特開 平4−205320(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 330 B60R 21/00 624 G06T 7/60 200 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-63-142478 (JP, A) JP-A-4-295973 (JP, A) JP-A-60-118987 (JP, A) JP-A-2- 90379 (JP, A) JP-A-5-151341 (JP, A) JP-A-5-149756 (JP, A) JP-A-3-52083 (JP, A) JP-A-4-205320 (JP, A) (58) Field surveyed (Int.Cl. 7 , DB name) G06T 1/00 330 B60R 21/00 624 G06T 7/60 200

Claims (12)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】車両の前方または後方を撮像することがで
きる車載カメラによって撮像された画面中において道路
が消失する点である道路消失点を算出する方法であっ
て、 上記車載カメラによって撮像された画面中において直線
部分を形成する点である直線候補点の座標を抽出し、 抽出された直線候補点の座標に対して、上記直線候補点
が属する直線の方程式の係数を第1の変換座標とした1
回目のHough変換処理を行って、上記第1の変換座標の
座標平面の所定範囲内に設定された一定の大きさの格子
升目の各計数値を求め、 上記1回目のHough変換処理において格子升目の計数値
が一定値以上となる点、または周辺の所定範囲内の格子
升目の計数値の合計値が一定値以上となる点のみを使用
し、この使用される点を通る直線の方程式の係数を第2
の変換座標とした2回目のHough変換処理を行って、上
記第2の変換座標の座標平面の所定範囲内に設定された
一定の大きさの格子升目の各計数値を求め、 上記第2の変換座標の座標平面において、格子升目の計
数値が最大である点、または周辺の所定範囲内の格子升
目の計数値の合計値が最大となる点を求め、この点の座
標に基づいて 道路消失点を求めることを特徴とする道路
消失点の算出方法。
1. A method for calculating a road vanishing point, which is a point where a road disappears in a screen imaged by a vehicle-mounted camera capable of imaging the front or rear of a vehicle, comprising: extracting coordinates of the line candidate point is a point to form a linear portion in the screen, with respect to the coordinates of the extracted line candidate points, the straight line candidate point
Where the coefficient of the equation of the straight line to which
The second Hough transform process is performed, and the first transform coordinates are
A fixed-size grid set within a predetermined range of the coordinate plane
The respective count values of the grid cells are obtained, and the count values of the grid cells are calculated in the first Hough transform process.
Is a certain value or more, or a grid within a certain range around
Use only points where the sum of the cell counts is above a certain value
And the coefficients of the equation of a straight line passing through this used point
Perform the second Hough transform process with the transform coordinates of
The second transformation coordinates are set within a predetermined range of a coordinate plane.
Each count value of a grid cell of a fixed size is obtained, and the total value of the grid cell is calculated on the coordinate plane of the second transformed coordinates.
The point where the numerical value is the maximum, or a grid cell within a predetermined range around it
Find the point where the sum of the eye counts is the largest,
A road vanishing point calculation method, wherein a road vanishing point is obtained based on a mark .
【請求項2】上記第1の変換座標の座標平面において、
格子升目の計数値が所定値以上である点、または周辺の
所定範囲内の格子升目の計数値の合計値が所定値以上で
ある点を、上記第1の変換座標の座標平面における距離
が所定値以下である点が同一群に属するように分類する
ことを特徴とする請求項記載の道路消失点の算出方
法。
2. In the coordinate plane of the first transformed coordinates,
A point at which the count value of the grid cell is equal to or greater than a predetermined value, or a point at which the sum of the count values of the grid cells within a predetermined range in the surrounding area is equal to or greater than a predetermined value, is determined by determining that the distance on the coordinate plane of the first transformed coordinates is equal to the method of calculating the road vanishing point according to claim 1, wherein the point is a value less are classified as belonging to the same group.
【請求項3】上記第1の変換座標の座標平面において、
格子升目の計数値が一定値以上となる点、または周辺の
所定範囲内の格子升目の計数値の合計値が一定値以上と
なる点であって、同一群に属する点のうち、その座標を
係数として使用した直線が上記道路消失点の最も近くを
通る点の座標を、道路平行線の係数として求めることを
特徴とする請求項記載の道路消失点の算出方法。
3. In the coordinate plane of the first transformed coordinates,
A point at which the count value of the grid cells is equal to or more than a certain value, or a point at which the total value of the count values of the grid cells within a predetermined range around the certain value is equal to or more than a certain value, and among the points belonging to the same group, 3. The method of calculating a road vanishing point according to claim 2 , wherein coordinates of a point at which a straight line used as a coefficient passes closest to the road vanishing point are obtained as coefficients of a road parallel line.
【請求項4】求められた道路平行線の係数のうち直線の
傾きに係わるものの符号に基づいて、当該道路平行線が
車両の左側にあるか右側にあるかを判定することを特徴
とする請求項記載の道路消失点の算出方法。
4. A method according to claim 1, wherein said road parallel line is located on the left side or on the right side of the vehicle based on the sign of the obtained coefficient of the road parallel line relating to the inclination of the straight line. Item 3. The method for calculating a road vanishing point according to item 3 .
【請求項5】求められた道路平行線の係数のうち道路平
行線の傾きに関するものが、正または負のいずれか一方
の符号のもののみであるときには、求められた道路消失
点および道路平行線を無効にすることを特徴する請求項
または記載の道路消失点の算出方法。
5. A road vanishing point and a road parallel line obtained when the coefficient relating to the inclination of the road parallel line among the obtained road parallel line coefficients is only one of positive or negative sign. Claims characterized by invalidating
3. The method of calculating a road vanishing point according to 3 or 4 .
【請求項6】上記第1の変換座標の座標平面において、
格子升目の計数値が一定値以上となる点、または周辺の
所定範囲内の格子升目の計数値の合計値が一定値以上と
なる点が一定数以上存在しない群については、その群に
属する点を2回目のHough変換処理では使用しないこと
を特徴とする請求項乃至のいずれかに記載の道路消
失点の算出方法。
6. In the coordinate plane of the first transformed coordinates,
For a group in which the count value of a grid cell is equal to or more than a certain value, or a group in which the total number of count values of grid cells in a surrounding predetermined range is not less than a certain value does not exist for a certain number or more, points belonging to the group the method for calculating the road vanishing point according to any one of claims 2 to 5, characterized in that not used in the second Hough transform process.
【請求項7】上記第1の変換座標の座標平面において、
格子升目の計数値が所定値以上である点、または周辺の
所定範囲内の格子升目の計数値の合計値が所定値以上で
ある点の群が、2つ未満であるときには道路消失点の算
出を禁止することを特徴とする請求項乃至のいずれ
かに記載の道路消失点の算出方法。
7. In the coordinate plane of the first transformed coordinates,
Calculation of a road vanishing point when there are less than two groups of points where the count value of the grid cells is greater than or equal to a predetermined value, or where the sum of the count values of the grid cells in a surrounding predetermined range is greater than or equal to a predetermined value. The method of calculating a road vanishing point according to any one of claims 2 to 6 , wherein the method is prohibited.
【請求項8】上記2回目のHough変換処理では、上記第
1の変換座標の座標平面において分類された各群のなか
で格子升目の計数値が最大となる点または周辺の所定範
囲内の計数値の合計値が最大となる点のみが用いられる
ことを特徴とする請求項乃至のいずれかに記載の道
路消失点の算出方法。
8. In the second Hough transform process, a point within a predetermined range around a point where the count value of a grid cell is maximum or a predetermined range around each of the groups classified on the coordinate plane of the first transformed coordinates. The method for calculating a road vanishing point according to any one of claims 2 to 7 , wherein only a point at which a total value of the numerical values is maximum is used.
【請求項9】上記第2の変換座標の座標平面において、
格子升目の計数値の最大値が一定値に満たない場合、ま
たは所定範囲内の格子升目の計数値の合計値の最大値が
一定値に満たない場合には、道路消失点の算出を禁止す
ることを特徴とする請求項乃至のいずれかに記載の
道路消失点の算出方法。
9. In the coordinate plane of the second transformed coordinates,
If the maximum value of the count values of the grid cells is less than a certain value, or if the maximum value of the sum of the count values of the grid cells within a predetermined range is less than a certain value, the calculation of the road vanishing point is prohibited. The method for calculating a road vanishing point according to any one of claims 1 to 8 , wherein:
【請求項10】少なくとも車両が走行している道路の直
線性に関する情報を保有している装置からの情報を取得
し、走行中の道路が一定値以上の直線性を有しているか
どうかを判定し、走行中の道路が一定値以上の直線性を
有していない場合には道路消失点の算出を禁止すること
を特徴とする請求項1乃至のいずれかに記載の道路消
失点の算出方法。
10. Obtaining at least information from a device having information on linearity of a road on which a vehicle is traveling, and determining whether or not the traveling road has linearity equal to or more than a predetermined value. The calculation of a road vanishing point according to any one of claims 1 to 9 , wherein the calculation of the road vanishing point is prohibited when the running road does not have a linearity equal to or more than a certain value. Method.
【請求項11】少なくとも車両が走行している道路の属
性に関する情報を保有している装置からの情報を取得
し、走行中の道路の属性が一定の基準を満たしているか
どうかを判定し、走行中の道路が一定の基準を満たして
いない場合には道路消失点の算出を禁止することを特徴
とする請求項1乃至10のいずれかに記載の道路消失点
の算出方法。
11. A method for acquiring information from at least an apparatus having information on attributes of a road on which a vehicle is traveling, determining whether or not the attributes of the traveling road satisfy a predetermined criterion. The method according to any one of claims 1 to 10 , wherein calculation of the vanishing point is prohibited when a middle road does not satisfy a certain standard.
【請求項12】少なくとも車両の現在位置、車両の進行
方位および車両が走行中の道路の方位に関する情報を保
有している装置からの情報を取得し、車両の進行方位と
道路の方位とに一定値以上の差があるかどうかを判定
し、車両の進行方位と道路の方位とに一定値以上の差が
ある場合には、道路消失点の算出を禁止することを特徴
とする請求項1乃至11のいずれかに記載の道路消失点
の算出方法。
12. At least information obtained from a device having information on the current position of the vehicle, the traveling direction of the vehicle, and the direction of the road on which the vehicle is traveling is obtained, and the information is fixed to the traveling direction of the vehicle and the direction of the road. Determining whether there is a difference equal to or greater than a value, and prohibiting calculation of a road vanishing point if the difference between the traveling direction of the vehicle and the direction of the road is greater than a certain value. 12. The method for calculating a road vanishing point according to any one of 11 .
JP22335693A 1993-09-08 1993-09-08 Road vanishing point calculation method Expired - Fee Related JP3358247B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22335693A JP3358247B2 (en) 1993-09-08 1993-09-08 Road vanishing point calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22335693A JP3358247B2 (en) 1993-09-08 1993-09-08 Road vanishing point calculation method

Publications (2)

Publication Number Publication Date
JPH0778240A JPH0778240A (en) 1995-03-20
JP3358247B2 true JP3358247B2 (en) 2002-12-16

Family

ID=16796878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22335693A Expired - Fee Related JP3358247B2 (en) 1993-09-08 1993-09-08 Road vanishing point calculation method

Country Status (1)

Country Link
JP (1) JP3358247B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3619628B2 (en) * 1996-12-19 2005-02-09 株式会社日立製作所 Driving environment recognition device
US7038577B2 (en) 2002-05-03 2006-05-02 Donnelly Corporation Object detection system for vehicle
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
WO2008024639A2 (en) 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
WO2008032376A1 (en) 2006-09-13 2008-03-20 Pioneer Corporation Distance measuring device and method, and computer program
JP5180658B2 (en) * 2008-04-10 2013-04-10 矢崎総業株式会社 Vehicle display device
JP6069081B2 (en) * 2013-04-23 2017-01-25 富士重工業株式会社 Vehicle driving support device
JP6611315B2 (en) * 2015-09-11 2019-11-27 矢崎エナジーシステム株式会社 Video reference point determination system, video reference point determination method, and video reference point determination program

Also Published As

Publication number Publication date
JPH0778240A (en) 1995-03-20

Similar Documents

Publication Publication Date Title
US6285393B1 (en) Object recognition apparatus and method
US6661449B1 (en) Object recognizing apparatus for vehicle and the method thereof
JP3352655B2 (en) Lane recognition device
US7106886B2 (en) Road white line recognition apparatus and method
US6477260B1 (en) Position measuring apparatus using a pair of electronic cameras
JP2514779B2 (en) Camera posture parameter calculation method
US6091833A (en) Local positioning apparatus, and a method therefor
US8452103B2 (en) Scene matching reference data generation system and position measurement system
US8605947B2 (en) Method for detecting a clear path of travel for a vehicle enhanced by object detection
US6122597A (en) Vehicle monitoring apparatus
US20050169501A1 (en) Method and apparatus for determining driving lane of vehicle, and computer product
US20110243457A1 (en) Scene matching reference data generation system and position measurement system
Schreiber et al. Single camera lane detection and tracking
US10846546B2 (en) Traffic signal recognition device
JP2870372B2 (en) Object recognition device
JP3301995B2 (en) Stereo exterior monitoring device
JP3358247B2 (en) Road vanishing point calculation method
Janda et al. Road boundary detection for run-off road prevention based on the fusion of video and radar
JP3807651B2 (en) White line recognition device
JP2940366B2 (en) Object tracking recognition device
JP3304905B2 (en) Object tracking recognition device
JP3612821B2 (en) In-vehicle distance measuring device
JPH0778255A (en) Method for extracting straight line part of image
JP3586938B2 (en) In-vehicle distance measuring device
JP2544898B2 (en) In-vehicle camera attitude parameter calculator

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071011

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081011

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091011

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees