JP2001022918A - Method and device for recognizing traveling course of vehicle - Google Patents

Method and device for recognizing traveling course of vehicle

Info

Publication number
JP2001022918A
JP2001022918A JP11193548A JP19354899A JP2001022918A JP 2001022918 A JP2001022918 A JP 2001022918A JP 11193548 A JP11193548 A JP 11193548A JP 19354899 A JP19354899 A JP 19354899A JP 2001022918 A JP2001022918 A JP 2001022918A
Authority
JP
Japan
Prior art keywords
traveling
line
road
road surface
band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11193548A
Other languages
Japanese (ja)
Other versions
JP4283383B2 (en
Inventor
Michimasa Ito
道昌 井東
Fumio Umeda
文雄 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP19354899A priority Critical patent/JP4283383B2/en
Publication of JP2001022918A publication Critical patent/JP2001022918A/en
Application granted granted Critical
Publication of JP4283383B2 publication Critical patent/JP4283383B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To recognize an image of a traveling course by discriminating traveling lines, such as median line and shoulder line forming the traveling course with high accuracy in a short time by determining objects on both bands in position relation of continuation as the same traveling line. SOLUTION: A CPU detects respective left and right detected band-shaped objects, namely, traveling lines A1 and A2 forming the real traveling course and a pair of band-shaped objects with high possibility to be both the left and right side traveling lines A1 and A2 forming actual traveling course in a linear part of a road sign B. As traveling line determining processing to be executed next to the left/right traveling line detecting processing, the CPU decides whether the first band-shaped object detected from first road surface images AL and AR provided at a previous time point in two road surface images LA and LR provided successively with the forward movement of a vehicle and whether the second band-shaped object provided at a following time point exist in the continuous position relation between both the road surface images AL and AR at least and both the band-shaped objects in the continuous position relation are determined as the same traveling lines A1 and A2.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車両が走行する走
行路の路面画像から走行線を判別することで走行路を画
像認識する走行路認識方法及び走行路認識装置に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for recognizing a traveling road by recognizing a traveling road by determining a traveling line from a road surface image of a traveling road on which a vehicle travels.

【0002】[0002]

【従来の技術】従来、車両が中央分離線及び路肩線等の
走行線(いわゆる白線)で区分された走行路を走行する
ときに、車両自身で走行路を認識し、運転者に走行路か
らの逸脱を報知したり、積極的に運転を補助したり、さ
らには、自動運転を行おうとする試みがある。この際、
走行路の認識を、走行路を形成する走行線を画像認識す
る方法が検討されている。
2. Description of the Related Art Conventionally, when a vehicle travels on a traveling road divided by a traveling line (a so-called white line) such as a center separation line and a road shoulder line, the vehicle itself recognizes the traveling road, and a driver can recognize the traveling road from the traveling road. There are attempts to inform the driver of deviations, actively assist driving, and even perform automatic driving. On this occasion,
A method of recognizing a traveling road by recognizing an image of a traveling line forming the traveling road has been studied.

【0003】画像認識による走行線の認識方式として
は、CCDカメラで撮像した走行路の画像から走行線の
標準パターンに一致する領域を抽出するテンプレートマ
ッチングによる方式と、画像の濃淡勾配を微分処理で抽
出することで走行線の輪郭線を認識する方式とが知られ
ている。
[0003] As a method of recognizing a traveling line by image recognition, a method based on template matching for extracting an area corresponding to a standard pattern of a traveling line from an image of a traveling path picked up by a CCD camera, and a differential processing of a shading gradient of the image by a differentiation process. A method of recognizing a contour of a traveling line by extracting the line is known.

【0004】このうち、テンプレートマッチングによる
走行線の認識方式では、走行路の路面画像から、走行線
の標準パターンが一致する領域を抽出することで車両に
対する走行線の状態を認識する。このため、画像として
得られる走行線の状態、即ち、左右への曲がり、曲がり
の程度等に応じて多数の標準パターンを用意しておき、
走行線が含まれた画像の部分領域が、いずれかの標準パ
ターンと相関があるかを判断している。従って、テンプ
レートマッチングによる方式では、走行路上にある道路
標識等の不要な対象物が画像に含まれていても走行線を
高い確度で認識することが可能である。しかし、走行線
が含まれた部分領域と、各標準パターンとの相関を計る
ための演算回数が膨大となり、走行線の認識に時間がか
かる問題がある。
[0004] Among them, in the traveling line recognition method using template matching, the state of the traveling line with respect to the vehicle is recognized by extracting an area where the standard pattern of the traveling line matches from the road surface image of the traveling road. For this reason, a number of standard patterns are prepared in accordance with the state of the traveling line obtained as an image, that is, bending to the left and right, the degree of bending, and the like.
It is determined whether or not the partial area of the image including the running line has a correlation with any of the standard patterns. Therefore, in the method using template matching, it is possible to recognize a traveling line with high accuracy even if an unnecessary object such as a road sign on the traveling road is included in the image. However, there is a problem that the number of calculations for measuring the correlation between the partial area including the travel line and each standard pattern becomes enormous, and it takes time to recognize the travel line.

【0005】一方、画像から微分処理で走行線の輪郭線
を認識する方式では、得られた画像に微分処理を施して
対象物の輪郭線を抽出し、得られた輪郭線が走行線の特
徴を備えているか否かを判断することで走行線を認識す
る。従って、走行線の認識に要する演算回数がテンプレ
ートマッチングによる方式に比較して少なく認識に要す
る時間が少なくてすむ。
On the other hand, in a method of recognizing a contour of a travel line from an image by differential processing, an obtained image is subjected to differential processing to extract a contour of an object, and the obtained contour is a characteristic of the travel line. The traveling line is recognized by determining whether or not the vehicle is equipped. Therefore, the number of calculations required for recognition of the traveling line is smaller than that of the template matching method, and the time required for recognition is reduced.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、中央分
離線又は路肩線の輪郭線を抽出する方式では、走行路面
の敷き石、走行路面にできた影、路面標識等の輪郭をも
検出することになる。そして、この走行線以外の対象物
と走行線との判別が容易でなく、走行線を高い確度で認
識することが容易でない問題があった。
However, in the method of extracting the contour line of the center separation line or the shoulder line, the method of detecting the contour of a paving stone on a traveling road surface, a shadow formed on the traveling road surface, a road sign, and the like is also required. Become. Then, there is a problem that it is not easy to discriminate an object other than the traveling line from the traveling line, and it is not easy to recognize the traveling line with high accuracy.

【0007】本発明は、上記の課題を解決するためにな
されたものであって、その目的は、より短い時間で、し
かも、高い確度で走行路を形成する中央分離線、路肩線
等の走行線を判別して走行路を画像認識することができ
る車両における走行路認識方法及び走行路認識装置を提
供することにある。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and has as its object to reduce the traveling time of a central separation line, a road shoulder line or the like which forms a traveling path in a shorter time and with high accuracy. It is an object of the present invention to provide a method and apparatus for recognizing a traveling path in a vehicle capable of recognizing a traveling path by distinguishing a line.

【0008】[0008]

【課題を解決するための手段】上記課題を解決するた
め、請求項1に記載の発明は、車両に対して所定の位置
関係で撮像され、車両の進行方向に設定された進行軸
と、前記進行方向に対し直交する方向に設定された横軸
との座標で表現されるとともに、車両が走行する走行路
を形成する左右両側の走行線の少なくとも一方を含んで
順次撮影される路面画像から、前記進行軸の各位置から
前記横軸方向に延びる線領域を形成する各画像単位の、
該横軸方向における濃度変化値を該横軸の各位置に対応
させた辺縁データを生成する辺縁検出処理と、前記進行
軸方向において所定の分割幅ずつに区分された複数の分
割領域に分割する画像分割処理と、前記各分割領域毎
に、該分割領域の前記各線領域に対して生成された前記
辺縁データから、該各辺縁データの該横軸の同一の位置
における濃度変化値の加算値、及び、該各辺縁データの
該横軸の同一の位置において所定値以上である濃度変化
値の頻度の少なくとも一方が反映された累積変化値を前
記横軸の各位置に対応させた辺縁領域データを生成する
辺縁領域検出処理と、前記各分割領域毎に、その分割領
域に対して生成された前記辺縁領域データにおいて、前
記累積変化値の正負が同一であってかつ所定の大きさ以
上である前記位置範囲を、該分割領域の前記進行軸方向
に相対向する両端縁を通過する辺縁が存在する境界領域
として検出する境界領域検出処理と、前記各境界領域が
検出された前記分割領域の前記進行軸に対する位置と、
該各分割領域において検出された該境界領域の前記横軸
に対する位置と、該境界領域における前記累積変化値の
値の正負と、その分割領域の前記分割幅とから、該各境
界領域に辺縁が存在する認識対象物によって構成され、
該各境界領域が検出された各分割領域にて形成される前
記路面画像の部分領域に少なくとも連続する位置関係で
存在する帯状表示部を検出する帯状対象物検出処理と、
車両の進行に伴って順次得られた2つの前記路面画像に
おいて、前の時点で得られた第1の路面画像から検出さ
れた第1の帯状対象物と、後の時点で得られた第2の路
面画像から検出された第2の帯状対象物とが、両路面画
像間で少なくとも連続する位置関係で存在する否かを判
断し、連続する位置関係にある前記両帯状対象物を同一
の走行線であるとして確定する走行線確定処理とを行う
車両における走行路認識方法である。
According to a first aspect of the present invention, there is provided an image pickup apparatus, which is imaged in a predetermined positional relationship with respect to a vehicle, and is provided with a traveling axis set in a traveling direction of the vehicle. Expressed by coordinates with the horizontal axis set in a direction perpendicular to the traveling direction, from a road surface image sequentially captured including at least one of the left and right traveling lines forming a traveling path on which the vehicle travels, Of each image unit forming a line area extending in the horizontal axis direction from each position of the traveling axis,
An edge detection process of generating edge data in which the density change value in the horizontal axis direction is made to correspond to each position of the horizontal axis; and a plurality of divided areas divided by a predetermined division width in the traveling axis direction. An image dividing process for dividing, and, for each of the divided regions, a density change value at the same position on the horizontal axis of each of the peripheral data from the edge data generated for each of the line regions of the divided region. And the cumulative change value reflecting at least one of the frequencies of the density change values that are equal to or more than a predetermined value at the same position on the horizontal axis of each edge data is made to correspond to each position on the horizontal axis. Edge region detection processing for generating edge region data, and for each of the divided regions, in the edge region data generated for the divided region, the sign of the cumulative change value is the same and The position range which is equal to or larger than a predetermined size; A boundary region detection process of detecting a boundary region in which edges passing through both end edges of the divided region that face each other in the traveling axis direction, and the traveling axis of the divided region in which each of the boundary regions is detected. Position with respect to
From the position of the boundary area with respect to the horizontal axis detected in each of the divided areas, the sign of the value of the cumulative change value in the boundary area, and the division width of the divided area, the margin of each of the boundary areas is determined. Is constituted by the recognition object where
A band-shaped object detection process for detecting a band-shaped display portion that is present in at least a continuous positional relationship with a partial region of the road surface image formed by each divided region in which each of the boundary regions is detected;
In the two road surface images sequentially obtained with the traveling of the vehicle, a first band-like object detected from a first road surface image obtained at a previous time and a second band-like object obtained at a later time It is determined whether or not the second belt-shaped object detected from the road surface image is present at least in a continuous positional relationship between the two road surface images, and the two belt-shaped objects having the continuous positional relationship are traveled in the same traveling state. This is a method for recognizing a traveling route in a vehicle that performs a traveling line determination process for determining a traveling line.

【0009】請求項2に記載の発明は、請求項1に記載
の発明において、前記路面画像は、前記走行路を形成す
る左右両側の走行線を含む路面画像であって、前記路面
画像に対して、前記帯状対象物検出処理までの各処理に
よって検出された複数の前記帯状対象物の前記横軸に対
する位置と、実際の走行路を形成する左右両側の走行線
間の間隔とに基づいて、前記各帯状対象物の内から両者
間の間隔が実際の走行路を形成する左右両側の走行線の
間隔と同等である一対の帯状対象物を検出する左右走行
線検出処理を行うとともに、前記走行線認識処理は、検
出された左右の前記帯状対象物について、それぞれ前記
走行線を確定することを特徴とする。
According to a second aspect of the present invention, in the first aspect of the present invention, the road surface image is a road surface image including left and right traveling lines forming the traveling road, and is different from the road surface image. Based on the positions of the plurality of band-shaped objects detected by the respective processes up to the band-shaped object detection process with respect to the horizontal axis, based on the distance between the left and right traveling lines forming the actual traveling path, The left and right traveling line detection processing for detecting a pair of band-shaped objects in which the distance between both of the band-shaped objects is equal to the distance between the traveling lines on both the left and right sides that form the actual traveling path is performed. The line recognition processing is characterized in that the traveling line is determined for each of the detected left and right band-shaped objects.

【0010】請求項3に記載の発明は、請求項1又は請
求項2に記載の発明において、前記走行線確定処理で確
定した前記走行線について前記路面画像上における撮像
状態を示す走行線データを、前記第1又は第2の路面画
像から生成する走行線データ生成処理を行うことを特徴
とする。
According to a third aspect of the present invention, in the first or second aspect of the present invention, travel line data indicating an imaging state on the road surface image of the travel line determined in the travel line determination process is stored. And running line data generation processing generated from the first or second road surface image.

【0011】請求項4に記載の発明は、車両の進行方向
に設定された進行軸と、該進行方向に直交する方向に設
定された横軸との座標で表現される、車両が走行する走
行路の走行線を含む該走行路の路面画像を、車両に対し
て所定の姿勢で順次撮像する撮像手段と、請求項1〜請
求項3のいずれか一項に記載の走行路認識方法によっ
て、前記各路面画像の画像処理を行う画像処理手段とを
備えた車両における走行路認識装置である。
According to a fourth aspect of the present invention, there is provided a travel system in which a vehicle travels expressed by coordinates of a traveling axis set in a traveling direction of the vehicle and a horizontal axis set in a direction orthogonal to the traveling direction. An image pickup means for sequentially taking a road surface image of the traveling road including the traveling line of the road in a predetermined posture with respect to the vehicle, and a traveling road recognition method according to any one of claims 1 to 3, An apparatus for recognizing a traveling road in a vehicle, comprising: an image processing unit that performs image processing on each of the road surface images.

【0012】(作用)請求項1に記載の発明によれば、
辺縁検出処理において、路面画像の進行軸の各位置で横
軸方向に延びる線領域を形成する画像単位間の濃度変化
値である辺縁データにおける濃度変化値から、走行線、
即ち、中央分離線、路肩線の辺縁、路面標識の辺縁、走
行線と同程度の濃度で撮像される敷き石等の認識障害物
の辺縁の存在が、横軸に対する位置と共に検出される。
画像分割処理、辺縁領域検出処理及び境界領域検出処理
において、進行方向に所定の分割幅で分割された各分割
領域毎に、その分割領域を構成する各線領域の辺縁デー
タから生成した辺縁領域データにおいて所定の大きさ以
上である累積変化値が存在する位置範囲から、その分割
領域の進行方向に相対向する両端縁を通過する走行線の
辺縁、あるいは、路面標識の辺縁が存在する境界領域
が、その位置範囲と共に検出される。このとき、分割領
域の分割幅よりも小さい敷き石等の障害物は、走行線と
同程度の濃度で撮像されたものであっても累積変化値の
大きさが所定の大きさ未満であることから検出されな
い。各分割領域で検出された境界領域に辺縁が存在する
認識対象物が、帯状に直線的に延びる走行線あるいは路
面標識の直線部分であって、帯状に直線的に延びない路
面標識の非直線部分でなければ、各境界領域に辺縁が存
在する認識対象物は、各境界領域が検出された分割領域
に少なくとも連続する位置関係で存在する帯状対象物と
なる。この前提条件に基づき、帯状対象物検出処理にお
いて、境界領域が検出された分割領域の進行軸に対する
位置と、該分割領域にて検出された境界領域の横軸に対
する位置と、その境界領域における累積変化値の値の正
負と、その分割領域の分割幅とから、辺縁が存在する境
界領域が検出された各分割領域に少なくとも連続する状
態で存在する帯状対象物である走行線、即ち、追い越し
線、追い越し禁止線、路肩線の一部、あるいは、路面標
識の直線部分が検出され、帯状対象物でない路面標識の
非直線部分は検出されない。又、車両の走行速度に比較
して十分に短い時間間隔で撮影された2つの路面画像に
おいてそれぞれ検出された帯状対象物が、同一の走行線
であって路面標識の直線部分でなければ、2つの路面画
像間で少なくとも連続する位置関係にある。この前提条
件に基づき、走行線確定処理において、各路面画像で検
出された帯状対象物である、同一の連続する追い越し禁
止線、破線からなる追い越し線、路肩線、あるいは、直
線部分を有する路面標識の内から、追い越し禁止線、追
い越し線、及び、路肩線が判別される。従って、テンプ
レートマッチングによる走行線の認識方式のように複数
の各標準プレートと路面画像との相関を計るために行う
ような大量の演算処理が必要ない。又、走行路に沿った
長さが所定値未満である敷き石は検出されず、同長さが
所定値以上である影、路面標識等は走行線でないと判別
される。
(Operation) According to the first aspect of the present invention,
In the edge detection processing, a travel line is calculated from the density change value in the edge data, which is a density change value between image units forming a line region extending in the horizontal axis direction at each position of the traveling axis of the road surface image,
That is, the existence of the center separation line, the edge of the road shoulder line, the edge of the road sign, and the edge of the recognition obstacle such as the paving stone imaged at the same density as the traveling line are detected together with the position with respect to the horizontal axis. You.
In the image division processing, the edge area detection processing, and the boundary area detection processing, for each of the division areas divided by the predetermined division width in the traveling direction, the margin generated from the margin data of each line area constituting the division area From the position range where the cumulative change value that is equal to or greater than the predetermined size exists in the area data, the edge of the traveling line passing through the opposite edges in the traveling direction of the divided area or the edge of the road sign exists Is detected along with its position range. At this time, for an obstacle such as a paving stone smaller than the division width of the division area, the magnitude of the accumulated change value is smaller than the predetermined magnitude even if the obstacle is imaged at the same density as the traveling line. Not detected from The recognition target having an edge in the boundary area detected in each divided area is a straight line of a running line or a road sign extending linearly in a band shape, and a non-straight line of a road sign not extending linearly in a band shape. If it is not a part, the recognition target object having an edge in each boundary region is a band-shaped object existing in a positional relationship at least continuous with the divided region in which each boundary region is detected. Based on this precondition, in the belt-shaped object detection process, the position of the divided region where the boundary region is detected with respect to the traveling axis, the position of the boundary region detected in the divided region with respect to the horizontal axis, and the accumulation in the boundary region From the positive / negative of the value of the change value and the division width of the divided region, a traveling line that is a strip-shaped object existing at least in a state where the boundary region where the edge exists is continuously connected to each of the detected divided regions, that is, overtaking A line, an overtaking prohibition line, a part of a road shoulder line, or a straight part of a road sign is detected, and a non-linear part of a road sign that is not a belt-shaped object is not detected. Also, if the belt-shaped objects detected in the two road surface images photographed at sufficiently short time intervals compared to the traveling speed of the vehicle are the same traveling line and are not linear portions of the road sign, then 2 There is at least a continuous positional relationship between the two road surface images. Based on these preconditions, in the traveling line determination processing, the same continuous overtaking prohibition line, the overtaking line composed of broken lines, the road shoulder line, or a road surface marker having a straight line portion, which is a belt-shaped object detected in each road surface image. Out of them, an overtaking prohibited line, an overtaking line, and a road shoulder line are determined. Therefore, there is no need for a large amount of arithmetic processing for measuring the correlation between a plurality of standard plates and the road surface image as in the method of recognizing a traveling line by template matching. Paving stones whose length along the traveling path is less than the predetermined value are not detected, and shadows, road markings, and the like having the same length or more than the predetermined value are determined to be non-traveling lines.

【0013】請求項2に記載の発明によれば、請求項1
に記載の発明の作用に加えて、検出された左右の帯状対
象物が実際の走行路を形成する左右両側の走行線であれ
ば、両走行線が同じ間隔で連続している。この前提条件
に基づき、左右走行線検出処理において、検出された複
数の各帯状対象物、即ち、実際の走行路を形成する走行
線、走行路を形成せず連続しない状態で存在する走行
線、路面標識の直線部分の内から、実際の走行路を形成
する左右の両走行線である可能性が高い一対の帯状対象
物が検出される。従って、実際の走行路を形成しておら
ず、連続していない走行線が走行路面にあっても、実際
の走行路を形成する左右の走行線が検出される。
According to the second aspect of the present invention, the first aspect is provided.
In addition to the operation of the invention described in the above, if the detected left and right band-shaped objects are traveling lines on both the left and right sides forming an actual traveling path, the traveling lines are continuous at the same interval. Based on this precondition, in the left and right traveling line detection processing, a plurality of band-shaped objects detected, that is, traveling lines that form an actual traveling path, traveling lines that do not form a traveling path and exist in a discontinuous state, A pair of band-like objects having a high possibility of being both left and right traveling lines forming an actual traveling path are detected from the straight portions of the road sign. Therefore, even if the actual traveling path is not formed and the discontinuous traveling line is on the traveling road surface, the left and right traveling lines forming the actual traveling path are detected.

【0014】請求項3に記載の発明によれば、請求項1
又は請求項2に記載の発明の作用に加えて、走行線デー
タ生成処理において、確定された走行線の路面画像にお
ける撮像状態を示す走行線データが生成される。
According to the invention described in claim 3, according to claim 1 of the present invention,
Alternatively, in addition to the operation of the invention described in claim 2, in the traveling line data generation processing, traveling line data indicating an imaging state of the determined traveling line in the road surface image is generated.

【0015】請求項4に記載の発明によれば、撮像手段
によって、車両に対して所定の姿勢で順次撮像される走
行路の走行線を含む該走行路の路面画像から、画像処理
手段により、請求項1〜請求項3のいずれか一項に記載
の走行路認識方法によって走行路が認識される。
According to the fourth aspect of the present invention, the image processing means converts the road surface image of the travel road including the travel line of the travel road sequentially imaged in a predetermined posture with respect to the vehicle by the image processing means. A travel path is recognized by the travel path recognition method according to any one of claims 1 to 3.

【0016】[0016]

【発明の実施の形態】以下、本発明を具体化した一実施
の形態を図1〜図7に従って説明する。図3は、車両用
走行路認識装置10の模式構成図である。車両用走行路
認識装置10は、撮像手段としてのCCDカメラ11
a,11b、及び、画像処理手段としての画像処理ユニ
ット12とからなる。CCDカメラ11a,11bは、
車両Cの左右各ドアミラーML,MRにそれぞれ設けら
れている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to FIGS. FIG. 3 is a schematic configuration diagram of the vehicle traveling road recognition device 10. The vehicle travel path recognition device 10 includes a CCD camera 11 as an imaging unit.
a, 11b, and an image processing unit 12 as image processing means. The CCD cameras 11a and 11b
The left and right door mirrors ML and MR of the vehicle C are provided respectively.

【0017】図4は、各CCDカメラ11a,11bが
撮影する走行路の撮影領域を示している。又、図5は、
左側のドアミラーMLに設けられたCCDカメラ11a
が撮影した走行路面の路面画像を示し、図6は、右側の
ドアミラーMRに設けられたCCDカメラ11bが撮影
した路面画像を示す。各CCDカメラ11a,11b
は、車両に対して所定の姿勢で固定され、車両Cの進行
方向に設定された進行軸Yと、該進行方向に直交する方
向に設定された横軸Xとの座標で表現される、車両が走
行する走行路を形成する走行線を含む該走行路の路面画
像を撮像する。さらに、CCDカメラ11aは、車両が
走行する走行路を形成する左側の走行線、例えば、路肩
線A1だけを含む左側の路面画像ALを撮影するように
設けられ、CCDカメラ11bは、走行路を形成する右
側の走行線、例えば、中央分離線(追い越し線、追い越
し禁止線)A2だけを含む右側の路面画像ARを撮影す
るように設けられている。又、各CCDカメラ11a,
11bは、走行路に表示されている路面標識Bを含む路
面画像AL,ARを撮影するように設けられている。各
CCDカメラ11a,11bは、それぞれm行×n列に
2次元配列された画素で形成される路面画像を撮像す
る。CCDカメラ11a,11bは、各画素毎に、画素
単位で撮像される走行路面の濃度に応じた強さの画素信
号を出力する。
FIG. 4 shows a photographing area of a traveling road photographed by each of the CCD cameras 11a and 11b. Also, FIG.
CCD camera 11a provided on left side door mirror ML
6 shows a road surface image of the traveling road surface taken by the user, and FIG. 6 shows a road surface image taken by the CCD camera 11b provided on the right side door mirror MR. Each CCD camera 11a, 11b
Is fixed in a predetermined posture with respect to the vehicle, and is represented by coordinates of a traveling axis Y set in the traveling direction of the vehicle C and a horizontal axis X set in a direction orthogonal to the traveling direction. Captures a road surface image of the travel road including a travel line forming a travel road on which the vehicle travels. Further, the CCD camera 11a is provided so as to capture a left traveling line forming a traveling road on which the vehicle travels, for example, a left road surface image AL including only the road shoulder line A1, and the CCD camera 11b is configured to photograph the traveling road. It is provided so as to capture the right road surface image AR including only the right traveling line to be formed, for example, the center separation line (overtaking line, overtaking prohibited line) A2. Also, each CCD camera 11a,
Reference numeral 11b is provided to capture road surface images AL and AR including the road surface sign B displayed on the traveling road. Each of the CCD cameras 11a and 11b captures a road surface image formed of pixels arranged two-dimensionally in m rows × n columns. The CCD cameras 11a and 11b output, for each pixel, a pixel signal having an intensity corresponding to the density of the traveling road surface imaged in pixel units.

【0018】画像処理ユニット12は、A/D変換器1
3、CPU14、入出力ポート15、ROM16、RA
M17、画像メモリ18、タイマ19等を備える。RO
M16にはCPU14が実行する走行路認識処理の制御
プログラムが記憶されている。
The image processing unit 12 includes an A / D converter 1
3, CPU 14, input / output port 15, ROM 16, RA
M17, an image memory 18, a timer 19, and the like. RO
In M16, a control program for a traveling road recognition process executed by the CPU 14 is stored.

【0019】CPU14は、制御プログラムに従い、左
右両側の走行線A1,A2によって形成される走行路を
認識する走行路認識処理を例えば100ミリ秒経過毎に
繰り返し実行する。
In accordance with the control program, the CPU 14 repeatedly executes a travel path recognition process for recognizing a travel path formed by the left and right traveling lines A1 and A2, for example, every 100 milliseconds.

【0020】走行路認識処理として、CPU14は、走
行路面撮影処理、画像分割処理、辺縁検出処理、辺縁領
域検出処理、境界領域検出処理、帯状対象物検出処理、
左右走行線検出処理、走行線確定処理及び走行線データ
生成処理の各処理を順次実行する。
As the traveling road recognition processing, the CPU 14 executes traveling road surface photographing processing, image division processing, edge detection processing, edge area detection processing, boundary area detection processing, band-shaped object detection processing,
The left and right traveling line detection processing, the traveling line determination processing, and the traveling line data generation processing are sequentially executed.

【0021】走行路面撮影処理として、CPU14は、
タイマ19が計時する時間に基づき所定時間経過毎に左
右の各CCDカメラ11a,11bを走査制御するとと
もに、各CCDカメラ11a,11bが出力する1フレ
ーム分の画素信号を、A/D変換器13a,13bを介
してm行×n列の画素データ(以下、単に画素という)
からなる路面画像データ(以下、単に路面画像という)
に変換してそれぞれ画像メモリ18に記憶する。即ち、
CPU14は、走行路面撮影処理として、車両の走行に
伴い、互いに同じ位置関係で随時変化する走行路の左右
の路面画像AL,ARを順次撮影する。
As the road surface photographing process, the CPU 14
The right and left CCD cameras 11a and 11b are controlled to scan each time a predetermined time elapses based on the time counted by the timer 19, and the one-frame pixel signals output by the CCD cameras 11a and 11b are output to the A / D converter 13a. , 13b through m rows × n columns of pixel data (hereinafter simply referred to as pixels)
Road surface image data (hereinafter simply referred to as road surface image)
And stored in the image memory 18 respectively. That is,
As the traveling road surface photographing process, the CPU 14 sequentially photographs left and right road surface images AL and AR of the traveling road that change as needed with the same positional relationship as the vehicle travels.

【0022】走行路認識処理として、CPU14は、走
行路の左右両側の各路面画像AL,ARに対し、画像分
割処理から走行線検出処理までの各処理をそれぞれ実行
する。以下、同各処理を、走行路の右側の路面画像AR
を引用して説明するが、走行路の左側の路面画像ALに
ついても同様である。
As the traveling path recognition processing, the CPU 14 executes each processing from the image division processing to the traveling line detection processing on each of the road surface images AL and AR on the left and right sides of the traveling road. Hereinafter, the same processing will be described as a road surface image AR on the right side of the traveling road
However, the same applies to the road surface image AL on the left side of the traveling road.

【0023】辺縁検出処理として、CPU14は、右側
の路面画像ARに対し、進行軸Yの各位置から横軸方向
に延びる線領域を形成する各画素行の、該横軸方向にお
ける濃度変化値(微分値)を該横軸Xの各位置に対応さ
せた辺縁データを生成する。即ち、CPU14は、1つ
の路面画像ARについてm個の辺縁データを生成する。
図7(b)は、図6、図7(a)で示す路面画像ARの
進行軸Yにおける1つの位置Q1から横軸方向に延びる
線領域LAを形成する画素行について、その横軸方向の
濃度変化値を取った辺縁データを、横軸Xに対する濃度
変化値を示すグラフで表わしたものである。辺縁データ
は、1つの線領域LAを形成する画素行の各画素の画素
データを微分演算することで生成され、同線領域LAに
おいて画像の濃度が大きく変化する点を示す。即ち、辺
縁データにおいて、所定の大きさ|α|以上である濃度
変化値の存在は、走行路面の内、走行線A1,A2の辺
縁、路面標識Bの辺縁、走行線A1,A2と同程度の濃
度で撮像される敷き石C等の障害物の辺縁の存在をその
位置と共に示す。
As the edge detection processing, the CPU 14 calculates a density change value in the horizontal axis direction of each pixel row forming a line region extending in the horizontal axis direction from each position of the traveling axis Y with respect to the right road surface image AR. Edge data in which the (differential value) corresponds to each position on the horizontal axis X is generated. That is, the CPU 14 generates m pieces of edge data for one road surface image AR.
FIG. 7B shows a pixel row forming a line area LA extending in the horizontal axis direction from one position Q1 on the traveling axis Y of the road surface image AR shown in FIGS. 6 and 7A. The margin data obtained by taking the density change value is represented by a graph showing the density change value with respect to the horizontal axis X. The edge data is generated by differentiating pixel data of each pixel of a pixel row forming one line area LA, and indicates a point where the image density greatly changes in the line area LA. That is, in the edge data, the presence of the density change value that is equal to or greater than the predetermined magnitude | α | is determined based on the edges of the traveling lines A1 and A2, the edges of the road marking B, and the edges of the traveling lines A1 and A2. The presence of an edge of an obstacle such as a paving stone C imaged at the same density as that of the obstacle is shown together with its position.

【0024】画像分割処理として、CPU14は、画像
メモリ18に記憶された右側の路面画像ARを、図6に
示すように、進行軸方向において所定の分割幅wdずつ
に区分された複数の分割領域、図6ではAd1〜Ad
9、に分割する。各分割領域Ad1〜Ad9が進行軸方
向に分割される分割幅wdは、路面画像ARの各画素が
撮像した画像の濃度に基づいて走行線、即ち、路肩線A
1及び中央分離線A2を認識しようとする場合に、走行
線A1,A2と誤認識する可能性がある走行路面上の対
象物、例えば、路面に敷設された敷き石C等の障害物の
外径よりも大きい範囲で、できるだけ小さい大きさに設
定されている。尚、路面画像ARの分割領域Adの数
は、路面画像ARの進行軸方向の大きさ、設定する分割
幅wd等によって異なり、本実施の形態では、便宜上9
つの分割領域Adに分割している。
As an image dividing process, the CPU 14 converts the right road surface image AR stored in the image memory 18 into a plurality of divided areas divided by a predetermined dividing width wd in the traveling axis direction as shown in FIG. In FIG. 6, Ad1 to Ad
Divide into nine. The division width wd at which each of the divided areas Ad1 to Ad9 is divided in the traveling axis direction is a travel line, that is, the road shoulder line A based on the density of the image captured by each pixel of the road surface image AR.
1 and the center separation line A2, an object on the traveling road surface which may be erroneously recognized as the traveling lines A1 and A2, for example, outside of an obstacle such as a paving stone C laid on the road surface. The size is set as small as possible within a range larger than the diameter. Note that the number of divided areas Ad of the road surface image AR differs depending on the size of the road surface image AR in the traveling axis direction, the set division width wd, and the like.
It is divided into two divided areas Ad.

【0025】辺縁検出処理及び画像分割処理の次に実行
する辺縁領域検出処理として、CPU14は、右側の路
面画像ARに対し、各分割領域Ad1〜Ad9毎に、そ
の分割領域Ad1〜Ad9の各線領域LAに対して生成
した辺縁データから、各辺縁データの横軸Xに対する同
一の位置における所定の大きさ|α|以上の濃度変化値
の加算値である累積変化値を、横軸Xの各位置に対応さ
せた辺縁領域データを生成する。図7(a)は分割領域
Ad3を示し、図7(c)は同分割領域Ad3の各線領
域LAで生成した辺縁データから生成した辺縁領域デー
タをグラフで表わしたものである。辺縁領域データにお
いて、累積変化値が所定の大きさ|β|以上である位置
範囲は、その分割領域Adの進行方向に相対向する両端
縁を通過する走行線、即ち、路肩線A1の辺縁、中央分
離線A2の辺縁、あるいは、路面標識Bの辺縁が存在す
る領域を示す。
As the edge area detection processing to be executed next to the edge detection processing and the image division processing, the CPU 14 determines, for each of the divided areas Ad1 to Ad9, the divided areas Ad1 to Ad9 for the right road surface image AR. From the edge data generated for each line area LA, a cumulative change value which is an addition value of a density change value equal to or more than a predetermined magnitude | α | Edge area data corresponding to each position of X is generated. FIG. 7A shows the divided area Ad3, and FIG. 7C is a graph showing the edge area data generated from the edge data generated in each line area LA of the divided area Ad3. In the marginal area data, the position range in which the cumulative change value is equal to or greater than the predetermined magnitude | β | is a traveling line passing through the opposite edges in the traveling direction of the divided area Ad, that is, the side of the road shoulder line A1. The area where the edge, the edge of the center separation line A2, or the edge of the road sign B is present.

【0026】辺縁領域検出処理の次に実行する境界領域
検出処理として、CPU14は、右側の路面画像ARに
対し、その各分割領域Ad毎に、その分割領域Adに対
して生成された辺縁領域データにおいて、横軸Xに対し
て累積変化値の正負が同一であってかつ所定の大きさ|
β|以上である位置範囲を、該分割領域Adの進行方向
に相対向する両端縁、即ち、上側端縁LU及び下側端縁
LLを通過する辺縁が存在する境界領域として検出す
る。例えば、分割領域Ad3については、図7(c)の
グラフで示す辺縁領域データから、3つの境界領域ε
1,ε2,ε3を検出する。即ち、CPU14は、境界
領域検出処理として、各分割領域Adの進行軸方向に相
対向する両端縁LU,LLを通過する路肩線A1、中央
分離線A2、あるいは、路面標識Bの一方又は両側の辺
縁を検出する。一方、CPU14は、境界領域検出処理
として、分割領域Adの分割幅wdよりも小さい敷き石
C等の障害物は、各走行線A1,A2と同等の濃度で撮
像されたものであっても、その辺縁に対応する累積変化
値の大きさが所定の大きさ|β|未満であることから検
出しない。尚、CPU14が、境界領域検出処理におい
て検出する辺縁は、進行軸Yに対して右側に傾斜するか
又は左側に傾斜するかが不明である。
As the boundary area detection processing to be executed next to the edge area detection processing, the CPU 14 determines, for each of the divided areas Ad on the right road surface image AR, the edge generated for the divided area Ad. In the area data, the positive / negative of the cumulative change value is the same as the horizontal axis X and a predetermined magnitude |
The position range that is equal to or greater than β | is detected as a boundary region where edges that pass through the divided region Ad in the traveling direction, that is, edges that pass through the upper edge LU and the lower edge LL, are present. For example, regarding the divided region Ad3, three boundary regions ε are obtained from the peripheral region data shown in the graph of FIG.
1, ε2 and ε3 are detected. That is, as the boundary area detection processing, the CPU 14 performs one or both sides of the road shoulder line A1, the center separation line A2, or the road surface marker B passing through both end edges LU, LL opposed to each other in the traveling axis direction of each divided area Ad. Detect edges. On the other hand, the CPU 14 determines that the obstacle such as the paving stone C smaller than the division width wd of the division area Ad is captured at the same density as the traveling lines A1 and A2 as the boundary area detection processing. No detection is performed because the magnitude of the cumulative change value corresponding to the edge is less than the predetermined magnitude | β |. It is unknown whether the edge detected by the CPU 14 in the boundary area detection processing is inclined rightward or leftward with respect to the traveling axis Y.

【0027】境界領域検出処理の次に実行する帯状対象
物検出処理として、CPU14は、各境界領域が検出さ
れた分割領域Adの進行軸Yに対する位置と、該各分割
領域Adにおいて検出された該境界領域の横軸Xに対す
る位置と、該境界領域における前記累積変化値の値の正
負と、その分割領域Adの分割幅wdとから、各境界領
域に辺縁が存在する認識対象物によって構成され、各境
界領域が検出された各分割領域Adにて形成される路面
画像ARの部分領域に少なくとも連続する位置関係で存
在する帯状対象物を検出する。即ち、境界領域が検出さ
れた各分割領域Adに存在する認識対象物が、帯状に延
びる走行線A1,A2の一部、あるいは、路面標識Bの
直線部分であって、帯状に延びない路面標識Bの非直線
部分でなければ、各境界領域に辺縁が存在する認識対象
物は、各境界領域が検出された分割領域に少なくとも連
続する位置関係で存在する帯状対象物となる。この前提
条件に基づき、CPU14は、帯状対象物である路肩線
A1、中央分離線(追い越し線、追い越し禁止線)A
2、あるいは、路面標識Bの直線部分を検出し、帯状対
象物でない路面標識Bの非直線部分は検出しない。具体
的に詳述すると、例えば、路面画像ARの下側端縁の1
点から右側端縁の1点まで連続する状態で存在する帯状
対象物は、走行線A1,A2の一部、あるいは、路面標
識Bの直線部分の一部である可能性があるとして検出さ
れる。又、路面画像ARの下側端縁の1点から上側端縁
の1点まで連続する位置関係でかつ途中がない状態で存
在する帯状対象物は、追い越し線である可能性があると
して検出される。
As a band-shaped object detection process to be executed next to the boundary region detection process, the CPU 14 determines the position of the divided region Ad where each boundary region is detected with respect to the traveling axis Y and the position detected in each of the divided regions Ad. It is constituted by a recognition target object having an edge in each boundary region from the position of the boundary region with respect to the horizontal axis X, the sign of the value of the cumulative change value in the boundary region, and the division width wd of the division region Ad. And detecting a strip-shaped object existing at least in a continuous relationship with a partial area of the road surface image AR formed by each divided area Ad in which each boundary area is detected. That is, the recognition target existing in each of the divided areas Ad in which the boundary area is detected is a part of the running lines A1 and A2 extending in a belt shape or a straight line portion of the road marking B, and the road marking does not extend in the belt shape. If it is not the non-linear portion of B, the recognition target object having an edge in each boundary area is a strip-shaped object existing in a positional relationship at least continuous with the divided area in which each boundary area is detected. Based on these preconditions, the CPU 14 determines that the road-side line A1 and the center separation line (overtaking line, overtaking prohibition line) A, which are belt-shaped objects.
2, or the linear part of the road sign B is detected, and the non-linear part of the road sign B which is not a belt-shaped object is not detected. More specifically, for example, one of the lower edges of the road surface image AR
The strip-shaped object existing in a state continuous from the point to one point on the right edge is detected as being possibly a part of the traveling lines A1 and A2 or a part of the straight part of the road sign B. . Further, a belt-shaped object existing in a continuous positional relationship from one point on the lower edge to one point on the upper edge of the road surface image AR and having no intermediate point is detected as a possibility of being an overtaking line. You.

【0028】帯状対象物検出処理を詳述する。境界領域
検出処理で検出された1つの境界領域の横軸Xに対する
位置範囲は、その境界領域に存在する辺縁が走行線A
1,A2の一方の辺縁であるとすると、その分割領域A
dを進行方向の両端縁を通過するときの辺縁の各端縁に
おける通過位置の横軸Xに対する間隔と同じ値である。
従って、分割領域Adの分割幅wdと、境界領域の位置
範囲とから、図7(a)に示すように、その分割領域A
dを通過する走行線の進行方向に対する傾斜角θが判断
できる。但し、その傾斜の向きが、進行方向に対して右
側か左側であるかは判断できない。CPU14は、帯状
対象物検出処理において、境界領域検出処理で検出され
た各分割領域Adの境界領域に対し、進行方向に対して
右側又は左側に所定の傾斜角θで傾斜する2つの辺縁を
想定する。又、CPU14は、横軸Xに対する間隔が所
定範囲内であってかつその累積変化値が値が正負である
一対の境界領域を、1つの走行線A1,A2の左右両側
の辺縁が存在する境界領域であると想定する。そして、
各境界領域が検出された分割領域Adで形成される路面
画像AL,ARの部分領域に、各境界領域で想定される
いずれかの向きに向いた状態でその分割領域Adに存在
する認識対象物で構成され、少なくともその部分領域で
連続する位置関係となる帯状対象物が存在するか否かを
判断する。
The processing for detecting a strip-shaped object will be described in detail. The position range of one boundary region detected in the boundary region detection processing with respect to the horizontal axis X is such that the edge existing in the boundary region is the traveling line A.
1 and A2, the divided area A
This is the same value as the interval of the passing position at each edge of the edge when passing through both edges in the traveling direction with respect to the horizontal axis X.
Therefore, based on the division width wd of the division region Ad and the position range of the boundary region, as shown in FIG.
The inclination angle θ with respect to the traveling direction of the traveling line passing through d can be determined. However, it cannot be determined whether the direction of the inclination is right or left with respect to the traveling direction. In the belt-shaped object detection processing, the CPU 14 sets two edges that are inclined at a predetermined inclination angle θ to the right or left with respect to the traveling direction with respect to the boundary area of each divided area Ad detected in the boundary area detection processing. Suppose. In addition, the CPU 14 determines that a pair of boundary areas whose interval with respect to the horizontal axis X is within a predetermined range and whose cumulative change value is positive or negative has edges on both left and right sides of one traveling line A1, A2. Assume a boundary region. And
A recognition target existing in a partial area of the road surface image AL or AR formed by the divided area Ad where each boundary area is detected and present in the divided area Ad in a state facing any one of directions assumed in each boundary area It is determined whether there is a band-shaped object having a continuous positional relationship at least in the partial region.

【0029】帯状対象物検出処理の次に実行する左右走
行線検出処理において、CPU14は、左右の各路面画
像AL,ARに対して、帯状対象物検出処理までの各処
理によってそれぞれ検出された左右の路面画像AL,A
Rの各帯状対象物の横軸Xに対する位置と、実際の走行
路を形成する左右両側の走行線A1,A2間の間隔とに
基づいて、各帯状対象物の内から両者間の間隔が実際の
走行路を形成する左右両側の走行線A1,A2の間隔と
同等である一対の帯状対象物を検出する。即ち、即ち、
左右の路面画像AL,ARでそれぞれ検出された左右の
各帯状対象物が、実際の走行路を形成する左右両側の走
行線A1,A2であれば同じ間隔で連続する。この前提
条件に基づき、CPU14は、検出された左右の各帯状
対象物、即ち、実際の走行路を形成する走行線A1,A
2、路面標識Bの直線部分の内から、実際の走行路を形
成する左右両側の走行線A1,A2である可能性が高い
一対の帯状対象物を検出する。
In the left and right traveling line detection processing to be executed next to the band-shaped object detection processing, the CPU 14 applies the left and right road surface images AL and AR detected by the respective processing up to the band-shaped object detection processing. Road surface image AL, A
Based on the position of each band-shaped object R with respect to the horizontal axis X and the distance between the left and right traveling lines A1 and A2 forming the actual traveling path, the distance between both of the band-shaped objects is actually determined. A pair of band-shaped objects having the same distance as the travel lines A1 and A2 on both left and right sides forming the travel path are detected. That is,
If the left and right band-shaped objects detected respectively in the left and right road surface images AL and AR are the traveling lines A1 and A2 on both the left and right sides that form the actual traveling road, they continue at the same interval. Based on the preconditions, the CPU 14 detects the detected left and right band-shaped objects, that is, the traveling lines A1, A forming the actual traveling path.
2. A pair of strip-like objects having a high possibility of being the left and right traveling lines A1 and A2 forming the actual traveling path are detected from the straight line portion of the road sign B.

【0030】左右走行線検出処理の次に実行する走行線
確定処理として、CPU14は、車両の進行に伴って順
次得られた2つの路面画像AL,ARにおいて、前の時
点で得られた第1の路面画像AL、ARから検出された
第1の帯状対象物と、後の時点で得られた第2の帯状対
象物とが、両路面画像AL,AR間で少なくとも連続す
る位置関係で存在するか否かを判断し、連続する位置関
係にある両帯状対象物を同一の走行線A1,A2である
として確定する。即ち、車両の走行速度に比較して十分
に短い時間間隔で撮影された2つの路面画像ARにおい
てそれぞれ検出された帯状対象物が、同一の走行線A
1,A2であって路面標識Bの直線部分でなければ、2
つの路面画像間で少なくとも連続する位置関係にある。
この前提条件に基づき、CPU14は、各路面画像AR
で検出された帯状対象物である、路肩線A1、中央分離
線(連続する追い越し禁止線、破線からなる追い越し
線)A2、あるいは、直線部分を有する路面標識Bの内
から、路肩線A1、中央分離線(追い越し禁止線及び追
い越し線)A2を走行線として確定する。
As a traveling line determination process to be executed next to the left / right traveling line detection process, the CPU 14 uses the first road surface images AL and AR sequentially obtained as the vehicle advances to obtain the first road image AL obtained at the previous time. The first band-shaped object detected from the road surface images AL and AR of the second road surface image and the second band-shaped object obtained at a later point in time exist at least in a continuous positional relationship between the two road surface images AL and AR. It is determined whether or not the two belt-shaped objects having a continuous positional relationship are the same traveling lines A1 and A2. That is, the belt-shaped objects detected in the two road surface images AR photographed at sufficiently short time intervals compared with the traveling speed of the vehicle are the same traveling line A.
1, if it is A2 and it is not the straight part of the road sign B, 2
There is at least a continuous positional relationship between the two road surface images.
Based on these preconditions, the CPU 14
From the road shoulder line A1, the center separation line (continuous overtaking prohibition line, the overtaking line consisting of a broken line) A2, or the road sign B having a straight portion, The separation line (overtaking prohibited line and overtaking line) A2 is determined as the traveling line.

【0031】走行線確定処理の次に実行する走行線デー
タ生成処理として、CPU14は、走行線確定処理で確
定した左右両側の走行線A1,A2について路面画像A
L,AR上における撮像位置を示す走行線データを、前
記第1又は第2の路面画像から生成する。
As the traveling line data generation processing to be executed next to the traveling line determination processing, the CPU 14 determines the road image A for the left and right traveling lines A1 and A2 determined in the traveling line determination processing.
Travel line data indicating an imaging position on L and AR is generated from the first or second road surface image.

【0032】次に、以上のように構成された走行路認識
装置の作用について説明する。車両が走行するときに走
行路認識装置を作動させると、画像処理ユニットのCP
U14が走行路認識処理を所定時間経過毎に繰り返し実
行する。図1,2は、走行路認識処理のフローチャート
を示す。
Next, the operation of the above-structured traveling road recognition apparatus will be described. When the traveling path recognition device is activated when the vehicle is traveling, the CP of the image processing unit is activated.
U14 repeatedly executes the travel path recognition process every predetermined time. 1 and 2 show a flowchart of the traveling road recognition processing.

【0033】走行路認識処理において、CPU14は、
先ずステップ(以下、単にSと表記する)10で、走行
路面撮影処理を実行する。その結果、車両の走行に伴
い、互いに同じ位置関係で随時変化する走行路の左右の
路面画像AL,ARが順次撮影される。
In the traveling path recognition processing, the CPU 14
First, in step (hereinafter simply referred to as S) 10, a traveling road surface photographing process is executed. As a result, the left and right road surface images AL and AR of the traveling road that change at any time with the same positional relationship as the vehicle travels are sequentially captured.

【0034】次に、CPU14は、辺縁検出処理とし
て、S11で、左右の各路面画像AL,ARの各線領域
について辺縁検出処理を実行する。次に、CPU14
は、辺縁検出処理及び画像分割処理として、S12で、
路面画像AL,ARを進行軸Yに対して所定の分割幅で
分割するとともに、分割した1つの分割領域Adについ
て、その分割領域Adの辺縁データに対し、横軸Xに対
して濃度変化値が所定の大きさ|α|以上である位置
と、その濃度変化値とを保存し、S13で、分割した全
ての分割領域AdについてS12の処理を行なったこと
を判断する。その結果、路面画像AL,ARの各分割領
域Ad毎に、その分割領域Adを形成する各線領域に存
在する路肩線A1、中央分離線A2、路面標識B、該各
路面表示と同等の濃度で撮像される敷き石C等の辺縁の
存在が、横軸Xに対する位置と共に検出される。
Next, in S11, the CPU 14 executes the edge detection processing for each line area of the left and right road surface images AL and AR as the edge detection processing. Next, the CPU 14
In S12, as the edge detection processing and the image division processing,
The road surface images AL and AR are divided at a predetermined division width with respect to the traveling axis Y, and for one divided region Ad, the density change value is plotted against the edge data of the divided region Ad with respect to the horizontal axis X. Is stored and the density change value thereof is stored. At S13, it is determined that the processing at S12 has been performed for all the divided areas Ad. As a result, for each of the divided areas Ad of the road surface images AL and AR, the road shoulder line A1, the center separation line A2, the road surface sign B, and the density equivalent to each of the road surface displays are present in each of the line regions forming the divided region Ad. The presence of the edge of the paving stone C or the like to be imaged is detected together with the position with respect to the horizontal axis X.

【0035】次に、CPU14は、辺縁領域検出処理と
して、S14で、辺縁検出処理が終了した分割領域Ad
の各線領域で生成された辺縁データを加算した辺縁領域
データを生成する。さらに、CPU14は、境界領域検
出処理として、S15で、その分割領域Adについて生
成した辺縁領域データから、累積変化値の正負が同一で
かつ所定の大きさ|β|以上である位置範囲を検出し、
S16で、検出した各位置範囲、及び、その正負を保存
する。その結果、その分割領域Adを進行方向に通過す
る、路肩線A1、中央分離線A2、あるいは、路面標識
Bの辺縁の存在が、その位置範囲と共に検出される。一
方、走行線A1,A2と同等の濃度であっても、分割領
域Adの分割幅wdよりも小さい敷き石C等の障害物
は、累積変化値の値が所定の大きさ|β|未満となるこ
とから検出されない。
Next, in S14, the CPU 14 determines the divided area Ad in which the edge detection processing has been completed in S14.
Is generated by adding the edge data generated in each line area. Further, in step S15, the CPU 14 detects a position range in which the positive and negative cumulative change values are the same and equal to or greater than the predetermined size | β | from the peripheral region data generated for the divided region Ad in the boundary region detection process. And
In S16, each detected position range and its sign are stored. As a result, the presence of the road shoulder line A1, the center separation line A2, or the edge of the road sign B passing through the divided area Ad in the traveling direction is detected together with the position range. On the other hand, even if the density is the same as that of the traveling lines A1 and A2, the obstacle such as the paving stone C smaller than the division width wd of the division area Ad has a value of the cumulative change value smaller than the predetermined magnitude | β | Not detected from becoming

【0036】CPU14は、S17で、左右の各路面画
像AL,ARについて、それぞれ全ての分割領域Adに
対して辺縁領域検出処理及び境界領域検出処理が終了し
たことを判断すると、S18で、帯状対象物検出処理を
実行する。その結果、境界域が検出された各分割領域A
dで形成される路面画像AL,ARの少なくとも部分領
域に存在する帯状対象物である路肩線A1、中央分離線
A2の一部、あるいは、路面標識Bの直線部分が検出さ
れ、帯状対象物でない路面標識Bの非直線部分は検出さ
れない。
When the CPU 14 determines in S17 that the edge area detection processing and the boundary area detection processing have been completed for all the divided areas Ad with respect to the left and right road surface images AL and AR, the processing proceeds to S18. Execute the object detection processing. As a result, each divided area A in which the boundary area is detected
The road shoulder line A1, a part of the center separation line A2, or a straight line portion of the road surface marker B, which is a belt-shaped object existing in at least a partial region of the road surface images AL and AR formed by d, is detected and is not a band-shaped object. The non-linear portion of the road sign B is not detected.

【0037】次いで、CPU14は、S19で、左右走
行線検出処理を実行する。その結果、左右の各路面画像
AL,ARから検出された複数の帯状対象物、即ち、実
際の走行路を形成する走行線A1,A2、実際の走行路
を形成せず連続しない状態で存在する走行線、路面標識
Bの直線部分の内から、実際の走行路を形成する左右両
側の走行線A1,A2を含む一対の帯状対象物が検出さ
れる。
Next, in S19, the CPU 14 executes a left / right traveling line detection process. As a result, a plurality of band-shaped objects detected from the left and right road surface images AL and AR, that is, the traveling lines A1 and A2 forming the actual traveling road, exist in a discontinuous state without forming the actual traveling road. A pair of belt-like objects including the left and right traveling lines A1 and A2 forming the actual traveling path are detected from the traveling line and the straight line portion of the road sign B.

【0038】次に、CPU14は、S20で、走行線確
定処理を実行する。その結果、2つの各路面画像AL,
ARでそれぞれ検出された帯状対象物である、同一の連
続する路肩線A1、中央分離線(追い越し線、追い越し
禁止線)A2、あるいは、直線部分を有する路面標識B
の内から、路肩線A1、中央分離線A2が確定される。
Next, in S20, the CPU 14 executes a traveling line determination process. As a result, two road surface images AL,
The same continuous road shoulder line A1, center separation line (overtaking line, overtaking prohibition line) A2, or road surface sign B having a straight line portion, which is a band-shaped object detected by AR.
Of these, the road shoulder line A1 and the center separation line A2 are determined.

【0039】CPU14は、走行路認識処理の最後にS
21で走行線データ生成処理を実行する。その結果、実
際の走行路を形成する走行線として確定された左右両側
の走行線A1,A2の各路面画像AL,ARにおける撮
像位置を示す走行線データが生成される。
At the end of the traveling road recognition processing, the CPU 14 executes S
At 21, a traveling line data generation process is executed. As a result, travel line data indicating the imaging position of each of the left and right travel lines A1 and A2 determined as the travel lines forming the actual travel path in the road surface images AL and AR is generated.

【0040】以上詳述した本実施の形態によれば、以下
に記載の各効果を得ることができる。 (1) テンプレートマッチングによる走行線の認識方
式において複数の各標準プレートと路面画像との相関を
計るために行うような大量の演算処理が必要ない。又、
走行路に沿った長さが所定値未満である敷き石C等の認
識障害物は検出されず、同長さが所定値以上である影、
路面標識B等は走行線A1,A2でないと判別される。
その結果、短い時間で、しかも、高い確度で路肩線A
1、中央分離線A2等の走行線を判別して走行路を画像
認識することができる。
According to the present embodiment described in detail above, the following effects can be obtained. (1) There is no need for a large amount of arithmetic processing to measure the correlation between a plurality of standard plates and a road surface image in a travel line recognition method using template matching. or,
A recognition obstacle such as a paving stone C whose length along the traveling path is less than a predetermined value is not detected, and a shadow whose length is equal to or more than a predetermined value,
It is determined that the road signs B and the like are not the traveling lines A1 and A2.
As a result, in a short time, and with high accuracy,
1. The traveling road such as the center separation line A2 or the like can be determined to recognize the traveling road as an image.

【0041】(2) 左右一対で同じ間隔で連続してお
らず、実際の走行路を形成していない帯状対象物は実際
の走行線A1,A2として認識されず、実際の走行路を
形成している走行線A1,A2のみが検出される。その
結果、例えば、道路工事時等において、実際の走行路と
して仮の走行路が使用されており、以前の走行路の走行
線が連続しない状態で残っているような場合に、連続し
ておらず実際の走行路を形成していない走行線から間違
った走行路を画像認識せず、連続する走行線を判別して
正しい走行路を画像認識することができる。
(2) A belt-shaped object which is not continuous at the same interval as a pair of left and right and does not form an actual traveling path is not recognized as actual traveling lines A1 and A2, and forms an actual traveling path. Only the traveling lanes A1 and A2 are detected. As a result, for example, when a temporary traveling path is used as an actual traveling path at the time of road construction and the like, and the traveling line of the previous traveling path remains in a discontinuous state, it may not be continued. In addition, it is possible to recognize a continuous traveling line and recognize a correct traveling image without recognizing an incorrect traveling road from traveling lines that do not form an actual traveling road.

【0042】(3) 確定された走行線の路面画像にお
ける撮像位置を示す走行線データが生成されるので、走
行線データから、走行線A1,A2に対する車両の位置
関係を把握することができる。このため、走行線データ
に基づいて、車両の走行時に走行車線の変更を行おうと
していない状態での走行路の中央からの偏り又は逸脱を
検出して運転者に警告したり、あるいは、同じく走行路
から逸脱しないように操舵輪を自動で操舵制御すること
ができる。
(3) Since the traveling line data indicating the imaging position of the determined traveling line in the road surface image is generated, the positional relationship of the vehicle with respect to the traveling lines A1 and A2 can be grasped from the traveling line data. For this reason, based on the travel line data, when the vehicle is not traveling, it is necessary to detect a deviation or departure from the center of the travel path in a state where the travel lane is not to be changed, and warn the driver, or Steering wheels can be automatically controlled so as not to deviate from the road.

【0043】以下、本発明を具体化した上記実施の形態
以外の実施の形態を別例として列挙する。 ・ 路面画像を撮影する撮像手段は、CCDカメラに限
らず、その他例えばCMOSカメラであってもよい。
Hereinafter, embodiments other than the above-described embodiment embodying the present invention will be listed as other examples. The imaging means for capturing the road surface image is not limited to the CCD camera, but may be, for example, a CMOS camera.

【0044】・ 走行路の左右両側の走行線を含む路面
画像を撮影する左右のカメラを設ける車両の部位は、左
右のドアミラーに限らず、その他例えば、ドア、タイヤ
ルーフ、バンパ等であってもよい。
The parts of the vehicle provided with the left and right cameras for photographing the road surface images including the traveling lines on both the left and right sides of the traveling road are not limited to the left and right door mirrors, but may be doors, tire roofs, bumpers, etc. Good.

【0045】・ 左右に設けたカメラで別個に撮影した
左右一対の路面画像AL,ARに基づいて左右走行線検
出処理を行う代りに、左右両側の走行線を含むように撮
影した1つの路面画像に基づいて左右走行線検出処理を
行うようにしてもよい。
One road surface image photographed so as to include both left and right traveling lines, instead of performing left and right traveling line detection processing based on a pair of left and right road surface images AL and AR separately photographed by cameras provided on the left and right. The left and right traveling line detection processing may be performed based on

【0046】・ 辺縁領域データは、各辺縁データにお
いて横軸Xの同一の位置における濃度変化値と、同一の
位置において所定値以上である濃度変化値の頻度の少な
くとも一方が反映された累積変化値に基づいて、分割領
域の進行軸方向に相対向する両端縁を通過する辺縁が存
在する境界領域を検出することができるものであればよ
い。従って、辺縁領域データは、その分割領域Adの全
ての線領域の辺縁データにおける所定値以上の濃度変化
値の加算値を横軸Xの各位置に対応させたものに限らな
い。その他例えば、各辺縁データにおいて横軸Xに対す
る同一の位置における濃度変化値をそのまま加算して生
成する辺縁領域データであってもよい。あるいは、各辺
縁データにおいて横軸Xに対する同一の位置において所
定値以上である濃度変化値の頻度を横軸Xの各位置に対
応させた辺縁領域データであってもよい。又、各辺縁デ
ータにおいて横軸Xに対する同一の位置における濃度変
化値を反映した頻度を横軸Xの各位置に対応させた辺縁
領域データであってもよい。
The edge area data is a cumulative value in which at least one of the density change value at the same position on the horizontal axis X and the frequency of the density change value at or above the predetermined value at the same position is reflected in each edge data. It is only necessary to detect a boundary area where edges passing through both end edges of the divided area that are opposed to each other in the traveling axis direction exist based on the change value. Therefore, the edge area data is not limited to data in which the added value of the density change value equal to or more than the predetermined value in the edge data of all the line areas of the divided area Ad corresponds to each position on the horizontal axis X. In addition, for example, the edge area data may be generated by directly adding the density change value at the same position with respect to the horizontal axis X in each edge data. Alternatively, the edge data may be edge area data in which the frequency of a density change value that is equal to or greater than a predetermined value at the same position on the horizontal axis X corresponds to each position on the horizontal axis X. Alternatively, the edge area data may be a frequency in which the frequency reflecting the density change value at the same position with respect to the horizontal axis X in each edge data corresponds to each position on the horizontal axis X.

【0047】・ 辺縁データを生成する線領域は、画素
行に限らず、進行方向に複数配列された画素の集合によ
って形成される線領域でもよい。この場合、辺縁データ
は、例えば、横軸Xの各位置にある複数の画素の画素信
号を平均化した値から生成される路面画像データの濃度
変化値を示すデータであってもよい。
The line area for generating the edge data is not limited to the pixel row, and may be a line area formed by a set of pixels arranged in the traveling direction. In this case, the edge data may be, for example, data indicating a density change value of road surface image data generated from a value obtained by averaging pixel signals of a plurality of pixels at each position on the horizontal axis X.

【0048】・ 走行路認識装置は、走行路データに基
づき、車両が走行車線を変更する状態でないときに、走
行路に対する車両の左右いずれかの側の偏り、又は、走
行路からの逸脱を検出し、運転者に警告する走行状態監
視装置と共に走行補助装置を構成するものであってもよ
い。この構成では、走行路を形成する走行線を検出する
ことで車両の運転を間接的に補助することができ、走行
路に車両誘導線や車両検出センサを埋設する必要がな
い。
The traveling path recognition device detects, based on the traveling path data, deviation of the vehicle from the traveling path on either the left or right side or deviation from the traveling path when the vehicle is not in a state of changing lanes. Alternatively, a driving assist device may be configured together with the driving condition monitoring device that warns the driver. In this configuration, the operation of the vehicle can be indirectly assisted by detecting the travel line that forms the travel path, and there is no need to embed a vehicle guidance line or a vehicle detection sensor in the travel path.

【0049】又、走行路認識装置は、走行路データに基
づき、車両が走行車線を変更する状態でないときに、走
行路に対する車両の左右いずれかの側の偏り、又は、走
行路からの逸脱を検出し、運転者に警告する走行状態監
視装置と共に走行補助装置を構成するものでってもよ
い。この構成では、走行路を形成する走行線を検出する
ことで車両の運転を直接補助することができ、走行路に
車両誘導線や車両検出センサを埋設する必要がない。
Further, based on the traveling road data, the traveling road recognition device detects deviation of the vehicle on either side of the traveling road or deviation from the traveling road when the vehicle is not in the state of changing the traveling lane. The traveling assist device may be configured together with the traveling state monitoring device that detects and warns the driver. In this configuration, the driving of the vehicle can be directly assisted by detecting the traveling line that forms the traveling path, and there is no need to embed a vehicle guidance line or a vehicle detection sensor in the traveling path.

【0050】以下、特許請求の範囲に記載した各発明の
外に前述した実施の形態及び各別例から把握される技術
的思想をその効果とともに記載する。 (1) 請求項4に記載の走行路認識装置と、前記走行
路データに基づき、車両が走行車線を変更する状態でな
いときに、前記走行路に対する車両の左右いずれかの側
の偏り、又は、走行路からの逸脱を検出し、運転者に警
告する走行状態監視装置とを備えた走行補助装置。この
ような構成によれば、走行路を形成する走行線を検出す
ることで車両の運転を間接的に補助することができ、走
行路に車両誘導線や車両検出センサを埋設する必要がな
い。
Hereinafter, in addition to the inventions described in the claims, the technical ideas grasped from the above-described embodiments and the respective examples will be described together with their effects. (1) Based on the travel path recognition device according to claim 4 and the travel path data, when the vehicle is not in a state of changing the travel lane, a deviation of the vehicle on the left or right side with respect to the travel path, or A traveling assist device including a traveling state monitoring device that detects a deviation from a traveling road and warns a driver. According to such a configuration, the operation of the vehicle can be indirectly assisted by detecting the travel line forming the travel path, and there is no need to embed a vehicle guidance line or a vehicle detection sensor in the travel path.

【0051】(2) 請求項4に記載の走行路認識装置
と、前記走行路データに基づき、車両が走行車線を変更
する状態でないときに、前記走行路に対する車両の左右
いずれかの側の偏り、又は、走行路からの逸脱を検出
し、操舵輪を操舵制御して車両の走行路の中央に復帰さ
せる走行補助装置とを備えた運転補助装置。このような
構成によれば、走行路を形成する走行線を検出すること
で車両の運転を直接補助することができ、走行路に車両
誘導線や車両検出センサを埋設する必要がない。
(2) On the basis of the travel path recognition device according to claim 4 and the travel path data, when the vehicle is not in a state of changing the travel lane, the deviation of the vehicle on the left or right side with respect to the travel path. Or a driving assistance device that detects deviation from the traveling road, controls the steering of the steered wheels, and returns the steering wheel to the center of the traveling road of the vehicle. According to such a configuration, the driving of the vehicle can be directly assisted by detecting the travel line that forms the travel path, and there is no need to embed a vehicle guidance line or a vehicle detection sensor in the travel path.

【0052】[0052]

【発明の効果】以上詳述したように、請求項1〜請求項
4に記載の発明によれば、より短い時間で、しかも、高
い確度で、走行路を形成する中央分離線、路肩線等の走
行線を判別して走行路を画像認識することができる。
As described in detail above, according to the first to fourth aspects of the present invention, a center separation line, a road shoulder line, etc., which form a traveling path in a shorter time and with higher accuracy. And the travel road can be recognized by image recognition.

【0053】請求項2〜請求項4に記載の発明によれ
ば、連続しておらず実際の走行路を形成していない走行
線が走行路面にあっても、連続する走行線を判別して正
しい走行路を画像認識することができる。
According to the invention described in any one of claims 2 to 4, even if a traveling line that is not continuous and does not form an actual traveling path is on the traveling road surface, the continuous traveling line is determined. It is possible to recognize an image of a correct traveling road.

【0054】請求項3又は請求項4に記載の発明によれ
ば、走行路に対する車両の位置関係を示す走行データが
出力される。
According to the third or fourth aspect of the present invention, traveling data indicating the positional relationship of the vehicle with respect to the traveling road is output.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 走行路認識処理のフローチャート。FIG. 1 is a flowchart of a traveling road recognition process.

【図2】 走行路認識処理のフローチャート。FIG. 2 is a flowchart of a traveling road recognition process.

【図3】 走行路認識装置の模式ブロック図。FIG. 3 is a schematic block diagram of a travel path recognition device.

【図4】 走行路と各CCDカメラの撮影領域を示す模
式図。
FIG. 4 is a schematic diagram showing a traveling path and a photographing area of each CCD camera.

【図5】 左側のCCDカメラによる路面画像を示す模
式図。
FIG. 5 is a schematic diagram showing a road surface image obtained by a left CCD camera.

【図6】 右側のCCDカメラによる路面画像を示す模
式図。
FIG. 6 is a schematic diagram showing a road surface image obtained by a right CCD camera.

【図7】 (a)は分割領域の模式図、(b)は線領域
の1つの辺縁データのグラフ、(c)は分割領域の1つ
の辺縁領域データのグラフ。
7A is a schematic diagram of a divided area, FIG. 7B is a graph of one edge data of a line area, and FIG. 7C is a graph of one edge area data of a divided area.

【符号の説明】[Explanation of symbols]

11a,11b…撮像手段としてのCCDカメラ、12
…画像処理手段としての画像処理ユニット、AL,AR
…路面画像、Ad1〜Ad9…分割領域、C…車両、L
A…線領域、X…横軸、Y…進行軸、ε1,ε2,ε3
…境界領域。
11a, 11b... CCD camera as imaging means, 12
... Image processing unit as image processing means, AL, AR
... Road surface images, Ad1 to Ad9 ... Divided areas, C: Vehicles, L
A: line region, X: horizontal axis, Y: traveling axis, ε1, ε2, ε3
... Boundary area.

フロントページの続き Fターム(参考) 5B057 AA16 BA02 CA02 CA08 CA12 CA16 CC02 DA07 DB02 DB05 DB09 DC16 DC22 5H180 AA01 CC04 FF27 LL06 5L096 AA03 AA06 BA04 CA05 FA06 FA14 FA69 GA07 Continued on front page F term (reference) 5B057 AA16 BA02 CA02 CA08 CA12 CA16 CC02 DA07 DB02 DB05 DB09 DC16 DC22 5H180 AA01 CC04 FF27 LL06 5L096 AA03 AA06 BA04 CA05 FA06 FA14 FA69 GA07

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 車両に対して所定の位置関係で撮像さ
れ、車両の進行方向に設定された進行軸と、前記進行方
向に対し直交する方向に設定された横軸との座標で表現
されるとともに、車両が走行する走行路を形成する左右
両側の走行線の少なくとも一方を含んで順次撮影される
路面画像から、前記進行軸の各位置から前記横軸方向に
延びる線領域を形成する各画像単位の、該横軸方向にお
ける濃度変化値を該横軸の各位置に対応させた辺縁デー
タを生成する辺縁検出処理と、 前記進行軸方向において所定の分割幅ずつに区分された
複数の分割領域に分割する画像分割処理と、 前記各分割領域毎に、該分割領域の前記各線領域に対し
て生成された前記辺縁データから、該各辺縁データの該
横軸の同一の位置における濃度変化値の加算値、及び、
該各辺縁データの該横軸の同一の位置において所定値以
上である濃度変化値の頻度の少なくとも一方が反映され
た累積変化値を前記横軸の各位置に対応させた辺縁領域
データを生成する辺縁領域検出処理と、 前記各分割領域毎に、その分割領域に対して生成された
前記辺縁領域データにおいて、前記累積変化値の正負が
同一であってかつ所定の大きさ以上である前記横軸に対
する位置範囲を、該分割領域の前記進行軸方向に相対向
する両端縁を通過する辺縁が存在する境界領域として検
出する境界領域検出処理と、 前記各境界領域が検出された前記分割領域の前記進行軸
に対する位置と、該各分割領域において検出された該境
界領域の前記横軸に対する位置と、該境界領域における
前記累積変化値の値の正負と、その分割領域の前記分割
幅とから、該各境界領域に辺縁が存在する認識対象物に
よって構成され、該各境界領域が検出された各分割領域
にて形成される前記路面画像の部分領域に少なくとも連
続する位置関係で存在する帯状表示部を検出する帯状対
象物検出処理と、 車両の進行に伴って順次得られた2つの前記路面画像に
おいて、前の時点で得られた第1の路面画像から検出さ
れた第1の帯状対象物と、後の時点で得られた第2の路
面画像から検出された第2の帯状対象物とが、両路面画
像間で少なくとも連続する位置関係で存在する否かを判
断し、連続する位置関係にある前記両帯状対象物を同一
の走行線であるとして確定する走行線確定処理とを行う
車両における走行路認識方法。
1. An image is captured in a predetermined positional relationship with respect to a vehicle, and is represented by coordinates of a traveling axis set in a traveling direction of the vehicle and a horizontal axis set in a direction orthogonal to the traveling direction. And images forming line regions extending in the horizontal axis direction from respective positions of the traveling axis from road surface images sequentially captured including at least one of the left and right traveling lines forming a traveling path on which the vehicle travels. An edge detection process of generating edge data in which a density change value in the unit of the horizontal axis corresponds to each position of the horizontal axis; and a plurality of sections divided by a predetermined division width in the traveling axis direction. Image division processing for dividing into divided areas, For each of the divided areas, from the margin data generated for each of the line areas of the divided area, at the same position on the horizontal axis of each of the margin data Addition value of density change value, and
The marginal area data in which at least one of the frequencies of the density change values that are equal to or more than the predetermined value is reflected at the same position on the horizontal axis of each of the marginal data, corresponding to each position on the horizontal axis. Edge region detection processing to be generated, and for each of the divided regions, in the edge region data generated for the divided region, the sign of the cumulative change value is the same and is equal to or greater than a predetermined size. Boundary region detection processing for detecting a position range with respect to the horizontal axis as a boundary region in which edges passing through both end edges of the divided region opposing each other in the traveling axis direction, and each of the boundary regions is detected. The position of the divided region with respect to the traveling axis, the position of the boundary region detected in each of the divided regions with respect to the horizontal axis, the sign of the cumulative change value in the boundary region, and the division of the divided region width Therefore, each boundary area is constituted by a recognition target having an edge, and each boundary area exists in a positional relationship at least continuous with a partial area of the road surface image formed by each detected divided area. A band-shaped object detection process for detecting a band-shaped display unit, and a first band-shaped object detected from a first road-surface image obtained at a previous time point in the two road-surface images sequentially obtained as the vehicle travels. It is determined whether or not the target object and the second belt-shaped target object detected from the second road surface image obtained at a later point of time are present in at least a continuous positional relationship between the two road surface images, and are determined to be continuous. A method for recognizing a traveling path in a vehicle, comprising: performing a traveling line determination process for determining the two belt-shaped objects in a positional relationship as being the same traveling line.
【請求項2】 前記路面画像は、前記走行路を形成する
左右両側の走行線を含む路面画像であって、 前記路面画像に対して、前記帯状対象物検出処理までの
各処理によって検出された複数の前記帯状対象物の前記
横軸に対する位置と、実際の走行路を形成する左右両側
の走行線間の間隔とに基づいて、前記各帯状対象物の内
から両者間の間隔が実際の走行路を形成する左右両側の
走行線の間隔と同等である一対の帯状対象物を検出する
左右走行線検出処理を行うとともに、 前記走行線認識処理は、検出された左右の前記帯状対象
物について、それぞれ前記走行線を確定する請求項1に
記載の車両における走行路認識方法。
2. The road surface image is a road surface image including left and right traveling lines forming the traveling road, and is detected from the road surface image by each processing up to the band-shaped object detection processing. Based on the positions of the plurality of band-shaped objects with respect to the horizontal axis and the distance between the left and right traveling lines forming the actual traveling path, the distance between the two of the band-shaped objects is determined as the actual travel. Along with performing left and right traveling line detection processing for detecting a pair of band-shaped objects that are equivalent to the interval between the left and right traveling lines forming the road, the traveling line recognition processing is performed on the detected left and right band-shaped objects. The method according to claim 1, wherein the travel line is determined.
【請求項3】 前記走行線確定処理で確定した前記走行
線について前記路面画像上における撮像状態を示す走行
線データを、前記第1又は第2の路面画像から生成する
走行線データ生成処理を行う請求項1又は請求項2に記
載の車両における走行路認識方法。
3. A travel line data generation process for generating travel line data indicating an imaging state on the road surface image of the travel line determined in the travel line determination process from the first or second road surface image. 3. The method for recognizing a traveling path in a vehicle according to claim 1 or claim 2.
【請求項4】 車両の進行方向に設定された進行軸と、
該進行方向に直交する方向に設定された横軸との座標で
表現される、車両が走行する走行路の走行線を含む該走
行路の路面画像を、車両に対して所定の姿勢で順次撮像
する撮像手段と、 請求項1〜請求項3のいずれか一項に記載の走行路認識
方法によって、前記各路面画像の画像処理を行う画像処
理手段とを備えた車両における走行路認識装置。
4. A traveling axis set in a traveling direction of the vehicle;
A road surface image of the traveling road, including a traveling line of the traveling road on which the vehicle travels, represented by coordinates with a horizontal axis set in a direction orthogonal to the traveling direction, is sequentially captured in a predetermined posture with respect to the vehicle. An apparatus for recognizing a traveling road in a vehicle, comprising: an imaging unit that performs image processing; and an image processing unit that performs image processing on each of the road surface images by the traveling road recognition method according to any one of claims 1 to 3.
JP19354899A 1999-07-07 1999-07-07 Traveling path recognition method and traveling path recognition apparatus in vehicle Expired - Fee Related JP4283383B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19354899A JP4283383B2 (en) 1999-07-07 1999-07-07 Traveling path recognition method and traveling path recognition apparatus in vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19354899A JP4283383B2 (en) 1999-07-07 1999-07-07 Traveling path recognition method and traveling path recognition apparatus in vehicle

Publications (2)

Publication Number Publication Date
JP2001022918A true JP2001022918A (en) 2001-01-26
JP4283383B2 JP4283383B2 (en) 2009-06-24

Family

ID=16309903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19354899A Expired - Fee Related JP4283383B2 (en) 1999-07-07 1999-07-07 Traveling path recognition method and traveling path recognition apparatus in vehicle

Country Status (1)

Country Link
JP (1) JP4283383B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114926805A (en) * 2021-02-12 2022-08-19 本田技研工业株式会社 Dividing line recognition device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114926805A (en) * 2021-02-12 2022-08-19 本田技研工业株式会社 Dividing line recognition device

Also Published As

Publication number Publication date
JP4283383B2 (en) 2009-06-24

Similar Documents

Publication Publication Date Title
JP3951465B2 (en) Parking assistance device
US6812831B2 (en) Vehicle surroundings monitoring apparatus
EP1221643B1 (en) Apparatus and method for detecting traffic lane mark for automotive vehicle
JP4962581B2 (en) Lane marking detector
JP5421072B2 (en) Approaching object detection system
JP4607193B2 (en) Vehicle and lane mark detection device
JP4032727B2 (en) Lane boundary detection device
KR19990031307A (en) Image processing apparatus and method of driverless vehicle
JP2002314989A (en) Peripheral monitor for vehicle
JP5355209B2 (en) Navigation device, determination method and determination program for traveling lane of own vehicle
JP3912869B2 (en) Traffic flow measuring device
JPH0827188B2 (en) Inter-vehicle distance detector
JP3807651B2 (en) White line recognition device
JP2635246B2 (en) Inter-vehicle distance detection device for tracking the preceding vehicle
JP3911983B2 (en) Rear monitoring device
JP4323010B2 (en) Traveling path recognition method and traveling path recognition apparatus in vehicle
JP2003308599A (en) Traveling route environment detector
JP3153845B2 (en) Road surface monitoring device and road surface monitoring method
JP3729005B2 (en) Vehicle rear monitoring device
JP2001022918A (en) Method and device for recognizing traveling course of vehicle
JPH06225308A (en) Running course detector
JP3732108B2 (en) Image processing apparatus and image processing method for lane recognition
JP3373363B2 (en) Obstacle detection device for vehicles
JP2003322522A (en) Inter-vehicle distance detection device and detection method
JP2003276542A (en) Rearward monitoring device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090310

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090319

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees