JP4575031B2 - In-vehicle road marking detection device - Google Patents

In-vehicle road marking detection device Download PDF

Info

Publication number
JP4575031B2
JP4575031B2 JP2004161109A JP2004161109A JP4575031B2 JP 4575031 B2 JP4575031 B2 JP 4575031B2 JP 2004161109 A JP2004161109 A JP 2004161109A JP 2004161109 A JP2004161109 A JP 2004161109A JP 4575031 B2 JP4575031 B2 JP 4575031B2
Authority
JP
Japan
Prior art keywords
image
line
road marking
white line
marking detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004161109A
Other languages
Japanese (ja)
Other versions
JP2005339468A (en
Inventor
昇吾 米山
景泰 宮原
祐一 岡野
武典 川又
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2004161109A priority Critical patent/JP4575031B2/en
Publication of JP2005339468A publication Critical patent/JP2005339468A/en
Application granted granted Critical
Publication of JP4575031B2 publication Critical patent/JP4575031B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/421Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、走行車線を区分する白線や横断歩道線などの路面上の標示を検出する車載用路面標示検出装置に関する。   The present invention relates to an on-vehicle road marking detection device that detects markings on a road surface such as a white line or a pedestrian crossing line that divides a traveling lane.

車載カメラで撮影された画像から白線及び横断歩道を検出する従来の路面標示検出装置として、例えば特許文献1(特開2003−252148号公報)に示されるものがある。この路面標示検出装置では、車載カメラで撮影された画像データとデータベース中のパターンマッチング用参照データと比較し、車載カメラで撮影された画像のパターン認識を行う。このとき、パターンマッチング用の参照データとして、白線及び横断歩道のパターンデータをデータベース上に格納することにより、白線及び横断歩道の検出が可能となる。   As a conventional road marking detection device that detects a white line and a pedestrian crossing from an image taken by an in-vehicle camera, for example, there is one disclosed in Patent Document 1 (Japanese Patent Laid-Open No. 2003-252148). In this road marking detection device, image data captured by a vehicle-mounted camera is compared with pattern matching reference data in a database, and pattern recognition of the image captured by the vehicle-mounted camera is performed. At this time, white line and pedestrian crossing pattern data are stored in the database as reference data for pattern matching, thereby enabling detection of white lines and pedestrian crossings.

特開2003−252148号公報JP 2003-252148 A

従来の路面標示検出装置は以上のように構成されており、白線及び横断歩道の検出を入力画像と予め用意されたデータベースとの比較により行うため、データベース中には、車載カメラで撮影された多様な画像に対処するため多くの参照データが必要であり、検出には、それら全ての参照データと特徴(輝度値など)の比較・照合を行わなければならず、処理時間が膨大にかかるという課題があった。   Conventional road marking detection devices are configured as described above, and white lines and pedestrian crossings are detected by comparing input images with a database prepared in advance. A lot of reference data is necessary to deal with a complex image, and all the reference data and features (luminance values, etc.) must be compared and verified for detection, which takes a lot of processing time. was there.

本発明は、上記のような課題を解決するためになされたもので、構造の異なる白線及び横断歩道線の検出に、線分特徴を抽出し、前記線分特徴の構造を基に白線及び横断歩道線の検出を行うため、データベースが不要で、高速に検出が可能な路面標示検出装置の実現を目的とする。   The present invention has been made to solve the above-described problems. For detecting white lines and pedestrian crossing lines having different structures, line segment features are extracted, and white lines and crossings are extracted based on the structure of the line segment features. The purpose of the present invention is to realize a road marking detection apparatus that does not require a database and can detect at high speed because it detects a sidewalk line.

本発明の車載用路面標示検出装置は、走行する自車両前方の画像データを入力する画像入力手段と,前記画像入力手段によって取り込まれた画像から、エッジ点を抽出するエッジ抽出手段と、前記画像入力手段の画像を複数の部分画像に分割する画像分割手段と、各部分画像内に存在するエッジ点を通る線分を抽出する線分抽出手段と、前記線分抽出手段により得られた線分の傾きと端点位置を特徴として抽出する特徴抽出手段と、前記特徴抽出手段によって得られた線分の端点位置が水平方向に所定の間隔で存在し、かつそれら線分が一つの消失点を形成した場合、前方に横断歩道が存在すると判断する路面標示検出手段を備える。

An in-vehicle road marking detection apparatus according to the present invention includes an image input unit that inputs image data in front of a traveling vehicle, an edge extraction unit that extracts an edge point from an image captured by the image input unit, and the image Image dividing means for dividing the image of the input means into a plurality of partial images, line segment extracting means for extracting line segments passing through edge points existing in each partial image, and line segments obtained by the line segment extracting means of a feature extraction means for the slope and end positions extracted as feature present in a predetermined interval endpoint positions in the horizontal direction of the obtained line segments by the feature extraction means, and they line segment one vanishing point When formed, road marking detection means for determining that a pedestrian crossing exists ahead is provided.

本発明は、白線及び横断歩道線を構成する白線候補の特徴を抽出する特徴抽出手段を設け、前記特徴抽出手段で抽出された特徴を基に白線と横断歩道線の構造の相違に着目して白線と横断歩道線の路面標示を検出するようにしたので、データベースが不要でかつ高速に検出を行うことができる。   The present invention provides a feature extraction means for extracting features of white line candidates constituting white lines and pedestrian crossing lines, and pays attention to the difference in structure between the white lines and the pedestrian crossing lines based on the features extracted by the feature extraction means. Since the road markings of the white line and the pedestrian crossing line are detected, a database is unnecessary and the detection can be performed at high speed.

実施の形態1.
以下、本発明の路面標示検出装置の実施の形態について図面を参照して説明する。
図1は、本発明の実施の形態1を示す構成図であり、本実施の形態1は、走行する自車両前方の画像データを入力する車載カメラ等からなる画像入力手段1と,前記画像入力手段1によって取り込まれた画像から、エッジ点を抽出するエッジ抽出手段2と、前記画像入力手段の画像を複数の部分画像(ブロック)に分割する画像分割手段3と、各ブロック内に存在するエッジ点を多く通る線分を複数検出する線分抽出手段4と、線分の傾き及び端点位置の差が所定範囲内にある線分同士を一つの組とし、組となった線分の傾き及び端点位置を特徴として抽出する特徴抽出手段5と、前記特徴抽出手段によって得られた特徴に基づき路面標示の検出を行う路面標示検出手段6と、前記各手段を制御する制御手段7から構成される。
Embodiment 1.
Embodiments of a road marking detection apparatus according to the present invention will be described below with reference to the drawings.
FIG. 1 is a configuration diagram showing a first embodiment of the present invention. The first embodiment is an image input means 1 composed of an in-vehicle camera or the like for inputting image data in front of the traveling vehicle, and the image input. Edge extracting means 2 for extracting edge points from the image captured by means 1, image dividing means 3 for dividing the image of the image input means into a plurality of partial images (blocks), and edges existing in each block Line segment extracting means 4 for detecting a plurality of line segments passing through many points, and the line segments having a difference between the line segment inclination and the end point position within a predetermined range as one set, It comprises a feature extraction means 5 for extracting the end point position as a feature, a road marking detection means 6 for detecting road marking based on the feature obtained by the feature extraction means, and a control means 7 for controlling the respective means. .

図2は、本実施の形態1の処理の流れを示すフローチャートであり、本図により動作を説明する。   FIG. 2 is a flowchart showing the flow of processing according to the first embodiment, and the operation will be described with reference to FIG.

まず、白線検出処理について説明する。
図2のステップS11において、制御手段7は、画像入力手段1に指示し、画像情報を入手する。ここでは、図3の画像を入手したとする。
First, the white line detection process will be described.
In step S11 of FIG. 2, the control means 7 instructs the image input means 1 to obtain image information. Here, it is assumed that the image of FIG. 3 is obtained.

次に、ステップS12に進み、制御手段7は、画像入力手段1で得られた入力画像をエッジ抽出手段2に送る。エッジ抽出手段2は、得られた画像中のエッジ抽出を行う。エッジ抽出処理は、一般的な手法であるSOBELオペレータを用いることで行うことができる。   In step S12, the control unit 7 sends the input image obtained by the image input unit 1 to the edge extraction unit 2. The edge extraction means 2 performs edge extraction from the obtained image. The edge extraction process can be performed by using a SOBEL operator which is a general method.

図4は、前記エッジ抽出手段2が図3の入力画像から生成したエッジ画像例である。エッジ抽出処理では、白線の輪郭線以外にも、背景に含まれる陰影の変化部分や縁石などが、エッジとして抽出される。   FIG. 4 is an example of an edge image generated by the edge extraction unit 2 from the input image of FIG. In the edge extraction process, in addition to the outline of the white line, a shadow change part or a curb included in the background is extracted as an edge.

次に、ステップS13に進み、制御手段7は、エッジ抽出手段2で得られたエッジ画像を、画像分割手段3に送る。画像分割手段3は、入力したエッジ画像を部分画像に分割する。   In step S13, the control unit 7 sends the edge image obtained by the edge extracting unit 2 to the image dividing unit 3. The image dividing unit 3 divides the input edge image into partial images.

図5は、画像分割手段3により、図4のエッジ画像を部分画像に分割した例であり、垂直方向に2分割、水平方向に4分割され、合計8個の部分画像に分割されている。なお、白線1本はこの水平方向に分割された線分によって近似される。   FIG. 5 shows an example in which the edge image of FIG. 4 is divided into partial images by the image dividing means 3, which is divided into two parts in the vertical direction and four parts in the horizontal direction, and is divided into a total of eight partial images. One white line is approximated by a line segment divided in the horizontal direction.

次に、ステップS14に進み、制御手段7は、図6(a)(b)に示す垂直方向に分割した全ての部分画像に対し、特徴抽出手段5による白線候補の特徴を抽出する処理を行ったか否かを判別する。全ての部分画像に対し、特徴抽出処理を行っていれば、ステップS18に進み。行っていなければ、ステップS15に進む。ここでは、特徴抽出処理を行っていないため、ステップS15に進む。
まず、図6(a)に示す部分画像を用いて、特徴抽出手段5による白線候補特徴を抽出する処理について説明する。
Next, proceeding to step S14, the control means 7 performs a process of extracting features of white line candidates by the feature extraction means 5 for all the partial images divided in the vertical direction shown in FIGS. 6 (a) and 6 (b). It is determined whether or not. If feature extraction processing has been performed on all partial images, the process proceeds to step S18. If not, the process proceeds to step S15. Here, since the feature extraction process is not performed, the process proceeds to step S15.
First, a process of extracting white line candidate features by the feature extraction unit 5 using the partial image shown in FIG.

ステップS15において、制御手段7は、部分画像(ブロック1〜4)を、線分抽出手段4に送り、線分抽出手段4は、線分を抽出する。線分抽出処理では、ブロック内に存在する任意のエッジ点2つを選び、それを結ぶ線分上に位置する他のエッジ点数をカウントする。これを全ての組み合わせで行い、カウント数の大きな上位数個の線分を抽出する。   In step S15, the control means 7 sends the partial images (blocks 1 to 4) to the line segment extraction means 4, and the line segment extraction means 4 extracts the line segments. In the line segment extraction process, two arbitrary edge points existing in the block are selected, and the number of other edge points located on the line segment connecting them is counted. This is performed for all combinations, and the top few line segments with a large count are extracted.

図7は、線分抽出手段4が、図6(a)の部分画像から線分を抽出した例である。図7において、k1〜k13は各ブロック内の線分を意味し、それぞれの線分は線分番号に対応する端点(s1〜s13,e1〜e13)を有する。   FIG. 7 shows an example in which the line segment extraction unit 4 extracts line segments from the partial image of FIG. In FIG. 7, k1 to k13 mean line segments in each block, and each line segment has end points (s1 to s13, e1 to e13) corresponding to the line segment numbers.

次に、ステップS16に進み、制御手段7は、特徴抽出手段5に対し、線分抽出手段4で得られた線分から、白線候補を生成する指示を行う。白線候補の生成は、線分抽出手段4により得られた線分の傾き及び端点の位置座標に基づいて、線分をグループ化することにより行われる。具体的には、線分kの傾きをak、端点をsk,ekとしたとき、式1、2を満たすものを同一の直線から構成される線分と判断してグループ化を行い、白線候補とする。 Next, in step S16, the control means 7 instructs the feature extraction means 5 to generate white line candidates from the line segments obtained by the line segment extraction means 4. The generation of the white line candidates is performed by grouping the line segments based on the slopes of the line segments obtained by the line segment extracting unit 4 and the position coordinates of the end points. Specifically, when the inclination of the line segment k and a k, the end point s k, and e k, performs grouping is determined that the line segment constituted those satisfying the formula 1, 2 from the same straight line , White line candidates.

Figure 0004575031
Figure 0004575031

なお、隣接線分以外とのグループ化を判別する時は、比較対象となる端点位置での座標値を線分の傾きから算出する。   Note that when determining grouping from other than the adjacent line segment, the coordinate value at the end point position to be compared is calculated from the slope of the line segment.

図8は、図7から、白線候補を生成した画像例である。図8において、L1〜L7は、白線候補を示しており、白線が破線であっても、不連続部に影響されることなく、離れた線分を一つの白線候補として認識することができる。   FIG. 8 is an image example in which white line candidates are generated from FIG. In FIG. 8, L1 to L7 indicate white line candidates, and even if the white line is a broken line, a distant line segment can be recognized as one white line candidate without being affected by the discontinuous portion.

次に、ステップS17に進み、制御手段7は、特徴抽出手段5に処理を指示し、特徴抽出手段5は、ステップS16で得られた白線候補の傾き及び、それら白線候補のカメラ(画像入力手段1)側に近い端点位置(画像下部側)を特徴として抽出する。   In step S17, the control unit 7 instructs the feature extraction unit 5 to perform processing. The feature extraction unit 5 determines the inclination of the white line candidates obtained in step S16 and the cameras of the white line candidates (image input unit). 1) The end point position close to the side (the lower side of the image) is extracted as a feature.

図9は、図8の白線候補L1〜L7の特徴となる白線候補の傾きp1〜p7、及び、カメラ(画像入力手段1)側に近い端点位置t1〜t7を示した例である。   FIG. 9 is an example showing inclinations p1 to p7 of white line candidates, which are features of the white line candidates L1 to L7 in FIG. 8, and end point positions t1 to t7 close to the camera (image input means 1) side.

次に、ステップS14に戻り、ステップS15からステップS17までの処理を、図6(b)に示す部分画像に対して行う。図10に、図6(b)から、白線候補の特徴となる白線候補の傾きp8〜p11、及びカメラ(画像入力手段1)側に近い端点位置t8〜t11を抽出した例を示す。以上により、垂直方向に分割した全ての部分画像に対し、白線候補の特徴を抽出する処理を行ったため、次に、ステップS18に進む。   Next, returning to step S14, the processing from step S15 to step S17 is performed on the partial image shown in FIG. FIG. 10 shows an example in which the white line candidate inclinations p8 to p11 and the end point positions t8 to t11 close to the camera (image input means 1) are extracted from FIG. 6B. As described above, since the process of extracting white line candidate features has been performed on all the partial images divided in the vertical direction, the process proceeds to step S18.

ステップS18において、制御手段7は、特徴抽出手段5で得られた特徴を、路面標示検出手段6に送り、路面標示検出手段6は、白線及び横断歩道の検出を行う。   In step S18, the control means 7 sends the features obtained by the feature extraction means 5 to the road marking detection means 6, and the road marking detection means 6 detects white lines and pedestrian crossings.

図11は、路面標示検出手段6の白線及び横断歩道検出のフローチャートであり、本図を用いてその動作を説明する。   FIG. 11 is a flowchart of white line and pedestrian crossing detection by the road marking detection means 6, and its operation will be described with reference to FIG.

まず、ステップS601において、制御手段7は、垂直方向に分割した全ての部分画像に対し、白線を検出する処理を行ったか否かを判別する。全ての部分画像に対し、白線検出処理を行っていれば、ステップS603に進み。行っていなければ、ステップS602に進む。ここでは、全ての部分画像に白線検出処理を行っていないため、ステップS602に進む。
まず、図9に示す白線候補の特徴を用いて、白線を検出する処理について説明する。
First, in step S601, the control means 7 determines whether or not processing for detecting a white line has been performed on all partial images divided in the vertical direction. If white line detection processing is performed for all partial images, the process proceeds to step S603. If not, the process proceeds to step S602. Here, since the white line detection process is not performed on all the partial images, the process proceeds to step S602.
First, processing for detecting a white line using the characteristics of the white line candidate shown in FIG. 9 will be described.

ステップS602では、制御手段7は、路面標示検出手段6の白線検出部に処理を指示し、白線検出部は、白線の検出を行う。白線検出部では、以下に示すような条件を設定し、白線の検出を行う。   In step S602, the control unit 7 instructs the white line detection unit of the road marking detection unit 6 to perform processing, and the white line detection unit detects a white line. The white line detection unit sets the following conditions and detects a white line.

白線を検出するための条件
(条件1)
特徴抽出手段5によって得られた白線候補のカメラ(画像入力手段1)側に近い端点tiの座標を(xi,yi)としたとき、tiが、より画像中央に位置するものを白線として選択する。例えば、式3に示す評価関数を用いることで行うことができる。
Conditions for detecting white lines (Condition 1)
When the coordinates of the end point t i close to the camera (image input unit 1) side of the white line candidate obtained by the feature extraction unit 5 is (x i , y i ), t i is located closer to the center of the image Select as white line. For example, it can be performed by using the evaluation function shown in Expression 3.

Figure 0004575031
Figure 0004575031

(条件2)
入力画像データは、なめらかに変化することから、前回の白線検出によって得られた白線の端点位置と今回の白線候補の端点位置は、ほぼ等しくなる。具体的に、現在の時刻をmとし、今回の白線候補の端点座標を(xi(m),yi(m))、前回の検出結果の端点座標を(xi(m-1),yi(m-1))としたとき、式4満たすものを白線として選択する。
(Condition 2)
Since the input image data changes smoothly, the end point position of the white line obtained by the previous white line detection and the end point position of the current white line candidate are substantially equal. Specifically, the current time is m, the endpoint coordinates of the current white line candidate are (x i (m), y i (m)), and the endpoint coordinates of the previous detection result are (x i (m-1), When y i (m−1)), a line that satisfies Equation 4 is selected as a white line.

Figure 0004575031
Figure 0004575031

(条件3)
白線の幅に関する閾値を設け、白線候補間の端点座標距離が、所定の閾値を満たすものを白線として選択する。具体的に、式5満たすものを白線として選択する。
(Condition 3)
A threshold relating to the width of the white line is provided, and a white line whose endpoint coordinate distance between white line candidates satisfies a predetermined threshold is selected. Specifically, the one that satisfies Equation 5 is selected as a white line.

Figure 0004575031
Figure 0004575031

図12は、上記条件を用いて、図9の白線候補の特徴から、白線を検出した例を示す。また、図13は、上記同様の処理で、図10の白線候補の特徴から、白線を検出した例を示す。
以上により、垂直方向に分割した全ての部分画像に対し、白線検出処理を行ったため、次に、ステップS603に進む。
なお、本実施の形態では、垂直方向の2分割した部分画像を用いたが、これは白線検出部において白線を検出する際、白線候補の組み合わせ数を抑制するために行ったものであり、垂直方向に画像を分割しない場合でも白線検出を行うことができる。
FIG. 12 shows an example in which a white line is detected from the features of the white line candidate in FIG. 9 using the above conditions. FIG. 13 shows an example in which a white line is detected from the characteristics of the white line candidate in FIG.
As described above, since the white line detection process has been performed on all the partial images divided in the vertical direction, the process proceeds to step S603.
In this embodiment, the partial image divided into two in the vertical direction is used. This is performed in order to suppress the number of combinations of white line candidates when the white line is detected by the white line detection unit. Even when the image is not divided in the direction, white line detection can be performed.

ステップS603では、制御手段7は、路面標示検出手段6に対し、図14に示すように、特徴抽出手段5で得られた白線候補(L1〜L11)と、あらかじめ設定した基準線との交点(A、B)を求めるよう指示する。次いで路面標示検出手段6は各交点間の距離が一定の比を満たすか否かを判別し、一定の比を満たせばステップS604に進み、満たさなければ、当該検出処理を終了する。ここでは、横断歩道が画像中に含まれておらず、交点間の距離が他の交点間の距離と一定の比を満たさず当該検出処理を終了し、白線を検出と判断する。   In step S603, the control unit 7 causes the road marking detection unit 6 to intersect the white line candidates (L1 to L11) obtained by the feature extraction unit 5 with a preset reference line as shown in FIG. A and B) are requested. Next, the road marking detection means 6 determines whether or not the distance between the intersections satisfies a certain ratio. If the certain ratio is satisfied, the process proceeds to step S604, and if not, the detection process is terminated. Here, the pedestrian crossing is not included in the image, the distance between the intersections does not satisfy a certain ratio with the distance between the other intersections, the detection process is terminated, and it is determined that the white line is detected.

次に、横断歩道検出の処理について説明する。
図2のステップS11において、制御手段7は、画像入力手段1に指示し、画像を入手する。ここでは、図15に示す画像中に横断歩道が存在した画像を入手したとする。画像入力手段1により、入手した画像は、白線検出処理と同様にステップS12からステップS17の処理を行い白線候補の特徴が抽出される。
Next, pedestrian crossing detection processing will be described.
In step S11 of FIG. 2, the control means 7 instructs the image input means 1 to obtain an image. Here, it is assumed that an image having a pedestrian crossing in the image shown in FIG. 15 is obtained. The acquired image is subjected to the processing from step S12 to step S17 in the same manner as the white line detection processing by the image input means 1, and the characteristics of the white line candidate are extracted.

図16は、図15から白線候補の特徴を抽出した例であり、特徴抽出手段5により、図中L12〜L21に示される白線候補の傾き、及び、●印で示されるカメラ(画像入力手段1)側に近い端点t12〜t21が特徴として抽出される。   FIG. 16 shows an example in which the features of white line candidates are extracted from FIG. 15. The feature extraction unit 5 uses the inclination of the white line candidates indicated by L12 to L21 in the figure and the camera (image input unit 1) indicated by the mark ●. ) The end points t12 to t21 close to the side are extracted as features.

次に、ステップS18に進み、制御手段7は、路面標示検出手段6に処理を指示し、路面標示検出手段6は、白線及び横断歩道の検出を行う。この検出処理を図11により説明する。ここで、ステップS602における路面標示検出手段6における白線検出部の処理は、前述の白線検出処理において説明した処理と同様なため説明を省略する。   Next, it progresses to step S18, and the control means 7 instruct | indicates a process to the road marking detection means 6, and the road marking detection means 6 detects a white line and a pedestrian crossing. This detection process will be described with reference to FIG. Here, the processing of the white line detection unit in the road marking detection unit 6 in step S602 is the same as the processing described in the white line detection processing described above, and thus the description thereof is omitted.

次に、ステップS603に進む、制御手段7は、図17に示すように、特徴抽出手段5で得られた白線候補(L12〜L21)と、あらかじめ設定した基準線との交点(A〜H)を求めるよう路面標示検出手段6に指示する。次いで路面標示検出手段6は各交点間の距離が一定の比を満たすか否かを判別し、一定の比を満たせばステップS604に進み、満たさなければ、当該検出処理を終了する。ここでは、横断歩道が画像中に含まれおり、交点間の距離が一定の比を満たすため、ステップS604に進む。   Next, the control means 7 proceeds to step S603, as shown in FIG. 17, the intersection (A to H) between the white line candidates (L12 to L21) obtained by the feature extraction means 5 and the preset reference line. Is instructed to the road marking detection means 6. Next, the road marking detection means 6 determines whether or not the distance between the intersections satisfies a certain ratio. If the certain ratio is satisfied, the process proceeds to step S604, and if not, the detection process is terminated. Here, since the pedestrian crossing is included in the image and the distance between the intersections satisfies a certain ratio, the process proceeds to step S604.

次に、ステップS604では、制御手段7は、ステップS603で得られた一定の比を満たす白線候補同士の交点を算出するよう路面標示検出手段6に指示する。交点(xvp,yvp)の算出は、白線候補の傾き及び切片をαi、qiとしたとき、式6、式7で行うことができる。横断歩道を構成する白線は、3次元的に平行であるため、これを2次元に射影した画像データは、消失点で1点に交わる。この消失点形成の有無を交点(xvp,yvp)の取り得る範囲に閾値を設けることで判別する。上記条件を満たせば、ステップS605に進み、消失点を形成しない場合は、当該検出処理を終了する。ここでは、図18に示すように、白線候補が消失点を形成するため、ステップS605へ進む。 Next, in step S604, the control means 7 instructs the road marking detection means 6 to calculate the intersection of white line candidates that satisfy the certain ratio obtained in step S603. The intersection point (x vp , y vp ) can be calculated by Equations 6 and 7, where α i and q i are the slope and intercept of the white line candidate. Since the white lines constituting the pedestrian crossing are three-dimensionally parallel, the image data obtained by projecting the two-dimensionally crosses one point at the vanishing point. Whether or not this vanishing point is formed is determined by providing a threshold value in a range that the intersection (x vp , y vp ) can take. If the above condition is satisfied, the process proceeds to step S605. If no vanishing point is formed, the detection process is terminated. Here, as shown in FIG. 18, since the white line candidate forms a vanishing point, the process proceeds to step S605.

Figure 0004575031
Figure 0004575031

次に、ステップS605では、制御手段7は、横断歩道の上下線(車両走行方向に平行な白線を横断する形で引かれている横断歩道の手前と奥に位置する白線)の検出を行うために、横断歩道上下端の大まかな位置を決定するよう路面標示検出手段6に指示する。位置の決定には、図19に示すように、まず、各白線候補線の中点を中心に、白線候補の延長線方向に走査線を生成する。次に、その走査線に沿って、水平方向に輝度値分散w(j)を計算する。上記分散値は、白線部では大きく、路面部において小さな値を示すため、その変化点を横断歩道の上下端点とする。   Next, in step S605, the control means 7 detects the upper and lower lines of the pedestrian crossing (white lines located before and behind the pedestrian crossing that is drawn across the white line parallel to the vehicle traveling direction). In addition, the road marking detection means 6 is instructed to determine the approximate positions of the upper and lower ends of the pedestrian crossing. For determining the position, as shown in FIG. 19, first, a scanning line is generated in the direction of the extension line of the white line candidate, centering on the midpoint of each white line candidate line. Next, the luminance value variance w (j) is calculated in the horizontal direction along the scanning line. Since the variance value is large in the white line portion and small in the road surface portion, the change point is set as the upper and lower end points of the pedestrian crossing.

図20に、ステップS605で得られた横断歩道の上下端点の例を示す。   FIG. 20 shows an example of upper and lower end points of the pedestrian crossing obtained in step S605.

次にステップS606において、制御手段7は、ステップS605で得られた上下端点に基づいて、横断歩道の上下線を求めるための探索領域の決定を行う指示を路面標示検出手段6に出す。探索領域の決定処理は、例えば、まず、ステップS605で得られた上下端点それぞれに対し、最小2乗推定法を用いて、直線を算出する。次に、算出された直線をy=ax+bとしたとき、式8を満たす領域を探索領域とすることで行うことができる。ただし、式8中のv、νは、処理範囲を設定するための閾値である。   Next, in step S606, the control means 7 issues an instruction to the road marking detection means 6 for determining the search area for obtaining the vertical line of the pedestrian crossing based on the upper and lower end points obtained in step S605. In the search area determination process, for example, first, a straight line is calculated for each of the upper and lower end points obtained in step S605 using the least square estimation method. Next, when the calculated straight line is y = ax + b, the region satisfying Expression 8 can be set as a search region. However, v and ν in Equation 8 are threshold values for setting the processing range.

Figure 0004575031
Figure 0004575031

図21は、ステップS606で得られた横断歩道上下線の探索領域をそれぞれ、探索領域1、探索領域2とした例である。次に,ステップS607において、横断歩道の上下線を求める。   FIG. 21 is an example in which the search areas of the pedestrian crossing vertical line obtained in step S606 are set as search area 1 and search area 2, respectively. Next, in step S607, the vertical line of the pedestrian crossing is obtained.

ステップS607において、制御手段7は、探索領域内のエッジ点を最も多く通る直線を横断歩道の上下線として検出する指示を路面標示検出手段6に行う。横断歩道の上下線の検出を行う処理では、各探索領域内の任意のエッジ点2つを選び、それを結ぶ線分上に位置する他のエッジ点数のカウントを行う。これを全ての組み合わせで行い、カウント数の最も大きな線分を横断歩道の上下線とする。   In step S <b> 607, the control unit 7 instructs the road marking detection unit 6 to detect the straight line that passes through the most edge points in the search area as the upper and lower lines of the pedestrian crossing. In the process of detecting the vertical line of the pedestrian crossing, two arbitrary edge points in each search area are selected, and the number of other edge points located on the line segment connecting them is counted. This is done in all combinations, and the line segment with the largest count is taken as the vertical line of the pedestrian crossing.

図22は、ステップS607で得られた横断歩道の上下線を示した例である。   FIG. 22 is an example showing the vertical lines of the pedestrian crossing obtained in step S607.

以上、実施の形態1について説明した。本実施の形態では、路面標示検出手段6において、ステップS603及びステップS604の処理を用いて、横断歩道の有無を判別したが、路面標示検出手段6の他の実施例として、図23のフローチャートで示すようにステップS603及びステップS604の処理の代わりにステップS701の横断歩道有無判別処理機能を有するものに変更しても良い。この実施例における路面標示検出手段6の横断歩道有無判別処理ステップS701は、次のような手順で、横断歩道の有無判別を行う。図24(a)で示すように、図2のステップS16で生成された白線候補の延長線方向を走査線とし、その走査線上に位置するエッジ分布を求める。図24(b)は、走査線上に位置するエッジの分布を示した例である。横断歩道を構成するエッジは、各白線候補の走査線上において特定の位置に分布しているため、走査線上のエッジ位置に関する分散が大きくなる。この分散値を指標とすることで、横断歩道の判別を行うことができる。   The first embodiment has been described above. In the present embodiment, the road marking detection unit 6 determines the presence or absence of a pedestrian crossing by using the processing of step S603 and step S604. As another example of the road marking detection unit 6, FIG. As shown, it may be changed to one having the pedestrian crossing presence / absence determination processing function of step S701 instead of the processing of step S603 and step S604. In the present embodiment, the pedestrian crossing presence / absence determination processing step S701 of the road surface marking detection means 6 determines whether or not there is a pedestrian crossing by the following procedure. As shown in FIG. 24A, the extension line direction of the white line candidate generated in step S16 in FIG. 2 is set as a scanning line, and an edge distribution located on the scanning line is obtained. FIG. 24B shows an example of the distribution of edges located on the scanning line. Since the edges constituting the pedestrian crossing are distributed at specific positions on the scanning lines of the white line candidates, the dispersion relating to the edge positions on the scanning lines increases. By using this dispersion value as an index, it is possible to determine a pedestrian crossing.

また、本実施の形態では、路面標示検出手段6において、ステップS603及びステップS604の処理を用いて、横断歩道の有無を判別したが、横断歩道を構成する白線幅と道路白線の幅は異なるため、白線幅に関する閾値を設けることで、横断歩道が存在するか否かを判別する処理に変更・追加しても良い。   In the present embodiment, the road marking detection means 6 determines whether or not there is a pedestrian crossing by using the processing of step S603 and step S604. However, the white line width and the road white line constituting the pedestrian crossing are different. By providing a threshold value regarding the white line width, it may be changed or added to the process for determining whether or not a pedestrian crossing exists.

また、本実施の形態では、路面標示検出手段6において、ステップS603及びステップS604の処理を用いて、横断歩道の有無を判別したが、路面標示検出手段6のさらに他の実施例として、図25のフローチャートで示すようなステップS702の横断歩道有無判別処理を追加する機能を有するものにしても良い。ステップS702では、ステップS16において生成された白線候補数が所定数以上か否かにより横断歩道の有無判別を行う。横断歩道は、所定数以上の白線候補から構成されるため、この白線候補数に関する閾値を設けることで行うことができる。
このような路面標示検出手段6を用いれば、横断歩道有無の判別処理の精度がさらにあがる。
Further, in the present embodiment, the road marking detection unit 6 determines the presence or absence of a pedestrian crossing by using the processing of step S603 and step S604. As still another example of the road marking detection unit 6, FIG. It may have a function of adding a crosswalk presence / absence determination process in step S702 as shown in the flowchart of FIG. In step S702, the presence / absence of a pedestrian crossing is determined based on whether the number of white line candidates generated in step S16 is a predetermined number or more. Since a pedestrian crossing is composed of a predetermined number or more of white line candidates, it can be performed by providing a threshold value regarding the number of white line candidates.
If such a road marking detection means 6 is used, the accuracy of the determination process of the presence or absence of a pedestrian crossing is further improved.

また、本実施の形態では、エッジ抽出手段2における入力画像のエッジ抽出処理は、ステップSOBELオペレータ以外の方法で実施しても良く、例えばCannyオペレータなどのエッジ抽出フィルタを用いて行っても良い。   In the present embodiment, the edge extraction processing of the input image in the edge extraction means 2 may be performed by a method other than the step SOBEL operator, for example, using an edge extraction filter such as a Canny operator.

また、本実施の形態では、線分抽出手段4における線分抽出処理として、直線検出アルゴリズムの1つであるHough変換や最小2乗法などの手法を用いて行っても良い。   Further, in the present embodiment, the line segment extraction processing in the line segment extraction unit 4 may be performed using a technique such as Hough transform or least square method, which is one of the line detection algorithms.

上記のように、本実施の形態によれば、白線及び横断歩道線を構成する白線候補の特徴を抽出する特徴抽出手段5を設け、前記特徴抽出手段5で抽出された特徴を基に白線と横断歩道線の構造の相違に着目して検出するようにしたので、データベースが不要でかつ高速に検出を行うことができる。   As described above, according to the present embodiment, the feature extraction unit 5 that extracts the features of the white line candidates constituting the white line and the pedestrian crossing line is provided, and the white line and the white line based on the feature extracted by the feature extraction unit 5 are provided. Since the detection is made by paying attention to the difference in the structure of the pedestrian crossing, a database is unnecessary and the detection can be performed at high speed.

実施の形態2.
以下、本発明の実施の形態2について図1、2、26を用いて説明する。本実施の形態2は路面標示検出手段6の構成、機能が実施の形態1と異なるのみで概略構成は図1に示す実施の形態1と同様であり、路面標示検出装置の概略処理手順も図2に示すフローチャートと同様である。図26は本実施の形態2における路面標示検出手段6のフローチャートである。
なお、図中、実施の形態1と同一または相当部分は同一の符号を付し、その説明を省略する。
Embodiment 2.
The second embodiment of the present invention will be described below with reference to FIGS. The second embodiment is the same as the first embodiment shown in FIG. 1 except for the configuration and function of the road marking detection means 6, and the schematic configuration is the same as that of the first embodiment shown in FIG. This is the same as the flowchart shown in FIG. FIG. 26 is a flowchart of the road marking detection means 6 in the second embodiment.
In the figure, the same or corresponding parts as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

本実施の形態2の動作を図2に示すフローチャートにより説明する。
制御手段7は、実施の形態1と同様の手順で、まず、画像入力手段1に指示し、画像を入手する。ここでは、図27の画像を入手したとする。入手した画像は、実施の形態1と同様、ステップS12からステップS17の処理を行い白線候補の特徴が抽出される。
The operation of the second embodiment will be described with reference to the flowchart shown in FIG.
The control means 7 first instructs the image input means 1 and obtains an image in the same procedure as in the first embodiment. Here, it is assumed that the image of FIG. 27 is obtained. As in the first embodiment, the obtained image is subjected to the processing from step S12 to step S17 to extract the features of white line candidates.

図28は、図27の入手画像から白線候補の特徴を抽出した例であり、特徴抽出手段5により、図中L22〜L29に示される白線候補の傾き、及び、●印で示されるカメラ(画像入力手段1)側に近い端点t22〜t29が特徴として抽出される。   FIG. 28 is an example in which the features of white line candidates are extracted from the obtained image of FIG. 27, and the feature extraction means 5 uses the camera (image) indicated by the inclinations of the white line candidates indicated by L22 to L29 in the figure and the ● marks. The end points t22 to t29 close to the input means 1) side are extracted as features.

次に、制御手段7は、路面標示検出手段6に処理を指示し、路面標示検出手段6は白線及び横断歩道の検出を行う。白線及び横断歩道の検出の動作の流れを図26のフローチャートを用いて説明する。なお、路面標示検出手段6におけるステップS601、S602の白線検出は、実施の形態1と同一であるため、その説明を省略する。   Next, the control means 7 instructs the road marking detection means 6 to perform processing, and the road marking detection means 6 detects white lines and pedestrian crossings. The flow of operations for detecting white lines and pedestrian crossings will be described with reference to the flowchart of FIG. Note that the white line detection in steps S601 and S602 in the road marking detection means 6 is the same as that in the first embodiment, and a description thereof will be omitted.

ステップS603において、制御手段7は、図29に示すように、特徴抽出手段5で得られた白線候補(L22〜L29)と、あらかじめ設定した基準線との交点(A、B、C、D)を求めるよう路面標示検出手段6に指示をする。各交点間の距離が一定の比を満たすか否かを判別し、一定の比を満たせばステップS604に進み、満たさなければ、ステップS703に進む。ここでは、横断歩道を構成する白線が、かすれによって一部検出されなかったため、交点間の距離の比が一定の比にならず。ステップS703に進む。   In step S603, the control means 7, as shown in FIG. 29, intersects (A, B, C, D) between the white line candidates (L22 to L29) obtained by the feature extraction means 5 and a preset reference line. Is instructed to the road marking detection means 6. It is determined whether or not the distance between the intersections satisfies a certain ratio. If the certain ratio is satisfied, the process proceeds to step S604, and if not, the process proceeds to step S703. Here, the white lines that make up the pedestrian crossing were not partially detected by blurring, so the ratio of the distances between the intersections did not become a constant ratio. The process proceeds to step S703.

次に、ステップS703において、路面標示検出手段6は、検出された交点のみから、かすれなどによって、検出されなかった交点を推測し、横断歩道の有無判別処理を行う。具体的には、検出された交点(A、B、C、D)から、各交点間の距離を計算し、算出された距離AB、BC、CDを用いて、式9、式10を満たすか否かで行うことができる。式9、式10の条件を満たさない場合は当該検出処理を終了する。ここでは、条件を満たし、ステップS604に進む。   Next, in step S703, the road surface marking detection means 6 estimates an intersection that has not been detected by fading or the like only from the detected intersection, and performs a crosswalk presence / absence determination process. Specifically, the distance between each intersection is calculated from the detected intersections (A, B, C, D), and using the calculated distances AB, BC, CD, whether the expressions 9 and 10 are satisfied? Can be done with no. When the conditions of Expressions 9 and 10 are not satisfied, the detection process is terminated. Here, the condition is satisfied, and the process proceeds to step S604.

Figure 0004575031
Figure 0004575031

次に、ステップS604では、制御手段7は、ステップS703で得られた白線候補が消失点を形成するか否かの判別を行う指示を路面標示検出手段6にだす。ここでは、白線候補が消失点を形成するため、ステップS605へ進む。消失点を形成しない場合は当該検出処理を終了する。   Next, in step S604, the control means 7 gives an instruction for determining whether or not the white line candidate obtained in step S703 forms a vanishing point to the road marking detection means 6. Here, since the white line candidate forms a vanishing point, the process proceeds to step S605. If no vanishing point is formed, the detection process ends.

次に、ステップS605では、制御手段7は、横断歩道の上下線の検出を行うために、横断歩道上下端の大まかな位置を決定するよう路面標示検出手段6に指示し、路面標示検出手段6は横断歩道の上下端点を抽出する。   Next, in step S605, the control means 7 instructs the road marking detection means 6 to determine the approximate positions of the upper and lower pedestrian crossings in order to detect the upper and lower lines of the pedestrian crossing, and the road marking detection means 6 Extracts the top and bottom points of the pedestrian crossing.

次にステップS606において、制御手段7は、ステップS605で得られた上下端点に基づいて、横断歩道の上下線を求めるための探索領域の決定を行う指示を路面標示検出手段6に出し、路面標示検出手段6は探索領域の決定を行う。   Next, in step S606, the control means 7 issues an instruction to the road marking detection means 6 to determine the search area for obtaining the vertical line of the pedestrian crossing based on the upper and lower end points obtained in step S605. The detection means 6 determines a search area.

ステップS607では、制御手段7は、探索領域内のエッジ点を最も多く通る直線を横断歩道の上下線として検出する指示を路面標示検出手段6に行い路面標示検出手段6は横断歩道の上下線を検出する。   In step S607, the control means 7 instructs the road marking detection means 6 to detect the straight line passing through the most edge points in the search area as the vertical line of the pedestrian crossing, and the road marking detection means 6 displays the vertical line of the pedestrian crossing. To detect.

以上のように、本実施の形態によれば、実施の形態1の効果に加えて、路面標示検出手段6において、横断歩道の有無を再判定する処理を設けるようにしたので、横断歩道の一部がかすれや隠蔽されている場合においても検出を行うことができる。   As described above, according to the present embodiment, in addition to the effect of the first embodiment, the road marking detection means 6 is provided with a process for re-determining the presence or absence of a pedestrian crossing. Detection can be performed even when the part is faint or concealed.

本発明はデータベースを用いずに白線と横断歩道線の路面標示を高速に検出することが可能なため、ナビゲーション装置に適用で、GPS(Global Positioning System)からの自車位置の検出信号と併用することで、自車の位置の検出精度を高めることができる。   Since the present invention can detect the road markings of the white line and the pedestrian crossing line at high speed without using a database, it is applied to a navigation apparatus and used together with a detection signal of the vehicle position from a GPS (Global Positioning System). Thus, the detection accuracy of the position of the own vehicle can be increased.

本発明の実施の形態1を示す構成図である。It is a block diagram which shows Embodiment 1 of this invention. 実施の形態1における処理の流れを示すフローチャートである。4 is a flowchart showing a flow of processing in the first embodiment. 画像入力手段により入手された画像情報を示す図である。It is a figure which shows the image information acquired by the image input means. 入力画像から生成されたエッジ画像を示す図である。It is a figure which shows the edge image produced | generated from the input image. 画像分割手段で分割された部分画像を示す図である。It is a figure which shows the partial image divided | segmented by the image division means. 垂直方向に分割した部分画像を(a)(b)に分離して示す図である。It is a figure which shows the partial image divided | segmented to the orthogonal | vertical direction separately to (a) (b). 図6(a)部分画像から抽出された線分抽出画像を示す図である。FIG. 6A is a diagram showing a line segment extracted image extracted from the partial image. 線分抽出画像から生成された白線候補の画像例を示す図である。It is a figure which shows the example of an image of the white line candidate produced | generated from the line segment extraction image. 白線候補の傾き及びカメラ(画像入力手段)側に近い端点位置を示す図である。It is a figure which shows the inclination of a white line candidate, and the end point position near the camera (image input means) side. 図6(b)部分画像から生成された白線候補の傾き及びカメラ(画像入力手段)側に近い端点位置を示す図である。FIG. 6B is a diagram showing the inclination of the white line candidate generated from the partial image and the end point position close to the camera (image input means) side. 路面標示検出手段の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a road marking detection means. 図9の白線候補の特徴から、白線を検出した例を示す図である。It is a figure which shows the example which detected the white line from the characteristic of the white line candidate of FIG. 図10の白線候補の特徴から、白線を検出した例を示す図である。It is a figure which shows the example which detected the white line from the characteristic of the white line candidate of FIG. 白線候補と、基準線との交点を示す図である。It is a figure which shows the intersection of a white line candidate and a reference line. 横断歩道が存在する入力画像の例を示す図である。It is a figure which shows the example of the input image in which a pedestrian crossing exists. 横断歩道が存在する入力画像から白線候補の特徴を抽出した例を示す図である。It is a figure which shows the example which extracted the feature of the white line candidate from the input image in which a pedestrian crossing exists. 横断歩道が存在する入力画像からの白線候補と、あらかじめ設定した基準線との交点を示す図である。It is a figure which shows the intersection of the white line candidate from the input image in which a crosswalk exists, and the preset reference line. 白線候補の消失点を説明するための図である。It is a figure for demonstrating the vanishing point of a white line candidate. 横断歩道の上下端検出のための説明図である。It is explanatory drawing for the upper-lower end detection of a pedestrian crossing. 横断歩道の上下端点の例を示す図である。It is a figure which shows the example of the upper-lower-end point of a pedestrian crossing. 横断歩道上下線の探索領域を示す図である。It is a figure which shows the search area | region of a pedestrian crossing vertical line. 横断歩道の上下線を示す図である。It is a figure which shows the up-down line of a pedestrian crossing. 路面標示検出手段の他の実施例による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process by the other Example of a road marking detection means. 路面標示検出手段の他の実施例による横断歩道の有無判別用の説明図である。It is explanatory drawing for discrimination | determination of the presence or absence of a pedestrian crossing by the other Example of a road marking detection means. 路面標示検出手段のさらに他の実施例による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process by the further another Example of a road marking detection means. 実施の形態2における路面標示検出手段の処理の流れを示すフローチャートである。10 is a flowchart showing a flow of processing of road marking detection means in the second embodiment. 実施の形態2における入力画像を示す図である。FIG. 11 is a diagram showing an input image in the second embodiment. 実施の形態2における白線候補の特徴抽出例を示す図である。FIG. 10 is a diagram illustrating a feature extraction example of white line candidates in the second embodiment. 実施の形態2における白線候補と、基準線との交点を示す図である。It is a figure which shows the intersection of the white line candidate in Embodiment 2, and a reference line.

符号の説明Explanation of symbols

1:画像入力手段、2:エッジ抽出手段、3:画像分割手段、4:線分抽出手段、5:特徴抽出手段、6:路面標示検出手段、7:制御手段。   1: image input means, 2: edge extraction means, 3: image segmentation means, 4: line segment extraction means, 5: feature extraction means, 6: road marking detection means, 7: control means.

Claims (3)

走行する自車両前方の画像データを入力する画像入力手段と,前記画像入力手段によって取り込まれた画像から、エッジ点を抽出するエッジ抽出手段と、前記画像入力手段の画像を複数の部分画像に分割する画像分割手段と、各部分画像内に存在するエッジ点を通る線分を抽出する線分抽出手段と、前記線分抽出手段により得られた線分の傾きと端点位置を特徴として抽出する特徴抽出手段と、前記特徴抽出手段によって得られた線分の端点位置が水平方向に一定の間隔で存在し、かつそれら線分が一つの消失点を形成した場合、前方に横断歩道が存在すると判断する路面標示検出手段を備えることを特徴とする車載用路面標示検出装置。   An image input means for inputting image data in front of the traveling vehicle, an edge extraction means for extracting edge points from the image captured by the image input means, and an image of the image input means is divided into a plurality of partial images. Image segmentation means, line segment extraction means for extracting line segments passing through edge points existing in each partial image, and feature for extracting the slope and end point position of the line segment obtained by the line segment extraction means as features When the end points of the line segment obtained by the extraction means and the feature extraction means exist at regular intervals in the horizontal direction and the line segments form one vanishing point, it is determined that there is a pedestrian crossing ahead. An on-vehicle road marking detection device comprising road marking detection means for performing the above-mentioned. 走行する自車両前方の画像データを入力する画像入力手段と,前記画像入力手段によって取り込まれた画像から、エッジ点を抽出するエッジ抽出手段と、前記画像入力手段の画像を複数の部分画像に分割する画像分割手段と、各部分画像内に存在するエッジ点を通る線分を抽出する線分抽出手段と、前記線分抽出手段により得られた線分の傾きと端点位置を検出し、線分の傾きと端点位置の差が所定範囲内にある線分同士を一つの組とし、組となった線分の傾き及び端点位置を特徴として抽出する特徴抽出手段と、前記特徴抽出手段において組となった線分数が、所定数以上得られた場合に前方に横断歩道が存在すると判断する路面標示検出手段を備えることを特徴とする車載用路面標示検出装置。   An image input means for inputting image data in front of the traveling vehicle, an edge extraction means for extracting edge points from the image captured by the image input means, and an image of the image input means is divided into a plurality of partial images. Image segmentation means, line segment extraction means for extracting line segments passing through edge points present in each partial image, and the inclination and end point position of the line segment obtained by the line segment extraction means are detected, And a feature extraction means for extracting the slopes and end point positions of the line segments as a set of line segments in which the difference between the inclination and the end point position is within a predetermined range, and a set in the feature extraction means. An in-vehicle road marking detection device comprising road marking detection means for determining that a pedestrian crossing exists ahead when a predetermined number or more of line segments are obtained. 前記路面標示検出手段は、横断歩道と判断された複数の線分又は組となった複数の線分の上下端の大まかな位置を決定して、分割された部分画像の何れかを探索領域として決定し、探索領域内のエッジ点を最も多く通る直線を横断歩道を形成する白線の手前と奥の位置の上下線として検出する構成にされたことを特徴とする請求項1又は2に記載の車載用路面標示検出装置。 The road marking detection means determines a rough position of the upper and lower ends of a plurality of line segments determined to be a pedestrian crossing or a plurality of line segments in a set, and any one of the divided partial images is used as a search area. 3. The configuration according to claim 1, wherein the line is determined and detected as a straight line that passes through the edge points in the search region most frequently as a vertical line before and after the white line that forms the pedestrian crossing . In-vehicle road marking detection device.
JP2004161109A 2004-05-31 2004-05-31 In-vehicle road marking detection device Expired - Fee Related JP4575031B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004161109A JP4575031B2 (en) 2004-05-31 2004-05-31 In-vehicle road marking detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004161109A JP4575031B2 (en) 2004-05-31 2004-05-31 In-vehicle road marking detection device

Publications (2)

Publication Number Publication Date
JP2005339468A JP2005339468A (en) 2005-12-08
JP4575031B2 true JP4575031B2 (en) 2010-11-04

Family

ID=35492933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004161109A Expired - Fee Related JP4575031B2 (en) 2004-05-31 2004-05-31 In-vehicle road marking detection device

Country Status (1)

Country Link
JP (1) JP4575031B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264712A (en) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd Lane detector
JP5109294B2 (en) * 2006-06-19 2012-12-26 三菱電機株式会社 3D position correction device
JP5631581B2 (en) * 2009-12-01 2014-11-26 富士重工業株式会社 Road recognition device
JP5554579B2 (en) * 2010-01-26 2014-07-23 富士通株式会社 Lane detection program and lane detection device
JP6477907B2 (en) 2015-10-09 2019-03-06 株式会社Ihi Line detection method
JP6647171B2 (en) * 2016-07-29 2020-02-14 エヌ・ティ・ティ・コムウェア株式会社 Information processing apparatus, information processing method, and program
JP7032280B2 (en) * 2018-10-11 2022-03-08 トヨタ自動車株式会社 Pedestrian crossing marking estimation device
JP7229804B2 (en) * 2019-02-14 2023-02-28 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device and image processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0290381A (en) * 1988-09-28 1990-03-29 Honda Motor Co Ltd Running path discriminating method
JPH07271978A (en) * 1994-03-29 1995-10-20 Toshiba Corp Image processor
JPH0844999A (en) * 1994-08-03 1996-02-16 Nissan Motor Co Ltd Approach prediction device
JPH08315296A (en) * 1995-05-12 1996-11-29 Mitsubishi Electric Corp Device and method for monitoring road surface
JPH10187973A (en) * 1996-12-19 1998-07-21 Mitsubishi Heavy Ind Ltd Road white line recognizing device
JPH10232937A (en) * 1996-12-17 1998-09-02 Technol Res Assoc Of Medical & Welfare Apparatus Method and instrument for measuring meal tray

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0290381A (en) * 1988-09-28 1990-03-29 Honda Motor Co Ltd Running path discriminating method
JPH07271978A (en) * 1994-03-29 1995-10-20 Toshiba Corp Image processor
JPH0844999A (en) * 1994-08-03 1996-02-16 Nissan Motor Co Ltd Approach prediction device
JPH08315296A (en) * 1995-05-12 1996-11-29 Mitsubishi Electric Corp Device and method for monitoring road surface
JPH10232937A (en) * 1996-12-17 1998-09-02 Technol Res Assoc Of Medical & Welfare Apparatus Method and instrument for measuring meal tray
JPH10187973A (en) * 1996-12-19 1998-07-21 Mitsubishi Heavy Ind Ltd Road white line recognizing device

Also Published As

Publication number Publication date
JP2005339468A (en) 2005-12-08

Similar Documents

Publication Publication Date Title
JP3169483B2 (en) Road environment recognition device
JP4327389B2 (en) Travel lane recognition device
JP4650079B2 (en) Object detection apparatus and method
US9460352B2 (en) Lane boundary line recognition device
EP1596322B1 (en) Driving lane recognizer and driving lane recognizing method
JP6560355B2 (en) Landmark recognition apparatus and recognition method
CN109791598A (en) The image processing method of land mark and land mark detection system for identification
EP2372304A2 (en) Vehicle position recognition system
JP4363295B2 (en) Plane estimation method using stereo images
JP2003228711A (en) Lane mark recognition method
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
US10963708B2 (en) Method, device and computer-readable storage medium with instructions for determining the lateral position of a vehicle relative to the lanes of a road
JPWO2013129361A1 (en) Three-dimensional object detection device
EP2115392A1 (en) Route guidance system and route guidance method
JP2015068665A (en) Map matching device and navigation device including the same
JP4575031B2 (en) In-vehicle road marking detection device
JP5974923B2 (en) Road edge detection system, method and program
JP5888275B2 (en) Road edge detection system, method and program
JP3470172B2 (en) Traffic flow monitoring device
JP3227247B2 (en) Roadway detection device
JP2022107986A (en) Map generation device, map generation method, and computer program for map generation
US10339803B2 (en) Method for operating an assistance system of a motor vehicle and assistance system
US11688180B2 (en) Lane departure warning without lane lines
KR101706455B1 (en) Road sign detection-based driving lane estimation method and apparatus
JP6143176B2 (en) Stop line detection device, moving body control device, and stop line detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100819

R150 Certificate of patent or registration of utility model

Ref document number: 4575031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees