JP2011170596A - System, method and program for recognizing compartment line - Google Patents

System, method and program for recognizing compartment line Download PDF

Info

Publication number
JP2011170596A
JP2011170596A JP2010033509A JP2010033509A JP2011170596A JP 2011170596 A JP2011170596 A JP 2011170596A JP 2010033509 A JP2010033509 A JP 2010033509A JP 2010033509 A JP2010033509 A JP 2010033509A JP 2011170596 A JP2011170596 A JP 2011170596A
Authority
JP
Japan
Prior art keywords
image
bird
lane line
lane
yaw rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010033509A
Other languages
Japanese (ja)
Inventor
Shinya Ito
伸也 伊藤
Daisuke Akita
大輔 秋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2010033509A priority Critical patent/JP2011170596A/en
Publication of JP2011170596A publication Critical patent/JP2011170596A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To recognize compartment lines on road surfaces with high accuracy. <P>SOLUTION: A system for recognizing compartment lines includes a vehicle speed detection means for detecting the speed of own vehicle; a yaw rate detection means for detecting the yaw rate of own vehicle; an image input means for inputting the original image of a road surface; a composite bird's-eye image generation means for generating a composite bird's-eye image, based on original images at a plurality of different times and associating the vehicle speed and the yaw rate at the generation of the composite bird's-eye image with the composite bird's-eye image; a compartment line candidate detection means for detecting compartment line candidates from among at least one of the original image and the bird's-eye image; and a compartment line candidate verification means for extracting sections where vehicles travel in straight lines, recognizing the compartment line candidates for each of the sections, and verifying whether the compartment line candidates recognized are suitable as compartment lines. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、路面上の区画線を高精度に認識できる区画線認識システム、区画線認識方法、及び区画線認識プログラムに関するものである。   The present invention relates to a lane marking recognition system, a lane marking recognition method, and a lane marking recognition program that can recognize a lane marking on a road surface with high accuracy.

近年、カーナビゲーションなどにおいて、正確なナビゲーションを実行するために、自車位置を正確に把握することは重要な課題となっている。例えば、GPSや周辺画像解析などを用いて、自車位置情報の精度向上策が図られている。ここで、周辺画像の解析については、フレーム毎の画像認識や時系列毎の画像を組み合わせた合成鳥瞰画像を用いた認識技術などが存在する。   In recent years, in order to execute accurate navigation in car navigation and the like, it has become an important issue to accurately grasp the vehicle position. For example, measures for improving the accuracy of the vehicle position information are taken using GPS, peripheral image analysis, and the like. Here, for the analysis of peripheral images, there are recognition techniques using a combined bird's-eye view image combined with image recognition for each frame and images for each time series.

一方、複数の異なる時刻における原画像を基に合成鳥瞰画像を生成する合成鳥瞰画像作成手段と、原画像から区画線候補を検出する区画線候補検出手段と、合成鳥瞰画像において区画線候補が区画線として適しているか否かを検定する区画線候補検定手段と、を有する車線認識装置が知られている(特許文献1参照)。   On the other hand, a synthetic bird's-eye image creation unit that generates a synthesized bird's-eye image based on an original image at a plurality of different times; a lane line candidate detection unit that detects a lane line candidate from the original image; There is known a lane recognition device having lane marking candidate verification means for verifying whether or not it is suitable as a line (see Patent Document 1).

特開2009−169510号公報JP 2009-169510 A

例えば、上記特許文献1に示す車線認識装置において、車線変更時に路面の区画線を認識する場合を想定する。まず、車両が直進している時は(図7(a))、合成鳥瞰画像上で区画線は略垂直となり(図7(b))、直線近似による推測が可能となるため、精度よく区画線を認識することができる。また、高速走行時における車線変更では(図8(a))、急激に車線変更を行うと危険なため、時間当たりの横移動量が小さく抑えられる。したがって、上記同様に、区画線は略直線近似による推測が可能となるため(図8(b))、精度よく区画線を認識することができる。   For example, in the lane recognition device shown in Patent Document 1, it is assumed that a lane marking on a road surface is recognized when a lane is changed. First, when the vehicle is traveling straight (FIG. 7 (a)), the lane markings are substantially vertical on the synthesized bird's-eye view (FIG. 7 (b)), and can be estimated by linear approximation. Can recognize lines. Further, when changing lanes during high-speed travel (FIG. 8A), it is dangerous to change lanes abruptly, so the amount of lateral movement per hour can be kept small. Therefore, as described above, the lane marking can be estimated by a substantially straight line approximation (FIG. 8B), so that the lane marking can be recognized with high accuracy.

しかしながら、低速走行時における車線変更では(図9(a))、時間当たりの横方向の移動量が大きいため、区画線が合成鳥瞰画像上で直線状にならない。したがって、区画線が合成鳥瞰画像上で1本の直線で近似することが困難となるため(図9(b))、区画線の認識精度が低下する可能性がある。   However, when changing lanes during low-speed travel (FIG. 9A), the amount of movement in the horizontal direction per time is large, so the lane markings do not become straight on the synthesized bird's-eye view image. Accordingly, it is difficult to approximate the lane line with a single straight line on the synthesized bird's-eye view image (FIG. 9B), and the lane line recognition accuracy may be reduced.

本発明の一態様は、自車の車速を検出する車速検出手段と、自車のヨーレートを検出するヨーレート検出手段と、路面の原画像を入力する画像入力手段と、前記画像入力手段により入力された複数の異なる時刻における前記原画像に基づいて合成鳥瞰画像を生成し、該合成鳥瞰画像に、該合成鳥瞰画像を生成したときの前記車速検出手段により検出された前記車速と、前記ヨーレート検出手段により検出された前記ヨーレートと、を関連付ける合成鳥瞰画像生成手段と、前記原画像および前記合成鳥瞰画像のうち少なくとも一方から、区画線候補を検出する区画線候補検出手段と、前記合成鳥瞰画像と前記関連付けられた車速およびヨーレートとに基づいて、車両の直進区間を抽出し、該直線区間毎に、前記区画線候補検出手段により検出された前記区画線候補を認識し、該認識した区画線候補が区画線として適しているか否かを検定する区画線候補検定手段と、を備える、ことを特徴とする区画線認識システムである。   One aspect of the present invention is input by vehicle speed detection means for detecting the vehicle speed of the own vehicle, yaw rate detection means for detecting the yaw rate of the own vehicle, image input means for inputting an original image of the road surface, and the image input means. The vehicle speed detected by the vehicle speed detecting means when the synthesized bird's-eye image is generated based on the original images at a plurality of different times and the synthesized bird's-eye image is generated, and the yaw rate detecting means A synthesized bird's-eye image generating means for associating the yaw rate detected by the step, a lane line candidate detecting means for detecting a lane line candidate from at least one of the original image and the synthesized bird's-eye image, the synthesized bird's-eye image, and the Based on the associated vehicle speed and yaw rate, a straight section of the vehicle is extracted, and the straight line section is detected by the lane marking candidate detection means. Wherein recognizing the lane line candidate, lane line candidates the recognition and a lane line candidate verification means for assaying whether suitable as partition lines, a division line recognition system, characterized in that.

この一態様によれば、路面上の区画線を高精度に認識することができる。   According to this aspect, the marking line on the road surface can be recognized with high accuracy.

また、本発明の一態様は、自車の車速を検出する工程と、自車のヨーレートを検出する工程と、路面の原画像を入力する工程と、前記入力された複数の異なる時刻における原画像に基づいて合成鳥瞰画像を生成し、該合成鳥瞰画像に、該合成鳥瞰画像を生成したときに前記検出された車速と、前記検出されたヨーレートと、を関連付ける工程と、前記原画像および前記合成鳥瞰画像のうち少なくとも一方から、区画線候補を検出する工程と、前記合成鳥瞰画像と前記関連付けられた車速およびヨーレートとに基づいて、車両の直進区間を抽出し、該直線区間毎に、前記検出された区画線候補を認識し、該認識した区画線候補が区画線として適しているか否かを検定する工程と、を含む、ことを特徴とする区画線認識方法であってもよい。   Further, according to one aspect of the present invention, the step of detecting the vehicle speed of the host vehicle, the step of detecting the yaw rate of the host vehicle, the step of inputting the original image of the road surface, and the input original images at a plurality of different times Generating a synthesized bird's-eye image, and associating the synthesized bird's-eye image with the detected vehicle speed when the synthesized bird's-eye image is generated, and the detected yaw rate, the original image, and the synthesized image Based on the step of detecting lane marking candidates from at least one of the bird's-eye images, and the combined bird's-eye image and the associated vehicle speed and yaw rate, a straight section of the vehicle is extracted, and the detection is performed for each straight section. And recognizing whether the recognized lane line candidate is suitable as a lane line, or a lane line recognition method characterized by comprising:

さらに、本発明の一態様は、自車の車速を検出する処理と、自車のヨーレートを検出する処理と、路面の原画像を入力する処理と、前記入力された複数の異なる時刻における原画像に基づいて合成鳥瞰画像を生成し、該合成鳥瞰画像に、該合成鳥瞰画像を生成したときに前記検出された車速と、前記検出されたヨーレートと、を関連付ける処理と、前記原画像および前記合成鳥瞰画像のうち少なくとも一方から、区画線候補を検出する処理と、 前記合成鳥瞰画像と前記関連付けられた車速およびヨーレートとに基づいて、車両の直進区間を抽出し、該直線区間毎に、前記検出された区画線候補を認識し、該認識した区画線候補が区画線として適しているか否かを検定する処理と、をコンピュータに実行させる区画線認識プログラムであってもよい。   Further, according to one aspect of the present invention, a process for detecting the speed of the host vehicle, a process for detecting the yaw rate of the host vehicle, a process for inputting an original image of a road surface, and the input original images at a plurality of different times And a process of associating the detected bird speed with the detected yaw rate when the synthesized bird's-eye image is generated, and the original image and the synthesized image. Based on the processing for detecting lane marking candidates from at least one of the bird's-eye images, and the combined bird's-eye image and the associated vehicle speed and yaw rate, a straight section of the vehicle is extracted, and the detection is performed for each straight section. A lane line recognition program for causing a computer to recognize a recognized lane line candidate and to test whether or not the recognized lane line candidate is suitable as a lane line. Good.

本発明によれば、路面上の区画線を高精度に認識できる区画線認識システム、区画線認識方法、及び区画線認識プログラムを提供することができる。   According to the present invention, it is possible to provide a lane marking recognition system, a lane marking recognition method, and a lane marking recognition program that can recognize a lane marking on a road surface with high accuracy.

本発明の一実施の形態に係る区画線認識システムの概略的な構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a lane marking recognition system according to an embodiment of the present invention. 本発明の一実施の形態に係る区画線認識システムの制御装置の概略的なシステム構成を示すブロック図である。It is a block diagram which shows the schematic system configuration | structure of the control apparatus of the lane marking recognition system which concerns on one embodiment of this invention. (a)時刻T−1の時点での画像入力装置により入力された原画像の一例を示す図である。(b)時刻Tの時点での画像入力装置により入力された原画像の一例を示す図である。(c)時刻T−1の時点で図3(a)の原画像から生成された鳥瞰画像の一例を示す図である。(d)図3(c)の鳥瞰画像の画素を、時刻T−1から時刻Tの間に自車の移動した距離の分だけ垂直方向に移動させた画像である。(e)図3(b)を鳥瞰画像化して得られた画像と、図3(d)の画像と、を合成した合成鳥瞰画像の一例を示す図である。(A) It is a figure which shows an example of the original image input by the image input device at the time of the time T-1. (B) It is a figure which shows an example of the original image input by the image input device at the time of the time T. (C) It is a figure which shows an example of the bird's-eye view image produced | generated from the original image of Fig.3 (a) at the time of the time T-1. (D) It is the image which moved the pixel of the bird's-eye view image of FIG.3 (c) to the vertical direction only by the distance which the own vehicle moved between the time T-1 and the time T. FIG. (E) It is a figure which shows an example of the synthetic | combination bird's-eye view image which synthesize | combined the image obtained by making FIG.3 (b) into a bird's-eye view image, and the image of FIG.3 (d). 本発明の一実施の形態に係る区画線候補検定部による区画線候補の角度判定及び区画線候補の線種判定の処理フローの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of the angle determination of a lane line candidate and the line type determination of a lane line candidate by the lane line candidate test part which concerns on one embodiment of this invention. 合成鳥瞰画像に設定された探索区間の一例を示す図である。It is a figure which shows an example of the search area set to the synthetic bird's-eye view image. 合成鳥瞰画像内における区画線候補の位置の一例を示す図である。It is a figure which shows an example of the position of the lane marking candidate in a synthetic bird's-eye view image. (a)車両が直進している状態の一例を示す上面図である。(b)車両が直進状態のときの合成鳥瞰画像上の区画線を示す図である。(A) It is a top view which shows an example of the state which the vehicle is going straight ahead. (B) It is a figure which shows the lane marking on a synthetic bird's-eye view image when a vehicle is a straight ahead state. (a)車両が高速走行で車線変更しているときの状態の一例を示す上面図である。(b)高速走行時の車線変更における合成鳥瞰画像上の区画線を示す図である。(A) It is a top view which shows an example of a state when the vehicle is changing lanes at high speed driving | running | working. (B) It is a figure which shows the lane marking on a synthetic bird's-eye view image in the lane change at the time of high speed driving | running | working. (a)車両が低速走行で車線変更しているときの状態の一例を示す上面図である。(b)低速走行時の車線変更における合成鳥瞰画像上の区画線を示す図である。(A) It is a top view which shows an example of a state when the vehicle is changing lanes by low-speed driving | running | working. (B) It is a figure which shows the lane marking on a synthetic bird's-eye view image in the lane change at the time of low speed driving | running | working.

以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明の一実施の形態に係る区画線認識システムの概略的な構成を示すブロック図である。区画線認識システム10は、制御装置1と、画像入力装置2と、車速センサ3と、ヨーレートセンサ4と、を備えている。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a lane marking recognition system according to an embodiment of the present invention. The lane marking recognition system 10 includes a control device 1, an image input device 2, a vehicle speed sensor 3, and a yaw rate sensor 4.

制御装置1は、例えば、制御処理、演算処理等と行うCPU(Central Processing Unit)1a、CPU1aによって実行される制御プログラム、演算プログラム等が記憶されたROM(Read Only Memory)1b、処理データ等を記憶するRAM(Random Access Memory)1c等からなるマイクロコンピュータを中心にして、ハードウェア構成されている。   The control device 1 includes, for example, a CPU (Central Processing Unit) 1a that performs control processing, arithmetic processing, and the like, a ROM (Read Only Memory) 1b that stores a control program executed by the CPU 1a, an arithmetic program, processing data, and the like. The hardware configuration is centered on a microcomputer composed of a RAM (Random Access Memory) 1c and the like.

画像入力装置2は、路面等に形成された区画線を撮影することができるカメラなどの撮影装置によって構成されており、区画線を含む撮影画像が入力される。以下、画像入力装置2から入力された撮影画像を原画像と称す。画像入力装置2は、例えば、自動車などの車両に取り付けられる。以下、画像入力装置2が取り付けられた車両を自車と称す。   The image input device 2 is configured by a photographing device such as a camera that can photograph a lane marking formed on a road surface or the like, and a captured image including the lane marking is input. Hereinafter, the captured image input from the image input device 2 is referred to as an original image. The image input device 2 is attached to a vehicle such as an automobile, for example. Hereinafter, the vehicle to which the image input device 2 is attached is referred to as the own vehicle.

制御装置1を自車に搭載して、画像入力装置2と制御装置1との間の接続を有線接続としてもよい。また、制御装置1を自車に搭載せず、画像入力装置2と制御装置1との間の接続を無線接続としてもよい。画像入力装置2は、カメラ等により撮影された原画像を、後述の合成鳥瞰画像生成部11に対して出力する。   The control device 1 may be mounted on the host vehicle, and the connection between the image input device 2 and the control device 1 may be a wired connection. The connection between the image input device 2 and the control device 1 may be a wireless connection without mounting the control device 1 on the own vehicle. The image input device 2 outputs an original image taken by a camera or the like to a synthetic bird's-eye image generation unit 11 described later.

車速センサ3は、車速検出手段の一具体例であり、自車の車速を検出することができる。車速センサ3は、例えば、自車の車輪速度を検出できる回転センサ等を用いて車速を検出する。車速センサ3は、制御装置1に接続されており、検出した車速を制御装置1に対して出力する。   The vehicle speed sensor 3 is a specific example of vehicle speed detection means, and can detect the vehicle speed of the host vehicle. The vehicle speed sensor 3 detects the vehicle speed using, for example, a rotation sensor that can detect the wheel speed of the host vehicle. The vehicle speed sensor 3 is connected to the control device 1 and outputs the detected vehicle speed to the control device 1.

ヨーレートセンサ4は、ヨーレート検出手段の一具体例であり、例えば、自車に取り付けられたジャイロセンサ等を用いて、自車のヨーレートを検出することができる。ヨーレートセンサ4は、制御装置1に接続されており、検出した自車のヨーレートを制御装置1に対して出力する。   The yaw rate sensor 4 is a specific example of the yaw rate detection means, and can detect the yaw rate of the own vehicle using, for example, a gyro sensor attached to the own vehicle. The yaw rate sensor 4 is connected to the control device 1 and outputs the detected yaw rate of the host vehicle to the control device 1.

図2は、本実施の形態に係る区画線認識システムの制御装置の概略的なシステム構成を示すブロック図である。制御装置1は、合成鳥瞰画像生成部11と、区画線候補検出部12と、区画線候補検定部13と、区画線位置推定部14と、区画線位置出力部15と、を有している。   FIG. 2 is a block diagram showing a schematic system configuration of the control device of the lane marking recognition system according to the present embodiment. The control device 1 includes a synthesized bird's-eye image generation unit 11, a lane line candidate detection unit 12, a lane line candidate test unit 13, a lane line position estimation unit 14, and a lane line position output unit 15. .

合成鳥瞰画像生成部11は、合成鳥瞰画像生成手段の一具体例であり、画像入力装置2のカメラ等によって複数の異なる時刻において撮影された原画像を合成して、各フレーム毎に合成鳥瞰画像を生成する。ここで、合成鳥瞰画像生成部11は、図3(a)乃至(e)に示すようにして、合成鳥瞰画像の生成を行う。なお、本実施の形態において、鳥瞰画像とは、例えば、原画像に撮影されている風景を、実世界で鉛直方向下向きの視線で見た場合の画像に変換したものである。また、鳥瞰画像化とは、原画像をそのような画像に変換することを指す。   The synthesized bird's-eye image generation unit 11 is a specific example of the synthesized bird's-eye image generation unit. The synthesized bird's-eye image generation unit 11 synthesizes original images photographed at a plurality of different times by the camera of the image input device 2 and the like. Is generated. Here, the synthesized bird's-eye image generation unit 11 generates a synthesized bird's-eye image as shown in FIGS. In the present embodiment, the bird's-eye view image is, for example, an image obtained by converting a landscape photographed in the original image into an image when viewed in the vertical direction in the vertical direction in the real world. Bird's-eye imaging refers to converting an original image into such an image.

合成鳥瞰画像生成部11は、複数の異なる時刻において撮影された原画像を用い、それぞれの原画像の部分領域を鳥瞰画像化した部分鳥瞰画像をつなぎ合わせて、合成鳥瞰画像を生成する。図3(a)乃至(e)に示した例において、画像入力装置2は、自車の進行方向と反対向きに設置され、自車の後ろ方向を撮影している。   The synthesized bird's-eye image generation unit 11 uses the original images taken at a plurality of different times and connects the partial bird's-eye images obtained by converting the partial areas of the original images into bird's-eye images, thereby generating a synthesized bird's-eye image. In the example shown in FIGS. 3A to 3E, the image input device 2 is installed in the direction opposite to the traveling direction of the host vehicle and photographs the rear direction of the host vehicle.

図3(a)は時刻T−1の時点での原画像を示し、図3(b)は時刻Tの時点での原画像を示している。図3(b)の下部には、時刻T−1では撮影されておらず、時刻Tで始めて原画像の撮影範囲に入った部分が斜線部として示されている(これを手前領域31と称す)。なお、図3(a)および(c)中の矢印は、自車の進行方向を表す。   FIG. 3A shows an original image at time T-1, and FIG. 3B shows an original image at time T. In the lower part of FIG. 3 (b), a portion that was not photographed at time T-1 and entered the photographing range of the original image at time T is shown as a hatched portion (this is referred to as a front region 31). ). In addition, the arrow in Fig.3 (a) and (c) represents the advancing direction of the own vehicle.

図3(c)は、時刻T−1の時点において図3(a)の原画像から生成された鳥瞰画像である。図3(d)は、図3(c)の鳥瞰画像の画素を、時刻T−1から時刻Tの間に自車の移動した距離の分だけ垂直方向に移動させた画像である。図3(c)の鳥瞰画像には、図3(b)の手前領域31に該当する部分は含まれていないため、図3(d)の画像では手前領域31に対応する部分は空白部32となっている。   FIG. 3C is a bird's-eye view image generated from the original image in FIG. 3A at time T-1. FIG. 3D is an image in which the pixels of the bird's-eye view image of FIG. 3C are moved in the vertical direction by the distance traveled by the host vehicle from time T-1 to time T. Since the bird's-eye view image of FIG. 3C does not include a portion corresponding to the near region 31 of FIG. 3B, the portion corresponding to the near region 31 in the image of FIG. It has become.

ここで、合成鳥瞰画像生成部11は、図3(b)を鳥瞰画像化して得られた画像と、図3(d)の画像と、を合成することにより、図3(d)の空白部32(図3(b)の手前領域31に対応する部分)を埋めて、図3(e)の合成鳥瞰画像を生成する。なお、上記合成鳥瞰画像の生成方法は、特許文献1に開示されており、その生成方法を援用することができる。   Here, the synthesized bird's-eye image generation unit 11 combines the image obtained by converting the bird's-eye image of FIG. 3B and the image of FIG. 3D into a blank portion of FIG. 3D. 32 (portion corresponding to the front region 31 in FIG. 3B) is filled in to generate the synthesized bird's-eye view image in FIG. In addition, the generation method of the said synthetic bird's-eye view image is disclosed by patent document 1, The generation method can be used.

また、合成鳥瞰画像生成部11は、自車が1m走行する毎に、1ライン分の高さ(縦長さ)の画像を作成するように合成鳥瞰画像を生成する。例えば、自車が100m走行する場合、合成鳥瞰画像生成部11は、100ライン分の合成鳥瞰画像を生成する。   The synthetic bird's-eye image generation unit 11 generates a synthetic bird's-eye image so as to create an image having a height (vertical length) for one line every time the vehicle travels 1 m. For example, when the host vehicle travels 100 meters, the synthetic bird's-eye image generation unit 11 generates a synthetic bird's-eye image for 100 lines.

さらに、合成鳥瞰画像生成部11は、生成した合成鳥瞰画像に、この合成鳥瞰画像を生成したときに車速センサ3により検出された自車の車速と、ヨーレートセンサ4により検出された自車のヨーレートと、を関連付ける。合成鳥瞰画像生成部11は、生成した合成鳥瞰画像と、この合成鳥瞰画像に関連付けられた車速及びヨーレートと、を区画線候補検定部13に対して出力する。   Furthermore, the synthesized bird's-eye image generation unit 11 adds the vehicle speed detected by the vehicle speed sensor 3 when the synthesized bird's-eye image is generated to the generated synthesized bird's-eye image, and the yaw rate of the host vehicle detected by the yaw rate sensor 4. And associate. The synthesized bird's-eye image generation unit 11 outputs the generated synthesized bird's-eye image and the vehicle speed and yaw rate associated with the synthesized bird's-eye image to the lane line candidate test unit 13.

区画線候補検出部12は、区画線候補検出手段の一具体例であり、画像入力装置2のカメラ等により撮影された原画像を用いて、区画線の候補となる区画線候補の位置を検出する。なお、区画線候補検出部12は、合成鳥瞰画像生成部11により生成された合成鳥瞰画像を用いて区画線候補の位置を検出してもよい。   The lane line candidate detection unit 12 is a specific example of a lane line candidate detection unit, and detects the position of a lane line candidate as a lane line candidate using an original image taken by a camera or the like of the image input device 2. To do. The lane line candidate detection unit 12 may detect the position of the lane line candidate using the synthesized bird's-eye image generated by the synthesized bird's-eye image generation unit 11.

区画線候補検出部12は、画像入力装置2からの原画像において、例えば、原画像の階調数が256であれば輝度値200以上の画素を前景とし、それ以外の画素を背景とする、というように原画像を前景と背景とに2値化する。そして、区画線候補検出部12は、その2値化した原画像において前景とされた画素を基に、公知のハフ(Hough)変換により直線を検出し、それら検出した直線を区画線候補とする。区画線候補検出部12は、検出した区画線候補を区画線候補検定部13に出力する。   For example, if the number of gradations of the original image is 256 in the original image from the image input device 2, the lane marking candidate detection unit 12 uses a pixel having a luminance value of 200 or more as the foreground, and other pixels as the background. In this way, the original image is binarized into a foreground and a background. Then, the lane line candidate detection unit 12 detects straight lines by a known Hough transform based on the pixels that are the foreground in the binarized original image, and the detected straight lines are used as lane line candidates. . The lane line candidate detection unit 12 outputs the detected lane line candidates to the lane line candidate test unit 13.

区画線候補検定部13は、区画線候補検定手段の一具体例であり、区画線候補検出部12において検出された区画線候補について、合成鳥瞰画像生成部11において生成された合成鳥瞰画像内の区画線候補の位置及び線種を判定し、区画線候補を認識する。そして、区画線候補検定部13は、認識した区画線候補が区画線として適しているか否かを検定する。   The lane line candidate verification unit 13 is a specific example of the lane line candidate verification unit, and the lane line candidates detected by the lane line candidate detection unit 12 are included in the combined bird's-eye image generated by the synthetic bird's-eye image generation unit 11. The position and line type of the lane line candidate are determined, and the lane line candidate is recognized. Then, the lane line candidate verification unit 13 verifies whether or not the recognized lane line candidate is suitable as a lane line.

区画線候補検定部13は、例えば、合成鳥瞰画像上において認識された区画線候補の位置もしくはその周辺における画素値に基づいて、区画線候補が区画線として適しているか否かを検定する。より具体的には、区画線候補検定部13は、後述の合成鳥瞰画像内の画素値の和が予め設定された閾値以上であるとき、対応する区画線候補が区画線として適していると検定してもよい。   The lane line candidate verification unit 13 verifies whether the lane line candidate is suitable as a lane line based on, for example, the position of the lane line candidate recognized on the synthesized bird's-eye view image or the pixel value in the vicinity thereof. More specifically, the lane line candidate verification unit 13 verifies that the corresponding lane line candidate is suitable as a lane line when the sum of pixel values in a later-described synthesized bird's-eye image is equal to or greater than a preset threshold value. May be.

区画線位置推定部14は、区画線候補検定部13において区画線として適していると検定された区画線候補の位置に基づいて、現時刻の区画線の位置を推定する。また、区画線位置出力部15は、区画線位置推定部14において推定された現時刻の区画線の位置を、ディスプレイなどの表示装置やプリンタ等に出力する。   The lane line position estimation unit 14 estimates the position of the lane line at the current time on the basis of the position of the lane line candidate verified as suitable as a lane line by the lane line candidate verification unit 13. The lane line position output unit 15 outputs the position of the lane line at the current time estimated by the lane line position estimation unit 14 to a display device such as a display, a printer, or the like.

ところで、低速走行時における車線変更においては(図9(a))、時間当たりの横方向の移動量が大きいため、区画線が合成鳥瞰画像上で直線状にならない。したがって、従来の区画線認識システムにおいて、区画線が合成鳥瞰画像上で1本の直線で近似することが困難となるため(図9(b))、区画線の認識精度が低下する可能性がある。   By the way, when changing lanes during low-speed travel (FIG. 9A), the amount of movement in the horizontal direction per time is large, so the lane markings do not become straight on the synthesized bird's-eye image. Therefore, in the conventional lane marking recognition system, it is difficult for the lane marking to be approximated by a single straight line on the synthesized bird's-eye view image (FIG. 9B), which may reduce the lane marking recognition accuracy. is there.

そこで、本実施の形態に係る区画線認識システム10において、合成鳥瞰画像と関連付けられた車速およびヨーレートに基づいて、合成鳥瞰画像内で車両の直進区間を抽出し、該直線区間毎に区画線候補の直線近似を行い、直線近似した各区画線候補を組み合わせて区画線候補の全体を認識する。これにより、低速走行時の車線変更においても、合成鳥瞰画像の区画線を1本の直線に近似して認識することができる。すなわち、低速走行時の車線変更等において、路面上の区画線を高精度に認識することができる。   Therefore, in the lane marking recognition system 10 according to the present embodiment, a straight section of the vehicle is extracted in the synthesized bird's-eye image based on the vehicle speed and yaw rate associated with the synthesized bird's-eye image, and lane line candidates are obtained for each straight segment. The lane line candidates are combined, and the lane line candidates subjected to the line approximation are combined to recognize the entire lane line candidates. Thereby, also in the lane change at the time of low-speed driving | running | working, the division line of a synthetic bird's-eye view image can be approximated and recognized as one straight line. That is, it is possible to recognize the lane markings on the road surface with high accuracy when changing lanes during low-speed driving.

次に、区画線候補検定部13による区画線候補の位置及び線種の判定し、区画線候補を認識する方法について、詳細に説明する。図4は、本実施形態に係る区画線候補検定部による区画線候補の角度判定及び区画線候補の線種判定の処理フローの一例を示すフローチャートである。   Next, a method for determining the position and line type of a lane line candidate by the lane line candidate verification unit 13 and recognizing the lane line candidate will be described in detail. FIG. 4 is a flowchart showing an example of a processing flow of lane line candidate angle determination and lane line candidate line type determination by the lane line candidate verification unit according to the present embodiment.

まず、区画線候補検定部13は、合成鳥瞰画像生成部11からの合成鳥瞰画像と、この合成鳥瞰画像に関連付けられた車速及びヨーレートと、に基づいて、合成鳥瞰画像上で自車が略直進した直進区間を抽出し、抽出した直進区間を、図5に示すように合成鳥瞰画像上の探索区画H1〜H3として設定する(ステップS101)。   First, the lane line candidate verification unit 13 is based on the synthesized bird's-eye image from the synthesized bird's-eye image generation unit 11 and the vehicle speed and yaw rate associated with the synthesized bird's-eye image. The extracted straight section is extracted, and the extracted straight section is set as search sections H1 to H3 on the synthesized bird's-eye image as shown in FIG. 5 (step S101).

ここで、区画線候補検定部13は、合成鳥瞰画像に関連付けられたヨーレートが予め設定された閾値(例えば、±0.01rad/sec)未満となる区間を直進区間として抽出し、探索区間H1〜H3として設定する。なお、上記閾値は、車両特性(動力性能、サスペンション性能等)、車速やヨーレートの連続性などに基づいて、変化させてもよい。例えば、区画線候補検定部13は、ヨーレートの連続性が小さい場合、上記閾値を増加させてもよい。   Here, the lane line candidate test unit 13 extracts a section in which the yaw rate associated with the synthesized bird's-eye image is less than a preset threshold (for example, ± 0.01 rad / sec) as a straight section, and searches the search sections H1 to H1. Set as H3. The threshold value may be changed based on vehicle characteristics (power performance, suspension performance, etc.), continuity of vehicle speed and yaw rate, and the like. For example, the lane marking candidate test unit 13 may increase the threshold when the continuity of the yaw rate is small.

また、区画線候補検定部13は、合成鳥瞰画像に関連付けられた車速を用いて、ヨーレートが変化した区間あるいは変化しない区間の走行距離を求め、この走行距離から合成鳥瞰画像上における上記直進区間の高さ(縦長さ)を求めることができる。   Also, the lane line candidate test unit 13 uses the vehicle speed associated with the composite bird's-eye image to obtain the travel distance of the section where the yaw rate has changed or the section where the yaw rate has not changed, and from this travel distance, Height (vertical length) can be obtained.

図5に示すように、探索区間H1〜H3において、自車は略直進しており、ヨーレートの変化量は小さく閾値未満となっている。一方、探索区間H3とH2との境界、及び探索区間H2とH1との境界において、自車は夫々右旋回及び左旋回しており、ヨーレートの変化量は大きくなっている。   As shown in FIG. 5, in the search sections H1 to H3, the host vehicle is traveling substantially straight, and the change amount of the yaw rate is small and less than the threshold value. On the other hand, at the boundary between the search sections H3 and H2 and the boundary between the search sections H2 and H1, the vehicle turns right and left, respectively, and the amount of change in the yaw rate is large.

次に、区画線候補検定部13は、合成鳥瞰画像内に設定された各探索区間H1〜H3内において、区画線候補検出部12により検出された区画線候補の角度を夫々判定する(区画線候補の角度判定)。ここで、区画線候補の位置は、例えば、図6に示すように、合成鳥瞰画像61の手前切片とし、上記区画線候補の角度を所定角度の範囲62内のいずれかであるとすることにより、合成鳥瞰画像61内における区画線候補の位置63を表現する。   Next, the lane line candidate verification unit 13 determines the angles of the lane line candidates detected by the lane line candidate detection unit 12 in each of the search sections H1 to H3 set in the synthesized bird's-eye image (division line). Candidate angle determination). Here, for example, as shown in FIG. 6, the position of the lane line candidate is set as a front segment of the synthetic bird's-eye view image 61, and the angle of the lane line candidate is within one of a predetermined angle range 62. The lane marking candidate position 63 in the synthetic bird's-eye view image 61 is expressed.

区画線候補検定部13は、合成鳥瞰画像の各探索区間内において、所定角度の範囲(例えば、±30度)について、徐徐に(例えば、1度ずつ)角度を変化させながら、区画線候補の位置またはその周辺、例えば、区画線候補の位置を中心とした左右20cmの範囲、における画素値の和を算出する(ステップS102)。なお、区画線候補検定部13は、ヨーレートセンサ4により検出されたヨーレートの値に応じて、所定角度の範囲を変化させてもよい。   The lane line candidate verification unit 13 changes the angle of the predetermined angle range (for example, ± 30 degrees) gradually (for example, by 1 degree) within each search section of the synthetic bird's-eye view image, while determining the lane line candidate. The sum of the pixel values at the position or the periphery thereof, for example, the range of 20 cm left and right centering on the position of the lane marking candidate is calculated (step S102). Note that the lane marking candidate test unit 13 may change the range of the predetermined angle according to the value of the yaw rate detected by the yaw rate sensor 4.

そして、区画線候補検定部13は、上述の所定角度の範囲における角度探索が終了すると(ステップS103)、画素値の和が最大となる角度を区画線候補の角度として決定する(ステップS104)。   Then, when the angle search within the predetermined angle range is completed (step S103), the lane line candidate verification unit 13 determines an angle that maximizes the sum of the pixel values as the lane line candidate angle (step S104).

さらに、区画線候補検定部13は、全ての探索区間について、区画線候補の角度を決定すると(ステップS105のYES)、後述の区画線候補の線種判定を行う。   Further, when the lane line candidate verification unit 13 determines the angle of the lane line candidate for all the search sections (YES in step S105), the lane line candidate determination unit 13 performs line type determination of the lane line candidate described later.

区画線候補検定部13は、区画線候補の線種判定において、合成鳥瞰画像の探索区間毎に算出した区画線候補の角度を用いて、各探索区間内における白線及びブランクの長さを夫々算出する(ステップS106)。   The lane line candidate verification unit 13 calculates the lengths of white lines and blanks in each search section using the lane line candidate angles calculated for each search section of the composite bird's-eye view image in line type determination of the lane line candidates. (Step S106).

区画線候補検定部13は、全ての探索区間内において白線及びブランクの長さを夫々算出すると(ステップS107のYES)、探索区間毎に白線及びブランクの長さを夫々集計し、各長さの集計結果に基づいて、区画線候補の線種を判定し(ステップS108)、区画線候補を認識する。   When the lane line candidate test unit 13 calculates the lengths of the white line and the blank in all the search sections (YES in step S107), the lane line candidate test unit 13 adds up the lengths of the white line and the blank for each search section. Based on the total result, the line type of the lane line candidate is determined (step S108), and the lane line candidate is recognized.

以上、本実施の形態に係る区画線認識システム10において、直進区間毎に区画線候補の直線近似を行うことにより、たとえ合成鳥瞰画像上で区画線が1本の直線で表現されていない場合でも、図5に示すように直線を組み合わせることにより1本の直線に近似することができる。したがって、低速走行時の車線変更においても、合成鳥瞰画像の区画線を1本の直線に近似して認識することができる。すなわち、低速走行時の車線変更等において、路面上の区画線を高精度に認識することができる。また、上述のように区画線を認識しつつ、地図情報やGPS情報を組み合わせることにより、自車位置の精度向上を図ることもできる。   As described above, in the lane marking recognition system 10 according to the present embodiment, even if the lane marking is not represented by a single straight line on the synthesized bird's-eye image by performing linear approximation of the lane marking candidates for each straight section. As shown in FIG. 5, a straight line can be approximated by combining straight lines. Therefore, even in a lane change during low-speed traveling, the lane markings in the synthesized bird's-eye image can be recognized as being approximated by a single straight line. That is, it is possible to recognize the lane markings on the road surface with high accuracy when changing lanes during low-speed driving. Further, the accuracy of the vehicle position can be improved by combining the map information and the GPS information while recognizing the lane marking as described above.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。   Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention.

また、上記実施の形態において、任意の処理を、CPU1aにコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、記録媒体に記録して提供することも可能であり、また、インターネットその他の通信媒体を介して伝送することにより提供することも可能である。   In the above-described embodiment, arbitrary processing can be realized by causing the CPU 1a to execute a computer program. In this case, the computer program can be provided by being recorded on a recording medium, or can be provided by being transmitted via the Internet or another communication medium.

さらに、記憶媒体には、例えば、フレキシブルディスク、ハードディスク、磁気ディスク、光磁気ディスク、CD−ROM、DVD、ROMカートリッジ、バッテリバックアップ付きRAMメモリカートリッジ、フラッシュメモリカートリッジ、不揮発性RAMカートリッジ等が含まれる。さらにまた、通信媒体には、電話回線等の有線通信媒体、マイクロ波回線等の無線通信媒体等が含まれる。   Further, the storage medium includes, for example, a flexible disk, a hard disk, a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD, a ROM cartridge, a battery-backed RAM memory cartridge, a flash memory cartridge, and a nonvolatile RAM cartridge. Furthermore, the communication medium includes a wired communication medium such as a telephone line, a wireless communication medium such as a microwave line, and the like.

1 制御装置
2 画像入力装置
3 車速センサ
4 ヨーレートセンサ
10 区画線認識システム
11 合成鳥瞰画像生成部
12 区画線候補検出部
13 区画線候補検定部
14 区画線位置推定部
15 区画線位置出力部
DESCRIPTION OF SYMBOLS 1 Control apparatus 2 Image input device 3 Vehicle speed sensor 4 Yaw rate sensor 10 Completion line recognition system 11 Composite bird's-eye view image generation part 12 Completion line candidate detection part 13 Completion line candidate test part 14 Completion line position estimation part 15 Completion line position output part

Claims (7)

自車の車速を検出する車速検出手段と、
自車のヨーレートを検出するヨーレート検出手段と、
路面の原画像を入力する画像入力手段と、
前記画像入力手段により入力された複数の異なる時刻における前記原画像に基づいて合成鳥瞰画像を生成し、該合成鳥瞰画像に、該合成鳥瞰画像を生成したときの前記車速検出手段により検出された前記車速と、前記ヨーレート検出手段により検出された前記ヨーレートと、を関連付ける合成鳥瞰画像生成手段と、
前記原画像および前記合成鳥瞰画像のうち少なくとも一方から、区画線候補を検出する区画線候補検出手段と、
前記合成鳥瞰画像と前記関連付けられた車速およびヨーレートとに基づいて、車両の直進区間を抽出し、該直線区間毎に、前記区画線候補検出手段により検出された前記区画線候補を認識し、該認識した区画線候補が区画線として適しているか否かを検定する区画線候補検定手段と、
を備える、ことを特徴とする区画線認識システム。
Vehicle speed detection means for detecting the vehicle speed of the vehicle;
A yaw rate detection means for detecting the yaw rate of the vehicle;
An image input means for inputting an original image of the road surface;
A synthesized bird's-eye image is generated based on the original images at a plurality of different times input by the image input means, and the vehicle speed detection means detected when the synthesized bird's-eye image is generated in the synthesized bird's-eye image. Synthetic bird's-eye view image generation means for associating a vehicle speed and the yaw rate detected by the yaw rate detection means;
Lane line candidate detection means for detecting a lane line candidate from at least one of the original image and the synthesized bird's-eye view image;
Based on the synthetic bird's-eye view image and the associated vehicle speed and yaw rate, a straight section of the vehicle is extracted, and the lane line candidate detected by the lane line candidate detection means is recognized for each straight section, A lane line candidate verification means for verifying whether the recognized lane line candidate is suitable as a lane line;
A lane marking recognition system comprising:
請求項1記載の区画線認識システムであって、
前記区画線候補検定手段は、前記合成鳥瞰画像において、前記ヨーレート検出手段により検出された前記ヨーレートが閾値未満となる区間を前記直進区間として設定する、ことを特徴とする区画線認識システム。
The lane marking recognition system according to claim 1,
The lane line recognition system according to claim 1, wherein the lane line candidate verification unit sets a section where the yaw rate detected by the yaw rate detection unit is less than a threshold in the synthetic bird's-eye view image as the straight line section.
請求項2記載の区画線認識システムであって、
前記区画線候補検定手段は、自車の車両特性、前記車速検出手段により検出された前記車速、または、前記ヨーレート検出手段により検出された前記ヨーレートの連続性に応じて、前記閾値を変化させる、ことを特徴とする区画線認識システム。
A lane marking recognition system according to claim 2,
The lane marking candidate verification means changes the threshold according to vehicle characteristics of the vehicle, the vehicle speed detected by the vehicle speed detection means, or the continuity of the yaw rate detected by the yaw rate detection means, A lane marking recognition system characterized by that.
請求項1乃至3のうちいずれか1項記載の区画線認識システムであって、
前記区画線候補検定手段は、前記合成鳥瞰画像の各直進区間において、所定の画素値の和が最大となるときの前記区画線候補の角度を夫々判定して、前記区画線候補の位置を認識する、ことを特徴とする区画線認識システム。
A lane marking recognition system according to any one of claims 1 to 3,
The lane line candidate verification means recognizes the position of the lane line candidate by determining each angle of the lane line candidate when the sum of predetermined pixel values becomes maximum in each straight section of the synthetic bird's-eye view image. A lane marking recognition system characterized by that.
請求項1乃至4のうちいずれか1項記載の区画線認識システムであって、
前記区画線候補検定手段は、前記合成鳥瞰画像の直進区間毎に、白線又はブランクの長さを集計し、該集計した長さに基づいて、前記区画線候補の線種を判定し、前記区画線候補を認識する、ことを特徴とする区画線認識システム。
A lane marking recognition system according to any one of claims 1 to 4,
The lane line candidate verification means totalizes the lengths of white lines or blanks for each straight section of the synthetic bird's-eye view image, determines the line type of the lane line candidates based on the total length, and A lane marking recognition system characterized by recognizing a line candidate.
自車の車速を検出する工程と、
自車のヨーレートを検出する工程と、
路面の原画像を入力する工程と、
前記入力された複数の異なる時刻における原画像に基づいて合成鳥瞰画像を生成し、該合成鳥瞰画像に、該合成鳥瞰画像を生成したときに前記検出された車速と、前記検出されたヨーレートと、を関連付ける工程と、
前記原画像および前記合成鳥瞰画像のうち少なくとも一方から、区画線候補を検出する工程と、
前記合成鳥瞰画像と前記関連付けられた車速およびヨーレートとに基づいて、車両の直進区間を抽出し、該直線区間毎に、前記検出された区画線候補を認識し、該認識した区画線候補が区画線として適しているか否かを検定する工程と、
を含む、ことを特徴とする区画線認識方法。
Detecting the speed of the vehicle,
Detecting the yaw rate of the vehicle;
Inputting the original image of the road surface;
A composite bird's-eye image is generated based on the input original images at a plurality of different times, and the detected vehicle speed when the composite bird's-eye image is generated in the composite bird's-eye image, and the detected yaw rate, And associating
Detecting a lane line candidate from at least one of the original image and the synthesized bird's-eye image;
Based on the synthetic bird's-eye view image and the associated vehicle speed and yaw rate, a straight section of the vehicle is extracted, the detected lane line candidate is recognized for each straight section, and the recognized lane line candidate is defined as a section. Testing whether it is suitable as a line;
A lane marking recognition method comprising:
自車の車速を検出する処理と、
自車のヨーレートを検出する処理と、
路面の原画像を入力する処理と、
前記入力された複数の異なる時刻における原画像に基づいて合成鳥瞰画像を生成し、該合成鳥瞰画像に、該合成鳥瞰画像を生成したときに前記検出された車速と、前記検出されたヨーレートと、を関連付ける処理と、
前記原画像および前記合成鳥瞰画像のうち少なくとも一方から、区画線候補を検出する処理と、
前記合成鳥瞰画像と前記関連付けられた車速およびヨーレートとに基づいて、車両の直進区間を抽出し、該直線区間毎に、前記検出された区画線候補を認識し、該認識した区画線候補が区画線として適しているか否かを検定する処理と、
をコンピュータに実行させる区画線認識プログラム。
Processing to detect the speed of the vehicle,
Processing to detect the yaw rate of the vehicle,
Processing to input the original road image,
A composite bird's-eye image is generated based on the input original images at a plurality of different times, and the detected vehicle speed when the composite bird's-eye image is generated in the composite bird's-eye image, and the detected yaw rate, The process of associating
Processing for detecting lane marking candidates from at least one of the original image and the synthesized bird's-eye view image;
Based on the synthetic bird's-eye view image and the associated vehicle speed and yaw rate, a straight section of the vehicle is extracted, the detected lane line candidate is recognized for each straight section, and the recognized lane line candidate is defined as a section. Processing to test whether it is suitable as a line;
A lane marking recognition program that causes a computer to execute.
JP2010033509A 2010-02-18 2010-02-18 System, method and program for recognizing compartment line Pending JP2011170596A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010033509A JP2011170596A (en) 2010-02-18 2010-02-18 System, method and program for recognizing compartment line

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010033509A JP2011170596A (en) 2010-02-18 2010-02-18 System, method and program for recognizing compartment line

Publications (1)

Publication Number Publication Date
JP2011170596A true JP2011170596A (en) 2011-09-01

Family

ID=44684661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010033509A Pending JP2011170596A (en) 2010-02-18 2010-02-18 System, method and program for recognizing compartment line

Country Status (1)

Country Link
JP (1) JP2011170596A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112699825A (en) * 2021-01-05 2021-04-23 上海博泰悦臻网络技术服务有限公司 Lane line identification method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002029347A (en) * 2000-07-17 2002-01-29 Honda Motor Co Ltd Detector for travel partitioning line for vehicle
JP2004070383A (en) * 2002-08-01 2004-03-04 Nissan Motor Co Ltd Vehicle travel controller
JP2009169510A (en) * 2008-01-11 2009-07-30 Nec Corp Lane recognition device, lane recognition method, and lane recognition program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002029347A (en) * 2000-07-17 2002-01-29 Honda Motor Co Ltd Detector for travel partitioning line for vehicle
JP2004070383A (en) * 2002-08-01 2004-03-04 Nissan Motor Co Ltd Vehicle travel controller
JP2009169510A (en) * 2008-01-11 2009-07-30 Nec Corp Lane recognition device, lane recognition method, and lane recognition program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112699825A (en) * 2021-01-05 2021-04-23 上海博泰悦臻网络技术服务有限公司 Lane line identification method and device

Similar Documents

Publication Publication Date Title
JP6595182B2 (en) Systems and methods for mapping, locating, and attitude correction
US8369577B2 (en) Vehicle position recognition system
CN109435942A (en) A kind of parking stall line parking stall recognition methods and device based on information fusion
CN107563256A (en) Aid in driving information production method and device, DAS (Driver Assistant System)
JP5968064B2 (en) Traveling lane recognition device and traveling lane recognition method
EP3942794B1 (en) Depth-guided video inpainting for autonomous driving
JP6520740B2 (en) Object detection method, object detection device, and program
CN104376297A (en) Detection method and device for linear indication signs on road
JP2008033750A (en) Object inclination detector
JP2018055414A (en) Target-lane relationship recognition system
CN109791607B (en) Detection and verification of objects from a series of images of a camera by means of homography matrices
JP5742558B2 (en) POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM
JP4937844B2 (en) Pedestrian detection device
JPWO2014115319A1 (en) Road environment recognition system
JP4940177B2 (en) Traffic flow measuring device
WO2017130397A1 (en) Position estimation device, position estimation method, and position estimation program
JP2008298699A (en) Own vehicle position recognition device and own vehicle position recognition method
JP2011191894A (en) Driving support apparatus and program
JP5012522B2 (en) Roadside boundary surface detection device
JP7003972B2 (en) Distance estimation device, distance estimation method and computer program for distance estimation
JP2017182139A (en) Determination apparatus, determination method, and determination program
JP6232883B2 (en) Own vehicle position recognition device
JP2013089111A (en) Lane monitoring system and lane monitoring method
JP2011170596A (en) System, method and program for recognizing compartment line
JP5957182B2 (en) Road surface pattern recognition method and vehicle information recording apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130924