JP3655541B2 - Lane detector - Google Patents

Lane detector Download PDF

Info

Publication number
JP3655541B2
JP3655541B2 JP2000282092A JP2000282092A JP3655541B2 JP 3655541 B2 JP3655541 B2 JP 3655541B2 JP 2000282092 A JP2000282092 A JP 2000282092A JP 2000282092 A JP2000282092 A JP 2000282092A JP 3655541 B2 JP3655541 B2 JP 3655541B2
Authority
JP
Japan
Prior art keywords
data
lane
labeling
noise
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000282092A
Other languages
Japanese (ja)
Other versions
JP2002094978A (en
Inventor
久志 里中
俊明 柿並
新 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2000282092A priority Critical patent/JP3655541B2/en
Publication of JP2002094978A publication Critical patent/JP2002094978A/en
Application granted granted Critical
Publication of JP3655541B2 publication Critical patent/JP3655541B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は自動走行システムや駐車支援システムに適応可能な画像処理を用いたレーン検出装置に関する。
【0002】
【従来の技術】
近年、道路等で走行レーンを示す白線等を画像処理によって検出し、認識結果を基にしてドライバーに対して各種の情報を提供したり、さらには、車両を自動走行させる際の制御にこの認識結果を用いるシステムが提案されている。
【0003】
こうした白線認識の技術としては特開平11−195127号公報に開示されている技術が知られている。同公報によれば、画像中のエッジを抽出し、抽出したエッジをラベリングして、その中から角度が対になるエッジを検出することで白線を精度良く認識できると記載されている。
【0004】
【発明が解決しようとする課題】
こうした画像は車両の前部または後部に設置されたカメラにより取得されるが、カメラのレンズ前に雨滴や汚れがついていると、画像データ自体が劣化してしまうため、精度良く認識することが困難になる。
【0005】
そこで本発明は、カメラのレンズ等に付着した雨滴や汚れなどによる画像データのノイズの影響を受けにくく、精度良い認識が可能なレーン検出装置を提供することを課題とする。
【0006】
【課題を解決するための手段】
上記課題を解決するため、本発明に係るレーン検出装置は、カメラから取り込んだ画像中のレーン情報を検出するレーン検出装置であって、(1)取り込んだ画像データから所定の特徴量を検出する特徴量検出手段と、(2)検出した特徴量に基づいて画像中の特徴部を抽出してラベリングするラベリング手段と、(3)ラベリング結果を記憶する記憶手段と、(4)現在のラベリング結果を過去のラベリング結果と比較し、フレームの略同一位置でラベリング結果が一致するデータをノイズとしてデータから除去するノイズ除去手段と、(5)ノイズを除去したラベリング結果からレーン情報を検出する検出手段と、を備えていることを特徴とする。
【0007】
カメラのレンズに付着した雨滴や汚れ等は、レンズに対する移動速度は車両外の風景に比して小さく、画像のフレーム中ではほぼ静止状態にある。本発明では、このことを利用して過去のラベリング結果と現在のラベリング結果を比較し、フレームの略同一位置で一致しているデータをこれらの汚れ等のノイズと判定して除去することでレーン情報を正確に判定するものである。
【0008】
このノイズ除去手段は、所定期間にわたってフレームの略同一位置に過去のラベリング結果と一致するデータがある場合に、そのデータをノイズと判定するものであって、この所定期間を車速が高い場合には低い場合に比べて短くすることが好ましい。
【0009】
前述したようにノイズは画像のフレーム中でほぼ静止状態にある。したがって、所定期間にわたって、過去のラベリング結果と一致しているデータ、すなわち、静止しているデータがある場合はノイズと判定し得る。そして、車速が高い場合には、風景等の画像データはフレーム内をより高速で移動することとなるから、静止しているデータか否かの判定をより短時間で行うことが可能となる。
【0010】
ラベリング結果の比較にあたっては、所定期間内に所定周期で複数回のラベリング結果の比較を行うか、所定期間経過前のフレームにおけるラベリング結果との比較を行えばよい。
【0011】
【発明の実施の形態】
以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の参照番号を附し、重複する説明は省略する。
【0012】
図1は本発明に係るレーン検出装置を車線逸脱警報装置に適用した場合の基本構成を示す概略構成図であり、図2はそのCCDカメラ2の使用状態を説明する図である。
【0013】
本発明に係るレーン検出装置は、図1に示されるようにCCDカメラ2からの画像信号を受信して処理するレーン検出ECU1からなり、内部には画像処理CPU10とメモリ11を有する。すなわち、この画像処理CPU10が本発明に係る特徴量検出手段、ラベリング手段、ノイズ除去手段、レーン情報検出手段を内蔵されたプログラムにより兼ねることになる。このレーン検出ECU1は、車線逸脱警報ECU3に接続されて、相互に情報を送受し合う。車線逸脱警報ECU3には、車両状態量として車速センサ41、操舵角センサ42、ヨーレートセンサ43の各出力信号が入力される。車線逸脱警報ECU3は車両状態量から車両の将来の軌跡を予想し、レーン検出ECU1が検出したレーン位置と比較することで車両がレーンを逸脱すると判定した場合には図示していない警告灯、アラーム等を利用して運転者に注意を促すものである。
【0014】
CCDカメラ2は車両5の車室前方中央に配置され、フロントガラス50越しに車両前方の路面の画像を取得するものである。車両5が走行する路面6上の車線(レーン)60は、左右の区画線(レーンマーク)61Rと61Lにより区画されている。
【0015】
本発明に係るレーン検出装置の動作を図3〜図5を参照して説明する。図3は、この装置の動作を説明するフローチャートであり、図4、図5はCCDカメラで取得した一連の生画像とそのラベリング結果を示している。
【0016】
図3に示されるフローは、イグニッションスイッチがONされてから、所定の間隔、例えばカメラの画像取得に合わせてレーン検出ECU1内の画像処理CPU10において繰り返し実行される。
【0017】
まず、ステップS1では、車線逸脱警報ECU3を介して車速センサ41、操舵角センサ42、ヨーレートセンサ43から車両状態量が読み込まれる。続いて、ステップS2では、CCDカメラ2から画像データが取り込まれる。
【0018】
ステップS3では、取得した画像データ、例えば図4(a)〜(d)に示されるような画像データから特徴量として画像の輪郭、すなわちエッジを検出する。これらの画像中には、レーンマーク61R、61Lと他車線を先行する他車両62の他に、車両5の前部5a、フロントガラス50上に付着した雨滴71、72が映っている。これらの輪郭をそれぞれ検出することになる。
【0019】
そして、ステップS4では、検出したエッジを連結して線分化する。そのあと、ステップS5において検出された線分に番号付け、すなわちラベリングを行う。この画像データからのエッジ検出、線分化、ラベリングの手法については『画像工学ハンドブック』(樋渡涓二編、朝倉書店、1986年)の249〜256頁に記載されている。図4(a)〜(d)に示される画像データからエッジを検出し、線分化してラベリングした状態を図5に示す。図中はラベリングしたナンバーをLをつけて表している。すなわち、元画像中の雨滴71、72をそれぞれ1番、2番とし、レーンマーク61Lが3番、車両前部5aが4番、レーンマーク61Rが5番、他車両62が6番として番号付けされる。
【0020】
ステップS6では、こうして、ラベリングした結果、つまり抽出した線分の形状、位置情報をメモリ11に記憶しておく。
【0021】
ステップS7〜S11は、雨滴71、72のようなノイズを除去する工程である。例えば、図4(c)、図5(c)の時点における処理を考える。ここでは、1〜6番にラベリングされた線分L1〜L6が検出されている。これを1つずつ、1番から順に過去のラベリング結果、例えば、図5(a)、(b)の時点のラベリング結果と比較していく。
【0022】
具体的には、まず、ステップS7において、1番のデータL1を選択し、ステップS8で過去のデータでも略同一位置に同様の形状の線分データが存在するか否かを判定する。データL1は雨滴71のデータであり、車両5のフロントガラス50に付着して、CCDカメラ2と同様に車両5とともに移動していることから、画面内部での移動速度はほとんどない。そのため、過去のデータと一致すると判定され、ステップS9へと移行して、このデータはノイズとして除去される。
【0023】
ここで、一致データありの判定は、所定の期間にわたって略同一位置に同様の形状の線分データが存在している場合を一致とみなす方法と所定時間前のデータと比較して略同一位置に同様の形状の線分データが存在している場合を一致とみなす方法の2種類がある。いずれの場合もステップS1で得られた車速、操舵角等のデータから車両の運動状態に応じて所定の期間の長さ、所定時間の間隔を変更することが好ましい。この変更は段階的であってもよく、特定の車速閾値以上か否かで切り替えるようにしてもよい。
【0024】
車両が高速で移動している場合や操舵角が大きい場合には、画像中でのレーンマークの移動速度も速くなることから、一致判定に用いる過去のデータはごく直近のデータだけを用いても精度良く判定が可能である。一方、低速・小舵角で移動している場合には、画像中でのレーンマークの移動速度も遅くなることから、精度良い判定のためには一致判定に用いる過去のデータはある程度現在よりさかのぼった時点のデータを利用することが必要となる。
【0025】
次のステップS11では、最終ラベルのデータ(ここではL6)でない限り、ステップS12へと移行し、ラベル番号を1つ追加して次のデータを選択してステップS8へと戻る。雨滴72を表すデータL2や車両前部5aを表すデータL4の場合も一致があるため、ステップS9でノイズとして除去される。この他、CCDカメラ2のレンズやフロントガラス50の傷や付着した汚れ等も同様の手法で除去することが可能である。なお、車両前部5aについてはその位置、形状が既知であることからステップS2の入力時点でこの部分を除外してエッジ検出等を行ってもよい。
【0026】
一方、レーンマーク61L、61Rをそれぞれ表すデータL3、L5や他車両62を表すデータL6の場合は位置の移動や形状の移動があるため、ステップS8では記憶データと一致がないと判定されてステップS10へと移行する。そして、有効データとして次の処理のために残される。
【0027】
こうして、有効データとして残されたデータL3、L5、L6のみについてステップS13でレーンマークの検出処理を行うことにより、ノイズの影響を除去してレーンマーク61L、61Rを精度良く認識することができる。
【0028】
なお、ノイズとして除外したデータが画像に占める領域が一定以上(例えば10%以上)に多い場合にはカメラに付いた傷や汚れ等が多く、画像データの信頼性が欠けると判定してレーンマークの検出処理を行わずにその旨を運転者に警告することが好ましい。
【0029】
以上の説明では、CCDカメラ2を車室前方中央に搭載した形態について説明したが、カメラの設置はこの位置に限られるものではなく、車室前方の別の位置に配置したカメラのほか車室内の後方に配置してリアウィンドウ越しに後方を撮影するカメラに対しても適用可能である。また車室外の車両前方や側方あるいは後方に配置し、いずれかの位置のレーンマークを撮影するカメラを用いても同様の手法でノイズのないレーンマーク検出を行うことが可能である。
【0030】
また、レーンマークの検出のための情報としては特徴量としてエッジ抽出を行ったが、二値化等により特徴量を抽出してもよい。
【0031】
ここでは、検出したレーンマーク情報を車線逸脱警報に用いる例を説明してきたが、車両の自動走行や駐車支援等にも用いることが可能である。
【0032】
【発明の効果】
以上説明したように本発明によれば、雨滴や汚れ等のノイズはカメラとともに移動することを利用し、画像内で特徴量を抽出してラベリングしたデータのうち移動の少ないデータをノイズとして除去することでこれらのノイズを精度良く除去してレーンマークを確実に検出することが可能である。
【図面の簡単な説明】
【図1】本発明に係るレーン検出装置を用いた車線逸脱警報装置を示す概略図である。
【図2】図1の装置のCCDカメラの使用状態を示す図である。
【図3】本発明に係るレーン検出装置の動作を説明するフローチャートである。
【図4】CCDカメラで取得する生画像変化の一例を示す図である。
【図5】図4のそれぞれの画像中のラベリング結果を示す図である。
【符号の説明】
1…レーン検出ECU、2…CCDカメラ、3…車線逸脱警報ECU、6…路面、10…画像処理CPU、11…メモリ、41…車速センサ、42…操舵角センサ、43…ヨーレートセンサ、50…フロントガラス、60…車線(レーン)、61…区画線(レーンマーク)。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a lane detection apparatus using image processing that can be applied to an automatic driving system or a parking assistance system.
[0002]
[Prior art]
In recent years, a white line or the like indicating a driving lane on a road or the like is detected by image processing, and various information is provided to the driver based on the recognition result, and further, this recognition is used for control when the vehicle is automatically driven. Systems using the results have been proposed.
[0003]
As such a white line recognition technique, a technique disclosed in Japanese Patent Laid-Open No. 11-195127 is known. According to the publication, it is described that white lines can be accurately recognized by extracting edges in an image, labeling the extracted edges, and detecting edges having a pair of angles from the extracted edges.
[0004]
[Problems to be solved by the invention]
These images are acquired by a camera installed at the front or rear of the vehicle. However, if there are raindrops or dirt in front of the camera lens, the image data itself will deteriorate, making it difficult to recognize it accurately. become.
[0005]
SUMMARY OF THE INVENTION An object of the present invention is to provide a lane detection apparatus that is not easily affected by noise of image data due to raindrops or dirt adhering to a camera lens or the like, and that can be recognized accurately.
[0006]
[Means for Solving the Problems]
In order to solve the above problems, a lane detection device according to the present invention is a lane detection device that detects lane information in an image captured from a camera, and (1) detects a predetermined feature amount from the captured image data. Feature quantity detection means, (2) Labeling means for extracting and labeling feature parts in the image based on the detected feature quantity, (3) Storage means for storing the labeling result, and (4) Current labeling result Noise removal means that removes data that matches the labeling result at almost the same position in the frame as noise from the data, and (5) detection means that detects lane information from the labeling result after removing noise And.
[0007]
Raindrops, dirt, and the like adhering to the lens of the camera have a lower moving speed relative to the lens than the scenery outside the vehicle, and are almost stationary in the image frame. In the present invention, the past labeling result and the current labeling result are compared using this fact, and data matching at substantially the same position in the frame is determined as noise such as dirt, and is removed. Information is determined accurately.
[0008]
The noise removing means determines that the data is determined to be noise when there is data that coincides with the past labeling result at substantially the same position in the frame over a predetermined period, and when the vehicle speed is high during the predetermined period. It is preferable to make it shorter than when it is low.
[0009]
As described above, the noise is almost stationary in the frame of the image. Therefore, if there is data that matches the past labeling result over a predetermined period, that is, data that is stationary, it can be determined as noise. When the vehicle speed is high, image data such as landscape moves at a higher speed in the frame, so that it is possible to determine whether or not the data is stationary in a shorter time.
[0010]
In comparing the labeling results, the labeling results may be compared a plurality of times in a predetermined cycle within a predetermined period, or may be compared with the labeling results in a frame before the predetermined period has elapsed.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the description, the same reference numerals are given to the same components in the drawings as much as possible, and duplicate descriptions are omitted.
[0012]
FIG. 1 is a schematic configuration diagram showing a basic configuration when the lane detection device according to the present invention is applied to a lane departure warning device, and FIG. 2 is a diagram for explaining a use state of the CCD camera 2.
[0013]
As shown in FIG. 1, the lane detection apparatus according to the present invention includes a lane detection ECU 1 that receives and processes an image signal from a CCD camera 2, and has an image processing CPU 10 and a memory 11 inside. That is, the image processing CPU 10 also serves as a feature amount detection unit, a labeling unit, a noise removal unit, and a lane information detection unit according to the present invention by a built-in program. The lane detection ECU 1 is connected to a lane departure warning ECU 3 to exchange information with each other. The output signals of the vehicle speed sensor 41, the steering angle sensor 42, and the yaw rate sensor 43 are input to the lane departure warning ECU 3 as vehicle state quantities. The lane departure warning ECU 3 predicts the future trajectory of the vehicle from the vehicle state quantity, and compares it with the lane position detected by the lane detection ECU 1 to determine that the vehicle departs from the lane. Etc. are used to alert the driver.
[0014]
The CCD camera 2 is arranged at the front center of the vehicle 5 and acquires an image of the road surface in front of the vehicle through the windshield 50. A lane (lane) 60 on the road surface 6 on which the vehicle 5 travels is partitioned by left and right lane markings (lane marks) 61R and 61L.
[0015]
The operation of the lane detection apparatus according to the present invention will be described with reference to FIGS. FIG. 3 is a flowchart for explaining the operation of this apparatus. FIGS. 4 and 5 show a series of raw images acquired by the CCD camera and the labeling results.
[0016]
The flow shown in FIG. 3 is repeatedly executed by the image processing CPU 10 in the lane detection ECU 1 in accordance with a predetermined interval, for example, the image acquisition of the camera after the ignition switch is turned on.
[0017]
First, in step S1, the vehicle state quantity is read from the vehicle speed sensor 41, the steering angle sensor 42, and the yaw rate sensor 43 via the lane departure warning ECU 3. Subsequently, in step S2, image data is taken from the CCD camera 2.
[0018]
In step S3, the outline of the image, that is, the edge is detected as a feature amount from the acquired image data, for example, image data as shown in FIGS. In these images, raindrops 71 and 72 adhering to the front portion 5a of the vehicle 5 and the windshield 50 are shown in addition to the lane marks 61R and 61L and the other vehicle 62 preceding the other lane. Each of these contours will be detected.
[0019]
In step S4, the detected edges are connected to perform line differentiation. Thereafter, the line segments detected in step S5 are numbered, that is, labeled. The methods of edge detection, line differentiation, and labeling from this image data are described in pages 249 to 256 of “Image Engineering Handbook” (Koji Watanabe, Asakura Shoten, 1986). FIG. 5 shows a state in which edges are detected from the image data shown in FIGS. In the figure, the labeled numbers are indicated with L. That is, the raindrops 71 and 72 in the original image are numbered 1 and 2, respectively, the lane mark 61L is numbered 3, the vehicle front 5a is numbered 4, the lane mark 61R is numbered 5, and the other vehicle 62 is numbered 6. Is done.
[0020]
In step S6, the result of labeling, that is, the extracted line segment shape and position information is stored in the memory 11.
[0021]
Steps S7 to S11 are steps for removing noise such as raindrops 71 and 72. For example, consider the processing at the time of FIG. 4 (c) and FIG. 5 (c). Here, line segments L1 to L6 labeled No. 1 to No. 6 are detected. This is compared one by one with the past labeling results in order from No. 1, for example, the labeling results at the time of FIGS. 5 (a) and 5 (b).
[0022]
Specifically, first, in step S7, the first data L1 is selected, and in step S8, it is determined whether or not line data having the same shape exists in substantially the same position in the past data. The data L1 is data of the raindrops 71 and is attached to the windshield 50 of the vehicle 5 and moves together with the vehicle 5 in the same manner as the CCD camera 2, and therefore there is almost no moving speed inside the screen. Therefore, it is determined that the data matches the past data, the process proceeds to step S9, and this data is removed as noise.
[0023]
Here, the determination of the presence of coincidence data is made at a substantially identical position compared to a method in which a line segment data having a similar shape is present at substantially the same position over a predetermined period as compared with data before a predetermined time. There are two types of methods that consider matching when line data of similar shape exists. In any case, it is preferable to change the length of the predetermined period and the predetermined time interval according to the motion state of the vehicle from the data such as the vehicle speed and the steering angle obtained in step S1. This change may be stepwise, and may be switched depending on whether or not it is a specific vehicle speed threshold value or more.
[0024]
When the vehicle is moving at a high speed or when the steering angle is large, the moving speed of the lane mark in the image is also increased, so the past data used for matching determination may be only the most recent data. Judgment with high accuracy is possible. On the other hand, when moving at a low speed and a small steering angle, the moving speed of the lane mark in the image is also slowed down. It is necessary to use data at the time.
[0025]
In the next step S11, unless the data is the final label data (L6 in this case), the process proceeds to step S12, one label number is added, the next data is selected, and the process returns to step S8. Since the data L2 representing the raindrop 72 and the data L4 representing the vehicle front portion 5a are also coincident, they are removed as noise in step S9. In addition, scratches and attached dirt on the lens of the CCD camera 2 and the windshield 50 can be removed by the same method. Since the position and shape of the vehicle front portion 5a are known, edge detection or the like may be performed by excluding this portion at the time of input in step S2.
[0026]
On the other hand, in the case of the data L3 and L5 representing the lane marks 61L and 61R and the data L6 representing the other vehicle 62, there is a movement of the position and a movement of the shape. The process proceeds to S10. Then, it is left as valid data for the next processing.
[0027]
In this way, by performing the lane mark detection process for only the data L3, L5, and L6 remaining as valid data in step S13, it is possible to remove the influence of noise and recognize the lane marks 61L and 61R with high accuracy.
[0028]
Note that if the data excluded as noise occupies more than a certain area (for example, 10% or more), it is determined that the image data is unreliable because there are many scratches and dirt on the camera. It is preferable to warn the driver to that effect without performing the detection process.
[0029]
In the above description, the embodiment in which the CCD camera 2 is mounted in the front center of the passenger compartment has been described. However, the installation of the camera is not limited to this position. The present invention can also be applied to a camera that is arranged behind the camera and shoots behind the rear window. Further, it is possible to detect a lane mark without noise by a similar method even if a camera is used which is disposed in front of, outside, or behind the vehicle and shoots a lane mark at any position.
[0030]
Further, as information for detecting the lane mark, edge extraction is performed as a feature amount. However, a feature amount may be extracted by binarization or the like.
[0031]
Here, an example has been described in which the detected lane mark information is used for a lane departure warning, but it can also be used for automatic driving of a vehicle, parking assistance, and the like.
[0032]
【The invention's effect】
As described above, according to the present invention, noise such as raindrops and dirt moves together with the camera, and features that are extracted from the image and labeled are used to remove data with little movement as noise. Thus, it is possible to accurately detect the lane mark by accurately removing these noises.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a lane departure warning device using a lane detection device according to the present invention.
FIG. 2 is a diagram showing a use state of a CCD camera of the apparatus of FIG.
FIG. 3 is a flowchart for explaining the operation of the lane detection apparatus according to the present invention.
FIG. 4 is a diagram showing an example of a raw image change acquired by a CCD camera.
5 is a diagram showing a labeling result in each image of FIG. 4; FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Lane detection ECU, 2 ... CCD camera, 3 ... Lane departure warning ECU, 6 ... Road surface, 10 ... Image processing CPU, 11 ... Memory, 41 ... Vehicle speed sensor, 42 ... Steering angle sensor, 43 ... Yaw rate sensor, 50 ... Windshield, 60 ... lane (lane), 61 ... lane line (lane mark).

Claims (4)

カメラから取り込んだ画像中のレーン情報を画像処理により検出するレーン検出装置であって、
取り込んだ画像データから所定の特徴量を検出する特徴量検出手段と、
検出した特徴量に基づいて画像中の特徴部を抽出してラベリングするラベリング手段と、
ラベリング結果を記憶する記憶手段と、
現在のラベリング結果を過去のラベリング結果と比較し、フレームの略同一位置でラベリング結果が一致するデータをノイズとしてデータから除去するノイズ除去手段と、
残るラベリング結果からレーン情報を検出する検出手段と、
を備えているレーン検出装置。
A lane detection device for detecting lane information in an image captured from a camera by image processing,
Feature quantity detection means for detecting a predetermined feature quantity from the captured image data;
Labeling means for extracting and labeling features in the image based on the detected feature values;
Storage means for storing the labeling results;
A noise removing unit that compares the current labeling result with the past labeling result, and removes data having the same labeling result at substantially the same position in the frame as noise from the data;
Detection means for detecting lane information from the remaining labeling results;
A lane detection device comprising:
前記ノイズ除去手段は、所定期間にわたってフレームの略同一位置に過去のラベリング結果と一致するデータがある場合に、そのデータをノイズと判定するものであって、前記所定期間を車速が高い場合には低い場合に比べて短くする請求項1記載のレーン検出装置。The noise removing means determines that the data is determined to be noise when there is data that coincides with a past labeling result at substantially the same position in the frame over a predetermined period, and when the vehicle speed is high during the predetermined period. The lane detection device according to claim 1, wherein the lane detection device is shorter than a low case. 前記ノイズ除去手段は、前記所定期間内に所定周期で複数回のラベリング結果の比較を行う請求項2記載のレーン検出装置。The lane detection apparatus according to claim 2, wherein the noise removing unit compares the labeling results a plurality of times at a predetermined cycle within the predetermined period. 前記ノイズ除去手段は、前記所定期間経過前のフレームにおけるラベリング結果との比較を行う請求項2記載のレーン検出装置。The lane detection apparatus according to claim 2, wherein the noise removing unit compares the result of labeling with a frame before the predetermined period has elapsed.
JP2000282092A 2000-09-18 2000-09-18 Lane detector Expired - Fee Related JP3655541B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000282092A JP3655541B2 (en) 2000-09-18 2000-09-18 Lane detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000282092A JP3655541B2 (en) 2000-09-18 2000-09-18 Lane detector

Publications (2)

Publication Number Publication Date
JP2002094978A JP2002094978A (en) 2002-03-29
JP3655541B2 true JP3655541B2 (en) 2005-06-02

Family

ID=18766656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000282092A Expired - Fee Related JP3655541B2 (en) 2000-09-18 2000-09-18 Lane detector

Country Status (1)

Country Link
JP (1) JP3655541B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007141858A1 (en) * 2006-06-08 2007-12-13 Fujitsu Limited Uncleanness detecting device
JP2012038048A (en) * 2010-08-06 2012-02-23 Alpine Electronics Inc Obstacle detecting device for vehicle
JP5887219B2 (en) * 2012-07-03 2016-03-16 クラリオン株式会社 Lane departure warning device
EP2871101B1 (en) * 2012-07-03 2020-06-17 Clarion Co., Ltd. Vehicle surrounding monitoring device
JP6251169B2 (en) * 2012-07-03 2017-12-20 クラリオン株式会社 In-vehicle device, control device
JP6120395B2 (en) * 2012-07-03 2017-04-26 クラリオン株式会社 In-vehicle device
JP5981322B2 (en) * 2012-11-27 2016-08-31 クラリオン株式会社 In-vehicle image processing device
JP6328369B2 (en) 2012-11-27 2018-05-23 クラリオン株式会社 In-vehicle control device
JP6045889B2 (en) * 2012-11-27 2016-12-14 クラリオン株式会社 In-vehicle control device
JP6084552B2 (en) * 2013-11-06 2017-02-22 株式会社パスコ Road surface orthoimage generation apparatus and generation method
JP6048384B2 (en) * 2013-12-11 2016-12-21 トヨタ自動車株式会社 Image determination device
JP2016033729A (en) * 2014-07-31 2016-03-10 クラリオン株式会社 Surrounding environment recognition device
JP2016070796A (en) * 2014-09-30 2016-05-09 シャープ株式会社 Obstacle determination device and obstacle determination method
US10552706B2 (en) 2016-10-24 2020-02-04 Fujitsu Ten Limited Attachable matter detection apparatus and attachable matter detection method
DE102019101040A1 (en) * 2019-01-16 2020-07-16 Valeo Schalter Und Sensoren Gmbh Method for training a trajectory for a vehicle, and electronic vehicle guidance system
JP7156225B2 (en) * 2019-09-20 2022-10-19 株式会社デンソーテン Attached matter detection device and attached matter detection method

Also Published As

Publication number Publication date
JP2002094978A (en) 2002-03-29

Similar Documents

Publication Publication Date Title
JP3655541B2 (en) Lane detector
US10081308B2 (en) Image-based vehicle detection and distance measuring method and apparatus
US7307545B2 (en) Vehicle lane detector
EP2754123B1 (en) Method and camera assembly for detecting raindrops on a windscreen of a vehicle
JP6045889B2 (en) In-vehicle control device
JP6649738B2 (en) Parking lot recognition device, parking lot recognition method
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
CN104756172B (en) Instruction device is moved rearwards by for vehicle
KR20060075311A (en) Apparatus and method for supervising vehicle using optical flow
EP3087532B1 (en) Method for determining a width of a target vehicle by means of a camera system of a motor vehicle, camera system and motor vehicle
CN103917989B (en) For detecting the method and CCD camera assembly of the raindrop in vehicle windscreen
US20150085118A1 (en) Method and camera assembly for detecting raindrops on a windscreen of a vehicle
JP2010061375A (en) Apparatus and program for recognizing object
JPH04303047A (en) Image processing
JP5957182B2 (en) Road surface pattern recognition method and vehicle information recording apparatus
JP4601376B2 (en) Image abnormality determination device
JP2001043497A (en) Method for removing noise in vehicle lane leaving alarm device
JP3081660B2 (en) Distance detection method
JP6729358B2 (en) Recognition device
JP2885216B2 (en) Lane change detection device
JP2007232653A (en) On-vehicle radar system
CN114820691B (en) Method, device and equipment for detecting motion state of vehicle and storage medium
JP3206563B2 (en) Method and apparatus for updating tracking template
CN113888878B (en) Vehicle-mounted automobile data recorder device
JP4142792B2 (en) In-vehicle imaging means sensitivity control method, and vehicle periphery monitoring apparatus to which this sensitivity control method is applied

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050303

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees