JP2002094978A - Lane detector - Google Patents
Lane detectorInfo
- Publication number
- JP2002094978A JP2002094978A JP2000282092A JP2000282092A JP2002094978A JP 2002094978 A JP2002094978 A JP 2002094978A JP 2000282092 A JP2000282092 A JP 2000282092A JP 2000282092 A JP2000282092 A JP 2000282092A JP 2002094978 A JP2002094978 A JP 2002094978A
- Authority
- JP
- Japan
- Prior art keywords
- lane
- data
- labeling
- noise
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は自動走行システムや
駐車支援システムに適応可能な画像処理を用いたレーン
検出装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a lane detecting apparatus using image processing applicable to an automatic driving system and a parking assist system.
【0002】[0002]
【従来の技術】近年、道路等で走行レーンを示す白線等
を画像処理によって検出し、認識結果を基にしてドライ
バーに対して各種の情報を提供したり、さらには、車両
を自動走行させる際の制御にこの認識結果を用いるシス
テムが提案されている。2. Description of the Related Art In recent years, when a white line or the like indicating a driving lane on a road or the like is detected by image processing, various information is provided to a driver based on a recognition result, and further, when a vehicle is automatically driven. There has been proposed a system that uses this recognition result for the control of the image.
【0003】こうした白線認識の技術としては特開平1
1−195127号公報に開示されている技術が知られ
ている。同公報によれば、画像中のエッジを抽出し、抽
出したエッジをラベリングして、その中から角度が対に
なるエッジを検出することで白線を精度良く認識できる
と記載されている。[0003] Japanese Patent Laid-Open No.
A technique disclosed in Japanese Patent Application Laid-Open No. 1-195127 is known. According to the publication, it is described that white lines can be recognized with high accuracy by extracting edges in an image, labeling the extracted edges, and detecting an edge having a pair of angles from the extracted edges.
【0004】[0004]
【発明が解決しようとする課題】こうした画像は車両の
前部または後部に設置されたカメラにより取得される
が、カメラのレンズ前に雨滴や汚れがついていると、画
像データ自体が劣化してしまうため、精度良く認識する
ことが困難になる。Such images are acquired by a camera installed at the front or rear of the vehicle. However, if raindrops or dirt are attached to the front of the camera lens, the image data itself is deteriorated. For this reason, it is difficult to recognize with high accuracy.
【0005】そこで本発明は、カメラのレンズ等に付着
した雨滴や汚れなどによる画像データのノイズの影響を
受けにくく、精度良い認識が可能なレーン検出装置を提
供することを課題とする。SUMMARY OF THE INVENTION It is an object of the present invention to provide a lane detecting device which is less susceptible to noise of image data due to raindrops and dirt attached to a lens of a camera, and which can perform accurate recognition.
【0006】[0006]
【課題を解決するための手段】上記課題を解決するた
め、本発明に係るレーン検出装置は、カメラから取り込
んだ画像中のレーン情報を検出するレーン検出装置であ
って、(1)取り込んだ画像データから所定の特徴量を検
出する特徴量検出手段と、(2)検出した特徴量に基づい
て画像中の特徴部を抽出してラベリングするラベリング
手段と、(3)ラベリング結果を記憶する記憶手段と、(4)
現在のラベリング結果を過去のラベリング結果と比較
し、フレームの略同一位置でラベリング結果が一致する
データをノイズとしてデータから除去するノイズ除去手
段と、(5)ノイズを除去したラベリング結果からレーン
情報を検出する検出手段と、を備えていることを特徴と
する。In order to solve the above-mentioned problems, a lane detecting device according to the present invention is a lane detecting device for detecting lane information in an image taken from a camera. Feature amount detection means for detecting a predetermined feature amount from data; (2) labeling means for extracting and labeling a feature portion in an image based on the detected feature amount; and (3) storage means for storing a labeling result. And (4)
A noise removing unit that compares the current labeling result with the past labeling result and removes data whose labeling result matches at substantially the same position in the frame as noise from the data, and (5) lane information from the noise-removed labeling result. And a detecting means for detecting.
【0007】カメラのレンズに付着した雨滴や汚れ等
は、レンズに対する移動速度は車両外の風景に比して小
さく、画像のフレーム中ではほぼ静止状態にある。本発
明では、このことを利用して過去のラベリング結果と現
在のラベリング結果を比較し、フレームの略同一位置で
一致しているデータをこれらの汚れ等のノイズと判定し
て除去することでレーン情報を正確に判定するものであ
る。The moving speed of raindrops, dirt, and the like attached to the lens of the camera is smaller than that of the scenery outside the vehicle, and is almost stationary in the frame of the image. In the present invention, by utilizing this fact, the past labeling result and the current labeling result are compared, and data that coincides at substantially the same position in the frame is determined as noise such as dirt and removed to remove the lane. This is to determine the information accurately.
【0008】このノイズ除去手段は、所定期間にわたっ
てフレームの略同一位置に過去のラベリング結果と一致
するデータがある場合に、そのデータをノイズと判定す
るものであって、この所定期間を車速が高い場合には低
い場合に比べて短くすることが好ましい。The noise removing means determines that the data is noise when there is data that coincides with the past labeling result at substantially the same position in the frame for a predetermined period. During this predetermined period, the vehicle speed is high. In this case, it is preferable to make the length shorter than that in the case where it is low.
【0009】前述したようにノイズは画像のフレーム中
でほぼ静止状態にある。したがって、所定期間にわたっ
て、過去のラベリング結果と一致しているデータ、すな
わち、静止しているデータがある場合はノイズと判定し
得る。そして、車速が高い場合には、風景等の画像デー
タはフレーム内をより高速で移動することとなるから、
静止しているデータか否かの判定をより短時間で行うこ
とが可能となる。As described above, noise is almost stationary in a frame of an image. Therefore, if there is data that matches the past labeling result over a predetermined period, that is, if there is still data, it can be determined that the data is noise. And, when the vehicle speed is high, the image data such as the landscape moves in the frame at a higher speed.
It is possible to determine whether the data is stationary data in a shorter time.
【0010】ラベリング結果の比較にあたっては、所定
期間内に所定周期で複数回のラベリング結果の比較を行
うか、所定期間経過前のフレームにおけるラベリング結
果との比較を行えばよい。In comparing the labeling results, the labeling results may be compared a plurality of times in a predetermined period within a predetermined period, or may be compared with the labeling results in a frame before the predetermined period has elapsed.
【0011】[0011]
【発明の実施の形態】以下、添付図面を参照して本発明
の好適な実施の形態について詳細に説明する。説明の理
解を容易にするため、各図面において同一の構成要素に
対しては可能な限り同一の参照番号を附し、重複する説
明は省略する。Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In order to facilitate understanding of the description, the same constituent elements are denoted by the same reference numerals as much as possible in each drawing, and redundant description will be omitted.
【0012】図1は本発明に係るレーン検出装置を車線
逸脱警報装置に適用した場合の基本構成を示す概略構成
図であり、図2はそのCCDカメラ2の使用状態を説明
する図である。FIG. 1 is a schematic configuration diagram showing a basic configuration when a lane detection device according to the present invention is applied to a lane departure warning device, and FIG. 2 is a diagram illustrating a use state of the CCD camera 2.
【0013】本発明に係るレーン検出装置は、図1に示
されるようにCCDカメラ2からの画像信号を受信して
処理するレーン検出ECU1からなり、内部には画像処
理CPU10とメモリ11を有する。すなわち、この画
像処理CPU10が本発明に係る特徴量検出手段、ラベ
リング手段、ノイズ除去手段、レーン情報検出手段を内
蔵されたプログラムにより兼ねることになる。このレー
ン検出ECU1は、車線逸脱警報ECU3に接続され
て、相互に情報を送受し合う。車線逸脱警報ECU3に
は、車両状態量として車速センサ41、操舵角センサ4
2、ヨーレートセンサ43の各出力信号が入力される。
車線逸脱警報ECU3は車両状態量から車両の将来の軌
跡を予想し、レーン検出ECU1が検出したレーン位置
と比較することで車両がレーンを逸脱すると判定した場
合には図示していない警告灯、アラーム等を利用して運
転者に注意を促すものである。As shown in FIG. 1, the lane detecting device according to the present invention comprises a lane detecting ECU 1 for receiving and processing an image signal from a CCD camera 2, and has an image processing CPU 10 and a memory 11 therein. That is, the image processing CPU 10 also serves as a feature amount detecting unit, a labeling unit, a noise removing unit, and a lane information detecting unit according to the present invention by a built-in program. The lane detection ECU 1 is connected to the lane departure warning ECU 3 and sends and receives information to and from each other. The lane departure warning ECU 3 includes a vehicle speed sensor 41, a steering angle sensor 4
2. Each output signal of the yaw rate sensor 43 is input.
The lane departure warning ECU 3 predicts the future trajectory of the vehicle from the vehicle state quantity and compares it with the lane position detected by the lane detection ECU 1 to determine that the vehicle departs from the lane. This is to alert the driver by utilizing the information.
【0014】CCDカメラ2は車両5の車室前方中央に
配置され、フロントガラス50越しに車両前方の路面の
画像を取得するものである。車両5が走行する路面6上
の車線(レーン)60は、左右の区画線(レーンマー
ク)61Rと61Lにより区画されている。The CCD camera 2 is arranged at the center of the front of the cabin of the vehicle 5 and acquires an image of a road surface in front of the vehicle through a windshield 50. A lane (lane) 60 on the road surface 6 on which the vehicle 5 runs is divided by left and right division lines (lane marks) 61R and 61L.
【0015】本発明に係るレーン検出装置の動作を図3
〜図5を参照して説明する。図3は、この装置の動作を
説明するフローチャートであり、図4、図5はCCDカ
メラで取得した一連の生画像とそのラベリング結果を示
している。FIG. 3 shows the operation of the lane detecting device according to the present invention.
This will be described with reference to FIGS. FIG. 3 is a flowchart for explaining the operation of this apparatus. FIGS. 4 and 5 show a series of raw images acquired by a CCD camera and the labeling results thereof.
【0016】図3に示されるフローは、イグニッション
スイッチがONされてから、所定の間隔、例えばカメラ
の画像取得に合わせてレーン検出ECU1内の画像処理
CPU10において繰り返し実行される。The flow shown in FIG. 3 is repeatedly executed by the image processing CPU 10 in the lane detection ECU 1 at a predetermined interval, for example, in synchronization with the acquisition of an image by the camera after the ignition switch is turned on.
【0017】まず、ステップS1では、車線逸脱警報E
CU3を介して車速センサ41、操舵角センサ42、ヨ
ーレートセンサ43から車両状態量が読み込まれる。続
いて、ステップS2では、CCDカメラ2から画像デー
タが取り込まれる。First, in step S1, the lane departure warning E
The vehicle state quantity is read from the vehicle speed sensor 41, the steering angle sensor 42, and the yaw rate sensor 43 via the CU3. Subsequently, in step S2, image data is captured from the CCD camera 2.
【0018】ステップS3では、取得した画像データ、
例えば図4(a)〜(d)に示されるような画像データ
から特徴量として画像の輪郭、すなわちエッジを検出す
る。これらの画像中には、レーンマーク61R、61L
と他車線を先行する他車両62の他に、車両5の前部5
a、フロントガラス50上に付着した雨滴71、72が
映っている。これらの輪郭をそれぞれ検出することにな
る。In step S3, the acquired image data
For example, an image contour, that is, an edge, is detected from image data as shown in FIGS. In these images, the lane marks 61R, 61L
And the other vehicle 62 ahead of the other lane,
a, Raindrops 71 and 72 attached to the windshield 50 are shown. Each of these contours will be detected.
【0019】そして、ステップS4では、検出したエッ
ジを連結して線分化する。そのあと、ステップS5にお
いて検出された線分に番号付け、すなわちラベリングを
行う。この画像データからのエッジ検出、線分化、ラベ
リングの手法については『画像工学ハンドブック』(樋
渡涓二編、朝倉書店、1986年)の249〜256頁
に記載されている。図4(a)〜(d)に示される画像
データからエッジを検出し、線分化してラベリングした
状態を図5に示す。図中はラベリングしたナンバーをL
をつけて表している。すなわち、元画像中の雨滴71、
72をそれぞれ1番、2番とし、レーンマーク61Lが
3番、車両前部5aが4番、レーンマーク61Rが5
番、他車両62が6番として番号付けされる。In step S4, the detected edges are connected to perform line differentiation. After that, the line segments detected in step S5 are numbered, that is, labeled. The methods of edge detection, line differentiation, and labeling from this image data are described in “Image Engineering Handbook” (edited by Kenji Hiwatari, Asakura Shoten, 1986), pages 249 to 256. FIG. 5 shows a state in which edges are detected from the image data shown in FIGS. In the figure, the labeled number is L
It is indicated with a suffix. That is, the raindrop 71 in the original image,
72 are the first and second, respectively, the lane mark 61L is the third, the vehicle front part 5a is the fourth, and the lane mark 61R is the fifth.
The other vehicle 62 is numbered as the sixth.
【0020】ステップS6では、こうして、ラベリング
した結果、つまり抽出した線分の形状、位置情報をメモ
リ11に記憶しておく。In step S6, the result of the labeling, that is, the shape and position information of the extracted line segment is stored in the memory 11.
【0021】ステップS7〜S11は、雨滴71、72
のようなノイズを除去する工程である。例えば、図4
(c)、図5(c)の時点における処理を考える。ここ
では、1〜6番にラベリングされた線分L1〜L6が検
出されている。これを1つずつ、1番から順に過去のラ
ベリング結果、例えば、図5(a)、(b)の時点のラ
ベリング結果と比較していく。Steps S7 to S11 are performed with raindrops 71 and 72.
This is a step of removing noise such as For example, FIG.
(C), the processing at the time of FIG. Here, the line segments L1 to L6 labeled as Nos. 1 to 6 are detected. This is compared with the past labeling results, one by one, in order from the first, for example, the labeling results at the time points in FIGS. 5A and 5B.
【0022】具体的には、まず、ステップS7におい
て、1番のデータL1を選択し、ステップS8で過去の
データでも略同一位置に同様の形状の線分データが存在
するか否かを判定する。データL1は雨滴71のデータ
であり、車両5のフロントガラス50に付着して、CC
Dカメラ2と同様に車両5とともに移動していることか
ら、画面内部での移動速度はほとんどない。そのため、
過去のデータと一致すると判定され、ステップS9へと
移行して、このデータはノイズとして除去される。More specifically, first, in step S7, the first data L1 is selected, and in step S8, it is determined whether or not past data has line segment data of a similar shape at substantially the same position. . The data L1 is data of the raindrop 71, which is attached to the windshield 50 of
Since it moves together with the vehicle 5 like the D camera 2, there is almost no moving speed inside the screen. for that reason,
It is determined that the data matches the past data, and the process proceeds to step S9, where this data is removed as noise.
【0023】ここで、一致データありの判定は、所定の
期間にわたって略同一位置に同様の形状の線分データが
存在している場合を一致とみなす方法と所定時間前のデ
ータと比較して略同一位置に同様の形状の線分データが
存在している場合を一致とみなす方法の2種類がある。
いずれの場合もステップS1で得られた車速、操舵角等
のデータから車両の運動状態に応じて所定の期間の長
さ、所定時間の間隔を変更することが好ましい。この変
更は段階的であってもよく、特定の車速閾値以上か否か
で切り替えるようにしてもよい。Here, the determination of the presence of the coincident data is made by comparing a case where line segment data of the same shape exists at substantially the same position over a predetermined period as a coincidence, and comparing the data with the data before a predetermined time. There are two types of methods in which a case where line segment data of a similar shape exists at the same position is regarded as a match.
In any case, it is preferable to change the length of the predetermined period and the interval of the predetermined time according to the vehicle motion state from the data such as the vehicle speed and the steering angle obtained in step S1. This change may be stepwise, and may be switched depending on whether or not the speed is equal to or higher than a specific vehicle speed threshold.
【0024】車両が高速で移動している場合や操舵角が
大きい場合には、画像中でのレーンマークの移動速度も
速くなることから、一致判定に用いる過去のデータはご
く直近のデータだけを用いても精度良く判定が可能であ
る。一方、低速・小舵角で移動している場合には、画像
中でのレーンマークの移動速度も遅くなることから、精
度良い判定のためには一致判定に用いる過去のデータは
ある程度現在よりさかのぼった時点のデータを利用する
ことが必要となる。When the vehicle is moving at a high speed or when the steering angle is large, the moving speed of the lane mark in the image also increases. Therefore, only the most recent data is used for the past data used for the match determination. Even if it is used, the determination can be made with high accuracy. On the other hand, when the vehicle is moving at a low speed and a small steering angle, the moving speed of the lane mark in the image also becomes slow. It is necessary to use the data at the point of time.
【0025】次のステップS11では、最終ラベルのデ
ータ(ここではL6)でない限り、ステップS12へと
移行し、ラベル番号を1つ追加して次のデータを選択し
てステップS8へと戻る。雨滴72を表すデータL2や
車両前部5aを表すデータL4の場合も一致があるた
め、ステップS9でノイズとして除去される。この他、
CCDカメラ2のレンズやフロントガラス50の傷や付
着した汚れ等も同様の手法で除去することが可能であ
る。なお、車両前部5aについてはその位置、形状が既
知であることからステップS2の入力時点でこの部分を
除外してエッジ検出等を行ってもよい。In the next step S11, unless the last label data (here, L6), the process proceeds to step S12, one label number is added, the next data is selected, and the process returns to step S8. The data L2 representing the raindrop 72 and the data L4 representing the front part 5a of the vehicle also have a match, and thus are removed as noise in step S9. In addition,
It is also possible to remove scratches, attached dirt, and the like on the lens of the CCD camera 2 and the windshield 50 by the same method. Since the position and shape of the front part 5a of the vehicle are known, edge detection or the like may be performed by excluding this part at the time of input in step S2.
【0026】一方、レーンマーク61L、61Rをそれ
ぞれ表すデータL3、L5や他車両62を表すデータL
6の場合は位置の移動や形状の移動があるため、ステッ
プS8では記憶データと一致がないと判定されてステッ
プS10へと移行する。そして、有効データとして次の
処理のために残される。On the other hand, data L3 and L5 representing the lane marks 61L and 61R and data L representing the other vehicle 62, respectively.
In the case of 6, since there is a movement of the position or the movement of the shape, it is determined in step S8 that there is no match with the stored data, and the process proceeds to step S10. Then, it is left as valid data for the next processing.
【0027】こうして、有効データとして残されたデー
タL3、L5、L6のみについてステップS13でレー
ンマークの検出処理を行うことにより、ノイズの影響を
除去してレーンマーク61L、61Rを精度良く認識す
ることができる。In this way, by performing the lane mark detection processing in step S13 only for the data L3, L5, and L6 remaining as valid data, the influence of noise is removed and the lane marks 61L and 61R are accurately recognized. Can be.
【0028】なお、ノイズとして除外したデータが画像
に占める領域が一定以上(例えば10%以上)に多い場
合にはカメラに付いた傷や汚れ等が多く、画像データの
信頼性が欠けると判定してレーンマークの検出処理を行
わずにその旨を運転者に警告することが好ましい。If the area occupied by the data excluded as noise in the image is more than a certain amount (for example, 10% or more), it is determined that the image data lacks reliability because the camera has many scratches and dirt. It is preferable to warn the driver of this without performing the lane mark detection process.
【0029】以上の説明では、CCDカメラ2を車室前
方中央に搭載した形態について説明したが、カメラの設
置はこの位置に限られるものではなく、車室前方の別の
位置に配置したカメラのほか車室内の後方に配置してリ
アウィンドウ越しに後方を撮影するカメラに対しても適
用可能である。また車室外の車両前方や側方あるいは後
方に配置し、いずれかの位置のレーンマークを撮影する
カメラを用いても同様の手法でノイズのないレーンマー
ク検出を行うことが可能である。In the above description, the embodiment in which the CCD camera 2 is mounted at the front center of the vehicle compartment has been described. However, the installation of the camera is not limited to this position. In addition, the present invention can be applied to a camera that is disposed behind a vehicle compartment and shoots the rear through a rear window. Further, even if a camera that is arranged outside, in front of, on the side of, or behind a vehicle and captures a lane mark at any position is used, lane mark detection without noise can be performed in the same manner.
【0030】また、レーンマークの検出のための情報と
しては特徴量としてエッジ抽出を行ったが、二値化等に
より特徴量を抽出してもよい。Although the edge extraction is performed as the feature amount as the information for detecting the lane mark, the feature amount may be extracted by binarization or the like.
【0031】ここでは、検出したレーンマーク情報を車
線逸脱警報に用いる例を説明してきたが、車両の自動走
行や駐車支援等にも用いることが可能である。Here, an example in which the detected lane mark information is used for the lane departure warning has been described. However, it is also possible to use the detected lane mark information for automatic running of the vehicle, parking assistance, and the like.
【0032】[0032]
【発明の効果】以上説明したように本発明によれば、雨
滴や汚れ等のノイズはカメラとともに移動することを利
用し、画像内で特徴量を抽出してラベリングしたデータ
のうち移動の少ないデータをノイズとして除去すること
でこれらのノイズを精度良く除去してレーンマークを確
実に検出することが可能である。As described above, according to the present invention, by utilizing the fact that noise such as raindrops and stains move together with the camera, feature amounts are extracted and labeled in the image, and the data which moves little is used. Is removed as noise, it is possible to accurately remove these noises and reliably detect lane marks.
【図1】本発明に係るレーン検出装置を用いた車線逸脱
警報装置を示す概略図である。FIG. 1 is a schematic diagram showing a lane departure warning device using a lane detection device according to the present invention.
【図2】図1の装置のCCDカメラの使用状態を示す図
である。FIG. 2 is a diagram showing a use state of a CCD camera of the apparatus of FIG.
【図3】本発明に係るレーン検出装置の動作を説明する
フローチャートである。FIG. 3 is a flowchart illustrating the operation of the lane detection device according to the present invention.
【図4】CCDカメラで取得する生画像変化の一例を示
す図である。FIG. 4 is a diagram illustrating an example of a change in a raw image acquired by a CCD camera.
【図5】図4のそれぞれの画像中のラベリング結果を示
す図である。FIG. 5 is a diagram illustrating a labeling result in each image of FIG. 4;
1…レーン検出ECU、2…CCDカメラ、3…車線逸
脱警報ECU、6…路面、10…画像処理CPU、11
…メモリ、41…車速センサ、42…操舵角センサ、4
3…ヨーレートセンサ、50…フロントガラス、60…
車線(レーン)、61…区画線(レーンマーク)。DESCRIPTION OF SYMBOLS 1 ... Lane detection ECU, 2 ... CCD camera, 3 ... Lane departure warning ECU, 6 ... Road surface, 10 ... Image processing CPU, 11
... Memory, 41 ... Vehicle speed sensor, 42 ... Steering angle sensor, 4
3: Yaw rate sensor, 50: windshield, 60:
Lane (lane), 61 ... division line (lane mark).
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B60R 21/00 626 B60R 21/00 626G (72)発明者 里中 久志 愛知県豊田市トヨタ町1番地 トヨタ自動 車株式会社内 (72)発明者 柿並 俊明 愛知県刈谷市朝日町2丁目1番地 アイシ ン精機株式会社内 (72)発明者 高橋 新 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 Fターム(参考) 5C054 AA05 FC01 FC12 FC14 FF06 HA29 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) B60R 21/00 626 B60R 21/00 626G (72) Inventor Hisashi Satonaka 1st Toyota Town, Toyota City, Aichi Prefecture Toyota Inside the Automobile Co., Ltd. (72) Inventor Toshiaki Kakinami 2-1-1 Asahi-cho, Kariya-shi, Aichi Prefecture Inside Aisin Seiki Co., Ltd. (72) Inventor Shin Shin Takahashi 41 1 Toyota Central Research Laboratory Co., Ltd. F-term (reference) 5C054 AA05 FC01 FC12 FC14 FF06 HA29
Claims (4)
報を画像処理により検出するレーン検出装置であって、 取り込んだ画像データから所定の特徴量を検出する特徴
量検出手段と、 検出した特徴量に基づいて画像中の特徴部を抽出してラ
ベリングするラベリング手段と、 ラベリング結果を記憶する記憶手段と、 現在のラベリング結果を過去のラベリング結果と比較
し、フレームの略同一位置でラベリング結果が一致する
データをノイズとしてデータから除去するノイズ除去手
段と、 残るラベリング結果からレーン情報を検出する検出手段
と、 を備えているレーン検出装置。1. A lane detecting device for detecting lane information in an image captured from a camera by image processing, comprising: a characteristic amount detecting means for detecting a predetermined characteristic amount from the captured image data; A labeling unit for extracting and labeling a feature in the image based on the labeling unit, a storage unit for storing the labeling result, and comparing the current labeling result with the past labeling result, and the labeling results match at substantially the same position in the frame. A lane detecting device comprising: a noise removing unit that removes data from data as noise; and a detecting unit that detects lane information from a remaining labeling result.
ってフレームの略同一位置に過去のラベリング結果と一
致するデータがある場合に、そのデータをノイズと判定
するものであって、前記所定期間を車速が高い場合には
低い場合に比べて短くする請求項1記載のレーン検出装
置。2. The method according to claim 1, wherein the noise removing unit determines that the data is noise when there is data that coincides with the past labeling result at substantially the same position in the frame for a predetermined period. 2. The lane detecting device according to claim 1, wherein when the distance is high, the distance is shorter than when the distance is low.
に所定周期で複数回のラベリング結果の比較を行う請求
項2記載のレーン検出装置。3. The lane detecting device according to claim 2, wherein the noise removing unit compares the labeling results a plurality of times in a predetermined cycle within the predetermined period.
過前のフレームにおけるラベリング結果との比較を行う
請求項2記載のレーン検出装置。4. The lane detecting device according to claim 2, wherein the noise removing unit compares the result with a labeling result in a frame before the lapse of the predetermined period.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000282092A JP3655541B2 (en) | 2000-09-18 | 2000-09-18 | Lane detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000282092A JP3655541B2 (en) | 2000-09-18 | 2000-09-18 | Lane detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002094978A true JP2002094978A (en) | 2002-03-29 |
JP3655541B2 JP3655541B2 (en) | 2005-06-02 |
Family
ID=18766656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000282092A Expired - Fee Related JP3655541B2 (en) | 2000-09-18 | 2000-09-18 | Lane detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3655541B2 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007141858A1 (en) * | 2006-06-08 | 2007-12-13 | Fujitsu Limited | Uncleanness detecting device |
JP2012038048A (en) * | 2010-08-06 | 2012-02-23 | Alpine Electronics Inc | Obstacle detecting device for vehicle |
WO2014007153A1 (en) * | 2012-07-03 | 2014-01-09 | クラリオン株式会社 | Vehicle surrounding monitoring device |
JP2014013455A (en) * | 2012-07-03 | 2014-01-23 | Clarion Co Ltd | Lane departure warning apparatus |
JP2014013449A (en) * | 2012-07-03 | 2014-01-23 | Clarion Co Ltd | On-vehicle device |
WO2014084122A1 (en) * | 2012-11-27 | 2014-06-05 | クラリオン株式会社 | On-board control device |
WO2014084113A1 (en) * | 2012-11-27 | 2014-06-05 | クラリオン株式会社 | On-board image processing device |
JP2014104853A (en) * | 2012-11-27 | 2014-06-09 | Clarion Co Ltd | Onboard control device |
JP2015090591A (en) * | 2013-11-06 | 2015-05-11 | 株式会社パスコ | Generation device and generation method for road surface ortho-image |
JP2015114848A (en) * | 2013-12-11 | 2015-06-22 | トヨタ自動車株式会社 | Image discrimination system |
WO2016017340A1 (en) * | 2014-07-31 | 2016-02-04 | クラリオン株式会社 | Surrounding environment recognition device |
WO2016051861A1 (en) * | 2014-09-30 | 2016-04-07 | シャープ株式会社 | Obstacle determination device and obstacle determination method |
JPWO2014007294A1 (en) * | 2012-07-03 | 2016-06-02 | クラリオン株式会社 | In-vehicle device |
US10552706B2 (en) | 2016-10-24 | 2020-02-04 | Fujitsu Ten Limited | Attachable matter detection apparatus and attachable matter detection method |
JP2022517371A (en) * | 2019-01-16 | 2022-03-08 | ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | How to learn the trajectory of a vehicle, and an electronic vehicle guidance system |
US11308624B2 (en) * | 2019-09-20 | 2022-04-19 | Denso Ten Limited | Adhered substance detection apparatus |
-
2000
- 2000-09-18 JP JP2000282092A patent/JP3655541B2/en not_active Expired - Fee Related
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007141858A1 (en) * | 2006-06-08 | 2007-12-13 | Fujitsu Limited | Uncleanness detecting device |
JPWO2007141858A1 (en) * | 2006-06-08 | 2009-10-15 | 富士通株式会社 | Dirt detection method |
JP4644283B2 (en) * | 2006-06-08 | 2011-03-02 | 富士通株式会社 | Dirt detection method |
KR101078474B1 (en) | 2006-06-08 | 2011-10-31 | 후지쯔 가부시끼가이샤 | Uncleanness detecting device |
US8098302B2 (en) | 2006-06-08 | 2012-01-17 | Fujitsu Limited | Stain detection system |
JP2012038048A (en) * | 2010-08-06 | 2012-02-23 | Alpine Electronics Inc | Obstacle detecting device for vehicle |
US9473718B2 (en) | 2012-07-03 | 2016-10-18 | Clarion Co., Ltd. | Vehicle surroundings monitoring device |
JPWO2014007294A1 (en) * | 2012-07-03 | 2016-06-02 | クラリオン株式会社 | In-vehicle device |
JP2014013449A (en) * | 2012-07-03 | 2014-01-23 | Clarion Co Ltd | On-vehicle device |
JP2014013455A (en) * | 2012-07-03 | 2014-01-23 | Clarion Co Ltd | Lane departure warning apparatus |
WO2014007153A1 (en) * | 2012-07-03 | 2014-01-09 | クラリオン株式会社 | Vehicle surrounding monitoring device |
JPWO2014007153A1 (en) * | 2012-07-03 | 2016-06-02 | クラリオン株式会社 | Vehicle perimeter monitoring device |
US9690996B2 (en) | 2012-11-27 | 2017-06-27 | Clarion Co., Ltd. | On-vehicle image processor |
JP2014107697A (en) * | 2012-11-27 | 2014-06-09 | Clarion Co Ltd | On-vehicle controller |
US9965690B2 (en) | 2012-11-27 | 2018-05-08 | Clarion Co., Ltd. | On-vehicle control device |
US9734581B2 (en) | 2012-11-27 | 2017-08-15 | Clarion Co., Ltd. | On-vehicle control device |
CN104823214A (en) * | 2012-11-27 | 2015-08-05 | 歌乐牌株式会社 | On-board image processing device |
WO2014084122A1 (en) * | 2012-11-27 | 2014-06-05 | クラリオン株式会社 | On-board control device |
WO2014084113A1 (en) * | 2012-11-27 | 2014-06-05 | クラリオン株式会社 | On-board image processing device |
JP2014104853A (en) * | 2012-11-27 | 2014-06-09 | Clarion Co Ltd | Onboard control device |
JP2014106703A (en) * | 2012-11-27 | 2014-06-09 | Clarion Co Ltd | In-vehicle image processing device |
JP2015090591A (en) * | 2013-11-06 | 2015-05-11 | 株式会社パスコ | Generation device and generation method for road surface ortho-image |
JP2015114848A (en) * | 2013-12-11 | 2015-06-22 | トヨタ自動車株式会社 | Image discrimination system |
WO2016017340A1 (en) * | 2014-07-31 | 2016-02-04 | クラリオン株式会社 | Surrounding environment recognition device |
WO2016051861A1 (en) * | 2014-09-30 | 2016-04-07 | シャープ株式会社 | Obstacle determination device and obstacle determination method |
US10552706B2 (en) | 2016-10-24 | 2020-02-04 | Fujitsu Ten Limited | Attachable matter detection apparatus and attachable matter detection method |
JP2022517371A (en) * | 2019-01-16 | 2022-03-08 | ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | How to learn the trajectory of a vehicle, and an electronic vehicle guidance system |
US11308624B2 (en) * | 2019-09-20 | 2022-04-19 | Denso Ten Limited | Adhered substance detection apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP3655541B2 (en) | 2005-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3655541B2 (en) | Lane detector | |
EP2754123B1 (en) | Method and camera assembly for detecting raindrops on a windscreen of a vehicle | |
US7860275B2 (en) | Method for detecting rain on a windscreen | |
CN109074486B (en) | Method for detecting traffic signs | |
JP6045889B2 (en) | In-vehicle control device | |
US8854455B2 (en) | Method and device for processing recorded image information from a vehicle | |
JP2008168811A (en) | Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program | |
US10896336B2 (en) | Parking compartment recognition apparatus | |
JP2008067086A (en) | Vehicle detection device and light control device | |
KR20060075311A (en) | Apparatus and method for supervising vehicle using optical flow | |
WO2013034165A1 (en) | Method and camera assembly for detecting raindrops on a windscreen of a vehicle | |
CN103917989B (en) | For detecting the method and CCD camera assembly of the raindrop in vehicle windscreen | |
JP2001153969A (en) | Raindrop detecting apparatus | |
CN111824003A (en) | Control method and control system of car lamp | |
JP2821041B2 (en) | Image processing method | |
JP3626733B2 (en) | Lane recognition image processing apparatus and program for executing the processing | |
JPH0858529A (en) | Wiper controller of vehicle provided with outdoor monitoring device | |
JP2018079929A (en) | Drive support apparatus | |
JP6263436B2 (en) | Travel path recognition device | |
JP5957182B2 (en) | Road surface pattern recognition method and vehicle information recording apparatus | |
JP3081660B2 (en) | Distance detection method | |
JP2885216B2 (en) | Lane change detection device | |
JP2006107000A (en) | Method and device for deciding image abnormality | |
JP3206563B2 (en) | Method and apparatus for updating tracking template | |
CN114820691B (en) | Method, device and equipment for detecting motion state of vehicle and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050303 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090311 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100311 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110311 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110311 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120311 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120311 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130311 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130311 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140311 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |