JP3655541B2 - Lane detector - Google Patents
Lane detector Download PDFInfo
- Publication number
- JP3655541B2 JP3655541B2 JP2000282092A JP2000282092A JP3655541B2 JP 3655541 B2 JP3655541 B2 JP 3655541B2 JP 2000282092 A JP2000282092 A JP 2000282092A JP 2000282092 A JP2000282092 A JP 2000282092A JP 3655541 B2 JP3655541 B2 JP 3655541B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- lane
- labeling
- noise
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は自動走行システムや駐車支援システムに適応可能な画像処理を用いたレーン検出装置に関する。
【0002】
【従来の技術】
近年、道路等で走行レーンを示す白線等を画像処理によって検出し、認識結果を基にしてドライバーに対して各種の情報を提供したり、さらには、車両を自動走行させる際の制御にこの認識結果を用いるシステムが提案されている。
【0003】
こうした白線認識の技術としては特開平11−195127号公報に開示されている技術が知られている。同公報によれば、画像中のエッジを抽出し、抽出したエッジをラベリングして、その中から角度が対になるエッジを検出することで白線を精度良く認識できると記載されている。
【0004】
【発明が解決しようとする課題】
こうした画像は車両の前部または後部に設置されたカメラにより取得されるが、カメラのレンズ前に雨滴や汚れがついていると、画像データ自体が劣化してしまうため、精度良く認識することが困難になる。
【0005】
そこで本発明は、カメラのレンズ等に付着した雨滴や汚れなどによる画像データのノイズの影響を受けにくく、精度良い認識が可能なレーン検出装置を提供することを課題とする。
【0006】
【課題を解決するための手段】
上記課題を解決するため、本発明に係るレーン検出装置は、カメラから取り込んだ画像中のレーン情報を検出するレーン検出装置であって、(1)取り込んだ画像データから所定の特徴量を検出する特徴量検出手段と、(2)検出した特徴量に基づいて画像中の特徴部を抽出してラベリングするラベリング手段と、(3)ラベリング結果を記憶する記憶手段と、(4)現在のラベリング結果を過去のラベリング結果と比較し、フレームの略同一位置でラベリング結果が一致するデータをノイズとしてデータから除去するノイズ除去手段と、(5)ノイズを除去したラベリング結果からレーン情報を検出する検出手段と、を備えていることを特徴とする。
【0007】
カメラのレンズに付着した雨滴や汚れ等は、レンズに対する移動速度は車両外の風景に比して小さく、画像のフレーム中ではほぼ静止状態にある。本発明では、このことを利用して過去のラベリング結果と現在のラベリング結果を比較し、フレームの略同一位置で一致しているデータをこれらの汚れ等のノイズと判定して除去することでレーン情報を正確に判定するものである。
【0008】
このノイズ除去手段は、所定期間にわたってフレームの略同一位置に過去のラベリング結果と一致するデータがある場合に、そのデータをノイズと判定するものであって、この所定期間を車速が高い場合には低い場合に比べて短くすることが好ましい。
【0009】
前述したようにノイズは画像のフレーム中でほぼ静止状態にある。したがって、所定期間にわたって、過去のラベリング結果と一致しているデータ、すなわち、静止しているデータがある場合はノイズと判定し得る。そして、車速が高い場合には、風景等の画像データはフレーム内をより高速で移動することとなるから、静止しているデータか否かの判定をより短時間で行うことが可能となる。
【0010】
ラベリング結果の比較にあたっては、所定期間内に所定周期で複数回のラベリング結果の比較を行うか、所定期間経過前のフレームにおけるラベリング結果との比較を行えばよい。
【0011】
【発明の実施の形態】
以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の参照番号を附し、重複する説明は省略する。
【0012】
図1は本発明に係るレーン検出装置を車線逸脱警報装置に適用した場合の基本構成を示す概略構成図であり、図2はそのCCDカメラ2の使用状態を説明する図である。
【0013】
本発明に係るレーン検出装置は、図1に示されるようにCCDカメラ2からの画像信号を受信して処理するレーン検出ECU1からなり、内部には画像処理CPU10とメモリ11を有する。すなわち、この画像処理CPU10が本発明に係る特徴量検出手段、ラベリング手段、ノイズ除去手段、レーン情報検出手段を内蔵されたプログラムにより兼ねることになる。このレーン検出ECU1は、車線逸脱警報ECU3に接続されて、相互に情報を送受し合う。車線逸脱警報ECU3には、車両状態量として車速センサ41、操舵角センサ42、ヨーレートセンサ43の各出力信号が入力される。車線逸脱警報ECU3は車両状態量から車両の将来の軌跡を予想し、レーン検出ECU1が検出したレーン位置と比較することで車両がレーンを逸脱すると判定した場合には図示していない警告灯、アラーム等を利用して運転者に注意を促すものである。
【0014】
CCDカメラ2は車両5の車室前方中央に配置され、フロントガラス50越しに車両前方の路面の画像を取得するものである。車両5が走行する路面6上の車線(レーン)60は、左右の区画線(レーンマーク)61Rと61Lにより区画されている。
【0015】
本発明に係るレーン検出装置の動作を図3〜図5を参照して説明する。図3は、この装置の動作を説明するフローチャートであり、図4、図5はCCDカメラで取得した一連の生画像とそのラベリング結果を示している。
【0016】
図3に示されるフローは、イグニッションスイッチがONされてから、所定の間隔、例えばカメラの画像取得に合わせてレーン検出ECU1内の画像処理CPU10において繰り返し実行される。
【0017】
まず、ステップS1では、車線逸脱警報ECU3を介して車速センサ41、操舵角センサ42、ヨーレートセンサ43から車両状態量が読み込まれる。続いて、ステップS2では、CCDカメラ2から画像データが取り込まれる。
【0018】
ステップS3では、取得した画像データ、例えば図4(a)〜(d)に示されるような画像データから特徴量として画像の輪郭、すなわちエッジを検出する。これらの画像中には、レーンマーク61R、61Lと他車線を先行する他車両62の他に、車両5の前部5a、フロントガラス50上に付着した雨滴71、72が映っている。これらの輪郭をそれぞれ検出することになる。
【0019】
そして、ステップS4では、検出したエッジを連結して線分化する。そのあと、ステップS5において検出された線分に番号付け、すなわちラベリングを行う。この画像データからのエッジ検出、線分化、ラベリングの手法については『画像工学ハンドブック』(樋渡涓二編、朝倉書店、1986年)の249〜256頁に記載されている。図4(a)〜(d)に示される画像データからエッジを検出し、線分化してラベリングした状態を図5に示す。図中はラベリングしたナンバーをLをつけて表している。すなわち、元画像中の雨滴71、72をそれぞれ1番、2番とし、レーンマーク61Lが3番、車両前部5aが4番、レーンマーク61Rが5番、他車両62が6番として番号付けされる。
【0020】
ステップS6では、こうして、ラベリングした結果、つまり抽出した線分の形状、位置情報をメモリ11に記憶しておく。
【0021】
ステップS7〜S11は、雨滴71、72のようなノイズを除去する工程である。例えば、図4(c)、図5(c)の時点における処理を考える。ここでは、1〜6番にラベリングされた線分L1〜L6が検出されている。これを1つずつ、1番から順に過去のラベリング結果、例えば、図5(a)、(b)の時点のラベリング結果と比較していく。
【0022】
具体的には、まず、ステップS7において、1番のデータL1を選択し、ステップS8で過去のデータでも略同一位置に同様の形状の線分データが存在するか否かを判定する。データL1は雨滴71のデータであり、車両5のフロントガラス50に付着して、CCDカメラ2と同様に車両5とともに移動していることから、画面内部での移動速度はほとんどない。そのため、過去のデータと一致すると判定され、ステップS9へと移行して、このデータはノイズとして除去される。
【0023】
ここで、一致データありの判定は、所定の期間にわたって略同一位置に同様の形状の線分データが存在している場合を一致とみなす方法と所定時間前のデータと比較して略同一位置に同様の形状の線分データが存在している場合を一致とみなす方法の2種類がある。いずれの場合もステップS1で得られた車速、操舵角等のデータから車両の運動状態に応じて所定の期間の長さ、所定時間の間隔を変更することが好ましい。この変更は段階的であってもよく、特定の車速閾値以上か否かで切り替えるようにしてもよい。
【0024】
車両が高速で移動している場合や操舵角が大きい場合には、画像中でのレーンマークの移動速度も速くなることから、一致判定に用いる過去のデータはごく直近のデータだけを用いても精度良く判定が可能である。一方、低速・小舵角で移動している場合には、画像中でのレーンマークの移動速度も遅くなることから、精度良い判定のためには一致判定に用いる過去のデータはある程度現在よりさかのぼった時点のデータを利用することが必要となる。
【0025】
次のステップS11では、最終ラベルのデータ(ここではL6)でない限り、ステップS12へと移行し、ラベル番号を1つ追加して次のデータを選択してステップS8へと戻る。雨滴72を表すデータL2や車両前部5aを表すデータL4の場合も一致があるため、ステップS9でノイズとして除去される。この他、CCDカメラ2のレンズやフロントガラス50の傷や付着した汚れ等も同様の手法で除去することが可能である。なお、車両前部5aについてはその位置、形状が既知であることからステップS2の入力時点でこの部分を除外してエッジ検出等を行ってもよい。
【0026】
一方、レーンマーク61L、61Rをそれぞれ表すデータL3、L5や他車両62を表すデータL6の場合は位置の移動や形状の移動があるため、ステップS8では記憶データと一致がないと判定されてステップS10へと移行する。そして、有効データとして次の処理のために残される。
【0027】
こうして、有効データとして残されたデータL3、L5、L6のみについてステップS13でレーンマークの検出処理を行うことにより、ノイズの影響を除去してレーンマーク61L、61Rを精度良く認識することができる。
【0028】
なお、ノイズとして除外したデータが画像に占める領域が一定以上(例えば10%以上)に多い場合にはカメラに付いた傷や汚れ等が多く、画像データの信頼性が欠けると判定してレーンマークの検出処理を行わずにその旨を運転者に警告することが好ましい。
【0029】
以上の説明では、CCDカメラ2を車室前方中央に搭載した形態について説明したが、カメラの設置はこの位置に限られるものではなく、車室前方の別の位置に配置したカメラのほか車室内の後方に配置してリアウィンドウ越しに後方を撮影するカメラに対しても適用可能である。また車室外の車両前方や側方あるいは後方に配置し、いずれかの位置のレーンマークを撮影するカメラを用いても同様の手法でノイズのないレーンマーク検出を行うことが可能である。
【0030】
また、レーンマークの検出のための情報としては特徴量としてエッジ抽出を行ったが、二値化等により特徴量を抽出してもよい。
【0031】
ここでは、検出したレーンマーク情報を車線逸脱警報に用いる例を説明してきたが、車両の自動走行や駐車支援等にも用いることが可能である。
【0032】
【発明の効果】
以上説明したように本発明によれば、雨滴や汚れ等のノイズはカメラとともに移動することを利用し、画像内で特徴量を抽出してラベリングしたデータのうち移動の少ないデータをノイズとして除去することでこれらのノイズを精度良く除去してレーンマークを確実に検出することが可能である。
【図面の簡単な説明】
【図1】本発明に係るレーン検出装置を用いた車線逸脱警報装置を示す概略図である。
【図2】図1の装置のCCDカメラの使用状態を示す図である。
【図3】本発明に係るレーン検出装置の動作を説明するフローチャートである。
【図4】CCDカメラで取得する生画像変化の一例を示す図である。
【図5】図4のそれぞれの画像中のラベリング結果を示す図である。
【符号の説明】
1…レーン検出ECU、2…CCDカメラ、3…車線逸脱警報ECU、6…路面、10…画像処理CPU、11…メモリ、41…車速センサ、42…操舵角センサ、43…ヨーレートセンサ、50…フロントガラス、60…車線(レーン)、61…区画線(レーンマーク)。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a lane detection apparatus using image processing that can be applied to an automatic driving system or a parking assistance system.
[0002]
[Prior art]
In recent years, a white line or the like indicating a driving lane on a road or the like is detected by image processing, and various information is provided to the driver based on the recognition result, and further, this recognition is used for control when the vehicle is automatically driven. Systems using the results have been proposed.
[0003]
As such a white line recognition technique, a technique disclosed in Japanese Patent Laid-Open No. 11-195127 is known. According to the publication, it is described that white lines can be accurately recognized by extracting edges in an image, labeling the extracted edges, and detecting edges having a pair of angles from the extracted edges.
[0004]
[Problems to be solved by the invention]
These images are acquired by a camera installed at the front or rear of the vehicle. However, if there are raindrops or dirt in front of the camera lens, the image data itself will deteriorate, making it difficult to recognize it accurately. become.
[0005]
SUMMARY OF THE INVENTION An object of the present invention is to provide a lane detection apparatus that is not easily affected by noise of image data due to raindrops or dirt adhering to a camera lens or the like, and that can be recognized accurately.
[0006]
[Means for Solving the Problems]
In order to solve the above problems, a lane detection device according to the present invention is a lane detection device that detects lane information in an image captured from a camera, and (1) detects a predetermined feature amount from the captured image data. Feature quantity detection means, (2) Labeling means for extracting and labeling feature parts in the image based on the detected feature quantity, (3) Storage means for storing the labeling result, and (4) Current labeling result Noise removal means that removes data that matches the labeling result at almost the same position in the frame as noise from the data, and (5) detection means that detects lane information from the labeling result after removing noise And.
[0007]
Raindrops, dirt, and the like adhering to the lens of the camera have a lower moving speed relative to the lens than the scenery outside the vehicle, and are almost stationary in the image frame. In the present invention, the past labeling result and the current labeling result are compared using this fact, and data matching at substantially the same position in the frame is determined as noise such as dirt, and is removed. Information is determined accurately.
[0008]
The noise removing means determines that the data is determined to be noise when there is data that coincides with the past labeling result at substantially the same position in the frame over a predetermined period, and when the vehicle speed is high during the predetermined period. It is preferable to make it shorter than when it is low.
[0009]
As described above, the noise is almost stationary in the frame of the image. Therefore, if there is data that matches the past labeling result over a predetermined period, that is, data that is stationary, it can be determined as noise. When the vehicle speed is high, image data such as landscape moves at a higher speed in the frame, so that it is possible to determine whether or not the data is stationary in a shorter time.
[0010]
In comparing the labeling results, the labeling results may be compared a plurality of times in a predetermined cycle within a predetermined period, or may be compared with the labeling results in a frame before the predetermined period has elapsed.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the description, the same reference numerals are given to the same components in the drawings as much as possible, and duplicate descriptions are omitted.
[0012]
FIG. 1 is a schematic configuration diagram showing a basic configuration when the lane detection device according to the present invention is applied to a lane departure warning device, and FIG. 2 is a diagram for explaining a use state of the
[0013]
As shown in FIG. 1, the lane detection apparatus according to the present invention includes a lane detection ECU 1 that receives and processes an image signal from a
[0014]
The
[0015]
The operation of the lane detection apparatus according to the present invention will be described with reference to FIGS. FIG. 3 is a flowchart for explaining the operation of this apparatus. FIGS. 4 and 5 show a series of raw images acquired by the CCD camera and the labeling results.
[0016]
The flow shown in FIG. 3 is repeatedly executed by the
[0017]
First, in step S1, the vehicle state quantity is read from the vehicle speed sensor 41, the steering angle sensor 42, and the yaw rate sensor 43 via the lane
[0018]
In step S3, the outline of the image, that is, the edge is detected as a feature amount from the acquired image data, for example, image data as shown in FIGS. In these images,
[0019]
In step S4, the detected edges are connected to perform line differentiation. Thereafter, the line segments detected in step S5 are numbered, that is, labeled. The methods of edge detection, line differentiation, and labeling from this image data are described in pages 249 to 256 of “Image Engineering Handbook” (Koji Watanabe, Asakura Shoten, 1986). FIG. 5 shows a state in which edges are detected from the image data shown in FIGS. In the figure, the labeled numbers are indicated with L. That is, the
[0020]
In step S6, the result of labeling, that is, the extracted line segment shape and position information is stored in the
[0021]
Steps S7 to S11 are steps for removing noise such as
[0022]
Specifically, first, in step S7, the first data L1 is selected, and in step S8, it is determined whether or not line data having the same shape exists in substantially the same position in the past data. The data L1 is data of the
[0023]
Here, the determination of the presence of coincidence data is made at a substantially identical position compared to a method in which a line segment data having a similar shape is present at substantially the same position over a predetermined period as compared with data before a predetermined time. There are two types of methods that consider matching when line data of similar shape exists. In any case, it is preferable to change the length of the predetermined period and the predetermined time interval according to the motion state of the vehicle from the data such as the vehicle speed and the steering angle obtained in step S1. This change may be stepwise, and may be switched depending on whether or not it is a specific vehicle speed threshold value or more.
[0024]
When the vehicle is moving at a high speed or when the steering angle is large, the moving speed of the lane mark in the image is also increased, so the past data used for matching determination may be only the most recent data. Judgment with high accuracy is possible. On the other hand, when moving at a low speed and a small steering angle, the moving speed of the lane mark in the image is also slowed down. It is necessary to use data at the time.
[0025]
In the next step S11, unless the data is the final label data (L6 in this case), the process proceeds to step S12, one label number is added, the next data is selected, and the process returns to step S8. Since the data L2 representing the
[0026]
On the other hand, in the case of the data L3 and L5 representing the lane marks 61L and 61R and the data L6 representing the
[0027]
In this way, by performing the lane mark detection process for only the data L3, L5, and L6 remaining as valid data in step S13, it is possible to remove the influence of noise and recognize the lane marks 61L and 61R with high accuracy.
[0028]
Note that if the data excluded as noise occupies more than a certain area (for example, 10% or more), it is determined that the image data is unreliable because there are many scratches and dirt on the camera. It is preferable to warn the driver to that effect without performing the detection process.
[0029]
In the above description, the embodiment in which the
[0030]
Further, as information for detecting the lane mark, edge extraction is performed as a feature amount. However, a feature amount may be extracted by binarization or the like.
[0031]
Here, an example has been described in which the detected lane mark information is used for a lane departure warning, but it can also be used for automatic driving of a vehicle, parking assistance, and the like.
[0032]
【The invention's effect】
As described above, according to the present invention, noise such as raindrops and dirt moves together with the camera, and features that are extracted from the image and labeled are used to remove data with little movement as noise. Thus, it is possible to accurately detect the lane mark by accurately removing these noises.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a lane departure warning device using a lane detection device according to the present invention.
FIG. 2 is a diagram showing a use state of a CCD camera of the apparatus of FIG.
FIG. 3 is a flowchart for explaining the operation of the lane detection apparatus according to the present invention.
FIG. 4 is a diagram showing an example of a raw image change acquired by a CCD camera.
5 is a diagram showing a labeling result in each image of FIG. 4; FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Lane detection ECU, 2 ... CCD camera, 3 ... Lane departure warning ECU, 6 ... Road surface, 10 ... Image processing CPU, 11 ... Memory, 41 ... Vehicle speed sensor, 42 ... Steering angle sensor, 43 ... Yaw rate sensor, 50 ... Windshield, 60 ... lane (lane), 61 ... lane line (lane mark).
Claims (4)
取り込んだ画像データから所定の特徴量を検出する特徴量検出手段と、
検出した特徴量に基づいて画像中の特徴部を抽出してラベリングするラベリング手段と、
ラベリング結果を記憶する記憶手段と、
現在のラベリング結果を過去のラベリング結果と比較し、フレームの略同一位置でラベリング結果が一致するデータをノイズとしてデータから除去するノイズ除去手段と、
残るラベリング結果からレーン情報を検出する検出手段と、
を備えているレーン検出装置。A lane detection device for detecting lane information in an image captured from a camera by image processing,
Feature quantity detection means for detecting a predetermined feature quantity from the captured image data;
Labeling means for extracting and labeling features in the image based on the detected feature values;
Storage means for storing the labeling results;
A noise removing unit that compares the current labeling result with the past labeling result, and removes data having the same labeling result at substantially the same position in the frame as noise from the data;
Detection means for detecting lane information from the remaining labeling results;
A lane detection device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000282092A JP3655541B2 (en) | 2000-09-18 | 2000-09-18 | Lane detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000282092A JP3655541B2 (en) | 2000-09-18 | 2000-09-18 | Lane detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002094978A JP2002094978A (en) | 2002-03-29 |
JP3655541B2 true JP3655541B2 (en) | 2005-06-02 |
Family
ID=18766656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000282092A Expired - Fee Related JP3655541B2 (en) | 2000-09-18 | 2000-09-18 | Lane detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3655541B2 (en) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007141858A1 (en) * | 2006-06-08 | 2007-12-13 | Fujitsu Limited | Uncleanness detecting device |
JP2012038048A (en) * | 2010-08-06 | 2012-02-23 | Alpine Electronics Inc | Obstacle detecting device for vehicle |
JP5887219B2 (en) * | 2012-07-03 | 2016-03-16 | クラリオン株式会社 | Lane departure warning device |
EP2871101B1 (en) * | 2012-07-03 | 2020-06-17 | Clarion Co., Ltd. | Vehicle surrounding monitoring device |
JP6251169B2 (en) * | 2012-07-03 | 2017-12-20 | クラリオン株式会社 | In-vehicle device, control device |
JP6120395B2 (en) * | 2012-07-03 | 2017-04-26 | クラリオン株式会社 | In-vehicle device |
JP5981322B2 (en) * | 2012-11-27 | 2016-08-31 | クラリオン株式会社 | In-vehicle image processing device |
JP6328369B2 (en) | 2012-11-27 | 2018-05-23 | クラリオン株式会社 | In-vehicle control device |
JP6045889B2 (en) * | 2012-11-27 | 2016-12-14 | クラリオン株式会社 | In-vehicle control device |
JP6084552B2 (en) * | 2013-11-06 | 2017-02-22 | 株式会社パスコ | Road surface orthoimage generation apparatus and generation method |
JP6048384B2 (en) * | 2013-12-11 | 2016-12-21 | トヨタ自動車株式会社 | Image determination device |
JP2016033729A (en) * | 2014-07-31 | 2016-03-10 | クラリオン株式会社 | Surrounding environment recognition device |
JP2016070796A (en) * | 2014-09-30 | 2016-05-09 | シャープ株式会社 | Obstacle determination device and obstacle determination method |
US10552706B2 (en) | 2016-10-24 | 2020-02-04 | Fujitsu Ten Limited | Attachable matter detection apparatus and attachable matter detection method |
DE102019101040A1 (en) * | 2019-01-16 | 2020-07-16 | Valeo Schalter Und Sensoren Gmbh | Method for training a trajectory for a vehicle, and electronic vehicle guidance system |
JP7156225B2 (en) * | 2019-09-20 | 2022-10-19 | 株式会社デンソーテン | Attached matter detection device and attached matter detection method |
-
2000
- 2000-09-18 JP JP2000282092A patent/JP3655541B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002094978A (en) | 2002-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3655541B2 (en) | Lane detector | |
US10081308B2 (en) | Image-based vehicle detection and distance measuring method and apparatus | |
US7307545B2 (en) | Vehicle lane detector | |
EP2754123B1 (en) | Method and camera assembly for detecting raindrops on a windscreen of a vehicle | |
JP6045889B2 (en) | In-vehicle control device | |
JP6649738B2 (en) | Parking lot recognition device, parking lot recognition method | |
JP2008168811A (en) | Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program | |
CN104756172B (en) | Instruction device is moved rearwards by for vehicle | |
KR20060075311A (en) | Apparatus and method for supervising vehicle using optical flow | |
EP3087532B1 (en) | Method for determining a width of a target vehicle by means of a camera system of a motor vehicle, camera system and motor vehicle | |
CN103917989B (en) | For detecting the method and CCD camera assembly of the raindrop in vehicle windscreen | |
US20150085118A1 (en) | Method and camera assembly for detecting raindrops on a windscreen of a vehicle | |
JP2010061375A (en) | Apparatus and program for recognizing object | |
JPH04303047A (en) | Image processing | |
JP5957182B2 (en) | Road surface pattern recognition method and vehicle information recording apparatus | |
JP4601376B2 (en) | Image abnormality determination device | |
JP2001043497A (en) | Method for removing noise in vehicle lane leaving alarm device | |
JP3081660B2 (en) | Distance detection method | |
JP6729358B2 (en) | Recognition device | |
JP2885216B2 (en) | Lane change detection device | |
JP2007232653A (en) | On-vehicle radar system | |
CN114820691B (en) | Method, device and equipment for detecting motion state of vehicle and storage medium | |
JP3206563B2 (en) | Method and apparatus for updating tracking template | |
CN113888878B (en) | Vehicle-mounted automobile data recorder device | |
JP4142792B2 (en) | In-vehicle imaging means sensitivity control method, and vehicle periphery monitoring apparatus to which this sensitivity control method is applied |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050303 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090311 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100311 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110311 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110311 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120311 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120311 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130311 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130311 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140311 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |