JP2008060874A - On-vehicle camera and stain detector for on-vehicle camera - Google Patents
On-vehicle camera and stain detector for on-vehicle camera Download PDFInfo
- Publication number
- JP2008060874A JP2008060874A JP2006234848A JP2006234848A JP2008060874A JP 2008060874 A JP2008060874 A JP 2008060874A JP 2006234848 A JP2006234848 A JP 2006234848A JP 2006234848 A JP2006234848 A JP 2006234848A JP 2008060874 A JP2008060874 A JP 2008060874A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- optical flow
- information
- camera
- thru
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B7/00—Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
- G03B7/003—Control of exposure by setting shutters, diaphragms or filters, separately or conjointly setting of both shutter and diaphragm
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は車載カメラに関し、特に自動車等の車外に取り付けられた撮像装置に付着した水滴や汚れを検知する装置および検知する手法に関する。 The present invention relates to an in-vehicle camera, and more particularly to an apparatus and a detection method for detecting water droplets and dirt attached to an imaging apparatus attached outside a vehicle such as an automobile.
自動車における利便性や安全性を向上させる技術として、車両にカメラを搭載し、カメラで撮像された画像から道路上の白線や道路標示を認識したり、車両後方の障害物を検知や、駐車を支援したりする装置が知られている。 As a technology to improve convenience and safety in automobiles, a camera is installed in the vehicle, and white lines and road markings on the road are recognized from images captured by the camera, obstacles behind the vehicle are detected, and parking is performed. Devices for assisting are known.
この様な装置に用いられるカメラは車外に取り付けられる場合が想定され、カメラのレンズ上に水滴や汚れなどが付着する可能性がある。レンズに付着した水滴や汚れの度合によっては、前述した利便機能や安全機能を満たすことができなくなることが考えられる。よって、カメラのレンズに付着した水滴や汚れを検知し、ユーザーに対して警告を行ったり、自動的に洗浄したりする手段が必要である。 A camera used in such an apparatus is assumed to be attached to the outside of the vehicle, and there is a possibility that water droplets or dirt may adhere to the lens of the camera. Depending on the degree of water droplets and dirt adhering to the lens, it may be impossible to satisfy the convenience function and the safety function described above. Therefore, there is a need for means for detecting water droplets and dirt adhering to the lens of the camera, giving a warning to the user, and automatically cleaning.
特許文献1では、車両が移動している時に、異なるタイミングにて二つのカメラにて撮影された映像に含まれる濃度値の差分を複数フレームにわたって積算し、その積算された濃度値の映像に基づいてカメラに付着した汚れを検知している。 In Patent Document 1, when a vehicle is moving, the difference between density values included in images taken by two cameras at different timings is accumulated over a plurality of frames, and based on the accumulated density value images. The camera is detecting dirt on the camera.
特許文献2では、車両の室内に設置された車両エアコン用日射センサによって検出された日射量と、カメラから映像情報に基づいて演算された日射量との差分値を算出して、さらに、算出した差分値を積算し、差分値の算出と積算を(N−1)回繰り返し、n回目に積算された差分値が所定の差分値を超えると、カメラの光学系部品の汚れが生じていると判断している。
In
特許文献1に記載の手法では、異なるタイミングにて二つのカメラにて撮影された映像に含まれる濃度値の差分を複数フレームにわたって積算し、その積算された濃度値の映像に基づいてカメラに付着した汚れを検知している。このため、水滴のように、動きのある付着物の検知は困難である。 In the method described in Patent Document 1, the difference between density values included in images taken by two cameras at different timings is accumulated over a plurality of frames, and the image is attached to the camera based on the accumulated density value images. Detected dirt. For this reason, it is difficult to detect a moving deposit such as a water droplet.
また、レンズに付着した汚れによって背景が隠れる場合(泥汚れなど)に対しては有効であるが、水滴の様な背景を透過しやすい付着物の検知には積算時間を増やさないと困難であり、汚れを検知するまでに時間がかかる。 In addition, it is effective when the background is hidden by dirt adhering to the lens (such as mud dirt), but it is difficult to detect adhering substances that easily pass through the background, such as water droplets, unless the accumulated time is increased. , It takes time to detect dirt.
特許文献2に記載の手法では、車両の室内に設置された車両エアコン用日射センサによって検出された日射量と、カメラから映像情報に基づいて演算された日射量との差分値に基づいて汚れを検知している。
In the method described in
日射センサとカメラの取り付け箇所は通常異なるため、日射センサでの日射量とカメラから演算される日射量とに誤差が生じる可能性がある(例えば日射センサ部に影がある場合など)。 Since the location of the solar radiation sensor and the camera is usually different, an error may occur between the solar radiation amount at the solar radiation sensor and the solar radiation amount calculated from the camera (for example, when the solar radiation sensor part has a shadow).
また、夜間において、日射センサからは、日射量はほとんど検出されないが、カメラで撮像された映像中に対向車両や先行車両や街灯等の光が入り、日射量として算出される可能性がある。よって、両者のセンサから算出される日射量に誤差が生じ、精度良く汚れを検知できない可能性がある。 Also, at night, the solar radiation sensor hardly detects the amount of solar radiation, but there is a possibility that light from oncoming vehicles, preceding vehicles, street lamps, etc. enters the image captured by the camera and is calculated as the amount of solar radiation. Therefore, an error occurs in the amount of solar radiation calculated from both sensors, and there is a possibility that dirt cannot be detected accurately.
上記の課題を解決するため、本発明は、光学系と撮像素子とを備え車両外部を撮像する撮像手段と、前記撮像装置によって異なるタイミングで撮像された複数の画像から所定の抽出物の移動量と移動方向とを算出するオプティカルフロー計測手段と、車速情報に基づいて、前記抽出物の移動量と移動方向とを推定するオプティカルフロー推定手段とを備え、前記オプティカルフロー計測手段によって計測された前記抽出物の移動量及び移動方向と、前記オプティカルフロー推定手段によって推定された前記抽出物の移動量及び移動方向とに基づいて、前記撮像手段の光学系に付着した付着物を検出する。 In order to solve the above-described problems, the present invention provides an imaging unit that includes an optical system and an imaging device and images a vehicle exterior, and a movement amount of a predetermined extract from a plurality of images captured at different timings by the imaging device. And an optical flow measuring means for calculating the moving direction, and an optical flow estimating means for estimating the moving amount and the moving direction of the extract based on the vehicle speed information, and the optical flow measuring means measured by the optical flow measuring means. Based on the movement amount and movement direction of the extract and the movement amount and movement direction of the extract estimated by the optical flow estimation means, the adhering matter attached to the optical system of the imaging means is detected.
車載カメラの光学系に付着した付着物を、従来技術に比べて短時間で検出することができる。また水滴のように当該光学系に対して相対的に移動する付着物、あるいは背景を透過し易い付着物を検知することが可能となる。さらに、日照センサ等の別のセンサを併用しなくても実用的な付着物検知を行なうことができる。 The adhering matter adhering to the optical system of the in-vehicle camera can be detected in a shorter time than in the prior art. Further, it is possible to detect a deposit that moves relative to the optical system, such as a water droplet, or a deposit that easily passes through the background. Furthermore, practical adhesion detection can be performed without using another sensor such as a sunshine sensor.
以下、図を用いて本発明の実施形態を説明する。図1は、本発明に関わる車載カメラ用付着物検出装置9の一例を示したものである。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows an example of an on-vehicle camera deposit detection apparatus 9 according to the present invention.
本実施例において、車載カメラ用付着物検出装置9は、撮像装置1によって取得されたアナログの画像信号をデジタル画像信号に変換するA/D変換回路2と、デジタル画像信号を処理する画像処理装置3、メモリ4、演算装置5とを備えている。
In this embodiment, the on-vehicle camera deposit detection device 9 includes an A /
演算装置5は、カーナビゲーションシステム6に接続されており、道路形状などの地図情報を取得することができる。また演算装置は車両ネットワークに接続されており、当該車両ネットワークを介して、車両10に搭載された他のセンサや制御装置から情報を取得することができる。例えば、車両ネットワークには車速センサが接続されており、車速情報を取得することができる。以下、このような他のセンサや制御装置から得られる情報を車両情報7と称する。また、演算装置5は警報装置8にも接続され、撮像装置1の光学系部品13に付着物80がある場合、ユーザーに対して警告をすることができる。なお、当該車載カメラ用付着物検出装置9と撮像装置1とが同一の筐体に納められた車載カメラとして構成してもよく、撮像装置1と通信線を介して接続される別体の制御装置の機能として構成してもよい。
The
図2に示すように、本実施例では、車両10の後方部に撮像装置1を設置し、車両後方を撮像する。撮像装置1の画角は45度とする。撮像範囲11は自車両のバンパーから無限遠とする。
As shown in FIG. 2, in the present embodiment, the imaging device 1 is installed in the rear part of the
次に、本発明に関わる車載カメラ用付着物検知装置9の動作を図9のフローチャートに沿って説明する。 Next, the operation of the in-vehicle camera deposit detection apparatus 9 according to the present invention will be described with reference to the flowchart of FIG.
まず、ステップS1で初期設定を行う。初期設定では、認識に必要となる各パラメータを初期化する。 First, initial setting is performed in step S1. In the initial setting, each parameter necessary for recognition is initialized.
次に、ステップS2で車両情報7を取得する。車両情報7は車両ネットワークから車速情報、ヨーレートセンサの情報、ステアリングの舵角情報が含まれている。
Next,
さらに、ステップS3ではカーナビゲーションシステム6からの情報を取得する。カーナビゲーションシステム6からは、自車両周辺の地図情報を取得する。この地図情報には、自車両が走行している道路の曲率や道路の幅、道路上に描かれた白線61や道路標示60の種別情報が含まれている。また、カーナビゲーションシステム6からの付着物検知処理の要求が含まれている。
In step S3, information from the
続いて、ステップS4で、ステップS2とステップS3で取得した車両情報7とカーナビゲーションシステム6からの情報を基に、付着物検知処理の実行の有無を判断する。
Subsequently, in step S4, based on the
ステップS2で取得した車速が所定の速度以上である場合で、かつ、ステップS3で得られる白線情報や道路標示60の種別情報が得られた場合、または、カーナビゲーションシステム6からの付着物検知処理の要求がある場合には、次のステップS5へ進み、付着物検知処理を実行する。それ以外の条件の場合は、付着物検知処理は実行せず、ステップS2へ戻る。上記の所定の速度としては、異なるタイミングで撮像した複数の画像に基づいてオプティカルフローを算出することができる下限の値とすることができる。ここで、オプティカルフローとは、画像中のある点や図形が次の瞬間にどのような方向へ、どの程度の距離を移動するかを示すベクトルのことであり、後述するように異なるタイミングで撮像された複数の画像の差分によって求めることが出来る。
When the vehicle speed acquired in step S2 is equal to or higher than a predetermined speed, and when the white line information obtained in step S3 and the type information of the
従って上記の所定の速度としては、理論的には車速が時速0kmのときのみ、付着物検知処理を実行しないこととすればよい。しかしながら、実際には車速センサの誤差を考慮する必要がある。車速センサとして頻繁に用いられる車輪速センサは低速度領域では誤差が大きくなるという特性がある。そこで、所定の速度(例えば、時速5kmあるいは時速10km等)以下では付着物検知を行わない構成とすることが望ましい。 Therefore, as the above-mentioned predetermined speed, the adhering matter detection process should not be executed theoretically only when the vehicle speed is 0 km / h. However, in practice, it is necessary to consider the error of the vehicle speed sensor. A wheel speed sensor frequently used as a vehicle speed sensor has a characteristic that an error becomes large in a low speed region. Therefore, it is desirable that the adhering matter detection is not performed below a predetermined speed (for example, 5 km / h or 10 km / h).
ステップS5では、ステップS2とステップS3で取得した車両情報7とカーナビゲーションシステム6からの情報を基に、取得された画像における処理対象領域の設定を行う。本実施例の場合、オプティカルフローの大きさは車両運動の大きさによって異なる。例えば同じ時間間隔で画像を撮像した場合、車両の速度が大きい方が、複数の画像上で同一の物体が写る位置は大きくずれることになる。従って、車両運動が小さい場合にはオプティカルフローの大きさは比較的に小さいと予測されるので、撮像領域全体についてオプティカルフローの計測処理を行うことは効率的でない。そこで、本実施例では、車速、舵角、若しくは、ヨーレートまたはこれらの組み合わせに応じてオプティカルフロー計測の処理対象領域を設定する。
In step S5, the processing target area in the acquired image is set based on the
処理領域の設定には、オプティカルフロー50の計測範囲21と、オプティカルフロー50の計測点20の位置と数、さらに、設定された各オプティカルフロー計測点20における探索範囲40が含まれている。
The setting of the processing area includes the
ステップS2で取得された車速が所定の速度より小さい場合、または車速と舵角が所定の大きさより小さい場合には、図3(a)に示すように、0.5m と1mと2mの範囲にオプティカルフロー50の計測点20を設定する。
When the vehicle speed acquired in step S2 is smaller than the predetermined speed, or when the vehicle speed and the steering angle are smaller than the predetermined magnitude, as shown in FIG. 3 (a), the ranges are 0.5m, 1m, and 2m. The
また、上記の条件の場合、オプティカルフロー50の各計測点20における探索領域40は図4(a)に示すように探索領域40を狭く設定する。本実施例では、計測点20に対して8近傍を探索領域40としている。
In the case of the above conditions, the search area 40 at each
一方、ステップS2で取得された車速が所定の速度より大きい場合または、ヨーレートが所定の大きさより大きい場合、または車速と舵角が所定の大きさより大きい場合には、図3(b)に示すように0.5m と1mと2mと3mの範囲にオプティカルフロー50の計測点20を設定する。
On the other hand, when the vehicle speed acquired in step S2 is larger than a predetermined speed, when the yaw rate is larger than a predetermined magnitude, or when the vehicle speed and the steering angle are larger than a predetermined magnitude, as shown in FIG. The
また、上記の条件の場合、オプティカルフロー50の各計測点20における探索領域40は図4(b)に示すように探索領域40を広く設定する。本実施例では、計測点20に対して24近傍を探索領域40としている。
In the case of the above conditions, the search area 40 at each
また、処理の負荷を考慮して、オプティカルフロー50の計測点20の密度を間引いて、計測点数を少なくする。さらに、設定された各オプティカルフロー50の計測点20における探索領域40を広く設定する。
Also, considering the processing load, the density of the measurement points 20 of the
上記の様に、車速、舵角、ヨーレートの少なくともいずれかに基づいて、オプティカルフロー50の計測範囲21や計測点20の数、探索領域40を可変とする。これにより、オプティカルフロー50を精度よく計測することが可能となり、さらに、演算装置5を効率よく使用することができる。
As described above, the
ステップS6では、ステップS2とステップS3で得られた車両情報7とカーナビゲーションシステム6からの情報を基に、オプティカルフロー50の推定値70を算出する。
In step S6, an estimated
カーナビゲーションシステム6から取得された道路上に描かれた白線61や、道路標示60の種別情報と、車両情報7から取得された車速情報や、ヨーレート情報、舵角情報から、計測されるオプティカルフロー50の大きさと角度を推定する。
Optical flow measured from the
カーナビゲーションシステム6から得られる白線61や道路標示60の大きさやパターンは既知であるため、上記に示した情報から、各計測点20におけるオプティカルフロー50を精度よく推定することが可能となる。
Since the size and pattern of the
また、車両10に対する撮像装置1の取り付け角度は実質的に一定であるため、撮像素子上の各画素と、その画素に写っている領域の自車両からの距離、方位は一対一の関係を持っている。従って、車両の速度、舵角若しくはヨーレート又はこれらの組み合わせの情報が得られれば、その速度、舵角、ヨーレートが発生している状況において、あるタイミングにおける撮像画像の各画素に写っているものが、次のタイミングにおける撮像画像の何処に現れるかを推定することが出来る。従って、実際に撮像された画像情報を用いなくとも、車両の速度、舵角、ヨーレート等からマップ参照若しくは座標変換を行うことにより、オプティカルフローを推定できる。
In addition, since the mounting angle of the imaging device 1 with respect to the
次に、ステップS7の画像取得設定では、ステップS2とステップS3で得られた車両情報7とカーナビゲーションシステム6からの情報を基に、画像の取り込み周期と、シャッター速度、画像輝度のゲインを設定する。
Next, in the image acquisition setting in step S7, the image capture period, the shutter speed, and the gain of image brightness are set based on the
ステップS2で取得された車速が所定の速度より大きい場合、または、ヨーレートが所定の大きさより大きい場合、または車速と舵角が所定の大きさより大きい場合には、画像の取り込み周期を短く設定し、シャッター速度を速く設定する。 If the vehicle speed acquired in step S2 is greater than a predetermined speed, or if the yaw rate is greater than a predetermined magnitude, or if the vehicle speed and the steering angle are greater than a predetermined magnitude, the image capture cycle is set short, Set the shutter speed faster.
これにより、車両10の移動速度が速い場合でも、画像ブレの無い画像が取得でき、精度よくオプティカルフロー50を計測することができる。
Thereby, even when the moving speed of the
また、撮像された映像の輝度分布に基づいて撮像装置1のシャッター速度とゲインを設定する。夜間やトンネル内においては、周囲が暗いため、道路上に描かれた白線61や道路標示60が鮮明に撮像することが困難な場合がある。
Further, the shutter speed and gain of the imaging device 1 are set based on the luminance distribution of the captured image. Since the surroundings are dark at night or in a tunnel, it may be difficult to capture a clear image of the
この場合は、シャッター速度を遅くするか、ゲインを大きくし、確実に道路上に描かれた白線61や道路標示60が撮像できるようにそれぞれを設定する。
In this case, the shutter speed is decreased or the gain is increased, and each is set so that the
続いて、ステップS8の画像取り込み処理で、撮像装置1によって撮像された画像(画像ID:n)をメモリ4に蓄える。 Subsequently, the image (image ID: n) captured by the imaging device 1 is stored in the memory 4 in the image capturing process in step S8.
次に、ステップS9で、オプティカルフロー50の計測を行う。オプティカルフロー50は、所定の周期で取得された画像ID=n−1と画像ID=nとを比較することで計測することができる(nは自然数)。
Next, in step S9, the
ステップS5によって設定された各画素の探索領域40に対して、画像ID=n−1におけるオプティカルフロー50の計測点20の濃度値が、画像ID=nの画像中のどの点に移動しているかを探索する。図5(a)と図5(b)に示す例では、ID=n−1の画像において中央の画素に写っている特定の特徴(抽出物)が、ID=nの画像では右上の角に移動している。よって、この二つを比較して、ID探索された画素の座標からオプティカルフロー50の大きさ(抽出物の画像上での移動量)と角度(同じく、画像上での移動方向)が算出される。
To which point in the image of image ID = n the density value of the
なお、オプティカルフロー50の計測手法には、時空間勾配法や照合法などが既に公知の技術として存在するため、本実施例では詳細の説明は省略する。
In addition, since the spatiotemporal gradient method, the collation method, etc. already exist as a well-known technique in the measurement method of the
次に、ステップS10のオプティカルフロー解析処理では、ステップS6で推定されたオプティカルフロー70と、ステップS9によって計測されたオプティカルフロー50の照合を行う。
Next, in the optical flow analysis process in step S10, the
ステップS6によって推定された各計測点20におけるオプティカルフロー70の大きさと角度が、ステップS9で計測された各計測点20におけるオプティカルフロー50とを比較し、計測点20ごとに相関値を算出する。
The magnitude and angle of the
ここで、図6に示すように車両が菱形の道路標示60を通過しているシーンを想定する。 Here, a scene is assumed in which the vehicle passes through a diamond-shaped road marking 60 as shown in FIG.
まず、ステップS6で推定されるオプティカルフロー70は図7に示すように、車両10の挙動と道路上に描かれた道路標示60や道路形状に依存した大きさと角度となる。
First, as shown in FIG. 7, the
撮像装置1の光学系部品13に付着物80が無い場合は、ステップS9で計測されるオプティカルフロー50は、図8(a)に示すように推定値とほぼ同じ大きさと角度として計測される。よって、高い相関値が得られる。
When there is no
一方、撮像装置1の光学系部品13に付着物がある場合は、ステップS9で計測されるオプティカルフロー50は、図8(b)に示すように、推定値とは異なる計測点が存在する。
On the other hand, when there is a deposit on the
付着物80が無い場合は、道路面のテクスチャ(道路上に描かれた白線61や道路標示60など)によってオプティカルフロー50が計測されるが、水滴や汚れなどの付着物80によって道路面のテクスチャが正確に計測できない。
When there is no
このため、ステップS2で得られる情報から推定された車両の挙動や、ステップS3で得られる道路上に描かれた白線61や道路標示60から推定されたオプティカルフロー70とは、異なった大きさや角度のオプティカルフロー50が計測される。よって、ステップS10で算出される相関値は低い値となる。
Therefore, the vehicle behavior estimated from the information obtained in step S2 and the
次に、ステップS11では、ステップS10で算出された相関値を基に付着物80の有無を判定する。つまり、相関値が所定の値以上の場合は、付着物無し(ステップS12)と判定し、相関値が所定の値より低い場合には、付着物あり(ステップS13)と判定する。
Next, in step S11, the presence or absence of the
ステップS11によって付着物ありと判定された場合、ステップS14で警報信号を出力することになる。 If it is determined in step S11 that there is a deposit, an alarm signal is output in step S14.
ステップS11における警報信号は、警告灯などの警報装置7に出力することで、ユーザーへ通知される。また、カーナビゲーションシステム6の表示画面へ出力したり、警告音や音声で警告したりしてもよい。
The alarm signal in step S11 is notified to the user by outputting it to an
上記の様に自動で撮像装置1の光学系部品13に付着した水滴や汚れなどの付着物80を検知することで、撮像装置1を使ったアプリケーション(例えば、白線認識や道路上のマーカ認識や車両検知や障害物検知機能)の性能低下を事前に警告することができる。
As described above, an application 80 (for example, white line recognition, marker recognition on the road, etc.) using the imaging device 1 by automatically detecting the adhering
自動で撮像装置1の光学部品に付着した水滴や汚れなどの付着物80を検知することで、ユーザーが定期的に行っていた点検が不要となり、効率的な保守が可能となる。
By automatically detecting the adhering
本実施例では、撮像装置1の設置位置を車両後方部としたが、車両の側面部や前方部に設置しても良い。また、撮像装置1におけるレンズの画角を45度としたが、目的のアプリケーションに合わせて任意の画角のレンズにおいても、本発明を適用することは可能である。 In this embodiment, the installation position of the imaging device 1 is the rear part of the vehicle, but it may be installed on the side part or the front part of the vehicle. In addition, although the angle of view of the lens in the imaging apparatus 1 is 45 degrees, the present invention can be applied to a lens having an arbitrary angle of view in accordance with a target application.
また、本実施例では、車速情報を車両ネットワークから取得しているが、カーナビゲーションシステム6におけるGPS情報を用いてもよい。さらに、ヨーレート情報においても、カーナビゲーションシステム6に具備されたヨーレートセンサの情報を用いてもよい。
In this embodiment, the vehicle speed information is acquired from the vehicle network, but GPS information in the
また、本実施例では、付着物検知処理の実行の有無を車速情報やカーナビゲーションシステム6からの情報を用いているが、車両のトランスミッションの情報を用いてもよい。例えば、トランスミッションが、パーキングの位置にある場合、付着物検知処理は実行しないとしてもよい。
In this embodiment, the vehicle speed information and the information from the
また、本実施例では、付着物検知処理の実行の有無を車速情報やカーナビゲーションシステム6からの情報を用いているが、車両のワイパー動作の情報を用いてもよい。例えば、ワイパーが動作している場合、降雨状態である可能性が高いため、撮像装置1の光学部品に水滴が付着している可能性が高い。よって、ワイパーが動作している場合に、付着物検知処理を実行するとしてもよい。
In this embodiment, the vehicle speed information and the information from the
また、本実施例の車載カメラ用付着物検知装置9の演算装置5は、カーナビゲーションシステム6とは別となっているが、カーナビゲーションシステム6の演算装置5を共通で使用してもよい。この場合、付着物検知処理の実行の有無を、演算装置5の負荷率を基に決定してもよい。例えば、カーナビゲーションシステム6において、地図検索や地図描画時においては、カーナビゲーションシステム6の演算負荷が大きくなる。この場合、付着物検知処理は実行せず、カーナビゲーションシステム6の処理を優先することができる。
Moreover, although the
また、本実施例では、オプティカルフロー50の計測点20を0.5m、1m、2m、3mに設定しているが、撮像範囲11の任意の位置に対して設定することができる。
In this embodiment, the
また、本実施例では、車速に応じて、オプティカルフロー50の各計測点20における探索領域40を8近傍と24近傍としたが、撮像装置1における撮像素子の画素数やレンズの焦点距離、画像処理に使用する画像サイズに応じて任意に変更することができる。
In the present embodiment, the search area 40 at each
以上、本発明の基本的な実施形態について説明したが、上記の実施形態に加えて、以下に列挙するような構成を採用することができる。またこれらの構成により、以下に説明する効果が得られる。
〔1〕車両の室外に設置された撮像装置1の光学系部品13に付着した水滴および汚れなどの付着物80を検出する装置において、前記撮像装置1によって異なるタイミングで撮像された複数の画像から所定の画素の移動量と移動方向を算出するオプティカルフロー計測手段と、車速情報からオプティカルフロー50を推定するオプティカルフロー推定手段とを具備する。
The basic embodiments of the present invention have been described above. However, in addition to the above-described embodiments, configurations as listed below can be adopted. Moreover, the effect demonstrated below is acquired by these structures.
[1] In an apparatus for detecting adhering
前記オプティカルフロー計測手段によって計測された所定の画素の移動量と移動方向と、前記オプティカルフロー推定手段によって推定された所定の画素の移動量と移動方向を比較する。この比較結果を基に撮像装置1の光学系部品13に付着した水滴および汚れなどの付着物80を検出する。
The movement amount and movement direction of the predetermined pixel measured by the optical flow measurement means are compared with the movement amount and movement direction of the predetermined pixel estimated by the optical flow estimation means. Based on this comparison result, the adhering
これにより、水滴の様に、背景を透過しやすい付着物においても、従来技術に比べて処理時間をかけずに検知することができる。また、水滴のように、動きのある付着物80でも従来技術に比べて精度良く検知することが可能である。日照センサを使用せずに精度良く付着物80を検知することが可能となる。
〔2〕前記オプティカルフロー推定手段には、車速情報7以外に、ヨーレートセンサ情報や、舵角センサ情報や、GPS情報や、カーナビゲーションシステム6の地図情報を複合的に使用してもよい。
As a result, it is possible to detect an adhering substance that easily passes through the background, such as a water drop, without taking a processing time as compared with the prior art. In addition, it is possible to detect even a moving
[2] In addition to the
車速情報以外の前記情報を利用することで、車両10の挙動が推定できるため、前記オプティカルフロー50の推定精度が向上し、撮像装置1の光学系部品13に付着した水滴や汚れなどの付着物80をより確実に検出することができる。また車両10の動きからオプティカルフロー70が推定できるため、撮像装置1の光学系部品13に付着した水滴や汚れなどの付着物8か、道路面上のペイント60やビルなどの構造物かを精度良く区別することができる。
〔3〕前記車載カメラ用付着物検出装置9において、撮像装置1の光軸方向と画角に応じて、前記オプティカルフロー計測手段におけるオプティカルフロー50の探索領域40を狭くする、または、オプティカルフロー計測点20の座標を変化させてもよい。このことにより、撮像範囲におけるオプティカルフロー50の計測をムラ無く実施することが可能となる。
〔4〕本実施例において、カーナビゲーションシステム6と通信を行い、前記カーナビゲーションシステム6からの通信情報に基づいて付着物80の検出を実行し、かつ処理シーケンスを変化させることとしてもよい。具体的には、前記カーナビゲーションシステム6との通信情報によって車載カメラの撮像範囲11内に道路標示ペイント60(例えば、横断歩道や減速帯等)が存在するといった情報を受信した場合、前記オプティカルフロー計測手段を実行させる。
By using the information other than the vehicle speed information, the behavior of the
[3] In the in-vehicle camera adhering matter detection device 9, the search area 40 of the
[4] In the present embodiment, communication with the
これにより、道路標示ペイント60が無い場合、オプティカルフロー50の計測処理を行わないため、演算装置5を効率的に動作させることができる。
Thereby, when there is no
さらに、道路標示ペイント60の形状や色は既知であるため、より正確なオプティカルフロー50の計測が行える。よって、撮像装置1の光学系部品13に付着した水滴または汚れなどの付着物80を精度良く検出することができる。
〔5〕前記オプティカルフロー計測手段において、車速センサやGPS情報から算出される車速が大きい場合、車両10のヨーレートが大きい場合、舵角が大きい場合等の条件時にはオプティカルフロー50の探索領域40と計測範囲21を狭くすることができる。当該構成により、車両運動の状態に応じてオプティカルフロー50の計測に必要となる演算量を調節することができ、演算装置5をより効率的に動作させることができる。また、上記の条件においてはオプティカルフロー計測点20の数を減少させることが望ましい。
なお、車両運動の状態にかかわらず、演算装置5の負荷が高い場合にもオプティカルフロー50の探索領域40と計測範囲21を狭くする構成としてもよい。これにより、演算装置5の処理負荷を低減し、システム全体としての演算効率を上げることができる。
〔6〕車速情報に応じて付着物検出処理の実行頻度を変化させてもよい。これにより、演算負荷のさらなる効率化が可能となる。また、前記付着物検出処理の実行頻度を変化させる手段において、演算装置5の負荷率すなわち付着物検出処理以外の処理により、演算装置5の負荷率が高くなることが予測される場合には、付着物検出処理の実行頻度を低下させることができる。さらに、
〔7〕本実施例において、雨滴の付着する可能性が低いと考えられる場合には付着物検出処理の実行頻度を低くする構成としてもよい。具体的には、演算装置5が車両情報7としてワイパー情報を受信し、ワイパーが動作していないときには付着物検出処理の実行頻度を低くする。これにより円滑なシステムの動作が可能となる。
〔8〕本実施例において、撮像された映像の輝度分布に基づいて撮像素子の露光時間を制御したり、撮像素子に蓄積される電荷に対するゲインを制御したりしてもよい。これにより、夜間でも撮像装置1の光学系部品13に付着した付着物80を精度良く検出することができる。
Furthermore, since the shape and color of the
[5] In the optical flow measurement means, when the vehicle speed calculated from the vehicle speed sensor or GPS information is high, the yaw rate of the
Note that the search area 40 and the
[6] The frequency of executing the attached matter detection process may be changed according to the vehicle speed information. As a result, the calculation load can be further improved in efficiency. Further, in the means for changing the execution frequency of the attached matter detection processing, when it is predicted that the load factor of the
[7] In this embodiment, when it is considered that the possibility of raindrops being attached is low, the frequency of executing the attached matter detection process may be reduced. Specifically, the
[8] In this embodiment, the exposure time of the image sensor may be controlled based on the luminance distribution of the captured image, or the gain for the charge accumulated in the image sensor may be controlled. Thereby, the deposit |
1…撮像装置、2…A/D変換回路、3…画像処理装置、4…メモリ、5…演算装置、6…カーナビゲーションシステム、7…車両情報、8…警報装置、9…車載カメラ用付着物検知装置、10…車両、11…撮像範囲、13…光学系光学部品、20…オプティカルフロー計測点、21…オプティカルフロー計測範囲、40…オプティカルフロー計測点におけるオプティカルフロー探索範囲、50…計測されたオプティカルフロー、60…道路標示、61…白線、70…推定されたオプティカルフロー、80…付着物。 DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... A / D conversion circuit, 3 ... Image processing device, 4 ... Memory, 5 ... Arithmetic device, 6 ... Car navigation system, 7 ... Vehicle information, 8 ... Alarm device, 9 ... For vehicle-mounted camera Kimono detection device, 10 ... vehicle, 11 ... imaging range, 13 ... optical system optical component, 20 ... optical flow measurement point, 21 ... optical flow measurement range, 40 ... optical flow search range at optical flow measurement point, 50 ... measured 60 ... road marking, 61 ... white line, 70 ... estimated optical flow, 80 ... deposit.
Claims (19)
前記撮像装置によって異なるタイミングで撮像された複数の画像から所定の抽出物の移動量と移動方向とを算出するオプティカルフロー計測手段と、
車速情報に基づいて、前記抽出物の移動量と移動方向とを推定するオプティカルフロー推定手段とを備え、
前記オプティカルフロー計測手段によって計測された前記抽出物の移動量及び移動方向と、前記オプティカルフロー推定手段によって推定された前記抽出物の移動量及び移動方向とに基づいて、前記撮像手段の光学系に付着した付着物を検出する車載カメラ。 In an in-vehicle camera that includes an optical system, an image sensor, and an arithmetic device that processes an image captured by the image sensor,
An optical flow measuring means for calculating a moving amount and a moving direction of a predetermined extract from a plurality of images taken at different timings by the imaging device;
Optical flow estimation means for estimating the amount and direction of movement of the extract based on vehicle speed information,
Based on the movement amount and movement direction of the extract measured by the optical flow measurement means and the movement amount and movement direction of the extract estimated by the optical flow estimation means, the optical system of the imaging means An in-vehicle camera that detects attached material.
前記オプティカルフロー推定手段は、前記車速情報に加え、ヨーレートセンサ情報を用いて前記抽出物の移動量と移動方向とを推定することを特徴とする車載カメラ。 The in-vehicle camera according to claim 1, wherein the optical flow estimation unit estimates a moving amount and a moving direction of the extract using yaw rate sensor information in addition to the vehicle speed information.
前記オプティカルフロー推定手段は、前記車速情報に加え、舵角センサ情報を用いて前記抽出物の移動量と移動方向とを推定することを特徴とする車載カメラ。 In claim 1,
The in-vehicle camera characterized in that the optical flow estimation means estimates a moving amount and a moving direction of the extract using steering angle sensor information in addition to the vehicle speed information.
通信経路を介してGPSによる自車位置及び地図情報を取得し、当該車載カメラの撮像範囲内に所定の目標物があると予測される場合に前記付着物の検出を行なうことを特徴とする車載カメラ。 In any one of Claims 1 thru | or 3,
The vehicle is obtained by acquiring the vehicle position and map information by GPS via a communication path, and detecting the attached object when it is predicted that there is a predetermined target within the imaging range of the vehicle-mounted camera. camera.
前記所定の目標物として道路上のペイントを用いることを特徴とする車載カメラ。 In claim 4,
A vehicle-mounted camera using paint on a road as the predetermined target.
カーナビゲーションシステムと通信を行い、前記カーナビゲーションシステムからの通信情報に基づいて付着物の検出を実行し、かつ処理シーケンスを変化させることを特徴とする車載カメラ。 In any one of Claims 1 thru | or 5,
An in-vehicle camera that communicates with a car navigation system, detects an adhering substance based on communication information from the car navigation system, and changes a processing sequence.
前記カーナビゲーションシステムから当該車載カメラの撮像範囲内に道路標示ペイントありの情報を受信した場合、前記付着物の検出を行なうことを特徴とする車載カメラ。 In claim 6,
A vehicle-mounted camera that detects the adhering matter when information indicating that there is a road marking paint within the imaging range of the vehicle-mounted camera is received from the car navigation system.
前記演算装置の負荷が高い場合には、前記オプティカルフロー計測手段におけるオプティカルフローの探索領域を狭くすることを特徴とする車載カメラ。 In any one of Claims 1 thru | or 7,
An on-vehicle camera characterized by narrowing an optical flow search area in the optical flow measurement means when the load on the arithmetic unit is high.
前記演算装置の負荷が高い場合には、前記オプティカルフロー計測手段におけるオプティカルフロー計測点数を減少させることを特徴とする車載カメラ。 In any one of Claims 1 thru | or 7,
An in-vehicle camera, wherein the number of optical flow measurement points in the optical flow measurement means is reduced when the load on the arithmetic unit is high.
車速情報とヨーレートセンサ情報に基づいて、前記オプティカルフロー計測手段のけるオプティカルフローの探索領域、またはオプティカルフロー計測点数を変化させることを特徴とする車載カメラ。 In any one of Claims 1 thru | or 7,
An in-vehicle camera, wherein an optical flow search area or an optical flow measurement point in the optical flow measuring means is changed based on vehicle speed information and yaw rate sensor information.
車速情報と舵角センサ情報に基づいて、前記オプティカルフロー計測手段におけるオプティカルフローの探索領域、またはオプティカルフロー計測点数を変化させることを特徴とする車載カメラ。 In any one of Claims 1 thru | or 7,
An in-vehicle camera characterized in that an optical flow search area or an optical flow measurement point in the optical flow measuring means is changed based on vehicle speed information and rudder angle sensor information.
GPS情報に基づいて、前記オプティカルフロー計測手段におけるオプティカルフローの探索領域、またはオプティカルフロー計測点数を変化させることを特徴とする車載カメラ。 In any one of Claims 1 thru | or 7,
An in-vehicle camera characterized in that, based on GPS information, an optical flow search area or the number of optical flow measurement points in the optical flow measurement means is changed.
前記付着物の検出処理を実行する頻度を、車速情報に基づいて変化させることを特徴とする車載カメラ。 In any one of Claims 1 thru | or 12,
A vehicle-mounted camera, wherein the frequency of executing the attached matter detection process is changed based on vehicle speed information.
前記付着物の検出処理を実行するか否かを、前記車両に具備されたトランスミッションの情報に基づいて決定することを特徴とする車載カメラ。 In any one of Claims 1 thru | or 12,
An in-vehicle camera that determines whether or not to execute the process of detecting the attached matter based on information on a transmission provided in the vehicle.
前記付着物の検出処理を実行するか否かを、前記演算装置の負荷率に基づいて決定することを特徴とする車載カメラ。 In any one of Claims 1 thru | or 14,
An in-vehicle camera that determines whether or not to execute the process of detecting the attached matter based on a load factor of the arithmetic device.
前記付着物の検出処理を実行するか否かを、ワイパー情報に基づいて決定することを特徴とする車載カメラ。 In any one of Claims 1 thru | or 15,
An in-vehicle camera that determines whether or not to execute the process of detecting the attached matter based on wiper information.
前記光学系に付着物があると認識された場合、警報情報を出力することを特徴とする車載カメラ。 In any one of Claims 1 to 16,
An in-vehicle camera that outputs alarm information when it is recognized that there is a deposit in the optical system.
撮像された映像の輝度分布に基づいて前記撮像素子の露光時間を制御することを特徴とする車載カメラ。 In any one of Claims 1 thru | or 17,
An in-vehicle camera that controls an exposure time of the image sensor based on a luminance distribution of a captured image.
The in-vehicle camera according to claim 18, wherein a gain for the electric charge accumulated in the image sensor is controlled based on a luminance distribution of a captured image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006234848A JP2008060874A (en) | 2006-08-31 | 2006-08-31 | On-vehicle camera and stain detector for on-vehicle camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006234848A JP2008060874A (en) | 2006-08-31 | 2006-08-31 | On-vehicle camera and stain detector for on-vehicle camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008060874A true JP2008060874A (en) | 2008-03-13 |
Family
ID=39243128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006234848A Pending JP2008060874A (en) | 2006-08-31 | 2006-08-31 | On-vehicle camera and stain detector for on-vehicle camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008060874A (en) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2036424A3 (en) * | 2007-09-14 | 2009-12-02 | CNH Belgium N.V. | A method and apparatus for detecting errors in grain analysis apparatus using electronically processed images |
JP2011188094A (en) * | 2010-03-05 | 2011-09-22 | Toyota Central R&D Labs Inc | Object recognition device and program |
JP2013040932A (en) * | 2011-08-09 | 2013-02-28 | Boeing Co:The | Image-based position measurement |
CN104509091A (en) * | 2012-07-27 | 2015-04-08 | 日产自动车株式会社 | Water droplet detection device, and three-dimensional object detection device using said water droplet detection device |
WO2015083640A1 (en) * | 2013-12-04 | 2015-06-11 | 株式会社日立国際電気 | Monitoring device |
JP2016162204A (en) * | 2015-03-02 | 2016-09-05 | 株式会社デンソー | Dirt determination device |
JP2018523223A (en) * | 2015-07-02 | 2018-08-16 | コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH | Detection of lens contamination using expected edge trajectories |
CN109151380A (en) * | 2017-06-27 | 2019-01-04 | 通用汽车环球科技运作有限责任公司 | Using information of vehicles and sensor in the method for photographing and video observes and records |
EP3438736A1 (en) * | 2017-07-31 | 2019-02-06 | Samsung Electronics Co., Ltd. | Image obtaining method and apparatus |
JP2019026134A (en) * | 2017-08-01 | 2019-02-21 | 三菱電機株式会社 | Camera monitoring system |
JP2019133333A (en) * | 2018-01-30 | 2019-08-08 | 株式会社デンソーテン | Adhesion detection apparatus and adhesion detection method |
US10678230B2 (en) | 2018-02-14 | 2020-06-09 | Denso International America, Inc. | Sensor diagnostic system |
US10814873B2 (en) | 2018-04-16 | 2020-10-27 | Toyota Jidosha Kabushiki Kaisha | Driving support apparatus |
KR20210048888A (en) * | 2019-10-24 | 2021-05-04 | 현대모비스 주식회사 | Automotive sensor integration module |
US11001270B2 (en) | 2018-04-06 | 2021-05-11 | Toyota Jidosha Kabushiki Kaisha | Driving support device including a cleaning device for cleanining a window portion |
US11110899B2 (en) | 2018-08-24 | 2021-09-07 | Toyota Jidosha Kabushiki Kaisha | Vehicle and cleaning method of detection sensor mounted on vehicle |
CN113834636A (en) * | 2020-06-24 | 2021-12-24 | 百度(美国)有限责任公司 | Dirty monocular camera detection method for autonomous vehicle |
US11220272B2 (en) | 2017-11-13 | 2022-01-11 | Mitsubishi Electric Corporation | Failure detection apparatus, failure detection method, and computer readable medium |
CN114441138A (en) * | 2022-01-28 | 2022-05-06 | 中国第一汽车股份有限公司 | Streaming media rearview mirror testing device and method |
US11624805B2 (en) | 2017-03-07 | 2023-04-11 | Mitsubishi Electric Corporation | Failure detection device, failure detection method, and failure detection program |
-
2006
- 2006-08-31 JP JP2006234848A patent/JP2008060874A/en active Pending
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2036424A3 (en) * | 2007-09-14 | 2009-12-02 | CNH Belgium N.V. | A method and apparatus for detecting errors in grain analysis apparatus using electronically processed images |
JP2011188094A (en) * | 2010-03-05 | 2011-09-22 | Toyota Central R&D Labs Inc | Object recognition device and program |
JP2013040932A (en) * | 2011-08-09 | 2013-02-28 | Boeing Co:The | Image-based position measurement |
JP2018116065A (en) * | 2011-08-09 | 2018-07-26 | ザ・ボーイング・カンパニーThe Boeing Company | Determination of position of image base |
CN104509091B (en) * | 2012-07-27 | 2019-03-26 | 日产自动车株式会社 | Water droplet detection device and the three-dimension object detection device for using water droplet detection device |
CN104509091A (en) * | 2012-07-27 | 2015-04-08 | 日产自动车株式会社 | Water droplet detection device, and three-dimensional object detection device using said water droplet detection device |
WO2015083640A1 (en) * | 2013-12-04 | 2015-06-11 | 株式会社日立国際電気 | Monitoring device |
JPWO2015083640A1 (en) * | 2013-12-04 | 2017-03-16 | 株式会社日立国際電気 | Monitoring device |
JP2016162204A (en) * | 2015-03-02 | 2016-09-05 | 株式会社デンソー | Dirt determination device |
JP2018523223A (en) * | 2015-07-02 | 2018-08-16 | コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH | Detection of lens contamination using expected edge trajectories |
US11624805B2 (en) | 2017-03-07 | 2023-04-11 | Mitsubishi Electric Corporation | Failure detection device, failure detection method, and failure detection program |
CN109151380A (en) * | 2017-06-27 | 2019-01-04 | 通用汽车环球科技运作有限责任公司 | Using information of vehicles and sensor in the method for photographing and video observes and records |
US10708510B2 (en) | 2017-07-31 | 2020-07-07 | Samsung Electronics Co., Ltd. | Image obtaining method and apparatus |
CN109327660B (en) * | 2017-07-31 | 2021-12-28 | 三星电子株式会社 | Image acquisition method and device |
EP3438736A1 (en) * | 2017-07-31 | 2019-02-06 | Samsung Electronics Co., Ltd. | Image obtaining method and apparatus |
US11792528B2 (en) | 2017-07-31 | 2023-10-17 | Samsung Electronics Co., Ltd. | Image obtaining method and apparatus |
CN109327660A (en) * | 2017-07-31 | 2019-02-12 | 三星电子株式会社 | Image acquiring method and equipment |
US11272114B2 (en) | 2017-07-31 | 2022-03-08 | Samsung Electronics Co., Ltd. | Image obtaining method and apparatus |
JP2019026134A (en) * | 2017-08-01 | 2019-02-21 | 三菱電機株式会社 | Camera monitoring system |
US11220272B2 (en) | 2017-11-13 | 2022-01-11 | Mitsubishi Electric Corporation | Failure detection apparatus, failure detection method, and computer readable medium |
JP7210882B2 (en) | 2018-01-30 | 2023-01-24 | 株式会社デンソーテン | Attached matter detection device and attached matter detection method |
JP2019133333A (en) * | 2018-01-30 | 2019-08-08 | 株式会社デンソーテン | Adhesion detection apparatus and adhesion detection method |
US10678230B2 (en) | 2018-02-14 | 2020-06-09 | Denso International America, Inc. | Sensor diagnostic system |
US11001270B2 (en) | 2018-04-06 | 2021-05-11 | Toyota Jidosha Kabushiki Kaisha | Driving support device including a cleaning device for cleanining a window portion |
US10814873B2 (en) | 2018-04-16 | 2020-10-27 | Toyota Jidosha Kabushiki Kaisha | Driving support apparatus |
US11110899B2 (en) | 2018-08-24 | 2021-09-07 | Toyota Jidosha Kabushiki Kaisha | Vehicle and cleaning method of detection sensor mounted on vehicle |
KR102588554B1 (en) * | 2019-10-24 | 2023-10-12 | 현대모비스 주식회사 | Automotive sensor integration module |
KR20210048888A (en) * | 2019-10-24 | 2021-05-04 | 현대모비스 주식회사 | Automotive sensor integration module |
US11774578B2 (en) | 2019-10-24 | 2023-10-03 | Hyundai Mobis Co., Ltd. | Automotive sensor integration module |
CN113834636A (en) * | 2020-06-24 | 2021-12-24 | 百度(美国)有限责任公司 | Dirty monocular camera detection method for autonomous vehicle |
CN113834636B (en) * | 2020-06-24 | 2023-12-22 | 百度(美国)有限责任公司 | Dirty monocular camera detection method for an autonomous vehicle |
CN114441138A (en) * | 2022-01-28 | 2022-05-06 | 中国第一汽车股份有限公司 | Streaming media rearview mirror testing device and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008060874A (en) | On-vehicle camera and stain detector for on-vehicle camera | |
US11305691B2 (en) | Vehicular vision system | |
US11836989B2 (en) | Vehicular vision system that determines distance to an object | |
JP5022609B2 (en) | Imaging environment recognition device | |
JP4856612B2 (en) | Object detection device | |
EP2933790B1 (en) | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method | |
JP5981322B2 (en) | In-vehicle image processing device | |
JP6163207B2 (en) | In-vehicle device | |
US10650255B2 (en) | Vehicular vision system with object detection | |
JP5887219B2 (en) | Lane departure warning device | |
JP5399027B2 (en) | A device having a system capable of capturing a stereoscopic image to assist driving of an automobile | |
JP6246014B2 (en) | Exterior recognition system, vehicle, and camera dirt detection method | |
US20130286205A1 (en) | Approaching object detection device and method for detecting approaching objects | |
CN106289159B (en) | Vehicle distance measurement method and device based on distance measurement compensation | |
WO2013081984A1 (en) | Vision system for vehicle | |
JP2007172035A (en) | Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method | |
US20190202407A1 (en) | Control apparatus and vehicle | |
JP2021163432A (en) | Signal light state identification apparatus, signal light state identification method, signal light state-identifying program, and control apparatus | |
JP2020166409A (en) | In-vehicle device, in-vehicle system and surroundings monitoring method | |
WO2015001747A1 (en) | Travel road surface indication detection device and travel road surface indication detection method | |
JP2019197270A (en) | Object detection device and object detection method | |
JP2005127781A (en) | Device for detecting deterioration of vehicle range finder | |
JP6362945B2 (en) | In-vehicle image processing device | |
JP2019091327A (en) | Three-dimensional object detection device | |
JP2005162091A (en) | Image processing device |