JP2008060874A - On-vehicle camera and stain detector for on-vehicle camera - Google Patents

On-vehicle camera and stain detector for on-vehicle camera Download PDF

Info

Publication number
JP2008060874A
JP2008060874A JP2006234848A JP2006234848A JP2008060874A JP 2008060874 A JP2008060874 A JP 2008060874A JP 2006234848 A JP2006234848 A JP 2006234848A JP 2006234848 A JP2006234848 A JP 2006234848A JP 2008060874 A JP2008060874 A JP 2008060874A
Authority
JP
Japan
Prior art keywords
vehicle
optical flow
information
camera
thru
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006234848A
Other languages
Japanese (ja)
Inventor
Kota Irie
耕太 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006234848A priority Critical patent/JP2008060874A/en
Publication of JP2008060874A publication Critical patent/JP2008060874A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/003Control of exposure by setting shutters, diaphragms or filters, separately or conjointly setting of both shutter and diaphragm

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device for detecting waterdrops and stains adhered to optical components of an imaging apparatus, in the imaging apparatus that has been installed outside the room of a vehicle. <P>SOLUTION: Optical flow of prescribed pixels is measured from a plurality of images picked up at different timing with the imaging apparatus, and the optical flow is further deduced from the vehicle speed information and information from a car navigation system. The presence or the absence of the waterdrops or stains, adhered to the optical components of the imaging apparatus, is decided based on comparison results between the optical flow deduced and the measured optical flow. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は車載カメラに関し、特に自動車等の車外に取り付けられた撮像装置に付着した水滴や汚れを検知する装置および検知する手法に関する。   The present invention relates to an in-vehicle camera, and more particularly to an apparatus and a detection method for detecting water droplets and dirt attached to an imaging apparatus attached outside a vehicle such as an automobile.

自動車における利便性や安全性を向上させる技術として、車両にカメラを搭載し、カメラで撮像された画像から道路上の白線や道路標示を認識したり、車両後方の障害物を検知や、駐車を支援したりする装置が知られている。   As a technology to improve convenience and safety in automobiles, a camera is installed in the vehicle, and white lines and road markings on the road are recognized from images captured by the camera, obstacles behind the vehicle are detected, and parking is performed. Devices for assisting are known.

この様な装置に用いられるカメラは車外に取り付けられる場合が想定され、カメラのレンズ上に水滴や汚れなどが付着する可能性がある。レンズに付着した水滴や汚れの度合によっては、前述した利便機能や安全機能を満たすことができなくなることが考えられる。よって、カメラのレンズに付着した水滴や汚れを検知し、ユーザーに対して警告を行ったり、自動的に洗浄したりする手段が必要である。   A camera used in such an apparatus is assumed to be attached to the outside of the vehicle, and there is a possibility that water droplets or dirt may adhere to the lens of the camera. Depending on the degree of water droplets and dirt adhering to the lens, it may be impossible to satisfy the convenience function and the safety function described above. Therefore, there is a need for means for detecting water droplets and dirt adhering to the lens of the camera, giving a warning to the user, and automatically cleaning.

特許文献1では、車両が移動している時に、異なるタイミングにて二つのカメラにて撮影された映像に含まれる濃度値の差分を複数フレームにわたって積算し、その積算された濃度値の映像に基づいてカメラに付着した汚れを検知している。   In Patent Document 1, when a vehicle is moving, the difference between density values included in images taken by two cameras at different timings is accumulated over a plurality of frames, and based on the accumulated density value images. The camera is detecting dirt on the camera.

特許文献2では、車両の室内に設置された車両エアコン用日射センサによって検出された日射量と、カメラから映像情報に基づいて演算された日射量との差分値を算出して、さらに、算出した差分値を積算し、差分値の算出と積算を(N−1)回繰り返し、n回目に積算された差分値が所定の差分値を超えると、カメラの光学系部品の汚れが生じていると判断している。   In Patent Document 2, a difference value between the amount of solar radiation detected by the vehicle air conditioner solar radiation sensor installed in the vehicle interior and the amount of solar radiation calculated based on the video information from the camera is calculated and further calculated. When the difference value is integrated, the difference value is calculated and integrated (N-1) times, and the difference value integrated for the nth time exceeds a predetermined difference value, the optical system component of the camera is contaminated. Deciding.

特開2003−259358号公報JP 2003-259358 A 特開2005−198004号公報JP 2005-198004 A

特許文献1に記載の手法では、異なるタイミングにて二つのカメラにて撮影された映像に含まれる濃度値の差分を複数フレームにわたって積算し、その積算された濃度値の映像に基づいてカメラに付着した汚れを検知している。このため、水滴のように、動きのある付着物の検知は困難である。   In the method described in Patent Document 1, the difference between density values included in images taken by two cameras at different timings is accumulated over a plurality of frames, and the image is attached to the camera based on the accumulated density value images. Detected dirt. For this reason, it is difficult to detect a moving deposit such as a water droplet.

また、レンズに付着した汚れによって背景が隠れる場合(泥汚れなど)に対しては有効であるが、水滴の様な背景を透過しやすい付着物の検知には積算時間を増やさないと困難であり、汚れを検知するまでに時間がかかる。   In addition, it is effective when the background is hidden by dirt adhering to the lens (such as mud dirt), but it is difficult to detect adhering substances that easily pass through the background, such as water droplets, unless the accumulated time is increased. , It takes time to detect dirt.

特許文献2に記載の手法では、車両の室内に設置された車両エアコン用日射センサによって検出された日射量と、カメラから映像情報に基づいて演算された日射量との差分値に基づいて汚れを検知している。   In the method described in Patent Document 2, dirt is removed based on a difference value between the amount of solar radiation detected by a vehicle air conditioner solar radiation sensor installed in a vehicle interior and the amount of solar radiation calculated based on video information from the camera. Detected.

日射センサとカメラの取り付け箇所は通常異なるため、日射センサでの日射量とカメラから演算される日射量とに誤差が生じる可能性がある(例えば日射センサ部に影がある場合など)。   Since the location of the solar radiation sensor and the camera is usually different, an error may occur between the solar radiation amount at the solar radiation sensor and the solar radiation amount calculated from the camera (for example, when the solar radiation sensor part has a shadow).

また、夜間において、日射センサからは、日射量はほとんど検出されないが、カメラで撮像された映像中に対向車両や先行車両や街灯等の光が入り、日射量として算出される可能性がある。よって、両者のセンサから算出される日射量に誤差が生じ、精度良く汚れを検知できない可能性がある。   Also, at night, the solar radiation sensor hardly detects the amount of solar radiation, but there is a possibility that light from oncoming vehicles, preceding vehicles, street lamps, etc. enters the image captured by the camera and is calculated as the amount of solar radiation. Therefore, an error occurs in the amount of solar radiation calculated from both sensors, and there is a possibility that dirt cannot be detected accurately.

上記の課題を解決するため、本発明は、光学系と撮像素子とを備え車両外部を撮像する撮像手段と、前記撮像装置によって異なるタイミングで撮像された複数の画像から所定の抽出物の移動量と移動方向とを算出するオプティカルフロー計測手段と、車速情報に基づいて、前記抽出物の移動量と移動方向とを推定するオプティカルフロー推定手段とを備え、前記オプティカルフロー計測手段によって計測された前記抽出物の移動量及び移動方向と、前記オプティカルフロー推定手段によって推定された前記抽出物の移動量及び移動方向とに基づいて、前記撮像手段の光学系に付着した付着物を検出する。   In order to solve the above-described problems, the present invention provides an imaging unit that includes an optical system and an imaging device and images a vehicle exterior, and a movement amount of a predetermined extract from a plurality of images captured at different timings by the imaging device. And an optical flow measuring means for calculating the moving direction, and an optical flow estimating means for estimating the moving amount and the moving direction of the extract based on the vehicle speed information, and the optical flow measuring means measured by the optical flow measuring means. Based on the movement amount and movement direction of the extract and the movement amount and movement direction of the extract estimated by the optical flow estimation means, the adhering matter attached to the optical system of the imaging means is detected.

車載カメラの光学系に付着した付着物を、従来技術に比べて短時間で検出することができる。また水滴のように当該光学系に対して相対的に移動する付着物、あるいは背景を透過し易い付着物を検知することが可能となる。さらに、日照センサ等の別のセンサを併用しなくても実用的な付着物検知を行なうことができる。   The adhering matter adhering to the optical system of the in-vehicle camera can be detected in a shorter time than in the prior art. Further, it is possible to detect a deposit that moves relative to the optical system, such as a water droplet, or a deposit that easily passes through the background. Furthermore, practical adhesion detection can be performed without using another sensor such as a sunshine sensor.

以下、図を用いて本発明の実施形態を説明する。図1は、本発明に関わる車載カメラ用付着物検出装置9の一例を示したものである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows an example of an on-vehicle camera deposit detection apparatus 9 according to the present invention.

本実施例において、車載カメラ用付着物検出装置9は、撮像装置1によって取得されたアナログの画像信号をデジタル画像信号に変換するA/D変換回路2と、デジタル画像信号を処理する画像処理装置3、メモリ4、演算装置5とを備えている。   In this embodiment, the on-vehicle camera deposit detection device 9 includes an A / D conversion circuit 2 that converts an analog image signal acquired by the imaging device 1 into a digital image signal, and an image processing device that processes the digital image signal. 3, a memory 4, and an arithmetic device 5.

演算装置5は、カーナビゲーションシステム6に接続されており、道路形状などの地図情報を取得することができる。また演算装置は車両ネットワークに接続されており、当該車両ネットワークを介して、車両10に搭載された他のセンサや制御装置から情報を取得することができる。例えば、車両ネットワークには車速センサが接続されており、車速情報を取得することができる。以下、このような他のセンサや制御装置から得られる情報を車両情報7と称する。また、演算装置5は警報装置8にも接続され、撮像装置1の光学系部品13に付着物80がある場合、ユーザーに対して警告をすることができる。なお、当該車載カメラ用付着物検出装置9と撮像装置1とが同一の筐体に納められた車載カメラとして構成してもよく、撮像装置1と通信線を介して接続される別体の制御装置の機能として構成してもよい。   The computing device 5 is connected to the car navigation system 6 and can acquire map information such as a road shape. The computing device is connected to a vehicle network, and information can be acquired from other sensors and control devices mounted on the vehicle 10 via the vehicle network. For example, a vehicle speed sensor is connected to the vehicle network, and vehicle speed information can be acquired. Hereinafter, information obtained from such other sensors and control devices is referred to as vehicle information 7. Further, the arithmetic device 5 is also connected to the alarm device 8, and can alert the user when there is a deposit 80 on the optical system component 13 of the imaging device 1. The on-vehicle camera adhering matter detection device 9 and the imaging device 1 may be configured as an on-vehicle camera housed in the same casing, and may be separately controlled to be connected to the imaging device 1 via a communication line. You may comprise as a function of an apparatus.

図2に示すように、本実施例では、車両10の後方部に撮像装置1を設置し、車両後方を撮像する。撮像装置1の画角は45度とする。撮像範囲11は自車両のバンパーから無限遠とする。   As shown in FIG. 2, in the present embodiment, the imaging device 1 is installed in the rear part of the vehicle 10 and images the rear of the vehicle. The angle of view of the imaging device 1 is 45 degrees. The imaging range 11 is set to infinity from the bumper of the own vehicle.

次に、本発明に関わる車載カメラ用付着物検知装置9の動作を図9のフローチャートに沿って説明する。   Next, the operation of the in-vehicle camera deposit detection apparatus 9 according to the present invention will be described with reference to the flowchart of FIG.

まず、ステップS1で初期設定を行う。初期設定では、認識に必要となる各パラメータを初期化する。   First, initial setting is performed in step S1. In the initial setting, each parameter necessary for recognition is initialized.

次に、ステップS2で車両情報7を取得する。車両情報7は車両ネットワークから車速情報、ヨーレートセンサの情報、ステアリングの舵角情報が含まれている。   Next, vehicle information 7 is acquired at Step S2. The vehicle information 7 includes vehicle speed information, yaw rate sensor information, and steering angle information from the vehicle network.

さらに、ステップS3ではカーナビゲーションシステム6からの情報を取得する。カーナビゲーションシステム6からは、自車両周辺の地図情報を取得する。この地図情報には、自車両が走行している道路の曲率や道路の幅、道路上に描かれた白線61や道路標示60の種別情報が含まれている。また、カーナビゲーションシステム6からの付着物検知処理の要求が含まれている。   In step S3, information from the car navigation system 6 is acquired. From the car navigation system 6, map information around the host vehicle is acquired. This map information includes the curvature of the road on which the vehicle is traveling, the width of the road, and the type information of the white line 61 and road marking 60 drawn on the road. Moreover, the request | requirement of the deposit | attachment detection process from the car navigation system 6 is included.

続いて、ステップS4で、ステップS2とステップS3で取得した車両情報7とカーナビゲーションシステム6からの情報を基に、付着物検知処理の実行の有無を判断する。   Subsequently, in step S4, based on the vehicle information 7 acquired in steps S2 and S3 and the information from the car navigation system 6, it is determined whether or not the attached matter detection process is executed.

ステップS2で取得した車速が所定の速度以上である場合で、かつ、ステップS3で得られる白線情報や道路標示60の種別情報が得られた場合、または、カーナビゲーションシステム6からの付着物検知処理の要求がある場合には、次のステップS5へ進み、付着物検知処理を実行する。それ以外の条件の場合は、付着物検知処理は実行せず、ステップS2へ戻る。上記の所定の速度としては、異なるタイミングで撮像した複数の画像に基づいてオプティカルフローを算出することができる下限の値とすることができる。ここで、オプティカルフローとは、画像中のある点や図形が次の瞬間にどのような方向へ、どの程度の距離を移動するかを示すベクトルのことであり、後述するように異なるタイミングで撮像された複数の画像の差分によって求めることが出来る。   When the vehicle speed acquired in step S2 is equal to or higher than a predetermined speed, and when the white line information obtained in step S3 and the type information of the road marking 60 are obtained, or the adhering matter detection processing from the car navigation system 6 If there is a request, the process proceeds to the next step S5 to execute the adhering matter detection process. In the case of other conditions, the attached matter detection process is not executed, and the process returns to step S2. The predetermined speed may be a lower limit value at which the optical flow can be calculated based on a plurality of images captured at different timings. Here, the optical flow is a vector indicating in what direction and how far a certain point or figure in the image moves at the next moment, and is captured at different timings as described later. It can be obtained from the difference between the plurality of images.

従って上記の所定の速度としては、理論的には車速が時速0kmのときのみ、付着物検知処理を実行しないこととすればよい。しかしながら、実際には車速センサの誤差を考慮する必要がある。車速センサとして頻繁に用いられる車輪速センサは低速度領域では誤差が大きくなるという特性がある。そこで、所定の速度(例えば、時速5kmあるいは時速10km等)以下では付着物検知を行わない構成とすることが望ましい。   Therefore, as the above-mentioned predetermined speed, the adhering matter detection process should not be executed theoretically only when the vehicle speed is 0 km / h. However, in practice, it is necessary to consider the error of the vehicle speed sensor. A wheel speed sensor frequently used as a vehicle speed sensor has a characteristic that an error becomes large in a low speed region. Therefore, it is desirable that the adhering matter detection is not performed below a predetermined speed (for example, 5 km / h or 10 km / h).

ステップS5では、ステップS2とステップS3で取得した車両情報7とカーナビゲーションシステム6からの情報を基に、取得された画像における処理対象領域の設定を行う。本実施例の場合、オプティカルフローの大きさは車両運動の大きさによって異なる。例えば同じ時間間隔で画像を撮像した場合、車両の速度が大きい方が、複数の画像上で同一の物体が写る位置は大きくずれることになる。従って、車両運動が小さい場合にはオプティカルフローの大きさは比較的に小さいと予測されるので、撮像領域全体についてオプティカルフローの計測処理を行うことは効率的でない。そこで、本実施例では、車速、舵角、若しくは、ヨーレートまたはこれらの組み合わせに応じてオプティカルフロー計測の処理対象領域を設定する。   In step S5, the processing target area in the acquired image is set based on the vehicle information 7 acquired in steps S2 and S3 and the information from the car navigation system 6. In the case of the present embodiment, the magnitude of the optical flow varies depending on the magnitude of the vehicle motion. For example, when images are taken at the same time interval, the position where the same object appears on a plurality of images is greatly shifted when the vehicle speed is high. Accordingly, when the vehicle motion is small, the size of the optical flow is predicted to be relatively small. Therefore, it is not efficient to perform the optical flow measurement process on the entire imaging region. Therefore, in this embodiment, the processing area for optical flow measurement is set according to the vehicle speed, the steering angle, the yaw rate, or a combination thereof.

処理領域の設定には、オプティカルフロー50の計測範囲21と、オプティカルフロー50の計測点20の位置と数、さらに、設定された各オプティカルフロー計測点20における探索範囲40が含まれている。   The setting of the processing area includes the measurement range 21 of the optical flow 50, the position and number of the measurement points 20 of the optical flow 50, and the search range 40 at each set optical flow measurement point 20.

ステップS2で取得された車速が所定の速度より小さい場合、または車速と舵角が所定の大きさより小さい場合には、図3(a)に示すように、0.5m と1mと2mの範囲にオプティカルフロー50の計測点20を設定する。   When the vehicle speed acquired in step S2 is smaller than the predetermined speed, or when the vehicle speed and the steering angle are smaller than the predetermined magnitude, as shown in FIG. 3 (a), the ranges are 0.5m, 1m, and 2m. The measurement point 20 of the optical flow 50 is set.

また、上記の条件の場合、オプティカルフロー50の各計測点20における探索領域40は図4(a)に示すように探索領域40を狭く設定する。本実施例では、計測点20に対して8近傍を探索領域40としている。   In the case of the above conditions, the search area 40 at each measurement point 20 in the optical flow 50 is set narrow as shown in FIG. In this embodiment, the vicinity of 8 with respect to the measurement point 20 is set as the search area 40.

一方、ステップS2で取得された車速が所定の速度より大きい場合または、ヨーレートが所定の大きさより大きい場合、または車速と舵角が所定の大きさより大きい場合には、図3(b)に示すように0.5m と1mと2mと3mの範囲にオプティカルフロー50の計測点20を設定する。   On the other hand, when the vehicle speed acquired in step S2 is larger than a predetermined speed, when the yaw rate is larger than a predetermined magnitude, or when the vehicle speed and the steering angle are larger than a predetermined magnitude, as shown in FIG. The measurement point 20 of the optical flow 50 is set in the range of 0.5 m, 1 m, 2 m, and 3 m.

また、上記の条件の場合、オプティカルフロー50の各計測点20における探索領域40は図4(b)に示すように探索領域40を広く設定する。本実施例では、計測点20に対して24近傍を探索領域40としている。   In the case of the above conditions, the search area 40 at each measurement point 20 of the optical flow 50 is set to be wide as shown in FIG. In this embodiment, the vicinity of 24 with respect to the measurement point 20 is set as the search area 40.

また、処理の負荷を考慮して、オプティカルフロー50の計測点20の密度を間引いて、計測点数を少なくする。さらに、設定された各オプティカルフロー50の計測点20における探索領域40を広く設定する。   Also, considering the processing load, the density of the measurement points 20 of the optical flow 50 is thinned out to reduce the number of measurement points. Further, the search area 40 at the measurement point 20 of each set optical flow 50 is set wide.

上記の様に、車速、舵角、ヨーレートの少なくともいずれかに基づいて、オプティカルフロー50の計測範囲21や計測点20の数、探索領域40を可変とする。これにより、オプティカルフロー50を精度よく計測することが可能となり、さらに、演算装置5を効率よく使用することができる。   As described above, the measurement range 21 and the number of measurement points 20 of the optical flow 50 and the search area 40 are variable based on at least one of the vehicle speed, the steering angle, and the yaw rate. As a result, the optical flow 50 can be measured with high accuracy, and the arithmetic device 5 can be used efficiently.

ステップS6では、ステップS2とステップS3で得られた車両情報7とカーナビゲーションシステム6からの情報を基に、オプティカルフロー50の推定値70を算出する。   In step S6, an estimated value 70 of the optical flow 50 is calculated based on the vehicle information 7 obtained in steps S2 and S3 and the information from the car navigation system 6.

カーナビゲーションシステム6から取得された道路上に描かれた白線61や、道路標示60の種別情報と、車両情報7から取得された車速情報や、ヨーレート情報、舵角情報から、計測されるオプティカルフロー50の大きさと角度を推定する。   Optical flow measured from the white line 61 drawn on the road acquired from the car navigation system 6 and the type information of the road marking 60, the vehicle speed information acquired from the vehicle information 7, the yaw rate information, and the steering angle information. Estimate the size and angle of 50.

カーナビゲーションシステム6から得られる白線61や道路標示60の大きさやパターンは既知であるため、上記に示した情報から、各計測点20におけるオプティカルフロー50を精度よく推定することが可能となる。   Since the size and pattern of the white line 61 and the road marking 60 obtained from the car navigation system 6 are known, the optical flow 50 at each measurement point 20 can be accurately estimated from the information shown above.

また、車両10に対する撮像装置1の取り付け角度は実質的に一定であるため、撮像素子上の各画素と、その画素に写っている領域の自車両からの距離、方位は一対一の関係を持っている。従って、車両の速度、舵角若しくはヨーレート又はこれらの組み合わせの情報が得られれば、その速度、舵角、ヨーレートが発生している状況において、あるタイミングにおける撮像画像の各画素に写っているものが、次のタイミングにおける撮像画像の何処に現れるかを推定することが出来る。従って、実際に撮像された画像情報を用いなくとも、車両の速度、舵角、ヨーレート等からマップ参照若しくは座標変換を行うことにより、オプティカルフローを推定できる。   In addition, since the mounting angle of the imaging device 1 with respect to the vehicle 10 is substantially constant, each pixel on the imaging element has a one-to-one relationship between the distance and azimuth from the own vehicle of the area shown in the pixel. ing. Therefore, if information on the vehicle speed, rudder angle or yaw rate, or a combination thereof is obtained, what is reflected in each pixel of the captured image at a certain timing in the situation where the speed, rudder angle, and yaw rate are generated. It is possible to estimate where the captured image appears at the next timing. Therefore, the optical flow can be estimated by referring to the map or performing coordinate conversion from the vehicle speed, the steering angle, the yaw rate, etc. without using the image information actually captured.

次に、ステップS7の画像取得設定では、ステップS2とステップS3で得られた車両情報7とカーナビゲーションシステム6からの情報を基に、画像の取り込み周期と、シャッター速度、画像輝度のゲインを設定する。   Next, in the image acquisition setting in step S7, the image capture period, the shutter speed, and the gain of image brightness are set based on the vehicle information 7 obtained in steps S2 and S3 and the information from the car navigation system 6. To do.

ステップS2で取得された車速が所定の速度より大きい場合、または、ヨーレートが所定の大きさより大きい場合、または車速と舵角が所定の大きさより大きい場合には、画像の取り込み周期を短く設定し、シャッター速度を速く設定する。   If the vehicle speed acquired in step S2 is greater than a predetermined speed, or if the yaw rate is greater than a predetermined magnitude, or if the vehicle speed and the steering angle are greater than a predetermined magnitude, the image capture cycle is set short, Set the shutter speed faster.

これにより、車両10の移動速度が速い場合でも、画像ブレの無い画像が取得でき、精度よくオプティカルフロー50を計測することができる。   Thereby, even when the moving speed of the vehicle 10 is fast, an image without image blur can be acquired, and the optical flow 50 can be accurately measured.

また、撮像された映像の輝度分布に基づいて撮像装置1のシャッター速度とゲインを設定する。夜間やトンネル内においては、周囲が暗いため、道路上に描かれた白線61や道路標示60が鮮明に撮像することが困難な場合がある。   Further, the shutter speed and gain of the imaging device 1 are set based on the luminance distribution of the captured image. Since the surroundings are dark at night or in a tunnel, it may be difficult to capture a clear image of the white line 61 and the road marking 60 drawn on the road.

この場合は、シャッター速度を遅くするか、ゲインを大きくし、確実に道路上に描かれた白線61や道路標示60が撮像できるようにそれぞれを設定する。   In this case, the shutter speed is decreased or the gain is increased, and each is set so that the white line 61 and the road marking 60 drawn on the road can be reliably imaged.

続いて、ステップS8の画像取り込み処理で、撮像装置1によって撮像された画像(画像ID:n)をメモリ4に蓄える。   Subsequently, the image (image ID: n) captured by the imaging device 1 is stored in the memory 4 in the image capturing process in step S8.

次に、ステップS9で、オプティカルフロー50の計測を行う。オプティカルフロー50は、所定の周期で取得された画像ID=n−1と画像ID=nとを比較することで計測することができる(nは自然数)。   Next, in step S9, the optical flow 50 is measured. The optical flow 50 can be measured by comparing the image ID = n−1 and the image ID = n acquired at a predetermined cycle (n is a natural number).

ステップS5によって設定された各画素の探索領域40に対して、画像ID=n−1におけるオプティカルフロー50の計測点20の濃度値が、画像ID=nの画像中のどの点に移動しているかを探索する。図5(a)と図5(b)に示す例では、ID=n−1の画像において中央の画素に写っている特定の特徴(抽出物)が、ID=nの画像では右上の角に移動している。よって、この二つを比較して、ID探索された画素の座標からオプティカルフロー50の大きさ(抽出物の画像上での移動量)と角度(同じく、画像上での移動方向)が算出される。   To which point in the image of image ID = n the density value of the measurement point 20 of the optical flow 50 in the image ID = n−1 is moved with respect to the search area 40 of each pixel set in step S5. Explore. In the example shown in FIG. 5A and FIG. 5B, a specific feature (extract) shown in the center pixel in the image with ID = n−1 is shown in the upper right corner in the image with ID = n. Has moved. Therefore, by comparing the two, the size of the optical flow 50 (the amount of movement of the extract on the image) and the angle (similarly, the direction of movement on the image) are calculated from the coordinates of the pixel searched for ID. The

なお、オプティカルフロー50の計測手法には、時空間勾配法や照合法などが既に公知の技術として存在するため、本実施例では詳細の説明は省略する。   In addition, since the spatiotemporal gradient method, the collation method, etc. already exist as a well-known technique in the measurement method of the optical flow 50, detailed description is abbreviate | omitted in a present Example.

次に、ステップS10のオプティカルフロー解析処理では、ステップS6で推定されたオプティカルフロー70と、ステップS9によって計測されたオプティカルフロー50の照合を行う。   Next, in the optical flow analysis process in step S10, the optical flow 70 estimated in step S6 and the optical flow 50 measured in step S9 are collated.

ステップS6によって推定された各計測点20におけるオプティカルフロー70の大きさと角度が、ステップS9で計測された各計測点20におけるオプティカルフロー50とを比較し、計測点20ごとに相関値を算出する。   The magnitude and angle of the optical flow 70 at each measurement point 20 estimated at step S6 are compared with the optical flow 50 at each measurement point 20 measured at step S9, and a correlation value is calculated for each measurement point 20.

ここで、図6に示すように車両が菱形の道路標示60を通過しているシーンを想定する。   Here, a scene is assumed in which the vehicle passes through a diamond-shaped road marking 60 as shown in FIG.

まず、ステップS6で推定されるオプティカルフロー70は図7に示すように、車両10の挙動と道路上に描かれた道路標示60や道路形状に依存した大きさと角度となる。   First, as shown in FIG. 7, the optical flow 70 estimated in step S6 has a size and an angle that depend on the behavior of the vehicle 10, the road marking 60 drawn on the road, and the road shape.

撮像装置1の光学系部品13に付着物80が無い場合は、ステップS9で計測されるオプティカルフロー50は、図8(a)に示すように推定値とほぼ同じ大きさと角度として計測される。よって、高い相関値が得られる。   When there is no deposit 80 on the optical system component 13 of the imaging apparatus 1, the optical flow 50 measured in step S9 is measured as a size and an angle that are substantially the same as the estimated value as shown in FIG. Therefore, a high correlation value is obtained.

一方、撮像装置1の光学系部品13に付着物がある場合は、ステップS9で計測されるオプティカルフロー50は、図8(b)に示すように、推定値とは異なる計測点が存在する。   On the other hand, when there is a deposit on the optical system component 13 of the imaging apparatus 1, the optical flow 50 measured in step S9 has a measurement point different from the estimated value as shown in FIG.

付着物80が無い場合は、道路面のテクスチャ(道路上に描かれた白線61や道路標示60など)によってオプティカルフロー50が計測されるが、水滴や汚れなどの付着物80によって道路面のテクスチャが正確に計測できない。   When there is no deposit 80, the optical flow 50 is measured by the road surface texture (white line 61 drawn on the road, road marking 60, etc.), but the road surface texture is measured by the deposit 80 such as water drops or dirt. Cannot be measured accurately.

このため、ステップS2で得られる情報から推定された車両の挙動や、ステップS3で得られる道路上に描かれた白線61や道路標示60から推定されたオプティカルフロー70とは、異なった大きさや角度のオプティカルフロー50が計測される。よって、ステップS10で算出される相関値は低い値となる。   Therefore, the vehicle behavior estimated from the information obtained in step S2 and the optical flow 70 estimated from the white line 61 and road marking 60 drawn on the road obtained in step S3 are different in size and angle. The optical flow 50 is measured. Therefore, the correlation value calculated in step S10 is a low value.

次に、ステップS11では、ステップS10で算出された相関値を基に付着物80の有無を判定する。つまり、相関値が所定の値以上の場合は、付着物無し(ステップS12)と判定し、相関値が所定の値より低い場合には、付着物あり(ステップS13)と判定する。   Next, in step S11, the presence or absence of the deposit 80 is determined based on the correlation value calculated in step S10. That is, when the correlation value is greater than or equal to a predetermined value, it is determined that there is no deposit (step S12), and when the correlation value is lower than the predetermined value, it is determined that there is an deposit (step S13).

ステップS11によって付着物ありと判定された場合、ステップS14で警報信号を出力することになる。   If it is determined in step S11 that there is a deposit, an alarm signal is output in step S14.

ステップS11における警報信号は、警告灯などの警報装置7に出力することで、ユーザーへ通知される。また、カーナビゲーションシステム6の表示画面へ出力したり、警告音や音声で警告したりしてもよい。   The alarm signal in step S11 is notified to the user by outputting it to an alarm device 7 such as a warning lamp. Further, it may be output to the display screen of the car navigation system 6 or warned with a warning sound or voice.

上記の様に自動で撮像装置1の光学系部品13に付着した水滴や汚れなどの付着物80を検知することで、撮像装置1を使ったアプリケーション(例えば、白線認識や道路上のマーカ認識や車両検知や障害物検知機能)の性能低下を事前に警告することができる。   As described above, an application 80 (for example, white line recognition, marker recognition on the road, etc.) using the imaging device 1 by automatically detecting the adhering matter 80 such as water droplets and dirt attached to the optical system component 13 of the imaging device 1. It is possible to warn in advance of deterioration in performance of vehicle detection and obstacle detection functions.

自動で撮像装置1の光学部品に付着した水滴や汚れなどの付着物80を検知することで、ユーザーが定期的に行っていた点検が不要となり、効率的な保守が可能となる。   By automatically detecting the adhering matter 80 such as water droplets and dirt adhering to the optical components of the image pickup apparatus 1, the inspection that the user has regularly performed becomes unnecessary and efficient maintenance becomes possible.

本実施例では、撮像装置1の設置位置を車両後方部としたが、車両の側面部や前方部に設置しても良い。また、撮像装置1におけるレンズの画角を45度としたが、目的のアプリケーションに合わせて任意の画角のレンズにおいても、本発明を適用することは可能である。   In this embodiment, the installation position of the imaging device 1 is the rear part of the vehicle, but it may be installed on the side part or the front part of the vehicle. In addition, although the angle of view of the lens in the imaging apparatus 1 is 45 degrees, the present invention can be applied to a lens having an arbitrary angle of view in accordance with a target application.

また、本実施例では、車速情報を車両ネットワークから取得しているが、カーナビゲーションシステム6におけるGPS情報を用いてもよい。さらに、ヨーレート情報においても、カーナビゲーションシステム6に具備されたヨーレートセンサの情報を用いてもよい。   In this embodiment, the vehicle speed information is acquired from the vehicle network, but GPS information in the car navigation system 6 may be used. Further, in the yaw rate information, information from a yaw rate sensor provided in the car navigation system 6 may be used.

また、本実施例では、付着物検知処理の実行の有無を車速情報やカーナビゲーションシステム6からの情報を用いているが、車両のトランスミッションの情報を用いてもよい。例えば、トランスミッションが、パーキングの位置にある場合、付着物検知処理は実行しないとしてもよい。   In this embodiment, the vehicle speed information and the information from the car navigation system 6 are used to determine whether or not the attached matter detection process is executed, but information on the transmission of the vehicle may be used. For example, when the transmission is in the parking position, the attached matter detection process may not be executed.

また、本実施例では、付着物検知処理の実行の有無を車速情報やカーナビゲーションシステム6からの情報を用いているが、車両のワイパー動作の情報を用いてもよい。例えば、ワイパーが動作している場合、降雨状態である可能性が高いため、撮像装置1の光学部品に水滴が付着している可能性が高い。よって、ワイパーが動作している場合に、付着物検知処理を実行するとしてもよい。   In this embodiment, the vehicle speed information and the information from the car navigation system 6 are used to determine whether or not the attached matter detection process is executed, but information on the wiper operation of the vehicle may be used. For example, when the wiper is operating, there is a high possibility that the wiper is in a rainy state, and thus there is a high possibility that water droplets are attached to the optical components of the imaging device 1. Therefore, the attached matter detection process may be executed when the wiper is operating.

また、本実施例の車載カメラ用付着物検知装置9の演算装置5は、カーナビゲーションシステム6とは別となっているが、カーナビゲーションシステム6の演算装置5を共通で使用してもよい。この場合、付着物検知処理の実行の有無を、演算装置5の負荷率を基に決定してもよい。例えば、カーナビゲーションシステム6において、地図検索や地図描画時においては、カーナビゲーションシステム6の演算負荷が大きくなる。この場合、付着物検知処理は実行せず、カーナビゲーションシステム6の処理を優先することができる。   Moreover, although the arithmetic device 5 of the on-vehicle camera deposit detection device 9 of this embodiment is different from the car navigation system 6, the arithmetic device 5 of the car navigation system 6 may be used in common. In this case, the presence or absence of the attached matter detection process may be determined based on the load factor of the arithmetic device 5. For example, in the car navigation system 6, the calculation load of the car navigation system 6 increases during map search and map drawing. In this case, the attached matter detection process is not executed, and the process of the car navigation system 6 can be prioritized.

また、本実施例では、オプティカルフロー50の計測点20を0.5m、1m、2m、3mに設定しているが、撮像範囲11の任意の位置に対して設定することができる。   In this embodiment, the measurement point 20 of the optical flow 50 is set to 0.5 m, 1 m, 2 m, and 3 m, but can be set to any position in the imaging range 11.

また、本実施例では、車速に応じて、オプティカルフロー50の各計測点20における探索領域40を8近傍と24近傍としたが、撮像装置1における撮像素子の画素数やレンズの焦点距離、画像処理に使用する画像サイズに応じて任意に変更することができる。   In the present embodiment, the search area 40 at each measurement point 20 of the optical flow 50 is set to 8 and 24 in accordance with the vehicle speed. However, the number of pixels of the image sensor, the focal length of the lens, and the image in the image capturing apparatus 1 It can be arbitrarily changed according to the image size used for processing.

以上、本発明の基本的な実施形態について説明したが、上記の実施形態に加えて、以下に列挙するような構成を採用することができる。またこれらの構成により、以下に説明する効果が得られる。
〔1〕車両の室外に設置された撮像装置1の光学系部品13に付着した水滴および汚れなどの付着物80を検出する装置において、前記撮像装置1によって異なるタイミングで撮像された複数の画像から所定の画素の移動量と移動方向を算出するオプティカルフロー計測手段と、車速情報からオプティカルフロー50を推定するオプティカルフロー推定手段とを具備する。
The basic embodiments of the present invention have been described above. However, in addition to the above-described embodiments, configurations as listed below can be adopted. Moreover, the effect demonstrated below is acquired by these structures.
[1] In an apparatus for detecting adhering matter 80 such as water droplets and dirt adhering to the optical system component 13 of the imaging apparatus 1 installed outside the vehicle, a plurality of images captured at different timings by the imaging apparatus 1 are used. Optical flow measuring means for calculating a moving amount and moving direction of a predetermined pixel, and optical flow estimating means for estimating the optical flow 50 from the vehicle speed information.

前記オプティカルフロー計測手段によって計測された所定の画素の移動量と移動方向と、前記オプティカルフロー推定手段によって推定された所定の画素の移動量と移動方向を比較する。この比較結果を基に撮像装置1の光学系部品13に付着した水滴および汚れなどの付着物80を検出する。   The movement amount and movement direction of the predetermined pixel measured by the optical flow measurement means are compared with the movement amount and movement direction of the predetermined pixel estimated by the optical flow estimation means. Based on this comparison result, the adhering matter 80 such as water droplets and dirt adhering to the optical system component 13 of the imaging apparatus 1 is detected.

これにより、水滴の様に、背景を透過しやすい付着物においても、従来技術に比べて処理時間をかけずに検知することができる。また、水滴のように、動きのある付着物80でも従来技術に比べて精度良く検知することが可能である。日照センサを使用せずに精度良く付着物80を検知することが可能となる。
〔2〕前記オプティカルフロー推定手段には、車速情報7以外に、ヨーレートセンサ情報や、舵角センサ情報や、GPS情報や、カーナビゲーションシステム6の地図情報を複合的に使用してもよい。
As a result, it is possible to detect an adhering substance that easily passes through the background, such as a water drop, without taking a processing time as compared with the prior art. In addition, it is possible to detect even a moving deposit 80, such as a water drop, with higher accuracy than in the prior art. It is possible to accurately detect the deposit 80 without using a sunshine sensor.
[2] In addition to the vehicle speed information 7, yaw rate sensor information, rudder angle sensor information, GPS information, and map information of the car navigation system 6 may be used in combination for the optical flow estimation means.

車速情報以外の前記情報を利用することで、車両10の挙動が推定できるため、前記オプティカルフロー50の推定精度が向上し、撮像装置1の光学系部品13に付着した水滴や汚れなどの付着物80をより確実に検出することができる。また車両10の動きからオプティカルフロー70が推定できるため、撮像装置1の光学系部品13に付着した水滴や汚れなどの付着物8か、道路面上のペイント60やビルなどの構造物かを精度良く区別することができる。
〔3〕前記車載カメラ用付着物検出装置9において、撮像装置1の光軸方向と画角に応じて、前記オプティカルフロー計測手段におけるオプティカルフロー50の探索領域40を狭くする、または、オプティカルフロー計測点20の座標を変化させてもよい。このことにより、撮像範囲におけるオプティカルフロー50の計測をムラ無く実施することが可能となる。
〔4〕本実施例において、カーナビゲーションシステム6と通信を行い、前記カーナビゲーションシステム6からの通信情報に基づいて付着物80の検出を実行し、かつ処理シーケンスを変化させることとしてもよい。具体的には、前記カーナビゲーションシステム6との通信情報によって車載カメラの撮像範囲11内に道路標示ペイント60(例えば、横断歩道や減速帯等)が存在するといった情報を受信した場合、前記オプティカルフロー計測手段を実行させる。
By using the information other than the vehicle speed information, the behavior of the vehicle 10 can be estimated, so that the estimation accuracy of the optical flow 50 is improved, and adhered matter such as water droplets and dirt adhered to the optical system component 13 of the imaging device 1. 80 can be detected more reliably. Further, since the optical flow 70 can be estimated from the movement of the vehicle 10, it is possible to accurately determine whether the deposit 8 such as water droplets or dirt attached to the optical system component 13 of the imaging apparatus 1 or the structure such as the paint 60 or the building on the road surface. Can be distinguished well.
[3] In the in-vehicle camera adhering matter detection device 9, the search area 40 of the optical flow 50 in the optical flow measuring means is narrowed or optical flow measurement is performed according to the optical axis direction and the angle of view of the imaging device 1. The coordinates of the point 20 may be changed. This makes it possible to measure the optical flow 50 in the imaging range without unevenness.
[4] In the present embodiment, communication with the car navigation system 6 may be performed, the deposit 80 may be detected based on communication information from the car navigation system 6, and the processing sequence may be changed. Specifically, when information indicating that a road marking paint 60 (for example, a pedestrian crossing or a deceleration zone) is present in the imaging range 11 of the in-vehicle camera is received by communication information with the car navigation system 6, the optical flow is received. The measuring means is executed.

これにより、道路標示ペイント60が無い場合、オプティカルフロー50の計測処理を行わないため、演算装置5を効率的に動作させることができる。   Thereby, when there is no road marking paint 60, since the measurement process of the optical flow 50 is not performed, the arithmetic unit 5 can be operated efficiently.

さらに、道路標示ペイント60の形状や色は既知であるため、より正確なオプティカルフロー50の計測が行える。よって、撮像装置1の光学系部品13に付着した水滴または汚れなどの付着物80を精度良く検出することができる。
〔5〕前記オプティカルフロー計測手段において、車速センサやGPS情報から算出される車速が大きい場合、車両10のヨーレートが大きい場合、舵角が大きい場合等の条件時にはオプティカルフロー50の探索領域40と計測範囲21を狭くすることができる。当該構成により、車両運動の状態に応じてオプティカルフロー50の計測に必要となる演算量を調節することができ、演算装置5をより効率的に動作させることができる。また、上記の条件においてはオプティカルフロー計測点20の数を減少させることが望ましい。
なお、車両運動の状態にかかわらず、演算装置5の負荷が高い場合にもオプティカルフロー50の探索領域40と計測範囲21を狭くする構成としてもよい。これにより、演算装置5の処理負荷を低減し、システム全体としての演算効率を上げることができる。
〔6〕車速情報に応じて付着物検出処理の実行頻度を変化させてもよい。これにより、演算負荷のさらなる効率化が可能となる。また、前記付着物検出処理の実行頻度を変化させる手段において、演算装置5の負荷率すなわち付着物検出処理以外の処理により、演算装置5の負荷率が高くなることが予測される場合には、付着物検出処理の実行頻度を低下させることができる。さらに、
〔7〕本実施例において、雨滴の付着する可能性が低いと考えられる場合には付着物検出処理の実行頻度を低くする構成としてもよい。具体的には、演算装置5が車両情報7としてワイパー情報を受信し、ワイパーが動作していないときには付着物検出処理の実行頻度を低くする。これにより円滑なシステムの動作が可能となる。
〔8〕本実施例において、撮像された映像の輝度分布に基づいて撮像素子の露光時間を制御したり、撮像素子に蓄積される電荷に対するゲインを制御したりしてもよい。これにより、夜間でも撮像装置1の光学系部品13に付着した付着物80を精度良く検出することができる。
Furthermore, since the shape and color of the road marking paint 60 are known, the optical flow 50 can be measured more accurately. Therefore, it is possible to accurately detect the deposit 80 such as water droplets or dirt adhering to the optical system component 13 of the imaging device 1.
[5] In the optical flow measurement means, when the vehicle speed calculated from the vehicle speed sensor or GPS information is high, the yaw rate of the vehicle 10 is large, the steering angle is large, and the like, the optical flow 50 search area 40 and the measurement are measured. The range 21 can be narrowed. With this configuration, it is possible to adjust the amount of calculation required for the measurement of the optical flow 50 according to the state of the vehicle motion, and to operate the calculation device 5 more efficiently. Also, it is desirable to reduce the number of optical flow measurement points 20 under the above conditions.
Note that the search area 40 and the measurement range 21 of the optical flow 50 may be narrowed even when the load on the arithmetic device 5 is high regardless of the state of the vehicle motion. Thereby, the processing load of the arithmetic unit 5 can be reduced and the arithmetic efficiency of the entire system can be increased.
[6] The frequency of executing the attached matter detection process may be changed according to the vehicle speed information. As a result, the calculation load can be further improved in efficiency. Further, in the means for changing the execution frequency of the attached matter detection processing, when it is predicted that the load factor of the computing device 5 is increased by a load factor of the computing device 5, that is, processing other than the attached matter detection processing, The execution frequency of the deposit detection process can be reduced. further,
[7] In this embodiment, when it is considered that the possibility of raindrops being attached is low, the frequency of executing the attached matter detection process may be reduced. Specifically, the arithmetic device 5 receives the wiper information as the vehicle information 7, and when the wiper is not operating, the frequency of executing the attached matter detection process is lowered. This enables smooth system operation.
[8] In this embodiment, the exposure time of the image sensor may be controlled based on the luminance distribution of the captured image, or the gain for the charge accumulated in the image sensor may be controlled. Thereby, the deposit | attachment 80 adhering to the optical system component 13 of the imaging device 1 can be detected accurately also at night.

本発明に関わる車載カメラ用付着物検出装置9の一例を示す図である。It is a figure which shows an example of the adhesion detection apparatus 9 for vehicle-mounted cameras concerning this invention. 車載カメラ用付着物検出装置9の設置位置と撮像範囲11の一例を示す図である。It is a figure which shows an example of the installation position and imaging range 11 of the adhesion detection apparatus 9 for vehicle-mounted cameras. 車載カメラ用付着物検出装置9におけるオプティカルフロー50の計測点20と計測範囲21の一例を示す図である。It is a figure which shows an example of the measurement point 20 and the measurement range 21 of the optical flow 50 in the vehicle-mounted camera deposit | attachment detection apparatus 9. FIG. オプティカルフロー50の計測点20における探索範囲40を示す図である。FIG. 5 is a diagram showing a search range 40 at a measurement point 20 of an optical flow 50. オプティカルフロー50の計測方法を示す図である。It is a figure which shows the measuring method of the optical flow 50. FIG. 車両が菱形の道路標示60を通過しているシーンを示す図である。It is a figure which shows the scene where the vehicle is passing the rhombus road marking 60. FIG. 推定されたオプティカルフロー70を示す図である。It is a figure which shows the estimated optical flow 70. FIG. 付着物がある場合と無い場合において計測されるオプティカルフロー50を示す図である。It is a figure which shows the optical flow 50 measured in the case where there exists an adhesion thing, and when there is no attachment. 車載カメラ用付着物検出装置9における動作例を示すフローチャート。The flowchart which shows the operation example in the adhesion detection apparatus 9 for vehicle-mounted cameras.

符号の説明Explanation of symbols

1…撮像装置、2…A/D変換回路、3…画像処理装置、4…メモリ、5…演算装置、6…カーナビゲーションシステム、7…車両情報、8…警報装置、9…車載カメラ用付着物検知装置、10…車両、11…撮像範囲、13…光学系光学部品、20…オプティカルフロー計測点、21…オプティカルフロー計測範囲、40…オプティカルフロー計測点におけるオプティカルフロー探索範囲、50…計測されたオプティカルフロー、60…道路標示、61…白線、70…推定されたオプティカルフロー、80…付着物。   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... A / D conversion circuit, 3 ... Image processing device, 4 ... Memory, 5 ... Arithmetic device, 6 ... Car navigation system, 7 ... Vehicle information, 8 ... Alarm device, 9 ... For vehicle-mounted camera Kimono detection device, 10 ... vehicle, 11 ... imaging range, 13 ... optical system optical component, 20 ... optical flow measurement point, 21 ... optical flow measurement range, 40 ... optical flow search range at optical flow measurement point, 50 ... measured 60 ... road marking, 61 ... white line, 70 ... estimated optical flow, 80 ... deposit.

Claims (19)

光学系と撮像素子と当該撮像素子により撮像された画像を処理する演算装置とを備え、車両外部を撮像する車載カメラにおいて、
前記撮像装置によって異なるタイミングで撮像された複数の画像から所定の抽出物の移動量と移動方向とを算出するオプティカルフロー計測手段と、
車速情報に基づいて、前記抽出物の移動量と移動方向とを推定するオプティカルフロー推定手段とを備え、
前記オプティカルフロー計測手段によって計測された前記抽出物の移動量及び移動方向と、前記オプティカルフロー推定手段によって推定された前記抽出物の移動量及び移動方向とに基づいて、前記撮像手段の光学系に付着した付着物を検出する車載カメラ。
In an in-vehicle camera that includes an optical system, an image sensor, and an arithmetic device that processes an image captured by the image sensor,
An optical flow measuring means for calculating a moving amount and a moving direction of a predetermined extract from a plurality of images taken at different timings by the imaging device;
Optical flow estimation means for estimating the amount and direction of movement of the extract based on vehicle speed information,
Based on the movement amount and movement direction of the extract measured by the optical flow measurement means and the movement amount and movement direction of the extract estimated by the optical flow estimation means, the optical system of the imaging means An in-vehicle camera that detects attached material.
請求項1において
前記オプティカルフロー推定手段は、前記車速情報に加え、ヨーレートセンサ情報を用いて前記抽出物の移動量と移動方向とを推定することを特徴とする車載カメラ。
The in-vehicle camera according to claim 1, wherein the optical flow estimation unit estimates a moving amount and a moving direction of the extract using yaw rate sensor information in addition to the vehicle speed information.
請求項1において、
前記オプティカルフロー推定手段は、前記車速情報に加え、舵角センサ情報を用いて前記抽出物の移動量と移動方向とを推定することを特徴とする車載カメラ。
In claim 1,
The in-vehicle camera characterized in that the optical flow estimation means estimates a moving amount and a moving direction of the extract using steering angle sensor information in addition to the vehicle speed information.
請求項1乃至3記載のいずれか一項において、
通信経路を介してGPSによる自車位置及び地図情報を取得し、当該車載カメラの撮像範囲内に所定の目標物があると予測される場合に前記付着物の検出を行なうことを特徴とする車載カメラ。
In any one of Claims 1 thru | or 3,
The vehicle is obtained by acquiring the vehicle position and map information by GPS via a communication path, and detecting the attached object when it is predicted that there is a predetermined target within the imaging range of the vehicle-mounted camera. camera.
請求項4において、
前記所定の目標物として道路上のペイントを用いることを特徴とする車載カメラ。
In claim 4,
A vehicle-mounted camera using paint on a road as the predetermined target.
請求項1乃至5のいずれか一項において、
カーナビゲーションシステムと通信を行い、前記カーナビゲーションシステムからの通信情報に基づいて付着物の検出を実行し、かつ処理シーケンスを変化させることを特徴とする車載カメラ。
In any one of Claims 1 thru | or 5,
An in-vehicle camera that communicates with a car navigation system, detects an adhering substance based on communication information from the car navigation system, and changes a processing sequence.
請求項6において、
前記カーナビゲーションシステムから当該車載カメラの撮像範囲内に道路標示ペイントありの情報を受信した場合、前記付着物の検出を行なうことを特徴とする車載カメラ。
In claim 6,
A vehicle-mounted camera that detects the adhering matter when information indicating that there is a road marking paint within the imaging range of the vehicle-mounted camera is received from the car navigation system.
請求項1乃至7のいずれか一項において、
前記演算装置の負荷が高い場合には、前記オプティカルフロー計測手段におけるオプティカルフローの探索領域を狭くすることを特徴とする車載カメラ。
In any one of Claims 1 thru | or 7,
An on-vehicle camera characterized by narrowing an optical flow search area in the optical flow measurement means when the load on the arithmetic unit is high.
請求項1乃至7のいずれか一項において、
前記演算装置の負荷が高い場合には、前記オプティカルフロー計測手段におけるオプティカルフロー計測点数を減少させることを特徴とする車載カメラ。
In any one of Claims 1 thru | or 7,
An in-vehicle camera, wherein the number of optical flow measurement points in the optical flow measurement means is reduced when the load on the arithmetic unit is high.
請求項1乃至7のいずれか一項において、
車速情報とヨーレートセンサ情報に基づいて、前記オプティカルフロー計測手段のけるオプティカルフローの探索領域、またはオプティカルフロー計測点数を変化させることを特徴とする車載カメラ。
In any one of Claims 1 thru | or 7,
An in-vehicle camera, wherein an optical flow search area or an optical flow measurement point in the optical flow measuring means is changed based on vehicle speed information and yaw rate sensor information.
請求項1乃至7のいずれか一項において、
車速情報と舵角センサ情報に基づいて、前記オプティカルフロー計測手段におけるオプティカルフローの探索領域、またはオプティカルフロー計測点数を変化させることを特徴とする車載カメラ。
In any one of Claims 1 thru | or 7,
An in-vehicle camera characterized in that an optical flow search area or an optical flow measurement point in the optical flow measuring means is changed based on vehicle speed information and rudder angle sensor information.
請求項1乃至7のいずれか一項において、
GPS情報に基づいて、前記オプティカルフロー計測手段におけるオプティカルフローの探索領域、またはオプティカルフロー計測点数を変化させることを特徴とする車載カメラ。
In any one of Claims 1 thru | or 7,
An in-vehicle camera characterized in that, based on GPS information, an optical flow search area or the number of optical flow measurement points in the optical flow measurement means is changed.
請求項1乃至12のいずれか一項において、
前記付着物の検出処理を実行する頻度を、車速情報に基づいて変化させることを特徴とする車載カメラ。
In any one of Claims 1 thru | or 12,
A vehicle-mounted camera, wherein the frequency of executing the attached matter detection process is changed based on vehicle speed information.
請求項1乃至12のいずれか一項において、
前記付着物の検出処理を実行するか否かを、前記車両に具備されたトランスミッションの情報に基づいて決定することを特徴とする車載カメラ。
In any one of Claims 1 thru | or 12,
An in-vehicle camera that determines whether or not to execute the process of detecting the attached matter based on information on a transmission provided in the vehicle.
請求項1乃至14のいずれか一項において、
前記付着物の検出処理を実行するか否かを、前記演算装置の負荷率に基づいて決定することを特徴とする車載カメラ。
In any one of Claims 1 thru | or 14,
An in-vehicle camera that determines whether or not to execute the process of detecting the attached matter based on a load factor of the arithmetic device.
請求項1乃至15のいずれか一項において、
前記付着物の検出処理を実行するか否かを、ワイパー情報に基づいて決定することを特徴とする車載カメラ。
In any one of Claims 1 thru | or 15,
An in-vehicle camera that determines whether or not to execute the process of detecting the attached matter based on wiper information.
請求項1乃至16のいずれか一項において、
前記光学系に付着物があると認識された場合、警報情報を出力することを特徴とする車載カメラ。
In any one of Claims 1 to 16,
An in-vehicle camera that outputs alarm information when it is recognized that there is a deposit in the optical system.
請求項1乃至17のいずれか一項において、
撮像された映像の輝度分布に基づいて前記撮像素子の露光時間を制御することを特徴とする車載カメラ。
In any one of Claims 1 thru | or 17,
An in-vehicle camera that controls an exposure time of the image sensor based on a luminance distribution of a captured image.
請求項18に記載の車載カメラにおいて、撮像された映像の輝度分布に基づいて前記撮像素子に蓄積される電荷に対するゲインを制御することを特徴とする車載カメラ。
The in-vehicle camera according to claim 18, wherein a gain for the electric charge accumulated in the image sensor is controlled based on a luminance distribution of a captured image.
JP2006234848A 2006-08-31 2006-08-31 On-vehicle camera and stain detector for on-vehicle camera Pending JP2008060874A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006234848A JP2008060874A (en) 2006-08-31 2006-08-31 On-vehicle camera and stain detector for on-vehicle camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006234848A JP2008060874A (en) 2006-08-31 2006-08-31 On-vehicle camera and stain detector for on-vehicle camera

Publications (1)

Publication Number Publication Date
JP2008060874A true JP2008060874A (en) 2008-03-13

Family

ID=39243128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006234848A Pending JP2008060874A (en) 2006-08-31 2006-08-31 On-vehicle camera and stain detector for on-vehicle camera

Country Status (1)

Country Link
JP (1) JP2008060874A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2036424A3 (en) * 2007-09-14 2009-12-02 CNH Belgium N.V. A method and apparatus for detecting errors in grain analysis apparatus using electronically processed images
JP2011188094A (en) * 2010-03-05 2011-09-22 Toyota Central R&D Labs Inc Object recognition device and program
JP2013040932A (en) * 2011-08-09 2013-02-28 Boeing Co:The Image-based position measurement
CN104509091A (en) * 2012-07-27 2015-04-08 日产自动车株式会社 Water droplet detection device, and three-dimensional object detection device using said water droplet detection device
WO2015083640A1 (en) * 2013-12-04 2015-06-11 株式会社日立国際電気 Monitoring device
JP2016162204A (en) * 2015-03-02 2016-09-05 株式会社デンソー Dirt determination device
JP2018523223A (en) * 2015-07-02 2018-08-16 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH Detection of lens contamination using expected edge trajectories
CN109151380A (en) * 2017-06-27 2019-01-04 通用汽车环球科技运作有限责任公司 Using information of vehicles and sensor in the method for photographing and video observes and records
EP3438736A1 (en) * 2017-07-31 2019-02-06 Samsung Electronics Co., Ltd. Image obtaining method and apparatus
JP2019026134A (en) * 2017-08-01 2019-02-21 三菱電機株式会社 Camera monitoring system
JP2019133333A (en) * 2018-01-30 2019-08-08 株式会社デンソーテン Adhesion detection apparatus and adhesion detection method
US10678230B2 (en) 2018-02-14 2020-06-09 Denso International America, Inc. Sensor diagnostic system
US10814873B2 (en) 2018-04-16 2020-10-27 Toyota Jidosha Kabushiki Kaisha Driving support apparatus
KR20210048888A (en) * 2019-10-24 2021-05-04 현대모비스 주식회사 Automotive sensor integration module
US11001270B2 (en) 2018-04-06 2021-05-11 Toyota Jidosha Kabushiki Kaisha Driving support device including a cleaning device for cleanining a window portion
US11110899B2 (en) 2018-08-24 2021-09-07 Toyota Jidosha Kabushiki Kaisha Vehicle and cleaning method of detection sensor mounted on vehicle
CN113834636A (en) * 2020-06-24 2021-12-24 百度(美国)有限责任公司 Dirty monocular camera detection method for autonomous vehicle
US11220272B2 (en) 2017-11-13 2022-01-11 Mitsubishi Electric Corporation Failure detection apparatus, failure detection method, and computer readable medium
CN114441138A (en) * 2022-01-28 2022-05-06 中国第一汽车股份有限公司 Streaming media rearview mirror testing device and method
US11624805B2 (en) 2017-03-07 2023-04-11 Mitsubishi Electric Corporation Failure detection device, failure detection method, and failure detection program

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2036424A3 (en) * 2007-09-14 2009-12-02 CNH Belgium N.V. A method and apparatus for detecting errors in grain analysis apparatus using electronically processed images
JP2011188094A (en) * 2010-03-05 2011-09-22 Toyota Central R&D Labs Inc Object recognition device and program
JP2013040932A (en) * 2011-08-09 2013-02-28 Boeing Co:The Image-based position measurement
JP2018116065A (en) * 2011-08-09 2018-07-26 ザ・ボーイング・カンパニーThe Boeing Company Determination of position of image base
CN104509091B (en) * 2012-07-27 2019-03-26 日产自动车株式会社 Water droplet detection device and the three-dimension object detection device for using water droplet detection device
CN104509091A (en) * 2012-07-27 2015-04-08 日产自动车株式会社 Water droplet detection device, and three-dimensional object detection device using said water droplet detection device
WO2015083640A1 (en) * 2013-12-04 2015-06-11 株式会社日立国際電気 Monitoring device
JPWO2015083640A1 (en) * 2013-12-04 2017-03-16 株式会社日立国際電気 Monitoring device
JP2016162204A (en) * 2015-03-02 2016-09-05 株式会社デンソー Dirt determination device
JP2018523223A (en) * 2015-07-02 2018-08-16 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH Detection of lens contamination using expected edge trajectories
US11624805B2 (en) 2017-03-07 2023-04-11 Mitsubishi Electric Corporation Failure detection device, failure detection method, and failure detection program
CN109151380A (en) * 2017-06-27 2019-01-04 通用汽车环球科技运作有限责任公司 Using information of vehicles and sensor in the method for photographing and video observes and records
US10708510B2 (en) 2017-07-31 2020-07-07 Samsung Electronics Co., Ltd. Image obtaining method and apparatus
CN109327660B (en) * 2017-07-31 2021-12-28 三星电子株式会社 Image acquisition method and device
EP3438736A1 (en) * 2017-07-31 2019-02-06 Samsung Electronics Co., Ltd. Image obtaining method and apparatus
US11792528B2 (en) 2017-07-31 2023-10-17 Samsung Electronics Co., Ltd. Image obtaining method and apparatus
CN109327660A (en) * 2017-07-31 2019-02-12 三星电子株式会社 Image acquiring method and equipment
US11272114B2 (en) 2017-07-31 2022-03-08 Samsung Electronics Co., Ltd. Image obtaining method and apparatus
JP2019026134A (en) * 2017-08-01 2019-02-21 三菱電機株式会社 Camera monitoring system
US11220272B2 (en) 2017-11-13 2022-01-11 Mitsubishi Electric Corporation Failure detection apparatus, failure detection method, and computer readable medium
JP7210882B2 (en) 2018-01-30 2023-01-24 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP2019133333A (en) * 2018-01-30 2019-08-08 株式会社デンソーテン Adhesion detection apparatus and adhesion detection method
US10678230B2 (en) 2018-02-14 2020-06-09 Denso International America, Inc. Sensor diagnostic system
US11001270B2 (en) 2018-04-06 2021-05-11 Toyota Jidosha Kabushiki Kaisha Driving support device including a cleaning device for cleanining a window portion
US10814873B2 (en) 2018-04-16 2020-10-27 Toyota Jidosha Kabushiki Kaisha Driving support apparatus
US11110899B2 (en) 2018-08-24 2021-09-07 Toyota Jidosha Kabushiki Kaisha Vehicle and cleaning method of detection sensor mounted on vehicle
KR102588554B1 (en) * 2019-10-24 2023-10-12 현대모비스 주식회사 Automotive sensor integration module
KR20210048888A (en) * 2019-10-24 2021-05-04 현대모비스 주식회사 Automotive sensor integration module
US11774578B2 (en) 2019-10-24 2023-10-03 Hyundai Mobis Co., Ltd. Automotive sensor integration module
CN113834636A (en) * 2020-06-24 2021-12-24 百度(美国)有限责任公司 Dirty monocular camera detection method for autonomous vehicle
CN113834636B (en) * 2020-06-24 2023-12-22 百度(美国)有限责任公司 Dirty monocular camera detection method for an autonomous vehicle
CN114441138A (en) * 2022-01-28 2022-05-06 中国第一汽车股份有限公司 Streaming media rearview mirror testing device and method

Similar Documents

Publication Publication Date Title
JP2008060874A (en) On-vehicle camera and stain detector for on-vehicle camera
US11305691B2 (en) Vehicular vision system
US11836989B2 (en) Vehicular vision system that determines distance to an object
JP5022609B2 (en) Imaging environment recognition device
JP4856612B2 (en) Object detection device
EP2933790B1 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
JP5981322B2 (en) In-vehicle image processing device
JP6163207B2 (en) In-vehicle device
US10650255B2 (en) Vehicular vision system with object detection
JP5887219B2 (en) Lane departure warning device
JP5399027B2 (en) A device having a system capable of capturing a stereoscopic image to assist driving of an automobile
JP6246014B2 (en) Exterior recognition system, vehicle, and camera dirt detection method
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
CN106289159B (en) Vehicle distance measurement method and device based on distance measurement compensation
WO2013081984A1 (en) Vision system for vehicle
JP2007172035A (en) Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method
US20190202407A1 (en) Control apparatus and vehicle
JP2021163432A (en) Signal light state identification apparatus, signal light state identification method, signal light state-identifying program, and control apparatus
JP2020166409A (en) In-vehicle device, in-vehicle system and surroundings monitoring method
WO2015001747A1 (en) Travel road surface indication detection device and travel road surface indication detection method
JP2019197270A (en) Object detection device and object detection method
JP2005127781A (en) Device for detecting deterioration of vehicle range finder
JP6362945B2 (en) In-vehicle image processing device
JP2019091327A (en) Three-dimensional object detection device
JP2005162091A (en) Image processing device