JP2007293672A - Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle - Google Patents

Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle Download PDF

Info

Publication number
JP2007293672A
JP2007293672A JP2006121999A JP2006121999A JP2007293672A JP 2007293672 A JP2007293672 A JP 2007293672A JP 2006121999 A JP2006121999 A JP 2006121999A JP 2006121999 A JP2006121999 A JP 2006121999A JP 2007293672 A JP2007293672 A JP 2007293672A
Authority
JP
Japan
Prior art keywords
dirt
vehicle
diagnosis
photographing
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006121999A
Other languages
Japanese (ja)
Inventor
Sukeyuki Usami
祐之 宇佐美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006121999A priority Critical patent/JP2007293672A/en
Publication of JP2007293672A publication Critical patent/JP2007293672A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographing apparatus for a vehicle detecting soiling of the photographing apparatus at high precision and a soiling detection method for the photographing apparatus for the vehicle. <P>SOLUTION: The photographing apparatus for the vehicle 1 equipped with a photographing means 13 for photographing the perimeter of one's own vehicle is provided with a soiling self diagnosis means 14d detecting soiling of the photographing means 13 and a soiling diagnosis permitting means 14e permitting detection of the soiling to the soiling self diagnosis means 14d when an object detecting means 2 detecting an object in the perimeter of the vehicle detects the object. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、車両用撮影装置、車両用撮影装置の汚れ検出方法に関し、特に、汚れの自己診断を行うことができる車両用撮影装置、車両用撮影装置の汚れ検出方法に関する。   The present invention relates to a vehicular imaging apparatus and a dirt detection method for a vehicular imaging apparatus, and more particularly to a vehicular imaging apparatus and a vehicular imaging apparatus that can perform a self-diagnosis of a dirt.

車両の前方又は後方をカメラにより撮影して障害物や走行車線を検出して運転者の車両操作を支援する車両用撮影装置が知られている。車両用撮影装置はカメラのレンズ等に汚れが付着すると性能が低下するため、汚れを検出する技術や検出した場合には所定のフェイルセーフ制御を実行する技術が提案されている(例えば、特許文献1参照。)。特許文献1では、画像処理装置が車両前方の画像から車線を検出できない場合にその回数を計数し、所定時間内の回数が閾値を超えている場合に光学系に汚れが付着していると判定する。このように撮影された画像に基づき汚れの付着を検出するので、汚れを検出するための付加装置が必要なく、コストや取り付けスペースを節約できるとしている。
特開平8−202998号公報
2. Description of the Related Art A vehicular imaging apparatus is known that assists a driver in driving a vehicle by capturing an image of the front or rear of a vehicle with a camera to detect an obstacle or a traveling lane. Since the performance of a vehicular photographing apparatus deteriorates when dirt is attached to a lens of a camera or the like, a technique for detecting dirt or a technique for executing predetermined fail-safe control when detected is proposed (for example, Patent Documents). 1). In Patent Document 1, when the image processing apparatus cannot detect a lane from an image in front of the vehicle, the number of times is counted, and when the number of times within a predetermined time exceeds a threshold value, it is determined that dirt is attached to the optical system. To do. Since the adhesion of dirt is detected based on the image thus taken, an additional device for detecting dirt is not necessary, and cost and installation space can be saved.
JP-A-8-202998

しかしながら、特許文献1記載の汚れの検出方法では、例えば、白線のない道路では汚れを検出できないか又は白線が検出できないとして汚れが付着していると誤判定してしまうという問題がある。   However, the dirt detection method described in Patent Document 1 has a problem that, for example, dirt cannot be detected on a road without a white line, or it is erroneously determined that dirt is attached because a white line cannot be detected.

所定の条件下において、車両用撮影装置の汚れが検出できないと性能低下の検出が遅れ、又、誤判定してしまうとアラームが吹聴されたりレンズを拭ったりと運転者が煩わしさを感じる場合があり好ましくない。   Under certain conditions, if the contamination of the vehicle photographing device cannot be detected, the detection of the performance deterioration is delayed, and if it is erroneously determined, the driver may feel annoyed by sounding an alarm or wiping the lens. There is not preferable.

本発明は、上記課題に鑑み、撮影装置の汚れを精度よく検出可能な車両用撮影装置、車両用撮影装置の汚れ検出方法を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a vehicular shooting apparatus and a vehicular shooting apparatus dirt detection method capable of accurately detecting dirt on the shooting apparatus.

上記課題を解決するため、本発明は、自車両周囲を撮影する撮影手段を備えた車両用撮影装置において、撮影手段の汚れを検出する汚れ自己診断手段と、車両周囲の物体を検出する物体検出手段が物体を検出した場合、汚れ自己診断手段に汚れの検出を許可する汚れ診断許可手段と、を有することを特徴とする。   In order to solve the above-described problems, the present invention provides a vehicular imaging apparatus including an imaging unit that captures an image of the surroundings of the host vehicle, a dirt self-diagnosis unit that detects contamination of the imaging unit, and an object detection that detects an object around the vehicle. When the means detects an object, it has dirt diagnosis permission means for permitting the dirt self-diagnosis means to detect dirt.

本発明によれば、物体が検出された場合に汚れの自己診断を許可するので、夜間など光量が十分でない場合であっても、検出された物体の画像を利用して精度よく撮影手段の汚れを検出できる。   According to the present invention, dirt self-diagnosis is permitted when an object is detected. Therefore, even when the amount of light is not sufficient, such as at night, the image of the detected object is accurately collected using the image of the detected object. Can be detected.

撮影装置の汚れを精度よく検出可能な車両用撮影装置、車両用撮影装置の汚れ検出方法を提供することができる。   It is possible to provide a vehicular imaging apparatus and a vehicular imaging apparatus dirt detection method capable of accurately detecting contamination of the imaging apparatus.

以下、本発明を実施するための最良の形態について、図面を参照しながら実施例を挙げて説明する。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the accompanying drawings.

図1は、本実施例における車両用撮影装置1と車内LAN18により接続された物体検出装置2の概略構成図の一例を示す。車両用撮影装置1は、従来は夜間走行中に禁止されていた汚れの自己診断を先行車等が検出される場合には許可するので、夜間走行中においても精度よく汚れを検出することができる。なお、本実施の形態では、車両周囲の先行車、ガードレール等の敷設物等の立体物を物体と言う場合がある。   FIG. 1 shows an example of a schematic configuration diagram of an object detection device 2 connected to a vehicle photographing device 1 and an in-vehicle LAN 18 in the present embodiment. Since the vehicular photographing apparatus 1 permits a self-diagnosis of dirt, which was conventionally prohibited during night driving, when a preceding vehicle or the like is detected, dirt can be accurately detected even during night driving. . In the present embodiment, a three-dimensional object such as a preceding vehicle around the vehicle or a laying object such as a guard rail may be referred to as an object.

車両用撮影装置1は、撮影装置12R、12L及びレンズ11R、11Lにより構成されるカメラ13R、13L(カメラ13Rと13Lを単にカメラ13という)を有し、周知のステレオカメラを構成する。撮影装置12R,12Lは、例えば、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)の撮像素子を有している。各カメラにより撮影された画像データ(以下、フレームという)はステレオECU(Electronic Contorol Unit)14に出力される。なお、カメラ13R、13Lに加え更に他のカメラを備えていてもよい。   The vehicle photographing device 1 includes cameras 13R and 13L (cameras 13R and 13L are simply referred to as a camera 13) configured by photographing devices 12R and 12L and lenses 11R and 11L, and constitutes a known stereo camera. The imaging devices 12R and 12L include, for example, CMOS (Complementary Metal Oxide Semiconductor) or CCD (Charge Coupled Device) imaging elements. Image data (hereinafter referred to as a frame) taken by each camera is output to a stereo ECU (Electronic Control Unit) 14. In addition to the cameras 13R and 13L, another camera may be provided.

ステレオECU14は、プログラムを実行するCPU(Central Processing Unit)、プログラムを記憶したROM、データや演算結果を一時的に記憶するRAM、データやパラメータを記憶する不揮発メモリ(NV−RAM)、他のECU間でデータを入出力する入力/出力インターフェース、などがバスにより接続された一ユニットとして構成されたものであり、マイコンやコンピュータとも呼ばれる。   The stereo ECU 14 includes a CPU (Central Processing Unit) that executes a program, a ROM that stores the program, a RAM that temporarily stores data and calculation results, a non-volatile memory (NV-RAM) that stores data and parameters, and other ECUs An input / output interface for inputting / outputting data between them is configured as one unit connected by a bus, and is also called a microcomputer or a computer.

ステレオECU14は、幾何変換処理部14a、LUT(Look Up Table)14c、画像認識処理部14b、汚れ自己診断部14d及び汚れ診断許可部14eを有し、CPUがプログラムを実行することで幾何変換処理部14a、画像認識処理部14b、汚れ自己診断部14d及び汚れ診断許可部14eが実現される。   The stereo ECU 14 includes a geometric conversion processing unit 14a, a LUT (Look Up Table) 14c, an image recognition processing unit 14b, a dirt self-diagnosis unit 14d, and a dirt diagnosis permission unit 14e, and the CPU executes a geometric conversion process by executing a program. The unit 14a, the image recognition processing unit 14b, the dirt self-diagnosis unit 14d, and the dirt diagnosis permission unit 14e are realized.

カメラ13R、13Lに車両前方から入射した光は撮像素子により光電変換され、蓄積した電荷を電圧として読み出し増幅してA/D変換された後、所定の輝度階調(例えば、256階調)のデジタル画像に変換される。カメラ13R、13Lは、例えば30〜60回/秒程度のフレームレートで撮影し、撮影されたフレームを所定のバッファ等に保持しながら順次ステレオECU14に出力する。   Light incident on the cameras 13R and 13L from the front of the vehicle is photoelectrically converted by the image sensor, and the accumulated charge is read out as a voltage, amplified and A / D converted, and then a predetermined luminance gradation (for example, 256 gradations). Converted to a digital image. The cameras 13R and 13L shoot at a frame rate of about 30 to 60 times / second, for example, and sequentially output the captured frames to the stereo ECU 14 while holding them in a predetermined buffer or the like.

後述するようにステレオECU14は、左右のカメラ13R、13Lの視差に基づき物体までの距離を検出するため、左右のカメラ13R、13Lが視差以外の誤差要因(レンズ歪み、光軸ずれ、焦点距離ずれ及び撮像素子歪み等)を生じないようにキャリブレーションされている。キャリブレーションにより誤差要因はキャリブレーションデータとしてLUT14cに格納されているので、幾何変換処理部14aはどのようなカメラ13R、13Lが接続されてもLUTを参照して変換することで誤差要因を除去したフレームを出力する。   As will be described later, since the stereo ECU 14 detects the distance to the object based on the parallax of the left and right cameras 13R and 13L, the left and right cameras 13R and 13L cause error factors other than parallax (lens distortion, optical axis deviation, focal length deviation). And image sensor distortion etc.). Since the error factor is stored in the LUT 14c as calibration data by calibration, the geometric conversion processing unit 14a removes the error factor by referring to the LUT and converting whatever camera 13R, 13L is connected. Output a frame.

画像認識処理部14bは、幾何変換処理部14aからの幾何変換されたフレームに基づいて画像認識処理を行う。画像認識処理は、例えば三角測量の技術によって撮像されたフレーム毎に立体物や立体物までの距離を検出する処理である。   The image recognition processing unit 14b performs image recognition processing based on the geometrically converted frame from the geometric conversion processing unit 14a. The image recognition process is a process of detecting a three-dimensional object and a distance to the three-dimensional object for each frame imaged by, for example, a triangulation technique.

画像認識処理は、例えば左右に配置されたカメラ13R、13Lによりほぼ同時に撮影された左右のフレーム同士で3次元空間中の同一点を対応づけ、三角測量の要領でその点の3次元位置を求める。   In the image recognition processing, for example, the same point in the three-dimensional space is associated with the left and right frames taken almost simultaneously by the cameras 13R and 13L arranged on the left and right, and the three-dimensional position of the point is obtained in the manner of triangulation. .

画像認識処理部14bは、カメラ13R、13Lによりそれぞれ撮影されたフレームにおいて同一点の視差を求めることによって撮像対象物までの距離を算出する。撮像対象物が前方にある場合、カメラ13Rによるフレームとカメラ13Lによるフレームとを重ね合わせると、撮像対象物が左右横方向にずれる。片方のフレームを1画素ずつシフトしながら、例えば画素間の輝度を比較し、画素間の相関(例えばシティブロック距離)が最も高いシフト量を視差として検出する。   The image recognition processing unit 14b calculates the distance to the imaging object by obtaining the parallax at the same point in the frames shot by the cameras 13R and 13L. When the imaging target is ahead, the imaging target is shifted in the horizontal direction when the frame by the camera 13R and the frame by the camera 13L are overlapped. While shifting one frame pixel by pixel, for example, the luminance between the pixels is compared, and the shift amount having the highest correlation (for example, the city block distance) between the pixels is detected as parallax.

最も相関が高くなるようにシフトした画素数をnとし、レンズの焦点距離をf、光軸間の距離をm、画素ピッチをdとすると、撮像対象物までの距離Lは、L=(f・m)/(n・d)という関係式が成立する。この(n・d)を視差という。なお、同一点の3次元空間中における路面からの高さは、カメラ13R、13Lの路面からの高さによって算出できる。   Assuming that the number of pixels shifted to have the highest correlation is n, the focal length of the lens is f, the distance between the optical axes is m, and the pixel pitch is d, the distance L to the imaging object is L = (f The relational expression m) / (n · d) holds. This (n · d) is called parallax. Note that the height of the same point from the road surface in the three-dimensional space can be calculated from the height of the cameras 13R and 13L from the road surface.

汚れ自己診断部14dは、左右のカメラ13R、13Lの汚れを検出する。カメラ13R、13Lが車内にある場合、汚れは前方のフロントガラス又はリアガラスに貼付されたシール、付着した泥、車内につり下げられたアクセサリー等であり、カメラ13R、13Lが車外にある場合、汚れはレンズ11R、11Lに付着した泥等である。すなわち、汚れとはカメラ13R、13Lと車両前方の物体の間にあって正常な撮影を阻害する物を言う。以下では、汚れの形態を問わず単にカメラ13の汚れという。   The dirt self-diagnosis unit 14d detects dirt on the left and right cameras 13R and 13L. When the cameras 13R and 13L are inside the vehicle, the dirt is a sticker attached to the front windshield or rear glass, adhering mud, accessories hung inside the vehicle, etc., and when the cameras 13R and 13L are outside the vehicle, the dirt Is mud or the like adhering to the lenses 11R and 11L. That is, the dirt is an object between the cameras 13R and 13L and an object in front of the vehicle that hinders normal photographing. Hereinafter, the camera 13 is simply referred to as dirt regardless of the form of dirt.

汚れ自己診断部14dは左右のカメラ13R、13Lによりフレームを比較して他方又は双方のカメラの汚れを検出する。また、汚れ診断許可部14eは、物体検出装置2が物体を検出したか否かに基づき、汚れ自己診断部14dに汚れの検出を許可する。これらについて詳細は後述する。   The dirt self-diagnosis unit 14d compares the frames with the left and right cameras 13R and 13L to detect dirt on the other or both cameras. Further, the dirt diagnosis permission unit 14e permits the dirt self-diagnosis unit 14d to detect dirt based on whether or not the object detection device 2 has detected an object. Details of these will be described later.

車両用撮影装置1を車両に搭載することによって、車両前方に先行車や白線があればその距離を検出し、CAN(Contoroller Area Network)等の車内LAN18を介して、画像認識処理結果を必要とする他のECUにその結果を送信する。他のECUとは、例えば、衝突回避・衝突軽減システムを制御するECU、車線維持支援システムや車線逸脱警報システムを制御するECU、車間制御ECU、ブレーキECU等である。   By mounting the vehicle photographing device 1 on the vehicle, if there is a preceding vehicle or a white line ahead of the vehicle, the distance is detected, and the image recognition processing result is required via the in-vehicle LAN 18 such as CAN (Controller Area Network). The result is transmitted to the other ECU. Other ECUs include, for example, an ECU that controls a collision avoidance / collision reduction system, an ECU that controls a lane keeping support system and a lane departure warning system, an inter-vehicle control ECU, a brake ECU, and the like.

例えば、車線維持支援システムでは、撮影されたフレームの例えば輝度に基づき、所定の閾値以上の輝度を有する領域をフレーム底部から上方に向けて探索する。白線は両端に高周波成分たるエッジを有するので、車両前方のフレームを水平方向に微分すると、白線の両端にピークが得られ、そのピークは白線の線内に、白線外から白線と白線から白線外とで正負逆に得られるため、白線部分が推定できる。このような処理を行う白線強調フィルタをフレームに施すことで白線部分を強調でき、白線が強調されたフレームから、白線の特徴である、輝度が高い、線状の形状である等の特徴のある領域を、マッチングなどの手法により白線を検出できる。車線維持支援システムのECUは、例えば100m程度先までの白線を認識しその略中央を目標走行線として定め目標走行線から自車両が所定以上に乖離しないように操舵トルクをアシストする。   For example, in the lane keeping support system, an area having a luminance equal to or higher than a predetermined threshold is searched upward from the bottom of the frame based on, for example, the luminance of the captured frame. Since the white line has edges that are high-frequency components at both ends, if the frame in front of the vehicle is differentiated in the horizontal direction, peaks are obtained at both ends of the white line, and the peaks are within the white line, from the white line to the white line, and from the white line to the white line. Since it is obtained in the positive and negative directions, the white line portion can be estimated. By applying a white line enhancement filter that performs such processing to the frame, the white line portion can be emphasized. From the frame in which the white line is emphasized, there are characteristics such as white line characteristics, high brightness, and a linear shape. A white line can be detected in the region by a technique such as matching. The ECU of the lane keeping support system recognizes a white line up to, for example, about 100 m, determines the approximate center as a target travel line, and assists the steering torque so that the host vehicle does not deviate more than a predetermined distance from the target travel line.

物体検出装置2は、ミリ波レーダやレーザレーダ等を用いて車両前方又は周囲の物体を検出する。レーダ装置15は、レーダを発信してから受信されるまでの時間に基づき障害物までの距離及び相対速度を検出し、障害物ECU16に送出する。   The object detection device 2 detects an object in front of or around the vehicle using a millimeter wave radar, a laser radar, or the like. The radar device 15 detects the distance to the obstacle and the relative speed based on the time from when the radar is transmitted until it is received, and sends it to the obstacle ECU 16.

レーダ装置15は、アンテナ部、高周波回路部及び信号処理部を有し、高周波回路部は、送信アンテナから時間と共に周波数が直線的に増加(又は減少)する無線信号を発信させ、受信アンテナはそれが物体で反射して戻ってきた反射波を受信する。   The radar device 15 includes an antenna unit, a high-frequency circuit unit, and a signal processing unit. The high-frequency circuit unit transmits a radio signal whose frequency linearly increases (or decreases) with time from the transmitting antenna, and the receiving antenna Receives the reflected wave returned from the object.

受信波は、送信波よりも対象物までの距離Lの往復分長い距離を伝わるので、時間にして 2×L/光速 だけ、送信波に対し時間遅れを持っており、その時間分、周波数が低い(高い)ことになる。このため、物体までの距離に応じて送信波と受信波に干渉が生じ(ビート信号が出力され)、信号処理部がビート信号に基づき対象物までの距離を検出する。また、ビート信号の周波数を解析すると相対速度が得られる。   Since the received wave travels a distance that is longer than the transmitted wave by the distance L to the object, it has a time delay with respect to the transmitted wave by 2 × L / speed of light. It will be low (high). For this reason, interference occurs between the transmission wave and the reception wave according to the distance to the object (a beat signal is output), and the signal processing unit detects the distance to the object based on the beat signal. Further, the relative speed can be obtained by analyzing the frequency of the beat signal.

障害物ECU16には車速センサにより自車両の速度が取得されているので、物体の速度を検出できる。例えば、物体との異常接近が検出される場合には、プリクラッシュECUやブレーキECU等に信号を出力して、これらのECUが物体回避又は支援のための車両制御を行う。   Since the speed of the host vehicle is acquired by the vehicle speed sensor in the obstacle ECU 16, the speed of the object can be detected. For example, when an abnormal approach to an object is detected, a signal is output to a pre-crash ECU, a brake ECU, or the like, and these ECUs perform vehicle control for object avoidance or support.

ところで、物体検出装置2が物体を検出する空間A1と車両用撮影装置1が撮影して物体を検出する空間A2とはそれぞれ3次元空間において完全には重複しない。図2は自車両が走行している様子の平面図である。範囲A1はレーダ装置15により物体が検出可能な空間を、範囲A2は車両用撮影装置1により物体が検出可能な空間をそれぞれ示し、又、斜線部が空間A1とA2と重複する空間を示す。   By the way, the space A1 in which the object detection device 2 detects an object and the space A2 in which the vehicle imaging device 1 images and detects an object do not completely overlap in the three-dimensional space. FIG. 2 is a plan view showing a state where the host vehicle is traveling. A range A1 indicates a space in which an object can be detected by the radar device 15, a range A2 indicates a space in which the object can be detected by the vehicle imaging device 1, and a hatched portion indicates a space overlapping the spaces A1 and A2.

本実施の形態の車両用撮影装置1は、空間A1とA2と重複する空間では、物体が車両用撮影装置1と物体検出装置2の双方により検出されることを利用するものである。   The vehicle photographing apparatus 1 of the present embodiment utilizes the fact that an object is detected by both the vehicle photographing apparatus 1 and the object detection apparatus 2 in a space that overlaps the spaces A1 and A2.

続いて、汚れ診断許可部14eによるカメラ13R、13Lの汚れの自己診断の許可手順について図3(a)のフローチャート図に基づき説明する。図3(a)は汚れの自己診断を汚れ自己診断部14dに許可するか否かを判定するためのフローチャート図である。図3(a)の判定手順は、車両が所定速度以上で走行中に所定の時間毎に行われる。   Next, a procedure for permitting the self-diagnosis of the cameras 13R and 13L by the dirt diagnosis permission unit 14e will be described with reference to the flowchart of FIG. FIG. 3A is a flowchart for determining whether or not to allow the dirt self-diagnosis unit 14d to perform the dirt self-diagnosis. The determination procedure of FIG. 3A is performed at predetermined time intervals while the vehicle is traveling at a predetermined speed or higher.

汚れ診断許可部14dは最初に現在の時刻が夜間か否かを判定する(S1)。夜間か否かとは、車両用撮影装置1により車両前方や周囲の撮影をするために必要な明るさを太陽から得られる状態でないことをいい、例えばシャッタ時間により判定する。フレームの露出はシャッタ時間(シャッタスピード)に応じて変化するため、カメラ13R、13Lは周囲が暗ければシャッタ時間を長くして光量を確保する。したがって、シャッタ時間が所定の閾値以上の場合、車両前方や周囲の撮影をするために十分な明るさがなく、夜間であることが分かる。このように判定すれば、車載した時計により判定する場合と異なり日中にトンネルを走行しているような場合には夜間であると判定することができる。なお、夜間か否かを照度計によりしてもよい。   The dirt diagnosis permission unit 14d first determines whether or not the current time is night (S1). Whether it is night or not means that the brightness required for photographing the front and surroundings of the vehicle by the vehicle photographing device 1 is not obtained from the sun, and is determined by, for example, the shutter time. Since the exposure of the frame changes according to the shutter time (shutter speed), the cameras 13R and 13L secure the light amount by extending the shutter time if the surroundings are dark. Therefore, when the shutter time is equal to or greater than the predetermined threshold value, it is understood that there is not enough brightness for photographing the front and surroundings of the vehicle, and it is nighttime. If it determines in this way, unlike the case where it determines by the vehicle-mounted clock, it can be determined that it is night at the time of driving | running | working a tunnel in the daytime. In addition, you may make an illuminance meter whether it is nighttime.

夜間でない場合(S1のNo)、すなわち日中の場合、汚れの自己診断を許可する(S2)。日中に診断を許可するのは、周囲が明るいためカメラに十分な情報を有するフレームが撮影され、汚れ検出が精度よく行えるからである。   When it is not nighttime (No in S1), that is, during the daytime, a self-diagnosis of dirt is permitted (S2). Diagnosis is permitted during the day because the surroundings are bright and a frame with sufficient information is captured in the camera, so that dirt can be detected accurately.

夜間の場合(S1のYes)、汚れ診断許可部14dは、物体検出装置2が自車両の前方に先行車を検出しているか否かを判定する(S3)。物体検出装置2が自車両の前方に先行車を検出する場合(S3のYes)、汚れ診断許可部14dは汚れの自己診断を許可する(S2)。   In the nighttime (Yes in S1), the dirt diagnosis permission unit 14d determines whether or not the object detection device 2 detects a preceding vehicle ahead of the host vehicle (S3). When the object detection device 2 detects the preceding vehicle ahead of the host vehicle (Yes in S3), the dirt diagnosis permission unit 14d permits the dirt self-diagnosis (S2).

レーダ装置15により自車両の先方に先行車が検出された場合、車両用撮影装置1に同じ先行車が撮影されているはずであるので、夜間であっても先行車が存在することが判明していれば、先行車が撮影されたフレームを画像処理して汚れの自己診断が可能であると判定できる。   When a preceding vehicle is detected ahead of the host vehicle by the radar device 15, the same preceding vehicle should have been photographed by the vehicle imaging device 1, and it has been found that there is a preceding vehicle even at night. If this is the case, it can be determined that self-diagnosis of the dirt can be performed by performing image processing on the frame in which the preceding vehicle is photographed.

したがって、物体検出装置2により先行車が検出される空間は、少なくとも図2の空間A1とA2が重複した空間であり、より好ましくは先行車がある程度大きく撮影される所定の距離以内(例えば20m以内)である。   Therefore, the space in which the preceding vehicle is detected by the object detection device 2 is a space where at least the spaces A1 and A2 in FIG. 2 overlap, and more preferably within a predetermined distance (for example, within 20 m) where the preceding vehicle is photographed to a certain extent. ).

物体検出装置2が自車両の先方に先行車を検出しない場合(S3のNo)、汚れ診断許可部14dは汚れの自己診断を禁止する(S4)。すなわち、夜間であって先行車が検出されない場合、汚れの自己診断を行わない。   When the object detection device 2 does not detect the preceding vehicle ahead of the host vehicle (No in S3), the dirt diagnosis permission unit 14d prohibits the self diagnosis of dirt (S4). That is, when the preceding vehicle is not detected at night, the dirt self-diagnosis is not performed.

続いて、汚れの自己診断について図3(b)のフローチャート図に基づき説明する。図3(b)の汚れの自己診断は、図3(a)の自己診断を許可するか否かの判定手順により許可すると判定された直後に実行される。   Next, the self-diagnosis of dirt will be described based on the flowchart of FIG. The dirt self-diagnosis in FIG. 3B is executed immediately after it is determined to be permitted by the determination procedure of whether to permit the self-diagnosis in FIG.

汚れ自己診断部14dは、物体検出装置2が先行車を検出した場合、好ましくはその直後にカメラ13R、13Lが撮影したフレームにそれぞれ所定以上のエッジ情報が含まれるか否かを判定する(S10)。エッジ情報とは隣り合う画素の画素値の変化分であるが、本実施の形態ではエッジ情報のうち変化分が所定以上のものをいう。   When the object detection device 2 detects the preceding vehicle, the dirt self-diagnosis unit 14d preferably determines whether or not the frame captured by the cameras 13R and 13L includes edge information more than a predetermined value immediately after that (S10). ). The edge information is a change in the pixel value of adjacent pixels, but in the present embodiment, the change in the edge information is a predetermined change or more.

エッジ情報の検出にはいくつかの方法が提案されているが、周知の方法として、例えば、フレームの画素値を水平方向及び垂直方向に1次微分又は2次微分することで求める。具体的には、3×3のマトリックスをオペレータとしてフレームに掛け合わせ、9個の演算結果の合計を求めていく。結果は負を含むアナログ量になるのでこれの絶対値をとり、一定の閾値と比較して、閾値より大きい場合にエッジ情報とする。   Several methods have been proposed for detecting edge information. As a known method, for example, the pixel value of a frame is obtained by first-order differentiation or second-order differentiation in the horizontal direction and the vertical direction. Specifically, a 3 × 3 matrix is multiplied by an operator as a frame to obtain a total of nine calculation results. Since the result is an analog amount including a negative value, the absolute value thereof is taken, and compared with a certain threshold value, if it is larger than the threshold value, it is set as edge information.

日中では、先行車がいない場合であっても、自車両前方を撮影したフレームには、白線やガードレール、歩行者等が撮影されることによる所定以上のエッジ情報が検出されるものである。また、夜間、先行車が存在すると判定されている場合、先行車と背景、先行車のテールランプ、ナンバープレート、ボディとリアガラスの境界等、所定以上のエッジ情報が検出される。   During the day, even when there is no preceding vehicle, edge information more than a predetermined value is detected in a frame obtained by photographing the front of the host vehicle by photographing a white line, a guardrail, a pedestrian, and the like. Further, when it is determined that a preceding vehicle is present at night, predetermined edge information such as a preceding vehicle and background, a tail lamp of the preceding vehicle, a license plate, a boundary between the body and the rear glass, and the like are detected.

また、汚れが付着している場合、汚れはレンズ11R、11L、フロントガラス17等の焦点の合わない位置に付着するので、隣り合う画素の画素値の変化分が緩やかになり所定数以上のエッジ情報が検出されない。   Further, when dirt is attached, the dirt adheres to unfocused positions such as the lenses 11R and 11L, the windshield 17, etc., so that the change in the pixel value of the adjacent pixels becomes gradual, and a predetermined number of edges or more. Information is not detected.

なお、図3(a)のステップS3において、夜間に先行車の有無を判定するのは、エッジ情報を得るためであるので、夜間であっても前照灯等によりガードレール、交通標識等の立体的な敷設物も撮影されればエッジ情報が検出されることから、先行車だけでなく敷設物の有無を判定してもよい。   In step S3 in FIG. 3 (a), the presence / absence of the preceding vehicle at night is determined in order to obtain edge information. Since edge information is detected when a typical laying object is also photographed, the presence or absence of the laying object as well as the preceding vehicle may be determined.

したがって、所定数以上のエッジ情報が検出されない場合(S10のNo)、汚れ自己診断部14dは、カメラ13R又はカメラ13Lに汚れが付着していると判定する(S20)。なお、エッジ情報の数でなく、フレーム面積に対するエッジ情報の比率に基づき判定してもよい。なお、カメラ13R又はカメラ13Lの双方からエッジ情報が検出されない場合、双方に汚れが付着していると判定できる。   Therefore, when the edge information of a predetermined number or more is not detected (No in S10), the dirt self-diagnosis unit 14d determines that dirt is attached to the camera 13R or the camera 13L (S20). The determination may be based on the ratio of the edge information to the frame area instead of the number of edge information. In addition, when edge information is not detected from both the camera 13R or the camera 13L, it can be determined that both are dirty.

所定数以上のエッジ情報が検出された場合(S10のYes)、カメラ13Rとカメラ13Lにより撮影されたフレームに差異があるか否かを判定する(S30)。車両用撮影装置1は視差以外の差異がないようにキャリブレーションされているので、視差程度の差異についてはフレーム間に差異がないと判定される。例えば、汚れ自己診断部14dは、視差(n・d)だけ一方のフレームをシフトし画素毎に画素値を比較する。例えば、画素値の差の合計が所定以上であれば左右のフレームに視差以上の差異があると判定する。   When a predetermined number or more of edge information is detected (Yes in S10), it is determined whether there is a difference between frames taken by the camera 13R and the camera 13L (S30). Since the vehicular imaging apparatus 1 is calibrated so that there is no difference other than parallax, it is determined that there is no difference between frames with respect to the difference in parallax. For example, the dirt self-diagnosis unit 14d shifts one frame by parallax (n · d) and compares the pixel values for each pixel. For example, if the total difference in pixel values is greater than or equal to a predetermined value, it is determined that there is a difference greater than or equal to the parallax between the left and right frames.

カメラ13Rとカメラ13Lにより撮影されたフレームに差異がある場合(S30のNo)、汚れ自己診断部14dはカメラ13R及びカメラ13Lに汚れが付着していると判定する(S20)。例えば、撮影範囲の一部に汚れが付着しているような場合、所定数以上のエッジ情報が検出されることがあるが、フレームの差異を判定することで撮影範囲の一部の汚れを検出できる。   When there is a difference between frames taken by the camera 13R and the camera 13L (No in S30), the dirt self-diagnosis unit 14d determines that dirt is attached to the camera 13R and the camera 13L (S20). For example, when dirt is attached to a part of the shooting range, edge information of a predetermined number or more may be detected. However, it is possible to detect a part of the shooting range by determining the frame difference. it can.

カメラ13Rとカメラ13Lにより撮影されたフレームに差異がない場合(S30のYes)、汚れ自己診断部14dはカメラ13R及びカメラ13Lに汚れは付着していないと判定し処理を終了する(S40)。   If there is no difference between the frames photographed by the camera 13R and the camera 13L (Yes in S30), the dirt self-diagnosis unit 14d determines that dirt is not attached to the camera 13R and the camera 13L and ends the process (S40).

なお、汚れを検出した場合でも、1フレームだけではフレームや汚れ検出の処理過程のノイズ等により誤って汚れと誤検出される場合があるので、所定時間又は所定フレーム数、汚れが検出される場合に汚れが検出されたと判定することが好適である。   Even when dirt is detected, it may be erroneously detected as dirt due to noise in the frame or dirt detection process, etc., because only one frame is detected for a predetermined time or a predetermined number of frames. It is preferable to determine that dirt has been detected.

また、物体を撮影するカメラが1つしかない場合、エッジ情報の有無により(S10)汚れの有無を判定すれば、カメラが1つでも汚れの自己診断ができる。   Further, when there is only one camera that captures an object, self-diagnosis of dirt can be performed with only one camera by determining the presence or absence of dirt by the presence or absence of edge information (S10).

汚れを検出した場合、汚れ自己診断部14dはナビECUやパネルに信号を送出し、表示装置にカメラ13R又は13Lに汚れが付着している旨を運転者に報知する。これにより運転者は汚れを除去するなど適切な処置を施すことができる。   When the dirt is detected, the dirt self-diagnosis unit 14d sends a signal to the navigation ECU and the panel to notify the driver that the camera 13R or 13L is dirty. As a result, the driver can take appropriate measures such as removing dirt.

以上のように、本実施の形態の車両用撮影装置1によれば、十分な光量が得られない例えば夜間のような条件下でも、カメラの汚れを検出することができる。好ましくは先行車、又は、エッジ情報のあるフレームが撮影されれば汚れの自己診断を実行できるので、白線のない道路など条件を選ばずに精度よく汚れを検出できる。また、汚れを検出するための付加装置が必要なく、コストや取り付けスペースを節約できる。   As described above, according to the vehicular imaging apparatus 1 of the present embodiment, it is possible to detect camera dirt even under conditions such as nighttime where a sufficient amount of light cannot be obtained. Preferably, if a preceding vehicle or a frame with edge information is photographed, the self-diagnosis of the dirt can be executed, so that the dirt can be accurately detected without selecting conditions such as a road without a white line. Further, there is no need for an additional device for detecting dirt, and cost and installation space can be saved.

車両用撮影装置と車内LANにより接続された物体検出装置の概略構成図である。It is a schematic block diagram of the object detection apparatus connected with the imaging device for vehicles by in-vehicle LAN. 自車両が走行している様子の平面図である。It is a top view of a mode that the own vehicle is drive | working. カメラの汚れの自己診断の許可、自己診断する手順を示すフローチャート図である。It is a flowchart figure which shows the procedure of permission of self-diagnosis of the dirt of a camera, and a self-diagnosis.

符号の説明Explanation of symbols

1 車両用撮影装置
2 物体検出装置
11R、11L レンズ
12R、12L 撮像素子
13R、13L カメラ
14 ステレオECU
15 レーダ装置
16 障害物ECU
17 フロントガラス
18 車内LAN

DESCRIPTION OF SYMBOLS 1 Vehicle imaging device 2 Object detection apparatus 11R, 11L Lens 12R, 12L Image pick-up element 13R, 13L Camera 14 Stereo ECU
15 Radar equipment
16 Obstacle ECU
17 Windshield 18 Car LAN

Claims (3)

自車両周囲を撮影する撮影手段を備えた車両用撮影装置において、
前記撮影手段の汚れを検出する汚れ自己診断手段と、
車両周囲の物体を検出する物体検出手段が物体を検出した場合、前記汚れ自己診断手段に汚れの検出を許可する汚れ診断許可手段と、
を有することを特徴とする車両用撮影装置。
In the vehicular shooting device provided with shooting means for shooting the surroundings of the own vehicle,
A dirt self-diagnosis means for detecting dirt on the photographing means;
When the object detection means for detecting an object around the vehicle detects an object, a dirt diagnosis permission means for permitting the dirt self-diagnosis means to detect dirt;
An imaging device for a vehicle, comprising:
前記物体が自車両前方の所定距離以内に検出された場合、前記汚れ診断許可手段が汚れの検出を許可する、ことを特徴とする請求項1記載の車両用撮影装置。   2. The vehicle photographing apparatus according to claim 1, wherein when the object is detected within a predetermined distance in front of the host vehicle, the dirt diagnosis permission means permits the detection of dirt. 自車両周囲を撮影する撮影手段を備えた車両用撮影装置の汚れ検出方法において、
車両周囲の物体を検出する物体検出手段により車両周囲に物体が検出された場合、汚れ診断許可手段が汚れの検出を許可するステップと、
汚れの検出が許可された場合、汚れ自己診断手段が前記撮影手段の汚れを検出するステップと、
を有することを特徴とする車両用撮影装置の汚れ検出方法。






In the method for detecting dirt in a vehicle photographing device including photographing means for photographing the surroundings of the host vehicle,
When an object is detected around the vehicle by the object detection means for detecting an object around the vehicle, the stain diagnosis permission means permits the detection of the stain; and
If the detection of dirt is permitted, a step of detecting dirt on the photographing means by a dirt self-diagnostic means;
A dirt detection method for a vehicle photographing device.






JP2006121999A 2006-04-26 2006-04-26 Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle Pending JP2007293672A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006121999A JP2007293672A (en) 2006-04-26 2006-04-26 Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006121999A JP2007293672A (en) 2006-04-26 2006-04-26 Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle

Publications (1)

Publication Number Publication Date
JP2007293672A true JP2007293672A (en) 2007-11-08

Family

ID=38764241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006121999A Pending JP2007293672A (en) 2006-04-26 2006-04-26 Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle

Country Status (1)

Country Link
JP (1) JP2007293672A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010114760A (en) * 2008-11-07 2010-05-20 Fujifilm Corp Photographing apparatus, and fingering notification method and program
JP2014115814A (en) * 2012-12-10 2014-06-26 Alpine Electronics Inc On-vehicle camera system and camera lens abnormality detecting method
JP2014523716A (en) * 2011-07-05 2014-09-11 オムロン株式会社 Method and apparatus for projective space monitoring
JP2016162204A (en) * 2015-03-02 2016-09-05 株式会社デンソー Dirt determination device
US9473718B2 (en) 2012-07-03 2016-10-18 Clarion Co., Ltd. Vehicle surroundings monitoring device
WO2019026513A1 (en) * 2017-08-01 2019-02-07 パナソニックIpマネジメント株式会社 Image monitoring device, image monitoring method, image monitoring program, and recording medium
JP2019535149A (en) * 2017-07-07 2019-12-05 トヨタ モーター ヨーロッパ Method for identifying cause of blockage in series of images, computer program for performing the method, computer-readable recording medium including the computer program, and driving support system capable of executing the method
WO2022186225A1 (en) * 2021-03-02 2022-09-09 京セラ株式会社 Electromagnetic-wave detection device and moving body

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289134A (en) * 1993-04-05 1994-10-18 Mitsubishi Electric Corp Stain detector for distance measuring device
JP2003189294A (en) * 2001-12-13 2003-07-04 Secom Co Ltd Image monitoring device
JP2003259358A (en) * 2002-03-06 2003-09-12 Nissan Motor Co Ltd Apparatus and method for detecting dirt on camera
JP2005010094A (en) * 2003-06-20 2005-01-13 Denso Corp Object recognition apparatus for vehicle
JP2005117262A (en) * 2003-10-06 2005-04-28 Fujitsu Ltd Method and apparatus for discriminating dirt of lens
JP2006157740A (en) * 2004-11-30 2006-06-15 Honda Motor Co Ltd Abnormality detecting device of image pickup apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289134A (en) * 1993-04-05 1994-10-18 Mitsubishi Electric Corp Stain detector for distance measuring device
JP2003189294A (en) * 2001-12-13 2003-07-04 Secom Co Ltd Image monitoring device
JP2003259358A (en) * 2002-03-06 2003-09-12 Nissan Motor Co Ltd Apparatus and method for detecting dirt on camera
JP2005010094A (en) * 2003-06-20 2005-01-13 Denso Corp Object recognition apparatus for vehicle
JP2005117262A (en) * 2003-10-06 2005-04-28 Fujitsu Ltd Method and apparatus for discriminating dirt of lens
JP2006157740A (en) * 2004-11-30 2006-06-15 Honda Motor Co Ltd Abnormality detecting device of image pickup apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010114760A (en) * 2008-11-07 2010-05-20 Fujifilm Corp Photographing apparatus, and fingering notification method and program
JP2014523716A (en) * 2011-07-05 2014-09-11 オムロン株式会社 Method and apparatus for projective space monitoring
US9473718B2 (en) 2012-07-03 2016-10-18 Clarion Co., Ltd. Vehicle surroundings monitoring device
JP2014115814A (en) * 2012-12-10 2014-06-26 Alpine Electronics Inc On-vehicle camera system and camera lens abnormality detecting method
JP2016162204A (en) * 2015-03-02 2016-09-05 株式会社デンソー Dirt determination device
JP2019535149A (en) * 2017-07-07 2019-12-05 トヨタ モーター ヨーロッパ Method for identifying cause of blockage in series of images, computer program for performing the method, computer-readable recording medium including the computer program, and driving support system capable of executing the method
WO2019026513A1 (en) * 2017-08-01 2019-02-07 パナソニックIpマネジメント株式会社 Image monitoring device, image monitoring method, image monitoring program, and recording medium
WO2022186225A1 (en) * 2021-03-02 2022-09-09 京セラ株式会社 Electromagnetic-wave detection device and moving body

Similar Documents

Publication Publication Date Title
US11836989B2 (en) Vehicular vision system that determines distance to an object
JP5399027B2 (en) A device having a system capable of capturing a stereoscopic image to assist driving of an automobile
JP5680573B2 (en) Vehicle driving environment recognition device
JP2007293672A (en) Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle
JP5680436B2 (en) Foreign matter adhesion determination device for in-vehicle camera lens
EP3396938B1 (en) Imaging device and method for determining foreign matter
JP2003259358A (en) Apparatus and method for detecting dirt on camera
CN110293973B (en) Driving support system
CN113767395A (en) Image recognition apparatus, solid-state imaging apparatus, and image recognition method
CN111357282A (en) Image processing apparatus, image processing method, program, and solid-state imaging apparatus
WO2011016257A1 (en) Distance calculation device for vehicle
JP4798576B2 (en) Attachment detection device
JP6891082B2 (en) Object distance detector
JP2006072757A (en) Object detection system
JP6003396B2 (en) Imaging device, in-vehicle monitoring device, and object detection method
JP4900377B2 (en) Image processing device
JP2008042759A (en) Image processing apparatus
JP4601376B2 (en) Image abnormality determination device
JP2020009386A (en) Periphery recognition deice and on-vehicle camera system
JP4255398B2 (en) Obstacle detection method and obstacle detection device
JP2020042715A (en) Movement information estimation device, abnormality detection device, and movement information estimation method
JP2019207161A (en) Object detection device
JP5017921B2 (en) Image processing apparatus for vehicle
JP7219710B2 (en) Method and apparatus for improving camera capture for driver assistance systems
CN117459704A (en) Vehicle-mounted camera shielding state judging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101207