JP2010273014A - Camera device for mobile object and method of detecting attachment - Google Patents

Camera device for mobile object and method of detecting attachment Download PDF

Info

Publication number
JP2010273014A
JP2010273014A JP2009121923A JP2009121923A JP2010273014A JP 2010273014 A JP2010273014 A JP 2010273014A JP 2009121923 A JP2009121923 A JP 2009121923A JP 2009121923 A JP2009121923 A JP 2009121923A JP 2010273014 A JP2010273014 A JP 2010273014A
Authority
JP
Japan
Prior art keywords
image
camera
difference
moving body
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009121923A
Other languages
Japanese (ja)
Inventor
Tetsuya Masuda
哲也 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Alpine Automotive Technology Inc
Original Assignee
Toshiba Alpine Automotive Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Alpine Automotive Technology Inc filed Critical Toshiba Alpine Automotive Technology Inc
Priority to JP2009121923A priority Critical patent/JP2010273014A/en
Publication of JP2010273014A publication Critical patent/JP2010273014A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera device for a mobile object, the camera device highly accurately detecting a part where droplets or dirt or the like is attached and alarming a driver. <P>SOLUTION: The camera device for a mobile object includes: a camera, installed to the mobile object, for imaging the periphery of the mobile object successively at different timing; an image conversion processing part for shifting the first image of the first time between the first image and a second image which are photographed by the camera and are sequential in time corresponding to the moving amount of the mobile object, and converting it to the same phase as the second image; a difference processing part for extracting a difference between the second image and the converted image; a detection part for integrating a difference image extracted in the difference processing part and detecting the image of attachment attached to the lens of the camera; and an alarm part for reporting an alarm when the area of the image of the attachment becomes equal to or larger than a preset area. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、車両等の移動体に設置したカメラによって移動体周囲の障害物を撮影し、運転者の支援を行う移動体用カメラ装置及びカメラレンズに付着した付着物の検出方法に関する。   The present invention relates to a moving body camera device that captures an obstacle around a moving body with a camera installed on the moving body such as a vehicle and assists a driver, and a method for detecting an adhering matter attached to a camera lens.

従来、車両等にカメラを搭載し、車両の前方や背景など周囲の障害物を撮影してディスプレイ装置に表示する移動体用カメラ装置が知られている。移動体用のカメラは、車両走行中に周囲の映像を撮影するため、雨が降った場合等はカメラレンズに水滴が付着する。また汚れや虫などが付着して撮影に支障を来たすことがある。このため、カメラに水滴や汚れ等の付着物が多く付着した場合は、運転者に清掃を促すようにしている。   2. Description of the Related Art Conventionally, there is known a moving body camera device in which a camera is mounted on a vehicle or the like, and a surrounding obstacle such as a front or background of the vehicle is photographed and displayed on a display device. Since the camera for moving bodies captures surrounding images while the vehicle is traveling, water drops adhere to the camera lens when it rains. Also, dirt and insects may stick to the shooting. For this reason, when a lot of deposits such as water droplets and dirt adhere to the camera, the driver is encouraged to clean.

特許文献1には、車両が移動している時に、異なるタイミングで撮影された映像に含まれる濃度値の差分を抽出し、抽出された映像の濃度値を積算することでカメラに付着した汚れを検知する例が開示されている。また特許文献2には、異なるタイミングで撮影された複数の画像から所定の画素のオプティカルフローを計算し、車速情報などからオプティカルフローを推定し、計測したオプティカルフローと、推定したオプティカルフローを比較することでカメラに付着した汚れを検知する例が開示されている。   In Patent Document 1, when a vehicle is moving, the difference between density values included in images taken at different timings is extracted, and the density values of the extracted images are integrated to remove dirt attached to the camera. An example of detection is disclosed. Further, Patent Document 2 calculates an optical flow of a predetermined pixel from a plurality of images taken at different timings, estimates an optical flow from vehicle speed information, and compares the measured optical flow with the estimated optical flow. Thus, an example in which dirt attached to the camera is detected is disclosed.

しかしながら、特許文献1の例では、路面が真っ黒で均一なテクスチャを持っているような場合は、路面と水滴や汚れなどを区別することが困難である。また特許文献2の例では、オプティカルフローを計算する物体として路面のペイントを用いているが、路面にペイントがない場合に水滴を検出できない可能性がある。またペイントの付近に立体物(ガードレールの支柱など)がある場合に、立体物を汚れとして誤検出してしまう可能性がある。   However, in the example of Patent Document 1, when the road surface is black and has a uniform texture, it is difficult to distinguish the road surface from water droplets and dirt. In the example of Patent Document 2, road surface paint is used as an object for calculating an optical flow. However, there is a possibility that water droplets cannot be detected when there is no paint on the road surface. In addition, when there is a three-dimensional object (such as a guard rail column) near the paint, there is a possibility that the three-dimensional object is erroneously detected as dirt.

特開2003−259358号公報JP 2003-259358 A 特開2008−60874号公報JP 2008-60874 A

従来の移動体用カメラ装置では、路面が真っ黒で均一なテクスチャを持っているように場合は、路面と水滴や汚れなどを区別することが困難である。また路面にペイントがない場合に水滴を検出できなかったり、ペイント付近に立体物がある場合に、立体物を汚れとして誤検出してしまう可能性がある。   In the conventional mobile camera device, when the road surface is black and has a uniform texture, it is difficult to distinguish the road surface from water droplets and dirt. Further, when there is no paint on the road surface, water droplets cannot be detected, or when there is a three-dimensional object near the paint, there is a possibility that the three-dimensional object will be erroneously detected as dirt.

本発明はこのような事情に鑑み、水滴や汚れ等の付着部を高精度で検出して運転者に警告することができる移動体用カメラ装置及び付着物の検出方法を提供することを目的とする。   In view of such circumstances, an object of the present invention is to provide a moving body camera device and a method for detecting an adhering substance that can detect an adhering portion such as water droplets and dirt with high accuracy and warn a driver. To do.

請求項1記載の本発明の移動体用カメラ装置は、移動体に設置され前記移動体の周辺を順次異なるタイミングで撮像するカメラと、前記カメラで撮影した時間的に前後する第1、第2の画像のうち前時刻の第1の画像を前記移動体の移動量に応じてシフトし、前記第2の画像と同位相の画像に変換する画像変換処理部と、前記第2の画像と前記変換した画像との差分を抽出する差分処理部と、前記差分処理部で抽出された差分画像を積算して前記カメラのレンズに付着した付着物の画像を検出する検出部と、前記付着物の画像の面積が予め設定した面積以上になったときに警告報知する警告部と、を具備したことを特徴とする。   According to a first aspect of the present invention, there is provided a camera device for a moving body that is installed on a moving body and sequentially captures the periphery of the moving body at different timings. An image conversion processing unit that shifts the first image at the previous time in accordance with the amount of movement of the moving body and converts the first image into the same phase image as the second image, the second image, and the image A difference processing unit that extracts a difference from the converted image, a detection unit that integrates the difference images extracted by the difference processing unit to detect an image of the attached matter attached to the lens of the camera, and And a warning unit that issues a warning when the area of the image exceeds a preset area.

請求項5記載の本発明は、カメラのレンズに付着した付着物の検出方法であって、移動体に設置されたカメラで前記移動体の周辺を順次異なるタイミングで撮像し、前記カメラで撮影した時間的に前後する第1、第2の画像のうち前時刻の第1の画像を前記移動体の移動量に応じてシフトし、前記第2の画像と同位相の画像に変換し、前記第2の画像と前記変換した画像との差分を抽出し、抽出した前記差分画像を積算して濃淡画像を生成し、前記濃淡画像の濃度を予め設定した閾値で2値化した画像を付着物の画像として検出し、前記付着物の画像の面積が予め設定した面積以上になったとき警告報知することを特徴とする。   The present invention according to claim 5 is a method for detecting an adhering matter adhering to a lens of a camera, wherein the surroundings of the moving body are sequentially imaged at different timings by a camera installed on the moving body, and the images are captured by the camera Of the first and second images that move back and forth in time, the first image at the previous time is shifted according to the amount of movement of the moving body, converted into an image in phase with the second image, and the first image The difference between the image 2 and the converted image is extracted, the extracted difference images are integrated to generate a grayscale image, and the image obtained by binarizing the density of the grayscale image with a preset threshold value is used. It is detected as an image, and a warning is notified when the area of the image of the deposit is equal to or larger than a preset area.

本発明の移動体用カメラ装置によれば、路面が均一なテクスチャを持つ場合であっても、水滴や汚れ等の候補を抽出することができ、水滴や汚れ等の候補画像を積算することで立体物等の画像を分離し、水滴や汚れ等の付着物を高精度で検出することができる。   According to the moving body camera device of the present invention, even if the road surface has a uniform texture, candidates for water droplets and dirt can be extracted, and the candidate images such as water droplets and dirt can be integrated. It is possible to separate an image such as a three-dimensional object and detect a deposit such as a water droplet or dirt with high accuracy.

本発明の一実施形態に係る移動体用カメラ装置を示すブロック図。The block diagram which shows the camera apparatus for moving bodies which concerns on one Embodiment of this invention. 同実施形態における差分画像の抽出動作を示す説明図。Explanatory drawing which shows the extraction operation | movement of the difference image in the embodiment. 同実施形態における差分画像の抽出過程を時系列に示す説明図。Explanatory drawing which shows the extraction process of the difference image in the embodiment in time series. 同実施形態における差分画像の積算処理を示す説明図。Explanatory drawing which shows the integration process of the difference image in the embodiment. 同実施形態における水滴、汚れ等の検出処理を示す説明図。Explanatory drawing which shows the detection processings, such as a water droplet and dirt in the same embodiment. 本発明の一実施形態に係る付着物検出方法を説明するフローチャート。The flowchart explaining the deposit | attachment detection method which concerns on one Embodiment of this invention. 同実施形態における付着物検出方法を示す続きのフローチャート。The subsequent flowchart which shows the deposit | attachment detection method in the embodiment.

以下、この発明の一実施形態について図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る移動体用カメラ装置の全体構成を示すブロック図である。   FIG. 1 is a block diagram showing the overall configuration of a mobile camera apparatus according to an embodiment of the present invention.

図1において、移動体用カメラ装置100は、カメラ10と、画像処理部20と、車両移動量計測部30と、警告部40とを有している。   In FIG. 1, the moving body camera device 100 includes a camera 10, an image processing unit 20, a vehicle movement amount measurement unit 30, and a warning unit 40.

カメラ10は、CCDやCMOSセンサ等を用いた撮影装置であり、移動体(例えば車両)の前方又は後方等に取り付けられ、移動体の周辺を順次異なるタイミングで撮像する。以下においては、移動体が車両である場合を説明する。画像処理部20は、カメラ10で撮影した画像を入力する画像入力部21と、画像データを保持する画像メモリ22と、画像メモリ22に保持した画像を変換処理する画像変換処理部23を含む。   The camera 10 is a photographing apparatus using a CCD, a CMOS sensor, or the like, and is attached to the front or rear of a moving body (for example, a vehicle), and images the periphery of the moving body sequentially at different timings. Below, the case where a mobile body is a vehicle is demonstrated. The image processing unit 20 includes an image input unit 21 that inputs an image captured by the camera 10, an image memory 22 that stores image data, and an image conversion processing unit 23 that converts the image stored in the image memory 22.

また画像入力部21から出力された画像と、画像変換処理部23で変換処理した画像との差分を抽出する差分処理部24と、抽出した差分画像から水滴や汚れ等の付着物の候補を抽出する付着物候補抽出部25と、カメラ10に水滴や汚れ等の付着物が付着していることを検出する付着物検出部26とを含む。   In addition, a difference processing unit 24 that extracts a difference between the image output from the image input unit 21 and the image converted by the image conversion processing unit 23, and a candidate for an adhering substance such as a water droplet or a dirt is extracted from the extracted difference image. An attached matter candidate extraction unit 25 for detecting the presence of an attached matter such as water droplets or dirt on the camera 10.

車両移動量計測部30は、速度計31及びジャイロ32などを含み、車両の移動情報を生成し画像変換処理部23に供給する。車両の移動情報には、車両の移動量を示す情報が含まれる。即ち車両の速度や回転角等を計測することで車両の移動距離と角度で示される移動量が算出される。警告部40はディスプレイ装置やスピーカなどを含み、カメラ10のレンズに水滴や汚れ等の付着物が所定量以上付着した場合に運転者に警告を発し清掃を促す。   The vehicle movement amount measurement unit 30 includes a speedometer 31 and a gyro 32, and generates vehicle movement information and supplies it to the image conversion processing unit 23. The vehicle movement information includes information indicating the movement amount of the vehicle. That is, the movement amount indicated by the movement distance and angle of the vehicle is calculated by measuring the speed and rotation angle of the vehicle. The warning unit 40 includes a display device, a speaker, and the like. When a predetermined amount or more of water or dirt adheres to the lens of the camera 10, a warning is issued to the driver to encourage cleaning.

次に本発明の移動体用カメラ装置100の動作を図2〜図5を参照して説明する。図2は、画像入力部21、画像メモリ22、画像変換処理部23及び差分処理部24の動作を示す説明図である。   Next, the operation of the moving body camera device 100 of the present invention will be described with reference to FIGS. FIG. 2 is an explanatory diagram showing operations of the image input unit 21, the image memory 22, the image conversion processing unit 23, and the difference processing unit 24.

カメラ10は、所定の時間間隔(例えば1秒間に30枚)で、連続的に車両の周辺を撮影する。撮影した画像は順次に画像入力部21に入力される。図2のA1は時刻t1で撮影された画像を示し、A2は少し遅れた時刻t2で撮影した画像を示す。また画像入力部21に入力された画像は、順次に画像メモリ22に記憶される。   The camera 10 continuously captures the periphery of the vehicle at a predetermined time interval (for example, 30 images per second). The captured images are sequentially input to the image input unit 21. A1 in FIG. 2 indicates an image captured at time t1, and A2 indicates an image captured at time t2 that is slightly delayed. The images input to the image input unit 21 are sequentially stored in the image memory 22.

図2では、画像A2を現時刻の画像とし、画像A1を前時刻の画像として示している。また画像入力部21から出力された画像は差分処理部24に供給され、画像メモリ22から読み出された画像は画像変換処理部23に供給される。画像入力部21から差分処理部24に供給される画像が現時刻の画像A2であるとき、画像メモリ22からは前時刻の画像A1が読み出され、画像変換処理部23に入力される。画像変換処理部23は、前時刻の画像A1を処理し、現時刻の画像A2と同位相の画像に変換した画像B1を得る。   In FIG. 2, the image A2 is shown as an image at the current time, and the image A1 is shown as an image at the previous time. The image output from the image input unit 21 is supplied to the difference processing unit 24, and the image read from the image memory 22 is supplied to the image conversion processing unit 23. When the image supplied from the image input unit 21 to the difference processing unit 24 is the image A2 at the current time, the image A1 at the previous time is read from the image memory 22 and input to the image conversion processing unit 23. The image conversion processing unit 23 processes the image A1 at the previous time, and obtains an image B1 converted into an image having the same phase as the image A2 at the current time.

画像変換処理部23での変換処理は、車両移動量計測部30からの車両情報をもとに行われる。即ち、車両が前時刻t1から現時刻t2までの間に移動したときの距離をL1とすると、前時刻の画像A1を車両の移動距離L1に応じてシフトし、現時刻の画像A2と同位相の画像に変換する。また前時刻t1から現時刻t2までの間に車両のハンドルが切られた場合は、回転角度の情報も取り入れて前時刻の画像A1をシフトする。   The conversion process in the image conversion processing unit 23 is performed based on the vehicle information from the vehicle movement amount measurement unit 30. That is, assuming that the distance when the vehicle moves between the previous time t1 and the current time t2 is L1, the previous time image A1 is shifted according to the moving distance L1 of the vehicle and is in phase with the current time image A2. Convert to an image. In addition, when the vehicle handle is turned between the previous time t1 and the current time t2, the image A1 at the previous time is shifted by incorporating information on the rotation angle.

画像変換処理部23について詳しく説明する。図2では車両の前部にカメラ10を取り付け、車両の前方周辺部を所定の時間間隔で順次に撮影した場合を想定している。前時刻t1と現時刻t2の時間差を求め、時間差に車両の速度を乗算すれば前時刻t1から現時刻t2までの走行距離L1を求めることができる。   The image conversion processing unit 23 will be described in detail. In FIG. 2, it is assumed that the camera 10 is attached to the front portion of the vehicle and the front peripheral portion of the vehicle is sequentially photographed at a predetermined time interval. If the time difference between the previous time t1 and the current time t2 is obtained and the vehicle speed is multiplied by the time difference, the travel distance L1 from the previous time t1 to the current time t2 can be obtained.

画像変換処理部23は、前時刻t1で撮影した画像A1上の全ての画素が路面上の点であるとみなした場合に、画像A1が距離L1だけ走行した後ではどのように変化するかを推定して現時刻の画像A2と同位相の画像に変換する。例えば、前時刻から距離L1だけ走行すると、前時刻画像A1は、図2のB1で示すように車両の後方(下方)にシフトした画像となる。前時刻の画像A1では、道路に引かれたセンターラインや路側帯を示すライン51と標示用のマーク52(ペイント)及び道路の傍にある立体物53(ガードレールの支柱など)が前方(上部)に位置し、カメラ10の表面に水滴61と汚れ62が付着した例を示している。   When the image conversion processing unit 23 regards all the pixels on the image A1 taken at the previous time t1 as points on the road surface, how the image A1 changes after traveling the distance L1. It is estimated and converted into an image having the same phase as the image A2 at the current time. For example, when the vehicle travels a distance L1 from the previous time, the previous time image A1 becomes an image shifted backward (downward) of the vehicle as indicated by B1 in FIG. In the image A1 at the previous time, a line 51 indicating a center line or roadside belt drawn on the road, a marking mark 52 (paint), and a three-dimensional object 53 (a guardrail post, etc.) near the road are forward (upper). In this example, water drops 61 and dirt 62 are attached to the surface of the camera 10.

前時刻t1から距離L1だけ車両が進行すると、前時刻画像A1は後方(下方)に視点がずれた画像になるため、B1で示すように、ライン51や標示マーク52及び立体物53の位置と、水滴61と汚れ62の位置も下側にずれる。また車両が距離L1だけ進行した場合、標示マーク52や立体物53に近付くため前時刻画像A1は多少拡大される。こうして前時刻の画像A1を車両情報に応じて変換処理し、現時刻の画像A2と同位相の画像B1に変換する。   When the vehicle travels from the previous time t1 by the distance L1, the previous time image A1 becomes an image whose viewpoint is shifted backward (downward), and as shown by B1, the positions of the line 51, the marking mark 52, and the three-dimensional object 53 The positions of the water droplet 61 and the dirt 62 are also shifted downward. When the vehicle travels by the distance L1, the previous time image A1 is somewhat enlarged because the vehicle approaches the marking mark 52 or the three-dimensional object 53. In this way, the image A1 at the previous time is converted according to the vehicle information, and converted into the image B1 having the same phase as the image A2 at the current time.

差分処理部24では、現時刻の画像A2と変換処理した画像B1の差分を取り、差分画像Cを得る。差分画像Cでは、道路及びライン51や標示マーク52は相殺されて削除され、立体物53と水滴61や汚れ62の画像がそのまま残る。道路がカーブしていたりすると、道路やライン51、標示マーク52の一部は相殺されずに残ることもあるが、大部分は削除される。   The difference processing unit 24 obtains the difference image C by taking the difference between the image A2 at the current time and the converted image B1. In the difference image C, the road and the line 51 and the marking mark 52 are canceled and deleted, and the image of the three-dimensional object 53, the water drop 61, and the dirt 62 remains as it is. If the road is curved, a part of the road, the line 51, and the marking mark 52 may remain without being canceled, but most of them are deleted.

付着物候補抽出部25は、差分画像Cを予め設定した閾値で2値化し、水滴及び汚れ等の付着物の候補領域の画像を得る。付着物検出部26では、水滴及び汚れ等の候補領域画像を時間方向に積算して濃淡画像を生成する。また付着物検出部26は、積算された濃淡画像の画素値が予め設定した値以上の領域を、レンズに付着した付着物として検出する。つまり濃淡画像の濃度を予め設定した閾値で2値化した画像を付着物の画像として検出する。   The adhering matter candidate extraction unit 25 binarizes the difference image C with a preset threshold value, and obtains an image of candidate regions for adhering matters such as water droplets and dirt. The adhering matter detection unit 26 integrates candidate area images such as water droplets and dirt in the time direction to generate a grayscale image. Further, the adhering matter detection unit 26 detects an area where the pixel value of the accumulated grayscale image is equal to or larger than a preset value as an adhering matter adhering to the lens. That is, an image obtained by binarizing the density of the grayscale image with a preset threshold value is detected as an image of the attached matter.

そして水滴・汚れ等の付着物の領域が一定以上の面積を越えた場合に、警告部40によって報知し、運転者に警告する。これによって運転者にレンズ表面の清掃を促すことができる。運転者への警告方法としては、例えばカメラ画像に表示された水滴や汚れの領域外周を点滅表示する方法や、ディスプレイに文字でレンズの洗浄を促すメッセージを表示したり、スピーカから報音する方法などがある。   And when the area | region of deposits, such as a water drop and dirt, exceeds an area more than fixed, it alert | reports by the warning part 40, and warns a driver | operator. This can prompt the driver to clean the lens surface. As a warning method to the driver, for example, a method of flashing and displaying the outer periphery of a water droplet or dirt area displayed on the camera image, a method of displaying a message prompting the lens to be washed with characters on the display, or a method of reporting from a speaker and so on.

図3は、カメラ10で撮影した画像と、画像変換処理した画像と、差分画像を時系列に示した図であり、撮影画像は車両の走行に合わせてA1〜A4で示すように順次に変化する。撮影画像A1は時間的に過去の画像であり、撮影画像A4が最新の画像である。   FIG. 3 is a diagram showing an image captured by the camera 10, an image subjected to image conversion processing, and a difference image in time series. The captured image changes sequentially as indicated by A1 to A4 according to the traveling of the vehicle. To do. The captured image A1 is a past image in time, and the captured image A4 is the latest image.

撮影画像A1,A2,A3をそれぞれ画像変換処理部23によって変換した画像がB1,B2,B3であり、撮影画像A2と変換画像B1の差分画像がC1である。同様に撮影画像A3と変換画像B2の差分画像がC2であり、撮影画像A4と変換画像B3の差分画像がC3である。差分画像C1,C2,C3から分かるように、水滴61と汚れ62の画像は残り、立体物53のように一時的に撮影された画像は途中で消えていく。   Images obtained by converting the captured images A1, A2, and A3 by the image conversion processing unit 23 are B1, B2, and B3, respectively, and a difference image between the captured image A2 and the converted image B1 is C1. Similarly, the difference image between the photographed image A3 and the converted image B2 is C2, and the difference image between the photographed image A4 and the converted image B3 is C3. As can be seen from the difference images C1, C2, and C3, the image of the water droplet 61 and the dirt 62 remains, and the temporarily captured image such as the three-dimensional object 53 disappears on the way.

差分画像C1,C2,C3…は、付着物候補抽出部25で2値化され、図4(a)で示すように、付着物検出部26で時間軸方向に積算される。差分画像C1,C2,C3…を時間的に積算すると、水滴61と汚れ62の画像は濃淡が濃くなり、他の画像の濃淡は淡くなる。   The difference images C1, C2, C3... Are binarized by the adhering matter candidate extraction unit 25 and accumulated in the time axis direction by the adhering matter detection unit 26 as shown in FIG. When the difference images C1, C2, C3... Are integrated over time, the images of the water droplet 61 and the stain 62 become darker and the other images become lighter.

こうして、図4(b)で示すように濃淡画像の画素値が予め設定した値以上の領域は、水滴61や汚れ62等の付着物の画像領域として検出される。付着物の領域の面積が所定の面積を越えたときに警告部40にて報知すれば運転者に知らせることができる。   In this way, as shown in FIG. 4B, an area where the pixel value of the grayscale image is equal to or larger than the preset value is detected as an image area of an adhering substance such as a water drop 61 and dirt 62. The driver can be informed if the warning unit 40 notifies when the area of the deposit area exceeds a predetermined area.

尚、付着物検出部26において検出された付着物の濃淡画像は、図5で示すようにラベリング処理される。ラベリング処理は、水滴又は汚れの画素61(62)が互いに隣接している場合に1つにまとめる処理であり、ラベリング処理した領域63のトータル画素(面積)が所定値を越えた時に警告部40を通じて報知する。   Note that the grayscale image of the deposit detected by the deposit detection unit 26 is subjected to a labeling process as shown in FIG. The labeling process is a process in which the pixels 61 (62) of water droplets or dirt are adjacent to each other, and the warning unit 40 is displayed when the total pixel (area) of the labeled region 63 exceeds a predetermined value. Notify through.

図6A,6Bは、本発明の付着物検出方法の動作を示すフローチャートである。図6Aにおいて、検出動作がスタートすると、ステップS1ではカメラ10で撮影した画像を画像入力部21に入力する。また画像メモリ22に順次に記憶する。ステップS2では、画像メモリ22から現時刻の画像の1つ前の画像(前時刻画像)を読み出す。   6A and 6B are flowcharts showing the operation of the deposit detection method of the present invention. In FIG. 6A, when the detection operation starts, an image taken by the camera 10 is input to the image input unit 21 in step S1. Further, it is sequentially stored in the image memory 22. In step S2, the image immediately before the current time image (previous time image) is read from the image memory 22.

ステップS3では、車両移動量計測部30からの車両情報を入手し、車両の移動量を画像処理部20(画像変換処理部23)に入力する。ステップS4では、前時刻から車両が移動したか否かを判断し、移動していればステップS5に進み、移動していなければステップS1に戻る。   In step S3, vehicle information from the vehicle movement amount measurement unit 30 is obtained, and the movement amount of the vehicle is input to the image processing unit 20 (image conversion processing unit 23). In step S4, it is determined whether or not the vehicle has moved from the previous time. If it has moved, the process proceeds to step S5, and if not, the process returns to step S1.

ステップS5では、車両の移動量をもとに前時刻の画像を車両の移動量に応じてシフトし、現時刻の画像と同位相の画像に変換する。ステップS6では、変換後の画像と現時刻の画像との差分をとり、差分画像を生成する。ステップS7では、付着物候補抽出部25によって差分画像を2値化し、ステップS8では、水滴・汚れ等の付着物の候補が検出されたか否かを判断する。ステップS1〜ステップS8の動作は繰り返し行われ、レンズに付着した水滴もしくは汚れ等の候補を検出する。   In step S5, the image at the previous time is shifted according to the amount of movement of the vehicle based on the amount of movement of the vehicle, and converted to an image in phase with the image at the current time. In step S6, the difference between the converted image and the current time image is taken to generate a difference image. In step S7, the difference candidate image is binarized by the adhering matter candidate extraction unit 25, and in step S8, it is determined whether or not an adhering matter candidate such as a water droplet or dirt has been detected. The operations in steps S1 to S8 are repeated to detect candidates such as water droplets or dirt adhering to the lens.

ステップS8のあとは図6BのステップS9に進み、ステップS9では、付着物検出部26によって2値化した画像(付着物の候補領域の画像)を時間方向に積算して濃淡画像を生成する。ステップS10では濃淡画像を2値化し、ステップS11では濃淡画像の濃度を判断する。ステップS11で所定の濃度以上の画像が水滴及び汚れ等の付着物の領域として検出されると、ステップS12では付着物の領域のラベリング処理を行う。   After step S8, the process proceeds to step S9 in FIG. 6B. In step S9, the binarized image (image of the candidate area of the deposit) by the deposit detection unit 26 is integrated in the time direction to generate a grayscale image. In step S10, the grayscale image is binarized, and in step S11, the density of the grayscale image is determined. When an image having a predetermined density or more is detected as a region of adhered matter such as water droplets and dirt in step S11, a labeling process of the adhered region is performed in step S12.

ラベリングしたあと、ステップS13ではラベリングした領域の面積を計算し、ステップS14では面積が閾値以上か否かを判断する。水滴、汚れ等の領域の面積が閾値以上の場合、ステップS15では警告部40によって警告を報知し、運転者に警告する。付着物領域の面積が閾値以下の場合はステップS13に戻る。こうして、カメラ10のレンズ表面に付着物が多く付着したときに運転者にレンズ表面の清掃を促すことができる。   After labeling, in step S13, the area of the labeled region is calculated, and in step S14, it is determined whether the area is equal to or greater than a threshold value. When the area of a region such as water droplets or dirt is equal to or larger than the threshold value, in step S15, the warning unit 40 notifies the warning and warns the driver. When the area of the deposit region is not more than the threshold value, the process returns to step S13. Thus, the driver can be urged to clean the lens surface when a large amount of deposits adheres to the lens surface of the camera 10.

以上述べたように、本発明の実施形態によれば、前時刻の画像を車両の移動量に応じてシフトし、現時刻の画像と同位相の画像に変換し、現時刻の画像と変換した画像の差分をとることにより、路面が均一な場合でも汚れや水滴等を付着物の候補として抽出することができる。   As described above, according to the embodiment of the present invention, the image at the previous time is shifted according to the amount of movement of the vehicle, converted into an image having the same phase as the image at the current time, and converted into the image at the current time. By taking the difference between the images, even if the road surface is uniform, dirt, water droplets, and the like can be extracted as candidates for the deposit.

また差分画像を2値化して時間軸方向に積算することにより、水滴や汚れ等を立体物や移動体と分離して検出することができる。したがって、付着物の領域を高精度で検出することができ、カメラを使った障害物検出システムが正しく動作しない可能性がある場合は運転者に警告を発することができる。   Also, by binarizing the difference image and integrating it in the time axis direction, it is possible to detect water droplets, dirt, etc. separately from the three-dimensional object or moving object. Therefore, it is possible to detect the area of the deposit with high accuracy, and to issue a warning to the driver when there is a possibility that the obstacle detection system using the camera may not operate correctly.

尚、本発明の実施形態は、一例を説明したものであり、以上説明した構成に限定されるものではなく、特許請求の範囲を逸脱しない範囲内で種々の変形が可能である。   The embodiment of the present invention has been described by way of example, and is not limited to the configuration described above, and various modifications can be made without departing from the scope of the claims.

100…移動体用カメラ装置
10…カメラ
21…画像入力部
22…画像メモリ
23…画像変換処理部
24…差分処理部
25…付着物候補抽出部
26…付着物検出部
30…車両移動量計測部
31…速度計
32…ジャイロ
40…警告部
51…ライン画像、
52…標示マーク画像
53…立体物画像
61…水滴画像
62…汚れ画像
DESCRIPTION OF SYMBOLS 100 ... Mobile body camera apparatus 10 ... Camera 21 ... Image input part 22 ... Image memory 23 ... Image conversion process part 24 ... Difference process part 25 ... Adhesion candidate extraction part 26 ... Adherence detection part 30 ... Vehicle movement amount measurement part 31 ... Speedometer 32 ... Gyro 40 ... Warning section 51 ... Line image,
52 ... Marking mark image 53 ... Solid object image 61 ... Water drop image 62 ... Dirt image

Claims (5)

移動体に設置され、前記移動体の周辺を順次異なるタイミングで撮像するカメラと、
前記カメラで撮影した時間的に前後する第1、第2の画像のうち前時刻の第1の画像を前記移動体の移動量に応じてシフトし、前記第2の画像と同位相の画像に変換する画像変換処理部と、
前記第2の画像と前記変換した画像との差分を抽出する差分処理部と、
前記差分処理部で抽出された差分画像を積算して前記カメラのレンズに付着した付着物の画像を検出する検出部と、
前記付着物の画像の面積が予め設定した面積以上になったときに警告報知する警告部と、を具備したことを特徴とする移動体用カメラ装置。
A camera that is installed on a moving body and sequentially captures the periphery of the moving body at different timings;
Of the first and second images taken before and after the time taken by the camera, the first image at the previous time is shifted according to the amount of movement of the moving body, and the image has the same phase as the second image. An image conversion processing unit to convert;
A difference processing unit for extracting a difference between the second image and the converted image;
A detection unit that integrates the difference images extracted by the difference processing unit and detects an image of an adhering matter attached to the lens of the camera;
A moving body camera device, comprising: a warning unit that issues a warning notification when the area of the image of the adhering material exceeds a preset area.
前記画像変換処理部は、前記第1の画像を撮影した時刻から前記第2の画像を撮影した時刻までの前記移動体の移動情報を取得し、
前記移動体の移動距離と角度に応じて前記第1の画像をシフトし前記第2の画像と同位相の画像に変換することを特徴とする請求項1記載の移動体用カメラ装置。
The image conversion processing unit acquires movement information of the moving body from a time when the first image is captured to a time when the second image is captured,
The mobile camera device according to claim 1, wherein the first image is shifted according to a moving distance and an angle of the moving body and converted into an image having the same phase as the second image.
前記検出部は、前記差分処理部で抽出された差分画像を2値化して付着物の候補画像を抽出する候補抽出部と、前記付着物の候補画像を積算して濃淡画像を生成し、前記濃淡画像の濃度を予め設定した閾値で2値化した画像を付着物の画像として検出する付着物検出部と、を備えたことを特徴とする請求項1記載の移動体用カメラ装置。   The detection unit binarizes the difference image extracted by the difference processing unit and extracts a candidate image of a deposit, and generates a grayscale image by integrating the candidate images of the deposit, The moving body camera device according to claim 1, further comprising an attached matter detection unit that detects an image obtained by binarizing the density of the grayscale image with a preset threshold as an image of the attached matter. 前記検出部は、前記付着物検出部からの付着物の画像をラベリング処理し、前記ラベリング処理した画像の面積が所定の面積以上になったときに警告用の信号を表示部に出力することを特徴とする請求項3記載の移動体用カメラ装置。   The detection unit performs labeling processing on the image of the deposit from the deposit detection unit, and outputs a warning signal to the display unit when the area of the image subjected to the labeling processing exceeds a predetermined area. The moving body camera device according to claim 3. カメラのレンズに付着した付着物の検出方法であって、
移動体に設置されたカメラで前記移動体の周辺を順次異なるタイミングで撮像し、
前記カメラで撮影した時間的に前後する第1、第2の画像のうち前時刻の第1の画像を前記移動体の移動量に応じてシフトし、前記第2の画像と同位相の画像に変換し、
前記第2の画像と前記変換した画像との差分を抽出し、
抽出した前記差分画像を積算して濃淡画像を生成し、
前記濃淡画像の濃度を予め設定した閾値で2値化した画像を付着物の画像として検出し、
前記付着物の画像の面積が予め設定した面積以上になったとき警告報知することを特徴とする付着物の検出方法。
A method for detecting deposits attached to a lens of a camera,
The surroundings of the moving body are sequentially imaged at different timings with a camera installed on the moving body,
Of the first and second images taken before and after the time taken by the camera, the first image at the previous time is shifted according to the amount of movement of the moving body, and the image has the same phase as the second image. Converted,
Extracting a difference between the second image and the converted image;
The extracted difference images are integrated to generate a gray image,
An image obtained by binarizing the density of the grayscale image with a preset threshold value is detected as an image of the attached matter,
An adhering matter detection method, wherein a warning is notified when an area of the image of the adhering matter exceeds a preset area.
JP2009121923A 2009-05-20 2009-05-20 Camera device for mobile object and method of detecting attachment Pending JP2010273014A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009121923A JP2010273014A (en) 2009-05-20 2009-05-20 Camera device for mobile object and method of detecting attachment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009121923A JP2010273014A (en) 2009-05-20 2009-05-20 Camera device for mobile object and method of detecting attachment

Publications (1)

Publication Number Publication Date
JP2010273014A true JP2010273014A (en) 2010-12-02

Family

ID=43420710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009121923A Pending JP2010273014A (en) 2009-05-20 2009-05-20 Camera device for mobile object and method of detecting attachment

Country Status (1)

Country Link
JP (1) JP2010273014A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014007153A1 (en) * 2012-07-03 2014-01-09 クラリオン株式会社 Vehicle surrounding monitoring device
JP2015153295A (en) * 2014-02-18 2015-08-24 クラリオン株式会社 Environment recognition system, vehicle, and camera dirt detection method
WO2016002308A1 (en) * 2014-07-01 2016-01-07 クラリオン株式会社 Vehicle-mounted imaging device
JP5859652B2 (en) * 2012-07-27 2016-02-10 日産自動車株式会社 Water drop detection device and three-dimensional object detection device using water drop detection device
WO2016072300A1 (en) * 2014-11-04 2016-05-12 株式会社デンソー Vehicle periphery image display device and vehicle periphery image display method
JPWO2014007294A1 (en) * 2012-07-03 2016-06-02 クラリオン株式会社 In-vehicle device
WO2018096953A1 (en) * 2016-11-22 2018-05-31 ソニー株式会社 Image pickup device, display system, and display method
JP2018523223A (en) * 2015-07-02 2018-08-16 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH Detection of lens contamination using expected edge trajectories
JP2021051377A (en) * 2019-09-20 2021-04-01 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP7463159B2 (en) 2020-03-26 2024-04-08 株式会社デンソーテン Droplet Detector

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014007153A1 (en) * 2012-07-03 2014-01-09 クラリオン株式会社 Vehicle surrounding monitoring device
US9473718B2 (en) 2012-07-03 2016-10-18 Clarion Co., Ltd. Vehicle surroundings monitoring device
JPWO2014007294A1 (en) * 2012-07-03 2016-06-02 クラリオン株式会社 In-vehicle device
JPWO2014007153A1 (en) * 2012-07-03 2016-06-02 クラリオン株式会社 Vehicle perimeter monitoring device
JP5859652B2 (en) * 2012-07-27 2016-02-10 日産自動車株式会社 Water drop detection device and three-dimensional object detection device using water drop detection device
WO2015125590A1 (en) * 2014-02-18 2015-08-27 クラリオン株式会社 External-environment recognition system, vehicle, and camera-dirtiness detection method
JP2015153295A (en) * 2014-02-18 2015-08-24 クラリオン株式会社 Environment recognition system, vehicle, and camera dirt detection method
CN106464791A (en) * 2014-07-01 2017-02-22 歌乐株式会社 Vehicle-mounted imaging device
WO2016002308A1 (en) * 2014-07-01 2016-01-07 クラリオン株式会社 Vehicle-mounted imaging device
JP2016015583A (en) * 2014-07-01 2016-01-28 クラリオン株式会社 On-vehicle imaging device
CN106464791B (en) * 2014-07-01 2019-06-25 歌乐株式会社 Car-mounted device
JP2016091250A (en) * 2014-11-04 2016-05-23 株式会社デンソー Vehicle surrounding image display apparatus and vehicle surrounding image display method
WO2016072300A1 (en) * 2014-11-04 2016-05-12 株式会社デンソー Vehicle periphery image display device and vehicle periphery image display method
JP2018523223A (en) * 2015-07-02 2018-08-16 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH Detection of lens contamination using expected edge trajectories
WO2018096953A1 (en) * 2016-11-22 2018-05-31 ソニー株式会社 Image pickup device, display system, and display method
JPWO2018096953A1 (en) * 2016-11-22 2019-10-17 ソニー株式会社 Imaging apparatus, display system and method
US11124117B2 (en) 2016-11-22 2021-09-21 Sony Corporation Imaging device, display system, and display method
JP2021051377A (en) * 2019-09-20 2021-04-01 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP7156225B2 (en) 2019-09-20 2022-10-19 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP7463159B2 (en) 2020-03-26 2024-04-08 株式会社デンソーテン Droplet Detector

Similar Documents

Publication Publication Date Title
JP2010273014A (en) Camera device for mobile object and method of detecting attachment
US9836657B2 (en) System and method for periodic lane marker identification and tracking
JP6117634B2 (en) Lens adhesion detection apparatus, lens adhesion detection method, and vehicle system
WO2016017340A1 (en) Surrounding environment recognition device
JP5887219B2 (en) Lane departure warning device
US7583182B2 (en) Lane departure warning method and apparatus
JP5597454B2 (en) Abnormal traveling vehicle detection system and road monitoring program
JP5576937B2 (en) Vehicle periphery monitoring device
JP2010108264A (en) Vehicle periphery monitoring device
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP2010146494A (en) Vehicle surroundings monitoring device
JP4988781B2 (en) Vehicle periphery monitoring device
JP4644273B2 (en) Vehicle periphery monitoring device
JP2010210477A (en) Navigation device
JP4864953B2 (en) Vehicle periphery monitoring device
JP5175765B2 (en) Image processing apparatus and traffic monitoring apparatus
JP4887540B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP4321410B2 (en) Object detection apparatus and method
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP5642785B2 (en) Vehicle periphery monitoring device
JP2004030484A (en) Traffic information providing system
JP4615061B2 (en) Vehicle periphery monitoring device
JP2008028478A (en) Obstacle detection system, and obstacle detecting method
JP2004364112A (en) Device for displaying vehicle surroundings
JP6362945B2 (en) In-vehicle image processing device