JP7210882B2 - Attached matter detection device and attached matter detection method - Google Patents

Attached matter detection device and attached matter detection method Download PDF

Info

Publication number
JP7210882B2
JP7210882B2 JP2018013947A JP2018013947A JP7210882B2 JP 7210882 B2 JP7210882 B2 JP 7210882B2 JP 2018013947 A JP2018013947 A JP 2018013947A JP 2018013947 A JP2018013947 A JP 2018013947A JP 7210882 B2 JP7210882 B2 JP 7210882B2
Authority
JP
Japan
Prior art keywords
detection
unit
adhering matter
detection area
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018013947A
Other languages
Japanese (ja)
Other versions
JP2019133333A (en
Inventor
信徳 朝山
大輔 山本
修久 池田
貴 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018013947A priority Critical patent/JP7210882B2/en
Priority to US16/217,743 priority patent/US10789502B2/en
Publication of JP2019133333A publication Critical patent/JP2019133333A/en
Application granted granted Critical
Publication of JP7210882B2 publication Critical patent/JP7210882B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

開示の実施形態は、付着物検出装置および付着物検出方法に関する。 The disclosed embodiments relate to a deposit detection device and a deposit detection method.

従来、車両に搭載され、かかる車両周辺を撮像する車載カメラが知られている。車載カメラが撮像した映像は、たとえば運転者の視界補助のためにモニタ表示されたり、道路上の白線や車両への接近物などを検出するセンシングのために用いられたりする。 Conventionally, an in-vehicle camera that is mounted on a vehicle and captures an image of the surroundings of the vehicle is known. Images captured by an in-vehicle camera are displayed on a monitor to assist the driver's vision, or are used for sensing to detect white lines on the road, objects approaching the vehicle, and the like.

なお、車載カメラのレンズには、たとえば雨滴や雪片、埃、泥などの付着物が付着し、前述の視界補助やセンシングの妨げとなることがある。そこで、車載カメラのレンズへ向けて洗浄水や圧縮空気を噴射することで付着物を除去する技術が提案されている。かかる技術では、たとえば車載カメラの撮像画像を画像解析することによってレンズへの付着物を検出する(たとえば、特許文献1参照)。 It should be noted that, for example, raindrops, snowflakes, dust, mud, and other deposits may adhere to the lens of the vehicle-mounted camera, interfering with the vision assistance and sensing described above. Therefore, a technology has been proposed to remove the deposits by injecting cleaning water or compressed air toward the lens of the vehicle-mounted camera. In such a technique, for example, an object attached to a lens is detected by image analysis of an image captured by an in-vehicle camera (see Patent Document 1, for example).

特開2001-141838号公報Japanese Patent Application Laid-Open No. 2001-141838

しかしながら、上述した従来技術には、付着物の検出漏れを抑制するという点で、さらなる改善の余地がある。 However, the conventional technology described above has room for further improvement in terms of suppressing failures in detection of adhering matter.

たとえば、付着物が雨滴のような水滴である場合、水滴の見え方は、車両の移動によって変化する背景や水滴の厚みなどによって都度変化するため、安定的に検出することが難しく、検出漏れが生じるおそれがあった。 For example, if the adhering matter is water droplets such as raindrops, the appearance of the water droplets changes depending on the background that changes as the vehicle moves and the thickness of the water droplets. could have occurred.

実施形態の一態様は、上記に鑑みてなされたものであって、付着物の検出漏れを抑制することができる付着物検出装置および付着物検出方法を提供することを目的とする。 One aspect of the embodiments has been made in view of the above, and an object thereof is to provide an adhering matter detection device and an adhering matter detection method capable of suppressing detection omissions of adhering matter.

実施形態の一態様に係る付着物検出装置は、検出部と、判定部とを備える。前記検出部は、撮像装置に付着した付着物の撮像画像中における位置を所定の第1条件に基づいて検出する。前記判定部は、時系列に並んだ前記撮像画像について複数回にわたって検出される前記位置に関する情報に基づいて当該位置における前記付着物の存否を判定する。また、前記判定部は、前記検出部によって前記位置が検出された場合に、前記第1条件よりも緩和された第2条件に基づいて前記検出部に前記位置を検出させる。 An attached matter detection device according to an aspect of an embodiment includes a detection unit and a determination unit. The detection unit detects a position in a captured image of an object attached to the imaging device based on a predetermined first condition. The determination unit determines whether or not the adhering matter exists at the position based on information regarding the position detected a plurality of times with respect to the captured images arranged in time series . Further, when the position is detected by the detection section, the determination section causes the detection section to detect the position based on a second condition that is relaxed compared to the first condition.

実施形態の一態様によれば、付着物の検出漏れを抑制することができる。 According to one aspect of the embodiment, it is possible to suppress detection omissions of adhering matter.

図1Aは、従来技術に係る付着物検出方法の概要説明図である。FIG. 1A is a schematic explanatory diagram of a conventional adhering matter detection method. 図1Bは、第1の実施形態に係る付着物検出方法の概要説明図である。FIG. 1B is a schematic explanatory diagram of the attached matter detection method according to the first embodiment. 図2は、第1の実施形態に係る自動駐車システムのブロック図である。FIG. 2 is a block diagram of the automatic parking system according to the first embodiment. 図3は、ベクトルの算出方法を示す図である。FIG. 3 is a diagram showing a vector calculation method. 図4Aは、代表値の算出方法の説明図(その1)である。FIG. 4A is an explanatory diagram (Part 1) of a method of calculating a representative value. 図4Bは、代表値の算出方法の説明図(その2)である。FIG. 4B is an explanatory diagram (part 2) of the method of calculating the representative value. 図5Aは、テンプレートの一例を示す図である。FIG. 5A is a diagram showing an example of a template. 図5Bは、マッチング処理の一例を示す図である。FIG. 5B is a diagram illustrating an example of matching processing. 図6は、検出エリアの抽出処理の一例を示す図である。FIG. 6 is a diagram illustrating an example of detection area extraction processing. 図7Aは、検出部からの通知内容の一例を示す図である。FIG. 7A is a diagram illustrating an example of notification content from a detection unit; 図7Bは、検出情報に含まれる検出エリアに関するデータ内容の一例を示す図である。FIG. 7B is a diagram showing an example of the data content regarding the detection area included in the detection information. 図7Cは、検出エリアの状態の説明図である。FIG. 7C is an explanatory diagram of the state of the detection area. 図8Aは、判定部の処理説明図(その1)である。FIG. 8A is a diagram (part 1) for explaining the processing of the determination unit; 図8Bは、判定部の処理説明図(その2)である。FIG. 8B is a process explanatory diagram (part 2) of the determination unit; 図8Cは、判定部の処理説明図(その3)である。FIG. 8C is a diagram (part 3) for explaining the processing of the determination unit; 図8Dは、判定部の処理説明図(その4)である。FIG. 8D is a diagram (part 4) for explaining the processing of the determination unit; 図9は、フィードバック後の検出部の処理説明図である。FIG. 9 is a process explanatory diagram of the detection unit after feedback. 図10は、第1の実施形態に係る付着物検出装置が実行する処理手順を示すフローチャートである。FIG. 10 is a flow chart showing a processing procedure executed by the adhering matter detection device according to the first embodiment. 図11Aは、第1の実施形態に係る処理の流れを示す図である。FIG. 11A is a diagram showing the flow of processing according to the first embodiment. 図11Bは、第1の変形例に係る処理の流れを示す図である。FIG. 11B is a diagram showing the flow of processing according to the first modification. 図11Cは、第2の変形例に係る処理の流れを示す図である。FIG. 11C is a diagram showing the flow of processing according to the second modification. 図12は、第2の実施形態に係る付着物除去システムのブロック図である。FIG. 12 is a block diagram of a deposit removing system according to the second embodiment.

以下、添付図面を参照して、本願の開示する付着物検出装置および付着物検出方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 DETAILED DESCRIPTION OF THE INVENTION Embodiments of the attached matter detection device and the attached matter detection method disclosed in the present application will be described in detail below with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.

また、以下では、自車の周囲を撮像するために車両に搭載された車載カメラに付着した水滴を、付着物として検出する場合を例に挙げて説明する。 Moreover, below, the case where the waterdrop which adhered to the vehicle-mounted camera mounted in the vehicle in order to image the surroundings of the own vehicle is detected as an attachment is mentioned as an example, and is demonstrated.

また、以下では、第1の実施形態に係る付着物検出方法の概要について図1Aおよび図1Bを用いて説明した後に、第1の実施形態に係る付着物検出方法を適用した付着物検出装置10について、図2~図11Cを用いて説明する。また、図12を用いて、第2の実施形態に係る付着物除去システム1Aについて説明する。 Further, in the following, after an overview of the attached matter detection method according to the first embodiment is described with reference to FIGS. 1A and 1B, an attached matter detection apparatus 10 to which the attached matter detection method according to the first embodiment is applied will be described with reference to FIGS. 2 to 11C. Also, with reference to FIG. 12, a deposit removal system 1A according to the second embodiment will be described.

(第1の実施形態)
まず、本実施形態に係る付着物検出方法の概要について図1Aおよび図1Bを用いて説明する。図1Aは、従来技術に係る付着物検出方法の概要説明図である。また、図1Bは、本実施形態に係る付着物検出方法の概要説明図である。
(First embodiment)
First, an overview of the attached matter detection method according to the present embodiment will be described with reference to FIGS. 1A and 1B. FIG. 1A is a schematic explanatory diagram of a conventional adhering matter detection method. Moreover, FIG. 1B is a schematic explanatory diagram of the attached matter detection method according to the present embodiment.

車両には、自車の周辺を撮像するために、たとえばフロントカメラ、バックカメラ、右サイドカメラ、左サイドカメラなどの車載カメラが搭載される。なお、以下では、かかる車載カメラを「カメラ2」と記載する。 Vehicles are equipped with in-vehicle cameras such as a front camera, a back camera, a right side camera, and a left side camera, in order to capture images of the surroundings of the vehicle. In addition, below, such a vehicle-mounted camera is described as "camera 2."

カメラ2は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、かかる撮像素子によって車両周辺を撮像する。なお、カメラ2のレンズには魚眼レンズなどの広角レンズが採用され、カメラ2はそれぞれ180度以上の画角を有し、これらを利用することで車両の全周囲を撮像することが可能である。 The camera 2 includes an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and images the surroundings of the vehicle with the imaging element. A wide-angle lens such as a fish-eye lens is adopted as the lens of the camera 2, and each camera 2 has an angle of view of 180 degrees or more.

そして、カメラ2によって撮像された画像は、車両に搭載された図示略の付着物検出装置へ出力される。 An image captured by the camera 2 is output to an attached matter detection device (not shown) mounted on the vehicle.

付着物検出装置は、カメラ2から取得した画像を1フレームごとに画像解析し、たとえばテンプレートマッチングなどの手法を用いることによって、画像中における付着物の存在エリアを検出する。 The adhering substance detection device analyzes the image acquired from the camera 2 frame by frame, and detects the presence area of the adhering substance in the image by using a technique such as template matching.

たとえば図1Aに示すように、時間的に連続するフレームF1~F5の各画像があり、付着物検出装置は、フレームF1~F5のそれぞれにおいて、付着物が存在するエリアとして検出エリアDa-1を検出したものとする。かかる場合、付着物検出装置は、検出エリアDa-1が安定的に検出できていることから、容易に、検出エリアDa-1に付着物が付着していることを確定(以下、「付着確定」と言う場合がある)することができる。 For example, as shown in FIG. 1A, there are temporally consecutive images of frames F1 to F5. shall be detected. In this case, since the detection area Da-1 can be stably detected, the attached matter detection device can easily determine that the attached matter is attached to the detection area Da-1 (hereinafter referred to as "attachment confirmation ”) can be done.

ただし、付着物が水滴である場合、画像中の水滴の見え方は、車両の移動によって変化する背景や水滴の厚みなどによって都度変化するため、図1Aに検出エリアDa-2として示すように、フレームによって検出されたり検出されなかったりと、検出が不安定になりやすい。すなわち、付着物検出装置は、検出エリアDa-2における付着物の「付着確定」を判定できずに、付着物の検出漏れが生じるおそれがある。 However, when the adhering matter is water droplets, the appearance of the water droplets in the image changes depending on the background that changes with the movement of the vehicle and the thickness of the water droplets. Detection tends to be unstable, being detected and not detected depending on the frame. In other words, the adhering matter detection device cannot determine whether the adhering matter is "determined" in the detection area Da-2, and there is a possibility that the adhering matter detection failure occurs.

そこで、本実施形態に係る付着物検出方法では、あるフレームにおいて所定の条件に基づいて付着物が存在するとして検出された検出エリアを、時間的に後のフレームにおいても継承することとした。また、継承された検出エリアにおいては、付着物が存在する可能性が高いと推定されることから、上記所定の条件よりも緩和された条件で付着物の存否を判定することとした。 Therefore, in the adhering matter detection method according to the present embodiment, a detection area in which an adhering matter is detected based on a predetermined condition in a certain frame is inherited in temporally subsequent frames. In addition, since it is estimated that there is a high possibility that an adhering matter exists in the inherited detection area, the presence or absence of an adhering matter is determined under a condition that is less severe than the predetermined condition.

具体的には、図1Bに示すように、本実施形態に係る付着物検出方法では、たとえばフレームF1において所定の第1条件で検出エリアDa-2が検出された場合に(ステップS1)、直後のフレームF2に検出エリアDa-2を継承する(ステップS2)。 Specifically, as shown in FIG. 1B, in the attached matter detection method according to the present embodiment, for example, when the detection area Da-2 is detected under a predetermined first condition in the frame F1 (step S1), immediately after The detection area Da-2 is inherited to the frame F2 of (step S2).

そして、本実施形態に係る付着物検出方法では、継承された検出エリアDa-2では、第1条件よりも緩和された第2条件で付着物の存否を判定する(ステップS3)。そして、かかるステップS3での判定の結果、フレームF2でも検出エリアDa-2には付着物が存在すると判定されたならば、かかるフレームF2の検出エリアDa-2はつづいてフレームF3でも継承され、以降、フレームF4,F5にも同様に引き継がれることとなる。 Then, in the attached matter detection method according to the present embodiment, in the inherited detection area Da-2, the presence or absence of the attached matter is determined under the second condition, which is more relaxed than the first condition (step S3). Then, as a result of the determination in step S3, if it is determined that an adhering matter exists in the detection area Da-2 in the frame F2 as well, the detection area Da-2 in the frame F2 is inherited in the frame F3 as well, After that, the frames F4 and F5 will be taken over in the same way.

これにより、付着物が水滴などである場合の、検出の不安定さを解消することができる。したがって、本実施形態に係る付着物検出方法によれば、付着物の検出漏れを抑制することができる。 This can eliminate the instability of detection when the adhering matter is water droplets or the like. Therefore, according to the adhering matter detection method according to the present embodiment, it is possible to suppress detection omissions of adhering matter.

また、本実施形態に係る付着物検出方法によれば、一旦検出された検出エリアなどの検出結果を、後段の解析処理などにおいて有効に活用することができるので、システム全体の処理負荷を軽減できるとともに、処理速度の向上ならびに検出精度の向上を見込むことができる。 In addition, according to the attached matter detection method according to the present embodiment, the detection results of the detection area and the like that have been detected once can be effectively used in subsequent analysis processing, etc., so that the processing load of the entire system can be reduced. At the same time, improvement in processing speed and detection accuracy can be expected.

以下、上述した付着物検出方法を適用した付着物検出装置10の実施形態について、さらに具体的に説明する。 An embodiment of the adhering matter detection device 10 to which the above-described adhering matter detection method is applied will be described below in more detail.

図2は、本実施形態に係る自動駐車システム1のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。 FIG. 2 is a block diagram of the automatic parking system 1 according to this embodiment. In addition, in FIG. 2, only the components necessary for explaining the features of the present embodiment are represented by functional blocks, and the description of general components is omitted.

換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。たとえば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component illustrated in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. For example, the specific forms of distribution and integration of each functional block are not limited to those shown in the figure, and all or part of them can be functionally or physically distributed in arbitrary units according to various loads and usage conditions.・It is possible to integrate and configure.

図2に示すように、自動駐車システム1は、カメラ2と、駐車制御装置3と、付着物検出装置10とを含む。 As shown in FIG. 2, the automatic parking system 1 includes a camera 2, a parking control device 3, and an adhering matter detection device 10. As shown in FIG.

カメラ2については既に述べたため、ここでの説明を省略する。駐車制御装置3は、カメラ2の撮像画像に基づき、たとえば駐車場内で空いている駐車スペースを認識した場合などに、車両を自動的に駐車制御する。また、駐車制御装置3は、判定部11cが付着物の付着を確定させ、指示部11dから付着物の位置が指示された場合に、安全のために車両の駐車制御を停止する。 Since the camera 2 has already been described, its description is omitted here. The parking control device 3 automatically controls the parking of the vehicle based on the image captured by the camera 2 when, for example, an empty parking space is recognized in the parking lot. Further, the parking control device 3 stops the parking control of the vehicle for safety when the determination unit 11c confirms the adhesion of the deposit and the instruction unit 11d instructs the position of the deposit.

付着物検出装置10は、制御部11と、記憶部12とを備える。制御部11は、取得部11aと、検出部11bと、判定部11cと、指示部11dとを備える。検出部11bは、抽出部11baと、除外部11bbとを含む。 The adhering matter detection device 10 includes a control section 11 and a storage section 12 . The control unit 11 includes an acquisition unit 11a, a detection unit 11b, a determination unit 11c, and an instruction unit 11d. The detection unit 11b includes an extraction unit 11ba and an exclusion unit 11bb.

記憶部12は、ハードディスクドライブや不揮発性メモリ、レジスタといった記憶デバイスであって、テンプレート情報12aと、条件情報12bと、検出情報12cとを記憶する。 The storage unit 12 is a storage device such as a hard disk drive, a nonvolatile memory, or a register, and stores template information 12a, condition information 12b, and detection information 12c.

制御部11は、付着物検出装置10全体を制御する。取得部11aは、カメラ2から1フレーム分ずつカメラ画像を取得するとともに、画像解析に必要となる前処理を実行する。 The control unit 11 controls the attached matter detection device 10 as a whole. The acquiring unit 11a acquires a camera image frame by frame from the camera 2, and performs preprocessing necessary for image analysis.

取得部11aは、前処理として、たとえばカメラ画像をグレースケール化する。なお、グレースケール化とは、カメラ画像における各画素を輝度に応じて白から黒までの各階調で表現するように変換する処理である。かかるグレースケール化は、省略されてもよい。また、取得部11aは、他の前処理として、たとえばカメラ画像を所定のサイズへ変更する。また、取得部11aは、前処理されたカメラ画像を検出部11bへ出力する。 Acquisition unit 11a grayscales a camera image, for example, as preprocessing. It should be noted that grayscaling is a process of converting each pixel in a camera image so as to be expressed in each gradation from white to black according to luminance. Such grayscaling may be omitted. In addition, as another preprocessing, the acquisition unit 11a changes the size of the camera image to a predetermined size, for example. The acquisition unit 11a also outputs the preprocessed camera image to the detection unit 11b.

検出部11bは、所定の検出アルゴリズムに基づき、カメラ画像中において付着物の付着する検出エリアDaを検出し、判定部11cへ通知する。 Based on a predetermined detection algorithm, the detection unit 11b detects the detection area Da in which the adhering matter adheres in the camera image, and notifies the determination unit 11c.

抽出部11baは、上述の検出アルゴリズムを用いてカメラ画像の中から付着物が存在すると推定される検出エリアDaを抽出し、抽出した検出エリアDaを除外部11bbへ通知する。 The extraction unit 11ba extracts a detection area Da in which an adhering matter is estimated to exist from the camera image using the detection algorithm described above, and notifies the extraction unit 11bb of the extracted detection area Da.

ここで、抽出部11baが実行する検出アルゴリズムの一例について、具体的に図3~図6を用いて説明する。図3は、ベクトルの算出方法を示す図である。また、図4Aおよび図4Bは、代表値の算出方法の説明図(その1)および(その2)である。 Here, an example of the detection algorithm executed by the extraction unit 11ba will be specifically described with reference to FIGS. 3 to 6. FIG. FIG. 3 is a diagram showing a vector calculation method. 4A and 4B are explanatory diagrams (part 1) and (part 2) of the method of calculating the representative value.

また、図5Aは、テンプレートの一例を示す図である。また、図5Bは、マッチング処理の一例を示す図である。また、図6は、抽出処理の一例を示す図である。 Also, FIG. 5A is a diagram showing an example of a template. FIG. 5B is a diagram showing an example of matching processing. Moreover, FIG. 6 is a figure which shows an example of an extraction process.

抽出部11baは、取得部11aから入力されるカメラ画像にたとえばソベルフィルタを用いることで、カメラ画像における各画素のエッジ情報を抽出する。ここで、エッジ情報とは、各画素のX軸方向およびY軸方向におけるエッジ強度を指す。 The extraction unit 11ba extracts edge information of each pixel in the camera image by using, for example, a Sobel filter for the camera image input from the acquisition unit 11a. Here, edge information refers to the edge intensity of each pixel in the X-axis direction and the Y-axis direction.

なお、抽出部11baは、ソベルフィルタに代えて、たとえばラプラシアンフィルタなどの他のエッジ抽出法を用いることにしてもよい。 Note that the extraction unit 11ba may use another edge extraction method such as a Laplacian filter instead of the Sobel filter.

また、抽出部11baは、抽出した各画素のX軸方向およびY軸方向のエッジ強度に基づいて各画素のエッジのベクトルを算出する。具体的には、抽出部11baは、図3に示すように、X軸方向およびY軸方向のエッジ強度に基づき、三角関数を用いることで、各画素のベクトルを算出する。 The extraction unit 11ba also calculates the vector of the edge of each pixel based on the extracted edge strength in the X-axis direction and the Y-axis direction of each pixel. Specifically, as shown in FIG. 3, the extraction unit 11ba calculates the vector of each pixel using a trigonometric function based on the edge strength in the X-axis direction and the Y-axis direction.

なお、以下では、図3に示す算出したベクトルと、正方向側のX軸とのなす角度θを「エッジ向き」と言い、ベクトルの長さLを各画素の「エッジ強度」と言う。 In the following description, the angle θ between the calculated vector shown in FIG. 3 and the X-axis in the positive direction is referred to as "edge direction", and the length L of the vector is referred to as "edge strength" of each pixel.

また、抽出部11baは、全ての画素についてエッジ向きを算出する必要はなく、優先度の低い領域については、所定間隔の画素ごとにエッジ向きを算出するなど、処理を簡略化することとしてもよい。 In addition, the extraction unit 11ba does not need to calculate the edge orientation for all pixels, and may simplify the process by calculating the edge orientation for each pixel at a predetermined interval for regions with low priority. .

また、抽出部11baは、算出したエッジ向きをそれぞれ符号化する。たとえば、抽出部11baは、複数の画素におけるエッジの代表値を求め、かかる代表値を符号化する。具体的には、図4Aに示すように、抽出部11baは、たとえば8×8ピクセルの画素単位を1つの「セル」として取り扱い、3×3セルの画素単位を1つの「ブロック」として取り扱う。また、1つのブロックの中央のセルを「注目セル」として取り扱う。 The extraction unit 11ba also encodes the calculated edge directions. For example, the extraction unit 11ba obtains a representative value of edges in a plurality of pixels and encodes the representative value. Specifically, as shown in FIG. 4A, the extraction unit 11ba handles, for example, a pixel unit of 8×8 pixels as one “cell” and a pixel unit of 3×3 cells as one “block”. Also, the center cell of one block is treated as a "target cell".

抽出部11baは、ブロックごとに各画素のエッジ向きおよびエッジ強度を示すヒストグラムを作成する。かかるヒストグラムについては、図4Bを用いて説明する。ここで、抽出部11baは、注目セルにおける中央の座標のエッジ向きをブロックにおけるヒストグラムから導出する。 The extraction unit 11ba creates a histogram indicating the edge direction and edge strength of each pixel for each block. Such a histogram will be explained using FIG. 4B. Here, the extracting unit 11ba derives the edge direction of the coordinates of the center of the cell of interest from the histogram of the block.

そして、抽出部11baは、1つのブロックにおいて注目セルの代表値を導出すると、ブロックを1つのセル分ずらしてヒストグラムを作成し、かかるブロックにおける注目セルの代表値を算出していく。 After deriving the representative value of the cell of interest in one block, the extraction unit 11ba creates a histogram by shifting the block by one cell, and calculates the representative value of the cell of interest in the block.

つまり、抽出部11baでは、複数の画素ごとに代表値を算出することで、データ量を削減することができる。なお、図4Aに示す例では、セルが8×8ピクセルであるため、データ量は1/64に削減されることとなる。 That is, the extraction unit 11ba can reduce the amount of data by calculating the representative value for each of a plurality of pixels. In addition, in the example shown in FIG. 4A, since the cell is 8×8 pixels, the data amount is reduced to 1/64.

なお、図4Aに示したブロックおよびセルのピクセル数は一例であって、セルおよびブロックのピクセル数は、任意に設定することができる。この際、検出したい水滴の大きさに応じて各セルのピクセル数を変更することもできる。 Note that the numbers of pixels in the blocks and cells shown in FIG. 4A are examples, and the numbers of pixels in the cells and blocks can be set arbitrarily. At this time, the number of pixels in each cell can be changed according to the size of the water droplet to be detected.

たとえば、小さい水滴を検出したい場合、セルのピクセル数を少なく設定し、大きい水滴を検出したい場合は、セルのピクセル数を多く設定する。これにより、検出したい大きさの水滴を効率よく検出することができる。 For example, to detect small water droplets, the number of cell pixels is set to be small, and to detect large water droplets, the number of cell pixels is set to be large. As a result, it is possible to efficiently detect water droplets of a size desired to be detected.

また、抽出部11baは、単にセルごとにヒストグラムを作成し、かかるヒストグラムに基づいて各セルの代表値を算出することにしてもよい。なお、抽出部11baは、代表値を算出せず、全ての画素を符号化することにしてもよい。 Alternatively, the extraction unit 11ba may simply create a histogram for each cell and calculate the representative value of each cell based on the histogram. Note that the extraction unit 11ba may encode all the pixels without calculating the representative value.

次に、図4Bを用いてヒストグラムについて説明する。なお、図4Bでは、縦軸にエッジ強度を示し、横軸にエッジ向きの階級を示す。図4Bに示すように、抽出部11baは、たとえば、エッジ向きを20°ごとに18段階の各階級に割り当ててヒストグラムを作成する。 Next, the histogram will be explained using FIG. 4B. In FIG. 4B, the vertical axis indicates the edge strength, and the horizontal axis indicates the class of the edge direction. As shown in FIG. 4B , the extraction unit 11ba creates a histogram by assigning edge orientations to 18-level classes every 20°, for example.

具体的には、抽出部11baは、ブロック内の各画素のエッジ強度をエッジ向きに対応する階級に加算していくことで、ブロックにおけるヒストグラムを作成する。つづいて、抽出部11baは、作成したヒストグラムからエッジ強度の和が最大となる階級を求める。 Specifically, the extraction unit 11ba creates a histogram for the block by adding the edge intensity of each pixel in the block to the class corresponding to the edge direction. Subsequently, the extraction unit 11ba obtains a class that maximizes the sum of edge strengths from the created histogram.

図4Bに示す例では、80~100°の階級が最大の値をとる場合を示している。このとき、抽出部11baは、かかる階級においてエッジ強度の和が閾値以上である場合に、かかる階級を代表値とする。 The example shown in FIG. 4B shows the case where the class of 80 to 100° takes the maximum value. At this time, if the sum of edge strengths in this class is equal to or greater than the threshold, the extraction unit 11ba takes this class as the representative value.

図4Bに示す例では、80~100°の階級においてエッジ強度の和が閾値を超えているため、上記の条件を満たす。このため、かかるブロックにおける注目セルの階級は、80~100°となる。 In the example shown in FIG. 4B, the sum of the edge strengths exceeds the threshold in the class of 80 to 100 degrees, so the above conditions are met. Therefore, the class of the cell of interest in such a block is 80 to 100 degrees.

つづいて、抽出部11baは、注目セルを階級に応じて割り当てられた符号に変換する。ここで、各階級には、たとえば0~9およびA~Hの18種類の符号がそれぞれ割り当てられる。なお、0~9およびA~Hは、0°から360°まで20度刻みの各階級に割り当てられる符号である。また、代表値が閾値を超えなかった場合、すなわち、エッジ強度が低いセルには、たとえばZの符号が割り当てられる。 Subsequently, the extraction unit 11ba converts the cell of interest into a code assigned according to the class. Here, 18 types of codes 0 to 9 and A to H, for example, are assigned to each class. 0 to 9 and A to H are codes assigned to each class from 0° to 360° in 20° increments. Also, when the representative value does not exceed the threshold, that is, the cell with low edge strength is assigned a code of Z, for example.

このようにして、抽出部11baは、全てのセルについて符号化を行う。これにより、符号化されたカメラ画像において、各符号が格子状に配列されることとなる。なお、抽出部11baは、上記した代表値を算出する以外に、他の統計学的な算出方法を用いて代表値を算出することにしてもよい。 In this manner, the extraction unit 11ba encodes all cells. As a result, each code is arranged in a grid pattern in the encoded camera image. Note that the extraction unit 11ba may calculate the representative value using another statistical calculation method other than calculating the representative value described above.

また、図4Bでは、エッジ向きを18段階に分類する場合について説明したが、これに限られず、18段階より少なくする、あるいは、多くすることにしてもよい。また、図4Bでは、符号がA~HおよびZである場合を示したが、符号として、平仮名や数字など、他の文字、または図形等を用いることにしてもよい。 Also, FIG. 4B describes the case where the edge orientations are classified into 18 levels, but the invention is not limited to this, and the number may be less or more than 18 levels. In addition, although FIG. 4B shows the case where the codes are A to H and Z, other characters such as hiragana and numbers, or graphics may be used as the codes.

つづいて、抽出部11baは、符号化されたカメラ画像と水滴の特徴を示す符号パターンとの正規表現を用いたマッチング処理を行う。ここで、正規表現とは、符号列の集合を一つの符号で表したものである。 Subsequently, the extraction unit 11ba performs matching processing using a regular expression between the encoded camera image and the code pattern indicating the characteristics of water droplets. Here, a regular expression represents a set of code strings with one code.

水滴の特徴を示す符号パターンであるテンプレートは、記憶部12にテンプレート情報12aとして記憶される。かかるテンプレートの一例を図5Aに示す。なお、図5Aでは、視覚的に分かりやすくするために、テンプレートを上記した符号ではなく、ピン状の記号を用いて実際のエッジ向きを模式的に図示している。 A template, which is a code pattern indicating the characteristics of water droplets, is stored in the storage unit 12 as template information 12a. An example of such a template is shown in FIG. 5A. In addition, in FIG. 5A, for the sake of visual clarity, the actual edge orientation is schematically illustrated using pin-shaped symbols instead of the above symbols for the templates.

図5Aに示すように、テンプレート情報12aは、テンプレートとして水滴の特徴を示す符号列である符号パターンを有する。具体的には、たとえば、上辺パターン、下辺パターン、左辺パターン、右辺パターンを有する。 As shown in FIG. 5A, the template information 12a has a code pattern, which is a code string representing the characteristics of water droplets, as a template. Specifically, for example, it has an upper side pattern, a lower side pattern, a left side pattern, and a right side pattern.

ここで、図5Aに示す各辺のパターンは、水滴を内側に含むまたは水滴の内側に含まれる矩形の各辺に対応する。ここで、「水滴を内側に含む」とは、矩形に水滴が内接する場合を含む。また、「水滴の内側に含まれる」とは、矩形が水滴に内接する場合を含む。なお、本実施形態では、「矩形」は正方形を含む。また、図5Aでは、各辺のパターンのエッジ向きが、それぞれ中央に向かう場合について示している。この場合、水滴の輝度が端部から中央に向けて大きくなる、すなわち、中央が明るく端部が暗い水滴の特徴を示す。 Here, the pattern of each side shown in FIG. 5A corresponds to each side of a rectangle that contains water droplets or is contained inside water droplets. Here, "water droplets are contained inside" includes the case where water droplets are inscribed in a rectangle. Also, "included inside the water droplet" includes the case where the rectangle is inscribed in the water droplet. In addition, in this embodiment, a "rectangle" includes a square. Also, FIG. 5A shows the case where the edge direction of the pattern on each side is directed toward the center. In this case, the brightness of the droplet increases from the edge to the center, ie, it exhibits the characteristics of a droplet that is bright in the center and dark at the edges.

なお、テンプレート情報12aは、これとは逆に、水滴の輝度が中央から端部に向けて大きくなる、すなわち、中央が暗く端部が明るい水滴の特徴を示す各辺のパターンを備えていてもよい。このようにすることで、多様な水滴を検出することが可能となる。 Conversely, the template information 12a may have a pattern on each side showing the characteristics of water droplets in which the brightness of the water droplets increases from the center to the ends, that is, the water droplets are dark at the center and bright at the ends. good. By doing so, it is possible to detect various water droplets.

なお、同図では、上下左右の4方のパターンを例示したが、斜め方向を含むパターンを用いることもできる。このようにすることで、水滴の検出精度を向上させることができる。 In addition, in the same figure, although the pattern of four directions of up-and-down and right-and-left was illustrated, the pattern including an oblique direction can also be used. By doing so, it is possible to improve the detection accuracy of water droplets.

抽出部11baは、かかる各辺のパターンを用いたマッチング処理の一例を図5Bに示す。なお、ここでは、説明の便宜上、図5Aに示した上辺パターンをそれぞれA~Fの符号を用いて示している。また、同図のaおよびbには、符号化されたカメラ画像の一部を模式的に示している。 FIG. 5B shows an example of matching processing using the pattern of each side of the extraction unit 11ba. Here, for convenience of explanation, the upper side patterns shown in FIG. 5A are indicated using symbols A to F, respectively. Parts of the encoded camera image are schematically shown in a and b of FIG.

図5Bのaに示すように、抽出部11baは、符号パターンがA~Fの順に順序良く並んでいれば、かかる符号パターンを上辺パターンと一致すると判定する。 As shown in FIG. 5B, the extracting unit 11ba determines that the code pattern matches the upper side pattern if the code patterns are arranged in the order of A to F in good order.

具体的には、抽出部11baは、図5Bのaに示すように、たとえば、Aが3回、B、C、DおよびEがそれぞれ2回、そして、Fが3回、のように繰り返される配列を上辺パターンの各符号の配列順序を満たせば、上辺パターンとして抽出することにしている。 Specifically, as shown in a of FIG. 5B, the extraction unit 11ba repeats, for example, A three times, B, C, D and E twice, and F three times. If the arrangement satisfies the arrangement order of each code of the upper side pattern, it is extracted as the upper side pattern.

これは、水滴の大きさに応じて符号の繰り返し回数が異なるためである。すなわち、水滴が大きいほど、各符号列の長さが長くなるためである。このように、かかる符号の繰り返しを許容することで、1回のマッチング処理で、大きさが異なる複数の水滴を示す符号列を抽出することができる。 This is because the number of repetitions of the code differs depending on the size of the water droplet. That is, the larger the water droplet, the longer the length of each code string. In this way, by permitting the repetition of such codes, it is possible to extract a code string indicating a plurality of water droplets of different sizes in a single matching process.

したがって、処理負荷を軽減しつつ、水滴を検出することができる。なお、抽出部11baは、水滴の大きさに応じて符号列の長さが異なる複数の各辺のパターンを用意し、全てのかかるパターンを用いて符号列を抽出することにしてもよい。 Therefore, it is possible to detect water droplets while reducing the processing load. Note that the extraction unit 11ba may prepare a plurality of patterns for each side having code strings of different lengths according to the size of the water droplet, and extract the code strings using all such patterns.

また、水滴は一般的に球状となるため、各符号の繰り返しの回数は、中心から線対称状となるはずである。このため、抽出部11baは、抽出した符号列の中で、バランスが悪い符号列を除外することにしている。 Also, since water droplets are generally spherical, the number of repetitions of each code should be line symmetrical from the center. For this reason, the extraction unit 11ba excludes poorly balanced code strings from the extracted code strings.

具体的には、図5Bのbに示すように、抽出部11baは、たとえば、両端に位置するAとFとのバランスを精査する。ここで、同図では、Aが3回繰り返され、Fが10回繰り返される場合を示している。 Specifically, as shown in b of FIG. 5B , the extraction unit 11ba scrutinizes the balance between A and F positioned at both ends, for example. Here, in the figure, A is repeated three times and F is repeated ten times.

このとき、抽出部11baは、AおよびFの個数が2倍以上異なる場合に、配列順序を満たす場合であっても、かかる符号列パターンを除外することにしている。このようにすることで、水滴以外の不要な符号パターンの誤抽出を防ぐことができ、水滴の誤検出を抑えることができる。 At this time, when the numbers of A and F differ by two times or more, the extraction unit 11ba excludes such a code string pattern even if the arrangement order is satisfied. By doing so, erroneous extraction of unnecessary code patterns other than water droplets can be prevented, and erroneous detection of water droplets can be suppressed.

また、抽出部11baでは、たとえば、抽出した符号列が閾値より長い場合、かかる符号列をマッチングから除外することもできる。これは、符号列が長い場合、水滴である可能性が低いためである。これにより、水滴の誤検出を抑えることができる。なお、かかる閾値は、統計等によって最適な値を予め導出しておくものとする。 Moreover, in the extraction unit 11ba, for example, when an extracted code string is longer than a threshold, such a code string can be excluded from matching. This is because a long code string is less likely to be a water droplet. As a result, erroneous detection of water droplets can be suppressed. It should be noted that such a threshold is assumed to derive an optimum value in advance from statistics or the like.

次に、マッチング処理を経ての検出エリアDaの抽出処理の一例を図6に示す。なお、図6では、図5Aと同様に、符号に代えて実際のエッジ向きを模式的に図示している。 Next, FIG. 6 shows an example of extraction processing of the detection area Da through matching processing. In FIG. 6, like FIG. 5A, actual edge orientations are schematically illustrated instead of reference numerals.

また、ここでは、マッチング処理によって最初に上辺パターンが抽出された場合について説明する。抽出部11baは、まず抽出された上辺パターンの幅に基づき、略正方形状の検出エリアDa1を設定する。 Also, here, the case where the upper side pattern is first extracted by the matching process will be described. The extraction unit 11ba first sets a substantially square-shaped detection area Da1 based on the extracted width of the upper side pattern.

つづいて、検出エリアDa1から逸脱した位置に右辺パターンが抽出されたものとする。このとき、抽出部11baは、右辺パターンの検出エリアDa2の中心座標が検出エリアDa1内にあれば、双方の検出エリアDa1,Da2を統合する処理を行う。 Next, it is assumed that the right side pattern is extracted at a position deviating from the detection area Da1. At this time, if the center coordinates of the detection area Da2 of the right-side pattern are within the detection area Da1, the extraction unit 11ba performs a process of integrating both detection areas Da1 and Da2.

その後、抽出部11baは、たとえば、統合した検出エリアDa3において、下辺パターンまたは左辺パターンが抽出された場合、水滴が存在すると推定されるエリアとして、検出エリアDa3を抽出する。換言すると、抽出部11baは、異なる3方向以上の各辺を示すパターンが抽出されることを検出条件(以下、「方向条件」と言う)として、水滴が存在すると推定される検出エリアDaを抽出する。 After that, for example, when the lower side pattern or the left side pattern is extracted in the integrated detection area Da3, the extraction unit 11ba extracts the detection area Da3 as an area in which water droplets are estimated to exist. In other words, the extracting unit 11ba extracts the detection area Da in which water droplets are estimated to exist under the detection condition that a pattern indicating each side in three or more different directions is extracted (hereinafter referred to as "direction condition"). do.

なお、抽出部11baは、かかる方向条件以外に、たとえば、統合した検出エリアDa3において、各辺を示すパターンが所定回数(たとえば、上下左右を含めて4回)以上抽出されることを検出条件(以下、「回数条件」と言う)としてもよい。 In addition to this direction condition, the extracting unit 11ba may also set a detection condition (e.g., a detection condition that a pattern indicating each side is extracted a predetermined number of times (for example, four times including up, down, left, and right) in the integrated detection area Da3). hereinafter referred to as "number of times condition").

このように、検出条件として、3方向以上の方向条件や回数条件とすることで、上下左右の全ての辺のパターンが抽出されなくとも、水滴が存在すると推定される検出エリアDaを抽出することができる。すなわち、カメラ画像から見切れる、たとえば半円状の水滴を検出することが可能となる。なお、これら検出条件は、記憶部12に条件情報12bとして記憶される。 In this way, by setting direction conditions of three or more directions and number of times conditions as detection conditions, it is possible to extract the detection area Da in which water droplets are estimated to exist even if the patterns of all the top, bottom, left, and right sides are not extracted. can be done. That is, it is possible to detect, for example, semicircular water droplets that are not visible from the camera image. These detection conditions are stored in the storage unit 12 as condition information 12b.

なお、図6では、上辺パターンの検出エリアDa1内に検出エリアDa2の中心座標が収まる場合に、検出エリアDaを統合する場合について示したが、これに限定されるものではない。すなわち、検出エリアDa1および検出エリアDa2の少なくとも一部が重なっていれば双方を統合することにしてもよい。 Note that FIG. 6 shows the case where the detection areas Da are integrated when the center coordinates of the detection areas Da2 fall within the detection area Da1 of the top pattern, but the present invention is not limited to this. That is, if at least a part of detection area Da1 and detection area Da2 overlap, both may be integrated.

また、統合した検出エリアDa3を、検出エリアDa1および検出エリアDa2の論理積とすることにしてもよいし、論理和とすることにしてもよい。また、図6では、検出エリアDa1および検出エリアDa2が矩形状である場合を示したが、これに限られず、円形状など他の形状とすることにしてもよい。 Further, the integrated detection area Da3 may be the logical product or the logical sum of the detection areas Da1 and Da2. In addition, although FIG. 6 shows the case where the detection area Da1 and the detection area Da2 are rectangular, the shape is not limited to this, and other shapes such as a circular shape may be used.

図2の説明に戻り、つづいて除外部11bbについて説明する。除外部11bbは、抽出部11baから通知される検出エリアDaのそれぞれについて画像解析を行い、かかる検出エリアDaに存在すると推定される付着物が本当に付着物であるか否かを判定する。 Returning to the description of FIG. 2, the exclusion unit 11bb will be described. The exclusion unit 11bb performs image analysis on each of the detection areas Da notified from the extraction unit 11ba, and determines whether or not the adhering matter presumed to exist in the detection area Da is really an adhering matter.

また、除外部11bbは、その判定結果により付着物であると判定される検出エリアDaについては、かかる検出エリアDaを判定部11cへ通知する。一方、除外部11bbは、その判定結果により付着物でないと判定される検出エリアDaについては、判定部11cへの通知を行わず、後段の処理対象から除外する。すなわち、除外部11bbは、信頼度の低い検出エリアDaを除外する。このように、無用の画像領域を除外することにより、付着物の検出の精度を高められるとともに、後段の処理負荷を軽減することができる。 In addition, the exclusion unit 11bb notifies the determination unit 11c of the detection area Da that is determined to be adhering matter based on the determination result. On the other hand, the exclusion unit 11bb does not notify the determination unit 11c about the detection area Da that is determined not to be an adhering matter based on the determination result, and excludes it from subsequent processing targets. That is, the exclusion unit 11bb excludes the detection area Da with low reliability. By excluding useless image areas in this way, the accuracy of adhering matter detection can be improved, and the processing load in the subsequent stage can be reduced.

たとえば、除外部11bbは、検出エリアDaのエッジ強度、輝度および彩度のそれぞれにつき、「弱」、「中」、「強」の3階級で分類されたヒストグラムを生成する。そして、除外部11bbは、生成した各ヒストグラムにおける階級それぞれの度数の割合に基づいて付着物であるか否かを判定し、付着物でないと判定される検出エリアDaを除外する。 For example, the exclusion unit 11bb generates a histogram classified into three classes of "weak", "middle", and "strong" for each of the edge intensity, luminance and saturation of the detection area Da. Then, the exclusion unit 11bb determines whether or not there is an adhering matter based on the frequency ratio of each class in each generated histogram, and excludes the detection area Da determined as not being an adhering matter.

判定部11cは、検出部11bの除外部11bbから通知された各検出エリアDaのフレーム間にわたる状態遷移を管理するとともに、かかる状態遷移に応じて各検出エリアDaにおける付着物の「付着確定」を判定する。 The determination unit 11c manages the state transition between frames of each detection area Da notified from the exclusion unit 11bb of the detection unit 11b, and determines the "determination of adherence" of the adhering matter in each detection area Da according to the state transition. judge.

ここで、判定部11cが実行する判定処理について、図7A~図8Dを用いて具体的に説明する。図7Aは、検出部11bからの通知内容の一例を示す図である。また、図7Bは、検出情報12cに含まれる検出エリアDaに関するデータ内容の一例を示す図である。また、図7Cは、検出エリアDaの状態の説明図である。また、図8A~図8Dは、判定部11cの処理説明図(その1)~(その4)である。 Here, the determination processing executed by the determination section 11c will be specifically described with reference to FIGS. 7A to 8D. FIG. 7A is a diagram showing an example of notification contents from the detection unit 11b. Further, FIG. 7B is a diagram showing an example of data contents regarding the detection area Da included in the detection information 12c. Moreover, FIG. 7C is an explanatory diagram of the state of the detection area Da. 8A to 8D are explanatory diagrams (part 1) to (part 4) of processing of the determination unit 11c.

判定部11cに通知される検出部11bからの通知内容には、図7Aに示すように、たとえば矩形で抽出された検出エリアDaの左上座標(x,y)と、幅wと、高さhとが含まれる。 As shown in FIG. 7A, for example, upper left coordinates (x, y), width w, and height h and are included.

判定部11cは、現フレームにおいて付着物が存在するとして抽出された検出エリアDaのすべてに対し、過去フレームで抽出済みである検出エリアDaとの重なりの存否を判定する。また、判定部11cは、その判定結果を各検出エリアDaの「得点」および「状態」に反映する。反映結果は、検出情報12cで管理される。 The determination unit 11c determines whether or not all of the detection areas Da extracted in the current frame as having attached matter overlap with the detection areas Da already extracted in the previous frame. Further, the determination unit 11c reflects the determination result on the "score" and "state" of each detection area Da. The reflection result is managed by the detection information 12c.

ここで、検出情報12cは、図7Bに示すように、たとえば「検出エリアID」項目と、「エリア情報」項目と、「得点」項目と、「状態」項目と、「緩和」項目とを含む。「検出エリアID」項目には、検出エリアDaの識別子が格納され、検出情報12cは、かかる検出エリアIDごとに管理される。 Here, the detection information 12c includes, for example, a "detection area ID" item, an "area information" item, a "score" item, a "state" item, and a "mitigation" item, as shown in FIG. 7B. . The "detection area ID" item stores the identifier of the detection area Da, and the detection information 12c is managed for each detection area ID.

「エリア情報」項目には、図7Aで示した検出エリアDaの左上座標(x,y)や、幅w、高さhなどが格納される。「得点」項目には、検出エリアDaそれぞれの現状の得点が格納される。「状態」項目には、検出エリアDaそれぞれの現状の状態(ステート)が格納される。 The "area information" item stores the upper left coordinates (x, y), width w, height h, etc. of the detection area Da shown in FIG. 7A. The "score" item stores the current score of each detection area Da. The "state" item stores the current state of each detection area Da.

図7Cにステートマシン図として示すように、各検出エリアDaは、「IDLE」、「潜伏」、「観察」、「ペナルティ」という4つの状態に遷移し得る。「IDLE」は、「未検出状態」、すなわち付着物が付着していない状態を指す。「潜伏」は、「付着物付着の可能性あり」の状態を指す。 As shown as a state machine diagram in FIG. 7C, each detection area Da can transition to four states: "IDLE", "Hide", "Observe", and "Penalty". "IDLE" refers to an "undetected state", ie, a state in which no deposit is attached. "Latent" refers to the state of "possibility of attachment of deposits".

「観察」は、車両が、たとえば圧縮空気やワイパなどによる付着物の除去が可能な付着物除去装置を備える場合に、かかる付着物除去装置による付着物の除去動作が行われた「除去処理後の観察状態」を指す。付着物除去装置については第2の実施形態で後述する。「ペナルティ」は、「除去処理後も当該エリアで付着物が検出され続けている状態」、すなわち、除去不良か誤検出の状態を指す。 "Observation" refers to "after removal processing" in which an operation of removing deposits by the deposit removing device is performed when the vehicle is equipped with a deposit removing device capable of removing deposits by using compressed air, a wiper, or the like, for example. "observation state". A deposit removing device will be described later in a second embodiment. "Penalty" refers to "a state in which the adhering matter continues to be detected in the area even after removal processing", that is, a state of defective removal or erroneous detection.

判定部11cは、フレーム間における検出エリアDaの重なりの存否の判定結果に応じ、検出情報12c上で各検出エリアDaの「得点」を更新し、「状態」を遷移させる。そして、判定部11cは、検出情報12cの検出エリアDaの「状態」と「得点」に応じ、付着物の「付着確定」を判定する。より具体的には、図8A~図8Dを用いた説明で後述する。 The determination unit 11c updates the "score" of each detection area Da on the detection information 12c according to the determination result of whether or not the detection areas Da overlap between frames, and changes the "state". Then, the determination unit 11c determines whether the adhering matter is "determined" according to the "state" and "score" of the detection area Da of the detection information 12c. More specifically, it will be described later with reference to FIGS. 8A to 8D.

図7Bに戻り、つづいて「緩和」項目について説明する。「緩和」項目には、検出エリアDaそれぞれの現状の検出条件を緩和すべきか否かを示すフラグ値が格納される。図7Bの例では、「緩和」項目にチェックマークの入った検出エリアID「xx2」の検出エリアDaが、第1条件よりも緩和された第2条件(図1B参照)で抽出されるべきことを示している。上述した検出部11bの抽出部11baは、かかる検出エリアID「xx2」の検出エリアDaにつき、第1条件ではなく第2条件を用いて抽出することとなる。かかる点については、図9を用いた説明でも後述する。 Returning to FIG. 7B, the “Relief” item will now be described. The “relaxation” item stores a flag value indicating whether or not the current detection conditions for each detection area Da should be relaxed. In the example of FIG. 7B, the detection area Da with the detection area ID “xx2” with a check mark in the “relaxed” item should be extracted under the second condition (see FIG. 1B) that is more relaxed than the first condition. is shown. The extraction unit 11ba of the detection unit 11b described above extracts the detection area Da with the detection area ID "xx2" using the second condition instead of the first condition. This point will also be described later with reference to FIG.

つづいて、判定部11cが実行する判定処理についてより具体的に説明する。上でも既に述べたが、図8Aに示すように、判定部11cは、現フレームにおいて付着物が存在するとして抽出された検出エリアDaのすべてに対し、過去フレームで抽出済みである検出エリアDaとの重なりの存否を判定する。 Next, the determination processing executed by the determination unit 11c will be described more specifically. As already described above, as shown in FIG. 8A, the determination unit 11c determines whether all the detection areas Da extracted in the current frame as having attached matter are detected as detection areas Da already extracted in the past frame. It is determined whether or not there is an overlap of .

具体的には、図8Bに示すように、現フレームの検出エリアDa-Cのすべてと、過去フレームの検出エリアDa-Pのすべてとの重なりを判定する。たとえば検出エリアDa-Cと検出エリアDa-Pとの重なりは、それぞれの重心間の距離に基づいて判定される。 Specifically, as shown in FIG. 8B, it is determined whether all of the detection areas Da-C of the current frame overlap with all of the detection areas Da-P of the past frame. For example, the overlap between detection area Da-C and detection area Da-P is determined based on the distance between their centroids.

そして、図8Bに示すように、判定部11cは、現フレームの検出エリアDa-Cと過去フレームの検出エリアDa-Pとの間に重なりがあると判定した場合に、検出エリアDa-Cおよび検出エリアDa-Pそれぞれの得点に加点する。 Then, as shown in FIG. 8B, when the determination unit 11c determines that there is an overlap between the detection area Da-C of the current frame and the detection area Da-P of the previous frame, the detection area Da-C and A point is added to the score of each of the detection areas Da-P.

これにより、判定部11cは、たとえば、フレームを隔ててなおレンズのほぼ同一の領域に存在する付着物を示すことができる。なお、加点は、たとえば得点に「+20」される。 As a result, the determination unit 11c can indicate, for example, deposits that are present in substantially the same area of the lens even across the frame. Note that the added point is, for example, "+20" added to the score.

一方、図8Cに示すように、判定部11cは、過去フレームの検出エリアDa-Pにつき、現フレームの検出エリアDa-Cのいずれとも重なりが存在しないものについては、得点を減点する。なお、減点は、たとえば得点から「-10」される。 On the other hand, as shown in FIG. 8C, the determination unit 11c deducts the points of the detection areas Da-P of the past frame that do not overlap any of the detection areas Da-C of the current frame. It should be noted that, for example, "-10" is subtracted from the score.

また、判定部11cは、現フレームの検出エリアDa-Cにつき、過去フレームの検出エリアDa-Pのいずれとも重なりが存在しないものについては、新規の検出エリアDaであるとして、検出情報12cへ新規登録する。 Further, the determination unit 11c regards detection areas Da-C of the current frame that do not overlap with any of the detection areas Da-P of the past frames as new detection areas Da, and adds them to the detection information 12c. register.

新規登録される検出エリアDaは、図8Dに示すように、「潜伏」状態となり、所定の得点を付与される。そして、かかる「潜伏」状態から、前述の「加点」や「減点」を経ることで変化する検出エリアDaの得点に応じ、判定部11cは、検出エリアDaの状態を遷移させる。 As shown in FIG. 8D, the newly registered detection area Da is in a "latent" state and given a predetermined score. Then, the determination unit 11c causes the state of the detection area Da to transition from the "hidden" state according to the score of the detection area Da that changes through the above-described "addition" and "deduction".

たとえば、図8Dに示すように、判定部11cは、「潜伏」状態にある検出エリアDaの得点が所定点以下となった場合、かかる検出エリアDaの状態を「潜伏」から「IDLE」へ遷移させる(ステップS11)。これにより、たとえば流れ落ちるなどして移動し、付着物として確定するまでもない雨滴等の付着物に対する誤反応を防止することができる。 For example, as shown in FIG. 8D, when the score of the detection area Da in the "hiding" state becomes equal to or less than a predetermined point, the determination unit 11c changes the state of the detection area Da from "hiding" to "IDLE". (step S11). As a result, it is possible to prevent an erroneous reaction to an adhering matter, such as a raindrop, which moves by running down, for example, and does not need to be determined as an adhering matter.

また、「潜伏」状態にある検出エリアDaの得点が所定点以上となった場合、判定部11cは、当該エリアに対する付着物の付着を確定(付着確定)させる(ステップS12)。なお、判定部11cは、たとえば得点が「100」点以上となった場合に、当該エリアを付着確定させる。 Further, when the score of the detection area Da in the "latent" state is equal to or higher than a predetermined point, the determination unit 11c confirms adhesion of the adhering matter to the area (adhesion confirmation) (step S12). For example, when the score is "100" or more, the determination unit 11c confirms attachment of the area.

また、判定部11cは、付着確定後、「潜伏」状態にあるすべての検出エリアDaを「観察」状態へ遷移させる(ステップS13)。これは、仮に1つの検出エリアDaの付着確定に応じて前述の付着物除去装置による除去処理が行われた場合、付着確定されていなかった「潜伏」状態の他の検出エリアDaについても、通常であれば付着物は除去されたと推定されるためである。 Further, after determination of adhesion, the determination unit 11c causes all the detection areas Da in the "latent" state to transition to the "observation" state (step S13). This is because, if removal processing is performed by the above-described adhering matter removing device in response to confirmation of adherence of one detection area Da, other detection areas Da in the "latent" state for which adherence has not been confirmed will also normally be removed. This is because it is presumed that the adhering matter has been removed if so.

なお、判定部11cは、付着物除去装置による除去処理が行われて「観察」状態にある検出エリアDaの得点が所定点以上となった場合、検出エリアDaを「ペナルティ」状態へ遷移させる(ステップS14)。これにより、除去処理後も付着物が検出され続けている除去不良または誤検出を把握することができる。 Note that when the score of the detection area Da in the "observation" state becomes a predetermined point or more due to the removal processing by the adhering substance removal device, the determination unit 11c shifts the detection area Da to the "penalty" state ( step S14). As a result, removal failure or erroneous detection in which the adhering matter continues to be detected even after removal processing can be grasped.

また、判定部11cは、「観察」状態または「ペナルティ」状態にある検出エリアDaの得点が所定点以下となった場合、検出エリアDaを「IDLE」状態へ遷移させる(ステップS15)。 When the score of the detection area Da in the "observation" state or the "penalty" state becomes equal to or less than a predetermined point, the determination unit 11c transitions the detection area Da to the "IDLE" state (step S15).

なお、図8Dにおいて「加点」および「減点」を示している矢印の傾きを調整することによって、付着確定までの反応速度を制御してもよい。たとえば加点量および減点量を大きくして上記矢印の傾きを急にすることによって、付着確定までの反応速度を上げることができる。 It should be noted that the reaction speed up to determination of adhesion may be controlled by adjusting the inclination of the arrows indicating "additional points" and "deductive points" in FIG. 8D. For example, by increasing the amount of added points and the amount of deducted points to steepen the slope of the arrow, it is possible to increase the reaction speed until adhesion is determined.

また、判定部11cは、付着確定がなされた検出エリアDaがあった場合に、指示部11dに、かかる検出エリアDaの位置を駐車制御装置3へ向けて指示させる。 Further, when there is a detection area Da for which adherence is confirmed, the determination unit 11c causes the instruction unit 11d to instruct the parking control device 3 about the position of the detection area Da.

また、判定部11cは、少なくとも現フレームで抽出され、「潜伏」状態にあり、付着確定にまでは至っていない検出エリアDaについて、検出情報12cの「緩和」項目に検出条件を緩和すべきことを示すフラグ値を格納する(図7B参照)。また、判定部11cは、かかる検出条件を緩和する検出エリアDaを、前述の検出部11bへ通知する。すなわち、判定部11cは、一旦付着物が存在するとして検出された検出エリアDaを、検出部11bへフィードバックして、時間的に後のフレームに継承させる(図1B参照)。 In addition, the determination unit 11c sets the "relief" item of the detection information 12c to indicate that the detection condition should be relaxed for the detection area Da that is extracted at least in the current frame, is in the "latent" state, and has not reached the point where adhesion is confirmed. The flag value shown is stored (see FIG. 7B). Further, the determination unit 11c notifies the above-described detection unit 11b of the detection area Da that relaxes the detection conditions. In other words, the determination unit 11c feeds back the detection area Da once detected as having an adhering matter to the detection unit 11b so that it is passed on to subsequent frames in terms of time (see FIG. 1B).

そして、検出部11bは、判定部11cからフィードバックされた検出エリアDaについては、検出情報12cに基づき、検出条件を緩和させて検出処理を行う。図9は、フィードバック後の検出部11bの処理説明図である。 Based on the detection information 12c, the detection unit 11b relaxes the detection conditions and performs detection processing for the detection area Da fed back from the determination unit 11c. FIG. 9 is a process explanatory diagram of the detection unit 11b after feedback.

図9は、図6で最下段に示した検出エリアDa3に対応しているが、図9の左図に示すように、図6では、検出部11bの抽出部11baは、たとえば、検出エリアDa3において、さらに下辺パターンまたは左辺パターンが抽出された場合に、水滴の存在が推定されるエリアとして、検出エリアDa3を抽出した。換言すると、抽出部11baは、異なる3方向以上の各辺を示すパターンが抽出される方向条件で、水滴の存在が推定される検出エリアDaを抽出した。かかる場合の方向条件は、「第1条件」(図1B参照)である。 FIG. 9 corresponds to the detection area Da3 shown at the bottom in FIG. 6. As shown in the left diagram of FIG. 9, in FIG. , the detection area Da3 is extracted as an area in which the presence of water droplets is estimated when the lower side pattern or the left side pattern is extracted. In other words, the extracting unit 11ba extracts the detection area Da in which the presence of water droplets is estimated under the directional condition in which the pattern indicating each side in three or more different directions is extracted. The directional condition in such a case is the "first condition" (see FIG. 1B).

これに対し、図9の右図に示すように、前述のフィードバック後では、検出部11bの抽出部11baは、たとえば、上辺パターンおよび右辺パターンといった、異なる2方向以上の各辺を示すパターンが抽出される方向条件で、水滴の存在が推定される検出エリアDaを抽出する。すなわち、フィードバック後の検出部11bは、第1条件よりも「緩和」された「第2条件」(図1B参照)で検出エリアDaを抽出する。たとえば、検出部11bは、検出情報12cの「緩和」項目にフラグの立った検出エリアDaにつき、条件情報12bに含まれる「第2条件」を用いて検出エリアDaを抽出する。 On the other hand, as shown in the right diagram of FIG. 9, after the feedback described above, the extraction unit 11ba of the detection unit 11b extracts patterns indicating sides in two or more different directions, such as an upper side pattern and a right side pattern. A detection area Da in which the presence of a water droplet is estimated is extracted under the directional condition. That is, the detection unit 11b after the feedback extracts the detection area Da under the "second condition" (see FIG. 1B) that is "loosen" than the first condition. For example, the detection unit 11b extracts the detection area Da using the "second condition" included in the condition information 12b for the detection area Da flagged in the "relief" item of the detection information 12c.

これにより、付着物が水滴などである場合の、検出の不安定さを解消することができる。したがって、本実施形態に係る付着物検出装置10によれば、付着物の検出漏れを抑制することができる。 This can eliminate the instability of detection when the adhering matter is water droplets or the like. Therefore, according to the adhering matter detection device 10 according to the present embodiment, it is possible to suppress detection failure of adhering matter.

また、本実施形態に係る付着物検出装置10によれば、一旦検出された検出エリアDaなどのリソースを、後段の処理において有効に活用することができるので、システム全体の処理負荷を軽減できるとともに、処理速度の向上ならびに検出精度の向上を見込むことができる。 Further, according to the adhering matter detection apparatus 10 according to the present embodiment, resources such as the detection area Da once detected can be effectively used in subsequent processing, so that the processing load of the entire system can be reduced. , improvement in processing speed and detection accuracy can be expected.

図2の説明に戻り、つづいて指示部11dについて説明する。指示部11dは、判定部11cによって、付着物が確定された場合に、駐車制御装置3に付着物の位置を指示する指示信号を生成して、かかる指示信号を駐車制御装置3へ出力する。 Returning to the description of FIG. 2, the instruction unit 11d will be described. The instruction unit 11 d generates an instruction signal for instructing the position of the adhered matter to the parking control device 3 and outputs the instruction signal to the parking control device 3 when the determination unit 11 c confirms the adhering matter.

次に、本実施形態に係る付着物検出装置10が実行する処理手順について、図10を用いて説明する。図10は、本実施形態に係る付着物検出装置10が実行する処理手順を示すフローチャートである。 Next, a processing procedure executed by the adhering matter detection device 10 according to the present embodiment will be described with reference to FIG. 10 . FIG. 10 is a flow chart showing a processing procedure executed by the adhering matter detection device 10 according to the present embodiment.

まず、取得部11aが、1フレーム分のカメラ画像を取得する(ステップS101)。そして、検出部11bの抽出部11baが、水滴の存在が推定される検出エリアを抽出する(ステップS102)。 First, the acquisition unit 11a acquires a camera image for one frame (step S101). Then, the extraction unit 11ba of the detection unit 11b extracts a detection area in which the presence of water droplets is estimated (Step S102).

そして、検出部11bの除外部11bbが、信頼度の低い検出エリアを除外する(ステップS103)。 Then, the exclusion unit 11bb of the detection unit 11b excludes the detection area with low reliability (step S103).

なお、かかる除外処理自体は、たとえば省略されてもよい。これにより、システム全体に対する処理負荷を軽減することができる。 Note that the exclusion process itself may be omitted, for example. Thereby, the processing load on the entire system can be reduced.

つづいて、判定部11cが、フレーム間にわたる検出エリアの状態を判定する(ステップS104)。すなわち、判定部11cは、過去フレームで抽出済みである各検出エリアDaとの重なりの存否を判定し、その判定結果に応じて検出エリアDaの得点および状態を更新する。 Subsequently, the determination unit 11c determines the state of the detection area between frames (step S104). That is, the determination unit 11c determines whether there is an overlap with each detection area Da extracted in the past frame, and updates the score and state of the detection area Da according to the determination result.

そして、判定部11cは、更新された検出エリアDaの得点および状態に応じ、検出エリアDaのそれぞれが、付着確定であるか否かを判定する(ステップS105)。ここで、付着確定でない場合(ステップS105,No)、判定部11cは、該当する検出エリアDaについて、検出情報12cの「緩和」項目のフラグを立てることによって、検出条件を緩和する(ステップS106)。そして、ステップS101からの処理を繰り返す。 Then, the determination unit 11c determines whether or not adhesion is confirmed for each detection area Da according to the updated score and state of the detection area Da (step S105). Here, if the adhesion is not confirmed (step S105, No), the determination unit 11c relaxes the detection condition by setting a flag for the "relief" item of the detection information 12c for the corresponding detection area Da (step S106). . Then, the processing from step S101 is repeated.

一方、付着確定である場合(ステップS105,Yes)、指示部11dが、駐車制御装置3へ付着物の位置を指示する(ステップS107)。 On the other hand, if the adherence is confirmed (step S105, Yes), the instructing unit 11d instructs the parking control device 3 about the position of the adherent (step S107).

そして、制御部11が、処理終了イベントがあるか否かを判定する(ステップS108)。処理終了イベントは、たとえば車両のIGオフやACCオフなどに対応する。ここで、処理終了イベントがないと判定された場合(ステップS108,No)、ステップS101からの処理を繰り返す。また、処理終了イベントがあると判定された場合(ステップS108,Yes)、付着物検出装置10は、処理を終了する。 Then, the control unit 11 determines whether or not there is a process end event (step S108). The processing end event corresponds to, for example, IG off or ACC off of the vehicle. Here, if it is determined that there is no processing end event (step S108, No), the processing from step S101 is repeated. If it is determined that there is a process end event (step S108, Yes), the adhering matter detection device 10 ends the process.

次に、本実施形態に係る処理の流れの変形例について、図11A~図11Cを用いて説明する。図11Aは、本実施形態に係る処理の流れを示す図である。また、図11Bは、第1の変形例に係る処理の流れを示す図である。また、図11Cは、第2の変形例に係る処理の流れを示す図である。 Next, a modified example of the flow of processing according to this embodiment will be described with reference to FIGS. 11A to 11C. FIG. 11A is a diagram showing the flow of processing according to this embodiment. FIG. 11B is a diagram showing the flow of processing according to the first modification. FIG. 11C is a diagram showing the flow of processing according to the second modification.

これまでは、付着物検出装置10が、図11Aに示すように、カメラ2のカメラ画像に基づき、取得部11aが取得処理を実行し、検出部11bの抽出部11baが抽出処理を実行し、検出部11bの除外部11bbが除外処理を実行し、判定部11cが判定処理を実行する場合について説明した。そのうえで、判定部11cが、付着確定前の、たとえば上記した例では「潜伏」状態などの検出エリアDaを、時間的に後の抽出処理へ検出条件を緩和しつつ継承させるべくフィードバックする場合について説明した。 Until now, as shown in FIG. 11A, the attached matter detection apparatus 10 has the acquisition unit 11a perform acquisition processing based on the camera image of the camera 2, the extraction unit 11ba of the detection unit 11b performs extraction processing, A case has been described where the exclusion unit 11bb of the detection unit 11b executes the exclusion process and the determination unit 11c executes the determination process. In addition, a case will be described where the determination unit 11c feeds back the detection area Da, which is in the "latent" state in the above example, before the adherence is confirmed, so as to be passed on to the later extraction process while relaxing the detection conditions. bottom.

しかしながら、処理の流れは、かかる例に限られない。たとえば図11Bに示すように、判定処理から抽出処理へフィードバックされた検出エリアDaにつき、一度除外処理をクリアした検出エリアDaは2回目以降の除外処理を省略されるように、処理の流れを制御してもよい。 However, the flow of processing is not limited to this example. For example, as shown in FIG. 11B, for the detection area Da fed back from the determination process to the extraction process, the detection area Da for which the exclusion process has been cleared once, the process flow is controlled so that the second and subsequent exclusion processes are omitted. You may

これは、少なくとも一度除外処理をクリアした検出エリアDaは、少なくとも信頼度は低くないと考えられるためである。これにより、除外処理に要する処理負荷を抑え、システム全体の処理負荷を軽減することができる。 This is because the detection area Da that has cleared the exclusion process at least once is considered not to have low reliability. As a result, the processing load required for the exclusion process can be suppressed, and the processing load of the entire system can be reduced.

また、たとえば図11Cに示すように、抽出処理~除外処理を経て検出された検出エリアDaにつき、抽出処理にはフィードバックせずに、除外処理~判定処理間でループが閉じるように処理の流れを制御してもよい。 Further, for example, as shown in FIG. 11C, the detection area Da detected through the extraction process and the exclusion process is not fed back to the extraction process, and the process flow is adjusted so that the loop is closed between the exclusion process and the determination process. may be controlled.

これは、少なくとも一度抽出処理~除外処理を経て検出された検出エリアDaは、時間的にすぐには無くならないとの考え方に基づく。すなわち、この場合、一度検出された検出エリアDaは、改めて抽出処理で検出アルゴリズムを用いて抽出させずに、除外処理~判定処理間の繰り返しで検出エリアDaの状態を管理することとなる。これにより、抽出処理に要する処理負荷を抑え、システム全体の処理負荷を軽減することができる。 This is based on the idea that the detection area Da, which has been detected at least once through the extraction process and the exclusion process, will not disappear immediately in terms of time. That is, in this case, the once detected detection area Da is not extracted again using the detection algorithm in the extraction process, and the state of the detection area Da is managed by repeating the exclusion process and the determination process. As a result, the processing load required for the extraction process can be suppressed, and the processing load of the entire system can be reduced.

上述してきたように、本実施形態に係る付着物検出装置10は、検出部11bと、判定部11cとを備える。検出部11bは、カメラ2(「撮像装置」の一例に相当)に付着した付着物の撮像画像中における位置を所定の第1条件に基づいて検出する。判定部11cは、複数回にわたって検出される上記位置に関する情報に基づいてかかる位置における付着物の存否を判定する。また、判定部11cは、検出部11bによって上記位置が検出された場合に、第1条件よりも緩和された第2条件に基づいて検出部11bに上記位置を検出させる。 As described above, the adhering matter detection device 10 according to the present embodiment includes the detection section 11b and the determination section 11c. The detection unit 11b detects the position in the captured image of the adhering matter adhering to the camera 2 (corresponding to an example of the “imaging device”) based on a predetermined first condition. The determination unit 11c determines the presence or absence of the adhering matter at the position based on the information regarding the position detected a plurality of times. Further, when the position is detected by the detection unit 11b, the determination unit 11c causes the detection unit 11b to detect the position based on a second condition that is relaxed compared to the first condition.

したがって、本実施形態に係る付着物検出装置10によれば、付着物の検出漏れを抑制することができる。また、第1条件で検出された位置を、以降は第1条件よりも緩和された第2条件で検出するので、検出精度を維持しつつ、システム全体の処理負荷の軽減や処理速度の高速化に資することができる。 Therefore, according to the adhering matter detection device 10 according to the present embodiment, it is possible to suppress detection failure of adhering matter. In addition, since the position detected under the first condition is detected under the second condition, which is more relaxed than the first condition, the detection accuracy is maintained, and the processing load of the entire system is reduced and the processing speed is increased. can contribute to

判定部11cは、複数回にわたって検出された上記位置の状態遷移に基づいてかかる位置における付着物の存否を判定する。 The determination unit 11c determines the presence or absence of an adhering matter at the position based on the state transition of the position detected a plurality of times.

したがって、本実施形態に係る付着物検出装置10によれば、一時的に検出された付着物などを無用に付着確定させることなく、精度よく付着物の存否を判定することが可能となる。 Therefore, according to the attached matter detection device 10 according to the present embodiment, it is possible to accurately determine the presence or absence of attached matter without unnecessarily confirming attachment of temporarily detected attached matter.

判定部11cは、上記位置が検出部11bによって検出された場合に、かかる位置の状態を示す得点に加点し、上記位置が検出部11bによって検出されなかった場合に、上記得点から減点することによって上記状態遷移を管理するとともに、上記得点が所定点以上となった場合に、上記位置における付着物の付着を確定させる。 The determination unit 11c adds points to the score indicating the state of the position when the position is detected by the detection unit 11b, and subtracts points from the score when the position is not detected by the detection unit 11b. The state transition is managed, and when the score reaches or exceeds a predetermined point, attachment of the adhering matter to the position is determined.

したがって、本実施形態に係る付着物検出装置10によれば、上記位置の状態遷移の管理および状態に応じた付着確定の判定を簡易な手法で行うことができる。 Therefore, according to the adhering matter detection device 10 according to the present embodiment, it is possible to manage the state transition of the position and determine adherence confirmation according to the state by a simple method.

検出部11bは、撮像画像中の各画素について抽出されたエッジ情報に基づいて上記各画素を所定のデータ形式に変換し、かかるデータ形式に変換された上記各画素と、付着物を示す上記データ形式のテンプレートとのマッチング結果に基づいて上記位置を検出する。 The detection unit 11b converts each pixel into a predetermined data format based on the edge information extracted from each pixel in the captured image, and outputs each pixel converted into this data format and the data indicating the adhering matter. The position is detected based on the matching result with the format template.

したがって、本実施形態に係る付着物検出装置10によれば、付着物の特徴を示すテンプレートに応じて多様な付着物を検出することが可能となる。 Therefore, according to the adhering matter detection device 10 according to the present embodiment, it is possible to detect various adhering matter according to the template indicating the characteristics of the adhering matter.

検出部11bは、付着物を内側に含むまたは付着物の内側に含まれる矩形の検出エリアDa(「検出領域」の一例に相当)として上記位置を検出し、検出エリアDaの各辺のうち、テンプレートによって異なる3方向以上を示す各辺が抽出される場合を第1条件とし、テンプレートによって異なる2方向以上を示す各辺が抽出される場合を第2条件として、上記位置を検出する。 The detection unit 11b detects the position as a rectangular detection area Da (corresponding to an example of a “detection area”) that includes the adhering matter or is contained inside the adhering matter, and detects the above position as each side of the detection area Da: The position is detected under the first condition that each side indicating three or more different directions is extracted depending on the template, and the second condition that each side indicating two or more different directions is extracted depending on the template.

したがって、本実施形態に係る付着物検出装置10によれば、矩形の検出エリアDaを利用することで、簡易な手法での付着物の検出が可能となる。また、第1条件で検出された検出エリアDaを、以降は第1条件よりも緩和された第2条件で検出するので、検出精度を維持しつつ、システム全体の処理負荷の軽減や処理速度の高速化に資することができる。 Therefore, according to the attached matter detection device 10 according to the present embodiment, the attached matter can be detected by a simple method by using the rectangular detection area Da. Further, since the detection area Da detected under the first condition is subsequently detected under the second condition, which is more relaxed than the first condition, the detection accuracy is maintained, the processing load of the entire system is reduced, and the processing speed is increased. It can contribute to speeding up.

また、カメラ2は車両に搭載され、車両はカメラ2の撮像画像に基づき車両の駐車制御を行う駐車制御装置3(「駐車制御部」の一例に相当)を備え、駐車制御装置3は、判定部11cが上記位置における付着物の付着を確定させた場合に、車両の駐車制御を停止する。したがって、本実施形態に係る自動駐車システム1によれば、安全性の高い自動駐車システムを実現することができる。 In addition, the camera 2 is mounted on a vehicle, and the vehicle is provided with a parking control device 3 (equivalent to an example of a "parking control unit") that performs parking control of the vehicle based on an image captured by the camera 2. The parking control device 3 performs determination Parking control of the vehicle is stopped when the unit 11c confirms that the adhering matter is adhered to the above position. Therefore, according to the automatic parking system 1 according to the present embodiment, an automatic parking system with high safety can be realized.

なお、上述した第1の実施形態では、抽出部11baが各画素のエッジ強度に基づく所定の検出アルゴリズムを用いて検出エリアDaを抽出する場合を例に挙げたが、抽出部11baは、異なる検出アルゴリズムを並列に実行することとしてもよい。エッジ強度以外に基づく検出アルゴリズムとしては、たとえば各画素の輝度の勾配や彩度の勾配をエッジ情報として抽出し、これに基づいて検出エリアDaを抽出するものなどを挙げることができる。 In the first embodiment described above, the case where the extraction unit 11ba extracts the detection area Da using a predetermined detection algorithm based on the edge intensity of each pixel was taken as an example. Algorithms may be executed in parallel. Detection algorithms based on factors other than edge intensity include, for example, extracting the gradient of luminance and gradient of saturation of each pixel as edge information, and extracting the detection area Da based on this.

抽出部11baが検出アルゴリズムを並列に実行する場合、除外部11bbは、検出アルゴリズムそれぞれの処理結果について除外処理を実行することとなる。また、判定部11cは、上述したフレーム間にわたる重なりの判定の前に、アルゴリズム間における重なりの判定を行うとよい。 When the extraction unit 11ba executes the detection algorithms in parallel, the exclusion unit 11bb executes the exclusion process for each processing result of the detection algorithm. Also, the determination unit 11c preferably determines overlap between algorithms before determining overlap between frames.

(第2の実施形態)
次に、第2の実施形態について、図12を用いて説明する。図12は、第2の実施形態に係る付着物除去システム1Aのブロック図である。図12は、図2に対応しており、付着物除去システム1Aは、自動駐車システム1とは、駐車制御装置3に代えて、付着物除去装置4を含む点が異なる。
(Second embodiment)
Next, a second embodiment will be described with reference to FIG. 12. FIG. FIG. 12 is a block diagram of a deposit removing system 1A according to the second embodiment. FIG. 12 corresponds to FIG. 2, and the deposit removing system 1A differs from the automatic parking system 1 in that it includes a deposit removing device 4 instead of the parking control device 3. FIG.

付着物除去装置4は、付着物検出装置10の検出結果に基づいてカメラ2のレンズに付着した付着物を除去する。たとえば、付着物除去装置4は、吐出口をカメラ2のレンズへ向けて設けられた図示略のノズルを備え、かかるノズルから圧縮空気をレンズへ向けて噴射する除去動作によって付着物を除去する。なお、付着物除去装置4は、かかる態様に限らず、たとえばノズルから圧縮空気とともに洗浄液を噴射したりしてもよいし、ワイパでカメラ2のレンズを拭ったりしてもよい。 The deposit removing device 4 removes deposits adhering to the lens of the camera 2 based on the detection result of the deposit detecting device 10 . For example, the deposit remover 4 has a nozzle (not shown) with an ejection opening directed toward the lens of the camera 2, and removes deposits by ejecting compressed air from the nozzle toward the lens. Note that the attached matter removing device 4 is not limited to such a mode, and may, for example, spray cleaning liquid together with compressed air from a nozzle, or may wipe the lens of the camera 2 with a wiper.

かかる付着物除去システム1Aでは、判定部11cは、付着確定がなされた検出エリアDaがあった場合に、指示部11dに対し、付着物除去装置4による除去動作を指示させる。なお、判定部11cは、付着確定がなされた検出エリアDaがあっても、あえて除去動作を行わないようにしてもよい。 In the attached matter removing system 1A, the determination unit 11c instructs the instructing unit 11d to perform the removing operation by the attached matter removing device 4 when there is a detection area Da for which adhesion is confirmed. Note that the determination unit 11c may dare not perform the removing operation even if there is a detection area Da for which adherence is confirmed.

たとえば、判定部11cは、付着確定がなされた検出エリアDaが、カメラ画像の視認の妨げにはなりにくい画面の外周にほぼ沿った領域に存在するならば、除去処理の実行を不要と判定することができる。また、たとえば、判定部11cは、付着確定がなされた検出エリアDaが、所定個数に満たないならば、除去処理の実行を不要と判定することができる。 For example, the determination unit 11c determines that execution of the removal process is not necessary if the detection area Da for which adhesion has been confirmed exists in an area substantially along the outer periphery of the screen that is unlikely to hinder the viewing of the camera image. be able to. Further, for example, the determination unit 11c can determine that execution of the removal process is unnecessary if the number of detection areas Da for which adherence is confirmed is less than a predetermined number.

このように、搭乗者の視認や運転動作に影響が少ないと判断される付着物についてはその除去処理自体をスキップすることで、システム全体の処理負荷を軽減することができる。 In this way, the processing load of the entire system can be reduced by skipping the removal processing itself for attached matter that is judged to have little effect on the passenger's visual recognition and driving behavior.

また、指示部11dは、判定部11cによって、付着物の除去が必要と判定された場合に、付着物除去装置4に除去動作を行わせる指示信号を生成して、かかる指示信号を付着物除去装置4へ出力する。すなわち、既に示した図10を例に挙げれば、第2の実施形態では、指示部11dは、ステップS107で「付着物の位置を指示」するのではなく、付着物除去装置4へ「除去動作を指示」することとなる。付着物除去装置4は、かかる指示に基づいて除去動作を実行し、付着物を除去する。 Further, when the determination unit 11c determines that the removal of the attached matter is necessary, the instructing unit 11d generates an instruction signal for causing the attached matter removing device 4 to perform a removing operation, and the instructing unit 11d generates the instruction signal to perform the removing operation of the attached matter removal device. Output to device 4 . That is, taking FIG. 10 already shown as an example, in the second embodiment, the instructing unit 11d does not "instruct the position of the adhering matter" in step S107, but instructs the adhering matter removing device 4 to perform the "removal operation." "instruct". The deposit removing device 4 performs a removing operation based on such an instruction to remove the deposit.

したがって、本実施形態に係る付着物除去システム1Aによれば、付着物検出装置10を含むことにより、検出漏れを抑制しつつ付着物を検出できるとともに、検出した付着物については、付着物除去装置4により除去することができる。 Therefore, according to the attached matter removing system 1A according to the present embodiment, by including the attached matter detection device 10, it is possible to detect the attached matter while suppressing detection omissions, and the detected attached matter can be detected by the attached matter removing device. 4 can be removed.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

1 自動駐車システム
2 カメラ
3 駐車制御装置
4 付着物除去装置
10 付着物検出装置
11 制御部
11a 取得部
11b 検出部
11ba 抽出部
11bb 除外部
11c 判定部
11d 指示部
12 記憶部
12a テンプレート情報
12b 条件情報
12c 検出情報
1 automatic parking system 2 camera 3 parking control device 4 adhering substance removal device 10 adhering matter detection device 11 control unit 11a acquisition unit 11b detection unit 11ba extraction unit 11bb exclusion unit 11c determination unit 11d instruction unit 12 storage unit 12a template information 12b condition information 12c detection information

Claims (6)

撮像装置に付着した付着物の撮像画像中における位置を所定の第1条件に基づいて検出する検出部と、
時系列に並んだ前記撮像画像について複数回にわたって検出される前記位置に関する情報に基づいて当該位置における前記付着物の存否を判定する判定部と
を備え、
前記判定部は、
前記検出部によって前記位置が検出された場合に、前記第1条件よりも緩和された第2条件に基づいて前記検出部に前記位置を検出させる
ことを特徴とする付着物検出装置。
a detection unit that detects the position in the captured image of the adhering matter adhering to the imaging device based on a predetermined first condition;
a determination unit that determines the presence or absence of the attached matter at the position based on information about the position detected a plurality of times with respect to the captured images arranged in time series ,
The determination unit is
An adhering matter detection device, wherein when the position is detected by the detection unit, the detection unit detects the position based on a second condition that is relaxed compared to the first condition.
前記判定部は、
複数回にわたって検出された前記位置の状態遷移に基づいて当該位置における前記付着物の存否を判定する
ことを特徴とする請求項1に記載の付着物検出装置。
The determination unit is
2. The adhering matter detection device according to claim 1, wherein presence or absence of the adhering matter at the position is determined based on the state transition of the position detected a plurality of times.
前記判定部は、
前記位置が前記検出部によって検出された場合に、当該位置の状態を示す得点に加点し、前記位置が前記検出部によって検出されなかった場合に、前記得点から減点することによって前記状態遷移を管理するとともに、前記得点が所定点以上となった場合に、前記位置における前記付着物の付着を確定させる
ことを特徴とする請求項2に記載の付着物検出装置。
The determination unit is
The state transition is managed by adding points to a score indicating the state of the position when the position is detected by the detection unit, and subtracting points from the score when the position is not detected by the detection unit. 3. The adhering matter detection device according to claim 2, further comprising determining attachment of the adhering matter at the position when the score reaches or exceeds a predetermined point.
前記検出部は、
前記撮像画像中の各画素について抽出されたエッジ情報に基づいて前記各画素を所定のデータ形式に変換し、該データ形式に変換された前記各画素と、前記付着物の特徴を示す、前記付着物を内側に含む矩形または該付着物が内側に含まれる矩形の各辺に対応する画素のパターンとしての前記データ形式のテンプレートとの、マッチング結果に基づいて、前記付着物を内側に含む矩形の検出領域または該付着物の内側に含まれる矩形の検出領域として前記位置を検出し、前記検出領域の各辺のうち、前記テンプレートによって異なる3方向以上を示す前記各辺が抽出される場合を前記第1条件とし、前記テンプレートによって異なる2方向以上を示す前記各辺が抽出される場合を前記第2条件として、前記位置を検出する
ことを特徴とする請求項1、2または3に記載の付着物検出装置。
The detection unit is
The attachment, which converts each pixel into a predetermined data format based on the edge information extracted for each pixel in the captured image, and shows the characteristics of each pixel converted into the data format and the adhering matter. Based on the result of matching with the template in the data format as a pattern of pixels corresponding to each side of a rectangle containing the object inside or a rectangle containing the object inside, a rectangle containing the object inside is determined . The position is detected as a detection area or a rectangular detection area included inside the adhering matter, and out of the sides of the detection area, the sides indicating three or more different directions depending on the template are extracted. 4. The attachment according to claim 1, 2, or 3, wherein the position is detected under the first condition and the second condition that each side indicating two or more different directions is extracted by the template. Kimono detection device.
前記撮像装置は車両に搭載され、
前記車両は前記撮像画像に基づき該車両の駐車制御を行う駐車制御部を備え、
前記駐車制御部は、前記判定部が前記位置における前記付着物の付着を確定させた場合に、前記車両の駐車制御を停止する
ことを特徴とする請求項3またはに記載の付着物検出装置。
The imaging device is mounted on a vehicle,
The vehicle includes a parking control unit that performs parking control of the vehicle based on the captured image,
The deposit according to claim 3 or 4 , wherein the parking control unit stops parking control of the vehicle when the determination unit determines that the deposit is adhered at the position. detection device.
撮像装置に付着した付着物の撮像画像中における位置を所定の第1条件に基づいて検出する検出工程と、
時系列に並んだ前記撮像画像について複数回にわたって検出される前記位置に関する情報に基づいて当該位置における前記付着物の存否を判定する判定工程と
を含み、
前記判定工程は、
前記検出工程によって前記位置が検出された場合に、前記第1条件よりも緩和された第2条件に基づいて前記検出工程に前記位置を検出させる
ことを特徴とする付着物検出方法。
a detection step of detecting the position in the captured image of the adhering matter adhering to the imaging device based on a predetermined first condition;
a determination step of determining the presence or absence of the attached matter at the position based on information about the position detected a plurality of times with respect to the captured images arranged in time series ,
The determination step includes
An adhering matter detection method, wherein when the position is detected by the detection step, the detection step detects the position based on a second condition that is relaxed compared to the first condition.
JP2018013947A 2018-01-24 2018-01-30 Attached matter detection device and attached matter detection method Active JP7210882B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018013947A JP7210882B2 (en) 2018-01-30 2018-01-30 Attached matter detection device and attached matter detection method
US16/217,743 US10789502B2 (en) 2018-01-24 2018-12-12 Extraneous-matter detecting apparatus and extraneous-matter detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018013947A JP7210882B2 (en) 2018-01-30 2018-01-30 Attached matter detection device and attached matter detection method

Publications (2)

Publication Number Publication Date
JP2019133333A JP2019133333A (en) 2019-08-08
JP7210882B2 true JP7210882B2 (en) 2023-01-24

Family

ID=67546208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018013947A Active JP7210882B2 (en) 2018-01-24 2018-01-30 Attached matter detection device and attached matter detection method

Country Status (1)

Country Link
JP (1) JP7210882B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6758438B2 (en) * 2019-01-23 2020-09-23 三菱電機株式会社 Vehicle control device and vehicle control method
JP7172931B2 (en) * 2019-09-20 2022-11-16 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP7188336B2 (en) * 2019-09-20 2022-12-13 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP7172930B2 (en) * 2019-09-20 2022-11-16 株式会社デンソーテン Attached matter detection device and attached matter detection method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117262A (en) 2003-10-06 2005-04-28 Fujitsu Ltd Method and apparatus for discriminating dirt of lens
JP2007172504A (en) 2005-12-26 2007-07-05 Daihatsu Motor Co Ltd Adhering matter detection device and adhering matter detection method
JP2008060874A (en) 2006-08-31 2008-03-13 Hitachi Ltd On-vehicle camera and stain detector for on-vehicle camera
JP2011182116A (en) 2010-02-26 2011-09-15 Nikon Corp Image processing device and program
JP2013062651A (en) 2011-09-13 2013-04-04 Kyocera Document Solutions Inc Image reading device
WO2014007153A1 (en) 2012-07-03 2014-01-09 クラリオン株式会社 Vehicle surrounding monitoring device
WO2014017626A1 (en) 2012-07-27 2014-01-30 日産自動車株式会社 Camera device, three-dimensional object detection device, and lens cleaning method
WO2014017403A1 (en) 2012-07-27 2014-01-30 クラリオン株式会社 Vehicle-mounted image recognition device
JP2014030188A (en) 2012-07-03 2014-02-13 Clarion Co Ltd Lens attached substance detection apparatus, lens attached substance detection method, and vehicle system
WO2015008566A1 (en) 2013-07-18 2015-01-22 クラリオン株式会社 Vehicle-mounted device
JP2015095886A (en) 2013-11-14 2015-05-18 クラリオン株式会社 Surrounding environment recognition device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117262A (en) 2003-10-06 2005-04-28 Fujitsu Ltd Method and apparatus for discriminating dirt of lens
JP2007172504A (en) 2005-12-26 2007-07-05 Daihatsu Motor Co Ltd Adhering matter detection device and adhering matter detection method
JP2008060874A (en) 2006-08-31 2008-03-13 Hitachi Ltd On-vehicle camera and stain detector for on-vehicle camera
JP2011182116A (en) 2010-02-26 2011-09-15 Nikon Corp Image processing device and program
JP2013062651A (en) 2011-09-13 2013-04-04 Kyocera Document Solutions Inc Image reading device
WO2014007153A1 (en) 2012-07-03 2014-01-09 クラリオン株式会社 Vehicle surrounding monitoring device
JP2014030188A (en) 2012-07-03 2014-02-13 Clarion Co Ltd Lens attached substance detection apparatus, lens attached substance detection method, and vehicle system
WO2014017626A1 (en) 2012-07-27 2014-01-30 日産自動車株式会社 Camera device, three-dimensional object detection device, and lens cleaning method
WO2014017403A1 (en) 2012-07-27 2014-01-30 クラリオン株式会社 Vehicle-mounted image recognition device
WO2015008566A1 (en) 2013-07-18 2015-01-22 クラリオン株式会社 Vehicle-mounted device
JP2015095886A (en) 2013-11-14 2015-05-18 クラリオン株式会社 Surrounding environment recognition device

Also Published As

Publication number Publication date
JP2019133333A (en) 2019-08-08

Similar Documents

Publication Publication Date Title
JP7210882B2 (en) Attached matter detection device and attached matter detection method
US9956941B2 (en) On-board device controlling accumulation removing units
JP6755161B2 (en) Adhesion detection device and deposit detection method
US9690996B2 (en) On-vehicle image processor
US11142124B2 (en) Adhered-substance detecting apparatus and vehicle system equipped with the same
CN109565536B (en) Vehicle-mounted device
JP7122364B2 (en) Deposit detection device, deposit detection method
JP4776587B2 (en) Image processing device, driving support device
JP6690955B2 (en) Image processing device and water drop removal system
TWI494899B (en) Method for in-image periodic noise reparation
EP3537348A1 (en) Heterogeneous convolutional neural network for multi-problem solving
JP2010287183A (en) Fog image restoring device and driving support system
JP6072064B2 (en) Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine
JP2019015692A (en) Adhered substance detection method, adhered substance learning method, adhered substance detection device, adhered substance learning device, adhered substance detection system, and program
JP2002163661A (en) Device for detecting white line
WO2016076449A1 (en) Method and system for detecting an approaching obstacle based on image recognition
JP7206909B2 (en) Attached matter detection device and attached matter detection method
JP2007011490A (en) Device and method for detecting road parameter
JP7175188B2 (en) Attached matter detection device and attached matter detection method
KR101121777B1 (en) Lane detection method
US11393128B2 (en) Adhered substance detection apparatus
US11308709B2 (en) Deposit detection device and deposit detection method
JP7059649B2 (en) Deposit detection device and deposit detection method
JP6964162B2 (en) Image processing equipment and water droplet removal system
JP4956841B2 (en) VEHICLE IMAGE PROCESSING DEVICE, VEHICLE, AND VEHICLE IMAGE PROCESSING PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220127

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R150 Certificate of patent or registration of utility model

Ref document number: 7210882

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150