JP2021113753A - Fogging determination device and fogging determination method - Google Patents

Fogging determination device and fogging determination method Download PDF

Info

Publication number
JP2021113753A
JP2021113753A JP2020006816A JP2020006816A JP2021113753A JP 2021113753 A JP2021113753 A JP 2021113753A JP 2020006816 A JP2020006816 A JP 2020006816A JP 2020006816 A JP2020006816 A JP 2020006816A JP 2021113753 A JP2021113753 A JP 2021113753A
Authority
JP
Japan
Prior art keywords
pixels
cloudiness
feature amount
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020006816A
Other languages
Japanese (ja)
Inventor
和麻 本田
Kazuma Honda
和麻 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020006816A priority Critical patent/JP2021113753A/en
Publication of JP2021113753A publication Critical patent/JP2021113753A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

To provide a fogging determination device that can determine whether fogging occurs in an imaging optical system and the like of an imaging device with higher accuracy based on an image captured by the imaging device.SOLUTION: A fogging determination device comprises: a characteristic-amount calculation unit 231 that, as to each pixel included in an image generated by a camera 1 having an imaging optical system 11, calculates an amount of characteristic in which values in accordance with a luminance difference among respective pixels of a set of pairs of pixels of the pixel and a plurality of peripheral pixels located around the pixel are arrayed according to an alignment sequence of the set of pairs of pixels; and a fogging determination unit 233 that, when the image is acquired, determines whether fogging occurs in an imaging optical system and the like on the basis of the amount of characteristic.SELECTED DRAWING: Figure 1

Description

本発明は、曇り判定装置および曇り判定方法に関する。 The present invention relates to a fogging determination device and a fogging determination method.

車両に搭載されたカメラにより取得された、車両の周辺状況を示す画像を用いて走行制御装置が車両の走行を制御する技術が知られている。走行制御装置は、カメラが撮像する画像に基づいて認識された物体や地物など物体等の情報を、車両の動力、制動、操舵といった走行動作の制御のために用いる。 There is known a technique in which a travel control device controls the travel of a vehicle by using an image showing the surrounding condition of the vehicle acquired by a camera mounted on the vehicle. The travel control device uses information on objects such as objects and features recognized based on images captured by the camera to control travel operations such as vehicle power, braking, and steering.

カメラの撮像光学系に物体が付着していた場合、そのような撮像光学系を介して取得される画像には、物体が不明瞭となる領域が生じる。そのような領域から物体を抽出することは困難となるため、このような画像を用いて走行制御装置が車両の走行を安全に制御することは困難である。 When an object is attached to the image pickup optical system of the camera, the image acquired through such an image pickup optical system has a region in which the object becomes unclear. Since it is difficult to extract an object from such a region, it is difficult for the travel control device to safely control the travel of the vehicle using such an image.

特許文献1には、撮影画像中の判定対象エリアにおけるエッジ強度、輝度および彩度のヒストグラムに基づいて、付着物の存否を判定する付着物検出装置が記載されている。 Patent Document 1 describes a deposit detection device that determines the presence or absence of deposits based on a histogram of edge strength, brightness, and saturation in a determination target area in a captured image.

特開2018−071994号公報Japanese Unexamined Patent Publication No. 2018-071994

特許文献1に記載の付着物検出装置は、撮影画像に基づいて撮像光学系の一部領域を遮る水滴、雪粒、氷、埃、泥といった付着物を検出するときの検出精度向上を課題としている。一方、カメラの撮像光学系に曇りが生じる場合がある。曇りの生じた撮像光学系を介して撮影された画像では、画像全体においてコントラストが低下し、物体等の認識精度が低下する。特許文献1に記載の付着物検出装置は、カメラの撮像光学系に曇りが生じていたか否かを、必ずしも精度よく判定することができない。 The deposit detection device described in Patent Document 1 has an object of improving the detection accuracy when detecting deposits such as water droplets, snowflakes, ice, dust, and mud that block a part of an imaging optical system based on a captured image. There is. On the other hand, the imaging optical system of the camera may become cloudy. In an image taken through a cloudy imaging optical system, the contrast of the entire image is lowered, and the recognition accuracy of an object or the like is lowered. The deposit detection device described in Patent Document 1 cannot always accurately determine whether or not the imaging optical system of the camera is cloudy.

本発明は、撮像装置により取得された画像に基づいて、撮像装置の撮像光学系等に曇りが生じていたか否かをより高い精度で判定する曇り判定装置を提供することを目的とする。 An object of the present invention is to provide a cloudiness determination device that determines with higher accuracy whether or not cloudiness has occurred in the image pickup optical system of the image pickup device based on the image acquired by the image pickup device.

本発明にかかる曇り判定装置は、撮像光学系を有する撮像装置により生成された画像に含まれる各画素について、当該画素および当該画素の周囲に位置する複数の周囲画素のうちの複数の一対の画素の組のそれぞれにおける画素間の輝度差に応じた値を一対の画素の組の並び順に従って配列した特徴量を算出する特徴量算出部と、特徴量に基づいて、画像が生成されたときに撮像光学系または撮像光学系よりも物体側に位置する透明部材に曇りが生じていたか否かを判定する曇り判定部と、を備える。 In the cloudiness determination device according to the present invention, for each pixel included in an image generated by an image pickup device having an imaging optical system, a plurality of pairs of pixels among the pixel and a plurality of peripheral pixels located around the pixel. When an image is generated based on the feature amount calculation unit and the feature amount calculation unit that calculates the feature amount in which the values corresponding to the brightness difference between the pixels in each of the sets are arranged according to the arrangement order of the pair of pixel sets. The image pickup optical system or a cloudiness determination unit for determining whether or not the transparent member located on the object side of the image pickup optical system is cloudy is provided.

また、本発明にかかる曇り判定装置では、特徴量算出部は、一対の画素の組における画素間の輝度差の絶対値が輝度閾値以上であるか否かにより各周囲画素に対応づけられた値を、一対の画素の組の並び順に従って配列することにより特徴量を算出することが好ましい。 Further, in the cloudiness determination device according to the present invention, the feature amount calculation unit is a value associated with each peripheral pixel depending on whether or not the absolute value of the brightness difference between pixels in the pair of pixels is equal to or greater than the brightness threshold value. It is preferable to calculate the feature amount by arranging the above according to the arrangement order of the pair of pixels.

また、本発明にかかる曇り判定装置では、一対の画素の組は、当該画素を中心として点対称の位置にある2つの周囲画素であることが好ましい。 Further, in the fogging determination device according to the present invention, it is preferable that the pair of pixels is two peripheral pixels located at point-symmetrical positions with respect to the pixel.

また、本発明にかかる曇り判定装置では、特徴量は、LBP(Local Binary Pattern)特徴であることが好ましい。 Further, in the cloudiness determination device according to the present invention, the feature amount is preferably an LBP (Local Binary Pattern) feature.

また、本発明にかかる曇り判定装置では、特徴量の出現頻度を示すヒストグラムを生成するヒストグラム生成部をさらに備え、曇り判定部は、ヒストグラムに基づいて曇りが生じていたか否かを判定することが好ましい。 Further, the cloudiness determination device according to the present invention further includes a histogram generation unit that generates a histogram indicating the appearance frequency of the feature amount, and the cloudiness determination unit can determine whether or not cloudiness has occurred based on the histogram. preferable.

本発明にかかる曇り判定装置は、曇り判定部は、予め学習された識別器に特徴量を入力することにより、曇りが生じていたか否かを判定することが好ましい。 In the cloudiness determination device according to the present invention, it is preferable that the cloudiness determination unit determines whether or not cloudiness has occurred by inputting a feature amount into a discriminator learned in advance.

また、本発明にかかる曇り判定装置では、撮像装置により所定期間内において異なる時刻に生成された複数の画像のうち、一対の画像の組のそれぞれについて、当該一対の画像の組における対応画素間での特徴量の類似度を求め、一対の画像の組のそれぞれにおける対応画素の類似度の代表値を当該画素の値として有する代表値マップを生成する代表値マップ生成部をさらに備え、曇り判定部は、代表値マップに基づいて曇りが生じていたか否かを判定することが好ましい。 Further, in the cloudiness determination device according to the present invention, among a plurality of images generated at different times within a predetermined period by the imaging device, for each of the pair of image sets, between the corresponding pixels in the pair of image sets. A representative value map generation unit that obtains the similarity of the feature amounts of It is preferable to determine whether or not cloudiness has occurred based on the representative value map.

また、本発明にかかる曇り判定装置では、曇り判定部は、代表値マップに、代表値閾値よりも大きい代表値を有する画素が連続する所定サイズよりも大きい領域が検出された場合、曇りが生じていたと判定することが好ましい。 Further, in the fogging determination device according to the present invention, the fogging determination unit causes fogging when a region larger than a predetermined size in which pixels having a representative value larger than the representative value threshold value are continuously detected in the representative value map. It is preferable to determine that it was.

本発明にかかる曇り判定方法は、撮像光学系を有する撮像装置により生成された画像に含まれる各画素について、当該画素および当該画素の周囲に位置する複数の周囲画素のうち一対の画素間の輝度差に応じた値を複数の周囲画素のそれぞれの並び順に従って配列した特徴量を算出し、特徴量に基づいて、画像が生成されたときに撮像光学系または撮像光学系よりも物体側に配置された透明部材に曇りが生じていたか否かを判定する、ことを含む。 In the cloudiness determination method according to the present invention, for each pixel included in an image generated by an image pickup apparatus having an imaging optical system, the brightness between the pixel and a plurality of peripheral pixels located around the pixel is between a pair of pixels. The feature amount is calculated by arranging the values according to the difference according to the arrangement order of each of the plurality of peripheral pixels, and based on the feature amount, when the image is generated, it is arranged on the object side of the image pickup optical system or the image pickup optical system. It includes determining whether or not the transparent member is clouded.

本発明にかかる曇り判定装置によれば、撮像装置により生成された画像に基づいて、撮像装置の撮像光学系等に曇りが生じていたか否かをより高い精度で判定することができる。 According to the cloudiness determination device according to the present invention, it is possible to determine with higher accuracy whether or not cloudiness has occurred in the image pickup optical system or the like of the image pickup device based on the image generated by the image pickup device.

第1実施形態にかかるECUの動作概要図である。It is the operation outline figure of the ECU which concerns on 1st Embodiment. 第1実施形態にかかるECUを搭載した車両の概略構成図である。It is a schematic block diagram of the vehicle equipped with the ECU which concerns on 1st Embodiment. 第1実施形態にかかるECUのハードウェア模式図である。It is a hardware schematic diagram of the ECU which concerns on 1st Embodiment. 第1実施形態にかかるECUが有するプロセッサの機能ブロック図である。It is a functional block diagram of the processor which the ECU which concerns on 1st Embodiment has. 特徴量の算出を説明する模式図である。It is a schematic diagram explaining the calculation of a feature amount. LBP(Local Binary Pattern)特徴のパターンの例を示す図である。It is a figure which shows the example of the pattern of the LBP (Local Binary Pattern) feature. ヒストグラムの模式図である。It is a schematic diagram of a histogram. SVM(Support Vector Machine)による分類を説明する模式図である。It is a schematic diagram explaining the classification by SVM (Support Vector Machine). 第1実施形態にかかるECUの処理フローチャートである。It is a processing flowchart of the ECU which concerns on 1st Embodiment. 第2実施形態にかかるECUが有するプロセッサの機能ブロック図である。It is a functional block diagram of the processor which the ECU which concerns on 2nd Embodiment has. 代表値マップの生成を説明する図である。It is a figure explaining the generation of the representative value map. (a)は撮像光学系に曇りが生じていたときに取得された画像の例であり、(b)は(a)の画像に対応する代表値マップの例である。(A) is an example of an image acquired when the imaging optical system is cloudy, and (b) is an example of a representative value map corresponding to the image of (a). 第2実施形態にかかるECUの処理フローチャートである。It is a processing flowchart of the ECU which concerns on 2nd Embodiment. 代表値マップ生成処理のフローチャートである。It is a flowchart of representative value map generation processing.

以下、図面を参照して曇り判定装置および曇り判定方法について詳細に説明する。ただし、本発明は図面または以下に記載される実施形態に限定されないことを理解されたい。 Hereinafter, the fogging determination device and the fogging determination method will be described in detail with reference to the drawings. However, it should be understood that the present invention is not limited to the drawings or embodiments described below.

曇り判定装置は、撮像装置により生成された画像の入力を受け付けて、画像が生成されたときに撮像装置の撮像光学系等に曇りが生じていたか否かを判定する。そのために、曇り判定装置は、画像に含まれる各画素について、当該画素および当該画素の周囲に位置する複数の周囲画素のうちの複数の一対の画素の組のそれぞれにおける画素間の輝度差に応じた値を一対の画素の組の並び順に従って配列した特徴量を算出する。そして、曇り判定装置は、特徴量に基づいて、画像が生成されたときに撮像光学系等に曇りが生じていたか否かを判定する。 The fogging determination device receives an input of an image generated by the image pickup device, and determines whether or not fogging has occurred in the image pickup optical system or the like of the image pickup device when the image is generated. Therefore, the cloudiness determination device responds to the brightness difference between the pixels in each of the pair of a plurality of pairs of pixels among the pixel and the plurality of peripheral pixels located around the pixel for each pixel included in the image. The feature amount is calculated by arranging the values according to the arrangement order of the pair of pixels. Then, the fogging determination device determines whether or not fogging has occurred in the imaging optical system or the like when the image is generated, based on the feature amount.

図1は、第1実施形態にかかるECUの動作概要図である。 FIG. 1 is a schematic operation diagram of the ECU according to the first embodiment.

本実施形態において、ECU(Electronic Control Unit)2は曇り判定装置の一例である。ECU2は、車両Vに搭載されたカメラ1により生成された画像の入力を受け付ける。ECU2は、画像に含まれる各画素の特徴量を算出し、ヒストグラムを生成する。各画素の特徴量は、当該画素および当該画素の周囲に位置する複数の周囲画素のうちの一対の画素の組のそれぞれにおける画素間の輝度差に応じた値を、一対の画素の組の並び順に従って配列した値である。ヒストグラムは、画像における特徴量の出現頻度を示す。そして、ECU2は、ヒストグラムに基づいて、画像が生成されたときにカメラ1の撮像光学系11等に曇りが生じていたか否かを判定する。図1の例では、ECU2は、画像Aが生成されたときに曇りが生じており、画像Bが生成されたときに曇りが生じていなかったと判定する。これにより、ECU2は、カメラ1により生成された画像に基づいて、カメラ1の撮像光学系11等に曇りが生じていたか否かをより高い精度で判定することができる。 In the present embodiment, the ECU (Electronic Control Unit) 2 is an example of a fogging determination device. The ECU 2 accepts the input of the image generated by the camera 1 mounted on the vehicle V. The ECU 2 calculates the feature amount of each pixel included in the image and generates a histogram. The feature amount of each pixel is a value corresponding to the brightness difference between the pixels in each of the pair of pixels of the pixel and the plurality of peripheral pixels located around the pixel, and is an array of the pair of pixels. The values are arranged in order. The histogram shows the frequency of appearance of features in the image. Then, the ECU 2 determines, based on the histogram, whether or not the imaging optical system 11 or the like of the camera 1 is cloudy when the image is generated. In the example of FIG. 1, the ECU 2 determines that cloudiness has occurred when the image A is generated, and that cloudiness has not occurred when the image B is generated. As a result, the ECU 2 can determine with higher accuracy whether or not the imaging optical system 11 or the like of the camera 1 is clouded based on the image generated by the camera 1.

図2は、第1実施形態にかかるECUを搭載した車両の概略構成図である。 FIG. 2 is a schematic configuration diagram of a vehicle equipped with the ECU according to the first embodiment.

車両Vは、撮像装置の一例であるカメラ1、ECU2およびGNSS(Global Navigation Satellite System)センサ3を搭載する。 The vehicle V is equipped with a camera 1, an ECU 2, and a GNSS (Global Navigation Satellite System) sensor 3, which are examples of an imaging device.

カメラ1、撮像光学系11と2次元光センサ12とを有する。カメラ1は、撮像光学系11を透過して2次元光センサ12の上に結像する像に応じた画像を生成する。カメラ1は、車両Vの周囲の情報を示す画像を生成するように、例えば車両Vの前方を向けて車室内に設置される。前方を向けて車室内に設置されたカメラ1の撮像光学系11の物体側には、透明部材の一例であるフロントガラス4が配置される。すなわち、カメラ1は、フロントガラス4および撮像光学系11を透過して2次元光センサ12の上に結像する光Lに応じた画像を生成する。 It has a camera 1, an imaging optical system 11, and a two-dimensional optical sensor 12. The camera 1 transmits the image pickup optical system 11 and generates an image corresponding to the image formed on the two-dimensional optical sensor 12. The camera 1 is installed in the vehicle interior, for example, with the front of the vehicle V facing so as to generate an image showing information around the vehicle V. A windshield 4 which is an example of a transparent member is arranged on the object side of the image pickup optical system 11 of the camera 1 installed in the vehicle interior with the front facing forward. That is, the camera 1 generates an image corresponding to the light L that passes through the windshield 4 and the imaging optical system 11 and forms an image on the two-dimensional optical sensor 12.

ECU2は、カメラ1により生成された画像から検出された物体に基づいて、車両Vの走行を制御する。例えば、ECU2は、画像から物体の位置を特定し、車両Vが物体に衝突しないように車両Vのアクセル開度、ブレーキ量および操舵角を設定する。そして、ECU2は、設定されたアクセル開度、ブレーキ量および操舵角に応じた制御信号を、車両Vのエンジンの燃料噴射装置(不図示)、ブレーキ(不図示)、車両Vの操舵輪を制御するアクチュエータ(不図示)に出力する。 The ECU 2 controls the traveling of the vehicle V based on the object detected from the image generated by the camera 1. For example, the ECU 2 identifies the position of the object from the image and sets the accelerator opening, the brake amount, and the steering angle of the vehicle V so that the vehicle V does not collide with the object. Then, the ECU 2 controls the fuel injection device (not shown) of the engine of the vehicle V, the brake (not shown), and the steering wheel of the vehicle V with control signals according to the set accelerator opening, brake amount, and steering angle. Output to the actuator (not shown).

撮像光学系11またはフロントガラス4に曇りが生じていた場合、画像が全体に不明瞭となるため、画像に基づく物体等の認識精度が低下する。そのため、ECU2はこのような画像に基づいて車両Vの走行を安全に制御することが困難になる。 When the imaging optical system 11 or the windshield 4 is cloudy, the image becomes unclear as a whole, so that the recognition accuracy of an object or the like based on the image is lowered. Therefore, it becomes difficult for the ECU 2 to safely control the traveling of the vehicle V based on such an image.

ECU2は、曇りが生じていなかったと判定された場合、カメラ1により生成された画像から検出された物体に基づく車両Vの走行制御を継続する。一方、ECU2は、曇りが生じていたと判定された場合、車両Vの安全を確保するための制御を行う。例えば、ECU2は、車両Vの情報ディスプレイ(不図示)に、自動運転から手動運転への移行を運転者に要求するメッセージを表示させる。また、ECU2は、車両Vを安全な場所で停止するように車両Vのエンジンの燃料噴射装置(不図示)、ブレーキ(不図示)、車両Vの操舵輪を制御するアクチュエータ(不図示)に制御信号を出力してもよい。安全な場所への経路は、GNSSセンサ3により特定される位置情報に基づいて、地点に関連づけて地物情報を記憶する地物情報マスタ(不図示)から地物情報を取得し、地物情報に基づいて現在地点近傍の安全な場所を特定することにより決定することができる。 When it is determined that the cloudiness has not occurred, the ECU 2 continues the traveling control of the vehicle V based on the object detected from the image generated by the camera 1. On the other hand, when it is determined that cloudiness has occurred, the ECU 2 controls to ensure the safety of the vehicle V. For example, the ECU 2 causes the information display (not shown) of the vehicle V to display a message requesting the driver to shift from automatic driving to manual driving. Further, the ECU 2 is controlled by a fuel injection device (not shown) of the engine of the vehicle V, a brake (not shown), and an actuator (not shown) that controls the steering wheel of the vehicle V so as to stop the vehicle V at a safe place. A signal may be output. For the route to a safe place, based on the position information specified by the GNSS sensor 3, the feature information is acquired from the feature information master (not shown) that stores the feature information in association with the point, and the feature information is obtained. It can be determined by identifying a safe location near the current location based on.

図3は、第1実施形態にかかるECUのハードウェア模式図である。 FIG. 3 is a schematic hardware diagram of the ECU according to the first embodiment.

ECU2は、車両Vに搭載されたカメラ1により生成された画像を受け付けて、画像が生成されたときにカメラ1の撮像光学系11等に曇りが生じていたか否かを判定する。そのために、ECU2は、入出力インタフェース21と、メモリ22と、プロセッサ23とを備える。 The ECU 2 receives the image generated by the camera 1 mounted on the vehicle V, and determines whether or not the image pickup optical system 11 or the like of the camera 1 is clouded when the image is generated. Therefore, the ECU 2 includes an input / output interface 21, a memory 22, and a processor 23.

入出力インタフェース21は、ECU2と外部機器とのデータの入出力を行うためのインタフェース回路である。入出力インタフェース21は、受け付けた画像のデータをプロセッサ23に供給する。また、入出力インタフェース21は、プロセッサ23から供給されたデータを外部に出力する。入出力インタフェース21は、例えばCAN(Controller Area Network)による通信を行うための回路である。また、入出力インタフェース21は、USB(Universal Serial Bus)などの周辺機器接続を行うための回路であってもよい。 The input / output interface 21 is an interface circuit for inputting / outputting data between the ECU 2 and an external device. The input / output interface 21 supplies the received image data to the processor 23. Further, the input / output interface 21 outputs the data supplied from the processor 23 to the outside. The input / output interface 21 is, for example, a circuit for performing communication by CAN (Controller Area Network). Further, the input / output interface 21 may be a circuit for connecting peripheral devices such as USB (Universal Serial Bus).

メモリ22は、例えば、半導体メモリまたは磁気ディスク装置である。メモリ22は、プロセッサ23による処理に用いられるアプリケーションプログラム、データ等を記憶する。例えば、メモリ22は、アプリケーションプログラムとして、特徴量算出プログラム、曇り判定プログラム等を記憶する。各種プログラムは、コンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いてメモリ22にインストールされてよい。コンピュータ読み取り可能な可搬型記録媒体とは、例えばメモリカード、可搬型ハードディスクドライブ等である。 The memory 22 is, for example, a semiconductor memory or a magnetic disk device. The memory 22 stores application programs, data, and the like used for processing by the processor 23. For example, the memory 22 stores a feature amount calculation program, a cloudiness determination program, and the like as application programs. The various programs may be installed in the memory 22 from a computer-readable portable recording medium using a known setup program or the like. The computer-readable portable recording medium is, for example, a memory card, a portable hard disk drive, or the like.

プロセッサ23は、1以上のプロセッサおよびその周辺回路である。プロセッサ23は、ECU2の全体的な動作を統括的に制御するものであり、例えば、CPU(Central Processing Unit)である。プロセッサ23は、ECU2の各種処理がメモリ22に記憶されているプログラム等に基づいて適切な手段で実行されるように、入出力インタフェース21等の動作を制御する。プロセッサ23は、メモリ22に記憶されているアプリケーションプログラム等に基づいて処理を実行する。また、プロセッサ23は、複数のアプリケーションプログラム等を並列に実行することができる。 The processor 23 is one or more processors and peripheral circuits thereof. The processor 23 controls the overall operation of the ECU 2 in an integrated manner, and is, for example, a CPU (Central Processing Unit). The processor 23 controls the operation of the input / output interface 21 and the like so that various processes of the ECU 2 are executed by appropriate means based on the program and the like stored in the memory 22. The processor 23 executes processing based on an application program or the like stored in the memory 22. Further, the processor 23 can execute a plurality of application programs and the like in parallel.

図4は、第1実施形態にかかるECUが有するプロセッサの機能ブロック図である。 FIG. 4 is a functional block diagram of a processor included in the ECU according to the first embodiment.

ECU2のプロセッサ23は、機能ブロックとして、特徴量算出部231と、ヒストグラム生成部232と、曇り判定部233とを有する。プロセッサ23が有するこれらの各部は、プロセッサ23上で実行されるプログラムによって実装される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、独立した集積回路、マイクロプロセッサ、またはファームウェアとしてECU2に実装されてもよい。 The processor 23 of the ECU 2 has a feature amount calculation unit 231, a histogram generation unit 232, and a cloudiness determination unit 233 as functional blocks. Each of these parts of the processor 23 is a functional module implemented by a program executed on the processor 23. Alternatively, each of these parts of the processor 23 may be implemented in the ECU 2 as an independent integrated circuit, microprocessor, or firmware.

特徴量算出部231は、入出力インタフェース21を介してカメラ1により生成された画像の入力を受け付けると、画像に含まれる各画素について特徴量を算出する。各画素の特徴量は、当該画素および当該画素の周囲に位置する複数の周囲画素のうちの複数の一対の画素の組のそれぞれにおける画素間の輝度差に応じた値を一対の画素の組の並び順に従って配列した値である。特徴量算出部231は、所定数の画像の入力を受け付ける度に特徴量の算出を行ってもよい。 When the feature amount calculation unit 231 receives the input of the image generated by the camera 1 via the input / output interface 21, the feature amount calculation unit 231 calculates the feature amount for each pixel included in the image. The feature amount of each pixel is a value corresponding to the brightness difference between the pixels in each of the pair of pixels of the pixel and the plurality of peripheral pixels located around the pixel. The values are arranged according to the order. The feature amount calculation unit 231 may calculate the feature amount each time it receives an input of a predetermined number of images.

特徴量算出部231は、各画素について、当該画素および周囲画素の輝度を取得する。そして、特徴量算出部231は、当該画素と各周囲画素の輝度に基づいて特徴量を算出する。 The feature amount calculation unit 231 acquires the brightness of the pixel and the surrounding pixels for each pixel. Then, the feature amount calculation unit 231 calculates the feature amount based on the brightness of the pixel and each peripheral pixel.

図5は、特徴量の算出を説明する模式図である。 FIG. 5 is a schematic diagram illustrating the calculation of the feature amount.

模式図500は、特徴量算出の対象となる対象画素およびその周囲画素の配置を示している。対象画素cの周囲には、右隣りから時計まわりに周囲画素c0、c1の並び順で、8個の周囲画素が配置されている。特徴量算出部231は、対象画素cの輝度ncと、周囲画素c0-c7の輝度n0-n7とを比較する。すなわち、対象画素cと周囲画素c0、対象画素cと周囲画素c1等は、一対の画素の組の一例である。そして、特徴量算出部231は、一対の画素の組の画素間の輝度差に応じて、輝度がncよりも小さい周囲画素に0を、輝度が対象画素の輝度よりも大きいか等しい周囲画素に1を対応づける。特徴量算出部231は、周囲画素に対応づけられた値を、周囲画素の並び順に従って(例えば右隣の周囲画素c0から時計まわりに)配列することにより、各画素の特徴量を算出する。 Schematic diagram 500 shows the arrangement of the target pixels for which the feature amount is calculated and the peripheral pixels thereof. Around the target pixel c, eight peripheral pixels are arranged in the order of peripheral pixels c 0 and c 1 clockwise from the right side. The feature amount calculation unit 231 compares the brightness n c of the target pixel c with the brightness n 0 -n 7 of the peripheral pixels c 0 -c 7 . That is, the target pixel c and the peripheral pixel c 0 , the target pixel c and the peripheral pixel c 1, and the like are examples of a pair of pixels. Then, the feature amount calculation unit 231 sets 0 to the peripheral pixels whose brightness is smaller than n c , and the peripheral pixels whose brightness is larger than or equal to the brightness of the target pixel, according to the brightness difference between the pixels of the pair of pixels. Is associated with 1. The feature amount calculation unit 231 calculates the feature amount of each pixel by arranging the values associated with the peripheral pixels according to the arrangement order of the peripheral pixels (for example, clockwise from the peripheral pixel c 0 on the right side). ..

なお、特徴量算出部231は、対象画素cの輝度ncと周囲画素c0-c7の輝度n0-n7との差の絶対値が輝度閾値以上であるか否かにより各周囲画素に対応づけられた値を、周囲画素の位置に従って配列することにより特徴量を算出してもよい。例えば、ある実施形態において特徴量算出部231は、対象画素cの輝度ncとの差の絶対値が輝度閾値よりも小さい周囲画素に0を、対象画素cの輝度ncとの差の絶対値が輝度閾値よりも大きいか等しい周囲画素に1を対応づける。そして、特徴量算出部231は、周囲画素に対応づけられた値を、周囲画素の並び順に従って(例えば右隣から時計まわりに)配列することにより、各画素の特徴量を算出する。このように特徴量を算出するECUは、輝度閾値を変更することにより、曇り検出の感度を制御することができる。 The feature amount calculation unit 231 determines each peripheral pixel depending on whether or not the absolute value of the difference between the brightness n c of the target pixel c and the brightness n 0 -n 7 of the peripheral pixels c 0 -c 7 is equal to or greater than the brightness threshold value. The feature amount may be calculated by arranging the values associated with the above according to the positions of the surrounding pixels. For example, in a certain embodiment, the feature amount calculation unit 231 sets 0 to the peripheral pixels whose absolute value of the difference between the target pixel c and the brightness n c is smaller than the brightness threshold, and the absolute value of the difference between the target pixel c and the brightness n c. 1 is associated with surrounding pixels whose values are greater than or equal to the luminance threshold. Then, the feature amount calculation unit 231 calculates the feature amount of each pixel by arranging the values associated with the peripheral pixels according to the arrangement order of the peripheral pixels (for example, clockwise from the right side). The ECU that calculates the feature amount in this way can control the sensitivity of cloudiness detection by changing the brightness threshold value.

特徴量算出部231は、以下の式(1)に従って、LBP(Local Binary Pattern)特徴を特徴量として算出してもよい。式(1)において、Pは周囲画素の数、TLBPは輝度閾値である。 The feature amount calculation unit 231 may calculate the LBP (Local Binary Pattern) feature as a feature amount according to the following equation (1). In equation (1), P is the number of surrounding pixels and T LBP is the luminance threshold.

Figure 2021113753
Figure 2021113753

また、特徴量算出部231は、CSCT(Center-Symmetric Census Transform)に従って特徴量を算出してもよい。CSCTに従って特徴量を算出する特徴量算出部231は、対象画素cを中心として点対称となる位置にある2つの周囲画素(例えば周囲画素c0と周囲画素c4)を一対の画素の組とする。そして、特徴量算出部231は、一対の画素の組における画素間の輝度差に応じた値を一対の画素の並び順に従って配列することにより特徴量を算出する。このように特徴量を算出するECUは、特徴量の算出に必要な計算量が減少するため、高速に処理を実行することができる。 Further, the feature amount calculation unit 231 may calculate the feature amount according to CSST (Center-Symmetric Census Transform). The feature amount calculation unit 231 that calculates the feature amount according to the CSST combines two peripheral pixels (for example, peripheral pixel c 0 and peripheral pixel c 4 ) located at positions symmetrical with respect to the target pixel c as a pair of pixels. do. Then, the feature amount calculation unit 231 calculates the feature amount by arranging the values corresponding to the brightness difference between the pixels in the pair of pixels according to the arrangement order of the pair of pixels. The ECU that calculates the feature amount in this way can execute the process at high speed because the calculation amount required for calculating the feature amount is reduced.

CSCTに従って特徴量を算出するECUは、対象画素cを中心として点対称となる位置にある一対の画素の輝度差(図5の模式図500における|n0-n4|、|n1-n5|、|n2-n6|、|n3-n7|)を求める。そして、CSCTに従って特徴量を算出するECUは、輝度差に応じた値を一対の画素の並び順に従って(例えば、一対の画素のうち一方が対象画素の左上から右下に向けて連続するように)配列することにより、特徴量を算出する。 The ECU that calculates the feature amount according to CSCT has a luminance difference between a pair of pixels located at points symmetrical with respect to the target pixel c (| n 0 -n 4 |, | n 1 -n in the schematic diagram 500 of FIG. 5). 5 |, | n 2 -n 6 |, | n 3 -n 7 |). Then, the ECU that calculates the feature amount according to CSCT sets the value according to the brightness difference according to the arrangement order of the pair of pixels (for example, one of the pair of pixels is continuous from the upper left to the lower right of the target pixel). ) The feature amount is calculated by arranging.

本実施形態では、周囲画素は対象画素を囲む3×3の画素であるが、これに限らない。周囲画素は、例えば、対象領域を囲む4×4の画素、5×5の画素等であってもよい。 In the present embodiment, the peripheral pixels are 3 × 3 pixels surrounding the target pixel, but the peripheral pixels are not limited to this. The peripheral pixels may be, for example, 4 × 4 pixels surrounding the target area, 5 × 5 pixels, or the like.

図6は、LBP特徴のパターンの例を示す図である。 FIG. 6 is a diagram showing an example of a pattern of LBP features.

図6において、黒い丸は0が対応づけられた周囲画素を示し、白い丸は1が対応づけられた周囲画素を示す。すなわち、例えばパターンP1は、周囲画素のうち一つが1であり、他のすべての周囲画素が0である画素に対応している。このようなパターンP1は、「00000010」といった特徴量を有する。LBP特徴は、回転して一致するものを集約することにより、図6に示す36種類のパターンに分類される。さらに、図6に示すパターンP0-P8に当てはまらない27種類のパターンをパターンP9として統合することにより、LBP特徴は10種類のパターンに分類される。 In FIG. 6, black circles indicate peripheral pixels associated with 0, and white circles indicate peripheral pixels associated with 1. That is, for example, the pattern P1 corresponds to a pixel in which one of the peripheral pixels is 1 and all the other peripheral pixels are 0. Such a pattern P1 has a feature amount such as "00000010". LBP features are classified into 36 types of patterns shown in FIG. 6 by rotating and aggregating matching ones. Further, by integrating 27 types of patterns that do not correspond to the patterns P0-P8 shown in FIG. 6 as pattern P9, the LBP features are classified into 10 types of patterns.

LBP特徴は、回転して一致するものを集約せずに分類されてもよい。また、回転して一致するものを集約したLBP特徴のパターンは、図6に示す10種類以外に分類されてもよい。また、周囲画素が対象画素を囲む3×3の画素でない場合、LBP特徴のパターンは、周囲画素の数および配置に応じて適宜分類される。 LBP features may be categorized without aggregating rotating matches. Further, the pattern of the LBP feature, which is a collection of rotating and matching patterns, may be classified into other than the 10 types shown in FIG. When the peripheral pixels are not 3 × 3 pixels surrounding the target pixel, the pattern of the LBP feature is appropriately classified according to the number and arrangement of the peripheral pixels.

特徴量算出部231は、各画素の特徴量をパターンP0-P9に分類し、分類されたパターンに応じた値を特徴量として算出する。 The feature amount calculation unit 231 classifies the feature amount of each pixel into patterns P0-P9, and calculates a value corresponding to the classified pattern as a feature amount.

ヒストグラム生成部232は、入力された画像における特徴量の出現頻度を示すヒストグラムを生成する。ヒストグラムは、特徴量ごとの、その特徴量を有する画素の出現頻度を示す。 The histogram generation unit 232 generates a histogram showing the appearance frequency of the feature amount in the input image. The histogram shows the appearance frequency of pixels having the feature amount for each feature amount.

ヒストグラム生成部232は、各画素についてステップS11で算出した特徴量のパターンごとに、そのパターンに対応する特徴量を有する画素の出現頻度を集計する。 The histogram generation unit 232 aggregates the appearance frequency of the pixels having the feature amount corresponding to the pattern for each pattern of the feature amount calculated in step S11 for each pixel.

図7は、ヒストグラムの模式図である。 FIG. 7 is a schematic diagram of a histogram.

ヒストグラム600において、横軸はLBP特徴のパターンP0-P9に対応し、縦軸は各パターンに分類される画素の出現頻度を示す。ヒストグラム600は、画像Aにおいて、パターンP0-P9の頻度が、順に0.4、0.07、0.03、0.04、0.01、0.01、0.06、0.08、0.06、0.24であることを示している。また、ヒストグラム600は、画像Bにおいて、パターンP0-P9の頻度が、順に0.15、0.06、0.02、0.03、0.01、0.02、0.08、0.2、0.15、0.28であることを示している。このように、ヒストグラムにおいて、頻度は出現割合として表わされていてもよい。 In the histogram 600, the horizontal axis corresponds to the patterns P0-P9 of the LBP feature, and the vertical axis shows the appearance frequency of the pixels classified into each pattern. Histogram 600 shows that in image A, the frequencies of patterns P0-P9 are 0.4, 0.07, 0.03, 0.04, 0.01, 0.01, 0.06, 0.08, 0.06, 0.24, respectively. Histogram 600 also shows that in image B, the frequencies of patterns P0-P9 are 0.15, 0.06, 0.02, 0.03, 0.01, 0.02, 0.08, 0.2, 0.15, 0.28, respectively. Thus, in the histogram, the frequency may be expressed as an appearance rate.

なお、ヒストグラム600は、ヒストグラムを説明するため便宜的に記載したものである。ヒストグラム生成部232は、パターンに対応する特徴量を有する画素の出現頻度の集計値を出力する。 The histogram 600 is described for convenience in order to explain the histogram. The histogram generation unit 232 outputs an aggregated value of the appearance frequency of pixels having a feature amount corresponding to the pattern.

曇り判定部233は、特徴量に基づいて、画像が生成されたときに撮像光学系等に曇りが生じていたか否かを判定する。特に、本実施形態の曇り判定部233は、特徴量の出現頻度を示すヒストグラムに基づいて、曇りが生じていたか否かを判定する。 The fogging determination unit 233 determines whether or not fogging has occurred in the imaging optical system or the like when the image is generated, based on the feature amount. In particular, the cloudiness determination unit 233 of the present embodiment determines whether or not cloudiness has occurred based on the histogram showing the appearance frequency of the feature amount.

本実施形態において、特徴量のヒストグラムは10種類のパターンに分類された出現頻度であるため、10次元の値となる。曇り判定部233は、ヒストグラムを識別器に入力することにより、画像が生成されたときに撮像光学系等に曇りが生じていたか否かを判定する。 In the present embodiment, the feature amount histogram is a 10-dimensional value because it has an appearance frequency classified into 10 types of patterns. By inputting the histogram to the classifier, the fogging determination unit 233 determines whether or not fogging has occurred in the imaging optical system or the like when the image is generated.

識別器は、与えられたデータをいずれかのクラスに分類する。本実施形態において、識別器はSVM(Support Vector Machine)である。SVMは、クラス分けされた教師データを用いた機械学習に基づいて設定された識別関数を用いて、与えられたデータをクラスに分類する。 The classifier classifies the given data into one of the classes. In this embodiment, the classifier is an SVM (Support Vector Machine). The SVM classifies the given data into classes using a discriminant function set based on machine learning using the classified teacher data.

図8は、SVMによる分類を説明する模式図である。 FIG. 8 is a schematic diagram illustrating classification by SVM.

散布図800は、SVMに与えられるデータ点の散布状態を表わしている。上述のとおり、本実施形態において特徴量のヒストグラムは10次元の値であり、散布図800は10次元の値を説明のため仮想的に2次元平面に配置したものである。 Scatter plot 800 shows the scatter state of the data points given to the SVM. As described above, in the present embodiment, the histogram of the feature amount is a 10-dimensional value, and the scatter diagram 800 is a virtual arrangement of the 10-dimensional value on a two-dimensional plane for explanation.

黒丸で示すデータ点の集合811は、曇りのある画像のヒストグラムに対応している。白丸で示すデータ点の集合812は、曇りのない画像のヒストグラムに対応している。識別関数820は、集合811と集合812とを識別できるよう設定される。 The set of data points 811 indicated by black circles corresponds to the histogram of the cloudy image. The set of data points 812 indicated by white circles corresponds to a histogram of a clear image. The discriminant function 820 is set so as to be able to discriminate between the set 811 and the set 812.

識別器は、設定された識別関数820に対し原点側に位置するデータ点は曇りのない画像として、原点の反対側に位置するデータ点は曇りのある画像として分類する。 The discriminator classifies the data points located on the origin side as a clear image and the data points located on the opposite side of the origin as a cloudy image with respect to the set discrimination function 820.

図9は、第1実施形態にかかるECUの処理フローチャートである。 FIG. 9 is a processing flowchart of the ECU according to the first embodiment.

ECU2は、入出力インタフェース21によるカメラ1により生成された画像の入力受け付けに応じて図9の処理を開始する。まず、特徴量算出部231は、受け付けた画像に含まれる各画素について、特徴量を算出する(ステップS11)。 The ECU 2 starts the process of FIG. 9 in response to the input acceptance of the image generated by the camera 1 by the input / output interface 21. First, the feature amount calculation unit 231 calculates the feature amount for each pixel included in the received image (step S11).

次に、ヒストグラム生成部232は、画像における特徴量の出現頻度を示すヒストグラムを生成する(ステップS12)。 Next, the histogram generation unit 232 generates a histogram showing the appearance frequency of the feature amount in the image (step S12).

次に、曇り判定部233は、ステップS12で生成されたヒストグラムに基づいて、画像が生成されたときに撮像光学系11等に曇りが生じていたか否かを判定し(ステップS13)、処理を終了する。ECU2は、判定結果に応じて車両Vの走行を制御する。 Next, the cloudiness determination unit 233 determines whether or not cloudiness has occurred in the imaging optical system 11 or the like when the image is generated based on the histogram generated in step S12 (step S13), and performs processing. finish. The ECU 2 controls the traveling of the vehicle V according to the determination result.

以上のように処理することにより、本実施形態にかかるECUは、撮像装置により生成された画像に基づいて、撮像装置の撮像光学系等に曇りが生じていたか否かをより高い精度で判定することができる。 By processing as described above, the ECU according to the present embodiment determines with higher accuracy whether or not the imaging optical system of the imaging device is cloudy based on the image generated by the imaging device. be able to.

次に、第2実施形態にかかる曇り判定装置を説明する。本実施形態において、曇り判定装置の一例であるECU2′は、カメラ1により所定期間内において異なる時刻に生成された複数の画像のうち、一対の画像の組のそれぞれについて、当該の画像の組における対応画素間での特徴量の類似度を求める。そして、ECU2′は、一対の画像の組のそれぞれにおける対応画素の類似度の代表値を当該画素の値として有する代表値マップに基づいて、曇りが生じていたか否かを判定する。これにより、ECU2′は、カメラ1により生成された画像に基づいて、カメラ1の撮像光学系11等に曇りが生じていたか否かをより高い精度で判定することができる。 Next, the cloudiness determination device according to the second embodiment will be described. In the present embodiment, the ECU 2', which is an example of the cloudiness determination device, has a set of images for each of a pair of images among a plurality of images generated by the camera 1 at different times within a predetermined period. Find the similarity of the features between the corresponding pixels. Then, the ECU 2'determines whether or not cloudiness has occurred based on a representative value map having a representative value of the similarity of the corresponding pixels in each of the pair of image sets as the value of the pixel. As a result, the ECU 2'can determine with higher accuracy whether or not the imaging optical system 11 or the like of the camera 1 is clouded based on the image generated by the camera 1.

本実施形態にかかるECU2′は、第1実施形態にかかるECU2と同様のハードウェア構成を有する。ECU2と共通するECU2′の構成部分の符号にはECU2と共通の符号を付し、説明を省略する。 The ECU 2'according to the present embodiment has the same hardware configuration as the ECU 2 according to the first embodiment. The reference numerals of the components of the ECU 2'common with the ECU 2 are given the same reference numerals as those of the ECU 2, and the description thereof will be omitted.

図10は、第2実施形態にかかるECUが有するプロセッサの機能ブロック図である。 FIG. 10 is a functional block diagram of a processor included in the ECU according to the second embodiment.

第2実施形態にかかるECU2′が有するプロセッサ23′は、ヒストグラム生成部232に代えて代表値マップ生成部234を有し、曇り判定部233に代えて曇り判定部233′を有する点が、第1実施形態にかかるプロセッサ23と相違する。 The processor 23'held by the ECU 2'according to the second embodiment has a representative value map generation unit 234 instead of the histogram generation unit 232 and a cloudiness determination unit 233'instead of the cloudiness determination unit 233. It is different from the processor 23 according to one embodiment.

代表値マップ生成部234は、カメラ1により所定期間内において異なる時刻に生成された複数の画像のうち、一対の画像の組のそれぞれについて、当該一対の画像の組における対応画素間での特徴量の類似度を求める。代表値マップ生成部234は、さらに、一対の画像の組のそれぞれにおける対応画素の類似度の代表値を当該画素の値として有する代表値マップを生成する。 The representative value map generation unit 234 has a feature amount between the corresponding pixels in the pair of images for each of the pair of images among the plurality of images generated by the camera 1 at different times within a predetermined period. Find the similarity of. The representative value map generation unit 234 further generates a representative value map having a representative value of the similarity of the corresponding pixels in each of the pair of image sets as the value of the pixel.

代表値マップ生成部234は、一対の画像における対象画素間での特徴量の類似度を、一対の画像における対応画素のそれぞれの特徴量の排他的論理和を計算することにより求める。例えば、座標(10,10)に対応する画素の特徴量が、一方の画像では「01110011」であり、他方の画像では「01001111」であるとする。これらの画素の類似度は、「00111100」と求められる。 The representative value map generation unit 234 obtains the similarity of the feature amounts between the target pixels in the pair of images by calculating the exclusive OR of the feature amounts of the corresponding pixels in the pair of images. For example, it is assumed that the feature amount of the pixel corresponding to the coordinates (10,10) is "01110011" in one image and "01001111" in the other image. The similarity of these pixels is determined to be "00111100".

図11は、代表値マップの生成を説明する図である。 FIG. 11 is a diagram illustrating the generation of a representative value map.

画像F1-F4は、カメラ1により所定期間Tにおいて異なる時刻t1-t4に生成された画像である。特徴量算出部231により、画像F1-F4について、座標(x,y)に対応する画素の特徴量S1-S4が算出されている。 Images F 1 -F 4 are images generated by the camera 1 at different times t 1 -t 4 in a predetermined period T. The feature amount calculation unit 231 calculates the feature amount S 1 -S 4 of the pixels corresponding to the coordinates (x, y) for the images F 1 -F 4 .

代表値マップ生成部234は、画像F1と画像F2について、対応画素間の特徴量S1と特徴量S2との類似度S12を求め、類似度マップR12を作成する。同様に、画像F2と画像F3、および、画像F3と画像F4のそれぞれの対応画素間の特徴量の類似度に基づいて、類似度マップR23および類似度マップR34を作成する。画像F1と画像F2、画像F2と画像F3、および、画像F3と画像F4は、一対の画像の組の例である。 The representative value map generation unit 234 obtains the similarity S 12 between the feature amount S 1 and the feature amount S 2 between the corresponding pixels for the image F 1 and the image F 2 , and creates the similarity map R 12. Similarly, the similarity map R 23 and the similarity map R 34 are created based on the similarity of the features between the corresponding pixels of the image F 2 and the image F 3 and the corresponding pixels of the image F 3 and the image F 4. .. Image F 1 and image F 2 , image F 2 and image F 3 , and image F 3 and image F 4 are examples of a pair of images.

一対の画像の組は、所定の周期(例えば1/30秒)で画像を生成するカメラ1において、時系列上で隣接する画像の組であってもよく、時系列上で所定数(例えば10画像)間隔をおいて隣接する画像の組であってもよい。 The pair of images may be a set of adjacent images in a time series in the camera 1 that generates images at a predetermined period (for example, 1/30 second), and a predetermined number (for example, 10) in the time series. Image) It may be a set of adjacent images at intervals.

代表値マップ生成部234は、類似度マップR12、R23およびR34に基づき、類似度の代表値を求める。例えば、類似度の代表値として、類似度S12、類似度S23および類似度S34の合計値S1234を各画素について求めることにより、代表値マップI1234を生成する。類似度の代表値は、類似度の最大値、最頻値、平均値、中央値等であってもよい。 The representative value map generation unit 234 obtains the representative value of the similarity based on the similarity maps R 12 , R 23, and R 34. For example, the representative value map I 1234 is generated by obtaining the total value S 1234 of the similarity S 12 , the similarity S 23, and the similarity S 34 as the representative value of the similarity for each pixel. The representative value of the similarity may be the maximum value, the mode value, the average value, the median value, or the like of the similarity.

曇り判定部233′は、特徴量に基づいて、複数の画像が生成された期間に撮像光学系等に曇りが生じていたか否かを判定する。特に、本実施形態の曇り判定部233′は複数の画像における各画素の特徴量に基づいて生成される代表値マップに基づいて、曇りが生じていたか否かを判定する。 The fogging determination unit 233'determines whether or not fogging has occurred in the imaging optical system or the like during the period when a plurality of images are generated, based on the feature amount. In particular, the cloudiness determination unit 233'of the present embodiment determines whether or not cloudiness has occurred based on a representative value map generated based on the feature amount of each pixel in a plurality of images.

図12(a)は撮像光学系に曇りが生じていたときに生成された画像の例であり、図12(b)は図12(a)の画像に対応する代表値マップの例である。 FIG. 12 (a) is an example of an image generated when the imaging optical system is cloudy, and FIG. 12 (b) is an example of a representative value map corresponding to the image of FIG. 12 (a).

図12(a)に示す画像Fおよび前後する異なる時刻に生成された画像(不図示)は、曇りが生じている画像である。代表値マップ生成部234は、これらの画像に基づいて図12(b)に示す代表値マップIを生成する。 The image F shown in FIG. 12A and the images (not shown) generated at different times before and after are cloudy images. The representative value map generation unit 234 generates the representative value map I shown in FIG. 12B based on these images.

代表値マップIには、代表値閾値よりも大きい代表値を有する画素が連続する領域Dが検出されている。代表値閾値は適宜設定される値であり、メモリ22に記憶される。領域Aは、予め設定された所定サイズよりも大きい領域である。曇り判定部233′は、代表値マップIに領域Dが検出された場合、代表値マップIの生成に用いられた画像が生成された期間に、撮像光学系等に曇りが生じていたと判定する。 In the representative value map I, a region D in which pixels having a representative value larger than the representative value threshold value are continuous is detected. The representative value threshold value is a value that is appropriately set and is stored in the memory 22. The area A is an area larger than a predetermined size set in advance. When the region D is detected in the representative value map I, the cloudiness determination unit 233'determines that the image pickup optical system or the like is cloudy during the period when the image used for generating the representative value map I is generated. ..

曇り判定部233′は、代表値マップIに平滑化処理を行った代表値マップI′に基づいて、曇りが生じていたか否かの判定を行ってもよい。平滑化処理を行った代表値マップI′を用いることにより、ECU2′はより精度よく曇りの有無を判定することができる。曇り判定部233′は、例えば代表値マップIにGaussian Filterを適用することにより、平滑化処理を行った代表値マップI′を作成することができる。 The cloudiness determination unit 233'may determine whether or not cloudiness has occurred based on the representative value map I'that has been smoothed on the representative value map I. By using the smoothed representative value map I', the ECU 2'can more accurately determine the presence or absence of fogging. The fogging determination unit 233'can create a representative value map I'that has been smoothed, for example, by applying a Gaussian Filter to the representative value map I.

曇り判定部233′は、代表値マップIの下半分の領域に大きい類似度を有する画素の領域が検出された場合に、曇りが生じていたと判定してもよい。車両外部の画像を生成するよう車両Vに搭載されたカメラ1は、一般に、上半分に空が写った画像を生成する。画像における空の領域は時系列での変動が小さいため、曇りが生じていない場合であっても大きい類似度を有する画素の領域として検出されることがある。曇り判定部233′は、集積マップIの下半分の領域に着目して判定を行うことで、より精度よく曇りの有無を判定することができる。 The fogging determination unit 233'may determine that fogging has occurred when a region of pixels having a large similarity is detected in the region of the lower half of the representative value map I. The camera 1 mounted on the vehicle V so as to generate an image of the outside of the vehicle generally generates an image of the sky in the upper half. Since the empty region in the image has a small variation in time series, it may be detected as a region of pixels having a large similarity even when cloudiness does not occur. The cloudiness determination unit 233'can determine the presence or absence of cloudiness more accurately by performing the determination focusing on the lower half region of the accumulation map I.

図13は、第2実施形態のECUの処理フローチャートである。 FIG. 13 is a processing flowchart of the ECU of the second embodiment.

まず、特徴量算出部231は、カメラ1により生成された画像に含まれる各画素の特徴量を算出する(ステップS21)。ステップS21の処理は、ステップS11の処理と同様である。 First, the feature amount calculation unit 231 calculates the feature amount of each pixel included in the image generated by the camera 1 (step S21). The process of step S21 is the same as the process of step S11.

次に、代表値マップ生成部234は、カメラ1により所定期間内において異なる時刻に生成された複数の画像における対応画素の特徴量に基づいて、代表値マップを生成する(ステップS22)。代表値マップは、複数の画像のうち一対の画像の組のそれぞれについて、当該一対の画像の組における対応画素間での特徴量の類似度の、一対の画像の組のそれぞれにおける対象画素の類似度の代表値を当該画素の値として生成されるマップである。代表値マップ生成処理については後述する。 Next, the representative value map generation unit 234 generates a representative value map based on the feature amounts of the corresponding pixels in the plurality of images generated by the camera 1 at different times within a predetermined period (step S22). In the representative value map, for each of the pair of images among the plurality of images, the similarity of the feature amounts between the corresponding pixels in the pair of images, and the similarity of the target pixels in each of the pair of images. It is a map generated by using the representative value of degree as the value of the pixel. The representative value map generation process will be described later.

次に、曇り判定部233′は、代表値マップに基づき曇り判定を行い(ステップS23)、処理を終了する。ECU2′は、判定結果に応じて車両Vの走行を制御する。 Next, the cloudiness determination unit 233'performs the cloudiness determination based on the representative value map (step S23), and ends the process. The ECU 2'controls the traveling of the vehicle V according to the determination result.

図14は、代表値マップ生成処理のフローチャートである。 FIG. 14 is a flowchart of the representative value map generation process.

代表値マップ生成処理が開始されると、代表値マップ生成部234は、カメラ1により所定期間内において異なる時刻に生成された複数の画像のうち、一対の画像の組のそれぞれについて、当該一対の画像の組における対応画素での特徴量の類似度を求める(ステップS221)。 When the representative value map generation process is started, the representative value map generation unit 234 describes the pair of images generated by the camera 1 at different times within a predetermined period for each of the pair of images. The similarity of the feature amounts in the corresponding pixels in the set of images is obtained (step S221).

続いて、代表値マップ生成部234は、一対の画像の組のそれぞれにおける対応画素の類似度の代表値を当該画素の値として有する代表値マップを生成し(ステップS222)、代表値マップ生成処理を終了する。 Subsequently, the representative value map generation unit 234 generates a representative value map having the representative value of the similarity of the corresponding pixels in each of the pair of image sets as the value of the pixel (step S222), and the representative value map generation process. To finish.

曇り判定装置は、車両に搭載されるECUに限定されず、パーソナルコンピュータなどの一般的な情報処理装置として実装されてもよい。 The fogging determination device is not limited to the ECU mounted on the vehicle, and may be implemented as a general information processing device such as a personal computer.

当業者は、本発明の精神および範囲から外れることなく、種々の変更、置換および修正をこれに加えることが可能であることを理解されたい。 It will be appreciated by those skilled in the art that various changes, substitutions and modifications can be made to this without departing from the spirit and scope of the invention.

2、2′ ECU
231 特徴量算出部
232 ヒストグラム生成部
233、233′ 曇り判定部
234 代表値マップ生成部
2, 2'ECU
231 Feature calculation unit 232 Histogram generation unit 233, 233'Cloudiness judgment unit 234 Representative value map generation unit

Claims (9)

撮像光学系を有する撮像装置により生成された画像に含まれる各画素について、当該画素および当該画素の周囲に位置する複数の周囲画素のうちの複数の一対の画素の組のそれぞれにおける画素間の輝度差に応じた値を前記一対の画素の組の並び順に従って配列した特徴量を算出する特徴量算出部と、
前記特徴量に基づいて、前記画像が生成されたときに前記撮像光学系または前記撮像光学系よりも物体側に位置する透明部材に曇りが生じていたか否かを判定する曇り判定部と、を備える曇り判定装置。
For each pixel included in an image generated by an image pickup apparatus having an imaging optical system, the brightness between the pixels in each of the pixel and a set of a plurality of pairs of pixels among a plurality of peripheral pixels located around the pixel. A feature amount calculation unit that calculates a feature amount in which values corresponding to the difference are arranged according to the arrangement order of the pair of pixels.
Based on the feature amount, a fogging determination unit for determining whether or not fogging has occurred in the imaging optical system or the transparent member located on the object side of the imaging optical system when the image is generated. A cloudiness judgment device provided.
前記特徴量算出部は、前記一対の画素の組における画素間の輝度差の絶対値が輝度閾値以上であるか否かにより各周囲画素に対応づけられた値を、前記一対の画素の組の並び順に従って配列することにより前記特徴量を算出する、請求項1に記載の曇り判定装置。 The feature amount calculation unit sets a value associated with each peripheral pixel depending on whether or not the absolute value of the brightness difference between pixels in the pair of pixels is equal to or greater than the brightness threshold value of the pair of pixels. The cloudiness determination device according to claim 1, wherein the feature amount is calculated by arranging the features according to the order of arrangement. 前記一対の画素の組は、当該画素を中心として点対称の位置にある2つの前記周囲画素である、請求項1または2に記載の曇り判定装置。 The fogging determination device according to claim 1 or 2, wherein the pair of pixels is two peripheral pixels located at point-symmetrical positions with respect to the pixel. 前記特徴量は、LBP(Local Binary Pattern)特徴である、請求項1〜3のいずれか一項に記載の曇り判定装置。 The cloudiness determination device according to any one of claims 1 to 3, wherein the feature amount is an LBP (Local Binary Pattern) feature. 前記特徴量の出現頻度を示すヒストグラムを生成するヒストグラム生成部をさらに備え、
前記曇り判定部は、前記ヒストグラムに基づいて曇りが生じていたか否かを判定する、請求項1〜4のいずれか一項に記載の曇り判定装置。
Further, a histogram generation unit for generating a histogram showing the appearance frequency of the feature amount is provided.
The cloudiness determination device according to any one of claims 1 to 4, wherein the cloudiness determination unit determines whether or not cloudiness has occurred based on the histogram.
前記曇り判定部は、予め学習された識別器に前記特徴量を入力することにより、曇りが生じていたか否かを判定する、請求項5に記載の曇り判定装置。 The cloudiness determination device according to claim 5, wherein the cloudiness determination unit determines whether or not cloudiness has occurred by inputting the feature amount into a pre-learned classifier. 前記撮像装置により所定期間内において異なる時刻に生成された複数の画像のうち、一対の画像の組のそれぞれについて、当該一対の画像の組における対応画素間での前記特徴量の類似度を求め、前記一対の画像の組のそれぞれにおける対応画素の前記類似度の代表値を当該画素の値として有する代表値マップを生成する代表値マップ生成部をさらに備え、
前記曇り判定部は、前記代表値マップに基づいて曇りが生じていたか否かを判定する、請求項1〜4のいずれか一項に記載の曇り判定装置。
For each of the pair of image sets among the plurality of images generated by the image pickup device at different times within a predetermined period, the similarity of the feature amounts between the corresponding pixels in the pair of image sets is obtained. A representative value map generation unit for generating a representative value map having the representative value of the similarity of the corresponding pixel in each of the pair of images as the value of the pixel is further provided.
The cloudiness determination device according to any one of claims 1 to 4, wherein the cloudiness determination unit determines whether or not cloudiness has occurred based on the representative value map.
前記曇り判定部は、前記代表値マップに、代表値閾値よりも大きい前記代表値を有する画素が連続する所定サイズよりも大きい領域が検出された場合、曇りが生じていたと判定する、請求項7に記載の曇り判定装置。 7. The cloudiness determination unit determines that cloudiness has occurred when a region larger than a predetermined size in which pixels having the representative value larger than the representative value threshold value are detected in the representative value map. The cloudiness determination device according to. 撮像光学系を有する撮像装置により生成された画像に含まれる各画素について、当該画素および当該画素の周囲に位置する複数の周囲画素のうちの複数の一対の画素の組のそれぞれにおける画素間の輝度差に応じた値を前記一対の画素の組の並び順に従って配列した特徴量を算出し、
前記特徴量に基づいて、前記画像が生成されたときに前記撮像光学系または前記撮像光学系よりも物体側に配置された透明部材に曇りが生じていたか否かを判定する、ことを含む曇り判定方法。
For each pixel included in an image generated by an image pickup apparatus having an imaging optical system, the brightness between the pixels in each of the pixel and a set of a plurality of pairs of pixels among a plurality of peripheral pixels located around the pixel. The feature amount in which the values corresponding to the difference are arranged according to the arrangement order of the pair of pixels is calculated.
Cloudiness including determining whether or not cloudiness has occurred in the image pickup optical system or a transparent member arranged on the object side of the image pickup optical system when the image is generated based on the feature amount. Judgment method.
JP2020006816A 2020-01-20 2020-01-20 Fogging determination device and fogging determination method Pending JP2021113753A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020006816A JP2021113753A (en) 2020-01-20 2020-01-20 Fogging determination device and fogging determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020006816A JP2021113753A (en) 2020-01-20 2020-01-20 Fogging determination device and fogging determination method

Publications (1)

Publication Number Publication Date
JP2021113753A true JP2021113753A (en) 2021-08-05

Family

ID=77076906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020006816A Pending JP2021113753A (en) 2020-01-20 2020-01-20 Fogging determination device and fogging determination method

Country Status (1)

Country Link
JP (1) JP2021113753A (en)

Similar Documents

Publication Publication Date Title
JP5867273B2 (en) Approaching object detection device, approaching object detection method, and computer program for approaching object detection
US8848980B2 (en) Front vehicle detecting method and front vehicle detecting apparatus
JP3760068B2 (en) Image recognition device
KR101848019B1 (en) Method and Apparatus for Detecting Vehicle License Plate by Detecting Vehicle Area
US11288833B2 (en) Distance estimation apparatus and operating method thereof
US10878259B2 (en) Vehicle detecting method, nighttime vehicle detecting method based on dynamic light intensity and system thereof
JP2013190421A (en) Method for improving detection of traffic-object position in vehicle
US20070237398A1 (en) Method and apparatus for classifying an object
JP2006182086A (en) Vehicle sensing device
JP2013537661A (en) Automatic detection of moving objects using stereo vision technology
US20200125861A1 (en) Road line detection device and road line detection method
JP2021033510A (en) Driving assistance device
US20220171975A1 (en) Method for Determining a Semantic Free Space
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP2021113753A (en) Fogging determination device and fogging determination method
Bertozzi et al. Experience of the ARGO autonomous vehicle
CN115481724A (en) Method for training neural networks for semantic image segmentation
JP4719605B2 (en) Object detection data generation device, method and program, and object detection device, method and program
WO2022130780A1 (en) Image processing device
CN114018215B (en) Monocular distance measuring method, device, equipment and storage medium based on semantic segmentation
JP2019160251A (en) Image processing device, object recognition device, instrument control system, moving body, image processing method and program
JP7379523B2 (en) image recognition device
WO2021176820A1 (en) Processing device
US20230086937A1 (en) Vehicle external environment recognition apparatus
JP2012181691A (en) Method for recognizing patten on road surface, and information recording device for vehicle