JP2021113753A - Fogging determination device and fogging determination method - Google Patents
Fogging determination device and fogging determination method Download PDFInfo
- Publication number
- JP2021113753A JP2021113753A JP2020006816A JP2020006816A JP2021113753A JP 2021113753 A JP2021113753 A JP 2021113753A JP 2020006816 A JP2020006816 A JP 2020006816A JP 2020006816 A JP2020006816 A JP 2020006816A JP 2021113753 A JP2021113753 A JP 2021113753A
- Authority
- JP
- Japan
- Prior art keywords
- pixels
- cloudiness
- feature amount
- image
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
Description
本発明は、曇り判定装置および曇り判定方法に関する。 The present invention relates to a fogging determination device and a fogging determination method.
車両に搭載されたカメラにより取得された、車両の周辺状況を示す画像を用いて走行制御装置が車両の走行を制御する技術が知られている。走行制御装置は、カメラが撮像する画像に基づいて認識された物体や地物など物体等の情報を、車両の動力、制動、操舵といった走行動作の制御のために用いる。 There is known a technique in which a travel control device controls the travel of a vehicle by using an image showing the surrounding condition of the vehicle acquired by a camera mounted on the vehicle. The travel control device uses information on objects such as objects and features recognized based on images captured by the camera to control travel operations such as vehicle power, braking, and steering.
カメラの撮像光学系に物体が付着していた場合、そのような撮像光学系を介して取得される画像には、物体が不明瞭となる領域が生じる。そのような領域から物体を抽出することは困難となるため、このような画像を用いて走行制御装置が車両の走行を安全に制御することは困難である。 When an object is attached to the image pickup optical system of the camera, the image acquired through such an image pickup optical system has a region in which the object becomes unclear. Since it is difficult to extract an object from such a region, it is difficult for the travel control device to safely control the travel of the vehicle using such an image.
特許文献1には、撮影画像中の判定対象エリアにおけるエッジ強度、輝度および彩度のヒストグラムに基づいて、付着物の存否を判定する付着物検出装置が記載されている。
特許文献1に記載の付着物検出装置は、撮影画像に基づいて撮像光学系の一部領域を遮る水滴、雪粒、氷、埃、泥といった付着物を検出するときの検出精度向上を課題としている。一方、カメラの撮像光学系に曇りが生じる場合がある。曇りの生じた撮像光学系を介して撮影された画像では、画像全体においてコントラストが低下し、物体等の認識精度が低下する。特許文献1に記載の付着物検出装置は、カメラの撮像光学系に曇りが生じていたか否かを、必ずしも精度よく判定することができない。
The deposit detection device described in
本発明は、撮像装置により取得された画像に基づいて、撮像装置の撮像光学系等に曇りが生じていたか否かをより高い精度で判定する曇り判定装置を提供することを目的とする。 An object of the present invention is to provide a cloudiness determination device that determines with higher accuracy whether or not cloudiness has occurred in the image pickup optical system of the image pickup device based on the image acquired by the image pickup device.
本発明にかかる曇り判定装置は、撮像光学系を有する撮像装置により生成された画像に含まれる各画素について、当該画素および当該画素の周囲に位置する複数の周囲画素のうちの複数の一対の画素の組のそれぞれにおける画素間の輝度差に応じた値を一対の画素の組の並び順に従って配列した特徴量を算出する特徴量算出部と、特徴量に基づいて、画像が生成されたときに撮像光学系または撮像光学系よりも物体側に位置する透明部材に曇りが生じていたか否かを判定する曇り判定部と、を備える。 In the cloudiness determination device according to the present invention, for each pixel included in an image generated by an image pickup device having an imaging optical system, a plurality of pairs of pixels among the pixel and a plurality of peripheral pixels located around the pixel. When an image is generated based on the feature amount calculation unit and the feature amount calculation unit that calculates the feature amount in which the values corresponding to the brightness difference between the pixels in each of the sets are arranged according to the arrangement order of the pair of pixel sets. The image pickup optical system or a cloudiness determination unit for determining whether or not the transparent member located on the object side of the image pickup optical system is cloudy is provided.
また、本発明にかかる曇り判定装置では、特徴量算出部は、一対の画素の組における画素間の輝度差の絶対値が輝度閾値以上であるか否かにより各周囲画素に対応づけられた値を、一対の画素の組の並び順に従って配列することにより特徴量を算出することが好ましい。 Further, in the cloudiness determination device according to the present invention, the feature amount calculation unit is a value associated with each peripheral pixel depending on whether or not the absolute value of the brightness difference between pixels in the pair of pixels is equal to or greater than the brightness threshold value. It is preferable to calculate the feature amount by arranging the above according to the arrangement order of the pair of pixels.
また、本発明にかかる曇り判定装置では、一対の画素の組は、当該画素を中心として点対称の位置にある2つの周囲画素であることが好ましい。 Further, in the fogging determination device according to the present invention, it is preferable that the pair of pixels is two peripheral pixels located at point-symmetrical positions with respect to the pixel.
また、本発明にかかる曇り判定装置では、特徴量は、LBP(Local Binary Pattern)特徴であることが好ましい。 Further, in the cloudiness determination device according to the present invention, the feature amount is preferably an LBP (Local Binary Pattern) feature.
また、本発明にかかる曇り判定装置では、特徴量の出現頻度を示すヒストグラムを生成するヒストグラム生成部をさらに備え、曇り判定部は、ヒストグラムに基づいて曇りが生じていたか否かを判定することが好ましい。 Further, the cloudiness determination device according to the present invention further includes a histogram generation unit that generates a histogram indicating the appearance frequency of the feature amount, and the cloudiness determination unit can determine whether or not cloudiness has occurred based on the histogram. preferable.
本発明にかかる曇り判定装置は、曇り判定部は、予め学習された識別器に特徴量を入力することにより、曇りが生じていたか否かを判定することが好ましい。 In the cloudiness determination device according to the present invention, it is preferable that the cloudiness determination unit determines whether or not cloudiness has occurred by inputting a feature amount into a discriminator learned in advance.
また、本発明にかかる曇り判定装置では、撮像装置により所定期間内において異なる時刻に生成された複数の画像のうち、一対の画像の組のそれぞれについて、当該一対の画像の組における対応画素間での特徴量の類似度を求め、一対の画像の組のそれぞれにおける対応画素の類似度の代表値を当該画素の値として有する代表値マップを生成する代表値マップ生成部をさらに備え、曇り判定部は、代表値マップに基づいて曇りが生じていたか否かを判定することが好ましい。 Further, in the cloudiness determination device according to the present invention, among a plurality of images generated at different times within a predetermined period by the imaging device, for each of the pair of image sets, between the corresponding pixels in the pair of image sets. A representative value map generation unit that obtains the similarity of the feature amounts of It is preferable to determine whether or not cloudiness has occurred based on the representative value map.
また、本発明にかかる曇り判定装置では、曇り判定部は、代表値マップに、代表値閾値よりも大きい代表値を有する画素が連続する所定サイズよりも大きい領域が検出された場合、曇りが生じていたと判定することが好ましい。 Further, in the fogging determination device according to the present invention, the fogging determination unit causes fogging when a region larger than a predetermined size in which pixels having a representative value larger than the representative value threshold value are continuously detected in the representative value map. It is preferable to determine that it was.
本発明にかかる曇り判定方法は、撮像光学系を有する撮像装置により生成された画像に含まれる各画素について、当該画素および当該画素の周囲に位置する複数の周囲画素のうち一対の画素間の輝度差に応じた値を複数の周囲画素のそれぞれの並び順に従って配列した特徴量を算出し、特徴量に基づいて、画像が生成されたときに撮像光学系または撮像光学系よりも物体側に配置された透明部材に曇りが生じていたか否かを判定する、ことを含む。 In the cloudiness determination method according to the present invention, for each pixel included in an image generated by an image pickup apparatus having an imaging optical system, the brightness between the pixel and a plurality of peripheral pixels located around the pixel is between a pair of pixels. The feature amount is calculated by arranging the values according to the difference according to the arrangement order of each of the plurality of peripheral pixels, and based on the feature amount, when the image is generated, it is arranged on the object side of the image pickup optical system or the image pickup optical system. It includes determining whether or not the transparent member is clouded.
本発明にかかる曇り判定装置によれば、撮像装置により生成された画像に基づいて、撮像装置の撮像光学系等に曇りが生じていたか否かをより高い精度で判定することができる。 According to the cloudiness determination device according to the present invention, it is possible to determine with higher accuracy whether or not cloudiness has occurred in the image pickup optical system or the like of the image pickup device based on the image generated by the image pickup device.
以下、図面を参照して曇り判定装置および曇り判定方法について詳細に説明する。ただし、本発明は図面または以下に記載される実施形態に限定されないことを理解されたい。 Hereinafter, the fogging determination device and the fogging determination method will be described in detail with reference to the drawings. However, it should be understood that the present invention is not limited to the drawings or embodiments described below.
曇り判定装置は、撮像装置により生成された画像の入力を受け付けて、画像が生成されたときに撮像装置の撮像光学系等に曇りが生じていたか否かを判定する。そのために、曇り判定装置は、画像に含まれる各画素について、当該画素および当該画素の周囲に位置する複数の周囲画素のうちの複数の一対の画素の組のそれぞれにおける画素間の輝度差に応じた値を一対の画素の組の並び順に従って配列した特徴量を算出する。そして、曇り判定装置は、特徴量に基づいて、画像が生成されたときに撮像光学系等に曇りが生じていたか否かを判定する。 The fogging determination device receives an input of an image generated by the image pickup device, and determines whether or not fogging has occurred in the image pickup optical system or the like of the image pickup device when the image is generated. Therefore, the cloudiness determination device responds to the brightness difference between the pixels in each of the pair of a plurality of pairs of pixels among the pixel and the plurality of peripheral pixels located around the pixel for each pixel included in the image. The feature amount is calculated by arranging the values according to the arrangement order of the pair of pixels. Then, the fogging determination device determines whether or not fogging has occurred in the imaging optical system or the like when the image is generated, based on the feature amount.
図1は、第1実施形態にかかるECUの動作概要図である。 FIG. 1 is a schematic operation diagram of the ECU according to the first embodiment.
本実施形態において、ECU(Electronic Control Unit)2は曇り判定装置の一例である。ECU2は、車両Vに搭載されたカメラ1により生成された画像の入力を受け付ける。ECU2は、画像に含まれる各画素の特徴量を算出し、ヒストグラムを生成する。各画素の特徴量は、当該画素および当該画素の周囲に位置する複数の周囲画素のうちの一対の画素の組のそれぞれにおける画素間の輝度差に応じた値を、一対の画素の組の並び順に従って配列した値である。ヒストグラムは、画像における特徴量の出現頻度を示す。そして、ECU2は、ヒストグラムに基づいて、画像が生成されたときにカメラ1の撮像光学系11等に曇りが生じていたか否かを判定する。図1の例では、ECU2は、画像Aが生成されたときに曇りが生じており、画像Bが生成されたときに曇りが生じていなかったと判定する。これにより、ECU2は、カメラ1により生成された画像に基づいて、カメラ1の撮像光学系11等に曇りが生じていたか否かをより高い精度で判定することができる。
In the present embodiment, the ECU (Electronic Control Unit) 2 is an example of a fogging determination device. The ECU 2 accepts the input of the image generated by the
図2は、第1実施形態にかかるECUを搭載した車両の概略構成図である。 FIG. 2 is a schematic configuration diagram of a vehicle equipped with the ECU according to the first embodiment.
車両Vは、撮像装置の一例であるカメラ1、ECU2およびGNSS(Global Navigation Satellite System)センサ3を搭載する。
The vehicle V is equipped with a
カメラ1、撮像光学系11と2次元光センサ12とを有する。カメラ1は、撮像光学系11を透過して2次元光センサ12の上に結像する像に応じた画像を生成する。カメラ1は、車両Vの周囲の情報を示す画像を生成するように、例えば車両Vの前方を向けて車室内に設置される。前方を向けて車室内に設置されたカメラ1の撮像光学系11の物体側には、透明部材の一例であるフロントガラス4が配置される。すなわち、カメラ1は、フロントガラス4および撮像光学系11を透過して2次元光センサ12の上に結像する光Lに応じた画像を生成する。
It has a
ECU2は、カメラ1により生成された画像から検出された物体に基づいて、車両Vの走行を制御する。例えば、ECU2は、画像から物体の位置を特定し、車両Vが物体に衝突しないように車両Vのアクセル開度、ブレーキ量および操舵角を設定する。そして、ECU2は、設定されたアクセル開度、ブレーキ量および操舵角に応じた制御信号を、車両Vのエンジンの燃料噴射装置(不図示)、ブレーキ(不図示)、車両Vの操舵輪を制御するアクチュエータ(不図示)に出力する。
The
撮像光学系11またはフロントガラス4に曇りが生じていた場合、画像が全体に不明瞭となるため、画像に基づく物体等の認識精度が低下する。そのため、ECU2はこのような画像に基づいて車両Vの走行を安全に制御することが困難になる。
When the imaging
ECU2は、曇りが生じていなかったと判定された場合、カメラ1により生成された画像から検出された物体に基づく車両Vの走行制御を継続する。一方、ECU2は、曇りが生じていたと判定された場合、車両Vの安全を確保するための制御を行う。例えば、ECU2は、車両Vの情報ディスプレイ(不図示)に、自動運転から手動運転への移行を運転者に要求するメッセージを表示させる。また、ECU2は、車両Vを安全な場所で停止するように車両Vのエンジンの燃料噴射装置(不図示)、ブレーキ(不図示)、車両Vの操舵輪を制御するアクチュエータ(不図示)に制御信号を出力してもよい。安全な場所への経路は、GNSSセンサ3により特定される位置情報に基づいて、地点に関連づけて地物情報を記憶する地物情報マスタ(不図示)から地物情報を取得し、地物情報に基づいて現在地点近傍の安全な場所を特定することにより決定することができる。
When it is determined that the cloudiness has not occurred, the
図3は、第1実施形態にかかるECUのハードウェア模式図である。 FIG. 3 is a schematic hardware diagram of the ECU according to the first embodiment.
ECU2は、車両Vに搭載されたカメラ1により生成された画像を受け付けて、画像が生成されたときにカメラ1の撮像光学系11等に曇りが生じていたか否かを判定する。そのために、ECU2は、入出力インタフェース21と、メモリ22と、プロセッサ23とを備える。
The
入出力インタフェース21は、ECU2と外部機器とのデータの入出力を行うためのインタフェース回路である。入出力インタフェース21は、受け付けた画像のデータをプロセッサ23に供給する。また、入出力インタフェース21は、プロセッサ23から供給されたデータを外部に出力する。入出力インタフェース21は、例えばCAN(Controller Area Network)による通信を行うための回路である。また、入出力インタフェース21は、USB(Universal Serial Bus)などの周辺機器接続を行うための回路であってもよい。
The input /
メモリ22は、例えば、半導体メモリまたは磁気ディスク装置である。メモリ22は、プロセッサ23による処理に用いられるアプリケーションプログラム、データ等を記憶する。例えば、メモリ22は、アプリケーションプログラムとして、特徴量算出プログラム、曇り判定プログラム等を記憶する。各種プログラムは、コンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いてメモリ22にインストールされてよい。コンピュータ読み取り可能な可搬型記録媒体とは、例えばメモリカード、可搬型ハードディスクドライブ等である。
The
プロセッサ23は、1以上のプロセッサおよびその周辺回路である。プロセッサ23は、ECU2の全体的な動作を統括的に制御するものであり、例えば、CPU(Central Processing Unit)である。プロセッサ23は、ECU2の各種処理がメモリ22に記憶されているプログラム等に基づいて適切な手段で実行されるように、入出力インタフェース21等の動作を制御する。プロセッサ23は、メモリ22に記憶されているアプリケーションプログラム等に基づいて処理を実行する。また、プロセッサ23は、複数のアプリケーションプログラム等を並列に実行することができる。
The
図4は、第1実施形態にかかるECUが有するプロセッサの機能ブロック図である。 FIG. 4 is a functional block diagram of a processor included in the ECU according to the first embodiment.
ECU2のプロセッサ23は、機能ブロックとして、特徴量算出部231と、ヒストグラム生成部232と、曇り判定部233とを有する。プロセッサ23が有するこれらの各部は、プロセッサ23上で実行されるプログラムによって実装される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、独立した集積回路、マイクロプロセッサ、またはファームウェアとしてECU2に実装されてもよい。
The
特徴量算出部231は、入出力インタフェース21を介してカメラ1により生成された画像の入力を受け付けると、画像に含まれる各画素について特徴量を算出する。各画素の特徴量は、当該画素および当該画素の周囲に位置する複数の周囲画素のうちの複数の一対の画素の組のそれぞれにおける画素間の輝度差に応じた値を一対の画素の組の並び順に従って配列した値である。特徴量算出部231は、所定数の画像の入力を受け付ける度に特徴量の算出を行ってもよい。
When the feature
特徴量算出部231は、各画素について、当該画素および周囲画素の輝度を取得する。そして、特徴量算出部231は、当該画素と各周囲画素の輝度に基づいて特徴量を算出する。
The feature
図5は、特徴量の算出を説明する模式図である。 FIG. 5 is a schematic diagram illustrating the calculation of the feature amount.
模式図500は、特徴量算出の対象となる対象画素およびその周囲画素の配置を示している。対象画素cの周囲には、右隣りから時計まわりに周囲画素c0、c1の並び順で、8個の周囲画素が配置されている。特徴量算出部231は、対象画素cの輝度ncと、周囲画素c0-c7の輝度n0-n7とを比較する。すなわち、対象画素cと周囲画素c0、対象画素cと周囲画素c1等は、一対の画素の組の一例である。そして、特徴量算出部231は、一対の画素の組の画素間の輝度差に応じて、輝度がncよりも小さい周囲画素に0を、輝度が対象画素の輝度よりも大きいか等しい周囲画素に1を対応づける。特徴量算出部231は、周囲画素に対応づけられた値を、周囲画素の並び順に従って(例えば右隣の周囲画素c0から時計まわりに)配列することにより、各画素の特徴量を算出する。
Schematic diagram 500 shows the arrangement of the target pixels for which the feature amount is calculated and the peripheral pixels thereof. Around the target pixel c, eight peripheral pixels are arranged in the order of peripheral pixels c 0 and c 1 clockwise from the right side. The feature
なお、特徴量算出部231は、対象画素cの輝度ncと周囲画素c0-c7の輝度n0-n7との差の絶対値が輝度閾値以上であるか否かにより各周囲画素に対応づけられた値を、周囲画素の位置に従って配列することにより特徴量を算出してもよい。例えば、ある実施形態において特徴量算出部231は、対象画素cの輝度ncとの差の絶対値が輝度閾値よりも小さい周囲画素に0を、対象画素cの輝度ncとの差の絶対値が輝度閾値よりも大きいか等しい周囲画素に1を対応づける。そして、特徴量算出部231は、周囲画素に対応づけられた値を、周囲画素の並び順に従って(例えば右隣から時計まわりに)配列することにより、各画素の特徴量を算出する。このように特徴量を算出するECUは、輝度閾値を変更することにより、曇り検出の感度を制御することができる。
The feature
特徴量算出部231は、以下の式(1)に従って、LBP(Local Binary Pattern)特徴を特徴量として算出してもよい。式(1)において、Pは周囲画素の数、TLBPは輝度閾値である。
The feature
また、特徴量算出部231は、CSCT(Center-Symmetric Census Transform)に従って特徴量を算出してもよい。CSCTに従って特徴量を算出する特徴量算出部231は、対象画素cを中心として点対称となる位置にある2つの周囲画素(例えば周囲画素c0と周囲画素c4)を一対の画素の組とする。そして、特徴量算出部231は、一対の画素の組における画素間の輝度差に応じた値を一対の画素の並び順に従って配列することにより特徴量を算出する。このように特徴量を算出するECUは、特徴量の算出に必要な計算量が減少するため、高速に処理を実行することができる。
Further, the feature
CSCTに従って特徴量を算出するECUは、対象画素cを中心として点対称となる位置にある一対の画素の輝度差(図5の模式図500における|n0-n4|、|n1-n5|、|n2-n6|、|n3-n7|)を求める。そして、CSCTに従って特徴量を算出するECUは、輝度差に応じた値を一対の画素の並び順に従って(例えば、一対の画素のうち一方が対象画素の左上から右下に向けて連続するように)配列することにより、特徴量を算出する。 The ECU that calculates the feature amount according to CSCT has a luminance difference between a pair of pixels located at points symmetrical with respect to the target pixel c (| n 0 -n 4 |, | n 1 -n in the schematic diagram 500 of FIG. 5). 5 |, | n 2 -n 6 |, | n 3 -n 7 |). Then, the ECU that calculates the feature amount according to CSCT sets the value according to the brightness difference according to the arrangement order of the pair of pixels (for example, one of the pair of pixels is continuous from the upper left to the lower right of the target pixel). ) The feature amount is calculated by arranging.
本実施形態では、周囲画素は対象画素を囲む3×3の画素であるが、これに限らない。周囲画素は、例えば、対象領域を囲む4×4の画素、5×5の画素等であってもよい。 In the present embodiment, the peripheral pixels are 3 × 3 pixels surrounding the target pixel, but the peripheral pixels are not limited to this. The peripheral pixels may be, for example, 4 × 4 pixels surrounding the target area, 5 × 5 pixels, or the like.
図6は、LBP特徴のパターンの例を示す図である。 FIG. 6 is a diagram showing an example of a pattern of LBP features.
図6において、黒い丸は0が対応づけられた周囲画素を示し、白い丸は1が対応づけられた周囲画素を示す。すなわち、例えばパターンP1は、周囲画素のうち一つが1であり、他のすべての周囲画素が0である画素に対応している。このようなパターンP1は、「00000010」といった特徴量を有する。LBP特徴は、回転して一致するものを集約することにより、図6に示す36種類のパターンに分類される。さらに、図6に示すパターンP0-P8に当てはまらない27種類のパターンをパターンP9として統合することにより、LBP特徴は10種類のパターンに分類される。 In FIG. 6, black circles indicate peripheral pixels associated with 0, and white circles indicate peripheral pixels associated with 1. That is, for example, the pattern P1 corresponds to a pixel in which one of the peripheral pixels is 1 and all the other peripheral pixels are 0. Such a pattern P1 has a feature amount such as "00000010". LBP features are classified into 36 types of patterns shown in FIG. 6 by rotating and aggregating matching ones. Further, by integrating 27 types of patterns that do not correspond to the patterns P0-P8 shown in FIG. 6 as pattern P9, the LBP features are classified into 10 types of patterns.
LBP特徴は、回転して一致するものを集約せずに分類されてもよい。また、回転して一致するものを集約したLBP特徴のパターンは、図6に示す10種類以外に分類されてもよい。また、周囲画素が対象画素を囲む3×3の画素でない場合、LBP特徴のパターンは、周囲画素の数および配置に応じて適宜分類される。 LBP features may be categorized without aggregating rotating matches. Further, the pattern of the LBP feature, which is a collection of rotating and matching patterns, may be classified into other than the 10 types shown in FIG. When the peripheral pixels are not 3 × 3 pixels surrounding the target pixel, the pattern of the LBP feature is appropriately classified according to the number and arrangement of the peripheral pixels.
特徴量算出部231は、各画素の特徴量をパターンP0-P9に分類し、分類されたパターンに応じた値を特徴量として算出する。
The feature
ヒストグラム生成部232は、入力された画像における特徴量の出現頻度を示すヒストグラムを生成する。ヒストグラムは、特徴量ごとの、その特徴量を有する画素の出現頻度を示す。
The
ヒストグラム生成部232は、各画素についてステップS11で算出した特徴量のパターンごとに、そのパターンに対応する特徴量を有する画素の出現頻度を集計する。
The
図7は、ヒストグラムの模式図である。 FIG. 7 is a schematic diagram of a histogram.
ヒストグラム600において、横軸はLBP特徴のパターンP0-P9に対応し、縦軸は各パターンに分類される画素の出現頻度を示す。ヒストグラム600は、画像Aにおいて、パターンP0-P9の頻度が、順に0.4、0.07、0.03、0.04、0.01、0.01、0.06、0.08、0.06、0.24であることを示している。また、ヒストグラム600は、画像Bにおいて、パターンP0-P9の頻度が、順に0.15、0.06、0.02、0.03、0.01、0.02、0.08、0.2、0.15、0.28であることを示している。このように、ヒストグラムにおいて、頻度は出現割合として表わされていてもよい。 In the histogram 600, the horizontal axis corresponds to the patterns P0-P9 of the LBP feature, and the vertical axis shows the appearance frequency of the pixels classified into each pattern. Histogram 600 shows that in image A, the frequencies of patterns P0-P9 are 0.4, 0.07, 0.03, 0.04, 0.01, 0.01, 0.06, 0.08, 0.06, 0.24, respectively. Histogram 600 also shows that in image B, the frequencies of patterns P0-P9 are 0.15, 0.06, 0.02, 0.03, 0.01, 0.02, 0.08, 0.2, 0.15, 0.28, respectively. Thus, in the histogram, the frequency may be expressed as an appearance rate.
なお、ヒストグラム600は、ヒストグラムを説明するため便宜的に記載したものである。ヒストグラム生成部232は、パターンに対応する特徴量を有する画素の出現頻度の集計値を出力する。
The histogram 600 is described for convenience in order to explain the histogram. The
曇り判定部233は、特徴量に基づいて、画像が生成されたときに撮像光学系等に曇りが生じていたか否かを判定する。特に、本実施形態の曇り判定部233は、特徴量の出現頻度を示すヒストグラムに基づいて、曇りが生じていたか否かを判定する。
The
本実施形態において、特徴量のヒストグラムは10種類のパターンに分類された出現頻度であるため、10次元の値となる。曇り判定部233は、ヒストグラムを識別器に入力することにより、画像が生成されたときに撮像光学系等に曇りが生じていたか否かを判定する。
In the present embodiment, the feature amount histogram is a 10-dimensional value because it has an appearance frequency classified into 10 types of patterns. By inputting the histogram to the classifier, the
識別器は、与えられたデータをいずれかのクラスに分類する。本実施形態において、識別器はSVM(Support Vector Machine)である。SVMは、クラス分けされた教師データを用いた機械学習に基づいて設定された識別関数を用いて、与えられたデータをクラスに分類する。 The classifier classifies the given data into one of the classes. In this embodiment, the classifier is an SVM (Support Vector Machine). The SVM classifies the given data into classes using a discriminant function set based on machine learning using the classified teacher data.
図8は、SVMによる分類を説明する模式図である。 FIG. 8 is a schematic diagram illustrating classification by SVM.
散布図800は、SVMに与えられるデータ点の散布状態を表わしている。上述のとおり、本実施形態において特徴量のヒストグラムは10次元の値であり、散布図800は10次元の値を説明のため仮想的に2次元平面に配置したものである。
黒丸で示すデータ点の集合811は、曇りのある画像のヒストグラムに対応している。白丸で示すデータ点の集合812は、曇りのない画像のヒストグラムに対応している。識別関数820は、集合811と集合812とを識別できるよう設定される。
The set of
識別器は、設定された識別関数820に対し原点側に位置するデータ点は曇りのない画像として、原点の反対側に位置するデータ点は曇りのある画像として分類する。
The discriminator classifies the data points located on the origin side as a clear image and the data points located on the opposite side of the origin as a cloudy image with respect to the set
図9は、第1実施形態にかかるECUの処理フローチャートである。 FIG. 9 is a processing flowchart of the ECU according to the first embodiment.
ECU2は、入出力インタフェース21によるカメラ1により生成された画像の入力受け付けに応じて図9の処理を開始する。まず、特徴量算出部231は、受け付けた画像に含まれる各画素について、特徴量を算出する(ステップS11)。
The
次に、ヒストグラム生成部232は、画像における特徴量の出現頻度を示すヒストグラムを生成する(ステップS12)。
Next, the
次に、曇り判定部233は、ステップS12で生成されたヒストグラムに基づいて、画像が生成されたときに撮像光学系11等に曇りが生じていたか否かを判定し(ステップS13)、処理を終了する。ECU2は、判定結果に応じて車両Vの走行を制御する。
Next, the
以上のように処理することにより、本実施形態にかかるECUは、撮像装置により生成された画像に基づいて、撮像装置の撮像光学系等に曇りが生じていたか否かをより高い精度で判定することができる。 By processing as described above, the ECU according to the present embodiment determines with higher accuracy whether or not the imaging optical system of the imaging device is cloudy based on the image generated by the imaging device. be able to.
次に、第2実施形態にかかる曇り判定装置を説明する。本実施形態において、曇り判定装置の一例であるECU2′は、カメラ1により所定期間内において異なる時刻に生成された複数の画像のうち、一対の画像の組のそれぞれについて、当該の画像の組における対応画素間での特徴量の類似度を求める。そして、ECU2′は、一対の画像の組のそれぞれにおける対応画素の類似度の代表値を当該画素の値として有する代表値マップに基づいて、曇りが生じていたか否かを判定する。これにより、ECU2′は、カメラ1により生成された画像に基づいて、カメラ1の撮像光学系11等に曇りが生じていたか否かをより高い精度で判定することができる。
Next, the cloudiness determination device according to the second embodiment will be described. In the present embodiment, the ECU 2', which is an example of the cloudiness determination device, has a set of images for each of a pair of images among a plurality of images generated by the
本実施形態にかかるECU2′は、第1実施形態にかかるECU2と同様のハードウェア構成を有する。ECU2と共通するECU2′の構成部分の符号にはECU2と共通の符号を付し、説明を省略する。
The ECU 2'according to the present embodiment has the same hardware configuration as the
図10は、第2実施形態にかかるECUが有するプロセッサの機能ブロック図である。 FIG. 10 is a functional block diagram of a processor included in the ECU according to the second embodiment.
第2実施形態にかかるECU2′が有するプロセッサ23′は、ヒストグラム生成部232に代えて代表値マップ生成部234を有し、曇り判定部233に代えて曇り判定部233′を有する点が、第1実施形態にかかるプロセッサ23と相違する。
The processor 23'held by the ECU 2'according to the second embodiment has a representative value
代表値マップ生成部234は、カメラ1により所定期間内において異なる時刻に生成された複数の画像のうち、一対の画像の組のそれぞれについて、当該一対の画像の組における対応画素間での特徴量の類似度を求める。代表値マップ生成部234は、さらに、一対の画像の組のそれぞれにおける対応画素の類似度の代表値を当該画素の値として有する代表値マップを生成する。
The representative value
代表値マップ生成部234は、一対の画像における対象画素間での特徴量の類似度を、一対の画像における対応画素のそれぞれの特徴量の排他的論理和を計算することにより求める。例えば、座標(10,10)に対応する画素の特徴量が、一方の画像では「01110011」であり、他方の画像では「01001111」であるとする。これらの画素の類似度は、「00111100」と求められる。
The representative value
図11は、代表値マップの生成を説明する図である。 FIG. 11 is a diagram illustrating the generation of a representative value map.
画像F1-F4は、カメラ1により所定期間Tにおいて異なる時刻t1-t4に生成された画像である。特徴量算出部231により、画像F1-F4について、座標(x,y)に対応する画素の特徴量S1-S4が算出されている。
Images F 1 -F 4 are images generated by the
代表値マップ生成部234は、画像F1と画像F2について、対応画素間の特徴量S1と特徴量S2との類似度S12を求め、類似度マップR12を作成する。同様に、画像F2と画像F3、および、画像F3と画像F4のそれぞれの対応画素間の特徴量の類似度に基づいて、類似度マップR23および類似度マップR34を作成する。画像F1と画像F2、画像F2と画像F3、および、画像F3と画像F4は、一対の画像の組の例である。
The representative value
一対の画像の組は、所定の周期(例えば1/30秒)で画像を生成するカメラ1において、時系列上で隣接する画像の組であってもよく、時系列上で所定数(例えば10画像)間隔をおいて隣接する画像の組であってもよい。
The pair of images may be a set of adjacent images in a time series in the
代表値マップ生成部234は、類似度マップR12、R23およびR34に基づき、類似度の代表値を求める。例えば、類似度の代表値として、類似度S12、類似度S23および類似度S34の合計値S1234を各画素について求めることにより、代表値マップI1234を生成する。類似度の代表値は、類似度の最大値、最頻値、平均値、中央値等であってもよい。
The representative value
曇り判定部233′は、特徴量に基づいて、複数の画像が生成された期間に撮像光学系等に曇りが生じていたか否かを判定する。特に、本実施形態の曇り判定部233′は複数の画像における各画素の特徴量に基づいて生成される代表値マップに基づいて、曇りが生じていたか否かを判定する。 The fogging determination unit 233'determines whether or not fogging has occurred in the imaging optical system or the like during the period when a plurality of images are generated, based on the feature amount. In particular, the cloudiness determination unit 233'of the present embodiment determines whether or not cloudiness has occurred based on a representative value map generated based on the feature amount of each pixel in a plurality of images.
図12(a)は撮像光学系に曇りが生じていたときに生成された画像の例であり、図12(b)は図12(a)の画像に対応する代表値マップの例である。 FIG. 12 (a) is an example of an image generated when the imaging optical system is cloudy, and FIG. 12 (b) is an example of a representative value map corresponding to the image of FIG. 12 (a).
図12(a)に示す画像Fおよび前後する異なる時刻に生成された画像(不図示)は、曇りが生じている画像である。代表値マップ生成部234は、これらの画像に基づいて図12(b)に示す代表値マップIを生成する。
The image F shown in FIG. 12A and the images (not shown) generated at different times before and after are cloudy images. The representative value
代表値マップIには、代表値閾値よりも大きい代表値を有する画素が連続する領域Dが検出されている。代表値閾値は適宜設定される値であり、メモリ22に記憶される。領域Aは、予め設定された所定サイズよりも大きい領域である。曇り判定部233′は、代表値マップIに領域Dが検出された場合、代表値マップIの生成に用いられた画像が生成された期間に、撮像光学系等に曇りが生じていたと判定する。
In the representative value map I, a region D in which pixels having a representative value larger than the representative value threshold value are continuous is detected. The representative value threshold value is a value that is appropriately set and is stored in the
曇り判定部233′は、代表値マップIに平滑化処理を行った代表値マップI′に基づいて、曇りが生じていたか否かの判定を行ってもよい。平滑化処理を行った代表値マップI′を用いることにより、ECU2′はより精度よく曇りの有無を判定することができる。曇り判定部233′は、例えば代表値マップIにGaussian Filterを適用することにより、平滑化処理を行った代表値マップI′を作成することができる。 The cloudiness determination unit 233'may determine whether or not cloudiness has occurred based on the representative value map I'that has been smoothed on the representative value map I. By using the smoothed representative value map I', the ECU 2'can more accurately determine the presence or absence of fogging. The fogging determination unit 233'can create a representative value map I'that has been smoothed, for example, by applying a Gaussian Filter to the representative value map I.
曇り判定部233′は、代表値マップIの下半分の領域に大きい類似度を有する画素の領域が検出された場合に、曇りが生じていたと判定してもよい。車両外部の画像を生成するよう車両Vに搭載されたカメラ1は、一般に、上半分に空が写った画像を生成する。画像における空の領域は時系列での変動が小さいため、曇りが生じていない場合であっても大きい類似度を有する画素の領域として検出されることがある。曇り判定部233′は、集積マップIの下半分の領域に着目して判定を行うことで、より精度よく曇りの有無を判定することができる。
The fogging determination unit 233'may determine that fogging has occurred when a region of pixels having a large similarity is detected in the region of the lower half of the representative value map I. The
図13は、第2実施形態のECUの処理フローチャートである。 FIG. 13 is a processing flowchart of the ECU of the second embodiment.
まず、特徴量算出部231は、カメラ1により生成された画像に含まれる各画素の特徴量を算出する(ステップS21)。ステップS21の処理は、ステップS11の処理と同様である。
First, the feature
次に、代表値マップ生成部234は、カメラ1により所定期間内において異なる時刻に生成された複数の画像における対応画素の特徴量に基づいて、代表値マップを生成する(ステップS22)。代表値マップは、複数の画像のうち一対の画像の組のそれぞれについて、当該一対の画像の組における対応画素間での特徴量の類似度の、一対の画像の組のそれぞれにおける対象画素の類似度の代表値を当該画素の値として生成されるマップである。代表値マップ生成処理については後述する。
Next, the representative value
次に、曇り判定部233′は、代表値マップに基づき曇り判定を行い(ステップS23)、処理を終了する。ECU2′は、判定結果に応じて車両Vの走行を制御する。 Next, the cloudiness determination unit 233'performs the cloudiness determination based on the representative value map (step S23), and ends the process. The ECU 2'controls the traveling of the vehicle V according to the determination result.
図14は、代表値マップ生成処理のフローチャートである。 FIG. 14 is a flowchart of the representative value map generation process.
代表値マップ生成処理が開始されると、代表値マップ生成部234は、カメラ1により所定期間内において異なる時刻に生成された複数の画像のうち、一対の画像の組のそれぞれについて、当該一対の画像の組における対応画素での特徴量の類似度を求める(ステップS221)。
When the representative value map generation process is started, the representative value
続いて、代表値マップ生成部234は、一対の画像の組のそれぞれにおける対応画素の類似度の代表値を当該画素の値として有する代表値マップを生成し(ステップS222)、代表値マップ生成処理を終了する。
Subsequently, the representative value
曇り判定装置は、車両に搭載されるECUに限定されず、パーソナルコンピュータなどの一般的な情報処理装置として実装されてもよい。 The fogging determination device is not limited to the ECU mounted on the vehicle, and may be implemented as a general information processing device such as a personal computer.
当業者は、本発明の精神および範囲から外れることなく、種々の変更、置換および修正をこれに加えることが可能であることを理解されたい。 It will be appreciated by those skilled in the art that various changes, substitutions and modifications can be made to this without departing from the spirit and scope of the invention.
2、2′ ECU
231 特徴量算出部
232 ヒストグラム生成部
233、233′ 曇り判定部
234 代表値マップ生成部
2, 2'ECU
231
Claims (9)
前記特徴量に基づいて、前記画像が生成されたときに前記撮像光学系または前記撮像光学系よりも物体側に位置する透明部材に曇りが生じていたか否かを判定する曇り判定部と、を備える曇り判定装置。 For each pixel included in an image generated by an image pickup apparatus having an imaging optical system, the brightness between the pixels in each of the pixel and a set of a plurality of pairs of pixels among a plurality of peripheral pixels located around the pixel. A feature amount calculation unit that calculates a feature amount in which values corresponding to the difference are arranged according to the arrangement order of the pair of pixels.
Based on the feature amount, a fogging determination unit for determining whether or not fogging has occurred in the imaging optical system or the transparent member located on the object side of the imaging optical system when the image is generated. A cloudiness judgment device provided.
前記曇り判定部は、前記ヒストグラムに基づいて曇りが生じていたか否かを判定する、請求項1〜4のいずれか一項に記載の曇り判定装置。 Further, a histogram generation unit for generating a histogram showing the appearance frequency of the feature amount is provided.
The cloudiness determination device according to any one of claims 1 to 4, wherein the cloudiness determination unit determines whether or not cloudiness has occurred based on the histogram.
前記曇り判定部は、前記代表値マップに基づいて曇りが生じていたか否かを判定する、請求項1〜4のいずれか一項に記載の曇り判定装置。 For each of the pair of image sets among the plurality of images generated by the image pickup device at different times within a predetermined period, the similarity of the feature amounts between the corresponding pixels in the pair of image sets is obtained. A representative value map generation unit for generating a representative value map having the representative value of the similarity of the corresponding pixel in each of the pair of images as the value of the pixel is further provided.
The cloudiness determination device according to any one of claims 1 to 4, wherein the cloudiness determination unit determines whether or not cloudiness has occurred based on the representative value map.
前記特徴量に基づいて、前記画像が生成されたときに前記撮像光学系または前記撮像光学系よりも物体側に配置された透明部材に曇りが生じていたか否かを判定する、ことを含む曇り判定方法。 For each pixel included in an image generated by an image pickup apparatus having an imaging optical system, the brightness between the pixels in each of the pixel and a set of a plurality of pairs of pixels among a plurality of peripheral pixels located around the pixel. The feature amount in which the values corresponding to the difference are arranged according to the arrangement order of the pair of pixels is calculated.
Cloudiness including determining whether or not cloudiness has occurred in the image pickup optical system or a transparent member arranged on the object side of the image pickup optical system when the image is generated based on the feature amount. Judgment method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020006816A JP2021113753A (en) | 2020-01-20 | 2020-01-20 | Fogging determination device and fogging determination method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020006816A JP2021113753A (en) | 2020-01-20 | 2020-01-20 | Fogging determination device and fogging determination method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021113753A true JP2021113753A (en) | 2021-08-05 |
Family
ID=77076906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020006816A Pending JP2021113753A (en) | 2020-01-20 | 2020-01-20 | Fogging determination device and fogging determination method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021113753A (en) |
-
2020
- 2020-01-20 JP JP2020006816A patent/JP2021113753A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5867273B2 (en) | Approaching object detection device, approaching object detection method, and computer program for approaching object detection | |
US8848980B2 (en) | Front vehicle detecting method and front vehicle detecting apparatus | |
JP3760068B2 (en) | Image recognition device | |
KR101848019B1 (en) | Method and Apparatus for Detecting Vehicle License Plate by Detecting Vehicle Area | |
US11288833B2 (en) | Distance estimation apparatus and operating method thereof | |
US10878259B2 (en) | Vehicle detecting method, nighttime vehicle detecting method based on dynamic light intensity and system thereof | |
JP2013190421A (en) | Method for improving detection of traffic-object position in vehicle | |
US20070237398A1 (en) | Method and apparatus for classifying an object | |
JP2006182086A (en) | Vehicle sensing device | |
JP2013537661A (en) | Automatic detection of moving objects using stereo vision technology | |
US20200125861A1 (en) | Road line detection device and road line detection method | |
JP2021033510A (en) | Driving assistance device | |
US20220171975A1 (en) | Method for Determining a Semantic Free Space | |
US10789727B2 (en) | Information processing apparatus and non-transitory recording medium storing thereon a computer program | |
JP2021113753A (en) | Fogging determination device and fogging determination method | |
Bertozzi et al. | Experience of the ARGO autonomous vehicle | |
CN115481724A (en) | Method for training neural networks for semantic image segmentation | |
JP4719605B2 (en) | Object detection data generation device, method and program, and object detection device, method and program | |
WO2022130780A1 (en) | Image processing device | |
CN114018215B (en) | Monocular distance measuring method, device, equipment and storage medium based on semantic segmentation | |
JP2019160251A (en) | Image processing device, object recognition device, instrument control system, moving body, image processing method and program | |
JP7379523B2 (en) | image recognition device | |
WO2021176820A1 (en) | Processing device | |
US20230086937A1 (en) | Vehicle external environment recognition apparatus | |
JP2012181691A (en) | Method for recognizing patten on road surface, and information recording device for vehicle |