JP2023548127A - 雨、侵入光および汚れがある場合のカメラの画像の補正 - Google Patents
雨、侵入光および汚れがある場合のカメラの画像の補正 Download PDFInfo
- Publication number
- JP2023548127A JP2023548127A JP2023526114A JP2023526114A JP2023548127A JP 2023548127 A JP2023548127 A JP 2023548127A JP 2023526114 A JP2023526114 A JP 2023526114A JP 2023526114 A JP2023526114 A JP 2023526114A JP 2023548127 A JP2023548127 A JP 2023548127A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- output
- image
- dirt
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 75
- 230000002411 adverse Effects 0.000 claims abstract description 49
- 238000000034 method Methods 0.000 claims abstract description 39
- 102100033620 Calponin-1 Human genes 0.000 claims abstract description 31
- 101000945318 Homo sapiens Calponin-1 Proteins 0.000 claims abstract description 31
- 238000010801 machine learning Methods 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims description 43
- 238000003702 image correction Methods 0.000 claims description 41
- 238000001514 detection method Methods 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 32
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 claims description 19
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 claims description 19
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 19
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 12
- 238000012937 correction Methods 0.000 claims description 10
- 230000007613 environmental effect Effects 0.000 claims description 8
- 102100033591 Calponin-2 Human genes 0.000 claims description 6
- 101000945403 Homo sapiens Calponin-2 Proteins 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 13
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 239000006185 dispersion Substances 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 238000009736 wetting Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011157 data evaluation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/243—Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Abstract
本発明は、カメラ(K)、例えば、車両に搭載された環境撮影カメラの、雨、侵入光および/または汚れによる悪影響を受けている入力画像データ(Ini)を補正する機械学習方法、方法および装置に関する。カメラ(K)の入力画像データを補正する本方法は、a)カメラ(K)により撮影された、雨、侵入光および/または汚れによる悪影響を受けている入力画像データ(Ini)を訓練された人工ニューラルネットワーク(CNN1,CNN10,CNN11,CNN12)に供給するステップと、b)訓練された人工ニューラルネットワーク(CNN1,CNN10,CNN11,CNN12)が、雨、侵入光および/または汚れによる悪影響を受けている入力画像データ(Ini)を悪影響を受けていない出力画像データ(Opti)へと変換し、入力画像データの画像の水、侵入光および/または汚れによる濡れ度に依存し、ネットワークの画像補正が適用される、ネットワークの確実性を特徴付ける確実性尺度cを決定するように構成されるステップと、c)訓練された人工ニューラルネットワーク(CNN1,CNN10,CNN11,CNN12)が、出力画像データ(Opti)と決定された確実性尺度cとを出力するように構成されるステップとを備える。有利には、本方法により、カメラが曇っている場合の物体認識と、最適化された対応点検索のためにネットワークに基づいてヒューマンビジョンおよびコンピュータビジョンの画像データストリームを生成することが可能になる。
Description
本発明は、雨、侵入光または汚れがある場合のカメラ、例えば、車両に搭載された環境撮影カメラの画像を補正する機械学習方法、方法および装置に関する。
現在または将来の車両は、カメラベースの支援システムを装備しており、このカメラベースの支援システムは、衝突を回避するために物体を認識し、車線内に車両を維持するために道路境界線を認識する働きをする。このために、例えば、前面カメラが用いられ、この前面カメラは、単体で、またはサラウンドビューカメラと共に、検知機能または表現機能を実装する。
雨を検知するための検知機能を含む前面カメラのコンセプトが存在する。車両ヘッドライトを制御するためのカメラベースの昼光検知と組み合わせて、フロントガラス上の雨を認識すると例えばフロントガラスのワイパーをオンにするいわゆるレインライト検知装置をカメラを用いて実装することができる。
このカメラシステムに基づく認識アルゴリズムは、部分的に、既に従来の画像処理のアプローチを機械学習、特に、深層学習のアプローチと組み合わせている。画像処理の際に物体または構造を認識する従来のアプローチは、手動で選択された特徴に基づく一方、深層学習に基づくアプローチは、関連する特徴を訓練プロセスにおいてそれ自体で決定して最適化する。
視界が雨、侵入光または汚れにより悪影響を受けている状況になり次第、上記カメラシステムは、物体の認識と周辺または物体の表現との両方において劣化を示す。
例えば、内部ミラーのミラーベースに設けられているフロントカメラの視界がフロントガラス上の水滴または汚れにより制限される場合、フロントガラスのワイパーを動作させることにより視界を回復させることができる。これは、カメラの搭載位置がフロントガラスのワイパーの払拭領域にあることを前提としている。
車両の自動化が進むに伴い、前面カメラの数が増加している。前面カメラはミラーベースの中央だけでなく、フロントガラスの上側角部におけるAピラー近傍にも取り付けられる場合がある。この領域が検知機能性に関してどちらかといえばクリティカルであるのは、この領域はフロントガラスのワイパーの払拭領域外に位置するからである。雨滴または汚れにより制限された視界は、検知機能性に不利な影響を及ぼす。
車両自動化の度合いがSAEレベル2+からSAEレベル4/レベル5まで上昇する場合、または自動駐車または可視化の場合、将来的に、周辺の表示に加えて側方の物体を検知する働きもする、車両の側方に取り付けられたカメラが用いられる見込みである。レンズが雨滴または汚れにより濡れている場合、ここでも表示機能性または検知機能性は非常に制限される可能性がある。フロントガラスのワイパー等の洗浄手段を欠いているため、システムの劣化または障害が発生する。
最後の例として、多くの場合、ナンバープレートの上方に搭載され、汚れるのが非常に速いバックカメラが挙げられる。ここでも、雨または塵埃により曇りが生じる場合があり、曇りのない表示が困難になる。
物体を認識するためのCNNベースの方法は、大抵の場合、雨滴によるレンズの汚れまたは濡れを少なくともある程度まで補償することができる一方、画像特徴、例えば、オプティカルフローまたは運動からの構造復元(Structure from Motion)等に基づく物体認識方法は、汚れにより激しい劣化を被る。
アルゴリズムを用いた、カメラの外部レンズ上または車両のフロントガラス上の汚れまたは降雨を検出する方法が知られている。
特許文献1には、車両カメラの視界領域におけるフロントガラス上の雨滴に関する情報が画像データの評価の際に考慮される、車両カメラの画像データの評価方法が記載されている。雨滴に関する情報は、画像データに基づいて決定することができる。画像データ評価の一例として、情報を選択的に考慮する物体の認識が挙げられる。雨の強さの認識に基づいて、例えば、カメラによって視認されたエッジ(明/暗または色変遷)による影響を推定することができる。これに応じて、エッジに基づく評価方法をその閾値内に調整することができる。特に、情報から画像データの品質基準を導出することができ、この場合、品質基準は、画像データの評価の際に考慮される。
非特許文献1には、滞留する雨滴または縞模様により悪影響を受けている画像におけるセグメンテーションタスクの改善方法が記載されている。このために、一方のレンズが実際の雨滴により悪影響を受け、他方のレンズが悪影響を受けていない、ステレオデータセットが生成されている。これにより、「脱ノイズジェネレータ」が訓練され、画像再構成および路面標示セグメンテーションにおいて雨滴の影響が除去される。
H. Porav et al. "I Can See Clearly Now: Image Restoration via De-Raining", 2019 IEEE Int. Conference on Robotics and Automation (ICRA), Montreal, Canada, p. 7087-7093, retrieved on July 13, 2020 ( http://www.robots.ox.ac.uk/~mobile/Papers/ICRA19_porav.pdf)
アルゴリズムを用いて、汚れ、侵入光または雨滴にもかかわらず画像の評価を提供することにより、例えば、下流の物体認識を改善し、さらに、雨および光を認識する機能(レイン+ライト検知)を可能にするシステムが望まれている。
本発明の課題は、このための解決策を提供することである。
本課題は、独立請求項の主題により解決される。有利な実施形態は、従属請求項、以下の説明および図面の対象である。
本発明に係る機械学習方法は、人工ニューラルネットワークを用いて、雨、侵入光および/または汚れによる悪影響を受けているカメラの入力画像データを出力画像データへと画像補正することに関する。人工ニューラルネットワークの入力において、それぞれ、雨、侵入光および/または汚れの悪影響を受けている第1画像と、目標出力画像として悪影響を受けていない同じシーンの第2画像とを供給するように、複数の訓練画像ペアを用いて学習が行われる。人工ニューラルネットワークは、入力画像の水、侵入光および/または汚れによる濡れ度に依存する確実性尺度cを決定するように構成される。ネットワークの構成は、例えば、それに対応する設計またはそれに対応する人工ニューラルネットワークのアーキテクチャにより行われてよい。人工ニューラルネットワークは、機械学習の終了後、新たな入力画像の確実性尺度cを決定し出力できる。従って、確実性尺度cは、雨または水による濡れによる悪影響、侵入光による悪影響および/または汚れによる悪影響の度合いに依存し、訓練されたネットワークの使用時に画像補正が適用される確実性を特徴付ける。
確実性尺度cは、訓練されたニューラルネットワークにより画像補正が行われる場合、ある程度「不確かさ」を特徴付ける。
言い換えれば、確実性尺度cは、入力画像データの悪影響に依存し、ネットワークの画像補正が適用される、ネットワークの確実性を特徴付ける。
言い換えれば、確実性尺度cは、入力画像データの悪影響に依存し、ネットワークの画像補正が適用される、ネットワークの確実性を特徴付ける。
人工ニューラルネットワークは、例えば、畳み込みニューラルネットワーク(CNN)であってよい。
「悪影響を受けていない」出力画像データへの変換は、一般に、悪影響が低減された出力画像データへの変換を含む。
カメラは、例えば、車両の環境を撮影する、車両内または車両外に取り付けられた(単眼)カメラであってよい。そのような車両に搭載されたカメラの例は、車両内部においてフロントガラスの後方に配置されるカメラであり、このカメラは、車両の環境における車両前方に位置する領域をフロントガラス越しに撮影し写像できる。
雨、侵入光または汚れによるカメラ画像の悪影響の効果は、画像において(局所的な)不鮮明さを生じさせるのと同様である。これらの全ての場合において、画像におけるこれら不鮮明さを低減または除去する画像補正が望ましい。
実施形態によると、補正された出力画像と悪影響を受けている入力画像との間の差の尺度として少なくとも1つの係数dが決定され、訓練の際に人工ニューラルネットワークに供給される。例えば、ニューラルネットワークが入力画像、出力画像および係数dの関係性を訓練するように、係数dは、学習の際、人工ニューラルネットワークにより考慮される。これにより、訓練されたネットワークは、その後、現在撮影される悪影響を受けているカメラ画像について係数dを推定または決定することができ、これに対応して大幅に補正された出力画像を生成(または再構成)することができる。従って、訓練の終了後、例えば、訓練されたニューラルネットワークに係数dを予め設定することができ、これにより、現在撮影されるカメラ画像の補正度を制御することができる。
係数dは、例えば、外乱の影響を受けていない画像を雨または汚れによる悪影響を受けている画像と局所的に比較することにより決定されてよい。
この場合、例えば、人工ニューラルネットワークの入力層に写像されてよい2次元フィルタを用いて係数dを決定することができる。
単純な実施形態例において、係数dは2次元ローパスフィルタの変形として表現されてよい。代替的に、より複雑なコントラスト値(構造的類似度)または、両方の画像から局所フィルタを用いて計算される相関(累積絶対距離(SAD)、累積二乗距離(SSD)、零平均正規化相互相関(ZNCC))も同様に考えられる。
この場合、例えば、人工ニューラルネットワークの入力層に写像されてよい2次元フィルタを用いて係数dを決定することができる。
単純な実施形態例において、係数dは2次元ローパスフィルタの変形として表現されてよい。代替的に、より複雑なコントラスト値(構造的類似度)または、両方の画像から局所フィルタを用いて計算される相関(累積絶対距離(SAD)、累積二乗距離(SSD)、零平均正規化相互相関(ZNCC))も同様に考えられる。
例えば、雨または汚れにより汚染されたカメラレンズにおいては、物体認識を困難にする可能性がある外乱の影響を受けている画像が生じる。機械学習方法の際、係数dは、目標出力画像とそれに対応する悪影響を受けている入力画像の比較に基づいて決定されてよい。この決定は予め行われてよく、つまり、各訓練画像ペアについて既に係数dが存在する。代替的に、係数dの決定は、訓練画像ペアのみに基づいて学習方法の際に行われてよい。
係数dにより、補正された画像の考えられる再構成の度合いを示し、引き続いて行われる画像処理機能または画像表示機能に共に与えられる値を供給することができる。例えば、さらなる処理段において、より小さな値は大きい補正を、より大きな値は小さい補正を示してよく、生成された物体データの品質の決定の際に、確実性尺度cのように、考慮されてよい。
係数dにより、補正された画像の考えられる再構成の度合いを示し、引き続いて行われる画像処理機能または画像表示機能に共に与えられる値を供給することができる。例えば、さらなる処理段において、より小さな値は大きい補正を、より大きな値は小さい補正を示してよく、生成された物体データの品質の決定の際に、確実性尺度cのように、考慮されてよい。
実施形態において、それぞれ、(カメラの光路における)雨、侵入光および/または汚れの悪影響を受けている第1画像と悪影響を受けていない第2画像とが同時または互いに即座連続的に、異なる露光時間により取得されること、またはカメラにより撮影されることにより、訓練画像ペアが生成される。
実施形態において、訓練画像ペアが、互いに連続する入力画像および出力画像の少なくとも1つのシーケンスを(画像データとして)含む。言い換えれば、画像データとして、画像シーケンス(ビデオシーケンス)が使用される。機械学習には、この場合、少なくとも1つの入力ビデオシーケンスと少なくとも1つの目標ビデオシーケンスが必要である。
画像シーケンスの使用の際、有利には、再構成(または画像補正)における時間的態様または関連性が考慮されてよい。一例として、時間と共に移動する雨滴または汚れ粒子が挙げられる。これにより、時点tにおいては鮮明な視界を含み、時点t+1においては雨による外乱の影響を受けている視界を含んでいた領域が画像に生じる。画像シーケンスを使用することにより、雨または汚れによる外乱の影響を受けている視界領域について再構成するために鮮明な画像領域における情報を用いることができる。
時間的態様は、特に、汚れにより覆われている領域について鮮明な画像を再構成する助けになってよい。例えば、レンズの領域が汚れに覆われ、別の領域が汚れに覆われていない場合がある。時点tにおいては物体は全体的に視認できるが、別の時点t+1においては汚れにより物体全体の取得が妨げられる。走行時の物体の移動および/またはカメラの移動により、時点tにおける画像の物体に関して取得された情報が、時点t+1における画像を再構成する助けになってよい。
時間的態様は、特に、汚れにより覆われている領域について鮮明な画像を再構成する助けになってよい。例えば、レンズの領域が汚れに覆われ、別の領域が汚れに覆われていない場合がある。時点tにおいては物体は全体的に視認できるが、別の時点t+1においては汚れにより物体全体の取得が妨げられる。走行時の物体の移動および/またはカメラの移動により、時点tにおける画像の物体に関して取得された情報が、時点t+1における画像を再構成する助けになってよい。
実施形態において、人工ニューラルネットワークが、2つの別個の出力インタフェースに共通する入力インタフェースを備える。共通の入力インタフェースが、共有の特徴表現層を備える。第1出力インタフェースにおいて、補正された(つまり、変換された)画像データが出力される。第2出力インタフェースにおいて、少なくとも1つのADAS検知機能のADAS関連の検知が出力される。ADASは、先進支援または自動運転システム(英語ではAdvanced Driver Assistance Systems)を示す。従って、ADAS関連の検知は、例えば、ADAS/ADシステムにとって重要な入力変数を表す物体、対象物、交通参加者である。人工ニューラルネットワークは、ADAS検知機能、例えば、車線認識、物体認識、深度認識(画像構成要素の3次元推定)、セマンティック認識等を含む。訓練の際に両方の出力インタフェースの出力が最適化される。
雨、侵入光および/または汚れによる悪影響を受けている、カメラの入力画像データを補正する方法は、
a)カメラにより撮影された、雨、侵入光および/または汚れによる悪影響を受けている入力画像データを訓練された人工ニューラルネットワークに供給するステップと、
b)訓練された人工ニューラルネットワークが、雨、侵入光および/または汚れによる悪影響を受けている入力画像データを悪影響を受けていない出力画像データへと変換し、入力画像データの画像(または各画像)の水、侵入光および/または汚れによる濡れ度に依存し、ネットワークの画像補正が適用される、ネットワークの確実性を特徴付ける確実性尺度cを決定するように構成されるステップと、
c)訓練された人工ニューラルネットワークが、出力画像データと1つまたは複数の決定された確実性尺度cとを出力するように構成されるステップとを備える。
補正された出力画像データにより、有利には、出力画像データにおけるより良好な機械物体認識、例えば、従来の車線/物体/または交通標識検知が可能になる。
a)カメラにより撮影された、雨、侵入光および/または汚れによる悪影響を受けている入力画像データを訓練された人工ニューラルネットワークに供給するステップと、
b)訓練された人工ニューラルネットワークが、雨、侵入光および/または汚れによる悪影響を受けている入力画像データを悪影響を受けていない出力画像データへと変換し、入力画像データの画像(または各画像)の水、侵入光および/または汚れによる濡れ度に依存し、ネットワークの画像補正が適用される、ネットワークの確実性を特徴付ける確実性尺度cを決定するように構成されるステップと、
c)訓練された人工ニューラルネットワークが、出力画像データと1つまたは複数の決定された確実性尺度cとを出力するように構成されるステップとを備える。
補正された出力画像データにより、有利には、出力画像データにおけるより良好な機械物体認識、例えば、従来の車線/物体/または交通標識検知が可能になる。
実施形態によると、係数dが推定され、推定の際、現在撮影される入力画像データの悪影響が考慮される。累積的または代替的に、現在撮影される入力画像データの係数dの推定は、その前に撮影された画像データの1つまたは複数の係数dを考慮してよい。
実施形態によると、係数dの決定または推定の際、係数dの時間的推移が考慮されてよい。このために、推定には、係数dの時間的推移と入力画像のシーケンスが用いられる。
実施形態によると、カメラが、車両に搭載された環境撮影カメラである。
車両に搭載された環境撮影カメラを用いる実施形態によると、係数dの決定の際に車両の現在の周辺状況に関する情報が考慮される。現在の周辺状況に関する情報は、例えば、雨センサデータ、外部(V2Xデータまたは航法システム、例えば、デジタル地図を備えるGPS受信装置のデータ)空間分解天候情報および/または太陽位置情報、運転状況情報(田舎道、市街、高速道路、トンネル、地下道)を含んでよい。これらの情報は、(少なくとも部分的に)カメラ画像データからの画像処理を介しても取得することができる。
例えば、現在の係数dを周辺状況情報に基づいて、時間的画像シーケンスと係数dの履歴との両方から推定することができる。
このようにして、係数dの推定は、訓練された人工ニューラルネットワークの使用の際に動的に行うことができる。
実施形態において、車両に搭載された環境撮影カメラの補正された画像データと1つの決定された確実性尺度(または複数の確実性尺度)および任意で係数dの出力が、ADAS関連の検知を決定し出力する少なくとも1つのADAS検知機能に対して行われる。ADAS検知機能は、公知のエッジまたはパターン認識方法と、人工ニューラルネットワークを用いて関連する画像物体を認識し任意で分類することができる認識方法とを含んでよい。
代替的な実施形態において、アプローチを拡張することができ、画像データ補正用の人工ニューラルネットワークを、ADAS検知機能、例えば、車線認識、物体認識、深度認識、セマンティック認識用のニューラルネットワークと組み合わせることができる。従って、計算時間のさらなるコストがほとんど生じない。訓練後、変換された(補正された)画像データ出力用の(第1)出力インタフェースを除去することができるため、車両での使用時には、ADAS検知用の(第2)出力インタフェースのみが設けられる。
さらなる実施形態において、不鮮明または悪影響を受けている画像データを再構成する代わりに、学習された方法を逆方向に用いてよく、学習された再構成プロファイルに基づいて、取得された画像データにおいて、人工的な雨または汚れを、検証するためのシミュレーション用に付加してよい。
さらなる実施形態において、学習された再構成プロファイルは、撮影された画像データにおける人工的な雨シミュレーションの品質の評価をするためにも援用されてよい。
さらなる実施形態によると、本方法を、拡張現実と、ドライブレコーダーおよび事故記録の領域に適用することができる。
さらに、本発明は、雨、侵入光および/または汚れによる悪影響を受けているカメラの入力画像データを出力画像データへと補正するように構成される少なくとも1つのデータ処理ユニットを有する装置に関する。本装置は、入力インタフェースと、訓練された人工ニューラルネットワークと、(第1)出力インタフェースとを備える。
入力インタフェースは、カメラにより撮影された雨、侵入光および/または汚れによる悪影響を受けている入力画像データを受信するように構成される。訓練された人工ニューラルネットワークは、悪影響を受けている入力画像データを悪影響を受けていない出力画像データへと変換し、入力画像データの画像または各画像の水、侵入光および/または汚れによる濡れ度に依存し、ネットワークの画像補正が適用される、ネットワークの確実性を特徴付ける確実性尺度cを決定するように構成される。
(第1)出力インタフェースは、変換された(補正された)画像データと1つまたは複数の決定された確実性尺度cとを出力するように構成される。
入力インタフェースは、カメラにより撮影された雨、侵入光および/または汚れによる悪影響を受けている入力画像データを受信するように構成される。訓練された人工ニューラルネットワークは、悪影響を受けている入力画像データを悪影響を受けていない出力画像データへと変換し、入力画像データの画像または各画像の水、侵入光および/または汚れによる濡れ度に依存し、ネットワークの画像補正が適用される、ネットワークの確実性を特徴付ける確実性尺度cを決定するように構成される。
(第1)出力インタフェースは、変換された(補正された)画像データと1つまたは複数の決定された確実性尺度cとを出力するように構成される。
実施形態によると、入力画像データは、互いに連続する入力画像の少なくとも1つのシーケンスを入力画像データとして含み、人工ニューラルネットワークは、互いに連続する入力画像および出力画像の少なくとも1つのシーケンスに画像データとして基づいて訓練されたものである。
本装置またはデータ処理ユニットは、特に、マイクロコントローラまたはマイクロプロセッサ、中央処理装置(CPU)、グラフィックス処理装置(GPU)、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)等、およびそれに対応すする方法ステップを実行するためのソフトウェアを含んでよい。
実施形態によると、データ処理ユニットが、ハードウェアベースの画像前処理段(イメージシグナルプロセッサ(ISP))に実装される。
実施形態において、画像を補正するための訓練された人工ニューラルネットワークが、共有の入力インタフェース(入力層または特徴表現層)と2つの別個の出力インタフェース(出力層)とを有する、例えば、セマンティックセグメンテーション、車線検知または物体検知用の車両側のADAS検知ニューラルネットワークの構成要素であり、第1出力インタフェースが、変換された出力画像データを出力するように構成され、第2出力インタフェースが、ADAS検知(画像認識データ)を出力するように構成される。
さらに、本発明は、コンピュータプログラム要素において、共にデータ処理ユニットがプログラム化されている場合、カメラの入力画像データを出力画像データに画像補正する方法を実行するようにデータ処理ユニットに命令する、コンピュータプログラム要素に関する。
さらに、本発明は、コンピュータ可読記憶媒体において、そのようなプログラム要素が格納されているコンピュータ可読記憶媒体に関する。
さらに、本発明は、少なくとも1つのデータ処理ユニットを備える装置の人工ニューラルネットワークを訓練するために、カメラの入力画像データを出力画像データに画像補正する機械学習の方法の使用に関する。
従って、本発明は、デジタル電子回路、コンピュータハードウェア、ファームウェアまたはソフトウェアに実装することができる。
重要な有利な点は:
-カメラが悪影響(例えば曇り)を受けている場合の物体認識が可能になる
-最適化された対応点検索(特徴点マッチング検索)のためにニューラルネットワークに基づいてヒューマンビジョンおよびコンピュータビジョンの画像データストリームを生成することである。
-カメラが悪影響(例えば曇り)を受けている場合の物体認識が可能になる
-最適化された対応点検索(特徴点マッチング検索)のためにニューラルネットワークに基づいてヒューマンビジョンおよびコンピュータビジョンの画像データストリームを生成することである。
自動車における使用に加えて、様々な応用領域が存在する:
-バス、鉄道、航空機およびロボットシステムにおける支援システム
-特徴ベースの検知、例えば、汚れ/雨/光の悪影響がある場合に特徴不足による劇的な劣化を被る、オプティカルフロー、運動からの構造復元等に基づく検知方法の応用の全て
-従って、特に、特徴点検索用オプティカルフローに基づく支援システム
-濡れまたは汚れがある場合に特徴が不足しまたはコントラストが乏しくなるため同様に劇的にパフォーマンスが低下する、カメラのオンライン較正。
-バス、鉄道、航空機およびロボットシステムにおける支援システム
-特徴ベースの検知、例えば、汚れ/雨/光の悪影響がある場合に特徴不足による劇的な劣化を被る、オプティカルフロー、運動からの構造復元等に基づく検知方法の応用の全て
-従って、特に、特徴点検索用オプティカルフローに基づく支援システム
-濡れまたは汚れがある場合に特徴が不足しまたはコントラストが乏しくなるため同様に劇的にパフォーマンスが低下する、カメラのオンライン較正。
以下、実施形態例と図についてより詳細に説明する。
図1は、環境撮影カメラKを備える車両Fを概略的に示し、環境撮影カメラKは、車両内部空間においてフロントガラスの後方に配置され、これにより車両の環境または周辺を撮影する。暗闇の場合、車両FのヘッドライトSが車両前方の環境を照射し、この環境がカメラKにより撮影される。特に、カメラKは、単眼カメラであってよい。カメラKを用いて、車両周辺画像のシーケンスが撮影される。車両Fが移動すると、周辺領域は連続的に変化し、カメラKにより写像される。
雨または汚れがフロントガラスまたは外部カメラレンズ上に存在するか、迷光、例えば、低い位置の太陽による太陽光または強い反射の太陽光がカメラKの光路に侵入すると、カメラKが撮影する画像に重大な悪影響が生じる。
雨または汚れがフロントガラスまたは外部カメラレンズ上に存在するか、迷光、例えば、低い位置の太陽による太陽光または強い反射の太陽光がカメラKの光路に侵入すると、カメラKが撮影する画像に重大な悪影響が生じる。
図2は、雨、侵入光および/または汚れがある場合にカメラ画像を補正するシステムの一般全体図を概略的に示す。本質的な構成要素は、人工ニューラルネットワークCNN1であり、この人工ニューラルネットワークCNN1は、訓練入力画像セットIn(In1,In2,In3,...)に、それに対応する補正された訓練(目標)出力画像セットOut(Out1,Out2,Out3,...)を割り当てることを訓練フェーズにおいて学習する。ここで、割り当てるとは、ニューラルネットワークCNN1が、補正された画像を生成することを学習することを意味する。入力画像(In1,In2,In3,...)は、例えば、人間の目では不鮮明またはぼやけている大きな物体のみ、例えば、自転車を示す大きな路面標示と空のみが認識可能である、降雨時の往来シーンを含んでよい。それに対応する補正された画像(Out1,Out2,Out3,...)においては、さらに、交差点の輪郭、信号灯、木、街灯が認識可能である。雨滴による悪影響を受けているカラー画像とその悪影響を受けていないカラー画像に関する実際の写真撮影画像は、例えば、非特許文献1の画像図1に見ることができる。
任意で、係数dは、ニューラルネットワークCNN1のさらなる入力変数としての役割を果たす。係数dは、画像の悪影響(雨、侵入光または汚れ)の補正度を制御する制御パラメータである。訓練時には、訓練画像と補正された画像との画像ペア(In1,Out1;In2,Out2;In3,Out3;...)用の係数dを、予めまたは訓練の際にこの画像ペアに基づいて決定し、ニューラルネットワークCNN1に供給してよい。これにより、係数dを共に学習することができる。
訓練されたニューラルネットワークCNN1を使用する際、ニューラルネットワークCNN1が現在撮影される画像をどの程度補正するか係数dを予め設定することにより制御してよく、係数dを(任意のグラデーションと共に)外部回帰パラメータとしても考えてよい。係数dは+/-10%の範囲で生じる可能性があるゆらぎの影響を受ける可能性があるため、このことは訓練中に考慮に入れられる。係数dは訓練時(例えば、ニューラルネットワークの訓練の様々なエポック時)に約+/-10%のノイズを含む場合があり、このため、車両における推論時には係数dの誤推定に対して約+/-10%の範囲でロバストである。言い換えれば、係数dの必要な正確度は+/-10%の範囲であり、従って、ニューラルネットワークCNN1は、このパラメータの推定の偏差に対してロバストである。
代替的または補足的に、実行された画像補正の係数dは、訓練されたニューラルネットワークCNN1により出力されてよい。これにより、下流の画像認識機能は、当初に撮影された画像がどの程度補正されたかについて情報を取得する。
訓練されたニューラルネットワークCNN1を使用する際、ニューラルネットワークCNN1が現在撮影される画像をどの程度補正するか係数dを予め設定することにより制御してよく、係数dを(任意のグラデーションと共に)外部回帰パラメータとしても考えてよい。係数dは+/-10%の範囲で生じる可能性があるゆらぎの影響を受ける可能性があるため、このことは訓練中に考慮に入れられる。係数dは訓練時(例えば、ニューラルネットワークの訓練の様々なエポック時)に約+/-10%のノイズを含む場合があり、このため、車両における推論時には係数dの誤推定に対して約+/-10%の範囲でロバストである。言い換えれば、係数dの必要な正確度は+/-10%の範囲であり、従って、ニューラルネットワークCNN1は、このパラメータの推定の偏差に対してロバストである。
代替的または補足的に、実行された画像補正の係数dは、訓練されたニューラルネットワークCNN1により出力されてよい。これにより、下流の画像認識機能は、当初に撮影された画像がどの程度補正されたかについて情報を取得する。
人工ニューラルネットワークCNN1は、入力画像の水、侵入光および/または汚れによる濡れ度に依存する確実性尺度cを決定するように構成される。ネットワークの構成は、例えば、それに対応する人工ニューラルネットワークCNN1のアーキテクチャの設計により行われてよい。人工ニューラルネットワークCNN1は、機械学習の終了後、新たな入力画像の確実性尺度cを決定し出力できる。従って、確実性尺度cは、雨または水による濡れによる悪影響、侵入光による悪影響および/または汚れによる悪影響の度合いに依存し、訓練されたネットワークの使用時に画像補正が適用される確実性を特徴付ける。
図2において、3つの画像ペアIn1+Out1,In2+Out2,In3+Out3が概略的に示されている。従って、訓練されたニューラルネットワークCNN1により各画像ペアについて確実性尺度c1,c2,c3が決定され出力される。
雨、侵入光または汚れの画像の補正の品質は、多数の要因(例えば、訓練データにおける同様の事例の存在、補正を可能とするのに十分な露出、多義性を有するシナリオの回避等)に依存するため、ネットワークは、画像の補正に加えて確実性尺度を出力し、この確実性尺度を用いて、ネットワークは決定を行う。この確実性尺度cは、以下の実装形態の1つまたはこれらの組み合わせを含んでよい:
-信頼性尺度c_Prob:ここで、ネットワークの出力は、ネットワークが正しい決定を行う確率として、確率的に解釈可能であるように較正される。このための値は[0,1]の範囲で標準化され、これらの値は、ネットワークが画像の正しい補正を計算する、0%の確率から100%の確率までのスペクトルに対応する。この較正は、訓練画像データセットに基づく実際の機械学習方法が終了した後、検証画像データセットに基づいて学習の品質を引き続いてチェックすることにより行われてよい。また、検証画像データセットも、それぞれ、雨、侵入光および/または汚れの悪影響を受けている第1画像と、それに対応する目標出力画像として悪影響を受けていない同じシーンの第2画像との画像ペアを含む。実際に、入力画像および目標出力画像の一部は保持されてよく、つまり、機械学習方法用にではなく、その後の検証用に用いられてよい。
-標準偏差と同様である散布尺度c_Dev:ここで、ネットワーク出力の不確かさは、ネットワーク出力の散布度を示すように推定される。これは、様々に実装されてよい。このために、測定の不確かさとモデルの不確かさにおける下位区分が考えられる。測定の不確かさは、入力データにより生じる不確かさ、例えば、僅かな外乱に関係する。これは、さらなる出力により、ネットワークに付加されてよく、誤差関数の修正により訓練されてよい。モデルの不確かさは、ネットワークの限定的な写像正確度および一般化可能性により生じる不確かさに関係する。これは、例えば、訓練データの範囲、ネットワーク設計のアーキテクチャ等の要因に関係する。モデルの不確かさは、例えば、モンテカルロドロップアウトまたはネットワークアンサンブルにより推定されてよい。モデルの不確かさと測定の不確かさは、足し合わされてよい。
-信頼性尺度と散布尺度の組み合わせ。
-信頼性尺度c_Prob:ここで、ネットワークの出力は、ネットワークが正しい決定を行う確率として、確率的に解釈可能であるように較正される。このための値は[0,1]の範囲で標準化され、これらの値は、ネットワークが画像の正しい補正を計算する、0%の確率から100%の確率までのスペクトルに対応する。この較正は、訓練画像データセットに基づく実際の機械学習方法が終了した後、検証画像データセットに基づいて学習の品質を引き続いてチェックすることにより行われてよい。また、検証画像データセットも、それぞれ、雨、侵入光および/または汚れの悪影響を受けている第1画像と、それに対応する目標出力画像として悪影響を受けていない同じシーンの第2画像との画像ペアを含む。実際に、入力画像および目標出力画像の一部は保持されてよく、つまり、機械学習方法用にではなく、その後の検証用に用いられてよい。
-標準偏差と同様である散布尺度c_Dev:ここで、ネットワーク出力の不確かさは、ネットワーク出力の散布度を示すように推定される。これは、様々に実装されてよい。このために、測定の不確かさとモデルの不確かさにおける下位区分が考えられる。測定の不確かさは、入力データにより生じる不確かさ、例えば、僅かな外乱に関係する。これは、さらなる出力により、ネットワークに付加されてよく、誤差関数の修正により訓練されてよい。モデルの不確かさは、ネットワークの限定的な写像正確度および一般化可能性により生じる不確かさに関係する。これは、例えば、訓練データの範囲、ネットワーク設計のアーキテクチャ等の要因に関係する。モデルの不確かさは、例えば、モンテカルロドロップアウトまたはネットワークアンサンブルにより推定されてよい。モデルの不確かさと測定の不確かさは、足し合わされてよい。
-信頼性尺度と散布尺度の組み合わせ。
確実性尺度cは、画像全体、画像領域または画像の各ピクセルについて計算されてよい。確実性尺度cに基づいて、以下の決定を行うことができる:
-c_Prob低:ネットワークがその推定に関して低い信頼性を有している。誤推定の発生が増加。
-c_Prob高:ネットワークがその推定に関して高い信頼性を有している。大抵の場合、画像補正が正確である。
-c_Dev低:ネットワークの画像補正の散布度が低い。従って、ネットワークが非常に正確な画像補正を予測している。
-c_Dev高:標準偏差と同様である画像補正の推定散布度が高く、ネットワークの出力が不正確/不鮮明である。入力データの修正またはネットワークのモデル化の修正が僅かだと、画像補正において偏差を生じる可能性がある。
-組み合わせ:
○c_Prob高およびc_Dev低:非常に確かで正確な画像補正であり、高い確実性で採用可能である。
○c_Prob低およびc_Dev高:非常に不確かであり不正確な画像補正であり、むしろ却下されることになる可能性がある。
○c_Prob高およびc_Dev高またはc_Prob低およびc_Dev低:これらの補正は不確かさを含み、ここでは画像補正を注意して用いることが推奨される。
確実性尺度の加算は、特に、確実性クリティカルな機能に関連する。
-c_Prob低:ネットワークがその推定に関して低い信頼性を有している。誤推定の発生が増加。
-c_Prob高:ネットワークがその推定に関して高い信頼性を有している。大抵の場合、画像補正が正確である。
-c_Dev低:ネットワークの画像補正の散布度が低い。従って、ネットワークが非常に正確な画像補正を予測している。
-c_Dev高:標準偏差と同様である画像補正の推定散布度が高く、ネットワークの出力が不正確/不鮮明である。入力データの修正またはネットワークのモデル化の修正が僅かだと、画像補正において偏差を生じる可能性がある。
-組み合わせ:
○c_Prob高およびc_Dev低:非常に確かで正確な画像補正であり、高い確実性で採用可能である。
○c_Prob低およびc_Dev高:非常に不確かであり不正確な画像補正であり、むしろ却下されることになる可能性がある。
○c_Prob高およびc_Dev高またはc_Prob低およびc_Dev低:これらの補正は不確かさを含み、ここでは画像補正を注意して用いることが推奨される。
確実性尺度の加算は、特に、確実性クリティカルな機能に関連する。
訓練データ(訓練画像(In1,In2,In3,...)と割り当てられ、補正された画像(Out1,Out2,Out3,...))の生成は、例えば、非特許文献1の図8に示されているような「ステレオカメラセットアップ」を用いて画像データを取得することにより行われてよい。互いの間隔がわずかである2つの同一のカメラモジュールの前に、透明板を有する2つに分割された室が配置され、例えば、右側のステレオカメラモジュールの前の室には水滴がスプレーされている一方、左側のステレオカメラモジュールの前の室は悪影響を受けていない。
侵入光による悪影響を同様にシミュレートするために、例えば、光源を一方の室のみに向けてよい。または、汚れの場合、同様に汚れを一方の室のみに付着させてよい。
侵入光による悪影響を同様にシミュレートするために、例えば、光源を一方の室のみに向けてよい。または、汚れの場合、同様に汚れを一方の室のみに付着させてよい。
代替的に、訓練画像ペアを生成するために、悪影響を受けていない画像を取得してよく、これらの画像について、雨、侵入光または汚れの影響を画像中にシミュレートするレンダリングプロセスを用いて悪影響計算してよい。
ニューラルネットワークCNN1が訓練される場合、画像補正は以下のスキームによって行われる:
入力画像→CNN1
任意で:係数d→CNN1
CNN1→補正された出力画像+確実性尺度c。
入力画像→CNN1
任意で:係数d→CNN1
CNN1→補正された出力画像+確実性尺度c。
図3~図5は、計算資源の使用に従って設けられている、運転者支援機能および自動運転の機能の1つまたは複数のネットワークを用いる、画像補正用第1ネットワークの可能な組み合わせの実施形態例を示す。
図3は、検知機能(fn1,fn2,fn3,fn4)用第2ニューラルネットワークCNN2を下流に有する、画像補正用第1ニューラルネットワークCNN1を備えるシステムを示す。ここで、検知機能(fn1,fn2,fn3,fn4)は、ADAS関連またはAD関連の物体、構造、プロパティ(一般に特徴)を画像において検知する画像処理機能である。機械学習に基づく多数のそのような検知機能(fn1,fn2,fn3,fn4)は、既に開発されているか、現在の開発対象(例えば、交通標識分類、物体分類、セマンティックセグメンテーション、深度推定、車線区分線認識および位置特定)である。補正された画像(Opti)に基づく第2ニューラルネットワークCNN2の検知機能(fn1,fn2,fn3,fn4)は、視認性が不良である当初の入力画像データ(Ini)に基づくよりも良好な結果を提供する。
ニューラルネットワークCNN1,CNN2の両方を訓練する際、以下のスキームによる方法が実行されてよい。
入力画像(Ini)→任意で係数d→CNN1→補正された出力画像(Opti)+確実性尺度c→検知機能(fn1,fn2,fn3,fn4)用CNN2→物体、深度、車線、セマンティック等の検知を出力。
図4は、必要に応じて係数dにより制御される、入力画像(Ini)の画像補正用ニューラルネットワークCNN10を示し、このニューラルネットワークCNN10は、特徴表現層を(入力層または下位層として)、検知機能(fn1,fn2,fn3,fn4)用ネットワークと共有している。ニューラルネットワークCNN10の特徴表現層において、画像補正用と検知機能用に共通の特徴が学習される。
共有の入力層と2つの別個の出力とを有するニューラルネットワークCNN10は、補正された出力画像(Opti)および確実性尺度cを出力する第1出力CNN11と、物体、深度、車線、セマンティック等の検知を出力する第2出力CNN12とを備える。
訓練の際に特徴表現層が画像補正と検知機能(fn1,fn2,fn3,fn4)とに関して最適化されることにより、画像補正の最適化は同時に検知機能(fn1,fn2,fn3,fn4)の改善をもたらす。
補正された画像(Opti)の出力が所望されていないか必要ではない場合、図5に基づいて説明するように、アプローチをさらに変形させてよい。
補正された画像(Opti)の出力が所望されていないか必要ではない場合、図5に基づいて説明するように、アプローチをさらに変形させてよい。
図5は、特徴の最適化によりニューラルネットワークベースで画像を補正するための、図4のシステムに基づくアプローチを示す。計算時間を節減するために、検知機能(fn1,fn2,fn3,fn4)用の特徴は、訓練の最中に、画像補正と検知機能(fn1,fn2,fn3,fn4)とに関して最適化される。
実行時、つまり、訓練されたニューラルネットワーク(CNN10,CNN11,CNN12)の使用の際、補正された画像(Opti)は計算されない。
しかし、検知機能(fn1,fn2,fn3,fn4)用ニューラルネットワーク(CNN2)を1つのみしか有さないシステムであって、訓練の際に検知機能(fn1,fn2,fn3,fn4)のみしか最適化されていないシステムと比べて、検知機能(fn1,fn2,fn3,fn4)は、上述のように、画像補正と検知機能とに共通する訓練により改善される。
訓練フェーズにおいて、さらなる出力インタフェース(CNN11)により、補正された画像(Opti)が出力され、グラウンドトルゥース(それに対応する補正された訓練画像)と比較される。テストフェーズまたは実行時において、この出力(CNN11)をさらに使用してよく、または計算時間を節減するために、カットオフされてよい。検知機能(fn1,fn2,fn3,fn4)用の重みは、この訓練の際にさらなる出力(CNN11)を用いて修正される結果、検知機能(fn1,fn2,fn3,fn4)用の画像補正が考慮に入れられる。このようにして、検知機能(fn1,fn2,fn3,fn4)の重みは、画像補正に関する情報を暗黙的に学習する。
しかし、検知機能(fn1,fn2,fn3,fn4)用ニューラルネットワーク(CNN2)を1つのみしか有さないシステムであって、訓練の際に検知機能(fn1,fn2,fn3,fn4)のみしか最適化されていないシステムと比べて、検知機能(fn1,fn2,fn3,fn4)は、上述のように、画像補正と検知機能とに共通する訓練により改善される。
訓練フェーズにおいて、さらなる出力インタフェース(CNN11)により、補正された画像(Opti)が出力され、グラウンドトルゥース(それに対応する補正された訓練画像)と比較される。テストフェーズまたは実行時において、この出力(CNN11)をさらに使用してよく、または計算時間を節減するために、カットオフされてよい。検知機能(fn1,fn2,fn3,fn4)用の重みは、この訓練の際にさらなる出力(CNN11)を用いて修正される結果、検知機能(fn1,fn2,fn3,fn4)用の画像補正が考慮に入れられる。このようにして、検知機能(fn1,fn2,fn3,fn4)の重みは、画像補正に関する情報を暗黙的に学習する。
雨、侵入光または汚れによる悪影響にもかかわらずカメラシステムに基づく画像データを、アルゴリズムにより、これらの悪影響を受けない撮影に対応する表現に変換する支援システムのさらなる態様および実施形態について以下説明する。この場合、変換された画像は、単に表示目的または特徴ベースの認識アルゴリズム用の入力としての役割を果たしてよい。
1)第1実施形態において、システムにおける計算は、例えば、ニューラルネットワークに基づいており、このニューラルネットワークは、検知ユニットまたは表示ユニットの上流で、曇り、汚れまたは水滴を有しコントラストと色情報に乏しい入力画像を、鮮明化された表現に変換する。このために、ニューラルネットワークは、「曇った入力画像」とそれに対応する「鮮明化された画像」とからなるデータセットを用いて訓練されたものである。
2)特に、鮮明化された画像を用いることにより、ニューラルネットワークは、改善すべき画像ペアにおいて存在する特徴を、曇りまたは汚れにもかかわらず、その後の対応点検索または物体認識のために取得し、最も良い場合には強化しさえするように、訓練される。
3)画像を補正/改善するためにネットワークを訓練する際、表示および物体を検知するための特徴ベースの方法を考慮してよく、その結果、この方法は、認識すべき特徴用に特化され、これらの特徴を明示的にその後の処理のために強調する。
4)さらなる実施形態において、画像改善または画像補正の方法は、ハードウェアベースの画像前処理段、つまり、イメージシグナルプロセッサに組み込まれてよい。このイメージシグナルプロセッサは、ハードウェア側でニューラルネットワークに関して補完され、このニューラルネットワークは変換を行い、処理された情報を原データと共に、実行される可能性がある検知プロセスまたは表示プロセスに使用可能であるようにする。
5)さらなる応用において、訓練するネットワークに、汚れ情報または曇り情報に加えて、画像品質の情報を使用可能であるようにすることができる。システムおよびプロセスを、物体認識とヒューマンビジョンについて最適化された画像データを計算するように最適化することができる。
曇りまたは雨滴の場合に画像を補正することに加えて、システムは、雨滴または汚れを認識して、例えば、フロントガラスのワイパーをオンにし、またはサテライトカメラ洗浄の要求を表示する。明度検知と共に、このようにして、画像補正に加えてレインライト検知の機能を実装することができる。
Claims (15)
- 人工ニューラルネットワーク(CNN1,CNN10,CNN11,CNN12)を用いて、雨、侵入光および/または汚れによる悪影響を受けているカメラ(K)の入力画像データを出力画像データへと画像補正する機械学習の方法において、前記人工ニューラルネットワーク(CNN1,CNN10)の入力において、それぞれ、雨、侵入光および/または汚れの悪影響を受けている第1画像(In1,In2,In3,...)と、目標出力画像として悪影響を受けていない同じシーンの第2画像(Out1,Out2,Out3,...)とを供給するように、複数の訓練画像ペア(In1,Out1;In2,Out2;In3,Out3;...)を用いて学習が行われ、
前記人工ニューラルネットワーク(CNN1,CNN10,CNN11,CNN12)は、入力画像の水、侵入光および/または汚れによる濡れ度に依存する確実性尺度cを決定するように構成され、前記人工ニューラルネットワーク(CNN1,CNN10,CNN11,CNN12)は、機械学習の終了後、新たな入力画像の前記確実性尺度cを決定し出力できる、方法。 - それぞれ、雨、侵入光および/または汚れの悪影響を受けている第1画像(In1,In2,In3,...)と悪影響を受けていない第2画像(Out1,Out2,Out3,...)とが同時または互いに即座連続的に取得されることにより、前記訓練画像ペア(In1,Out1;In2,Out2;In3,Out3;...)が生成される、請求項1に記載の方法。
- 訓練画像ペア(In1,Out1;In2,Out2;In3,Out3;...)の前記目標出力画像(Out1,Out2,Out3,...)と前記悪影響を受けている入力画像(In1,In2,In3,...)との間の差の尺度として少なくとも1つの係数dが決定され、前記人工ニューラルネットワークに供給される、請求項1または2に記載の方法。
- 前記訓練画像ペア(In1,Out1;In2,Out2;In3,Out3;...)が、互いに連続する入力画像および出力画像の少なくとも1つのシーケンスを含む、請求項1~3の何れか1項に記載の方法。
- 前記人工ニューラルネットワーク(CNN1,CNN10,CNN11,CNN12)が、2つの別個の出力インタフェース(CNN11,CNN12)に共通する入力インタフェースを備え、前記共通の入力インタフェースが、共有の特徴表現層を備え、前記第1出力インタフェース(CNN11)において、補正された画像データ(Opti)が出力され、前記第2出力インタフェース(CNN12)において、少なくとも1つのADAS検知機能(fn1,fn2,fn3,fn4)のADAS関連の検知が出力され、訓練の際に前記両方の出力インタフェース(CNN11,CNN12)の出力が最適化される、請求項1~4の何れか1項に記載の方法。
- 雨、侵入光および/または汚れによる悪影響を受けている、カメラ(K)の入力画像データを補正する方法において、
a)前記カメラ(K)により撮影された、雨、侵入光および/または汚れによる悪影響を受けている入力画像データ(Ini)を訓練された人工ニューラルネットワーク(CNN1,CNN10,CNN11,CNN12)に供給するステップと、
b)前記訓練された人工ニューラルネットワーク(CNN1,CNN10,CNN11,CNN12)が、雨、侵入光および/または汚れによる悪影響を受けている前記入力画像データ(Ini)を悪影響を受けていない出力画像データ(Opti)へと変換し、前記入力画像データの画像の水、侵入光および/または汚れによる濡れ度に依存し、前記ネットワークの画像補正が適用される、前記ネットワークの確実性を特徴付ける確実性尺度cを決定するように構成されるステップと、
c)前記訓練された人工ニューラルネットワーク(CNN1,CNN10,CNN11,CNN12)が、前記出力画像データ(Opti)と前記決定された確実性尺度cとを出力するように構成されるステップとを備える、方法。 - 前記入力画像データが、互いに連続する撮影された入力画像の少なくとも1つのシーケンスを入力画像データとして含む、請求項6に記載の方法。
- 前記カメラ(K)が、車両に搭載された環境撮影カメラである、請求項6または7に記載の方法。
- 前記変換された画像データ(Opti)および前記決定された確実性尺度cの出力が、前記変換された画像データに基づいてADAS関連の検知を決定し出力する少なくとも1つのADAS検知機能に対して行われる、請求項8に記載の方法。
- ステップa)において、さらに、係数dが、前記訓練された人工ニューラルネットワーク(CNN1,CNN10,CNN11,CNN12)に供給され、ステップb)において、変換が、前記係数dに応じて制御される、請求項6~9の何れか1項に記載の方法。
- 雨、侵入光および/または汚れによる悪影響を受けているカメラ(K)の入力画像データ(Ini)を出力画像データ(Opti)へと補正するように構成される少なくとも1つのデータ処理ユニットを有する装置において、
-前記カメラ(K)による雨、侵入光および/または汚れによる悪影響を受けている前記入力画像データ(Ini)を受信するように構成される入力インタフェースと、
-前記入力画像データ(Ini)を悪影響を受けていない出力画像データ(Opti)へと変換し、前記入力画像データの画像の水、侵入光および/または汚れによる濡れ度に依存し、ネットワークの画像補正が適用される、前記ネットワークの確実性を特徴付ける確実性尺度cを決定するように構成される訓練された人工ニューラルネットワーク(CNN1,CNN10,CNN11,CNN12)と、
-前記変換された出力画像データ(Opti)と前記決定された確実性尺度cとを出力するように構成される第1出力インタフェース(CNN11)とを備える、装置。 - 前記データ処理ユニットが、ハードウェアベースの画像前処理段に実装される、請求項11に記載の装置。
- 前記カメラ(K)が、車両に搭載された環境撮影カメラであり、画像を補正するための前記訓練された人工ニューラルネットワーク(CNN1,CNN10,CNN11)が、共有の入力インタフェースと2つの別個の出力インタフェースとを有する車両側のADAS検知ニューラルネットワーク(CNN2,CNN12)の構成要素であり、前記第1出力インタフェース(CNN11)が、前記補正された出力画像データ(Opti)を出力するように構成され、前記第2出力インタフェース(CNN12)が、前記ADAS関連の検知を出力するように構成される、請求項11または12に記載の装置。
- 前記入力画像データが、互いに連続する撮影された入力画像の少なくとも1つのシーケンスを入力画像データとして含み、前記人工ニューラルネットワークが、互いに連続する入力画像および出力画像の少なくとも1つのシーケンスに基づいて訓練されたものである、請求項11~13の何れか1項に記載の装置。
- コンピュータプログラム要素において、共にデータ処理ユニットがプログラム化されている場合、請求項6~10の何れか1項に記載の方法を実行するように前記データ処理ユニットに命令する、コンピュータプログラム要素。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020215859.2A DE102020215859A1 (de) | 2020-12-15 | 2020-12-15 | Korrektur von Bildern einer Kamera bei Regen, Lichteinfall und Verschmutzung |
DE102020215859.2 | 2020-12-15 | ||
PCT/DE2021/200207 WO2022128013A1 (de) | 2020-12-15 | 2021-11-26 | Korrektur von bildern einer kamera bei regen, lichteinfall und verschmutzung |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023548127A true JP2023548127A (ja) | 2023-11-15 |
Family
ID=78821490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023526114A Pending JP2023548127A (ja) | 2020-12-15 | 2021-11-26 | 雨、侵入光および汚れがある場合のカメラの画像の補正 |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP4264565A1 (ja) |
JP (1) | JP2023548127A (ja) |
KR (1) | KR20230074590A (ja) |
CN (1) | CN116547726A (ja) |
DE (1) | DE102020215859A1 (ja) |
WO (1) | WO2022128013A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116567375B (zh) * | 2023-04-24 | 2024-02-02 | 禾多科技(北京)有限公司 | 车载前视摄像头一体机、车辆和车辆车速控制方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011056051A1 (de) | 2011-12-05 | 2013-06-06 | Conti Temic Microelectronic Gmbh | Verfahren zur Auswertung von Bilddaten einer Fahrzeugkamera unter Berücksichtigung von Informationen über Regen |
KR20210059712A (ko) | 2018-08-07 | 2021-05-25 | 블링크에이아이 테크놀로지스, 아이엔씨. | 이미지 향상을 위한 인공지능 기법 |
US11508049B2 (en) * | 2018-09-13 | 2022-11-22 | Nvidia Corporation | Deep neural network processing for sensor blindness detection in autonomous machine applications |
US10694105B1 (en) | 2018-12-24 | 2020-06-23 | Wipro Limited | Method and system for handling occluded regions in image frame to generate a surround view |
DE102019205962A1 (de) | 2019-04-25 | 2020-10-29 | Robert Bosch Gmbh | Verfahren zur Generierung von digitalen Bildpaaren als Trainingsdaten für Neuronale Netze |
-
2020
- 2020-12-15 DE DE102020215859.2A patent/DE102020215859A1/de active Pending
-
2021
- 2021-11-26 WO PCT/DE2021/200207 patent/WO2022128013A1/de active Application Filing
- 2021-11-26 CN CN202180078979.2A patent/CN116547726A/zh active Pending
- 2021-11-26 JP JP2023526114A patent/JP2023548127A/ja active Pending
- 2021-11-26 EP EP21819344.9A patent/EP4264565A1/de active Pending
- 2021-11-26 KR KR1020237014848A patent/KR20230074590A/ko unknown
Also Published As
Publication number | Publication date |
---|---|
WO2022128013A1 (de) | 2022-06-23 |
KR20230074590A (ko) | 2023-05-30 |
DE102020215859A1 (de) | 2022-06-15 |
EP4264565A1 (de) | 2023-10-25 |
CN116547726A (zh) | 2023-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107472135B (zh) | 图像生成装置、图像生成方法以及记录介质 | |
US20240029444A1 (en) | Correction of images from a panoramic-view camera system in the case of rain, incident light and contamination | |
US20210073557A1 (en) | Systems and methods for augmenting upright object detection | |
EP3438777A1 (en) | Method, apparatus and computer program for a vehicle | |
CN106548177A (zh) | 物体识别装置以及污垢检测方法 | |
CN114902070A (zh) | 传感器退化检测和修复 | |
Cord et al. | Detecting unfocused raindrops: In-vehicle multipurpose cameras | |
US20210287022A1 (en) | Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle | |
Lion et al. | Smart speed bump detection and estimation with kinect | |
Raguraman et al. | Intelligent drivable area detection system using camera and LiDAR sensor for autonomous vehicle | |
EP2432660B1 (fr) | Procede et dispositif pour etendre une zone de visibilite | |
JP2023548127A (ja) | 雨、侵入光および汚れがある場合のカメラの画像の補正 | |
CN113632450B (zh) | 摄影系统及图像处理装置 | |
Hautière et al. | Free Space Detection for Autonomous Navigation in Daytime Foggy Weather. | |
Srivastava et al. | Lane detection using median filter Wiener filter and integrated Hough transform | |
CN1922633A (zh) | 使用鲁棒的信息融合从动态背景中检测正经过的车辆的系统和方法 | |
CN111553181A (zh) | 车载相机语义识别方法、系统及装置 | |
JP7400599B2 (ja) | 物体検出装置 | |
US11897517B2 (en) | Information processing device, information processing method, computer program product, and vehicle control system | |
US20220309799A1 (en) | Method for Automatically Executing a Vehicle Function, Method for Evaluating a Computer Vision Method and Evaluation Circuit for a Vehicle | |
Qi et al. | Vehicle depth estimation based on monocular camera in extreme weather | |
WO2024009605A1 (ja) | 画像処理装置、および、画像処理方法 | |
Tadjine et al. | Optical Self Diagnostics for Camera Based Driver Assistance | |
Chang et al. | Enhanced Depth Map Estimation in Low Light Conditions for RGB Cameras | |
Ma et al. | Research on a Multifunctional Vehicle Safety Assistant System Based on Artificial Intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240415 |