JP2017526199A - かすみ検出のためのシステムおよび方法 - Google Patents

かすみ検出のためのシステムおよび方法 Download PDF

Info

Publication number
JP2017526199A
JP2017526199A JP2016568643A JP2016568643A JP2017526199A JP 2017526199 A JP2017526199 A JP 2017526199A JP 2016568643 A JP2016568643 A JP 2016568643A JP 2016568643 A JP2016568643 A JP 2016568643A JP 2017526199 A JP2017526199 A JP 2017526199A
Authority
JP
Japan
Prior art keywords
haze
electronic device
confidence level
modality
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016568643A
Other languages
English (en)
Other versions
JP2017526199A5 (ja
Inventor
ジョン、シン
チ、インヨン
ガオ、ダシャン
ヤン、ヤン
リン、クエン−ハン
ビ、ニン
グオ、フェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/619,354 external-priority patent/US9734425B2/en
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2017526199A publication Critical patent/JP2017526199A/ja
Publication of JP2017526199A5 publication Critical patent/JP2017526199A5/ja
Pending legal-status Critical Current

Links

Classifications

    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30192Weather; Meteorology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Abstract

電子デバイスによって実行される方法が説明される。本方法は、複数のモダリティに基づいてかすみ信頼レベルを決定することを含む。本方法はまた、かすみ信頼レベルに基づいて動作を実行するかどうかを決定することを含む。本方法は、かすみ信頼レベルに基づいてかすみ低減を実行することを含む、動作を実行することを含み得る。

Description

関連出願
[0001]本出願は、2015年2月11日に出願された「ENVIRONMENTAL SCENE CONDITION DETECTION」と題する米国特許出願第14/619,354号の一部継続出願であり、2014年5月20日に出願された「AUTOMATIC HAZY SCENE DETECTION AND DE−HAZING USING INFORMATION FROM MULTIPLE MODALITIES」と題する米国仮特許出願第62/000,856号の優先権を主張し、それらのすべては本願の譲受人に譲渡され、参照により本明細書に明確に組み込まれる。
[0002]本開示は、一般に電子デバイスに関する。より具体的には、本開示はかすみ(haziness)検出のためのシステムおよび方法に関する。
[0003]過去数十年間に、電子デバイスの使用がより一般的になってきた。特に、電子技術の進歩により、ますます複雑で有用になる電子デバイスのコストが削減されてきた。コスト削減と消費者の需要は、現代社会において事実上ユビキタスとなるように電子デバイスの使用を拡大した。電子デバイスの使用が拡大するにつれて、電子デバイスの新しく改良された機能に対する需要も拡大してきた。より具体的には、新しい機能を実行する、および/または機能をより速く、より効率的に、または高品質で実行する電子デバイスがしばしば追求される。
[0004]いくつかの電子デバイス(たとえば、カメラ、ビデオカメラ、デジタルカメラ、セルラー電話、スマートフォン、コンピュータ、テレビ、自動車、パーソナルカメラ、アクションカメラ、監視カメラ、搭載カメラ、接続カメラ、ロボット、ドローン、スマートアプリケーション、ヘルスケア機器、セットトップボックスなど)は、画像をキャプチャおよび/または利用する。たとえば、デジタルカメラはデジタル画像をキャプチャし得る。
[0005]場合によっては、キャプチャされた画像の品質が低下してしまう可能性がある。たとえば、かすみ(haze)やギラつき(glare)などの大気効果を含む環境シーン条件によって画質が低下する場合がある。この議論から分かるように、画像使用を改善するシステムおよび方法は有益であり得る。
[0006]電子デバイスによって実行される方法が説明される。本方法は、複数のモダリティに基づいてかすみ信頼レベルを決定することを含む。本方法はまた、かすみ信頼レベルに基づいて動作を実行するかどうかを決定することを含む。モダリティは、画像モダリティ情報および位置モダリティ情報、方向モダリティ情報、時刻モダリティ情報、地域の天気予報モダリティ情報、遠隔デバイス画像モダリティ情報、屋内/屋外インジケータ、ユーザオーバーライドインジケータ、および/または温度モダリティ情報を提供し得る。
[0007]本方法は、動作を実行することを含み得る。動作を実行することは、かすみ信頼レベルに基づいてかすみ低減を実行することを含み得る。かすみ低減を実行することは、オートホワイトバランス、オートフォーカス、自動露出、色、鮮明度、および/またはローカルトーンマッピング曲線を調整することを含み得る。動作を実行することは、少なくとも1つの非画像処理動作を実行することを含み得る。
[0008]かすみ信頼レベルを決定することは、2段階分類に基づき得る。2段階分類は、1つまたは複数の抽出された特徴の第1のセットを生成するためにカメラ入力信号に基づいて第1の特徴抽出を実行することと、抽出された特徴の第1のセットおよびモダリティのうちの1つまたは複数に基づいて第1の分類を実行することと、第1の分類はかすみが検出されたことを示すと決定することとを含み得る。2段階分類はまた、1つまたは複数の抽出された特徴の第2のセットを生成するためにカメラ入力信号およびモダリティのうちの1つまたは複数に基づいて第2の特徴抽出を実行することと、抽出された特徴の第2のセットおよびモダリティのうちの1つまたは複数に基づいて第2の分類を実行することとを含み得る。
[0009]抽出された特徴の第1のセットは、ダークチャネル特徴、輝度特徴の勾配、および/またはぼやけ(blurriness)/鮮明度特徴を含み得る。抽出された特徴の第2のセットは、ダークチャネル特徴、勾配特徴の大きさ、勾配特徴の位相、および/または勾配空間情報特徴を含み得る。
[0010]かすみ信頼レベルは、検出器によって取得され得る。検出器は、モダリティのうちの1つまたは複数に基づいてかすみ信頼レベルを取得し得る。
[0011]かすみ信頼レベルは、複数の検出器によって取得され得る。各検出器は、モダリティのうちの1つまたは複数に基づいてモダリティかすみ信頼レベルを取得し得る。モダリティかすみ信頼レベルは、かすみ信頼レベルを形成するために組み合わせられ得る。
[0012]電子デバイスについても説明する。本電子デバイスは、複数のモダリティに基づいてかすみ信頼レベルを決定し、かすみ信頼レベルに基づいて動作を実行するかどうかを決定するように構成されたプロセッサを含む。
[0013]装置についても説明する。本装置は、複数のモダリティに基づいてかすみ信頼レベルを決定するための手段を含む。本装置はまた、かすみ信頼レベルに基づいて動作を実行するかどうかを決定するための手段を含む。
[0014]コンピュータプログラム製品についても説明する。本コンピュータプログラム製品は、命令をもつ非一時的コンピュータ可読媒体を含む。本命令は、電子デバイスに、複数のモダリティに基づいてかすみ信頼レベルを決定させるためのコードを含む。本命令はまた、電子デバイスに、かすみ信頼レベルに基づいて動作を実行するかどうかを決定させるためのコードを含む。
[0015]複数のモダリティに基づくかすみ検出のためのシステムおよび方法が実装され得る、電子デバイスの一例を示すブロック図。 [0016]かすみ検出および/またはかすみ低減のためのシステムおよび方法が実装され得る、電子デバイスの一構成のある例を示すブロック図。 [0017]かすみ検出および/またはかすみ低減のためのシステムおよび方法が実装され得る、電子デバイスのある構成の別の例を示すブロック図。 [0018]かすみ検出器の一構成のある例のブロック図。 [0019]複数のモダリティに基づくかすみ検出のための方法の一構成を示す流れ図。 [0020]複数のモダリティに基づくかすみ検出のための方法のより具体的な構成を示す流れ図。 [0021]かすみ検出器のある構成の別の例を示すブロック図。 [0022]並列に動作する複数のかすみ検出器のある構成のある例を示すブロック図。 [0023]ある画像信号プロセッサの一構成の一例を示すブロック図。 [0024]ローカルトーンマッピング(LTM)機能の様々な態様を示すいくつかのグラフを含む図。 [0025]かすみ低減決定を示すグラフ。特に、グラフは継時的なかすみ信頼レベルを示す。 [0026]大気汚染指数マップのある例を示す図。 [0027]1種類のモダリティ情報(大気汚染指数)に基づいてかすみ検出を実行するための手法を示す図。 [0028]本明細書に開示されるシステムおよび方法による、かすみ低減前およびかすみ低減後の画像の例を示す図。 [0029]本明細書に開示されるシステムおよび方法の様々な構成を実装するように構成された電子デバイス内に含まれ得るいくつかの構成要素を示す図。
[0030]本明細書に開示されるシステムおよび方法のいくつかの構成は、複数のモダリティからの情報を使用するかすみ検出およびかすみ低減に関連し得る。本明細書で使用される場合、「かすみ」という用語、およびその派生語(たとえば、「かすんだ(hazy)」、「かすみ(haziness)」など)は、キャプチャされた画像内にかすみ、霧、湯気、水蒸気、大気汚染(たとえば、スモッグ)、雨、雪、塵、および/または煙などの浮遊微小粒子の出現を含む環境シーン条件を指し得る。かすみ検出および/またはかすみ低減がカメラの光入力のみに基づく場合は特に、自動かすみ検出および/またはかすみ低減(たとえば、かすみ除去)は非常に複雑になり得る。この困難さのいくつかの理由は、照明条件の大きな変動、かすみの色、かすみ領域の位置、およびかすみの程度を含み得る。さらに、シーン構成に大きな変動がある(シーン内に異なる対象がある、など)場合がある。信頼性が高く、迅速なかすみ検出および/またはかすみ低減(たとえば、カメラを備えた電子デバイス上の)は、シーン内のオブジェクトの可視性を大きく回復させ、カメラユーザの認識を向上させることができる。さらに、かすみ検出および/またはかすみ低減は、オブジェクト検出、オブジェクト追跡、オブジェクト認識などのコンピュータ視覚処理を改善し得る。たとえば、かすみ検出および/またはかすみ低減は、先進運転支援システム(ADAS)の性能を改善し得る。
[0031]かすみ検出を改善するために、複数のモダリティからの情報が利用され得る。モダリティは、電子デバイスまたはシーンの周囲に関する情報を取得する(たとえば、検知する)ための手段であり得る。いくつかの構成では、複数のモダリティは、電子デバイス(たとえば、カメラ、ビデオカメラ、デジタルカメラ、セルラー電話、スマートフォン、コンピュータ、テレビ、自動車、パーソナルカメラ、アクションカメラ、監視カメラ、搭載カメラ、接続カメラ、ロボット、ドローン、スマートアプリケーション、ヘルスケア機器、セットトップボックスなど)において容易に利用可能であり得る。1つまたは複数のモダリティ(たとえば、カメラ入力に加えて)は、かすみ検出および/またはかすみ低減の精度を向上させるために利用され得る情報を提供し得る。そのような情報の例には、全地球測位システム(GPS)位置(たとえば、都市対田舎、山岳地帯、肋骨領域など)、コンパスセンサからの方向、時刻、地域の天気予報(たとえば、予測)、遠隔デバイス画像(たとえば、衛星画像、接続されたカメラ画像、パーソナル/アクションカメラ画像など)、環境光、温度(たとえば、1つの位置での、および/または2つの位置または環境間の温度差)、気圧、湿度、時期(たとえば、暦日)などが含まれる。そのような情報の別の例は、オンラインサービス(たとえば、地図サービス、ソーシャルネットワークなど)に掲載された同じ位置で撮影された写真であり得、かすみを検出し、および/またはかすみを低減するための基準として使用され得る。
[0032]次に、図面を参照して様々な構成を説明するが、同様の参照番号は機能的に類似の要素を示し得る。本明細書の図面において一般的に記載され図示されたシステムおよび方法は、多種多様な異なる構成で配置および設計され得る。したがって、図面に示されているようないくつかの構成の以下のより詳細な説明は、特許請求の範囲の範囲を限定することが意図されるものではなく、単にシステムおよび方法の代表例である。
[0033]図1は、複数のモダリティに基づくかすみ検出のためのシステムおよび方法が実装され得る、電子デバイス102の一例を示すブロック図である。電子デバイス102の例には、スマートフォン、セルラー電話、コンピュータ(たとえば、デスクトップコンピュータ、ラップトップコンピュータ、サーバなど)、タブレットデバイス、メディアプレーヤー、テレビ、ゲーム機、セットトップボックス、パーソナルデジタルアシスタント(PDA)、ロボット、航空機、無人航空機(UAV)、自動車などが含まれる。電子デバイス102は、1つまたは複数の構成要素または要素を含み得る。構成要素または要素のうちの1つまたは複数は、ハードウェア(たとえば、回路)またはハードウェアとソフトウェアの組合せ(たとえば、命令をもつプロセッサ)で実装され得る。いくつかの構成では、電子デバイス102は、プロセッサ104、メモリ106、ディスプレイ108、画像センサ110、光学システム112、画像信号プロセッサ132、通信インターフェース114、クロック116、および/または1つまたは複数のセンサ118を含み得る。プロセッサ104は、メモリ106、ディスプレイ108、画像センサ110、光学システム112、画像信号プロセッサ132、通信インターフェース114、クロック116、および/または1つまたは複数のセンサ118に結合され(たとえば、電子通信し)得る。画像センサ110および/または光学システム112の間の通信は、画像信号プロセッサ132を介して通過し得るが、いくつかの構成では、プロセッサ104は、追加的に、または代替案として、画像センサ110および/または光学システム112と直接的に通信し得る点に留意されたい。
[0034]通信インターフェース114は、電子デバイス102が1つまたは複数の他の電子デバイスと通信することを可能にし得る。たとえば、通信インターフェース114は、ワイヤードおよび/またはワイヤレス通信のためのインターフェースを提供し得る。いくつかの構成では、通信インターフェース114は、無線周波数(RF)信号を送信および/または受信するために、1つまたは複数のアンテナ120に結合され得る。追加的に、または代替案として、通信インターフェース114は、1つまたは複数の種類の有線(たとえば、ユニバーサルシリアルバス(USB)、イーサネット(登録商標)など)通信を可能にし得る。
[0035]電子デバイス102は、1つまたは複数の画像(たとえば、デジタル画像、画像フレーム、ビデオなど)を取得し得る。たとえば、電子デバイス102は、光学システム112の視野内に位置するオブジェクトの画像を画像センサ110上に集束させる画像センサ110および光学システム112(たとえば、レンズ)を含み得る。いくつかの構成では、画像センサ110は、1つまたは複数の画像をキャプチャし得る。光学システム112は、画像信号プロセッサ132および/またはプロセッサ104に結合されてもよく、および/またはそれによって制御されてもよい。追加的に、または代替案として、電子デバイス102は、別のデバイス(たとえば、電子デバイス102、ネットワークサーバ、トラフィックカメラ、ドロップカメラ、自動車カメラ、ウェブカメラなどに結合された外部画像センサ)に1つまたは複数の画像を要求してもよく、および/または別のデバイスから受信してもよい。いくつかの構成では、電子デバイス102は、通信インターフェース114を介して1つまたは複数の画像を要求および/または受信し得る。たとえば、電子デバイス102は、カメラ(たとえば、画像センサ110および/または光学システム112)を含んでも含まなくてもよく、遠隔デバイスから画像を受信し得る。
[0036]いくつかの構成では、電子デバイス102は画像データバッファ(図示せず)を含み得る。画像データバッファは、画像センサ110からの画像データをバッファ(たとえば、記憶)し得る。バッファされた画像データは、画像信号プロセッサ132に、および/またはプロセッサ104に提供され得る。
[0037]いくつかの構成では、電子デバイス102は、画像信号プロセッサ(ISP)132を含み得る。画像信号プロセッサ132は、画像センサ110から画像データ(たとえば、生センサデータおよび/または前処理されたセンサデータ)を受信し得る。画像信号プロセッサ132は、画像データに対して1つまたは複数の動作(operations)を実行し得る。たとえば、画像信号プロセッサ132は、逆圧伸(decompanding)、ローカルトーンマッピング(LTM)、フィルタリング、スケーリング、および/またはトリミング(cropping)などを実行し得る。画像信号プロセッサ132は、得られた画像データをプロセッサ104に提供し得る。たとえば、画像データは、画像モダリティ情報であり得る。
[0038]いくつかの構成では、電子デバイス102は、カメラソフトウェアアプリケーションおよびディスプレイ108を含み得る。カメラアプリケーションが実行されているとき、光学システム112の視野内に位置するオブジェクトの画像は、画像センサ110によって記録され得る。画像センサ110によって記録されている画像は、ディスプレイ108上に提示され得る。いくつかの構成では、これらの画像は、任意の所与の瞬間に、光学システム112の視野内に位置するオブジェクトがディスプレイ108上に提示されるように、比較的高いフレームレートで迅速に連続して表示され得る。電子デバイス102によって取得された1つまたは複数の画像は、1つまたは複数のビデオフレームおよび/または1つまたは複数の静止画像であり得る。ビデオフレームおよびデジタル画像という用語は、本明細書では互換的に使用され得る。
[0039]プロセッサ104は、自動シーン検出器122、かすみ検出器124、および/またはかすみ低減器126を含み得る、および/または実装し得る。自動シーン検出器122は、画像キャプチャおよび/または処理の1つまたは複数の態様を制御し得る。たとえば、自動シーン検出器122は、オートホワイトバランス、オートフォーカス、および/または自動露出を制御し得る。たとえば、自動シーン検出器122は、光学システム112(たとえば、レンズ)の焦点、画像センサ110の利得、画像センサ110の露光時間などを制御し得る。いくつかの構成では、自動シーン検出器122は、通信インターフェースを介して遠隔デバイスに情報を送信することによって、遠隔電子デバイス(たとえば、遠隔カメラ、ネットワークデバイスなど)のオートホワイトバランス、オートフォーカス、および/または自動露出を制御し得る。
[0040]かすみ検出器124は、かすみ信頼レベルを決定するために、複数のモダリティ130に基づいてかすみ検出を実行し得る。モダリティ130の各々は、電子デバイス102の周囲に関する情報を取得する(たとえば、検知する)ための手段であり得る。たとえば、画像センサ110および光学システム112(カメラと呼ばれ得る)は、電子デバイス102の周囲に関する画像情報をキャプチャするためのモダリティ130の一例であり得る。
[0041]通信インターフェース114は、電子デバイス102の(および/または遠隔電子デバイスの)周囲に関する情報を要求および/または受信するためのモダリティ130であり得る。たとえば、通信インターフェース114は、電子デバイスの位置(たとえば、緯度および経度情報、他の位置情報など)、現在の時刻、地域の天気予報および/または予測、遠隔デバイス画像(たとえば、衛星画像、接続されたカメラ画像、パーソナル/アクションカメラ画像など)現在の温度、大気汚染指数などに関する情報を要求および/または受信し得る。いくつかの構成では、複数の通信インターフェース114が実装および/または利用され得る。たとえば、1つの通信インターフェース114は、全地球測位システム(GPS)受信機であってもよく、別の通信インターフェース114は、セルラー(たとえば3G、ロングタームエボリューション(LTE(登録商標))、CDMAなど)通信インターフェース114であってもよく、別の通信インターフェース114は、ワイヤレスローカルエリアネットワーク(WLAN)インターフェース(たとえば、802.11インターフェース)であってもよい。
[0042]時計116は、時刻を知らせるためのモダリティ130であり得る。たとえば、時計116は、時刻を決定するために通信インターフェース114に加えて、またはその代わりに利用され得る。
[0043]1つまたは複数のセンサ118は、1つまたは複数の種類の情報を取得するためのモダリティ130であり得る。センサ118の例には、温度センサ、気圧センサ、湿度センサ、加速度計(たとえば、慣性航法で使用され得る)、周囲光センサ、方向センサ(たとえば、コンパスセンサ)などが含まれる。
[0044]1つまたは複数のモダリティ130は、かすみ検出器124に情報を提供し得る。モダリティ情報の例には、画像情報(たとえば、1つまたは複数の画像、フレームなど)、遠隔デバイス画像情報、位置情報、方向情報、時刻、天気予報および/または予測情報、衛星情報(たとえば、衛星画像、ドップラーレーダー、温度など)、光情報(たとえば、電子デバイス102が屋内にあるか、または屋外にあるかを決定するために利用され得る)、温度、大気汚染指数などが含まれる。いくつかの構成では、電子デバイス102は、追加的に、または代替案として、遠隔電子デバイスに1つまたは複数の種類のモダリティ情報を要求してもよく、および/または遠隔電子デバイスから受信してもよい。たとえば、遠隔電子デバイスは、前述のモダリティ(たとえば、センサ)のうちの1つまたは複数を含み得、通信インターフェース114を介して、対応するモダリティ情報を電子デバイス102に提供し得る。
[0045]かすみ検出器124は、複数のモダリティ130に基づいてかすみ信頼レベルを決定し得る。たとえば、かすみ検出器124は、かすみ信頼レベルを決定するために、複数のモダリティに基づいてかすみ検出を実行し得る。かすみ信頼レベルは、キャプチャされた画像がかすみを含む、および/または電子デバイス102の周囲がかすんでいるという信頼の尺度であり得る。たとえば、かすみ検出器124は、画像から1つまたは複数の特徴を抽出し得る。画像からの1つまたは複数の特徴、および1つまたは複数の種類の(追加の)モダリティ情報は、かすみ信頼レベルを決定するために利用され得る。いくつかの構成では、かすみ検出器124は、かすみ信頼レベルを決定するために2段階分類を採用し得る。2段階分類の例は、図4に関連して示されている。
[0046]いくつかの構成では、かすみ検出器124は、かすみ信頼レベルを決定するために、サポートベクトルマシン(SVM)および/またはニューラルネットワーク分類子を採用し得る。たとえば、サポートベクトルマシン分類子は、かすみを示さないベクトルからかすみを示すベクトル(たとえば、抽出された特徴、および1つまたは複数の種類の追加のモダリティ情報)を分離する、事前トレーニングされた分類子であり得る。分類子は、決定境界と呼ばれ得る。たとえば、分類子は、かすみを示さないベクトルからかすみを示すベクトルを分割する超平面であり得る。かすみ信頼レベルは、ベクトルと超平面との間の距離によって反映され得る。たとえば、ベクトルが、かすみを示す分類子の側にあり、分類子の近くにある場合、かすみ検出器124は、かすみが低いかすみ信頼レベルで検出されたことを示し得る。別の例では、ベクトルが、かすみを示す分類子の側にあり、分類子から遠い場合、かすみ検出器124は、かすみが高いかすみ信頼レベルで検出されたことを示し得る。
[0047]いくつかの構成では、分類子(たとえば、決定境界)は事前トレーニングされ得る。たとえば、分類子(たとえば、SVM境界)は、あらかじめラベル付けされたかすんだシーンおよびかすんでいないシーン画像を使用して(たとえば、勾配降下法を通じて)トレーニングされ得る。たとえば、トレーニングデータセットは、SVM分類子および/またはニューラルネットワーク分類子をトレーニングするために利用され得る。いくつかの構成では、トレーニングデータセットの各サンプルは、各モダリティ(たとえば、2D画像、GPS、時刻、時期、画像が撮影された時刻のその位置の天気予報/予測、その日の大気汚染指数など、および画像がかすんでいるか否かを示すためのバイナリ注釈)からのデータポイントを含み得る。トレーニングデータセットは、SVMにおけるサポートベクトル、および/または逆伝搬を通じてニューラルネットワーク内の層ごとの重み/バイアスを生成するために利用され得る。
[0048]いくつかの構成では、かすみ信頼レベルを決定することは、以下のように達成され得る。SVM手法では、かすみ信頼レベル(たとえば、かすみスコア)は、入力データ(たとえば、画像または抽出された特徴、および/または1つまたは複数の種類のモダリティ情報)とサポートベクトルとの内積として計算され得る。たとえば、かすみ検出器124は、入力データ(たとえば、(2D)画像、GPS、時刻および/または時期など)に基づくベクトルとサポートベクトルとの内積を計算し得る。ニューラルネットワーク手法では、かすみ検出器124は、重みとバイアスの組合せを用いて複数の層を通じて入力データを渡す(put)ことができる。最終層からの出力は、かすみ信頼レベル(たとえば、かすみスコア)であり得る。
[0049]プロセッサ104は、かすみ信頼レベルに基づいて動作を実行するかどうかを決定し得る。たとえば、プロセッサ104は、かすみ信頼レベルが1つまたは複数の基準を満たす場合(たとえば、かすみ信頼レベルが特定のレベル(たとえば、かすみしきい値レベル)以上である場合)、動作を実行すると決定し得る。
[0050]かすみ信頼レベルに基づく動作の例には、画像処理(たとえば、かすみ低減)および非かすみ低減動作が含まれ得る。いくつかの構成では、電子デバイス102(たとえば、プロセッサ104)は、かすみ信頼レベルに基づいて画像処理を実行するだけでよい。他の構成では、電子デバイス102は、1つまたは複数の非画像処理動作(たとえば、非かすみ低減動作)を実行するだけでよい。他の構成では、電子デバイス102は、1つまたは複数の非画像処理動作と組み合わせて1つまたは複数の画像処理動作を実行し得る。
[0051]たとえば、電子デバイス102(たとえば、プロセッサ104)は、かすみ信頼レベルに基づいて画像を処理する。いくつかの構成では、画像を処理することは、かすみ低減を実行することを含み得る。たとえば、プロセッサ104は、かすみ低減器126を含み得る、および/または実装し得る。かすみ信頼レベルが低い場合(たとえば、かすみしきい値未満の場合)、かすみ低減器126はかすみ低減を実行し得ない。かすみ信頼レベルが十分に高い(たとえば、かすみしきい値を満たすか、超える)場合、プロセッサ104はかすみ低減を実行し得る。いくつかの構成では、実行されるかすみ低減の程度は、かすみ信頼レベルに基づいて決定され得る。たとえば、より大きなかすみ信頼レベルに対してより大きなかすみ低減が実行され得る。かすみを低減することは、ローカルトーンマッピング(LTM)、オートホワイトバランス、オートフォーカス、自動露出、色補正、および/または鮮明度を調整することを含み得る。
[0052]現在の画像(たとえば、フレーム)および/または後続の画像(たとえば、フレーム)に対してかすみ低減が実行され得る点に留意されたい。たとえば、電子デバイス102は、フレーム上でかすみ検出を実行し得る。たとえば、色、露出、および/または鮮明度を調整することによって、そのフレームに対してかすみ低減が実行され得る。追加的に、または代替案として、かすみ低減は、後続のフレームのためのオートホワイトバランス、オートフォーカス、および/または自動露出を調整すること(色、露出、および/または鮮明度を調整することに加えて、またはその代わりに)によって実行され得る。
[0053]非画像処理動作の例には、フォグライトを作動させること、通知灯を作動させること、通知音を作動すること、フロントガラス上のかすみ(たとえば、曇り、結露など)のために暖房および/または冷却システム(たとえば、暖房、換気、および空調(HVAC)システム)を作動させること、ならびに1つまたは複数のオブジェクト(たとえばヘッドアップディスプレイ、フロントガラスプロジェクタ、または他のディスプレイ上に、たとえばレーンマーカー、車両マーカー、道路エッジマーカー、バリアマーカーなど)を表示することなどのうちの1つまたは複数が含まれ得る。1つまたは複数の非画像処理動作は、いくつかの構成では、ADASによって、および/またはADASと共に実行され得る。非かすみ低減動作の別の例には、かすみ情報(たとえば、かすみ信頼レベル)を遠隔デバイスに送信することが含まれ得る。たとえば、電子デバイス102は、遠隔デバイスから画像データ(および、任意で追加のモダリティ情報)を受信するサーバであり得る。電子デバイス102は、かすみ情報を決定し、かすみ情報を遠隔デバイスに送信し得る。いくつかの構成では、遠隔デバイスは、かすみ情報に基づいてかすみ低減を任意に実行し得る。
[0054]メモリ106は、命令および/またはデータを記憶し得る。プロセッサ104は、メモリ106にアクセスし(たとえば、そこから読み出し、および/またはそこに書き込み)得る。メモリ106によって記憶され得る命令および/またはデータの例には、画像データ、モダリティ情報、かすみ信頼レベル、自動シーン検出器命令、かすみ検出器命令、かすみ低減器命令などが含まれ得る。
[0055]いくつかの構成では、電子デバイス102は、ディスプレイ108上にユーザインターフェース128を提示し得る。たとえば、ユーザインターフェース128は、ユーザが電子デバイス102と対話することを可能にし得る。いくつかの構成では、ユーザインターフェース128は、ユーザが(たとえば、環境内、および/またはキャプチャされた画像内に)かすみが存在するかどうかを示すことを可能にし得る。
[0056]いくつかの構成では、ディスプレイ108は、物理的タッチ(たとえば、指、スタイラス、または他のツールによる)から入力を受信するタッチスクリーンであり得る。たとえば、タッチスクリーンは、かすみが存在するか否かを示すタッチ入力を受信する入力インターフェースであり得る。追加的に、または代替案として、電子デバイス102は、別の入力インターフェースを含んでもよく、別の入力インターフェースに結合されてもよい。たとえば、電子デバイス102は、ユーザに面するカメラを含み得、かすみが存在するかどうかを示すためにユーザのジェスチャ(たとえば、手のジェスチャ、腕のジェスチャ、目の追跡、まぶたの瞬きなど)を検出し得る。別の例では、電子デバイス102はマウスに結合され得、かすみが存在するかどうかを示すマウスクリックを検出し得る。したがって、かすみが存在するかどうかは、任意の適切な方法(たとえば、タッチ入力、マウスクリック、認識されたジェスチャなど)で示され得る。したがって、いくつかの構成では、モダリティ130はユーザ入力を受信するための手段を含み得る。たとえば、センサ118は、かすみ(または、かすみがないこと)を示すユーザ入力を受信するためのタッチスクリーンディスプレイ108(および/または、ユーザインタ−フェース128)を含み得る。追加的に、または代替案として、モダリティ130は、かすみ(または、かすみがないこと)を示すユーザ入力を受信するための入力インターフェース(たとえば、マウス、タッチパッド、カメラ、マイクロフォンなどの入力デバイス用の入力ポート)を含み得る。
[0057]いくつかの構成では、ユーザ入力は必要ない場合がある点に留意されたい。たとえば、電子デバイス102は、1つまたは複数の画像内のかすみを自動的に検出し、および/またはかすみを低減し得る。
[0058]図2は、かすみ検出および/またはかすみ低減のためのシステムおよび方法が実装され得る、電子デバイス202の一構成のある例を示すブロック図である。図2の電子デバイス202は、図1の電子デバイス102の一例であり得る。電子デバイス202は、画像(たとえば、写真および/またはビデオ)を取得するカメラレンズ246を含み得る。追加的に、または代替案として、電子デバイス202は、遠隔デバイスから画像を取得し得る。
[0059]電子デバイス202は、1つまたは複数のかすみ検出器224を含み得る。各かすみ検出器224は、1つまたは複数のモダリティに基づいて、カメラレンズ246によって見られるシーンのかすみ信頼レベルを決定し得る。モダリティの各々は、モダリティ情報248を生成し得る。モダリティ情報248の例には、電子デバイス202の位置250a(および/または、たとえば撮影されるシーンの位置)、電子デバイス202の方向250b(たとえば、電子デバイス202がどの方向を指しているか)、時刻250c、地域の天気予報250d(たとえば、予測)、1つまたは複数の遠隔デバイス画像250e、屋内/屋外インジケータ250f、ユーザオーバーライドインジケータ250g、ならびに温度250hが含まれる。画像センサおよび/または光学システム(たとえば、カメラレンズ246)から取得され得る画像モダリティ情報もまた、モダリティ情報248に含まれ得る点に留意されたい。
[0060]モダリティの各々は、電子デバイス202にとって容易に利用可能であり得る(たとえば、モバイル電話として)。たとえば、位置250aは、電子デバイス202が都市、田舎、山岳地帯、または沿岸地域などに位置しているかどうかを決定するために、電子デバイス202上のGPS機能を使用して取得され得る。位置250aは、いくつかの構成では、高度を決定するために利用され得る。方向250bは、カメラの方向(たとえば、海に向かっている、または海から離れている)を決定するために、コンパス(たとえば、向き)センサからの情報に基づき得る。他のモダリティ情報248もまた、電子デバイス202によって容易に取得され得る。たとえば、マップウェブサービスおよび/またはソーシャルネットワークに掲載されたものと同じ位置(たとえば、位置250a)で撮影された写真は、かすみ(たとえば、かすみ、霧、煙など)を検出するための、およびかすみ低減(たとえば、前のかすみの例を有する位置は、現在かすみを有する可能性が高い)を実行するための基準として使用され得る。モダリティの各々は、電子デバイス202の特定の位置(たとえば、位置250a)に応じて、多かれ少なかれ有用であり得る(たとえば、多かれ少なかれかすみを示す)。
[0061]時刻250cは、電子デバイス202上のクロックから、および/または遠隔電子デバイス(たとえば、全地球的航法衛星システム(GNSS)、位置サーバ、基地局、アクセスポイント、ウェブサーバなど)に時間を要求することによって取得され得る。時刻250cは、他のモダリティ情報248のうちの1つまたは複数と組み合わせて利用され得る。たとえば、時刻250cは、電子デバイス202の位置250aおよび方向250bと組み合わせてかすみを示す可能性がある。たとえば、電子デバイス202によってキャプチャされた画像は、沿岸地域の冬の朝の時間に、電子デバイス202が沿岸のシーン(たとえば、桟橋またはビーチ付近)に向けられたときにかすみを含む可能性があり得る。
[0062]地域の天気予報250dは、通信インターフェースを介して取得され得る。たとえば、電子デバイス202は、遠隔電子デバイス(たとえば、ウェブサーバ)に地域の天気予報250dを要求し得る。地域の天気予報250dは、領域内のかすみの可能性を示し得る、地域の気象条件(たとえば、霧、スモッグ、かすみ、風、雨、雪、曇り、可視性、明瞭度など)、温度、湿度、気圧などを示し得る。地域の天気予報250dは、他のモダリティ情報248のうちの1つまたはと組み合わせて利用され得る。
[0063]遠隔デバイス画像250eは、通信インターフェースを介して取得され得る。遠隔デバイス画像250eは、1つまたは複数の遠隔デバイスから受信した画像情報(たとえば、1つまたは複数の画像)を含み得る。たとえば、電子デバイス202は、1つまたは複数のネットワークデバイス(たとえば、ウェブサーバ)、1つまたは複数の衛星、1つまたは複数の車両(たとえば、1つまたは複数の内部および/または外部カメラ)、インフラストラクチャ(たとえば、交通カメラ、セキュリティカメラなど)、1つまたは複数の接続されたカメラ(たとえば、ドロップカメラ)、1つまたは複数のパーソナル/アクションカメラなどから、遠隔デバイス画像250eを取得し得る。いくつかの遠隔デバイスは、かすみ検出および/またはかすみ低減に十分な画像信号処理能力を有さない場合がある。追加的に、または代替案として、いくつかの構成では、電子デバイス202は一体型カメラを含まなくてもよく、(たとえば、一体型カメラからキャプチャされた画像の代わりに)遠隔デバイスによってキャプチャされた画像内のかすみを検出する/かすみを低減するために動作し得る。
[0064]一例では、電子デバイス202は、遠隔電子デバイス(たとえば、ウェブサーバ)に衛星画像を要求し得る。たとえば、衛星画像は、気象サービス、マッピングサービス、または他の何らかのウェブサービスによって提供され得る。他の構成では、電子デバイス202は、衛星から直接遠隔デバイス画像250eを受信し得る。遠隔デバイス画像250eは、地域の気象条件(たとえば、霧、スモッグ、かすみ、曇り、降水量など)を示し得る。追加的に、または代替案として、遠隔デバイス画像250eは、かすみが存在しない場合、周囲の色を提供し得る。したがって、遠隔デバイス画像250eは、その領域におけるかすみの可能性を示し得る。たとえば、ある領域の雲の覆いは、かすみの可能性が高くなっていることを示し得る。
[0065]いくつかの構成では、遠隔デバイス画像250eは、他のモダリティ情報248のうちの1つまたは複数と組み合わせて利用され得る。たとえば、衛星画像は、カメラレンズ246からキャプチャされた画像と組み合わせて利用され得る。衛星画像の色は、キャプチャされた画像からの色と比較され得る。キャプチャされた画像が衛星画像と比較して、くすんだ、または弱い色を有する場合、これはかすみの可能性の増加を示し得る。
[0066]屋内/屋外インジケータ250fは、周囲光センサを介して取得され得る。たとえば、電子デバイス202は、周囲光センサによって提供される周囲光の明度をチェックし得る。明度しきい値を超える明度は、電子デバイス202が屋外にあることを示し得る。追加的に、または代替案として、屋内/屋外インジケータ250fは、位置250aから導出され得る。たとえば、位置情報250aは、電子デバイス202が構造物内または屋外にありそうかどうかを示し得る。したがって、屋内/屋外インジケータ250fは、その領域内のかすみの可能性を示し得る(たとえば、かすみは屋外で発生する可能性がより高いので)。屋内/屋外インジケータ250fは、他のモダリティ情報248のうちの1つまたは複数と組み合わせて利用され得る。たとえば、屋内/屋外インジケータ250fは、位置250a、方向250b、および地域の天気予報250dと組み合わせて利用され得る。たとえば、屋内/屋外インジケータ250fは電子デバイス202が屋内にあることを示すが、位置250aは電子デバイス202が建物の端に近いことを示す場合、方向250bは、電子デバイス202のカメラが建物から外を向いていることを示し、地域の天気予報250dは霧を示し、これは、ユーザが、かすみの可能性が高い窓から写真を撮っているシナリオであり得る。しかしながら、他のシナリオでは、屋内/屋外インジケータ250fが、電子デバイス202は屋内にあることを示す場合、かすみの可能性が減少する可能性があり得る。
[0067]ユーザオーバーライドインジケータ250gは、ユーザインターフェースを介して取得され得る。たとえば、電子デバイス202は、かすみ、またはかすみがないことを示すユーザインターフェースオブジェクト(たとえば、ボタン、テキストなど)上のタッチまたはクリックイベントを検出し得る。たとえば、電子デバイス202は、かすみ、またはかすみがないことを示すユーザ入力を受信し得る。ユーザオーバーライドインジケータ250gは、画像内にかすみがあるか否かを示し得る。ユーザオーバーライドインジケータ250gは、他のモダリティ情報248のうちの1つまたは複数と組み合わせて利用され得る。たとえば、たとえ電子デバイス202が(複数のモダリティから)かすみが検出されない(および/またはかすみ信頼レベルが低い)と決定するが、ユーザオーバーライドインジケータ250gはかすみがあることを示す場合でも、かすみ検出器224はかすみを検出するためにオーバーライドされ得る。いくつかの構成では、ユーザオーバーライドインジケータ250gは、分類器トレーニングを更新するために使用され得る。
[0068]温度250hは、温度センサ(たとえば、熱センサ)を介して、および/または通信インターフェースを介して取得され得る。たとえば、電子デバイス202は、電子デバイス202に含まれる温度センサから温度読取り値を取得し得、ならびに/あるいは遠隔電子デバイス(たとえば、ウェブサーバ)に温度読取り値を要求してもよく、および/またはそこから受信してもよい。たとえば、いくつかの構成では、温度250hは地域の天気予報250dの一部であり得る。温度250hは、電子デバイス202の温度および/または屋外の温度を示し得る。したがって、温度250hは、その領域内のかすみの可能性を示し得る(たとえば、かすみはある温度範囲で発生する傾向があるため)。いくつかの構成では、温度差が利用され得る。たとえば、電子デバイス202の温度が屋外温度との特定の差にある場合に、かすみが発生する可能性がより高い。たとえば、電子デバイス202が屋外温度とある一定の差を有する温度の車にある場合、フロントガラスにかすみ(たとえば結露、霜など)が発生する可能性があり得る。温度250hは、他のモダリティ情報248のうちの1つまたは複数と組み合わせて利用され得る。たとえば、温度250hは位置250aと組み合わせて利用され得、特定の位置(たとえば、水の近く)は特定の温度でかすみの可能性が高くなっていることを示し得る。
[0069]特定の環境シーン条件(たとえば、天候、照明など)によって、画像内の特徴があまり明瞭に見えなくなることがある。たとえば、車両は霧の中や雨の中を移動している可能性がある。さらに、画像センサが画像をキャプチャする窓(たとえば、フロントガラス)は、車両の内部温度と車両の外部温度との間の差のために曇る場合があり、または結露や霜のために不明瞭である場合がある。画像内の特徴を識別することが困難である場合(たとえば、画像が「かすんでいる」)、画像は環境シーン条件(たとえば、雨、霧、曇ったフロントガラス、スモッグ、かすみなど)を示し得る。システムおよび方法が車両支援アプリケーション(たとえば、先進運転支援システム(ADAS)および/または拡張ディスプレイ)とともに使用される構成では、かすんだ画像は、車両の操作者が車外のシーンの特徴(たとえば、交通標識、交通車線、歩行者、他の車両、樹木など)を見ることができない場合があるというインジケータであり得る。かすみ検出器224は、画像センサからかすみ画像を検出し得る。
[0070]いくつかの実施形態では、かすみ検出器224は、画像センサが向いている窓(たとえば、フロントガラス)が曇っているかどうか、または画像センサのカメラレンズ246が濡れているか曇っているかを決定し得る。例示のために、画像センサは、車両の客室などの客室内に配置されてもよく、車両の窓を通してシーンをキャプチャするように配置されてもよい。かすみ検出器224は、車両の内部の第1の温度および車両の外部の第2の温度などの複数の温度250hに関連付けられる、および/またはそれに対応するセンサデータを受信し得る。かすみ検出器224は、第1の温度と第2の温度との間の温度差を決定するように構成され得る。温度差が、(車両の内部の)第1の温度の差が(車両の外部の)温度を超えることを示す場合、かすみ検出器224は、画像センサによってキャプチャされた画像は、画像センサが面している窓が曇っているために部分的にかすんでいること決定し得る。窓が曇っているという決定に応答して、かすみ検出器224は、かすみ信頼レベルに基づいて画像処理(たとえば、かすみ低減)を実行し得る。いくつかの構成では、電子デバイス202は、例示的で非限定的な例として、暖房、換気、または空調(HVAC)システムおよび/またはフロントガラスワイパーを作動させるなどの動作を開始する。
[0071]別の例では、かすみ検出器224は、かすみが車両の外部のシーンにある(たとえば、窓の上の結露または曇ったフロントガラスではない)と決定し得る。この場合、かすみ検出は、1つまたは複数の動作を開始し得る。これらの動作は、曇ったフロントガラスに対して(for)開始された1つまたは複数の動作とは異なる場合がある。たとえば、車両の外部のシーンのためのかすみに対して(for)、動作はヘッドアップディスプレイおよび/またはADAS機能におけるかすみ除去(たとえば、ブレーキング、減速、車線区分線、可聴警報など)を含み得る。
[0072]いくつかのモダリティ情報248が図2に示されているが、より少数、より多数、および/または異なる種類のモダリティ情報248が利用され得る点に留意されたい。たとえば、気圧、時期、湿度、および/または他の種類のモダリティ情報248が利用され得る。たとえば、気圧は、電子デバイス202上の気圧センサから、および/または通信インターフェースから(たとえば、地域の天気予報の一部として、遠隔ウェブサーバから、など)取得され得る。時期は、電子デバイス202上のカレンダーアプリケーションから、および/または通信インターフェースから(たとえば、遠隔ウェブサーバから)取得され得る。湿度は、電子デバイス202上の湿度センサから、および/または通信インターフェースから(たとえば、地域の天気予報の一部として、遠隔ウェブサーバから、など)取得され得る。モダリティ情報248の別の例は、通信インターフェースから(たとえば、遠隔ウェブサーバから)取得され得る気象アルマナック情報であり得る。モダリティ情報248の別の例は、通信インターフェースから(たとえば、遠隔ウェブサーバから)取得され得る大気汚染情報(たとえば、大気汚染指数)であり得る。これらのモダリティ情報248のうちの1つまたは複数は、かすみ発生の可能性に関係があり得る。したがって、1つまたは複数のかすみ検出器224は、かすみ信頼レベルを決定するために複数のモダリティを利用し得る。
[0073]いくつかの構成では、電子デバイス202は、複数のモダリティに基づいて、かすみ低減器226によってかすみ低減を実行し得る。かすみ低減器226は、色240、露出242、および/または鮮明度244への調整を提供し得、それによって特定のシーンおよび/または写真に対するかすみの影響を除去または低減する。かすみ低減器226、自動シーン検出器222、またはその両方は、かすみ低減を実行するためにコントラストを調整し得る点に留意されたい。かすみ検出器224の結果はまた、自動シーン検出器222(たとえば、3Aモジュール)内の設定を調整するために使用され得る。たとえば、自動シーン検出器222は、オートホワイトバランス234、オートフォーカス236、および自動露出238の設定を含み得る、および/またはオートホワイトバランス234、オートフォーカス236、および自動露出238の設定を制御し得る。追加的に、または代替案として、電子デバイス202は、オートホワイトバランス234、オートフォーカス236、および/または自動露出238を制御(たとえば、調整)することによってかすみ低減を実行し得る点に留意されたい。
[0074]図3は、かすみ検出および/またはかすみ低減のためのシステムおよび方法が実装され得る、電子デバイス302のある構成の別の例を示すブロック図である。電子デバイス302は、カメラレンズ346を含み得る。カメラレンズ346は、図2に関連して説明したカメラレンズ246の一例であり得る。カメラレンズ346は、光を画像センサ310に集束し得る。画像センサ310は、図1に関連して説明した画像センサ110の一例であり得る。画像センサ310は、生の(raw)カメラ信号352を画像信号プロセッサ332に提供し得る。画像信号プロセッサ332は、図1に関連して説明した画像信号プロセッサ132の一例であり得る。画像信号プロセッサ332は、電子デバイス302による画像処理に使用される特殊なデジタル信号プロセッサ(DSP)であり得る。画像信号プロセッサ332は、生のカメラ信号352をカメラ信号354に変換し得る。いくつかの構成では、画像信号プロセッサ332または別個のリサイザは、画像をサイズ変更(たとえば、赤−緑−青(RGB)プレーンをサイズ変更)し得る。たとえば、画像信号プロセッサ332または別個のリサイザは、画像またはフレームをクォータビデオグラフィックスアレイ(QVGA)にサイズ変更し得る。サイズ変更は、同等の精度と少ない計算量を提供し得る。サイズ変更することは、特徴抽出(たとえば、かすみ検出器324による特徴抽出)の前に実行され得る。カメラ信号354は、かすみ検出器324に提供され得る。かすみ検出器324は、図1に関連して説明したかすみ検出器124の一例であり得る。
[0075]いくつかの構成では、電子デバイス(たとえば、電子デバイス102、202、302)は、画像信号プロセッサ(たとえば、画像信号プロセッサ132、332)を含み得るが、カメラを含まなくてもよい(たとえば、カメラレンズ246、346、画像センサ110、および/または光学システム112を含まなくてもよい)。これらの構成では、電子デバイス(たとえば、電子デバイス102、202、302)は、遠隔デバイスから(たとえば、別個のカメラから)画像データ(たとえば、カメラ信号)を受信し得る。たとえば、電子デバイス(たとえば、電子デバイス102、202、302)は、遠隔電子デバイス(たとえば、ネットワークサーバ、電子デバイスに結合された別個のカメラなど)から画像データを受信し得る。したがって、かすみ検出は電子デバイス上で実行され得る。かすみ低減は、電子デバイス上で、および/または遠隔電子デバイスと協調して実行され得る。たとえば、電子デバイス302は、遠隔画像センサおよび/またはカメラレンズに1つまたは複数の調整(たとえば、レンズ焦点、画像センサ利得、画像センサ露出時間などに対する調整)を送信し得る。
[0076]かすみ検出器324は、カメラレンズ346によって見られるシーン内でかすみが検出されたかどうかを決定し得る。より具体的には、かすみ検出器324は、かすみ信頼レベル356を決定するために複数のモダリティに基づいてかすみ検出を実行し得る。これは、図1および図2のうちの1つまたは複数に関連して説明したように達成され得る。図4〜図9のうちの1つまたは複数に関連して、かすみ検出のより多くの例が与えられる。たとえば、かすみ検出器324は、いくつかの構成では、計算の複雑さを低減するために2段階分類を採用し得る。いくつかの例では、分類器は線形サポートベクトルマシン(SVM)を採用し得、モデルにおける(in)サポートベクトルのすべてを保存する必要はない場合がある。かすみ信頼レベル356は、かすみ検出器324がカメラレンズ346によって見られるシーン内のかすみを検出したという相対的な信頼性を反映し得る。たとえば、低いかすみ信頼レベル356は、シーン内の任意のかすみが最小であること、および/またはありそうもないことを示し得る。かすみ信頼レベル356が低い場合、かすみ低減処理が低減される、および/または実行されない場合がある。高いかすみ信頼レベル356は、そのシーンがかなりのかすみを含むこと、および/またはかすみがある可能性があることを示し得る。高いかすみ信頼レベル356の場合、シーンからかすみを除去および/または低減するために、かすみ低減の増加が採用され得る。
[0077]かすみ信頼レベル356は、かすみ低減器326に提供され得る。かすみ低減器326は、カメラレンズ346によって見られるシーン内のかすみの量を低減し得る。たとえば、かすみ低減器326は、知覚されるかすみを低減および/または除去するために、色、露出、および/または鮮明度の設定を調整し得る。かすみ低減のより具体的な例は、図9〜図10のうちの1つまたは複数に関連して与えられる。かすみ信頼レベル356はまた、自動シーン検出器322(たとえば、3Aモジュール)に提供され得る。自動シーン検出器322(たとえば、3Aモジュール)は、カメラレンズ346によって見られるシーンからかすみを低減/除去するために、かすみ信頼レベル356に基づいて、オートホワイトバランス、オートフォーカス、および/または自動露出を調整し得る。
[0078]図4は、かすみ検出器424の一構成のある例のブロック図である。図4のかすみ検出器424は、図1〜図3のうちの1つまたは複数に関連して説明したかすみ検出器124、224、324のうちの1つまたは複数の一構成であり得る。かすみ検出器424は、カメラ信号454を受信し得る。カメラ信号454は、カメラレンズ、画像センサ、および/または画像信号プロセッサを介して受信された信号であり得る。あるいは、カメラ信号454は、遠隔デバイス(たとえば、遠隔カメラ)から受信され得る。いくつかの構成では、カメラ信号454は、カメラ信号454をかすみ検出器424に提供する前に、画像信号プロセッサを使用して処理され得る。
[0079]いくつかの構成では、かすみ検出器424は、2段階分類に基づき得る。より少数、またはより多数の段階が分類(たとえば、多段階分類システム)に使用され得る点に留意されたい。分類システムの第1の段階は、第1の特徴抽出器458(たとえば、画像に基づく)と、第1の分類器462とを含み得る。分類システムの第2の段階は、第2の特徴抽出器460(たとえば、画像およびモダリティに基づく)と、第2の分類器464とを含み得る。いくつかの構成では、分類器462、464のうちの1つまたは複数は、サポートベクトルマシン(SVM)に基づき得る。
[0080]第1の特徴抽出器458は特徴抽出を実行し得る。いくつかの構成では、第1の特徴抽出器458は、第2の特徴抽出器460よりも少ない計算能力を使用し得る。第1の特徴抽出器458は、カメラ信号454を受信し得る。次いで、第1の特徴抽出器458は、カメラ信号454から1つまたは複数の第1の抽出された特徴466を抽出し得る。抽出され得る特徴の例には、色特徴(ダークチャネル特徴470など)と、空間特徴(輝度の勾配472、ぼやけ/鮮明度インジケータ474、および/または勾配の大きさ/位相など)とが含まれる。第1の特徴抽出器458は、1つまたは複数の第1の抽出された特徴466を第1の分類器462に提供し得る。第1の分類器462はまた、1つまたは複数の種類のモダリティ情報448を受信し得る。上述したように、モダリティ情報448は、電子デバイスにとって利用可能である(1つまたは複数のセンサを介して、インターネットなどを介して、など)かすみに関連する追加情報であり得る。
[0081]抽出された特徴およびモダリティ情報448に基づいて、第1の分類器462は、第2の特徴抽出器460にかすみ/かすみなし決定468を出力し得る。第1の分類器462がかすみなし決定468を出力すると、かすみが検出されないので、かすみに関して追加の計算は実行され得ない。しかしながら、第1の分類器462がかすみ決定468を出力すると、少なくともいくつかのかすみが検出され、第2の特徴抽出器460は1つまたは複数の第2の抽出された特徴469を抽出し得る。
[0082]いくつかの構成では、第2の特徴抽出器460は、カメラ信号454からより具体的な抽出された特徴を取得するために、より計算量の多い(computationally intense)特徴抽出を採用し得る。たとえば、第2の特徴抽出器460は、画像と、1つまたは複数の追加種類のモダリティ情報448の両方に基づく、カメラ信号454から1つまたは複数の第2の抽出された特徴469を取得し得る。第2の特徴抽出器460によって抽出される特徴の例には、ダークチャネル特徴476、勾配の大きさ478、勾配の位相480、および/または勾配空間情報482が含まれる。したがって、いくつかの構成では、第2の特徴抽出器460は第1の特徴抽出器458よりも高度な抽出された特徴を提供し得る。この手法は、かすみが検出されず、抽出があまり必要とされない場合に計算リソースを節約することを可能にし得る。
[0083]第2の特徴抽出器460は、第2の抽出された特徴469のうちの1つまたは複数を第2の分類器464に提供し得る。1つまたは複数の抽出された特徴、および1つまたは複数の種類のモダリティ情報448に基づいて、第2の分類器464はかすみ信頼レベル456を出力し得る。かすみ信頼レベル456は、カメラ信号454内にかすみが含まれるという確信(confidence)を反映し得る。
[0084]いくつかの構成では、各段階のSVM分類器は、かすんだシーンとかすんでいないシーンとを区別するために、高次元の特徴空間内に決定境界(decision boundary)を作成するために、トレーニングデータセットから抽出された特徴についてトレーニングされ得る。検出では、SVMは同じ特徴セットに適用され得る。SVMは、入力画像が決定境界の一方の側にあるか、他方の側にあるかを評価し得る。改良された(たとえば、最適な)精度/効率のトレードオフを達成するために、各SVM分類器の適切な動作点が選択され得る。たとえば、第1の段階と第2の段階の両方に(2段階構成で)リニアカーネルSVMが使用され得る。バイナリ決定は、第1の段階で1つの動作点に基づいて行われ得る。第2の段階は、連続的なかすみ信頼レベル456を出力し得る。
[0085]図5は、複数のモダリティに基づくかすみ検出のための方法500の一構成を示す流れ図である。方法500は、電子デバイス(たとえば、電子デバイス102、202、302のうちの1つまたは複数)によって実行され得る。電子デバイスは、かすみ検出器(たとえば、かすみ検出器124、224、324、424)で構成され得る。
[0086]電子デバイスは、任意で、カメラ入力信号(たとえば、1つまたは複数の画像)を取得502し得る。たとえば、カメラ入力信号は、図1〜図4のうちの1つまたは複数に関連して上述したように、レンズ、画像センサ、および/または画像信号プロセッサを介して取得され得る。あるいは、カメラ入力信号は、遠隔デバイス(たとえば、電子デバイスに結合された遠隔カメラ、電子デバイスと通信するネットワークサーバなど)から取得され得る。これは、図1〜図4のうちの1つまたは複数に関連して説明したように達成され得る。
[0087]電子デバイスは、複数のモダリティに基づいてかすみ信頼レベルを決定504し得る。たとえば、電子デバイスは、かすみ信頼レベルを決定するために、複数のモダリティに基づいてかすみ検出を実行し得る。これは、図1〜図4のうちの1つまたは複数に関連して上述したように達成され得る。たとえば、電子デバイスは、1つまたは複数の画像から(たとえば、カメラ入力信号から)1つまたは複数の特徴を抽出し、特徴および1つまたは複数の(追加の)種類のモダリティ情報に基づいて画像を分類し得る。いくつかの構成では、かすみ検出は2段階分類に基づいて実行され得る。
[0088]電子デバイスは、かすみ信頼レベルに基づいて動作を実行するかどうかを決定506し得る。これは、図1〜図3のうちの1つまたは複数に関連して説明したように達成され得る。たとえば、電子デバイスは、かすみ信頼レベルが1つまたは複数の基準を満たす場合(たとえば、かすみ信頼レベルがかすみしきい値レベル以上である場合)に、動作を実行することを決定506し得る。かすみ信頼レベルに基づく動作の例には、画像処理動作(たとえば、かすみ低減)および非画像処理動作が含まれ得る。たとえば、電子デバイスは、図1〜図3のうちの1つまたは複数に関連して説明したようなかすみ信頼レベルに基づいてかすみ低減を実行し得る。追加的に、または代替案として、電子デバイスは、図1に関連して説明したかすみ信頼レベルに基づいて非画像処理動作を実行し得る。
[0089]図6は、複数のモダリティに基づくかすみ検出のための方法600のより具体的な構成を示す流れ図である。方法600は、電子デバイス(たとえば、電子デバイス102、202、302のうちの1つまたは複数)によって実行され得る。電子デバイスは、かすみ検出器(たとえば、かすみ検出器124、224、324、424)で構成され得る。
[0090]電子デバイスは、カメラ入力信号のフレーム(たとえば、画像)を取得602し得る。これは、図1〜図4のうちの1つまたは複数に関連して上述したように達成され得る。たとえば、電子デバイスは、レンズ、画像センサ、および/または画像信号プロセッサを介して1つまたは複数の画像を取得602し得る。
[0091]電子デバイスは、フレーム上で第1の(たとえば、基本的な)特徴抽出を実行604し得る。これは、図4に関連して上述したように達成され得る。たとえば、電子デバイスは、フレームのダークチャネル特徴、フレームの輝度の勾配、および/またはフレームのぼやけ/鮮明度インジケータを決定し得る。
[0092]電子デバイスは、第1の抽出された特徴および1つまたは複数のモダリティに基づいて第1の分類を実行606し得る。これは、図4に関連して上述したように達成され得る。いくつかの構成では、第1の分類は、フレーム内でかすみが検出されたか否かを決定するために、サポートベクトルマシン(SVM)を使用し得る。
[0093]電子デバイスは、第1の分類はフレーム内でかすみが検出されたことを示すかどうかを決定608し得る。これは、図4に関連して上述したように達成され得る。たとえば、ベクトルが(第1の抽出された特徴、および/または1つまたは複数の種類のモダリティ情報に基づいて)決定境界の一方の側に位置する場合、第1の分類はかすみが検出されたことを示し得る。しかしながら、ベクトルが決定境界の他方の側にある場合、かすみが検出されないことがある。かすみが検出されない場合、動作は終了610し得る。
[0094]フレーム内でかすみが検出された場合、電子デバイスは、フレーム上で第2の(たとえば、より集約的な)特徴抽出を実行612し得る。これは、図4に関連して上述したように達成され得る。いくつかの構成では、第2の特徴抽出は、勾配空間情報、勾配位相情報、勾配の大きさ情報、および/または追加のダークチャネル特徴などの、より計算量の多い特徴抽出を含み得る。いくつかの構成における第1の特徴抽出とは異なり、たとえば、第2の特徴抽出は1つまたは複数のモダリティに基づき得る。たとえば、第2の特徴抽出は、電子デバイスの位置、電子デバイスが向いている方向、時刻などに基づき得る。
[0095]電子デバイスは、かすみ信頼レベルを取得するために、第2の抽出された特徴および1つまたは複数のモダリティに基づいて第2の分類を実行614し得る。これは、図4に関連して上述したように達成され得る。いくつかの構成では、第2の分類は、フレーム内でかすみが検出されるかすみ信頼レベルを決定するために、サポートベクトルマシン(SVM)を使用し得る。第2の分類は、第2の抽出された特徴および1つまたは複数のモダリティに基づき得る。
[0096]電子デバイスは、かすみ信頼レベルに基づいてかすみ低減を任意で実行616し得る。これは、図1〜図3のうちの1つまたは複数に関連して上述したように達成され得る。たとえば、電子デバイスは、可視のかすみを低減/除去するために、オートホワイトバランス、オートフォーカス、自動露出、色、鮮明度、および/または局所コントラストを調整し得る。したがって、かすみ低減は、信号処理、およびカメラの1つまたは複数の物理的設定を調整することを含み得る。
[0097]図7は、かすみ検出器724のある構成の別の例を示すブロック図である。かすみ検出器724は、カメラ入力750a、ならびに1つまたは複数の追加の種類のモダリティ情報、すなわち位置750b、方向750c、時刻750d、地域の天気予報750e(たとえば、予測)、遠隔デバイス画像750f、屋内/屋外インジケータ750g、ユーザオーバーライドインジケータ750h、温度750i、大気汚染指数750j、および/または日付750kを受信し得る。カメラ入力750aおよび1つまたは複数の追加の種類のモダリティ情報750b〜kに基づいて、かすみ検出器724は、かすみ信頼レベル756を決定し得る。たとえば、かすみ検出器724は、単一のかすみ信頼レベルを直接決定するために、カメラ入力750aおよび1つまたは複数の追加の種類のモダリティ情報750b〜kを利用し得る。
[0098]図8は、並列に動作する複数のかすみ検出器824a〜hのある構成のある例を示すブロック図である。かすみ検出器824a〜hは、図1〜図4のうちの1つまたは複数に関連して説明したかすみ検出器124、224、324、424のうちの1つまたは複数の一例であり得る。各かすみ検出器824は、カメラ入力850iおよび1つまたは複数の種類のモダリティ情報850a〜850hを受信し得る。たとえば、かすみ検出器A 824aは、位置モダリティ情報850aを受信し得る。かすみ検出器A 824aは、位置モダリティかすみ信頼レベル884a(たとえば、カメラ入力および位置モダリティ情報に基づくかすみ信頼レベル)を出力し得る。
[0099]別の例として、かすみ検出器B 824bは方向モダリティ情報850bを受信し得る。かすみ検出器B 824bは、方向モダリティかすみ信頼レベル884bを出力し得る。
[00100]かすみ検出器C 824cは、時刻モダリティ情報850cを受信し得、時刻モダリティかすみ信頼レベル884cを出力し得る。かすみ検出器D 824dは、地域の天気予報(たとえば、予報)モダリティ情報850dを受信し得、地域の天気予報モダリティかすみ信頼レベル884dを出力し得る。
[00101]かすみ検出器E 824eは、遠隔デバイス画像モダリティ情報850eを受信し得、また遠隔デバイス画像モダリティかすみ信頼レベル884eを出力し得る。かすみ検出器F 824fは、屋内/屋外インジケータモダリティ情報850fを受信し得、また屋内/屋外モダリティかすみ信頼レベル884fを出力し得る。
[00102]かすみ検出器G 824aは、ユーザオーバーライドインジケータモダリティ情報850gを受信し得、またユーザオーバーライドモダリティかすみ信頼レベル884gを出力し得る。かすみ検出器H 824hは、温度モダリティ情報850hを受信し得、また温度モダリティかすみ信頼レベル884hを出力し得る。
[00103]次いで、全体的なかすみ信頼レベル856を取得するために、取得されたモダリティかすみ信頼レベル884a〜hの各々が組み合わせられ(combined)得る。たとえば、モダリティかすみ信頼レベル884a〜hの各々は、信頼レベル結合器886に提供され得る。信頼レベル結合器886は、たとえば、電子デバイス102、202、302のうちの1つまたは複数(たとえば、プロセッサ104内)に実装され得る。いくつかの構成では、信頼レベル結合器886は、モダリティかすみ信頼レベル884a〜hを平均化することによって、モダリティかすみ信頼レベル884a〜hを組み合わせることができる。いくつかの構成では、信頼レベル結合器886は、かすみ信頼レベル856を生成するために、モダリティかすみ信頼レベル884a〜hの加重平均を決定し得る。並行して実行している複数のかすみ検出器824a〜hを有することは、かすみ信頼レベル856を取得する際の計算時間の短縮という利点を提供し得る。
[00104]より少数、またはより多数のかすみ検出器824が実装され得る点に留意されたい。たとえば、日付モダリティ情報のためのかすみ検出器が実装され得る。追加的に、または代替案として、大気汚染指数のためのかすみ検出器が実装され得る。検出器824のうちの1つまたは複数からの結果は、上述したように組み合わせられ得る。
[00105]図9は、画像信号プロセッサ932の一構成の一例を示すブロック図である。画像信号プロセッサ932は、図1および図3のうちの1つまたは複数に関連して説明した画像信号プロセッサ132、332のうちの1つまたは複数の一例であり得る。かすみ低減中に達成されるべきいくつかの目的には、画像処理および/または関連するアプリケーション(たとえば、ADAS機能、オブジェクト検出、オブジェクト追跡、オブジェクト認識、オートフォーカス、深度マッピング、および/または3Dモデリングなどの精度を高めることが含まれ得る。たとえば、かすみ低減のための手法のうちの1つまたは複数は、プレビューフレーム中およびちらつきのないスナップショット間の一貫性、明らかな人工物(色、ノイズ、および/または人工輪郭)がないこと、および/またはADAS画像品質および検出精度の向上を達成し得る。いくつかの構成では、かすみを低減するために、カメラ画像信号プロセッサパイプライン内のローカルトーンマッピング(LTM)ハードウェアが制御され得る。
[00106]画像センサ910は、画像データをキャプチャし得る。図9に関連して説明した画像センサ910は、図1および図3のうちの1つまたは複数に関連して説明した画像センサ110、310のうちの1つまたは複数の一例であり得る。画像データは、オプションのビデオフロントエンド(VFE)988に提供され得る。ビデオフロントエンド988は、1つまたは複数の前処理動作を実行し得る。たとえば、ビデオフロントエンド988は、画像センサ出力に基づいて画像を生成し得る。ビデオフロントエンド988は、前処理された画像データを画像信号プロセッサ932および統計コレクタ996に提供し得る。
[00107]画像信号プロセッサ932は、オプションの逆圧伸器(decompander)990、ローカルトーンマッパ(LTM)992、および/またはオプションのスケーラ/クロッパ994を含み得る。より多数、またはより少数の処理要素が画像信号プロセッサ932に実装され得る点に留意されたい。
[00108]逆圧伸器990は、前処理された画像データに対して逆圧伸動作を実行し得る。逆圧伸器990は、画像信号プロセッサ932および/またはビデオフロントエンド988に含まれ(たとえば、画像信号プロセッサ932および/またはビデオフロントエンド988によって実装され)得る点に留意されたい。
[00109]ローカルトーンマッパ992は、画像データに対してローカルトーンマッピングを実行し得る。たとえば、ローカルトーンマッピングは、色のセットを異なる色のセットにマッピングすることを含み得る。たとえば、入力画像データの第1のダイナミックレンジ(たとえば、より高いダイナミックレンジ)が、第2のダイナミックレンジ(たとえば、より低いダイナミックレンジ)にマッピングされ得る。いくつかの構成では、第2のダイナミックレンジは、ディスプレイ(たとえば、ディスプレイ108)のダイナミックレンジに対応し得る。ローカルトーンマッピングは、入力画像のコントラストを表示可能な範囲に減少させ、色を保存する目的で実行され得る。いくつかの構成では、ローカルトーンマッパ992は、ローカルトーンマッピング曲線を画像データに適用し得る。特に、ローカルトーンマッパ992は、画像データの高輝度領域において、局所コントラストをブーストし得る(たとえば、画像内のオブジェクトを潜在的にレンダリングする隣接画素間の差をより明瞭に広げるために、画素の輝度値を調整し得る)。ローカルトーンマッピングに関する追加の詳細は、図10に関連して与えられる。
[00110]スケーラ/クロッパ994は、画像データをスケーリングおよび/またはクロッピングし得る。したがって、画像信号プロセッサ932は、(処理された)カメラ信号954を生成し得る。カメラ信号954は、かすみ検出器924に提供され得る。
[00111]かすみ検出器924は、図1〜図4および図7〜図8のうちの1つまたは複数に関連して説明したかすみ検出器124、224、324、424、724、824のうちの1つまたは複数の一例であり得る。かすみ検出器924は、上述したようにかすみ信頼レベル956を決定し得る。かすみ信頼レベル956は、ローカルトーンマッパ992に提供され得る。ローカルトーンマッパ992は、かすみ低減を実行するために、ローカルトーンマッピングを制御(たとえば、調整)し得る。ローカルトーンマッピングを制御することは、高輝度領域における局所コントラストをブーストするために、1つまたは複数のLTM曲線を修正することを含み得る。たとえば、ローカルトーンマッパ992は、より高いかすみ信頼レベル956に対してLTM曲線の深度を増加させ、および/またはより低いかすみ信頼レベル956に対してLTM曲線の深度を減少させることができる。LTM曲線の例は、図10に関連して提供される。
[00112]統計コレクタ996は、前処理された画像データの統計値998を収集し得る点に留意されたい。統計値998は、かすみ検出器924に提供され得る。いくつかの構成では、かすみ検出器924は、分類器をトレーニングするために使用され得る入力ベクトルとして統計値998を利用し得る。
[00113]図10は、ローカルトーンマッピング(LTM)機能の様々な態様(たとえば、曲線)を示すいくつかのグラフ1001a〜fを含む。たとえば、グラフ1001a〜fは、入力および出力グレースケールレベルに関連し得る。入力および出力グレースケールレベルは、任意で、異なるビット数(たとえば、256または1024)で量子化され得る。グラフA 1001aおよびグラフD 100dのそれぞれの垂直軸1003、1073は、照度に適用される調整値を表し得る。グラフB 1001bおよびグラフE 1001eのそれぞれの垂直軸1007、1077は、照度に適用される調整量を表し得る。グラフA〜B、1001a〜b、およびD〜E、1001d〜eの水平軸1005、1009、1075、1079は照度値を表し得る。グラフC 1001cおよびグラフF 1001fは、入力照度値(それぞれの垂直軸1013、1083上の)から出力照度値(それぞれの水平軸1011、1081の)への最終マッピング曲線を表し得る。
[00114]LTM機能は、かすみ低減を実行するために、たとえば画像信号プロセッサ132、332(たとえば、ローカルトーンマッパ992)によって利用され得る。デジタル画像(たとえば、画像センサからの画像データ、生のカメラ信号、前処理された画像データなど)は、画素から構成され得る。各画素は、1つまたは複数のチャネル(たとえば、赤、緑、青など)における輝度値を有し得る。輝度値は、特定の範囲(たとえば、0〜255)を有し得る。画像内の画素ごとに、画像信号プロセッサ132、332(たとえば、ローカルトーンマッパ992)は、隣接する画素の輝度に基づいて、チャネルのうちの1つまたは複数における画素の輝度を調整し得る。グラフA 1001aは、LTMマスタ曲線の一例を示す。LTMマスタ曲線は、隣接画素の異なる平均輝度(水平軸1005に沿った)について画素の輝度(垂直軸1003に沿った)に適用される調整を示す。図示されるように、画像信号プロセッサ132、332は、低輝度領域内の画素の輝度を増加させ得、また高輝度領域内の画素の輝度を減少させ得る。たとえば、輝度レベルを低減し、200の照度レベル付近のコントラストを増加させるために、LTMマスタ曲線における200付近のディップが使用され得る。グラフB 1001bはマスタ曲線スケールファクタの一例を示し、グラフC 1001cはマスク整流の一例を示す。
[00115]グラフD 1001dは、LTMシフト曲線の一例を示す。LTMシフト曲線は、輝度と隣接画素の平均輝度との間の差(水平軸1075に沿った)に基づいて、画素の輝度がどのように調整されるか(垂直軸1073に沿った)を示す。グラフE 1001eはシフト曲線スケールファクタの一例を示し、グラフF 1001fはLTM原理曲線の一例を示す。
[00116]LTMマスタ曲線およびLTMシフト曲線のうちの1つまたは複数は、かすみ信頼レベルに基づいて制御され得る。たとえば、画素輝度の調整は、かすみ信頼レベルが高くなるにつれて増加され得る。たとえば、かすみを低減することは、1つまたは複数のLTM曲線の深度を増加させる(たとえば、かすみ信頼レベルが高くなるにつれて)ことを含み得る。
[00117]図11は、かすみ低減決定を示すグラフである。特に、グラフは時間1117にわたる(フレーム(たとえば、1秒当たり30フレーム(fps))内の)かすみ信頼レベル1115を示す。具体的には、1つのプロットは、前のフレームからのかすみ信頼レベル1119と、平滑されたかすみ信頼レベル1121を示す。たとえば、電子デバイスは、時間1117にわたってかすみ信頼レベルを平滑化し得る。図11に示されるように、かすみ低減決定1123は、かすみ信頼レベル1115が十分に高い(たとえば、かすみ信頼しきい値以上)場合に発生し得る。図11のプロットは、画像のサイズが変更されたADASアプリケーションからとられた(taken)かすみ低減決定を示し得る。
[00118]図12Aは、大気汚染指数マップ1235の例である。いくつかの構成では、電子デバイス(たとえば、電子デバイス102、202、302)は、遠隔デバイス(たとえば、遠隔サーバ)に1つまたは複数の位置に対する大気汚染指数を要求してもよく、および/または遠隔デバイス(たとえば、遠隔サーバ)から受信してもよい。たとえば、電子デバイスは、電子デバイスが位置するエリアに対する大気汚染指数を要求および/または受信し得る。大気汚染指数は、本明細書に記載されるかすみ信頼値を決定するために利用され得るモダリティ情報の一種であり得る。大気汚染指標マップ1235は、大気汚染指標を有するマップの一例を示す。
[00119]図12Bは1種類のモダリティ情報(大気汚染指数)に基づいてかすみ検出を実行するための手法を示す図である。たとえば、ブロック図は、大気汚染指数かすみ信頼レベル1233を決定するための1つの手法を示し、大気汚染指数かすみ信頼レベル1233は正規化大気汚染指数である。大気汚染指数かすみ信頼レベル1233は、図8に関連して説明したモダリティかすみ信頼レベルの一例であり得る。
[00120]この例では、大気汚染指数1225(たとえば、遠隔サーバから取り出され得る)は、正規化器1227に提供され得る。特に、大気汚染指数マップ1235は、電子デバイスによって取得され得る大気汚染指数の例を提供する。正規化器1227は、生の大気汚染指数かすみレベル1229を生成するために、大気汚染指数1225を正規化し得る。いくつかの構成では、生の大気汚染指数かすみレベル1229は、以下の式に従って決定され得る。
上式で、Rawは生の大気汚染指数かすみレベル1229であり、AirPollutionIndexは大気汚染指数1225であり、MinPollutionIndexThdは最小大気汚染指数しきい値であり、MaxPollutionIndexThdは最大大気汚染指数しきい値である。いくつかの構成では、生の大気汚染指数かすみレベル1229は、クランプ1231(関数)に提供され得る。クランプ1231は、生の大気汚染指数かすみレベル1229を所与の範囲内(たとえば、[0,1])に変換し得る。クランプ1231は、大気汚染指数かすみ信頼レベル1233を提供し得る。
[00121]大気汚染指数かすみ信頼レベルを決定することに対する別の手法は、大気汚染指数を大気汚染指数かすみ信頼レベル(たとえば、視覚かすみスコア)に関連付ける1次元関数を生成するために回帰を使用する、機械学習手法であり得る。データラベリングと大気汚染指数は、リグレッサをトレーニングするために記録され得る。この手法は、回帰グラフ1245に関連して示されている。回帰グラフ1245は、大気汚染指数1239に対するかすみスコア1237を示す。特に、回帰グラフ1245は、かすみスコア回帰1241および直線かすみスコア1243を示す。
[00122]図13は、本明細書に開示されるシステムおよび方法による、かすみ低減前1347およびかすみ低減後1349の画像の例を示す。具体的には、トップ画像は、約50メートル(m)の可視性を有するかすみ低減前画像1347の一例である。下側の画像は、かすみ低減後の画像1349の一例を示しており、可視性の大幅な改善を示している。本明細書に開示されるシステムおよび方法のいくつかの構成は、交通標識および/または車線検出に適用され得る。たとえば、自動車は、本明細書に開示されたシステムおよび方法で実装され得る。かすみがある場合、本明細書に開示されたシステムおよび方法は、かすみ検出およびかすみ低減を提供し得る。かすみ除去された画像は、電子デバイス(たとえば、自動車)が、道路標識および/または車線をより正確に検出および/または追跡することを可能にし得る。
[00123]図14は、本明細書に開示されるシステムおよび方法の様々な構成を実装するように構成された電子デバイス1402内に含まれ得るいくつかの構成要素を示す。電子デバイス1402は、アクセス端末、移動局、ユーザ機器(UE)、基地局、アクセスポイント、ブロードキャスト送信機、ノードB、進化型ノードBなどであり得る。電子デバイス1402は、本明細書に記載される電子デバイス102、202、302のうちの1つまたは複数に従って実装され得る。電子デバイス1402は、プロセッサ1469を含む。プロセッサ1469は、汎用シングルチップマイクロプロセッサあるいは多重チップマイクロプロセッサ(たとえば、ARM)、専用マイクロプロセッサ(たとえば、デジタル信号プロセッサ(DSP))、マイクロコントローラ、プログラマブルゲートアレイなどであり得る。プロセッサ1469は、中央処理装置(CPU)と呼ばれ得る。単一のプロセッサ1469が電子デバイス1402に示されているが、代替の構成では、プロセッサ(たとえば、ARMおよびDSP)の組合せが使用され得る。
[00124]電子装置1402はまた、メモリ1451を含む。メモリ1451は、電子情報を記憶し得る任意の電子構成要素であり得る。メモリ1451は、それらの組合せを含めた、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、磁気ディスク記憶媒体、光記憶媒体、RAM内のフラッシュメモリデバイス、プロセッサに含まれるオンボードメモリ、EPROMメモリ、EEPROM(登録商標)メモリ、レジスタなどとして具体化され得る。
[00125]データ1453aおよび命令1455aは、メモリ1451に記憶され得る。命令1455aは、本明細書に開示される方法500、600のうちの1つまたは複数を実行するためにプロセッサ1469によって実行可能であり得る。命令1455aを実行することは、メモリ1451に記憶されたデータ1453aの使用を含み得る。プロセッサ1469が命令1455aを実行すると、命令1455bの様々な部分がプロセッサ1469にロードされ得、またデータ1453bの様々な部分がプロセッサ1469にロードされ得る。
[00126]電子デバイス1402はまた、電子デバイス1402へ信号の送信、およびそこからの信号の受信を可能にするために、送信機1457および受信機1459を含み得る。送信機1457および受信機1459は、まとめてトランシーバ1461と呼ばれ得る。複数のアンテナ1463a〜bは、トランシーバ1461に電気的に結合され得る。電子デバイス1402はまた、複数の送信機、複数の受信機、複数のトランシーバ、および/または追加のアンテナ(図示せず)を含み得る。
[00127]電子デバイス1402はデジタル信号プロセッサ(DSP)1465を含み得る。電子デバイス1402はまた、通信インターフェース1467を含み得る。通信インターフェース1467は、電子デバイス/デバイスへのワイヤレス1402が1つまたは複数の他のデバイスおよび/またはユーザと通信することを可能にし得る。たとえば、通信インターフェース1467は、デバイス間通信のための1つまたは複数のワイヤードおよび/またはワイヤレスインターフェースを含み得る。いくつかの構成では、トランシーバ1461は、通信インタ−フェース1467に含まれ得る。追加的に、または代替案として、通信インターフェース1467は、1つまたは複数の他の入力/出力インターフェース(たとえば、タッチスクリーン、マウスポートなど)を含み得る。
[00128]電子デバイス1402の様々な構成要素は1つまたは複数のバス1471によってともに結合され得、電源バス、制御信号バス、ステータス信号バス、データバスなどを含み得る。明確にするために、様々なバスがバスシステム1471として図14に示されている。
[00129]「決定すること」という用語は多種多様な動作を包含し、したがって、「決定すること」は、算出すること、計算すること、処理すること、導出すること、調査すること、検索すること(たとえば、表、データベース、または別のデータ構造を検索すること)などを含み得る。また、「決定すること」は、受信すること(たとえば、情報を受信すること)、アクセスすること(たとえば、メモリ内のデータにアクセスすること)などを含み得る。また、「決定すること」は、解決すること、選択すること、選ぶこと、確立することなどを含み得る。
[00130]「〜に基づいて」という句は、明示的に指定されていない限り、「〜にのみ基づいて」を意味するものではない。言い換えれば、「〜に基づいて」という句は、「〜のみに基づいて」と「少なくとも〜に基づいて」の両方を表す。
[00131]「プロセッサ」という用語は、汎用プロセッサ、中央処理装置(CPU)、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、コントローラ、マイクロコントローラ、状態機械などを包含するように広く解釈されるべきである。場合によっては、「プロセッサ」は、特定用途向け集積回路(ASIC)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)などを指すことがある。「プロセッサ」という用語は、DSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、あるいは他の任意のそのような構成などの処理デバイスの組合せを指し得る。
[00132]「メモリ」という用語は、電子情報を記憶し得る任意の電子構成要素を包含するように広く解釈されるべきである。メモリという用語は、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、プログラマブル読出し専用メモリ(PROM)、消去可能プログラマブル読出し専用メモリ(EPROM)、電気的消去可能PROM(EEPROM)、フラッシュメモリ、磁気または光学データ記憶装置、レジスタなどの様々な種類のプロセッサ可読媒体を指し得る。プロセッサがメモリから情報を読み出すことができ、および/またはメモリに情報を書き込むことができる場合、メモリはプロセッサと電子通信していると言われる。プロセッサに不可欠なメモリは、プロセッサと電子通信している。
[00133]「命令」および「コード」という用語は、任意の種類のコンピュータ可読ステートメントを含むように広く解釈されるべきである。たとえば、「命令」および「コード」という用語は、1つまたは複数のプログラム、ルーチン、サブルーチン、関数、プロシージャなどを指し得る。「命令」および「コード」は、単一のコンピュータ可読ステートメントまたは多くのコンピュータ可読ステートメントを備え得る。
[00134]本明細書で説明された機能は、ハードウェアによって実行されるソフトウェアまたはファームウェアで実装され得る。機能は、コンピュータ可読媒体上に1つまたは複数の命令として記憶され得る。「コンピュータ可読媒体」または「コンピュータプログラム製品」という用語は、コンピュータまたはプロセッサによってアクセスされ得る任意の有形な記憶媒体を指す。限定ではなく一例として、コンピュータ可読媒体は、RAM、ROM、EEPROM、CD−ROMまたは他の光ディスク記憶装置、磁気ディスク記憶装置または他の磁気記憶装置、あるいは命令またはデータ構造の形態で所望のプログラムコードを搬送または記憶するために使用され得、コンピュータによってアクセスされ得る任意の他の媒体を備え得る。本明細書で使用されるディスク(disk)および(disc)は、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル多用途ディスク(DVD)、フロッピー(登録商標)ディスクおよびブルーレイ(登録商標)を含み、ディスク(disk)は通常磁気的にデータを再生し、ディスク(disc)はレーザで光学的にデータを再生する。コンピュータ可読媒体は、有形および非一時的であり得る点に留意すべきである。「コンピュータプログラム製品」という用語は、コンピューティングデバイスまたはプロセッサによって実行、処理、または計算され得るコードまたは命令(たとえば、「プログラム」)と組み合わせたコンピューティングデバイスまたはプロセッサを指す。本明細書で使用される場合、「コード」という用語は、コンピューティングデバイスまたはプロセッサによって実行可能なソフトウェア、命令、コード、またはデータを指し得る。
[00135]ソフトウェアまたは命令はまた、伝送媒体を介して送信され得る。たとえば、ソフトウェアが同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他の遠隔ソースから送信される場合、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、伝送媒体の定義に含まれる。
[00136]本明細書に開示される方法は、記載された方法を達成するための1つまたは複数のステップあるいは動作を備える。方法ステップおよび/または動作は、特許請求の範囲から逸脱することなしに、相互に交換され得る。言い換えれば、説明されている方法の適切な動作のためにステップまたは動作の特定の順序が必要でない限り、特定のステップおよび/または動作の順序および/または使用は、特許請求の範囲から逸脱することなしに変更され得る。
[00137]さらに、図5および図6によって示されるような本明細書に記載の方法および技法を実行するためのモジュールおよび/または他の適切な手段は、デバイスによってダウンロードされ得ること、および/または他の方法で入手され得ることを理解されたい。たとえば、本明細書に記載の方法を実行するための手段の転送を容易にするために、デバイスがサーバに接続され得る。別法として、本明細書に記載の様々な方法は、ストレージ手段(たとえば、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、コンパクトディスク(CD)やフロッピーディスクなどの物理ストレージ媒体、等)を介して提供されてもよく、したがって、ストレージ手段がデバイスに結合または提供されると、デバイスは様々な方法を得ることができる。
[00138]請求項は、上に例示された正確な構成および構成要素に限定されないことを理解されたい。特許請求の範囲を逸脱することなしに、本明細書に記載のシステム、方法、および装置の、配置、動作、および詳細に、様々な修正、変更、および変形が加えられてもよい。
[00138]請求項は、上に例示された正確な構成および構成要素に限定されないことを理解されたい。特許請求の範囲を逸脱することなしに、本明細書に記載のシステム、方法、および装置の、配置、動作、および詳細に、様々な修正、変更、および変形が加えられてもよい。
以下に本願発明の当初の特許請求の範囲に記載された発明を付記する。
[C1]
複数のモダリティに基づいてかすみ信頼レベルを決定し、前記かすみ信頼レベルに基づいて動作を実行するかどうかを決定するように構成されたプロセッサを備える、電子デバイス。
[C2]
前記プロセッサが、前記かすみ信頼レベルに基づいてかすみ低減を実行するように構成される、C1に記載の電子デバイス。
[C3]
前記プロセッサが、オートホワイトバランス、オートフォーカス、自動露出、色、鮮明度、およびローカルトーンマッピング曲線で構成されるグループのうちの1つまたは複数を調整するように構成される、C2に記載の電子デバイス。
[C4]
前記プロセッサが、少なくとも1つの非画像処理動作を実行するように構成される、C1に記載の電子デバイス。
[C5]
前記プロセッサが、2段階分類に基づいて前記かすみ信頼レベルを決定するように構成される、C1に記載の電子デバイス。
[C6]
前記プロセッサが、
1つまたは複数の抽出された特徴の第1のセットを生成するためにカメラ入力信号に基づいて第1の特徴抽出を実行し、
抽出された特徴の前記第1のセットおよび前記モダリティのうちの1つまたは複数に基づいて第1の分類を実行し、
前記第1の分類はかすみが検出されたことを示すと決定し、
1つまたは複数の抽出された特徴の第2のセットを生成するために前記カメラ入力信号および前記モダリティのうちの1つまたは複数に基づいて第2の特徴抽出を実行し、
抽出された特徴の前記第2のセットおよび前記モダリティのうちの1つまたは複数に基づいて第2の分類を実行する
ように構成される、C5に記載の電子デバイス。
[C7]
抽出された特徴の前記第1のセットが、ダークチャネル特徴、輝度特徴の勾配、およびぼやけ/鮮明度特徴で構成されるグループのうちの1つまたは複数を備える、C6に記載の電子デバイス。
[C8]
抽出された特徴の前記第2のセットが、ダークチャネル特徴、勾配特徴の大きさ、勾配特徴の位相、および勾配空間情報特徴で構成されるグループのうちの1つまたは複数を備える、C6に記載の電子デバイス。
[C9]
前記プロセッサが、前記モダリティのうちの1つまたは複数に基づいて前記かすみ信頼レベルを取得するように構成された検出器を実装するように構成される、C1に記載の電子デバイス。
[C10]
前記プロセッサが、複数の検出器を実装するように構成され、各検出器が、前記モダリティのうちの1つまたは複数に基づいてモダリティかすみ信頼レベルを取得するように構成され、前記プロセッサが、前記かすみ信頼レベルを形成するために前記モダリティかすみ信頼レベルを組み合わせるように構成される、C1に記載の電子デバイス。
[C11]
前記モダリティが、画像モダリティ情報、ならびに位置モダリティ情報、方向モダリティ情報、時刻モダリティ情報、地域の天気予報モダリティ情報、遠隔デバイス画像モダリティ情報、屋内/屋外インジケータ、ユーザオーバーライドインジケータ、および温度モダリティ情報で構成されるグループのうちの1つまたは複数を提供するように構成される、C1に記載の電子デバイス。
[C12]
電子デバイスによって実行される方法であって、
複数のモダリティに基づいてかすみ信頼レベルを決定することと、
前記かすみ信頼レベルに基づいて動作を実行するかどうかを決定することと
を備える、方法。
[C13]
前記動作を実行することをさらに備え、前記動作を実行することが、前記かすみ信頼レベルに基づいてかすみ低減を実行することを備える、C12に記載の方法。
[C14]
かすみ低減を実行することが、オートホワイトバランス、オートフォーカス、自動露出、色、鮮明度、およびローカルトーンマッピング曲線で構成されるグループのうちの1つまたは複数を調整することを備える、C13に記載の方法。
[C15]
前記動作を実行することが、少なくとも1つの非画像処理動作を実行することを備える、C12に記載の方法。
[C16]
前記かすみ信頼レベルを決定することが2段階分類に基づく、C12に記載の方法。
[C17]
前記2段階分類が、
1つまたは複数の抽出された特徴の第1のセットを生成するためにカメラ入力信号に基づいて第1の特徴抽出を実行することと、
抽出された特徴の前記第1のセットおよび前記モダリティのうちの1つまたは複数に基づいて第1の分類を実行することと、
前記第1の分類はかすみが検出されたことを示すと決定することと、
1つまたは複数の抽出された特徴の第2のセットを生成するために前記カメラ入力信号および前記モダリティのうちの1つまたは複数に基づいて第2の特徴抽出を実行することと、
抽出された特徴の前記第2のセットおよび前記モダリティのうちの1つまたは複数に基づいて第2の分類を実行することと
を備える、C16に記載の方法。
[C18]
抽出された特徴の前記第1のセットが、ダークチャネル特徴、輝度特徴の勾配、およびぼやけ/鮮明度特徴で構成される前記グループのうちの1つまたは複数を備える、C17に記載の方法。
[C19]
抽出された特徴の前記第2のセットが、ダークチャネル特徴、勾配特徴の大きさ、勾配特徴の位相、および勾配空間情報特徴で構成される前記グループのうちの1つまたは複数を備える、C17に記載の方法。
[C20]
前記かすみ信頼レベルが検出器によって取得され、前記検出器が、前記モダリティのうちの1つまたは複数に基づいて前記かすみ信頼レベルを取得する、C12に記載の方法。
[C21]
前記かすみ信頼レベルが複数の検出器によって取得され、各検出器が、前記モダリティのうちの1つまたは複数に基づいてモダリティかすみ信頼レベルを取得し、前記モダリティかすみ信頼レベルが、前記かすみ信頼レベルを形成するために組み合わせられる、C12に記載の方法。
[C22]
前記モダリティが、画像モダリティ情報、ならびに位置モダリティ情報、方向モダリティ情報、時刻モダリティ情報、地域の天気予報モダリティ情報、遠隔デバイス画像モダリティ情報、屋内/屋外インジケータ、ユーザオーバーライドインジケータ、および温度モダリティ情報で構成される前記グループのうちの1つまたは複数を提供する、C12に記載の方法。
[C23]
複数のモダリティに基づいてかすみ信頼レベルを決定するための手段と、
前記かすみ信頼レベルに基づいて動作を実行するかどうかを決定するための手段と
を備える、装置。
[C24]
前記動作を実行するための手段をさらに備え、前記動作を実行するための前記手段が、前記かすみ信頼レベルに基づいてかすみ低減を実行することを備える、C23に記載の装置。
[C25]
前記動作を実行するための前記手段が、少なくとも1つの非画像処理動作を実行するための手段を備える、C23に記載の装置。
[C26]
前記かすみ信頼レベルを決定するための前記手段が2段階分類に基づく、C23に記載の装置。
[C27]
命令をもつ非一時的コンピュータ可読媒体を備えるコンピュータプログラム製品であって、前記命令が、
電子デバイスに、複数のモダリティに基づいてかすみ信頼レベルを決定させるためのコードと、
前記電子デバイスに、前記かすみ信頼レベルに基づいて動作を実行するかどうかを決定させるためのコードと
を備える、コンピュータプログラム製品。
[C28]
前記電子デバイスに前記動作を実行させるためのコードをさらに備え、前記電子デバイスに、前記かすみ信頼レベルに基づいてかすみ低減を実行させるためのコードを備える、C27に記載のコンピュータプログラム製品。
[C29]
前記電子デバイスに前記動作を実行させるための前記コードが、前記電子デバイスに少なくとも1つの非画像処理動作を実行させるためのコードを備える、C27に記載のコンピュータプログラム製品。
[C30]
前記電子デバイスに前記かすみ信頼レベルを決定させるための前記コードが2段階分類に基づく、C27に記載のコンピュータプログラム製品。

Claims (30)

  1. 複数のモダリティに基づいてかすみ信頼レベルを決定し、前記かすみ信頼レベルに基づいて動作を実行するかどうかを決定するように構成されたプロセッサを備える、電子デバイス。
  2. 前記プロセッサが、前記かすみ信頼レベルに基づいてかすみ低減を実行するように構成される、請求項1に記載の電子デバイス。
  3. 前記プロセッサが、オートホワイトバランス、オートフォーカス、自動露出、色、鮮明度、およびローカルトーンマッピング曲線で構成されるグループのうちの1つまたは複数を調整するように構成される、請求項2に記載の電子デバイス。
  4. 前記プロセッサが、少なくとも1つの非画像処理動作を実行するように構成される、請求項1に記載の電子デバイス。
  5. 前記プロセッサが、2段階分類に基づいて前記かすみ信頼レベルを決定するように構成される、請求項1に記載の電子デバイス。
  6. 前記プロセッサが、
    1つまたは複数の抽出された特徴の第1のセットを生成するためにカメラ入力信号に基づいて第1の特徴抽出を実行し、
    抽出された特徴の前記第1のセットおよび前記モダリティのうちの1つまたは複数に基づいて第1の分類を実行し、
    前記第1の分類はかすみが検出されたことを示すと決定し、
    1つまたは複数の抽出された特徴の第2のセットを生成するために前記カメラ入力信号および前記モダリティのうちの1つまたは複数に基づいて第2の特徴抽出を実行し、
    抽出された特徴の前記第2のセットおよび前記モダリティのうちの1つまたは複数に基づいて第2の分類を実行する
    ように構成される、請求項5に記載の電子デバイス。
  7. 抽出された特徴の前記第1のセットが、ダークチャネル特徴、輝度特徴の勾配、およびぼやけ/鮮明度特徴で構成されるグループのうちの1つまたは複数を備える、請求項6に記載の電子デバイス。
  8. 抽出された特徴の前記第2のセットが、ダークチャネル特徴、勾配特徴の大きさ、勾配特徴の位相、および勾配空間情報特徴で構成されるグループのうちの1つまたは複数を備える、請求項6に記載の電子デバイス。
  9. 前記プロセッサが、前記モダリティのうちの1つまたは複数に基づいて前記かすみ信頼レベルを取得するように構成された検出器を実装するように構成される、請求項1に記載の電子デバイス。
  10. 前記プロセッサが、複数の検出器を実装するように構成され、各検出器が、前記モダリティのうちの1つまたは複数に基づいてモダリティかすみ信頼レベルを取得するように構成され、前記プロセッサが、前記かすみ信頼レベルを形成するために前記モダリティかすみ信頼レベルを組み合わせるように構成される、請求項1に記載の電子デバイス。
  11. 前記モダリティが、画像モダリティ情報、ならびに位置モダリティ情報、方向モダリティ情報、時刻モダリティ情報、地域の天気予報モダリティ情報、遠隔デバイス画像モダリティ情報、屋内/屋外インジケータ、ユーザオーバーライドインジケータ、および温度モダリティ情報で構成されるグループのうちの1つまたは複数を提供するように構成される、請求項1に記載の電子デバイス。
  12. 電子デバイスによって実行される方法であって、
    複数のモダリティに基づいてかすみ信頼レベルを決定することと、
    前記かすみ信頼レベルに基づいて動作を実行するかどうかを決定することと
    を備える、方法。
  13. 前記動作を実行することをさらに備え、前記動作を実行することが、前記かすみ信頼レベルに基づいてかすみ低減を実行することを備える、請求項12に記載の方法。
  14. かすみ低減を実行することが、オートホワイトバランス、オートフォーカス、自動露出、色、鮮明度、およびローカルトーンマッピング曲線で構成されるグループのうちの1つまたは複数を調整することを備える、請求項13に記載の方法。
  15. 前記動作を実行することが、少なくとも1つの非画像処理動作を実行することを備える、請求項12に記載の方法。
  16. 前記かすみ信頼レベルを決定することが2段階分類に基づく、請求項12に記載の方法。
  17. 前記2段階分類が、
    1つまたは複数の抽出された特徴の第1のセットを生成するためにカメラ入力信号に基づいて第1の特徴抽出を実行することと、
    抽出された特徴の前記第1のセットおよび前記モダリティのうちの1つまたは複数に基づいて第1の分類を実行することと、
    前記第1の分類はかすみが検出されたことを示すと決定することと、
    1つまたは複数の抽出された特徴の第2のセットを生成するために前記カメラ入力信号および前記モダリティのうちの1つまたは複数に基づいて第2の特徴抽出を実行することと、
    抽出された特徴の前記第2のセットおよび前記モダリティのうちの1つまたは複数に基づいて第2の分類を実行することと
    を備える、請求項16に記載の方法。
  18. 抽出された特徴の前記第1のセットが、ダークチャネル特徴、輝度特徴の勾配、およびぼやけ/鮮明度特徴で構成される前記グループのうちの1つまたは複数を備える、請求項17に記載の方法。
  19. 抽出された特徴の前記第2のセットが、ダークチャネル特徴、勾配特徴の大きさ、勾配特徴の位相、および勾配空間情報特徴で構成される前記グループのうちの1つまたは複数を備える、請求項17に記載の方法。
  20. 前記かすみ信頼レベルが検出器によって取得され、前記検出器が、前記モダリティのうちの1つまたは複数に基づいて前記かすみ信頼レベルを取得する、請求項12に記載の方法。
  21. 前記かすみ信頼レベルが複数の検出器によって取得され、各検出器が、前記モダリティのうちの1つまたは複数に基づいてモダリティかすみ信頼レベルを取得し、前記モダリティかすみ信頼レベルが、前記かすみ信頼レベルを形成するために組み合わせられる、請求項12に記載の方法。
  22. 前記モダリティが、画像モダリティ情報、ならびに位置モダリティ情報、方向モダリティ情報、時刻モダリティ情報、地域の天気予報モダリティ情報、遠隔デバイス画像モダリティ情報、屋内/屋外インジケータ、ユーザオーバーライドインジケータ、および温度モダリティ情報で構成される前記グループのうちの1つまたは複数を提供する、請求項12に記載の方法。
  23. 複数のモダリティに基づいてかすみ信頼レベルを決定するための手段と、
    前記かすみ信頼レベルに基づいて動作を実行するかどうかを決定するための手段と
    を備える、装置。
  24. 前記動作を実行するための手段をさらに備え、前記動作を実行するための前記手段が、前記かすみ信頼レベルに基づいてかすみ低減を実行することを備える、請求項23に記載の装置。
  25. 前記動作を実行するための前記手段が、少なくとも1つの非画像処理動作を実行するための手段を備える、請求項23に記載の装置。
  26. 前記かすみ信頼レベルを決定するための前記手段が2段階分類に基づく、請求項23に記載の装置。
  27. 命令をもつ非一時的コンピュータ可読媒体を備えるコンピュータプログラム製品であって、前記命令が、
    電子デバイスに、複数のモダリティに基づいてかすみ信頼レベルを決定させるためのコードと、
    前記電子デバイスに、前記かすみ信頼レベルに基づいて動作を実行するかどうかを決定させるためのコードと
    を備える、コンピュータプログラム製品。
  28. 前記電子デバイスに前記動作を実行させるためのコードをさらに備え、前記電子デバイスに、前記かすみ信頼レベルに基づいてかすみ低減を実行させるためのコードを備える、請求項27に記載のコンピュータプログラム製品。
  29. 前記電子デバイスに前記動作を実行させるための前記コードが、前記電子デバイスに少なくとも1つの非画像処理動作を実行させるためのコードを備える、請求項27に記載のコンピュータプログラム製品。
  30. 前記電子デバイスに前記かすみ信頼レベルを決定させるための前記コードが2段階分類に基づく、請求項27に記載のコンピュータプログラム製品。
JP2016568643A 2014-05-20 2015-05-20 かすみ検出のためのシステムおよび方法 Pending JP2017526199A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201462000856P 2014-05-20 2014-05-20
US62/000,856 2014-05-20
US14/619,354 2015-02-11
US14/619,354 US9734425B2 (en) 2015-02-11 2015-02-11 Environmental scene condition detection
US14/716,653 2015-05-19
US14/716,653 US9846927B2 (en) 2014-05-20 2015-05-19 Systems and methods for haziness detection
PCT/US2015/031790 WO2015179528A1 (en) 2014-05-20 2015-05-20 Systems and methods for haziness detection

Publications (2)

Publication Number Publication Date
JP2017526199A true JP2017526199A (ja) 2017-09-07
JP2017526199A5 JP2017526199A5 (ja) 2018-06-14

Family

ID=53373588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016568643A Pending JP2017526199A (ja) 2014-05-20 2015-05-20 かすみ検出のためのシステムおよび方法

Country Status (6)

Country Link
US (1) US9846927B2 (ja)
EP (1) EP3146464A1 (ja)
JP (1) JP2017526199A (ja)
KR (1) KR20170010315A (ja)
CN (1) CN106462737A (ja)
WO (1) WO2015179528A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190110385A (ko) * 2018-03-20 2019-09-30 연세대학교 산학협력단 다중 정보 통합 장치와 방법 및 이를 구비하는 다중 정보 통합 인식 시스템
KR102346752B1 (ko) * 2021-11-04 2022-01-03 주식회사 케이피엔 저시정 영상개선 기능을 갖는 영상처리 시스템 및 이의 영상처리 방법
JP7430714B2 (ja) 2018-10-11 2024-02-13 セノ メディカル インストルメンツ,インク. 病変特性を自動的に推定するための光音響画像分析の方法およびシステム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9734425B2 (en) 2015-02-11 2017-08-15 Qualcomm Incorporated Environmental scene condition detection
US10642943B2 (en) * 2015-11-04 2020-05-05 Scepter Incorporated Atmospheric sensor network and analytical information system related thereto
US11248925B2 (en) 2016-07-28 2022-02-15 Toyota Motor Engineering & Manufacturing North America, Inc. Augmented road line detection and display system
WO2018037920A1 (ja) * 2016-08-26 2018-03-01 日本電気株式会社 画像処理装置、画像処理方法及びコンピュータ読み取り可能記録媒体
US10317226B2 (en) * 2017-01-17 2019-06-11 Rimalu Technologies, Inc. System and method for pollution mapping from variations data
US10255525B1 (en) * 2017-04-25 2019-04-09 Uber Technologies, Inc. FPGA device for image classification
CN106871974A (zh) * 2017-04-28 2017-06-20 无锡北斗星通信息科技有限公司 一种安全状况检测方法
US10830743B2 (en) * 2017-05-04 2020-11-10 International Business Machines Corporation Determining the net emissions of air pollutants
US10360798B2 (en) * 2017-05-08 2019-07-23 Nokia Technologies Oy System and method for trust parameters in vehicle warning messages
KR101917094B1 (ko) * 2017-08-29 2018-11-09 전남대학교산학협력단 매핑테이블을 이용한 고속 스모그/저조도 영상 개선 방법 및 장치
US10452956B2 (en) * 2017-09-29 2019-10-22 Here Global B.V. Method, apparatus, and system for providing quality assurance for training a feature prediction model
US11334960B2 (en) 2018-06-08 2022-05-17 Uatc, Llc Systems and methods for pipelined processing of sensor data using hardware
CN112406788B (zh) * 2019-08-23 2022-06-24 华为技术有限公司 车窗自动清洁方法及装置
CN110807406B (zh) * 2019-10-29 2022-03-01 浙江大华技术股份有限公司 一种雾天检测方法及装置
CN110867172B (zh) * 2019-11-19 2021-02-26 苹果公司 动态控制标准动态范围和高动态范围内容的电子设备
US11495124B2 (en) * 2019-11-22 2022-11-08 At&T Intellectual Property I, L.P. Traffic pattern detection for creating a simulated traffic zone experience
US20230077516A1 (en) * 2021-09-13 2023-03-16 Verizon Patent And Licensing Inc. Systems and methods for utilizing machine learning for vehicle detection of adverse conditions

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6434254B1 (en) * 1995-10-31 2002-08-13 Sarnoff Corporation Method and apparatus for image-based object detection and tracking
US7653215B2 (en) 1997-04-02 2010-01-26 Gentex Corporation System for controlling exterior vehicle lights
US6611610B1 (en) 1997-04-02 2003-08-26 Gentex Corporation Vehicle lamp control
JP2001082097A (ja) * 1999-09-13 2001-03-27 Toshiba Corp トンネル換気制御装置
US6807473B1 (en) * 2003-04-09 2004-10-19 Continental Teves, Inc. Road recognition system
US7602942B2 (en) * 2004-11-12 2009-10-13 Honeywell International Inc. Infrared and visible fusion face recognition system
EP2018617A4 (en) * 2006-02-14 2011-11-16 Intelliscience Corp METHODS AND SYSTEM FOR AGGREGATING AND USING PHYSICAL SAMPLES AND DATA IN A VIRTUAL ENVIRONMENT
US20070244844A1 (en) * 2006-03-23 2007-10-18 Intelliscience Corporation Methods and systems for data analysis and feature recognition
JP2007310741A (ja) 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
JP4784452B2 (ja) * 2006-09-12 2011-10-05 株式会社デンソー 車載霧判定装置
JP4321591B2 (ja) * 2007-01-11 2009-08-26 株式会社デンソー 車載霧判定装置
US8098889B2 (en) * 2007-01-18 2012-01-17 Siemens Corporation System and method for vehicle detection and tracking
CN101751744B (zh) * 2008-12-10 2011-08-31 中国科学院自动化研究所 一种烟雾检测和预警方法
US8831869B2 (en) * 2009-03-31 2014-09-09 GM Global Technology Operations LLC Using V2X-based in-network message generation, aggregation, distribution and processing protocols to enable road hazard condition warning applications
US8350933B2 (en) 2009-04-08 2013-01-08 Yissum Research Development Company Of The Hebrew University Of Jerusalem, Ltd. Method, apparatus and computer program product for single image de-hazing
JP4807439B2 (ja) 2009-06-15 2011-11-02 株式会社デンソー 霧画像復元装置及び運転支援システム
US8340461B2 (en) 2010-02-01 2012-12-25 Microsoft Corporation Single image haze removal using dark channel priors
DE102010002488A1 (de) 2010-03-02 2011-09-08 Robert Bosch Gmbh Verfahren und Vorrichtung zur Nebelerkennung mittels Spektroskopie
JP6430247B2 (ja) * 2011-06-13 2018-11-28 フィリップス ライティング ホールディング ビー ヴィ 適応的に制御された屋外照明システム及びその動作方法
DE102011086512B4 (de) * 2011-11-16 2022-12-01 Bayerische Motoren Werke Aktiengesellschaft Nebeldetektion
US9009083B1 (en) * 2012-02-15 2015-04-14 Google Inc. Mechanism for automatic quantification of multimedia production quality
EP2852831A4 (en) 2012-05-23 2016-04-20 Raqib Omer METHOD AND SYSTEM FOR CLASSIFYING ROLLING SURFACE CONDITIONS
CN102938136A (zh) * 2012-07-19 2013-02-20 中国人民解放军国防科学技术大学 基于Bayer格式的单幅图像快速去雾方法
US8755628B2 (en) 2012-09-10 2014-06-17 Google Inc. Image de-hazing by solving transmission value
JP5561396B1 (ja) 2013-02-19 2014-07-30 日本電気株式会社 運転支援システムおよび運転支援方法
US9025140B2 (en) * 2013-05-07 2015-05-05 Google Inc. Methods and systems for detecting weather conditions including sunlight using vehicle onboard sensors
CN105339984B (zh) * 2013-06-28 2019-03-19 皇家飞利浦有限公司 利用图像噪声信息的方法
US9514373B2 (en) * 2013-08-28 2016-12-06 Gentex Corporation Imaging system and method for fog detection
US20150178930A1 (en) * 2013-12-20 2015-06-25 Qualcomm Incorporated Systems, methods, and apparatus for generating metadata relating to spatial regions of non-uniform size
CN103745438A (zh) * 2013-12-31 2014-04-23 中国科学院深圳先进技术研究院 大面积背景光含雾图像的去雾方法
CN106536299B (zh) * 2014-05-22 2019-06-28 御眼视觉技术有限公司 基于检测对象制动车辆的系统和方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190110385A (ko) * 2018-03-20 2019-09-30 연세대학교 산학협력단 다중 정보 통합 장치와 방법 및 이를 구비하는 다중 정보 통합 인식 시스템
KR102080986B1 (ko) 2018-03-20 2020-02-24 연세대학교 산학협력단 다중 정보 통합 장치와 방법 및 이를 구비하는 다중 정보 통합 인식 시스템
JP7430714B2 (ja) 2018-10-11 2024-02-13 セノ メディカル インストルメンツ,インク. 病変特性を自動的に推定するための光音響画像分析の方法およびシステム
KR102346752B1 (ko) * 2021-11-04 2022-01-03 주식회사 케이피엔 저시정 영상개선 기능을 갖는 영상처리 시스템 및 이의 영상처리 방법

Also Published As

Publication number Publication date
EP3146464A1 (en) 2017-03-29
KR20170010315A (ko) 2017-01-26
WO2015179528A1 (en) 2015-11-26
US20150339811A1 (en) 2015-11-26
CN106462737A (zh) 2017-02-22
US9846927B2 (en) 2017-12-19

Similar Documents

Publication Publication Date Title
US9846927B2 (en) Systems and methods for haziness detection
US20210217212A1 (en) Method and system for automatically colorizing night-vision images
US11178324B2 (en) Focusing method and device, electronic device and computer-readable storage medium
WO2019233263A1 (zh) 视频处理方法、电子设备、计算机可读存储介质
CN107209856B (zh) 环境场景状况检测
EP3848849A1 (en) Object recognition method of autonomous driving device, and autonomous driving device
Negru et al. Image based fog detection and visibility estimation for driving assistance systems
CN111507210B (zh) 交通信号灯的识别方法、系统、计算设备和智能车
JP2018508078A (ja) オブジェクト追跡のためのシステムおよび方法
US11715180B1 (en) Emirror adaptable stitching
JP2018523877A (ja) オブジェクト追跡のためのシステムおよび方法
CN104952060B (zh) 一种红外行人感兴趣区域自适应分割提取方法
EP3152706A1 (en) Image capturing parameter adjustment in preview mode
CN109712177B (zh) 图像处理方法、装置、电子设备和计算机可读存储介质
US20190164259A1 (en) Method and apparatus for removing turbid objects in an image
CN115226406A (zh) 图像生成装置、图像生成方法、记录介质生成方法、学习模型生成装置、学习模型生成方法、学习模型、数据处理装置、数据处理方法、推断方法、电子装置、生成方法、程序和非暂时性计算机可读介质
JP2022522375A (ja) 画像収集制御方法、装置、電子デバイス、記憶媒体及びコンピュータプログラム
US20210312200A1 (en) Systems and methods for video surveillance
JP2010226652A (ja) 画像処理装置、画像処理方法、および、コンピュータプログラム
CN107230373B (zh) 信息推荐方法、装置、计算机可读存储介质和移动终端
JP2016166794A (ja) 画像作成装置、画像作成方法、画像作成装置用プログラム、および、画像作成システム
Negru et al. Fog assistance on smart mobile devices
CN107948620B (zh) 基于高级驾驶辅助系统的双目摄像头调试方法
JP2019139471A (ja) 画像処理装置、方法及びプログラム
JP6901647B1 (ja) 視程推定装置、視程推定方法、および、記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170203

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200212