JP2018514011A - 環境シーン状態検出 - Google Patents

環境シーン状態検出 Download PDF

Info

Publication number
JP2018514011A
JP2018514011A JP2017541922A JP2017541922A JP2018514011A JP 2018514011 A JP2018514011 A JP 2018514011A JP 2017541922 A JP2017541922 A JP 2017541922A JP 2017541922 A JP2017541922 A JP 2017541922A JP 2018514011 A JP2018514011 A JP 2018514011A
Authority
JP
Japan
Prior art keywords
scene
image
data
sharpness score
sharpness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017541922A
Other languages
English (en)
Inventor
ジョン、シン
グオ、フェン
シュ、シリ
レン、ジャンフェン
ヤン、ヤン
ガオ、ダシャン
ヤン、ルイドゥオ
ビスワス、マイナック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2018514011A publication Critical patent/JP2018514011A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60HARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
    • B60H1/00Heating, cooling or ventilating [HVAC] devices
    • B60H1/00642Control systems or circuits; Control members or indication devices for heating, cooling or ventilating devices
    • B60H1/00735Control systems or circuits characterised by their input, i.e. by the detection, measurement or calculation of particular conditions, e.g. signal treatment, dynamic models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/18Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights being additional front lights
    • B60Q1/20Fog lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/04Wipers or the like, e.g. scrapers
    • B60S1/06Wipers or the like, e.g. scrapers characterised by the drive
    • B60S1/08Wipers or the like, e.g. scrapers characterised by the drive electrically driven
    • B60S1/0818Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like
    • B60S1/0822Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like characterized by the arrangement or type of detection means
    • B60S1/0833Optical rain sensor
    • B60S1/0844Optical rain sensor including a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Thermal Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Air-Conditioning For Vehicles (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

データを処理する方法が、コンピューティングデバイスにおいて、画像センサによってキャプチャされた画像を表すデータを受信することを含む。この方法はまた、第1のシーン鮮明さスコアを決定することを含む。この方法は、第1のシーン鮮明さスコアがしきい値を満たすかどうかを決定することと、第1のシーン鮮明さスコアがしきい値を満たす場合、このデータから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定することとをさらに含む。【選択図】 図5

Description

関連出願への相互参照
[0001]本願は、2015年2月11日に出願された、共同所有される米国非仮特許出願第14/619,354号の優先権を主張し、その内容は、その全文が参照により本明細書に明確に組み込まれる。
[0002]本開示は、一般にシーン検出に関する。より具体的には、本開示の態様は、環境シーン状態(environmental scene conditions)の検出に関する。
関連技術の説明
[0003]様々な環境状態が、シーンの視認性を損ない得る。例えば、霧、煙霧、雨、スモッグ、雪、みぞれ、結露、ウィンタリーミックス(wintery mix)、および/または他の環境状態は、このような状態がシーンにない場合に比べて、シーンをより低い鮮明さにし得る(make a scene less clear)。加えて、環境状態は、シーン内の他のオブジェクトを見えにくくし得る。したがって、環境シーン状態は、ドライバによって見られるシーンに存在するとき、車両(vehicle)を運転することをより困難にし得る。さらに、いくつかの車両は、先進運転支援システム(ADAS:advanced driver assistance system)を装備し得る。ADASは、車両周辺のエリアの画像をキャプチャするカメラからデータを受信し得る。いくつかのインプリメンテーションでは、カメラは、フロントガラスを通しての鮮明さ状態(clarity condition)が、キャプチャされた画像の鮮明さに影響を及ぼし得るように、車両内に配置(positioned)され得る。すなわち、車両内の環境および/または車両外の環境の状態は、キャプチャされた画像の鮮明さに影響を及ぼし得る。例えば、車両内と周囲環境の間の温度は、霧、雨、または煙霧、または車両外のその他の環境状態なしに、フロントガラス上に曇りまたは結露を生じさせ得る。ADASは、車両の操作(operation of the vehicle)を支援するために、画像に基づいて、様々な機能を実行し得る。しかしながら、キャプチャされた画像が(例えば、環境シーン状態により)不鮮明である場合、ADASは、正常に機能できないことがあり得、および/または、ドライバは、必要な操作を実行する能力が低下し得る。
[0004]例えば、煙霧、スモッグ、および/または天気などの、環境シーン状態を検出し、これら状態に基づいてアクションを開始するためのシステムおよび方法が開示される。環境シーン状態は、不鮮明であるとしてカテゴリ化されている画像に基づいて検出され得る。これらアクションは、画像を鮮明にするために画像処理を使用すること、メッセージを出力すること、デバイスの1つまたは複数のシステムを起動すること、またはこれらの組合せを含み得る。システムおよび方法は、電子デバイス、自動車システムコンソール(例えば、ADAS)、モバイルデバイス、ゲーミングコンソール、ウェアラブルデバイス(例えば、パーソナルマウントカメラ)、ヘッドマウントディスプレイなどでインプリメントされ得る。追加の例は、それに限定されるものではないが、ロボットまたはロボティスクデバイス、無人航空機(UAV)、およびドローンを含む。
[0005]例えば、環境シーン状態検出モジュールは、車両から見えるシーンを表す入力画像を受信し得、入力画像が(例えば、雨、霧、曇ったフロントガラス、スモッグなどによる)1つまたは複数の環境シーン状態を含むかどうかを決定し得る。画像が1つまたは複数の環境シーン状態を含むかどうかを決定するために、環境シーン状態検出モジュールは、入力画像を記述するデータから第1のデータ(例えば、ダークな特徴データ(dark feature data)を抽出し、第1のシーン鮮明さスコア(first scene clarity score)を決定するために、第1のデータを第1のシーン鮮明さモデル(例えば、線形サポートベクターモデルのような、教師あり機械学習モデル(supervised machine learning model))と比較し得る。環境シーン状態検出モジュールは、第1のシーン鮮明さスコアを第1のしきい値と比較し得、第1のシーン鮮明さスコアが第1のしきい値を満たさないとき、入力画像が、シーンをより低い鮮明さにし得る1つまたは複数の環境シーン状態を含まないことを決定する。したがって、鮮明なシーンの画像は、より複雑な勾配位相動作(gradient phase operations)を実行することなく、ダークな特徴に基づいて識別され得る。
[0006]第1のシーン鮮明さスコアが第1のしきい値を満たすとき、環境シーン状態検出モジュールは、入力画像を記述するデータから第2のデータ(例えば、ダークな特徴データおよび勾配位相データ)を抽出し、第2のデータを第2のシーン鮮明さモデル(例えば、線形サポートベクターモデルのような、教師あり機械学習モデル)と比較することによって、第2のシーン鮮明さスコアを決定し得る。環境シーン状態検出モジュールは、第2のシーン鮮明さスコアが第2のしきい値を満たすとき、入力画像が鮮明でないことを決定し得る。環境シーン状態検出モジュールは、画像が鮮明でないとき、および/または、画像が鮮明でない可能性があることを示す1つまたは複数の環境状態を画像が含むとき、アクション(例えば、鮮明化された画像を生成するために画像を向上させること(enhancing)、警告を生成すること、車両に搭載されたライトシステム(light system)を起動すること、他の車両システムを起動すること、表示を拡張すること(augmenting a display)、別のデバイスにメッセージを送ることなど)をさらに開始し得る。アクションは、不鮮明な状態における車両のより安全な操作を可能にし得る。
[0007]一態様では、データを処理する方法が、コンピューティングデバイスにおいて、画像センサによってキャプチャされた画像を表すデータを受信することを含む。この方法はまた、このデータから抽出された第1のデータに基づいて、画像の第1のシーン鮮明さスコアを決定することを含む。この方法は、第1のシーン鮮明さスコアがしきい値を満たすかどうかを決定することと、第1のシーン鮮明さスコアがしきい値を満たす場合、このデータから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定することとをさらに含む。
[0008]別の態様では、装置がコンピューティングデバイスを含む。コンピューティングデバイスは、画像センサによってキャプチャされた画像を表すデータを受信するように構成される。コンピューティングデバイスは、このデータから抽出された第1のデータに基づいて、画像の第1のシーン鮮明さスコアを決定するようにさらに構成され得る。コンピューティングデバイスは、このシーン鮮明さスコアがしきい値を満たすかどうかを決定するように構成され得る。第1のシーン鮮明さスコアがしきい値を満たす場合、コンピューティングデバイスは、このデータから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定し得る。
[0009]別の特定の態様では、コンピュータ可読記憶媒体が、プロセッサによって実行されると、プロセッサに動作(operations)を実行させる命令を記憶する。これら動作は、画像センサによってキャプチャされた画像を表すデータを受信することを含む。これら動作はまた、このデータから抽出された第1のデータに基づいて、画像の第1のシーン鮮明さスコアを決定することを含む。これら動作は、第1のシーン鮮明さスコアがしきい値を満たすかどうかを決定することと、第1のシーン鮮明さスコアがしきい値を満たす場合、このデータから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定することとをさらに含む。これら動作は、第2のシーン鮮明さスコアに基づいて、アクションを自動的に開始するかどうかを決定することをさらに含む。
[0010]本開示の他の態様、利点、および特徴が、下記のセクション:図面の簡単な説明、発明の詳細な説明、および特許請求の範囲、を含む本願全体のレビュー後に明らかになるであろう。
[0011]図1は、環境シーン状態検出のための特定のシステムを例示する特定のブロック図である。 [0012]図2は、環境シーン状態検出の特定の方法を例示するフローチャートである。 [0013]図3は、環境シーン状態検出のための別のシステムを例示するブロック図である。 [0014]図4は、鮮明化された画像を生成するために使用され得るローカルトーンマッピング(LTM)関数(functions)を例示する図である。 [0015]図5は、環境シーン状態の別の特定の方法を例示するフローチャートである。 [0016]図6は、環境シーン状態のために使用され得るデバイスを例示するフローチャートである。
発明の詳細な説明
[0017]図1を参照すると、環境シーン状態を検出するためのシステム100を例示するブロック図が示される。システム100は、画像センサ102(例えば、カメラ)を含む。画像センサ102は、シーン122の画像をキャプチャするように配置され得る。シーン122は、車両から見えるシーンを表すか、人間の視野を表すか(例えば、画像センサ122は、データグラスまたは別のヘッドマウントカメラ中に含まれ得る)、または無人航空機のようなロボットを取り囲むシーンを表し得る。さらなる例では、シーン122は、モバイルフォンまたはタブレットコンピュータのような、モバイルデバイスによってキャプチャされ得る。
[0018]シーン122が車両から見えるシーンを表す例では、画像センサ102によってキャプチャされたシーン122の画像は、フロントガラス(例えば、画像センサ122は、バックミラーアセンブリに取り付けられ得る)または車両の他のウィンドウを通してキャプチャされ得る。このような事例では、画像は、車両内からと、車両外からの環境状態を含み得る。他の例では、画像センサ102は、車両外にあり得る。画像センサ102は、静止画像、ビデオ、または両方を撮ることが可能なデジタルカメラであり得る。特定の例では、システム100は、1つより多くの画像センサを含む。例えば、システム100は、リアウィンドウ、サイドウィンドウ、フロントガラス、またはこれらの組合せに対応した画像センサを含み得る。特定の例では、画像センサ102は、1秒当たり30個の画像をキャプチャするように構成される。
[0019]システム100は、コンピューティングデバイス106をさらに含む。画像センサ102は、コンピューティングデバイス106と(例えば、ワイヤードまたはワイヤレス接続を介して)通信状態にある。コンピューティングデバイス106および画像センサ102は、ほぼ同じ位置または異なる位置に位置し得る。例えば、コンピューティングデバイス106および画像センサ102の両方が、車両内に搭載されて位置し(located onboard)得る。別の例では、コンピューティングデバイス106は、車両内に搭載されて位置し得、一方、画像センサ102は、車両外に位置する。例えば、画像センサ102は、コンピューティングデバイス106を含む車両と通信状態にある異なる車両内に位置し得る。別の例示的な例では、画像センサ102は、コンピューティングデバイス106を含む車両と通信状態にある、固定サイト(例えば、気象観測所)において、またはモバイルなインフラストラクチャの断片(piece of infrastructure)(例えば、気象観測気球)において、位置し得る。さらに、画像センサ102は、車両内に搭載されて位置し得、一方、コンピューティングデバイス106は、車両と通信状態にある位置(例えば、コンピューティングセンター)において離れて位置する。先の例が、車両に対する画像センサ102とコンピューティングデバイス106の相対的な位置を例示する一方で、いくつかのインプリメンテーションでは、画像センサ102もコンピューティングデバイス106も車両内に位置しないことに留意されたい。例えば、画像センサ102およびコンピューティングデバイス106のうちの1つまたは両方が、ロボット、ウェアラブルコンピューティングデバイス、ゲーミングシステム上、またはモバイルデバイス(例えば、モバイルフォンまたはタブレットコンピュータ)上に位置し得る。
[0020]コンピューティングデバイス106は、環境シーン状態検出モジュール108を含み得る。環境シーン状態検出モジュール108および環境シーン状態検出モジュール108の構成要素は、ハードウェアまたはソフトウェアに対応し得る。例えば、環境シーン状態検出モジュール108は、コンピューティングデバイス106のプロセッサ(例えば、中央処理装置、画像信号プロセッサ、またはこれらの組合せ)において実行されるソフトウェア、コンピューティングデバイス106の画像信号プロセッサに統合されたハードウェア、またはこれらの組合せに対応し得る。
[0021]システム100の動作が、図2を参照して説明される。図2は、方法200を例示するフローチャートを示す。方法200は、不鮮明な画像を検出するためのカスケード分類器(cascade classifier)の動作に対応し得る。方法200は、ブロック202において、入力画像を受信することを含む。例えば、環境シーン状態検出モジュール108は、画像センサ102から画像を表す画像データ103を受信し得る。この画像は、シーン122を描写(depict)し得る。ある特定の環境シーン状態(例えば、天気、照明など)は、画像における特徴がより低い鮮明さで見えるようにし得る。例えば、車両は、霧の中を通って、または雨の中を通って移動し得る。加えて、それを通して画像センサ102が画像をキャプチャするウィンドウ(例えば、フロントガラス121)は、車両内の温度と車両外の温度との間の差により曇った状態であり得、さもなければ結露または霜により不鮮明であり得る。画像における特徴が認識しにくい(例えば、画像が「不鮮明」である)とき、画像は、環境シーン状態(例えば、雨、霧、曇ったフロントガラス、スモッグ、煙霧など)を示し得る。システム100および方法200が、車両支援アプリケーション(例えば、ADAS)と連携して使用される例では、不鮮明な画像は、車両の運転者が車両外のシーン122の特徴(例えば、道路標識、車線、歩行者、他の車両、木など)を見ることができない可能性があることのインジケータであり得る。環境シーン状態検出モジュール108は、画像センサ102からの不鮮明な画像を検出し得、車両の操作をより安全にするためのアクションを開始し得る。
[0022]方法200は、ブロック204において、入力画像をオプションでサイズ変更することをさらに含む。例えば、環境シーン状態検出モジュール108は、画像をサイズ変更するために、画像データ103を変換(transform)し得る。特定の例では、環境シーン状態検出モジュール108は、320×240の解像度に画像をサイズ変更し得る。画像をサイズ変更することは、環境シーン状態検出モジュール108が、(例えば、この画像よりも、サイズ変更された画像がより小さいので)より少ない計算リソースを使用して環境シーン状態検出を実行することを可能にし得る。特定の例では、環境シーン状態検出モジュール108は、画像をサイズ変更するために、ソフトウェアを実行するか、またはハードウェアモジュール(例えば、画像プロセッサのハードウェアモジュール)を利用し得る。
[0023]方法200は、ブロック206において、画像から第1の特徴(例えば、カスケード分類器の第1ステージの分類器(a first stage classifier))を抽出することをさらに含む。例えば、環境シーン状態検出モジュール108は、画像データ103から第1のデータ104を抽出し得る。第1のデータ104は、画像のチャネルにおける高いインテンシティ値(high intensity values)を記述するダークな特徴データに対応し得る。例えば、画像が赤、緑、青(RGB)画像であるとき、ダークな特徴データは、画像におけるどの画素が、画像の赤チャネル、緑チャネル、および青チャネルの各々において高い値を含むかを記述し得る。システム100および方法200は、代替セットのチャネル(例えば、シアン、マゼンタ、黄、および黒(CMYK))を含むデジタル画像と互換性があることに留意されたい。第1のデータ104は、画像におけるコントラストを示し得る。例えば、ダークな特徴データは、高いインテンシティ値を有する画素(例えば、ダークな特徴)を識別し得る。ダークな特徴データは、識別された画素のインテンシティ値をさらに識別し得る。したがって、ダークな特徴データは、画像のダークな領域における画素間のインテンシティの差(例えば、コントラスト)を決定するために使用され得る。
[0024]方法200は、ブロック208において、第1の特徴(例えば、ダークな特徴)に基づいて、第1のシーン鮮明さスコアを生成することをさらに含む。例示的な例では、第1のシーン鮮明さスコア111は、第1のシーン鮮明さモデル110を使用して生成される。例えば、第1のシーン鮮明さモデル110は、入力画像および/または入力ビデオ(例えば、サンプル画像および/またはサンプルビデオ)のセットに基づいて「トレーニングされた」教師あり機械学習モデルであり得、ここで、各画像は、「鮮明」または「不鮮明」であるとして、(例えば、第1のシーン鮮明さモデル110のベンダーによって)予めカテゴリ化される。いくつかの例では、第1のシーン鮮明さモデル110は、線形サポートベクターモデル(SVM)である。「トレーニング」フェーズ中、各追加の入力画像が第1のシーン鮮明さモデル110に提供されるにつれて、第1のシーン鮮明さモデル110は、「鮮明」と「不鮮明」の間の機械学習された「境界」を調整する。この境界は、入力画像のダークな特徴に基づいて、入力画像を分け得る。いくつかの例では、第1のシーン鮮明さモデル110は、テストビデオシーケンスの1つまたは複数のフレームが不鮮明または鮮明であるとして予めカテゴリ化されている、テストビデオシーケンスに基づく。いったん第1のシーン鮮明さモデル110がトレーニングされると、画像についてのシーン鮮明さスコアは、画像(または画像データ)のダークな特徴が境界の「鮮明」側にあるか、または「不鮮明」側にあるか、および/または、ダークな特徴が境界からどれくらい離れているかに基づいて決定され得る。不鮮明であるとして分類されている画像は、この画像が環境シーン状態(例えば、雨、霧、曇ったフロントガラス、スモッグ、煙霧など)による影響を受けていることのインジケーションであり得る。したがって、第1のシーン鮮明さモデル110を第1のデータ104と比較することによって、環境シーン状態検出モジュール108は、画像が環境シーン状態によって影響を受けている確率を示す第1のシーン鮮明さスコア111を生成することが可能であり得る。
[0025]方法200は、ブロック210において、第1のシーン鮮明さスコアを第1のしきい値と比較すること(例えば、カスケード分類器の第1ステージの分類器に基づいて、画像が鮮明であるかどうかを決定すること)をさらに含む。例えば、環境シーン状態検出モジュール108は、第1のシーン鮮明さスコア111を第1のしきい値112と比較し得る。第1のしきい値112は、第1のシーン鮮明さスコア111に基づいて画像が不鮮明であるしきい値確率に対応し得る。特定の例では、第1のしきい値112は50%である(例えば、第1のシーン鮮明さスコア111が、第1のデータ104に基づいて、画像が鮮明であるよりも不鮮明である可能性が高いことを示すとき、第1のシーン鮮明さスコア111は、第1のしきい値112を満たす)。第1のシーン鮮明さスコア111を第1のしきい値112と比較することは、不鮮明な画像を検出するために、カスケード分類器の第1ステージ中に実行され得る。
[0026]第1のシーン鮮明さスコアが第1のしきい値を満たさないとき、方法200は、ブロック202に進む。例えば、第1のシーン鮮明さスコア111が第1のしきい値112を満たさないとき、環境シーン状態検出モジュール108は、鮮明であるとして画像を分類し、分類すべき別の画像を受信するのを待ち得る。
[0027]方法200は、ブロック212において、第1のシーン鮮明さスコアが第1のしきい値を満たすとき、画像から第2の特徴(例えば、カスケード分類器の第2ステージの分類器)を抽出することをさらに含む。例えば、第1のシーン鮮明さスコア111が第1のしきい値112を満たすとき、環境シーン状態検出モジュール108は、画像を表すデータから第2のデータ105を抽出し得る。特定の例では、第2のデータ105は、画像の勾配位相を記述するデータ(例えば、勾配特徴データ)に加えて、ダークな特徴データを含む。勾配位相は、画像における画素のインテンシティ値の方向の変化を記述し得る。第2のデータ105が画像全体にわたるインテンシティ値の変化についてのより多くの情報を含み得るので、第2のデータ105は、第1のデータ104よりも、画像におけるコントラストをより示し得る。しかしながら、第2のデータ105は、より多くの情報を含み得るので、第2のデータ105を決定すること/処理することは、より時間がかかり/計算処理上費用がかかり得る。
[0028]方法200は、ブロック214において、第2のシーン鮮明さスコアを決定するために、第2の特徴を第2のシーン鮮明さモデルと比較することをさらに含む。例示的な例では、第2のシーン鮮明さスコア115は、第2のシーン鮮明さモデル114を使用して生成される。例えば、第2のシーン鮮明さモデル114は、入力画像および/またはビデオ(例えば、サンプル画像および/またはサンプルビデオ)のセットに基づいて「トレーニングされた」教師あり機械学習モデルであり得、ここで、各画像は、「不鮮明」または「鮮明」であるとして、(例えば、第2のシーン鮮明さモデル114のベンダーによって)予めカテゴリ化される。いくつかの例では、第2のシーン鮮明さモデル114は、線形サポートベクターモデル(SVM)である。「トレーニング」フェーズ中、各追加の入力画像が第2のシーン鮮明さモデル114に提供されるにつれて、第2のシーン鮮明さモデル114は、「不鮮明」と「鮮明」の間の機械学習された「境界」を調整する。この境界は、入力画像のダークな特徴と勾配位相の組合せに基づいて、入力画像を分け得る(一方で、第1のシーン鮮明さモデル112における境界は、ダークな特徴のみに基づいて入力画像を分け得る)。例えば、各入力画像は、空間におけるデータ点であると考えられ得る(空間は、3つより多くの次元を含み得る)。各点は、ダークな特徴と勾配位相に対応する座標によって定義され得、境界は、空間における入力画像を不鮮明な画像と鮮明な画像に分割する超平面に対応し得る。いくつかの例では、第2のシーン鮮明さモデル114は、テストビデオシーケンスの1つまたは複数のフレームが不鮮明または鮮明であるとして予めカテゴリ化されている、テストビデオシーケンスに基づく。いったん第2のシーン鮮明さモデル114がトレーニングされると、シーン鮮明さスコアは、画像(または画像データ)のダークな特徴と勾配位相の組合せ(例えば、空間における画像の座標)が境界(例えば、超平面)の「不鮮明」側にあるか、または「鮮明」側にあるか、および/または、ダークな特徴と勾配位相の組合せが境界からどれくらい離れているかに基づいて決定され得る。環境シーン状態検出モジュール108したがって、第2のシーン鮮明さモデル114を第2のデータ105と比較することによって、は、画像が不鮮明である(例えば、環境シーン状態による影響を受けている)確率を示す第2のシーン鮮明さスコア115を生成し得る。
[0029]方法200は、ブロック216において、第2のシーン鮮明さスコアを第2のしきい値と比較すること(例えば、第2ステージの分類器に基づいて、画像が不鮮明であるかどうかを決定すること)をさらに含む。例えば、環境シーン状態検出モジュール108は、第2のシーン鮮明さスコア115を第2のしきい値116と比較し得る。第2のしきい値116は、第2のシーン鮮明さスコア115に基づいて画像が不鮮明であるしきい値確率に対応し得る。特定の例では、第2のしきい値116は50%である(例えば、第2のシーン鮮明さスコア115が、第2のデータ105に基づいて、画像が鮮明であるよりも不鮮明である可能性が高いことを示すとき、第2のシーン鮮明さスコア114は、第2のしきい値116を満たす)。代替として、第2のしきい値116は、第1のしきい値112とは異なり得る。例えば、第1のしきい値112は、第1のしきい値112に基づいて、より少ない画像が不鮮明であるとの考慮から除外されるように、第2のしきい値116よりも緩やか(less strict)になり得る。第2のシーン鮮明さモデル114を第2のデータ105と比較することは、第1のシーン鮮明さモデル110を第1のデータ104と比較するよりも、より計算処理上複雑であり得、より多くの時間がかかり得る。したがって、カスケード分類器を使用すること(例えば、第1の分類器に基づいて、画像が不鮮明であるかどうかを決定することと、その後、画像が第1の分類器に基づいて不鮮明であるとして分類されたとき、第2の分類器に従って、画像が不鮮明であるかどうかを決定することと)によって、環境シーン状態検出モジュール108は、相対的に複雑さがより低い特徴に基づいて、いくつかの画像が鮮明であると決定することによって、時間および/またはコンピューティングサイクルを節約し得る。方法200は、ますます正確(および複雑)な分類器を使用することによって、画像が不鮮明であることを確定することによって、正確さを維持し得る。図2に示される方法200のフローチャートが2つのステージを含む一方で、2つより多くのカスケード分類器のステージが代替の実施形態において含まれ得ることに留意されたい。例えば、第3ステージの分類器は、ダークな特徴データ、勾配位相データ、および光特徴(light feature)を含み得る。
[0030]方法200は、ブロック218において、第2のシーン鮮明さスコアが第2のしきい値を満たすとき、アクションを開始することをさらに含む。例えば、第2のシーン鮮明さスコア115が第2のしきい値116を満たすとき、環境シーン状態検出モジュール108は、不鮮明であるとして画像を分類し得、図3を参照して車両に関連するアクションを開始するように構成されるシステム100のコンテキストにおいてさらに詳細に説明されるように、1つまたは複数のアクション(例えば、1つまたは複数のモジュールにおいて1つまたは複数のアクションを開始するように構成された出力118を送信すること)を開始し得る。他のコンテキストでは、これらアクションは、ロボット(例えば、UAV)による使用、モバイルデバイス(例えば、モバイルフォンまたはタブレットコンピュータ)、ウェアラブルデバイス(例えば、パーソナルマウントカメラ)、ヘッドマウントディスプレイ、ゲーミングシステムなどによる使用のために画像を鮮明にするための画像処理を実行することを含み得る。これらアクションはまた、ロボット(例えば、UAV)、モバイルデバイス(例えば、モバイルフォンまたはタブレットコンピュータ)、ウェアラブルデバイス(例えば、パーソナルマウントカメラ)、ヘッドマウントディスプレイなどについての、1つまたは複数のシステムを起動することまたは調整することを含み得る。例えば、不鮮明な画像を検出することに応答して、システム100は、UAVに、UAVが飛行している高度を増大または低減させ得る。代替として、システム100は、UAVに、その後別のデバイスに転送されるおよび/またはUAVの動きを制御するために使用されることができる鮮明化された画像データを作成するために、画像データを処理させ得る。画像センサ102およびコンピューティングデバイス106のいずれも、開始されたアクションを実行するデバイス中に含まれない可能性があることに留意されたい。例えば、モバイルデバイスは、画像センサ102およびコンピューティングデバイス106を含み得る。不鮮明な画像を検出することに応答して、モバイルデバイス(例えば、モバイルフォン)は、別のデバイス(例えば、ロボット)にメッセージを送ることによってアクションを開始し得る。方法200は、1つまたは複数のアクションを開始した後、202に戻り得る。例えば、アクションを開始した後、環境シーン状態検出モジュール108は、別の入力画像を受信するのを待ち得る。
[0031]方法200は、第2のシーン鮮明さスコアが第2のしきい値を満たさないとき、ブロック202に戻る。例えば、第2のシーン鮮明さスコア115が第2のしきい値116を満たさないとき、環境シーン状態検出モジュール108は、鮮明であるとして画像を分類し、別の入力画像を待ち得る。
[0032]不鮮明な画像を検出するためにカスケード分類器を使用することは、相対的に複雑さがより低い比較を使用して、鮮明であるとしていくつかの画像を迅速に識別することによって、不鮮明な画像を検出するために使用される時間/コンピュテーションサイクルを低減させ得る。加えて、サイズ変更された画像を使用することは、計算の複雑さを低減させ得る。したがって、環境シーン状態検出モジュール108は、正確さを維持しながらより効率的なシーン検出を可能にし得る。
[0033]図3を参照すると、追加の構成要素を含む、システム100の別のブロック図が示される。システム100は、画像センサ102およびコンピューティングデバイス106を含む。図3に示されるシステム100は、車両に組み込まれるかまたは部分的に組み込まれ得る。例えば、画像センサ102およびコンピューティングデバイス106のうちの1つまたは両方が、車両に組み込まれるか、または車両内に位置し得る。図3は、コンピューティングデバイス106のさらなる詳細を示す。例えば、コンピューティングデバイス106は、ビデオフロントエンドモジュール302、統計モジュール303、画像信号プロセッサ(ISP)305、およびオブジェクト検出モジュール308を含む。モジュール302、303、108、308は、コンピューティングデバイス106において実行されるソフトウェアに対応し得る。代替として、モジュール302、303、108、308の一部または全ては、ISP 305(図示せず)に組み込まれたハードウェアであり得、またはISP 305(図示せず)において実行されるソフトウェアであり得る。ISP 305は、ローカルトーンマッピング(LTM)モジュール306を含む。LTMモジュール306は、ハードウェアモジュールまたはソフトウェアモジュールであり得る。
[0034]システム100は、ヒューマンマシンインタフェース(HMI)310をさらに含む。HMI 310は、ヘッドアップディスプレイ(HUD:heads up display)のようなディスプレイデバイス、スピーカ、またはこれらの組合せに対応し得る。HMI 310は、入力デバイス(例えば、タッチスクリーン、キーボード、コントロールパネル)をさらに含み得る。HMI 310は、車両にインストールされ得る。例えば、HMI 310は、車両のダッシュボードに搭載されるか、または車両のフロントガラスに取り付けられ得る。他の例では、HMI 310は、電話、タブレットコンピュータ、ウェアラブルコンピューティングデバイス(例えば、データグラス)などのような、モバイルデバイスに対応し得る。モバイルデバイスは、車両の運転者によって持ち運ばれ、または見られ得る。
[0035]ビデオフロントエンドモジュール302、環境シーン状態検出モジュール108、ISP 305、オブジェクト検出モジュール308、およびHMI 310は、先進運転支援システム(ADAS)の複数の部分であり得る。
[0036]システム100は、1つまたは複数のセンサ314をさらに含む。1つまたは複数のセンサ314は、(例えば、車両内、車両外、または両方の)1つまたは複数の温度計、ナビゲーションシステム(例えば、衛星ナビゲーションシステム)、光検出および測距(LIDAR:light detection and ranging)デバイス、慣性センサ、マップデータベース、またはこれらの組合せを含み得る。
[0037]システム100は、本体制御ユニット316をさらに含む。本体制御ユニット316は、車両における様々なシステムを制御し得る。例えば、本体制御ユニット316は、ヘッドライト、ハイビームライト、フォグランプ、空調システム、ヒーター、除霜システム、ワイパー、またはこれらの組合せを制御し得る。本体制御ユニット316はまた、ワイドエリアネットワーク接続、パーソナルエリアネットワーク接続、ローカルエリアネットワーク接続、またはこれらの組合せのための、1つまたは複数のインタフェースを含み得る。例えば、本体制御ユニット316は、米国電気電子学会(IEEE)802.11インタフェース、Bluetooth(登録商標)(Bluetoothは、ワシントン州カークランドのBluetooth SIG,Inc.の登録商標である)インタフェース、ロングタームエボリューション(LTE(登録商標))インタフェース、その他任意の通信インタフェース、またはこれらの組合せを含み得る。1つまたは複数のインタフェースは、車両ツー車両通信、車両ツーインフラストラクチャ通信、車両内通信、またはこれらの組合せのために使用され得る。いくつかの例では、システム100は、車両の他のシステムのためのアクチュエータ(図示せず)をさらに含む。例えば、システム100は、ギヤアクチュエータ、スロットルアクチュエータ、ブレーキアクチュエータ、ステアリングアクチュエータ、またはこれらの組合せを含み得る。
[0038]上記で説明されたように、画像センサ102は、車両から見えるシーン(例えば、シーン122)の画像をキャプチャし得る。画像を表す画像データ103は、コンピューティングデバイス106に送られ得る。ビデオフロントエンドモジュール302は、環境シーン状態検出モジュール108に画像データ103を送る前に、画像データ103に対して様々な動作を実行し得る。例えば、いくつかの例では、ビデオフロントエンドモジュール302は、図2のブロック204を参照して説明されたように、画像をサイズ変更するために、画像データ103を変換し得る。ビデオフロントエンドモジュール302はさらに、統計モジュール303に画像データ103を送り得る。統計モジュール303は、画像データ103に基づいて、様々な統計(statisitics)を識別するように構成され得る。例えば、統計モジュール303は、画像データ103によって表される画像が屋内環境を描写することを識別し得る。様々な統計に基づいて、統計モジュール303は、環境シーン状態検出モジュール108をイネーブルまたはディセーブル(enable or disable)にするように構成されたオン/オフ信号304を生成し得る。例えば、車両が屋内にあるとき、統計モジュール303は、環境シーン状態検出モジュール108をディセーブルにし得る。
[0039]環境シーン状態検出モジュール108がイネーブルにされると、環境シーン状態検出モジュール108は、画像データ103によって表される画像が不鮮明であるかどうかを決定するために、図1−図2を参照して上記で説明されたように動作する。環境シーン状態検出モジュール108が、不鮮明であるとして画像を識別すると、環境シーン状態検出モジュール108は、HMI信号330、ISPデータ332、およびBCU信号334のうちの1つまたは複数を生成することによって、1つまたは複数のアクションを開始し得る。HMI信号330、ISPデータ332、およびBCU信号334の各々は、図1に示される出力118に対応し得る。特定の例では、環境シーン状態検出モジュール108は、1つまたは複数のセンサ314から受信されるセンサデータ315に基づいて、どのアクションまたは複数のアクションを開始するかを決定する。
[0040]例えば、不鮮明な画像を検出することに応答して、環境シーン状態検出モジュール108は、BCU 316による1つまたは複数のアクションを開始するために、BCU信号334を送り得る。BCU 316は、BCU信号334に応答して、車両の電気システムを(例えば、信号317を送ることによって)起動するように構成され得る。例えば、環境シーン状態検出モジュール108は、BCU 316に、フォグランプを起動すること、ハイビームライトをオフにすること、ワイパーを起動すること、またはこれらの組合せを行わせ得る。
[0041]いくつかのインプリメンテーションでは、環境シーン状態検出モジュール108は、画像センサ102が面しているウィンドウ(例えば、フロントガラス)が曇っているかどうか、または画像センサのレンズが濡れているまたは曇っているかどうかを決定し得る。例えば、画像センサ102は、車両の客室のような、キャビン内に位置し得、車両のウィンドウを通してシーンをキャプチャするように配置され得る。環境シーン状態検出モジュール108は、車両内の第1の温度および車両外の第2の温度などの、複数の温度に関連付けられたおよび/または対応するセンサデータ315を受信し得る。環境シーン状態検出モジュール108は、第1の温度と第2の温度の間の温度差を決定するように構成され得る。温度差が、(車両内の)第1の温度との間の差が(車両外の)温度を超えることを示すとき、環境シーン状態検出モジュール108は、1つには画像センサ102が面しているウィンドウが曇っているという理由で、画像センサ102によってキャプチャされた画像が不鮮明であることを決定し得る。ウィンドウが曇っているという決定に応答して、環境シーン状態検出モジュール108は、例示的な、非限定的な例として、暖房、換気、または空調(HVAC)システムおよび/またはワイパーを起動するなどの、アクションを開始し得る。
[0042]いくつかのインプリメンテーションでは、システム100は、複数の画像センサを含み得、環境シーン状態検出モジュール108は、車両のウィンドウ(例えば、フロントガラス)が損なわれている(例えば、濡れている、曇っている、霜で覆われている、汚れている、または鮮明さを妨げるようにその他の方法で汚染されている)かどうか、または特定の画像センサのレンズが損なわれているかどうかを決定し得る。複数の画像センサは、第1の画像(例えば、画像データ103)を生成する画像センサ102と、第2の画像(例えば、第2の画像データ)を生成する第2の画像センサ(図示せず)とを含み得る。画像センサ102は、車両のキャビン内に位置し得、ウィンドウを通してシーンをキャプチャするように配置され得る。第2の画像センサは、車両に搭載されてか、または車両から遠く離れて位置してのいずれかで、車両外に位置し得る。環境シーン状態検出モジュール108は、第1の画像および第2の画像を受信し得、図2を参照して説明されたように、これら画像の各々を処理し得る。
[0043]第2の画像センサが車両外に(例えば、搭載されてかまたは遠く離れて)位置するとき、環境シーン状態検出モジュール108は、第1の画像が第2の画像よりも鮮明であるかどうかを決定し得る。環境シーン状態検出モジュール108は、第1の画像が鮮明であると決定され、かつ第2の画像が不鮮明であると決定されたとき、第1の画像が第2の画像よりも鮮明であると決定し得る。環境シーン状態検出モジュール108は、第2の画像が鮮明であると決定され、かつ第1の画像が不鮮明であると決定されたとき、第1の画像が第2の画像よりも低い鮮明さであると決定し得る。第1の画像および第2の画像が、両方とも鮮明であると決定された、または両方とも不鮮明であると決定されたとき、環境シーン状態検出モジュール108は、第1の画像のシーン鮮明さスコアを第2の画像のシーン鮮明さスコアと比較し得る。例えば、環境シーン状態検出モジュール108は、第1の画像(例えば、画像データ103)の第1のシーン鮮明さスコア111を、第2の画像の第1のシーン鮮明さスコアまたは第2のシーン鮮明さスコアと比較し得る。代替または追加として、環境シーン状態検出モジュール108は、第1の画像(例えば、画像データ103)の第2のシーン鮮明さスコア115を、第2の画像の第1のシーン鮮明さスコアまたは第2のシーン鮮明さスコアと比較し得る。
[0044](車両内の画像センサ102からの)第1の画像が、(車両外に搭載された、または車両外に遠く離れて位置する第2の画像センサからの)第2の画像よりも鮮明であるという決定に応答して、環境シーン状態検出モジュール108は、HMI 310に、第2の画像センサのレンズが損なわれている(例えば、汚れているまたは濡れている)ことを示させるためのHMI信号330を生成する、および/または、暖房、換気、および空調(HVAC)システムおよび/またはワイパーを起動するなどの、第1のセットの1つまたは複数のアクションを開始し得る。第1の画像が第2の画像よりも低い鮮明さであるという決定に応答して、環境シーン状態検出モジュール108は、HMI 310に、第1の画像センサのレンズが損なわれている(例えば、汚れているまたは濡れている)ことを示させるためのHMI信号330を生成するなどの、第2のセットの1つまたは複数のアクションを開始し得る。したがって、2つの異なる画像センサから受信される画像を比較することによって、環境シーン状態検出モジュール108は、画像センサに関する潜在的な問題(例えば、汚れているおよび/または濡れているレンズ)、または環境(例えば、車両のウィンドウ)に関する潜在的な問題を識別し得る。
[0045]いくつかのインプリメンテーションでは、システム100は、画像センサ102、第2の画像センサ(図示せず)、および第3の画像センサ(図示せず)を含み得る。画像センサ102は、車両のキャビン内に位置し得、第2の画像センサは、車両外に搭載されて位置し得、第3の画像センサは、車両外に遠く離れて位置し得る。これら画像センサの各々は、第1の画像センサ102によって生成される第1の画像(例えば、画像データ103)、第2の画像センサによって生成される第2の画像(例えば、第2の画像データ)、および第3の画像センサによって生成される第3の画像(例えば、第3の画像データ)などの、対応する画像を生成し得る。環境シーン状態検出モジュール108は、第1、第2、および第3の画像の各々を受信し得、図1−図2を参照して説明されたように、これら画像の各々を処理し得る。代替または追加として、環境シーン状態検出モジュール108は、第3の画像センサから環境状態が鮮明または不鮮明であることのインジケーションを受信し得、および/または第3の画像センサに基づいて決定されるシーン鮮明さスコアを受信し得る。環境シーン状態検出モジュール108は、第3の画像が第1の画像および/または第2の画像よりも鮮明であるかどうかを決定するために、第3の画像を第1の画像および/または第2の画像と比較し得る。
[0046](第3の画像センサからの)第3の画像が(画像センサ102からの)第1の画像よりも鮮明であるという決定に応答して、環境シーン状態検出モジュール108は、第1の画像センサのレンズが損なわれているおよび/または車両のウィンドウが損なわれていることを決定し得る。(第3の画像センサからの)第3の画像が(第2の画像センサからの)第2の画像よりも鮮明であるという決定に応答して、環境シーン状態検出モジュール108は、第2の画像センサのレンズが損なわれているおよび/または車両のウィンドウが損なわれていることを決定し得る。第3の画像が第1の画像および/または第2の画像よりも鮮明であるという決定に応答して、環境シーン状態検出モジュール108は、例示的な、非限定的な例として、HMI信号330を生成するおよび/またはBCU信号334を生成するなどの、1つまたは複数のアクションを開始し得る。
[0047]システム100は、1つまたは複数の画像センサを含み得る。例えば、1つまたは複数の画像センサは、車両のキャビン内に位置する画像センサ102および/または車両外に搭載されて位置する第2の画像センサを含み得る。環境シーン状態検出モジュール108は、鮮明または不鮮明であるなどの環境状態情報を示す、外部ソース(例えば、気象サービスとアソシエートされた(associated)コンピューティングデバイス)からのデータを(例えば、BCU 316の通信インタフェースを介して)受信し得る。環境シーン状態検出モジュール108は、環境状態を示すデータを、1つまたは複数の画像センサからの1つまたは複数の画像(例えば、画像データ)に基づく他のデータと比較し得る。例えば、環境シーン状態検出モジュール108は、(車両内に位置する)画像センサ102から第1の画像(例えば、画像データ103)を受信し得、第1の画像を使用して第1の環境状態を決定し得る。
[0048]環境シーン状態検出モジュール108は、環境状態情報を第1の環境状態と比較し得る。環境シーン状態検出モジュール108が、第1の環境状態が不鮮明であることを決定し、一方、外部ソースからの環境状態情報が、環境状態が鮮明であることを示すとき、環境シーン状態検出モジュール108は、ウィンドウが損なわれていることおよび/または画像センサ102のレンズが損なわれていることを決定し得る。別の例として、環境シーン状態検出モジュール108は、環境状態情報を、第2の画像を使用して決定される第2の環境状態と比較し得る。環境シーン状態検出モジュール108が、第2の環境状態が不鮮明であることを決定し、一方、外部ソースからの環境状態情報が、環境状態が鮮明であることを示すとき、環境シーン状態検出モジュール108は、第2の画像センサのレンズが損なわれている(例えば、汚れている、濡れている、または曇っている)ことを決定し得る。
[0049]環境シーン状態検出モジュール108が、ウィンドウが曇っている(またはその他の方法で損なわれている)ことおよび/または画像センサ102のレンズが汚れている(またはその他の方法で損なわれている)ことを決定したとき、BCU信号334は、BCU 316に、暖房、換気、および空調(HVAC)システムおよび/またはワイパーを起動させるように構成された起動信号またはメッセージを含み得る。追加または代替として、環境シーン状態検出モジュール108は、HMI 310に、決定された状態(例えば、ウィンドウが曇っているまたは画像センサ102が汚れている)に対応するメッセージを提示させるためのHMI信号を生成し得る。
[0050]いくつかのインプリメンテーションでは、画像データ103が不鮮明であると決定することに応答して、環境シーン状態検出モジュール108は、BCU 316に、通信インタフェースを介してメッセージを送信させるためのBCU信号334を生成するように構成され得る。例えば、BCU 316は、別の車両にメッセージを送信し得る。このメッセージは、(例えば、画像鮮明化を起動する、システムを起動する、警告を提示する、またはこれらの組合せのような)アクションを実行するように他の車両に命令し得る。したがって、システム100は、他のコンピューティングデバイスのような他のデバイスと、不鮮明であり、潜在的に危険を伴う状態についての情報を共有し得る。
[0051]追加または代替として、環境シーン状態検出モジュール108が、画像データ103によって表される画像が不鮮明であることを検出したとき、環境シーン状態検出モジュール108は、ISP 305にISPデータ332を送り得る。ISPデータ332は、画像データ103または処理されたバージョン(例えば、サイズ変更された)の画像データ103を搬送(carry)し得る。いくつかの例では、ISPデータ332は、画像データ103によって表される画像がキャプチャされた後に、画像センサ102によってキャプチャされた第2の画像を表す第2の画像データ360を含み得る。いくつかの例では、ISP 305は、ビデオフロントエンドモジュール302から直接画像データ(例えば、画像データ103および/または第2の画像データ360)を受信する。このような例では、ISPデータ332は、ISP 305による鮮明化を可能にし得る。いくつかの例では、ISPデータ332は、図1および図2を参照して上記で説明されたように計算された第1のシーン鮮明さスコア111および/または第2のシーン鮮明さスコア115を含む。ISPデータ332に応答して、ISP 305は、鮮明化された画像を表す「鮮明化された(clarified)」画像データ307を生成する。例えば、LTMモジュール306は、画像(または第2の画像)の高いインテンシティの領域におけるローカルコントラストをブーストし得る(例えば、隣接する画素間の差を増大させるために画素のインテンシティ値を調整し、潜在的により鮮明に画像にけるオブジェクトをレンダリングする)。ISPデータ332が第1のシーン鮮明さスコア111および/または第2のシーン鮮明さスコア115を含むとき、LTMモジュール306は、第1のシーン鮮明さスコア111および第2のシーン鮮明さスコア115のうちの1つまたは両方に基づいて、鮮明化された画像データ307を生成し得る。例えば、画像における各画素に対する調整の度合いは、第1のシーン鮮明さスコア111および第2のシーン鮮明さスコア115のうちの1つまたは両方に基づき得る。例えば、第1のシーン鮮明さスコア111および/または第2のシーン鮮明さスコア115が低いときと比較して、第1のシーン鮮明さスコア111および/または第2のシーン鮮明さスコア115が高いとき、より大きな調整が画素のインテンシティに対して適用され得る(例えば、調整の度合いは、第1のシーン鮮明さスコア111および/または第2のシーン鮮明さスコア115と正の相関があり得る)。LTMモジュール306のような、ハードウェアモジュールを使用することによって、システム100は、代替システムよりも迅速に、鮮明化された画像データ307を生成し得る。鮮明化された画像データ307を迅速に生成することは、(例えば、車両が高速で環境を通って移動するにつれて)周囲の状況が迅速に変化する状況において有益であり得る。
[0052]ISP 305は、オブジェクト検出モジュール308に、鮮明化された画像データ307を送り得る。オブジェクト検出モジュール308は、鮮明化された画像におけるオブジェクトを識別し、HMI 310を介して車両の運転者に、検出されたオブジェクト出力309(例えば、衝突警報、速度制限通知、車線支援など)を提供し得る。オブジェクト出力309は、鮮明化された画像において検出されたオブジェクトの視覚表示を含み得る。例えば、HMI 310は、鮮明化された画像を出力し得、鮮明化された画像上にオーバレイを出力し得る。オーバレイは、鮮明化された画像における検出されたオブジェクト(例えば、車線、標識、他の車両、歩行者、動物など)の表示(例えば、外形線(outline)、ハイライトなど)を含み得る。オブジェクト出力309は、(例えば、ディスプレイスクリーン、スピーカなどを介して)HMI 310によって出力される警告を含み得る。警告は、音声警告、テキスト警告、視覚的な警告(例えば、ビデオまたは画像)、またはこれらの組合せを含み得る。例えば、警告は、「前方に木があります」といったアナウンスを含む音声メッセージ、または「前方に歩行者がいます」といったテキストメッセージに対応し得る。いくつかの例では、オブジェクト検出モジュール308は、鮮明化された画像において検出されたオブジェクトに基づいて車両のアクチュエータ(例えば、ステアリング、スロットル、ブレーキ、ギヤシフトなど)を起動するためのメッセージを送り得る。例えば、オブジェクト検出モジュール308は、車両の前方にあるオブジェクトが、鮮明化された画像において検出されたとき、車両のブレーキを起動するためのメッセージを送り得る。
[0053]更なる例として、環境シーン状態検出モジュール108が、画像データ103によって表される画像が不鮮明であることを検出したとき、環境シーン状態検出モジュール108は、HMI 310にHMI信号330を送り得る。HMI信号 330は、HMI 310に、(例えば、ディスプレイスクリーン、スピーカなどを介して)警告を提示させ得る。警告は、音声警告、テキスト警告、視覚的な警告(例えば、ビデオまたは画像)、またはこれらの組合せであり得る。警告は、状態が不鮮明であり、車両の運転者が車両外のオブジェクトを検出することが困難であり得ることを示し得る。
[0054]環境シーン状態検出モジュール108は、画像が鮮明であると決定することに応答して、1つまたは複数の出力を生成し得ることに留意されたい。例えば、環境シーン状態検出モジュール108は、BCU 316に、車両の電子機器を停止させる(例えば、フォグランプ、除霜システムなどをオフにする)ために、BCU 316にBCU信号334を送り得る。環境シーン状態検出モジュール108は、ISP 305の鮮明化機能をオフにするために、ISP 305にISPデータ332を送り得る。さらに、環境シーン状態検出モジュール108は、HMI 310に、(例えば、ディスプレイを介してまたはスピーカを介して)「鮮明な状態」ステータスを出力させるために、HMI 310にHMI信号330を送り得る。
[0055]上記で説明されたように、画像センサおよびコンピューティングデバイス106のうちの1つまたは両方が、車両外に位置し得る。例えば、コンピューティングデバイスは、BCU 316のインタフェースとの確立された接続を通じて車両と通信する計算センターに位置するサーバであり得る。サーバは、この接続を介して車両に、HMI信号330、BCU信号334、オブジェクト出力309、またはこれらの組合せを送り得る。したがって、環境シーン検出および鮮明化は、車両外で実行され得る。さらに、環境シーン検出および鮮明化は、車両外でキャプチャされる画像データに基づいて実行され得る。例えば、画像センサ102は、気象観測所、気象観測気球、別の車両、または何らかの他の位置において位置し得る。
[0056]したがって、システム100は、車両の操作に影響を及ぼし得る不鮮明な状態の検出を可能にし得る。加えて、システム100は、車両を操作することの潜在的な危険を軽減し得るアクションの自動開始を可能にし得る。
[0057]図4を参照すると、鮮明化された画像データ307を生成するために、LTMモジュール306によって使用され得るLTM関数(LTM functions)に対応する様々なグラフを例示する図400が示される。デジタル画像(例えば、画像データ103によって表される画像または第2の画像データ360によって表される第2の画像)は、画素から成り得る。各画素は、1つまたは複数のチャネル(例えば、赤、緑、青)におけるインテンシティ値を有し得る。インテンシティ値は、0〜255の範囲であり得る。画像における各画素について、LTMモジュール306は、隣接する画素のインテンシティに基づいて、1つまたは複数のチャネルにおける画素のインテンシティを調整し得る。LTMマスタ曲線402は、(X軸に沿った)隣接する画素の異なる平均インテンシティについて(Y軸に沿った)画素のインテンシティに適用される調整を示す。例示されるように、LTMモジュール306は、低いインテンシティの領域における画素のインテンシティを増大させ得、また、高いインテンシティの領域における画素のインテンシティを低減させ得る。
[0058]LTMシフト曲線404は、どのように画素のインテンシティが(Y軸に沿って)調整されるかを、インテンシティと隣接する画素の平均インテンシティの間の(Y軸に沿った)差に基づいて示す。LTMマスタ曲線402およびLTMシフト曲線404の両方が、第1のシーン鮮明さスコア111および第2のシーン鮮明さスコア115のうちの1つまたは両方に基づき得る。例えば、画素のインテンシティに対する調整は、シーン鮮明さスコア(第1のシーン鮮明さスコア111および第2のシーン鮮明さスコア115のうちの1つまたは両方)が増大するにつれて、増大し得る。
[0059]図5を参照すると、不鮮明な画像を識別するための方法500を例示するフローチャートが示される。方法500は、ブロック502において、画像センサによってキャプチャされた画像を表すデータを受信することを含み、この画像はシーンを描写する。例えば、コンピューティングデバイス106は、画像データ103を受信し得る。画像データ103は、画像センサ102によってキャプチャされたシーン122の画像を表し得る。いくつかの例では、シーン122は、車両から見えるシーンを表し得る。
[0060]方法500は、ブロック504において、データから抽出された第1のデータに基づいて、画像の第1のシーン鮮明さスコアを決定することをさらに含み、第1のシーン鮮明さスコアは、画像におけるコントラストを示す。例えば、環境シーン状態検出モジュール108は、画像データ103から抽出された第1のデータ104に基づいて、第1のシーン鮮明さスコア111を決定し得る。
[0061]方法500は、ブロック506において、第1のシーン鮮明さスコアをしきい値と比較することをさらに含む。例えば、環境シーン状態検出モジュール108は、第1のシーン鮮明さスコア111を第1のしきい値112と比較し得る。第1のシーン鮮明さスコアがしきい値を満たさない場合、方法500は、ブロック508において、画像が鮮明であること(例えば、いずれの環境シーン状態も検出されないこと)を決定することをさらに含む。例えば、環境シーン状態検出モジュール108は、第1のシーン鮮明さスコア111が第1のしきい値112を満たさないことに応答して、画像データ103によって表される画像が鮮明であることを決定し得る。
[0062]第1のシーン鮮明さスコアがしきい値を満たす場合、方法500は、ブロック510において、このデータから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定することを含み、第2のシーン鮮明さスコアは、画像におけるコントラストを示す。例えば、第1のシーン鮮明さスコア111が第1のしきい値112を満たす場合、環境シーン状態検出モジュール108は、第2のデータ105に基づいて、第2のシーン鮮明さスコア115を決定し得る。
[0063]方法500は、512において、第2のシーン鮮明さスコアに基づいて、アクションを自動的に開始するかどうかを決定することをさらに含む。例えば、環境シーン状態検出モジュール108は、出力118を介してアクションを開始するかどうかを決定するために、第2のシーン鮮明さスコア115を第2のしきい値116と比較し得る。
[0064]したがって、方法500は、画像が不鮮明であるかどうか、およびアクションが開始されるべきであるかどうかを決定するために、2段階の比較(two stage comparison)を使用し得る。
[0065]図6を参照すると、デバイス600(例えば、電子デバイス)の特定の例示的な実施形態のブロック図が図示される。デバイス600は、コンピューティングデバイス106に対応し得る。デバイス600は、メモリ632に結合されたプロセッサ610を含む。プロセッサ610は、環境シーン状態検出モジュール108のような、環境シーン状態検出モジュール664を実行し得る。
[0066]メモリ632は、コンピュータ可読命令またはプロセッサ可読命令のような、命令およびデータを含み得る。データおよび命令は、環境シーン状態検出モジュール664を実行することに関連付けられ得る。
[0067]図6はまた、プロセッサ610とディスプレイ628とに結合されたディスプレイコントローラ626を示す。コーダ/デコーダ(CODEC)634もまた、プロセッサ610に結合されることができる。スピーカ636およびマイクロホン638は、CODEC 634に結合されることができる。スピーカ636、マイクロホン638、ディスプレイ628、またはこれらの組合せは、HMI 310に対応し得る。
[0068]図6はまた、カメラ631を含む。カメラ631は、画像センサ102に対応し得る。カメラ631は、デバイス600に物理的に結合され得るか、またはデバイス600とワイヤレスに通信し得る。
[0069]図6はまた、メモリとプロセッサ610とに結合された画像信号プロセッサ611を含む。画像信号プロセッサ611は、ISP 305に対応し得る。画像信号プロセッサ611は、LTMモジュール612を含む。LTMモジュール612は、ハードウェアモジュールまたはソフトウェアモジュールであり得、LTMモジュール306に対応し得る。
[0070]図6はまた、ワイヤレスインタフェース640が、プロセッサ610とアンテナ642とに結合されることができることを示す。デバイス600は、ワイヤレスインタフェース640およびアンテナ642を介して、本体制御ユニット316またはHMI 310のような、他のデバイスと通信し得る。代替の実施形態では、デバイス600は、ワイヤード接続を介して、本体制御ユニット316またはHMI 310のような、他のデバイスと通信し得る。いくつかのインプリメンテーションでは、プロセッサ610、ディスプレイコントローラ626、メモリ632、CODEC 634、およびワイヤレスインタフェース640は、システムインパッケージまたはシステムオンチップデバイス622に含まれる。特定の実施形態では、入力デバイス630および電源644が、システムオンチップデバイス622に結合される。さらに、特定の実施形態では、図6に例示されるように、ディスプレイ628、入力デバイス630、スピーカ636、マイクロホン638、アンテナ642、および電源644は、システムオンチップデバイス622に外付けである。しかしながら、ディスプレイ628、入力デバイス630、スピーカ636、マイクロホン638、アンテナ642、および電源644の各々は、インタフェースまたはコントローラのような、システムオンチップデバイス622の構成要素に結合されることができる。環境シーン状態検出モジュール664は、プロセッサ610によって実行されるように図示されているが、他のインプリメンテーションでは、環境シーン状態検出モジュール664は、デバイス600の別の構成要素に含まれ得るか、またはデバイス600に結合された構成要素であり得る。例えば、環境シーン状態検出モジュール664は、画像信号プロセッサ611に含まれるハードウェアに対応し得る。
[0071]ある実施形態では、装置が、画像を表すデータを受信するための手段を含む。データを受信するための手段は、画像センサ102、カメラ631、コンピューティングデバイス106、ビデオフロントエンドモジュール302、システムオンチップデバイス622、BCU 316の通信インタフェース、またはこれらの組合せに対応し得る。この装置は、画像をキャプチャするための手段によってキャプチャされた画像を表すデータを受信するように構成された画像処理のための手段をさらに含む。画像処理のための手段は、このデータから抽出された第1のデータに基づいて、画像の第1のシーン鮮明さスコアを決定するようにさらに構成され得る。画像処理のための手段は、第1のシーン鮮明さスコアがしきい値を満たすかどうかを決定し、第1のシーン鮮明さスコアがしきい値を満たす場合、第1のシーン鮮明さスコアがしきい値を満たすときに、このデータから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定するようにさらに構成され得る。画像処理のための手段は、第2のシーン鮮明さスコアに基づいて、アクションを自動的に開始するかどうかを決定するようにさらに構成され得る。画像処理のための手段は、コンピューティングデバイス106、環境シーン状態検出モジュール108、デバイス600、プロセッサ610、環境シーン状態検出モジュール664、またはこれらの組合せに対応し得る。
[0072]開示された実施形態の先の説明は、当業者が開示された実施形態を製造または使用することができるように提供されたものである。これらの実施形態への様々な修正は、当業者には容易に明らかとなり、ここで定義した原理は、本開示の範囲から逸脱することなく他の実施形態に適用され得る。したがって、本開示は、ここに示された実施形態に限定されるようには意図されず、以下の特許請求の範囲によって定義される原理および新規な特徴と一致する最も広い範囲を与えられることとなる。
[0072]開示された実施形態の先の説明は、当業者が開示された実施形態を製造または使用することができるように提供されたものである。これらの実施形態への様々な修正は、当業者には容易に明らかとなり、ここで定義した原理は、本開示の範囲から逸脱することなく他の実施形態に適用され得る。したがって、本開示は、ここに示された実施形態に限定されるようには意図されず、以下の特許請求の範囲によって定義される原理および新規な特徴と一致する最も広い範囲を与えられることとなる。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1] データを処理するための方法であって、
コンピューティングデバイスにおいて、
画像センサによってキャプチャされた画像を表すデータを受信することと、前記画像はシーンを描写する、
前記データから抽出された第1のデータに基づいて、第1のシーン鮮明さスコアを決定することと、
前記第1のシーン鮮明さスコアがしきい値を満たすかどうかを決定することと、
前記第1のシーン鮮明さスコアが前記しきい値を満たす場合、前記データから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定することと
を備える方法。
[C2] 前記第2のシーン鮮明さスコアに基づいて、前記シーンが環境状態を含むかどうかを決定することをさらに備える、C1に記載の方法。
[C3] 前記第2のシーン鮮明さスコアに基づいて、アクションを開始するかどうかを決定することをさらに備える、C2に記載の方法。
[C4] 前記環境状態がビークルのウィンドウ上に存在するかどうかを決定することをさらに備える、C3に記載の方法。
[C5] 前記環境状態が前記ビークルの前記ウィンドウ上に存在するかどうかの前記決定に基づいて、前記ビークルの暖房、換気、および空調(HVAC)システムまたはワイパーを起動することをさらに備える、C4に記載の方法。
[C6] 前記第1のシーン鮮明さスコアおよび前記第2のシーン鮮明さスコアは、前記画像におけるコントラストを示す、C3に記載の方法。
[C7] 前記アクションは、ビークルのフォグランプを起動すること、音声警告を提供すること、視覚的な警告を提供すること、またはこれらの組合せを含む、C3に記載の方法。
[C8] 前記アクションは、鮮明化された画像データを作成するために前記データを処理することを含む、C3に記載の方法。
[C9] 前記鮮明化された画像データを作成することは、前記画像の高いインテンシティの領域におけるローカルコントラストをブーストするために、ローカルトーンマッピング(LTM)を使用することを含む、C8に記載の方法。
[C10] 前記画像における1つまたは複数の画素のインテンシティ値は、前記第1のシーン鮮明さスコアおよび前記第2のシーン鮮明さスコアのうちの1つまたは両方に基づいて選択された量だけ修正される、C8に記載の方法。
[C11] 前記鮮明化された画像データに基づいて、オブジェクト検出を実行することと、前記オブジェクト検出に基づいて、ビークルの出力デバイスに出力を提供することとをさらに備える、C8に記載の方法。
[C12] 前記第1のデータは、前記画像の赤チャネル、緑チャネル、および青チャネルのうちの少なくとも1つにおける高いインテンシティ値を有する前記画像における画素に対応するダークな特徴データを含み、前記第2のデータは、前記ダークな特徴データおよび勾配特徴データを含む、C1に記載の方法。
[C13] 装置であって、
コンピューティングデバイスを備え、前記コンピューティングデバイスは、
画像センサによってキャプチャされた画像を表すデータを受信し、前記画像はシーンを描写する、
前記データから抽出された第1のデータに基づいて、前記画像の第1のシーン鮮明さスコアを決定し、
前記第1のシーン鮮明さスコアがしきい値を満たすかどうかを決定し、
前記第1のシーン鮮明さスコアが前記しきい値を満たす場合、前記データから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定する
ように構成される、装置。
[C14] 前記コンピューティングデバイスは、前記第2のシーン鮮明さスコアに基づいて、アクションを開始するかどうかを決定するようにさらに構成される、C13に記載の装置。
[C15] 前記コンピューティングデバイスは、ローカルトーンマッピング(LTM)モジュールを含み、前記アクションは、鮮明化された画像データを生成するために、前記LTMモジュールを使用することを含む、C14に記載の装置。
[C16] 前記鮮明化された画像データは、第2の画像を表す追加のデータに基づいて生成され、前記第2の画像は、前記画像センサが前記画像をキャプチャした後に、前記画像センサによってキャプチャされる、C15に記載の装置。
[C17] 前記鮮明化された画像を生成することは、隣接する画素の平均インテンシティ値に基づいて、ローカルコントラストを増大させるために、1つまたは複数の画素のインテンシティ値を修正することを含む、C15に記載の装置。
[C18] 前記鮮明化された画像を生成することは、前記画素の前記インテンシティ値を低減させることを含む、C17に記載の装置。
[C19] 前記画像における1つまたは複数の画素のインテンシティ値は、前記第1のシーン鮮明さスコアおよび前記第2のシーン鮮明さスコアのうちの1つまたは両方に基づいて選択された量だけ修正される、C15に記載の装置。
[C20] 前記量は、前記第1のシーン鮮明さスコアおよび前記第2のシーン鮮明さスコアのうちの1つまたは両方と正の相関がある、C19に記載の装置。
[C21] ビークル内に搭載されたディスプレイデバイスをさらに備え、前記ディスプレイデバイスは、前記鮮明化された画像データによって表される鮮明化された画像を表示するように構成される、C15に記載の装置。
[C22] 前記コンピューティングデバイスは、前記鮮明化された画像データにおけるオブジェクトを検出するように構成される、C15に記載の装置。
[C23] ビークルの暖房、換気、および空調(HVAC)システム、ワイパー、またはフォグランプを起動すること、音声警告を提供すること、視覚的な警告を提供すること、またはこれらの組合せをさらに備える、C14に記載の装置。
[C24] 命令を記憶したコンピュータ可読記憶媒体であって、前記命令は、プロセッサによって実行されると、前記プロセッサに、
画像センサによってキャプチャされた画像を表すデータを受信することと、前記画像はシーンを描写する、
前記データから抽出された第1のデータに基づいて、第1のシーン鮮明さスコアを決定することと、
前記第1のシーン鮮明さスコアがしきい値を満たすかどうかを決定することと、
前記第1のシーン鮮明さスコアが前記しきい値を満たす場合、
前記データから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定することと、
前記第2のシーン鮮明さスコアに基づいて、アクションを開始するかどうかを決定することと
を含む動作を実行させる、コンピュータ可読記憶媒体。
[C25] 前記第1のシーン鮮明さスコアおよび前記第2のシーン鮮明さスコアは、教師あり機械学習モデルを使用して計算される、C24に記載のコンピュータ可読記憶媒体。
[C26] 前記第1のシーン鮮明さスコアは、第1の線形サポートベクターモデルを前記第1のデータと比較することによって計算され、前記第2のシーン鮮明さスコアは、第2の線形サポートベクターモデルを前記第2のデータと比較することによって計算される、C25に記載のコンピュータ可読記憶媒体。
[C27] 前記第1の線形サポートベクターモデルおよび前記第2の線形サポートベクターモデルの各々は、サンプルビデオを使用して生成される、C26に記載のコンピュータ可読記憶媒体。
[C28] 装置であって、
画像を表すデータを受信するための手段と、
前記データから抽出された第1のデータに基づいて、前記画像の第1のシーン鮮明さスコアを決定することと、前記第1のシーン鮮明さスコアは、前記画像におけるコントラストを示す、
前記第1のシーン鮮明さスコアがしきい値を満たすかどうかを決定することと、
前記第1のシーン鮮明さスコアが前記しきい値を満たす場合、
前記データから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定することと、
前記第2のシーン鮮明さスコアに基づいて、アクションを自動的に開始するかどうかを決定することと
を行うように構成された画像処理のための手段と
を備える装置。
[C29] 前記アクションは、鮮明化された画像データを作成するために前記データを処理することを含む、C28に記載の装置。
[C30] 前記アクションは、ビークルのフォグランプを起動すること、音声警告を提供すること、視覚的な警告を提供すること、またはこれらの組合せを含む、C28に記載の装置。

Claims (30)

  1. データを処理するための方法であって、
    コンピューティングデバイスにおいて、
    画像センサによってキャプチャされた画像を表すデータを受信することと、前記画像はシーンを描写する、
    前記データから抽出された第1のデータに基づいて、第1のシーン鮮明さスコアを決定することと、
    前記第1のシーン鮮明さスコアがしきい値を満たすかどうかを決定することと、
    前記第1のシーン鮮明さスコアが前記しきい値を満たす場合、前記データから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定することと
    を備える方法。
  2. 前記第2のシーン鮮明さスコアに基づいて、前記シーンが環境状態を含むかどうかを決定することをさらに備える、請求項1に記載の方法。
  3. 前記第2のシーン鮮明さスコアに基づいて、アクションを開始するかどうかを決定することをさらに備える、請求項2に記載の方法。
  4. 前記環境状態が車両のウィンドウ上に存在するかどうかを決定することをさらに備える、請求項3に記載の方法。
  5. 前記環境状態が前記車両の前記ウィンドウ上に存在するかどうかの前記決定に基づいて、前記車両の暖房、換気、および空調(HVAC)システムまたはワイパーを起動することをさらに備える、請求項4に記載の方法。
  6. 前記第1のシーン鮮明さスコアおよび前記第2のシーン鮮明さスコアは、前記画像におけるコントラストを示す、請求項3に記載の方法。
  7. 前記アクションは、車両のフォグランプを起動すること、音声警告を提供すること、視覚的な警告を提供すること、またはこれらの組合せを含む、請求項3に記載の方法。
  8. 前記アクションは、鮮明化された画像データを作成するために前記データを処理することを含む、請求項3に記載の方法。
  9. 前記鮮明化された画像データを作成することは、前記画像の高いインテンシティの領域におけるローカルコントラストをブーストするために、ローカルトーンマッピング(LTM)を使用することを含む、請求項8に記載の方法。
  10. 前記画像における1つまたは複数の画素のインテンシティ値は、前記第1のシーン鮮明さスコアおよび前記第2のシーン鮮明さスコアのうちの1つまたは両方に基づいて選択された量だけ修正される、請求項8に記載の方法。
  11. 前記鮮明化された画像データに基づいて、オブジェクト検出を実行することと、前記オブジェクト検出に基づいて、車両の出力デバイスに出力を提供することとをさらに備える、請求項8に記載の方法。
  12. 前記第1のデータは、前記画像の赤チャネル、緑チャネル、および青チャネルのうちの少なくとも1つにおける高いインテンシティ値を有する前記画像における画素に対応するダークな特徴データを含み、前記第2のデータは、前記ダークな特徴データおよび勾配特徴データを含む、請求項1に記載の方法。
  13. 装置であって、
    コンピューティングデバイスを備え、前記コンピューティングデバイスは、
    画像センサによってキャプチャされた画像を表すデータを受信し、前記画像はシーンを描写する、
    前記データから抽出された第1のデータに基づいて、前記画像の第1のシーン鮮明さスコアを決定し、
    前記第1のシーン鮮明さスコアがしきい値を満たすかどうかを決定し、
    前記第1のシーン鮮明さスコアが前記しきい値を満たす場合、前記データから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定する
    ように構成される、装置。
  14. 前記コンピューティングデバイスは、前記第2のシーン鮮明さスコアに基づいて、アクションを開始するかどうかを決定するようにさらに構成される、請求項13に記載の装置。
  15. 前記コンピューティングデバイスは、ローカルトーンマッピング(LTM)モジュールを含み、前記アクションは、鮮明化された画像データを生成するために、前記LTMモジュールを使用することを含む、請求項14に記載の装置。
  16. 前記鮮明化された画像データは、第2の画像を表す追加のデータに基づいて生成され、前記第2の画像は、前記画像センサが前記画像をキャプチャした後に、前記画像センサによってキャプチャされる、請求項15に記載の装置。
  17. 前記鮮明化された画像を生成することは、隣接する画素の平均インテンシティ値に基づいて、ローカルコントラストを増大させるために、1つまたは複数の画素のインテンシティ値を修正することを含む、請求項15に記載の装置。
  18. 前記鮮明化された画像を生成することは、前記画素の前記インテンシティ値を低減させることを含む、請求項17に記載の装置。
  19. 前記画像における1つまたは複数の画素のインテンシティ値は、前記第1のシーン鮮明さスコアおよび前記第2のシーン鮮明さスコアのうちの1つまたは両方に基づいて選択された量だけ修正される、請求項15に記載の装置。
  20. 前記量は、前記第1のシーン鮮明さスコアおよび前記第2のシーン鮮明さスコアのうちの1つまたは両方と正の相関がある、請求項19に記載の装置。
  21. 車両内に搭載されたディスプレイデバイスをさらに備え、前記ディスプレイデバイスは、前記鮮明化された画像データによって表される鮮明化された画像を表示するように構成される、請求項15に記載の装置。
  22. 前記コンピューティングデバイスは、前記鮮明化された画像データにおけるオブジェクトを検出するように構成される、請求項15に記載の装置。
  23. 車両の暖房、換気、および空調(HVAC)システム、ワイパー、またはフォグランプを起動すること、音声警告を提供すること、視覚的な警告を提供すること、またはこれらの組合せをさらに備える、請求項14に記載の装置。
  24. 命令を記憶したコンピュータ可読記憶媒体であって、前記命令は、プロセッサによって実行されると、前記プロセッサに、
    画像センサによってキャプチャされた画像を表すデータを受信することと、前記画像はシーンを描写する、
    前記データから抽出された第1のデータに基づいて、第1のシーン鮮明さスコアを決定することと、
    前記第1のシーン鮮明さスコアがしきい値を満たすかどうかを決定することと、
    前記第1のシーン鮮明さスコアが前記しきい値を満たす場合、
    前記データから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定することと、
    前記第2のシーン鮮明さスコアに基づいて、アクションを開始するかどうかを決定することと
    を含む動作を実行させる、コンピュータ可読記憶媒体。
  25. 前記第1のシーン鮮明さスコアおよび前記第2のシーン鮮明さスコアは、教師あり機械学習モデルを使用して計算される、請求項24に記載のコンピュータ可読記憶媒体。
  26. 前記第1のシーン鮮明さスコアは、第1の線形サポートベクターモデルを前記第1のデータと比較することによって計算され、前記第2のシーン鮮明さスコアは、第2の線形サポートベクターモデルを前記第2のデータと比較することによって計算される、請求項25に記載のコンピュータ可読記憶媒体。
  27. 前記第1の線形サポートベクターモデルおよび前記第2の線形サポートベクターモデルの各々は、サンプルビデオを使用して生成される、請求項26に記載のコンピュータ可読記憶媒体。
  28. 装置であって、
    画像を表すデータを受信するための手段と、
    前記データから抽出された第1のデータに基づいて、前記画像の第1のシーン鮮明さスコアを決定することと、前記第1のシーン鮮明さスコアは、前記画像におけるコントラストを示す、
    前記第1のシーン鮮明さスコアがしきい値を満たすかどうかを決定することと、
    前記第1のシーン鮮明さスコアが前記しきい値を満たす場合、
    前記データから抽出された第2のデータに基づいて、第2のシーン鮮明さスコアを決定することと、
    前記第2のシーン鮮明さスコアに基づいて、アクションを自動的に開始するかどうかを決定することと
    を行うように構成された画像処理のための手段と
    を備える装置。
  29. 前記アクションは、鮮明化された画像データを作成するために前記データを処理することを含む、請求項28に記載の装置。
  30. 前記アクションは、車両のフォグランプを起動すること、音声警告を提供すること、視覚的な警告を提供すること、またはこれらの組合せを含む、請求項28に記載の装置。
JP2017541922A 2015-02-11 2016-01-20 環境シーン状態検出 Pending JP2018514011A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/619,354 2015-02-11
US14/619,354 US9734425B2 (en) 2015-02-11 2015-02-11 Environmental scene condition detection
PCT/US2016/014144 WO2016130294A1 (en) 2015-02-11 2016-01-20 Environmental scene condition detection

Publications (1)

Publication Number Publication Date
JP2018514011A true JP2018514011A (ja) 2018-05-31

Family

ID=55411730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017541922A Pending JP2018514011A (ja) 2015-02-11 2016-01-20 環境シーン状態検出

Country Status (8)

Country Link
US (1) US9734425B2 (ja)
EP (1) EP3256985A1 (ja)
JP (1) JP2018514011A (ja)
KR (1) KR20170115544A (ja)
CN (1) CN107209856B (ja)
BR (1) BR112017017222A2 (ja)
CA (1) CA2973212A1 (ja)
WO (1) WO2016130294A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020085564A (ja) * 2018-11-20 2020-06-04 トヨタ自動車株式会社 判定装置、車両制御装置、判定方法、判定プログラム
JP2021531545A (ja) * 2019-06-19 2021-11-18 センスタイム グループ リミテッド インテリジェント運転制御方法及び装置、電子機器

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12007763B2 (en) 2014-06-19 2024-06-11 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9798322B2 (en) 2014-06-19 2017-10-24 Skydio, Inc. Virtual camera interface and other user interaction paradigms for a flying digital assistant
US9678506B2 (en) 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9855890B2 (en) * 2014-12-11 2018-01-02 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle interaction with external environment
US10110880B2 (en) * 2015-09-25 2018-10-23 Amazon Technologies, Inc. Selective colorization using monochromic imagery
DE102015221439B3 (de) * 2015-11-02 2017-05-04 Continental Automotive Gmbh Verfahren und Vorrichtung zur Auswahl und Übertragung von Sensordaten von einem ersten zu einem zweiten Kraftfahrzeug
JP2017144937A (ja) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 撮像システム
US10435176B2 (en) 2016-05-25 2019-10-08 Skydio, Inc. Perimeter structure for unmanned aerial vehicle
US9928434B1 (en) * 2016-06-14 2018-03-27 State Farm Mutual Automobile Insurance Company Appartuses, systems, and methods for determining when a vehicle occupant is using a mobile telephone
US9928433B1 (en) * 2016-06-14 2018-03-27 State Farm Mutual Automobile Insurance Company Apparatuses, systems, and methods for determining when a vehicle operator is texting while driving
US10474946B2 (en) * 2016-06-24 2019-11-12 Microsoft Technology Licensing, Llc Situation aware personal assistant
US10520943B2 (en) 2016-08-12 2019-12-31 Skydio, Inc. Unmanned aerial image capture platform
CN106427902A (zh) * 2016-10-26 2017-02-22 江苏金米智能科技有限责任公司 一种基于图像检测的车辆雨刮器自动控制系统
CN106427765A (zh) * 2016-11-09 2017-02-22 山东国金汽车工程技术有限公司 一种节能环保的雾灯装置
CN108133223B (zh) * 2016-12-01 2020-06-26 富士通株式会社 确定卷积神经网络cnn模型的装置和方法
US11295458B2 (en) 2016-12-01 2022-04-05 Skydio, Inc. Object tracking by an unmanned aerial vehicle using visual sensors
CN106515578A (zh) * 2016-12-22 2017-03-22 百度在线网络技术(北京)有限公司 无人车驾驶状态的识别装置、识别方法及无人车
CN109131076A (zh) * 2017-06-27 2019-01-04 上海蔚兰动力科技有限公司 驾驶辅助系统及驾驶辅助方法
US10688929B2 (en) * 2017-06-27 2020-06-23 Shanghai XPT Technology Limited Driving assistance system and method of enhancing a driver's vision
TWM557685U (zh) * 2017-06-27 2018-04-01 大陸商上海蔚蘭動力科技有限公司 駕駛輔助系統
US20190068880A1 (en) * 2017-08-25 2019-02-28 Rosemount Aerospace Inc. Image optimization by aircraft exterior camera system
JP6922700B2 (ja) * 2017-12-05 2021-08-18 株式会社デンソー 雨滴検出装置及びワイパ制御装置
CN107958224B (zh) * 2017-12-14 2021-09-21 智车优行科技(北京)有限公司 Adas上基于isp的图像预处理系统及方法
WO2019127085A1 (en) * 2017-12-27 2019-07-04 Volkswagen (China) Investment Co., Ltd. Processing method, processing apparatus, control device and cloud server
US10678255B2 (en) * 2018-02-14 2020-06-09 GM Global Technology Operations LLC Systems, methods and apparatuses are provided for enhanced surface condition detection based on image scene and ambient light analysis
US10922626B2 (en) 2018-03-09 2021-02-16 Qualcomm Incorporated Conditional branch in machine learning object detection
CN108638957B (zh) * 2018-05-11 2021-10-26 长安大学 一种夜间低能见度下自动开启车辆雾灯的装置及方法
CN108921013B (zh) * 2018-05-16 2020-08-18 浙江零跑科技有限公司 一种基于深度神经网络的视觉场景识别系统及方法
CN108926306B (zh) * 2018-08-15 2020-11-27 佛山市百斯特电器科技有限公司 洗碗机及其控制方法
US10597002B1 (en) 2018-09-21 2020-03-24 Ford Global Technologies, Llc Imaging system
US10589723B1 (en) 2018-09-21 2020-03-17 Ford Global Technologies, Llc Imaging system
KR102634349B1 (ko) * 2018-10-11 2024-02-07 현대자동차주식회사 차량의 제어 장치 및 방법
US10839220B2 (en) * 2018-10-15 2020-11-17 Kepler Vision Technologies B.V. Method for categorizing a scene comprising a sub-scene with machine learning
US11127121B2 (en) * 2019-03-29 2021-09-21 Wipro Limited System and method of generating enhanced video by removing fog for vehicle navigation
US20200385116A1 (en) * 2019-06-06 2020-12-10 Motorola Solutions, Inc. System and Method of Operating a Vehicular Computing Device to Selectively Deploy a Tethered Vehicular Drone for Capturing Video
CN110227264B (zh) * 2019-06-06 2023-07-11 腾讯科技(成都)有限公司 虚拟对象控制方法、装置、可读存储介质和计算机设备
US11134201B2 (en) * 2019-08-20 2021-09-28 International Business Machines Corporation Vision assisted driving system using a vertically extendable camera
US11386289B2 (en) * 2019-11-05 2022-07-12 Elementary Robotics, Inc. Systems and methods for robot-aided product inspection
JP7485512B2 (ja) * 2019-12-26 2024-05-16 キヤノンメディカルシステムズ株式会社 医用情報処理装置、医用情報処理方法、及び医用情報処理プログラム
US11645780B2 (en) * 2020-03-16 2023-05-09 Realsee (Beijing) Technology Co., Ltd. Method and device for collecting images of a scene for generating virtual reality data
CN111559344A (zh) * 2020-04-21 2020-08-21 汉腾汽车有限公司 一种基于图像识别的自动雨刮系统
CN112180472A (zh) * 2020-09-28 2021-01-05 南京北极光智能科技有限公司 一种基于深度学习的大气能见度集成预报方法
CN112417952B (zh) * 2020-10-10 2022-11-11 北京理工大学 一种车辆碰撞防控系统的环境视频信息可用性测评方法
CN113077422B (zh) * 2021-03-22 2023-08-15 浙江大华技术股份有限公司 起雾图像检测方法、模型训练方法及装置
CN113581131B (zh) * 2021-08-12 2023-08-08 上海仙塔智能科技有限公司 挡风玻璃附着灰尘的清理方法及智能眼镜
CN115257632B (zh) * 2022-08-16 2024-05-03 重庆金康赛力斯新能源汽车设计院有限公司 车窗除雾控制方法、装置、计算机设备和存储介质

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6434254B1 (en) 1995-10-31 2002-08-13 Sarnoff Corporation Method and apparatus for image-based object detection and tracking
US7653215B2 (en) * 1997-04-02 2010-01-26 Gentex Corporation System for controlling exterior vehicle lights
US6611610B1 (en) 1997-04-02 2003-08-26 Gentex Corporation Vehicle lamp control
JP2001082097A (ja) 1999-09-13 2001-03-27 Toshiba Corp トンネル換気制御装置
US6807473B1 (en) 2003-04-09 2004-10-19 Continental Teves, Inc. Road recognition system
US7602942B2 (en) 2004-11-12 2009-10-13 Honeywell International Inc. Infrared and visible fusion face recognition system
JP2009527063A (ja) 2006-02-14 2009-07-23 インテリサイエンス コーポレーション 仮想環境において見本及びデータを使用及び統合するシステム及びその方法
US20070244844A1 (en) 2006-03-23 2007-10-18 Intelliscience Corporation Methods and systems for data analysis and feature recognition
JP2007310741A (ja) 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
JP4784452B2 (ja) 2006-09-12 2011-10-05 株式会社デンソー 車載霧判定装置
JP4321591B2 (ja) 2007-01-11 2009-08-26 株式会社デンソー 車載霧判定装置
US8098889B2 (en) 2007-01-18 2012-01-17 Siemens Corporation System and method for vehicle detection and tracking
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US8831869B2 (en) 2009-03-31 2014-09-09 GM Global Technology Operations LLC Using V2X-based in-network message generation, aggregation, distribution and processing protocols to enable road hazard condition warning applications
US8350933B2 (en) 2009-04-08 2013-01-08 Yissum Research Development Company Of The Hebrew University Of Jerusalem, Ltd. Method, apparatus and computer program product for single image de-hazing
JP4807439B2 (ja) 2009-06-15 2011-11-02 株式会社デンソー 霧画像復元装置及び運転支援システム
US8340461B2 (en) 2010-02-01 2012-12-25 Microsoft Corporation Single image haze removal using dark channel priors
DE102010002488A1 (de) 2010-03-02 2011-09-08 Robert Bosch Gmbh Verfahren und Vorrichtung zur Nebelerkennung mittels Spektroskopie
CN101957309B (zh) * 2010-08-17 2012-11-07 招商局重庆交通科研设计院有限公司 一种能见度的全天候视频测量方法
CN103609201B (zh) 2011-06-13 2017-01-18 皇家飞利浦有限公司 自适应控制的户外照明系统及其操作方法
CN102411774B (zh) * 2011-08-08 2013-05-01 安科智慧城市技术(中国)有限公司 一种基于单幅图像去雾的处理方法、装置及系统
DE102011086512B4 (de) 2011-11-16 2022-12-01 Bayerische Motoren Werke Aktiengesellschaft Nebeldetektion
CN102609939B (zh) * 2012-01-16 2015-03-11 北京航空航天大学 一种tfds图像质量评价方法及系统
US9009083B1 (en) 2012-02-15 2015-04-14 Google Inc. Mechanism for automatic quantification of multimedia production quality
CA2910644A1 (en) 2012-05-23 2013-11-28 Liping Fu Road surface condition classification method and system
US8755628B2 (en) 2012-09-10 2014-06-17 Google Inc. Image de-hazing by solving transmission value
JP5930067B2 (ja) * 2012-12-18 2016-06-08 三菱電機株式会社 視認性推定装置及び安全運転支援システム
JP5561396B1 (ja) 2013-02-19 2014-07-30 日本電気株式会社 運転支援システムおよび運転支援方法
US9025140B2 (en) 2013-05-07 2015-05-05 Google Inc. Methods and systems for detecting weather conditions including sunlight using vehicle onboard sensors
JP2016523154A (ja) 2013-06-28 2016-08-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像ノイズ情報を利用する方法
US9514373B2 (en) 2013-08-28 2016-12-06 Gentex Corporation Imaging system and method for fog detection
US20150178930A1 (en) 2013-12-20 2015-06-25 Qualcomm Incorporated Systems, methods, and apparatus for generating metadata relating to spatial regions of non-uniform size
US9846927B2 (en) 2014-05-20 2017-12-19 Qualcomm Incorporated Systems and methods for haziness detection
EP3640890B1 (en) 2014-05-22 2023-06-21 Mobileye Vision Technologies Ltd. Systems and methods for braking a vehicle based on a detected object

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020085564A (ja) * 2018-11-20 2020-06-04 トヨタ自動車株式会社 判定装置、車両制御装置、判定方法、判定プログラム
JP7103185B2 (ja) 2018-11-20 2022-07-20 トヨタ自動車株式会社 判定装置、車両制御装置、判定方法、判定プログラム
US11718151B2 (en) 2018-11-20 2023-08-08 Toyota Jidosha Kabushiki Kaisha Determination device, vehicle control device, determination method and determination program
JP2021531545A (ja) * 2019-06-19 2021-11-18 センスタイム グループ リミテッド インテリジェント運転制御方法及び装置、電子機器

Also Published As

Publication number Publication date
CN107209856B (zh) 2021-02-26
WO2016130294A1 (en) 2016-08-18
BR112017017222A2 (pt) 2018-04-03
EP3256985A1 (en) 2017-12-20
KR20170115544A (ko) 2017-10-17
CN107209856A (zh) 2017-09-26
CA2973212A1 (en) 2016-08-18
US9734425B2 (en) 2017-08-15
US20160232423A1 (en) 2016-08-11

Similar Documents

Publication Publication Date Title
CN107209856B (zh) 环境场景状况检测
US11386673B2 (en) Brake light detection
US10694262B1 (en) Overlaying ads on camera feed in automotive viewing applications
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
US20180017799A1 (en) Heads Up Display For Observing Vehicle Perception Activity
WO2019044652A1 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND MOBILE OBJECT
WO2017034679A1 (en) System and method of object detection
JP7027737B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP7226440B2 (ja) 情報処理装置、情報処理方法、撮影装置、照明装置、及び、移動体
KR20200043391A (ko) 화상 블러 보정을 위한 화상 처리, 화상 처리 방법 및 프로그램
US20220335728A1 (en) Electronic device, method, and computer readable storage medium for detection of vehicle appearance
US11645779B1 (en) Using vehicle cameras for automatically determining approach angles onto driveways
US11531197B1 (en) Cleaning system to remove debris from a lens
JP6789151B2 (ja) カメラ装置、検出装置、検出システムおよび移動体
WO2020195965A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7160085B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2020036057A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
CN114788257A (zh) 信息处理装置、信息处理方法、程序、成像装置和成像系统
US11438517B2 (en) Recognition device, a recognition method, and a program that easily and accurately recognize a subject included in a captured image
US20230251649A1 (en) Remote operation system, remote operation control method, and remote operator terminal
US20230394842A1 (en) Vision-based system with thresholding for object detection
CN113614777A (zh) 信息处理装置、信息处理方法和程序
CN116457843A (zh) 飞行时间物体检测电路和飞行时间物体检测方法