JP7485612B2 - 衝突前アラートを提供するためのマルチスペクトルシステム - Google Patents

衝突前アラートを提供するためのマルチスペクトルシステム Download PDF

Info

Publication number
JP7485612B2
JP7485612B2 JP2020557022A JP2020557022A JP7485612B2 JP 7485612 B2 JP7485612 B2 JP 7485612B2 JP 2020557022 A JP2020557022 A JP 2020557022A JP 2020557022 A JP2020557022 A JP 2020557022A JP 7485612 B2 JP7485612 B2 JP 7485612B2
Authority
JP
Japan
Prior art keywords
module
vehicle
image
sensors
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020557022A
Other languages
English (en)
Other versions
JP2021510227A (ja
JPWO2019135246A5 (ja
Inventor
シボニ,ハイム
エルバズ,ドロール
シュクリアール,ローマン
エルキン,エラザール
Original Assignee
フォーサイト オートモーティブ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フォーサイト オートモーティブ リミテッド filed Critical フォーサイト オートモーティブ リミテッド
Publication of JP2021510227A publication Critical patent/JP2021510227A/ja
Publication of JPWO2019135246A5 publication Critical patent/JPWO2019135246A5/ja
Application granted granted Critical
Publication of JP7485612B2 publication Critical patent/JP7485612B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Vascular Medicine (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Transportation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、交通安全の分野に関する。より具体的には、本発明は、最小車間距離(headway)の保持違反、居眠り、または集中力の欠如から結果として生じる、自動車事故を回避するためにアラートを提供するための装置に関する。
移動している車両と前方の次の車両との間に安全な車間距離を保持することは、重大な認知的タスクである。不十分な車両車間距離に起因するクラッシュは、すべてのクラッシュのかなりの部分を占めている(米国では29%を超えている)。多くのケースでは、最小車間距離の保持違反は、玉突き衝突を引き起こし、玉突き衝突では、多くの車両が巻き込まれる。通常、停止することを決定したドライバーは、ブレーキペダルを踏んで車両にブレーキをかけ始めた後に初めて、ブレーキライトを起動させるので、そのような玉突き衝突が起こる。結果として、後方の車(「後続の車両」)の中のドライバーは、(運転速度に応じて)比較的に遅過ぎる状態で視覚的なアラートを得る。その理由は、ドライバーの反応時間(アラートを得てからブレーキペダルを踏んで後続の車両をブレーキさせ始めるまでに要する時間)が約0.75秒であるからである。たとえば、車速度が90Km/hである場合には、反応時間の間に、後続の車両は18.75m移動する。この距離は、当然のことながら、合計のブレーキ距離から差し引かれ、したがって、衝突は回避することができない。
また、多くの事故は、移動車線の中央からドリフトし、他の車線に進入し、路肩までも通過するドライバーによって引き起こされる。したがって、そのような危険なシナリオを識別して防止することができるシステムが非常に望まれている。
米国特許出願公開第2015/0302606号明細書は、車両と物体との間の起こり得る衝突のインディケーションを提供するためのシステムを開示しており、それは、処理デバイスを含み、処理デバイスは、カメラから複数の画像を受け取り、複数の画像の中の物体および車線マーキングを識別するように構成されている。複数の画像が、物体の移動および物体に関連付けられる車線位置を示す情報を決定するために使用される。処理デバイスは、物体の移動を示す情報に基づいて、および、物体に関連付けられる車線位置に基づいて、車両および物体が衝突コースの上にあるかどうかを決定する。
しかし、上記に説明されているすべての方法は、悪い天候条件および照明条件の下でも車両同士の間のまたは車両と物体(それは障害物であると考えられる)との間の差し迫った衝突の危険なシナリオを検出するという問題に対して、満足のいく解決策をまだ提供していない。
したがって、本発明の目的は、最小車間距離の保持違反に起因する、または、無認識に起因する、車両同士の間のまたは車両と物体との間の差し迫った衝突の危険なシナリオを連続的におよび自動的に検出するための方法および装置を提供することである。
したがって、本発明の目的は、非常に限られた視界の状態においても、ならびに/または、悪い天候条件および照明条件の下で、危険なシナリオを連続的におよび自動的に検出するための方法および装置を提供することである。
本発明の他の目的および利点は、説明が進むにつれて明らかになるであろう。
衝突前アラートシステムを提供するためのマルチスペクトル車両システムであって、マルチスペクトル車両システムは、
a. 2対の立体視用赤外線(IR)センサおよび可視光(VL)センサ(たとえば、CMOS可視光カメラなど)であって、これらのセンサのそれぞれは、相互視野からの獲得された画像ストリームを提供し、獲得された画像ストリームは、立体視を提供するために同期される、2対の立体視用赤外線(IR)および可視光(VL)センサと、
b. データ融合モジュールであって、
b.1) 視野内の物体を検出するために、データストリームを相互に処理し、
b.2) 検出される物体までの距離を計算する
ためのデータ融合モジュールと、
c. センサと車両の携帯電話/インフォテインメントシステムとの間の通信を可能にするためのセルラーベースの通信モジュールであって、このモジュールは、専用のアプリケーションを実行し、専用のアプリケーションは、
c.1) 同様のシステムを有する他の車両を検出するために、車両の付近を監視し、
c.2) 他の車両のそれぞれの速度および進行方位角を計算し、
c.3) 計算および車両の速度に基づいて、同様のシステムを有する他の車両が車両との衝突の経路の中にあるときにはいつでも、車両のドライバーにアラートを提供する
ように適合されているバックグラウンドアプリケーションである、セルラーベースの通信モジュールと
を備える、マルチスペクトル車両システムである。
1つの態様では、マルチスペクトル車両システムは、
a. IRおよびVLステレオ検出モジュールであって、IRおよびVLステレオ検出モジュールのそれぞれは、両方のセンサの光軸が平行である間に、視差計算およびエピポーラ幾何に基づいて、立体視の3D深度マップを再構築するための自動キャリブレーションモジュールから構成されている、IRおよびVLステレオ検出モジュールと、
b. 視差モジュールであって、視差モジュールは、2つの歪められていない(半径方向および接線方向)、修正された(適当なホモグラフィーによる変換後の)、および同期された画像を受け取り、稠密かつ精緻な視差マップを生成する、視差モジュールと、
c. 視差マップを受け取り、ピクセル毎の距離を提供するための距離測定モジュールと、
d. グランド推定器(GroundEstimator)モジュールであって、グランド推定器モジュールは、キャリブレートされ、同期された画像とともに、稠密かつ精緻な視差マップを受け取り、稠密なグランド平面セグメンテーションを提供する、グランド推定器モジュールと、
e. クラスタリングモジュールであって、クラスタリングモジュールは、稠密かつ精緻な視差マップ、V-視差マップ、およびグランド平面フィッティングを受け取り、画像ストリームから障害物を抽出する、クラスタリングモジュールと、
f. トラッキングモジュールであって、トラッキングモジュールは、稠密かつ精緻な視差マップ、障害物のリスト、ジャイロ座標、および車両速度を受け取り、すべてのトラッキングされる障害物を含有する構造体のアレイを提供する、トラッキングモジュールと、
g. 障害物検出モジュールであって、障害物検出モジュールは、障害物のリストおよび速度、ジャイロ座標、車速度、およびグランド平面フィッティングを受け取り、物体IDおよび特質、ならびに、衝突までの推定時間を提供し、障害物が重大な経路の中に見出されるときにはいつでも、および、相関される速度にしたがったブレーキ距離が障害物までの範囲よりも短い場合には、重大な障害物インディケーションを提供する、障害物検出モジュールと、
h. ステレオ融合モジュールであって、ステレオ融合モジュールは、方向指示器ステータス、IR画像BITステータス、VL画像BITステータス、前方の障害物に関する距離測定(IRセットによって計算される)、前方の障害物に関する距離測定(VLセットによって計算される)、障害物座標およびサイズ(IRおよびVLセットによって計算される)を受け取り、方向指示器ステータス、障害物座標、および境界ボックスサイズ、ならびに、障害物までの距離のデータを、カメラモノモジュールのそれぞれに出力する、ステレオ融合モジュールと、
i. 聴覚的な/視覚的な/触覚的なインディケーションをユーザに提供するための決定モジュールと
を備える(以下、精緻を高密度ともいい、精緻を洗練ともいう)
マルチスペクトル車両システムは、
a. IRセンサからの距離、障害物分類、車線逸脱インディケーション、およびラインタイプを受け取ることによって、ならびに、カメラによって計算される距離を平均することによって、分類タスクの信頼性のレベル、および、車線逸脱インディケーションの信頼性のレベルを増加させるためのIRモノ比較モジュールと、
b. VLセンサからの距離、障害物分類、車線逸脱インディケーション、およびラインタイプを受け取ることによって、ならびに、カメラによって計算される距離を平均することによって、分類タスクの信頼性のレベルおよび車線逸脱インディケーションの信頼性のレベルを増加させるためのVLモノ比較モジュールと
をさらに備え得る。
マルチスペクトル車両システムは、モノ+ステレオ融合モジュールをさらに備えてもよく、モノ+ステレオ融合モジュールは、ステレオ融合モジュールから、方向指示器ステータス、障害物座標、ステレオセットに応じたサイズおよび境界ボックス、障害物までの距離、カメラ/画像ステータスを受け取り、ステレオ融合モジュールおよびモノ比較モジュールからの結果を集計し、すべてのインディケーションからの平均距離、車線逸脱決定、および障害物検出決定を出力する。
カメラのそれぞれは、セットの中の他のカメラが故障している場合、冗長的であるように適合され得る。
カメラのそれぞれは、車両の中のカメラモジュールの独立した設置を可能にする自動キャリブレーションモジュールを有し得る。
マルチスペクトル車両システムは、非線形フィッティングおよび適応的グランドティルティングに依存するグランド推定器をさらに備え得る。
画像獲得周波数は、車両の速度に相関し得る。
マルチスペクトル車両システムは、画像ビルトインテスト(BIT)モジュールをさらに備えることが可能であり、画像ビルトインテスト(BIT)は、少なくとも、
a. 画像獲得(不合格/合格)
b. GLヒストグラム(画像ブライトネス/画像ダークネス)
c. 部分的な閉塞(フロントガラス上の染みを検出する)
d. カラーヒストグラム(異常なチャネルを検出する)
e. 同期を検証するためのタイムスタンプ検証
のテストを実施することができる。
マルチスペクトル車両システムは、それぞれのフレーム毎の車両の正確な進行方位(heading)を取得するためのジャイロをさらに備えてもよく、それによって、車両の前に存在しない障害物を無視する。
車両は、
- 速度、
- 車線逸脱を検出するための方向指示器状態
の入力うちの1つまたは複数を提供することが可能である。
専用のアプリケーションは、両方のセンサの光軸が平行である間に使用され得るエピポーラ幾何に依存し、視差計算に基づいて、深度マップを提供し得る。
障害物までの距離は、2つの立体セット間の平均として計算され得る。
センサのうちの1つが故障している場合には、残りのモノモジュールが、ワーキングセットにしたがって、距離を受け取り得る。
本発明によって提案されるシステムのアーキテクチャを示す図である。
本発明は、事故を回避するシステムおよび方法に関する。最小車間距離の保持違反に起因する、または、無認識に起因する、車両同士の間のまたは車両と物体との間の差し迫った衝突の危険なシナリオが、非常に限られた視界の状態においても、任意の条件の下で、および/または、厳しい天候条件の下で、自動的におよび正確に検出される。システムは、カメラなどのような2対のセンサを使用する。一方の対は、可視光(VL)センサを含み、他方の対は、赤外線(IR)センサを含む。両方の対から獲得される画像が、立体視を取得するために相互に処理され、立体視は、はるかに良好な距離推定および検出能力を可能にする。
本発明によって提案されるシステムは、2つの重要な特徴を有しており、それらは、運転安全を増加させるために必須であり、それは、視線検出能力および視界外衝突前アラートを提供する能力である。
視線検出
提案されるシステムは、マルチスペクトルビジョン層を含み、マルチスペクトルビジョン層は、4つのカメラからデータストリームを受け取り、4つのカメラは、1対の立体視用(熱)赤外線(IR)カメラおよび1対の可視光(VL)カメラから構成されている。それぞれの対は、人工モジュールとして動作し、人工モジュールは、人間の奥行き知覚の生物学的なメカニズムを模倣および強化する。両方の対から受け取られたデータストリームは、データのシームレス融合を提供するように処理され、最大精度が取得されるようになっている。赤外線カメラおよび可視光カメラの両方の組み合わせは、システムがすべての天候条件および照明条件(たとえば、真っ暗闇、雨、ヘイズ、霧、およびグレアなど)の下で完全に動作的になることを可能にする。
視界外衝突前アラート
また、提案されたシステムは、2対のセンサと携帯電話/インフォテインメントシステム(IoS/Android)との間のセルラーベースの通信を含む。システムは、専用のアプリケーションを実行し、専用のアプリケーションは、車の速度に関してそれぞれの車の付近を監視し、それぞれの車両の計算された速度および進行方位角にしたがって、他の車両が特定の衝突に向かう経路の中にあることが見出されるときにはいつでも、アラートを提供する。
提案されたシステム100は、視界外検出を実施するように適合されており、SIMカードおよび専用のアプリケーションを含み、専用のアプリケーションは、インストールされ、連続的にバックグラウンドで実行される。アプリケーションは、車移動を識別し、高い周波数で車の場所をメインサーバーに送る。車の場所は、「ジャイロ、GPS、速度」インディケーションのデータ融合に基づいて、および、道路スナッピング(roads snapping)に基づいて計算される。アプリケーションは、高い周波数でメインサーバーをサンプリングし、車の近くのユーザに関する更新情報を受け取る。最も頻度の高い更新情報に基づいて、アプリケーションは、エリアの中のユーザのそれぞれの方位角および速度を計算し、潜在的な衝突を推測する。潜在的な衝突を検出するケースでは、システムは、視覚的なアラートおよび聴覚的なアラートを提供する。
図1は、本発明によって提案されたシステム100のアーキテクチャを図示している。
システム100は、1対のIRセンサ101aおよび101bを含み、それらは、2つの長波熱赤外線(IR)カメラであることが可能である。IRカメラは、車両の速度に対応する周波数で、および、最大で45フレーム毎秒(すなわち、ダイナミックフレーム毎秒(FPS))で画像を獲得する-画像獲得周波数は、車の速度に相関する(より高い速度=最大で45FPSまでのより高い周波数)。獲得されたフレームは、3つのIRモジュール:ステレオ検出IRモジュール7、左IRモノモジュール11a、および右IRモノモジュール11bに並列に転送される。
また、システムは、1対のVLセンサ102aおよび102bを含み、それらは、2つのCMOS可視光(VL)カメラであることが可能であり、それは、車両の速度に相関する周波数で、および、最大で45フレーム毎秒(「ダイナミックFPS」)で画像を獲得する。獲得されたフレームは、3つのVLモジュール:ステレオ検出VLモジュール8、左VLモジュール10a、および右VLモジュール10bに並列に転送される。
立体視を取得するために、2つの同期された画像が必要とされる。2セットの画像(IRおよびVL)のそれぞれは、2つの対応する同期ユニット3aおよび3bに接続されており、同期ユニット3aおよび3bは、同じクロックを2つのセンサに提供し、獲得される画像が正確に同じタイムスタンプを伴うことを確実にする。
適当な品質を備えた画像を有するようにするために、2つの画像ビルトインテスト(BIT)ユニット4aおよび4bが、それぞれの対によって用いられる。それぞれのBITユニットは、画像をカメラから受け取り、同様に、車両速度を(車両のOBD6から)受け取り、車両の向きに関するジャイロインディケーションをジャイロユニット5から受け取る。提案されたシステムは、すべての天候条件および照明条件の下ですべての障害物を検出することができるので、システムは、ジャイロデータを使用し、それぞれのフレーム毎の車両の正確な進行方位を取得する。車両の進行方位が既知であるときには、システムは、車両の前に存在しない障害物を無視することが可能である。
画像品質が所定のセットの閾値にしたがって良好である限り、BITユニットからのインディケーションは存在しない。画像品質が不十分であり、要求される閾値を満たしていない場合には、BITユニットは、機能不良の画像のIDをステレオ融合モジュール14(それは、後に説明される)に転送する。速度またはジャイロが異常を示している場合には、重大な警告メッセージがステレオ融合モジュールに送られる。
車両の速度は、適当なアラートを提供するために、車ブレーキ距離を計算するために必須である。「車線逸脱警告」アルゴリズムは、車両の方向指示器のステータスに基づいて、車線逸脱を検出するために起動される。方向指示器がオンになっている限り、車線逸脱に関するアラートは存在しない。
提案されるシステム100は、2つのメイン検出モジュール:IRステレオ検出モジュール7およびVLステレオ検出モジュール8を含む。両方のモジュールは、立体映像技術を使用し、立体映像技術は、現実の深度シーンマップを取得することができ、それは、正確な物体分類および距離推定を助ける。
IRステレオ検出モジュール
IRステレオ検出モジュール7は、以下のサブモジュールを含む:
第1のサブモジュールは、自動キャリブレーションモジュール7aであり、自動キャリブレーションモジュール7aは、両方のカメラの光軸が平行である間に使用され得る視差計算およびエピポーラ幾何に基づいて、立体視の3D深度マップを再構築する。自動キャリブレーションは、車両の中のカメラモジュールの独立した設置を可能にする。
キャリブレーションは、両方のカメラから受け取られた同期された画像を使用して実施され、それらは、同じシーンに向けられており、既知の拡大係数を伴う整合された画像で終わる。システム100は2つの独立したカメラを含むので、それは、3自由度(左カメラおよび右カメラの両方のX/Y/Z軸線の周りの回転)を有する。したがって、計算された変換は、ホモグラフィーの非一意的な解決策を提供し、それは、距離計算において不安定な結果および大きい誤差を引き起こす可能性がある。システム100は、後に議論されるエピポーラ幾何に基づいて、新しい修正プロセスを使用する。
初期キャリブレーションが、異なる距離において異なる回転に関して設置されている事前決定された物体(たとえば、事前決定されたサイズの正方形を備えたチェス盤)を伴うパターンの上で実施される。このプロセスは、それぞれのカメラに関して内因性のパラメーター(たとえば、主点、焦点距離、放射状歪み、および接線歪み)のセットを計算する。それぞれの対のカメラのステレオビジョンキャリブレーションは、たとえば、Burger-Zhangのカメラキャリブレーションアルゴリズム(公知の座標によって空間の中に十分に定義されたポイントに基づくカメラキャリブレーションのためのアルゴリズム)を使用して行われ得る。
キャリブレーション方法は、いくつかのステップを含む。第1のステップは、指定されたターゲットに対する(第1の)手動の(粗い)キャリブレーションを含み、ターゲットは、車両の前に設置されており、2つの独立したカメラが車両の上に据え付けられている。2つの独立したカメラは、たとえば、フロントガラスまたは車のビーム、ヘッドライト、車のグリルの後ろなどに据え付けられ得る。第2のステップにおいて、2つの外因性のパラメーターが計算される:それぞれのカメラの光軸および向きに関するそれぞれのカメラの向き(すなわち、回転および並進)。次のステップにおいて、マッチングポイントが、加速ロバスト特徴(SURF:Speeded Up Robust Features)アルゴリズム(それは、物体認識、画像位置合わせ、分類、または3D再構築などのようなタスクのために使用され得るローカル特徴検出器および記述子である)を使用して見出される。次のステップにおいて、マッチングポイントのセットからの異常値が洗練され、初期の基礎行列(ステレオビジョンにおけるマッチングのための手段:画像化するときに、それぞれのピクセル(たとえば、左カメラの中の)は、右カメラの中に対応するピクセルを有しており、このマトリックスは、マッチングを作製している)推定が実施される。次のステップにおいて、反復基礎行列推定が最小化によって実施される。
次のステップにおいて、左ホモグラフィーおよび右ホモグラフィーの初期計算(射影幾何学において、ホモグラフィーは、射影空間の同型写像であり、それは、ベクトル空間(射影空間はベクトル空間に由来する)の同型写像によって誘発される。それは、ラインをラインにマッピングする双射(1セットのポイント同士の間の1対1の対応、このケースでは、ステレオマッチング)であり、したがって、コリネーションである。一般的に、いくつかのコリネーションは、ホモグラフィーではなく、射影幾何学の基礎的な定理は、少なくとも2次元の現実の射影空間ではそのようになっていないことを主張する。)が、エピポーラ幾何を使用して実施される(エピポーラ幾何は、ステレオビジョンの幾何である。2つのカメラが2つの別個の位置から3Dシーンを見るときには、3Dポイントと2D画像の上のそれらの投影との間に複数の幾何学的関係が存在しており、それは、画像ポイント同士の間の制約につながる)。
次のステップにおいて、カメラの内因性のパラメーター、中心ポイント修正、Wオフセット(センサの中心と光学系の中心との間の距離偏差)修正を使用することによって、最良のホモグラフィーが反復して計算される。次のステップにおいて、ホモグラフィーに関して最良にフィットした内因性のパラメーターが推定され、それは、フレームの完全なセットの上で有効である。ミスアライメント誤差は視差値の2次関数として増大するので、また、カメラは統一されたリジッドの構造体の上には置かれていないので、システム100は、揺れの結果として取得され得るミスアライメントをリアルタイムで修正することができる。この能力は、自動キャリブレーション方法と称され、それは、最後に計算された自動キャリブレーションにしたがって内因性のパラメーターおよび外因性のパラメーターを計算する。次のステップにおいて、左カメラおよび右カメラによってキャプチャーされる重複エリアの上のマッチングポイントのセットが計算される。次のステップにおいて、両方のカメラの画像空間を変換するホモグラフィー(修正プロセス)が、重複したマッチングポイントを使用して計算される。このプロセスは、車両が移動していない(速度=ゼロ)たびに定期的に繰り返される。
マッチングFOV
IRおよび可視範囲カメラは、異なるセンサを使用している(サイズ、ピッチ(ピクセルサイズ)、および、当然のことながら、スペクトル範囲の感度が異なる)。カメラの焦点距離は、両方のセンサに関して同じではなく、2つのチャネルのそれぞれが、基本的にそれ自身の視野(FOV)を有するようになっている。キャリブレーションプロセスは同じ向きを保証するが、FOVオーバーラップがさらなるシステム動作のために選択される。オーバーラップマッチングモジュールが、自動的な方式でこの特徴を実施する。
第2のサブモジュールは、視差モジュール7bであり、視差モジュール7bは、2つの(半径方向および接線方向に)歪められていない修正された(適当なホモグラフィーによる変換の後に)および同期された画像を受け取り、以下のステップにしたがって、高密度の洗練された視差マップを生成する。第1のステップにおいて、初期コスト関数(初期視差に関する)が、Census相関関係(テクスチャーを追加する)を使用して計算される。次のステップにおいて、セミグローバルブロックマッチング(SGBM)アルゴリズムが、キャリブレーション結果に基づいて、低減された度数で使用される。次のステップにおいて、画像は、垂直方向のストライプにスプリットされ、ストライプ毎にSGBMアルゴリズムを計算する。次のステップにおいて、すべてのストライプからのグローバルフィットが実施され、グローバル視差マップを生成する。次のステップにおいて、ステレオセグメンテーションが、平均化適応的メジアンフィルター(averaging adaptive median filter)を適用しながら、(Census変換を使用することによって)テクスチャーマップフィッティングを追加する左ステレオ画像(左視差)の上で計算される。
第3のサブモジュールは、距離測定モジュール7cであり、距離測定モジュール7cは、視差マップを受け取り、計算の標準的な方法を使用して、ピクセル毎の距離を提供する(ピクセル毎の距離=(フォーカルレンズ*ベースライン/視差)。
第4のサブモジュールは、グランド推定器モジュール7dであり、グランド推定器モジュール7dは、キャリブレートされたおよび同期された画像とともに、高密度の洗練された視差マップを受け取り、以下のステップにしたがって、高密度のグランド平面セグメンテーションを提供する。第1のステップにおいて、V-視差マップ(V-視差画像のそれぞれの列は、視差マップの中のその列に出現した視差のさまざまな値のヒストグラムである。正しく行われたときには、グランド平面の上のポイントの視差は、V-視差マップの中の強力なラインとして出現する)が計算され、ここで、V-視差画像のそれぞれの列は、コンピューター計算された視差マップの中の適当な列に出現したさまざまな視差値のヒストグラムである。グランド平面の上のポイントの視差は、v-視差マップの中に強力な(非垂直方向の)ラインとして出現する。障害物に属するポイントの視差は、v-視差マップの中に垂直方向のラインセグメントとして出現する。次のステップにおいて、グランド平面ポイントの初期クラスターが、v-視差を使用して見出される(平坦な道路幾何学形状の道路のケースでは、純粋な平面で十分であり得る)。次のステップにおいて、グランド平面ポイントのクラスターの非線形フィッティング(平坦でない道路幾何学形状の一般のケース)が実施される。
次数2の表面へのフィッティング(統計的観察によって十分であることが見出される)が、スプラインによって実施される。グランドは、初期グランドポイントクラスター(グランド推定器を定義するために、グランドの上に選択される異なるポイント)をサブエリアに分割することによってタイル化される。サブエリアの上で実施される(ローカル)フィッティングおよびそれに続くグローバルフィットは、消失点制約を含む(舗装されていない道路または構造化された道路の中のグランド推定器に関して、車線境界は、消失を推定することによって設定される:水平線、または、2つの平行線が当然のことながら遠近法で接合されるポイント)、それは、結果を最適化するために実装される。サブエリアが適応的に計算され、ポイントが近ければ近いほどサブエリアは大きくなることとなり、一方、ポイントが遠ければ遠いほどサブエリアが小さくなるようになっている。
第5のサブモジュールは、クラスタリングモジュール7eであり、クラスタリングモジュール7eは、高密度の洗練された視差マップ、V-視差マップ、およびグランド平面フィッティング(視差マップに基づいて、すべてのピクセルに関してマッピングする範囲を推定する)を受け取り、それに応答して、(たとえば、境界ボックスを追加することおよび2D座標を提供することによって)画像ストリームから障害物を抽出する。第1のステップにおいて、v-視差マップが、グランド平面クラスターを抽出するために、および、物体の初期セグメンテーションを実施するために使用され、物体は、道路の上にない。障害物に属するポイントの視差は、垂直方向のラインセグメントとして出現する。次のステップにおいて、視差マップの上の同じ物体に属する視差が、局所的に蓄積される。次のステップにおいて、境界ボックスが、障害物を抽出するために、障害物の周りに構築される。
第6のサブモジュールは、トラッキングモジュール7fであり、トラッキングモジュール7fは、高密度の洗練された視差マップ、障害物のリスト、ジャイロ座標、および車両速度を受け取り、すべてのトラッキングされる障害物を含有する構造体のアレイを提供する。このプロセスは、たとえば、Kalmanフィルター予測を使用することによって行われ得る。
第7のサブモジュールは、障害物検出モジュール7gであり、障害物検出モジュール7gは、障害物のリストおよび速度、ジャイロ座標、車速度、およびグランド平面フィッティングを受け取り、物体IDおよび特質(たとえば、サイズ、速度など)、ならびに、衝突までの推定時間を提供する。障害物が重大な経路の中に(ジャイロマスクの下ではなく)見出される場合には、および、相関される速度(自己速度マイナス障害物速度)にしたがったブレーキ距離が、障害物までの範囲よりも短い場合には、モジュールは、重大な障害物インディケーションを提供する。
VLステレオ検出モジュール
VLステレオ検出モジュール8は、IRステレオ検出モジュール8のものと同じサブモジュール8a~8gを含む。同じ処理が実施されるが、VL画像に対して実施される。
ステレオ融合モジュール
ステレオ融合モジュール9は、以下の入力:方向指示器ステータス9a、IR画像BITステータス9b、VL画像BITステータス9c、前方の障害物に関する距離測定(IRセットによって計算される)、前方の障害物に関する距離測定(VLセットによって計算される)、障害物座標およびサイズ(IRセットによって計算される)、障害物座標およびサイズ(VLセットによって計算される)を、データバス9dおよび9eを介して受け取る。処理の後に、融合モジュール9は、以下のデータ:方向指示器ステータス、障害物座標、および境界ボックスサイズ、ならびに、障害物までの距離を、カメラモノモジュール11a、11b、10a、および10bのそれぞれに出力する。すべての4つのセンサ(カメラ)101a、101b、102a、102bが(画像BITユニット4aおよび4bにしたがって)利用可能である場合には、距離は、2つの立体セット間の平均として計算される。センサのうちの1つが故障している場合には、システムは、機能不良のカメラについてのインディケーションを提供することとなり、他のモノモジュールは、ワーキングセットにしたがって、距離を受け取る。
提案されたシステム100は、いくつかの融合レベルを適用するように適合されている。可視光チャネルとIRチャネルの間のデータ融合が、いくつかの方式で実施され得る。最も簡単な方式は、チャネル同士の間で切り替えることであり、また、事前決定された基準(たとえば、画像品質、SNR/SBR)にしたがって「最良のチャネル」を選択することである。別の方式は、それらの両方を起動させること、および、検出結果を融合させることである。最新式のモジュールは、より早いレベルにおいてチャネルを融合させることが可能である:視差マップ。物体検出に関して単一のマップだけを取り扱うために、(位置合わせの後に)2つのマップの間で融合させることが可能である。
BITユニット4aおよび4bにしたがって、すべての4つのセンサ(カメラ)が利用可能である場合には、物体までの距離が、2つの立体セットの間の平均として計算される。センサのうちの1つが故障している場合には、他のモノモジュールが、ワーキングセットにしたがって、距離を受け取る。このアーキテクチャは、システムが4レベルの冗長性を有することを可能にする。完全な動作セットでは、2つのIRカメラ(ステレオ)+2つのVLカメラ(ステレオ)がアクティブになっている。
カメラ機能不良
単一のカメラ機能不良に関して、以下の組み合わせが可能である:
1IRカメラ(モノ)+2VLカメラ(ステレオ)
2IRカメラ(モノ)+1VLカメラ(ステレオ)
2つのカメラ機能不良に関して、以下の組み合わせが可能である:
IRカメラ(動作していない)+2VLカメラ(ステレオ)
2IRカメラ(モノ)+0VLカメラ(動作していない)
1IRカメラ(モノ)+1VLカメラ(モノ)
3つのカメラ機能不良に関して、単一のカメラだけが動作しており、以下の組み合わせが可能である:
1つのIRカメラ(モノ)+VLカメラなし(動作していない)
IRカメラなし(動作していない)+1つのVLカメラ(モノ)
このケースでは、それぞれのカメラは、以下の動作を実施する「モノビジョン」カメラとして作用する:
a) 物体分類-ディープラーニング方法論による。モジュールは、センサによって獲得される完全な画像および障害物の境界ボックス(ステレオ層から入手可能であるケースにおいて)を受け取ることによって、たとえば、「車」/「歩行者」/「サイクリスト」を識別することが可能であり、処理の後に、(障害物が車/歩行者/サイクリストである場合には)物体分類を実施し、単一のカメラからのデータにしたがった物体距離推定に基づいて、障害物までの距離を計算する;
b) 車線逸脱警告(LDW)-センサによって獲得される完全な画像および方向指示器ステータスを受け取り、車線識別、ラインのタイプの識別、車線の中心からの偏差のパーセンテージを実施し、偏差のパーセンテージが定義された閾値よりも高いケースでは、アラートのためのインディケーションを提供する。これは、ハフ変換(画像処理検出直線の中で使用される数学的なツール)および適応的GL閾値(現実のラインとノイズとの間を区別するために、GL(グレーレベル)の上に閾値を設定することによる)に基づいて、車線検出のための従来の方法を使用することによって行われる;
c) 交通標識認識(TSR-可視光カメラの中でのみ利用可能である)-センサによって獲得される完全な画像を受け取り、交通標識識別を実施し、それに続いて、以下の場合のうちの1つにおいてアラートインディケーションを提供する:
・ 車速度が特定の許容速度よりも高くなっている
・ 車速度は、識別された「停止」標識の前でドライバーが停止することを可能にしないであろう
・ 「進入禁止」標識識別
物体認識は、ディープラーニング方法論を使用して行われ得る。
IRモノ比較モジュール
IRモノ比較モジュール12は、分類タスク(車/歩行者/サイクリスト/その他)の信頼性のレベル、および、車線逸脱インディケーションの信頼性のレベルを増加させる。また、このモジュールは、カメラによって計算される距離を平均する。IRモノ比較モジュール12は、IRセンサからの距離、障害物分類、車線逸脱インディケーション、およびラインタイプを受け取る。障害物分類の間に、両方のセンサが同じ分類について示す場合には、この分類が「モノ+ステレオ融合」モジュール14へ送られる。両方のセンサが車線逸脱について示す場合には、車線逸脱インディケーションが「モノ+ステレオ融合」モジュール14へ送られ、そうでなければ、警告インディケーションが「モノ+ステレオ融合」モジュール14へ送られる。両方のセンサが同じラインタイプについて示す場合には、このラインタイプが「モノ+ステレオ融合」モジュール14へ送られ、そうでなければ、「実線」インディケーションが「モノ+ステレオ融合」モジュール14へ送られる。
VLモノ比較モジュール
VLモノ比較モジュール13の機能性は、IRモノ比較モジュール12の機能性と同様であり、交通標識認識を使用した許容速度の追加を伴い、それは、標識の上の最大速度を検出する。両方のセンサが同じ交通標識を示す場合には、許容速度(検出される標識)が「モノ+ステレオ融合」モジュール14へ送られ、そうでなければ、それらの両方によって検出された最低速度が「モノ+ステレオ融合」モジュール14へ送られる。
モノ+ステレオ融合モジュール
モノ+ステレオ融合モジュール14は、ステレオ融合モジュール9ならびにモノ比較モジュール12および13からの結果を集計する論理ユニットである。モノ+ステレオ融合モジュール14は、ステレオ融合モジュール9から、方向指示器ステータス、障害物座標、ステレオセットにしたがったサイズおよび境界ボックス、障害物までの距離、(画像BITユニット4aおよび4bにしたがった)カメラ/画像ステータスを受け取る。モノ+ステレオ融合モジュール14は、モノ比較ユニット12および13から、距離、障害物分類、および車線逸脱入力を受け取り、受け取られたデータを処理した後に、すべてのインディケーションからの平均距離、車線逸脱決定、および障害物検出決定を出力する。
決定モジュール
決定モジュール15は、ユーザへの出力であり、聴覚的な/視覚的な/触覚的なインディケーションであることが可能である。
また、本発明によって提案されるシステムは、予測的な衝突警告を提供するように適合されている。先進運転支援システム(ADAS)は、運転プロセスにおいてドライバーを助けるためのシステムである。ADASシステムは、それらのFOVの中の道路の上の物体(たとえば、歩行者、サイクリストなど)を検出するように設計されており、また、運転している車線の中の潜在的な障害物が前方衝突につながる可能性のあるときには、アラートを出すように設計されている。しかし、別の危険が、仮想経路の外側の物体から生じる可能性がある。可能性のある交差する速度ベクトルを考慮すると、衝突が起こる可能性がある(典型例は、移動している車に対して何らかの角度で道路を渡ろうとしている歩行者であり、危険な道路事故につながる可能性がある)。相対速度ベクトルにしたがってFOVの中のすべての物体に関して潜在的な衝突ポイントを予測するためのモジュールは、帰納的な方式で、必要とされる情報をそのような予測に提供する。
天候条件は(主に、冬において)、道路の上の雪、マスキング分離ライン、または、ドライバーを誤らせる可能性のある水たまなどのような障害物を導入する。また、本発明によって提案されるシステムは、(主に、物体境界を強化することおよび深度変化を強調することによって)Ransacアルゴリズムに基づいて、そのような氷および水たまりを検出するように適合されている。
また、本発明によって提案されるシステムは、深い穴、陥没穴、および、他の種類の道路の不連続を検出するように適合されている。プラスの/マイナスの視差(マップからの)が、移動している車両が障害物または深い穴もしくは陥没穴の前にいるかどうかを推論するために使用され得る。
本発明の実施形態は、実例として説明されてきたが、本発明は、特許請求の範囲を超えることなく、多くの変形例、修正例、および適合例によって実施され得ることが理解されるであろう。
3a、3b 同期ユニット
4a、4b 画像ビルトインテスト(BIT)ユニット
5 ジャイロユニット
6 OBD
7 ステレオ検出IRモジュール
7a 自動キャリブレーションモジュール
7b 視差モジュール
7c 距離測定モジュール
7d グランド推定器モジュール
7e クラスタリングモジュール
7f トラッキングモジュール
7g 障害物検出モジュール
8 ステレオ検出VLモジュール
8a 自動キャリブレーションモジュール
8b 視差モジュール
8c 距離測定モジュール
8d グランド推定器モジュール
8e クラスタリングモジュール
8f トラッキングモジュール
8g 障害物検出モジュール
9 ステレオ融合モジュール
9a 方向指示器ステータス
9b IR画像BITステータス
9c VL画像BITステータス
9d、9e データバス
10a 左VLモジュール
10b 右VLモジュール
11a 左IRモノモジュール
11b 右IRモノモジュール
12 IRモノ比較モジュール
13 VLモノ比較モジュール
14 モノ+ステレオ融合モジュール
15 決定モジュール
100 システム
101a、101b IRセンサ
102a、102b VLセンサ

Claims (12)

  1. 衝突前アラートを提供するためのマルチスペクトル車両システムであって、
    a. 立体視用赤外線(IR)センサの第1の対および可視光(VL)センサの第2の対であって、前記第1および第2の対のそれぞれのセンサは、相互視野から獲得された対応する画像ストリームを提供し、同期されて立体視を提供する、立体視用赤外線(IR)センサの第1の対および可視光(VL)センサの第2の対と、
    b. ステレオデータ融合モジュールであって、
    b.1) 前記相互視野内の物体を検出するために、2つの前記対のために前記同期された画像ストリームに関連するデータストリームを相互に処理し、
    b.2) 前記相互に処理されたデータに基づいて、前記検出された物体までの推定距離を計算するためのデータ融合モジュールと、
    c. 異なる位置から三次元シーンを見る前記第1の対及び前記第2の対によりキャプチャーされる重複エリア上のマッチングポイントのセットを計算し、前記計算されたマッチングポイントを用いて、第1の前記2つのセンサの投影画像空間を第2の前記2つのセンサの投影画像空間に変換するホモグラフィーを計算するように構成された自動キャリブレーションモジュールと、
    d. 前記センサの2つの対と、前記システムが取り付けられた車両に設けられた携帯電話またはインフォテインメントシステムとの間の通信を可能にするためのセルラーベースの通信モジュールであって、前記携帯電話またはインフォテインメントシステムのプロセッサは専用のアプリケーションを実行し、前記専用のアプリケーションはバックグラウンドアプリケーションであり、前記通信モジュールは、
    d.1) ステレオデータ融合システムおよび前記自動キャリブレーションモジュールと共に他の車両を検出するために、前記車両の付近を監視し、
    d.2) 前記車両に対する前記他の車両のそれぞれの速度および進行方位角を計算し、
    d.3) 前記車両の速度、および前記他の車両のそれぞれの前記計算された速度および進行方位角に基づいて、1以上の前記他の車両が前記車両との衝突の経路の中にあるときにはいつでも、前記車両のドライバーにアラートを提供するように構成されている、
    マルチスペクトル車両システム。
  2. 前記自動キャリブレーションモジュールは、異なる位置から三次元シーンを見る両方のセンサの光軸が平行である間に、前記計算されたマッチングポイントに関連する視差計算およびエピポーラ幾何に基づいて、前記立体視の3D深度マップを再構築するように構成される、請求項1に記載のマルチスペクトル車両システム。
  3. 前記センサの各対に対して、前記センサの前記対から画像を受け取るように構成される、対応するビルトインテスト(BIT)ユニットであって、前記対応するビルトインテスト(BIT)ユニットは、前記受け取った画像の品質が既定の閾値未満であるかを決定し、前記既定の閾値未満の画像品質を有する前記センサのインジケータを前記ステレオデータ融合モジュールに転送する、対応するビルトインテスト(BIT)ユニットをさらに備える、請求項1に記載のマルチスペクトル車両システム。
  4. 前記センサのそれぞれに対して、モノ比較モジュールをさらに備えるマルチスペクトル車両システムであって、前記モノ比較モジュールは、
    i. 前記ステレオデータ融合モジュールから出力された処理データと、対応する獲得した画像ストリームに関連するデータとを比較して、第1の比較データインジケータを生成するステップと、
    ii. 同じ対のセンサの他のセンサに関連づけられた前記モノ比較モジュールにより生成された第1の比較データインジケータと、前記ステップiにおいて生成された第1の比較データインジケータとを比較して、第2の比較データインジケータを生成するステップと、を実行可能である、
    請求項3に記載のマルチスペクトル車両システム。
  5. 前記ステレオデータ融合モジュールから出力された処理データを、モノ比較モジュールの各々により生成された前記第2の比較データインジケータと集計するように構成された追加データ融合モジュールをさらに備える請求項4に記載のマルチスペクトル車両システム。
  6. 前記検出された物体までの平均距離の出力を表す出力を前記追加データ融合モジュールから受け取り、1以上の前記他の車両が前記車両との衝突の経路の中にあるときにはいつでも、前記通信モジュールを介して応答してアラートを出力するように構成された決定モジュールをさらに備える請求項5に記載のマルチスペクトル車両システム。
  7. 歪められていない、適当なホモグラフィーによる変換の後に修正された、および同期された2つの画像を前記自動キャリブレーションモジュールから受け取り、視差マップを生成するように構成された視差モジュールをさらに備える請求項2に記載のマルチスペクトル車両システム。
  8. a. 前記視差マップを受け取り、ピクセル毎の距離を提供するための距離測定モジュールと、
    b. グランド推定器モジュールであって、前記グランド推定器モジュールは、キャリブレートされ、同期された画像とともに、前記視差マップを受け取り、グランド平面セグメンテーションを提供する、グランド推定器モジュールと、
    c. クラスタリングモジュールであって、前記クラスタリングモジュールは、前記視差マップおよびグランド平面フィッティングを受け取り、前記画像ストリームから障害物を抽出する、クラスタリングモジュールと、
    d. トラッキングモジュールであって、前記トラッキングモジュールは、前記視差マップ、障害物のリスト、ジャイロから出力された値であるジャイロ座標、および車両速度を受け取り、すべてのトラッキングされる障害物のための構造体のアレイを提供する、トラッキングモジュールと、
    をさらに備える、請求項7に記載のマルチスペクトル車両システム。
  9. 前記ステレオデータ融合モジュールは、方向指示器ステータス、IR画像BITステータス、VL画像BITステータス、前方の障害物に関する距離、ならびに障害物座標および大きさを受け取り、次の処理されたデータ、すなわち方向指示器ステータス、障害物座標、および境界ボックスサイズ、ならびに前記障害物までの距離のデータを、前記モノ比較モジュールのそれぞれに出力する、請求項4に記載のマルチスペクトル車両システム。
  10. 前記BITユニットは、少なくとも以下のテスト:
    a. 前記受け取った画像の質
    b. GLヒストグラムを用いる前記受け取った画像のブライトネス
    c. 前記車両のフロントガラス上の染みによる部分的な閉塞を識別
    d. カラーヒストグラムを用いる異常なチャネルの検出
    e. 同期を検証するためのタイムスタンプ検証
    を実行可能である、請求項3に記載のマルチスペクトル車両システム。
  11. キャリブレーションが、
    a) 指定されたターゲットに対して初期キャリブレーションを実施するステップであって、前記指定されたターゲットは、車両の前に設置されており、2つの独立した左及び右カメラが前記車両の上に据え付けられている、ステップと、
    b) それぞれの前記カメラの光軸および向きに関してそれぞれの前記カメラの向きを計算するステップと、
    c) 加速ロバスト特徴(SURF)アルゴリズムを使用して前記マッチングポイントを見出すステップと、
    d) マッチングポイントのセットからの異常値、および初期基礎行列を精緻にするステップと、
    e) 反復基礎行列推定を最小化によって実施するステップと、
    f) エピポーラ幾何を使用して、左ホモグラフィーおよび右ホモグラフィーの初期計算を実施するステップと、
    g) 前記カメラの内因性のパラメーター、中心ポイント修正、Wオフセットを使用することによって、最良のホモグラフィーを反復して計算するステップと、
    h) フレームの完全なセット上で有効な、前記ホモグラフィーに対する最良にフィットした内因性のパラメーターを推定するステップと、
    i) 前記左カメラおよび右カメラによってキャプチャーされる重複エリア上の前記マッチングポイントのセットを計算するステップと、
    j) 重複した前記マッチングポイントを使用して、両方の前記カメラの画像空間を変換する前記ホモグラフィーを計算するステップと、
    k) 前記車両が移動していないたびに、キャリブレーションプロセスを定期的に繰り返すステップと、
    によって実施され、
    前記Wオフセットは、それぞれの前記カメラにおける、それぞれのカメラのセンサの中心とそれぞれのカメラの光軸との間の距離偏差である、
    請求項1に記載のマルチスペクトル車両システム。
  12. 前記視差モジュールは、
    a) Census相関関係を使用して初期コスト関数を計算するステップと、
    b) キャリブレーション結果に基づいて、低減された度数でセミグローバルブロックマッチング(SGBM)アルゴリズムを実施するステップと、
    c) 前記画像を垂直方向のストライプにスプリットし、ストライプ毎に前記SGBMアルゴリズムを計算するステップと、
    d) すべてのストライプからのグローバルフィットを実施して、グローバル視差マップを生成するステップと、
    e) 平均化適応的メジアンフィルターを適用しながら、前記左ステレオ画像の上でステレオセグメンテーションを計算し、テクスチャーマップフィッティングを追加するステップと、
    によって、視差マップを生成する、請求項7に記載のマルチスペクトル車両システム。
JP2020557022A 2018-01-08 2019-01-07 衝突前アラートを提供するためのマルチスペクトルシステム Active JP7485612B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862614523P 2018-01-08 2018-01-08
US62/614,523 2018-01-08
PCT/IL2019/050034 WO2019135246A1 (en) 2018-01-08 2019-01-07 A multi-spectral system for providing pre-collision alerts

Publications (3)

Publication Number Publication Date
JP2021510227A JP2021510227A (ja) 2021-04-15
JPWO2019135246A5 JPWO2019135246A5 (ja) 2023-05-22
JP7485612B2 true JP7485612B2 (ja) 2024-05-16

Family

ID=67144036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020557022A Active JP7485612B2 (ja) 2018-01-08 2019-01-07 衝突前アラートを提供するためのマルチスペクトルシステム

Country Status (5)

Country Link
US (1) US11100806B2 (ja)
EP (1) EP3738072A4 (ja)
JP (1) JP7485612B2 (ja)
CN (1) CN111727437A (ja)
WO (1) WO2019135246A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10764561B1 (en) 2016-04-04 2020-09-01 Compound Eye Inc Passive stereo depth sensing
US11508079B2 (en) * 2019-06-28 2022-11-22 Intel Corporation Parallelism in disparity map generation
US11627299B1 (en) * 2019-08-20 2023-04-11 Opic, Inc. Method and apparatus for a stereoscopic smart phone
US11030478B1 (en) 2019-11-27 2021-06-08 Compound Eye, Inc. System and method for correspondence map determination
US11069071B1 (en) 2020-01-21 2021-07-20 Compound Eye, Inc. System and method for egomotion estimation
US11270467B2 (en) * 2020-01-21 2022-03-08 Compound Eye, Inc. System and method for camera calibration
US11178382B1 (en) * 2020-10-27 2021-11-16 Shoppertrak Rct Corporation Auto-calibration of stereoscopic imaging device
CN113838111A (zh) * 2021-08-09 2021-12-24 北京中科慧眼科技有限公司 一种道路纹理特征检测方法、装置与自动驾驶系统
CN114650405B (zh) * 2022-03-21 2023-01-24 嘉兴智瞳科技有限公司 一种立体视频最佳融像视差成像方法及装置
TWI816387B (zh) * 2022-05-05 2023-09-21 勝薪科技股份有限公司 語意距離地圖的建構方法及其相關移動裝置
WO2023235093A1 (en) * 2022-05-31 2023-12-07 Douglas Robert Edwin A method and apparatus for a stereoscopic smart phone

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243787A (ja) 2003-02-10 2004-09-02 Nissan Motor Co Ltd 車線逸脱防止装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7446798B2 (en) * 2003-02-05 2008-11-04 Siemens Corporate Research, Inc. Real-time obstacle detection with a calibrated camera and known ego-motion
WO2005098782A1 (en) 2004-04-08 2005-10-20 Mobileye Technologies Limited Collision warning system
EP2209091B1 (en) 2009-01-16 2012-08-08 Honda Research Institute Europe GmbH System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system
WO2010129907A2 (en) * 2009-05-08 2010-11-11 Scientific Systems Company Inc. Method and system for visual collision detection and estimation
CN102685516A (zh) * 2011-03-07 2012-09-19 李慧盈 立体视觉主动安全辅助驾驶方法
US9191643B2 (en) * 2013-04-15 2015-11-17 Microsoft Technology Licensing, Llc Mixing infrared and color component data point clouds
TWI530409B (zh) * 2014-11-07 2016-04-21 財團法人工業技術研究院 自動追蹤防撞警示系統及其方法
US9933264B2 (en) * 2015-04-06 2018-04-03 Hrl Laboratories, Llc System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation
WO2017115371A1 (en) * 2015-12-30 2017-07-06 Foresight Automotive Ltd. Apparatus and method for avoiding vehicular accidents
US20170277187A1 (en) * 2016-02-29 2017-09-28 Optecks, Llc Aerial Three-Dimensional Scanner
US9946264B2 (en) * 2016-03-22 2018-04-17 Sharp Laboratories Of America, Inc. Autonomous navigation using visual odometry
WO2018115958A2 (en) * 2016-12-22 2018-06-28 Orange Method for operating a device having a switchable power saving mode for reducing its power consumption
CN107301371A (zh) * 2017-05-11 2017-10-27 江苏保千里视像科技集团股份有限公司 一种基于图像信息融合的非结构化道路检测方法及系统
US10657818B2 (en) * 2017-11-06 2020-05-19 Nio Usa, Inc. External alert system for vehicle door opening

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243787A (ja) 2003-02-10 2004-09-02 Nissan Motor Co Ltd 車線逸脱防止装置

Also Published As

Publication number Publication date
WO2019135246A1 (en) 2019-07-11
CN111727437A (zh) 2020-09-29
US11100806B2 (en) 2021-08-24
EP3738072A1 (en) 2020-11-18
US20200349846A1 (en) 2020-11-05
JP2021510227A (ja) 2021-04-15
EP3738072A4 (en) 2021-09-29

Similar Documents

Publication Publication Date Title
JP7485612B2 (ja) 衝突前アラートを提供するためのマルチスペクトルシステム
US9443154B2 (en) Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
CN106054191B (zh) 车轮检测和其在物体跟踪以及传感器配准中的应用
CN106054174B (zh) 使用雷达和摄像机用于横越交通应用的融合方法
EP3161507B1 (en) Method for tracking a target vehicle approaching a motor vehicle by means of a camera system of the motor vehicle, camera system and motor vehicle
EP3007099B1 (en) Image recognition system for a vehicle and corresponding method
KR101891460B1 (ko) 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치
CN109313813B (zh) 用于机动车辆的视觉系统和方法
EP2928178B1 (en) On-board control device
Haloi et al. A robust lane detection and departure warning system
EP3557527B1 (en) Object detection device
US11662221B2 (en) Change point detection device and map information distribution system
JP2008123462A (ja) 物体検知装置
US10832428B2 (en) Method and apparatus for estimating a range of a moving object
CN110942038A (zh) 基于视觉的交通场景识别方法、装置、介质及电子设备
Petrovai et al. A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices
US9524645B2 (en) Filtering device and environment recognition system
JPWO2019135246A5 (ja)
WO2014050285A1 (ja) ステレオカメラ装置
Labayrade et al. Obstacle detection based on fusion between stereovision and 2d laser scanner
US20230085024A1 (en) Apparatus for obstacle detection based on relative image motion
CN116416584A (zh) 用于其他交通参与方的参考值生成方法及设备
CN116416591A (zh) 用于行车边界的参考值生成方法及设备
Shadeed Development of a light-based driver assistance system
KR20180040313A (ko) 단안 카메라를 이용한 차로 경계면 검출장치 및 방법

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20200904

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230309

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20230512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240502

R150 Certificate of patent or registration of utility model

Ref document number: 7485612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150