JPWO2019135246A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2019135246A5 JPWO2019135246A5 JP2020557022A JP2020557022A JPWO2019135246A5 JP WO2019135246 A5 JPWO2019135246 A5 JP WO2019135246A5 JP 2020557022 A JP2020557022 A JP 2020557022A JP 2020557022 A JP2020557022 A JP 2020557022A JP WO2019135246 A5 JPWO2019135246 A5 JP WO2019135246A5
- Authority
- JP
- Japan
- Prior art keywords
- module
- vehicle
- multispectral
- image
- sensors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Description
1つの態様では、マルチスペクトル車両システムは、
a. IRおよびVLステレオ検出モジュールであって、IRおよびVLステレオ検出モジュールのそれぞれは、両方のセンサの光軸が平行である間に、視差計算およびエピポーラ幾何に基づいて、立体視の3D深度マップを再構築するための自動キャリブレーションモジュールから構成されている、IRおよびVLステレオ検出モジュールと、
b. 視差モジュールであって、視差モジュールは、2つの歪められていない(半径方向および接線方向)、修正された(適当なホモグラフィーによる変換後の)、および同期された画像を受け取り、稠密かつ精緻な視差マップを生成する、視差モジュールと、
c. 視差マップを受け取り、ピクセル毎の距離を提供するための距離測定モジュールと、
d. グランド推定器(GroundEstimator)モジュールであって、グランド推定器モジュールは、キャリブレートされ、同期された画像とともに、稠密かつ精緻な視差マップを受け取り、稠密なグランド平面セグメンテーションを提供する、グランド推定器モジュールと、
e. クラスタリングモジュールであって、クラスタリングモジュールは、稠密かつ精緻な視差マップ、V-視差マップ、およびグランド平面フィッティングを受け取り、画像ストリームから障害物を抽出する、クラスタリングモジュールと、
f. トラッキングモジュールであって、トラッキングモジュールは、稠密かつ精緻な視差マップ、障害物のリスト、ジャイロ座標、および車両速度を受け取り、すべてのトラッキングされる障害物を含有する構造体のアレイを提供する、トラッキングモジュールと、
g. 障害物検出モジュールであって、障害物検出モジュールは、障害物のリストおよび速度、ジャイロ座標、車速度、およびグランド平面フィッティングを受け取り、物体IDおよび特質、ならびに、衝突までの推定時間を提供し、障害物が重大な経路の中に見出されるときにはいつでも、および、相関される速度にしたがったブレーキ距離が障害物までの範囲よりも短い場合には、重大な障害物インディケーションを提供する、障害物検出モジュールと、
h. ステレオ融合モジュールであって、ステレオ融合モジュールは、方向指示器ステータス、IR画像BITステータス、VL画像BITステータス、前方の障害物に関する距離測定(IRセットによって計算される)、前方の障害物に関する距離測定(VLセットによって計算される)、障害物座標およびサイズ(IRおよびVLセットによって計算される)を受け取り、方向指示器ステータス、障害物座標、および境界ボックスサイズ、ならびに、障害物までの距離のデータを、カメラモノモジュールのそれぞれに出力する、ステレオ融合モジュールと、
i. 聴覚的な/視覚的な/触覚的なインディケーションをユーザに提供するための決定モジュールと
を備える(以下、精緻を高密度ともいい、精緻を洗練ともいう)。
a. IRおよびVLステレオ検出モジュールであって、IRおよびVLステレオ検出モジュールのそれぞれは、両方のセンサの光軸が平行である間に、視差計算およびエピポーラ幾何に基づいて、立体視の3D深度マップを再構築するための自動キャリブレーションモジュールから構成されている、IRおよびVLステレオ検出モジュールと、
b. 視差モジュールであって、視差モジュールは、2つの歪められていない(半径方向および接線方向)、修正された(適当なホモグラフィーによる変換後の)、および同期された画像を受け取り、稠密かつ精緻な視差マップを生成する、視差モジュールと、
c. 視差マップを受け取り、ピクセル毎の距離を提供するための距離測定モジュールと、
d. グランド推定器(GroundEstimator)モジュールであって、グランド推定器モジュールは、キャリブレートされ、同期された画像とともに、稠密かつ精緻な視差マップを受け取り、稠密なグランド平面セグメンテーションを提供する、グランド推定器モジュールと、
e. クラスタリングモジュールであって、クラスタリングモジュールは、稠密かつ精緻な視差マップ、V-視差マップ、およびグランド平面フィッティングを受け取り、画像ストリームから障害物を抽出する、クラスタリングモジュールと、
f. トラッキングモジュールであって、トラッキングモジュールは、稠密かつ精緻な視差マップ、障害物のリスト、ジャイロ座標、および車両速度を受け取り、すべてのトラッキングされる障害物を含有する構造体のアレイを提供する、トラッキングモジュールと、
g. 障害物検出モジュールであって、障害物検出モジュールは、障害物のリストおよび速度、ジャイロ座標、車速度、およびグランド平面フィッティングを受け取り、物体IDおよび特質、ならびに、衝突までの推定時間を提供し、障害物が重大な経路の中に見出されるときにはいつでも、および、相関される速度にしたがったブレーキ距離が障害物までの範囲よりも短い場合には、重大な障害物インディケーションを提供する、障害物検出モジュールと、
h. ステレオ融合モジュールであって、ステレオ融合モジュールは、方向指示器ステータス、IR画像BITステータス、VL画像BITステータス、前方の障害物に関する距離測定(IRセットによって計算される)、前方の障害物に関する距離測定(VLセットによって計算される)、障害物座標およびサイズ(IRおよびVLセットによって計算される)を受け取り、方向指示器ステータス、障害物座標、および境界ボックスサイズ、ならびに、障害物までの距離のデータを、カメラモノモジュールのそれぞれに出力する、ステレオ融合モジュールと、
i. 聴覚的な/視覚的な/触覚的なインディケーションをユーザに提供するための決定モジュールと
を備える(以下、精緻を高密度ともいい、精緻を洗練ともいう)。
マルチスペクトル車両システムは、モノ+ステレオ融合モジュールをさらに備えてもよく、モノ+ステレオ融合モジュールは、ステレオ融合モジュールから、方向指示器ステータス、障害物座標、ステレオセットに応じたサイズおよび境界ボックス、障害物までの距離、カメラ/画像ステータスを受け取り、ステレオ融合モジュールおよびモノ比較モジュールからの結果を集計し、すべてのインディケーションからの平均距離、車線逸脱決定、および障害物検出決定を出力する。
モノ+ステレオ融合モジュール
モノ+ステレオ融合モジュール14は、ステレオ融合モジュール9ならびにモノ比較モジュール12および13からの結果を集計する論理ユニットである。モノ+ステレオ融合モジュール14は、ステレオ融合モジュール9から、方向指示器ステータス、障害物座標、ステレオセットにしたがったサイズおよび境界ボックス、障害物までの距離、(画像BITユニット4aおよび4bにしたがった)カメラ/画像ステータスを受け取る。モノ+ステレオ融合モジュール14は、モノ比較ユニット12および13から、距離、障害物分類、および車線逸脱入力を受け取り、受け取られたデータを処理した後に、すべてのインディケーションからの平均距離、車線逸脱決定、および障害物検出決定を出力する。
モノ+ステレオ融合モジュール14は、ステレオ融合モジュール9ならびにモノ比較モジュール12および13からの結果を集計する論理ユニットである。モノ+ステレオ融合モジュール14は、ステレオ融合モジュール9から、方向指示器ステータス、障害物座標、ステレオセットにしたがったサイズおよび境界ボックス、障害物までの距離、(画像BITユニット4aおよび4bにしたがった)カメラ/画像ステータスを受け取る。モノ+ステレオ融合モジュール14は、モノ比較ユニット12および13から、距離、障害物分類、および車線逸脱入力を受け取り、受け取られたデータを処理した後に、すべてのインディケーションからの平均距離、車線逸脱決定、および障害物検出決定を出力する。
Claims (12)
- 衝突前アラートを提供するためのマルチスペクトル車両システムであって、
a. 立体視用赤外線(IR)センサの第1の対および可視光(VL)センサの第2の対であって、前記第1および第2の対のそれぞれのセンサは、相互視野から獲得された対応する画像ストリームを提供し、同期されて立体視を提供する、立体視用赤外線(IR)センサの第1の対および可視光(VL)センサの第2の対と、
b. ステレオデータ融合モジュールであって、
b.1) 前記相互視野内の物体を検出するために、2つの前記対のために前記同期された画像ストリームに関連するデータストリームを相互に処理し、
b.2) 前記相互に処理されたデータに基づいて、前記検出された物体までの推定距離を計算するためのデータ融合モジュールと、
c. 異なる位置から三次元シーンを見る前記第1の対及び前記第2の対によりキャプチャーされる重複エリア上のマッチングポイントのセットを計算し、前記計算されたマッチングポイントを用いて、第1の前記2つのセンサの投影画像空間を第2の前記2つのセンサの投影画像空間に変換するホモグラフィーを計算するように構成された自動キャリブレーションモジュールと、
d. 前記センサの2つの対と、前記システムが取り付けられた車両に設けられた携帯電話またはインフォテインメントシステムとの間の通信を可能にするためのセルラーベースの通信モジュールであって、前記携帯電話またはインフォテインメントシステムのプロセッサは専用のアプリケーションを実行し、前記専用のアプリケーションはバックグラウンドアプリケーションであり、前記通信モジュールは、
d.1) 前記ステレオデータ融合システムおよび前記自動キャリブレーションモジュールと共に他の車両を検出するために、前記車両の付近を監視し、
d.2) 前記車両に対する前記他の車両のそれぞれの速度および進行方位角を計算し、
d.3) 前記車両の速度、および前記他の車両のそれぞれの前記計算された速度および進行方位角に基づいて、1以上の前記他の車両が前記車両との衝突の経路の中にあるときにはいつでも、前記車両のドライバーにアラートを提供するように構成されている、
マルチスペクトル車両システム。 - 前記自動キャリブレーションモジュールは、異なる位置から三次元シーンを見る両方のセンサの光軸が平行である間に、前記計算されたマッチングポイントに関連する視差計算およびエピポーラ幾何に基づいて、前記立体視の3D深度マップを再構築するように構成される、請求項1に記載のマルチスペクトル車両システム。
- 前記センサの各対に対して、前記センサの前記対から画像を受け取るように構成される、対応するビルトインテスト(BIT)ユニットであって、前記対応するビルトインテスト(BIT)ユニットは、前記受け取った画像の品質が既定の閾値未満であるかを決定し、前記既定の閾値未満の画像品質を有する前記センサのインジケータを前記ステレオデータ融合モジュールに転送する、対応するビルトインテスト(BIT)ユニットをさらに備える、請求項1に記載のマルチスペクトル車両システム。
- 前記センサのそれぞれに対して、モノ比較モジュールをさらに備えるマルチスペクトル車両システムであって、前記モノ比較モジュールは、
i. 前記ステレオデータ融合モジュールから出力された処理データと、対応する獲得した画像ストリームに関連するデータとを比較して、第1の比較データインジケータを生成するステップと、
ii. 同じ対のセンサの他のセンサに関連づけられた前記モノ比較モジュールにより生成された第1の比較データインジケータと、前記ステップiにおいて生成された第1の比較データインジケータとを比較して、第2の比較データインジケータを生成するステップと、を実行可能である、
請求項3に記載のマルチスペクトル車両システム。 - 前記ステレオデータ融合モジュールから出力された処理データを、モノ比較モジュールの各々により生成された前記第2の比較データインジケータと集計するように構成された追加データ融合モジュールをさらに備える請求項4に記載のマルチスペクトル車両システム。
- 前記検出された物体までの平均距離の出力を表す出力を前記追加データ融合モジュールから受け取り、1以上の前記他の車両が前記車両との衝突の経路の中にあるときにはいつでも、前記通信モジュールを介して応答してアラートを出力するように構成された決定モジュールをさらに備える請求項5に記載のマルチスペクトル車両システム。
- 半径方向および接線方向に歪められていない、適当なホモグラフィーによる変換の後に修正された、および同期された2つの画像を前記自動キャリブレーションモジュールから受け取り、視差マップを生成するように構成された視差モジュールをさらに備える請求項2に記載のマルチスペクトル車両システム。
- a. 前記視差マップを受け取り、ピクセル毎の距離を提供するための距離測定モジュールと、
b. グランド推定器モジュールであって、前記グランド推定器モジュールは、キャリブレートされ、同期された画像とともに、前記視差マップを受け取り、稠密なグランド平面セグメンテーションを提供する、グランド推定器モジュールと、
c. クラスタリングモジュールであって、前記クラスタリングモジュールは、前記稠密かつ精緻な視差マップを受け取り、前記画像ストリームから障害物を抽出する、クラスタリングモジュールと、
d. トラッキングモジュールであって、前記トラッキングモジュールは、前記視差マップ、障害物のリスト、ジャイロから出力された値であるジャイロ座標、および車両速度を受け取り、すべてのトラッキングされる障害物のための構造体のアレイを提供する、トラッキングモジュールと、
をさらに備える、請求項7に記載のマルチスペクトル車両システム。 - 前記ステレオ融合モジュールは、方向指示器ステータス、IR画像BITステータス、VL画像BITステータス、前方の障害物に関する距離、ならびに障害物座標および大きさを受け取り、次の処理されたデータ、すなわち方向指示器ステータス、障害物座標、および境界ボックスサイズ、ならびに前記障害物までの距離のデータを、前記モノ比較モジュールのそれぞれに出力する、請求項4に記載のマルチスペクトル車両システム。
- 前記BITユニットは、少なくとも以下のテスト:
a. 前記受け取った画像の質
b. GLヒストグラムを用いる前記受け取った画像のブライトネス
c. 前記車両のフロントガラス上の染みによる部分的な閉塞を識別
d. カラーヒストグラムを用いる異常なチャネルの検出
e. 同期を検証するためのタイムスタンプ検証
を実行可能である、請求項3に記載のマルチスペクトル車両システム。 - キャリブレーションが、
a) 指定されたターゲットに対して初期キャリブレーションを実施するステップであって、前記指定されたターゲットは、車両の前に設置されており、2つの独立したカメラが前記車両の上に据え付けられている、ステップと、
b) それぞれのカメラの光軸および向きに関してそれぞれのカメラの向きを計算するステップと、
c) 加速ロバスト特徴(SURF)アルゴリズムを使用してマッチングポイントを見出すステップと、
d) マッチングポイントのセットからの異常値および初期基礎行列を精緻にするステップと、
e) 反復基礎行列推定を最小化によって実施するステップと、
f) エピポーラ幾何を使用して、左ホモグラフィーおよび右ホモグラフィーの初期計算を実施するステップと、
g) 前記カメラの内因性のパラメーター、中心ポイント修正、Wオフセットを使用することによって、最良のホモグラフィーを反復して計算するステップと、
h) 前記フレームの完全なセット上で有効な、ホモグラフィーに対する最良にフィットした前記内因性のパラメーターを推定するステップと、
i) 前記左カメラおよび右カメラによってキャプチャーされる重複エリア上の前記マッチングポイントのセットを計算するステップと、
j) 重複した前記マッチングポイントを使用して、両方のカメラの画像空間を変換するホモグラフィーを計算するステップと、
k) 前記車両が移動していないたびに、前記プロセスを定期的に繰り返すステップと、
によって実施され、
前記Wオフセットは、センサの中心と光学系の中心との間の距離偏差である、
請求項1に記載のマルチスペクトル車両システム。 - 前記視差モジュールは、
a) Census相関関係を使用して初期コスト関数を計算するステップと、
b) キャリブレーション結果に基づいて、低減された度数でセミグローバルブロックマッチング(SGBM)アルゴリズムを実施するステップと、
c) 前記画像を垂直方向のストライプにスプリットし、ストライプ毎に前記SGBMアルゴリズムを計算するステップと、
d) すべてのストライプからのグローバルフィットを実施して、グローバル視差マップを生成するステップと、
e) 平均化適応的メジアンフィルターを適用しながら、前記左ステレオ画像(左視差)の上でステレオセグメンテーションを計算し、前記テクスチャーマップフィッティングを追加するステップと、
によって、視差マップを生成する、請求項7に記載のマルチスペクトル車両システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862614523P | 2018-01-08 | 2018-01-08 | |
US62/614,523 | 2018-01-08 | ||
PCT/IL2019/050034 WO2019135246A1 (en) | 2018-01-08 | 2019-01-07 | A multi-spectral system for providing pre-collision alerts |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021510227A JP2021510227A (ja) | 2021-04-15 |
JPWO2019135246A5 true JPWO2019135246A5 (ja) | 2023-05-22 |
JP7485612B2 JP7485612B2 (ja) | 2024-05-16 |
Family
ID=67144036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020557022A Active JP7485612B2 (ja) | 2018-01-08 | 2019-01-07 | 衝突前アラートを提供するためのマルチスペクトルシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11100806B2 (ja) |
EP (1) | EP3738072A4 (ja) |
JP (1) | JP7485612B2 (ja) |
CN (1) | CN111727437A (ja) |
WO (1) | WO2019135246A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10764561B1 (en) | 2016-04-04 | 2020-09-01 | Compound Eye Inc | Passive stereo depth sensing |
US11508079B2 (en) * | 2019-06-28 | 2022-11-22 | Intel Corporation | Parallelism in disparity map generation |
US11627299B1 (en) * | 2019-08-20 | 2023-04-11 | Opic, Inc. | Method and apparatus for a stereoscopic smart phone |
US11030478B1 (en) | 2019-11-27 | 2021-06-08 | Compound Eye, Inc. | System and method for correspondence map determination |
US11270467B2 (en) * | 2020-01-21 | 2022-03-08 | Compound Eye, Inc. | System and method for camera calibration |
US11069071B1 (en) | 2020-01-21 | 2021-07-20 | Compound Eye, Inc. | System and method for egomotion estimation |
US11178382B1 (en) * | 2020-10-27 | 2021-11-16 | Shoppertrak Rct Corporation | Auto-calibration of stereoscopic imaging device |
CN113838111A (zh) * | 2021-08-09 | 2021-12-24 | 北京中科慧眼科技有限公司 | 一种道路纹理特征检测方法、装置与自动驾驶系统 |
CN114650405B (zh) * | 2022-03-21 | 2023-01-24 | 嘉兴智瞳科技有限公司 | 一种立体视频最佳融像视差成像方法及装置 |
TWI816387B (zh) * | 2022-05-05 | 2023-09-21 | 勝薪科技股份有限公司 | 語意距離地圖的建構方法及其相關移動裝置 |
WO2023235093A1 (en) * | 2022-05-31 | 2023-12-07 | Douglas Robert Edwin | A method and apparatus for a stereoscopic smart phone |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7446798B2 (en) * | 2003-02-05 | 2008-11-04 | Siemens Corporate Research, Inc. | Real-time obstacle detection with a calibrated camera and known ego-motion |
JP3870911B2 (ja) * | 2003-02-10 | 2007-01-24 | 日産自動車株式会社 | 車線逸脱防止装置 |
EP1741079B1 (en) | 2004-04-08 | 2008-05-21 | Mobileye Technologies Limited | Collision warning system |
EP2209091B1 (en) | 2009-01-16 | 2012-08-08 | Honda Research Institute Europe GmbH | System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system |
WO2010129907A2 (en) * | 2009-05-08 | 2010-11-11 | Scientific Systems Company Inc. | Method and system for visual collision detection and estimation |
CN102685516A (zh) * | 2011-03-07 | 2012-09-19 | 李慧盈 | 立体视觉主动安全辅助驾驶方法 |
US9191643B2 (en) * | 2013-04-15 | 2015-11-17 | Microsoft Technology Licensing, Llc | Mixing infrared and color component data point clouds |
TWI530409B (zh) * | 2014-11-07 | 2016-04-21 | 財團法人工業技術研究院 | 自動追蹤防撞警示系統及其方法 |
US9933264B2 (en) * | 2015-04-06 | 2018-04-03 | Hrl Laboratories, Llc | System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation |
WO2017115371A1 (en) | 2015-12-30 | 2017-07-06 | Foresight Automotive Ltd. | Apparatus and method for avoiding vehicular accidents |
WO2017151641A1 (en) * | 2016-02-29 | 2017-09-08 | Optecks, Llc | Aerial three-dimensional scanner |
US9946264B2 (en) * | 2016-03-22 | 2018-04-17 | Sharp Laboratories Of America, Inc. | Autonomous navigation using visual odometry |
EP3559779A2 (en) * | 2016-12-22 | 2019-10-30 | Orange | Method for operating a device having a switchable power saving mode for reducing its power consumption |
CN107301371A (zh) * | 2017-05-11 | 2017-10-27 | 江苏保千里视像科技集团股份有限公司 | 一种基于图像信息融合的非结构化道路检测方法及系统 |
US10657818B2 (en) * | 2017-11-06 | 2020-05-19 | Nio Usa, Inc. | External alert system for vehicle door opening |
-
2019
- 2019-01-07 CN CN201980013375.2A patent/CN111727437A/zh active Pending
- 2019-01-07 US US16/960,452 patent/US11100806B2/en active Active
- 2019-01-07 JP JP2020557022A patent/JP7485612B2/ja active Active
- 2019-01-07 WO PCT/IL2019/050034 patent/WO2019135246A1/en active Search and Examination
- 2019-01-07 EP EP19735766.8A patent/EP3738072A4/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7485612B2 (ja) | 衝突前アラートを提供するためのマルチスペクトルシステム | |
US10097812B2 (en) | Stereo auto-calibration from structure-from-motion | |
JP5689907B2 (ja) | 車両において通行物体位置検出を向上する方法 | |
US9846812B2 (en) | Image recognition system for a vehicle and corresponding method | |
US10650271B2 (en) | Image processing apparatus, imaging device, moving object device control system, and image processing method | |
EP3792660B1 (en) | Method, apparatus and system for measuring distance | |
CN108028023A (zh) | 信息处理装置、信息处理方法和程序 | |
US10074021B2 (en) | Object detection apparatus, object detection method, and program | |
CN106054191A (zh) | 车轮检测和其在物体跟踪以及传感器配准中的应用 | |
CN109263637B (zh) | 一种碰撞预测的方法及装置 | |
JP2016119085A (ja) | 障害物検出装置および障害物検出方法 | |
KR20160062880A (ko) | 카메라 및 레이더를 이용한 교통정보 관리시스템 | |
WO2012056443A2 (en) | Tracking and identification of a moving object from a moving sensor using a 3d model | |
JP2014138420A (ja) | 自律車両用の奥行き検知方法及びシステム | |
EP3163506A1 (en) | Method for stereo map generation with novel optical resolutions | |
US10832428B2 (en) | Method and apparatus for estimating a range of a moving object | |
JPWO2019135246A5 (ja) | ||
JP2000207693A (ja) | 車載用障害物検出装置 | |
JP6396499B2 (ja) | 三次元情報の規模測定 | |
JP5501084B2 (ja) | 平面領域検出装置及びステレオカメラシステム | |
JP2015179066A (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
Romdhane et al. | A generic obstacle detection method for collision avoidance | |
Yamaguchi | Three dimensional measurement using fisheye stereo vision | |
EP3342644B1 (en) | Display device for vehicle and display method for vehicle | |
JPH11345336A (ja) | 障害物検出装置 |