JP2010165352A - 多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両 - Google Patents
多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両 Download PDFInfo
- Publication number
- JP2010165352A JP2010165352A JP2009297596A JP2009297596A JP2010165352A JP 2010165352 A JP2010165352 A JP 2010165352A JP 2009297596 A JP2009297596 A JP 2009297596A JP 2009297596 A JP2009297596 A JP 2009297596A JP 2010165352 A JP2010165352 A JP 2010165352A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- scene
- sensor
- motion
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
【解決手段】車両の内部センサ、および少なくとも1台が3次元センサである外部センサからの信号を供給するステップと、供給された外部センサ信号に基づいて3次元世界座標の中でシーンモデルを生成するステップと、測定された車両の自己運動を考慮して3次元世界座標の中でシーンモデルを予測するステップと、3次元世界座標の中で表現された、シーン表現の中の動的物体の位置および動的物体の運動パラメータをそれぞれ検出するために、予測されたシーンモデルを外部センサ信号に基づく3次元世界座標の中のシーンモデルと比較するステップと、検出された動的物体および動的物体の運動パラメータを記憶するステップと、を含む。
【選択図】図1
Description
車両の内部センサ、および少なくとも1台が3次元センサである外部センサからの信号を供給するステップと、
供給された外部センサ信号に基づいて3次元世界座標の中でシーンモデルを生成するステップと、
測定された車両の自己運動を考慮して3次元世界座標の中でシーンモデルを予測するステップと、
3次元世界座標の中で表現された、シーン表現の中の動的物体の位置および動的物体の運動パラメータをそれぞれ検出するために、予測されたシーンモデルを外部センサ信号に基づく3次元世界座標の中のシーンモデルと比較するステップと、
検出された動的物体および動的物体の運動パラメータを記憶するステップと、を含む方法に関係する。
a)3次元世界座標で計算されたセンサ信号に関して直接的にアイコニック3次元ワーピングを行うステップ、
b)既知の静的物体が独立に取り扱われるシーン知識のトップダウン知識を使用するステップ、
c)センサ信号の中のノイズ(奥行き値の測定されたノイズ)を減少させるため、環境モデルおよび平面モデルの形式のシーン知識の組み込みを可能にする領域ベースの3次元ワーピングを行うステップ、および/または、
d)3次元ワーピング手順の複雑さを軽減するために、着目中の平面の環境エンベロープを使用するステップ
のうちの1つ以上のステップを含むことが可能である。
環境信号をドライバ支援システムに供給する少なくとも1台の3次元センサと、
少なくとも1台の3次元センサの信号に基づいて3次元世界モデルを生成する演算手段、および3次元世界の中のセンサ信号に基づいて動的物体を検出する手段と、
検出された動的物体および動的物体の運動パラメータを記憶する記憶手段と、
検出された動的物体に基づいてドライバ支援動作を実行するかどうかを決定する手段と、
ドライバ支援動作を実行する手段と、を備える、ドライバ支援システムをさらに提案する。
既知のオプティカル・フロー・ベースのアプローチは、自己車両運動に直交する物体運動(横運動)を検出可能である。それとは異なり、提案されたアプローチは、自己車両の方向(縦運動方向)における物体運動も検出する。
以下、明細書の全体を通じて使用される用語が定義される。この用語集は本発明のより十分な理解を促進する。
より高水準の情報統合を伴った、システム内の他のモジュールに由来する情報であり、例えば、すべての検出された物体を表現する環境モデルである。
典型的な運転作業の他に、危険な状況においてドライバを支援するシステムである。ドイツ交通法(Strassenverkehrsordung、StVO)に従って、DAS反応は制御可能な状態に留まるべきであり、ドライバによる却下の影響力を可能にしなければならない。それに基づいて、完全に自律的な行為生成は市販されているDASの場合には実行できない。多くの場合に自動車の警報システムはDASの実施である。
多数のモジュールとモジュール間のリンクとを組み込むドライバ支援システムである。すべてのこれらのコンポーネントは、すべてが相互に絡み合わされ、相互作用するセンサと、計算ハードウェアと、動作主体との複雑な枠組みに統合されている。それに対して、従来のドライバ支援システムは、制限された複雑性と、車両の中の他のモジュールとの情報の共有のためのインターフェイスの欠落とによってマークされる。さらに、従来のドライバ支援システムは単一のタスクおよび適用分野(例えば、高速道路)を対象にしている。
X−Z平面(水平位置座標および奥行き)は3次元ボクセルクラウドの寄せ集め部分である。環境エンベロープは3次元領域の中で表現されたままであり(高さYは一定である)、動的物体を検出するため画像に投影されない。したがって、エンベロープは、X−Z平面内の第1の物体への境界線の図解である。高さが異なるX−Z平面の数は変化可能であり、1つ以上のX−Z平面でのある特定の高さ間隔を近似するためにも使用される。環境エンベロープは、すべてのシーン物体の3次元位置座標の部分集合を含む。カメラからのグレー値ピクセルではなく、高さ値Yが再マッピングされる。環境エンベロープは、任意の画像特徴(例えば、色、構造)にも依存することがなく、3次元データだけに基づいて計算される。
3次元奥行きセンサ(例えば、回転レーザスキャナ)、2次元奥行きセンサ(例えば、フォトニック・ミクサ・デバイス)、1次元奥行きセンサ(例えば、レーザスキャナ)、ステレオカメラなどのように、そのような種類の奥行きセンサでもよい。さらに、ナビゲーションシステムも、環境に関する詳細な情報を提供できるので、外部センサと見なすことができる。したがって、ナビゲーションシステムは、現在の周辺の奥行き情報を提供するために現在のGPS位置およびその地図データを使用する仮想外部センサであり得る。一般に、外部センサの意味は、周囲環境の情報を収集/提供するセンサである。
一般に、内部センサは、環境からの情報と独立に車両運動の情報を収集/提供するセンサである。内部センサは、(車輪回転を測定する)単純な速度インジケータから回転の角度のための環状レーザジャイロスコープまで多岐に亘る。
内部センサデータは、車両自体の状態および特性を検出するセンサによって生成されるデータである。
自己運動物体を検出するため、一般に、2つの予測方法が存在する。一方で、単純なアプローチは、時点t−1でのシーンモデルが未来の次の時間ステップtの中で予測される(前方ワーピング)。その後、予測が測定と比較され、自己運動物体が抽出される。
現在のシーンコンテキスト(例えば、高速道路、田舎道、都市中心部)および現在の周囲環境からの測定のような他の処理モジュールに基づいて、ある種のモデルが学習可能であるか、または、抽出可能である。そこで、高速道路での運転中に、ガードレールが測定と知識組み込みの組み合わせによって抽出可能である。さらに、典型的な幾何学的形状を測定されたデータに適合させるデータ駆動型アプローチが使用可能である。
3次元表現は、センサ層から取り出され、単一センサに拘束されない。このため、3次元表現は、3次元グリッド、ボクセルグラフなどでもよい。したがって、3次元表現は周囲環境のある種の部分を、センサ層から切り離された内部メモリにマッピングする。
本発明は、3次元世界座標における環境(「シーン」)の表現を配信するセンサ(例えば、ステレオカメラに由来する視差情報(非特許文献3)、フォトニック・ミクサ・デバイス(非特許文献4)、または、密なレーザスキャナ(例えば、高品位ライダー・センサ・ベロダイン(非特許文献5))に基づいて、動的物体を検出し、物体運動の大きさを計算する新しいロバストな手順である3次元ワーピングアプローチを提案する。
ここで説明されるアプローチは、入力として、例えば、2台の平行カメラから得ることができる密な3次元データを使用する。このコンテキストにおいて、「密な」は、シーン全体に対しデータが存在することを表す。より詳細には、2台の平行カメラの画像は相関アプローチに基づいて領域毎に比較される。画像の中のすべてのピクセルに対し、視差と呼ばれる水平シフトを決定できる。視差D(u、v)は奥行きZに反比例する(式3を参照)。よって、画像の中のすべてのピクセルに対し、奥行き値が存在する。これに基づいて、密な奥行きマップ(Zマップ)、密な高さマップY、および画像の中のすべてのピクセルの水平位置を含むXマップを計算できる(式4および5を参照し、図1を参照)。式4および5において、t1およびt2は座標系と相対的なカメラの位置を定義し、Bはカメラの水平距離(ステレオ基準)であり、vおよびuは水平および垂直ピクセル位置であり、v0およびu0は主点を定義し、fuおよびfvは垂直および水平焦点距離である。
計算は、処理されるデータの量に関して、異なる方法の他に、異なる方法の組み合わせで行うことが可能である。アイコニックベース計算、ボクセルベース計算、およびエンベロープベース計算の3つの異なる計算方法がここに提案されている。以下、異なる計算方法が説明される。
第1の計算方法(2.1)は完全にアイコニックに実行される(すなわち、すべての3次元ボクセルが独立に取り扱われる)。より詳細には、これは環境の中のすべての既知点の既知3次元位置が3次元の車両自己運動を考慮して適合させられることを表す。車両の3次元並進および回転は、各点を独立に3次元ワープするため使用される。その後、予測された(3次元ワープされた)点と測定された点とが、残差に基づいて動的物体を決定するために比較され、この比較は3次元空間の中のどのような距離メトリックによっても行うことができる。
時間ステップt−1(後方ワーピングの場合には時点t)におけるすべての点(u、v)の3次元世界位置がマップX(u、v)、Y(u、v)およびZ(u、v)から読み出され(図1を参照)、CANバスからもたらされる自動車の測定された自己運動(並進運動ΔX、ΔY、および回転運動ΔθY)によって適合させられる。
3次元ボクセル(すなわち、3次元点セグメント)クラウドは、シーンの3次元世界座標マップX、YおよびZから構築される(図1を参照)。適切な離散的3次元グリッドに基づいて、ボクセルクラウドはホールを含み、点はセンサのばらつきに起因して誤った場所に置かれる。これらの誤りは、ホールを閉じ、クラウドの中の誤った場所に置かれたボクセルを調整する3次元環境モデルによって改善できる(例えば、表面を決定し、物体モデルを組み入れる)。さらに、分野専用のコンテキスト知識を組み入れることにより、表面は多次元回帰によって決定できる(例えば、非特許文献9を参照)。このようなモデルはホールを閉じ、ボクセル座標を補正(すなわち、移動)するため使用できる。その後、時間ステップt−1(後方ワーピングの場合には時点t)のボクセルクラウドは、測定された車両自己運動に応じて適合させることができる。より詳細には、クラウドは、ΔXおよびΔZだけ並進されると共に、ΔθYだけ回転させられ、時間ステップt(後方ワーピングの場合には時点t−1)の予測された(すなわち、3次元ワープされた)ボクセルクラウドを生じる。その後、予測されたボクセルクラウドのすべての点位置が予測キューとして使用される。
パート1における測定キューの計算に加えて、動的物体を検出するための領域を形成するある程度の個数の点が抽出される。より詳細には、時間ステップ毎に、Z、X平面の中にエンベロープを発生させる表面が選択される。この表面に基づいて、定義された表面上の最も接近した障害物の距離と水平位置とを表現する曲線が抽出される。
測定キュー(方法1および2の場合の3次元ワープされた点位置(同様に3次元ワープされたボクセルクラウド)、方法3の場合の3次元ワープされた環境エンベロープ)と、予測キューとの間の差分(残差)の計算の結果として、動的物体が存在しなければならない位置の値を含む残差が得られる。さらに、残差から、3次元座標の中での動的物体の相対運動を導出できる。残差の計算のため、あらゆる3次元距離メトリックを適用できる。
上述の手順が生成するかもしれないアーティファクトに対処するため、2値化された残差に関する形態的演算が実行される(非特許文献10を参照)。これは、残差のより大きい領域だけが動的であると解釈されることを確実にする。さらに、カメラベースの奥行きデータを使用するとき、正規化された相互相関(NCC)に基づくステレオ視差の計算中に、品質マップが導出される。この品質マップは、各ピクセルとその領域とに対するNCC一致がどの程度良好であったかを評価する。したがって、この品質マップは残差の中の値に重みを付けるために使用できる。さらに、車両分野専用のコンテキスト(トップダウン知識)を組み入れることにより、静的であることがわかっているすべての物体(例えば、見つけられた道路セグメント)は選別が可能であり、3次元ワーピング手順を簡単にする。さらに、衛星ベースのナビゲーションシステムからのデータを組み込むことが可能であり、シーンのさらなる知識、例えば、静的なシーン内容の3次元GPS位置を提供する。
Claims (13)
- 車両用のドライバ支援システムのシーン表現の中の動的物体を検出する方法であって、
車両の内部センサ、および少なくとも1台が3次元センサである外部センサからの信号を供給するステップと、
供給された外部センサ信号に基づいて3次元世界座標の中でシーンモデルを生成するステップと、
測定された車両の自己運動を考慮して3次元世界座標の中でシーンモデルを予測するステップと、
3次元世界座標の中で表現された、シーン表現の中の動的物体の位置および動的物体の運動パラメータをそれぞれ検出するために、予測されたシーンモデルを外部センサ信号に基づく3次元世界座標の中のシーンモデルと比較するステップと、
検出された動的物体および動的物体の運動パラメータを記憶するステップと、
を含む方法。 - 測定された車両の自己運動を考慮して3次元世界座標の中でシーンモデルを予測するステップが、車両の縦速度およびヨーレートのためのセンサから獲得された情報を使用する、請求項1に記載の方法。
- 測定された車両の自己運動を考慮して3次元世界座標の中でシーンモデルを予測するステップが、
a)3次元世界座標で計算されたセンサ信号に関して直接的にアイコニック3次元ワーピングを行うステップと、
b)既知の静的物体が独立に取り扱われるシーン知識のトップダウン知識を使用するステップと、
c)センサ信号の中のノイズを減少させるため、環境モデルおよび平面モデルの形式のシーン知識の組み込みを可能にする領域ベースの3次元ワーピングを行うステップと、および/または、
d)3次元ワーピング手順の複雑さを軽減するために、着目中の平面の環境エンベロープを使用するステップと、
のうちの1つ以上のステップを含む、請求項1または2に記載の方法。 - 回転レーザスキャナのような3次元奥行きセンサからの情報が外部センサ信号を生成するため使用される、請求項1から3のいずれかに記載の方法。
- フォトニック・ミクサ・デバイスのような2次元奥行きセンサからの情報がセンサ信号を生成するため使用される、請求項1から4のいずれかに記載の方法。
- レーザスキャナのような1次元奥行きセンサからの情報が3次元データを生成するため使用される、請求項1から5のいずれかに記載の方法。
- 衛星ベースのナビゲーションシステムからの情報が3次元データを生成するため、および/または、環境情報を生成するために使用される、請求項1から6のいずれかに記載の方法。
- 前記請求項のうちのいずれかに記載された方法を実施するため設計された、ドライバ支援演算ユニット。
- 請求項8に記載されたドライバ支援演算ユニットを備えている車両。
- 演算ユニットで実行されるときに請求項1ないし7のうちのいずれかに記載された方法を実施する、コンピュータ・プログラム。
- モデル生成装置を含むドライバ支援システムであって、モデル生成装置が、
信号をドライバ支援システムに供給する少なくとも1台の3次元センサと、
少なくとも1台の3次元センサの信号に基づいて3次元世界モデルを生成する演算手段、および3次元世界の中のセンサ信号に基づいて動的物体を検出する手段と、
検出された動的物体および動的物体の運動パラメータを記憶する記憶手段と、
検出された動的物体に基づいてドライバ支援動作を実行するかどうかを決定する手段と、
ドライバ支援動作を実行する手段と、を備える、ドライバ支援システム。 - センサがビデオカメラを含む、請求項11に記載のシステム。
- ドライバ支援動作が警告メッセージの発行である、請求項11または12に記載のシステム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP09150710.3 | 2009-01-16 | ||
EP09150710 | 2009-01-16 | ||
EP09179636.7 | 2009-12-17 | ||
EP09179636A EP2209091B1 (en) | 2009-01-16 | 2009-12-17 | System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010165352A true JP2010165352A (ja) | 2010-07-29 |
JP5016022B2 JP5016022B2 (ja) | 2012-09-05 |
Family
ID=40999939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009297596A Expired - Fee Related JP5016022B2 (ja) | 2009-01-16 | 2009-12-28 | 多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8233660B2 (ja) |
EP (1) | EP2209091B1 (ja) |
JP (1) | JP5016022B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010282615A (ja) * | 2009-05-29 | 2010-12-16 | Honda Research Inst Europe Gmbh | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム |
KR101679741B1 (ko) | 2015-05-06 | 2016-11-28 | 고려대학교 산학협력단 | 외곽 공간 특징 정보 추출 방법 |
Families Citing this family (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8682028B2 (en) | 2009-01-30 | 2014-03-25 | Microsoft Corporation | Visual target tracking |
US8577085B2 (en) | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US8588465B2 (en) | 2009-01-30 | 2013-11-19 | Microsoft Corporation | Visual target tracking |
US8577084B2 (en) | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US8565476B2 (en) * | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8295546B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Pose tracking pipeline |
US8565477B2 (en) * | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8267781B2 (en) | 2009-01-30 | 2012-09-18 | Microsoft Corporation | Visual target tracking |
US20100195867A1 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Visual target tracking using model fitting and exemplar |
KR101735612B1 (ko) * | 2010-08-16 | 2017-05-15 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US9959595B2 (en) * | 2010-09-21 | 2018-05-01 | Mobileye Vision Technologies Ltd. | Dense structure from motion |
US9280711B2 (en) | 2010-09-21 | 2016-03-08 | Mobileye Vision Technologies Ltd. | Barrier and guardrail detection using a single camera |
US8744169B2 (en) * | 2011-05-31 | 2014-06-03 | Toyota Motor Europe Nv/Sa | Voting strategy for visual ego-motion from stereo |
FR2976355B1 (fr) * | 2011-06-09 | 2013-06-21 | Jean Luc Desbordes | Dispositif de mesure de vitesse et de position d'un vehicule se deplacant le long d'une voie de guidage, procede et produit programme d'ordinateur correspondant. |
US8885884B2 (en) | 2011-09-19 | 2014-11-11 | Siemens Corporation | Motion analysis through geometry correction and warping |
EP2574958B1 (en) * | 2011-09-28 | 2017-02-22 | Honda Research Institute Europe GmbH | Road-terrain detection method and system for driver assistance systems |
GB201116958D0 (en) * | 2011-09-30 | 2011-11-16 | Bae Systems Plc | Use of synthetic overhead images for vehicle localisation |
GB201116960D0 (en) * | 2011-09-30 | 2011-11-16 | Bae Systems Plc | Monocular camera localisation using prior point clouds |
GB201116961D0 (en) | 2011-09-30 | 2011-11-16 | Bae Systems Plc | Fast calibration for lidars |
GB201116959D0 (en) | 2011-09-30 | 2011-11-16 | Bae Systems Plc | Vehicle localisation with 2d laser scanner and 3d prior scans |
US8811938B2 (en) | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
US9530060B2 (en) | 2012-01-17 | 2016-12-27 | Avigilon Fortress Corporation | System and method for building automation using video content analysis with depth sensing |
US9466215B2 (en) * | 2012-03-26 | 2016-10-11 | Robert Bosch Gmbh | Multi-surface model-based tracking |
KR101429349B1 (ko) * | 2012-09-18 | 2014-08-12 | 연세대학교 산학협력단 | 중간 시점 영상 합성 장치 및 방법과 이에 관한 기록매체 |
US10599818B2 (en) * | 2012-10-02 | 2020-03-24 | Banjo, Inc. | Event-based vehicle operation and event remediation |
US9165196B2 (en) * | 2012-11-16 | 2015-10-20 | Intel Corporation | Augmenting ADAS features of a vehicle with image processing support in on-board vehicle platform |
EP2757527B1 (en) * | 2013-01-16 | 2018-12-12 | Honda Research Institute Europe GmbH | System and method for distorted camera image correction |
HUP1300328A3 (en) | 2013-05-23 | 2017-03-28 | Mta Szamitastechnika Es Automatizalasi Ki | Method and system for integrated three dimensional modelling |
US9349055B1 (en) * | 2013-06-26 | 2016-05-24 | Google Inc. | Real-time image-based vehicle detection based on a multi-stage classification |
US9182236B2 (en) * | 2013-10-25 | 2015-11-10 | Novatel Inc. | System for post processing GNSS/INS measurement data and camera image data |
US9686514B2 (en) | 2014-04-10 | 2017-06-20 | Kip Smrt P1 Lp | Systems and methods for an automated cloud-based video surveillance system |
US10057546B2 (en) | 2014-04-10 | 2018-08-21 | Sensormatic Electronics, LLC | Systems and methods for automated cloud-based analytics for security and/or surveillance |
US9405979B2 (en) | 2014-04-10 | 2016-08-02 | Smartvue Corporation | Systems and methods for automated cloud-based analytics and 3-dimensional (3D) display for surveillance systems |
US11093545B2 (en) | 2014-04-10 | 2021-08-17 | Sensormatic Electronics, LLC | Systems and methods for an automated cloud-based video surveillance system |
US9407880B2 (en) | 2014-04-10 | 2016-08-02 | Smartvue Corporation | Systems and methods for automated 3-dimensional (3D) cloud-based analytics for security surveillance in operation areas |
US9407879B2 (en) | 2014-04-10 | 2016-08-02 | Smartvue Corporation | Systems and methods for automated cloud-based analytics and 3-dimensional (3D) playback for surveillance systems |
US9420238B2 (en) | 2014-04-10 | 2016-08-16 | Smartvue Corporation | Systems and methods for automated cloud-based 3-dimensional (3D) analytics for surveillance systems |
US9426428B2 (en) | 2014-04-10 | 2016-08-23 | Smartvue Corporation | Systems and methods for automated cloud-based analytics and 3-dimensional (3D) display for surveillance systems in retail stores |
US11120274B2 (en) | 2014-04-10 | 2021-09-14 | Sensormatic Electronics, LLC | Systems and methods for automated analytics for security surveillance in operation areas |
US10084995B2 (en) | 2014-04-10 | 2018-09-25 | Sensormatic Electronics, LLC | Systems and methods for an automated cloud-based video surveillance system |
US10217003B2 (en) | 2014-04-10 | 2019-02-26 | Sensormatic Electronics, LLC | Systems and methods for automated analytics for security surveillance in operation areas |
US9407881B2 (en) | 2014-04-10 | 2016-08-02 | Smartvue Corporation | Systems and methods for automated cloud-based analytics for surveillance systems with unmanned aerial devices |
GB201407643D0 (en) * | 2014-04-30 | 2014-06-11 | Tomtom Global Content Bv | Improved positioning relatie to a digital map for assisted and automated driving operations |
US9183459B1 (en) * | 2014-05-06 | 2015-11-10 | The Boeing Company | Sensor fusion using detector confidence boosting |
US9205562B1 (en) | 2014-08-29 | 2015-12-08 | Google Inc. | Integration of depth points into a height map |
EP3040726A1 (en) * | 2014-12-29 | 2016-07-06 | General Electric Company | Method and system to determine vehicle speed |
DK3123260T3 (da) * | 2014-12-31 | 2021-06-14 | Sz Dji Technology Co Ltd | Selektiv behandling af sensordata |
KR101772084B1 (ko) * | 2015-07-29 | 2017-08-28 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
EP3998456A1 (en) | 2015-08-03 | 2022-05-18 | TomTom Global Content B.V. | Methods and systems for generating and using localisation reference data |
US10332265B1 (en) * | 2015-09-30 | 2019-06-25 | Hrl Laboratories, Llc | Robust recognition on degraded imagery by exploiting known image transformation under motion |
US9824453B1 (en) * | 2015-10-14 | 2017-11-21 | Allstate Insurance Company | Three dimensional image scan for vehicle |
US10635909B2 (en) * | 2015-12-30 | 2020-04-28 | Texas Instruments Incorporated | Vehicle control with efficient iterative triangulation |
CN105628951B (zh) * | 2015-12-31 | 2019-11-19 | 北京迈格威科技有限公司 | 用于测量对象的速度的方法和装置 |
US10165258B2 (en) * | 2016-04-06 | 2018-12-25 | Facebook, Inc. | Efficient determination of optical flow between images |
CN107396037B (zh) * | 2016-05-16 | 2020-04-03 | 杭州海康威视数字技术股份有限公司 | 视频监控方法及装置 |
CN107563256A (zh) * | 2016-06-30 | 2018-01-09 | 北京旷视科技有限公司 | 辅助驾驶信息产生方法及装置、辅助驾驶系统 |
EP3300023A1 (en) | 2016-09-21 | 2018-03-28 | Autoliv Development AB | Vision system and method for a motor vehicle |
US10460511B2 (en) * | 2016-09-23 | 2019-10-29 | Blue Vision Labs UK Limited | Method and system for creating a virtual 3D model |
DE102016118538A1 (de) * | 2016-09-29 | 2018-03-29 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Klassifizieren eines Verkehrszeichens in einem Umgebungsbereich eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug |
EP3312797A1 (en) | 2016-10-18 | 2018-04-25 | Autoliv Development AB | Vision system and method for a motor vehicle |
EP3340173B1 (en) | 2016-12-22 | 2022-02-02 | Veoneer Sweden AB | Vision system and method for a motor vehicle |
DE102017204404B3 (de) | 2017-03-16 | 2018-06-28 | Audi Ag | Verfahren und Vorhersagevorrichtung zum Vorhersagen eines Verhaltens eines Objekts in einer Umgebung eines Kraftfahrzeugs und Kraftfahrzeug |
US10489663B2 (en) | 2017-04-24 | 2019-11-26 | Toyota Research Institute, Inc. | Systems and methods for identifying changes within a mapped environment |
US10679355B2 (en) * | 2017-05-02 | 2020-06-09 | Hrl Laboratories, Llc | System and method for detecting moving obstacles based on sensory prediction from ego-motion |
US10757485B2 (en) | 2017-08-25 | 2020-08-25 | Honda Motor Co., Ltd. | System and method for synchronized vehicle sensor data acquisition processing using vehicular communication |
CN108230254B (zh) * | 2017-08-31 | 2021-07-27 | 北京同方软件有限公司 | 一种自适应场景切换的高速交通全车道线自动检测方法 |
CN109839945B (zh) * | 2017-11-27 | 2022-04-26 | 北京京东乾石科技有限公司 | 无人机降落方法、无人机降落装置及计算机可读存储介质 |
US11100806B2 (en) | 2018-01-08 | 2021-08-24 | Foresight Automotive Ltd. | Multi-spectral system for providing precollision alerts |
US20190354781A1 (en) * | 2018-05-17 | 2019-11-21 | GM Global Technology Operations LLC | Method and system for determining an object location by using map information |
US11163317B2 (en) | 2018-07-31 | 2021-11-02 | Honda Motor Co., Ltd. | System and method for shared autonomy through cooperative sensing |
US11181929B2 (en) | 2018-07-31 | 2021-11-23 | Honda Motor Co., Ltd. | System and method for shared autonomy through cooperative sensing |
KR20200030305A (ko) * | 2018-09-12 | 2020-03-20 | 삼성전자주식회사 | 영상 처리를 위한 학습 데이터 생성 방법, 영상 처리 방법, 및 그 장치들 |
US11312379B2 (en) * | 2019-02-15 | 2022-04-26 | Rockwell Collins, Inc. | Occupancy map synchronization in multi-vehicle networks |
US20220126864A1 (en) * | 2019-03-29 | 2022-04-28 | Intel Corporation | Autonomous vehicle system |
US11636715B2 (en) * | 2019-12-24 | 2023-04-25 | GM Cruise Holdings LLC. | Using dynamic triggers in dangerous situations to view sensor data for autonomous vehicle passengers |
US11873000B2 (en) | 2020-02-18 | 2024-01-16 | Toyota Motor North America, Inc. | Gesture detection for transport control |
US11055998B1 (en) | 2020-02-27 | 2021-07-06 | Toyota Motor North America, Inc. | Minimizing traffic signal delays with transports |
US11290856B2 (en) | 2020-03-31 | 2022-03-29 | Toyota Motor North America, Inc. | Establishing connections in transports |
US20210304595A1 (en) | 2020-03-31 | 2021-09-30 | Toyota Motor North America, Inc. | Traffic manager transports |
US20220329737A1 (en) * | 2021-04-13 | 2022-10-13 | Okibo Ltd | 3d polygon scanner |
US11398255B1 (en) | 2021-05-26 | 2022-07-26 | Flawless Holdings Limited | Modification of objects in film |
US11715495B2 (en) * | 2021-05-26 | 2023-08-01 | Flawless Holdings Limited | Modification of objects in film |
CN113592865B (zh) * | 2021-09-29 | 2022-01-25 | 湖北亿咖通科技有限公司 | 三维地图的质检方法、设备及存储介质 |
WO2024073088A1 (en) * | 2022-09-30 | 2024-04-04 | Tesla, Inc. | Modeling techniques for vision-based path determination |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004056763A (ja) * | 2002-05-09 | 2004-02-19 | Matsushita Electric Ind Co Ltd | 監視装置、監視方法および監視用プログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7266220B2 (en) * | 2002-05-09 | 2007-09-04 | Matsushita Electric Industrial Co., Ltd. | Monitoring device, monitoring method and program for monitoring |
KR100471268B1 (ko) * | 2002-10-28 | 2005-03-10 | 현대자동차주식회사 | 차간거리 측정 방법 |
US7446798B2 (en) * | 2003-02-05 | 2008-11-04 | Siemens Corporate Research, Inc. | Real-time obstacle detection with a calibrated camera and known ego-motion |
US7764808B2 (en) * | 2003-03-24 | 2010-07-27 | Siemens Corporation | System and method for vehicle detection and tracking |
EP2383713B1 (en) * | 2006-12-06 | 2013-05-29 | Mobileye Technologies Limited | Detecting and recognizing traffic signs |
US8422741B2 (en) * | 2007-08-22 | 2013-04-16 | Honda Research Institute Europe Gmbh | Estimating objects proper motion using optical flow, kinematics and depth information |
-
2009
- 2009-12-17 EP EP09179636A patent/EP2209091B1/en not_active Not-in-force
- 2009-12-28 JP JP2009297596A patent/JP5016022B2/ja not_active Expired - Fee Related
- 2009-12-30 US US12/650,030 patent/US8233660B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004056763A (ja) * | 2002-05-09 | 2004-02-19 | Matsushita Electric Ind Co Ltd | 監視装置、監視方法および監視用プログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010282615A (ja) * | 2009-05-29 | 2010-12-16 | Honda Research Inst Europe Gmbh | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム |
KR101679741B1 (ko) | 2015-05-06 | 2016-11-28 | 고려대학교 산학협력단 | 외곽 공간 특징 정보 추출 방법 |
US9727978B2 (en) | 2015-05-06 | 2017-08-08 | Korea University Research And Business Foundation | Method for extracting outer space feature information from spatial geometric data |
Also Published As
Publication number | Publication date |
---|---|
US8233660B2 (en) | 2012-07-31 |
US20100183192A1 (en) | 2010-07-22 |
EP2209091B1 (en) | 2012-08-08 |
JP5016022B2 (ja) | 2012-09-05 |
EP2209091A1 (en) | 2010-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5016022B2 (ja) | 多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両 | |
US11138751B2 (en) | Systems and methods for semi-supervised training using reprojected distance loss | |
KR102275310B1 (ko) | 자동차 주변의 장애물 검출 방법 | |
US11816991B2 (en) | Vehicle environment modeling with a camera | |
EP2256690B1 (en) | Object motion detection system based on combining 3D warping techniques and a proper object motion detection | |
US8564657B2 (en) | Object motion detection system based on combining 3D warping techniques and a proper object motion detection | |
KR102508843B1 (ko) | 서라운드 뷰 영상에서 차량의 자차 동작을 산정하는 방법 및 장치 | |
JP3719095B2 (ja) | 挙動検出装置および勾配検出方法 | |
JP5926228B2 (ja) | 自律車両用の奥行き検知方法及びシステム | |
JP6574611B2 (ja) | 立体画像に基づいて距離情報を求めるためのセンサシステム | |
JP6743171B2 (ja) | 自動車両の道路付近の物体を検出するための方法、コンピュータデバイス、運転者支援システム、及び、自動車両 | |
US11010592B2 (en) | System and method for lifting 3D representations from monocular images | |
US11904843B2 (en) | Autonomous parking systems and methods for vehicles | |
US11645364B2 (en) | Systems and methods for object detection using stereovision information | |
Li et al. | Pitch angle estimation using a Vehicle-Mounted monocular camera for range measurement | |
Sun et al. | Detection and state estimation of moving objects on a moving base for indoor navigation | |
Jo et al. | Real-time Road Surface LiDAR SLAM based on Dead-Reckoning Assisted Registration | |
Van Crombrugge et al. | Fast Ground Detection for Range Cameras on Road Surfaces Using a Three-Step Segmentation | |
JP2024092716A (ja) | 移動体システム及びオルソ画像地図生成方法 | |
JP2024075351A (ja) | 障害物マップ作成システム、障害物マップ作成方法及び障害物検知システム | |
Deigmoeller et al. | Monocular rear approach indicator for motorcycles | |
Gonzalez et al. | Transitioning control and sensing technologies from fully-autonomous driving to driver assistance systems | |
Wang et al. | Rapid tracking for autonomous driving with monocular video | |
Lin et al. | Experimental Implementation of a Windshield Warning System on an Actual Vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110913 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120529 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120607 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150615 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5016022 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |