JP5023186B2 - 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム - Google Patents
3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム Download PDFInfo
- Publication number
- JP5023186B2 JP5023186B2 JP2010112052A JP2010112052A JP5023186B2 JP 5023186 B2 JP5023186 B2 JP 5023186B2 JP 2010112052 A JP2010112052 A JP 2010112052A JP 2010112052 A JP2010112052 A JP 2010112052A JP 5023186 B2 JP5023186 B2 JP 5023186B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- detection
- warping
- data
- optical flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Description
1.シンプルで基本的なアプローチ
2.オプティカルフローに基づくアプローチ
3.3Dワーピング(warping)のアプローチ
監視の分野における視覚に基づくアプローチは、典型的には、動的な対象物を検出するために差分画像(differential images)を用いる。ここで、時間t−1における画像は、時間tにおける画像を1つ分遡ったものである。しかし、カメラ(典型的には、車の領域に存在している)の強い自己運動がある場合、差分画像は、図4に示すように、動的な対象物を信頼性高く検出することはできない。車両の自己運動は、ほとんすべての画像ピクセル位置に変化を引き起こし、車の自己運動と対象物運動の間を信頼性あるよう分離することを不可能にする。
他のアプローチ(たとえば、後述する参考文献6(下記の非特許文献4)を参照)は、オプティカルフロー(2つの連続した画像のピクセル毎の相関であり、画像平面上の動きの大きさおよび方向が導かれる)を、カルマンフィルタに基づいて、ステレオカメラシステムの視差マップと組み合わせ、これは、画像における離散点の3D(3次元)位置および3D速度を提供する。これらの離散点は、複数のフレームにわたるカメラ車両の自己運動を計算するのに用いられる。しかしながら、他の対象物の動きは、予測された2D(2次元)ワーピングされた(warped)ピクセル画像と現在の画像との間のオプティカルフローの計算に基づいて計算される。
2.前景と後景の分離が、典型的には容易(単色の壁、典型的な壁間の角度、単純な面の3次元上の相対方位が90度)。
3.低い複雑性(存在する対象物の数および種類が制限されている)。
4.典型的に、存在する動的な対象物は人間のみであり、付加的に、それらの運動(動き)パラメータ(速度、動かされた対象物部位、動き方向)は、非常に安定的である。動かされた対象物が発見されると、それは、人間として即時に分類される(対象物検出の後、さらなる分類ステップは必要とされない)。
5.カメラを搭載するロボット(または、静的システムであっても)の制限された自己運動。
動的な対象物を検出するための他の補足しあう方法は、3D(三次元)ワーピングのアプローチであり、これは、詳細には、特許出願(後述する参考文献11(下記の特許文献2))に記載されている。本発明の技術的な背景を提供するため、主な特徴を、以下に要約する(3Dワーピングシステムの概要については、図3を参照されたい)。以下の説明において、アルゴリズムは、センサに基づいて対象物運動の大きさを計算し、3D世界座標(world coordinate)を送出する(たとえば、ステレオカメラからの視差情報(後述する参考文献3(下記の非特許文献10)を参照)(結果としての3D世界マップについては、図1を参照)、PMD(Photonic Mixer Device、後述する参考文献4(下記の非特許文献11)を参照)、または高密度レーザスキャナ(dense laser scanner, たとえば、Velodyneの高精細なライダー(Lidar)センサ(後述する参考文献5(下記の非特許文献12)を参照))。
ここで記述されるアプローチは、高密度3Dデータ(dense 3D data)を入力として使用する。ここでの高密度(dense)は、シーン全体について3Dデータが存在することを意味する。このため、任意の高密度深度(奥行き)センサを使用することができ、たとえば、ステレオカメラシステム、PMD(Photonic Mixer Device、後述する参考文献4)、または高密度レーザスキャナ(後述する参考文献5)を使用することができる。これらのセンサに基づいて、X、Y、およびZマップ(すなわち、深度(奥行き)マップ)を計算することができる。以下において、X、Y、およびZマップの情報は、3Dシーン表現(用語解析を参照)に変換される。
この計算は、処理されたデータ量に関して、様々なやり方および組み合わせで行うことができる。3つの異なる計算方法が、後述する参考文献12に提案されており、これらは、アイコニックに基づく(iconic-based)計算、ボクセルに基づく(voxel-based)計算、およびエンベロープに基づく(envelope-based)計算である。
計測されたキューと予測されたキューの間の相違(残余)を計算することにより、動的な対象物が存在する位置において値を含む残余の領域が3Dにおいて生じる。さらに、該残余の領域から、3D座標での動的な対象物の相対的な動きを導出することができる。該残余の計算を、3D空間の任意の距離メトリックによって行うことができる。
アーティファクトを取り扱うため、該記述される手順では、残余に対してモルフォロジー演算(morphological operation)を実行することができる(そのようなモルフォロジー演算についての詳細は、後述する参考文献10(下記の非特許文献13)を参照)。これは、比較的大きい残余領域のみが動的であると解釈されるのを、確実なものにする。さらに、車両の分野に固有のコンテキスト(トップダウンの知識、用語解説を参照)を含めることによって、静的であると知られているすべての対象物(たとえば、見つかった路面セグメント)を区別(ソート)することができ、3Dワーピング手順を簡単にすることができる。さらに、衛星に基づくナビゲーションシステムからのデータを取り入れて、シーンのさらなる知識を提供することができる(たとえば、静的なシーンコンテンツについての3DのGPS位置)
−自己運動を伴う視覚センサの環境の視覚信号を提供するステップと、
−検出されたオプティカルフローに基づいて、該視覚センサの入力視野上の対象物の固有運動(proper motion, 用語解説を参照)を検出するステップと、
−予測された3Dデータおよび検知された3Dデータに基づく3Dワーピングを用い、環境の3D表現モデル(用語解説を参照)に基づいて、対象物の運動(動き)を検出するステップであって、該予測された3Dデータは、計測された3Dデータおよび自己運動を表すデータに基づいて生成される、ステップと、
−3Dワーピングに基づく対象物運動の検出およびオプティカルフローに基づく対象物運動の検出を組み合わせるステップと、
−検出された動的な対象物に関する情報およびその計測された運動(動き)パラメータを記憶するステップと、を含む。
−自己運動を伴う視覚センサの環境の視覚信号を提供するための手段と、
−検出されたオプティカルフローに基づいて、該視覚センサの入力視野の対象物の固有運動を検出する計算手段と、
−予測された3Dデータおよび検知された3Dデータに基づく3Dワーピングを用い、環境の3D表現モデルに基づいて、対象物の固有運動を検出する計算手段であって、該予測された3Dデータは、計測された3Dデータおよび自己運動を表すデータに基づいて生成される、手段と、
−3Dワーピングに基づく対象物運動の検出およびオプティカルフローに基づく対象物運動の検出を組み合わせる計算手段と、
−検出された動的な対象物に関する情報およびそれらの計測された運動パラメータを記憶する手段と、を備える。
動的な対象物を検出するため、3Dワーピングのアプローチは、予測された3D座標および計測された3D座標(詳細については、EP特許出願第09150710.3号(参考文献11)を参照)の間の残余(residuum)を計算する。該残余は、動的な対象物を含むシーン上の点で高い値を示す。これらの高い値は、対象物運動の種類に依存して、特定のパターンで並べられる(横方向、縦方向、およびそれらの混合の画像平面上の視覚化については、図6を参照)。
2つの可能な組み合わせがあり、第1は、3Dワーピングの結果が、POMによって検証および改善され、第2は、その逆である。
トップダウン知識(top-down knowledge)
より高レベルの情報統合を備えるシステムにおける他のモジュールから来る情報。たとえば、すべての検出された対象物を表す環境モデル。
危険な状況および典型的な運転タスクにおいて運転者をサポートするシステム。交通の法律に従い(たとえば、ドイツの、Strabenverkehrsordung StVO)、DASの反応は、制御可能なようにとどまるべきであり、また、運転者による制御(支配)の実効(影響)を可能にしなければならない。これに基づき、市場においては、DASが完全に自律的な行動を生成することは可能となっていない。
多くのモジュールおよびモジュール間のリンクを取り入れる運転者支援システム。これらの構成要素のすべては、互いに絡み合って(interwined)相互作用しあうセンサ、計算ハードウェア、およびアクター(actor)のコンプレックス・フレームワークに統合される。これに対して、従来の運転者支援システムは、制限された複雑性および車両において他のモジュールと情報を共用するインターフェースの欠落によって特徴づけられる。さらに、従来の運転者支援システムは、単一のタスクおよびアプリケーション領域に目的が定められている(たとえば、高速道路)。
X−Z面(水平位置座標および深さ(奥行き))は、3Dボクセル集合(voxel cloud)の結合した部分である。なお、環境エンベロープは、3D領域(高さYは一定である)において表現され、動的な対象物を検出するために画像には投影されない。したがって、エンベロープは、X−Z面の第1の対象物に対する境界線のイラスト(illustration)である。様々な高さを持つX−Z面の数は、変化することができ、また、1つまたは複数のX−Z面における高さの間隔を概算する(approximate)のに用いられることができる。
3D深度センサ(たとえば、回転レーザスキャナ)、2D深度センサ(たとえば、Photonic Mixer Device)、1D深度センサ(たとえば、レーザスキャナ)、ステレオカメラ等の、任意の種類の深度センサであることができる。また、ナビゲーションシステムを、外部センサとして考えることができ、これは、環境についての詳細な情報を提供することができる。したがって、ナビゲーションシステムは、仮想的な外部センサであることができ、現在のGPS位置およびその地図データを用いて、現在の周辺の深度情報を与えることができる。一般に、外部センサについての意味は、周辺環境の情報を収集/提供するセンサである。
一般に、内部センサの意味は、環境からの情報とは独立して、自身の動きの情報を収集/提供するセンサである。これは、単一の速度インジケータ(車輪の回転を計測する)から、回転角のためのリングレーザジャイロスコープまで、多岐にわたる。
自己運動の対象物を検出するため、一般に、2つの予測方法が存在する。一方は、直線的なアプローチであり、時間t−1におけるシーンモデルから、将来における次の時間ステップtに向けて予測する(前進ワーピング)。その後、該予測は、計測および抽出された自己運動対象物と比較される。他方は、現在の時間ステップtの計測を、過去の時間ステップt−1に投影させ、これは、過去時間を参照することとなる(後退ワーピング)。そして、過去の計測が、該投影され抽出された自己運動対象物と比較される。
用語POM(Proper Object Motion)は、参考文献12に記載された、オプティカルフローに基づく2Dワーピングのアプローチに関連する。したがって、POMによって検出された対象物の動きは、固有運動(proper motion)として参照される。
他の処理モジュールに基づいて、現在のシーンのコンテキスト(たとえば、高速道路、田舎道、都心部(inner city))および現在の周辺環境からの計測のように、所定のモデルを学習ないし抽出することができる。このため、高速道路を運転しているとき、ガードレールを、計測および知識取り込みの組み合わせによって抽出することができる。さらに、データ駆動型のアプローチを使用して、典型的な幾何学形状を、該計測データに適合させることができる。
3D表現は、センサレイヤ(センサ層)を要約したものであり、単一センサには結合されない。このため、3D表現は、3Dグリッド、ボクセル・グラフ等であることができる。したがって、3D表現は、周辺環境の所定の部分を、その内部メモリにマッピングするが、該センサレイヤの分離したもの(decoupled)といえる。
[1] R. E. Kalman, “A new approach to linear filtering and prediction problems,” Transactions of the ASME-Journal of Basic Engineering, vol. 82, no. Series D, pp. 35-45, 1960.
[2] M. Nieto, L. Salgado, F. Jaureguizar, and J. Cabrera, “Stabilization of inverse perspective mapping images based on robust vanishing point estimation,” in IEEE Intelligent Vehicles Symposium, 6 2007.
[3] K. Konolige, “Small vision system: Hardware and implementation,” in Eighth International Symposium on Robotics Research, 1997.
[4] Xuming Luan, “Experimental Investigation of Photonic Mixer Device and Development of TOF 3D Ranging Systems Based on PMD Technology”, PHD Thesis, 2001.
[5] www.velodyne.com/lidar
[6] H. Badino, U. Franke, C. Rabe and S. Gehrig. "Stereo Vision-Based Detection of Moving Objects under Strong Camera Motion". In 1st International Conference on Computer Vision Theory and Applications (VISAPP), Setubal, Portugal. 25 - 28 February, 2006.
[7] J. Schmudderich, V. Willert, J. Eggert, S. Rebhan, C. Goerick, G. Sagerer and E. Korner. "Estimating object proper motion using optical flow, kinematics, and depth information" in IEEE Transactions on Systems, Man and Cybernetics, Part B, Volume 38, Issue 4, Pages 1139-1151, 2008.
[8] T. Vaudrey, H. Badino and S. Gehrig "Integrating Disparity Images by Incorporating Disparity Rate". In 2nd Workshop "Robot Vision", Auckland, New Zealand, February 18 - 20, 2008.
[9] I.N. Bronstein, K.A. Semendjajew, G. Musiol and H. Muhlig, “Taschenbuch der Mathematik”, Verlag Harri Deutsch, Frankfurt am Main, 1999.
[10] B. Jaehne, “Digital image processing“, Springer, Berlin, 2005.
[11] R. Kastner, J. Fritsch and T. Michalke, Object motion detection based on multiple 3D Warping algorithms, 2009, EPO Application Number 09 150 710.3.
[12] J. Eggert, V. Willert, J. Schmuedderich and S. Rebhan, Estimating objects proper motion using optical flow, kinematics and depth information, WO 2009/024349 A (2009-02-26).
[13] S. Shimizu: “Moving object detection by mobile stereo omni-directional system (SOS) using spherical depth image”, Pattern Analysis and Applications, vol. 9, no. 2-3, pages 113-126, 2005.
[14] A. Taluder et. al.: “Real-time detection of moving objects from moving vehicles using dense stereo and optical flow”, International Conference on Intelligent Robots and Systems (IROS), Japan, 2004.
[15] R. Cutler, M. Turk: “View-based interpretation of real-time optical flow for gesture recognition”, Automatic Face and Gesture Recognition, 1998, Proceedings, 3rd IEEE International Conference on NARA, Japan, 1998.
[16] W.Schaarschmidt, J. Savage: “Key gesture Spotting for a mobil robot”, International Symposium on Robotics and Automation (ISRA), 2004, pp. 1-6.
[17] Willert, V., Eggert, J., Adamy, J., and Koerner, E.: "Non-gaussian velocity distributions integrated over space, time and scales", IEEE Transactions on Systems, Man and Cybernetics B, 36(3):482-493, 2006.
Claims (19)
- 自己運動を伴う車両の運転者支援システムまたはロボットの視覚的に検知されたシーンにおける動的な対象物を検出するための方法であって、
自己運動を伴う車両またはロボットに取り付けられた視覚センサの環境の視覚信号を提供するステップであって、前記視覚センサは3Dデータを提供する高密度深度センサであり、もう一つのセンサが自己運動の情報を提供する、ステップと、
検出されたオプティカルフローに基づいて、前記視覚センサの入力視野上の対象物の固有運動を検出するステップと、
予測された3Dデータおよび計測された3Dデータに基づく3Dワーピングを用い、前記環境の3D表現モデルに基づいて、前記対象物の運動を検出するステップであって、該予測された3Dデータは、計測された3Dデータおよび前記自己運動を表すデータに基づいて生成される、ステップと、
前記3Dワーピングに基づく対象物の運動の検出およびオプティカルフローに基づく対象物の固有運動の検出の両方を並列に使用し、一方による検出結果を他方による検出結果の検証および改善に使用することにより両方を組み合わせるステップであって、前記3Dワーピングが前記オプティカルフローに基づく対象物の固有運動の検出を適用する領域を規定し、前記オプティカルフローに基づく対象物の固有運動の検出が前記3Dワーピングを適用する領域を規定する、ステップと、
前記検出された動的な対象物に関する情報およびそれらの計測された運動パラメータを記憶するステップと、
を含む方法。 - 前記検出された動的な対象物に関する情報は、衝突回避または経路計画に用いられる、
請求項1に記載の方法。 - 前記3Dワーピングに基づく対象物運動の検出および前記オプティカルフローに基づく対象物の運動の検出は、互いに、他方の検出手法の探索空間が制限され、制御パラメータが決定されて該他方の検出モジュールに供給されるように、組み合わせられる、
請求項1に記載の方法。 - 前記3Dワーピングに基づく対象物の運動の検出は、前記オプティカルフローに基づく対象物の運動の認識を、対象物の横方向の運動を示す領域に関して、たとえば方向および大きさについてパラメータ化する、
請求項1に記載の方法。 - 前記3Dワーピングに基づく対象物の運動の検出において、前記自己運動に対する横方向運動を示す領域のみが、前記オプティカルフローに基づく対象物の運動の認識によって処理される、
請求項1に記載の方法。 - 前記3Dワーピングに基づく対象物の運動の検出および前記オプティカルフローに基づく対象物の運動の検出は、一方の検出モジュールの検出結果が改善され検証されるように、組み合わせられる、
請求項1に記載の方法。 - たとえば回転レーザスキャナのような、3D深度センサからの情報が3Dデータを生成するのに使用される、請求項1に記載の方法。
- たとえばPMD(Photonic Mixer Device)のような2D深度センサからの情報が3Dデータを生成するのに使用される、請求項1に記載の方法。
- たとえばレーザスキャナのような1D深度センサからの情報が3Dデータを生成するのに使用される、請求項1に記載の方法。
- 前記もう一つのセンサが一つの軌跡モデルに基づいて計算される自己運動についての情報を提供する、請求項1に記載の方法。
- 高密度深度センサは、3Dデータおよび単一の進路モデルに基づいて計算された前記自己運動の情報を提供する、
請求項1に記載の方法。 - 前記単一の進路モデルの入力データは、車両の速度および(または)ヨーレートの付加的なセンサから到来する、
請求項1に記載の方法。 - 両方の手法は、並列に実行される、請求項1に記載の方法。
- 請求項1に記載の方法を実行するよう設計された、運転者支援コンピューティングユニット。
- 請求項14に記載の運転者支援コンピューティングユニットを備えた車両。
- 請求項1に記載の方法を実行するコンピューティングユニットを備えた自律型ロボット。
- コンピューティングユニット上で稼動する、請求項1に記載の方法を実現するコンピュータプログラム。
- 運転経路および(または)周辺のモデル生成装置を備えた運転者支援システムであって、該モデル生成装置は、
自己運動を伴う車両またはロボットに取り付けられた視覚センサの環境の視覚信号を提供する手段であって、前記視覚センサは3Dデータを提供する高密度深度センサであり、もう一つのセンサが自己運動の情報を提供する、手段と、
検出されたオプティカルフローに基づいて、前記視覚センサの入力視野上の対象物の固有運動を検出するための計算手段と、
予測された3Dデータおよび計測された3Dデータに基づく3Dワーピングを用い、前記環境の3D表現モデルに基づいて、前記対象物の運動を検出するための計算手段であって、該予測された3Dデータは、計測された3Dデータおよび前記自己運動を表すデータに基づいて生成される、手段と、
前記3Dワーピングに基づく対象物の運動の検出および前記オプティカルフローに基づく対象物の固有運動の検出の両方を並列に使用し、一方による検出結果を他方による検出結果の検証および改善に使用することにより両方を組み合わせる計算手段であって、前記3Dワーピングが前記オプティカルフローに基づく対象物の固有運動の検出を適用する領域を規定し、前記オプティカルフローに基づく対象物の固有運動の検出が前記3Dワーピングを適用する領域を規定する、計算手段と、
前記検出された動的な対象物に関する情報およびそれらの計測された運動パラメータを記憶するための手段と、
を備えるシステム。 - 前記視覚センサは、CANバス上でアクセス可能であり、および/または、付加的なセンサからアクセス可能である、請求項18に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP09161520.3A EP2256690B1 (en) | 2009-05-29 | 2009-05-29 | Object motion detection system based on combining 3D warping techniques and a proper object motion detection |
EP09161520.3 | 2009-05-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010282615A JP2010282615A (ja) | 2010-12-16 |
JP5023186B2 true JP5023186B2 (ja) | 2012-09-12 |
Family
ID=40996543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010112052A Expired - Fee Related JP5023186B2 (ja) | 2009-05-29 | 2010-05-14 | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム |
Country Status (2)
Country | Link |
---|---|
EP (1) | EP2256690B1 (ja) |
JP (1) | JP5023186B2 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10776635B2 (en) | 2010-09-21 | 2020-09-15 | Mobileye Vision Technologies Ltd. | Monocular cued detection of three-dimensional structures from depth images |
AU2015218522B2 (en) * | 2010-12-30 | 2017-01-19 | Irobot Corporation | Mobile robot system |
DE102011113077A1 (de) * | 2011-09-07 | 2013-03-07 | Conti Temic Microelectronic Gmbh | Verfahren zur Bestimmung einer Durchfahrbarkeit eines Objekts für ein Fahrzeug mittels einer 3D-Kamera |
DE102012204175A1 (de) | 2012-03-16 | 2013-09-19 | Robert Bosch Gmbh | Verfahren zur Bildverarbeitung für ein Fahrassistenzsystem und Fahrassistenzsystem |
MY172143A (en) * | 2012-12-13 | 2019-11-14 | Mimos Berhad | Method for non-static foreground feature extraction and classification |
EP2757527B1 (en) * | 2013-01-16 | 2018-12-12 | Honda Research Institute Europe GmbH | System and method for distorted camera image correction |
US9600768B1 (en) | 2013-04-16 | 2017-03-21 | Google Inc. | Using behavior of objects to infer changes in a driving environment |
US9903950B2 (en) * | 2014-08-27 | 2018-02-27 | Leica Geosystems Ag | Multi-camera laser scanner |
KR101864127B1 (ko) * | 2016-09-06 | 2018-06-29 | 국방과학연구소 | 무인 차량을 위한 주변 환경 매핑 방법 및 장치 |
DE102017204404B3 (de) | 2017-03-16 | 2018-06-28 | Audi Ag | Verfahren und Vorhersagevorrichtung zum Vorhersagen eines Verhaltens eines Objekts in einer Umgebung eines Kraftfahrzeugs und Kraftfahrzeug |
CN108229282A (zh) * | 2017-05-05 | 2018-06-29 | 商汤集团有限公司 | 关键点检测方法、装置、存储介质及电子设备 |
US10757485B2 (en) | 2017-08-25 | 2020-08-25 | Honda Motor Co., Ltd. | System and method for synchronized vehicle sensor data acquisition processing using vehicular communication |
US11163317B2 (en) | 2018-07-31 | 2021-11-02 | Honda Motor Co., Ltd. | System and method for shared autonomy through cooperative sensing |
US11181929B2 (en) | 2018-07-31 | 2021-11-23 | Honda Motor Co., Ltd. | System and method for shared autonomy through cooperative sensing |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7266220B2 (en) * | 2002-05-09 | 2007-09-04 | Matsushita Electric Industrial Co., Ltd. | Monitoring device, monitoring method and program for monitoring |
JP3776094B2 (ja) * | 2002-05-09 | 2006-05-17 | 松下電器産業株式会社 | 監視装置、監視方法および監視用プログラム |
ATE500570T1 (de) * | 2007-08-22 | 2011-03-15 | Honda Res Inst Europe Gmbh | Schätzung der ordnungsgemässen bewegung von objekten mithilfe optischer fluss-, kinematik- und tiefeninformationen |
EP2209091B1 (en) * | 2009-01-16 | 2012-08-08 | Honda Research Institute Europe GmbH | System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system |
-
2009
- 2009-05-29 EP EP09161520.3A patent/EP2256690B1/en not_active Not-in-force
-
2010
- 2010-05-14 JP JP2010112052A patent/JP5023186B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP2256690A1 (en) | 2010-12-01 |
JP2010282615A (ja) | 2010-12-16 |
EP2256690B1 (en) | 2016-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5023186B2 (ja) | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム | |
US8564657B2 (en) | Object motion detection system based on combining 3D warping techniques and a proper object motion detection | |
EP2209091B1 (en) | System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system | |
KR102275310B1 (ko) | 자동차 주변의 장애물 검출 방법 | |
CN108496178B (zh) | 用于估计未来路径的系统和方法 | |
KR101776622B1 (ko) | 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
US11670087B2 (en) | Training data generating method for image processing, image processing method, and devices thereof | |
Barth et al. | Estimating the driving state of oncoming vehicles from a moving platform using stereo vision | |
KR101784183B1 (ko) | ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
CN115461258A (zh) | 用于自主导航期间对象避让的方法 | |
CN111771207A (zh) | 增强的车辆跟踪 | |
KR102056147B1 (ko) | 자율주행차량을 위한 거리 데이터와 3차원 스캔 데이터의 정합 방법 및 그 장치 | |
CN108734732A (zh) | 用于生成车辆环境的占用地图的方法和装置 | |
JP2009175932A (ja) | 移動ロボットの走行領域判別装置及び走行領域判別方法 | |
McManus et al. | Distraction suppression for vision-based pose estimation at city scales | |
Rabie et al. | Mobile active‐vision traffic surveillance system for urban networks | |
WO2020079309A1 (en) | Obstacle detection | |
WO2022214821A2 (en) | Monocular depth estimation | |
JP4847303B2 (ja) | 障害物検出方法、障害物検出プログラムおよび障害物検出装置 | |
Azevedo et al. | Real-time road surface mapping using stereo matching, v-disparity and machine learning | |
JP2020076714A (ja) | 位置姿勢推定装置 | |
US11443147B2 (en) | Systems and methods for object detection using stereovision information | |
Wang et al. | Real-time dense scene flow estimation using a RGB-D camera | |
Nie et al. | Model-based optical flow for large displacements and homogeneous regions | |
US20240098231A1 (en) | Image processing device, image processing method, and computer-readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111108 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120206 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120209 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120605 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120618 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5023186 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150622 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |