JP2013537661A - ステレオビジョン技術を使用することによる移動物体の自動検出 - Google Patents
ステレオビジョン技術を使用することによる移動物体の自動検出 Download PDFInfo
- Publication number
- JP2013537661A JP2013537661A JP2013517674A JP2013517674A JP2013537661A JP 2013537661 A JP2013537661 A JP 2013537661A JP 2013517674 A JP2013517674 A JP 2013517674A JP 2013517674 A JP2013517674 A JP 2013517674A JP 2013537661 A JP2013537661 A JP 2013537661A
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- image
- instantaneous distance
- automobile
- image acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Abstract
本発明は、ステレオビジョンに基づく技術を使用することによって、自動車前方の移動物体を識別するためのシステムおよび方法を開示する。また、本発明は、プロセッサによって移動物体の画像を処理し、カルマンフィルタの使用により画像をフィルタリングして精密化してノイズを取り除くことによって移動物体と自動車の間の瞬間距離を求めるための方法およびシステムを開示する。
【選択図】図10
【選択図】図10
Description
本発明は、移動物体を追跡して車から瞬間距離を測定するためのシステムおよび方法に関する。さらに詳しくは、本発明は、追跡後/測定段階でカルマンフィルタの低計算複雑性を実装して移動物体の位置測定で生じたノイズエラーを除去するためのシステムおよび方法を提供する。
本発明は、歩行者の自動検出と走行している自動車からの距離の測定とに関する。最近では、交通事故件数が著しく増加するにつれ、運転者および歩行者の安全が世界中でますます重要になっている。交通事故は、生命と財産を失う主な原因である。歩行者を認識することにより、交通事故の発生率を減少させる早期警告が可能となる。
歩行者を検出し、走行する自動車からの距離を測定するための多くの方法がある。その大部分は、障害物を検出するためのセンサまたはカメラの使用を含んでいる。また、これらの方法は通常、SIFT、SURFの使用、あるいは、位置推定のための三角測量が正確となる同一のステレオ点の識別において本質的にロバスト性がある他の高度な画像処理アルゴリズムの使用を含んでいる。しかし、これらの画像処理アルゴリズムは、特有の複雑性があり、システムの良好な時間性能を維持するためには、さらに多くの処理能力を必要とする精密な計算が要求される。そのような方法(特許文献1)の1つは、単眼のカメラを装備している走行車両から障害物までの距離を予測している。具体的にこの方法は、予測される距離の誤差をリアルタイムで減少させるために使用される画像処理法を含む。寸法、たとえば幅は、2つ以上の画像フレームの各画像で測定され、これにより、寸法の測定値が得られる。この方法はノイズリダクションを提供するが、距離を測定するための複雑な数式の使用を必要としている。そのような他の方法は、夜間(薄暗い状態)や気象条件が好ましくない場合には効果が低くなる。
したがって、追跡画像のエラーやノイズをさらに減らして歩行者の自動検出と走行する自動車からの歩行者の距離を得るための方法およびシステムの必要性があり、複雑性をさらに減らす必要がある。また、その方法およびシステムは、夜間や気象条件が好ましくない場合においても動作できることが必要とされる。
自動車前方の移動物体を識別して自動車からの距離を求めるための方法を開示する。この方法は、画像取得装置の範囲内のリアルタイム画像を複数のフレームで取得するステップと、このようにして取得したフレームを同期させて同期化フレームまたは同一フレームを得るステップとを含む。この方法は、同期化フレームまたは同一のフレームで取得した画像を処理するステップであって、選別された特徴によって画像を識別し、その特徴はピクセルであるステップと、同一フレームのカーネルに基づく相関追跡によって移動物体を精密化または追跡するステップと、そのようにして検出された移動物体の三角測量を行なって移動物体と自動車の間の瞬間距離を得るステップと、カルマンフィルタを使用することによって測定された瞬間距離を精密化して移動物体の画像に発生したノイズを取り除くステップとを実装したプロセッサを実行することによるステップをさらに含む。
自動車前方の移動物体を識別し、移動物体と自動車の間の瞬間距離を求めるためのシステムを開示する。システムは、画像取得装置の範囲内の画像を複数のフレームで得るように適合させた画像取得装置と、複数のフレームを同期化して同期化フレームを得るために画像取得装置に一体化したシステムクロックとを含む。システムは、同期化フレームで取得した画像を処理し、カルマンフィルタを使用することによって取得した画像をフィルタリングして精密化するプログラム命令を実行可能なプロセッサと、移動物体と自動車の間の瞬間距離を求めるための計算機とをさらに含む。
ここで、本発明のいくつかの実施形態をその特徴を示しながら説明する。
「含む」、「有する」、「含有する」、「包含する」という用語およびこの他の形の用語は、同じ意味であり、オープンエンドであることを意図し、これらの用語のいずれかに続く項目は、その総記であるという意味はなく、記載する項目のみに限定するという意味もない。
また、本願明細書および本願特許請求の範囲で使用するように、特に明記しない限り、単数の冠詞は複数に言及することを含むことに留意する必要がある。本願明細書に記載するものと同様または均等なあらゆるシステム、方法、装置および機器が、本発明の実施形態の実施または試行に使用できるが、好適なシステムおよび部分を以下に説明する。
開示する実施形態は、本発明の典型例にすぎず、さまざまな形態で具体化してもよい。
以下の記載は、本発明の理解のための定義である。
リアルタイム:システムが、実行に対する時間制約があるアプリケーションを実行する支援ができるリアルタイムである。
移動物体:自動車に対して動いているあらゆる物体。
リアルタイム画像:実在する物体と同じ速度で画面に動画化できる画像。
前方:画像取得装置の直接の範囲内の移動物体の位置。
瞬間距離:遅延のない移動物体と自動車の間の距離。
本発明は、自動車(3)の前方の移動物体(2)を識別するための方法およびシステム(1)を開示する。さらに具体的には、本発明は、移動物体(2)と自動車(3)の間の瞬間距離を求めるための方法およびシステム(1)を開示する。移動物体(2)は、歩行者、自動車、動物などを含むが、これに限定されない。
図1に示すように、一態様によれば、この方法は画像取得装置(4)によってリアルタイム画像を得ることを含む。画像取得装置(4)は、画像取得装置(4)の範囲内の画像を取得する。その範囲は、ゼロから無限大である。画像は、複数のフレームで取得する。距離測定の必須条件は、フレームを同期して同期化フレームまたは同一フレームを得ることである。いずれかの画像取得装置(4)からの各受信フレームに、複数の画像取得装置(4)に共通のシステムクロック(5)によって生成されるタイムスタンプを与えるように、同期化フレームを選択する機構が実装される。複数の画像取得装置(4)から取得した複数の画像から画像がバッファリングされ、1つのアルゴリズムが複数のフレームのタイムスタンプを検索して同期化フレームを取得する。
一態様によれば、画像取得装置(4)によって同期化フレームで取得した画像はプロセッサ(6)によって処理される。移動物体(2)は、識別アルゴリズムまたは検出アルゴリズムを利用することによって識別される。アルゴリズムの部分に関して、第1のステップは、移動物体(2)の画像に対してHaar基底関数を使用して特徴を収集することである。
画像は、方程式で表すことができる。
アルゴリズムの部分に関して、第1のステップは、積分画像に関してHaar基底関数を使用して特徴を収集することである。この特徴はピクセルを含む。
式中、iiは積分画像であり、iは原画像である。
この積分画像は、以下の再帰関数を使用して素早く計算することができる。
最初は、s(x,−1)=ii(−1,y)=0である。
移動物体(2)のこの積分画像に関して、Haar様の特徴はブロックサイズ12×28を使用して計算される。
図2は、Haar様の特徴のサンプルを示し、黒領域から白領域のピクセルの合計を減算して特徴の値を得る。
ポジティブ(人物)およびネガティブ(非人物)からの特徴が相当数となった後に、AdaBoost分類器を訓練して訓練Adaboostを得る。図3を参照すると、訓練Adaboostは未知画像に適用され、人物予測領域を得る。
図4に示すように、大部分が重複する長方形は単独の長方形とみなされ、分割された物体が得られる。移動物体(2)が識別または検出された後、更に処理が行われる。相関に基づく追跡は、色相関を使用して分割された物体を追跡するために使用される。分割された物体のカラーヒストグラムは、量子化したカラースキームを使用することによって計算される。
量子化したカラースキームによる、特定の具体例。
h、sおよびvをHSV領域の色値とし、特定のR、GおよびB値に対して、sおよびvは[0,1]間で正規化され、指数は量子化されたビン値である。
純黒領域は、以下の数式の範囲に見られる。
灰色領域は、以下の数式の範囲に見られる。
白領域は、以下の数式の範囲に見られる。
さまざまなh値に対して、カラー領域は以下の範囲に見られる。
異なるsおよびvに対するh、sおよびv値の量子化は、以下の通り行われる。
Hindex、SindexおよびVindexは、さまざまなh、sおよびv値に対して量子化した指数とする。
最終的に、2値ヒストグラムは以下の方程式によって得られる。
分割された2つの物体間の相関は、バタチャリヤ距離として定義される。
式中、ρ[.]はpとqの間のバッタチャリヤ係数である。
ここで、いずれかの移動物体(2)が前回フレームで分割され、現在フレームで分割されていない場合、カーネルに基づく追跡を受ける。
候補モデルは、前回フレームでさらに早く示した同じヒストグラムモデルを使用して生成される。前回と同じ位置で同じ長方形の現在フレームでは、目標モデルが一致する。
ここで、目標モデルと目標候補のヒストグラムとの間の距離が算出される。
式中、ρ[.]はpとqの間のバッタチャリヤ係数である。
ここで、目標の中心変位が加重平均によって算出される。
式中、以下の通り。
目標の新しい位置がわかると、
1)ヒストグラムを均等化した画像範囲とボトムハット変換を行なった画像を含む同じ特徴空間によって新しい位置の目標候補ヒストグラムを計算する。
2)以下の数式を計算する。
1)ヒストグラムを均等化した画像範囲とボトムハット変換を行なった画像を含む同じ特徴空間によって新しい位置の目標候補ヒストグラムを計算する。
2)以下の数式を計算する。
3)以下の式の条件に当てはまる間は、y1<−(y0+y1))/2を設定し、数式21を評価する。
4)||y1−y0||<εの場合は、停止する。
この条件に当てはまらない場合は、y0<−y1を設定して重みを得て、新しい位置を設定し、ステップ1)に戻る。
上記の追跡処理で、行方のわからない移動物体は追跡される。
ここで、画像取得装置(4)は、Zhangのキャリブレーションを使用して較正される。
2つの画像の間にはエピポーラ幾何学が成立する。
式中Fは、(m1−>m2)の対応点に対応する基本行列である。
Fから、Fと関係がある行列Eを計算することができる。
ここで、以下の方程式が成立する。
式中、tおよびRは、画像取得装置(4)の並進および回転である。
移動物体が複数の画像取得装置(4)で追跡されると、Harrisコーナー検出が移動物体(2)の長方形内で行われる。
コーナーは基準相関を使用して検出され、移動物体(2)と自動車(3)の間の瞬間距離は、標準のステレオビジョンに基づく三角測量技術を使用して算出される。
一態様によれば、処理は、カルマンフィルタを使用することによって、移動物体(2)と自動車(3)の間で測定された瞬間距離を精密化して、複雑な背景および乏しい光条件またはたとえば、霧、雨などの悪天候条件によって生じるノイズを取り除くことをさらに含む。複雑な背景は、移動物体を識別することが困難となる。
図7に示すように、特定の実施例として、高度なアルゴリズム(SIFT、SURFなど)を使用しないと、悪条件ではステレオ画像の同一点を検出することが困難になる。移動物体(2)は歩行者とする。アルゴリズム(Harrisコーナー検出を使用する単純な対応に基づく)は、左右の画像内の黒色のシャツ/パンツの完全一致を検出することが困難であることにより距離測定において顕著な誤差が発生することから、歩行者の黒色のシャツおよびパンツは誤差の原因となる。
線形システムを以下のように表すことができる。
状態方程式:
出力方程式:
上記の方程式では、A、BおよびCは行列であり、kは時間指数であり、xはシステム(1)の状態を定義し、uはシステム(1)への既知入力であり、yは測定出力であり、wおよびzは、処理ノイズ(w)および測定ノイズ(z)と呼ばれるノイズである。xは直接測定できないが、xの関数であるyは測定できるもののノイズzで崩壊するため、yの額面の値を使用することはできない。カルマンフィルタを実行すれば、現在の状態xがさらに良好に予測され、同じように、その要素の測定値が補正される(本発明の例では、xは位置および速度から成る)。これは、カルマンフィルタを使用する技術によって測定生データに対してどのようにフィルタリングをするかということである。
一実施形態によれば、特定の具体例として、自動車(3)は移動物体(2)に直線的に接近していると考える。また、移動物体(2)の速度は自動車(3)に対してごくわずかであると仮定する。これにより、実際には、一定速度で固定物体に接近する自動車(3)から成るシステム(1)ということになり、自動車(3)と固定物体の間の距離は経時的に単調減少する。これは、自動車(3)の速度が通常、移動物体(2)の速度よりはるか大きいため、一般に正しい仮定である。これら2つが同程度の大きさの場合(自動車が減速している場合のように)、事故を防止するためには自動物体検出の必要がないことがある。
図8を参照すると、上記の仮定に基づいて移動物体(2)上部に座標系が定義される。
ゼロ加速モデルに関して、自動車(3)の瞬間位置および瞬間速度は以下に示す方程式に左右される。
式中、Δtは測定間隔であり、pkは自動車(3)の位置であり、vkは自動車(3)の速度であり、以下の変数は、位置ノイズおよび速度ノイズである。
ステレオビジョンに基づく距離測定データは、自動車(3)の位置情報(p)となることに留意する必要がある。
数学的に言えば、システム(1)の状態は、以下のように位置(p)と速度(v)から成る。
出力yで間隔を置いて位置(p)を測定するため、その一次方程式は以下のとおりとなる。
式中、zkは測定ノイズである。
方程式(1)(2)と方程式(6)(7)を比較すると、以下の数式が成立することがわかる。
カルマンフィルタを開始するためには、さらに3つのパラメータ、すなわち、初期状態x、処理ノイズ共分散Qおよび測定ノイズ共分散Rを事前に知る必要がある。
検出されるあらゆる移動物体(2)に関して、第1の測定距離によって初期位置を設定し、自動車(3)の瞬間速度をリアルタイムでアルゴリズムに渡す機構/機器がなく、初期速度をゼロにした方が良いことがわかったため、初期速度をゼロに設定し、何回か反復した後の速度にフィルタを適合させる。
処理ノイズ共分散(Q)および測定ノイズ共分散(R)は以下の数式で表す。
式中、以下に示す行列は、wkおよびzkを転置したものである。また、E(.)は予測値を意味する。
測定ノイズ共分散は、測定データの標準偏差の2乗であるとして比較的簡単に評価される。測定ノイズ共分散はオフラインで測定し(その調整を行う実際の処理はsecVで示す)、シミュレーションの間、この値を定数としてアルゴリズムに渡した(すべての移動物体に対して真である)。
ここで、処理ノイズ共分散を算出することが残されるのみである。これも、オフラインで求められ、定数値としてアルゴリズムに渡される(すべての歩行者に対して真である)。その調整に関する詳細はsecVで示す。プロセス共分散は以下によって得られる。
仮定される/得られる基礎パラメータは速度ノイズであり、これにより、Qを予測することができる。速度ノイズ(すなわち、速度の標準偏差)がv_noiseであると言える。
位置は、速度の時間間隔Δt倍に比例し、速度ノイズはv_noiseであることから、位置分散はa=(Δt)2・(v_noise)2である。次に、b=(v_noise)2として速度分散を算出する。最終的に、位置ノイズおよび速度ノイズの共分散は、位置ノイズの標準偏差に速度ノイズの標準偏差を掛けたものに等しく、以下の数式で算出することができる。
これらの方程式を組み合わせると以下の式となる。
v_noiseパラメータをオフラインで求め、Qの最適値を求める。これは、取得したいくつかのデータに対して行われるオフライン訓練処理として扱うことができ、次に、定数として常に使用され、実データに適用される。
図9は、カルマンフィルタ出力の技術を使用して誤差低減を大幅に高めることを表す結果を示す。赤色の点は、移動物体(2)の経路上の予め印を付けた基準時間位置データを表す。これに基づいて、点は直線カーブに(方程式3に従って)適合することで基準データセットとなる。この近似曲線からのあらゆる偏差が測定データセットの誤差とみなされる。具体的にはtiにおいて、基準位置、測定位置はそれぞれ以下の行列であり、i=1〜nである場合、全誤差は以下の数式で算出される。
物理的意味(二乗平均値にかなり近似)を得るために、全誤差をさらに修正して以下の数式で最終誤差(メートル)を得る。
一態様によれば、本発明は、自動車(3)の前方の移動物体(2)を識別するためのシステム(1)も開示する。さらに具体的には、本発明は、移動物体(2)と自動車(3)の間の瞬間距離を求めるためのシステム(1)を開示する。
図10を参照すると、システムは、画像取得装置(4)の範囲内の画像を複数のフレームで取得するように適合させた画像取得装置(4)と、複数のフレームを同期化して同期化フレームまたは同一フレームを得るために画像取得装置(4)に一体化したシステムクロック(5)と、移動物体(2)の画像を処理して、移動物体(2)と自動車(3)の間の瞬間距離をフィルタリングするためのプロセッサ(6)と、移動物体(2)と自動車(3)の間の距離を求めるための計算機とを含む。
一実施形態によれば、システム(1)は複数の画像取得装置(4)から成る。画像取得装置(4)はカメラを含む。カメラは、自動車(3)に搭載され、動作している。
一実施形態によれば、システム(1)は、カルマンフィルタによって測定された寸法に基づいて、自動車(3)のステアリング角および速度を測定して適合させる制御装置(7)をさらに含む。
具体例として、移動物体(2)は歩行者であると仮定する。自動車(3)に対する相対速度が歩いている歩行者よりかなり大きいため、歩行者が自動車(3)に固定されていると仮定することができる。その場合、自動車−歩行者の距離(Z)の平均変化率によって、自動車(3)の速度が求められる。検出した歩行者のZを得て、さらに各測定値(t)のタイムスタンプを得る。したがって、速度(V)は以下に示すようにそのような情報を使用して求めることができる。
以下のようにして速度を測定することができる。
たとえば、アルゴリズムは、時間枠t1(容易に、タイムスタンプから得ることが可能)のzt1 1,zt1 2…zt1 nおよび時間枠t2のzt2 1,zt2 2…zt2 nとして対応する自動車−歩行者の距離においてn人の歩行者を検出していることから、自動車の速度は以下の数式で求めることができる。
ステアリング角は以下のように算出してもよい。
これは、オプチカルフローを測定することによって測定することができる。opticalFlowLeftは画像の左半分のオプチカルフローであり、opticalFlowRightは画像の右半分のオプチカルフローである。次に、ステアリング角(theta)は以下のように算出することができる。
速度または方向は以下のように算出してもよい。
速度(s)およびステアリング角(theta)の情報を合わせることによって、自動車(3)の速度/方向情報が得られる。
一実施形態によれば、システム(1)は、警報発生装置をさらに含み、この装置は警報を発生することによって自動車の運転者に警告するためのモジュールであってよい。
本発明のシステムは、生データを直接平滑化(移動平均フィルタ)し、誤差を算出した10点を使用して、このナイーブ法がカルマン出力とどのようにして比較されるかを確認する。表1は誤差に関する比較試験を示す。これは、カルマン法が測定誤差を有意水準に減少させる最良の候補であることを示す。
提案するシステムは、2GHz x86プロセッサに実装したところ、25km/時で走行する自動車から歩行者を正確に検出して追跡でき、かかった処理時間は200ミリ秒未満であり、歩行者がいる警報を発生させるのに十分速い。
カルマンフィルタへの入力として最適化したQおよびRを得るため、純粋シミュレーションによってQ(v_noiseによる)およびRを広範囲(.01〜1000)で変化させ、基準データセットに基づいて誤差を算出した。結果は図4に示す。X、Y軸は、対数目盛りで示し、QおよびRを表すワイドダイナミックレンジである。これは、誤差が最小である領域を示す。さらにRおよびQを微調整して(試行錯誤法)、そのパラメータを固定した。Rをさらに調整している間、物理的意味を保持するように、実測(すなわち、データの標準偏差の2乗)に近くなるようにRを求めた。
以下の数式と同じ設定が他の移動物体に適用される場合も、図11に示すような良好な結果を示した。
図12は、移動物体(2)の検出と、自動車(3)からの距離のリアルタイムでの報告とを示す。
上に示した記載は、本発明のさまざまな実施形態に関して示している。本発明が関係する技術分野の当業者は、説明した処理および操作方法が、本発明の原理、精神および範囲から有意味に逸脱することなく変形および変更を実施できることを理解する。
Claims (11)
- 自動車前方の移動物体を識別し、前記自動車から前記移動物体の瞬間距離を求めるための方法であって、
画像取得装置の範囲内のリアルタイム画像を複数のフレームで取得するステップと、
このようにして取得した前記フレームを同期させて同期化フレームまたは同一フレームを取得するステップと、
前記同期化フレームで取得した前記画像を処理するステップであって、
前記移動物体の画像から収集した特徴によって前記移動物体を識別し、前記特徴はピクセルを含むステップと、
前記同一フレームまたは前記同期化フレームに対するカーネルに基づく相関追跡によって前記移動物体を精密化または追跡するステップと、
追跡後に検出した前記移動物体のステレオビジョンに基づく三角測量を行なって前記移動物体と前記自動車の間の瞬間距離を得るステップと、
カルマンフィルタ出力を使用することによって前記瞬間距離を精密化して前記瞬間距離の測定において発生したノイズを取り除くステップとを実装したプロセッサを実行することによるステップとを含む方法。 - 前記移動物体を識別することは、黒領域のピクセルの合計から白領域のピクセルの合計を減算することによって得られる複数の特徴を収集することをさらに含む請求項1に記載の方法。
- 識別された物体の前記追跡は、色相関と前記カーネルに基づく追跡とをさらに含む請求項1に記載の方法。
- 前記カルマンフィルタ出力の使用による前記瞬間距離を前記フィルタリングして精密化することに基づいて、前記自動車のステアリング角および速度を測定して適合させることをさらに含む請求項1に記載の方法。
- 警報を発生させることによって前記自動車の運転者に警告することをさらに含む請求項1に記載の方法。
- 自動車前方の移動物体を識別し、前記移動物体と前記自動車の間の瞬間距離を求めるためのシステムであって、
画像取得装置の範囲内の画像を複数のフレームで取得するように適合させた画像取得装置と、
前記複数のフレームを同期化して同期化フレームまたは同一フレームを得るために前記画像取得装置に一体化したシステムクロックと、
前記同期化フレームで取得した前記画像を処理し、カルマンフィルタを使用することによって前記移動物体と前記自動車の間で測定される前記瞬間距離をフィルタリングして精密化するプログラム命令を実行可能なプロセッサと、
前記移動物体と前記自動車の間の前記瞬間距離を求めるための計算機とを含むシステム。 - 前記システムは複数の画像取得装置をさらに含む請求項6に記載のシステム。
- 前記画像取得装置はカメラを含む請求項6に記載のシステム。
- 前記カメラは、前記自動車に搭載され、動作している請求項6に記載のシステム。
- 前記システムはステレオビジョンに基づく三角測量を行なって前記瞬間距離を求めた後に、前記カルマンフィルタの使用による前記瞬間距離を前記フィルタリングして精密化することによって、前記自動車のステアリング角および速度を測定して適合させるための制御装置をさらに含む請求項6に記載のシステム。
- 前記システムは警報を発生させることによって前記自動車の運転者に警告するための警報発生装置をさらに含む請求項6に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN1911MU2010 | 2010-06-30 | ||
IN1911/MUM/2010 | 2010-06-30 | ||
IN969MU2011 | 2011-03-29 | ||
IN969/MUM/2011 | 2011-03-29 | ||
PCT/IN2011/000436 WO2012001709A2 (en) | 2010-06-30 | 2011-06-30 | Automatic detection of moving object by using stereo vision technique |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013537661A true JP2013537661A (ja) | 2013-10-03 |
Family
ID=45402498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013517674A Pending JP2013537661A (ja) | 2010-06-30 | 2011-06-30 | ステレオビジョン技術を使用することによる移動物体の自動検出 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10187617B2 (ja) |
EP (1) | EP2589218B1 (ja) |
JP (1) | JP2013537661A (ja) |
WO (1) | WO2012001709A2 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6100635B2 (ja) * | 2012-12-13 | 2017-03-22 | 株式会社デンソー | 移動体検出装置 |
CN104969261B (zh) | 2013-02-04 | 2018-07-10 | 哈曼国际工业有限公司 | 用于检测移动物体的方法和系统 |
WO2014132748A1 (ja) * | 2013-02-27 | 2014-09-04 | 日立オートモティブシステムズ株式会社 | 撮像装置及び車両制御装置 |
US11163050B2 (en) | 2013-08-09 | 2021-11-02 | The Board Of Trustees Of The Leland Stanford Junior University | Backscatter estimation using progressive self interference cancellation |
US11209536B2 (en) * | 2014-05-02 | 2021-12-28 | The Board Of Trustees Of The Leland Stanford Junior University | Method and apparatus for tracking motion using radio frequency signals |
WO2016074169A1 (zh) * | 2014-11-12 | 2016-05-19 | 深圳市大疆创新科技有限公司 | 一种对目标物体的检测方法、检测装置以及机器人 |
KR102323393B1 (ko) | 2015-01-12 | 2021-11-09 | 삼성전자주식회사 | 디바이스 및 상기 디바이스의 제어 방법 |
US10338205B2 (en) | 2016-08-12 | 2019-07-02 | The Board Of Trustees Of The Leland Stanford Junior University | Backscatter communication among commodity WiFi radios |
WO2018081319A1 (en) | 2016-10-25 | 2018-05-03 | The Board Of Trustees Of The Leland Stanford Junior University | Backscattering ambient ism band signals |
CN107886058B (zh) * | 2017-10-31 | 2021-03-26 | 衢州学院 | 噪声相关的两阶段容积Kalman滤波估计方法及系统 |
JP6971933B2 (ja) * | 2018-08-07 | 2021-11-24 | 株式会社東芝 | 画像処理装置及び撮像装置 |
CN109461170B (zh) * | 2018-09-20 | 2021-11-16 | 西安电子科技大学 | 基于fpga的超高速目标跟踪方法、计算机视觉系统 |
CN110969064B (zh) * | 2018-09-30 | 2023-10-27 | 北京四维图新科技股份有限公司 | 一种基于单目视觉的图像检测方法、装置及存储设备 |
DE102021005335B4 (de) | 2021-10-26 | 2023-11-09 | Mercedes-Benz Group AG | Verfahren zur Kompensation von Messfehlern |
CN114693724A (zh) * | 2022-05-07 | 2022-07-01 | 上海恒岳智能交通科技有限公司 | 一种多源复合立体视觉传感器动态跟踪方法 |
CN115082481B (zh) * | 2022-08-23 | 2022-11-15 | 聊城市誉林工业设计有限公司 | 一种用于齿轮的图像增强方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0814861A (ja) * | 1994-07-01 | 1996-01-19 | Canon Inc | 3次元形状の計測方法及び装置 |
JP2001319224A (ja) * | 2000-05-08 | 2001-11-16 | Fujitsu Ltd | 3次元物体検出装置と3次元物体検出方法及び記録媒体 |
JP2005114588A (ja) * | 2003-10-08 | 2005-04-28 | Mitsubishi Heavy Ind Ltd | 追尾装置 |
JP2008009843A (ja) * | 2006-06-30 | 2008-01-17 | Honda Motor Co Ltd | 障害物判別装置 |
JP2008028478A (ja) * | 2006-07-18 | 2008-02-07 | Sumitomo Electric Ind Ltd | 障害物検出システム、及び障害物検出方法 |
JP2008108118A (ja) * | 2006-10-26 | 2008-05-08 | Honda Motor Co Ltd | 画像処理装置 |
JP2008535038A (ja) * | 2005-04-01 | 2008-08-28 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | カメラによりシーンに関して取得された映像中の移動物体を追跡する方法 |
JP2008243187A (ja) * | 2007-03-27 | 2008-10-09 | Mitsubishi Electric Research Laboratories Inc | ビデオのフレームのシーケンスにおいてオブジェクトを追跡するコンピュータに実装される方法 |
JP2009093644A (ja) * | 2007-10-03 | 2009-04-30 | Mitsubishi Electric Research Laboratories Inc | コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法 |
JP2009104363A (ja) * | 2007-10-23 | 2009-05-14 | Tamagawa Gakuen | 物体識別装置 |
JP2010517139A (ja) * | 2007-01-18 | 2010-05-20 | シーメンス コーポレイト リサーチ インコーポレイテツド | 車両を検出および追跡するためのシステムおよび方法 |
JP2010246166A (ja) * | 2010-07-21 | 2010-10-28 | Konica Minolta Holdings Inc | 3次元情報表示装置および3次元情報表示方法 |
JP2010277262A (ja) * | 2009-05-27 | 2010-12-09 | Konica Minolta Holdings Inc | 画像処理装置および方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7209221B2 (en) * | 1994-05-23 | 2007-04-24 | Automotive Technologies International, Inc. | Method for obtaining and displaying information about objects in a vehicular blind spot |
US8041483B2 (en) | 1994-05-23 | 2011-10-18 | Automotive Technologies International, Inc. | Exterior airbag deployment techniques |
WO2004029659A2 (en) | 2002-06-14 | 2004-04-08 | Honda Giken Kogyo Kabushiki Kaisha | Pedestrian detection and tracking with night vision |
WO2004004320A1 (en) * | 2002-07-01 | 2004-01-08 | The Regents Of The University Of California | Digital processing of video images |
WO2005036371A2 (en) * | 2003-10-09 | 2005-04-21 | Honda Motor Co., Ltd. | Moving object detection using low illumination depth capable computer vision |
JP2007263563A (ja) * | 2004-06-03 | 2007-10-11 | Matsushita Electric Ind Co Ltd | カメラモジュール |
US8164628B2 (en) * | 2006-01-04 | 2012-04-24 | Mobileye Technologies Ltd. | Estimating distance to an object using a sequence of images recorded by a monocular camera |
US7925049B2 (en) * | 2006-08-15 | 2011-04-12 | Sri International | Stereo-based visual odometry method and system |
EP2043045B1 (de) * | 2007-09-20 | 2011-09-07 | Delphi Technologies, Inc. | Verfahren zur Objektverfolgung |
TW201001338A (en) * | 2008-06-16 | 2010-01-01 | Huper Lab Co Ltd | Method of detecting moving objects |
-
2011
- 2011-06-30 US US13/807,755 patent/US10187617B2/en active Active
- 2011-06-30 JP JP2013517674A patent/JP2013537661A/ja active Pending
- 2011-06-30 EP EP11800312.8A patent/EP2589218B1/en active Active
- 2011-06-30 WO PCT/IN2011/000436 patent/WO2012001709A2/en active Application Filing
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0814861A (ja) * | 1994-07-01 | 1996-01-19 | Canon Inc | 3次元形状の計測方法及び装置 |
JP2001319224A (ja) * | 2000-05-08 | 2001-11-16 | Fujitsu Ltd | 3次元物体検出装置と3次元物体検出方法及び記録媒体 |
JP2005114588A (ja) * | 2003-10-08 | 2005-04-28 | Mitsubishi Heavy Ind Ltd | 追尾装置 |
JP2008535038A (ja) * | 2005-04-01 | 2008-08-28 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | カメラによりシーンに関して取得された映像中の移動物体を追跡する方法 |
JP2008009843A (ja) * | 2006-06-30 | 2008-01-17 | Honda Motor Co Ltd | 障害物判別装置 |
JP2008028478A (ja) * | 2006-07-18 | 2008-02-07 | Sumitomo Electric Ind Ltd | 障害物検出システム、及び障害物検出方法 |
JP2008108118A (ja) * | 2006-10-26 | 2008-05-08 | Honda Motor Co Ltd | 画像処理装置 |
JP2010517139A (ja) * | 2007-01-18 | 2010-05-20 | シーメンス コーポレイト リサーチ インコーポレイテツド | 車両を検出および追跡するためのシステムおよび方法 |
JP2008243187A (ja) * | 2007-03-27 | 2008-10-09 | Mitsubishi Electric Research Laboratories Inc | ビデオのフレームのシーケンスにおいてオブジェクトを追跡するコンピュータに実装される方法 |
JP2009093644A (ja) * | 2007-10-03 | 2009-04-30 | Mitsubishi Electric Research Laboratories Inc | コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法 |
JP2009104363A (ja) * | 2007-10-23 | 2009-05-14 | Tamagawa Gakuen | 物体識別装置 |
JP2010277262A (ja) * | 2009-05-27 | 2010-12-09 | Konica Minolta Holdings Inc | 画像処理装置および方法 |
JP2010246166A (ja) * | 2010-07-21 | 2010-10-28 | Konica Minolta Holdings Inc | 3次元情報表示装置および3次元情報表示方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2012001709A2 (en) | 2012-01-05 |
EP2589218A2 (en) | 2013-05-08 |
WO2012001709A3 (en) | 2012-02-23 |
US10187617B2 (en) | 2019-01-22 |
US20130194419A1 (en) | 2013-08-01 |
EP2589218A4 (en) | 2017-08-30 |
EP2589218B1 (en) | 2021-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013537661A (ja) | ステレオビジョン技術を使用することによる移動物体の自動検出 | |
JP6144656B2 (ja) | 歩行者の視覚的認識が困難であり得ることを運転者に警告するシステム及び方法 | |
US9405982B2 (en) | Driver gaze detection system | |
JP4612635B2 (ja) | 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出 | |
CN107463890B (zh) | 一种基于单目前视相机的前车检测与跟踪方法 | |
Huang et al. | Automatic moving object extraction through a real-world variable-bandwidth network for traffic monitoring systems | |
US10878259B2 (en) | Vehicle detecting method, nighttime vehicle detecting method based on dynamic light intensity and system thereof | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
KR101483742B1 (ko) | 지능형 차량의 차선 검출방법 | |
KR20110131678A (ko) | 지능형 운송 시스템의 도로 및 차선 검출 시스템 및 방법 | |
KR20200002066A (ko) | 차량 인식 방법 및 이를 이용하는 장치 | |
CN112683228A (zh) | 单目相机测距方法及装置 | |
Zaarane et al. | Vehicle to vehicle distance measurement for self-driving systems | |
US11080562B1 (en) | Key point recognition with uncertainty measurement | |
Qing et al. | A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation | |
Wang et al. | Real-time vehicle classification based on eigenface | |
CN101320477A (zh) | 一种人体跟踪方法及其设备 | |
US9727792B2 (en) | Method and device for tracking-based visibility range estimation | |
JPH11142168A (ja) | 環境認識装置 | |
CN115240170A (zh) | 一种基于事件相机的道路行人检测跟踪方法及系统 | |
WO2022214821A2 (en) | Monocular depth estimation | |
CN107256382A (zh) | 基于图像识别的虚拟保险杠控制方法和系统 | |
JP2008108118A (ja) | 画像処理装置 | |
Nazir et al. | Vehicle detection on embedded single board computers | |
Cao et al. | Research on vehicle detection and tracking algorithm based on the methods of frame difference and adaptive background subtraction difference |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131022 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140710 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150630 |