JP2014038611A - 移動物体を検出するための検知システム及び検知方法 - Google Patents

移動物体を検出するための検知システム及び検知方法 Download PDF

Info

Publication number
JP2014038611A
JP2014038611A JP2013159123A JP2013159123A JP2014038611A JP 2014038611 A JP2014038611 A JP 2014038611A JP 2013159123 A JP2013159123 A JP 2013159123A JP 2013159123 A JP2013159123 A JP 2013159123A JP 2014038611 A JP2014038611 A JP 2014038611A
Authority
JP
Japan
Prior art keywords
image
vehicle
points
detection system
arithmetic unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013159123A
Other languages
English (en)
Other versions
JP5678147B2 (ja
Inventor
Deigmoeller Joerg
ディグメーラー ヨルク
Eggert Julian
エガート ジュリアン
Einecke Nils
アイネッケ ニル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2014038611A publication Critical patent/JP2014038611A/ja
Application granted granted Critical
Publication of JP5678147B2 publication Critical patent/JP5678147B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】
車両の周囲にある移動物体を検出する検知システム及び方法を提供する。
【解決手段】
本検知システム1は、画像ストリーム2aを取得する撮像ユニット2と、画像ストリーム2aを分析する演算ユニット3と、演算ユニット3の分析結果に基づいて車両10を制御する制御ユニット4と、を有する。本検知システム1は、特に、背景モデル不要の推定手法を用いる。本検知システム1は、画像ストリーム2aの画像5a、5b内のポイント7aから算出された2つの隣接する動きベクトル6の局所分析を実行して、それらの動きベクトル6に対応するポイント7aが特定の一つの移動物体に属するものであるか否かを判定するよう構成されている。
【選択図】図2

Description

本発明は、車両周辺に存在する移動物体を検出するための検知システム及び検知方法に関する。車両の周辺、すなわち車両の環境は、当該車両に備えられた一つ又は複数のセンサにより検出することが可能な領域である。一般に車両とは、航空機、陸上車両、又は海洋艇をいう。望ましくは、車両とは、例えば自動車、トラック、自動二輪車、(電気)自転車、又はスクータなどの、陸上車両である。
特に、本検知システム及び検知方法は、画像シーケンスにおける移動物体、殊に距離が変化しつつある物体、すなわち車両に接近しつつある物体又は車両から遠ざかりつつある物体を検出することができる。車両分野においては、本検知システムは、車両周囲を監視して、物体が接近しているか又は危険な程近くに到来したときに、運転者に警告を発することにより当該運転者を支援することができる。代替的に又は付加的に、本検知システムは、車両の作動装置(ブレーキ、ステアリングなど)及び又は安全デバイス(安全ベルトのプリテンションユニットなど)に制御信号を送信するものとすることができる。
従来、移動物体の検出に関し、種々の手法が提案されている。例えば、非特許文献1には、典型的なカメラベースの物体検出の、死角領域監視への応用例が記載されている。この応用例では、ピクセルモーション情報を用いると共に、ある特定の角度で側方または後方を見込むカメラを用いている。このカメラの角度により問題が単純化される。背景に対応する全てのピクセルは、接近する物体に対応するピクセルに対して反対の並進方向に移動するためである。
しかしながら、特にオートバイにおける死角監視では、後方視界カメラは運転者の直視範囲の外側を監視することが求められる。カメラが真っ直ぐ後方を見込む場合には(すなわち、光軸が車両の移動方向に沿うように調整された場合には)、接近して来る物体は、画像上では拡大するピクセルモーションパターンを呈し、静止している背景エリアは縮小するピクセルモーションパターンを呈する。この現象は、そのオートバイの自己運動(ego-motion)によって引き起こされる。発生するモーションパターンは、純粋な並進運動に比べて高い自由度を有し、したがって物体の検出はより困難となる。
非特許文献2および非特許文献3は、上述した問題の解決策を提案している。このアプローチでは、まず第1に背景の動き検出する。画像のほとんどの部分が背景で占められているためである。そして第2に、接近して来る物体の動きと上記背景の動きとを比較することにより、当該接近物体が検出される。しかしながら、このようなアプローチの欠点は、第1のステップで発生した誤差が、その後の全ての処理ステップに悪影響を及ぼしてしまうことである。
特許文献1および特許文献2も、死角監視の分野に関するものである。しかしながら、物体検出の過程については詳細には記載されておらず、物体は何らかの他のメカニズムにより既に検出されているものとしている。この既知の情報を用いて、物体に関する動きベクトル(motion vector)から衝突余裕時間(time-to-collision)が算出される。
特許文献3には、車両用の後方監視システムが記載されている。第1ステップでは、カメラが備える特殊なレンズと、路側帯についての情報とを用いて、車道の消失点が推定される。背景に関するこの知識と、オプティカルフローの助けを用いて、接近して来る物体が検出される。この文献においても、物体検出の部分は、詳細に記載されていない。
非特許文献4には、複数の動きベクトルを、それらベクトルの特性及び特定の関連性に基づいてクラスタ化する手法が記載されている。これらの動きベクトルは、接続性グラフ(connectivity graph)を用いて検出される。カルマンフィルタを用いて、接続性グラフを時間経過にしたがって変形し追跡することにより、動きベクトルが予測される。このグラフは、注目点追跡における類似性(interest point track similarity)に基づいて生成される。この手法では、更に、追跡ベースの推定法を用いて動きベクトルが算出される。この追跡ベースの推定法は、状態の初期化と適切な予測を行うために必要とされ、検出に関してより高い遅延性(higher delay of detection)を持つ。各点における変形パラメータは、隣接するいくつかの点を用いて最尤法(maximum likelihood estimation)により算出される。この手法の欠点は計算論的なものであり、結果として推定品質を制限してしまう。
従来技術のほとんどの手法は、既知の動き推定法(オプティカルフロー法)を用いる。オプティカルフロー法は、大きく2つの種類に分類することができる。すなわち、低密度動き推定(sparse motion estimation)と高密度動き推定(dense motion estimation)である。低密度動き推定は、例えば非特許文献5に記載されている。高密度動き推定は、例えば非特許文献6に記載されている。
低密度動き推定法では、適切に構造化された画像ポイントにおける動き情報が得られるだけであるが、高密度動き推定法では、個別の画像ピクセル毎の動きが表現される。
米国特許第7925441(B1)号明細書 米国特許出願公開第2010/0305857(A1)号明細書 米国特許第6259359(B1)号明細書
M. A. Sotelo et al., Blind spot detection using vision for automotive applications, Journal of Zhejiang University, Science A 9(10):1369-1372 (2008) J. Wang et al., Overtaking Vehicle Detection Using Dynamic and Quasi-Static Background Modeling, Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2005) U. Franke et al., 6D-Vision: Fusion of Stereo and Motion for Robust Environment Perception, 27th DAGM Symposium, Vienna, Austria (2005) D. Mueller et al., Motion Segmentation Using Interest Points, 2008 IEEE Intelligent Vehicles Symposium, Eindhoven, Netherlands (2008) B.D. Lucas et al., An iterative image registration technique with an application to stereo vision, Proceedings of Imaging understanding workshop, pp 121-130 (1981) B. Horn et al., Determining optical flow, Artificial Intelligence, vol. 17, no. 1-3, pp. 185-203 (1981).
本発明は、既存の最新手法を、特にそれら手法の欠点を克服することによって改善する。特に、本発明の課題は、移動物体、具体的には接近する物体又は遠ざかる物体を、高精度に、かつ小さな計算負荷で、直接的かつ効果的に検出することのできるシステムを提供することである。
したがって、本発明の検知システムは、連続して取得された画像からのピクセルモーション情報(オプティカルフロー)を用いる。接近して来る物体は、背景の動きを明示的に推定あるいはモデル化することなく、上記モーション情報から直接的かつ効果的に検知される。従来技術の手法では、通常、上述した2ステップの処理が行われる(図1も参照されたい)。第1のステップでは、包括的なモデル化条件(global model assumption)を用いて背景が検出され、第2のステップで、その背景推定から得られた情報を用いて移動物体が検出される。物体の移動は背景の動きに重ねられたものであるため、この背景と移動物体との分離は、移動するカメラにより取得されるシーケンスを扱うのに便利である。しかしながら、計算負荷は高くなる。
本発明は、添付の独立クレームに従う検知システム及び検知方法を提供することにより、上記従来技術を改善して、上述の課題を解決するものである。対応する従属クレームは、本発明の利点をさらに発展させるものである。
特に、本発明は、車両の周囲にある移動物体を検出する検知システムに関する。この検知システムは、画像を取得すると共に複数の画像で構成される画像ストリームを生成する撮像ユニットを有する。
本システムは、更に演算ユニットを備える。当該演算ユニットは、前記撮像ユニットからの画像ストリームを受信し、当該画像ストリームの第1の画像内で複数のポイントを選択し、第1の画像内の前記選択された各ポイントに対し前記画像ストリームの第2の画像内の対応点(matching point)を算出して2次元動きベクトル(2D motion vector)を取得するよう構成されている。また、前記演算ユニットは、前記第1の画像内の少なくとも2つの前記選択されたポイントから複数のポイント対を選択し、当該選択された各ポイント対に対し、当該ポイント対の、前記算出された2次元動きベクトルと2つのポイントの2次元座標とを用いて、第1の変形パラメータ(transformation parameter)を算出し、当該算出された第1の変形パラメータに基づいて、前記選択された各ポイント対を変形クラス(transformation class)に分類して第1のクラス情報を取得する、よう構成されている。
本検知システムは、更に、前記演算ユニットから受信される前記第1のクラス情報に基づいて車両の振る舞いを制御し又は警告を表すもの(warning indication)を発する制御ユニットを備える。
前記画像ユニットは、前記車両に設けられた少なくとも一つのカメラを備えることができる。前記画像ユニットは、一つ以上のカメラで構成することもできるし、その他の何らかの撮像デバイスとすることもできる。前記第1の画像内での前記ポイント(複数)の選択には、最新のポイント選択手法を用いることができる。さらに、前記2次元動きベクトルの算出には、最新のオプティカルフロー技術を用いることができる。計算上の理由、すなわち、本検知システムでの計算負荷を低減することができるという理由から、オプティカルフロー技術(特に、低密度オプティカルフロー技術)が好ましい。特に、適切な状態の初期化と予測を必要とし、検出の高い遅延性を呈することとなる追跡ベースの推定手法は、用いるべきではない。
2次元動きベクトルは、2つの画像間のピクセルモーションを表現する。画像ポイント(複数)と、各時間ステップ毎に独立に推定される2次元動きベクトルと、に基づいて変形パラメータが算出されるため、本システムでは、予測ステップを実行する必要はない。さらに、変形パラメータは、画像ポイントの一つのペア及びそれらの2次元動きベクトルのみに基づいているため、計算の面では安価である。
有利には、第1の変形パラメータは、第1の画像内の選択されたポイント対の、第2の画像内の対応するポイント対に関する倍率(scaling factors)であり、演算ユニットは、前記倍率に基づいて、前記選択された各ポイント対を変形クラスに分類する。
変形パラメータは、垂直方向及び水平方向の倍率とすることができ、これらの倍率は、共に正又は負の値を持つことができる。正の値の倍率は接近して来る物体を表し、負の値の倍率は遠ざかる物体を表す。本システムは、隣接する2次元動きベクトルの全てのペアについて、倍率の符号に基づき、その2次元動きベクトルが、例えば接近して来る物体に対応するものか、遠ざかる物体に対応するものかを、決定することができる。したがって、変形クラスは、例えば、“接近”及び“後退”とすることができる。
有利には、第1の画像内の選択されたポイント(複数)からポイント対を選択するため、演算ユニットは、第1の画像内の選択されたポイント(複数)に関する接続性グラフを構築し、当該接続性グラフ内の枝(edge)の2つの端点から各ポイント対を選択するよう構成されている。
本システムは、各時間ステップにおいて、現在選択されているポイント(複数)に応じた接続性グラフを自由に生成する。さらに、本システムは、従来技術のようなクラスタとのフィッティングを必要とせず、動きベクトルが接近して来る物体に対応するものか遠ざかる物体に対応するものかを、直接的に判定することができる。これにより、計算の労力が大幅に低減される。
有利には、演算ユニットは、三角分割法を実行して接続性グラフを取得するよう構成されている。
前記三角分割法は、例えば、ドロネー三角形分割法とすることができる。したがって、単純な接続性グラフ(近傍グラフ(neighborhood graph))を得ることができる。
有利には、前記演算ユニットは、前記三角分割法により得られる少なくとも一つの三角形について、当該三角形の3つの枝に対応する3つのポイント対についての第1の変形パラメータを組み合わせて第2の変形パラメータを算出し、当該第2の変形パラメータに基づき、前記少なくとも一つの三角形の各ポイントを変形クラスに分類して第2のクラス情報を取得するよう構成されており、かつ、前記制御ユニットは、前記演算ユニットが取得した第2のクラス情報に基づいて、車両の振る舞いを制御し、又は警告を表すものを発するよう構成されている。
上記の変形クラスも、例えば“接近”、“後退”のように設定することができる。前記三角分割法を用いて取得される前記第2のクラス情報は、計算負荷を低くしたまま、より正確な処理結果を与える。
有利には、前記演算ユニットは、更に、ポイント対の位置を空間集積(spatial accumulation)用に用いて第1のクラス情報を時間の経過とともに個別の集積マップ(integration map)内で集積することにより、第1のクラス情報を後処理するよう構成されている。また、前記制御ユニットは、前記後処理された第1のクラス情報を用いて、車両の振る舞いを制御し、又は警告を表すものを発するよう構成されている。
有利には、前記演算ユニットは、更に、前記三角分割法で得られた三角形の位置を空間集積用に用いて第2のクラス情報を時間の経過とともに個別の集積マップ内で集積することにより、第2のクラス情報を後処理するよう構成されており、前記制御ユニットは、前記後処理された第2のクラス情報を用いて、車両の振る舞いを制御し、又は警告を表すものを発するよう構成されている。
前記第1及び又は第2のクラス情報の後処理により、本システムの物体検出の精度を改善することができる。
有利には、前記撮像ユニットは車両に搭載され、前記制御ユニットは、一つ又は複数の物体が当該車両に接近し又は遠ざかる場合には、当該車両の振る舞いを制御し又は警告を表すものを発するよう構成されている。
前記車両は、例えば、ロボット、若しくは、陸上車両、航空機、又は海洋艇とすることができる。望ましくは、前記カメラは、物体を監視すべく前記車両の後方に搭載される。ただし、一つ以上のカメラを用いることもできる。この場合、他のカメラは、それぞれ異なる方向、例えば当該車両の前側方に向けておくことができる。
本発明は、更に、車両の周囲にある移動物体を検出するための検知方法に関する。本方法は、画像を取得すると共に複数の画像の画像ストリームを生成するステップと、前記画像ストリームの第1の画像内で複数のポイントを選択するステップと、第1の画像内の前記選択された各ポイントに対し前記画像ストリームの第2の画像内の対応点を算出して2次元動きベクトルを取得するステップを有する。また、本方法は、前記第1の画像内の少なくとも2つの前記選択されたポイントから複数のポイント対を選択するステップと、当該選択された各ポイント対に対し、当該ポイント対の、前記算出された2次元動きベクトルと2つのポイントの2次元座標とを用いて、第1の変形パラメータを算出するステップと、当該算出された第1の変形パラメータに基づいて、前記選択された各ポイント対を変形クラスに分類して第1のクラス情報を取得するステップと、前記第1のクラス情報に基づいて前記車両の振る舞いを制御し又は警告を表すものを発するステップと、を有する。
移動物体検出の最新手法を示す図である。 本発明に係る移動物体検出の基本的手法を示す図である。 本発明に係る検知システムの概略図である。 本発明に係る、移動物体を検出する手法を示す図である。
本発明に係る検知システム及び方法は、図2に示すように、特にカメラが自車両の前部又は後部に搭載されている場合に、背景モデル不要の推定を実行することができる。本発明の基本を為す洞察は、2つの隣接する動きベクトルを局所的に分析することにより、当該2つの動きベクトルが(したがって、対応する2つのポイントが)特定の一つの移動物体(すなわち、接近して来る物体又は遠ざかる物体)に属しているのか否かを明らかにすることができる、ということである。本発明のこの手法は、大切な計算リソースを節約すると共に、背景検出ステップにおける誤差に起因する検出誤りを防止することができる。上述の方法で適切な検出を行うために、前記撮像ユニットの移動方向(すなわち、撮像ユニットが前方へ移動しているのか後方へ移動しているのか)が既知であると有利である。
要約すると、本発明は、移動物体、特に自車両(本検知システムが搭載された車両)に接近して来る物体又は自車両から遠ざかる物体を、高精度にかつ低い計算負荷で、直接的かつ効果的に検出することのできる検知システムを提供する。
以下に、添付図面を用いて本発明をより詳細に説明する。
図3には、本発明に係る検知システムが概略的に示されている。本検知システム1は、少なくとも1つの撮像ユニット2と、演算ユニット3と、制御ユニット4と、を有している。これらの構成要素は、車両10(自車両)に搭載されている。検知システム1は、車両10のバッテリーから電源を得ることができ、更に、車両10の運動制御ユニット(movement control unit)に接続することができる。ただし、本検知システムは、専用の電源を備えるものとすることもできる。
撮像ユニット2は、少なくとも1つのカメラ(例えば、可視光又は赤外光で動作するカメラ)、又は、車両10の周囲にある物体11の画像を取得するのに適した他の撮像デバイス、例えばレーザ撮像デバイスやレーダ撮像デバイスを、備えるものとすることができる。望ましくは、少なくとも1つの撮像ユニット2は、車両10の後方を監視するように設けられる。例えば車両の前方や左右側方を監視するため、他の撮像ユニット2も設けることができる。撮像ユニット2は、複数の画像を取得することができ、当該取得された複数の画像の一部又は全部で構成された画像ストリーム2aを生成することができる。画像ストリーム2aは、撮像ユニット2から出力され、演算ユニット3に与えられる。
演算ユニット3は、例えばマイクロプロセッサとすることができ、又はグラフィック処理ユニット(例えば、グラフィックプロセッサと画像メモリを備える)であることが望ましい。演算ユニット3は、画像ストリーム2aの2つの画像5a、5b(例えば、連続する画像)におけるピクセル間で、2次元動きベクトルを算出することができる。演算ユニット3は、また、2次元動きベクトルのペア(対)に関する第1の変形パラメータを算出することができ、算出された第1の変形パラメータに基づいて、これらの動きベクトル6に対応するポイント7aを分類することができる。演算ユニットは、制御ユニット4に接続され、制御ユニット4にデータを供給することができる。演算ユニット3の詳細については後述する。
制御ユニット4は、例えばマイクロプロセッサであり、演算ユニット3から受信するデータに基づいて、車両10の振る舞いを制御することができる。例えば、制御ユニット4は、車両10を制動し、左右に操舵し、加速し、及び又は減速するためのコマンド信号を出力することができる。制御ユニット4は、代替的に又は付加的に、車両10に警告信号(例えば、視覚的、音響的な警報、または振動による警報)を発出させるためのコマンド信号を発出することができる。このため、検知システム1の制御ユニット4は、車両10の運動制御ユニットに接続するものとすることができる。
計算上の理由から、本発明の検知システム1は、標準的な低密度オプティカルフロー推定を用いる。低密度オプティカルフローは、図4のステップ1に示されている。特に、演算ユニット3は、画像ストリーム2aの第1の画像5a内でポイント7a(複数)を選択するよう構成されている。選択されたポイント7aは、対象ポイントとも称され、演算ユニット3により予め設定されたアルゴリズムに従って、例えば、学習され又はプログラムされた、画像内の特定の領域で物体11を発見する確率に基づくアルゴリズムに従って、算出される。選択されたポイント7aのそれぞれについて、2次元動きベクトルが推定される。
2次元動きベクトルを推定するために、演算ユニット3は、入力ストリーム2aの第2の画像5b内で、上記選択されたポイント7aに対応する点を探し出す必要がある。第2の画像5bは、例えば画像ストリーム2aにおける後続の画像とすることができる。第2の画像5b内で対応するポイントを探し出すため、演算ユニット3は、例えば第1の画像5a内の一のピクセル(上記選択されたポイント7aに対応する)の特性を、第2の画像5b内のピクセル(複数)の特性と比較して、上記選択されたポイント7aと最もよく一致するものを選択する。代替的に、第1の画像5a内の選択されたポイント7a周囲のピクセルで構成される画像パッチの輝度値又は平均輝度値を、第2の画像内の画像パッチ(複数)の輝度値又は平均輝度値と比較するものとしてもよい。この場合も、最もよく一致するピクセルのブロックを選択することができ、例えば当該ピクセルブロックの中心にあるピクセルが、対応するピクセルとして選択される。ここでは、最新の手法を採用することができる。
演算ユニット3は、次に、2次元動きベクトル6が縮小運動又は拡大運動のいずれを表現しているかを算定することができる。すなわち、演算ユニット3は、1対の2次元動きベクトル6に対応する第1の画像内の2つの選択されたポイント7a(複数)の、第2の画像5b内の2つの対応点に関する一つ又は複数の倍率を、第1の変形パラメータとして算出することができる。これらの倍率は、例えば、垂直倍率sy、及び又は水平倍率sx、である。各倍率は、正又は負の符号を持つことができる。倍率sx、syに基づき、演算ユニット3は、次にポイント7aの分類を行い、例えば「後退」又は「接近」のようなクラスを決定する。これらのポイントは、次に、特定の移動物体に帰属するものとされる。この分類を行うため、演算ユニット3は、例えば、各倍率sx、syの符号を特定することができる。例えば、倍率sx、syの両方が正の場合、対応するポイント7aは車両10に接近するものとして分類される。倍率sx、syの両方が負の場合、対応するポイント7aは車両10から遠ざかるものとして分類される。この分類情報は、演算ユニット3から制御ユニット4に出力される。全てのピクセルのクラス情報に基づいて、移動物体11が正確に検出され、それらの移動物体が車両10に接近しているのか、それとも車両10から遠ざかっているのかが特定される。
変形パラメータは、演算ユニット3により、次のように算出されるものとすることができる。画像5a内の選択されたポイント7a(すなわち、例えば選択されたピクセル(複数))が前景物体11に属するものであるか否かを決定する際には、演算ユニット3は、少なくとも2つの動きベクトルを必要とする。上述したように、動きベクトル6は、2つの画像5a、5b間での対応するピクセルモーション(正確には、2つの画像における、2つのピクセル周辺の小さなパッチ領域間での動き)を表現している。単純化のため、演算ユニット3は、2つの隣接する動きベクトル6が拡縮運動Sと並進運動Tとを表しているものと仮定する。回転成分は、局所領域においては小さいものと考えて、無視する。演算ユニット3は、これら2つの隣接する動きベクトル6を互いに差し引くことにより、並進成分を除去するよう構成されている:
ここで、
であり、
は、下記ベクトルの座標sである。
上式は、次のように書き直すことができる:
式(1)に基づき、演算ユニットは、2つのポイント7a(ピクセル(複数))が接近する動き(sx>0、sy>0)を表しているのか、遠ざかる動き(sx<0、sy<0)を表しているのかの、局所判定を行うことができる。
物体11が近似的に撮像ユニット2と同じ方向であるがより速いか又はより遅い速度で移動している場合には、次に、全ての選択されたポイント7aから当該移動物体11を簡単に検出することができる。物体11が、前方へ移動する車両10に背後から接近してくる場合には、当該接近して来る物体11は(すなわち、物体11のすべてのポイント7aは)、背景に対して反対の拡縮変化(縮小変化に対する拡大変化)を呈するものとなる。すなわち、物体11のポイント7aの倍率sx及びsyは、背景の倍率と異なる符号を有し、従って演算ユニット3は、単純な符号チェックに基づいて判定を行うことができる。演算ユニット3は、車両10に搭載された撮像ユニット2の移動方向と直接的に結合された倍率sx及びsyのみを必要とするので、背景の倍率を推定する必要はない。
車両10の運動に関する情報は、状況データ(context data)又は内因データ(intrinsic data)のいずれかを監視することにより演算ユニット3により取得することができる。状況データは、一つ又は複数の状況センサ(context sensors)により取得することができる。状況センサは、例えばGPSや、車両10の位置及び又は速度を特定する無線通信装置である。内因データは、運動制御ユニット、例えば車両10のボードコンピュータから取得することができる。演算ユニット3には、このようにして、車両10の動作に関する情報、例えば車両10の速度、加速度、進行方向、GPSデータなどが提供される。
演算ユニット3は、更に、計測した動きベクトル6(複数)の座標間の局所的な関連性を生成するよう構成されている。すなわち、図4のステップ2に示すように、演算ユニット3は、接続性グラフ8を生成することができる。接続性グラフ8は、選択されたポイント7a(複数)の位置に基づいている。しかしながら、動きベクトル8などの他のデータも、このグラフ手法に含まれるものとすることができる。全体としての処理手順は、グラフ8の種類には決定的には依存しないためである。
接続性グラフ8を取得するため、選択されたポイント7a(複数)の座標から、例えば三角メッシュを生成するものとすることができる。このような三角メッシュは、例えばドロネー三角形分割を用いて生成することができる。ドロネー三角形分割法は、3つの選択されたポイント7aの3つの座標の周囲に描かれた円の内部では三角形9はそのメッシュの他の座標を含まない、という特殊な性質を有しているので、適切な三角分割を行うことができる。この三角分割法を、図4のステップ2に示す。
演算ユニット3は、この三角形メッシュ内の2次元動きベクトルの各ペアについて、当該三角形メッシュ内の三角形9の3つの辺に対応する3つのポイントペアに関する第1の変形パラメータを組み合わせて、第2の変形パラメータを生成するよう構成されている。演算ユニット3は、例えば式(1)をチェックし、三角形9内の動きベクトル6(複数)について、倍率sx、syの符号が正か負かを特定する。図3のステップ2に示すように、三角形9は、3つのポイント7aに対応する3つの動きベクトル6を有しているので、これらの動きベクトル6の3つのペアについて、sx及びsyについての分析を行う必要がある。状態(例えば、倍率の符号)が移動物体11の条件に対応している場合には、これらの動きベクトル6は、移動物体11に対応している可能性があるものと考えられる。算出された3つの変形パラメータの組み合わせが、第2の変形パラメータとなる。その後、演算ユニット3は、第1の変形パラメータ及び又は第2の変形パラメータに基づいて、三角形9を構成するポイント7aを分類することができる。
全体として、演算ユニット3は、接続性グラフ8の各枝について、その枝の端点位置と2次元動きベクトルとを用いて、変形パラメータ(スケール変形パラメータ)を算出する。演算ユニット3は、選択されたポイント7a(ポイント対)を分類したとき、すなわち、すべてのポイント対を変形クラス(例えば、「接近」又は「後退」)に分類したときに、クラス情報3a、3bを算出する。クラス情報3a、3bは、選択された全てのポイント対の変形クラスに関する情報を含む出力信号であり、したがって、どのポイント7aが移動物体11に属するか、に関する情報を含んでいる。演算ユニット3は、クラス情報3a、3bを制御ユニット4に出力する。制御ユニット4は、クラス情報3a、3bを解釈し、クラス情報3a、3bから画像ストリーム2a内の移動物体11の位置と移動方向を特定することができる。制御ユニット4は、次に、クラス情報に応じて、すなわち、一つ又は複数の移動物体11に応じて、車両の振る舞いを制御することができる。制御ユニット4は、例えば、移動物体11の運転者に警告し、又は移動物体11との衝突を自動的に回避することができる。
要約すると、本検知システム1は、移動物体11、特に車両10に接近して来る物体11又は車両10から遠ざかる物体11を、高精度に、かつ低い計算負荷で、直接的かつ効果的に検出することができる。

Claims (8)

  1. 車両の周囲にある移動物体を検出する検知システムであって、
    画像を取得すると共に複数の画像で構成される画像ストリームを生成する撮像ユニットと、
    演算ユニットと、
    前記演算ユニットから受信される第1のクラス情報に基づいて、前記車両の振る舞いを制御し、又は警告を表すものを発する制御ユニットと、
    を備え、
    前記演算ユニットは、
    前記撮像ユニットからの画像ストリームを受信し、
    当該画像ストリームの第1の画像内で複数のポイントを選択し、
    第1の画像内の前記選択された各ポイントに対し、前記画像ストリームの第2の画像内の対応点を算出して2次元動きベクトルを取得し、
    前記第1の画像内の少なくとも2つの前記選択されたポイントから複数のポイント対を選択し、
    当該選択された各ポイント対に対し、当該ポイント対の、前記算出された2次元動きベクトルと2つのポイントの2次元座標とを用いて、第1の変形パラメータを算出し、
    当該算出された第1の変形パラメータに基づいて、前記選択された各ポイント対を変形クラスに分類して前記第1のクラス情報を取得する、よう構成されている、
    検知システム。
  2. 前記第1の変形パラメータは、前記第1の画像内の前記選択されたポイント対の、前記第2の画像内の対応するポイント対に関する倍率であり、
    前記演算ユニットは、前記倍率に基づいて、前記選択された各ポイント対を変形クラスに分類するよう構成されている、
    請求項1に記載の検知システム。
  3. 第1の画像内の前記選択されたポイントからポイント対を選択するため、前記演算ユニットは、
    第1の画像内の前記選択されたポイントに関する接続性グラフを構築し、
    当該接続性グラフ内の枝の2つの端点から各ポイント対を選択する、よう構成されている、
    請求項1又は2に記載の検知システム。
  4. 前記演算ユニットは、三角分割法を実行して前記接続性グラフを取得するよう構成されている、請求項3に記載の検知システム。
  5. 前記撮像ユニットは前記車両に搭載され、
    前記制御ユニットは、一つ又は複数の物体が当該車両に接近し又は遠ざかる場合には、当該車両の振る舞いを制御し又は警告を表すものを発するよう構成されている、
    請求項1ないし4のいずれか一項に記載の検知システム。
  6. 車両の周囲にある移動物体を検出する検知方法であって、
    画像を取得すると共に複数の画像の画像ストリームを生成するステップと、
    前記画像ストリームの第1の画像内で複数のポイントを選択するステップと、
    前記第1の画像内の前記選択された各ポイントに対し、前記画像ストリームの第2の画像内の対応点を算出して2次元動きベクトルを取得するステップと、
    前記第1の画像内の少なくとも2つの前記選択されたポイントから複数のポイント対を選択するステップと、
    当該選択された各ポイント対に対し、当該ポイント対の、前記算出された2次元動きベクトルと2つのポイントの2次元座標とを用いて、第1の変形パラメータを算出するステップと、
    当該算出された第1の変形パラメータに基づいて、前記選択された各ポイント対を変形クラスに分類して第1のクラス情報を取得するステップと、
    前記第1のクラス情報に基づいて、前記車両の振る舞いを制御し又は警告を表すものを発するステップと、
    を有する検知方法。
  7. コンピュータデバイスで実行されたときに請求項6に記載の方法を実行する、コンピュータソフトウェア・プログラム。
  8. 請求項1ないし5のいずれか一項に記載の検知システムを備える陸上車両、海洋艇、又は航空機。
JP2013159123A 2012-08-20 2013-07-31 移動物体を検出するための検知システム及び検知方法 Active JP5678147B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP12180995.8 2012-08-20
EP12180995.8A EP2701093B1 (en) 2012-08-20 2012-08-20 Sensing system and method for detecting moving objects

Publications (2)

Publication Number Publication Date
JP2014038611A true JP2014038611A (ja) 2014-02-27
JP5678147B2 JP5678147B2 (ja) 2015-02-25

Family

ID=47227432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013159123A Active JP5678147B2 (ja) 2012-08-20 2013-07-31 移動物体を検出するための検知システム及び検知方法

Country Status (3)

Country Link
US (1) US9516274B2 (ja)
EP (1) EP2701093B1 (ja)
JP (1) JP5678147B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101794838B1 (ko) * 2016-03-07 2017-11-09 한국기계연구원 개인 이동수단용 능동안전 시스템
US10719942B2 (en) 2017-07-13 2020-07-21 Hanwha Defense Co., Ltd. Real-time image processing system and method

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170041162A (ko) * 2014-09-05 2017-04-14 요코하마 고무 가부시키가이샤 충돌 회피 시스템 및 충돌 회피 방법
DE102014117708A1 (de) * 2014-12-02 2016-06-02 Connaught Electronics Ltd. Verfahren zum Klassifizieren eines Flussvektors, Fahrerassistenzsystem und Kraftfahrzeug
WO2017041303A1 (en) 2015-09-11 2017-03-16 SZ DJI Technology Co., Ltd. Systems and methods for detecting and tracking movable objects
JP2018504652A (ja) * 2015-10-09 2018-02-15 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 顕著特徴ベースの移動体測位
US9537914B1 (en) * 2015-12-01 2017-01-03 International Business Machines Corporation Vehicle domain multi-level parallel buffering and context-based streaming data pre-processing system
CN109063549B (zh) * 2018-06-19 2020-10-16 中国科学院自动化研究所 基于深度神经网络的高分辨率航拍视频运动目标检测方法
US10776928B1 (en) * 2018-10-16 2020-09-15 Hrl Laboratories, Llc Efficient egomotion estimation using patch-based projected correlation
CN110264455B (zh) * 2019-06-19 2021-07-23 北京市商汤科技开发有限公司 图像处理、神经网络训练方法及装置、存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007000205A (ja) * 2005-06-21 2007-01-11 Sanyo Electric Co Ltd 画像処理装置及び画像処理方法並びに画像処理プログラム
JP2007233469A (ja) * 2006-02-27 2007-09-13 Toshiba Corp 物体検出装置及びその方法
US20110228985A1 (en) * 2008-11-19 2011-09-22 Clarion Co., Ltd. Approaching object detection system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3239521B2 (ja) * 1993-03-30 2001-12-17 トヨタ自動車株式会社 移動体認識装置
JP2000295604A (ja) 1999-04-06 2000-10-20 Yazaki Corp 車両用後側方監視装置
JP4657765B2 (ja) 2005-03-09 2011-03-23 三菱自動車工業株式会社 ノーズビューシステム
US7940962B2 (en) * 2007-08-03 2011-05-10 Delphi Technologies, Inc. System and method of awareness detection
JP4337929B2 (ja) * 2007-12-25 2009-09-30 トヨタ自動車株式会社 移動状態推定装置
US20100305857A1 (en) 2009-05-08 2010-12-02 Jeffrey Byrne Method and System for Visual Collision Detection and Estimation
KR101665386B1 (ko) * 2010-11-15 2016-10-12 한화테크윈 주식회사 로봇 위치 추정 장치 및 방법
US9472097B2 (en) * 2010-11-15 2016-10-18 Image Sensing Systems, Inc. Roadway sensing systems
KR101901586B1 (ko) * 2011-12-23 2018-10-01 삼성전자주식회사 로봇 위치 추정 장치 및 그 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007000205A (ja) * 2005-06-21 2007-01-11 Sanyo Electric Co Ltd 画像処理装置及び画像処理方法並びに画像処理プログラム
JP2007233469A (ja) * 2006-02-27 2007-09-13 Toshiba Corp 物体検出装置及びその方法
US20110228985A1 (en) * 2008-11-19 2011-09-22 Clarion Co., Ltd. Approaching object detection system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101794838B1 (ko) * 2016-03-07 2017-11-09 한국기계연구원 개인 이동수단용 능동안전 시스템
US10719942B2 (en) 2017-07-13 2020-07-21 Hanwha Defense Co., Ltd. Real-time image processing system and method

Also Published As

Publication number Publication date
EP2701093A1 (en) 2014-02-26
US9516274B2 (en) 2016-12-06
JP5678147B2 (ja) 2015-02-25
US20140049644A1 (en) 2014-02-20
EP2701093B1 (en) 2016-06-22

Similar Documents

Publication Publication Date Title
JP5678147B2 (ja) 移動物体を検出するための検知システム及び検知方法
US20230204383A1 (en) Map creation and localization for autonomous driving applications
JP2022520968A (ja) 視覚画像データを用いたオブジェクト属性の推定
JP4899424B2 (ja) 物体検出装置
WO2019241022A1 (en) Path detection for autonomous machines using deep neural networks
US11747444B2 (en) LiDAR-based object detection and classification
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
CN111133447A (zh) 适于自主驾驶的对象检测和检测置信度
US10242272B2 (en) Method for advanced and low cost cross traffic alert, related processing system, cross traffic alert system and vehicle
WO2017175025A2 (en) Detecting visual information corresponding to an animal
TWI595450B (zh) 物件偵測系統
CN111052201B (zh) 碰撞预测装置、碰撞预测方法以及存储介质
JP7133927B2 (ja) 情報処理装置及びその制御方法及びプログラム
US20210027074A1 (en) Vehicle system, space area estimation method, and space area estimation apparatus
JP2020508501A (ja) 移動オブジェクトのレンジを推定する方法および装置
CN115071702A (zh) 车辆控制装置、车辆控制方法以及车辆控制用计算机程序
US20210049382A1 (en) Non-line of sight obstacle detection
JP7031157B2 (ja) 物体検出方法及び物体検出装置
JP2013069045A (ja) 画像認識装置、画像認識方法および画像認識プログラム
EP3343505B1 (en) Distributed image cognition processing system
US20240151855A1 (en) Lidar-based object tracking
WO2019123582A1 (ja) 物体情報生成装置及び物体情報生成プログラム
JP7309630B2 (ja) 画像処理装置
EP4325251A1 (en) High throughput point cloud processing
US20230211778A1 (en) Method and apparatus with driving control

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150105

R150 Certificate of patent or registration of utility model

Ref document number: 5678147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250