JP6751082B2 - フリースペース検出装置及びフリースペース検出方法 - Google Patents

フリースペース検出装置及びフリースペース検出方法 Download PDF

Info

Publication number
JP6751082B2
JP6751082B2 JP2017518537A JP2017518537A JP6751082B2 JP 6751082 B2 JP6751082 B2 JP 6751082B2 JP 2017518537 A JP2017518537 A JP 2017518537A JP 2017518537 A JP2017518537 A JP 2017518537A JP 6751082 B2 JP6751082 B2 JP 6751082B2
Authority
JP
Japan
Prior art keywords
image data
image
camera
converted
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017518537A
Other languages
English (en)
Other versions
JP2017531872A (ja
Inventor
ドイチノヴィッチ・ニコラ
フリーベ・マルクス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Publication of JP2017531872A publication Critical patent/JP2017531872A/ja
Application granted granted Critical
Publication of JP6751082B2 publication Critical patent/JP6751082B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、フリースペース検出装置、フリースペース検出方法、およびフリースペース検出装置を備える先進運転支援システムに関する。
特許文献1は、物体検出装置を開示している。画像データは車両のカメラにより取得され、取得された画像データは鳥瞰図に変換され、変換された画像データは、車両の速度に対して動き補償される。物体検出は、差分波形情報に基づいて行われる。
特許文献2は、カメラモデル化および仮想視野合成のための画像面モデル化を開示している。取得された画像データは、非平面の画像面にマッピングされる。
現代の自動車においては、複数のセンサおよび他の情報源により、先進ドライバー支援システム(ADAS)が複雑な運転状況においてドライバーをサポートできるようになっており、それは、高度に自動化された運転にまで至る。カメラベースのサラウンドビューシステムは、ADASの代表的な一つの構成要素である。かかるサラウンドビューシステムは、車両の環境における物体を識別するためにフリースペース検出を実行し、その情報をADASに提供する。
従来のサラウンドビューシステムにおけるフリースペース検出は、主としてストラクチャーフロムモーション(SFM)アルゴリズムを用いて実行される。これらのアルゴリズムは、静止環境領域にのみ適用可能である。SFMアルゴリズムを用いたフリースペース検出では、少なくとも2つ以上の支持フレームが必要であり、そのため、待ち時間およびメモリ消費が増加する。通常、SFMアルゴリズムは、単一のカメラからの信号にのみ適用可能である。
国際公開第2013/09424(A1)号パンフレット 米国特許出願公開第2014/104424(A1)号明細書
よって、フリースペース検出の強化が必要とされる。特に、静止環境および移動環境に適用可能であり、計算量の減少が必要なフリースペース検出が求められている。
これは、独立請求項の特徴により達成される。
更なる態様によると、本発明は、本発明のフリースペース検出装置先進を備えるドライバー支援システムを提供する。
別の更なる態様によると、本発明は、本発明によるフリースペース検出方法実行するように構成されたコンピュータープログラム製品を提供する。
[発明の利点]
本発明の基礎を成す考えは、画像データを所定の画像面へと変換することである。かかる所定の画像は、物体検出に適する何らかの画像面であればよい。特に、環境状況および/またはカメラの動きによっては、更なる処理のためには異なる画像面が適切な場合もある。画像データを変換すべき画像面は、地面に平行でもよく、地面に対して傾いていてもよい。画像面は、平らであっても湾曲していてもよい。フリースペース検出を様々な環境状況に適合させるために、画像データを変換するための画像面が調節可能であってもよい。この取得した画像データの変換は、所定のアルゴリズムおよび数式に基づくものであり、車両の環境における予期しない要素、例えば物体はいずれも、変換済みの画像データにおいては様々な相違となり得る。動き補償を行った連続画像におけるこうした相違として、車両の環境における物体は、動き補償を行った変換済みの連続画像データを比較することにより容易に検出することができる。
本発明の更なる考えは、画像取得装置の動きを考慮に入れ、画像取得装置が取得した時間的に連続する画像を用いてフリースペース検出を実行する際に、この検出した動きを勘案することである。画像取得装置、例えばカメラの動きは、別の装置によって、または既存の情報に基づいて検出可能である。かかる動きベクトルを判定するための既存の情報は、例えば、車両の先進ドライバー支援システム、ナビゲーションシステム、または何らかの他の装置から提供されるデータによって得ることができる。動きベクトルを検出または計算するための何らかの更なる手段が使用可能な場合もある。
本発明によるフリースペース検出は、静止環境に加えて移動環境にも適用可能である。フリースペース検出には2つの画像フレームしか必要としないことから、従来のストラクチャーフロムモーションアルゴリズムに対し待ち時間およびメモリ消費が削減される。更に、本発明によるフリースペース検出は、空間精度を調整することにより利用可能な処理能力に容易に適合させることができる。従って、非常に柔軟なフリースペース検出が達成可能である。
本発明によるフリースペース検出は更に、単一のカメラの画像信号を扱うだけでなく、複数のカメラの画像信号を結合させることも可能である。従って、本発明によるフリースペース検出は、単一のカメラの画像にのみ有効である従来のSFMアルゴリズムよりも柔軟性が高い。
更なる実施形態によると、フリースペース検出装置のカメラは、画像データを取得するための複数の画像取得手段を備える。カメラは、複数の画像取得手段からの取得した画像データを第1または第2の画像データに結合するように構成される。よって、マルチカメラの画像信号を提供可能である。これにより、より柔軟で詳細なフリースペース検出が可能となる。
更なる実施形態によると、フリースペース検出装置は、カメラが提供する前記第1および第2の画像データ、変換済みの第1および第2の画像データ、動き補償を行った変換済みの第2の画像データ、差分画像データ、および/または識別された物体を記録するメモリを備える。そうすることで、入力データ、中間結果、更には出力結果を記録し、更なる操作に使用することができる。特に、中間結果、例えば変換済みの画像データまたは動き補償を行った画像データを記録することで、これらのデータを再度計算することなくそれぞれのデータを再使用することができる。よって、計算量を更に抑えることができる。
更なる実施形態によると、設定可能なプリセットの画像面が環境パラメータに応じて調節される。そうすることで、環境状況が変化しても、フリースペース検出が強化が可能となる。
更なる実施形態によると、設定可能なプリセットの画像面が複数の所定の画像面から選択される。そうすることで、適切な画像面を容易に選択できる。
更なる実施形態によると、方法は、前記設定可能なプリセットの画像面を調節するステップを更に含む。
更なる実施形態によると、設定可能なプリセットの画像面が複数の所定の画像面から選択される。
更なる実施形態によると、前記複数の所定の画像面が、少なくとも地面、傾斜面および/または放物面を含む。
更なる実施形態によると、設定可能なプリセットの画像面を調節する前記ステップが、少なくとも1つの環境パラメータを得、得られた環境パラメータに基づき前記設定可能なプリセットの画像面を調節するステップを含む。
更なる実施形態によると、変換するステップは、カメラが提供する第1の画像データと第2の画像データとを、所定のモデルに基づいて変換する。所定のモデル、例えば数学モデル、所定のアルゴリズム等を使用することで、提供された画像データの信頼性が高く、高速での変換が可能である。
更なる実施形態によると、識別するステップは、差分画像データの絶対値を所定の閾値と比較するステップを含む。差分画像データを所定の閾値と比較することで、偏差を迅速かつ容易に識別することができる。
更なる実施形態によると、方法は、動き補償を行った変換済みの第1の画像データと変換済みの第2の画像データとの計算された差に基づき、識別された物体を分類するステップを更に含む。識別された物体を分類することで、更なる処理のための追加情報を提供することができる。そうすることで、画像データの信頼性を更に向上させることができる。
特定の実施形態によると、分類するステップは、固定した物体と動いている物体の違いを判別する。
本発明の更なる利点および実施形態は、添付の図面を参照した以下の説明から明らかとなる。
本発明の実施形態によるフリースペース検出装置のブロック図である。 更なる実施形態によるフリースペース検出装置を備える車両である。 本発明の実施形態によるフリースペース検出によって処理された画像データの例である。 本発明の実施形態によるフリースペース検出によって処理された画像データの例である。 本発明の実施形態によるフリースペース検出によって処理された画像データの例である。 本発明の実施形態によるフリースペース検出によって処理された画像データの例である。 本発明によるフリースペース検出方法を図示するフローチャートである。
図1は、フリースペース検出装置1のブロック図を示す。フリースペース検出装置1は、カメラ10と、動き検出器20と、変換手段30と、動き補償手段40と、計算手段50と、分割手段60とを備える。更に、フリースペース検出装置1は、1つ以上のメモリ70を備えてもよい。カメラ10は、画像データを取得するための複数の画像取得手段11−iを更に備えてもよい。
カメラ10は、画像フレームを取得し、取得した画像フレームの画像データを更なる処理のために提供する。好ましくは、カメラ10は、一定時間ごとに画像フレームを取得してもよい。この目的のため、カメラ10は、画像フレームを所定の時間間隔で取得する。加えて、カメラ10は、取得した画像フレームそれぞれにタイムスタンプを付与してもよい。そうすることで、画像フレームが取得された時点を、画像データの更なる処理時に容易に判定することが可能となる。
カメラ10が複数の画像取得手段11−iを備える場合、各画像取得手段11−iは画像フレームを同時に取得してもよく、同時に取得した全画像フレームの画像データを結合させてもよい。従って、同時に取得した全画像フレームを結合させたデータは、共通画像データとして更に処理可能である。
取得した画像データをフリースペース検出装置1の処理能力に適合させるため、取得した画像データの分解能を変えてもよい。この目的のため、取得した画像データは、画像データの量を減らすと共に、更なる操作のための計算量およびメモリの消費を減らすために縮小してもよい。ただし、フリースペース検出装置1が高分解能の画像データを処理するための十分な計算能力とメモリ資源とを有する場合は、処理の精度を向上させることが可能である。
更に、カメラ10の動きが検出され、カメラ10が取得した画像データに動きベクトルが付与される。この目的のため、フリースペース検出装置1は、カメラ10の動きベクトルを検出する動き検出器20を備えてもよい。例えば、動き検出器20は、全地球測位システム(GPS)センサ、ジャイロスコープ、加速度センサ等を備えてもよい。カメラ10の動きを検出する更なる手段も使用可能である。
あるいは、カメラ10の動きが別のシステムによって既に判定されており、検出された動きの情報がフリースペース検出装置1に提供されることもあり得る。例えば、フリースペース検出装置1が車両の一部であり、この車両が既に車両の動きを検出または判定する手段を備える場合、この動きの情報がフリースペース検出装置1に提供されてもよい。例えば、車両が先進ドライバー支援システム(ADAS)、ナビゲーションシステム等を備えていてもよい。車両の動きに関する情報が既に利用可能な場合は、この情報がデジタルバスシステム、例えば、CANバスを介して動き検出装置1に提供されてもよい。動きに関する情報をフリースペース検出装置1に提供する何らかの他の通信システムも使用可能である。これに加えて、カメラ10が提供する画像データに基づいてカメラ10の動きを検出することも可能である。この目的のため、画像ベースの動き検出のための何らかのアルゴリズムを使用してもよい。
カメラ10の動きが動き検出器20により検出された後、あるいは動きの情報を別の手段から受信した後、カメラ10が提供する画像データに検出した動きに対応する動きベクトルが付与される。カメラの動きを検出する時間間隔が画像データを提供するカメラ10のフレームレートと異なる場合、動きベクトルを画像データのフレームレートに適合させるために、動きベクトルの判定は、検出した動きを補間してもよい。画像データ、付与されたタイムスタンプおよび付与された動きベクトルは、変換手段30に転送することができる。これに加えて、またはこれに代えて、カメラ10からの画像データ、対応するタイムスタンプおよび動きベクトルをメモリ70に記録してもよい。
次に、変換手段30は、カメラ10から画像データを受信する、および/またはメモリ70から画像データを読み込む。変換手段30は、所定の画像面に対して画像データの変換を実行する。例えば、画像データを地面に対応する画像面または地面に平行な画像面へと変換してもよい。所定の画像面は、地面に対して傾いている、および/またはカメラ10の動きベクトルに対して直角の面に対して傾いている画像面に相当してもよい。
所定の画像面は、平らな画像面であってもよい。あるいは、画像データを湾曲した画像面へと変換することも可能である。例えば、かかる湾曲した画像面は、円筒形または球形の画像面であってもよい。湾曲した画像面は、凸状または凹状の画像面であってもよい。湾曲した画像面は、放物面状の画像面または他の湾曲した画像面を含んでもよい。
所定の画像面は、所定の一定の画像面であってもよく、この所定の画像面を、画像データの全ての変換に使用してもよい。あるいは、変換の基準とする画像面を変えてもよい。例えば、適切な画像面を一組の使用可能な画像面から選択してもよい。例えば、地面に対する画像面の傾きを変えてもよい。平らな画像面と湾曲した画像面から選択することも可能である。
画像データを変換するための所定の画像面の選択は、例えば、環境パラメータに基づいて実行してもよい。画像面の選択は、カメラ(またはカメラを備える車両)の速度、運転方向、交通状況等に基づいてもよい。例えば、速度が所定の閾値以下の場合は第1の画像面を使用してもよく、速度が所定の閾値を超える場合には第2の画像面を使用する。更には、カメラの環境において特定の所定地物、例えば交差点が検出された場合には、特定の画像面を選択してもよい。これに加えて、またはこれに代えて、画像データを変換するための画像面は、カメラ10(またはカメラ10を備える車両)の位置に応じて変えてもよい。例えば、ナビゲーションシステムを備える位置検出器、例えばGPSまたはADASによってカメラの位置を検出してもよい。更には、画像変換のための画像面を変えたり適切な画像面を選択したりするためのパラメータも使用可能である。
かかる画像データの所定の画像面への変換を実行するため、何らかの従来の変換アルゴリズムを画像データに適用してもよい。かかる画像変換アルゴリズムは、周知の数学的モデルに基づくものであってもよい。ただし、取得した画像データを上方視点の画像データへと変換するために、新しい数学モデルおよび変換アルゴリズムも開発し得る。変換手段30が所定の画像面に対して画像データを変換した後、変換済みの画像データは、メモリ70に記録してもよく、更なる処理のために転送してもよい。
異なる時点に取得した画像データを比較するため、動き補償手段40によって画像データの動きが補償される。動き補償手段40は、2つの連続する画像間の時間差を、例えば、画像データに付与されたタイムスタンプに基づいて分析してもよい。この時間差に基づき、カメラ10またはフリースペース検出装置1を含む車両の動きを計算することができる。画像データが変換される画像面が地面に平行である場合、変換済みの画像データは、計算した動きに従ってx方向およびy方向にシフトさせることができる。画像データが変換される画像面が地面に平行ではない場合、および/または画像面が湾曲している場合、動き補償を実行する際には画像面の向き/配置を考慮に入れる。動き補償を行った変換済みの画像データについても、メモリ70に記録してもよく、画像データの更なる分析に供してもよい。
次に、計算手段50は、異なる時点に取得された画像フレームに関係する変換済みの画像データ間の差を計算する。この目的のため、変換済みの画像データの画素素子間の差を計算する。画像データ間の差を計算するために使用される画像データは全て、同じ時点に対して動き補償を行ったものである。例えば、変換済みの第2の画像データが特定の時点に関係し、追加の第1の画像データが使用される場合、追加の画像データは、第2の画像データに付与されたタイムスタンプに対して動き補償手段40が動き補償を行ったものである必要がある。加えて、各画素素子について、変換済みの第2の画像データと動き補償を行った変換済みの第1の画像データとの差の絶対値を計算してもよい。
計算された差分画像データ、特に計算された絶対差分画像データは、メモリ70に記録してもよく、分割手段60に転送してもよい。
分割手段60は、計算された差分画像データ内の1つ以上の物体を識別するために、計算手段50によって計算された差分画像データを分析する。例えば、分割手段60は、計算された差分画像データの絶対値を所定の閾値と比較してもよい。計算された差分画像データに所定の閾値よりも大きい値を有する画素素子が存在する場合、画像データにおける対応する位置にある物体を識別するための基準としてこれらの素子を使用してもよい。例えば、所定の値よりも大きい差に関係する画像データにおける隣接する画素を結合し、共通の素子と見なしてもよい。これに加えて、画像分割、特に差分画像データに基づく画像分割のための何らかの他の方法またはアルゴリズムを使用することも可能である。
加えて、分割手段60は、計算された差分画像データにおける識別された物体を分類してもよい。例えば、かかる分類は、フリースペース検出装置1の環境における固定した物体と動いている物体との違いを判別してもよい。検出された物体の分類は、例えば、差分画像データおよび/または所定の閾値よりも大きい値を有する領域の延長部分における絶対値に基づいてもよい。差分画像データにおける物体を識別および/または分類するための何らかの更なる方法も、使用可能である。
最後に、分割手段60は、差分画像データにおいて識別された1つ以上の物体を規定する物体データを出力してもよい。例えば、分割手段60は、位置、サイズおよび/または識別された物体の分類を含む物体リストを出力してもよい。識別された物体に関する何らかの更なる情報を提供することも可能である。識別された物体に関する情報は、メモリ70に記録してもよく、更なる処理手段に直接転送してもよい。例えば、識別された物体を自動車環境モデル、例えば、デンプスターシェーファーグリッドに提供してもよい。フリースペース検出装置1の環境において識別された物体に関する情報は、例えば先進ドライバー支援システム、または何らかの他の装置においても使用し得る。
図2は、フリースペース検出装置1を備える先進ドライバー支援システム(ADAS)2を備える車両3を示す。車両3の環境においてフリースペース検出装置1により検出された1つ以上の物体に関する情報は、ADAS2が使用してもよい。例えば、環境において検出された物体に関する情報を、車両のドライバーに提示してもよい。これに代えて、またはこれに加えて、情報は、ADAS2において、車両の速度を変える、制動操作を開始する、あるいはADAS2の別の操作を開始するためにも使用し得る。
車両3の先進ドライバー支援システム2におけるフリースペース検出装置1に加えて、フリースペース検出装置1は、何らかの更なる動いている装置の環境における物体に関する情報を提供してもよい。例えば、かかる装置は、産業または医療分野の何らかの適切な装置であってもよい。
図3aは、車両3のカメラ10からの変換済みの画像データの図を示す。車両3の全環境をカバーするため、カメラ10には複数の画像取得手段11−iを採用してもよい。例えば、第1の画像取得手段が車両3の前部をカバーしてもよく、第2の画像取得手段が車両3の後部をカバーしてもよく、第3の及び第4の画像取得手段が車両3の左側部および右側部をカバーしてもよい。車両の環境をカバーするための画像取得手段11−iの何らかの他の構成も使用可能である。
図3bは、異なる時点にカバーされた2つの画像フレームの画像データ間の差分画像データを図示する。なお、画像データは所定の画像面へと変換され、変換済みの画像データは、車両の動き3に起因する差を補償するために動き補償を行う。図3bの網掛け領域は、連続して取得し、動き補償を行った変換済みの画像データ間の差を図示する。
図3cは、所定の閾値よりも大きい絶対値を有する差分画像データの全ての部分を網掛け領域に示している。所定の閾値よりも大きい値を有する差分画像データにおける識別されたデータに基づき、画像データにおける物体を図3fに図示するように識別することができる。
図4は、更なる本発明の実施形態の基礎となるフリースペース検出方法のフローチャートを図示する。
第1のステップS1において、第1の時点に第1の画像データがカメラ10より提供される。続いて、カメラ10は、ステップS2において第2の画像データを提供する。好ましくは、カメラ10は、一定の時間間隔での画像取得操作を実行するために所定の時間間隔で画像データを提供する。画像データを得るステップS1およびS2は更に、タイムスタンプを画像データに付与してもよい。そうすることで、画像取得時点が画像データの更なる処理時に容易に識別できるようになる。
加えて、更なるステップS3において、カメラ10の動きの検出を実行する。かかる動きの検出は、例えば、別の装置によって実行することができる。あるいは、カメラ10の検出は、カメラ10を備えるプラットホームの動きを識別することによって実行することもできる。例えば、カメラ10は、車両3に搭載されてもよく、車両の動き3は車両3の更なる装置、例えばナビゲーションシステムまたは先進ドライバー支援システム2によって判定される。この場合、カメラ10の動きに対応する車両3の動きがかかる装置によって提供されてもよい。更に、動きは、カメラ10が取得した画像データを分析することにより検出することもできる。動きを検出する時間間隔がカメラ10のフレームレートと異なる場合、取得した画像データのフレームレートに動きを適合させるために検出された動きを補間してもよい。
カメラ10が提供する第1の画像データと第2の画像データとは、ステップS4において所定の画像面に対して変換される。所定の画像面は、上記に既に概説した何らかの画像面とすることができる。画像データを変換するための画像面は、一定のものであっても、設定可能なものであってもよい。特に、画像面は、上記に既に概説したように調整してもよい。
ステップS5において、動きベクトルおよび第1の画像データと第2の画像データとを取得した時点の時間差に基づき、変換済みの第1の画像データの動き補償を実行する。例えば、第1の画像データに付与されたタイムスタンプと第2の画像データに付与されたタイムスタンプとの時間差を計算してもよい。この時間差に基づき、カメラの動き、特に所定の座標系に対する動きを算出してもよい。この動きに基づき、動き補償を行った変換済みの第2の画像データを得るために第2の画像データを適切にシフトさせる。
第1の画像データと第2の画像データとを変換し、動き補償を実行してマッチング用画像データを得た後、動き補償を行った変換済みの第1の画像データと変換済みの第2の画像データとの間の差分画像データがステップS6において計算される。加えて、差分画像データの絶対値を計算してもよい。
ステップS6において計算された差分画像データに基づき、ステップS7において物体が識別される。例えば、差分画像データにおける所定の閾値よりも大きい絶対値を有する領域が識別されてもよい。かかる所定の閾値よりも大きい絶対値を有する領域に基づき、差分画像データの分割を実行することができる。分割された差分画像データは、個々の物体または複数の物体を含む領域を識別するために分析することができる。
加えて、差分画像データにおいて識別された物体は、分類することができる。例えば、画像データ、特に変換済みの画像の差分画像データの特性パラメータに基づき、識別された物体の所定の特性を判定してもよく、かかる特性の1つ以上を識別された物体に付与してもよい。例えば、かかる分類は、環境において固定された物体と動いている物体とを区別してもよい。
フリースペース検出方法は、例えば、コンピューター装置上で実行されてもよい。この目的のため、上記に概説した方法を実行するように構成されたコンピュータープログラム製品が提供されてもよい。
よって、動き検出器20、変換手段30、動き補償手段40、計算手段50および/または分割手段60は、フリースペース検出装置1の対応する手段を実現するのに適するコンピュータープログラムコードを実行するマイクロプロセッサによって実現してもよい。
結論として、本発明は、強化されたフリースペース検出を提供する。異なる時点に取得される連続する画像フレームは所定の、設定可能な画像面に対して変換される。画像フレームを取得する装置の動きが判定される。取得した画像データは、検出した動きに応じて動き補償を行う。変換済みの動き補償を行った画像データにおける差に基づき、効率的かつ信頼性の高い物体検出が達成可能である。

Claims (13)

  1. 第1の時点に第1の画像データを提供し、前記第1の時点と異なる第2の時点に第2の画像データを提供するように構成されたカメラ(10)と、
    前記カメラ(10)の動きを検出し、前記カメラ(10)の検出した動きに対応する動きベクトルを判定し、判定した動きベクトルを前記カメラ(10)が提供する前記第1の画像データに付与するように構成された動き検出器(20)と、
    前記提供された第1及び第2の画像データを設定可能なプリセットの画像面へと変換し、変換済みの第1の画像データと変換済みの第2の画像データとを出力するように構成された変換手段(30)と、
    前記変換済みの第1の画像データに基づき、動き補償を行った変換済みの第1の画像データを生成するように構成された動き補償手段(40)と、
    前記動き補償を行った変換済みの第1の画像データと前記変換済みの第2の画像データとの差を計算するように構成された計算手段(50)と、
    動き補償を行った変換済みの第1の画像データと変換済みの第2の画像データとの計算された差を比較し、差が所定の閾値を超える場合に前記計算された差分画像データにおける複数の物体をいっしょに識別するように構成された分割手段(60)と、
    を備え、
    前記動き検出器(20)は、前記カメラ(10)の前記検出された動きに対応する動きベクトルを判定し、前記判定された動きベクトルを前記カメラ(10)により提供された前記第1の画像データに付与するように構成され、
    前記変換手段(30)は、前記提供された第1及び第2の画像データを設定可能なプリセットの画像面に変換するように構成され、
    前記動き補償手段(40)は、前記変換済みの第1の画像データ、前記第1の画像データに付与された前記動きベクトル、及び前記第1の時点と前記第2の時点との時間差に基づき、動き補償を行った変換済みの第1の画像データを生成するように構成され、
    前記設定可能なプリセットの画像面は、可能性のある画像面の組から選択され、前記可能性のある画像面の組は、地面、前記地面に平行な面、前記地面に対して傾斜した画像面、及び/又は前記カメラ(10)の前記検出された動きベクトルに直交する面に対して傾斜した面を含む、
    ことを特徴とする、フリースペース検出装置(1)。
  2. 前記カメラ(10)が画像データを取得するための複数の画像取得手段(11−i)を備え、前記カメラ(10)は前記複数の画像取得手段(11−i)からの前記取得した画像データを第1又は第2の画像データに結合するものである、請求項1に記載のフリースペース検出装置(1)。
  3. 前記カメラ(10)が提供する前記第1及び第2の画像データ、前記変換済みの第1及び第2の画像データ、前記動き補償を行った変換済みの第2の画像データ、前記差分画像データ、及び/又は前記識別された物体を記録するように構成されたメモリ(70)を更に備える、請求項1又は2に記載のフリースペース検出装置(1)。
  4. 設定可能なプリセットの画像面が環境パラメータに応じて調節される、請求項1から3のいずれか一項に記載のフリースペース検出装置(1)。
  5. 請求項1から4のいずれか一項に記載のフリースペース検出装置(1)を備える、先進ドライバー支援システム(2)。
  6. カメラ(10)により第1の画像データを第1の時点に提供するステップ(S1)と、
    前記カメラ(10)により第2の画像データを前記第1の時点と異なる第2の時点に提供するステップ(S2)と、
    前記カメラ(10)の動きを検出するステップ(S3)と、
    前記カメラ(10)の検出した動きに対応する動きベクトルを判定し、判定した動きベクトルを前記カメラ(10)が提供する前記第1の画像データに付与するステップと、
    前記提供された第1の画像データと前記提供された第2の画像データとを設定可能なプリセットの画像面へと変換し、変換済みの第1の画像データと変換済みの第2の画像データとを提供するステップ(S4)と、
    動き補償を行った変換済みの第1の画像データを生成するステップ(S5)と、
    前記動き補償を行った変換済みの第1の画像データと前記変換済みの第2の画像データとの差を計算するステップ(S6)と、
    動き補償を行った変換済みの第1の画像データと変換済みの第2の画像データとの計算された差を比較し、差が所定の閾値を超える場合に前記計算された差分画像データにおける複数の物体をいっしょに識別するステップ(S7)と、
    を含み、
    前記カメラ(10)の動きを検出するステップ(S3)は、前記カメラ(10)の前記検出された動きに対応する動きベクトルを判定するステップを含み、
    前記変換済みの第1の画像データ、前記検出した動きベクトル、及び前記第1の時点と前記第2の時点との時間差に基づき、動き補償を行った変換済みの第1の画像データを生成し(S5)、
    前記設定可能なプリセットの画像面は、可能性のある画像面の組から選択され、前記可能性のある画像面の組は、地面、前記地面に平行な面、前記地面に対して傾斜した画像面、及び/又は前記カメラ(10)の前記検出された動きベクトルに直交する面に対して傾斜した面を含む、
    ことを特徴とする、フリースペース検出方法。
  7. 前記変換するステップ(S4)が、前記提供された第1の画像データと前記提供された第2の画像データを所定のモデルまたはアルゴリズムに基づき変換する、請求項6に記載の方法。
  8. 前記設定可能なプリセットの画像面を調節するステップを更に含む、請求項6又は7に記載の方法。
  9. 前記組の所定の画像面が放物面を含む、請求項6に記載の方法。
  10. 前記設定可能なプリセットの画像面を調節する前記ステップが、少なくとも1つの環境パラメータを得、得られた環境パラメータに基づき前記設定可能なプリセットの画像面を調節するステップを含む、請求項8又は9に記載の方法。
  11. 動き補償を行った変換済みの第1の画像データと変換済みの第2の画像データとの前記計算された差に基づき前記識別された物体を分類するステップ(S8)を更に含む、請求項6から10のいずれか一項に記載の方法。
  12. 前記分類するステップ(S8)が、固定した物体と動いている物体の違いを判別する、請求項11に記載の方法。
  13. 請求項6から12のいずれか一項に記載の方法を実行するように構成されたコンピュータープログラム。
JP2017518537A 2014-10-13 2015-10-08 フリースペース検出装置及びフリースペース検出方法 Active JP6751082B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14188699.4 2014-10-13
EP14188699.4A EP3009983A1 (en) 2014-10-13 2014-10-13 Obstacle detection apparatus and method
PCT/EP2015/073206 WO2016058893A1 (en) 2014-10-13 2015-10-08 Obstacle detection apparatus and method

Publications (2)

Publication Number Publication Date
JP2017531872A JP2017531872A (ja) 2017-10-26
JP6751082B2 true JP6751082B2 (ja) 2020-09-02

Family

ID=51690922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017518537A Active JP6751082B2 (ja) 2014-10-13 2015-10-08 フリースペース検出装置及びフリースペース検出方法

Country Status (5)

Country Link
US (1) US10417507B2 (ja)
EP (2) EP3009983A1 (ja)
JP (1) JP6751082B2 (ja)
DE (1) DE112015003988T5 (ja)
WO (1) WO2016058893A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016205339A1 (de) * 2016-03-31 2017-10-05 Siemens Aktiengesellschaft Verfahren und System zum Erkennen von Hindernissen in einem Gefahrraum vor einem Schienenfahrzeug
US10609440B1 (en) * 2018-06-08 2020-03-31 Amazon Technologies, Inc. Timing data anomaly detection and correction
DE102018216809A1 (de) * 2018-09-28 2020-04-02 Robert Bosch Gmbh Verfahren, Vorrichtung und Sensorsystem zur Umfelderfassung für ein Fahrzeug
KR20210061597A (ko) * 2019-11-20 2021-05-28 삼성전자주식회사 참조 데이터를 이용한 레이더 데이터 처리 장치 및 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040151394A1 (en) * 2003-01-31 2004-08-05 Mikael Soderberg Symmetrical, highly deterministic, low complexity, temporal transform video codec and vehicle distribution system incorporating same
KR20050041640A (ko) * 2003-10-31 2005-05-04 삼성전자주식회사 영상 촬영 장치 및 방법
JP2007013479A (ja) * 2005-06-29 2007-01-18 Matsushita Electric Ind Co Ltd カメラワーク情報付与および評価装置
US8340349B2 (en) * 2006-06-20 2012-12-25 Sri International Moving target detection in the presence of parallax
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
EP2037409A1 (de) * 2007-09-13 2009-03-18 Delphi Technologies, Inc. Verfahren zur Hinderniserfassung
JP2011505610A (ja) * 2007-11-07 2011-02-24 テレ アトラス ベスローテン フエンノートシャップ 画像センサデータに距離センサデータをマッピングする方法及び装置
JP2010141836A (ja) * 2008-12-15 2010-06-24 Sanyo Electric Co Ltd 障害物検知装置
JP2011048520A (ja) * 2009-08-26 2011-03-10 Alpine Electronics Inc 車両周辺監視装置および車両周辺監視方法
JP5682788B2 (ja) 2011-09-27 2015-03-11 アイシン精機株式会社 車両周辺監視装置
JP5813439B2 (ja) * 2011-09-27 2015-11-17 クラリオン株式会社 俯瞰画像表示装置
DE102011088332B4 (de) * 2011-12-13 2021-09-02 Robert Bosch Gmbh Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen
CN104012081B (zh) 2011-12-19 2017-04-19 日产自动车株式会社 三维物体检测装置
US9225942B2 (en) 2012-10-11 2015-12-29 GM Global Technology Operations LLC Imaging surface modeling for camera modeling and virtual view synthesis
US20140267415A1 (en) * 2013-03-12 2014-09-18 Xueming Tang Road marking illuminattion system and method
US20160048966A1 (en) * 2014-08-13 2016-02-18 Bendix Commercial Vehicle Systems Llc Learning the distance between cameras for articulated vehicles

Also Published As

Publication number Publication date
US10417507B2 (en) 2019-09-17
EP3207523B1 (en) 2018-08-15
EP3207523A1 (en) 2017-08-23
JP2017531872A (ja) 2017-10-26
DE112015003988T5 (de) 2017-06-01
WO2016058893A1 (en) 2016-04-21
US20170300765A1 (en) 2017-10-19
EP3009983A1 (en) 2016-04-20

Similar Documents

Publication Publication Date Title
JP6562607B2 (ja) 物体の自己運動推定方法
JP5267596B2 (ja) 移動体検出装置
EP2924655B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
US20120327189A1 (en) Stereo Camera Apparatus
JP6751082B2 (ja) フリースペース検出装置及びフリースペース検出方法
JP4943034B2 (ja) ステレオ画像処理装置
US20150042800A1 (en) Apparatus and method for providing avm image
KR101548639B1 (ko) 감시 카메라 시스템의 객체 추적장치 및 그 방법
JP6465982B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4655242B2 (ja) 車両用画像処理装置
JP6306735B2 (ja) ステレオカメラ装置及びステレオカメラ装置を備える車両
JP2019016116A (ja) 車両用外界認識装置
JP2015186085A (ja) 移動量導出装置、及び、移動量導出方法
JP6396499B2 (ja) 三次元情報の規模測定
JP6617150B2 (ja) 物体検出方法及び物体検出装置
JP6116765B1 (ja) 物体検出装置及び物体検出方法
JPWO2016151976A1 (ja) 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路
KR101806453B1 (ko) 무인 비행체 충돌 회피를 위한 이동 객체 검출 장치 및 방법
JP2011209070A (ja) 画像処理装置
US11461928B2 (en) Location estimation apparatus
KR20180041525A (ko) 차량의 물체 트래킹 시스템 및 그 제어 방법
US20180268228A1 (en) Obstacle detection device
JP2019096031A (ja) 推定プログラム、推定装置、及び推定方法
JP2013142668A (ja) 位置推定装置及び位置推定方法
JP2024031077A (ja) 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20170406

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200507

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200813

R150 Certificate of patent or registration of utility model

Ref document number: 6751082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250