JP2019530924A - カメラ画像からのオブジェクトの検出 - Google Patents

カメラ画像からのオブジェクトの検出 Download PDF

Info

Publication number
JP2019530924A
JP2019530924A JP2019513924A JP2019513924A JP2019530924A JP 2019530924 A JP2019530924 A JP 2019530924A JP 2019513924 A JP2019513924 A JP 2019513924A JP 2019513924 A JP2019513924 A JP 2019513924A JP 2019530924 A JP2019530924 A JP 2019530924A
Authority
JP
Japan
Prior art keywords
level
isomorphism
matching
images
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019513924A
Other languages
English (en)
Other versions
JP2019530924A5 (ja
JP7050763B2 (ja
Inventor
ヴァルター・ミヒャエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Publication of JP2019530924A publication Critical patent/JP2019530924A/ja
Publication of JP2019530924A5 publication Critical patent/JP2019530924A5/ja
Application granted granted Critical
Publication of JP7050763B2 publication Critical patent/JP7050763B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本発明は、カメラの画像からオブジェクトを検出するための方法及び装置に関し、特にカメラベースのドライバー・アシスタント・システムにおいて、使用されることができる。該車載カメラの一連の画像からオブジェクトを検出するための方法は、以下のステップを包含している:a)車載カメラを用いて一連の画像を撮影するステップ、b)マッチング特徴を、二枚の連続する画像内において割り出すステップ、d)隣接するマッチング特徴を、それぞれ、空間内の一枚のレベルに分類することによって、空間内の複数のレベルを、割り出すステップ、f)ステップd)において割り出したレベルを考慮しつつ、オブジェクトを検出するステップ。ある好ましい実施形態によれば、該方法は、以下のステップも包含している:c)複数のレベルを割り出すために、隣接するマッチング特徴に対する同形異義性を算出するステップ;及び/或いは、d2)隣接するマッチング特徴を、それぞれ一つのグランド・レベル、一つのバックウォール・レベル或いはサイドウォール・レベルへ分類するステップ。本発明に係る方法は、迅速な方法として実装し得るため、汎用的オブジェクト検出、乃至、シーン解釈を、略画像全面に対して、リアルタイムに実施できる。

Description

本発明は、カメラの画像からオブジェクトを検出するための方法に関し、特にカメラベースのドライバー・アシスタント・システムにおいて、使用されることができる。
最新の従来の技術における車両認識システムは、クラシフィケーション、即ち、分級をベースにしたものが大半である。クラシフィケーション・ベースのシステムは、トレーニング・データにおいて見たことのある車両、乃至、車両コンポーネントを再認識することができる。しかし、新しい車両デザインや変更された構造などが、システム・パフォーマンスの著しい低下の原因となり得るため、オブジェクトを認識するための汎用的なアプローチが望まれている。
特許文献1(US 2014/0161323 A1)は、一台のモノカメラによって撮影された画像から緻密な三次元ストラクチャーを作成するための方法を開示している。
特許文献2(EP 2 993 654 A1)は、カメラ画像からフロント衝突警告(FCW)を実施するための方法を開示している。ここでは、予め定められているタイム・インターバル内に自車両が到達すると予測される画像領域が、分析される。そして、該領域内にオブジェクトが、認識された場合、衝突警告が、出力される。
米国特許出願公開第2014/0161323号明細書 欧州特許出願公開第2993654号明細書
よって、本発明の課題は、オブジェクトを汎用的に認識するための方法を提供することにある。
本発明の出発点は、以下の様な考察であった:二枚のフレーム(シングル画像)のカメラポジションが既知であれば、ポイント・マッチング(互いに関連している特徴的ポイント)を三角測量することはできるが、三角測量では、ポイント・クラウドを有意義なオブジェクトにクラスター化することができるモデル・ノレッジは用いることができないため、オブジェクトを作成できないこと。シングルレンズシステムの欠点として、エピポール付近では、オブジェクトを、正確には、三角測量できないこと、並びに、そこにおいて、エゴモーション(カメラ自体の動き)における微々たるエラーが、多大な影響を有すること。
尚、ここで言う「エピポール」とは、第二時点においてカメラの中心に撮影される、第一カメラ画像内の画像点のことを意味している。例えば、真っすぐに走行している場合、バニシング・ポイントが、エピポールに相当する。しかしながらそれは、停止している、或いは、前方を走行している車両への追突を認識するために重要な領域である。エピポール・ジオメトリに従って動いている場合、動的なオブジェクトは、三角測量することができる。しかしながら、相対速度が既知でなければ、その間隔は、近すぎ、或いは、遠すぎに推定される。
そこで、個々のマッチングの代わりに、複数の隣接するマッチング(互いに関連している特徴)を観察すれば、オブジェクトを、異なる速度、スケール、変形を基に、セグメント化できる。
本発明に係る、車載カメラの一連の画像からオブジェクトを検出するための方法は、以下のステップを包含している:
a)車載カメラを用いて一連の画像を撮影するステップ、
b)マッチング特徴を、二枚の連続する画像内において割り出すステップ、
d)隣接するマッチング特徴を、それぞれ、空間内の一枚のレベルに分類することによって、空間内の複数のレベルを、割り出すステップ、並びに、
f)(ステップd)において)割り出したレベルを考慮しつつ、オブジェクトを検出するステップ。
尚、該車載カメラは、好ましくは、車両の周辺部を撮影するために構成されている。ここで言う「周辺部」とは、特に、該車両の前方に横たわる周辺部である。該車載カメラカメラは、好ましくは、一つの運転手アシスタント装置内に内蔵されている、或いは、これと接続自在であるが、ここでは、該運転手アシスタント装置は、該車載カメラ手段が提供する画像データからオブジェクトを認識することができるように構成されていることが特に好ましい。尚、該車載カメラ手段は、好ましくは、車両の内部空間のフロントガラスの後ろに配置され、走行方向に向けられたカメラである。特に、該車載カメラは、単眼カメラであることが好ましい。
また、該車載カメラによっては、ある特定の、乃至、既知の時点毎にそれぞれ一枚の個別画像が撮影され、これらから、一連の画像シーケンスが、得られる。
ここで言う「マッチング」とは、第一画像内の特徴に対応する二枚目の画像内の特徴のことである。二枚の画像内のマッチング特徴は、該特徴が、該画像間においてどのように移動したのかを示すフローベクトルとしても記述される。該特徴は、特に好ましくは、一つの画像領域(乃至、パッチ)、一個のピクセル、一つのエッジ、或いは、角であることができる。
ステップd)は、代案的には、以下の様に記述することもできる:そのそれぞれに、複数の隣接するマッチング特徴が、その時点において存在している、或いは、それらがそこに入ってくるであろう、複数のレベルを割り出すステップ。
ステップd)には、空間内に複数のレベルを予め設定し、且つ、該予め設定されたレベルのそれぞれ一枚に、隣接するマッチング特徴を分類することも包含されている(下のステップd2参照)。
本発明のコンテクストにおける「レベル」とは、以下の事柄を記述するものである:
第一に、これは、隣接するマッチング特徴を集積する条件である。即ち、それらマッチングが空間内の共通のレベル内にあり、且つ、該レベルの動きに応じて時間的に共に進展する場合、それらは互いに帰属していると見なされる。
続いて、この様に集積されたマッチング特徴は、例えば、全てが路面レベルに相当するレベルに存在しているため、「グランド・レベル」と称される。しかしながらこの様なグランド・レベルは、無限に広がるものではなく、該レベルの部分領域、即ち、実際にマッチング特徴が配置されている領域のみを意味している。
ステップf)における「・・・を考慮しつつ」と言う表現は、ステップd)において割り出した複数のレベルを、オブジェクトを検出する際に考慮する事を意味している。これは、例えば、認識されたグランド・レベルから、路面仮定を、推定し、更に、バックウォール・レベル及びサイドウォール・レベルから、高さを有するオブジェクト用のオブジェクト仮定を推定することによりに実施することができる。一つの路面仮定と、高さを有するオブジェクト用の(複数であり得る)オブジェクト仮定さえあれば、車両の周辺部内のどのフリー空間が、その時点において、走行可能であるかを示すフリー空間検知を実施することができる。フリー空間検知の好ましい用途としては、例えば、走行レーンマークの認識に依存しない車線縁検出における使用を挙げることができる。
「オブジェクトの検出」と言う表現は、例えば、オブジェクト仮定の、乃至、オブジェクトの生成を意味することができる。
ある好ましい実施形態によれば、該方法は、以下のステップも包含している:
c)複数のレベルを割り出すために、隣接するマッチング特徴に対する同形異義性を算出するステップ。
同形異義性は、二つのカメラポジション間の一枚のレベル上のポイントの関連性、或いは、車載カメラの二枚の連続する画像内のポイントの関連性を記述するものである。即ち、隣接するマッチング特徴の同形異義性を算出することにより、隣接するマッチング特徴のそれぞれ一枚の空間内のレベルへの分類を実施することができる(ステップd)参照)。
本方法は、以下のステップも包含していることが好ましい:
e)算出した同形異義性を基にマッチング特徴をセグメント化するステップ。
特に、算出した同形異義性を基にすれば、マッチング特徴をセグメント化することができる、即ち、異なるセグメントに分類することができる。ステップf)では、オブジェクトの検出を、セグメント化した特徴を考慮して実施することも可能である。
本方法の好ましい発展形態は、ステップd2)も包含している:隣接するマッチング特徴を、それぞれ一つのグランド・レベル、一つのバックウォール・レベル或いはサイドウォール・レベルへ分類するステップ。x方向が、水平乃至横方向、y方向が、垂直、そして、z方向が、車体前後方向である座標系の場合は、グランド・レベルを、y方向基準に、バックウォール・レベルを、z方向基準に、そして、サイドウォール・レベルをx方向基準に予め定めることもできる。
グランド・レベルの、バックウォール・レベルの、そして、サイドウォール・レベルの同形異義性を算出することにより、隣接するマッチング特徴を、これらのレベルのうちの一枚に割り当てることができる。
好ましくは、バックウォール・レベル用の同形異義性は、式(10)に、グランド・レベル用では、式(9)に、そして、サイドウォール・レベル用では、式(11)に従って算出されることができる。
式中、a,b,cは、定数であり、x,y,x,yは、時点t−0に撮影された第一画像(インデックス0)と過去の時点t−1に撮影された第二画像(インデックス1)内のマッチングを示し、また、t,t,tは、ベクトルt/dのコンポーネントを示している。尚、tは、車載カメラの平行移動を、dは、レベルまでの距離(そのレベルに対して垂直)、即ち、そのレベルの標準ベクトルに沿った距離を示している。コンポーネントt,t乃至tは、以下、「インバースTTC」とも呼ばれる。TTCは、「Time to collision」の頭文字を取ったものであり、ある空間方向において、間隔を平行移動速度で割ったものである。
有利な発展形態によれば、同じオリエンテーションを有する複数のレベルがある場合、同じオリエンテーションのレベルは、帰属するt,t,t・値によって、分離されることができる。例えば、z方向において、車載カメラからの距離が異なる二枚のバックウォール・レベルは、異なるt・値を基に区別することができる。
尚、一枚の画像は、グリッドにより、同様のセルに分割され、各々のセルに対しては、その中で割り出されたマッチング特徴から、それぞれ同形異義性が算出されることが好ましい。続いて、一致する同形異義性を有するセルは、クラスター化されることができる。
算出された第一セルの同形異義性が、一つの隣接するセルの同形異義性と十分に一致する場合、レベル境界を割り出すために、個々のマッチング特徴の所謂「バックプロジェクションエラー」を観察することが、好ましく実施できる。
即ち、マッチング特徴を、バックプロジェクションエラーによって、評価することができる。この「バックプロジェクションエラー」は、測定したフローと算出した同形異義性から予測されたフローとの間の差異を与えるものである。言い換えれば、一枚のレベルのバックプロジェクションエラーは、時点t−0のポイントxと、同形異義性に従ってこのレベル上に投影された過去の時点t−1におけるマッチングするポイントとの間の差異を示す値である(以下の式4参照)。
一つの第一セル内のマッチング特徴のバックプロジェクションエラーが、隣接するセルの同形異義性のバックプロジェクションエラーと比較され、このマッチング特徴が、最も小さなエラーを有する同形異義性に帰属されれば、第一セル内のレベル境界(乃至、セグメント境界、或いは、クラスター境界)を、より鮮明にすることができる。この様にすることで、一つのセルのマッチング特徴を、異なるレベルに分類することができる。
この様な、レベルと隣接するマッチング特徴との帰属は、本質的に、車載カメラの画像全面(少なくとも画像面積の80%、好ましくは、少なくとも90%)において割り出されることが好ましい。本発明に係る方法は、迅速な方法として実装し得るため、汎用的オブジェクト検出、乃至、シーン解釈を、略画像全面に対して、リアルタイムに実施できる。
更に、以下を包含する車載カメラの一連の画像からオブジェクトを検出するための装置も本発明の対象である:
カメラ制御手段、並びに、
評価用エレクトロニクス、
但し、
該カメラ制御手段は、以下のステップを実施できる様に、コンフィグレーションされている、乃至、構成されている:
a)車載カメラによって、一連の画像を撮影するステップ;
また、
該評価用エレクトロニクスは、以下のステップを実施できる様に、コンフィグレーション/構成されている:
b)二枚の連続する画像内においてマッチング特徴を割り出すステップ、
d)空間内の複数のレベルを、隣接するマッチング特徴をそれぞれ空間内の一枚のレベルに分類することによって割り出すステップ、そして、
g)(ステップd)において)割り出したレベルを考慮しつつ、一つの、乃至、複数のオブジェクトを割り出す(或いは、生成する)ステップ。
該カメラ制御手段乃至評価用エレクトロニクスは、特に好ましくは、マイクロコントローラ乃至プロセッサ、デジタル・シグナル・プロセッサ(DSP)、ASIC(Application Specific Integrated Circuit/特定用途向け集積回路)、FPGA(Field Programmable Gate Array/フィールド・プログラマブル・ゲート・アレイ)、並びに、これらに類するもの、及び、関連する制御ステップや評価ステップを実施するためのソフトウェアを包含している。
よって、本発明は、デジタル・エレクトロニクス回路、コンピュータ・ハードウェア、ファームウェア乃至ソフトウェアとして実施されることができる。
本発明の更なる特徴、長所、及び、作用は、以下の好ましい実施例の説明によって示される。図の説明:
接近して来るバックウォール・レベルの典型的な変形を模式的に示す図である。 接近して来るグランド・レベルの典型的な変形を模式的に示す図である。 a)高速で、b)低速で接近して来る乃至遠距離にあるバックウォール・レベルの典型的な変形を模式的に示す図である。 セル内に二つの異なるセグメントを有する一枚の画像の区分を模式的に示す図である。 第三反復ステップ後のセグメント化結果を示す図である。 ターゲット・バリデーション(衝突する可能性のあるオブジェクトのバリデーション)のためのレベル・オリエンテーションを示す図である。 TTC(Time to Collision)ビューを示す図である。 時点t−0(右)の時点t−1(左)に対するガードレールセグメントの投影(乃至、ワープ)を示す図である。
互いに対応する部分は、通常、全ての図において同じ符号がつけられている。
図1には、第一時点t−1において斜線で示されている領域(点線20)を占有しているバックウォール・レベル(back plane/後面)が、示されている。それに続く時点tでは、車載カメラと該バックウォール・レベルとの間隔が縮まったため、矢印(d1)によって示唆される画像内のバックウォール・レベルの領域の変形(21、実線)が発生する。領域(20;21)は、車載カメラとバックウォール・レベルの相対的移動に伴ってスケール乃至拡大する。
図2には、第一時点t−1において斜線で示されている領域(点線30)を占有しているグランド・レベル(ground plane/地面)が、示されている。これは、該車両が走行している道路表面のある領域であることができる。車載カメラの自己運動に伴い、次の時点tにおける(画像内の)領域が、変化し、矢印(d2)によって描かれているようにグランド・レベルの領域(32)が変形する。時点tでは、符号32によって示されているラインにより、グランド・レベルの領域が、区画される。即ち、ここで言う「グランド・レベル」は、道路表面の区画された領域であると解釈することができる。周縁領域は、例えば、画像シーケンスにおいてトラッキングされるシグナチュア(識別特性)(或いは、周縁ポイント)などから得られる。
図3は、時点t−1において、図3aのバックウォール・レベル(20)が、図3bのバックウォール・レベル(20)と同じ間隔を有していたと仮定した場合の、高速(図3a:20,21;変形d1)、及び、低速(図3b)で接近して来ているバックウォール・レベル(20,23;変形d3)の違いを示している。
代案的に、図3は、例えば、同じ(相対)速度で動いている近距離にあるバックウォール・レベル(図3a:20,21;変形d1)と遠距離にあるバックウォール・レベル(20,23;変形d3)を示すこともできるが、この場合は、図3bに示されているオブジェクト(20,21)は、実空間では、図3aに示されているオブジェクト(20,23)よりも大きなものである。
そこで、個々のマッチングの代わりに、複数の隣接するマッチングを観察すれば、オブジェクトを、異なる速度、スケール、変形を基に、セグメント化できる。
世の中がレベルから構成されていると仮定した場合、これらは、同形異義性に示され、以下に示す如く、距離、速度、並びに、オリエンテーションによって区別できる。
同形異義性は、二つのカメラポジション間の一枚のレベル上のポイントの関連性(マッチング)、或いは、二枚の連続するフレーム内のポイントの関連性(マッチング)を記述するものである:
ここで、ベクトルxt0は、時点t−1におけるベクトルxt1の時点t−0における3Dマッチングを記述している。同形異義性は、画像ベースに、四つのポイント・マッチングから算出できる(Tutorial: Multiple View Geometry, Hartley, R. and Zisserman, A., CVPR June 1999:
https://de.scribd.com/document/96810936/Hartley−Tut−4up アクセス日:2016年09月26日、参照)。該チュートリアルの6頁の左上(シート21)に記載のマッチングから等式1の表記法において、以下の様に表現することができる:
代案的には、レベルの基準ベクトルnに沿ったカメラ・トランスレーションt、ローテーションR、及び、距離dが既知であれば、同形異義性は、等式3によって算出できる。等式3は、インバースTTCt/dが、ゼロではないこと、異なるオリエンテーションnを有するレベルは、モデル化できること、そして、同じオリエンテーションnを有するレベルは、インバースTTCによって、区別できることを示している。
同形異義性は、理論的には、基準ベクトルn、ローテンション・マトリックスR、並びに、インバースTTCt/dに分解できる。しかし、残念ながら、この分解は、数値的に見て、非常に不安定かつ測定エラーに対して敏感である。
レベルを用いて、あるシーンを記述する場合、以下に示す様にセグメント化することができる。
図4は、セルへの分割を模式的に示している(グリッド、網/ライン)。該シーンは、NxMイニシャル・セルに分割され、各々のポイント・マッチングには、一義的なIDが、与えられる。このIDは、第一に、あるセルへの帰属を示すものである。更に、このIDは、一つのクラスター、或いは、あるオブジェクトへの帰属を示すこともできる。
斜線部は、前景の(特にバックウォール・レベル内の)オブジェクトを示している。背景は、白色で示されている。
一つのセルが一つのオブジェクトのみを包含している場合(セルB3,D3)、同形異義性により、これらのセルを明確に記述できる。しかしながら、これらのセルが、複数のオブジェクトを包含している場合(セルC3)、同形異義性によって、双方のオブジェクトを明確に記述することはできない。ポイント・マッチング(黒点、乃至、黒色の十字、乃至「x」)が、隣接するセル(B3乃至D3)のクラスター(乃至セグメント)に、バックプロジェクションエラーによって帰属されてしまった場合、セルC3用の同形異義性は、前景も背景も明確に記述できないため、該黒点は、セルB3のセグメントに帰属され、該黒色の十字は、セルD3のセグメントに帰属される。
しかし、該シーンに関する予備知識があれば、例えば、車両の近距離領域、乃至、正の分級応答を有する領域に対して大きな領域を作成するなどのより、セグメントの大きさをシーンに合わせることが可能である。等式5から10に示す如く、各々のセグメントに対して、専属のバック/グランド/サイド面・同形異義性を算出する。
図4に示す如く、自由度の低い同形異義性では、異なるレベルを包含する領域を、良好にモデル化できないため、関連するポイントに、より高いバックプロジェクションエラーが、与えられてしまうが、該バック/グランド/サイド面・同形異義性を算出することにより、分離の鮮明度を高めることができる。尚、該バックプロジェクションエラー・eは、時点t−0におけるポイントxを、時点t−1にける関連するポイントのレベルiの同形異義性によって、如何に良好に記述することができるかを示す値である:
カメラの取付場所が、固定的であり、カメラ・ローテーションが、二つの異なるビューであると仮定した場合(例えば、単眼システムにおいてカメラキャリブレーションが既知であり、基礎マトリックスが算出されている、乃至、回転数センサー・クラスターのローテーション値)、インバースTTCt/dは、以下、グランド面n’=[010]用に例として示す如く、固定的カメラ・ローテーションに対して補整されたフローベクトルから、算出できる。尚、ローテーションが既知でない場合は、近似的に、単位マトリックスを代入することも可能である。
等式3の商t/dに、
を代入すると以下の様になる:
とし、定数a,b,cを等式5に代入すると、以下の様に簡略化される:
均一な座標を標準化すると以下が得られる:
一つ以上の測定に対して、特定のベクトルx、マトリックスM、及び、ベクトルvからなるMx=vのような形の等式システムが得られ(等式9参照)、これは、サポート点としての少なくとも三つの画像関連性に対して、例えば、SVD(singular value decomposition、マトリックスの特異値分解)、或いは、最小二乗法(Least−Square)によって解くことができる:
バック面及びサイド面同形異義性の導きも同様であり、以下の様にして得られる:
大きな、複数のセルから構成されているオブジェクトをセグメント化するには、次のステップにおいて、バックプロジェクションエラー、乃至、隣接するセグメントjとiのサポート点(下の段落1.:RANSAC参照)、並びに、これらの同形異義性を算出することにより、隣接するセルを統合することができる。
が、
よりも小さい場合、或いは、例えば、予測されたフロー長さに標準化されたバックプロジェクションエラーが、設定自在な閾値よりも小さい場合は、隣接する二つのクラスターが統合される。特に、
が、
よりも小さく、且つ、双方のバックプロジェクションエラー・
が、共にフロー長さに標準化された閾値未満である場合、二つの隣接するクラスターを統合することができる。代案的に、バックプロジェクションエラーを、グラフ内のポテンシャルとして用い、グローバルなソリューションを算出することも可能である。この際、該クラスターのコンパクト性は、グラフ内のエッジ・ポテンシャルとして割り出すことができる。
セグメントが統合され、同形異義性が、新しく算出され、該ポイント・マッチングが、バックプロジェクションエラーが最も小さいクラスターに分類される。直接的に境を接しているクラスターのみを観察した場合、非常にコンパクトなオブジェクトを生成できる。最少エラーが、設定自在な閾値を超えた場合、部分的に覆われたオブジェクト、乃至、TTCが僅かにしか異ならないオブジェクトを認識できる様に、該マッチングには、新しい(クラスター/オブジェクト)IDが、割り当てられる。閾値を設定することにより、解像度を、(僅かに)差を有するオブジェクトに合わせることができる。
該バックプロジェクションエラーには、連続する領域のコストを下げるバイアス、或いは、ポイント・マッチングが、長時間、同じID割り当てを有していた場合、ID交換のコストを高めるバイアスを付与することができる。
図5は、シーン・セグメント化の例を示している:
図5aは、車両の内部に配置され、フロントガラスを介して、前方に横たわる周辺を捕捉する車載カメラによって撮影された画像を示している。そこには、三車線の道路(51)、例えば、アウトバーン(ドイツの高速道路)が写っている。該走行レーンは、適宜な走行レーンマークによって区画されている。三つ全ての走行レーン上を車両が、走行している。自車線上の前方を走行中の車両(53)は、更なる自車線上の前方を走行中の車両を覆っている可能性を有している。三車線の道路の左側には、建築的に高くなった対向車線との境界(52)がある。三車線の道路(51)の右側には、その先には森が続くガードレールによって、その右側が区画されている路肩乃至非常停車帯がある。自車両の前方のある距離を置いた地点には、三車線の道路(51)にかけられている交通標識用架橋(ガントリー)が認識できる。
図4によって記述された方法と同様に、このシーンもセグメント化できる。図5bから5dには、セル(56)を認識できる。セルには、ポイント・マッチング(55)が、示されている。一つのセル(56)のある一つのセグメントへの帰属は、セルフレームの、或いは、ポイント・マッチング(55)の色によって示されている。
図5bは、セグメント化された画像の赤色のチャンネルを、
図5cは、緑色のチャンネル、図5dは、青色のチャンネルを示している。
異なるセグメントには、異なる色が付けられている。オリジナルにおいて緑色のセグメントは、5から6セルに跨っている(図5bと5dでは、これは、白色、且つ、フレーム無しに示されている)。このセグメントは、グランド・レベル、即ち、自車両が走行している車線(51)の表面に対応している。
他のセグメントは、画像の中央に認識でき、これは、オリジナルではピンクである。よって、図5bでは、赤色の値が高く、図5dでは、青色の値が低く、且つ、図5cでは、緑色の値がゼロである。このセグメントは、自車線上を走行している(トランスポーター)車両(53)のバックウォール・レベルに相当している。
ここに示されているセグメント化結果は、予備知識なしに、たった三つの反復ステップで割り出された。これは、時間積分による本発明の実施形態の非常に高い速度と能力を示すものである。
図6は、図5において既に示したシーンにおけるレベルのオリエンテーションの割り出しを示している。図6aは、図5aの周辺シチュエーションを、解り易くするために、もう一度示している。
全てのサイドウォール・レベルに帰属されたマッチングが、図6bに示されている。左縁のマッチングは、右側のサイドウォール・レベルに帰属されるが、画像内において、対向車線への建築的境界(52)の右側が、そこに存在しているため、これは、理に適っている。画像の右半分にあるマッチングは、左側のサイドウォール・レベルに帰属されるが、同様に、車線縁の建造物や車線縁の植物の「左側」が、画像内に存在しているため、これも、理に適っている。
図6cは、どのマッチングが、グランド・レベルに帰属されるかを示しているが、該画像内では、車線(51)の表面が見えるため、これも、理に適っている。
図6dは、どのマッチングが、バックウォール・レベルに帰属しているかを示している。これは、大部分が、理に適っている。しかしながら、これらの割り出しからだけでは、例えば、同じ車線の前方を走行中のバン(53)を、その上空に配置されている交通標識用架橋(ガントリー)の標識(54)など、異なるバックウォール・レベルを、十分に区別することができない。しかし、この描写から既に、車両の周辺部において、どこに高さを有するオブジェクトが、出現するかに関する示唆を得ることはできる。
図7に図示した如く、動的なオブジェクトを認識するためには、インバースTTC(t,t,t)を用いることができる。
図7aも、(図6aと同じ)車両シチュエーションの画像である。自車線上の前方を走行中の車両(73)は、バンである。左車線には、二台の車両(71と72)が、右車線には、更に二台の車両(74と75)が走行している。
図7bは、グランド・レベルに相当し(オリジナルでは、紫色)、唯一、赤色成分を含むマッチングを示している。
図7cは、動いているオブジェクトに帰属されるマッチングを示している。これらは、オリジナルでは、自車両から遠ざかる(即ち、自車両よりも早い)ものは、緑色であり、自車両よりも遅いものは、トルコ石(青緑)色である。
図7dは、青色成分を有する、即ち、グランド・レベルに相当する(図7b参照)、自車両に接近する様に動いているオブジェクト(図7c参照)、例えば、アウトバーンの左右にある森や交通標識用架橋(ガントリー)など、図7dにのみ示されている静的で高さを有するオブジェクトに相当するマッチングを示している。図7cと7dにおいては共に、自車線(73)上において接近して来ている車両が、認識できる。右側の車線(75)上の前方の車両も同様である。一方、他の車両(71,72と74)は、遠ざかっている。
画像内において空に相当する領域は、ストラクチャーを欠いているため、マッチングを有していない(図7bから7dにおいて白色)。
同形異義性の計算前に、自己ローテーションが考慮された、或いは、ローテーション・マトリックスRにおける自己ローテーションが考慮された場合、追越ししている車両は、負のt成分から認識でき、又、車線変更している、或いは、カーブを走行している車両は、横方向t成分がゼロでないことから認識できる。動的セグメントが、同形異義性から予測された場合(下の「同形異義性を基にした光学的流れの圧縮」を参照)、経時的に動的マップを構成できる。
等式3を見れば、インバースTTCがゼロではないセグメントは、ローテーション・マトリックスを記述していることがわかるが、t/dがゼロであるセグメントからは、フル自由度の同形異義性(等式2)を計算することにより、これを算出することができる。エピポール付近の直線的成分は目立たないものであると言うことを前提とすれば、エピポールの座標(x,y)を、静的セグメントの同形異義性から予測し、ピクセル基準の焦点距離fのatan((xe0−xe1)/f)乃至atan((ye0−ye1)/f)を算出することにより、ピッチ率とヨーイング率を割り出すことができる。
全てのクラスターに対して、フル自由度の同形異義性が算出されると、測定されたポジションxt0の代わりに、予測されたポジションH*xt1を三角測量に用いることによって、これらを3D周辺部の再現に用いることもできる。これにより、測定エラーの影響を低減できるだけでなく、エピポール付近のオブジェクトの再現も可能になる。
以下、同形異義性を基にした光学的流れの圧縮に関する実施例を説明する。
時点t−1のセグメント化が既知である場合、オブジェクトの予測と圧縮されたフローフィールドの生成の双方に用いることができる。シグナチュア・ベースのフローメソッドでは、シグナチュアを生成し、これらを、続くフレームにおいて、一義的に帰属させることを試みる。該シグナチュアは、多くの場合、予め定められた大きさのパッチ(画像部分、乃至、画像領域)から算出される。しかし、パッチの大きさと形状が変化してしまうと、一定のテンプレート(ひな形、パターン、即ち、例えば、あるオブジェクトに相当する画像シーケンスの画像の画像部分、例えば、車両テンプレート)を用いたマッチング検出は、不可能になる。例えば、バック面に接近すると、パッチの大きさが変化する。又は、グランド面乃至サイド面に対して平行に移動すると、パッチの大きさと形状の双方が変化する(図1と2参照)。時点t−1においてセグメント化が既になされている場合、既に検出されたフローベクトルから同形異義性を改めて算出し、時点t−1の安定したマッチングのポジションと形状からt−0を予測するために用いることが可能である。
代案的には、スケール変化と形状変化を補整するために、時点t−0における最新のフレームを、時点t−1のものにトランスフォームすることも可能である。
図8は、その方法を図示したものである。
図8aは、時点t−1に車載カメラが撮影した他の走行シチュエーションの画像を示している。走行方向毎に三車線を有するアウトバーンが、写っている。自分がいる三車線の道路の左側には、ガードレール(81)が、対向車線に対する高くなった境界として存在している。該道路の右側には、防音壁(82)が、存在している。
図8bは、続く時点tに撮影され、ガードレールの同形異義性に従ってトランスフォームされた(「ゆがませる」、英語の「to warp(ワープ)」)画像を示しており、ここでは、車両が動いた結果、即ち、二つの撮影時点間に発生した画像内のガードレール部分に起こった変化は、補整されている。図8bにおける自車両の前進により、近距離にある走行レーンマークの部分線は、図8aの時よりも、自車両に近づいている。このトランスフォメーションは、図8fに破線で図示したような画像の台形の転移の原因となる。
図8cは、ガードレールの領域(81、図8a参照)において割り出されたマッチング特徴(85)を白点として示している。
図8dは、このマッチング特徴が、図8bによって説明した如く、トランスフォメーションした後に、次の画像においてどこに現れ得るかを示している(86)。
図8eと8fには、この様子が、今一度、白黒描写で示されているが、マッチング特徴(85)は、画像左半分にあるガードレール(81)上の黒点に相当している。
圧縮したフローフィールドを生成するためには、既にあった、スケールと形状が変化したマッチングを、再度見つける、或いは、新しいマッチングを合同なテンプレートを用いて定めるために、全てのセグメントに対して、最新の画像を、以前の画像にワープすることができる。
最新のフレームに、同形異義性の再計算をするのに十分なフローベクトルが無い場合、マッチングを形状変更及びスケール変更に対して堅牢なものにするために、近似的に、前のフレームの同形異義性を用いることもできる。
以下の実施形態乃至アスペクトは、好ましいものであり、個々、或いは、組合せて用いることが可能である:
1.該画像は、NxMセルに分割され、各々のポイント・マッチングには、一義的なセルIDが、与えられる。同じIDを有するマッチングから、RANSACを用い、バック/グランド/サイド面・同形異義性(等式9,10と10)を算出し、最も小さなバックプロジェクションエラーの同形異義性と、同形異義性の算出に用いたサポート点の双方が、保存される。RANSAC(RAndom SAmple Consensus)メソッドにおいては、通常、各々の回帰において、最低数のランダムに選択されたマッチングが、仮説を立てるために、用いられる。続いて、全てのマッチング特徴に対して、該マッチング特徴が、該仮説をサポートするものであるか否かを示す値が、算出される。該仮説が、マッチング特徴によって、十分にサポートされた場合、仮説をサポートしていないマッチング特徴は、異常値として削除できる。そうでない場合、再び、最低数のマッチングが、ランダムに選択される。
2.隣接するセルi,jに対しては、バックプロジェクションエラー・
乃至
が、隣接する同形異義性のサポート点によって算出される。バックプロジェクションエラー・
が、
よりも小さい、或いは、該エラーが、フロー長さに標準化された閾値を下回った場合、IDが統合され、同形異義性が、改めて計算される。特に、バックプロジェクションエラー・
が、
よりも小さく、且つ、双方のバックプロジェクションエラー・
の双方が、フロー長さに標準化された一つの閾値を下回った場合、二つの隣接するセルが、同一のレベル(同一のセグメント、乃至、同一のオブジェクト)に属しているとされる。
3.全てのポイント・マッチングのバックプロジェクションエラー・xt0−Ht1が、隣接するセグメント用に算出され、該ポイント・マッチングは、最も小さなバックプロジェクションエラーのセグメントに帰属される。最低エラーが、閾値を超えた場合、小さな、或いは、部分的に覆われたオブジェクトも認識できる様に、該マッチングには、新しいオブジェクトIDが与えられる。
4.時点t−1において抽出されたセグメントの同形異義性は、新しいフレームの開始時(t−0)に、既に見つかっている画像マッチングから、新しく算出され、既にあるセグメントIDは、最新のフレーム内において予測される。最新のフレームに、同形異義性の再計算をするのに十分なフローベクトルが無い場合、近似的に、前のフレームの同形異義性を用いることもできる。
5.圧縮したフローフィールドを生成するため、スケール或いは形状が変化した既存のマッチングを再度見つけるために、或いは、新しいマッチングを定めるために、全てのセグメントに対して、最新のフレーム(t−0)が、前のフレーム(t−1)にワープされる。
6.バック/グランド/サイド面のバックプロジェクションエラーは、図6からも解るように、高さのあるターゲットの検証のために用いることができる。
7.例えば、車載ステレオカメラが用いられている場合には、視差マップが存在していれば、全てのピクセルの絶対距離dが視差マップ内にあるため、絶対速度を、インバースTTCt/dから算出することができる。
8.全てのセグメント用に、フル自由度の完璧な同形異義性が計算された場合、TTCが略無限大(或いは、インバースTTCが、略ゼロ)のセグメントから、ローテーション・マトリックスRを割り出すことができる。
9.3D周辺部は、
から、
の代わりに、再現でき、これにより、エピポールのオブジェクトも再現できる。

Claims (12)

  1. 以下のステップを包含していることを特徴とする車載カメラの一連の画像からオブジェクトを検出するための方法:
    a)車載カメラを用いて一連の画像を撮影するステップ、
    b)マッチング特徴を、二枚の連続する画像内において割り出すステップ、
    d)隣接するマッチング特徴を、それぞれ、空間内の一枚のレベルに分類することによって、空間内の複数のレベルを、割り出すステップ、並びに、
    f)ステップd)において割り出したレベルを考慮しつつ、オブジェクトを検出するステップ。
  2. 以下のステップを包含していることを特徴とする請求項1に記載の方法:
    c)複数のレベルを割り出すために、隣接するマッチング特徴に対する同形異義性を算出するステップ。
  3. 以下のステップを包含していることを特徴とする請求項2に記載の方法:
    e)算出した同形異義性を基にマッチング特徴をセグメント化するステップ。
  4. 以下のステップを包含していることを特徴とする先行請求項のうち一項に記載の方法:
    d2)隣接するマッチング特徴を、それぞれ一つのグランド・レベル、一つのバックウォール・レベル或いはサイドウォール・レベルへ分類するステップ。
  5. 少なくとも一枚のバックウォール・レベルが、等式:
    (式中、a,b,cは定数、x,y,x,yは、第一画像(インデックス0)と第二画像(インデックス1)内におけるマッチング、t,t,tは、ベクトルt/dの成分であり、tは、車載カメラの平行移動を、そして、dは、レベルまでの距離を示している)
    に従って算出されることを特徴とする請求項4に記載の方法。
  6. 少なくとも一枚のグランド・レベルが、等式:
    に従って算出されることを特徴とする請求項4或いは5に記載の方法。
  7. 少なくとも一枚のサイドウォール・レベルが、等式:
    に従って算出されることを特徴とする請求項4、5或いは6に記載の方法。
  8. 同じオリエンテーションを有する複数のレベルがある場合、同じオリエンテーションのレベルが、帰属するt,t,t・値によって、分離される
    ことを特徴とする請求項4から7の何れか一項に記載の方法。
  9. 一枚の画像が、グリッドにより、同様のセルに分割され、各々のセルに対しては、その中で割り出されたマッチング特徴から、それぞれ同形異義性が算出され、且つ、一致する同形異義性を有するセルが、クラスター化される
    ことを特徴とする請求項2から8の何れか一項に記載の方法。
  10. 該算出された第一セルの同形異義性が、一つの隣接するセルの同形異義性と十分に一致しない場合に、一つの第一セル内のマッチング特徴のバックプロジェクションエラーが、隣接するセルの同形異義性のバックプロジェクションエラーと比較され、該第一セル内のクラスター境界を割り出すことができる様に、該マッチング特徴が、最も小さなエラーを有する同形異義性に帰属される
    ことを特徴とする請求項9に記載の方法。
  11. 該レベルと隣接するマッチング特徴との帰属が、車載カメラの画像の実質的全面において割り出される
    ことを特徴とする先行請求項のうち何れか一項に記載の方法。
  12. 以下を包含していることを特徴とする車載カメラの一連の画像からオブジェクトを検出するための装置:
    a)車載カメラによって、一連の画像を撮影するステップ
    を実施できる様に構成されているカメラ制御手段、
    並びに、
    b)二枚の連続する画像内においてマッチング特徴を割り出すステップ、
    d)空間内の複数のレベルを、隣接するマッチング特徴をそれぞれ空間内の一枚のレベルに分類することによって割り出すステップ、及び、
    g)割り出したレベルを考慮しつつ、一つの、乃至、複数のオブジェクトを検出するステップ
    を実施できる様に構成されている評価用エレクトロニクス。
JP2019513924A 2016-09-29 2017-09-28 カメラ画像からのオブジェクトの検出 Active JP7050763B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102016218852.6 2016-09-29
DE102016218852.6A DE102016218852A1 (de) 2016-09-29 2016-09-29 Detektion von Objekten aus Bildern einer Kamera
PCT/DE2017/200102 WO2018059631A1 (de) 2016-09-29 2017-09-28 Detektion und validierung von objekten aus sequentiellen bildern einer kamera mittels homographien

Publications (3)

Publication Number Publication Date
JP2019530924A true JP2019530924A (ja) 2019-10-24
JP2019530924A5 JP2019530924A5 (ja) 2020-10-22
JP7050763B2 JP7050763B2 (ja) 2022-04-08

Family

ID=60262655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019513924A Active JP7050763B2 (ja) 2016-09-29 2017-09-28 カメラ画像からのオブジェクトの検出

Country Status (7)

Country Link
US (1) US10984263B2 (ja)
EP (1) EP3520024A1 (ja)
JP (1) JP7050763B2 (ja)
KR (1) KR102491527B1 (ja)
CN (1) CN109791607B (ja)
DE (2) DE102016218852A1 (ja)
WO (1) WO2018059631A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016218852A1 (de) * 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion von Objekten aus Bildern einer Kamera
DE102016218849A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Tracking von Objekten aus Bildern einer Kamera
DE102016218853A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Validierung von Objekten aus Bildern einer Kamera
US10706587B1 (en) * 2018-09-25 2020-07-07 Amazon Technologies, Inc. Calibration of multiple cameras
CN111260719B (zh) * 2020-01-09 2022-10-25 上海交通大学 一种基于神经网络算法的碰撞时间计算系统和方法
CN113284197B (zh) * 2021-07-22 2021-11-23 浙江华睿科技股份有限公司 Agv的tof相机外参标定方法及装置、电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093610A (ja) * 2008-10-09 2010-04-22 Hitachi Automotive Systems Ltd 自動車の外界認識装置及び外界認識方法
US20120140076A1 (en) * 2010-12-07 2012-06-07 Rosenbaum Dan Forward collision warning trap and pedestrian advanced warning system
JP2013239143A (ja) * 2011-12-06 2013-11-28 Mobileye Technologies Ltd 道路の垂直輪郭検出

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353565A (ja) 1998-06-09 1999-12-24 Yazaki Corp 車両用衝突警報方法及び装置
JP3463858B2 (ja) 1998-08-27 2003-11-05 矢崎総業株式会社 周辺監視装置及び方法
US6618672B2 (en) 1998-10-21 2003-09-09 Yazaki Corporation Vehicle-applied rear-and-side monitoring system
DE19926559A1 (de) 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
JP4118452B2 (ja) * 1999-06-16 2008-07-16 本田技研工業株式会社 物体認識装置
JP2002189075A (ja) * 2000-12-20 2002-07-05 Fujitsu Ten Ltd 道路上方静止物検知方法
JP3895238B2 (ja) * 2002-08-28 2007-03-22 株式会社東芝 障害物検出装置及びその方法
JP3987048B2 (ja) * 2003-03-20 2007-10-03 本田技研工業株式会社 車両周辺監視装置
DE10317044A1 (de) 2003-04-11 2004-10-21 Daimlerchrysler Ag Freiraumüberwachung bei Kraftfahrzeugen
DE10351778A1 (de) 2003-11-06 2005-06-09 Daimlerchrysler Ag Verfahren zur Korrespondenzanalyse in Bilddatensätzen
JP4328692B2 (ja) 2004-08-11 2009-09-09 国立大学法人東京工業大学 物体検出装置
DE102004046101B4 (de) 2004-09-23 2007-01-18 Daimlerchrysler Ag Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
US7130745B2 (en) 2005-02-10 2006-10-31 Toyota Technical Center Usa, Inc. Vehicle collision warning system
JP4203512B2 (ja) * 2006-06-16 2009-01-07 本田技研工業株式会社 車両周辺監視装置
JP4166253B2 (ja) * 2006-07-10 2008-10-15 トヨタ自動車株式会社 物体検出装置、物体検出方法、および物体検出用プログラム
JP4267657B2 (ja) * 2006-10-31 2009-05-27 本田技研工業株式会社 車両周辺監視装置
WO2008065717A1 (fr) * 2006-11-29 2008-06-05 Fujitsu Limited Système et procédé de détection de piéton
US8098889B2 (en) 2007-01-18 2012-01-17 Siemens Corporation System and method for vehicle detection and tracking
US8509480B2 (en) * 2007-03-22 2013-08-13 Nec Corporation Mobile detector, mobile detecting program, and mobile detecting method
EP1988488A1 (en) * 2007-05-03 2008-11-05 Sony Deutschland Gmbh Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device
JP2009100342A (ja) 2007-10-18 2009-05-07 Sanyo Electric Co Ltd カメラ校正装置及び方法、並びに、車両
DE102009028742A1 (de) 2009-08-20 2011-02-24 Robert Bosch Gmbh Verfahren und Steuergerät zur Bestimmung einer Bewegungsinformation eines Objekts
US8232872B2 (en) 2009-12-03 2012-07-31 GM Global Technology Operations LLC Cross traffic collision alert system
US9959595B2 (en) 2010-09-21 2018-05-01 Mobileye Vision Technologies Ltd. Dense structure from motion
DE102011006564A1 (de) * 2011-03-31 2012-10-04 Robert Bosch Gmbh Verfahren zur Auswertung eines von einer Kamera eines Fahrzeugs aufgenommenen Bildes und Bildaufbereitungsvorrichtung
EP2546804A1 (en) 2011-07-10 2013-01-16 Dürr Dental AG Method and tomography apparatus for reconstruction of a 3D volume
JP5944781B2 (ja) * 2012-07-31 2016-07-05 株式会社デンソーアイティーラボラトリ 移動体認識システム、移動体認識プログラム、及び移動体認識方法
US9256791B2 (en) 2012-12-04 2016-02-09 Mobileye Vision Technologies Ltd. Road vertical contour detection
CN106663193B (zh) 2014-05-14 2020-12-25 御眼视觉技术有限公司 用于路缘检测和行人危险评估的系统和方法
DE102015224796A1 (de) 2015-12-10 2017-06-14 Robert Bosch Gmbh Verfahren und Steuergerät zum Erkennen einer möglichen Kollision eines unbemannten Luftfahrzeugs mit einem Objekt
DE102016218852A1 (de) * 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion von Objekten aus Bildern einer Kamera
DE102016218849A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Tracking von Objekten aus Bildern einer Kamera
DE102016218853A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Validierung von Objekten aus Bildern einer Kamera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093610A (ja) * 2008-10-09 2010-04-22 Hitachi Automotive Systems Ltd 自動車の外界認識装置及び外界認識方法
US20120140076A1 (en) * 2010-12-07 2012-06-07 Rosenbaum Dan Forward collision warning trap and pedestrian advanced warning system
JP2013239143A (ja) * 2011-12-06 2013-11-28 Mobileye Technologies Ltd 道路の垂直輪郭検出

Also Published As

Publication number Publication date
WO2018059631A1 (de) 2018-04-05
KR20190059894A (ko) 2019-05-31
JP7050763B2 (ja) 2022-04-08
EP3520024A1 (de) 2019-08-07
US10984263B2 (en) 2021-04-20
DE112017003466A5 (de) 2019-03-21
CN109791607A (zh) 2019-05-21
CN109791607B (zh) 2024-06-04
KR102491527B1 (ko) 2023-01-20
DE102016218852A1 (de) 2018-03-29
US20190180121A1 (en) 2019-06-13

Similar Documents

Publication Publication Date Title
JP7050763B2 (ja) カメラ画像からのオブジェクトの検出
CN109997148B (zh) 信息处理装置、成像装置、设备控制系统、移动对象、信息处理方法和计算机可读记录介质
US20140348390A1 (en) Method and apparatus for detecting traffic monitoring video
KR20160123668A (ko) 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법
EP3676796A1 (en) Systems and methods for correcting a high-definition map based on detection of obstructing objects
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
CN108645375B (zh) 一种用于车载双目系统快速车辆测距优化方法
JP6021689B2 (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
WO2020154990A1 (zh) 目标物体运动状态检测方法、设备及存储介质
CN107491065B (zh) 利用障碍物的地面边界信息检测物体的侧面的方法和装置
JP3729025B2 (ja) 歩行者検知装置
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
Petrovai et al. A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices
JP2018025906A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
US11087150B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
JP2023184572A (ja) 電子機器、移動体、撮像装置、および電子機器の制御方法、プログラム、記憶媒体
JP7229032B2 (ja) 車外物体検出装置
JP5472928B2 (ja) 対象物検出装置及び方法
KR102368262B1 (ko) 다중 관측정보를 이용한 신호등 배치정보 추정 방법
JP5903901B2 (ja) 車両位置算出装置
JPH10312463A (ja) 物体認識方法およびその装置
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP4743277B2 (ja) 画像データ認識方法、画像処理装置および画像データ認識プログラム
JP2013142668A (ja) 位置推定装置及び位置推定方法
EP4016444A1 (en) Method for rectification of images and/or image points, camera-based system and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200630

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220329

R150 Certificate of patent or registration of utility model

Ref document number: 7050763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150