JP2019530924A - カメラ画像からのオブジェクトの検出 - Google Patents
カメラ画像からのオブジェクトの検出 Download PDFInfo
- Publication number
- JP2019530924A JP2019530924A JP2019513924A JP2019513924A JP2019530924A JP 2019530924 A JP2019530924 A JP 2019530924A JP 2019513924 A JP2019513924 A JP 2019513924A JP 2019513924 A JP2019513924 A JP 2019513924A JP 2019530924 A JP2019530924 A JP 2019530924A
- Authority
- JP
- Japan
- Prior art keywords
- level
- isomorphism
- matching
- images
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title abstract description 8
- 238000000034 method Methods 0.000 claims abstract description 34
- 239000013598 vector Substances 0.000 claims description 14
- 238000011156 evaluation Methods 0.000 claims description 5
- 238000013519 translation Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 206010027146 Melanoderma Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 239000010981 turquoise Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
尚、ここで言う「エピポール」とは、第二時点においてカメラの中心に撮影される、第一カメラ画像内の画像点のことを意味している。例えば、真っすぐに走行している場合、バニシング・ポイントが、エピポールに相当する。しかしながらそれは、停止している、或いは、前方を走行している車両への追突を認識するために重要な領域である。エピポール・ジオメトリに従って動いている場合、動的なオブジェクトは、三角測量することができる。しかしながら、相対速度が既知でなければ、その間隔は、近すぎ、或いは、遠すぎに推定される。
a)車載カメラを用いて一連の画像を撮影するステップ、
b)マッチング特徴を、二枚の連続する画像内において割り出すステップ、
d)隣接するマッチング特徴を、それぞれ、空間内の一枚のレベルに分類することによって、空間内の複数のレベルを、割り出すステップ、並びに、
f)(ステップd)において)割り出したレベルを考慮しつつ、オブジェクトを検出するステップ。
ステップd)は、代案的には、以下の様に記述することもできる:そのそれぞれに、複数の隣接するマッチング特徴が、その時点において存在している、或いは、それらがそこに入ってくるであろう、複数のレベルを割り出すステップ。
ステップd)には、空間内に複数のレベルを予め設定し、且つ、該予め設定されたレベルのそれぞれ一枚に、隣接するマッチング特徴を分類することも包含されている(下のステップd2参照)。
第一に、これは、隣接するマッチング特徴を集積する条件である。即ち、それらマッチングが空間内の共通のレベル内にあり、且つ、該レベルの動きに応じて時間的に共に進展する場合、それらは互いに帰属していると見なされる。
続いて、この様に集積されたマッチング特徴は、例えば、全てが路面レベルに相当するレベルに存在しているため、「グランド・レベル」と称される。しかしながらこの様なグランド・レベルは、無限に広がるものではなく、該レベルの部分領域、即ち、実際にマッチング特徴が配置されている領域のみを意味している。
c)複数のレベルを割り出すために、隣接するマッチング特徴に対する同形異義性を算出するステップ。
同形異義性は、二つのカメラポジション間の一枚のレベル上のポイントの関連性、或いは、車載カメラの二枚の連続する画像内のポイントの関連性を記述するものである。即ち、隣接するマッチング特徴の同形異義性を算出することにより、隣接するマッチング特徴のそれぞれ一枚の空間内のレベルへの分類を実施することができる(ステップd)参照)。
e)算出した同形異義性を基にマッチング特徴をセグメント化するステップ。
特に、算出した同形異義性を基にすれば、マッチング特徴をセグメント化することができる、即ち、異なるセグメントに分類することができる。ステップf)では、オブジェクトの検出を、セグメント化した特徴を考慮して実施することも可能である。
グランド・レベルの、バックウォール・レベルの、そして、サイドウォール・レベルの同形異義性を算出することにより、隣接するマッチング特徴を、これらのレベルのうちの一枚に割り当てることができる。
式中、a,b,cは、定数であり、x0,y0,x1,y1は、時点t−0に撮影された第一画像(インデックス0)と過去の時点t−1に撮影された第二画像(インデックス1)内のマッチングを示し、また、tx,ty,tzは、ベクトルt/dのコンポーネントを示している。尚、tは、車載カメラの平行移動を、dは、レベルまでの距離(そのレベルに対して垂直)、即ち、そのレベルの標準ベクトルに沿った距離を示している。コンポーネントtx,ty乃至tzは、以下、「インバースTTC」とも呼ばれる。TTCは、「Time to collision」の頭文字を取ったものであり、ある空間方向において、間隔を平行移動速度で割ったものである。
即ち、マッチング特徴を、バックプロジェクションエラーによって、評価することができる。この「バックプロジェクションエラー」は、測定したフローと算出した同形異義性から予測されたフローとの間の差異を与えるものである。言い換えれば、一枚のレベルのバックプロジェクションエラーは、時点t−0のポイントxと、同形異義性に従ってこのレベル上に投影された過去の時点t−1におけるマッチングするポイントとの間の差異を示す値である(以下の式4参照)。
一つの第一セル内のマッチング特徴のバックプロジェクションエラーが、隣接するセルの同形異義性のバックプロジェクションエラーと比較され、このマッチング特徴が、最も小さなエラーを有する同形異義性に帰属されれば、第一セル内のレベル境界(乃至、セグメント境界、或いは、クラスター境界)を、より鮮明にすることができる。この様にすることで、一つのセルのマッチング特徴を、異なるレベルに分類することができる。
カメラ制御手段、並びに、
評価用エレクトロニクス、
但し、
該カメラ制御手段は、以下のステップを実施できる様に、コンフィグレーションされている、乃至、構成されている:
a)車載カメラによって、一連の画像を撮影するステップ;
また、
該評価用エレクトロニクスは、以下のステップを実施できる様に、コンフィグレーション/構成されている:
b)二枚の連続する画像内においてマッチング特徴を割り出すステップ、
d)空間内の複数のレベルを、隣接するマッチング特徴をそれぞれ空間内の一枚のレベルに分類することによって割り出すステップ、そして、
g)(ステップd)において)割り出したレベルを考慮しつつ、一つの、乃至、複数のオブジェクトを割り出す(或いは、生成する)ステップ。
よって、本発明は、デジタル・エレクトロニクス回路、コンピュータ・ハードウェア、ファームウェア乃至ソフトウェアとして実施されることができる。
代案的に、図3は、例えば、同じ(相対)速度で動いている近距離にあるバックウォール・レベル(図3a:20,21;変形d1)と遠距離にあるバックウォール・レベル(20,23;変形d3)を示すこともできるが、この場合は、図3bに示されているオブジェクト(20,21)は、実空間では、図3aに示されているオブジェクト(20,23)よりも大きなものである。
同形異義性は、二つのカメラポジション間の一枚のレベル上のポイントの関連性(マッチング)、或いは、二枚の連続するフレーム内のポイントの関連性(マッチング)を記述するものである:
https://de.scribd.com/document/96810936/Hartley−Tut−4up アクセス日:2016年09月26日、参照)。該チュートリアルの6頁の左上(シート21)に記載のマッチングから等式1の表記法において、以下の様に表現することができる:
斜線部は、前景の(特にバックウォール・レベル内の)オブジェクトを示している。背景は、白色で示されている。
一つのセルが一つのオブジェクトのみを包含している場合(セルB3,D3)、同形異義性により、これらのセルを明確に記述できる。しかしながら、これらのセルが、複数のオブジェクトを包含している場合(セルC3)、同形異義性によって、双方のオブジェクトを明確に記述することはできない。ポイント・マッチング(黒点、乃至、黒色の十字、乃至「x」)が、隣接するセル(B3乃至D3)のクラスター(乃至セグメント)に、バックプロジェクションエラーによって帰属されてしまった場合、セルC3用の同形異義性は、前景も背景も明確に記述できないため、該黒点は、セルB3のセグメントに帰属され、該黒色の十字は、セルD3のセグメントに帰属される。
等式3の商t/dに、
図5aは、車両の内部に配置され、フロントガラスを介して、前方に横たわる周辺を捕捉する車載カメラによって撮影された画像を示している。そこには、三車線の道路(51)、例えば、アウトバーン(ドイツの高速道路)が写っている。該走行レーンは、適宜な走行レーンマークによって区画されている。三つ全ての走行レーン上を車両が、走行している。自車線上の前方を走行中の車両(53)は、更なる自車線上の前方を走行中の車両を覆っている可能性を有している。三車線の道路の左側には、建築的に高くなった対向車線との境界(52)がある。三車線の道路(51)の右側には、その先には森が続くガードレールによって、その右側が区画されている路肩乃至非常停車帯がある。自車両の前方のある距離を置いた地点には、三車線の道路(51)にかけられている交通標識用架橋(ガントリー)が認識できる。
図5bは、セグメント化された画像の赤色のチャンネルを、
図5cは、緑色のチャンネル、図5dは、青色のチャンネルを示している。
異なるセグメントには、異なる色が付けられている。オリジナルにおいて緑色のセグメントは、5から6セルに跨っている(図5bと5dでは、これは、白色、且つ、フレーム無しに示されている)。このセグメントは、グランド・レベル、即ち、自車両が走行している車線(51)の表面に対応している。
他のセグメントは、画像の中央に認識でき、これは、オリジナルではピンクである。よって、図5bでは、赤色の値が高く、図5dでは、青色の値が低く、且つ、図5cでは、緑色の値がゼロである。このセグメントは、自車線上を走行している(トランスポーター)車両(53)のバックウォール・レベルに相当している。
ここに示されているセグメント化結果は、予備知識なしに、たった三つの反復ステップで割り出された。これは、時間積分による本発明の実施形態の非常に高い速度と能力を示すものである。
全てのサイドウォール・レベルに帰属されたマッチングが、図6bに示されている。左縁のマッチングは、右側のサイドウォール・レベルに帰属されるが、画像内において、対向車線への建築的境界(52)の右側が、そこに存在しているため、これは、理に適っている。画像の右半分にあるマッチングは、左側のサイドウォール・レベルに帰属されるが、同様に、車線縁の建造物や車線縁の植物の「左側」が、画像内に存在しているため、これも、理に適っている。
図6cは、どのマッチングが、グランド・レベルに帰属されるかを示しているが、該画像内では、車線(51)の表面が見えるため、これも、理に適っている。
図6dは、どのマッチングが、バックウォール・レベルに帰属しているかを示している。これは、大部分が、理に適っている。しかしながら、これらの割り出しからだけでは、例えば、同じ車線の前方を走行中のバン(53)を、その上空に配置されている交通標識用架橋(ガントリー)の標識(54)など、異なるバックウォール・レベルを、十分に区別することができない。しかし、この描写から既に、車両の周辺部において、どこに高さを有するオブジェクトが、出現するかに関する示唆を得ることはできる。
図7aも、(図6aと同じ)車両シチュエーションの画像である。自車線上の前方を走行中の車両(73)は、バンである。左車線には、二台の車両(71と72)が、右車線には、更に二台の車両(74と75)が走行している。
図7bは、グランド・レベルに相当し(オリジナルでは、紫色)、唯一、赤色成分を含むマッチングを示している。
図7cは、動いているオブジェクトに帰属されるマッチングを示している。これらは、オリジナルでは、自車両から遠ざかる(即ち、自車両よりも早い)ものは、緑色であり、自車両よりも遅いものは、トルコ石(青緑)色である。
図7dは、青色成分を有する、即ち、グランド・レベルに相当する(図7b参照)、自車両に接近する様に動いているオブジェクト(図7c参照)、例えば、アウトバーンの左右にある森や交通標識用架橋(ガントリー)など、図7dにのみ示されている静的で高さを有するオブジェクトに相当するマッチングを示している。図7cと7dにおいては共に、自車線(73)上において接近して来ている車両が、認識できる。右側の車線(75)上の前方の車両も同様である。一方、他の車両(71,72と74)は、遠ざかっている。
画像内において空に相当する領域は、ストラクチャーを欠いているため、マッチングを有していない(図7bから7dにおいて白色)。
同形異義性の計算前に、自己ローテーションが考慮された、或いは、ローテーション・マトリックスRにおける自己ローテーションが考慮された場合、追越ししている車両は、負のtz成分から認識でき、又、車線変更している、或いは、カーブを走行している車両は、横方向tx成分がゼロでないことから認識できる。動的セグメントが、同形異義性から予測された場合(下の「同形異義性を基にした光学的流れの圧縮」を参照)、経時的に動的マップを構成できる。
図8は、その方法を図示したものである。
図8dは、このマッチング特徴が、図8bによって説明した如く、トランスフォメーションした後に、次の画像においてどこに現れ得るかを示している(86)。
Claims (12)
- 以下のステップを包含していることを特徴とする車載カメラの一連の画像からオブジェクトを検出するための方法:
a)車載カメラを用いて一連の画像を撮影するステップ、
b)マッチング特徴を、二枚の連続する画像内において割り出すステップ、
d)隣接するマッチング特徴を、それぞれ、空間内の一枚のレベルに分類することによって、空間内の複数のレベルを、割り出すステップ、並びに、
f)ステップd)において割り出したレベルを考慮しつつ、オブジェクトを検出するステップ。 - 以下のステップを包含していることを特徴とする請求項1に記載の方法:
c)複数のレベルを割り出すために、隣接するマッチング特徴に対する同形異義性を算出するステップ。 - 以下のステップを包含していることを特徴とする請求項2に記載の方法:
e)算出した同形異義性を基にマッチング特徴をセグメント化するステップ。 - 以下のステップを包含していることを特徴とする先行請求項のうち一項に記載の方法:
d2)隣接するマッチング特徴を、それぞれ一つのグランド・レベル、一つのバックウォール・レベル或いはサイドウォール・レベルへ分類するステップ。 - 少なくとも一枚のバックウォール・レベルが、等式:
に従って算出されることを特徴とする請求項4に記載の方法。 - 少なくとも一枚のグランド・レベルが、等式:
- 少なくとも一枚のサイドウォール・レベルが、等式:
- 同じオリエンテーションを有する複数のレベルがある場合、同じオリエンテーションのレベルが、帰属するtx,ty,tz・値によって、分離される
ことを特徴とする請求項4から7の何れか一項に記載の方法。 - 一枚の画像が、グリッドにより、同様のセルに分割され、各々のセルに対しては、その中で割り出されたマッチング特徴から、それぞれ同形異義性が算出され、且つ、一致する同形異義性を有するセルが、クラスター化される
ことを特徴とする請求項2から8の何れか一項に記載の方法。 - 該算出された第一セルの同形異義性が、一つの隣接するセルの同形異義性と十分に一致しない場合に、一つの第一セル内のマッチング特徴のバックプロジェクションエラーが、隣接するセルの同形異義性のバックプロジェクションエラーと比較され、該第一セル内のクラスター境界を割り出すことができる様に、該マッチング特徴が、最も小さなエラーを有する同形異義性に帰属される
ことを特徴とする請求項9に記載の方法。 - 該レベルと隣接するマッチング特徴との帰属が、車載カメラの画像の実質的全面において割り出される
ことを特徴とする先行請求項のうち何れか一項に記載の方法。 - 以下を包含していることを特徴とする車載カメラの一連の画像からオブジェクトを検出するための装置:
a)車載カメラによって、一連の画像を撮影するステップ
を実施できる様に構成されているカメラ制御手段、
並びに、
b)二枚の連続する画像内においてマッチング特徴を割り出すステップ、
d)空間内の複数のレベルを、隣接するマッチング特徴をそれぞれ空間内の一枚のレベルに分類することによって割り出すステップ、及び、
g)割り出したレベルを考慮しつつ、一つの、乃至、複数のオブジェクトを検出するステップ
を実施できる様に構成されている評価用エレクトロニクス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016218852.6 | 2016-09-29 | ||
DE102016218852.6A DE102016218852A1 (de) | 2016-09-29 | 2016-09-29 | Detektion von Objekten aus Bildern einer Kamera |
PCT/DE2017/200102 WO2018059631A1 (de) | 2016-09-29 | 2017-09-28 | Detektion und validierung von objekten aus sequentiellen bildern einer kamera mittels homographien |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019530924A true JP2019530924A (ja) | 2019-10-24 |
JP2019530924A5 JP2019530924A5 (ja) | 2020-10-22 |
JP7050763B2 JP7050763B2 (ja) | 2022-04-08 |
Family
ID=60262655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019513924A Active JP7050763B2 (ja) | 2016-09-29 | 2017-09-28 | カメラ画像からのオブジェクトの検出 |
Country Status (7)
Country | Link |
---|---|
US (1) | US10984263B2 (ja) |
EP (1) | EP3520024A1 (ja) |
JP (1) | JP7050763B2 (ja) |
KR (1) | KR102491527B1 (ja) |
CN (1) | CN109791607B (ja) |
DE (2) | DE102016218852A1 (ja) |
WO (1) | WO2018059631A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016218852A1 (de) * | 2016-09-29 | 2018-03-29 | Conti Temic Microelectronic Gmbh | Detektion von Objekten aus Bildern einer Kamera |
DE102016218849A1 (de) | 2016-09-29 | 2018-03-29 | Conti Temic Microelectronic Gmbh | Detektion und Tracking von Objekten aus Bildern einer Kamera |
DE102016218853A1 (de) | 2016-09-29 | 2018-03-29 | Conti Temic Microelectronic Gmbh | Detektion und Validierung von Objekten aus Bildern einer Kamera |
US10706587B1 (en) * | 2018-09-25 | 2020-07-07 | Amazon Technologies, Inc. | Calibration of multiple cameras |
CN111260719B (zh) * | 2020-01-09 | 2022-10-25 | 上海交通大学 | 一种基于神经网络算法的碰撞时间计算系统和方法 |
CN113284197B (zh) * | 2021-07-22 | 2021-11-23 | 浙江华睿科技股份有限公司 | Agv的tof相机外参标定方法及装置、电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010093610A (ja) * | 2008-10-09 | 2010-04-22 | Hitachi Automotive Systems Ltd | 自動車の外界認識装置及び外界認識方法 |
US20120140076A1 (en) * | 2010-12-07 | 2012-06-07 | Rosenbaum Dan | Forward collision warning trap and pedestrian advanced warning system |
JP2013239143A (ja) * | 2011-12-06 | 2013-11-28 | Mobileye Technologies Ltd | 道路の垂直輪郭検出 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11353565A (ja) | 1998-06-09 | 1999-12-24 | Yazaki Corp | 車両用衝突警報方法及び装置 |
JP3463858B2 (ja) | 1998-08-27 | 2003-11-05 | 矢崎総業株式会社 | 周辺監視装置及び方法 |
US6618672B2 (en) | 1998-10-21 | 2003-09-09 | Yazaki Corporation | Vehicle-applied rear-and-side monitoring system |
DE19926559A1 (de) | 1999-06-11 | 2000-12-21 | Daimler Chrysler Ag | Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung |
JP4118452B2 (ja) * | 1999-06-16 | 2008-07-16 | 本田技研工業株式会社 | 物体認識装置 |
JP2002189075A (ja) * | 2000-12-20 | 2002-07-05 | Fujitsu Ten Ltd | 道路上方静止物検知方法 |
JP3895238B2 (ja) * | 2002-08-28 | 2007-03-22 | 株式会社東芝 | 障害物検出装置及びその方法 |
JP3987048B2 (ja) * | 2003-03-20 | 2007-10-03 | 本田技研工業株式会社 | 車両周辺監視装置 |
DE10317044A1 (de) | 2003-04-11 | 2004-10-21 | Daimlerchrysler Ag | Freiraumüberwachung bei Kraftfahrzeugen |
DE10351778A1 (de) | 2003-11-06 | 2005-06-09 | Daimlerchrysler Ag | Verfahren zur Korrespondenzanalyse in Bilddatensätzen |
JP4328692B2 (ja) | 2004-08-11 | 2009-09-09 | 国立大学法人東京工業大学 | 物体検出装置 |
DE102004046101B4 (de) | 2004-09-23 | 2007-01-18 | Daimlerchrysler Ag | Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen |
US7130745B2 (en) | 2005-02-10 | 2006-10-31 | Toyota Technical Center Usa, Inc. | Vehicle collision warning system |
JP4203512B2 (ja) * | 2006-06-16 | 2009-01-07 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4166253B2 (ja) * | 2006-07-10 | 2008-10-15 | トヨタ自動車株式会社 | 物体検出装置、物体検出方法、および物体検出用プログラム |
JP4267657B2 (ja) * | 2006-10-31 | 2009-05-27 | 本田技研工業株式会社 | 車両周辺監視装置 |
WO2008065717A1 (fr) * | 2006-11-29 | 2008-06-05 | Fujitsu Limited | Système et procédé de détection de piéton |
US8098889B2 (en) | 2007-01-18 | 2012-01-17 | Siemens Corporation | System and method for vehicle detection and tracking |
US8509480B2 (en) * | 2007-03-22 | 2013-08-13 | Nec Corporation | Mobile detector, mobile detecting program, and mobile detecting method |
EP1988488A1 (en) * | 2007-05-03 | 2008-11-05 | Sony Deutschland Gmbh | Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device |
JP2009100342A (ja) | 2007-10-18 | 2009-05-07 | Sanyo Electric Co Ltd | カメラ校正装置及び方法、並びに、車両 |
DE102009028742A1 (de) | 2009-08-20 | 2011-02-24 | Robert Bosch Gmbh | Verfahren und Steuergerät zur Bestimmung einer Bewegungsinformation eines Objekts |
US8232872B2 (en) | 2009-12-03 | 2012-07-31 | GM Global Technology Operations LLC | Cross traffic collision alert system |
US9959595B2 (en) | 2010-09-21 | 2018-05-01 | Mobileye Vision Technologies Ltd. | Dense structure from motion |
DE102011006564A1 (de) * | 2011-03-31 | 2012-10-04 | Robert Bosch Gmbh | Verfahren zur Auswertung eines von einer Kamera eines Fahrzeugs aufgenommenen Bildes und Bildaufbereitungsvorrichtung |
EP2546804A1 (en) | 2011-07-10 | 2013-01-16 | Dürr Dental AG | Method and tomography apparatus for reconstruction of a 3D volume |
JP5944781B2 (ja) * | 2012-07-31 | 2016-07-05 | 株式会社デンソーアイティーラボラトリ | 移動体認識システム、移動体認識プログラム、及び移動体認識方法 |
US9256791B2 (en) | 2012-12-04 | 2016-02-09 | Mobileye Vision Technologies Ltd. | Road vertical contour detection |
CN106663193B (zh) | 2014-05-14 | 2020-12-25 | 御眼视觉技术有限公司 | 用于路缘检测和行人危险评估的系统和方法 |
DE102015224796A1 (de) | 2015-12-10 | 2017-06-14 | Robert Bosch Gmbh | Verfahren und Steuergerät zum Erkennen einer möglichen Kollision eines unbemannten Luftfahrzeugs mit einem Objekt |
DE102016218852A1 (de) * | 2016-09-29 | 2018-03-29 | Conti Temic Microelectronic Gmbh | Detektion von Objekten aus Bildern einer Kamera |
DE102016218849A1 (de) | 2016-09-29 | 2018-03-29 | Conti Temic Microelectronic Gmbh | Detektion und Tracking von Objekten aus Bildern einer Kamera |
DE102016218853A1 (de) | 2016-09-29 | 2018-03-29 | Conti Temic Microelectronic Gmbh | Detektion und Validierung von Objekten aus Bildern einer Kamera |
-
2016
- 2016-09-29 DE DE102016218852.6A patent/DE102016218852A1/de not_active Withdrawn
-
2017
- 2017-09-28 CN CN201780060471.3A patent/CN109791607B/zh active Active
- 2017-09-28 KR KR1020197005955A patent/KR102491527B1/ko active IP Right Grant
- 2017-09-28 JP JP2019513924A patent/JP7050763B2/ja active Active
- 2017-09-28 DE DE112017003466.3T patent/DE112017003466A5/de active Pending
- 2017-09-28 WO PCT/DE2017/200102 patent/WO2018059631A1/de unknown
- 2017-09-28 EP EP17794220.8A patent/EP3520024A1/de active Pending
- 2017-09-28 US US16/323,826 patent/US10984263B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010093610A (ja) * | 2008-10-09 | 2010-04-22 | Hitachi Automotive Systems Ltd | 自動車の外界認識装置及び外界認識方法 |
US20120140076A1 (en) * | 2010-12-07 | 2012-06-07 | Rosenbaum Dan | Forward collision warning trap and pedestrian advanced warning system |
JP2013239143A (ja) * | 2011-12-06 | 2013-11-28 | Mobileye Technologies Ltd | 道路の垂直輪郭検出 |
Also Published As
Publication number | Publication date |
---|---|
WO2018059631A1 (de) | 2018-04-05 |
KR20190059894A (ko) | 2019-05-31 |
JP7050763B2 (ja) | 2022-04-08 |
EP3520024A1 (de) | 2019-08-07 |
US10984263B2 (en) | 2021-04-20 |
DE112017003466A5 (de) | 2019-03-21 |
CN109791607A (zh) | 2019-05-21 |
CN109791607B (zh) | 2024-06-04 |
KR102491527B1 (ko) | 2023-01-20 |
DE102016218852A1 (de) | 2018-03-29 |
US20190180121A1 (en) | 2019-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7050763B2 (ja) | カメラ画像からのオブジェクトの検出 | |
CN109997148B (zh) | 信息处理装置、成像装置、设备控制系统、移动对象、信息处理方法和计算机可读记录介质 | |
US20140348390A1 (en) | Method and apparatus for detecting traffic monitoring video | |
KR20160123668A (ko) | 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법 | |
EP3676796A1 (en) | Systems and methods for correcting a high-definition map based on detection of obstructing objects | |
US10984264B2 (en) | Detection and validation of objects from sequential images of a camera | |
CN108645375B (zh) | 一种用于车载双目系统快速车辆测距优化方法 | |
JP6021689B2 (ja) | 車両諸元計測処理装置、車両諸元計測方法及びプログラム | |
WO2020154990A1 (zh) | 目标物体运动状态检测方法、设备及存储介质 | |
CN107491065B (zh) | 利用障碍物的地面边界信息检测物体的侧面的方法和装置 | |
JP3729025B2 (ja) | 歩行者検知装置 | |
JP6552448B2 (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム | |
Petrovai et al. | A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices | |
JP2018025906A (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
US11087150B2 (en) | Detection and validation of objects from sequential images of a camera by using homographies | |
JP2023184572A (ja) | 電子機器、移動体、撮像装置、および電子機器の制御方法、プログラム、記憶媒体 | |
JP7229032B2 (ja) | 車外物体検出装置 | |
JP5472928B2 (ja) | 対象物検出装置及び方法 | |
KR102368262B1 (ko) | 다중 관측정보를 이용한 신호등 배치정보 추정 방법 | |
JP5903901B2 (ja) | 車両位置算出装置 | |
JPH10312463A (ja) | 物体認識方法およびその装置 | |
WO2018097269A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
JP4743277B2 (ja) | 画像データ認識方法、画像処理装置および画像データ認識プログラム | |
JP2013142668A (ja) | 位置推定装置及び位置推定方法 | |
EP4016444A1 (en) | Method for rectification of images and/or image points, camera-based system and vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200630 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210825 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211028 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7050763 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |