JP6571658B2 - 奥行分解された画像データからのオブジェクトを認識するための方法ならびに装置 - Google Patents

奥行分解された画像データからのオブジェクトを認識するための方法ならびに装置 Download PDF

Info

Publication number
JP6571658B2
JP6571658B2 JP2016539421A JP2016539421A JP6571658B2 JP 6571658 B2 JP6571658 B2 JP 6571658B2 JP 2016539421 A JP2016539421 A JP 2016539421A JP 2016539421 A JP2016539421 A JP 2016539421A JP 6571658 B2 JP6571658 B2 JP 6571658B2
Authority
JP
Japan
Prior art keywords
image
placeholder
objects
camera
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016539421A
Other languages
English (en)
Other versions
JP2016530639A (ja
JP2016530639A5 (ja
Inventor
ティール・ローベルト
バッハマン・アレクサンダー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Publication of JP2016530639A publication Critical patent/JP2016530639A/ja
Publication of JP2016530639A5 publication Critical patent/JP2016530639A5/ja
Application granted granted Critical
Publication of JP6571658B2 publication Critical patent/JP6571658B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Mechanical Engineering (AREA)

Description

本発明は、特に3Dカメラやステレオ・カメラを備えたドライバー・アシスタント・システムにおいて用いられる、奥行分解された画像データからのオブジェクト認識方法ならびに装置に関する。
車載カメラを備えたドライバー・アシスタント・システムが、普及してきている。モノカメラに加え、3Dカメラやステレオ・カメラも使用されるようになった。ステレオ・カメラにおいては、双方のカメラセンサーの画像情報からピクセル毎の奥行情報を算出することも可能である。結果として得られる奥行画像は、カメラ前方の浮き出たオブジェクトを認識するために、クラスター化することができる。
特許文献1には、少なくとも一つの周辺センサーを用いて、オブジェクトを捕捉し、その三次元的形状と寸法からクラス分類を実施する、少なくとも一つの車両周辺部にあるオブジェクトをクラス分類するための装置が、開示されている。
ここでは、その三次元的形状と寸法が、予め定められている、例えば、商用車、乗用車、単車、自転車、歩行者などのクラスにおいて特徴的な三次元的形状と寸法に合致しないオブジェクトに対する破棄クラスも考慮されている。
しかし、例えば、周辺センサーの捕捉時や評価時のエラーによって、破棄クラスのオブジェクトとして分類され、破棄されたがために、ドライバー・アシスタント機能においては考慮されないが、実は重要なオブジェクトが、該破棄クラスに含まれる可能性は否めない。
欧州特許第1652161号明細書
よって本発明が解決しようとする課題は、従来の技術における上記の問題や欠点を解消した、奥行分解された画像データからのオブジェクト認識の改善された方法を提供することである。
本発明では、例えば、空間的に重なっているオブジェクトは、奥行情報だけからは、二つの独立したオブジェクトとしてではなく、一つの大きなオブジェクトとして認識されてしまうと言う問題が、出発点であった。このような大きな(合体した)オブジェクトは、三次元的形状を基にしても、大きさを基にしても、正しく分類することはできない。
本発明に係るオブジェクト認識の方法は、以下のステップを包含している:
− 3Dカメラの奥行画像から少なくとも一つのオブジェクトを生成するステップ、
− 該少なくとも一つの生成されたオブジェクトに相当する、2D画像内のオブジェクトを評価、分類するステップ、
− 2D画像内のオブジェクトの分類を考慮し、奥行画像から生成された少なくとも一つのオブジェクトを、可能であれば、複数の個々のオブジェクトに分類するステップ。
尚、該3Dカメラは、特にステレオ・カメラであることが好ましく、該2Dカメラは、双方のステレオ・カメラセンサーのうちの一方であることが好ましい。代案的3Dカメラとしては、例えば、タイム・オブ・フライト・カメラ、特に、光波混合センサー(Photonic Mixer Device, PMD)が好ましい。そして、これらの3Dカメラによって、三次元画像、或いは、奥行分解された画像、乃至、奥行画像が撮影される。該奥行分解された画像データ(奥行画像)からは、3次元的につながったオブジェクトが生成される。生成されたオブジェクトの空間的位置や広がりは、既知であるため、モノレンズ・カメラセンサーの結像特性を知っていれば、生成されたオブジェクトが映っている2D画像内の領域を割り出すことができる。少なくとも、2D画像の該領域は、評価され、そこに見つかった(2D)オブジェクトは、分類できる。2D画像における評価には、エッジ認識、彩度や色の分析、セグメント化、及び/或いは、パターン認識も、含まれることが好ましい。そしてこれに続いて、2Dオブジェクト生成が実施されることが好ましい。分類においては、2D画像データからの該オブジェクトは、様々なオブジェクト・クラスに割り当てられる。この割り当ては、確率データに基づいて実施されることもできる。例えば、「軽自動車」、「小型車」、「中型車」、「大型車」、「SUV」、「バン」、「単車」、「自転車」、「大人歩行者」、「子供」、「車椅子」などと言ったオブジェクト・クラスには、その平均的な3D寸法と、可能であれば、形状が割り当てられている。2D画像から得られるこの様なクラス毎に異なる特徴や3D寸法を考慮すれば、生成された(三次元)オブジェクトを、少なくとも二つの個々のオブジェクトに分割することが可能である。少なくとも、クラス毎に異なる特徴が、生成されたオブジェクトと十分に一致する限り、生成されたオブジェクトを検証することはできる。
尚、奥行画像と2D画像は、車両周辺部の少なくとも部分的に重なった部分を示していることが好ましい。これは特に、周辺監視のための車載ステレオ・カメラの場合に、好ましい。奥行画像と2D画像は、少なくとも一つのドライバー・アシスタント機能用にデータを提供することが好ましい。既知のカメラベースのドライバー・アシスタント機能には、例えば、レーン逸脱警告機能(LDW, Lane Departure Warning)、レーン維持アシスト機能(LKA/LKS, Lane Keeping Assistance/System)、交通標識認識機能(TSR, Traffic Sign Recognition)、速度制限推奨機能(SLA, Speed Limit Assist)、自動ハイビーム制御機能(IHC, Intelligent Headlamp Control)、衝突警告機能(FCW, Forward Collision Warning)、降水認識/雨認識及び/或いはデイライト認識機能、自動縦方向制御機能(ACC, Adaptive Cruise Control)、駐車サポート機能並びに自動非常ブレーキ乃至緊急操舵機能(EBA, Emergency Brake Assist oder ESA, Emergency Steering Assist)などがある。
ある好ましい実施形態においては、少なくとも一つの3Dプレースホルダが、2D画像内のオブジェクトの分類結果に基づいて、定められ、このオブジェクト用のプレースホルダとして、奥行画像内において考慮される。
3Dプレースホルダとしては、錐台が好ましく用いられる。該錐台は、2D画像においてクラス分類されたオブジェクトの典型的な三次元寸法と、奥行画像から得られる距離から生成される。錐台の三次元的形状としては、遠近法に基づいて、先をカットしたピラミッド型を用いることもできる。
ある好ましい実施形態によれば、3Dプレースホルダは、3D画像捕捉及び/或いは2D画像捕捉並びにこれらの評価から生じる公差を考慮している。三次元位置割出しにエラーがある、2D画像に例えばノイズがあるなどは、クラス分類において不正確さの原因になり得る。
3Dプレースホルダは、オブジェクトのクラス内における3D寸法の分布も考慮することが好ましい。クラス「大人歩行者」では例えば、平均値1.70メートルを中心に、1.50から2.30メートルの範囲で分布し得る。
奥行画像から生成された少なくとも一つのオブジェクトから3Dプレースホルダの領域が分離されることが好ましい。
ある好ましい実施形態においては、少なくとも一つの3Dプレースホルダを考慮したうえで、奥行画像から改めてオブジェクトが生成されるが、該3Dプレースホルダの境界を超えるオブジェクト生成は、困難にしておく。この際、公差と分布も、異なる「難易度」を用いることによって考慮できる。
好ましくは、該3Dプレースホルダは、奥行画像から生成された少なくとも一つのオブジェクトと比較され、対応する空間体積の類似する一致性が認められる場合、該オブジェクトは、分割されない。これにより、生成されたオブジェクトが、検証される。
本発明は、更に、奥行画像を捕捉できるように構成された3Dカメラ、少なくとも一つのオブジェクトを該奥行画像から生成することができるように構成された第一オブジェクト生成ユニット、2D画像撮影用のカメラセンサー、奥行画像内の少なくとも一つの生成されたオブジェクトに対応する2D画像内のオブジェクトをクラス分類するための2D画像・評価・クラス分類ユニット、並びに、奥行画像内で生成された少なくとも一つのオブジェクトを、2D画像内のオブジェクトのクラス分類を考慮した上で、複数の個々のオブジェクトに分割するオブジェクト分割ユニットを包含する車両周辺部においてオブジェクトを認識するための装置にも関する。
以下、本発明を、実施例と図面に基づいて詳しく説明する。
ステレオ・カメラによって撮影されたオブジェクトの奥行画像用の平行6面体を模式的に示す図である。
唯一の図面は、ステレオ・カメラによって撮影されたオブジェクト(1)の奥行画像用の平行6面体を模式的に示している。該オブジェクトは、車椅子に乗っている女性(2)とバンなどの乗用車から構成されている。車椅子の女性(2)が、乗用車(3)の直前にいるため、即ち、双方の間に空間的な隔離が無いため、ステレオ・カメラの3D画像では、一つのオブジェクトとして割り出され、クラスター化される。
図1の描写には、好ましくは、双方のステレオ・カメラセンサーのうちの一つによって撮影された2D画像(5)も含まれている。示されている2D画像(5)は、撮影するカメラの仮想画像レベル上にあり、ここでは、車椅子の女性(2)と乗用車(3)の少なくとも一部を包含している。奥行画像において割り出されたオブジェクト(1)に相当する2D画像の画像領域は、予め割り出すことができるため、2D画像では、この領域のみが分析される。2D画像における分析には、既知の二次元画像データ用の画像処理方法、特に、エッジ認識、彩度や色の分析、セグメント化、及び/或いは、パターン認識が、好ましい。尚、画像処理方法に、2D画像データに基づいたオブジェクト生成とオブジェクト・クラス分類も含まれることが好ましい。ここでは、2D画像におけるオブジェクト・クラス分類から、第一オブジェクトは、「車椅子の人」と分類され、第二オブジェクトに関しては、「乗用車」或いは「バン」として分類できるかもしれない。即ち、該第二オブジェクトは、乗用車が、2D画像内に完全には映っていないため、しかも、車椅子の女性によってその一部が覆われているため、分類できない可能性もある。しかしこれは、この方法にとってそれほど重要なことではない。
次に、「車椅子の人」としてクラス分類が成功したオブジェクトに対しては、奥行画像用のプレースホルダ(6)が、生成される。この際、2D画像(5)内でクラス分類されたオブジェクト「車椅子の人」の大きさと、奥行画像から得られる距離、並びに、そのクラスにおいて典型的なオブジェクトの奥行から、錐台(6)が、セットされる。該錐台(6)では、3D捕捉の精度、2D画像のノイズ、及び/或いは、あるクラスに属するオブジェクトの平均寸法を中心としたオブジェクト寸法の分布などを含む公差と偏差も考慮される。これにより、該錐台(6)は、プレースホルダの役割を果たす。即ち、「車椅子の人」の典型的な空間的寸法を想定している。これらの寸法と、奥行画像から既知のカメラから各ピクセルまでの距離を用いることにより、該錐台は、ステレオ・カメラの空間的視野(4)への投影として割り出される。該錐台(6)は、視野(4)の遠近法において、この図では、先をカットしたピラミッドのような三次元の形状として模式的に示されている。
該錐台(6)を用いることにより、空間における、該錐台外へ至るクラスター化用の接続は、パラメータ化できる方法によって困難にされている(7)。これにより、奥行画像においては分離が困難なオブジェクトであっても、空間内において明確に分離できる。このことは、本例の車椅子の女性(2)と乗用車のケースにおいてのみならず、歩行者のグループや、家の壁にもたれている人、密集して駐車されている複数の自動車、その他、空間的に重なり合っているオブジェクトの分解(オブジェクト・スプリッティング)においても同様に有効である。
この方法は更に、認識されたオブジェクトを基にするドライバー・アシスタント機能に対して、例示されているシーンにおいて車椅子の女性(2)が、独立したオブジェクトとして信頼性高く認識され、続いて、同様の方法で、乗用車、乃至、バン(3)も認識されると言う長所を提供している。
一方、このシーンの奥行画像からのみでは、実際に存在している双方のオブジェクト・クラスよりも空間的に広く、然るに、全くクラス分類できないと言う恐れのある一つのオブジェクト(1)しか認識できなかったであろう。即ち該オブジェクトが、「車椅子の人」として認識されないのであるから、ドライバー・アシスタント機能によって、車椅子の女性(2)を保護するような対策は、実施されなかったであろう。
1 奥行画像から生成されたオブジェクト
2 車椅子の女性
3 乗用車
4 視野
5 2D画像
6 プレースホルダ/錐台
7 クラスター化の際に、困難にされた、錐台内への或いは錐台から外への接続

Claims (10)

  1. 以下のステップを包含する、オブジェクトを認識するための方法:
    − 3Dカメラの三次元画像から三次元的につながったオブジェクトを生成するステップ、
    − 該三次元画像内に生成された三次元的につながったオブジェクト(1)に相当する、2D画像(5)の画像領域内の一又は複数のオブジェクト(2,3)を評価、分類するステップ、
    − 2D画像内のオブジェクト(2,3)の分類に基づいて、クラス毎に異なる特徴のある3D寸法の割り当てを行うステップ、
    クラス毎に異なる特徴のある3D寸法を考慮し、三次元画像から生成された三次元的につながったオブジェクト(1)を、複数の個々の三次元的なオブジェクト(2;3)に分割するステップ。
  2. ドライバー・アシスタント・システムの3Dカメラや車載ステレオ・カメラにより三次元画像が、ドライバー・アシスタント・システムのモノレンズ・カメラセンサーにより2D画像(5)が、捕捉され、車両周辺部の少なくとも一部が重なり合っている領域を表している
    ことを特徴とする請求項1に記載の方法。
  3. 車載ステレオ・カメラの二つのカメラセンサーの一方のカメラセンサーがモノレンズ・カメラセンサーである
    ことを特徴とする請求項2に記載の方法。
  4. 少なくとも一つの3Dプレースホルダ(6)が、2D画像(5)内のオブジェクト(2, 3)の分類結果に基づいて、定められ、このオブジェクト用の前記3Dプレースホルダとして、三次元画像内において考慮される
    ことを特徴とする請求項1乃至3のいずれか一項に記載の方法。
  5. 3Dプレースホルダ(6)が、錐台であることを特徴とする請求項4に記載の方法。
  6. 前記3Dプレースホルダ(6)が、3D画像捕捉及び/或いは2D画像捕捉並びにこれらの評価から生じる公差を考慮していることを特徴とする請求項4乃至5のうち何れか一項に記載の方法。
  7. 前記3Dプレースホルダ(6)が、オブジェクトのクラス内における3D寸法の分布を考慮していることを特徴とする請求項4乃至6のうち何れか一項に記載の方法。
  8. 該3Dプレースホルダ(6)が、三次元画像から生成された三次元的につながったオブジェクト(1)と比較され、類似する一致性が認められる場合、該三次元的につながったオブジェクトは、分割されないことを特徴とする請求項4乃至7のうち何れか一項に記載の方法。
  9. 少なくとも一つの前記3Dプレースホルダ(6)を考慮したうえで、三次元画像から改めてオブジェクトが生成されるが、該3Dプレースホルダ(6)の境界を超えるオブジェクト生成が、困難にされていることを特徴とする請求項4乃至8のうち何れか一項に記載の方法。
  10. 三次元画像を捕捉できるように構成された3Dカメラ、
    三次元的につながったオブジェクトを該三次元画像から生成することができるように構成された第一オブジェクト生成ユニット、
    2D画像(5)を撮影することができるように構成されたカメラセンサー、
    三次元画像内の少なくとも一つの生成された三次元的につながったオブジェクト(1)に対応する、2D画像(5)の画像領域内の一または複数のオブジェクト(2,3)をクラス分類し、
    2D画像内の分類されたオブジェクト(2,3)に基づいて、クラス毎に異なる特徴のある3D寸法の割り当てを行い、
    三次元画像から生成された三次元的につながったオブジェクト(1)を、分類されたオブジェクト(2,3)のクラス毎に異なる特徴のある3D寸法を考慮した上で、複数の個々の三次元的なオブジェクト(2,3)に分割する
    ことができるように構成された2D画像・評価・クラス分類ユニット、
    を包含する、車両周辺部においてオブジェクトを認識するための装置。
JP2016539421A 2013-09-09 2014-09-04 奥行分解された画像データからのオブジェクトを認識するための方法ならびに装置 Active JP6571658B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102013217915.4A DE102013217915A1 (de) 2013-09-09 2013-09-09 Verfahren und Vorrichtung zur Objekterkennung aus tiefenaufgelösten Bilddaten
DE102013217915.4 2013-09-09
PCT/DE2014/200443 WO2015032399A1 (de) 2013-09-09 2014-09-04 Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten

Publications (3)

Publication Number Publication Date
JP2016530639A JP2016530639A (ja) 2016-09-29
JP2016530639A5 JP2016530639A5 (ja) 2017-09-28
JP6571658B2 true JP6571658B2 (ja) 2019-09-04

Family

ID=51627909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016539421A Active JP6571658B2 (ja) 2013-09-09 2014-09-04 奥行分解された画像データからのオブジェクトを認識するための方法ならびに装置

Country Status (5)

Country Link
US (1) US9870513B2 (ja)
EP (1) EP3044727B1 (ja)
JP (1) JP6571658B2 (ja)
DE (2) DE102013217915A1 (ja)
WO (1) WO2015032399A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015010514B4 (de) * 2015-08-13 2019-06-13 Audi Ag Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung und Recheneinrichtung
US10466714B2 (en) * 2016-09-01 2019-11-05 Ford Global Technologies, Llc Depth map estimation with stereo images
KR101907883B1 (ko) * 2017-05-10 2018-10-16 국방과학연구소 객체 검출 및 분류 방법
DE102018209388A1 (de) * 2018-06-13 2019-12-19 Robert Bosch Gmbh Erkennung fahrtrelevanter Situationen auf größere Entfernung
ES2882402T3 (es) 2018-07-09 2021-12-01 Argo Ai Gmbh Método para estimar una posición relativa de un objeto en el entorno de una unidad de vehículo y unidad de control electrónico para un vehículo y vehículo
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
US11789155B2 (en) 2019-12-23 2023-10-17 Zoox, Inc. Pedestrian object detection training
US11462041B2 (en) * 2019-12-23 2022-10-04 Zoox, Inc. Pedestrians with objects

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
DE19926559A1 (de) * 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
DE10336638A1 (de) 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
JP4116643B2 (ja) 2003-07-25 2008-07-09 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 車両周囲の少なくとも1つの物体を分類する装置
US7558762B2 (en) * 2004-08-14 2009-07-07 Hrl Laboratories, Llc Multi-view cognitive swarm for object recognition and 3D tracking
ATE422185T1 (de) 2006-08-24 2009-02-15 Harman Becker Automotive Sys Verfahren zum abbilden der umgebung eines fahrzeugs und system dafür
EP2026246A1 (en) * 2007-08-03 2009-02-18 Harman/Becker Automotive Systems GmbH Method and apparatus for evaluating an image
US8401225B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
JP5693994B2 (ja) * 2011-02-16 2015-04-01 富士重工業株式会社 車両検出装置
DE102011101246A1 (de) * 2011-05-11 2012-11-15 Conti Temic Microelectronic Gmbh Redudante objektdetektion für fahrerassistenzsysteme
JP5516998B2 (ja) * 2011-06-09 2014-06-11 アイシン精機株式会社 画像生成装置
DE102012113009A1 (de) * 2012-12-21 2014-06-26 Jenoptik Robot Gmbh Verfahren zum automatischen Klassifizieren von sich bewegenden Fahrzeugen
CN104217208B (zh) 2013-06-03 2018-01-16 株式会社理光 目标检测方法和装置

Also Published As

Publication number Publication date
DE102013217915A1 (de) 2015-03-12
JP2016530639A (ja) 2016-09-29
US20160371549A1 (en) 2016-12-22
DE112014002562A5 (de) 2016-03-03
EP3044727B1 (de) 2022-01-19
US9870513B2 (en) 2018-01-16
EP3044727A1 (de) 2016-07-20
WO2015032399A1 (de) 2015-03-12

Similar Documents

Publication Publication Date Title
JP6571658B2 (ja) 奥行分解された画像データからのオブジェクトを認識するための方法ならびに装置
CN106485233B (zh) 可行驶区域检测方法、装置和电子设备
CN109478324B (zh) 图像处理装置、外界识别装置
WO2012121107A1 (ja) 車戴カメラ及び車載カメラシステム
US20090060273A1 (en) System for evaluating an image
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
US10521678B2 (en) Vision system and method for a motor vehicle
CN105006175B (zh) 主动识别交通参与者的动作的方法和系统及相应的机动车
KR20200076989A (ko) 라이다를 이용한 어라운드 뷰 모니터링 장치 및 방법
JP6458577B2 (ja) 画像測距装置
KR20200002515A (ko) 영상을 이용한 사고 유무 판단 방법 및 장치
KR100571038B1 (ko) 스테레오 카메라를 이용한 탑승자 인식 시스템
CN117836818A (zh) 信息处理装置、信息处理系统、模型以及模型的生成方法
JP6969245B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
EP3540643A1 (en) Image processing apparatus and image processing method
WO2016050377A1 (en) Perspective transform of mono-vision image
KR20150092505A (ko) 차간 거리 경고 방법 및 전방 충돌 감지 장치
JP6763080B2 (ja) 自動車用ビジョンシステム及び方法
US20170015245A1 (en) Vehicle warning system and method of same
JP6943092B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
JP6077028B2 (ja) 物体認識装置
CN114175110A (zh) 信息处理设备、信息处理方法及信息处理程序

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190808

R150 Certificate of patent or registration of utility model

Ref document number: 6571658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250