JP7481810B2 - 車両の三次元画像再構成方法 - Google Patents

車両の三次元画像再構成方法 Download PDF

Info

Publication number
JP7481810B2
JP7481810B2 JP2019131614A JP2019131614A JP7481810B2 JP 7481810 B2 JP7481810 B2 JP 7481810B2 JP 2019131614 A JP2019131614 A JP 2019131614A JP 2019131614 A JP2019131614 A JP 2019131614A JP 7481810 B2 JP7481810 B2 JP 7481810B2
Authority
JP
Japan
Prior art keywords
rectangle
vehicle
area
determining
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019131614A
Other languages
English (en)
Other versions
JP2020013573A (ja
Inventor
ミシェール・カルク
オルガ・プロコフィエファ
クリスティアン・シャルフェンベルガー
ローベルト・ティール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Publication of JP2020013573A publication Critical patent/JP2020013573A/ja
Application granted granted Critical
Publication of JP7481810B2 publication Critical patent/JP7481810B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両の三次元画像再構成方法に関する。また、本発明は、その方法を実施するシステムおよび車両に関する。
自動運転や運転支援システムの領域における重要な一面は、道路交通場面を認識することである。この前提となるのが、車両内または車両上のカメラにより撮影される画像において車両を認識することである。
道路交通場面においてカメラデータに基づいて車両を認識する際に、一般には、いわゆるバウンディングボックス、つまりオブジェクトを取り囲む矩形の三次元検知が用いられる。さらに、画素を精確に、車両を検出する手法が存在する。しかし、道路場面を完全に認識するためには、三次元構成が必要である。
したがって、最近の手法は、オブジェクトのそのような3D構成を認識することに取り組んでいる。これには、LIDAR(光検出と測距)などの他のセンサに基づく手法、または1より大きい数のカメラの使用に基づく手法も含まれる。
画像データから三次元構成を評価する手法は、例えば、いわゆる「DeepManta」の手法により、例えば、画像上のタイヤ、窓ガラスなどといった、精確な3D構成をアノテーションするための、データの相当な追加のアノテーションコストが必要である。
バウンディングボックスを用いた簡単で迅速な手法は、1つのみの2Dバウンディングボックスや、車両が非傾斜面上にある、いわゆる「グラウンドプレーン推定」に基づくか、または相異なるサイドビューの複数のバウンディングボックスに基づくか、のどちらかである。
本発明の課題は、自動運転または運転支援システムの領域において、三次元オブジェクトを簡単かつ効率的に認識することを提供することにある。
課題は、独立請求項の主題により解決される。好ましい実施形態が従属請求項、下記の記載および図面の対象である。
本発明は、個別のカメラおよびそのカメラの個別の撮影/画像の使用に基づいて、車両の三次元構成を再構成することに関する。ステレオ手法またはLIDARセンサを用いるのとは対照的に、この手法はコスト効率がよい。
第1態様によると、車両の三次元画像再構成方法において、
-カメラを用いて、少なくとも1つの車両の画像を撮影するステップと、
-第1矩形を得るために、画像上の車両全体の第1矩形エッジを認識するステップと、
-第2矩形を得るために、画像上の、車両のサイド、例えば、カメラの視野からみて車両の前方サイドもしくは後方サイドまたは側方領域、の第2矩形エッジを認識するステップと、
-第1矩形と第2矩形が、同一車両に関するエッジであるかどうかを決定するステップと、
-第1矩形と第2矩形が、同一車両に関するエッジである場合、両方の矩形から車両のサイド方向を割り当てることができるどうかを決定するステップと、
-サイド方向を割り当てることができる場合、サイド方向を決定するステップと、
-第1矩形、第2矩形およびサイド方向から車両の三次元再構成を実施するステップと、を備える方法が提供される。
したがって、本方法は、好ましくは、1つのみのカメラを用いて撮影された画像であって評価される画像に基づく。例えば車両などのオブジェクトの例えば可視サイドが検出され、この領域のまわりの矩形が構成される。例えば、可視サイドとは、例えばホイールやウインドスクリーンを含む対向車の前面全体、またはカメラが前方に向けられている場合は先行車の後面全体である。さらなる矩形は、車両全体のまわりに設定される。これには、それぞれ画像上の可視前方サイドまたは可視後方サイド、および可視側方領域が含まれる。
しかし、不可視サイドの矩形を例えば可視エッジから形成してもよい。
第2矩形を得る(202)ために、車両のサイドの第2矩形エッジを認識することは、画像上のa)カメラの視野からみて車両の前方サイド、b)カメラの視野からみて車両の後方サイド、c)カメラの視野からみて車両(600)の右方サイドもしくは側方領域または/およびd)カメラ(600)の視野からみて車両(600)の左方サイドもしくは側方領域、に関してよい。
したがって、他の、またはさらなる、つまり2より大きい数の、例えば車両のサイドを縁取る矩形、または、例えば車両の後方可視垂直方向エッジから検出される、車両後方サイドを縁取る矩形などの矩形が検出されてもよい。
画像においては複数の車両が表示される場合があり、車両は互いに重複する場合もあるため、矩形はまず互いに割り当てられることになり、その結果、例えば前方サイドまたは後方サイド用の矩形が同一車両全体の矩形に割り当てられる。
ここでは、車両は、例えば二輪車、トラック、路面電車、乗用車、トレーラーハウスなどである。
1つの実施形態によると、第1矩形と第2矩形が、同一車両に関するエッジであるかどうかを決定するステップは、第1矩形および第2矩形の共通領域の、第2矩形の領域に対する比率を示す第1値であって、第1値が第1閾値を超える場合、第1矩形と第2矩形が同一車両に関するエッジとして決定される、第1値を算出することを含む。
このようにして、比率は、両方の割り当てられた矩形の領域の共通集合の面積と、車両の前方サイドまたは後方サイドの矩形の領域のから算出される。この比率は、割り当ての指標として用いられる。この値が高ければ高いほど、両方の矩形が同一車両に関するものである確率が高くなる。この値が所定の閾値を超えると、矩形が互いに割り当てられ、本方法の次のステップが実施される。
矩形割り当て用閾値が超過された場合に実施される、この次のステップにおいて、互いに割り当てられた矩形が、車両のどのサイドが画像に表示されているのか一義的に決定可能なように、互いに位置しているかどうかが検査される。この場合において、サイドとは、例えばカメラの視野からみて車両の左方サイドまたは右方サイドと理解される。これらは、サイド領域がパースペクティブ、つまり例えば車両の略正面パースペクティブに関して小さすぎる場合には、例えばエラーや精確でないことを理由に矩形決定のための画像評価には可能ではない。
1つの実施形態によると、両方の矩形から車両のサイドを決定可能なステップは、第1矩形および第2矩形の共通領域の、第1矩形および第2矩形の合計に対する比率を示す第2値であって、第2値が第2閾値を下回る場合にサイド方向が決定可能とみなされる、第2値を算出することを含む。
このように、両方の矩形の領域の共通集合の面積の、全体領域に対する比率が算出され、そして例えば可視サイド領域の大きさの相対的指標を示す。言い換えると、車両が幅よりも長さが大きい場合、画像において車両がより側方に表示されるほど、前方矩形そしてそれとともに共通集合の面積が小さくなる一方、全体車両の矩形は大きくなる。この比率が最終的に閾値を下回ると、サイドを確実に決定できると考えられる。画像において車両のどのサイドが見られるのか、つまりサイド方向は、両方の矩形の位置に基づいて互いに決定することができる。
サイド方向が決定可能であることが認められ、そしてこれが決定されるとすぐに、車両の三次元再構成を実施することができる。
1つの実施形態によると、車両の三次元再構成を実施するステップは、カメラの視野からみて後方領域または前方領域を、前方領域または後方領域を投影することにより決定することであって、投影の調整はサイド方向を考慮して行われる、決定を含み、前方領域または後方領域の角を後方領域または前方領域の角と結合することによりサイド領域を決定することを含む。
例えば、画像上の車両は、カメラの視野からみて前方矩形を不可視で構成すべき後方矩形に投影することにより考慮に入れることができる、パースペクティブにおける消失を有する。後にさらに詳細に説明されるように、消失は特に画像上のオブジェクトの大きさおよびカメラの焦点距離の大きさにより決定される。後方の、この例では不可視の矩形が構成されるとすぐに、側方領域および上方領域ならびに下方領域を、前方矩形および後方矩形の対応する角を結合することにより構成することができる。
1つの実施形態によると、後方領域または前方領域を決定することは、前方矩形または後方矩形の下方角の隣接する直線の前方矩形または後方矩形の下方エッジと、後方矩形または前方矩形の対応する角との間の角度を決定することを含む。
角度は、例えば三角法により、車両長さまたは車両幅、および矩形の大きさに関する情報または推定に基づいて決定できる。車両大きさに関する情報は、例えば、このカメラデータまたは他のカメラデータに基づく車両タイプ検出、または、例えば車両間接続により得ることができる。これにより、例えば車両の後方領域と車両の前方領域との長さ方向の距離差などのさらなる大きさが算出される。
1つの実施形態によると、後方領域または前方領域を決定することは、後方矩形または前方矩形の高さを算出することであって、高さは、一方では、カメラの焦点距離の、第1矩形または第2矩形の側方矩形エッジの長さに対する、他方では、カメラの車両との距離と車両の評価された実際の前方高さまたは評価された実際の後方高さとの、同じ比率に基づいて算出される、算出することを含む。これにより、最終的に、後方矩形のすべての角が決定され、対応する角点が互いに結合され、3D再構成が完成する。
2より大きい数の矩形が用いられる場合、対応する指標を用いることができる。例えば、ペアで、後方領域の矩形と全体領域または前方領域と全体領域をそれぞれ車両に割り当てることができ、ペアを共通の全体領域または矩形を用いて求めることができる。同様に、方向をペアで評価することができる。2より大きい数の矩形の場合、このように、一方で、プロージビリティチェックが可能であり、他方で、例えば平均化によりエラーを減少させることができる。
第2態様によると、車両の三次元画像再構成システムにおいて、少なくとも1つの車両に関する画像を撮影するカメラと、上記方法を実施する演算ユニットと、を備えるシステムが提供される。
第3態様によると、上記システムを備える車両が提供される。
以下、本発明の実施形態例を、概略図に基づいてさらに詳細に説明する。
図1は、1つの実施形態による、矩形の生成および3D再構成に関する図である。 図2は、1つの実施形態による、2つの矩形を互いに割り当てる指標を示す図である。 図3は、1つの実施形態による、サイド方向が決定可能かどうかを決定する指標を示す図である。 図4は、1つの実施形態による方法を示す図である。 図5は、1つの実施形態によるシステムを示す図である。 図6は、1つの実施形態による車両を示す図である。 図7は、1つの実施形態による、矩形の幾何学的構成の正面図である。 図8は、1つの実施形態による、矩形の幾何学的構成の平面図である。 図9は、1つの実施形態による、車両の実高さと画像上に表示される車両の実際の高さとの関係を示す図である。
以下、前方サイド、後方サイドまたは車両全体を取り囲む矩形を、専門用語で用いられる「バウンディングボックス」の概念を用いて示す。
車両全体を含むバウンディングボックスと車両の後方および前方を含む第2バウンディングボックスとに基づく車両の3D構成の再構成が従来の手法を越えるものであるのは、
-アノテーションコストが必要最小限であり、
-3Dビュー再構成用の2つのボックスの数が最小限であり、
-画像内に属するバウンディングボックスを結合するために、いわゆる「IoA」指標および「IoU」指標が導入され、
-車両方向の評価が3D再構成に基づいて可能になるからである。
この方法は、サイドボックスの検出により拡張可能である:
サイドボックスの検出は、例えば、サイドビューが前方/後方よりも画像内において可視良好である場合、演算代替として前方/後方の代わりに用いることができ、または演算精度を向上させるための追加評価として用いることができる。
この方法は、例えば畳み込みニューラルネットワーク(Convolutional Neural Networks、CNN)を検出器として用いるか、またはHOG(Histogram of Oriented Gradients)などの、特徴に基づく一般的な検出器を用いて実施できる。これにより、3Dと方向評価を高い演算効率で実施することが可能になる。
オブジェクト検出器の大多数は画像上のオブジェクトの2D構成のみを評価する。これは2Dバウンディングボックスを介するか、または画素を精確に、オブジェクトをアノテーションするかのいずれかにより表示される。このことからは3D方向は導出されない。車両モデル、タイヤ、ドアなどの詳細な3D構成に基づく冒頭の方法は、深層学習を用いて3Dボックスを評価するアルゴリズムを訓練するために、相当なアノテーションコストを必要とする。さらに、この方法は多くの場合に演算コストがかかる。提案される発明は、必要とするアノテーションコストが僅少であり、演算効率が高い。
本発明は、任意のオブジェクト検出器と接続することができる。本発明は、例えばCNNのプロトタイプに関してテストされているが、HOGに基づく検出器などの他のオブジェクト検出器用に用いてもよい。このように、本発明は様々なオブジェクト検出器で使用可能であり、例えば、他の方法におけるように定義されたCNNアーキテクチャに限定されない。
車両の3Dバウンディングボックス評価および方向評価は、個別の画像として、道路交通におけるカメラの画像に基づく。
以下、本発明を例示により説明するが、カメラの視野からみて車両の前方サイドと可視サイドは第1矩形を用いて縁取られ、カメラの視野からみて前方サイドが第2矩形を用いて縁取る。他のまたはさらなるサイドの検出および処理は同様にして実施される。
図1は、2D検出に基づく3Dボックスの再構成の全体概要を示す。本手法は以下のように説明される:
最初のステップ101において、画像101内の全体ボックスと前方ボックスまたは後方ボックス(後方_/前方_ボックス)を検出する2つの検出器がトレーニングされる。このために、車両により占められる画像102内の領域全体をバウンディングボックスを用いて縁取り(全体_ボックス106)、そしてまた車両の前方または/および後方の可視領域をバウンディングボックスを用いて縁取る(画像103内の後方_前方_ボックス107)、トレーニングデータのアノテーションが必要とされる。
署名付き方向評価には、前方ボックスと後方ボックスを識別することが必要である。ここで、方向とは車両からみてサイドの種類(前、後、左または右)を示す。3D表示にはこの情報はなくてよい。
本方法は、それぞれ任意の検出器、例えばResNet50、つまり50レイヤの残差ネットワーク検出器、またはバウンディングボックスを画像データにおいて予測して、そしてまたそのための属性を出力できる、いわゆる「領域ベースの完全畳み込みネットワーク」(RFCN)オブジェクト検出器を用いることができる。
検出器はバウンディングボックス602、603のxy軸(つまり高さおよび幅)を互いに独立して供給することから、まず、どのボックスが車両に適合するか演算することが必要である。ここでは、前方-/後方-ボックス103が全体ボックス102に割り当てられる。ここで、図2に示されるように、「IoA」指標が算出される:
IoA=(領域_前方_後方_ボックス202かつ領域_全体_ボックス203)201/領域_後方_前方_ボックス204。
この指標が閾値(例えば0.7)よりも大きい場合、2つのボックスは互いに関連付けられる。このステップが必要とされるのは、画像内で全体ボックスと後方/前方ボックスの複数の検出が生じる場合があるからである。関連付けがないボックスでは3D再構成は行われない。ボックスの方向は、側方サイド、前方サイド、または後方サイドのいずれかである。
2つのボックスの関連付けの後、3Dボックスの再構成が適切であるかどうか決定される。ここで、図3に示されるように、「IoU」(Intersection over Union)指標が算出される:
IoU=(領域_後方_前方_ボックス302かつ領域_全体_ボックス303)301/(領域_後方_前方_ボックス302または領域_全体_ボックス303)304。
この指標が定義された閾値、例えば0.7よりも小さい場合、3Dボックスが再構成される。そうでなければ、3D再構成はエラーが生じやすくなるが、それはボックス検出に僅少の測定エラーが含まれる可能性があり、このことが誤った車両サイドの再構成に至る可能性があるからである。
後方_前方_ボックス検出器そして全体_ボックス検出器はバウンディングボックス用にエラーを含んだ測定結果を供給する可能性があるため、まず、前方/後方ビューの訂正が演算される。訂正された前方/後方ビューは以下の領域である:
(領域_後方_前方_ボックス302および領域_全体_ボックス303)304
続いて、3Dビューが再構成される。その際、評価されたサイドビューは前方/後方ビューに接続し、これと前方/後方ビューが全体_ボックスの全体を占めるまで拡大される。グラウンドプレーン推定により、つまり車両が非傾斜面上にあるとして、z方向(つまりボックスの領域に対して垂直方向)の下方後方エッジの、前方後方エッジに関する変位を算出できるか、またはこの変位をアプリオリに決定することができる。
図1では、再構成に必要な異なるボックスが示されている:
-画像103内の前方-後方-ボックス-検出器107
-画像102内の全体-ボックス-検出器106
-領域_後方_前方_ボックスかつ領域_全体_ボックス201、301
-画像104内の再構成3Dボックス108
105において、得られた再構成の、最終的に得られた時系列シーケンス、例えばビデオシーケンスが示されている。
図4は、車両の三次元画像再構成方法の個々のステップを示す。まず、401において、カメラを用いて少なくとも1つの車両の画像が撮影される。その後、402において、画像上の車両全体の第1矩形エッジが算出され、第1矩形が生じる。したがって、403において、画像上のカメラの視野からみて車両の前方領域の第2矩形エッジが算出され、第2矩形が生じる。その後、404において、第1矩形と第2矩形が、同一車両に関するエッジであるかどうかが決定される。そうである場合、405において、両方の矩形から車両のサイド方向を割り当てることができるどうかが決定される。できる場合、406において、サイド方向が決定され、最後に407において、第1矩形、第2矩形およびサイド方向から車両の三次元再構成が実施される。
図5は、車両の三次元画像再構成システム500において、少なくとも1つの車両に関する画像を撮影するカメラ501と、本方法を実施する演算ユニット502と、を備えるシステム500を示す。
図6は、上記システム500を備える車両600を示す。
3D再構成に基づいて、大まかな方向評価が導出され、例えば、前方が可視の場合、0.3<IoU<0.4は45°の方向に対応する。
カメラキャリブレーションが提供され、車両モデル(高さ、幅、長さ)を得ることができるか推定できる場合、グラウンドプレーン推定および平行線と線分比の定理に基づいて方向角度を評価できる。
図7~9において、どのようにして方法を評価できるか、およびどのようにしてカメラの視野からみて後方ボックスまたは後方矩形を算出できるか、という例示の手法が示されている。
図7は、前方矩形701およびz=0のときのxy平面における全体矩形702の幾何学的構成の正面図を示しており、つまり平面は前方矩形の平面内に位置している。図7~9において、小文字の変数は画像域における変数を表す。単位は例えば画素である。大文字の変数は実際の周囲の変数を表す。単位は例えばメートルである。
前方矩形701はz=0のとき、高さhr(0)と幅wr(0)を有する。全体矩形702は幅wtotを有する。
図8は、角度βだけ回転し、同じく矩形として表された車両を上からみたところを示した矩形701、702の幾何学的構成の平面図である。大きさは、実際の周囲の大きさのみ図7に対応している:
car…車両幅[m]
…車両の前方サイドの可視幅[m]
tot…車両の可視幅および長さ[m]
car…車両長さ[m]
car…車両高さ[m]
…前方矩形と後方矩形の距離
…回転に基づく変位を含む、前方矩形と後方矩形の距離
(0)、H(L1)、H(L2)はz=0、z=L、z=Lのときの車両高さを表す。
car=2m
car=5m
car=1.8m
car=H(0)=H(L1)=H(L2)
メートルと画素の関係は、例えば高さhr(0)のH(0)との比率により算出することができる。
ここで、方向角度βは、
sin(β)=Wr/car→βまたは
tot-W=Lcar cos(β)
の関係から決定することができる。これにより、LおよびLが次により算出される
=Lcar sin(β)
=L+Wcar cos(β)
図9は、どのようにして平行線と線分比の定理および既知の値hr(0)、L、L、H(0)、H(L1)、H(L2)およびカメラの焦点距離lfocを用いて、距離Dとhr(l1)、hr(l2)およびw(l1)、w(l2)を算出するかを示す:
D/H(0)=lfoc/hr(0)からDが決定する。
r(l1)はD+L/H(L1)=lfoc/hr(l1)から得られる。
r(l2)はD+L/H(L2)=lfoc/hr(l2)から得られる。
最後に、w(l1)およびw(l2)は、hr(0)/hr(l1)またはhr(0)/hr(l2)の比率から得られる。
当業者に知られている、いわゆる期待値最大化アルゴリズムにより、この評価を改善できる。このアルゴリズムにおいて、反復してまず、最初の評価値を有する答えが算出され、そして答えは、再び精確な評価値としてさらなるサイクルの新たな初期設定に入る。これは、したがって、ランタイムにおいてさらに演算集約的である。
なお、本発明は、以下の態様も包含し得る:
1.車両(600)の三次元画像再構成方法において、
-カメラ(501)を用いて、少なくとも1つの車両の画像を撮影するステップ(401)と、
-第1矩形を得る(203)ために、前記画像上の前記車両全体の第1矩形エッジを認識するステップ(402)と、
-第2矩形を得る(202)ために、前記画像上の、車両(600)のサイドの第2矩形エッジを認識するステップ(403)と、
-前記第1矩形と前記第2矩形が、前記同一車両に関するエッジであるかどうかを決定するステップ(404)と、
-前記第1矩形と前記第2矩形が、前記同一車両に関するエッジである場合、両方の前記矩形から前記車両(600)のサイド方向を割り当てることができるかどうかを決定するステップ(405)と、
-サイド方向を割り当てることができる場合、前記サイド方向を決定するステップ(406)と、
-前記第1矩形、前記第2矩形および前記サイド方向から前記車両の三次元再構成を実施するステップ(407)と、を備える方法。
2.前記第1矩形(203)と前記第2矩形(202)が、前記同一車両(600)に関するエッジであるかどうかを決定することは、前記第1矩形(203)および前記第2矩形(202)の共通領域(201)の、前記第2矩形の領域(204)に対する比率を示す第1値であって、前記第1値が第1閾値を超える場合、前記第1矩形と前記第2矩形が前記同一車両に関するエッジとして決定される、第1値を算出することを含む、上記1.に記載の方法。
3.両方の前記矩形(202、203)から前記車両のサイドを割り当てることができるかどうかを決定することは、前記第1矩形および前記第2矩形の共通領域(301)の、前記第1矩形(302)および前記第2矩形(302)の合計(304)に対する比率を示す第2値であって、前記第2値が第2閾値を下回る場合にサイド方向が決定可能とみなされる、第2値を算出することを含む、上記1.または2.に記載の方法。
4.前記車両(600)の三次元再構成を実施することは、前記カメラ(501)の視野からみて後方領域または前方領域を、前記前方領域または前記後方領域を投影することにより決定することであって、前記投影の調整は前記サイド方向を考慮して行われる、決定を含み、前記前方領域または前記後方領域の角を前記後方領域または前記前方領域の角と結合することによりサイド領域を決定することを含む、上記1.~3.のいずれか1つに記載の方法。
5.前記後方領域または前記前方領域を決定することは、前記前方矩形または前記後方矩形の下方角の隣接する直線の前記前方矩形または前記後方矩形の下方エッジと、前記後方矩形または前記前方矩形の対応する角との間の角度を決定することを含む、上記1.~4.のいずれか1つに記載の方法。
6.前記後方領域または前記前方領域を決定することは、前記後方矩形または前記前方矩形の高さを算出することであって、前記高さは、一方では、前記カメラ(501)の焦点距離の、前記第1矩形または前記第2矩形の側方矩形エッジの長さに対する比率と、他方では、前記カメラ(501)の前記車両(600)との距離と前記車両(600)の評価された実際の前方高さまたは評価された実際の後方高さとの比率が、同じであることに基づいて算出される、算出することを含む、上記1.~5.のいずれか1つに記載の方法。
7.車両(600)の三次元画像再構成システム(500)において、
-少なくとも1つの車両に関する画像を撮影するカメラ(501)と、
-上記1.~6.のいずれか1つに記載の方法を実施する演算ユニット(502)と、を備えるシステム(500)。
8.上記7.に記載のシステム(500)を備える車両(600)。

Claims (7)

  1. 車両(600)の三次元画像再構成方法において、
    -カメラ(501)を用いて、少なくとも1つの車両の画像を撮影するステップ(401)と、
    -第1矩形を得る(203)ために、前記画像上の前記車両全体の第1矩形エッジを認識するステップ(402)と、
    -第2矩形を得る(202)ために、前記画像上の、車両(600)のサイドの第2矩形エッジを認識するステップ(403)と、
    -前記第1矩形と前記第2矩形が、前記車両に関するエッジであるかどうかを決定するステップ(404)と、
    -前記第1矩形と前記第2矩形が、前記車両に関するエッジである場合、両方の前記矩形から前記車両(600)のサイド方向を割り当てることができるかどうかを決定するステップ(405)と、
    -サイド方向を割り当てることができる場合、前記サイド方向を決定するステップ(406)と、
    前記カメラ(501)の視野からみて後方領域または前方領域を、前記前方領域または前記後方領域を投影することにより決定し、前記投影の調整は前記サイド方向を考慮して行われ、前記前方領域または前記後方領域の角を前記後方領域または前記前方領域の角と結合することによりサイド領域を決定することで前記車両の三次元再構成を実施するステップ(407)と、を備える方法。
  2. 前記第1矩形(203)と前記第2矩形(202)が、前記車両(600)に関するエッジであるかどうかを決定することは、前記第1矩形(203)および前記第2矩形(202)の共通領域(201)の、前記第2矩形の領域(204)に対する比率を示す第1値であって、前記第1値が第1閾値を超える場合、前記第1矩形と前記第2矩形が前記車両に関するエッジとして決定される、第1値を算出することを含む、請求項1に記載の方法。
  3. 両方の前記矩形(202、203)から前記車両のサイドを割り当てることができるかどうかを決定することは、前記第1矩形および前記第2矩形の共通領域(301)の、前記第1矩形(302)および前記第2矩形(302)の合計(304)に対する比率を示す第2値であって、前記第2値が第2閾値を下回る場合にサイド方向が決定可能とみなされる、第2値を算出することを含む、請求項1または2に記載の方法。
  4. 前記後方領域または前記前方領域を決定することは、前記前方領域または前記後方領域の下方角の隣接する直線の前記前方領域または前記後方領域の下方エッジと、前記後方領域または前記前方領域の対応する角との間の角度を決定することを含む、請求項1~3のいずれか1項に記載の方法。
  5. 前記後方領域または前記前方領域を決定することは、前記後方領域または前記前方領域の高さを算出することを含み、前記高さは、一方では、前記カメラ(501)の焦点距離の、前記第1矩形または前記第2矩形の側方矩形エッジの長さに対する比率と、他方では、前記カメラ(501)の前記車両(600)との距離と前記車両(600)の評価された実際の前方高さまたは評価された実際の後方高さとの比率が、同じであることに基づいて算出される、請求項1~4のいずれか1項に記載の方法。
  6. 車両(600)の三次元画像再構成システム(500)において、
    -少なくとも1つの車両に関する画像を撮影するカメラ(501)と、
    -請求項1~のいずれか1項に記載の方法を実施する演算ユニット(502)と、を備えるシステム(500)。
  7. 請求項に記載のシステム(500)を備える車両(600)。
JP2019131614A 2018-07-19 2019-07-17 車両の三次元画像再構成方法 Active JP7481810B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018212049.8A DE102018212049A1 (de) 2018-07-19 2018-07-19 Verfahren zur dreidimensionalen bildlichen Rekonstruktion eines Fahrzeugs
DE102018212049.8 2018-07-19

Publications (2)

Publication Number Publication Date
JP2020013573A JP2020013573A (ja) 2020-01-23
JP7481810B2 true JP7481810B2 (ja) 2024-05-13

Family

ID=69148326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019131614A Active JP7481810B2 (ja) 2018-07-19 2019-07-17 車両の三次元画像再構成方法

Country Status (3)

Country Link
US (1) US11132530B2 (ja)
JP (1) JP7481810B2 (ja)
DE (1) DE102018212049A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11361500B2 (en) * 2018-12-21 2022-06-14 The Regents Of The University Of Michigan Reconstructing 3D video using particle filtering to aggregate crowd responses
DE112021001882T5 (de) * 2020-03-26 2023-01-12 Sony Semiconductor Solutions Corporation Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und programm
KR102409715B1 (ko) * 2020-05-27 2022-06-15 한양대학교 산학협력단 도면 데이터 생성 방법 및 도면 데이터를 이용하는 디자인 협업 지원 장치
KR102419428B1 (ko) * 2020-06-29 2022-07-12 주식회사 직트럭 중고화물차 매매를 위한 영상 기반의 차량정보 입력 장치 및 방법
JP7549509B2 (ja) 2020-10-21 2024-09-11 株式会社Subaru 対象物推定装置、その対象物推定方法、および、車両
CN112819953B (zh) * 2021-02-24 2024-01-19 北京创想智控科技有限公司 三维重建方法、网络模型训练方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140152827A1 (en) 2011-07-26 2014-06-05 Aisin Seik Kabushiki Kaisha Vehicle periphery monitoring system
CN107067755A (zh) 2017-04-28 2017-08-18 深圳市唯特视科技有限公司 一种基于计算机视觉自动校准交通监控相机的方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7409092B2 (en) * 2002-06-20 2008-08-05 Hrl Laboratories, Llc Method and apparatus for the surveillance of objects in images
US9953437B1 (en) * 2017-10-18 2018-04-24 StradVision, Inc. Method and device for constructing a table including information on a pooling type and testing method and testing device using the same
US10990855B2 (en) * 2019-06-13 2021-04-27 Baidu Usa Llc Detecting adversarial samples by a vision based perception system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140152827A1 (en) 2011-07-26 2014-06-05 Aisin Seik Kabushiki Kaisha Vehicle periphery monitoring system
CN107067755A (zh) 2017-04-28 2017-08-18 深圳市唯特视科技有限公司 一种基于计算机视觉自动校准交通监控相机的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
H.Schneiderman et al,A Statistical Method for 3D Object Detection Applied to Faces and Cars,Proceedings IEEE Conference on Computer Vision and Pattern Recognition. CVPR 2000(Cat. No.PR00662),米国,IEEE,2020年06月15日,DOI: 10.1109/CVPR.2000.855895

Also Published As

Publication number Publication date
US20200026905A1 (en) 2020-01-23
US11132530B2 (en) 2021-09-28
DE102018212049A1 (de) 2020-01-23
JP2020013573A (ja) 2020-01-23

Similar Documents

Publication Publication Date Title
JP7481810B2 (ja) 車両の三次元画像再構成方法
US10859684B1 (en) Method and system for camera-lidar calibration
EP1394761B1 (en) Obstacle detection device and method therefor
US10354151B2 (en) Method of detecting obstacle around vehicle
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
KR102267562B1 (ko) 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법
EP2757524B1 (en) Depth sensing method and system for autonomous vehicles
JP4341564B2 (ja) 対象物判定装置
CN110555407B (zh) 路面车辆空间识别方法及电子设备
EP3678096A1 (en) Method for calculating a tow hitch position
JP7273956B2 (ja) 車両の周囲でのオブジェクトに関する情報を算出する方法及び処理ユニット
JP2006053756A (ja) 物体検出装置
CN107491065B (zh) 利用障碍物的地面边界信息检测物体的侧面的方法和装置
KR20210090384A (ko) 카메라 및 라이다 센서를 이용한 3d 객체 검출방법 및 장치
US10984263B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
US20240029448A1 (en) Parking space detection method, apparatus, device and storage medium
JPWO2018179281A1 (ja) 物体検出装置及び車両
WO2019065970A1 (ja) 車両用外界認識装置
JP5501084B2 (ja) 平面領域検出装置及びステレオカメラシステム
Kellner et al. Multi-cue, model-based detection and mapping of road curb features using stereo vision
US11904843B2 (en) Autonomous parking systems and methods for vehicles
JP7344744B2 (ja) 路側端検出方法、及び、路側端検出装置
US11815626B2 (en) Method for detecting intensity peaks of a specularly reflected light beam
WO2006123438A1 (ja) ステレオ画像を用いた道路平面領域並びに障害物検出方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240426

R150 Certificate of patent or registration of utility model

Ref document number: 7481810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150