JP6726006B2 - 単眼ビデオカメラを使用した、車両からの目標点の距離および方向の算定 - Google Patents

単眼ビデオカメラを使用した、車両からの目標点の距離および方向の算定 Download PDF

Info

Publication number
JP6726006B2
JP6726006B2 JP2016057847A JP2016057847A JP6726006B2 JP 6726006 B2 JP6726006 B2 JP 6726006B2 JP 2016057847 A JP2016057847 A JP 2016057847A JP 2016057847 A JP2016057847 A JP 2016057847A JP 6726006 B2 JP6726006 B2 JP 6726006B2
Authority
JP
Japan
Prior art keywords
target point
video camera
grid
screen
coordinate grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016057847A
Other languages
English (en)
Other versions
JP2016195390A (ja
Inventor
マーク,ゲールケ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2016195390A publication Critical patent/JP2016195390A/ja
Application granted granted Critical
Publication of JP6726006B2 publication Critical patent/JP6726006B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、単眼ビデオカメラを使用して、車両からの物体の距離を算定する方法および装置に関する。
ビデオカメラは、それらの低コストと無理のない処理要求により車用途に益々使用されている。単眼ビデオカメラは、優れた角度分解能を提供するが、距離分解能はほとんど提供しない。
故に、車両からの物体の目標点が望まれる用途において、距離を求めることが課題である。
1つの実施形態において、本発明は車両に配設されたビデオカメラと、ビデオカメラの視野内の物体の注視点としての目標点との間の距離および方向を求める方法を提供し、方法は、世界座標グリッドを表す点のグリッドをスクリーン座標グリッド上にマッピングし、マッピングされたグリッドを電子制御ユニット内に格納することによって事前初期化することと、ビデオカメラで画像を生成して、プロセッサとメモリを含む電子制御ユニットにビデオ画像を提供することと、スクリーン座標グリッドを使用してビデオ画像をディスプレイ上に表示することと、ビデオ画像内の物体の注視点としての目標点を取得することと、目標点を包囲するスクリーン座標グリッドの4つのグリッド点の位置を求めることと、目標点から、目標点を包囲する4つのグリッド点それぞれまでのスクリーン距離を求めて格納することと、目標点を包囲しているスクリーン座標グリッドからの4つのグリッド点を世界座標グリッドにマッピングすることと、スクリーン距離によって重み付けされた世界座標グリッド内の目標点の位置を求めるために補間を適用することと、世界座標内のビデオカメラの既知の位置と、世界座標内の目標点の求められた位置を使用して、ビデオカメラの位置と物体の目標点の間の距離を求めることを含む。
1つの実施形態において、目標点の位置を求めるために補間を適用することは、目標点を包囲する世界座標内の4つのグリッド点それぞれを、スクリーン座標グリッド内の4つのグリッド点それぞれに関して求められたスクリーン距離の逆二乗によって重み付けし、逆二乗されたスクリーン距離の和によって正規化することで、世界座標内の目標点の位置を求めることによるバイリニア補間を適用することを含む。
1つの実施形態において、ビデオカメラは単眼パノラマビデオカメラを備えている。別の実施形態において、付帯的ビデオカメラ較正パラメータはビデオカメラのレンズのレンズ特性を含む。
別の実施形態において、世界座標グリッドを表す点のグリッドをスクリーン座標グリッド上にマッピングして格納することによる事前初期化は、付帯的ビデオカメラ較正パラメータを電子制御ユニットに提供することと、世界座標の世界座標グリッドに既知の物理的寸法を提供することと、較正パラメータを考慮して世界座標グリッドをスクリーン座標グリッドに変換することと、スクリーン座標のスクリーン座標グリッドを提供することを含む。
一つの実施形態は、衝突を回避するために、車両に配設されたビデオカメラから物体の目標点までの距離の変化を求めることを含む。
一つの実施形態において、ディスプレイはタッチスクリーンを備え、目標点を、ビデオ画像に示された物体の注視点として取得することは、そこに表示されたビデオ画像内の物体の目標点においてタッチスクリーンをタッチすることを含む。
別の実施形態において、目標点を、ビデオ画像内に示された物体の注視点として取得することは、さらに、ビデオ画像に示された物体を、タッチスクリーンのタッチされた目標点において拡大してセンタリングすることと、拡大されたビデオ画像を、タッチスクリーンを目標点で再度タッチすることにより、拡大されたビデオ画像内の物体の厳密な目標点を選択することと、タッチスクリーンが再度タッチされたことに応答して、厳密な目標点を規定することを含む。
別の実施形態において、本発明は、車両に配設されたビデオカメラと、ビデオカメラの視野内の物体の注視点としての目標点との間の距離および方向を求めるシステムを提供し、システムは、ビデオ画像を生成するための車両に固定されたビデオカメラと、プロセッサおよびメモリを含む電子制御ユニットとを備えている。電子制御ユニットは、世界座標グリッドを表す点のグリッドをスクリーン座標グリッド上にマッピングし、マッピングされたグリッドをメモリ内に格納することによって事前初期化し、ビデオカメラからビデオ画像を受け取り、スクリーン座標グリッドを使用してビデオ画像をディスプレイ上に表示し、ディスプレイ上のビデオ画像に表示された物体の注視点としての目標点を取得し、目標点を包囲するスクリーン座標グリッドの4つのグリッド点の位置を求め、目標点から、4つのグリッド点それぞれまでのスクリーン距離を求めて格納し、目標点を包囲しているスクリーン座標グリッドからの4つのグリッド点を世界座標グリッドにマッピングし、スクリーン距離によって重み付けされた世界座標グリッド内の目標点の位置を求めるために補間を適用し、世界座標内のビデオカメラの既知の位置と、世界座標内の目標点の位置を使用して、ビデオカメラの位置から物体の目標点までの距離および方向を求めるように構成されている。
本発明の他の態様は、詳細な説明と添付の図面を考慮することにより明白となる。
単眼ビデオカメラが配設された車両を示す図である。 システムの事前初期化ステップを示すフローチャートである。 世界座標のグラフである。 スクリーン座標のグラフである。 システムのオペレーションを示すフローチャートである。 注視点としての目標物を備えたスクリーン座標のグラフである。 スクリーン座標上の目標点を示す図6からの拡大グラフ部分である。 図5のグリッド点に対応する世界座標と、世界座標内の目標点を示す拡大グラフ部分である。
本発明の如何なる実施形態をも詳細に説明する前に、本発明は、その適用において、以下の説明に規定される、または以下の図面に示される構成要素の構造および議論の詳細に限定されないということを理解されたい。本発明は別の実施形態が可能であり、また、様々な方式で実施または実行されることが可能である。
図1は、車両からの物体の距離を推定するシステム20を備えた車両18を示す。システム20は、プロセッサ24と、揮発性メモリおよび不揮発性メモリ26のうち少なくとも1つを備えた電子制御ユニット(ECU)22を含む。図1において、システム20は車両18の後部に固定された単眼ビデオカメラ30を含む。ビデオカメラ30は、ビデオカメラの視野内の物体の注視点としての目標点を取得するために配設されている。いくつかの実施形態において、ビデオカメラ30は単眼パノラマビデオカメラである。
ECU22は、ビデオカメラ30から入力を受け取り、通信関係にあるディスプレイ32に出力を提供するように構成されている。いくつかの実施形態において、ディスプレイ32は、入力を受け取るためのタッチスクリーンディスプレイである。入力を受け取るための他のインターフェースも想定されうる。ECU22は、車両運転者に音声警告を提供するために車両内のスピーカー34と通信する。ビデオカメラ30と物体の間の判定された距離は、駐車支援、衝突回避およびその他の目的のうち1以上のために利用される。
較正
システム20を作動させる前に、ビデオカメラ30の、ECU22およびディスプレイ32との較正が、システム20を事前初期化することによって実行される。図2のフローチャート40は、ステップ42で、プロセッサ24が付帯的ビデオカメラ較正パラメータを取得することで、事前初期化がECU22によって始動することを示している。パラメータは、ビデオカメラ30の視野、レンズ特性、ビデオカメラモデルおよびその他のビデオカメラ特性を含む。1つの実施形態において、パラメータはビデオカメラ30の較正信号によって取得される。別の実施形態において、パラメータはディスプレイ32上に表示されるメニューと運転者による入力または選択から取得される。特定のビデオカメラ30に対応するフラッシュドライブ等の他の構成が想定される。
図3に示されるステップ44において、電子制御ユニット22はまた、世界座標である既知の物理的寸法を持つ長方形グリッドの点を受け取り、メモリ26に格納または収容する。図3は、車両側または車両に沿った距離yと、車両から離れる距離xを持つ世界座標の世界座標グリッドの1つの実施形態を示す。点のグリッドが説明されているが、グリッド点は、グリッドを形成する線の交点に配置されている。
図2に示されるステップ46において、プロセッサ24は、ビデオカメラ較正パラメータを考慮して、世界座標を持つ点のグリッドを、同じグリッド線を持つスクリーン座標の対応するマップを算出または求めることによって、変換する。図4は、図3に示された世界座標とは大きく異なるスクリーン座標の図を示す。1つの要素は例えば、ビデオカメラパラメータがパノラマレンズ用のデータを含んでいる場合、その形状によって引き起こされる画像への変更は、スクリーン座標を変更することにより考慮されなければならない。ステップ48において、プロセッサ24は、世界座標グリッドを表す点のグリッドを、対応するスクリーン座標グリッド上にマッピングされた状態で格納する。ステップ48の後で、事前初期化ルーチンは終了する。こうして、世界座標グリッドを表す点のグリッドは、プロセッサ24によってスクリーン座標グリッド上にマッピングされ、メモリ26に格納される。システム20の事前初期化ステップは典型的には車両の出荷の前か、またはシステム20の最初の初期始動の際に発生する。
オペレーション
図5に示されるフローチャート50はシステム20のオペレーションを例証する。システム20は、運転者によって駆動されるか、または、ビデオカメラ30によって自動的に始動する。システム20を始動させる他の方式も想定される。
図5のステップ52において、ビデオカメラ30によって生成したビデオ画像はECU22に通信される。ステップ54において、ビデオ画像は、スクリーン座標グリッドを使用してディスプレイ32上に表示される。ディスプレイ上に物体を表示することは、その開示を参照により本明細書に組み込む、2015年4月1日に出願された、所有者が共通する米国特許出願14/675872号(MBF No.081276−9805)によって規定されている。次にプロセッサ24はステップ56に進む。
ステップ56において、ビデオ画像を見ている運転者は、注視物体に対応する視野スクリーン上の目標点を、追尾用に選択する。1つの実施形態において、ディスプレイ32はタッチスクリーンであり、ビデオ画像はその上に表示される。運転者は、タッチスクリーンをタッチすることによって注視物体のための目標点を選択する。したがって、タッチされた点は、取得された目標点を規定する。図6は、運転者によってタッチスクリーン上で選択されたディスプレイ32上で見える注視物体に対応する目標点pを示す。目標点pは注視物体のための目標点であり、その境界内に物体全体を含むわけではない。故に、図6は本発明のオペレーションの図示のために配設されており、目標点に対応する物体やタッチスクリーン上のビデオ画像を図示していない。
別の実施形態において、ステップ56は2ステップのプロセスである。第1のステップにおいて、タッチスクリーンの最初のタッチは、タッチされたスクリーンの位置の周りの領域を拡大しセンタリングする。タッチスクリーン上の拡大されたビデオ画像を再度タッチすることは、厳密な目標点pを位置特定して規定する。この2ステップの手法は、取得された厳密な目標点pの選択に、より一層の精度を提供する。
ステップ56の後で、プロセッサ24はプログラムをステップ60に進める。図5のステップ60において、プロセッサ24は目標点pを包囲する、目標点pに最も近いスクリーン座標内の4つのグリッド点の位置を見出すか、突き止めるよう動作する。この構成は図7に示されており、そこで、角部グッド点q、q、q、qが目標点pを包囲している。その後、プロセッサ24はステップ62に進む。ステップ62において、プロセッサ24はスクリーン座標内での、4つの角部スクリーン座標グリッド点q−qそれぞれから目標点pまでの距離を算出する。スクリーン距離はメモリ26に記憶される。その後、プロセッサ24はステップ64に進む。
ステップ64において、プロセッサ24は4つの角部グリッド点q、q、q、qを世界座標グリッド上の世界座標にマッピングして、ステップ66に進む。マッピングされた座標は、図8において4つの世界角部グリッド点Q、Q、Q、Qとして示されている。
図5のステップ66において、プロセッサ24は、スクリーン距離によって重み付けされた世界座標内の目標点pの位置を求めるために線形補間を適用する。1つの実施形態において、線形補間はバイリニア補間を適用する。より詳細には、1つの実施形態において、角部グリッド点はそれぞれ、スクリーン座標グリッドの4つのグリッド点それぞれに関する対応するスクリーン距離の逆二乗によって重み付けされる。逆二乗された距離の和は正規化され、世界座標内の目標点pの位置を求める。こうして、目標点pが、図8に示すように世界座標内に提供される。図3でわかるように、世界座標は、例証のためにセンチメートルで提供される距離である。次にプロセッサ24はステップ70に進む。
車両18上のビデオカメラ30の位置は判っている。図3において、x方向および値はビデオカメラ30から離れる距離であり、センチメートルで提供されている。負の値−100センチメートルは、この実施形態においてビデオカメラ30が車両の外側に配設されている例に関して提供されている。ビデオカメラ30は、図3の値00のところで車両の後部にセンタリングされている。こうしてy方向における右または左への運動が、正および負のセンチメートルで提供される。プロセッサ24が計算のために位置を理解している限り、y方向における位置に他の値も割り当てられうる。地面からのビデオカメラ30の高さに関するz座標の値も利用される。いくつかの実施形態において、ビデオカメラ30の高さはゼロの所与のz世界座標値に対応する。他の構成も想定される。z方向は、x方向とy方向両方に対して直角であるため、図3において標識付けされていない。
ステップ70において、ビデオカメラ30からの目標点pの距離および方向が、x、y、およびz世界座標を使用して算出される。三角方程式またはプロセッサ24によって実行されるその他のプログラムが、ビデオカメラ30の世界座標および目標点pからの距離および角度/方向を求める。その後、プロセッサ24はステップ72に進む。
ステップ72において、ビデオカメラ30と目標点pの間の距離および/または方向がもう1つの別のECUに提供されるか、または、ECU22は、駐車動作中の衝突回避のために距離値および対応する方向を利用する。さらに、駐車動作およびその他の運転状況中に衝突を回避するために距離の経時変化が求められる。
ビデオカメラ30は車両18の後部に取り付けられて示されているが、いくつかの実施形態においてビデオカメラまたは付加的なビデオカメラは、車両の前方および/または側部に取り付けられて、前向き駐車または斜めの駐車への支援を提供する。
いくつかの実施形態において、スピーカー34は目標点pからのビデオカメラ30の距離および方向に基づいて警告メッセージを提供する。本明細書では仔細に説明しないが、システム20は、車両の運転者が多数の目標点pを選択することができ、車両の運転者が多数の物体に対応する多数の目標点の位置を認識できるよう、各目標点がフォローされるように構成されている。
本明細書では仔細に説明しないが、いくつかの実施形態において、システム20は、物体の運動を判断し、したがって、車両18に搭載されたビデオカメラ30に対する目標点pの運動を判断するために、選択された目標点pまたはその付近の領域での物体を認識するための画像分析を利用する。
このように、本発明は、とりわけ、車両18の後部にある物体を単一のビデオカメラ30で追尾するための方法およびシステムを提供する。そのような構成は、複数のビデオカメラ30およびその他のセンサを必要とするシステムよりも低費用である。さらに、運転者の選択により任意の物体が検出される。本発明の様々な特徴および利点は以下の特許請求の範囲に規定される。
18 車両
20 システム
22 ECU
24 プロセッサ
26 メモリ
30 ビデオカメラ
32 ディスプレイ
34 スピーカー

Claims (20)

  1. 車両に配設されたビデオカメラと、前記ビデオカメラの視野内の物体の注視点としての目標点との間の距離および方向を求める方法であって、
    世界座標グリッドを表す点のグリッドをスクリーン座標グリッド上にマッピングし、マッピングされたグリッドを電子制御ユニット内に格納することによって事前初期化することと、
    ビデオカメラで画像を生成して、プロセッサとメモリを含む電子制御ユニットにビデオ画像を提供することと、
    スクリーン座標グリッドを使用してビデオ画像をディスプレイ上に表示することと、
    ビデオ画像内の物体の注視点としての目標点を取得することと、
    目標点を包囲するスクリーン座標グリッドの4つのグリッド点の位置を求めることと、
    目標点から、目標点を包囲する4つのグリッド点それぞれまでのスクリーン距離を求めて格納することと、
    目標点を包囲しているスクリーン座標グリッドからの4つのグリッド点を世界座標グリッド上にマッピングすることと、
    スクリーン距離によって重み付けされた世界座標グリッド内の目標点の位置を求めるために補間を適用することと、
    世界座標内のビデオカメラの既知の位置と、世界座標内の目標点の求められた位置を使用して、ビデオカメラの位置と物体の目標点の間の距離および方向を求める、
    ことを含む方法。
  2. 前記目標点の位置を求めるために補間を適用することは、バイリニア補間を適用することを含む請求項1に記載の方法。
  3. 目標点の位置特定のためのバイリニア補間は、
    目標点を包囲する世界座標グリッド内の4つのグリッド点それぞれを、スクリーン座標グリッド内の4つのグリッド点それぞれに関して求められたスクリーン距離の逆二乗によって重み付けし、
    世界座標内の目標点の位置を求めるために、逆二乗されたスクリーン距離の和によって正規化することを含む、請求項2に記載の方法。
  4. 前記ビデオカメラは単眼パノラマビデオカメラを備えている、請求項1に記載の方法。
  5. 世界座標グリッドを表す点のグリッドをスクリーン座標グリッド上にマッピングし格納することによる前記事前初期化は、
    付帯的ビデオカメラ較正パラメータを電子制御ユニットに提供することと、
    世界座標の世界座標グリッドに既知の物理的寸法を提供することと、
    較正パラメータを考慮して世界座標グリッドをスクリーン座標グリッドに変換することと、
    スクリーン座標のスクリーン座標グリッドを提供することを含む、請求項1に記載の方法。
  6. 付帯的ビデオカメラ較正パラメータはビデオカメラのレンズのレンズ特性を含む、請求項5に記載の方法。
  7. 前記ビデオカメラは単眼パノラマビデオカメラを備えている、請求項6に記載の方法。
  8. 衝突を回避するために、車両に配設されたビデオカメラから物体の目標点までの距離の変化を求めることを含む、請求項1に記載の方法。
  9. 前記ディスプレイはタッチスクリーンを備え、目標点を、ビデオ画像に示された物体の注視点として取得することは、そこに表示されたビデオ画像内の物体の目標点においてタッチスクリーンをタッチすることを含む、請求項1に記載の方法。
  10. 目標点を、ビデオ画像内に示された物体の注視点として取得することは、さらに、
    ビデオ画像に示された物体を、タッチスクリーンのタッチされた目標点において拡大しセンタリングし、
    タッチスクリーンを目標点で再度タッチすることにより、拡大されたビデオ画像内の物体の厳密な目標点を選択することと、
    タッチスクリーンが再度タッチされたことに応答して、厳密な目標点を規定することを含む、請求項9に記載の方法。
  11. 車両に配設されたビデオカメラと、ビデオカメラの視野内の物体の注視点としての目標点との間の距離および方向を求めるシステムであって、
    ビデオ画像を生成するための車両に固定されたビデオカメラと、
    プロセッサおよびメモリを含む電子制御ユニットとを備え、前記電子制御ユニットは、
    世界座標グリッドを表す点のグリッドをスクリーン座標グリッド上にマッピングし、マッピングされたグリッドをメモリ内に格納することによって事前初期化し、
    ビデオカメラからビデオ画像を受け取り、
    スクリーン座標グリッドを使用してビデオ画像をディスプレイ上に表示し、
    ディスプレイ上のビデオ画像に表示された物体の注視点としての目標点を取得し、
    目標点を包囲しているスクリーン座標グリッドの4つのグリッド点の位置を求め、
    目標点から、4つのグリッド点それぞれまでのスクリーン距離を求めて格納し、
    目標点を包囲しているスクリーン座標グリッドからの4つのグリッド点を世界座標グリッド上にマッピングし、
    スクリーン距離によって重み付けされた世界座標グリッド内の目標点の位置を求めるために補間を適用し、
    世界座標内のビデオカメラの既知の位置と、世界座標内の目標点の求められた位置を使用して、ビデオカメラの位置から物体の目標点までの距離および方向を求めるように構成されているシステム。
  12. 前記目標点の位置を求めるための補間はバイリニア補間を含む請求項11に記載のシステム。
  13. 目標点の位置特定のためのバイリニア補間はさらに、
    目標点を包囲する世界座標グリッド内の4つのグリッド点それぞれを、スクリーン座標グリッド内の4つのグリッド点それぞれに関して求められたスクリーン距離の逆二乗によって重み付けし、
    世界座標における目標点の位置を求めるために、逆二乗されたスクリーン距離の和によって正規化することを含む、請求項12に記載のシステム。
  14. 前記ビデオカメラは単眼パノラマビデオカメラを備えている、請求項11に記載のシステム。
  15. 前記電子制御ユニットは、
    ビデオカメラの付帯的ビデオカメラ較正パラメータを取得し、
    世界座標の世界座標グリッドに既知の物理的寸法を取得し、
    較正パラメータを考慮して世界座標グリッドをスクリーン座標グリッドに変換し、
    スクリーン座標グリッドに、変換された世界座標を提供する、
    ことによって、世界座標グリッドを表す点のグリッドをスクリーン座標グリッド上にマッピングし、マッピングされたグリッドをメモリ内に格納することによって事前初期化するように構成されている、請求項11に記載のシステム。
  16. 付帯的ビデオカメラ較正パラメータはビデオカメラのレンズのレンズ特性を含む、請求項15に記載のシステム。
  17. 前記ビデオカメラは単眼パノラマビデオカメラを備えている、請求項16に記載のシステム。
  18. 前記電子制御ユニットは、衝突を回避するために、車両に配設されたビデオカメラから物体の目標点までの距離の変化を求めるように構成されている、請求項11に記載のシステム。
  19. 前記ディスプレイはタッチスクリーンを備え、前記電子制御ユニットは、運転者による、タッチスクリーンの目標点でのタッチからの信号を受け取るように構成されている、請求項11に記載のシステム。
  20. 前記電子制御ユニットはさらに、
    ビデオ画像に示された物体を、タッチスクリーンのタッチされた目標点において拡大しセンタリングし、
    厳密な物体の目標点を拡大されたビデオ画像内で取得するために、タッチスクリーン上に拡大されたビデオ画像の運転者による再度のタッチからの信号を受け取り、
    厳密な目標点を拡大されたビデオ画像に規定して格納する、
    ように構成されている、請求項19に記載のシステム。
JP2016057847A 2015-04-01 2016-03-23 単眼ビデオカメラを使用した、車両からの目標点の距離および方向の算定 Active JP6726006B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/675,862 US9802539B2 (en) 2015-04-01 2015-04-01 Distance and direction estimation of a target point from a vehicle using monocular video camera
US14/675862 2015-04-01

Publications (2)

Publication Number Publication Date
JP2016195390A JP2016195390A (ja) 2016-11-17
JP6726006B2 true JP6726006B2 (ja) 2020-07-22

Family

ID=56937612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016057847A Active JP6726006B2 (ja) 2015-04-01 2016-03-23 単眼ビデオカメラを使用した、車両からの目標点の距離および方向の算定

Country Status (3)

Country Link
US (1) US9802539B2 (ja)
JP (1) JP6726006B2 (ja)
DE (1) DE102016203710B4 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10261515B2 (en) * 2017-01-24 2019-04-16 Wipro Limited System and method for controlling navigation of a vehicle
US10363874B2 (en) * 2017-09-19 2019-07-30 Ford Global Technologies, Llc Hitch assist system with hitch coupler identification feature and hitch coupler height estimation
US10430672B2 (en) * 2018-02-22 2019-10-01 Ford Global Technologies, Llc Hitch assist system with trailer height estimation and hitch coupler identification
CN109949364B (zh) * 2019-04-01 2023-04-11 上海淞泓智能汽车科技有限公司 一种基于路侧单目摄像头的车辆姿态检测精度优化方法
US11652972B2 (en) * 2020-03-04 2023-05-16 Toyota Research Institute, Inc. Systems and methods for self-supervised depth estimation according to an arbitrary camera
CN113465573A (zh) * 2021-06-30 2021-10-01 深圳市优必选科技股份有限公司 单目测距方法、装置及智能装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI246665B (en) 2001-07-12 2006-01-01 Ding-Jang Tzeng Method for aiding the driving safety of road vehicle by monocular computer vision
US7379063B2 (en) * 2004-07-29 2008-05-27 Raytheon Company Mapping application for rendering pixel imagery
JP4681856B2 (ja) * 2004-11-24 2011-05-11 アイシン精機株式会社 カメラの校正方法及びカメラの校正装置
MX2007015348A (es) * 2005-06-06 2008-02-15 Tomtom Int Bv Dispositivo de navegacion con informacion de camara.
JP4835109B2 (ja) * 2005-10-31 2011-12-14 アイシン精機株式会社 駐車目標位置設定装置
US8164628B2 (en) 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
JP5182545B2 (ja) * 2007-05-16 2013-04-17 アイシン精機株式会社 駐車支援装置
JP4337929B2 (ja) 2007-12-25 2009-09-30 トヨタ自動車株式会社 移動状態推定装置
JP5079547B2 (ja) * 2008-03-03 2012-11-21 Toa株式会社 カメラキャリブレーション装置およびカメラキャリブレーション方法
US9459113B2 (en) * 2008-11-21 2016-10-04 GM Global Technology Operations LLC Visual guidance for vehicle navigation system
JP5046132B2 (ja) * 2008-12-24 2012-10-10 株式会社富士通ゼネラル 画像データ変換装置
US8284998B2 (en) 2010-07-01 2012-10-09 Arcsoft Hangzhou Co., Ltd. Method of estimating depths from a single image displayed on display
JP5715793B2 (ja) * 2010-10-08 2015-05-13 東芝アルパイン・オートモティブテクノロジー株式会社 画像処理装置及び画像処理方法
JPWO2012060269A1 (ja) * 2010-11-04 2014-05-12 コニカミノルタ株式会社 画像処理方法、画像処理装置及び撮像装置
CN102141398B (zh) * 2010-12-28 2013-01-30 北京航空航天大学 基于单目视觉的多机器人位置与姿态测量方法
KR101339121B1 (ko) * 2011-12-08 2013-12-09 ㈜베이다스 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치
CN103077524A (zh) 2013-01-25 2013-05-01 福州大学 混合视觉系统标定方法
KR101440847B1 (ko) * 2013-02-25 2014-11-04 중앙대학교 산학협력단 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법
CN103745452B (zh) 2013-11-26 2014-11-26 理光软件研究所(北京)有限公司 相机外参评估方法、装置、相机外参标定方法和装置
CN103761737B (zh) 2014-01-22 2016-08-31 北京工业大学 基于稠密光流的机器人运动估计方法
US9499018B2 (en) * 2015-04-01 2016-11-22 Robert Bosch Gmbh Trailer coupling assistance system with vehicle video camera

Also Published As

Publication number Publication date
DE102016203710A1 (de) 2016-10-06
DE102016203710B4 (de) 2019-11-28
US9802539B2 (en) 2017-10-31
JP2016195390A (ja) 2016-11-17
US20160288711A1 (en) 2016-10-06

Similar Documents

Publication Publication Date Title
JP6726006B2 (ja) 単眼ビデオカメラを使用した、車両からの目標点の距離および方向の算定
EP3565739B1 (en) Rear-stitched view panorama for rear-view visualization
CN111750820B (zh) 影像定位方法及其系统
JP5491235B2 (ja) カメラキャリブレーション装置
US8355565B1 (en) Producing high quality depth maps
KR101666959B1 (ko) 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법
JP2009017462A (ja) 運転支援システム及び車両
JP6891954B2 (ja) 物体検知装置、物体検知方法、及びプログラム
CN109447901B (zh) 一种全景成像方法和装置
CN110861638A (zh) 用于控制车辆驻车的装置、具有该装置的系统及其方法
JP2015074436A (ja) 画像処理装置、画像処理方法、及び、プログラム
US11816787B2 (en) Method for representing an environmental region of a motor vehicle with virtual, elongated distance markers in an image, computer program product as well as display system
KR20180020274A (ko) 패널 변환
WO2018222122A1 (en) Methods for perspective correction, computer program products and systems
US11562576B2 (en) Dynamic adjustment of augmented reality image
EP3651144A1 (en) Method and apparatus for information display, and display device
US20230249620A1 (en) Parking process display method and device, and vehicle
US9197882B2 (en) Mobile communication terminal having image conversion function and method
JP6734136B2 (ja) 画像処理装置
JP2013152546A (ja) 運転支援装置、運転支援方法及びそのプログラム
KR20200129292A (ko) 주차공간의 탑뷰 이미지 제공 장치 및 그 방법
CN111985384A (zh) 获取脸部关键点的3d坐标及3d脸部模型的方法和装置
US10825135B2 (en) Method and device for determining a transition between two display images, and vehicle
CN112698717B (zh) 一种局部图像的处理方法及装置、车载系统、存储介质
CN113065999A (zh) 车载全景图生成方法、装置、图像处理设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200305

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200626

R150 Certificate of patent or registration of utility model

Ref document number: 6726006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250