JP2011500407A - Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit - Google Patents

Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit Download PDF

Info

Publication number
JP2011500407A
JP2011500407A JP2010529255A JP2010529255A JP2011500407A JP 2011500407 A JP2011500407 A JP 2011500407A JP 2010529255 A JP2010529255 A JP 2010529255A JP 2010529255 A JP2010529255 A JP 2010529255A JP 2011500407 A JP2011500407 A JP 2011500407A
Authority
JP
Japan
Prior art keywords
vehicle
camera
image
virtual
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010529255A
Other languages
Japanese (ja)
Other versions
JP5077606B2 (en
Inventor
トビアス・エールゲン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Publication of JP2011500407A publication Critical patent/JP2011500407A/en
Application granted granted Critical
Publication of JP5077606B2 publication Critical patent/JP5077606B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本発明は、物体、特に車両(1)に配置された少なくとも1つの全方位カメラ(2)及び光学的表示ユニットを有する装置のキャリブレーション方法に関し、車両では表示ユニットによって表示された画像が、物体(1)の上方に想定された仮想カメラの視野を再生するものであり、その際に仮想カメラの画像が1つの物体座標系内に投影され、及びその際に物体座標系に生じる点(Xw、Xw・y)が全方位カメラ内に投影され、仮想カメラ画像が物体座標系への投影される際に仮想カメラの画像のピクセル(x)が物体(1)周囲に想定された1つの円又は楕円内で仮想平面上に投影され、他方円又は楕円の外側の画像のピクセル(x)が円又は楕円の縁から立ち上がる、想定された面上にピクセルが投影されるように、仮想カメラによって物体座標系に変換される。
【選択図】図3
The invention relates to a method for calibrating an object, in particular a device comprising at least one omnidirectional camera (2) and an optical display unit arranged in a vehicle (1), in which the image displayed by the display unit is The visual field of the virtual camera assumed above (1) is reproduced. At that time, the image of the virtual camera is projected into one object coordinate system, and the point (Xw) generated in the object coordinate system at that time , Xw · y) is projected into the omnidirectional camera, and the pixel (x p ) of the virtual camera image is assumed around the object (1) when the virtual camera image is projected onto the object coordinate system. The virtual is projected so that the pixels are projected onto the assumed plane, projected on the virtual plane within the circle or ellipse, while the pixels (x p ) of the image outside the circle or ellipse rise from the edge of the circle or ellipse. turtle Is transformed into the object coordinate system.
[Selection] Figure 3

Description

本発明は、物体、特に車両に配置された、少なくとも1つの全方位カメラ及び光学的表示ユニットを有する装置のキャリブレーション方法に関し、車両では表示ユニットによって表示された画像が、物体の上方に想定された仮想カメラの視野を再生するものであり、その際に仮想カメラの画像が1つの物体座標系内に投影され、及びその際全方位カメラの画像がその物体座標系に投影される。さらに本発明は、物体、特に車両に配置された、少なくとも1つの全方位カメラ及び光学的表示ユニットを有する装置を使用した画像処理及び画像表示の方法に関する。   The present invention relates to a method for calibrating an object, in particular a device comprising at least one omnidirectional camera and an optical display unit arranged in a vehicle, in which the image displayed by the display unit is assumed above the object. In this case, the image of the virtual camera is projected into one object coordinate system, and the image of the omnidirectional camera is projected onto the object coordinate system. The invention further relates to a method of image processing and image display using a device comprising at least one omnidirectional camera and an optical display unit arranged on an object, in particular a vehicle.

全方位カメラは基本的に公知である。全方位カメラを使って全方向画像(鳥瞰図又はバードアイビューとも呼ばれる)を捉えることができ、全方向画像の画像情報には、例えば捉えた物体又は対象物の位置に関する画像位置のようなデータが、物体と全方位カメラとの距離データを含めて収容されている。   Omnidirectional cameras are basically known. An omnidirectional camera can be used to capture an omnidirectional image (also called a bird's eye view or a bird's eye view), and the image information of the omnidirectional image includes, for example, data such as an image position related to the position of the captured object or object, It contains the distance data between the object and the omnidirectional camera.

全方位カメラは、例えば車両前方、側方及び/又は後方の車両周囲の監視のために使用される。その際、例えば全方位カメラを使用して車両周囲の物体又は対象物が識別される。識別した物体の特に位置及び/又は距離を十分に正確に判定可能にするために、全方位カメラの車両に対する正確な位置及び正確な方向付けが知られている。特に全方位カメラは、カメラが撮影した画像を光学的表示ユニットに表示して運転者に示すことで、トラックなどの見通しの悪い車両を例えば後退走行時のナビゲーション用に使用することができる。この場合、全方位カメラの著しくひずんだ画像が、運転者に鳥瞰図をもたらすように変換される。ここで課題となるのは、車両周囲の近傍領域はこれによって非常によく捉えられるが、より遠くへ離れた物体は表示されないことである。   An omnidirectional camera is used, for example, to monitor the surroundings of the vehicle in front, side and / or rear of the vehicle. At that time, for example, an omnidirectional camera is used to identify objects or objects around the vehicle. In order to be able to determine, in particular, the position and / or distance of the identified object sufficiently accurately, the exact position and the correct orientation of the omnidirectional camera relative to the vehicle is known. In particular, the omnidirectional camera displays an image captured by the camera on an optical display unit and shows it to the driver, so that a vehicle with poor visibility, such as a truck, can be used for navigation when traveling backward, for example. In this case, a significantly distorted image of the omnidirectional camera is converted to provide a bird's eye view to the driver. The problem here is that the nearby area around the vehicle is very well captured, but objects farther away are not displayed.

特許文献1により、画像処理技術が公知であり、この場合、車両周辺のカメラ画像が多数撮影される。これらの画像は、車両周辺がある種の半球又は椀の内面上に投影されたと解釈されるように変換され、その結果より遠くへ離れた像点も表示される。その際に、半球中央領域から外へ向かってひずみが強くなる。この方法は、高い計算コストが必要となる。   Patent Document 1 discloses an image processing technique. In this case, a large number of camera images around the vehicle are taken. These images are transformed so that they are interpreted as being projected on the inner surface of a certain hemisphere or kite, so that image points farther away are also displayed. At that time, the strain increases outward from the central region of the hemisphere. This method requires high calculation cost.

米国特許7161616B1号明細書US Pat. No. 7,161,616B1

本発明の課題は、少なくとも1つの全方位カメラ及び光学的表示ユニットを有する装置による、より改良されたキャリブレーション方法、および、物体、特に車両に配置された、少なくとも1つの全方位カメラ及び光学的表示ユニットを有する装置を使用して画像処理及び画像表示を行う方法を提示することである。   The object of the present invention is to provide a more improved calibration method by means of an apparatus having at least one omnidirectional camera and an optical display unit, and at least one omnidirectional camera and optical arrangement arranged on an object, in particular a vehicle. A method for performing image processing and image display using an apparatus having a display unit is presented.

装置のキャリブレーション方法に関し、本発明の課題は請求項1の特徴によって解決される。画像処理及び画像表示の方法に関し、本発明の課題は請求項5の特徴によって解決される。   With regard to a method for calibrating the device, the object of the present invention is solved by the features of claim 1. With regard to image processing and image display methods, the object of the present invention is solved by the features of claim 5.

本発明の有利な発展形態は、従属請求項に開示される。   Advantageous developments of the invention are disclosed in the dependent claims.

本発明に従い、物体、特に車両に配置された、少なくとも1つの全方位カメラ及び光学的表示ユニットを有する装置は次に記述される方法によって構成される。物体の上方には仮想カメラが定義され、このカメラの画像は表示ユニットによって表示される。仮想カメラの画像は、物体座標系に投影される。その際に物体座標系に生じる座標点は、全方位カメラ内に、あるいはその座標系に投影される。   In accordance with the present invention, an apparatus having at least one omnidirectional camera and an optical display unit arranged on an object, in particular a vehicle, is constructed by the method described below. A virtual camera is defined above the object, and an image of this camera is displayed by the display unit. The image of the virtual camera is projected on the object coordinate system. Coordinate points generated in the object coordinate system at this time are projected into the omnidirectional camera or onto the coordinate system.

仮想カメラ画像が物体座標系への投影される際、仮想カメラの画像のピクセルは物体周囲に想定された1つの円又は楕円内で仮想平面上に投影される。円又は楕円の外側の画像のピクセルは、円又は楕円の縁から立ち上がる、仮想面上にピクセルが投影されるように、仮想カメラによって物体座標系に変換され、その際、物体座標系内の面上のピクセルの高さは、円又は楕円の中心点からのピクセルの距離に比例している。このようにキャリブレーションされた系により、物体により近い周辺は円又は楕円内で広範囲に及んでひずまずに表示される一方で、公知の方法では見えない、より遠くに離れた周辺範囲も表示される。このようにして得られた拡大鳥瞰図は、直観的で広い視野領域を生成する。車両の運転者にとっては、特に後退走行しながらのパーキング操舵がより簡単になる。   When the virtual camera image is projected onto the object coordinate system, the pixels of the virtual camera image are projected onto the virtual plane within one circle or ellipse assumed around the object. Pixels in the image outside the circle or ellipse are transformed into the object coordinate system by the virtual camera so that the pixels are projected onto the virtual surface rising from the edge of the circle or ellipse, with the plane in the object coordinate system The height of the upper pixel is proportional to the pixel distance from the center point of the circle or ellipse. The system calibrated in this way displays the perimeter that is closer to the object in a circle or ellipse over a wide range, while also displaying the farther away perimeter that is not visible with known methods. The The enlarged bird's-eye view obtained in this way is intuitive and generates a wide field of view. For the driver of the vehicle, parking steering especially while traveling backwards becomes easier.

好ましくは、面が円錐台の側表面の形状を有している。その際に、円錐台の側表面は直線状の勾配を有し、それゆえに投影はこの面上で、特に簡単な方法で計算されることができる。さらには、円錐台の側表面は投影面として、非直線状の勾配を備えた面と比べて例えば楕円の場合、画像に生じるひずみが格段に少ないという利点を提供する。円錐台の側表面を使用することにより、運転者にとって特に直観的な、簡単なやりかたでわかりやすい画像表示がもたらされる。この場合、ひずみはせいぜい円錐台の側表面の縁領域に出現するだけで、反対に画像中央の表示は特に有利なやり方でひずみなしに行われる。   Preferably, the surface has the shape of the side surface of the truncated cone. In doing so, the side surface of the truncated cone has a linear gradient, and therefore the projection can be calculated on this plane in a particularly simple manner. Furthermore, the side surface of the truncated cone provides an advantage that the distortion generated in the image is remarkably reduced in the case of an ellipse, for example, as a projection surface compared to a surface having a non-linear gradient. The use of the side surface of the truncated cone provides an image display that is particularly intuitive and easy to understand for the driver. In this case, the distortion only appears at the edge region of the side surface of the truncated cone, and on the contrary, the display of the center of the image takes place in a particularly advantageous manner without distortion.

全方位カメラは、好ましくは、カメラの視界全体を含んでいるキャリブレーション体を使用して内部パラメータに関して、キャリブレーションされる。キャリブレーション体は特に樽形状を有し、その内側には環状の印が備えられている。全方位カメラをキャリブレーションするために、印は、特に、非特許文献1(T. Luhmann . Nahbereichsphotogrammetrie, Herbert Wichmann Verlag(2000. 4))に記述されている方法によって、サブピクセル精度で測定される。例えば物体座標系に関して、カメラの並進と回転のようなカメラの外部パラメータは、物体に取り付けられた全方位カメラによって特定される。この場合、長方形の印を使用することができる。例えばこの場合、非特許文献2(L.E. Krueger, C. Woehler, A. Wurz-Wessel, F. Stein. In-factory calibration of multiocular camera Systems. SPIE Photonics Europe(Optical Metrology in Production Engineering), 5457:126頁〜137頁(2004年9月)4,5)に記述されている方法を使用する。   The omnidirectional camera is preferably calibrated with respect to internal parameters using a calibration body that contains the entire field of view of the camera. The calibration body has a barrel shape in particular and is provided with an annular mark inside. In order to calibrate an omnidirectional camera, the indicia are measured with sub-pixel accuracy, in particular by the method described in Non-Patent Document 1 (T. Luhmann. . For example, with respect to the object coordinate system, camera external parameters such as camera translation and rotation are specified by an omnidirectional camera attached to the object. In this case, a rectangular mark can be used. For example, in this case, Non-Patent Document 2 (LE Krueger, C. Woehler, A. Wurz-Wessel, F. Stein. In-factory calibration of multi-systems on SPIR. : Pages 126 to 137 (September 2004) 4, 5) are used.

カメラの内部パラメータは、それぞれ座標系及び歪曲に関して、例えば焦点距離、ピクセルサイズ(幅、高さ)、画像中心点などである。   The internal parameters of the camera are, for example, a focal length, a pixel size (width and height), an image center point, and the like regarding the coordinate system and distortion.

そのようにキャリブレーションされた装置は、画像処理及び画像表示の方法で使用され、この方法においては物体周辺が全方位カメラによって撮影され、キャリブレーションに相応して表示ユニットに再生される。   The device so calibrated is used in a method of image processing and image display, in which the object periphery is imaged by an omnidirectional camera and reproduced on a display unit in accordance with the calibration.

その際に、好ましくは、例えば車両背面のルーフエッジの範囲に配置されることができる2つの全方位カメラを使用する。しかし、さらに多くの全方位カメラを、又はだだ1つの全方位カメラを備えていてもよい。   In doing so, preferably two omnidirectional cameras are used, which can be arranged, for example, in the area of the roof edge on the back of the vehicle. However, more omnidirectional cameras or just one omnidirectional camera may be provided.

特に、複数の全方位カメラに捉えられる範囲は、車両に関して非シンメトリックに複数のカメラに分割される。この分割は、例えば独国特許出願公告第102006003538B3号明細書に記述されている。これによって、背面投影から仮想平面へもたらされる、周辺を平坦に仮定した結果として、車両周辺の別の物体が視界から消失することが回避される。その際、物体座標系の各点は、車両の後ろとその右に配置された全方位カメラに投影される。車両左の各点は、左に配置された全方位カメラに投影される。   In particular, a range captured by a plurality of omnidirectional cameras is divided into a plurality of cameras non-symmetrically with respect to the vehicle. This division is described, for example, in German Patent Application Publication No. 102006003538B3. This avoids the disappearance of another object around the vehicle from view as a result of assuming a flat perimeter that is brought from the rear projection to the virtual plane. At that time, each point in the object coordinate system is projected onto an omnidirectional camera arranged behind and to the right of the vehicle. Each point on the left of the vehicle is projected onto an omnidirectional camera arranged on the left.

好ましくは、後退走行している車両の場合及び/又は後退ギヤに入れられている場合、舵角に依存して走行動作が予測され、画像が表示ユニットに重ねられる。このようにして、運転者は現在の舵角で車両を後退走行させた場合に希望の位置に到達できるかどうかを判断することができる。   Preferably, in the case of a vehicle traveling backward and / or in a reverse gear, the traveling operation is predicted depending on the steering angle, and the image is superimposed on the display unit. In this way, the driver can determine whether the desired position can be reached when the vehicle is driven backward at the current steering angle.

予測を簡素化するために、演算は単一軌道モデルに基づき、このモデルでは1本の車軸の2つの車輪につき1つの仮想車輪が車軸の中央にモデル化されている。   In order to simplify the prediction, the calculation is based on a single track model, in which one virtual wheel is modeled in the middle of the axle for every two wheels of an axle.

以下では、本発明の実施例を図を使用して詳細に説明する。   In the following, embodiments of the present invention will be described in detail with reference to the drawings.

2つの全方位カメラを備えた車両の背面である。It is the back of the vehicle provided with two omnidirectional cameras. 従来技術で公知の、車両及びその周辺の標準鳥瞰図の模式図である。It is a schematic diagram of a standard bird's-eye view of a vehicle and its surroundings known in the prior art. 車両及びその周辺を、本発明に従った方法を使用して画像処理及び画像表示のために拡大した鳥瞰図の模式図である。1 is a schematic bird's eye view of a vehicle and its surroundings enlarged for image processing and image display using a method according to the present invention. 車両内の光学的表示ユニットに表示された、車両とその周辺の光景の拡大された鳥瞰図と、その上に重ね合わせられた後退走行時の予測走行動作である。These are a bird's-eye view of an enlarged view of the vehicle and its surroundings, displayed on an optical display unit in the vehicle, and a predicted traveling operation at the time of reverse traveling superimposed thereon. 走行動作予測の単一軌道モデルである。It is a single trajectory model for running motion prediction.

全図において互いに対応する部材には同一の符号を付している。
In the drawings, members corresponding to each other are denoted by the same reference numerals.

図1は、2つの全方位カメラ2を備えた、車両として形成された物体1の背面である。符号1は、以下でも車両に使用される。   FIG. 1 is a rear view of an object 1 formed as a vehicle with two omnidirectional cameras 2. Reference numeral 1 is also used for a vehicle in the following.

全方位カメラ2は車両1の周辺を、車両1の側方と後方を非常に広角で撮影する。処理されたカメラ画像は、車両1内の、図示されていない表示ユニットに表示される。カメラ2はこのために、車両1に関してキャリブレーションされる。カメラ2は固定されていることから、キャリブレーションを実施する必要は1回のみである。   The omnidirectional camera 2 photographs the periphery of the vehicle 1 at a very wide angle from the side and the rear of the vehicle 1. The processed camera image is displayed on a display unit (not shown) in the vehicle 1. The camera 2 is calibrated with respect to the vehicle 1 for this purpose. Since the camera 2 is fixed, the calibration needs to be performed only once.

キャリブレーションの目的は、第一に車両1及びその周辺を鳥瞰図で表示することである。このために、1つの仮想カメラが車両1の上に定義される。仮想カメラのピクセルx=(x.x, x.y)は、仮想平面Y=0上に投影され(平坦な世界を仮定)、その際に車両1で調整された物体座標系に点Xが生じる。:
=λX+C
その際、
λ=C・y/X・y
=R=R(x.x, x.y, f)
この場合、fは仮想カメラの焦点距離、R及びCは物体座標系に関する仮想カメラの回転及び並進であり、この座標系の座標原点は、例えば車両1背面のバンパー中央にあってよく、y軸は垂直に上を指している。
The purpose of calibration is to first display the vehicle 1 and its surroundings in a bird's eye view. For this purpose, one virtual camera is defined on the vehicle 1. The virtual camera pixel x p = (x p .x, x p .y) T is projected onto the virtual plane Y = 0 (assuming a flat world), and the object coordinate system adjusted by the vehicle 1 at that time The point Xw is generated at. :
X w = λX r + C p
that time,
λ = C p · y / X r · y
X r = R p X p = R p (x p .x, x p .y, f) T
In this case, f is the focal length of the virtual camera, R p and C p are the rotation and translation of the virtual camera with respect to the object coordinate system, and the coordinate origin of this coordinate system may be at the center of the bumper on the back of the vehicle 1, for example. The y-axis points up vertically.

背面投影された点Xは、少なくとも1つの全方位カメラ2内に、つまりそれによって撮影された画像内に投影される。この投影は、詳細が非特許文献3(C. Toepfer, T. Ehlgen. A unifying omnidirectional camera model and ist applications . In Omnivs(2007年2月))に記述されている。 The rear-projected point Xw is projected into at least one omnidirectional camera 2, that is, into an image photographed thereby. This projection is described in detail in Non-Patent Document 3 (C. Topepfer, T. Ehlgen. A unified omnidirectional camera model and ist applications. In Omnivs (February 2007)).

背面投影から仮想平面に生じた、周辺を平坦に仮定した結果として、車両1周辺の別の物体が視界から消失することを回避するため、車両に関して、全方位カメラで捉えられた範囲の非シンメトリックな分割が選択される。その際、物体座標系の各点Xでは、車両1の後ろとその右の点が右側に配置された全方位カメラ2に投影される。車両1左の各点Xは、左側に配置された全方位カメラ2に投影される。この詳細は、例えば独国特許出願公告第102006003538B3号明細書に記述されている。 As a result of assuming the periphery to be flat from the rear projection on the virtual plane, in order to avoid the disappearance of other objects around the vehicle 1 from view, A metric split is selected. At that time, in each point X w of the object coordinate system, the point of the right and rear of the vehicle 1 is projected to the omnidirectional camera 2 disposed on the right side. Each point Xw on the left side of the vehicle 1 is projected onto the omnidirectional camera 2 arranged on the left side. This detail is described, for example, in German Patent Application Publication No. 102006003538B3.

図2は、車両1及びその周辺の模式図が、2つの全方位カメラ2及び光学的表示ユニットを有するそのようにキャリブレーションされた装置によって達成された標準鳥瞰図で示されている。キャリブレーションを使って、チェス盤模様によって示唆されたような、示されたひずみを修正した表示が達成される。2つの全方位カメラ2における視野領域の非シンメトリック分割は、チェス盤模様が異なって表示されることによって示される。車両1の運転者は、車両1の周辺に障害物が存在するかどうかを確認できる。この範囲内で、従来技術による方法が知られている。   FIG. 2 shows a schematic diagram of the vehicle 1 and its surroundings in a standard bird's-eye view achieved by such a calibrated device having two omnidirectional cameras 2 and an optical display unit. Calibration is used to achieve a corrected display of the indicated distortion, as suggested by the chessboard pattern. Non-symmetric division of the field of view in the two omnidirectional cameras 2 is indicated by the chessboard pattern being displayed differently. The driver of the vehicle 1 can check whether there is an obstacle around the vehicle 1. Within this range, prior art methods are known.

本発明に従い、2つの全方位カメラ2及び光学的表示ユニットを有する装置は、仮想平面Y=0への背面投影が車両1の周辺の内側領域3でのみ行われるようにキャリブレーションされる。この内側領域3は、車両1又は物体座標系の座標原点の周りの半径rを備える、仮想の円内にある。仮想カメラ画像内の各ピクセルxは、仮想平面に背面投影され、それによって重なり合い、その結果、点Xが物体座標系に生じる。投影された点Xの内挿は、ピクセルxの強度値をもたらす。 In accordance with the invention, the device comprising two omnidirectional cameras 2 and an optical display unit is calibrated so that rear projection onto the virtual plane Y = 0 is performed only in the inner region 3 around the vehicle 1. This inner region 3 is in a virtual circle with a radius r around the coordinate origin of the vehicle 1 or object coordinate system. Each pixel x p in the virtual camera image is back projected onto the virtual plane, thereby overlapping, resulting in a point X w in the object coordinate system. Interpolation of the projected points X w results in intensity value of a pixel x p.

内側領域3の外の点Xは、仮想平面上ではなく、円の縁から立ち上がる面に投影される。つまり、点Xの距離の高さXw・Yは、円の中心点に依存する:

Figure 2011500407
ここでrは円の半径であり、mは立ち上がる面である。こうしてもたらされた拡大された鳥瞰図が図3に示されている。このようにして、運転者の視野領域は、内側領域3内では従来同様ひずむことはない。内側領域3の外では、車両1のさらに別の周辺が表示される。 Point X w outside the inner region 3, not on a virtual plane, is projected on a surface that rises from the edge of the circle. In other words, the height X w · Y of the distance between the point X w is dependent on the center point of the circle:
Figure 2011500407
Here, r is the radius of the circle, and m is the rising surface. An enlarged bird's-eye view resulting from this is shown in FIG. In this way, the driver's field of view is not distorted in the inner region 3 as in the prior art. Outside the inner region 3, yet another periphery of the vehicle 1 is displayed.

図4は、車両1内の光学的表示ユニットに示された車両1の及びその周辺の光景が拡大された鳥瞰図と、その上に重ね合わせられた後退走行時の予測的走行動作である。走行動作は、リヤバンパーの動きが第1の通路4に、フロントバンパーの動きが第2の通路5に表示され、その通路内で車両1は、現在の舵角δが変更されない限り、舵角δに相応して動かされる。舵角δが変更されると、予測はそれに相応して適合されなければならない。通路の線4.1は、リヤバンパーを表している。4.2は、例えば車両1のリヤゲートの旋回範囲に相当し得る、バンパーから後方1mの距離を表している。線4.3は、およそ車両1の長さの距離を表している。内側領域3を取り囲む円の半径rは、少なくとも線4.3からリヤバンパーまでの距離に相当しているはずである。 FIG. 4 shows a bird's-eye view in which the scene of the vehicle 1 and its surroundings shown in the optical display unit in the vehicle 1 is enlarged, and a predictive traveling operation at the time of reverse traveling superimposed thereon. Driving operation, the movement of the rear bumper first passage 4, the movement of the front bumper is displayed on the second passage 5, the vehicle 1 in its passage, as long as the current steering angle [delta] R is not changed, the steering angle is moved correspondingly [delta] R. When the steering angle [delta] R is changed, the prediction is to be adapted accordingly thereto. The passage line 4.1 represents the rear bumper. 4.2 represents a distance 1 m behind the bumper, which may correspond to, for example, a turning range of the rear gate of the vehicle 1. Line 4.3 represents the distance of the length of the vehicle 1 approximately. The radius r of the circle surrounding the inner region 3 should correspond at least to the distance from the line 4.3 to the rear bumper.

予測を簡素化するために、演算は、いわゆる単一軌道モデル6に基づき、このモデルでは車両1の1本の車軸の2つの車輪につき1つの仮想車輪7が車軸の中央にモデル化されている。フロント及びリヤの仮想車輪7は、固定された線で接続されている。このモデルは、車両1がその縦軸周りには動かず、どの車輪の荷重も同じに維持されるという制限の下で十分である。後退走行しながらのパーキング操舵時のような低速の場合、この仮定は正当である。これに関連して、このモデル仮定に基づき、1つあるいは複数の通路が画像内に表示されることができ、こ(れら)の通路により、運転者にとって特に状況の直感的な認知が可能になり、特に車両のパーキング操舵が簡単になる。   In order to simplify the prediction, the calculation is based on a so-called single track model 6 in which one virtual wheel 7 is modeled in the center of the axle for every two wheels of one axle of the vehicle 1. . The front and rear virtual wheels 7 are connected by a fixed line. This model is sufficient under the restriction that the vehicle 1 does not move around its longitudinal axis and the load on any wheel is kept the same. This assumption is valid at low speeds, such as during parking steering while traveling backwards. In this context, based on this model assumption, one or more passages can be displayed in the image, which allows the driver to recognize the situation in particular intuitively. In particular, parking steering of the vehicle is simplified.

以下の固定パラメータが、単一軌道モデル6で考慮される:
車両の幅
FR 前後車軸間の距離
RQ 後車軸とリヤバンパー間の距離
さらに以下の可変パラメータが使用される:
δ 舵角
The following fixed parameters are considered in the single trajectory model 6:
l w vehicle width l FR distance between front and rear axles l distance between RQ rear axle and rear bumper Further variable parameters are used:
δ R rudder angle

さらに別のパラメータは舵角δに依存する:
仮想の前車輪7の運動半径
仮想の後車輪7の運動半径
リヤバンパー中心点の運動半径
リヤバンパー左外点の運動半径
リヤバンパー右外点の運動半径
Ψ 舵角δによって決められる瞬間回転中心8から、後車輪7及びリヤバンパー中心点を結ぶ線が成す角度。
Yet another parameter is dependent on the steering angle [delta] R:
r F virtual front wheel 7 of the movement radius r R virtual after the wheels 7 of the movement radius r Q movement of the moving radius r P rear bumper left outside point of the rear bumper center point radius r S rear bumper of the right external point movement radius Ψ Q steering angle δ from the instantaneous center of rotation 8, which is determined by R, the angle a line connecting the rear wheel 7 and rear bumper center point forms.

モデルは次の方程式を使用して構成される:
=lFR/sinδ
=r・cosδ
tanΨ=lRQ/r
=r/cosΨ
一般的な関係:1/cosα=1+tanαは次を導く:

Figure 2011500407
リヤバンパー左右外点の各運動半径は、rに相似に演算することができる。
Figure 2011500407
Figure 2011500407
The model is constructed using the following equation:
r F = l FR / sin δ R
r R = r F · cos δ R
tan Ψ Q = l RQ / r R
r Q = r R / cos Ψ Q
General relationship: 1 / cos 2 α = 1 + tan 2 α leads to:
Figure 2011500407
Each movement radius of the rear bumper left and right outer point can be computed in similar to r Q.
Figure 2011500407
Figure 2011500407

全方位カメラ2は、特にミラーレンズカメラとして形成される。   The omnidirectional camera 2 is particularly formed as a mirror lens camera.

記述された方法は、同様にただ1つの全方位カメラ2を使用して、又は2以上の全方位カメラ2を使用して実施することができる。   The described method can likewise be carried out using only one omnidirectional camera 2 or using two or more omnidirectional cameras 2.

記述された方法は、原理上任意の物体1で実施することができる。   The described method can in principle be carried out on any object 1.

カメラ2は、車両1のルーフエッジの領域に配置することができる。   The camera 2 can be arranged in the area of the roof edge of the vehicle 1.

内側領域3は、1つの円を用いる代わりに、1つの楕円を用いて記述することができる。   The inner region 3 can be described using one ellipse instead of one circle.

仮想平面は、車両1が置かれている地面に相当することができる。   The virtual plane can correspond to the ground on which the vehicle 1 is placed.

1 物体、車両
2 全方位カメラ
3 内側領域
4.1 線
4.2 線
4.3 線
5 第2の通路
6 単一軌道モデル
7 仮想車輪
8 瞬間回転中心
仮想カメラの並進
δ 操舵角
f 仮想カメラの焦点距離
車両の幅
FR 前後車軸間の距離
RQ 後車軸とリヤバンパー間の距離
Ψ 仮想後車輪とリヤバンパー中心点が成す角度
r 半径
仮想前車輪の運動半径
リヤバンパー左外点の運動半径
リヤバンパー中心点の運動半径
仮想後車輪6の運動半径
リヤバンパー右外点の運動半径
仮想カメラの回転
仮想カメラのピクセル
物体座標系内の点
w・y 物体座標系内の点の高さ
DESCRIPTION OF SYMBOLS 1 Object, vehicle 2 Omnidirectional camera 3 Inner area | region 4.1 Line 4.2 Line 4.3 Line 5 Second path 6 Single track model 7 Virtual wheel 8 Instantaneous rotation center C p Translation of virtual camera δ R Steering angle f Focal length of virtual camera 1 W vehicle width 1 FR distance between front and rear axles 1 RQ distance between rear axle and rear bumper Ψ Q angle formed by virtual rear wheel and rear bumper center point r radius r F motion of virtual front wheel movement radius of radius r P rear bumper of the left outside the point movement radius r Q rear bumper movement of the center point radius r R virtual rear wheel 6
r s rotation x p points X w · y height of points in the object coordinate system in the virtual camera pixel X w object coordinate system of the rear bumper right outside point of movement radius R p virtual camera

Claims (9)

物体(1)、特に車両(1)に配置された、少なくとも1つの全方位カメラ(2)と光学的表示ユニットを有する装置のキャリブレーション方法において、該車両では表示ユニットによって表示される画像が物体の上方に想定された仮想カメラの視野を再生するものであり、該仮想カメラからの画像が1つの物体座標系に投影され、物体座標系に生じる点(X、Xw・y)が該全方位カメラ内に投影される方法であって、
該仮想カメラ画像が該物体座標系へ投影される際、該物体(1)周囲に想定された円又は楕円の範囲内の該仮想カメラの画像セル(x)は、仮想平面上に投影され、該円又は楕円の外側の画像のピクセル(x)は、該円又は楕円の縁から立ち上がる仮想の面上に投影されるように、該仮想カメラによって物体座標系へ変換され、該物体座標系内の該仮想の面上の点(X、Xw・y)の高さは、点(X)から前記円又は楕円の中心点までの距離に比例していることを特徴とする方法。
In a method for calibrating a device comprising at least one omnidirectional camera (2) and an optical display unit arranged on an object (1), in particular a vehicle (1), the vehicle displays an image displayed by the display unit. The virtual camera field of view assumed above is reproduced, and an image from the virtual camera is projected onto one object coordinate system, and points (X w , X w · y ) generated in the object coordinate system are A method of projecting into an omnidirectional camera,
When the virtual camera image is projected onto the object coordinate system, the image cell (x p ) of the virtual camera within the circle or ellipse assumed around the object (1) is projected onto the virtual plane. The pixel (x p ) of the image outside the circle or ellipse is transformed into the object coordinate system by the virtual camera so that it is projected onto a virtual plane rising from the edge of the circle or ellipse, and the object coordinates The height of the point (X w , X w · y ) on the virtual plane in the system is proportional to the distance from the point (X w ) to the center point of the circle or ellipse. Method.
前記仮想の面が、円錐台の側表面の形状を有していることを特徴とする、請求項1に記載の方法。   The method of claim 1, wherein the virtual surface has a shape of a side surface of a truncated cone. 前記全方位カメラ(2)が、前記全方位カメラの(2)視界全体を含んでいるキャリブレーション体を使用して、内部パラメータに関してキャリブレーションされることを特徴とする、請求項1又は2に記載の方法。   3. The omnidirectional camera (2) is calibrated with respect to internal parameters using a calibration body comprising the (2) entire field of view of the omnidirectional camera. The method described. 前記キャリブレーション体が、内側に環状の印を備えた樽形状を有していることを特徴とする、請求項3に記載の方法。   The method according to claim 3, wherein the calibration body has a barrel shape with an annular mark inside. 物体(1)、特に車両(1)に配置された少なくとも1つの全方位カメラ(2)及び光学的表示ユニットを備えた装置を使用した画像処理及び画像表示の方法において、該装置が請求項1〜4に記載された方法によってキャリブレーションされており、該物体(1)周辺が前記全方位カメラ(2)によって撮影されて前記表示ユニットにキャリブレーションに相応して再生されることを特徴とする方法。   In a method of image processing and image display using an apparatus comprising at least one omnidirectional camera (2) and an optical display unit arranged on an object (1), in particular a vehicle (1), the apparatus comprises: Calibrated by the method described in (4) to (4), and the periphery of the object (1) is photographed by the omnidirectional camera (2) and reproduced on the display unit in accordance with the calibration. Method. 前記車両(1)の背面に配置された2つの全方位カメラ(2)の画像が記録されることを特徴とする、請求項5に記載の方法。   Method according to claim 5, characterized in that images of two omnidirectional cameras (2) arranged on the back of the vehicle (1) are recorded. 前記全方位カメラ(2)に捉えられた範囲が、前記車両(1)に関して非シンメトリックに前記全方位カメラ(2)に分割されることを特徴とする、請求項6に記載の方法。   The method according to claim 6, characterized in that the range captured by the omnidirectional camera (2) is divided into the omnidirectional camera (2) non-symmetrically with respect to the vehicle (1). 後退走行している車両(1)の場合又は後退ギヤに入れられている場合、舵角(δ)に依存して走行動作が予測され、該予測される走行動作の画像が前記表示ユニットに重ねられることを特徴とする、請求項5〜7のいずれか一項に記載の方法。 In the case of the vehicle (1) traveling backward or in the reverse gear, the traveling operation is predicted depending on the steering angle (δ R ), and an image of the predicted traveling operation is displayed on the display unit. 8. A method according to any one of claims 5 to 7, characterized in that it is superimposed. 前記予測が単一軌道モデル(6)に基づき、このモデルでは車両(1)の1本の車軸の2つの車輪につき1つの仮想車輪(7)が該車軸の中央にモデル化されていることを特徴とする、請求項8に記載の方法。
The prediction is based on a single track model (6), where one virtual wheel (7) is modeled in the center of the axle for every two wheels of one axle of the vehicle (1). 9. A method according to claim 8, characterized in that
JP2010529255A 2007-10-16 2008-09-23 Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit Expired - Fee Related JP5077606B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102007049821.9 2007-10-16
DE102007049821A DE102007049821A1 (en) 2007-10-16 2007-10-16 Method for calibrating an arrangement with at least one omnidirectional camera and an optical display unit
PCT/EP2008/008023 WO2009049750A2 (en) 2007-10-16 2008-09-23 Method for calibrating an assembly using at least one omnidirectional camera and an optical display unit

Publications (2)

Publication Number Publication Date
JP2011500407A true JP2011500407A (en) 2011-01-06
JP5077606B2 JP5077606B2 (en) 2012-11-21

Family

ID=40458801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010529255A Expired - Fee Related JP5077606B2 (en) 2007-10-16 2008-09-23 Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit

Country Status (5)

Country Link
US (1) US8599258B2 (en)
EP (1) EP2198390A2 (en)
JP (1) JP5077606B2 (en)
DE (1) DE102007049821A1 (en)
WO (1) WO2009049750A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019176402A (en) * 2018-03-29 2019-10-10 株式会社富士通ゼネラル Image processor

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858798B2 (en) 2013-05-28 2018-01-02 Aai Corporation Cloud based command and control system integrating services across multiple platforms
JP6271917B2 (en) * 2013-09-06 2018-01-31 キヤノン株式会社 Image recording apparatus and imaging apparatus
US9674433B1 (en) * 2014-07-24 2017-06-06 Hoyos Vsn Corp. Image center calibration for a quadric panoramic optical device
CN104089579A (en) * 2014-08-05 2014-10-08 吉林大学 Camera calibration target of automobile visual inspection system based on spherical coordinates
DE102014011915A1 (en) 2014-08-12 2016-02-18 Man Truck & Bus Ag A method of warning road users of potential danger areas caused by a vehicle performing or wishing to carry out a driving maneuver
CN106296642A (en) * 2015-06-09 2017-01-04 汪浩 The method that vehicle-mounted viewing system photographic head inside and outside parameter is disposably demarcated
CN107534757B (en) * 2015-08-10 2020-04-10 Jvc 建伍株式会社 Vehicle display device and vehicle display method
KR102597435B1 (en) * 2016-04-20 2023-11-03 엘지이노텍 주식회사 Image acquiring device and methid of the same
JP2017220051A (en) * 2016-06-08 2017-12-14 ソニー株式会社 Image processing device, image processing method and vehicle
EP3561773B1 (en) * 2018-04-26 2022-03-02 Continental Automotive GmbH Online evaluation for camera intrinsic parameters

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155428A (en) * 2004-11-30 2006-06-15 Honda Motor Co Ltd Apparatus for monitoring area around vehicle
JP2007049276A (en) * 2005-08-08 2007-02-22 Sanyo Electric Co Ltd On-vehicle panorama camera system
JP2007091157A (en) * 2005-09-30 2007-04-12 Aisin Seiki Co Ltd Operation assisting device

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1115250B1 (en) 1998-07-31 2012-06-06 Panasonic Corporation Method and apparatus for displaying image
EP1043191B1 (en) * 1999-03-19 2003-07-30 Yazaki Corporation Back monitoring apparatus for vehicle
EP2410741A1 (en) 1999-04-16 2012-01-25 Panasonic Corporation Image processing apparatus and monitoring system
JP3624769B2 (en) * 1999-09-30 2005-03-02 株式会社豊田自動織機 Image conversion device for vehicle rear monitoring device
KR20020033816A (en) * 2000-07-19 2002-05-07 마츠시타 덴끼 산교 가부시키가이샤 Monitoring system
SE522121C2 (en) * 2000-10-04 2004-01-13 Axis Ab Method and apparatus for digital processing of frequently updated images from a camera
KR100866450B1 (en) * 2001-10-15 2008-10-31 파나소닉 주식회사 Automobile surrounding observation device and method for adjusting the same
JP3871614B2 (en) * 2002-06-12 2007-01-24 松下電器産業株式会社 Driving assistance device
JP3620532B2 (en) * 2002-11-12 2005-02-16 日産自動車株式会社 Vehicle notification device
DE102006003538B3 (en) * 2006-01-24 2007-07-19 Daimlerchrysler Ag Image acquisitions merging method for bird`s eye perspective, involves selecting image sections such that shadowing effects produced by moved objects are projected during transition in overall image from image section to other section
JP4742953B2 (en) * 2006-03-31 2011-08-10 株式会社デンソー Image processing apparatus, image display system, and program
US9240029B2 (en) * 2007-04-30 2016-01-19 Here Global B.V. Street level video simulation display system and method
JP5222597B2 (en) * 2008-03-19 2013-06-26 三洋電機株式会社 Image processing apparatus and method, driving support system, and vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155428A (en) * 2004-11-30 2006-06-15 Honda Motor Co Ltd Apparatus for monitoring area around vehicle
JP2007049276A (en) * 2005-08-08 2007-02-22 Sanyo Electric Co Ltd On-vehicle panorama camera system
JP2007091157A (en) * 2005-09-30 2007-04-12 Aisin Seiki Co Ltd Operation assisting device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019176402A (en) * 2018-03-29 2019-10-10 株式会社富士通ゼネラル Image processor
JP7081265B2 (en) 2018-03-29 2022-06-07 株式会社富士通ゼネラル Image processing equipment

Also Published As

Publication number Publication date
WO2009049750A3 (en) 2009-09-03
JP5077606B2 (en) 2012-11-21
US20100214412A1 (en) 2010-08-26
US8599258B2 (en) 2013-12-03
EP2198390A2 (en) 2010-06-23
DE102007049821A1 (en) 2009-04-23
WO2009049750A2 (en) 2009-04-23

Similar Documents

Publication Publication Date Title
JP5077606B2 (en) Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
CN109741455B (en) Vehicle-mounted stereoscopic panoramic display method, computer readable storage medium and system
JP5491235B2 (en) Camera calibration device
JP5739584B2 (en) 3D image synthesizing apparatus and method for visualizing vehicle periphery
JP5455124B2 (en) Camera posture parameter estimation device
JP6091759B2 (en) Vehicle surround view system
JP5684144B2 (en) Peripheral image generation method and apparatus
JP5944687B2 (en) Auto calibration of surround view camera with only external parameters
US20140114534A1 (en) Dynamic rearview mirror display features
WO2014132680A1 (en) Program and device for controlling vehicle
CN109948398A (en) The image processing method and panorama parking apparatus that panorama is parked
CN103617606A (en) Vehicle multi-angle panorama generating method for aided driving
JP2012105158A (en) Combination vehicle birds-eye-view display system
JP2009524171A (en) How to combine multiple images into a bird's eye view image
CN104442567A (en) Object Highlighting And Sensing In Vehicle Image Display Systems
US11159744B2 (en) Imaging system, and mobile system
JP2010232723A (en) Vehicle periphery display device
JP2008187564A (en) Camera calibration apparatus and method, and vehicle
KR20190047027A (en) How to provide a rearview mirror view of the vehicle's surroundings in the vehicle
JP2010136289A (en) Device and method for supporting drive
US20200117918A1 (en) Vehicle lane marking and other object detection using side fisheye cameras and three-fold de-warping
JP2016149613A (en) Camera parameter adjustment device
US20160121806A1 (en) Method for adjusting output video of rear camera for vehicles
JP2007181129A (en) Vehicle-mounted movable body detection instrument

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120801

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120814

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees