JP2011500407A - Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit - Google Patents
Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit Download PDFInfo
- Publication number
- JP2011500407A JP2011500407A JP2010529255A JP2010529255A JP2011500407A JP 2011500407 A JP2011500407 A JP 2011500407A JP 2010529255 A JP2010529255 A JP 2010529255A JP 2010529255 A JP2010529255 A JP 2010529255A JP 2011500407 A JP2011500407 A JP 2011500407A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- camera
- image
- virtual
- display unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000003287 optical effect Effects 0.000 title claims abstract description 14
- 230000000630 rising effect Effects 0.000 claims description 3
- 241000270666 Testudines Species 0.000 abstract 1
- 230000000007 visual effect Effects 0.000 abstract 1
- 230000033001 locomotion Effects 0.000 description 13
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 11
- 240000004050 Pentaglottis sempervirens Species 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- KUVIULQEHSCUHY-XYWKZLDCSA-N Beclometasone Chemical compound C1CC2=CC(=O)C=C[C@]2(C)[C@]2(Cl)[C@@H]1[C@@H]1C[C@H](C)[C@@](C(=O)COC(=O)CC)(OC(=O)CC)[C@@]1(C)C[C@@H]2O KUVIULQEHSCUHY-XYWKZLDCSA-N 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 101150008563 spir gene Proteins 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
- G06T3/047—Fisheye or wide-angle transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本発明は、物体、特に車両(1)に配置された少なくとも1つの全方位カメラ(2)及び光学的表示ユニットを有する装置のキャリブレーション方法に関し、車両では表示ユニットによって表示された画像が、物体(1)の上方に想定された仮想カメラの視野を再生するものであり、その際に仮想カメラの画像が1つの物体座標系内に投影され、及びその際に物体座標系に生じる点(Xw、Xw・y)が全方位カメラ内に投影され、仮想カメラ画像が物体座標系への投影される際に仮想カメラの画像のピクセル(xp)が物体(1)周囲に想定された1つの円又は楕円内で仮想平面上に投影され、他方円又は楕円の外側の画像のピクセル(xp)が円又は楕円の縁から立ち上がる、想定された面上にピクセルが投影されるように、仮想カメラによって物体座標系に変換される。
【選択図】図3
The invention relates to a method for calibrating an object, in particular a device comprising at least one omnidirectional camera (2) and an optical display unit arranged in a vehicle (1), in which the image displayed by the display unit is The visual field of the virtual camera assumed above (1) is reproduced. At that time, the image of the virtual camera is projected into one object coordinate system, and the point (Xw) generated in the object coordinate system at that time , Xw · y) is projected into the omnidirectional camera, and the pixel (x p ) of the virtual camera image is assumed around the object (1) when the virtual camera image is projected onto the object coordinate system. The virtual is projected so that the pixels are projected onto the assumed plane, projected on the virtual plane within the circle or ellipse, while the pixels (x p ) of the image outside the circle or ellipse rise from the edge of the circle or ellipse. turtle Is transformed into the object coordinate system.
[Selection] Figure 3
Description
本発明は、物体、特に車両に配置された、少なくとも1つの全方位カメラ及び光学的表示ユニットを有する装置のキャリブレーション方法に関し、車両では表示ユニットによって表示された画像が、物体の上方に想定された仮想カメラの視野を再生するものであり、その際に仮想カメラの画像が1つの物体座標系内に投影され、及びその際全方位カメラの画像がその物体座標系に投影される。さらに本発明は、物体、特に車両に配置された、少なくとも1つの全方位カメラ及び光学的表示ユニットを有する装置を使用した画像処理及び画像表示の方法に関する。 The present invention relates to a method for calibrating an object, in particular a device comprising at least one omnidirectional camera and an optical display unit arranged in a vehicle, in which the image displayed by the display unit is assumed above the object. In this case, the image of the virtual camera is projected into one object coordinate system, and the image of the omnidirectional camera is projected onto the object coordinate system. The invention further relates to a method of image processing and image display using a device comprising at least one omnidirectional camera and an optical display unit arranged on an object, in particular a vehicle.
全方位カメラは基本的に公知である。全方位カメラを使って全方向画像(鳥瞰図又はバードアイビューとも呼ばれる)を捉えることができ、全方向画像の画像情報には、例えば捉えた物体又は対象物の位置に関する画像位置のようなデータが、物体と全方位カメラとの距離データを含めて収容されている。 Omnidirectional cameras are basically known. An omnidirectional camera can be used to capture an omnidirectional image (also called a bird's eye view or a bird's eye view), and the image information of the omnidirectional image includes, for example, data such as an image position related to the position of the captured object or object, It contains the distance data between the object and the omnidirectional camera.
全方位カメラは、例えば車両前方、側方及び/又は後方の車両周囲の監視のために使用される。その際、例えば全方位カメラを使用して車両周囲の物体又は対象物が識別される。識別した物体の特に位置及び/又は距離を十分に正確に判定可能にするために、全方位カメラの車両に対する正確な位置及び正確な方向付けが知られている。特に全方位カメラは、カメラが撮影した画像を光学的表示ユニットに表示して運転者に示すことで、トラックなどの見通しの悪い車両を例えば後退走行時のナビゲーション用に使用することができる。この場合、全方位カメラの著しくひずんだ画像が、運転者に鳥瞰図をもたらすように変換される。ここで課題となるのは、車両周囲の近傍領域はこれによって非常によく捉えられるが、より遠くへ離れた物体は表示されないことである。 An omnidirectional camera is used, for example, to monitor the surroundings of the vehicle in front, side and / or rear of the vehicle. At that time, for example, an omnidirectional camera is used to identify objects or objects around the vehicle. In order to be able to determine, in particular, the position and / or distance of the identified object sufficiently accurately, the exact position and the correct orientation of the omnidirectional camera relative to the vehicle is known. In particular, the omnidirectional camera displays an image captured by the camera on an optical display unit and shows it to the driver, so that a vehicle with poor visibility, such as a truck, can be used for navigation when traveling backward, for example. In this case, a significantly distorted image of the omnidirectional camera is converted to provide a bird's eye view to the driver. The problem here is that the nearby area around the vehicle is very well captured, but objects farther away are not displayed.
特許文献1により、画像処理技術が公知であり、この場合、車両周辺のカメラ画像が多数撮影される。これらの画像は、車両周辺がある種の半球又は椀の内面上に投影されたと解釈されるように変換され、その結果より遠くへ離れた像点も表示される。その際に、半球中央領域から外へ向かってひずみが強くなる。この方法は、高い計算コストが必要となる。
本発明の課題は、少なくとも1つの全方位カメラ及び光学的表示ユニットを有する装置による、より改良されたキャリブレーション方法、および、物体、特に車両に配置された、少なくとも1つの全方位カメラ及び光学的表示ユニットを有する装置を使用して画像処理及び画像表示を行う方法を提示することである。 The object of the present invention is to provide a more improved calibration method by means of an apparatus having at least one omnidirectional camera and an optical display unit, and at least one omnidirectional camera and optical arrangement arranged on an object, in particular a vehicle. A method for performing image processing and image display using an apparatus having a display unit is presented.
装置のキャリブレーション方法に関し、本発明の課題は請求項1の特徴によって解決される。画像処理及び画像表示の方法に関し、本発明の課題は請求項5の特徴によって解決される。
With regard to a method for calibrating the device, the object of the present invention is solved by the features of
本発明の有利な発展形態は、従属請求項に開示される。 Advantageous developments of the invention are disclosed in the dependent claims.
本発明に従い、物体、特に車両に配置された、少なくとも1つの全方位カメラ及び光学的表示ユニットを有する装置は次に記述される方法によって構成される。物体の上方には仮想カメラが定義され、このカメラの画像は表示ユニットによって表示される。仮想カメラの画像は、物体座標系に投影される。その際に物体座標系に生じる座標点は、全方位カメラ内に、あるいはその座標系に投影される。 In accordance with the present invention, an apparatus having at least one omnidirectional camera and an optical display unit arranged on an object, in particular a vehicle, is constructed by the method described below. A virtual camera is defined above the object, and an image of this camera is displayed by the display unit. The image of the virtual camera is projected on the object coordinate system. Coordinate points generated in the object coordinate system at this time are projected into the omnidirectional camera or onto the coordinate system.
仮想カメラ画像が物体座標系への投影される際、仮想カメラの画像のピクセルは物体周囲に想定された1つの円又は楕円内で仮想平面上に投影される。円又は楕円の外側の画像のピクセルは、円又は楕円の縁から立ち上がる、仮想面上にピクセルが投影されるように、仮想カメラによって物体座標系に変換され、その際、物体座標系内の面上のピクセルの高さは、円又は楕円の中心点からのピクセルの距離に比例している。このようにキャリブレーションされた系により、物体により近い周辺は円又は楕円内で広範囲に及んでひずまずに表示される一方で、公知の方法では見えない、より遠くに離れた周辺範囲も表示される。このようにして得られた拡大鳥瞰図は、直観的で広い視野領域を生成する。車両の運転者にとっては、特に後退走行しながらのパーキング操舵がより簡単になる。 When the virtual camera image is projected onto the object coordinate system, the pixels of the virtual camera image are projected onto the virtual plane within one circle or ellipse assumed around the object. Pixels in the image outside the circle or ellipse are transformed into the object coordinate system by the virtual camera so that the pixels are projected onto the virtual surface rising from the edge of the circle or ellipse, with the plane in the object coordinate system The height of the upper pixel is proportional to the pixel distance from the center point of the circle or ellipse. The system calibrated in this way displays the perimeter that is closer to the object in a circle or ellipse over a wide range, while also displaying the farther away perimeter that is not visible with known methods. The The enlarged bird's-eye view obtained in this way is intuitive and generates a wide field of view. For the driver of the vehicle, parking steering especially while traveling backwards becomes easier.
好ましくは、面が円錐台の側表面の形状を有している。その際に、円錐台の側表面は直線状の勾配を有し、それゆえに投影はこの面上で、特に簡単な方法で計算されることができる。さらには、円錐台の側表面は投影面として、非直線状の勾配を備えた面と比べて例えば楕円の場合、画像に生じるひずみが格段に少ないという利点を提供する。円錐台の側表面を使用することにより、運転者にとって特に直観的な、簡単なやりかたでわかりやすい画像表示がもたらされる。この場合、ひずみはせいぜい円錐台の側表面の縁領域に出現するだけで、反対に画像中央の表示は特に有利なやり方でひずみなしに行われる。 Preferably, the surface has the shape of the side surface of the truncated cone. In doing so, the side surface of the truncated cone has a linear gradient, and therefore the projection can be calculated on this plane in a particularly simple manner. Furthermore, the side surface of the truncated cone provides an advantage that the distortion generated in the image is remarkably reduced in the case of an ellipse, for example, as a projection surface compared to a surface having a non-linear gradient. The use of the side surface of the truncated cone provides an image display that is particularly intuitive and easy to understand for the driver. In this case, the distortion only appears at the edge region of the side surface of the truncated cone, and on the contrary, the display of the center of the image takes place in a particularly advantageous manner without distortion.
全方位カメラは、好ましくは、カメラの視界全体を含んでいるキャリブレーション体を使用して内部パラメータに関して、キャリブレーションされる。キャリブレーション体は特に樽形状を有し、その内側には環状の印が備えられている。全方位カメラをキャリブレーションするために、印は、特に、非特許文献1(T. Luhmann . Nahbereichsphotogrammetrie, Herbert Wichmann Verlag(2000. 4))に記述されている方法によって、サブピクセル精度で測定される。例えば物体座標系に関して、カメラの並進と回転のようなカメラの外部パラメータは、物体に取り付けられた全方位カメラによって特定される。この場合、長方形の印を使用することができる。例えばこの場合、非特許文献2(L.E. Krueger, C. Woehler, A. Wurz-Wessel, F. Stein. In-factory calibration of multiocular camera Systems. SPIE Photonics Europe(Optical Metrology in Production Engineering), 5457:126頁〜137頁(2004年9月)4,5)に記述されている方法を使用する。 The omnidirectional camera is preferably calibrated with respect to internal parameters using a calibration body that contains the entire field of view of the camera. The calibration body has a barrel shape in particular and is provided with an annular mark inside. In order to calibrate an omnidirectional camera, the indicia are measured with sub-pixel accuracy, in particular by the method described in Non-Patent Document 1 (T. Luhmann. . For example, with respect to the object coordinate system, camera external parameters such as camera translation and rotation are specified by an omnidirectional camera attached to the object. In this case, a rectangular mark can be used. For example, in this case, Non-Patent Document 2 (LE Krueger, C. Woehler, A. Wurz-Wessel, F. Stein. In-factory calibration of multi-systems on SPIR. : Pages 126 to 137 (September 2004) 4, 5) are used.
カメラの内部パラメータは、それぞれ座標系及び歪曲に関して、例えば焦点距離、ピクセルサイズ(幅、高さ)、画像中心点などである。 The internal parameters of the camera are, for example, a focal length, a pixel size (width and height), an image center point, and the like regarding the coordinate system and distortion.
そのようにキャリブレーションされた装置は、画像処理及び画像表示の方法で使用され、この方法においては物体周辺が全方位カメラによって撮影され、キャリブレーションに相応して表示ユニットに再生される。 The device so calibrated is used in a method of image processing and image display, in which the object periphery is imaged by an omnidirectional camera and reproduced on a display unit in accordance with the calibration.
その際に、好ましくは、例えば車両背面のルーフエッジの範囲に配置されることができる2つの全方位カメラを使用する。しかし、さらに多くの全方位カメラを、又はだだ1つの全方位カメラを備えていてもよい。 In doing so, preferably two omnidirectional cameras are used, which can be arranged, for example, in the area of the roof edge on the back of the vehicle. However, more omnidirectional cameras or just one omnidirectional camera may be provided.
特に、複数の全方位カメラに捉えられる範囲は、車両に関して非シンメトリックに複数のカメラに分割される。この分割は、例えば独国特許出願公告第102006003538B3号明細書に記述されている。これによって、背面投影から仮想平面へもたらされる、周辺を平坦に仮定した結果として、車両周辺の別の物体が視界から消失することが回避される。その際、物体座標系の各点は、車両の後ろとその右に配置された全方位カメラに投影される。車両左の各点は、左に配置された全方位カメラに投影される。 In particular, a range captured by a plurality of omnidirectional cameras is divided into a plurality of cameras non-symmetrically with respect to the vehicle. This division is described, for example, in German Patent Application Publication No. 102006003538B3. This avoids the disappearance of another object around the vehicle from view as a result of assuming a flat perimeter that is brought from the rear projection to the virtual plane. At that time, each point in the object coordinate system is projected onto an omnidirectional camera arranged behind and to the right of the vehicle. Each point on the left of the vehicle is projected onto an omnidirectional camera arranged on the left.
好ましくは、後退走行している車両の場合及び/又は後退ギヤに入れられている場合、舵角に依存して走行動作が予測され、画像が表示ユニットに重ねられる。このようにして、運転者は現在の舵角で車両を後退走行させた場合に希望の位置に到達できるかどうかを判断することができる。 Preferably, in the case of a vehicle traveling backward and / or in a reverse gear, the traveling operation is predicted depending on the steering angle, and the image is superimposed on the display unit. In this way, the driver can determine whether the desired position can be reached when the vehicle is driven backward at the current steering angle.
予測を簡素化するために、演算は単一軌道モデルに基づき、このモデルでは1本の車軸の2つの車輪につき1つの仮想車輪が車軸の中央にモデル化されている。 In order to simplify the prediction, the calculation is based on a single track model, in which one virtual wheel is modeled in the middle of the axle for every two wheels of an axle.
以下では、本発明の実施例を図を使用して詳細に説明する。 In the following, embodiments of the present invention will be described in detail with reference to the drawings.
全図において互いに対応する部材には同一の符号を付している。
In the drawings, members corresponding to each other are denoted by the same reference numerals.
図1は、2つの全方位カメラ2を備えた、車両として形成された物体1の背面である。符号1は、以下でも車両に使用される。
FIG. 1 is a rear view of an
全方位カメラ2は車両1の周辺を、車両1の側方と後方を非常に広角で撮影する。処理されたカメラ画像は、車両1内の、図示されていない表示ユニットに表示される。カメラ2はこのために、車両1に関してキャリブレーションされる。カメラ2は固定されていることから、キャリブレーションを実施する必要は1回のみである。
The
キャリブレーションの目的は、第一に車両1及びその周辺を鳥瞰図で表示することである。このために、1つの仮想カメラが車両1の上に定義される。仮想カメラのピクセルxp=(xp.x, xp.y)Tは、仮想平面Y=0上に投影され(平坦な世界を仮定)、その際に車両1で調整された物体座標系に点Xwが生じる。:
Xw=λXr+Cp
その際、
λ=Cp・y/Xr・y
Xr=RpXp=Rp(xp.x, xp.y, f)T
この場合、fは仮想カメラの焦点距離、Rp及びCpは物体座標系に関する仮想カメラの回転及び並進であり、この座標系の座標原点は、例えば車両1背面のバンパー中央にあってよく、y軸は垂直に上を指している。
The purpose of calibration is to first display the
X w = λX r + C p
that time,
λ = C p · y / X r · y
X r = R p X p = R p (x p .x, x p .y, f) T
In this case, f is the focal length of the virtual camera, R p and C p are the rotation and translation of the virtual camera with respect to the object coordinate system, and the coordinate origin of this coordinate system may be at the center of the bumper on the back of the
背面投影された点Xwは、少なくとも1つの全方位カメラ2内に、つまりそれによって撮影された画像内に投影される。この投影は、詳細が非特許文献3(C. Toepfer, T. Ehlgen. A unifying omnidirectional camera model and ist applications . In Omnivs(2007年2月))に記述されている。
The rear-projected point Xw is projected into at least one
背面投影から仮想平面に生じた、周辺を平坦に仮定した結果として、車両1周辺の別の物体が視界から消失することを回避するため、車両に関して、全方位カメラで捉えられた範囲の非シンメトリックな分割が選択される。その際、物体座標系の各点Xwでは、車両1の後ろとその右の点が右側に配置された全方位カメラ2に投影される。車両1左の各点Xwは、左側に配置された全方位カメラ2に投影される。この詳細は、例えば独国特許出願公告第102006003538B3号明細書に記述されている。
As a result of assuming the periphery to be flat from the rear projection on the virtual plane, in order to avoid the disappearance of other objects around the
図2は、車両1及びその周辺の模式図が、2つの全方位カメラ2及び光学的表示ユニットを有するそのようにキャリブレーションされた装置によって達成された標準鳥瞰図で示されている。キャリブレーションを使って、チェス盤模様によって示唆されたような、示されたひずみを修正した表示が達成される。2つの全方位カメラ2における視野領域の非シンメトリック分割は、チェス盤模様が異なって表示されることによって示される。車両1の運転者は、車両1の周辺に障害物が存在するかどうかを確認できる。この範囲内で、従来技術による方法が知られている。
FIG. 2 shows a schematic diagram of the
本発明に従い、2つの全方位カメラ2及び光学的表示ユニットを有する装置は、仮想平面Y=0への背面投影が車両1の周辺の内側領域3でのみ行われるようにキャリブレーションされる。この内側領域3は、車両1又は物体座標系の座標原点の周りの半径rを備える、仮想の円内にある。仮想カメラ画像内の各ピクセルxpは、仮想平面に背面投影され、それによって重なり合い、その結果、点Xwが物体座標系に生じる。投影された点Xwの内挿は、ピクセルxpの強度値をもたらす。
In accordance with the invention, the device comprising two
内側領域3の外の点Xwは、仮想平面上ではなく、円の縁から立ち上がる面に投影される。つまり、点Xwの距離の高さXw・Yは、円の中心点に依存する:
図4は、車両1内の光学的表示ユニットに示された車両1の及びその周辺の光景が拡大された鳥瞰図と、その上に重ね合わせられた後退走行時の予測的走行動作である。走行動作は、リヤバンパーの動きが第1の通路4に、フロントバンパーの動きが第2の通路5に表示され、その通路内で車両1は、現在の舵角δRが変更されない限り、舵角δRに相応して動かされる。舵角δRが変更されると、予測はそれに相応して適合されなければならない。通路の線4.1は、リヤバンパーを表している。4.2は、例えば車両1のリヤゲートの旋回範囲に相当し得る、バンパーから後方1mの距離を表している。線4.3は、およそ車両1の長さの距離を表している。内側領域3を取り囲む円の半径rは、少なくとも線4.3からリヤバンパーまでの距離に相当しているはずである。
FIG. 4 shows a bird's-eye view in which the scene of the
予測を簡素化するために、演算は、いわゆる単一軌道モデル6に基づき、このモデルでは車両1の1本の車軸の2つの車輪につき1つの仮想車輪7が車軸の中央にモデル化されている。フロント及びリヤの仮想車輪7は、固定された線で接続されている。このモデルは、車両1がその縦軸周りには動かず、どの車輪の荷重も同じに維持されるという制限の下で十分である。後退走行しながらのパーキング操舵時のような低速の場合、この仮定は正当である。これに関連して、このモデル仮定に基づき、1つあるいは複数の通路が画像内に表示されることができ、こ(れら)の通路により、運転者にとって特に状況の直感的な認知が可能になり、特に車両のパーキング操舵が簡単になる。
In order to simplify the prediction, the calculation is based on a so-called
以下の固定パラメータが、単一軌道モデル6で考慮される:
lw 車両の幅
lFR 前後車軸間の距離
lRQ 後車軸とリヤバンパー間の距離
さらに以下の可変パラメータが使用される:
δR 舵角
The following fixed parameters are considered in the single trajectory model 6:
l w vehicle width l FR distance between front and rear axles l distance between RQ rear axle and rear bumper Further variable parameters are used:
δ R rudder angle
さらに別のパラメータは舵角δRに依存する:
rF 仮想の前車輪7の運動半径
rR 仮想の後車輪7の運動半径
rQ リヤバンパー中心点の運動半径
rP リヤバンパー左外点の運動半径
rS リヤバンパー右外点の運動半径
ΨQ 舵角δRによって決められる瞬間回転中心8から、後車輪7及びリヤバンパー中心点を結ぶ線が成す角度。
Yet another parameter is dependent on the steering angle [delta] R:
r F virtual
モデルは次の方程式を使用して構成される:
rF=lFR/sinδR
rR=rF・cosδR
tanΨQ=lRQ/rR
rQ=rR/cosΨQ
一般的な関係:1/cos2α=1+tan2αは次を導く:
r F = l FR / sin δ R
r R = r F · cos δ R
tan Ψ Q = l RQ / r R
r Q = r R / cos Ψ Q
General relationship: 1 / cos 2 α = 1 + tan 2 α leads to:
全方位カメラ2は、特にミラーレンズカメラとして形成される。
The
記述された方法は、同様にただ1つの全方位カメラ2を使用して、又は2以上の全方位カメラ2を使用して実施することができる。
The described method can likewise be carried out using only one
記述された方法は、原理上任意の物体1で実施することができる。
The described method can in principle be carried out on any
カメラ2は、車両1のルーフエッジの領域に配置することができる。
The
内側領域3は、1つの円を用いる代わりに、1つの楕円を用いて記述することができる。
The
仮想平面は、車両1が置かれている地面に相当することができる。
The virtual plane can correspond to the ground on which the
1 物体、車両
2 全方位カメラ
3 内側領域
4.1 線
4.2 線
4.3 線
5 第2の通路
6 単一軌道モデル
7 仮想車輪
8 瞬間回転中心
Cp 仮想カメラの並進
δR 操舵角
f 仮想カメラの焦点距離
lW 車両の幅
lFR 前後車軸間の距離
lRQ 後車軸とリヤバンパー間の距離
ΨQ 仮想後車輪とリヤバンパー中心点が成す角度
r 半径
rF 仮想前車輪の運動半径
rP リヤバンパー左外点の運動半径
rQ リヤバンパー中心点の運動半径
rR 仮想後車輪6の運動半径
rs リヤバンパー右外点の運動半径
Rp 仮想カメラの回転
xp 仮想カメラのピクセル
Xw 物体座標系内の点
Xw・y 物体座標系内の点の高さ
DESCRIPTION OF
r s rotation x p points X w · y height of points in the object coordinate system in the virtual camera pixel X w object coordinate system of the rear bumper right outside point of movement radius R p virtual camera
Claims (9)
該仮想カメラ画像が該物体座標系へ投影される際、該物体(1)周囲に想定された円又は楕円の範囲内の該仮想カメラの画像セル(xp)は、仮想平面上に投影され、該円又は楕円の外側の画像のピクセル(xp)は、該円又は楕円の縁から立ち上がる仮想の面上に投影されるように、該仮想カメラによって物体座標系へ変換され、該物体座標系内の該仮想の面上の点(Xw、Xw・y)の高さは、点(Xw)から前記円又は楕円の中心点までの距離に比例していることを特徴とする方法。 In a method for calibrating a device comprising at least one omnidirectional camera (2) and an optical display unit arranged on an object (1), in particular a vehicle (1), the vehicle displays an image displayed by the display unit. The virtual camera field of view assumed above is reproduced, and an image from the virtual camera is projected onto one object coordinate system, and points (X w , X w · y ) generated in the object coordinate system are A method of projecting into an omnidirectional camera,
When the virtual camera image is projected onto the object coordinate system, the image cell (x p ) of the virtual camera within the circle or ellipse assumed around the object (1) is projected onto the virtual plane. The pixel (x p ) of the image outside the circle or ellipse is transformed into the object coordinate system by the virtual camera so that it is projected onto a virtual plane rising from the edge of the circle or ellipse, and the object coordinates The height of the point (X w , X w · y ) on the virtual plane in the system is proportional to the distance from the point (X w ) to the center point of the circle or ellipse. Method.
The prediction is based on a single track model (6), where one virtual wheel (7) is modeled in the center of the axle for every two wheels of one axle of the vehicle (1). 9. A method according to claim 8, characterized in that
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007049821.9 | 2007-10-16 | ||
DE102007049821A DE102007049821A1 (en) | 2007-10-16 | 2007-10-16 | Method for calibrating an arrangement with at least one omnidirectional camera and an optical display unit |
PCT/EP2008/008023 WO2009049750A2 (en) | 2007-10-16 | 2008-09-23 | Method for calibrating an assembly using at least one omnidirectional camera and an optical display unit |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011500407A true JP2011500407A (en) | 2011-01-06 |
JP5077606B2 JP5077606B2 (en) | 2012-11-21 |
Family
ID=40458801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010529255A Expired - Fee Related JP5077606B2 (en) | 2007-10-16 | 2008-09-23 | Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit |
Country Status (5)
Country | Link |
---|---|
US (1) | US8599258B2 (en) |
EP (1) | EP2198390A2 (en) |
JP (1) | JP5077606B2 (en) |
DE (1) | DE102007049821A1 (en) |
WO (1) | WO2009049750A2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019176402A (en) * | 2018-03-29 | 2019-10-10 | 株式会社富士通ゼネラル | Image processor |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9858798B2 (en) | 2013-05-28 | 2018-01-02 | Aai Corporation | Cloud based command and control system integrating services across multiple platforms |
JP6271917B2 (en) * | 2013-09-06 | 2018-01-31 | キヤノン株式会社 | Image recording apparatus and imaging apparatus |
US9674433B1 (en) * | 2014-07-24 | 2017-06-06 | Hoyos Vsn Corp. | Image center calibration for a quadric panoramic optical device |
CN104089579A (en) * | 2014-08-05 | 2014-10-08 | 吉林大学 | Camera calibration target of automobile visual inspection system based on spherical coordinates |
DE102014011915A1 (en) | 2014-08-12 | 2016-02-18 | Man Truck & Bus Ag | A method of warning road users of potential danger areas caused by a vehicle performing or wishing to carry out a driving maneuver |
CN106296642A (en) * | 2015-06-09 | 2017-01-04 | 汪浩 | The method that vehicle-mounted viewing system photographic head inside and outside parameter is disposably demarcated |
CN107534757B (en) * | 2015-08-10 | 2020-04-10 | Jvc 建伍株式会社 | Vehicle display device and vehicle display method |
KR102597435B1 (en) * | 2016-04-20 | 2023-11-03 | 엘지이노텍 주식회사 | Image acquiring device and methid of the same |
JP2017220051A (en) * | 2016-06-08 | 2017-12-14 | ソニー株式会社 | Image processing device, image processing method and vehicle |
EP3561773B1 (en) * | 2018-04-26 | 2022-03-02 | Continental Automotive GmbH | Online evaluation for camera intrinsic parameters |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006155428A (en) * | 2004-11-30 | 2006-06-15 | Honda Motor Co Ltd | Apparatus for monitoring area around vehicle |
JP2007049276A (en) * | 2005-08-08 | 2007-02-22 | Sanyo Electric Co Ltd | On-vehicle panorama camera system |
JP2007091157A (en) * | 2005-09-30 | 2007-04-12 | Aisin Seiki Co Ltd | Operation assisting device |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1115250B1 (en) | 1998-07-31 | 2012-06-06 | Panasonic Corporation | Method and apparatus for displaying image |
EP1043191B1 (en) * | 1999-03-19 | 2003-07-30 | Yazaki Corporation | Back monitoring apparatus for vehicle |
EP2410741A1 (en) | 1999-04-16 | 2012-01-25 | Panasonic Corporation | Image processing apparatus and monitoring system |
JP3624769B2 (en) * | 1999-09-30 | 2005-03-02 | 株式会社豊田自動織機 | Image conversion device for vehicle rear monitoring device |
KR20020033816A (en) * | 2000-07-19 | 2002-05-07 | 마츠시타 덴끼 산교 가부시키가이샤 | Monitoring system |
SE522121C2 (en) * | 2000-10-04 | 2004-01-13 | Axis Ab | Method and apparatus for digital processing of frequently updated images from a camera |
KR100866450B1 (en) * | 2001-10-15 | 2008-10-31 | 파나소닉 주식회사 | Automobile surrounding observation device and method for adjusting the same |
JP3871614B2 (en) * | 2002-06-12 | 2007-01-24 | 松下電器産業株式会社 | Driving assistance device |
JP3620532B2 (en) * | 2002-11-12 | 2005-02-16 | 日産自動車株式会社 | Vehicle notification device |
DE102006003538B3 (en) * | 2006-01-24 | 2007-07-19 | Daimlerchrysler Ag | Image acquisitions merging method for bird`s eye perspective, involves selecting image sections such that shadowing effects produced by moved objects are projected during transition in overall image from image section to other section |
JP4742953B2 (en) * | 2006-03-31 | 2011-08-10 | 株式会社デンソー | Image processing apparatus, image display system, and program |
US9240029B2 (en) * | 2007-04-30 | 2016-01-19 | Here Global B.V. | Street level video simulation display system and method |
JP5222597B2 (en) * | 2008-03-19 | 2013-06-26 | 三洋電機株式会社 | Image processing apparatus and method, driving support system, and vehicle |
-
2007
- 2007-10-16 DE DE102007049821A patent/DE102007049821A1/en not_active Withdrawn
-
2008
- 2008-09-23 EP EP08802513A patent/EP2198390A2/en not_active Withdrawn
- 2008-09-23 JP JP2010529255A patent/JP5077606B2/en not_active Expired - Fee Related
- 2008-09-23 WO PCT/EP2008/008023 patent/WO2009049750A2/en active Application Filing
- 2008-09-23 US US12/681,807 patent/US8599258B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006155428A (en) * | 2004-11-30 | 2006-06-15 | Honda Motor Co Ltd | Apparatus for monitoring area around vehicle |
JP2007049276A (en) * | 2005-08-08 | 2007-02-22 | Sanyo Electric Co Ltd | On-vehicle panorama camera system |
JP2007091157A (en) * | 2005-09-30 | 2007-04-12 | Aisin Seiki Co Ltd | Operation assisting device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019176402A (en) * | 2018-03-29 | 2019-10-10 | 株式会社富士通ゼネラル | Image processor |
JP7081265B2 (en) | 2018-03-29 | 2022-06-07 | 株式会社富士通ゼネラル | Image processing equipment |
Also Published As
Publication number | Publication date |
---|---|
WO2009049750A3 (en) | 2009-09-03 |
JP5077606B2 (en) | 2012-11-21 |
US20100214412A1 (en) | 2010-08-26 |
US8599258B2 (en) | 2013-12-03 |
EP2198390A2 (en) | 2010-06-23 |
DE102007049821A1 (en) | 2009-04-23 |
WO2009049750A2 (en) | 2009-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5077606B2 (en) | Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit | |
US9858639B2 (en) | Imaging surface modeling for camera modeling and virtual view synthesis | |
CN109741455B (en) | Vehicle-mounted stereoscopic panoramic display method, computer readable storage medium and system | |
JP5491235B2 (en) | Camera calibration device | |
JP5739584B2 (en) | 3D image synthesizing apparatus and method for visualizing vehicle periphery | |
JP5455124B2 (en) | Camera posture parameter estimation device | |
JP6091759B2 (en) | Vehicle surround view system | |
JP5684144B2 (en) | Peripheral image generation method and apparatus | |
JP5944687B2 (en) | Auto calibration of surround view camera with only external parameters | |
US20140114534A1 (en) | Dynamic rearview mirror display features | |
WO2014132680A1 (en) | Program and device for controlling vehicle | |
CN109948398A (en) | The image processing method and panorama parking apparatus that panorama is parked | |
CN103617606A (en) | Vehicle multi-angle panorama generating method for aided driving | |
JP2012105158A (en) | Combination vehicle birds-eye-view display system | |
JP2009524171A (en) | How to combine multiple images into a bird's eye view image | |
CN104442567A (en) | Object Highlighting And Sensing In Vehicle Image Display Systems | |
US11159744B2 (en) | Imaging system, and mobile system | |
JP2010232723A (en) | Vehicle periphery display device | |
JP2008187564A (en) | Camera calibration apparatus and method, and vehicle | |
KR20190047027A (en) | How to provide a rearview mirror view of the vehicle's surroundings in the vehicle | |
JP2010136289A (en) | Device and method for supporting drive | |
US20200117918A1 (en) | Vehicle lane marking and other object detection using side fisheye cameras and three-fold de-warping | |
JP2016149613A (en) | Camera parameter adjustment device | |
US20160121806A1 (en) | Method for adjusting output video of rear camera for vehicles | |
JP2007181129A (en) | Vehicle-mounted movable body detection instrument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120801 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120814 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150907 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |