JP4857143B2 - Camera posture calculation target device, camera posture calculation method using the same, and image display method - Google Patents

Camera posture calculation target device, camera posture calculation method using the same, and image display method Download PDF

Info

Publication number
JP4857143B2
JP4857143B2 JP2007039469A JP2007039469A JP4857143B2 JP 4857143 B2 JP4857143 B2 JP 4857143B2 JP 2007039469 A JP2007039469 A JP 2007039469A JP 2007039469 A JP2007039469 A JP 2007039469A JP 4857143 B2 JP4857143 B2 JP 4857143B2
Authority
JP
Japan
Prior art keywords
camera
pattern
image
target device
patterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007039469A
Other languages
Japanese (ja)
Other versions
JP2008205811A (en
Inventor
治男 伊藤
杰 姚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2007039469A priority Critical patent/JP4857143B2/en
Publication of JP2008205811A publication Critical patent/JP2008205811A/en
Application granted granted Critical
Publication of JP4857143B2 publication Critical patent/JP4857143B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Accessories Of Cameras (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、カメラ姿勢算出用ターゲット装置およびこれを用いたカメラ姿勢算出方法ならびに画像表示方法に係り、特に、基準面に対するカメラの姿勢を算出するのに好適なカメラ姿勢算出用ターゲット装置およびこれを用いたカメラ姿勢算出方法ならびに画像表示方法に関する。   The present invention relates to a camera posture calculation target device, a camera posture calculation method using the same, and an image display method, and more particularly to a camera posture calculation target device suitable for calculating the posture of a camera relative to a reference plane and the same. The present invention relates to a used camera orientation calculation method and an image display method.

従来から、カメラの撮影画像を用いた画像表示方法として、車両に取り付けられた複数台のカメラによって車両の周辺の道路面や駐車場面等の撮影対象面を撮影し、撮影された画像に基づいて車両の周辺を監視するための車両周辺監視画像を生成してディスプレイに表示する方法が採用されていた。   Conventionally, as an image display method using captured images of a camera, a plurality of cameras attached to the vehicle are used to shoot a shooting target surface such as a road surface or a parking scene around the vehicle, and based on the captured image A method of generating a vehicle periphery monitoring image for monitoring the periphery of the vehicle and displaying it on a display has been adopted.

車両周辺監視画像としては、例えば、トップビュー画像と称される車両およびその周辺を車両の上方から見下ろした俯瞰画像(以下、同様)や、車両の側方を監視するためのサイドビュー画像等が知られていた。   Examples of the vehicle periphery monitoring image include a vehicle called a top view image and a bird's-eye view image of the periphery of the vehicle viewed from above (hereinafter the same), a side view image for monitoring the side of the vehicle, and the like. It was known.

このような画像表示方法では、カメラによる撮影対象面の撮影画像を、この撮影画像と車両周辺監視画像との座標の対応関係が記述されたマッピングテーブルを用いて座標変換(視点変換)することによって、車両周辺監視画像を生成するようになっているのが一般的である。   In such an image display method, a captured image of a surface to be captured by a camera is subjected to coordinate conversion (viewpoint conversion) using a mapping table in which the correspondence relationship between the captured image and the vehicle periphery monitoring image is described. Generally, a vehicle periphery monitoring image is generated.

このマッピングテーブルは、撮影対象面に対するカメラの姿勢(すなわち位置および方向)が適切(換言すれば設計通り)であれば正しく機能し、各カメラによる撮影対象面の撮影画像に基づいて、画像の歪みや欠け等の少ない良好な車両周辺監視画像を生成することが可能とされていた。   This mapping table functions correctly if the camera posture (ie, position and direction) with respect to the shooting target plane is appropriate (in other words, as designed), and image distortion is based on the shot image of the shooting target plane by each camera. It was possible to generate a good vehicle periphery monitoring image with little or no chipping.

しかしながら、必ずしも、カメラを設計通りに高精度に車両に取り付けることができない場合があり、そのような場合には、撮影対象面に対するカメラの姿勢が適切な姿勢からずれることになり、良好な車両周辺監視画像の生成に支障をきたす虞があった。   However, it may not always be possible to attach the camera to the vehicle with high accuracy as designed. In such a case, the posture of the camera with respect to the surface to be photographed will deviate from an appropriate posture, and a good vehicle periphery There is a risk of hindering the generation of the monitoring image.

そこで、従来から、車載機においては、撮影対象面の撮影画像に基づく車両周辺監視画像の表示を行う以前に、予め、撮影対象面と同一とみなすことができる車両の載置面に対するカメラの姿勢を算出するようになっていた。そして、算出された姿勢が適切な姿勢からずれている場合には、ずれに応じたマッピングテーブルの補正を行い、補正後のマッピングテーブルを用いた車両周辺監視画像の生成および表示を行うようになっていた。   Therefore, conventionally, in an in-vehicle device, before displaying a vehicle periphery monitoring image based on a captured image of a surface to be imaged, the posture of the camera with respect to the mounting surface of the vehicle that can be regarded as the same as the surface to be imaged in advance. Was supposed to be calculated. When the calculated posture deviates from an appropriate posture, the mapping table is corrected according to the deviation, and the vehicle periphery monitoring image is generated and displayed using the corrected mapping table. It was.

このようなマッピングテーブルの補正のためのカメラの姿勢の算出方法の一例として、例えば、図21に示すように、複数個の円形のパターン1が縦横に所定の整列間隔を設けて整列されたパターン面2を有するカメラ姿勢算出用ターゲットボード3を用いた算出方法が知られていた。   As an example of a camera posture calculation method for correcting such a mapping table, for example, as shown in FIG. 21, a pattern in which a plurality of circular patterns 1 are arranged at predetermined alignment intervals vertically and horizontally. A calculation method using a camera posture calculation target board 3 having a surface 2 has been known.

すなわち、このようなカメラ姿勢算出用ターゲットボード3を用いたカメラの姿勢の算出を行う場合には、まず、図22に示すように、カメラ姿勢算出用ターゲットボード3を、車両5の載置面(例えば、自動車生産工場や自動車整備工場内の敷地面)上に、パターン面2を上に向けるようにして設置する。   That is, when calculating the camera posture using such a camera posture calculation target board 3, first, as shown in FIG. 22, the camera posture calculation target board 3 is placed on the mounting surface of the vehicle 5. It is installed with the pattern surface 2 facing upward (for example, a site surface in an automobile production factory or an automobile maintenance factory).

次いで、車両5の載置面上に設置されたカメラ姿勢算出用ターゲットボード3におけるパターン面2を、車両5に取り付けられたカメラ6によって上方から撮影する。   Next, the pattern surface 2 of the camera posture calculation target board 3 installed on the mounting surface of the vehicle 5 is photographed from above by the camera 6 attached to the vehicle 5.

次いで、パターン面2の撮影画像から、当該撮影画像におけるパターン(以下、パターンイメージと称する)の特徴点(例えば、円形のパターンイメージの中心点)を抽出する。   Next, a feature point (for example, a center point of a circular pattern image) of a pattern (hereinafter referred to as a pattern image) in the captured image is extracted from the captured image of the pattern surface 2.

そして、抽出された特徴点と、既知のカメラ6の内部パラメータ(焦点距離、歪み特性、画像中心等)と、既知の特徴点の三次元ワールド座標系における座標点とを用いて、カメラ6の外部パラメータを算出する。   Then, using the extracted feature points, the internal parameters of the camera 6 (focal length, distortion characteristics, image center, etc.) and the coordinate points of the known feature points in the three-dimensional world coordinate system, Calculate external parameters.

なお、カメラ6の外部パラメータとしては、三次元ワールド座標系におけるカメラ6の方向を規定する回転行列および三次元ワールド座標系におけるカメラ6の位置を規定する平行移動ベクトルが知られており、これらの外部パラメータが、車両の載置面に対するカメラ6の姿勢そのものを示している。   As external parameters of the camera 6, a rotation matrix that defines the direction of the camera 6 in the three-dimensional world coordinate system and a translation vector that defines the position of the camera 6 in the three-dimensional world coordinate system are known. The external parameter indicates the attitude of the camera 6 with respect to the mounting surface of the vehicle.

そして、このようにしてカメラ6の姿勢を算出した後には、算出されたカメラ6の姿勢に基づいて、マッピングテーブルを補正するようになっていた。   Then, after calculating the attitude of the camera 6 in this way, the mapping table is corrected based on the calculated attitude of the camera 6.

特開2001−285681号公報JP 2001-285681 A

ところで、前述したようなカメラ姿勢算出用ターゲットボード3は、カメラ姿勢算出用ターゲットボード3に対してカメラ6が真上に位置している場合、すなわち、カメラ6の光軸とパターン面2とのなす角度が90°の場合には、良好な車両周辺監視画像の生成に適したパターンイメージを撮影することができる。   By the way, the camera posture calculation target board 3 as described above is located when the camera 6 is located directly above the camera posture calculation target board 3, that is, between the optical axis of the camera 6 and the pattern surface 2. When the formed angle is 90 °, a pattern image suitable for generating a good vehicle periphery monitoring image can be taken.

しかしながら、図22に示すように、カメラ6の光軸OAとパターン面2とのなす角度α〔deg〕が90°以外の場合には、カメラ6によるパターン面2の撮影画像7は、図23のように、パターンイメージ1’の大きさが不均一なものとなっていた。   However, as shown in FIG. 22, when the angle α [deg] between the optical axis OA of the camera 6 and the pattern surface 2 is other than 90 °, the captured image 7 of the pattern surface 2 by the camera 6 is as shown in FIG. As described above, the size of the pattern image 1 ′ is not uniform.

このような現象は、魚眼レンズ等の超広角レンズを備えたカメラ6を用いる場合に特に顕著なものとなっていた。   Such a phenomenon is particularly noticeable when the camera 6 having a super wide angle lens such as a fisheye lens is used.

そして、このような撮像画像7からは、パターンイメージ1’の特徴点を正確に抽出することができない場合があった。   In some cases, the feature point of the pattern image 1 ′ cannot be accurately extracted from the captured image 7.

特に、パターン面2におけるカメラ6から遠い位置に配置されているパターン1は、カメラ6の光軸OAとパターン面2との交点付近に存在するパターン1に比べて小さなパターンイメージ1’として撮影(結像)されることになり、実物の形状に対する歪みも大きくなる。このような歪みが大きなパターンイメージ1’からは、特徴点を正確に抽出することが非常に困難であった。   In particular, the pattern 1 arranged at a position far from the camera 6 on the pattern surface 2 is photographed as a smaller pattern image 1 ′ than the pattern 1 existing near the intersection between the optical axis OA of the camera 6 and the pattern surface 2 ( Image), and distortion with respect to the actual shape increases. It has been very difficult to accurately extract feature points from the pattern image 1 'having such a large distortion.

そして、このことによって、従来は、カメラの姿勢を高精度に算出することが困難になるといった問題が生じていた。   As a result, there has conventionally been a problem that it is difficult to calculate the posture of the camera with high accuracy.

そこで、本発明は、このような問題点に鑑みなされたものであり、基準面に対するカメラの姿勢を高精度に算出することができ、ひいては、撮影対象面の撮影画像に基づいて良好な表示画像を得ることができるカメラ姿勢算出用ターゲット装置およびこれを用いたカメラ姿勢算出方法ならびに画像表示方法を提供することを目的とするものである。   Therefore, the present invention has been made in view of such problems, and can calculate the orientation of the camera with respect to the reference plane with high accuracy, and as a result, a good display image based on the captured image of the imaging target surface. It is an object of the present invention to provide a camera posture calculation target device capable of obtaining the above, a camera posture calculation method using the same, and an image display method.

前述した目的を達成するため、本発明に係るカメラ姿勢算出用ターゲット装置は、基準面の上方の取り付け位置に、前記基準面と光軸とが90°以外の角度をなすように取り付けられたカメラの前記基準面に対する姿勢の算出に使用されるカメラ姿勢算出用ターゲット装置であって、複数個のパターンが形成されたパターン面を有し、前記基準面上へのターゲット装置本体の設置状態において前記カメラによって前記パターン面が撮影され、前記パターン面の撮影画像におけるパターンから特徴点が抽出されることによって前記カメラの姿勢の算出に使用されるように形成され、前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が、均一となるような撮影画像を得ることが可能に形成され、前記基準面上への前記ターゲット装置本体の設置状態において、前記パターン面が前記カメラの光軸に直交するように形成され、前記複数個のパターンが、前記基準面上への前記ターゲット装置本体の設置状態における前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が均一となるような撮影画像を得ることが可能な形状に形成され、前記複数個のパターンの形状は、大きさおよび/または周期が均一なパターンイメージであって、前記カメラの撮像面にとられた二次元座標系である画像座標系における位置が前記撮影画像における当該複数個のパターンと同一となるようなパターンイメージである仮想パターンイメージの集合を、前記カメラの視野範囲内において仮定し、前記画像座標系における前記仮想パターンイメージの座標点を、前記パターン面を含む二次元座標系の座標点に変換して求められた形状であり、なおかつ、前記カメラに搭載されたレンズによる歪曲収差の影響を考慮した形状であることを特徴としている。 In order to achieve the above-described object, a camera posture calculation target device according to the present invention is a camera attached at an attachment position above a reference plane so that the reference plane and the optical axis form an angle other than 90 °. A camera posture calculation target device used for calculating the posture of the reference device with respect to the reference surface, wherein the target device has a pattern surface on which a plurality of patterns are formed, and the target device main body is installed on the reference surface. The pattern surface is photographed by a camera, and a feature point is extracted from a pattern in the photographed image of the pattern surface so as to be used for calculation of the posture of the camera. A size of the plurality of patterns in the photographed image and a small interval between adjacent patterns in a predetermined direction. Kutomo one of which is formed can be obtained photographed image such that the uniform one, in installed state of the target device body onto the reference plane, so that the pattern surface is perpendicular to the optical axis of the camera The plurality of patterns are formed as a photographed image of the pattern surface in the installation state of the target device main body on the reference surface, and the size and predetermined direction of the plurality of patterns in the photographed image The shape of the plurality of patterns is uniform in size and / or period, so that a photographed image can be obtained in which at least one of the intervals between adjacent patterns is uniform. A plurality of positions in an image coordinate system, which is a pattern image, which is a two-dimensional coordinate system taken on the imaging surface of the camera. A set of virtual pattern images, which are pattern images that are the same as one pattern, is assumed within the field of view of the camera, and the coordinate points of the virtual pattern image in the image coordinate system include the pattern plane. a shape obtained by converting the coordinate point dimension coordinate system, yet, it is characterized in the shape der Rukoto in consideration of the influence of distortion due to the mounted lens to the camera.

なお、本願において、パターン面がカメラの光軸に直交するという文言は、パターン面がカメラの光軸に厳密に直交する場合に限らず、ほぼ直交(以下、略直交と称する)する場合も含むものとする。   In the present application, the phrase that the pattern surface is orthogonal to the optical axis of the camera is not limited to the case where the pattern surface is strictly orthogonal to the optical axis of the camera, but includes the case where the pattern surface is approximately orthogonal (hereinafter referred to as approximately orthogonal). Shall be.

さらに、本発明に係る他のカメラ姿勢算出用ターゲット装置は、基準面の上方の取り付け位置に、前記基準面と光軸とが90°以外の角度をなすように取り付けられたカメラの前記基準面に対する姿勢の算出に使用されるカメラ姿勢算出用ターゲット装置であって、複数個のパターンが形成されたパターン面を有し、前記基準面上へのターゲット装置本体の設置状態において前記カメラによって前記パターン面が撮影され、前記パターン面の撮影画像におけるパターンから特徴点が抽出されることによって前記カメラの姿勢の算出に使用されるように形成され、前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が、均一となるような撮影画像を得ることが可能に形成され、前記基準面上への前記ターゲット装置本体の設置状態において、前記パターン面が前記基準面に対して平行になるように形成され、前記複数個のパターンが、前記基準面上への前記ターゲット装置本体の設置状態における前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が均一となるような撮影画像を得ることが可能な形状に形成され、前記複数個のパターンの形状は、大きさおよび/または周期が均一なパターンイメージであって、前記カメラの撮像面にとられた二次元座標系である画像座標系における位置が前記撮影画像における当該複数個のパターンと同一となるようなパターンイメージである仮想パターンイメージの集合を、前記カメラの視野範囲内において仮定し、前記画像座標系における前記仮想パターンイメージの座標点を、前記パターン面を含む三次元座標系の座標点に変換して求められた形状であり、なおかつ、前記カメラに搭載されたレンズによる歪曲収差の影響を考慮した形状であることを特徴としている。 Furthermore, another camera posture calculation target device according to the present invention is such that the reference plane of the camera mounted at an attachment position above the reference plane so that the reference plane and the optical axis form an angle other than 90 °. A camera posture calculation target device used for calculation of the posture with respect to the pattern, the pattern device having a pattern surface on which a plurality of patterns are formed, and the pattern being formed by the camera in a state where the target device body is installed on the reference surface A surface is photographed, and a feature point is extracted from a pattern in the photographed image of the pattern surface, so that it is used for calculation of the posture of the camera. At least one of the size of a plurality of patterns and the interval between adjacent patterns in a predetermined direction is Is formed so as to be able to be obtained photographed image such that one, in installed state of the target device body onto the reference plane, the pattern surface is formed so as to be parallel to the reference plane, the A pattern in which a plurality of patterns are adjacent in the size and a predetermined direction of the plurality of patterns in the photographed image as a photographed image of the pattern surface in the installation state of the target device main body on the reference surface at least one of the spacing between each other is formed in a shape capable of obtaining a captured image such that the uniform one, the shape of the plurality of patterns, size and / or period was in a uniform pattern image The position in the image coordinate system, which is a two-dimensional coordinate system taken on the imaging surface of the camera, is the plurality of patterns in the captured image. A set of virtual pattern images that are the same pattern images is assumed within the field of view of the camera, and the coordinate points of the virtual pattern image in the image coordinate system are represented in a three-dimensional coordinate system including the pattern surface. a shape obtained by converting the coordinate point, yet, it is characterized in the shape der Rukoto in consideration of the influence of distortion due to the mounted lens to the camera.

さらにまた、本発明に係る他のカメラ姿勢算出用ターゲット装置は、前記パターン面が形成された板状体からなることを特徴としている。   Furthermore, another camera posture calculation target device according to the present invention is characterized by comprising a plate-like body on which the pattern surface is formed.

さらにまた、本発明に係る他のカメラ姿勢算出用ターゲット装置は、前記基準面上への前記ターゲット装置本体の設置状態において前記パターン面が前記カメラの光軸に直交するように前記パターン面を前記基準面に対して傾いた状態に保持する保持部材を有することを特徴としている。   Furthermore, in another camera posture calculation target device according to the present invention, the pattern surface is arranged so that the pattern surface is orthogonal to the optical axis of the camera in the installation state of the target device body on the reference surface. It has the holding member hold | maintained in the state inclined with respect to the reference plane, It is characterized by the above-mentioned.

また、本発明に係る他のカメラ姿勢算出用ターゲット装置は、前記カメラが、超広角レンズを備えたカメラとされていることを特徴としている。   Further, another camera posture calculation target device according to the present invention is characterized in that the camera is a camera provided with an ultra-wide angle lens.

さらに、本発明に係る他のカメラ姿勢算出用ターゲット装置は、前記カメラが車両における前記所定の取り付け位置に取り付けられており、前記基準面が前記車両の載置面とされていることを特徴としている。   Furthermore, in another camera posture calculation target device according to the present invention, the camera is mounted at the predetermined mounting position in the vehicle, and the reference plane is a mounting surface of the vehicle. Yes.

さらにまた、本発明に係るカメラ姿勢算出方法は、基準面の上方の取り付け位置に、前記基準面と光軸とが90°以外の角度をなすように取り付けられたカメラの前記基準面に対する姿勢を算出するカメラ姿勢算出方法であって、複数個のパターンが形成されたパターン面を有するカメラ姿勢算出用ターゲット装置であり、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態における前記カメラによる前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が、均一となるような撮影画像を得ることが可能に形成されたカメラ姿勢算出用ターゲット装置を前記基準面上に設置し、この設置された前記カメラ姿勢算出用ターゲット装置における前記パターン面を前記カメラによって撮影し、この撮影によって得られた前記パターン面の撮影画像におけるパターンから特徴点を抽出し、抽出された特徴点に基づいて、前記カメラの姿勢を算出し、その際に、前記カメラ姿勢算出用ターゲット装置として、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態において、前記パターン面が前記カメラの光軸に直交するように形成され、前記複数個のパターンが、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態における前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が均一となるような撮影画像を得ることが可能な形状に形成されたカメラ姿勢算出用ターゲット装置を用いて、前記カメラの姿勢を算出し、前記複数個のパターンの形状は、大きさおよび/または周期が均一なパターンイメージであって、前記カメラの撮像面にとられた二次元座標系である画像座標系における位置が前記撮影画像における当該複数個のパターンと同一となるようなパターンイメージである仮想パターンイメージの集合を、前記カメラの視野範囲内において仮定し、前記画像座標系における前記仮想パターンイメージの座標点を、前記パターン面を含む二次元座標系の座標点に変換して求められた形状であり、なおかつ、前記カメラに搭載されたレンズによる歪曲収差の影響を考慮した形状であることを特徴としている。 Furthermore, the camera orientation calculation method according to the present invention provides an orientation relative to the reference plane of a camera attached at an attachment position above the reference plane so that the reference plane and the optical axis form an angle other than 90 °. A camera posture calculation method for calculating a camera posture calculation target device having a pattern surface on which a plurality of patterns are formed, and the camera in an installation state of the camera posture calculation target device on the reference surface as a photographic image of the pattern surface by at least one of the spacing between adjacent coordinated between patterns in size and a predetermined direction for said plurality of patterns in the captured image, the captured image such that the uniform one A camera posture calculation target device formed so as to be obtainable is installed on the reference plane, and the installed camera The pattern surface in the target device for force calculation is photographed by the camera, the feature point is extracted from the pattern in the photographed image of the pattern surface obtained by the photographing, and the posture of the camera is based on the extracted feature point When the camera posture calculation target device is installed on the reference plane, the pattern surface is formed so as to be orthogonal to the optical axis of the camera. The plurality of patterns are taken as a photographed image of the pattern surface in the installation state of the camera posture calculation target device on the reference surface, and the size of the plurality of patterns in the photographed image and a predetermined value Captured image in which at least one of the intervals between adjacent patterns in the direction is uniform The camera posture is calculated using a camera posture calculation target device formed in a shape capable of obtaining the shape, and the shape of the plurality of patterns is a pattern image having a uniform size and / or period. A set of virtual pattern images that are pattern images such that the positions in the image coordinate system, which is a two-dimensional coordinate system taken on the imaging surface of the camera, are the same as the plurality of patterns in the captured image, Assuming within the field of view of the camera, the coordinate point of the virtual pattern image in the image coordinate system is a shape obtained by converting the coordinate point of the two-dimensional coordinate system including the pattern surface, and the It is characterized in shape der Rukoto in consideration of the influence of distortion due to the mounted lens in the camera.

さらに、本発明に係る他のカメラ姿勢算出方法は、基準面の上方の取り付け位置に、前記基準面と光軸とが90°以外の角度をなすように取り付けられたカメラの前記基準面に対する姿勢を算出するカメラ姿勢算出方法であって、複数個のパターンが形成されたパターン面を有するカメラ姿勢算出用ターゲット装置であり、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態における前記カメラによる前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が、均一となるような撮影画像を得ることが可能に形成されたカメラ姿勢算出用ターゲット装置を前記基準面上に設置し、この設置された前記カメラ姿勢算出用ターゲット装置における前記パターン面を前記カメラによって撮影し、この撮影によって得られた前記パターン面の撮影画像におけるパターンから特徴点を抽出し、抽出された特徴点に基づいて、前記カメラの姿勢を算出し、その際に、前記カメラ姿勢算出用ターゲット装置として、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態において、前記パターン面が前記基準面に対して平行になるように形成され、前記複数個のパターンが、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態における前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が均一となるような撮影画像を得ることが可能な形状に形成されたカメラ姿勢算出用ターゲット装置を用いて、前記カメラの姿勢を算出し、前記複数個のパターンの形状は、大きさおよび/または周期が均一なパターンイメージであって、前記カメラの撮像面にとられた二次元座標系である画像座標系における位置が前記撮影画像における当該複数個のパターンと同一となるようなパターンイメージである仮想パターンイメージの集合を、前記カメラの視野範囲内において仮定し、前記画像座標系における前記仮想パターンイメージの座標点を、前記パターン面を含む三次元座標系の座標点に変換して求められた形状であり、なおかつ、前記カメラに搭載されたレンズによる歪曲収差の影響を考慮した形状であることを特徴としている。 Further, according to another camera orientation calculation method of the present invention, an orientation of a camera attached to a reference position above the reference plane so that the reference plane and the optical axis form an angle other than 90 ° with respect to the reference plane. Is a camera posture calculation target device having a pattern surface on which a plurality of patterns are formed, and the camera posture calculation target device on the reference surface in the installed state As a photographed image of the pattern surface by the camera, a photographed image in which at least one of the size of the plurality of patterns in the photographed image and the interval between adjacent patterns in a predetermined direction is uniform. A camera posture calculation target device formed so as to be obtainable is installed on the reference plane, and the installed camera The pattern surface in the target device for force calculation is photographed by the camera, the feature point is extracted from the pattern in the photographed image of the pattern surface obtained by the photographing, and the posture of the camera is based on the extracted feature point When the camera posture calculation target device is installed on the reference surface as the camera posture calculation target device, the pattern surface is parallel to the reference surface. The plurality of patterns formed as the captured image of the pattern surface in the installation state of the target device for camera posture calculation on the reference surface is the size and the predetermined number of the plurality of patterns in the captured image. at least one of uniform primary and made such photographing field spacing between adjacent coordinated between patterns in the direction of A camera posture calculation target device formed in a shape capable of obtaining an image is used to calculate the camera posture, and the shape of the plurality of patterns is a pattern image having a uniform size and / or period. A set of virtual pattern images that are pattern images such that positions in an image coordinate system, which is a two-dimensional coordinate system taken on the imaging surface of the camera, are the same as the plurality of patterns in the captured image. Suppose within the field of view of the camera, and the shape obtained by converting the coordinate point of the virtual pattern image in the image coordinate system to the coordinate point of a three-dimensional coordinate system including the pattern surface, and It is characterized in shape der Rukoto in consideration of the influence of distortion due to the mounted lens to the camera.

さらにまた、本発明に係る他のカメラ姿勢算出方法は、前記カメラ姿勢算出用ターゲット装置として、前記パターン面が形成された板状体からなるカメラ姿勢算出用ターゲット装置を用いて、前記カメラの姿勢を算出することを特徴としている。   Furthermore, in another camera posture calculation method according to the present invention, a camera posture calculation target device including a plate-like body on which the pattern surface is formed is used as the camera posture calculation target device. It is characterized by calculating.

さらにまた、本発明に係る他のカメラ姿勢算出方法は、前記カメラ姿勢算出用ターゲット装置として、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態において前記パターン面が前記カメラの光軸に直交するように前記パターン面を前記基準面に対して傾いた状態に保持する保持部材を有するカメラ姿勢算出用ターゲット装置を用いて、前記カメラの姿勢を算出することを特徴としている。   Furthermore, in another camera posture calculation method according to the present invention, the pattern surface is an optical axis of the camera in the installation state of the camera posture calculation target device on the reference plane as the camera posture calculation target device. The camera posture is calculated using a camera posture calculation target device having a holding member that holds the pattern surface in a state inclined with respect to the reference surface so as to be orthogonal to the reference plane.

また、本発明に係る他のカメラ姿勢算出方法は、前記カメラとして、超広角レンズを備えたカメラを用いることを特徴としている。   Another camera posture calculation method according to the present invention is characterized in that a camera having an ultra-wide angle lens is used as the camera.

さらに、本発明に係る他のカメラ姿勢算出方法は、車両における前記所定の取り付け位置に取り付けられたカメラの前記基準面としての前記車両の載置面に対する姿勢を、前記カメラ姿勢算出用ターゲット装置を用いて算出することを特徴としている。   Furthermore, another camera posture calculation method according to the present invention provides a camera posture calculation target device for calculating a posture of a camera attached to the predetermined attachment position in a vehicle with respect to a placement surface of the vehicle. It is characterized by using and calculating.

さらにまた、本発明に係る画像表示方法は、車両における所定の取り付け位置に、前記車両の載置面と光軸とが90°以外の角度をなすように取り付けられたカメラによって撮影対象面を撮影し、前記撮影対象面の撮影画像に対して座標変換を行うことによって前記車両の周辺を監視するための車両周辺監視画像を生成し、生成された前記車両周辺監視画像を表示部に表示する画像表示方法であって、複数個のパターンが形成されたパターン面を有するカメラ姿勢算出用ターゲット装置であり、前記車両の載置面上への前記カメラ姿勢算出用ターゲット装置の設置状態における前記カメラによる前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が、均一となるような撮影画像を得ることが可能に形成されたカメラ姿勢算出用ターゲット装置を前記車両の載置面上に設置し、この設置された前記カメラ姿勢算出用ターゲット装置における前記パターン面を、前記カメラによって撮影し、この撮影によって得られた前記パターン面の撮影画像におけるパターンから特徴点を抽出し、抽出された特徴点に基づいて、前記カメラの姿勢を算出し、算出された前記カメラの姿勢と適切な姿勢との間にずれが生じている場合には、車両周辺監視画像の生成の際に、前記撮影対象面の撮影画像に対して当該ずれが解消されるような座標変換を行い、前記複数個のパターンの形状は、大きさおよび/または周期が均一なパターンイメージであって、前記カメラの撮像面にとられた二次元座標系である画像座標系における位置が前記撮影画像における当該複数個のパターンと同一となるようなパターンイメージである仮想パターンイメージの集合を、前記カメラの視野範囲内において仮定し、前記画像座標系における前記仮想パターンイメージの座標点を、前記パターン面を含む二次元座標系または三次元座標系の座標点に変換して求められた形状であり、なおかつ、前記カメラに搭載されたレンズによる歪曲収差の影響を考慮した形状であることを特徴としている。 Furthermore, the image display method according to the present invention shoots an imaging target surface by a camera mounted at a predetermined mounting position on the vehicle so that the mounting surface of the vehicle and the optical axis form an angle other than 90 °. An image for generating a vehicle periphery monitoring image for monitoring the periphery of the vehicle by performing coordinate conversion on the captured image of the surface to be imaged, and displaying the generated vehicle periphery monitoring image on a display unit A display method, a camera posture calculation target device having a pattern surface on which a plurality of patterns are formed, and the camera in the installation state of the camera posture calculation target device on a placement surface of the vehicle As the captured image of the pattern surface, the size of the plurality of patterns in the captured image and adjacent patterns in a predetermined direction The camera pose at least one of the spacing between it, the camera orientation calculation target device to obtain a photographing image is formed so as to be able to be a uniform one was placed on a mounting surface of the vehicle, being this installed The pattern surface in the calculation target device is photographed by the camera, a feature point is extracted from a pattern in a photographed image of the pattern surface obtained by the photographing, and the posture of the camera is based on the extracted feature point If a deviation occurs between the calculated attitude of the camera and an appropriate attitude, the deviation relative to the captured image of the imaging target surface is generated when the vehicle periphery monitoring image is generated. there have row coordinate transformation as is eliminated, the shape of the plurality of patterns, a uniform pattern image size and / or period, taken on an imaging surface of the camera A set of virtual pattern images that are pattern images such that the positions in the image coordinate system, which is a two-dimensional coordinate system, are the same as the plurality of patterns in the captured image, are assumed within the field of view of the camera; A shape obtained by converting the coordinate point of the virtual pattern image in the image coordinate system into a coordinate point of a two-dimensional coordinate system or a three-dimensional coordinate system including the pattern surface, and mounted on the camera It is characterized by a shape that takes into account the influence of distortion by the lens .

本発明に係るカメラ姿勢算出用ターゲット装置によれば、パターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方を均一にすることによってパターンイメージの特徴点を正確に抽出することができるので、基準面に対するカメラの姿勢を高精度に算出することができ、ひいては、撮影対象面の撮影画像に基づいて良好な表示画像を得ることができる。 According to the camera orientation calculation target device according to the present invention, the pattern image size and the feature points of pattern image by at least one evenly one spacing between adjacent coordinated pattern image together in a predetermined direction Since it can be extracted accurately, the posture of the camera with respect to the reference plane can be calculated with high accuracy, and as a result, a good display image can be obtained based on the captured image of the imaging target surface.

また、本発明に係る他のカメラ姿勢算出用ターゲット装置によれば、パターンの形状を、カメラの光軸に直交するパターン面を撮影する場合のパターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方が均一となるような形状に形成することによって、パターンイメージの大きさおよび前記パターンイメージ同士の間の間隔の少なくとも一方を均一にすることができるので、簡易な構成により、基準面に対するカメラの姿勢を高精度に算出することができる。 Further, according to another camera posture calculation target device according to the present invention, the shape of the pattern is adjacent in the size and the predetermined direction of the pattern image when photographing the pattern surface orthogonal to the optical axis of the camera. by at least one of the spacing between the pattern image is formed in a shape such that uniform one, since at least one of the spacing between the size and the pattern image between pattern image can be evenly one With a simple configuration, the posture of the camera with respect to the reference plane can be calculated with high accuracy.

さらに、本発明に係る他のカメラ姿勢算出用ターゲット装置によれば、パターンの形状を、基準面に対して平行なパターン面を撮影する場合のパターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方が均一となるような形状に形成することによって、パターンイメージの大きさおよび前記パターンイメージ同士の間の間隔の少なくとも一方を均一にすることができるので、簡易な構成により、基準面に対するカメラの姿勢を高精度に算出することができる。 Further, according to another camera posture calculation target device according to the present invention, the pattern shape is adjacent in the size of the pattern image and a predetermined direction when a pattern surface parallel to the reference surface is photographed. by at least one of the spacing between the pattern image is formed in a shape such that uniform one, since at least one of the spacing between the size and the pattern image between pattern image can be evenly one With a simple configuration, the posture of the camera with respect to the reference plane can be calculated with high accuracy.

さらにまた、本発明に係る他のカメラ姿勢算出用ターゲット装置によれば、板状のカメラ姿勢算出用ターゲット装置により、パターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方を均一にすることができるので、構成をさらに簡易にすることができる。 Furthermore, according to another camera posture calculation target device according to the present invention, the plate-like camera posture calculation target device allows the size of the pattern image and the interval between adjacent pattern images in a predetermined direction. since at least one of can be evenly and foremost, it is possible to further simplify the configuration.

さらにまた、本発明に係る他のカメラ姿勢算出用ターゲット装置によれば、保持部材によってパターン面をカメラの光軸に直交するように傾いた状態に保持することにより、パターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方を均一または略均一にすることができるので、さらに簡易な構成により、基準面に対するカメラの姿勢を高精度に算出することができる。   Furthermore, according to another camera posture calculation target device according to the present invention, the size of the pattern image and the predetermined size can be determined by holding the pattern surface in an inclined state perpendicular to the optical axis of the camera by the holding member. Since at least one of the distances between the adjacent pattern images in the direction can be made uniform or substantially uniform, the camera posture with respect to the reference plane can be calculated with high accuracy with a simpler configuration.

また、本発明に係る他のカメラ姿勢算出用ターゲット装置によれば、超広角レンズを備えたカメラによるパターン面の撮影画像におけるパターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方を均一または略均一にすることができるので、基準面に対する超広角レンズを備えたカメラの姿勢を高精度に算出することができ、ひいては、撮影対象面の撮影画像に基づいて良好な表示画像を得ることができる。   Further, according to another camera posture calculation target device according to the present invention, the size of a pattern image in a captured image of a pattern surface by a camera equipped with an ultra-wide-angle lens and a pattern image adjacent to each other in a predetermined direction. Since at least one of the intervals can be made uniform or substantially uniform, the attitude of the camera having the ultra-wide angle lens with respect to the reference surface can be calculated with high accuracy. A good display image can be obtained.

さらに、本発明に係る他のカメラ姿勢算出用ターゲット装置によれば、車両に取り付けられたカメラによるパターン面の撮影画像におけるパターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方を均一または略均一にすることができるので、車両の載置面に対するカメラの姿勢を高精度に算出することができ、ひいては、撮影対象面の撮影画像に基づいて良好な車両周辺監視画像を得ることができる。   Furthermore, according to another camera posture calculation target device according to the present invention, the size of the pattern image in the captured image of the pattern surface by the camera attached to the vehicle and the pattern images adjacent to each other in a predetermined direction. Since at least one of the intervals can be made uniform or substantially uniform, the posture of the camera with respect to the mounting surface of the vehicle can be calculated with high accuracy, and as a result, a good vehicle periphery based on the captured image of the imaging target surface A monitoring image can be obtained.

さらにまた、本発明に係るカメラ姿勢算出方法によれば、パターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方を均一にすることによってパターンイメージの特徴点を正確に抽出することができるので、基準面に対するカメラの姿勢を高精度に算出することができ、ひいては、撮影対象面の撮影画像に基づいて良好な表示画像を得ることができる。 Furthermore, according to the camera orientation calculation method according to the present invention, feature points of pattern image by at least one evenly one spacing between the magnitude and next coordinated pattern images each other in the predetermined direction of the pattern image Can be accurately extracted, so that the posture of the camera with respect to the reference plane can be calculated with high accuracy. As a result, a good display image can be obtained based on the captured image of the imaging target surface.

また、本発明に係る他のカメラ姿勢算出方法によれば、パターンの形状を、カメラの光軸に直交するパターン面を撮影する場合のパターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方が均一となるような形状に形成することによって、パターンイメージの大きさおよび前記パターンイメージ同士の間の間隔の少なくとも一方を均一にすることができるので、簡便な方法により、基準面に対するカメラの姿勢を高精度に算出することができる。 Further, according to another camera orientation calculation method according to the present invention, the pattern shape is the size of the pattern image when the pattern surface orthogonal to the optical axis of the camera is photographed and the pattern image adjacent in the predetermined direction. by at least one of the spacing between each other to form a shape such that uniform one, since at least one of the spacing between the size and the pattern image between pattern image can be evenly one, simple With this method, the camera posture with respect to the reference plane can be calculated with high accuracy.

さらに、本発明に係る他のカメラ姿勢算出方法によれば、パターンの形状を、基準面に対して平行なパターン面を撮影する場合のパターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方が均一な大きさを有するような形状に形成することによって、パターンイメージの大きさおよび前記パターンイメージ同士の間の間隔の少なくとも一方を均一にすることができるので、簡便な方法により、基準面に対するカメラの姿勢を高精度に算出することができる。 Furthermore, according to another camera posture calculation method according to the present invention, the pattern shape is the size of a pattern image when a pattern plane parallel to the reference plane is photographed and the pattern image adjacent in a predetermined direction. by at least one of the spacing between is shaped to have a uniform size, since at least one of the spacing between the size and the pattern image between pattern image can be evenly one By a simple method, the posture of the camera with respect to the reference plane can be calculated with high accuracy.

さらにまた、本発明に係る他のカメラ姿勢算出方法によれば、板状のカメラ姿勢算出用ターゲット装置によって、パターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方を均一にすることができ、これにより、パターンイメージの特徴点の正確な抽出が可能となるので、カメラ姿勢算出用ターゲット装置の構成を簡易にすることができる。 Furthermore, according to another camera orientation calculation method according to the present invention, at least a size of a pattern image and an interval between adjacent pattern images in a predetermined direction are detected by a plate-like camera orientation calculation target device. one of them can be evenly one, thereby, since it is possible to accurately extract feature points of pattern image, the configuration of the camera posture calculation target device can be simplified.

さらにまた、本発明に係る他のカメラ姿勢算出方法によれば、保持部材によってパターン面をカメラの光軸に直交するように傾いた状態に保持することができるカメラ姿勢算出用ターゲット装置を用いることにより、パターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方を均一または略均一にすることができ、パターンイメージの特徴点の正確な抽出が可能となるので、さらに簡便な方法により、基準面に対するカメラの姿勢を高精度に算出することができる。   Furthermore, according to another camera posture calculation method according to the present invention, the camera posture calculation target device that can hold the pattern surface in a tilted state orthogonal to the optical axis of the camera by the holding member is used. As a result, at least one of the size of the pattern image and the interval between adjacent pattern images in a predetermined direction can be made uniform or substantially uniform, and the feature points of the pattern image can be accurately extracted. In addition, the posture of the camera with respect to the reference plane can be calculated with high accuracy by a simpler method.

また、本発明に係る他のカメラ姿勢算出方法によれば、超広角レンズを備えたカメラによるパターン面の撮影画像におけるパターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方を均一または略均一にすることができ、これにより、パターンイメージの特徴点の正確な抽出が可能となるので、基準面に対する超広角レンズを備えたカメラの姿勢を高精度に算出することができ、ひいては、撮影対象面の撮影画像に基づいて良好な表示画像を得ることができる。   In addition, according to another camera orientation calculation method according to the present invention, the size of the pattern image in the captured image of the pattern surface by the camera equipped with the super-wide-angle lens and the interval between adjacent pattern images in a predetermined direction At least one of them can be made uniform or substantially uniform, which makes it possible to accurately extract feature points of the pattern image, so that the attitude of the camera equipped with the ultra-wide-angle lens with respect to the reference plane can be calculated with high accuracy. As a result, a good display image can be obtained based on the photographed image of the photographing target surface.

さらに、本発明に係る他のカメラ姿勢算出方法によれば、車両に取り付けられたカメラによるパターン面の撮影画像におけるパターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方を均一または略均一にすることができ、これにより、パターンイメージの特徴点の正確な抽出が可能となるので、基準面に対するカメラの姿勢を高精度に算出することができ、ひいては、撮影対象面の撮影画像に基づいて良好な車両周辺監視画像を得ることができる。   Furthermore, according to another camera orientation calculation method according to the present invention, the size of the pattern image in the captured image of the pattern surface by the camera attached to the vehicle and the interval between adjacent pattern images in a predetermined direction are determined. At least one of them can be made uniform or substantially uniform, which makes it possible to accurately extract feature points of the pattern image, so that the posture of the camera with respect to the reference plane can be calculated with high accuracy, and in turn, shooting A good vehicle periphery monitoring image can be obtained based on the captured image of the target surface.

さらにまた、本発明に係る画像表示方法によれば、パターンイメージの大きさおよび所定の方向において隣位するパターンイメージ同士の間の間隔の少なくとも一方を均一または略均一にすることによって、パターンイメージの特徴点の正確な抽出を行ったうえで基準面に対するカメラの姿勢を算出することができ、さらに、このカメラの姿勢の算出結果に基づいてマッピングテーブルを補正したうえで車両周辺監視画像を生成することができるので、基準面に対するカメラの姿勢を高精度に算出することができ、撮影対象面の撮影画像に基づいて良好な車両周辺監視画像を得ることができる。   Furthermore, according to the image display method of the present invention, by making at least one of the size of the pattern image and the interval between the adjacent pattern images in a predetermined direction uniform or substantially uniform, It is possible to calculate the camera posture with respect to the reference plane after accurately extracting the feature points, and further generate a vehicle periphery monitoring image after correcting the mapping table based on the calculation result of the camera posture Therefore, the posture of the camera with respect to the reference plane can be calculated with high accuracy, and a good vehicle periphery monitoring image can be obtained based on the captured image of the imaging target surface.

(カメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第1実施形態)
以下、本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第1実施形態について、図1乃至図9を参照して説明する。
(First embodiment of camera posture calculation target device and camera posture calculation method)
Hereinafter, a first embodiment of a camera posture calculation target device and a camera posture calculation method according to the present invention will be described with reference to FIGS. 1 to 9.

なお、従来と基本的構成が同一もしくはこれに類する箇所については、同一の符号を用いて説明する。   Note that portions having the same or similar basic configuration as those in the related art will be described using the same reference numerals.

図1は、本実施形態におけるカメラ姿勢算出用ターゲット装置10を示したものである。本実施形態におけるカメラ姿勢算出用ターゲット装置10は、前述したカメラ姿勢算出用ターゲットボード3と同様に、車両周辺監視画像を車内のディスプレイに表示するために車両5における所定の取り付け位置に取り付けられたカメラ6によって路面等の撮影対象面を撮影する前に、基準面としての車両5の載置面に対するカメラ6の姿勢の算出に使用されるようになっている。なお、カメラ6の姿勢の算出は、従来と同様に、車両5へのカメラ6の取付け直後に行うようにしてもよい。また、姿勢の算出を行う車両5の載置面としては、従来と同様に、自動車生産工場内の敷地面や自動車整備工場内の敷地面あるいは撮影対象面そのもの等の種々の場所を選ぶことができる。   FIG. 1 shows a camera posture calculation target device 10 according to this embodiment. The camera posture calculation target device 10 in the present embodiment is attached to a predetermined attachment position in the vehicle 5 in order to display the vehicle periphery monitoring image on the display in the vehicle, similarly to the camera posture calculation target board 3 described above. Before photographing a photographing target surface such as a road surface by the camera 6, the camera 6 is used for calculating the posture of the camera 6 with respect to the mounting surface of the vehicle 5 as a reference surface. The calculation of the posture of the camera 6 may be performed immediately after the camera 6 is attached to the vehicle 5 as in the prior art. Also, as the mounting surface of the vehicle 5 for calculating the attitude, various places such as the site surface in the automobile production factory, the site surface in the automobile maintenance factory, or the imaging target surface itself can be selected as in the past. it can.

ただし、以下に説明するように、本実施形態におけるカメラ姿勢算出用ターゲット装置10は、従来のカメラ姿勢算出用ターゲットボード3とは異なり、車両5の載置面に対するカメラ6の姿勢の算出を高精度に行うのに好適なものとされている。   However, as will be described below, the camera posture calculation target device 10 according to the present embodiment is different from the conventional camera posture calculation target board 3 in that the posture of the camera 6 with respect to the mounting surface of the vehicle 5 is highly calculated. It is suitable for accuracy.

すなわち、本実施形態におけるカメラ姿勢算出用ターゲット装置10は、図1に示すように、保持部材としての五面体状のブロック11を有しており、このブロック11は、底面11aに対して鉛直上方に傾斜した傾斜面11bを有しており、この傾斜面11bの外形は、長方形の四辺を内側に歪曲させた形状に形成されている。このブロック11は、例えば、樹脂材料等によって形成してもよく、中空または中実のいずれであってもよい。   That is, the camera posture calculation target device 10 in this embodiment has a pentahedral block 11 as a holding member, as shown in FIG. 1, and this block 11 is vertically above the bottom surface 11a. The outer surface of the inclined surface 11b is formed in a shape in which four sides of a rectangle are distorted inward. The block 11 may be formed of, for example, a resin material or the like, and may be hollow or solid.

ブロック11の傾斜面11b上には、図1に示すように、複数個のパターン14が縦横に整列されたパターン面12が形成されている。   On the inclined surface 11b of the block 11, as shown in FIG. 1, a pattern surface 12 in which a plurality of patterns 14 are aligned vertically and horizontally is formed.

このパターン面12は、ブロック11の傾斜面11b上に印刷等によってパターン14が直接描かれたものであってもよいし、または、パターン14が描かれた外形が傾斜面11bと一致するシートや板状体が接着等によって傾斜面11b上に固定されたものであってもよい。   The pattern surface 12 may be one in which the pattern 14 is directly drawn on the inclined surface 11b of the block 11 by printing or the like, or a sheet whose outer shape on which the pattern 14 is drawn coincides with the inclined surface 11b, A plate-like body may be fixed on the inclined surface 11b by adhesion or the like.

さらに、図2に示すように、ブロック11の傾斜面11bの傾斜角度α〔deg〕、すなわち、車両5の載置面に対するパターン面12の傾き角度は、鉛直方向に対してカメラ6の光軸OAがなす角度α(但し、このαは、設計値に基づく概略値であってよい)と同一とされている。なお、車両周辺監視画像として、車両およびその周辺を車両の上方から見下ろしたトップビュー画像を生成する場合には、車両に複数台のカメラ6を搭載することが必要になるが、これら複数台のカメラ6ごとにαの値が異なってもよいことは勿論である。但し、この場合、αが異なると、パターン面12の傾き角度も異なるため、カメラ6ごとに互いに異なるカメラ姿勢算出用ターゲット装置10を用いることが必要になるか、あるいは、ブロック11に、パターン面12の傾き角度を調整するための図示しない調整機構を設け、この調整機構によってカメラ6ごとに傾き角度を調整(変更)したうえでパターン面12を撮影することが必要になる。   Further, as shown in FIG. 2, the inclination angle α [deg] of the inclined surface 11 b of the block 11, that is, the inclination angle of the pattern surface 12 with respect to the mounting surface of the vehicle 5 is the optical axis of the camera 6 with respect to the vertical direction. It is the same as the angle α formed by OA (however, this α may be an approximate value based on a design value). In addition, when generating a top view image in which the vehicle and its periphery are looked down from above the vehicle as the vehicle periphery monitoring image, it is necessary to mount a plurality of cameras 6 on the vehicle. Of course, the value of α may be different for each camera 6. However, in this case, if α is different, the inclination angle of the pattern surface 12 is also different, so that it is necessary to use different camera orientation calculation target devices 10 for each camera 6 or the block 11 has a pattern surface. An adjustment mechanism (not shown) for adjusting the inclination angle of 12 is provided, and it is necessary to photograph the pattern surface 12 after adjusting (changing) the inclination angle for each camera 6 by this adjustment mechanism.

したがって、本実施形態においては、車両5の載置面上へのカメラ姿勢算出用ターゲット装置10の設置(載置)状態において、パターン面12をカメラ6の光軸OAに対して直交(略直交を含む)させることができるようになっている。   Therefore, in the present embodiment, the pattern surface 12 is orthogonal (substantially orthogonal) to the optical axis OA of the camera 6 in the installation (placement) state of the camera posture calculation target device 10 on the placement surface of the vehicle 5. Can be included).

そして、本実施形態において、パターン14の形状は、カメラ姿勢算出用ターゲット装置10を車両5の載置面に設置した状態におけるパターン面12の撮影画像15として、図3に示すように、当該撮影画像15におけるパターンイメージ14’の大きさおよび所定の方向(図3における縦方向、横方向および対角方向)において隣位するパターンイメージ14’同士の間の間隔が互いに均一となるような撮影画像15を得ることが可能な形状とされている。   In the present embodiment, the shape of the pattern 14 is such that, as shown in FIG. 3, the captured image 15 of the pattern surface 12 in a state where the camera posture calculation target device 10 is installed on the mounting surface of the vehicle 5. A photographed image in which the size of the pattern image 14 ′ in the image 15 and the interval between the adjacent pattern images 14 ′ in a predetermined direction (vertical direction, horizontal direction and diagonal direction in FIG. 3) are uniform. 15 can be obtained.

より具体的には、各パターン14の形状は、カメラ6に搭載された超広角レンズによる歪曲収差の影響を考慮した形状に形成されている。   More specifically, the shape of each pattern 14 is formed in consideration of the influence of distortion due to the ultra-wide-angle lens mounted on the camera 6.

すなわち、各パターン14のうち、車両5の載置面上へのカメラ姿勢算出用ターゲット装置10の設置状態においてカメラ6の光軸OA近くに位置されるパターン14や、パターン面12の中央寄りに配置されたパターン14は、超広角レンズによる歪曲収差の影響が小さいため、外形が真円またはそれに近い円形に形成されている。   That is, among the patterns 14, the pattern 14 positioned near the optical axis OA of the camera 6 in the installed state of the camera posture calculation target device 10 on the placement surface of the vehicle 5, or near the center of the pattern surface 12. Since the arranged pattern 14 is less affected by distortion due to the super-wide-angle lens, the outer shape is formed in a perfect circle or a circle close thereto.

一方、各パターン14のうち、車両5の載置面上へのカメラ姿勢算出用ターゲット装置10の設置状態においてカメラ6から遠くに位置されるパターン14や、パターン面12の周辺側に配置されたパターン14は、歪曲収差の影響が大きいため、外形がパターン面12の中央側から周辺側に向かって放射状に延びる楕円または長円状に形成されている。   On the other hand, among each pattern 14, the pattern 14 positioned far from the camera 6 in the installed state of the camera posture calculation target device 10 on the placement surface of the vehicle 5, and the pattern 14 is arranged on the peripheral side of the pattern surface 12. Since the pattern 14 is greatly affected by distortion, the outer shape of the pattern 14 is an ellipse or an ellipse extending radially from the center side to the peripheral side of the pattern surface 12.

このような本実施形態におけるカメラ姿勢算出用ターゲット装置10によれば、各パターンイメージ14’の特徴点の抽出を正確に行うことができる。   According to the camera posture calculation target device 10 in this embodiment, the feature points of each pattern image 14 'can be accurately extracted.

このようなカメラ姿勢算出用ターゲット装置10におけるパターン面12は、以下のようにして設計することができる。   The pattern surface 12 in such a camera posture calculation target device 10 can be designed as follows.

すなわち、まず、前提として、カメラ6の内部パラメータ(cx,cy,f)およびカメラ6の姿勢を示す外部パラメータ(rx,ry,rz,tx,ty,tz)が既知であることとする。ただし、外部パラメータは、必ずしも厳密なパラメータ値が既知である必要はなく、車両設計上の概略的なものであってもよい。   That is, first, it is assumed that the internal parameters (cx, cy, f) of the camera 6 and the external parameters (rx, ry, rz, tex, ty, tz) indicating the posture of the camera 6 are known. However, the external parameter does not necessarily need to be known with a strict parameter value, and may be a rough one in vehicle design.

なお、内部パラメータにおけるcxは、カメラ6の撮像面(イメージセンサ面、例えばCCD面)にとられた二次元座標系(画像座標系)におけるカメラ6による撮影画像の中心点(換言すればカメラ6の光軸OAと撮像面との交点)のX座標を示している。同様に、内部パラメータにおけるcyは、画像座標系におけるカメラ6による撮影画像の中心点のY座標を示している。また、内部パラメータにおけるfは、カメラ6の焦点距離を示している。   Note that cx in the internal parameter is a center point (in other words, the camera 6) of an image taken by the camera 6 in a two-dimensional coordinate system (image coordinate system) taken on the imaging surface (image sensor surface, for example, CCD surface) of the camera 6. X-axis of the optical axis OA and the imaging surface). Similarly, cy in the internal parameter indicates the Y coordinate of the center point of the image captured by the camera 6 in the image coordinate system. Further, f in the internal parameter indicates the focal length of the camera 6.

一方、外部パラメータにおけるtxは、三次元ワールド座標系におけるカメラ6の位置のX座標を、tyは、Y座標を、tzは、Z座標をそれぞれ示している。また、外部パラメータにおけるrxは、三次元ワールド座標系におけるカメラ6のX座標軸回りの方向(光軸の向き)を、ryは、Y座標軸回りの方向を、rzは、Z座標軸回りの方向をそれぞれ示している。   On the other hand, tx in the external parameter indicates the X coordinate of the position of the camera 6 in the three-dimensional world coordinate system, ty indicates the Y coordinate, and tz indicates the Z coordinate. In addition, rx in the external parameter is a direction around the X coordinate axis (direction of the optical axis) of the camera 6 in the three-dimensional world coordinate system, ry is a direction around the Y coordinate axis, and rz is a direction around the Z coordinate axis. Show.

次に、図4に示すように、特徴点の抽出に適した大きさが均一(図4においては周期も均一)なパターンイメージであって、画像座標系における位置がパターンイメージ14’と同一となるようなパターンイメージ(以下、仮想パターンイメージ14”と称する)の集合をカメラ6の視野範囲内において仮定する。なお、仮想パターンイメージ14”は、これから設計するパターン14を撮影した場合に撮されるパターンイメージ14’の理想的な状態を示したものとなっている。   Next, as shown in FIG. 4, the pattern image has a uniform size suitable for feature point extraction (the period is uniform in FIG. 4), and the position in the image coordinate system is the same as the pattern image 14 ′. A set of pattern images (hereinafter referred to as a virtual pattern image 14 ″) is assumed within the field of view of the camera 6. The virtual pattern image 14 ″ is taken when the pattern 14 to be designed is photographed. This shows an ideal state of the pattern image 14 ′.

そして、仮想パターンイメージ14”について、以下の(1)〜(14)式に示す座標変換を行う。   Then, coordinate conversion shown in the following equations (1) to (14) is performed on the virtual pattern image 14 ″.

ここで、図5は、仮想パターンイメージ14”のうちの1つを、その画像座標系における座標点(i,j)とともに示したものである。なお、仮想パターンイメージ14”の座標点は、仮想パターンイメージ14”の外形の中心点とされている。   Here, FIG. 5 shows one of the virtual pattern images 14 ″ together with the coordinate point (i, j) in the image coordinate system. The coordinate points of the virtual pattern image 14 ″ are The center point of the outer shape of the virtual pattern image 14 ″.

図5に示すように、内部パラメータによって表されるカメラ6の光軸OAと撮像面との交点(cx,cy)は、画像座標系の原点と異なっている。   As shown in FIG. 5, the intersection (cx, cy) between the optical axis OA of the camera 6 and the imaging surface represented by the internal parameters is different from the origin of the image coordinate system.

座標点(cx,cy)と仮想パターンイメージ14”の座標点(i,j)とのX座標の差iiおよびY座標の差jjは、それぞれ次の(1)式および(2)式によって求められる。   The X coordinate difference ii and the Y coordinate difference jj between the coordinate point (cx, cy) and the coordinate point (i, j) of the virtual pattern image 14 ″ are obtained by the following equations (1) and (2), respectively. It is done.

ii=i−cx ・・・(1)
jj=j−cy ・・・(2)
ii = i-cx (1)
jj = j-cy (2)

次いで、図5に示すように、座標点(cx,cy)を原点とし、半径radおよび角度φ〔deg〕によって座標点が規定される二次元極座標を考えると、座標点(i,j)の角度φは、次式のように求められる。   Next, as shown in FIG. 5, when a two-dimensional polar coordinate having a coordinate point (cx, cy) as an origin and a coordinate point defined by a radius rad and an angle φ [deg] is considered, the coordinate point (i, j) The angle φ is obtained as follows.

φ=tan−1(|jj|/|ii|) ・・・(3) φ = tan −1 (| jj | / | ii |) (3)

また、座標点(cx,cy)と座標点(i,j)との距離radは、次の(4)式のように求められる。   Further, the distance rad between the coordinate point (cx, cy) and the coordinate point (i, j) is obtained as in the following equation (4).

rad=(ii+jj1/2 ・・・(4) rad = (ii 2 + jj 2 ) 1/2 (4)

このようにして、画像座標系における仮想パターンイメージ14”の座標点(i,j)が、二次元極座標系における座標点(rad,φ)へと座標変換される。   In this manner, the coordinate point (i, j) of the virtual pattern image 14 ″ in the image coordinate system is coordinate-converted to the coordinate point (rad, φ) in the two-dimensional polar coordinate system.

次いで、図6に示すように、互いに直交するU、V、Sの各座標軸を有し、S座標軸をカメラ6の光軸OAとし、この光軸OAと撮像面との交点を原点とした三次元のデカルト座標系であるカメラ座標系をとると、(4)式の左辺は、次の(5)式のように表される。   Next, as shown in FIG. 6, there are U, V, and S coordinate axes orthogonal to each other, the S coordinate axis is the optical axis OA of the camera 6, and the tertiary is the intersection of the optical axis OA and the imaging surface as the origin. Taking the camera coordinate system which is the original Cartesian coordinate system, the left side of the equation (4) is expressed as the following equation (5).

rad=f×θ ・・・(5)   rad = f × θ (5)

但し、(5)式におけるfは、前述したカメラ6の焦点距離(内部パラメータ)である。また、(5)式におけるθ〔deg〕は、図6に示すように、図5に示した仮想パターンイメージ14”に対応するパターン14が存在する方向を示す光軸OA(S座標軸)を基準とした角度(入射角)である。ただし、この図6に示すパターン14は、これから設計されるものである。   However, f in Formula (5) is the focal length (internal parameter) of the camera 6 mentioned above. Further, θ [deg] in the equation (5) is based on the optical axis OA (S coordinate axis) indicating the direction in which the pattern 14 corresponding to the virtual pattern image 14 ″ shown in FIG. 5 exists, as shown in FIG. However, the pattern 14 shown in Fig. 6 is designed from now on.

なお、(5)式は、等距離射影方式の魚眼レンズの場合における式であり、広角レンズや他の射影方式のレンズでは式が異なるが、説明は省略する。   The expression (5) is an expression in the case of an equidistant projection type fisheye lens, and the expression is different for a wide-angle lens and other projection type lenses, but the description is omitted.

次いで、(5)式より、角度θは、次の(6)式のように求められる。   Next, from the equation (5), the angle θ is obtained as the following equation (6).

θ=rad/f ・・・(6)   θ = rad / f (6)

次いで、図6に示すように、カメラ座標系上に、カメラ座標系の原点を中心とした単位半径の球16をとると、この球16と、カメラ座標系の原点からパターン14の方向θに向かって延びる線分Lとが交わる交点の座標点(u,v,s)は、次の(7)に示す行列式のように求められる。   Next, as shown in FIG. 6, when a sphere 16 having a unit radius centered on the origin of the camera coordinate system is taken on the camera coordinate system, the sphere 16 and the origin of the camera coordinate system are moved in the direction θ of the pattern 14. The coordinate point (u, v, s) of the intersection where the line segment L extending toward the intersection intersects is obtained as the determinant shown in the following (7).

Figure 0004857143
Figure 0004857143

この(7)式によって表される座標点(u,v,s)は、仮想パターンイメージ14”(詳しくは、仮想パターンイメージ14”の外形の中心点)のカメラ座標系における座標点とみることができる。   The coordinate point (u, v, s) represented by the equation (7) is regarded as a coordinate point in the camera coordinate system of the virtual pattern image 14 ″ (specifically, the center point of the outer shape of the virtual pattern image 14 ″). Can do.

このようにして、二次元極座標系における仮想パターンイメージ14”の座標点(rad,φ)が、カメラ座標系における座標点(u,v,s)へと座標変換される。   In this manner, the coordinate point (rad, φ) of the virtual pattern image 14 ″ in the two-dimensional polar coordinate system is coordinate-converted to the coordinate point (u, v, s) in the camera coordinate system.

次いで、図7に示すように、互いに直交するX、Y、Zの各座標軸を有し、XY平面を車両5の載置面とした三次元ワールド座標系をとる。   Next, as shown in FIG. 7, a three-dimensional world coordinate system having X, Y, and Z coordinate axes orthogonal to each other and having the XY plane as a mounting surface of the vehicle 5 is taken.

そして、この三次元ワールド座標系において規定されるパターン14の座標点(x,y,z)を示すための一般式は、カメラ6の外部パラメータにおける方向の要素を用いた3つの行列、(7)式の座標点に光軸OAと撮像面との交点からパターン14までの距離を示すパラメータλを乗じた行列、および、カメラ6の外部パラメータにおける位置の要素からなる行列を用いることによって、次の(8)の行列式のように求められる。   The general formula for indicating the coordinate point (x, y, z) of the pattern 14 defined in the three-dimensional world coordinate system is three matrices using direction elements in the external parameters of the camera 6 (7 By using a matrix obtained by multiplying the coordinate point of the formula by a parameter λ indicating the distance from the intersection of the optical axis OA and the imaging surface to the pattern 14 and a matrix of position elements in the external parameters of the camera 6, (8) in the determinant.

Figure 0004857143
Figure 0004857143

この(8)式は、さらに計算を進めると、次の(9)の行列式のようになる。   When the calculation is further advanced, the equation (8) becomes the determinant of the following (9).

Figure 0004857143
Figure 0004857143

ここで、図8に示すように、仮に、三次元ワールド座標系におけるXY平面上にパターン面17が位置されると仮定すると、このパターン面17上のパターン18のZ座標は、0となる。また、λの値は、(9)式にz=0を代入することによって、次の(10)式のように求められる。   Here, as shown in FIG. 8, assuming that the pattern surface 17 is positioned on the XY plane in the three-dimensional world coordinate system, the Z coordinate of the pattern 18 on the pattern surface 17 is zero. Also, the value of λ can be obtained as the following equation (10) by substituting z = 0 into the equation (9).

λ=tz/{sin(ry)×u−cos(ry)×sin(rx)×v−cos(ry)×cos(rx)×s}
・・・(10)
λ = tz / {sin (ry) × u−cos (ry) × sin (rx) × v−cos (ry) × cos (rx) × s}
... (10)

そして、パターン面17上のパターン18のX座標xx’およびY座標yy’は、(9)式に、(10)式の値を代入することによって求められる。ただし、平面四角形状のパターン面17の1つの角部は、三次元ワールド座標系の原点(0,0,0)に位置されているものとする。   Then, the X coordinate xx ′ and the Y coordinate yy ′ of the pattern 18 on the pattern surface 17 are obtained by substituting the value of the equation (10) into the equation (9). However, it is assumed that one corner of the planar rectangular pattern surface 17 is located at the origin (0, 0, 0) of the three-dimensional world coordinate system.

ただし、前述したように、本実施形態においては、カメラ6の光軸OAに直交(略直交を含む)し、かつ、車両5の載置面に対して傾き(角度α〔deg〕)を有するようなパターン面12を設計する。   However, as described above, in the present embodiment, it is orthogonal (including substantially orthogonal) to the optical axis OA of the camera 6 and has an inclination (angle α [deg]) with respect to the mounting surface of the vehicle 5. Such a pattern surface 12 is designed.

そこで、図9に示すように、三次元ワールド座標系におけるXY平面に対してZ軸方向に角度αの傾きを有するパターン面12を設定する。ただし、このパターン面12の1つの角部は、三次元ワールド座標系の原点(0,0,0)に位置されているものとする。   Therefore, as shown in FIG. 9, a pattern surface 12 having an inclination α in the Z-axis direction with respect to the XY plane in the three-dimensional world coordinate system is set. However, it is assumed that one corner of the pattern surface 12 is located at the origin (0, 0, 0) of the three-dimensional world coordinate system.

そして、このパターン面12を含む二次元座標系として、図9に示すように、パターン面12の一辺の方向に延びるX’座標軸と、三次元ワールド座標系におけるY座標軸とからなるX’Y座標系をとる。   Then, as a two-dimensional coordinate system including the pattern surface 12, as shown in FIG. 9, an X′Y coordinate composed of an X ′ coordinate axis extending in the direction of one side of the pattern surface 12 and a Y coordinate axis in the three-dimensional world coordinate system. Take a system.

そして、このX’Y座標系上に規定されるパターン14の座標点(xx,yy)は、次のような幾何学計算によって求められる。   And the coordinate point (xx, yy) of the pattern 14 prescribed | regulated on this X'Y coordinate system is calculated | required by the following geometric calculations.

ここで、図10(a)(b)は、パターン14の座標点(xx,yy)の計算を分かりやすくするために示したものであり、図10(a)は、三次元ワールド座標系をXZ平面の法線方向から見た図を、図10(b)は、三次元ワールド座標系をYZ平面の法線方向から見た図をそれぞれ示している。   Here, FIGS. 10A and 10B are shown for easy understanding of the calculation of the coordinate point (xx, yy) of the pattern 14, and FIG. 10A shows the three-dimensional world coordinate system. FIG. 10B shows a diagram viewed from the normal direction of the XZ plane, and FIG. 10B shows a diagram of the three-dimensional world coordinate system viewed from the normal direction of the YZ plane.

図10(a)に示すように、xxとxx’との間には、次の(11)式に示す関係式が成立し、また、yyとyy’との間には、次の(12)式に示す関係式が成立する。なお、(11)式におけるβ〔deg〕は、図10(a)に、(12)式におけるγ〔deg〕は、図10(b)に、それぞれ示されている。   As shown in FIG. 10 (a), the following relational expression (11) is established between xx and xx ′, and the following (12) is established between yy and yy ′. ) Is established. Note that β [deg] in the equation (11) is shown in FIG. 10A, and γ [deg] in the equation (12) is shown in FIG. 10B.

(xx’−xx×cos(α))/xx×sin(α)
=(xx’−tx)/tz
=tanβ ・・・(11)
(Xx′−xx × cos (α)) / xx × sin (α)
= (Xx'-tx) / tz
= Tan β (11)

yy+xx×sin(α)×(yy’−ty)/tz
=yy+xx×sin(α)×tanγ
=yy+(yy’−yy)
=yy’ ・・・(12)
yy + xx × sin (α) × (yy′−ty) / tz
= Yy + xx × sin (α) × tan γ
= Yy + (yy'-yy)
= Yy '(12)

さらに、(11)式より、xxは、次の(13)式のように求められ、また、(12)式より、yyは、次の(14)式のように求められる。   Furthermore, xx is obtained from the following equation (13) from the equation (11), and yy is obtained from the following equation (14) from the equation (12).

xx=xx’×tz/{(xx’−tx)×sin(α)+tz×cos(α)}
・・・(13)
xx = xx ′ × tz / {(xx′−tx) × sin (α) + tz × cos (α)}
... (13)

yy=yy’−{xx×sin(α)×(yy’−ty)}/tz ・・・(14)   yy = yy ′ − {xx × sin (α) × (yy′−ty)} / tz (14)

このようにして、カメラ座標系における仮想パターンイメージ14”の座標点(u,v,s)を、三次元ワールド座標系における座標点(xx’,yy’)に座標変換した後に、X’Y座標系の座標点(xx,yy)に座標変換することができる。   In this way, after coordinate-transforming the coordinate point (u, v, s) of the virtual pattern image 14 ″ in the camera coordinate system to the coordinate point (xx ′, yy ′) in the three-dimensional world coordinate system, X′Y Coordinate conversion can be performed to a coordinate point (xx, yy) in the coordinate system.

これにより、パターン14の座標点(xx,yy)を規定することができるので、本実施形態のカメラ姿勢算出用ターゲット装置10におけるパターン面12を設計することができる。なお、パターン14の車両5の載置面からの高さ方向の座標(三次元ワールド座標系でいうところのZ座標)については、座標点(xx,yy)と車両5の載置面に対するパターン面12の傾斜αとから一義的に定めることができる。   Thereby, since the coordinate point (xx, yy) of the pattern 14 can be defined, the pattern surface 12 in the camera posture calculation target device 10 of the present embodiment can be designed. In addition, about the coordinate of the height direction from the mounting surface of the vehicle 5 of the pattern 14 (Z coordinate in the three-dimensional world coordinate system), it is a pattern with respect to the coordinate point (xx, yy) and the mounting surface of the vehicle 5. It can be uniquely determined from the inclination α of the surface 12.

また、楕円や長円等のパターン14の具体的な歪み形状については、各座標点(xx,yy)に対応するカメラ6の歪み特性を、既知の内部パラメータに基づいて予め把握しておき、歪み特性から逆算した形状を割り当てるように設計すればよい。   In addition, for a specific distortion shape of the pattern 14 such as an ellipse or an ellipse, the distortion characteristics of the camera 6 corresponding to each coordinate point (xx, yy) are grasped in advance based on known internal parameters, What is necessary is just to design so that the shape back-calculated from the distortion characteristic may be assigned.

次に、このようなカメラ姿勢算出用ターゲット装置10を用いたカメラ姿勢算出方法について説明する。   Next, a camera posture calculation method using such a camera posture calculation target device 10 will be described.

なお、この算出方法において、既知のパラメータは、カメラ6の内部パラメータ(cx,cy,f)およびパターンイメージ14’に対応するパターン14の座標点(xx,yy)とされている。ただし、パターンイメージ14’に対応するパターン14の座標点が既知であるというためには、画像座標系において、パターンイメージ14’が、このパターンイメージ14’に対応するパターン14を設計する際に用いた仮想パターンイメージ14”と同一の座標値をとることが必要となり、そのためには、パターン14の位置を設計上の位置(xx,yy)に合わせることが条件となる。   In this calculation method, the known parameters are the internal parameters (cx, cy, f) of the camera 6 and the coordinate points (xx, yy) of the pattern 14 corresponding to the pattern image 14 ′. However, in order that the coordinate point of the pattern 14 corresponding to the pattern image 14 ′ is known, the pattern image 14 ′ is used when designing the pattern 14 corresponding to the pattern image 14 ′ in the image coordinate system. It is necessary to take the same coordinate value as that of the virtual pattern image 14 ″, and for that purpose, the position of the pattern 14 must be matched with the design position (xx, yy).

そして、本実施形態においては、まず、図2に示したように、車両5の載置面上に、カメラ姿勢算出用ターゲット装置10を設置する。このとき、カメラ姿勢算出用ターゲット装置10におけるパターン14の位置が、設計上の位置(xx,yy)に合うようにカメラ姿勢算出用ターゲット装置10の設置位置を調整する。なお、このときの設置位置の調整は、例えば、車両5の端部からのカメラ姿勢算出用ターゲット装置10の離間距離が、パターン14の位置を設計上の位置に合わせることができるものとして予め想定された特定の離間距離にすること等によって行うことができる。   In the present embodiment, first, as shown in FIG. 2, the camera posture calculation target device 10 is installed on the placement surface of the vehicle 5. At this time, the installation position of the camera posture calculation target device 10 is adjusted so that the position of the pattern 14 in the camera posture calculation target device 10 matches the design position (xx, yy). The adjustment of the installation position at this time is assumed in advance, for example, such that the distance of the camera posture calculation target device 10 from the end of the vehicle 5 can match the position of the pattern 14 to the design position. It can be performed by setting the specified separation distance.

次いで、カメラ6によって、カメラ姿勢算出用ターゲット装置10のパターン面12を撮影する。   Next, the pattern surface 12 of the camera posture calculation target device 10 is photographed by the camera 6.

このとき、パターン面12における各パターン14が、超広角レンズによる歪曲収差の影響を考慮した形状に形成されているため、図3に示したようなパターンイメージ14’の大きさおよび所定の方向において隣位するパターンイメージ14’同士の間隔が均一なパターン面12の撮影画像15を取得することができる。   At this time, each pattern 14 on the pattern surface 12 is formed in a shape that takes into account the influence of distortion due to the super-wide-angle lens, so that the pattern image 14 'as shown in FIG. The captured image 15 of the pattern surface 12 with a uniform interval between adjacent pattern images 14 ′ can be acquired.

次いで、撮影画像15におけるパターンイメージ14’の特徴点を画像認識によって抽出する。なお、本実施形態における円形のパターンイメージ14’の特徴点は、円形の中心点となる。   Next, feature points of the pattern image 14 ′ in the captured image 15 are extracted by image recognition. Note that the feature point of the circular pattern image 14 ′ in this embodiment is a circular center point.

このとき、パターンイメージ14’は、均一な大きさになっているため、特徴点を正確に抽出することができる。   At this time, since the pattern image 14 ′ has a uniform size, feature points can be accurately extracted.

次いで、抽出された特徴点の座標を、仮想パターンイメージ14”の中心点の座標(i,j)とみなして(1)〜(7)式の計算を順次行う。具体的には、(1)式におけるiに、抽出された特徴点のX座標を代入し、また、(2)式におけるjに抽出された特徴点のY座標を代入して、以降(7)式までの計算を行う。   Next, the coordinates of the extracted feature points are regarded as the coordinates (i, j) of the center point of the virtual pattern image 14 ″, and the calculations of the expressions (1) to (7) are sequentially performed. Specifically, (1 Substituting the X coordinate of the extracted feature point into i in the formula (1), and substituting the Y coordinate of the extracted feature point into j in the formula (2), and performing calculations up to the formula (7). .

この計算に際しては、既知のカメラ6の内部パラメータ(cx,cy,f)を用いる。   In this calculation, known internal parameters (cx, cy, f) of the camera 6 are used.

このような計算によって求められた(7)式の座標点(u,v,s)は、抽出されたパターンイメージ14’の特徴点のカメラ座標系における座標値に相当する。   The coordinate point (u, v, s) of equation (7) obtained by such calculation corresponds to the coordinate value in the camera coordinate system of the feature point of the extracted pattern image 14 '.

また、このとき、(13)式および(14)式を用いることによって、抽出されたパターンイメージ14’の特徴点に対応するパターン14の座標点(xx,yy)を光軸OAに沿って三次元ワールド座標系におけるXY平面上に投影した座標点(xx’,yy’,0)を求める。   At this time, by using the equations (13) and (14), the coordinate point (xx, yy) of the pattern 14 corresponding to the feature point of the extracted pattern image 14 ′ is obtained along the optical axis OA. A coordinate point (xx ′, yy ′, 0) projected on the XY plane in the original world coordinate system is obtained.

次いで、(7)式を用いて求められた座標点(u,v,s)および(13)式および(14)式を用いて求められた座標点(xx’,yy’,0)を(8)式
の左辺に代入する。
Next, the coordinate point (u, v, s) obtained using the equation (7) and the coordinate point (xx ′, yy ′, 0) obtained using the equations (13) and (14) are expressed as ( 8) Assign to the left side of the equation.

このような計算を、少なくとも3個のパターンイメージ14’について行うことによって複数の連立方程式を立て、これらの連立方程式を解くことによって、車両5の載置面に対するカメラ6の姿勢として、カメラ6の外部パラメータ(rx,ry,rz,tx,ty,tz)を算出することができる。なお、測定誤差の影響を少なくするためには、広範囲に散らばったできるだけ多くの特徴点を抽出して外部パラメータを最小二乗法等も用いて高精度に算出することが好ましい。また、外部パラメータの算出の過程においてλは消去することができるので、λの具体的な値を考慮する必要はない。   By performing such calculation for at least three pattern images 14 ′, a plurality of simultaneous equations are established, and by solving these simultaneous equations, the posture of the camera 6 with respect to the mounting surface of the vehicle 5 is determined. External parameters (rx, ry, rz, tex, ty, tz) can be calculated. In order to reduce the influence of measurement errors, it is preferable to extract as many feature points as possible scattered over a wide range and to calculate external parameters with high accuracy using a least square method or the like. In addition, since λ can be deleted in the process of calculating the external parameter, it is not necessary to consider a specific value of λ.

以上述べたように、本実施形態によれば、車両5の載置面に対するカメラ6の姿勢を算出する際に、カメラ6によってパターン面12を撮影することによって、均一な大きさのパターンイメージ14’が撮された撮影画像15を得ることができるので、パターンイメージ14’の特徴点を正確に抽出することができ、車両5の載置面に対するカメラ6の姿勢を高精度に算出することができる。   As described above, according to the present embodiment, when calculating the posture of the camera 6 with respect to the mounting surface of the vehicle 5, the pattern image 12 having a uniform size is obtained by photographing the pattern surface 12 with the camera 6. Since the captured image 15 in which “is taken” can be obtained, the feature points of the pattern image 14 ′ can be accurately extracted, and the posture of the camera 6 with respect to the mounting surface of the vehicle 5 can be calculated with high accuracy. it can.

(カメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第2実施形態)
次に、本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第2実施形態について、図11乃至図14を参照して説明する。
(Second Embodiment of Target Device for Camera Posture Calculation and Camera Posture Calculation Method)
Next, a second embodiment of the camera posture calculation target device and camera posture calculation method according to the present invention will be described with reference to FIGS.

なお、本実施形態においても、従来と基本的構成が同一もしくはこれに類する箇所については、同一の符号を用いて説明する。   In the present embodiment as well, portions having the same or similar basic configuration as the conventional one will be described using the same reference numerals.

図11は、本実施形態におけるカメラ姿勢算出用ターゲット装置としてのカメラ姿勢算出用ターゲットボード20を示したものであり、このカメラ姿勢算出用ターゲットボード20は、第1実施形態と同様に、車両周辺監視画像を車内のディスプレイに表示するために車両5における所定の取り付け位置に取り付けられたカメラ6によって路面等の撮影対象面を撮影する前に、基準面としての車両5の載置面に対するカメラ6の姿勢の算出に使用されるようになっている。   FIG. 11 shows a camera posture calculation target board 20 as a camera posture calculation target device in the present embodiment. The camera posture calculation target board 20 is similar to the first embodiment in the vicinity of the vehicle. Before photographing a photographing target surface such as a road surface with a camera 6 attached at a predetermined attachment position in the vehicle 5 in order to display a monitoring image on a display inside the vehicle, the camera 6 with respect to the placement surface of the vehicle 5 as a reference surface. It is used to calculate the posture of

また、本実施形態におけるカメラ姿勢算出用ターゲットボード20も、第1実施形態と同様に、車両5の載置面に対するカメラ6の姿勢の算出を高精度に行うのに好適なものとされている。   Further, the camera orientation calculation target board 20 in this embodiment is also suitable for calculating the orientation of the camera 6 with respect to the mounting surface of the vehicle 5 with high accuracy, as in the first embodiment. .

ただし、本実施形態におけるカメラ姿勢算出用ターゲットボード20は、第1実施形態のようにパターン面12に傾きを持たせることなく、カメラ6の姿勢の高精度な算出を図るようになっている。   However, the camera orientation calculation target board 20 in the present embodiment can calculate the orientation of the camera 6 with high accuracy without giving the pattern surface 12 an inclination as in the first embodiment.

すなわち、図11に示すように、本実施形態におけるカメラ姿勢算出用ターゲットボード20は、樹脂材料等からなる偏平な基板21の一方の表面に、複数個のパターン22が印刷等によって描かれたパターン面23を有している。このパターン面23は、車両5の載置面上へのカメラ姿勢算出用ターゲットボード20の設置状態において、車両5の載置面に対して平行に配置されることになる。   That is, as shown in FIG. 11, the camera posture calculation target board 20 in the present embodiment is a pattern in which a plurality of patterns 22 are drawn on one surface of a flat substrate 21 made of a resin material or the like by printing or the like. It has a surface 23. The pattern surface 23 is arranged in parallel to the placement surface of the vehicle 5 in the installation state of the camera posture calculation target board 20 on the placement surface of the vehicle 5.

そして、本実施形態においても、パターン22の形状は、カメラ姿勢算出用ターゲットボード20を車両5の載置面に設置した状態におけるパターン面23の撮影画像24として、図12に示すように、当該撮影画像24におけるパターンイメージ22’の大きさおよび所定の方向(図12における縦方向、横方向および対角方向)において隣位するパターンイメージ22’同士の間の間隔が互いに均一となるような撮影画像24を得ることが可能な形状とされている。   Also in the present embodiment, the pattern 22 has a shape as a captured image 24 of the pattern surface 23 in a state in which the camera posture calculation target board 20 is installed on the mounting surface of the vehicle 5, as shown in FIG. Photographing in which the size of the pattern image 22 ′ in the photographed image 24 and the interval between adjacent pattern images 22 ′ in a predetermined direction (vertical direction, horizontal direction, and diagonal direction in FIG. 12) are uniform. The shape is such that the image 24 can be obtained.

より具体的には、各パターン22の形状は、カメラ6に搭載された超広角レンズによる歪曲収差の影響を考慮した形状に形成されている。   More specifically, the shape of each pattern 22 is formed in consideration of the influence of distortion due to the ultra-wide-angle lens mounted on the camera 6.

すなわち、各パターン22のうち、車両5の載置面上へのカメラ姿勢算出用ターゲットボード20の設置状態においてカメラ6の近くに位置されるパターン22や、パターン面23の中央寄りに配置されたパターン22は、超広角レンズによる歪曲収差の影響が小さいため、外形が真円またはそれに近い円形に形成されている。   That is, among the patterns 22, the pattern 22 positioned near the camera 6 in the installed state of the camera posture calculation target board 20 on the placement surface of the vehicle 5, and the pattern surface 23 are arranged near the center. Since the pattern 22 is less affected by distortion due to the ultra-wide-angle lens, the outer shape of the pattern 22 is a perfect circle or a circle close thereto.

一方、各パターン22のうち、車両5の載置面上へのカメラ姿勢算出用ターゲットボード20の設置状態においてカメラ6から遠くに位置されるパターン22や、パターン面23の周辺側に配置されたパターン22は、歪曲収差の影響が大きいため、外形がパターン面23の中央側から周辺側に向かって放射状に延びる楕円または長円状に形成されている。   On the other hand, among the patterns 22, the pattern 22 positioned far from the camera 6 in the installed state of the camera posture calculation target board 20 on the mounting surface of the vehicle 5 and the pattern 22 are arranged on the peripheral side of the pattern surface 23. Since the pattern 22 is greatly affected by distortion, the outer shape of the pattern 22 is an ellipse or an ellipse extending radially from the center side to the peripheral side of the pattern surface 23.

これにより、図12に示すように、パターンイメージ22’の大きさを均一にすることができ、各パターンイメージ22’の特徴点の抽出を正確に行うことができるようになっている。なお、図12においては、パターンイメージ22’の縦方向および横方向の周期も均一となっている。   As a result, as shown in FIG. 12, the size of the pattern image 22 'can be made uniform, and the feature points of each pattern image 22' can be extracted accurately. In FIG. 12, the vertical and horizontal periods of the pattern image 22 'are also uniform.

このようなパターン面23は、図13に示すように、画像座標系における位置がパターンイメージ22’と同一となるような仮想パターンイメージ22”をカメラ6の視野内に仮定し、仮想パターンイメージ22”に対して第1実施形態における(1)〜(10)式の計算を行うことによって設計することができる。   As shown in FIG. 13, such a pattern surface 23 assumes a virtual pattern image 22 ″ within the field of view of the camera 6 so that the position in the image coordinate system is the same as the pattern image 22 ′. ”Can be designed by performing calculations of equations (1) to (10) in the first embodiment.

この際に、図8に示した車両5の載置面と同一面上のパターン面17を本実施形態における設計されるパターン面23に置き換えて考え、図8におけるパターン18の座標点(xx’,yy’,0)を、本実施形態におけるパターン22の座標点(xx’,yy’,0)として設計すればよい。   At this time, the pattern surface 17 on the same plane as the placement surface of the vehicle 5 shown in FIG. 8 is considered to be replaced with the pattern surface 23 designed in the present embodiment, and the coordinate points (xx ′) of the pattern 18 in FIG. , Yy ', 0) may be designed as the coordinate point (xx', yy ', 0) of the pattern 22 in this embodiment.

この際に、楕円や長円等のパターン22の具体的な歪み形状については、各座標点(xx’,yy’,0)に対応するカメラ6の歪み特性を、既知の内部パラメータに基づいて予め把握しておき、歪み特性から逆算した形状を割り当てるように設計すればよい。   At this time, for a specific distortion shape of the pattern 22 such as an ellipse or an ellipse, the distortion characteristics of the camera 6 corresponding to each coordinate point (xx ′, yy ′, 0) are based on known internal parameters. What is necessary is just to design in advance so as to assign a shape calculated backward from the distortion characteristics.

次に、このようなカメラ姿勢算出用ターゲットボード20を用いたカメラ姿勢算出方法について説明する。   Next, a camera posture calculation method using such a camera posture calculation target board 20 will be described.

なお、この算出方法において、既知のパラメータは、カメラ6の内部パラメータ(cx,cy,f)およびパターンイメージ22’に対応するパターン22の座標点(xx’,yy’,0)とされている。ただし、第1実施形態と同様に、パターンイメージ22’に対応するパターン22の座標点が既知であるというためには、画像座標系において、パターンイメージ22’が、このパターンイメージ22’に対応するパターン22を設計する際に用いた仮想パターンイメージ22”と同一の座標値をとることが必要となり、そのためには、パターン22の位置を設計上の位置(xx’,yy’,0)に合わせることが条件となる。   In this calculation method, the known parameters are the internal parameters (cx, cy, f) of the camera 6 and the coordinate points (xx ′, yy ′, 0) of the pattern 22 corresponding to the pattern image 22 ′. . However, as in the first embodiment, in order to know the coordinate points of the pattern 22 corresponding to the pattern image 22 ′, the pattern image 22 ′ corresponds to the pattern image 22 ′ in the image coordinate system. It is necessary to take the same coordinate value as that of the virtual pattern image 22 ″ used when the pattern 22 is designed. For this purpose, the position of the pattern 22 is adjusted to the design position (xx ′, yy ′, 0). It is a condition.

そして、本実施形態においては、まず、図14に示すように、車両5の載置面上に、カメラ姿勢算出用ターゲットボード20を設置する。このとき、カメラ姿勢算出用ターゲットボード20におけるパターン22の位置が設計上の位置(xx’,yy’,0)に合うようにカメラ姿勢算出用ターゲットボード20の設置位置を調整する。   In this embodiment, first, as shown in FIG. 14, a camera posture calculation target board 20 is installed on the mounting surface of the vehicle 5. At this time, the installation position of the camera posture calculation target board 20 is adjusted so that the position of the pattern 22 on the camera posture calculation target board 20 matches the design position (xx ′, yy ′, 0).

次いで、カメラ6によって、カメラ姿勢算出用ターゲットボード20のパターン面23を撮影する。   Next, the pattern plane 23 of the camera posture calculation target board 20 is photographed by the camera 6.

このとき、パターン面23における各パターン22が、超広角レンズによる歪曲収差の影響を考慮した形状に形成されているため、図12に示したようなパターンイメージ22’の大きさが均一なパターン面23の撮影画像24を取得することができる。   At this time, each pattern 22 on the pattern surface 23 is formed in a shape that takes into account the influence of distortion due to the super-wide-angle lens, so that the pattern surface 22 ′ as shown in FIG. 12 has a uniform size. 23 captured images 24 can be acquired.

次いで、撮影画像24におけるパターンイメージ22’の特徴点を画像認識によって抽出する。なお、本実施形態における円形のパターンイメージ22’の特徴点は、第1実施形態と同様に円形の中心点となる。   Next, feature points of the pattern image 22 'in the captured image 24 are extracted by image recognition. Note that the feature point of the circular pattern image 22 ′ in the present embodiment is a circular center point as in the first embodiment.

このとき、各パターンイメージ22’は、均一な大きさになっているため、特徴点を正確に抽出することができる。   At this time, since each pattern image 22 'has a uniform size, the feature points can be extracted accurately.

次いで、抽出された特徴点の座標を、(1)式における座標(i,j)とみなし、この特徴点の座標(i,j)と、既知の内部パラメータ(cx,cy,f)とを用いて(1)式〜(7)式の計算を順次行う。   Next, the coordinates of the extracted feature points are regarded as the coordinates (i, j) in the equation (1), and the coordinates (i, j) of the feature points and the known internal parameters (cx, cy, f) are Using these, the calculations of formulas (1) to (7) are sequentially performed.

この計算によって求められた(7)式の座標点(u,v,s)は、抽出されたパターンイメージ22’の特徴点のカメラ座標系における座標値に相当する。   The coordinate point (u, v, s) of Equation (7) obtained by this calculation corresponds to the coordinate value in the camera coordinate system of the feature point of the extracted pattern image 22 '.

そして、(7)式を用いて求められた座標点(u,v,s)と、抽出されたパターンイメージ22’に対応するパターン22の既知の座標点(xx’,yy’,0)とを(8)式に代入する。   Then, the coordinate point (u, v, s) obtained using the expression (7), the known coordinate point (xx ′, yy ′, 0) of the pattern 22 corresponding to the extracted pattern image 22 ′, and Is substituted into equation (8).

このような計算を、少なくとも3個のパターンイメージ22’について行うことによって複数の連立方程式を立て、これらの連立方程式を解くことによって、車両5の載置面に対するカメラ6の姿勢として、カメラ6の外部パラメータ(rx,ry,rz,tx,ty,tz)を算出することができる。   By performing such a calculation for at least three pattern images 22 ′, a plurality of simultaneous equations are established, and by solving these simultaneous equations, the posture of the camera 6 with respect to the mounting surface of the vehicle 5 is determined. External parameters (rx, ry, rz, tex, ty, tz) can be calculated.

以上述べたように、本実施形態においても、カメラ6によってパターン面23を撮影することによって、均一な大きさのパターンイメージ22’が撮された撮影画像24を得ることができ、パターンイメージ22’の特徴点を正確に抽出することができるので、車両5の載置面に対するカメラ6の姿勢を高精度に算出することができる。   As described above, also in the present embodiment, by capturing the pattern surface 23 with the camera 6, it is possible to obtain the captured image 24 in which the pattern image 22 ′ having a uniform size is captured, and the pattern image 22 ′. Since the feature point can be accurately extracted, the posture of the camera 6 with respect to the placement surface of the vehicle 5 can be calculated with high accuracy.

(カメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の参考形態)
以下、本発明の参考形態について、図15乃至図17を参照して説明する。
( Reference form of camera orientation calculation target device and camera orientation calculation method)
Hereinafter, reference embodiments of the present invention will be described with reference to FIGS. 15 to 17.

なお、従来と基本的構成が同一もしくはこれに類する箇所については、同一の符号を用いて説明する。   Note that portions having the same or similar basic configuration as those in the related art will be described using the same reference numerals.

図15は、本参考形態におけるカメラ姿勢算出用ターゲット装置50を示したものである。本参考形態におけるカメラ姿勢算出用ターゲット装置50は、前述したカメラ姿勢算出用ターゲットボード3と同様に、車両周辺監視画像を車内のディスプレイに表示するために車両5における所定の取り付け位置に取り付けられたカメラ6によって路面等の撮影対象面を撮影する前に、基準面としての車両5の載置面に対するカメラ6の姿勢の算出に使用されるようになっている。 Figure 15 is a diagram showing a camera posture calculation target device 50 of Embodiment. Camera posture calculation target device 50 of Embodiment, similarly to the camera posture calculation target board 3 described above, attached to a predetermined attachment position in the vehicle 5 in order to display the vehicle surroundings monitoring image on the car display Before photographing a photographing target surface such as a road surface by the camera 6, the camera 6 is used for calculating the posture of the camera 6 with respect to the mounting surface of the vehicle 5 as a reference surface.

また、本参考形態におけるカメラ姿勢算出用ターゲット装置50も、従来のカメラ姿勢算出用ターゲットボード3とは異なり、車両5の載置面に対するカメラ6の姿勢の算出を高精度に行うのに好適なものとされている。 The camera posture calculation target device 50 of Embodiment also, unlike a conventional camera posture calculation target board 3, suitable for performing the calculation of the orientation of the camera 6 for the mounting surface of the vehicle 5 with high precision It is supposed to be.

すなわち、本参考形態におけるカメラ姿勢算出用ターゲット装置50は、保持部材としてのブロック51を有しており、このブロック51は、底面51aに対して鉛直上方に傾斜した傾斜面51bを有する直角三角柱形状に形成されている。このブロック51は、例えば、樹脂材料等によって形成してもよく、中空または中実のいずれであってもよい。 That is, the camera posture calculation target device 50 of Embodiment has a block 51 as the holding member, the block 51 is perpendicular triangular prism shape having an inclined surface 51b which is inclined vertically upward relative to the bottom surface 51a Is formed. The block 51 may be formed of, for example, a resin material or the like, and may be hollow or solid.

ブロック51の傾斜面51b上には、図15に示すように、外形が円形に形成された複数個のパターン54が縦横に整列されたパターン面52が形成されており、各パターン54は、実際の大きさが均一とされ、かつ、所定の方向(図15における縦方向、横方向および対角方向)において互いに隣位するパターン54同士の実際の間隔が均一とされている。   On the inclined surface 51b of the block 51, as shown in FIG. 15, there is formed a pattern surface 52 in which a plurality of patterns 54 having a circular outer shape are arranged vertically and horizontally. And the actual intervals between adjacent patterns 54 in a predetermined direction (vertical direction, horizontal direction and diagonal direction in FIG. 15) are uniform.

このパターン面52は、ブロック51の傾斜面51b上に印刷等によってパターン54が直接描かれたものであってもよいし、または、パターン54が描かれたシートや板状体が接着等によって傾斜面51b上に固定されたものであってもよい。   The pattern surface 52 may be one in which the pattern 54 is directly drawn on the inclined surface 51b of the block 51 by printing, or the sheet or plate on which the pattern 54 is drawn is inclined by adhesion or the like. It may be fixed on the surface 51b.

さらに、図16に示すように、ブロック51の傾斜面51bの傾斜角度α〔deg〕、すなわち、車両5の載置面に対するパターン面52の傾き角度は、鉛直方向に対してカメラ6の光軸OAがなす角度α(但し、このαは、設計値に基づく概略値であってよい)と同一とされている。なお、車両周辺監視画像として、車両およびその周辺を車両の上方から見下ろしたトップビュー画像を生成する場合には、車両に複数台のカメラ6を搭載することが必要になるが、これら複数台のカメラ6ごとにαの値が異なってもよいことは勿論である。但し、この場合、αが異なると、パターン面52の傾き角度も異なるため、カメラ6ごとに互いに異なるカメラ姿勢算出用ターゲット装置50を用いることが必要になるか、あるいは、ブロック51に、パターン面52の傾き角度を調整するための図示しない調整機構を設け、この調整機構によってカメラ6ごとに傾き角度を調整(変更)したうえでパターン面52を撮影することが必要になる。   Further, as shown in FIG. 16, the inclination angle α [deg] of the inclined surface 51 b of the block 51, that is, the inclination angle of the pattern surface 52 with respect to the mounting surface of the vehicle 5 is the optical axis of the camera 6 with respect to the vertical direction. It is the same as the angle α formed by OA (however, this α may be an approximate value based on a design value). In addition, when generating a top view image in which the vehicle and its periphery are looked down from above the vehicle as the vehicle periphery monitoring image, it is necessary to mount a plurality of cameras 6 on the vehicle. Of course, the value of α may be different for each camera 6. However, in this case, if α is different, the inclination angle of the pattern surface 52 is also different, so that it is necessary to use different camera orientation calculation target devices 50 for each camera 6 or the block 51 has the pattern surface An adjustment mechanism (not shown) for adjusting the inclination angle of 52 is provided, and it is necessary to photograph the pattern surface 52 after adjusting (changing) the inclination angle for each camera 6 by this adjustment mechanism.

したがって、本参考形態においては、車両5の載置面上へのカメラ姿勢算出用ターゲット装置50の設置(載置)状態において、パターン面52をカメラ6の光軸OAに対して直交させることができるようになっている。 Therefore, in this reference embodiment, in the installation (placement) status of the camera posture calculation target device 50 onto the mounting surface of the vehicle 5, it is perpendicular to the pattern surface 52 with respect to the optical axis OA of the camera 6 It can be done.

これにより、図17に示すように、カメラ6によるパターン面52の撮像画像55におけるパターンイメージ54’の大きさを、パターンイメージ54’からの特徴点の正確な抽出が可能な程度に均一に近似した状態である略均一にすることができる。   As a result, as shown in FIG. 17, the size of the pattern image 54 ′ in the captured image 55 of the pattern surface 52 by the camera 6 is approximately approximated to such an extent that the feature points can be accurately extracted from the pattern image 54 ′. Can be made substantially uniform.

この結果、各パターンイメージ54’の特徴点の抽出を正確に行うことができるので、車両5の載置面に対するカメラ6の姿勢を従来よりも高精度に算出することができる。   As a result, the feature points of each pattern image 54 ′ can be accurately extracted, so that the posture of the camera 6 with respect to the mounting surface of the vehicle 5 can be calculated with higher accuracy than in the past.

(画像表示方法の実施形態)
以下、本発明に係る画像表示方法の実施形態について、図18乃至図20を参照して説明する。
(Embodiment of image display method)
Hereinafter, an embodiment of an image display method according to the present invention will be described with reference to FIGS.

図18は、本実施形態における画像表示方法を実現するための装置の一例としての画像表示装置30を示したものであり、この画像表示装置30は、車両5の互いに異なる位置に取り付けられた4台のカメラ6a,6b,6c,6dを有している。4台のカメラ6a,6b,6c,6dのうちの1台は、車両5の前部(例えば、エンブレム部)に取付けられたフロントカメラ6aとされており、このフロントカメラ6aは、車両5の前方を撮影するようになっている。他の3台のカメラ6b,6c,6dのうちの1台は、車両5の後部(例えば、リアライセンスガーニッシュ部)に取付けられたバックカメラ6bとされており、このバックカメラ6bは、車両5の後方を撮影するようになっている。他の2台のカメラ6c,6dのうちの1台は、車両5の右側部(例えば、右ドアミラー部)に取付けられた右サイドカメラ6cとされており、この右サイドカメラ6cは、車両5の右側方を撮影するようになっている。残りの1台は、車両5の左側部(例えば、左ドアミラー部)に取り付けられた左サイドカメラ6dとされており、この左サイドカメラ6dは、車両5の左側方を撮影するようになっている。   FIG. 18 shows an image display device 30 as an example of a device for realizing the image display method according to the present embodiment. The image display device 30 is attached to the vehicle 5 at different positions. The cameras 6a, 6b, 6c and 6d are provided. One of the four cameras 6 a, 6 b, 6 c, 6 d is a front camera 6 a attached to the front portion (for example, an emblem portion) of the vehicle 5, and the front camera 6 a It is supposed to shoot forward. One of the other three cameras 6b, 6c, 6d is a back camera 6b attached to the rear portion (for example, a rear license garnish portion) of the vehicle 5, and the back camera 6b is the vehicle 5 The back of the camera is to be taken. One of the other two cameras 6c and 6d is a right side camera 6c attached to the right side portion (for example, the right door mirror portion) of the vehicle 5, and the right side camera 6c is the vehicle 5 The right side of is to be taken. The remaining one is a left side camera 6d attached to the left side of the vehicle 5 (for example, the left door mirror), and the left side camera 6d captures the left side of the vehicle 5. Yes.

各カメラ6a,6b,6c,6dには、カメラ画像取得部33が接続されており、このカメラ画像取得部33は、各カメラ6a,6b,6c,6dの撮影画像を取得するようになっている。   A camera image acquisition unit 33 is connected to each of the cameras 6a, 6b, 6c, and 6d, and the camera image acquisition unit 33 acquires captured images of the cameras 6a, 6b, 6c, and 6d. Yes.

カメラ画像取得部33には、カメラ姿勢算出部31が接続されており、このカメラ姿勢算出部31は、パターンイメージからの特徴点の抽出を行う特徴点抽出部31aと、この特徴点抽出部31aに接続されたカメラ姿勢計算部31bとによって構成されている。   A camera posture calculation unit 31 is connected to the camera image acquisition unit 33. The camera posture calculation unit 31 extracts a feature point from a pattern image and a feature point extraction unit 31a. And a camera posture calculation unit 31b connected to the.

このカメラ姿勢算出部31は、特徴点抽出部31aとカメラ姿勢計算部31bとによって、前述した第1実施形態または第2実施形態におけるカメラ姿勢算出方法を用いて、車両5の載置面に対する各カメラ6a,6b,6c,6dの姿勢を個別に算出するようになっている。   This camera posture calculation unit 31 uses the camera point calculation method in the first embodiment or the second embodiment described above by the feature point extraction unit 31a and the camera posture calculation unit 31b. The postures of the cameras 6a, 6b, 6c, and 6d are individually calculated.

また、カメラ画像取得部33には、車両周辺監視画像生成部32が接続されており、この車両周辺監視画像生成部32には、カメラ画像取得部33から、各カメラ6a,6b,6c,6dによる路面等の撮影対象面の撮影画像のデータが入力されるようになっている。   In addition, a vehicle periphery monitoring image generation unit 32 is connected to the camera image acquisition unit 33, and the cameras 6 a, 6 b, 6 c, and 6 d are connected to the vehicle periphery monitoring image generation unit 32 from the camera image acquisition unit 33. Data of a photographed image of a photographing target surface such as a road surface is input.

車両周辺監視画像生成部32には、マッピングテーブル記憶部34が接続されており、このマッピングテーブル記憶部34には、例えば、図19に示すようなマッピングテーブル35が記憶されている。   A mapping table storage unit 34 is connected to the vehicle periphery monitoring image generation unit 32, and a mapping table 35 as shown in FIG. 19 is stored in the mapping table storage unit 34, for example.

このマッピングテーブル35には、カメラ6a,6b,6c,6dの撮影画像と後述する車両周辺監視画像38(図20参照)との対応関係が記述されている。   In this mapping table 35, the correspondence relationship between the captured images of the cameras 6a, 6b, 6c, and 6d and a vehicle periphery monitoring image 38 (see FIG. 20) described later is described.

具体的には、図19に示すように、マッピングテーブル35には、画像座標系における座標点(Xc,Yc)(i、jは任意の自然数、但し、図19の例においては、i≠5、j≠2)に位置するカメラ6a,6b,6c,6dの撮影画像における1つの画素を、後述するディスプレイ36の二次元座標系における座標点(Xt,Yt)(m、nは任意の自然数、但し、図19の例においては、m≠4、n≠3)に表示される車両周辺監視画像における1つの画素の生成に用いる旨が記述されている。 Specifically, as shown in FIG. 19, the mapping table 35 includes a coordinate point (Xc i , Yc j ) (i, j are arbitrary natural numbers in the image coordinate system. However, in the example of FIG. One pixel in the captured image of the camera 6a, 6b, 6c, 6d located at ≠ 5, j ≠ 2) is represented by a coordinate point (Xt m , Yt n ) (m, n) in the two-dimensional coordinate system of the display 36 described later. Is an arbitrary natural number, but in the example of FIG. 19, it is described that it is used to generate one pixel in a vehicle periphery monitoring image displayed with m ≠ 4 and n ≠ 3).

なお、マッピングテーブル35には、1台のカメラ6a,6b,6c,6dの撮影画像における2つ以上の画素を、車両周辺監視画像38における1つの画素の生成に用いる旨が記述されていてもよい(例えば、特許文献1段落0041、0044等参照)。また、マッピングテーブル35は、カメラ6a,6b,6c,6d用のレンズとして超広角レンズを用いることによる撮影画像の歪みを補正することを考慮した座標変換をともなうものであってもよい。   It should be noted that the mapping table 35 describes that two or more pixels in the captured images of one camera 6a, 6b, 6c, 6d are used for generating one pixel in the vehicle periphery monitoring image 38. Good (see, for example, paragraphs 0041 and 0044 of Patent Document 1). Further, the mapping table 35 may be accompanied by coordinate conversion in consideration of correcting distortion of a captured image caused by using an ultra-wide angle lens as a lens for the cameras 6a, 6b, 6c, and 6d.

車両周辺監視画像生成部32は、このマッピングテーブル記憶部34に記憶されたマッピングテーブル35を用いることによって、フロントカメラ6aによる撮影画像を、車両の前方を監視する前方監視画像41に、バックカメラ6bによる撮影画像を、車両の後方を監視する後方監視画像42に、右サイドカメラ6cによる撮影画像を、車両の右側方を監視する右側方監視画像43に、左サイドカメラ6dによる撮影画像を、車両の左側方を監視する左側方監視画像44に、それぞれ変換するようになっている。   By using the mapping table 35 stored in the mapping table storage unit 34, the vehicle periphery monitoring image generation unit 32 converts the image captured by the front camera 6a into a front monitoring image 41 for monitoring the front of the vehicle, and the back camera 6b. An image captured by the left side camera 6d, a captured image captured by the right side camera 6c, a captured image captured by the right side camera 6c, a captured image captured by the left side camera 6d, Are converted into left side monitoring images 44 for monitoring the left side.

そして、車両周辺監視画像生成部32は、各監視画像41,42,43,44のデータと自車両を示すイラスト画像39のデータとを1つに合成することによって、自車両およびその周辺を自車両の上方から見下ろすように視点変換した車両周辺監視画像38を生成するようになっている。   Then, the vehicle periphery monitoring image generation unit 32 combines the data of the monitoring images 41, 42, 43, and 44 and the data of the illustration image 39 indicating the own vehicle into one, thereby automatically A vehicle periphery monitoring image 38 whose viewpoint is changed so as to look down from above the vehicle is generated.

車両周辺監視画像生成部32には、ディスプレイ36が接続されており、このディスプレイ36には、車両周辺監視画像生成部32によって生成された車両周辺監視画像38が表示されるようになっている。   A display 36 is connected to the vehicle periphery monitoring image generation unit 32, and a vehicle periphery monitoring image 38 generated by the vehicle periphery monitoring image generation unit 32 is displayed on the display 36.

さらに、本実施形態において、車両周辺監視画像生成部32は、マッピングテーブル補正部37を有しており、このマッピングテーブル補正部37は、カメラ姿勢算出部31による各カメラ6a,6b,6c,6dの姿勢の算出結果を取得するようになっている。   Furthermore, in this embodiment, the vehicle periphery monitoring image generation unit 32 includes a mapping table correction unit 37, and the mapping table correction unit 37 is configured by each camera 6 a, 6 b, 6 c, 6 d by the camera posture calculation unit 31. The calculation result of the posture is acquired.

そして、マッピングテーブル補正部37は、取得された姿勢の算出結果に基づいて、算出されたカメラ6a,6b,6c,6dの姿勢が、マッピングテーブル補正部37に予め記憶されている適切な姿勢からずれているか否かを判定し、ずれが生じている場合には、このずれが車両周辺監視画像38の生成の際に解消されるようにマッピングテーブル記憶部34に記憶されたマッピングテーブル35を補正するようになっている。具体的には、例えば、図19に示すディスプレイ36の座標系における座標点(Xt,Yt)の画素の生成に用いる画像座標系の画素を、図19に示す座標点(Xc,Yc)の画素から、異なる座標点の画素となるようにマッピングテーブル35の記述を変更する。 Then, the mapping table correction unit 37 calculates the calculated postures of the cameras 6a, 6b, 6c, and 6d from the appropriate postures stored in advance in the mapping table correction unit 37 based on the obtained posture calculation results. It is determined whether or not there is a shift, and if there is a shift, the mapping table 35 stored in the mapping table storage unit 34 is corrected so that the shift is eliminated when the vehicle periphery monitoring image 38 is generated. It is supposed to be. Specifically, for example, the pixels of the image coordinate system used to generate the pixel of the coordinate point (Xt 4 , Yt 3 ) in the coordinate system of the display 36 shown in FIG. 19 are the coordinate points (Xc 5 , Yc shown in FIG. 19). The description of the mapping table 35 is changed so that the pixel of 2 ) becomes a pixel at a different coordinate point.

したがって、車両周辺監視画像生成部32は、カメラ6の姿勢が取付け誤差等の影響によって適切な姿勢からずれた場合であっても、マッピングテーブル35の補正によって良好な車両周辺監視画像38を生成可能とされている。   Therefore, the vehicle periphery monitoring image generation unit 32 can generate a good vehicle periphery monitoring image 38 by correcting the mapping table 35 even when the posture of the camera 6 deviates from an appropriate posture due to the influence of an attachment error or the like. It is said that.

車両周辺監視画像生成部32には、入力操作部46が接続されており、ユーザは、入力操作部46を操作することによって、車両周辺監視画像生成部32に対して車両周辺監視画像38の表示を指示するようになっている。   An input operation unit 46 is connected to the vehicle periphery monitoring image generation unit 32, and the user operates the input operation unit 46 to display the vehicle periphery monitoring image 38 on the vehicle periphery monitoring image generation unit 32. Is to direct.

また、車両周辺監視画像生成部32には、車両情報を取得する車両情報取得部47が接続されており、車両周辺監視画像生成部32は、車両周辺画像38の生成の際に、必要に応じて、車両情報取得部47が取得した車両情報(例えば、シフトレバーの位置や車速等)を入手して、車両周辺監視画像38の生成に用いるようになっている。なお、車両周辺監視画像生成部32は、例えば、車両情報取得部47から入手した車速が所定速度以下の場合に車両周辺監視監視画像38を生成するようにしてもよい。   The vehicle periphery monitoring image generation unit 32 is connected to a vehicle information acquisition unit 47 that acquires vehicle information. The vehicle periphery monitoring image generation unit 32 generates a vehicle periphery image 38 as necessary. Thus, the vehicle information (for example, the position of the shift lever, the vehicle speed, etc.) acquired by the vehicle information acquisition unit 47 is obtained and used to generate the vehicle periphery monitoring image 38. Note that the vehicle periphery monitoring image generation unit 32 may generate the vehicle periphery monitoring image 38 when the vehicle speed obtained from the vehicle information acquisition unit 47 is equal to or lower than a predetermined speed, for example.

このような画像表示装置30を用いて車両周辺監視画像38を表示する際には、まず、前提として、車両5の載置面に対する各カメラ6a,6b,6c,6dの姿勢の算出を行う。   When displaying the vehicle periphery monitoring image 38 using such an image display device 30, first, as a premise, the postures of the cameras 6 a, 6 b, 6 c, 6 d with respect to the placement surface of the vehicle 5 are calculated.

すなわち、車両5の載置面上に、第1実施形態に示したカメラ姿勢算出用ターゲット装置10または第2実施形態に示したカメラ姿勢算出用ターゲットボード20を設置し、次いで、カメラ6a,6b,6c,6dによって、パターン面12,23を撮影する。   In other words, the camera posture calculation target device 10 shown in the first embodiment or the camera posture calculation target board 20 shown in the second embodiment is installed on the mounting surface of the vehicle 5, and then the cameras 6a and 6b. , 6c, 6d, the pattern surfaces 12, 23 are photographed.

パターン面12,23の撮影画像のデータは、カメラ6a,6b,6c,6dからカメラ画像取得部33を経てカメラ姿勢算出部31に入力される。   Data of the captured images of the pattern surfaces 12 and 23 are input from the cameras 6a, 6b, 6c, and 6d to the camera posture calculation unit 31 via the camera image acquisition unit 33.

次いで、カメラ姿勢算出部31により、カメラ6a,6b,6c,6dの姿勢を算出して、算出結果を車両周辺監視画像生成部32に出力する。   Next, the camera posture calculation unit 31 calculates the postures of the cameras 6 a, 6 b, 6 c, and 6 d and outputs the calculation results to the vehicle periphery monitoring image generation unit 32.

次いで、車両周辺監視画像生成部32のマッピングテーブル補正部37により、カメラ姿勢算出部31の算出結果に基づいて、カメラ6a,6b,6c,6dの姿勢が適切な姿勢からずれている場合には、車両周辺監視画像38の生成(画像の座標変換および合成)の際にずれが解消されるようにマッピングテーブル記憶部34に記憶されたマッピングテーブル35を補正する。   Next, when the postures of the cameras 6a, 6b, 6c, and 6d are deviated from appropriate postures based on the calculation result of the camera posture calculation unit 31 by the mapping table correction unit 37 of the vehicle periphery monitoring image generation unit 32. The mapping table 35 stored in the mapping table storage unit 34 is corrected so that the deviation is eliminated when the vehicle periphery monitoring image 38 is generated (coordinate conversion and synthesis of the image).

その後、路面等の撮影対象面において、入力操作部46を用いたユーザの入力操作によって車両周辺監視画像38の表示が指示された場合には、各カメラ6a,6b,6c,6dによって撮影対象面を撮影し、撮影画像のデータを、車両周辺監視画像生成部32に入力する。   Thereafter, when the display of the vehicle periphery monitoring image 38 is instructed by the user's input operation using the input operation unit 46 on the imaging target surface such as the road surface, the imaging target surface is obtained by each camera 6a, 6b, 6c, 6d. The captured image data is input to the vehicle periphery monitoring image generation unit 32.

次いで、車両周辺監視画像生成部32は、変換テーブルデータベース34内の変換テーブル35を用いることによって、各カメラ6から入力された撮影対象面の撮影画像のデータを、監視画像41,42,43,44の画像データに変換するとともに、それらおよびイラスト画像39のデータを合成することによって、車両周辺監視画像38を生成する。   Next, the vehicle periphery monitoring image generation unit 32 uses the conversion table 35 in the conversion table database 34 to convert the captured image data of the imaging target surface input from each camera 6 into the monitoring images 41, 42, 43,. The vehicle periphery monitoring image 38 is generated by converting the image data into 44 image data and combining the image data and the illustration image 39.

そして、図20に示すように、車両周辺監視画像生成部32によって生成された車両周辺監視画像38をディスプレイ36に表示する。   Then, as shown in FIG. 20, the vehicle periphery monitoring image 38 generated by the vehicle periphery monitoring image generation unit 32 is displayed on the display 36.

この車両周辺監視画像38は、カメラ姿勢算出用ターゲット装置10またはカメラ姿勢算出用ターゲットボード20を用いたカメラ6の姿勢についての高精度な算出結果に基づいて補正されたマッピングテーブル35を用いて生成されたものであるため、画像品質が良好なものとなっている。   The vehicle periphery monitoring image 38 is generated by using a mapping table 35 corrected based on a highly accurate calculation result of the posture of the camera 6 using the camera posture calculation target device 10 or the camera posture calculation target board 20. As a result, the image quality is good.

したがって、本実施形態によれば、車両5の載置面に対するカメラ6の姿勢を高精度に算出することができ、撮影対象面の撮影画像に基づいて良好な車両周辺監視画像38を得ることができる。   Therefore, according to the present embodiment, the posture of the camera 6 with respect to the mounting surface of the vehicle 5 can be calculated with high accuracy, and a good vehicle periphery monitoring image 38 can be obtained based on the captured image of the imaging target surface. it can.

なお、本発明は、前述した実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。   In addition, this invention is not limited to embodiment mentioned above, A various change is possible as needed.

例えば、本発明は、車両周辺監視画像以外の画像を表示するための基準面に対するカメラの姿勢の算出に適用するようにしてもよい。   For example, the present invention may be applied to the calculation of the posture of the camera with respect to the reference plane for displaying an image other than the vehicle periphery monitoring image.

また、参考形態におけるパターン54は、円形以外の形状、例えば、正方形等の正多角形状に形成してもよいし、あるいは、格子線状、または、互いに異なる二色の矩形状が互いに直交する二方向に沿って交互に繰り返し配列されてなる市松模様における一方の色の矩形状に形成されていてもよい。ただし、正多角形状のパターンについてのパターンイメージの特徴点は、パターンイメージの中心点となる。また、格子線状のパターンについてのパターンイメージの特徴点は、パターンイメージの格子点すなわち互いに交差する複数の格子状のパターンイメージ同士の交点となる。さらに、市松模様における一方の色の矩形状のパターンについてのパターンイメージの特徴点は、このパターンイメージにおける四隅の点となる。 In addition, the pattern 54 in the reference form may be formed in a shape other than a circle, for example, a regular polygon such as a square, or a lattice line or two different rectangular shapes are orthogonal to each other. It may be formed in a rectangular shape of one color in a checkered pattern that is alternately arranged along the direction. However, the feature point of the pattern image for the regular polygonal pattern is the center point of the pattern image. Further, the feature points of the pattern image with respect to the grid line pattern are the grid points of the pattern image, that is, the intersection points of a plurality of grid pattern images intersecting each other. Furthermore, the feature points of the pattern image for the rectangular pattern of one color in the checkered pattern are the four corner points in this pattern image.

本発明に係るカメラ姿勢算出用ターゲット装置の第1実施形態を示す斜視図The perspective view which shows 1st Embodiment of the target apparatus for camera attitude | position calculation concerning this invention. 本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第1実施形態を示す側面図1 is a side view showing a first embodiment of a camera posture calculation target device and a camera posture calculation method according to the present invention. 本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第1実施形態において、パターン面の撮影画像を示す図The figure which shows the picked-up image of a pattern surface in 1st Embodiment of the camera posture calculation target apparatus and camera posture calculation method which concern on this invention. 本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第1実施形態において、仮想パターンイメージを示す図The figure which shows a virtual pattern image in 1st Embodiment of the target apparatus for camera attitude | position calculation and camera attitude | position calculation method which concern on this invention. 本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第1実施形態において、パターン面の設計の過程における仮想パターンイメージの画像座標系から二次元極座標系への座標変換を説明するために用いる説明図In the first embodiment of the camera posture calculation target device and camera posture calculation method according to the present invention, in order to explain the coordinate conversion of the virtual pattern image from the image coordinate system to the two-dimensional polar coordinate system in the process of designing the pattern surface Illustration used 本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第1実施形態において、パターン面の設計の過程における仮想パターンイメージの二次元極座標系からカメラ座標系への座標変換を説明するために用いる説明図In the first embodiment of the camera posture calculation target device and camera posture calculation method according to the present invention, in order to explain the coordinate conversion of the virtual pattern image from the two-dimensional polar coordinate system to the camera coordinate system in the process of designing the pattern surface Illustration used 本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第1実施形態において、パターン面の設計の過程における仮想パターンイメージのカメラ座標系から三次元ワールド座標系への座標変換を説明するために用いる説明図In the first embodiment of the camera posture calculation target device and camera posture calculation method according to the present invention, in order to explain the coordinate conversion of the virtual pattern image from the camera coordinate system to the three-dimensional world coordinate system in the process of designing the pattern surface Explanatory drawing used for 本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第1実施形態において、パターン面の設計の過程における三次元ワールド座標系におけるXY平面上に仮定されたパターン面を示す説明図Explanatory drawing which shows the pattern surface assumed on XY plane in the three-dimensional world coordinate system in the process of the design of a pattern surface in 1st Embodiment of the target apparatus for camera attitude | position calculation and camera attitude calculation method concerning this invention 本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第1実施形態において、パターン面の設計の最終過程として、仮想パターンイメージの三次元ワールド座標系からX’Y座標系への座標変換を説明するために用いる説明図In the first embodiment of the camera posture calculation target device and camera posture calculation method according to the present invention, as a final process of designing the pattern surface, the coordinate conversion of the virtual pattern image from the three-dimensional world coordinate system to the X′Y coordinate system is performed. Explanatory drawing used to explain (a)および(b)は本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第1実施形態において、仮想パターンイメージの三次元ワールド座標系からX’Y座標系への座標変換を説明するために図9とともに用いる説明図(A) And (b) is the first embodiment of the camera posture calculation target device and camera posture calculation method according to the present invention, in which the coordinate conversion of the virtual pattern image from the three-dimensional world coordinate system to the X′Y coordinate system is performed. Explanatory drawing used with FIG. 9 for explanation 本発明に係るカメラ姿勢算出用ターゲット装置の第2実施形態を示す斜視図The perspective view which shows 2nd Embodiment of the target apparatus for camera attitude | position calculation concerning this invention. 本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第2実施形態において、パターン面の撮影画像を示す図The figure which shows the picked-up image of a pattern surface in 2nd Embodiment of the target apparatus for camera attitude | position calculation and camera attitude calculation method concerning this invention. 本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第2実施形態において、パターン面の設計の過程における仮想パターンイメージを示す図The figure which shows the virtual pattern image in the process of the design of a pattern surface in 2nd Embodiment of the target apparatus for camera attitude | position calculation and camera attitude calculation method concerning this invention 本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の第2実施形態において、車両の搭載面上へのカメラ姿勢算出用ターゲットボードの設置状態を示す図The figure which shows the installation state of the target board for camera attitude | position calculation on the mounting surface of a vehicle in 2nd Embodiment of the target apparatus for camera attitude | position calculation and camera attitude calculation method which concerns on this invention. 本発明に係るカメラ姿勢算出用ターゲット装置の参考形態を示す斜視図The perspective view which shows the reference form of the target apparatus for camera attitude | position calculation which concerns on this invention 本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の参考形態を示す側面図The side view which shows the reference form of the target apparatus for camera attitude | position calculation which concerns on this invention, and the camera attitude | position calculation method 本発明に係るカメラ姿勢算出用ターゲット装置およびカメラ姿勢算出方法の参考形態において、パターン面の撮影画像を示す図The figure which shows the picked-up image of a pattern surface in the reference form of the camera posture calculation target apparatus and camera posture calculation method which concerns on this invention 本発明に係る画像表示方法の実施形態において、画像表示方法に用いる画像表示装置を示すブロック図The block diagram which shows the image display apparatus used for the image display method in embodiment of the image display method which concerns on this invention 本発明に係る画像表示方法の実施形態において、マッピングテーブルの概略図Schematic of mapping table in the embodiment of the image display method according to the present invention. 本発明に係る画像表示方法の実施形態において、車両周辺監視画像を示す図The figure which shows a vehicle periphery monitoring image in embodiment of the image display method which concerns on this invention. 従来から採用されていたカメラ姿勢算出用ターゲットボードの一例を示す斜視図The perspective view which shows an example of the target board for camera posture calculation used conventionally 従来から採用されていたカメラ姿勢算出方法を示す図The figure which shows the camera posture calculation method which has been adopted from the past 従来のカメラ姿勢算出用ターゲットボードにおけるパターン面の撮影画像の一例を示す図The figure which shows an example of the picked-up image of the pattern surface in the conventional camera posture calculation target board

符号の説明Explanation of symbols

6 カメラ
10 カメラ姿勢算出用ターゲット装置
12 パターン面
14 パターン
15 撮影画像
6 Camera 10 Target device for camera posture calculation 12 Pattern surface 14 Pattern 15 Photographed image

Claims (13)

基準面の上方の取り付け位置に、前記基準面と光軸とが90°以外の角度をなすように取り付けられたカメラの前記基準面に対する姿勢の算出に使用されるカメラ姿勢算出用ターゲット装置であって、
複数個のパターンが形成されたパターン面を有し、前記基準面上へのターゲット装置本体の設置状態において前記カメラによって前記パターン面が撮影され、前記パターン面の撮影画像におけるパターンから特徴点が抽出されることによって前記カメラの姿勢の算出に使用されるように形成され、
前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が、均一となるような撮影画像を得ることが可能に形成され
前記基準面上への前記ターゲット装置本体の設置状態において、前記パターン面が前記カメラの光軸に直交するように形成され、
前記複数個のパターンが、前記基準面上への前記ターゲット装置本体の設置状態における前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が均一となるような撮影画像を得ることが可能な形状に形成され、
前記複数個のパターンの形状は、
大きさおよび/または周期が均一なパターンイメージであって、前記カメラの撮像面にとられた二次元座標系である画像座標系における位置が前記撮影画像における当該複数個のパターンと同一となるようなパターンイメージである仮想パターンイメージの集合を、前記カメラの視野範囲内において仮定し、前記画像座標系における前記仮想パターンイメージの座標点を、前記パターン面を含む二次元座標系の座標点に変換して求められた形状であり、なおかつ、前記カメラに搭載されたレンズによる歪曲収差の影響を考慮した形状であること
を特徴とするカメラ姿勢算出用ターゲット装置。
A camera posture calculation target device used for calculating the posture of a camera mounted at an attachment position above the reference surface so that the reference surface and the optical axis form an angle other than 90 ° with respect to the reference surface. And
A pattern surface on which a plurality of patterns are formed; the pattern surface is photographed by the camera in a state where the target apparatus main body is installed on the reference surface; and feature points are extracted from the pattern in the photographed image of the pattern surface To be used for calculating the posture of the camera,
As a photographic image of the pattern surface, at least one of the spacing between adjacent coordinated between patterns in size and a predetermined direction for said plurality of patterns in the captured image to obtain a captured image such that the uniform one Can be formed ,
In the installation state of the target device main body on the reference surface, the pattern surface is formed to be orthogonal to the optical axis of the camera,
The plurality of patterns are adjacent to each other in a size and a predetermined direction of the plurality of patterns in the photographed image as a photographed image of the pattern surface when the target apparatus main body is installed on the reference surface. Formed in a shape capable of obtaining a captured image in which at least one of the intervals between the patterns is uniform,
The shape of the plurality of patterns is
It is a pattern image having a uniform size and / or cycle, and the position in the image coordinate system, which is a two-dimensional coordinate system taken on the imaging surface of the camera, is the same as the plurality of patterns in the captured image. Assuming a set of virtual pattern images that are various pattern images within the field of view of the camera, the coordinate points of the virtual pattern image in the image coordinate system are converted into coordinate points of a two-dimensional coordinate system including the pattern surface to a shape obtained, yet, the camera posture calculation target and wherein the shape der Rukoto in consideration of the influence of distortion due to the mounted lens to the camera.
基準面の上方の取り付け位置に、前記基準面と光軸とが90°以外の角度をなすように取り付けられたカメラの前記基準面に対する姿勢の算出に使用されるカメラ姿勢算出用ターゲット装置であって、
複数個のパターンが形成されたパターン面を有し、前記基準面上へのターゲット装置本体の設置状態において前記カメラによって前記パターン面が撮影され、前記パターン面の撮影画像におけるパターンから特徴点が抽出されることによって前記カメラの姿勢の算出に使用されるように形成され、
前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が、均一となるような撮影画像を得ることが可能に形成され、
前記基準面上への前記ターゲット装置本体の設置状態において、前記パターン面が前記基準面に対して平行になるように形成され、
前記複数個のパターンが、前記基準面上への前記ターゲット装置本体の設置状態における前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が均一となるような撮影画像を得ることが可能な形状に形成され
前記複数個のパターンの形状は、
大きさおよび/または周期が均一なパターンイメージであって、前記カメラの撮像面にとられた二次元座標系である画像座標系における位置が前記撮影画像における当該複数個のパターンと同一となるようなパターンイメージである仮想パターンイメージの集合を、前記カメラの視野範囲内において仮定し、前記画像座標系における前記仮想パターンイメージの座標点を、前記パターン面を含む三次元座標系の座標点に変換して求められた形状であり、なおかつ、前記カメラに搭載されたレンズによる歪曲収差の影響を考慮した形状であること
を特徴とするカメラ姿勢算出用ターゲット装置。
A camera posture calculation target device used for calculating the posture of a camera mounted at an attachment position above the reference surface so that the reference surface and the optical axis form an angle other than 90 ° with respect to the reference surface. And
A pattern surface on which a plurality of patterns are formed; the pattern surface is photographed by the camera in a state where the target apparatus main body is installed on the reference surface; and feature points are extracted from the pattern in the photographed image of the pattern surface To be used for calculating the posture of the camera,
As a photographed image of the pattern surface, obtain a photographed image in which at least one of the size of the plurality of patterns in the photographed image and the interval between adjacent patterns in a predetermined direction is uniform. Can be formed,
In the installation state of the target device body on the reference surface, the pattern surface is formed to be parallel to the reference surface,
The plurality of patterns are adjacent to each other in a size and a predetermined direction of the plurality of patterns in the photographed image as a photographed image of the pattern surface when the target apparatus main body is installed on the reference surface. At least one of the distance between the patterns to each other is formed in a shape capable of obtaining a captured image such that the uniform one,
The shape of the plurality of patterns is
It is a pattern image having a uniform size and / or cycle, and the position in the image coordinate system, which is a two-dimensional coordinate system taken on the imaging surface of the camera, is the same as the plurality of patterns in the captured image. Assuming a set of virtual pattern images that are various pattern images within the field of view of the camera, the coordinate points of the virtual pattern image in the image coordinate system are converted into coordinate points of a three-dimensional coordinate system including the pattern surface to a shape obtained, yet, considering shape der Rukoto features and to Luke camera posture calculation target device the effects of the distortion due to the mounted lens to the camera.
前記パターン面が形成された板状体からなること
を特徴とする請求項に記載のカメラ姿勢算出用ターゲット装置。
It consists of a plate-shaped object in which the said pattern surface was formed. The camera posture calculation target apparatus of Claim 2 characterized by these.
前記基準面上への前記ターゲット装置本体の設置状態において前記パターン面が前記カメラの光軸に直交するように前記パターン面を前記基準面に対して傾いた状態に保持する保持部材を有すること
を特徴とする請求項に記載のカメラ姿勢算出用ターゲット装置。
A holding member that holds the pattern surface in an inclined state with respect to the reference surface so that the pattern surface is orthogonal to the optical axis of the camera in the installed state of the target device main body on the reference surface; The target apparatus for camera posture calculation according to claim 1 , wherein
前記カメラが、超広角レンズを備えたカメラとされていること
を特徴とする請求項1乃至請求項のいずれか1項に記載のカメラ姿勢算出用ターゲット装置。
The camera posture calculation target device according to any one of claims 1 to 4 , wherein the camera is a camera including an ultra-wide-angle lens.
前記カメラが車両における前記所定の取り付け位置に取り付けられており、前記基準面が前記車両の載置面とされていること
を特徴とする請求項1乃至請求項のいずれか1項に記載のカメラ姿勢算出用ターゲット装置。
The said camera is attached to the said predetermined attachment position in a vehicle, The said reference plane is used as the mounting surface of the said vehicle. The Claim 1 thru | or 5 characterized by the above-mentioned. Target device for camera posture calculation.
基準面の上方の取り付け位置に、前記基準面と光軸とが90°以外の角度をなすように取り付けられたカメラの前記基準面に対する姿勢を算出するカメラ姿勢算出方法であって、
複数個のパターンが形成されたパターン面を有するカメラ姿勢算出用ターゲット装置であり、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態における前記カメラによる前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が、均一となるような撮影画像を得ることが可能に形成されたカメラ姿勢算出用ターゲット装置を前記基準面上に設置し、
この設置された前記カメラ姿勢算出用ターゲット装置における前記パターン面を前記カメラによって撮影し、
この撮影によって得られた前記パターン面の撮影画像におけるパターンから特徴点を抽出し、
抽出された特徴点に基づいて、前記カメラの姿勢を算出し、
その際に、
前記カメラ姿勢算出用ターゲット装置として、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態において、前記パターン面が前記カメラの光軸に直交するように形成され、前記複数個のパターンが、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態における前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が均一となるような撮影画像を得ることが可能な形状に形成されたカメラ姿勢算出用ターゲット装置を用いて、前記カメラの姿勢を算出し、
前記複数個のパターンの形状は、
大きさおよび/または周期が均一なパターンイメージであって、前記カメラの撮像面にとられた二次元座標系である画像座標系における位置が前記撮影画像における当該複数個のパターンと同一となるようなパターンイメージである仮想パターンイメージの集合を、前記カメラの視野範囲内において仮定し、前記画像座標系における前記仮想パターンイメージの座標点を、前記パターン面を含む二次元座標系の座標点に変換して求められた形状であり、なおかつ、前記カメラに搭載されたレンズによる歪曲収差の影響を考慮した形状であること
を特徴とするカメラ姿勢算出方法。
A camera attitude calculation method for calculating an attitude relative to the reference plane of a camera mounted at an attachment position above the reference plane so that the reference plane and the optical axis form an angle other than 90 ° ,
A camera posture calculation target device having a pattern surface on which a plurality of patterns are formed, and as a captured image of the pattern surface by the camera in the installation state of the camera posture calculation target device on the reference surface, at least one of, can be obtained photographed image such that uniform one-formed camera pose spacing between adjacent coordinated between patterns in size and a predetermined direction for said plurality of patterns in the captured image Install the target device for calculation on the reference plane,
Photographing the pattern surface in the installed camera posture calculation target device with the camera,
Extract feature points from the pattern in the captured image of the pattern surface obtained by this shooting,
Based on the extracted feature points, calculate the posture of the camera ,
At that time,
As the camera posture calculation target device, in the installation state of the camera posture calculation target device on the reference plane, the pattern surface is formed to be orthogonal to the optical axis of the camera, and the plurality of patterns are As a captured image of the pattern surface in the installation state of the camera posture calculation target device on the reference surface, the size of the plurality of patterns in the captured image and the adjacent patterns in a predetermined direction Using a camera posture calculation target device formed in a shape capable of obtaining a captured image in which at least one of the intervals is uniform, and calculating the posture of the camera;
The shape of the plurality of patterns is
It is a pattern image having a uniform size and / or cycle, and the position in the image coordinate system, which is a two-dimensional coordinate system taken on the imaging surface of the camera, is the same as the plurality of patterns in the captured image. Assuming a set of virtual pattern images that are various pattern images within the field of view of the camera, the coordinate points of the virtual pattern image in the image coordinate system are converted into coordinate points of a two-dimensional coordinate system including the pattern surface and a shape obtained by, yet, the camera orientation calculation wherein the shape der Rukoto in consideration of the influence of distortion due to the mounted lens to the camera.
基準面の上方の取り付け位置に、前記基準面と光軸とが90°以外の角度をなすように取り付けられたカメラの前記基準面に対する姿勢を算出するカメラ姿勢算出方法であって、
複数個のパターンが形成されたパターン面を有するカメラ姿勢算出用ターゲット装置であり、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態における前記カメラによる前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が、均一となるような撮影画像を得ることが可能に形成されたカメラ姿勢算出用ターゲット装置を前記基準面上に設置し、
この設置された前記カメラ姿勢算出用ターゲット装置における前記パターン面を前記カメラによって撮影し、
この撮影によって得られた前記パターン面の撮影画像におけるパターンから特徴点を抽出し、
抽出された特徴点に基づいて、前記カメラの姿勢を算出し、
その際に、
前記カメラ姿勢算出用ターゲット装置として、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態において、前記パターン面が前記基準面に対して平行になるように形成され、前記複数個のパターンが、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態における前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が均一となるような撮影画像を得ることが可能な形状に形成されたカメラ姿勢算出用ターゲット装置を用いて、前記カメラの姿勢を算出し、
前記複数個のパターンの形状は、
大きさおよび/または周期が均一なパターンイメージであって、前記カメラの撮像面にとられた二次元座標系である画像座標系における位置が前記撮影画像における当該複数個のパターンと同一となるようなパターンイメージである仮想パターンイメージの集合を、前記カメラの視野範囲内において仮定し、前記画像座標系における前記仮想パターンイメージの座標点を、前記パターン面を含む三次元座標系の座標点に変換して求められた形状であり、なおかつ、前記カメラに搭載されたレンズによる歪曲収差の影響を考慮した形状であること
を特徴とするカメラ姿勢算出方法。
A camera attitude calculation method for calculating an attitude relative to the reference plane of a camera mounted at an attachment position above the reference plane so that the reference plane and the optical axis form an angle other than 90 °,
A camera posture calculation target device having a pattern surface on which a plurality of patterns are formed, and as a captured image of the pattern surface by the camera in the installation state of the camera posture calculation target device on the reference surface, Camera posture calculation formed so as to obtain a photographed image in which at least one of the size of the plurality of patterns in the photographed image and the spacing between adjacent patterns in a predetermined direction is uniform. Set the target device on the reference plane,
Photographing the pattern surface in the installed camera posture calculation target device with the camera,
Extract feature points from the pattern in the captured image of the pattern surface obtained by this shooting,
Based on the extracted feature points, calculate the posture of the camera,
At that time,
As the camera posture calculation target device, in the installation state of the camera posture calculation target device on the reference surface, the pattern surface is formed to be parallel to the reference surface, and the plurality of patterns However, as a captured image of the pattern surface in the installation state of the camera posture calculation target device on the reference surface, adjacent patterns in the size and a predetermined direction of the plurality of patterns in the captured image using at least one camera orientation calculation target device formed in a shape capable of obtaining a captured image such that the uniform one spacing between, and calculating the orientation of the camera,
The shape of the plurality of patterns is
It is a pattern image having a uniform size and / or cycle, and the position in the image coordinate system, which is a two-dimensional coordinate system taken on the imaging surface of the camera, is the same as the plurality of patterns in the captured image. Assuming a set of virtual pattern images that are various pattern images within the field of view of the camera, the coordinate points of the virtual pattern image in the image coordinate system are converted into coordinate points of a three-dimensional coordinate system including the pattern surface to a shape obtained, yet, it mounted on the characteristic shape der Rukoto in consideration of the influence of distortion due to the lens were to Luke camera orientation calculation method to the camera.
前記カメラ姿勢算出用ターゲット装置として、前記パターン面が形成された板状体からなるカメラ姿勢算出用ターゲット装置を用いて、前記カメラの姿勢を算出すること
を特徴とする請求項に記載のカメラ姿勢算出方法。
9. The camera according to claim 8 , wherein the camera posture calculation target device is a camera posture calculation target device including a plate-like body on which the pattern surface is formed. Posture calculation method.
前記カメラ姿勢算出用ターゲット装置として、前記基準面上への前記カメラ姿勢算出用ターゲット装置の設置状態において前記パターン面が前記カメラの光軸に直交するように前記パターン面を前記基準面に対して傾いた状態に保持する保持部材を有するカメラ姿勢算出用ターゲット装置を用いて、前記カメラの姿勢を算出すること
を特徴とする請求項に記載のカメラ姿勢算出方法。
As the camera posture calculation target device, the pattern surface is set with respect to the reference surface so that the pattern surface is orthogonal to the optical axis of the camera in the installation state of the camera posture calculation target device on the reference surface. The camera posture calculation method according to claim 7 , wherein the camera posture is calculated by using a camera posture calculation target device having a holding member that is held in an inclined state.
前記カメラとして、超広角レンズを備えたカメラを用いること
を特徴とする請求項乃至請求項10のいずれか1項に記載のカメラ姿勢算出方法。
As the camera, camera orientation calculation method according to any one of claims 7 to 10, characterized by using a camera with a super-wide-angle lens.
車両における前記所定の取り付け位置に取り付けられたカメラの前記基準面としての前記車両の載置面に対する姿勢を、前記カメラ姿勢算出用ターゲット装置を用いて算出すること
を特徴とする請求項乃至請求項11のいずれか1項に記載のカメラ姿勢算出方法。
The attitude to the mounting surface of the vehicle as the reference plane of the camera mounted at the predetermined mounting position in the vehicle, according to claim 7 or claims, characterized in that calculated using the camera orientation calculation target device camera posture calculation method according to any one of claim 11.
車両における所定の取り付け位置に、前記車両の載置面と光軸とが90°以外の角度をなすように取り付けられたカメラによって撮影対象面を撮影し、前記撮影対象面の撮影画像に対して座標変換を行うことによって前記車両の周辺を監視するための車両周辺監視画像を生成し、生成された前記車両周辺監視画像を表示部に表示する画像表示方法であって、
複数個のパターンが形成されたパターン面を有するカメラ姿勢算出用ターゲット装置であり、前記車両の載置面上への前記カメラ姿勢算出用ターゲット装置の設置状態における前記カメラによる前記パターン面の撮影画像として、当該撮影画像における前記複数個のパターンについての大きさおよび所定の方向において隣位するパターン同士の間の間隔の少なくとも一方が、均一となるような撮影画像を得ることが可能に形成されたカメラ姿勢算出用ターゲット装置を前記車両の載置面上に設置し、
この設置された前記カメラ姿勢算出用ターゲット装置における前記パターン面を、前記カメラによって撮影し、
この撮影によって得られた前記パターン面の撮影画像におけるパターンから特徴点を抽出し、
抽出された特徴点に基づいて、前記カメラの姿勢を算出し、
算出された前記カメラの姿勢と適切な姿勢との間にずれが生じている場合には、車両周辺監視画像の生成の際に、前記撮影対象面の撮影画像に対して当該ずれが解消されるような座標変換を行い、
前記複数個のパターンの形状は、
大きさおよび/または周期が均一なパターンイメージであって、前記カメラの撮像面にとられた二次元座標系である画像座標系における位置が前記撮影画像における当該複数個のパターンと同一となるようなパターンイメージである仮想パターンイメージの集合を、前記カメラの視野範囲内において仮定し、前記画像座標系における前記仮想パターンイメージの座標点を、前記パターン面を含む二次元座標系または三次元座標系の座標点に変換して求められた形状であり、なおかつ、前記カメラに搭載されたレンズによる歪曲収差の影響を考慮した形状であること
を特徴とする画像表示方法。
The photographing target surface is photographed by a camera attached at a predetermined mounting position in the vehicle so that the mounting surface of the vehicle and the optical axis form an angle other than 90 °, and the photographing image of the photographing target surface is An image display method for generating a vehicle periphery monitoring image for monitoring the periphery of the vehicle by performing coordinate conversion, and displaying the generated vehicle periphery monitoring image on a display unit,
A camera posture calculation target device having a pattern surface on which a plurality of patterns are formed, and a photographed image of the pattern surface by the camera in the installation state of the camera posture calculation target device on the placement surface of the vehicle as, at least one of the spacing between adjacent coordinated between patterns in size and a predetermined direction for said plurality of patterns in the captured images are formed can be obtained photographed image such that the uniform one Installed the camera posture calculation target device on the mounting surface of the vehicle,
The pattern surface of the installed camera posture calculation target device is photographed by the camera,
Extract feature points from the pattern in the captured image of the pattern surface obtained by this shooting,
Based on the extracted feature points, calculate the posture of the camera,
When there is a deviation between the calculated camera posture and an appropriate posture, the deviation is eliminated with respect to the photographed image of the photographing target surface when the vehicle periphery monitoring image is generated. There row coordinate transformation, such as,
The shape of the plurality of patterns is
It is a pattern image having a uniform size and / or cycle, and the position in the image coordinate system, which is a two-dimensional coordinate system taken on the imaging surface of the camera, is the same as the plurality of patterns in the captured image. A set of virtual pattern images, which are various pattern images, is assumed within the field of view of the camera, and the coordinate points of the virtual pattern image in the image coordinate system are represented by a two-dimensional coordinate system or a three-dimensional coordinate system including the pattern surface. An image display method characterized in that the shape is obtained by converting to a coordinate point of the lens and is a shape that takes into account the influence of distortion by the lens mounted on the camera .
JP2007039469A 2007-02-20 2007-02-20 Camera posture calculation target device, camera posture calculation method using the same, and image display method Expired - Fee Related JP4857143B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007039469A JP4857143B2 (en) 2007-02-20 2007-02-20 Camera posture calculation target device, camera posture calculation method using the same, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007039469A JP4857143B2 (en) 2007-02-20 2007-02-20 Camera posture calculation target device, camera posture calculation method using the same, and image display method

Publications (2)

Publication Number Publication Date
JP2008205811A JP2008205811A (en) 2008-09-04
JP4857143B2 true JP4857143B2 (en) 2012-01-18

Family

ID=39782829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007039469A Expired - Fee Related JP4857143B2 (en) 2007-02-20 2007-02-20 Camera posture calculation target device, camera posture calculation method using the same, and image display method

Country Status (1)

Country Link
JP (1) JP4857143B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104160693A (en) * 2012-03-09 2014-11-19 株式会社理光 Image capturing apparatus, image capture system, image processing method, information processing apparatus, and computer-readable storage medium
CN106464804A (en) * 2014-05-15 2017-02-22 株式会社理光 Imaging system, imaging apparatus, computer program, and system
US9967526B2 (en) 2012-08-30 2018-05-08 Denso Corporation Image processing device and storage medium

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5456330B2 (en) * 2009-02-04 2014-03-26 アルパイン株式会社 Image display apparatus and camera mounting angle calculation method
JP6058256B2 (en) 2011-06-13 2017-01-11 アルパイン株式会社 In-vehicle camera attitude detection apparatus and method
JP6824143B2 (en) * 2012-03-09 2021-02-03 株式会社リコー Imaging equipment, imaging systems, image processing methods, information processing equipment, and programs
KR101303926B1 (en) * 2012-05-23 2013-09-05 한국지능기계 주식회사 Imaging method of camera using characteristic figure
KR101427181B1 (en) * 2013-01-09 2014-08-07 아진산업(주) Calibration indicator used for calibration of onboard camera using variable ellipse pattern and calibration method of onboard camera using calibration indicator
JP6681658B2 (en) * 2014-10-15 2020-04-15 シャープ株式会社 Image recognition processing device and program
KR101705558B1 (en) * 2015-06-25 2017-02-13 (주)캠시스 Top view creating method for camera installed on vehicle and AVM system
JP6631477B2 (en) * 2016-11-16 2020-01-15 トヨタ自動車株式会社 vehicle
KR101762117B1 (en) 2017-01-18 2017-07-28 (주)캠시스 Top view creating method for camera installed on vehicle and AVM system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000004391A (en) * 1998-06-16 2000-01-07 Fuji Photo Film Co Ltd Aberration correction quantity setting method, position adjusting device and image processor
JP2001116515A (en) * 1999-10-21 2001-04-27 Matsushita Electric Ind Co Ltd Calibration method
JP4504575B2 (en) * 2001-01-30 2010-07-14 クラリオン株式会社 Correction parameter calculation method and calculation apparatus, image correction apparatus and image correction method using the correction parameter, and standard samples used in these
JP4196841B2 (en) * 2004-01-30 2008-12-17 株式会社豊田自動織機 Image positional relationship correction device, steering assist device including the image positional relationship correction device, and image positional relationship correction method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104160693A (en) * 2012-03-09 2014-11-19 株式会社理光 Image capturing apparatus, image capture system, image processing method, information processing apparatus, and computer-readable storage medium
US9967526B2 (en) 2012-08-30 2018-05-08 Denso Corporation Image processing device and storage medium
CN106464804A (en) * 2014-05-15 2017-02-22 株式会社理光 Imaging system, imaging apparatus, computer program, and system
US10681268B2 (en) 2014-05-15 2020-06-09 Ricoh Company, Ltd. Imaging system, imaging apparatus, and system

Also Published As

Publication number Publication date
JP2008205811A (en) 2008-09-04

Similar Documents

Publication Publication Date Title
JP4857143B2 (en) Camera posture calculation target device, camera posture calculation method using the same, and image display method
TWI555378B (en) An image calibration, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof
US11145077B2 (en) Device and method for obtaining depth information from a scene
JP5898475B2 (en) In-vehicle camera system, calibration method thereof, and calibration program thereof
JP5454674B2 (en) Image generation apparatus, image generation program, synthesis table generation apparatus, and synthesis table generation program
US9451236B2 (en) Apparatus for synthesizing three-dimensional images to visualize surroundings of vehicle and method thereof
WO2017135081A1 (en) Vehicle-mounted camera calibration system
WO2018076154A1 (en) Spatial positioning calibration of fisheye camera-based panoramic video generating method
JP4970296B2 (en) Orthophoto image generation method and photographing apparatus
US9049396B2 (en) Creating composite images based on image capture device poses corresponding to captured images
JP2009288152A (en) Calibration method of on-vehicle camera
TW201717613A (en) An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof
JP5523730B2 (en) In-vehicle peripheral image display device
JP5134784B2 (en) Aerial photogrammetry
JP5070435B1 (en) Three-dimensional relative coordinate measuring apparatus and method
JP2011215063A (en) Camera attitude parameter estimation device
CN108596982A (en) A kind of easy vehicle-mounted multi-view camera viewing system scaling method and device
KR101583663B1 (en) Method for generating calibration indicator of camera for vehicle
CN112655024A (en) Image calibration method and device
CN106886976B (en) Image generation method for correcting fisheye camera based on internal parameters
JP5173552B2 (en) Vehicle perimeter monitoring apparatus and distortion correction value setting correction method applied thereto
JP5173551B2 (en) Vehicle perimeter monitoring apparatus and camera mounting position / posture information setting correction method applied thereto
JP2013246606A (en) Data derivation device and data derivation method
KR102159134B1 (en) Method and system for generating real-time high resolution orthogonal map for non-survey using unmanned aerial vehicle
CN114998447A (en) Multi-view vision calibration method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111031

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4857143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees