JP2010025569A - Camera parameter identification apparatus, method, and program - Google Patents
Camera parameter identification apparatus, method, and program Download PDFInfo
- Publication number
- JP2010025569A JP2010025569A JP2008183589A JP2008183589A JP2010025569A JP 2010025569 A JP2010025569 A JP 2010025569A JP 2008183589 A JP2008183589 A JP 2008183589A JP 2008183589 A JP2008183589 A JP 2008183589A JP 2010025569 A JP2010025569 A JP 2010025569A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- vanishing point
- image
- point
- horizontal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 40
- 238000003384 imaging method Methods 0.000 claims description 36
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000009434 installation Methods 0.000 description 31
- 230000014509 gene expression Effects 0.000 description 24
- 239000013598 vector Substances 0.000 description 17
- 238000012545 processing Methods 0.000 description 6
- 238000005096 rolling process Methods 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000010485 coping Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、カメラパラメータ特定装置および方法ならびにプログラムに関し、特に、基準平面に対して斜めに向くように設置されかつ撮影範囲が固定されたカメラの焦点距離と当該基準平面に対するカメラの視線の角度とを含むカメラパラメータを求める、カメラパラメータ特定装置および方法ならびにコンピュータ用プログラムに関する。 The present invention relates to a camera parameter specifying device, method, and program, and in particular, a focal length of a camera that is installed obliquely with respect to a reference plane and has a fixed shooting range, and an angle of a line of sight of the camera with respect to the reference plane. The present invention relates to a camera parameter specifying apparatus and method and a computer program for obtaining a camera parameter including:
この種の技術分野に関する従来技術として、例えば特許文献1に開示されたものがある。この従来技術によれば、まず、人の身長の統計的特性値が、予め登録される。そして、地面を含む領域がカメラで撮影され、このカメラによる撮影画像中の歩行者の着地部および頭部の座標データが複数収集される。さらに、これら複数の座標データが、歩行者の身長と、カメラの姿勢角と、カメラ(レンズ)の焦点距離と、カメラの位置と、を含む関係式に代入されることで、当該関係式が複数得られる。そして、これら複数の関係式に統計的処理が施されることで、歩行者の身長の統計的特性値を含む式が求められ、この式における歩行者の身長の統計的特性値に予め登録された人の身長の統計的特性値が代入されることで、カメラの姿勢角と、カメラの焦点距離と、カメラの位置と、の関係が得られる。この関係に基づいて、当該カメラの姿勢角と、カメラの焦点距離と、カメラの位置と、のいずれか1つ以上の値が算出される。
As a prior art regarding this type of technical field, for example, there is one disclosed in
しかし、上述の従来技術では、カメラの姿勢角と、カメラ焦点距離と、カメラの位置と、を含むカメラパラメータを求めるために、当該カメラによる撮影画像から歩行者の着地部および頭部の座標データを複数収集すると共に、これら複数の座標データが代入された複数の関係式に統計的処理を施す必要がある。このような処理(作業)を行うのは、当然に面倒であり、それ相応の労力や時間が掛かる。しかも、当該カメラパラメータを求めるための式には、歩行者の身長の統計的特性値が含まれており、この歩行者の身長の統計的特性値として、予め登録された人の身長の統計的特性値が代入され、言わば推定値が代入される。従って、このような推定値が代入された式によっては、当然ながら正確なカメラパラメータを求めることはできない。 However, in the above-described prior art, in order to obtain camera parameters including the camera attitude angle, the camera focal length, and the camera position, the coordinate data of the landing part and the head of the pedestrian from the image captured by the camera. It is necessary to statistically process a plurality of relational expressions to which a plurality of coordinate data are substituted and a plurality of relational expressions to which the plurality of coordinate data are substituted. It is naturally troublesome to perform such processing (work), and it takes corresponding labor and time. Moreover, the formula for obtaining the camera parameter includes a statistical characteristic value of the height of the pedestrian, and the statistical characteristic value of the height of the person registered in advance as the statistical characteristic value of the height of the pedestrian. A characteristic value is substituted, that is, an estimated value is substituted. Accordingly, it is natural that an accurate camera parameter cannot be obtained depending on an expression in which such an estimated value is substituted.
そこで、本発明は、従来よりも簡単かつ正確にカメラパラメータを求めることができるカメラパラメータ特性装置および方法ならびにコンピュータ用プログラムを提供することを、目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a camera parameter characteristic apparatus and method and a computer program that can determine a camera parameter more easily and accurately than in the past.
この目的を達成するために、本発明のうちの第1発明は、基準平面に対して斜めに向くように設置されかつ撮影範囲が固定されたカメラに適用されるものであり、当該カメラの焦点距離と、基準平面に対する当該カメラの視線の角度と、を含むカメラパラメータを求めるカメラパラメータ特定装置である。具体的には、カメラによる撮影画像上で基準平面に対する垂直消失点および水平消失点を特定することが可能な指標が当該カメラによる撮影範囲内に存在するときの当該撮影画像を当該カメラから取得する画像取得手段を、具備する。そして、この画像取得手段によって取得された撮影画像に基づいて、当該撮影画像を含む2次元領域における垂直消失点および水平消失点それぞれの位置を特定する位置特定手段をも、具備する。さらに、この位置特定手段によって特定された垂直消失点および水平消失点それぞれの位置に基づいて、カメラパラメータを求めるパラメータ演算手段をも、具備する。 In order to achieve this object, the first invention of the present invention is applied to a camera installed so as to be inclined with respect to a reference plane and having a fixed photographing range. It is a camera parameter specifying device for obtaining camera parameters including a distance and an angle of the line of sight of the camera with respect to a reference plane. Specifically, the photographed image is acquired from the camera when an index capable of specifying the vertical vanishing point and the horizontal vanishing point with respect to the reference plane is present in the photographing range by the camera on the photographed image by the camera. Image acquisition means is provided. Then, based on the captured image acquired by the image acquisition means, a position specifying means for specifying the positions of the vertical vanishing point and the horizontal vanishing point in the two-dimensional area including the captured image is also provided. In addition, a parameter calculation means for obtaining camera parameters based on the positions of the vertical vanishing point and the horizontal vanishing point specified by the position specifying means is also provided.
即ち、本第1発明では、カメラが、基準平面に対して斜めに向くように設定されており、当該カメラの撮影範囲は、固定されている。そして、このカメラによる撮影範囲内に指標が存在するときの撮影画像が、画像取得手段によって、当該カメラから取得される。この画像取得手段によって取得された撮影画像上では、基準平面に対する垂直消失点および水平消失点の特定が可能である。このため、指標は、例えば基準平面に対して垂直な方向に延伸すると共に、互いに距離を置いて平行な複数の第1直線を形成する部分を有しており、これら複数の第1直線は、撮影画像上において、いわゆる3点透視歪によって、互いに非平行に見える。そして、この互いに非平行に見える各第1直線(の像)の延長線が収束する点が、垂直消失点とされる。併せて、指標は、基準平面に対して平行な方向に延伸すると共に、互いに距離を置いて平行な複数の第2直線を形成する部分を有しており、これら複数の第2直線もまた、撮影画像上において、互いに非平行に見える。そして、この互いに非平行に見える各第2直線の延長線が収束する点が、水平消失点とされる。このような撮影画像に基づいて、当該撮影画像を含む2次元領域における垂直消失点および水平消失点それぞれの位置が、位置特定手段によって、特定される。そして、これら垂直消失点および水平消失点それぞれの位置に基づいて、パラメータ演算手段が、カメラパラメータを求める。 That is, in the first invention, the camera is set so as to be inclined with respect to the reference plane, and the shooting range of the camera is fixed. Then, a photographed image when the index is present within the photographing range by the camera is obtained from the camera by the image obtaining means. On the captured image acquired by the image acquisition means, it is possible to specify the vertical vanishing point and the horizontal vanishing point with respect to the reference plane. For this reason, the indicator has, for example, a portion that extends in a direction perpendicular to the reference plane and that forms a plurality of first straight lines that are parallel to each other at a distance from each other. On the captured image, the images appear non-parallel to each other due to so-called three-point perspective distortion. A point where the extended lines of the first straight lines (images) that appear to be non-parallel to each other converge is defined as a vertical vanishing point. In addition, the indicator has a portion that extends in a direction parallel to the reference plane and forms a plurality of second straight lines that are parallel to each other at a distance from each other. They appear non-parallel to each other on the captured image. A point where the extended lines of the second straight lines that appear to be non-parallel to each other converge is defined as a horizontal vanishing point. Based on such a photographed image, the positions of the vertical vanishing point and the horizontal vanishing point in the two-dimensional region including the photographed image are identified by the position identifying means. Then, based on the positions of the vertical vanishing point and the horizontal vanishing point, the parameter calculation means obtains camera parameters.
なお、カメラは、撮影画像の水平方向が基準平面に平行を成すように設置されるのが、望ましい。この場合、撮影画像の中心を通りかつ当該撮影画像の垂直方向に沿って延伸する直線上に、垂直消失点が存在するようになる。これにより、少なくとも垂直消失点の位置の特定が容易になり、ひいてはカメラパラメータの特定が容易になる。 Note that the camera is preferably installed so that the horizontal direction of the captured image is parallel to the reference plane. In this case, a vertical vanishing point exists on a straight line that passes through the center of the captured image and extends along the vertical direction of the captured image. Thereby, at least the position of the vertical vanishing point can be easily specified, and hence the camera parameter can be easily specified.
これに対して、撮影画像の水平方向が基準平面に非平行であるとき、具体的にはカメラが視線を中心として回転(言わばロール)しているときには、次のようにすればよい。即ち、撮影画像の水平方向の基準平面に対する偏角を求める偏角演算手段と、この偏角演算手段によって求められた偏角に基づいて当該偏角がゼロであると仮定したときの垂直消失点および水平消失点それぞれの位置を仮想する位置仮想手段と、をさらに具備する。そして、この位置仮想手段によって仮想された垂直消失点および水平消失点それぞれの位置に基づいて、パラメータ演算手段が、カメラパラメータを求めるようにすればよい。 On the other hand, when the horizontal direction of the captured image is not parallel to the reference plane, specifically, when the camera is rotating (that is, rolling) around the line of sight, the following may be performed. That is, a declination calculation means for obtaining a declination with respect to a reference plane in the horizontal direction of the captured image, and a vertical vanishing point when it is assumed that the declination is zero based on the declination obtained by the declination calculation means And position virtual means for virtualizing the position of each horizontal vanishing point. Then, the parameter calculation means may obtain the camera parameters based on the positions of the vertical vanishing point and the horizontal vanishing point virtualized by the position virtual means.
また、本第1発明においては、撮影画像を含む2次元領域に2次元の画像座標系が設定されてもよい。この場合、位置特定手段は、当該2次元領域における垂直消失点および水平消失点それぞれの位置を、画像座標系の座標値で特定するものとする。 In the first invention, a two-dimensional image coordinate system may be set in a two-dimensional area including a captured image. In this case, the position specifying means specifies the position of each of the vertical vanishing point and the horizontal vanishing point in the two-dimensional area with the coordinate values of the image coordinate system.
さらに、撮影範囲を含む3次元空間に3次元の世界座標系が設定されている場合には、この世界座標系の座標値を構成する3つの要素値のうち少なくとも1つが既知である3次元空間における任意の2点間の距離を基準距離として設定する基準距離設定手段と、この設定された基準距離に基づいて基準平面からカメラまでの距離を含む3次元空間における当該カメラの位置を求めるカメラ位置演算手段と、を備えてもよい。そして、このカメラの位置をもカメラパラメータに加えて、当該カメラパラメータに基づき、画像座標系および世界座標系の一方における任意の座標値に対応する他方における座標値を求める、つまり画像座標系および世界座標系の間で相互変換を行う、座標変換手段を、さらに備えてもよい。 Further, when a three-dimensional world coordinate system is set in the three-dimensional space including the imaging range, the three-dimensional space in which at least one of the three element values constituting the coordinate value of the world coordinate system is known. A reference distance setting means for setting a distance between any two points as a reference distance, and a camera position for obtaining a position of the camera in a three-dimensional space including a distance from the reference plane to the camera based on the set reference distance And an arithmetic means. Then, the camera position is added to the camera parameter, and based on the camera parameter, a coordinate value in the other corresponding to an arbitrary coordinate value in one of the image coordinate system and the world coordinate system is obtained, that is, the image coordinate system and the world You may further provide the coordinate conversion means which performs mutual conversion between coordinate systems.
この構成によれば、基準平面からカメラまでの距離を含む当該カメラの位置が、カメラパラメータに加えられる。そして、このカメラパラメータを用いることによって、画像座標系および世界座標系間での相互変換、いわゆる座標変換が、可能となる。 According to this configuration, the position of the camera including the distance from the reference plane to the camera is added to the camera parameter. By using this camera parameter, mutual conversion between the image coordinate system and the world coordinate system, so-called coordinate conversion, becomes possible.
なお、カメラの位置、特に基準平面から当該カメラまでの距離、が不明であっても、これを1つの定数とみなすことによって、世界座標系については、スケールを持たない、言わば任意単位の座標系として、取り扱うことができる。このような任意単位の世界座標系においては、個々の座標値がどのようなスケール(単位)に基づくのかは不明であるものの、例えば或る2点間の距離と別の2点間の距離との比を求めることはできる。具体的には、撮影画像中の或る建物と別の建物との高さの比を求めたり、若しくは或る建物の高さに比べて或る人間の身長がどの程度であるのかを推定したり、さらには或る人間等の移動物体が移動した距離を任意の2点間の距離と比較して求めたりすることができる。 Even if the position of the camera, particularly the distance from the reference plane to the camera, is unknown, the world coordinate system has no scale, that is, an arbitrary unit coordinate system by considering this as one constant. Can be handled. In such an arbitrary unit world coordinate system, it is not clear what scale (unit) each coordinate value is based on, but for example, the distance between two points and the distance between two points. The ratio can be determined. Specifically, the ratio of the height of one building to another building in the captured image is calculated, or the height of a certain person is estimated compared to the height of a certain building. Further, the distance traveled by a moving object such as a person can be obtained by comparing with the distance between any two points.
ここで、世界座標系は、これを構成する3つの座標軸のうちの1つが基準平面に対して垂直に延伸するように設定されるのが、望ましい。そして、この基準平面に対して垂直に延伸する座標軸上に、カメラが設置されるのが、望ましい。さらに、上述の基準距離を規定する任意の2点のうちの少なくとも一方は、その世界座標系における座標値を構成する3つの要素値のうち当該基準平面に対して垂直に延伸する座標軸の値が既知であるのが、望ましい。厳密には、この条件下で、基準平面からカメラまでの距離を含む当該カメラの位置が求められる。 Here, it is desirable that the world coordinate system is set so that one of the three coordinate axes constituting the world coordinate system extends perpendicularly to the reference plane. It is desirable that the camera is installed on a coordinate axis extending perpendicular to the reference plane. Furthermore, at least one of the two arbitrary points that define the reference distance described above has a coordinate axis value extending perpendicularly to the reference plane among the three element values constituting the coordinate value in the world coordinate system. It is desirable to be known. Strictly speaking, under this condition, the position of the camera including the distance from the reference plane to the camera is obtained.
続いて、本発明のうちの第2発明は、第1発明に対応する方法発明である。即ち、基準平面に対して斜めに向くように設置されかつ撮影範囲が固定されたカメラに適用されるものであり、当該カメラの焦点距離と、基準平面に対するカメラの視線の角度と、を含むカメラパラメータを求めるカメラパラメータ特定方法である。具体的には、カメラによる撮影画像上で基準平面に対する垂直消失点および水平消失点を特定することが可能な指標が当該カメラによる撮影範囲内に存在するときの当該撮影画像を当該カメラから取得する画像取得過程を、具備する。そして、この画像取得過程で取得された撮影画像に基づいて、当該撮影画像を含む2次元領域における垂直消失点および水平消失点それぞれの位置を特定する位置特定過程をも、具備する。さらに、この位置特定過程で特定された垂直消失点および水平消失点それぞれの位置に基づいて、カメラパラメータを求めるパラメータ演算過程をも、具備する。 Subsequently, the second invention of the present invention is a method invention corresponding to the first invention. That is, the present invention is applied to a camera that is installed obliquely with respect to a reference plane and whose shooting range is fixed, and includes a focal length of the camera and an angle of the line of sight of the camera with respect to the reference plane. This is a camera parameter specifying method for obtaining a parameter. Specifically, the photographed image is acquired from the camera when an index capable of specifying the vertical vanishing point and the horizontal vanishing point with respect to the reference plane is present in the photographing range by the camera on the photographed image by the camera. An image acquisition process is provided. A position specifying process for specifying the positions of the vertical vanishing point and the horizontal vanishing point in the two-dimensional region including the photographed image based on the photographed image obtained in the image obtaining process is also provided. Furthermore, a parameter calculation process for obtaining camera parameters based on the positions of the vertical vanishing point and the horizontal vanishing point specified in the position specifying process is also provided.
本発明のうちの第3発明は、第1の発明に対応するコンピュータ用プログラムに関する発明である。即ち、基準平面に対して斜めに向くように設置されかつ撮影範囲が固定されたカメラに適用されるものであり、当該カメラの焦点距離と、基準平面に対するカメラの視線の角度と、を含むカメラパラメータを求めるカメラパラメータ特定プログラムである。具体的には、カメラによる撮影画像上で基準平面に対する垂直消失点および水平消失点を特定することが可能な指標が当該カメラによる撮影範囲内に存在するときの当該撮影画像を当該カメラから取得する画像取得手順を、コンピュータに実行させる。さらに、この画像取得手順で取得された撮影画像に基づいて、当該撮影画像を含む2次元領域における垂直消失点および水平消失点それぞれの位置を特定する位置特定手順と、この位置特定手順で特定された垂直消失点および水平消失点それぞれの位置に基づいて、カメラパラメータを求めるパラメータ演算手順と、をもコンピュータに実行させる。 A third invention of the present invention is an invention relating to a computer program corresponding to the first invention. That is, the present invention is applied to a camera that is installed obliquely with respect to a reference plane and whose shooting range is fixed, and includes a focal length of the camera and an angle of the line of sight of the camera with respect to the reference plane. This is a camera parameter specifying program for obtaining parameters. Specifically, the photographed image is acquired from the camera when an index capable of specifying the vertical vanishing point and the horizontal vanishing point with respect to the reference plane is present in the photographing range by the camera on the photographed image by the camera. The computer executes the image acquisition procedure. Further, based on the captured image acquired by the image acquisition procedure, a position specifying procedure for specifying the positions of the vertical vanishing point and the horizontal vanishing point in the two-dimensional region including the captured image, and the position specifying procedure. The computer also executes a parameter calculation procedure for obtaining camera parameters based on the positions of the vertical vanishing point and the horizontal vanishing point.
上述したように、本発明によれば、カメラによる撮影範囲内に指標が存在するときの撮影画像に基づいて、当該撮影画像を含む2次元領域における垂直消失点および水平消失点それぞれの位置が特定され、これら垂直消失点および水平消失点それぞれの位置に基づいて、カメラパラメータが求められる。つまり、カメラの撮影画像から歩行者の着地部および頭部の座標データを複数収集すると共に、これら複数の座標データが代入された複数の関係式に統計的処理を施す必要のある上述した従来技術とは異なり、そのような処理(作業)を必要としない。また、当該従来技術とは異なり、カメラパラメータを求めるための式に推定値が代入されることもない。ゆえに、従来よりも簡単かつ正確にカメラパラメータを求めることができる。 As described above, according to the present invention, the positions of the vertical vanishing point and the horizontal vanishing point in the two-dimensional region including the photographed image are specified based on the photographed image when the index exists within the photographing range of the camera. Then, camera parameters are obtained based on the positions of the vertical vanishing point and the horizontal vanishing point. In other words, the above-mentioned conventional technique needs to collect a plurality of coordinate data of a pedestrian's landing part and head from a photographed image of a camera and perform statistical processing on a plurality of relational expressions into which the plurality of coordinate data are substituted. Unlike the above, such processing (work) is not required. Unlike the related art, the estimated value is not substituted into the equation for obtaining the camera parameter. Therefore, camera parameters can be obtained more easily and accurately than in the past.
本発明の一実施形態について、図1に示すカメラキャリブレーションシステム10を例に挙げて説明する。
An embodiment of the present invention will be described by taking the
同図に示すように、本実施形態に係るカメラキャリブレーションシステム10は、パーソナルコンピュータ(以下、PCと言う。)12を備えており、このPC12には、撮影範囲(視野)が固定された固定カメラ(以下、単にカメラと言う。)14が接続されている。PC12は、自身にインストールされたカメラキャリブレーションプログラムを実行することによって、カメラ14のキャリブレーションを行うカメラキャリブレーション装置として機能する。なお、カメラキャリブレーションプログラムは、公知のCD−ROM(Compact Disk Read Only
Memory)やDVD(Digital
Versatile Disk)等の適当な記録媒体16を介して、供給される。また、PC12には、これに各種命令を入力するための命令入力装置18が付属されている。この命令入力装置18としては、例えばマウス20およびキーボード22があるが、これ以外のものであってもよい。さらに、PC12には、表示手段としての例えば液晶型のディスプレイ24も付属されており、このディスプレイ24には、後述するようにカメラ14による撮影画像を含む各種情報が表示される。
As shown in the figure, a
Memory) and DVD (Digital
The
カメラ14は、図2に示すように、水平な地面30を基準平面とする実空間に設置される。具体的には、地面30から高さηの位置にレンズ主点Ocが置かれ、かつ、視線(光軸)32が地面30に対して斜めに向き、さらに、後述するように撮影画像の水平方向が実空間の水平方向と平行を成すように、設置される。そして、カメラキャリブレーションが行われる際には、地面30上であって、カメラ14による撮影範囲内に、2つの指標AおよびBが設置される。これらの指標AおよびBは、それぞれ地面30から上方に向かって垂直に延伸する物体であり、それぞれの長さ寸法DaおよびDbは、既知でありかつ互いに同じ(Da=Db)である。このような指標AおよびBとしては、例えば互いに同じ身長の人間が、適当である。そして、これらの指標AおよびBは、カメラ14のレンズ主点Ocから距離(厳密にはカメラ14の視線32を含む鉛直面(地面30に垂直な平面)に射影された場合のレンズ主点Ocからの距離)も方向も互いに異なる位置に設置され、つまり、後述する垂直消失点Pvおよび水平消失点Phが特定可能となるように設置される。
As shown in FIG. 2, the
ここで、本実施形態におけるカメラキャリブレーションとは、カメラ14の焦点距離f,俯角ρおよび設置高さηを、カメラパラメータとして求めることを言う。なお、カメラ14の焦点距離fは、レンズ主点Ocからカメラ14内の撮像素子34の撮像面Csまでの距離であり、俯角ρは、水平面(地面30)に対する視線32の角度である。設置高さηは、上述したように地面30からレンズ主点Ocまでの距離である。また、本実施形態におけるカメラキャリブレーションでは、カメラ14の水平画角θhおよび垂直画角θvも、カメラパラメータとして併せて求められる。このようなカメラキャリブレーションは、次の要領で実現される。
Here, camera calibration in the present embodiment refers to obtaining the focal length f, depression angle ρ, and installation height η of the
即ち、今、図2の状態において、例えば図3に示すような撮影画像が得られる、つまり上述したディスプレイ24に表示される、と仮定する。なお、この図3における格子模様36は、各指標AおよびBが地面30上の互いに異なる位置に配置されていること、撮影画像の水平方向が実空間の水平方向と平行を成すようにカメラ14が設置されていること、を表す架空のものである。この図3から分かるように、撮影画像上の各指標AおよびB(の像)は、いわゆる3点透視歪によって、いずれも(撮影画像の水平方向において中心から外れた位置に存在する限り)斜めに傾いて表示されると共に、(撮影画像の垂直方向において互いに異なる位置に存在する限り)互いの大きさが異なって表示される。
That is, it is assumed that a photographed image as shown in FIG. 3, for example, is obtained in the state shown in FIG. 2, that is, displayed on the display 24 described above. Note that the
このような撮影画像において、図4に示すように、2次元の画像座標系が、設定される。具体的には、撮影画像の中心Oiが、原点とされる。そして、この原点Oiを通りかつ撮影画像の水平方向に沿って延伸するように、Xi軸が設定され、当該原点OiにおいてXi軸と直交するように、Yi軸が設定される。なお、この画像座標系は、撮影画像上に限らず、当該撮影画像を外れた範囲にも、つまり当該撮影画像を含む広い2次元領域に、設定される。そして、この画像座標系において、一方の指標Aの頂点Puaと底点Pdaとを通る直線38と、他方の指標Bの頂点Pubと底点Pdbとを通る直線40と、の交点Pvが、特定される。この交点Pvは、いわゆる垂直消失点であり、画像座標系の垂直軸であるYi軸上に存在する。併せて、各指標AおよびBの頂点PuaおよびPubを通る直線42と、当該各指標AおよびBの底点PdaおよびPdbを通る直線44と、の交点Phが、特定される。この交点Phは、水平消失点であり、画像座標系の水平軸であるXi軸を挟んで、垂直消失点Pvとは反対側に存在する。そして、これらの消失点PvおよびPhそれぞれの画像座標値(Xi,Yi)に基づいて、詳しくは、それぞれの消失点PvおよびPhからXi軸までの距離βおよびγに基づいて、焦点距離fおよび俯角ρが求められ、さらには、設置高さη,水平画角θhおよび垂直画角θvが求められる。
In such a captured image, a two-dimensional image coordinate system is set as shown in FIG. Specifically, the center Oi of the captured image is set as the origin. Then, the Xi axis is set so as to extend through the origin Oi and along the horizontal direction of the photographed image, and the Yi axis is set so as to be orthogonal to the Xi axis at the origin Oi. This image coordinate system is set not only on the photographed image but also in a range outside the photographed image, that is, in a wide two-dimensional area including the photographed image. In this image coordinate system, the intersection Pv between the
このために、まず、図5に示すように、カメラ14のレンズ主点Ocと、このレンズ主点Ocに関して上述した撮像面Csと共役(点対称)を成す等価的な撮像面Cs’と、各指標AおよびBとの、相互の位置関係を考える。なお、上述したように、各指標AおよびBは、いずれも地面30から上方に向かって垂直に延伸しているので、これら指標Aの延伸方向(線分PuaPda)と指標Bの延伸方向(線分PubPdb)とは、互いに平行である。ここで、図6に示すように、一方の指標Aの頂点Puaおよび底点Pda,ならびにレンズ主点Ocを含む平面Saを、想定する。併せて、等価撮像面Cs’を拡張した平面Cを、想定し、この平面Cと平面Saとの交線である直線Laを、想定する。この直線Laは、レンズ主点Ocから見て等価撮像面Cs’に投影される指標A(の像)の頂点Puaおよび底点Pdaを通る直線を表し、つまり図4に示した直線38に対応する。
For this purpose, first, as shown in FIG. 5, a lens principal point Oc of the
これと同様に、図7に示すように、他方の指標Bの頂点Pubおよび底点Pdb,ならびにレンズ主点Ocを含む平面Sbを、想定する。そして、この平面Sbと上述した平面Cとの交線である直線Lbを、想定する。この直線Lbは、レンズ主点Ocから見て等価撮像面Cs’に投影される指標B(の像)の頂点Pubおよび底点Pdbを通る直線を表し、つまり図4に示した直線40に対応する。
Similarly, as illustrated in FIG. 7, a plane Sb including the vertex Pub and the bottom point Pdb of the other index B and the lens principal point Oc is assumed. A straight line Lb that is an intersection line between the plane Sb and the plane C described above is assumed. This straight line Lb represents a straight line passing through the vertex Pub and the bottom point Pdb of the index B (image) projected onto the equivalent imaging surface Cs ′ when viewed from the lens principal point Oc, that is, corresponds to the
さらに、図8に示すように、図6における平面Saと図7における平面Sbとの交線である直線Vを、想定する。ここで、平面Saが、指標Aの頂点Puaおよび底点Pda,ならびにレンズ主点Ocを含むと共に、平面Sbが、指標Bの頂点Pubおよび底点Pdb,ならびにレンズ主点Ocを含み、併せて、各指標AおよびBの延伸方向が、互いに並行であることから、当該直線Vは、レンズ主点Ocを通り、かつそれぞれの指標AおよびBの延伸方向(線分PuaPdaおよび線分PubPdb)と平行になる。 Further, as shown in FIG. 8, a straight line V that is an intersection line of the plane Sa in FIG. 6 and the plane Sb in FIG. 7 is assumed. Here, the plane Sa includes the vertex Pua and the bottom point Pda of the index A and the lens principal point Oc, and the plane Sb includes the vertex Pub and the bottom point Pdb of the index B and the lens principal point Oc. Since the extending directions of the indices A and B are parallel to each other, the straight line V passes through the lens principal point Oc and extends in the extending directions of the indices A and B (line segment PuPda and line segment PubPdb). Become parallel.
そして、図9に示すように、直線Vと平面Cとの交点Qvを、想定する。ここで、直線Vと図6に示した直線Laとは、いずれも平面Sa上に存在し、かつ互いに平行でないことから、必ずどこかで交わる。併せて、直線Laは、平面C上に存在するので、当該直線Laと直線Vとは、平面C上で交わる。さらに、平面Cは、点Qvでのみ直線Vと交わる。これらを総合すると、図10に示すように、直線Laと直線Vとは、点Qvで互いに交わることになる。これと同様に、直線Lbと直線Vとについても、点Qvで互いに交わることになる。 Then, as shown in FIG. 9, an intersection point Qv between the straight line V and the plane C is assumed. Here, since both the straight line V and the straight line La shown in FIG. 6 exist on the plane Sa and are not parallel to each other, they always cross somewhere. In addition, since the straight line La exists on the plane C, the straight line La and the straight line V intersect on the plane C. Furthermore, the plane C intersects with the straight line V only at the point Qv. When these are put together, as shown in FIG. 10, the straight line La and the straight line V cross each other at a point Qv. Similarly, the straight line Lb and the straight line V cross each other at the point Qv.
つまり、直線Laと直線Lbとは、直線V上の点Qvで互いに交わる。そして、上述したように、直線Laは、図4に示した直線38に対応し、直線Lbは、図4に示した直線40に対応することから、点Qvは、図4に示した垂直消失点Pvに対応する。
That is, the straight line La and the straight line Lb intersect at a point Qv on the straight line V. As described above, since the straight line La corresponds to the
続いて、図11に示すように、各指標AおよびBの頂点PuaおよびPub同士を結んだ線分Lu(PuaPub)と、底点PdaおよびPdb同士を結んだ線分Ld(PdaPdb)とを、想定する。なお、上述したように、各指標AおよびBの延伸方向は、互いに平行であり、当該各指標AおよびBの長さ寸法DaおよびDbは、互いに同じであることから、これらの線分LuおよびLdは、互いに同じ長さ寸法であり、かつ互いに平行である。 Subsequently, as shown in FIG. 11, a line segment Lu (PuaPub) connecting the vertices Pua and Pub of each index A and B and a line segment Ld (PdaPdb) connecting the base points Pda and Pdb are obtained. Suppose. As described above, the extending directions of the indicators A and B are parallel to each other, and the lengths Da and Db of the indicators A and B are the same as each other. Ld has the same length dimension as each other and is parallel to each other.
ここで、図12に示すように、一方の線分Luの両端PuaおよびPub,ならびにレンズ主点Ocを含む平面Taを、想定する。さらに、この平面Taと平面Cとの交線である直線Maを、想定する。この直線Maは、レンズ主点Ocから見て等価撮像面Cs’に投影される線分Lu(の像)の両端PuaおよびPubを通る直線を表し、つまり図4に示した直線42に対応する。
Here, as shown in FIG. 12, a plane Ta including both ends Pua and Pub of one line segment Lu and the lens principal point Oc is assumed. Furthermore, a straight line Ma that is an intersection line between the plane Ta and the plane C is assumed. This straight line Ma represents a straight line passing through both ends Pua and Pub of the line segment Lu (image thereof) projected onto the equivalent imaging surface Cs ′ when viewed from the lens principal point Oc, that is, corresponds to the
これと同様に、図13に示すように、他方の線分Ldの両端PdaおよびPdb,ならびにレンズ主点Ocを含む平面Tbを、想定する。さらに、この平面Tbと平面Cとの交線である直線Mbを、想定する。この直線Mbは、レンズ主点Ocから見て等価撮像面Cs’に投影される線分Ld(の像)の両端PdaおよびPdbを通る直線を表し、つまり図4に示した直線44に対応する。
Similarly, as shown in FIG. 13, a plane Tb including both ends Pda and Pdb of the other line segment Ld and the lens principal point Oc is assumed. Further, a straight line Mb that is an intersection line between the plane Tb and the plane C is assumed. This straight line Mb represents a straight line passing through both ends Pda and Pdb of the line segment Ld (image thereof) projected onto the equivalent imaging surface Cs ′ as viewed from the lens principal point Oc, that is, corresponds to the
そして、図12における平面Taと図13における平面Tbとの交線を、想定する。この平面Taは、線分Luの両端PuaおよびPub,ならびにレンズ主点Ocを含むと共に、平面Tbは、線分Ldの両端PdaおよびPdb,ならびにレンズ主点Ocを含み、併せて、各線分LuおよびLdが、互いに並行であることから、当該交線は、図14に符号Hで示すように、レンズ主点Ocを通り、かつそれぞれの線分LuおよびLdと平行を成す直線になる。 Then, an intersection line between the plane Ta in FIG. 12 and the plane Tb in FIG. 13 is assumed. The plane Ta includes both ends Pua and Pub of the line segment Lu and the lens principal point Oc, and the plane Tb includes both ends Pda and Pdb of the line segment Ld and the lens principal point Oc, and each line segment Lu. Since Ld and Ld are parallel to each other, the intersection line is a straight line passing through the lens principal point Oc and parallel to the respective line segments Lu and Ld, as indicated by reference numeral H in FIG.
さらに、図14に示すように、直線Hと平面Cとの交点Qhを、想定する。ここで、直線Hと図12に示した直線Maとは、いずれも平面Ta上に存在し、かつ互いに平行でないことから、必ずどこかで交わる。併せて、直線Maは、平面C上に存在するので、当該直線Maと直線Hとは、平面C上で交わる。そして、平面Cは、点Qhでのみ直線Hと交わる。これらを総合すると、図14に示すように、直線Maと直線Hとは、点Qhで互いに交わることになる。これと同様に、直線Mbと直線Hとについても、点Qhで互いに交わることになる。 Furthermore, as shown in FIG. 14, an intersection point Qh between the straight line H and the plane C is assumed. Here, since both the straight line H and the straight line Ma shown in FIG. 12 exist on the plane Ta and are not parallel to each other, they always cross somewhere. In addition, since the straight line Ma exists on the plane C, the straight line Ma and the straight line H intersect on the plane C. The plane C intersects with the straight line H only at the point Qh. When these are combined, as shown in FIG. 14, the straight line Ma and the straight line H cross each other at a point Qh. Similarly, the straight line Mb and the straight line H also intersect each other at the point Qh.
つまり、直線Maと直線Mbとは、直線H上の点Qhで互いに交わる。そして、上述したように、直線Maは、図4に示した直線42に対応し、直線Mbは、図4に示した直線44に対応することから、直線Qhは、図4に示した水平消失点Phに対応する。
That is, the straight line Ma and the straight line Mb intersect with each other at the point Qh on the straight line H. Since the straight line Ma corresponds to the
これらのことを念頭において、図15に示すように、Xw軸,Yw軸およびZw軸という3つの直交軸から成る3次元の世界座標系が定義される。 With these things in mind, as shown in FIG. 15, a three-dimensional world coordinate system composed of three orthogonal axes such as an Xw axis, a Yw axis, and a Zw axis is defined.
即ち、同図に示すように、実空間における地面30上に、Xw軸およびYw軸が設定される。要するに、Xw軸およびYw軸から成る2次元平面(Xw−Yw平面)が、地面30に当たる。そして、これらXw軸およびYw軸の交点である原点Owにおいて、当該Xw軸およびYw軸のそれぞれと直交するように、Zw軸が設定される。つまり、Zw軸は、実空間における高さを規定する垂直軸となる。なお、同図には示さないが、各指標AおよびBは、地面30であるXw−Yw平面上に、Zw軸と平行を成して延伸するように配置される。
That is, as shown in the figure, the Xw axis and the Yw axis are set on the
この世界座標系において、カメラ14は、そのレンズ主点OcがZ軸上に位置し、かつ視線32が地面30であるXw−Yw軸に対して斜めに向くように、詳しくは当該視線32の延長線がYw軸と斜めに交わるように、さらに等価撮像面Cs’の上端縁および下端縁がXw軸と平行を成すように、設置される。この条件によれば、上述した直線Vは、Zw軸と一致する。従って、レンズ主点Ocの世界座標値(Xw,Yw,Zw)は、(0,0,η)となる。さらに、Yw軸とZw軸とから成る2次元平面(Yw−Zw平面)と等価撮像面Cs’を含む平面Cとの交線である直線46を、想定すると、この直線46は、等価撮像面Cs’の中心Osを通り、かつ、Yw軸と非直角に交わり、Zw軸とも非直角に交わることになる。
In this world coordinate system, the
一方、等価撮像面Cs’は撮像面Csと共役であるので、図4に示した画像座標系を当該等価撮像面Cs’上に転換することができる。即ち、図16に示すように、等価撮像面Cs’の中心Osが、画像座標系の原点Oiとされる。そして、この原点Oiを通りかつ等価撮像面Cs’の上端縁および下端縁と平行を成すように、画像座標系のXi軸が設定され、当該原点OiにおいてXi軸と直交するように、画像座標系のYi軸が設定される。なお、この図16においても、画像座標系は、等価撮像面Cs’上に限らず、当該等価撮像面Cs’を含む平面C上の広い範囲に、設定される。 On the other hand, since the equivalent imaging plane Cs ′ is conjugate with the imaging plane Cs, the image coordinate system shown in FIG. 4 can be converted onto the equivalent imaging plane Cs ′. That is, as shown in FIG. 16, the center Os of the equivalent imaging surface Cs ′ is set as the origin Oi of the image coordinate system. Then, the Xi axis of the image coordinate system is set so as to pass through the origin Oi and be parallel to the upper edge and the lower edge of the equivalent imaging surface Cs ′, and the image coordinates are orthogonal to the Xi axis at the origin Oi. The system Yi axis is set. In FIG. 16 as well, the image coordinate system is set not only on the equivalent imaging surface Cs ′ but also in a wide range on the plane C including the equivalent imaging surface Cs ′.
このように等価撮像面Cs’を含む平面C上に設定された画像座標系が、図15に示した世界座標系に重ねられることによって、これら画像座標系と世界座標系との間で、上述した垂直消失点Pvが関連付けられる。即ち、図17に示すように、画像座標系のYi軸が、世界座標系における平面CとYw−Zw平面との交線である直線46と一致する。ここで、図10を参照して説明したように、平面Cは、垂直消失点Pvでのみ直線Vと交わり、併せて、直線Vは、上述の如く世界座標系のZw軸と一致することから、当該垂直消失点Pvは、画像座標軸のYi軸である直線46と世界座標系のZw軸との交点に当たる。従って、この垂直消失点Pvの世界座標値(Xw,Yw,Zw)は、例えばPvzという未知数を用いて、(0,0,Pvz)と表される。その一方で、画像座標系においては、垂直消失点Pvの座標値(Xi,Yi)は、図4に示した距離βを用いて、図18に示すように、(0,−β)となる。そうすると、世界座標系において、垂直消失点Pvから等価撮像面Cs’の中心Osまでの距離Pv−Osは、当該垂直消失点Pvの画像座標値(0,−β)により判明し、つまりβとなる。
As described above, the image coordinate system set on the plane C including the equivalent imaging surface Cs ′ is superimposed on the world coordinate system shown in FIG. The vertical vanishing point Pv is associated. That is, as shown in FIG. 17, the Yi axis of the image coordinate system coincides with a
これと同様に、水平消失点Phについて、考える。即ち、図19に示すように、レンズ主点Ocを通り、かつXw−Yw平面(地面30)と平行な平面Rを、想定する。すると、図14に示した直線Hは、この平面R上に存在することになる。そして、直線H上に水平消失点Phが存在することから、当該水平消失点Phもまた、平面R上に存在することになる。従って、水平消失点Phの世界座標値(Xw,Yw,Zw)は、例えばPhxおよびPhyという2つの未知数を用いて、(Phx,Phy,η)と表される。さらに、平面Rと平面Cとの交線である直線48を、想定する。ここで、平面C上には、画像座標系のYi軸が存在し、このYi軸は、Xw−Yw平面と平行でないことから、当該直線48は、Yi軸と交わる。併せて、水平消失点Phは、平面R上に存在すると同時に、平面C上にも存在することから、当該水平消失点Phは、直線48上に存在する。そうすると、直線48とYi軸との交点Ph’は、水平消失点Phが平面Rに沿ってXw=0の位置まで移動したものである、と考えることができる。そして、この交点Ph’の世界座標値(Xw,Yw,Zw)は、(0,Phy,η)と表される。その一方で、画像座標系においては、水平消失点Phの座標値(Xi,Yi)は、図4に示した距離γを用いて、例えば図20に示すように、(Phi,γ)となる。そして、交点Ph’の画像座標値(Xi,Yi)は、(0,γ)となる。ゆえに、世界座標系において、交点Ph’から等価撮像面Cs’の中心Osまでの距離Ph’−Osは、当該交点Ph’の画像座標値(0,γ)により判明し、つまりγとなる。
Similarly, the horizontal vanishing point Ph will be considered. That is, as shown in FIG. 19, a plane R passing through the lens principal point Oc and parallel to the Xw-Yw plane (ground 30) is assumed. Then, the straight line H shown in FIG. 14 exists on this plane R. Since the horizontal vanishing point Ph exists on the straight line H, the horizontal vanishing point Ph also exists on the plane R. Accordingly, the world coordinate value (Xw, Yw, Zw) of the horizontal vanishing point Ph is expressed as (Phx, Phy, η) using two unknowns, for example, Phx and Phy. Further, a
これら図17および図19に示される各要部の位置関係を整理すると、図21および図22に示すようになる。なお、図21の(a)は、当該各要部をZw軸の先端側から見た図であり、(b)は、当該各要部をXw軸の先端側から見た図である。そして、図22の(a)は、当該各要部を上述の交点Ph’側(Yi軸の先端側)から見た図であり、(b)は、図21(b)と同様である。また、これら図21および図22において、レンズ主点Ocから等価撮像面Cs’までの距離f’は、焦点距離fと等価である。そして、等価撮像面Cs’の有効水平寸法Dhは、実際の撮像面Csのそれと等価であり、単位は[画素(ピクセル)]である。等価撮像面Cs’の有効垂直寸法Dvもまた、実際の撮像面Csのそれと等価であり、単位は[画素]である。さらに、有効水平寸法Dhおよび有効垂直寸法Dvの少なくとも一方、例えば有効水平寸法Dhは、既知である。そして、両者DhおよびDvの比率であるアスペクト比Dh:Dvもまた、既知であり、例えば4:3である。 Arranging the positional relationships of the main parts shown in FIG. 17 and FIG. 19 results in FIG. 21 and FIG. FIG. 21A is a view of the relevant parts viewed from the front end side of the Zw axis, and FIG. 21B is a view of the relevant parts viewed from the front end side of the Xw axis. FIG. 22A is a view of the relevant parts as viewed from the above-described intersection Ph ′ side (the tip side of the Yi axis), and FIG. 22B is the same as FIG. 21B. In FIGS. 21 and 22, the distance f ′ from the lens principal point Oc to the equivalent imaging surface Cs ′ is equivalent to the focal length f. The effective horizontal dimension Dh of the equivalent imaging surface Cs ′ is equivalent to that of the actual imaging surface Cs, and the unit is [pixel (pixel)]. The effective vertical dimension Dv of the equivalent imaging surface Cs ′ is also equivalent to that of the actual imaging surface Cs, and its unit is [pixel]. Furthermore, at least one of the effective horizontal dimension Dh and the effective vertical dimension Dv, for example, the effective horizontal dimension Dh is known. The aspect ratio Dh: Dv, which is the ratio of both Dh and Dv, is also known, for example, 4: 3.
これら図21および図22に示される位置関係によれば、距離βおよびγは、それぞれ次の数1および数2によって表されることが分かる。
According to the positional relationship shown in FIGS. 21 and 22, it can be seen that the distances β and γ are expressed by the following
そして、これら数1および数2のそれぞれを、tanρについての式に変形すると、次の数3が導き出される。
Then, when each of these
さらに、この数3を、焦点距離fについての式に変形すると、当該焦点距離fを求めるための次の数4が導き出される。なお、この数4によって表される焦点距離fの単位は、[画素]である。 Further, when the formula 3 is transformed into an expression for the focal length f, the following formula 4 for obtaining the focal length f is derived. Note that the unit of the focal length f represented by this equation 4 is [pixel].
そして、上述の数1によって数2を除すると、次の数5が導き出され、この数5を、俯角ρについての式に変形すると、当該俯角ρを求めるための数6が導き出される。
Then, by dividing the number 2 by the
また、特に図22(a)に示される位置関係から、水平画角θhは、次の数7によって表されることが分かる。 In particular, from the positional relationship shown in FIG. 22A, it can be seen that the horizontal angle of view θh is expressed by the following equation (7).
そして、撮像面Cs(等価撮像面Cs’)のアスペクト比Dh:Dvを用いた次の数8によって、垂直画角θvが表される。
Then, the vertical angle of view θv is expressed by the following
つまり、本実施形態によれば、数4に基づいて、カメラ14の焦点距離fが求められ、数6に基づいて、俯角ρが求められる。このために、図4に示した撮影画像上において、各指標AおよびBの頂点PuaおよびPubと底点PdaおよびPdbとが、例えば図1に示したマウス20の操作によって、特定される。そして、この特定された各点Pua,Pub,PdaおよびPdbそれぞれの画像座標値(Xi,Yi)、例えば点Puaについては(xiua,yiua)、点Pdaについては(xida,yida)、点Pubについては(xiub,yiub)、および点Pdbについては(xidb,yidb)、に基づいて、各消失点PvおよびPhが特定され、要するに当該各消失点PvおよびPhの画像座標値(0,−β)および(Phi,γ)(または(0,γ))が求められる。さらに、これら各消失点PvおよびPhの画像座標値(0,−β)および(Phi,γ)に基づいて、各距離βおよびγが求められ、これら各距離βおよびγが上述の数4および数6に代入されることによって、焦点距離fおよび俯角ρが求められる。そして、数7に基づいて、カメラ14の水平画角θhが求められ、数8に基づいて、垂直画角θvが求められる。さらに、カメラ14の設置高さηについては、次のようにして求められる。
That is, according to the present embodiment, the focal length f of the
図23を参照して、世界座標系において、カメラ14のレンズ主点Ocから各指標AおよびBの一方、例えば指標A、の頂点Puaに向かうベクトルVua(xvua,yvua,zvua)が、求められる。具体的には、レンズ主点Ocから世界座標系における任意の点に向かうベクトルVe(xe,ye,ze)は、当該任意の点に対応する画像座標値(Xi,Yi)を用いた次の数9によって求められる。
Referring to FIG. 23, in the world coordinate system, a vector Vua (xvua, yvua, zvua) from the lens principal point Oc of the
従って、この数9における画像座標値(Xi,Yi)に、指標Aの頂点Puaの画像座標値(xiua,yiua)が代入されることによって求められるベクトルVe(xe,ye,ze)が、レンズ主点Ocから当該指標Aの頂点Puaに向かうベクトルVua(xvua,yvua,zvua)になる。
Accordingly, the vector Ve (xe, ye, ze) obtained by substituting the image coordinate value (xiua, iuua) of the vertex Pua of the index A into the image coordinate value (Xi, Yi) in the
これと同様に、レンズ主点Ocから指標Aの底点Pdaに向かうベクトルVda(xvda,yvda,zvda)が、求められる。即ち、数9における画像座標値(Xi,Yi)に、指標Aの底点Pdaの画像座標値(xida,yida)が代入されることによって求められるベクトルVe(xe,ye,ze)が、レンズ主点Ocから当該指標Aの底点Pdaに向かうベクトルVda(xvda,yvda,zvda)になる。
Similarly, a vector Vda (xvda, yvda, zvda) from the lens principal point Oc toward the bottom point Pda of the index A is obtained. That is, the vector Ve (xe, ye, ze) obtained by substituting the image coordinate value (xida, yida) of the bottom point Pda of the index A into the image coordinate value (Xi, Yi) in
ここで、世界座標系の原点Owから指標AまでのYw軸方向における距離(要素値Yw)がδである、と仮定する。併せて、原点Owから指標AまでのXw軸方向における距離(要素値Xw)は無視する(Xw=0とする)。すると、距離δと設置高さηと指標Aの長さ寸法Daとレンズ主点Ocから当該指標Aの頂点Puaに向かうベクトルVua(xvua,yvua,zvua)とに基づいて、次の数10が導き出される。 Here, it is assumed that the distance (element value Yw) in the Yw-axis direction from the origin Ow of the world coordinate system to the index A is δ. At the same time, the distance (element value Xw) in the Xw-axis direction from the origin Ow to the index A is ignored (Xw = 0). Then, based on the distance δ, the installation height η, the length dimension Da of the index A, and the vector Vua (xvua, yvua, zvaa) from the lens principal point Oc toward the vertex Pua of the index A, Derived.
そして、この数10において、距離δに注目すると、次の数11が導き出される。
Then, in this
これと同様に、距離δと設置高さηとレンズ主点Ocから指標Aの底点Pdaに向かうベクトルVda(xvda,yvda,zvda)とに基づいて、次の数12が導き出される。
Similarly, the following
そして、この数12において、距離δに注目すると、次の数13が導き出される。 In the equation (12), when attention is paid to the distance δ, the following equation (13) is derived.
さらに、数11と数13とは互いに等価であることから、次の数14で表される関係が成り立つ。
Further, since the equations 11 and 13 are equivalent to each other, the relationship represented by the following
そして、この数14を、設置高さηについての式に変形すると、当該設置高さηを求めるための次の数15が導き出される。
Then, by transforming this
つまり、この数15によれば、レンズ主点Ocから一方の指標Aの頂点Puaに向かうベクトルVua(xvua,yvua,zvua)と、当該指標Aの底点Pdaに向かうベクトルVda(xvda,yvda,zvda)と、当該指標Aの長さ寸法Daと、に基づいて、設置高さηが求められる。そして、頂点Puaに向かうベクトルVua(xvua,yvua,zvua)については、当該頂点Puaの画像座標値(xiua,yiua)から求められ、底点Pdaに向かうベクトルVda(xvda,yvda,zvda)については、当該底点Pdaの画像座標値(xida,yida)から求められることは、上述した通りである。 That is, according to this equation 15, the vector Vua (xvua, yvaa, zvaa) from the lens principal point Oc toward the vertex Pua of one index A and the vector Vda (xvda, yvda, The installation height η is determined based on zvda) and the length dimension Da of the index A. The vector Vua (xvaa, yvua, zvua) toward the vertex Pua is obtained from the image coordinate values (xiua, yuua) of the vertex Pua, and the vector Vda (xvda, yvda, zvda) toward the base point Pda is obtained. As described above, it is obtained from the image coordinate values (xida, yida) of the bottom point Pda.
なお、一方の指標Aに代えて、他方の指標Bに注目して、設置高さηを求めてもよい。つまり、他方の指標Bの頂点Pubおよび底点Pdbの画像座標値(xiub,yiub)および(xidb,yidb)に基づいて、それぞれのベクトルVub(xvub,yvub,zvub)およびVdb(xvdb,yvdb,zvdb)を求め、これらのベクトルVub(xvub,yvub,zvub)およびVdb(xvdb,yvdb,zvdb)と、当該指標Bの長さ寸法Dbと、に基づいて、設置高さηを求めてもよい。 Note that the installation height η may be obtained by paying attention to the other index B instead of one index A. That is, based on the image coordinate values (xib, yib) and (xidb, yidb) of the vertex Pub and the bottom point Pdb of the other index B, the respective vectors Vub (xvub, yvub, zvub) and Vdb (xvdb, yvdb, zvdb) may be obtained, and the installation height η may be obtained based on these vectors Vub (xvub, yvub, zvub) and Vdb (xvdb, yvdb, zvdb) and the length dimension Db of the index B. .
この一連のカメラキャリブレーションを実現するべく、図1に示したPC12(厳密にはPC12内の図示しないCPU)は、カメラキャリブレーションプログラムに従って、次のように動作する。 In order to realize this series of camera calibration, the PC 12 (strictly, a CPU (not shown) in the PC 12) shown in FIG. 1 operates as follows according to the camera calibration program.
即ち、図24を参照して、PC12は、まず、ステップS1において、図3に示したようなキャリブレーション用の撮影画像、具体的には1フレーム分の静止画像、を取得する。なお、この画像の取得は、命令入力装置18から与えられる命令に従い、つまりマウス20およびキーボード22を用いた手動操作に従う。
That is, with reference to FIG. 24, first, in step S1, the
そして、PC12は、ステップS3に進み、一方の指標Aの頂点Puaおよび底点Pdaを特定し、つまりそれぞれの画像座標値(xiua,yiua)および(xida,yida)を求める。なお、この特定もまた、命令入力装置18から与えられる命令に従い、例えばマウス20のクリック操作に従う。
Then, the
さらに、PC12は、ステップS5に進み、当該一方の指標Aの長さ寸法Daを取得する。なお、この長さ寸法Daは、命令入力装置18から与えられ、例えばキーボード22から与えられる。
Further, the
そして、PC12は、ステップS7に進み、上述のステップS3と同じ要領で、他方の指標Bの頂点Pubおよび底点Pdbを特定し、つまりそれぞれの画像座標値(xiub,yiub)および(xidb,yidb)を求める。そして、ステップS9に進み、上述のステップS5と同じ要領で、当該他方の指標Bの長さ寸法Dbを取得する。
Then, the
ステップS9の実行後、PC12は、ステップS11に進み、各消失点PvおよびPhを特定し、つまりそれぞれの画像座標値(0,−β)および(Phi,γ)を求める。そして、ステップS13に進み、これらの画像座標値(0,−β)および(Phi,γ)に基づいて、各距離βおよびγを求める。
After executing step S9, the
さらに、PC12は、ステップS15に進み、上述した数4に基づいて、カメラ14の焦点距離fを求めた後、ステップS17に進み、上述した数6に基づいて、俯角ρを求める。そして、ステップS19に進み、上述した数7に基づいて、水平画角θhを求めた後、ステップS21に進み、上述した数8に基づいて、垂直画角θvを求める。
Further, the
ステップS21の実行後、PC12は、ステップS23に進む。そして、このステップS23において、上述した数9および数15を含む手順で、カメラ14の設置高さηを求める。このステップS23の実行をもって、PC12は、一連のカメラキャリブレーションを終了する。
After executing step S21, the
この一連のカメラキャリブレーションによって求められたカメラパラメータを用いると、画像座標系の座標値(Xi,Yi)と世界座標系の座標値(Xw,Yw,Zw)との相互変換が可能となる。 By using the camera parameters obtained by this series of camera calibrations, mutual conversion between the coordinate values (Xi, Yi) of the image coordinate system and the coordinate values (Xw, Yw, Zw) of the world coordinate system becomes possible.
具体的には、任意の画像座標値(Xi,Yi)に対応する世界座標値(Xw,Yw,Zw)は、上述の数9で表されるベクトルVe(xe,ye,ze)を用いた次の数16によって求められる。
Specifically, for the world coordinate values (Xw, Yw, Zw) corresponding to the arbitrary image coordinate values (Xi, Yi), the vector Ve (xe, ye, ze) represented by the
この数16において、εは、係数であり、この係数εは、世界座標値(Xw,Yw,Zw)を構成する3つの要素値Xw,YwおよびZwのいずれか1つが決まれば、一意に決まる。本実施形態では、Xw−Yw平面が地面30に設定されており、つまりZw=0であるので、地面30上の任意点の世界座標値(Xw,Yw,0)に関する係数εは、次の数17によって一意に決まる。
In
従って、この数17を数16に代入することによって、Zw=0という条件下での画像座標値(Xi,Yi)と世界座標値(Xw,Yw,0)との相互変換が可能となる。
Therefore, by substituting
また、Zw=0という条件下での画像座標値(Xi,Yi)と世界座標値(Xw,Yw,0)との対応関係に基づいて、この世界座標値(Xw,Yw,0)を通りかつ地面30に対して垂直な方向に延伸する任意の点の世界座標値(Xw,Yw,Zw’)と、これに対応する画像座標値(Xi’,Yi’)と、の相互変換も可能である。
Further, based on the correspondence relationship between the image coordinate value (Xi, Yi) and the world coordinate value (Xw, Yw, 0) under the condition of Zw = 0, the world coordinate value (Xw, Yw, 0) is passed. In addition, mutual conversion between world coordinate values (Xw, Yw, Zw ′) of arbitrary points extending in a direction perpendicular to the
このようなカメラキャリブレーションは、監視用途に好適であり、例えば撮影画像に映し出された移動物体等の実空間における絶対位置や大きさ,移動距離等を当該撮影画像から認識するのに好適である。また、この認識結果に基づいて、例えば当該移動物体を旋回型カメラで追尾する等の制御も可能となる。 Such camera calibration is suitable for monitoring applications, for example, for recognizing an absolute position, size, moving distance, etc. in a real space such as a moving object projected on a captured image from the captured image. . Further, based on the recognition result, for example, it is possible to perform control such as tracking the moving object with a turning camera.
以上のように、本実施形態によれば、図15に示したように世界座標系が設定されると共に、図16(図4)に示したように画像座標系が設定される。そして、カメラ14による撮影範囲内に2つの指標AおよびBが設置され、撮影画像上に映し出されたこれら2つの指標AおよびBが3点透視歪を生じることによって特定される2つの消失点PvおよびPhの画像座標値(0,−β)および(Phi,γ)を利用して、カメラ14の焦点距離f,俯角ρおよび設置高さηを含むカメラパラメータが求められ、つまりカメラキャリブレーションが実現される。従って、カメラの撮影画像から歩行者の着地部および頭部の座標データを複数収集すると共に、これら複数の座標データが代入された複数の関係式に統計的処理を施す必要のある上述した従来技術とは異なり、そのような処理(作業)を必要としない。また、当該従来技術とは異なり、カメラパラメータを求めるための式に推定値が代入されることもない。ゆえに、従来よりも簡単かつ正確にカメラパラメータを求めることができる。このことは、キャリブレーションの対象となるカメラ14の台数が多いほど、顕著になる。
As described above, according to the present embodiment, the world coordinate system is set as shown in FIG. 15, and the image coordinate system is set as shown in FIG. 16 (FIG. 4). Then, two indicators A and B are set within the shooting range by the
なお、本実施形態においては、各指標AおよびBの長さ寸法DaおよびDbが互いに同じであるとしたが、これに限らない。例えば、一方の指標Aの長さ寸法Daが、他方の指標Bの長さ寸法Dbよりも小さい(Da<Db)、とする。そして、撮影画像上で、各指標AおよびBが、図25に示すように、それぞれの長さ寸法DaおよびDbに応じた大きさDa’およびDb’で表示される、とする。この場合、各指標AおよびBの長さ寸法DaおよびDbが互いに同じであると仮定したときに撮影画像上に映し出されるであろう仮の指標、例えば大きい方の指標Bの長さ寸法Dbを小さい方の指標Aの長さ寸法Daに合わせた仮指標B’を、想定する。この仮指標B’の長さ寸法Db”は、次の数18によって求められる。 In the present embodiment, the lengths Da and Db of the indices A and B are the same as each other, but the present invention is not limited to this. For example, it is assumed that the length dimension Da of one index A is smaller than the length dimension Db of the other index B (Da <Db). Then, it is assumed that the indices A and B are displayed on the captured image with the sizes Da ′ and Db ′ corresponding to the respective length dimensions Da and Db, as shown in FIG. In this case, when it is assumed that the length dimensions Da and Db of the indices A and B are the same, a temporary index that will be displayed on the captured image, for example, the length dimension Db of the larger index B is set. A provisional index B ′ that matches the length dimension Da of the smaller index A is assumed. The length dimension Db ″ of the temporary index B ′ is obtained by the following equation (18).
そして、この数18によって言わば補正された長さ寸法Db”を持つ仮指標B’と、長さ寸法Daが不変である指標Aと、に基づいて、各消失点PvおよびPhが特定されるようにすればよい。このようにすれば、各指標AおよびBの長さ寸法DaおよびDbが互いに異なる(Da≠Db)条件下でも、正確なカメラキャリブレーションが実現される。なお、上述とは反対に、小さい方の指標Aの長さ寸法Daを大きい方の指標Bの長さ寸法Dbに合わせてもよいが、精度的には、大きい方の指標Bの長さ寸法Dbを小さい方の指標Aの長さ寸法Daに合わせるのが、望ましい。 Then, the vanishing points Pv and Ph are identified based on the provisional index B ′ having the corrected length dimension Db ″ and the index A in which the length dimension Da is unchanged. In this way, accurate camera calibration is realized even under conditions where the lengths Da and Db of the indices A and B are different from each other (Da ≠ Db). Conversely, the length dimension Da of the smaller index A may be matched with the length dimension Db of the larger index B. However, in terms of accuracy, the length dimension Db of the larger index B is smaller. It is desirable to match the length A of the index A.
また、本実施形態では、カメラ14の撮像面Cs(等価撮像面Cs’)の上端縁および下端縁が世界座標系のXw軸と平行を成すように、つまり撮影画像の水平方向が実空間の水平方向と平行を成すように、カメラ14が設置されることとしたが、これに限らない。即ち、撮影画像の水平方向が実空間の水平方向と平行でないとき、要するにカメラ14が視線32を中心として回転(言わばロール)しているときには、図26に示すように、垂直消失点Pvが画像座標系のYi軸から離れた位置に存在するようになる。そうなると、当然に、水平消失点Phもまた、不適当な位置に存在するようになり、この状態のままでは、正確なカメラキャリブレーションを実現することができない。ただし、カメラ14がロールしているときは、上述した等価撮像面Cs’が、本来ならば図27に点線50で示すような状態にあるべきところ、その中心Osを軸として、同図に1点鎖線52で示すように回転している状態にある。つまり、等価撮像面Cs’の中心Osとそれぞれの指標AおよびBとの位置関係は、カメラ14がロールしているか否かに関係なく、不変である。そこで、カメラ14がロールしているときには、次のように対処すればよい。
In the present embodiment, the upper and lower edges of the imaging surface Cs (equivalent imaging surface Cs ′) of the
まず、図28に示すように、画像座標系の原点Oiと垂直消失点Pvとを通る直線54を、想定する。そして、この直線54と画像座標系のYi軸との成す角度αを、求める。この角度αは、実空間の水平方向に対する撮影画像の水平方向の偏角に相当する。そして、この偏角αを用いた次の数19で表される回転行列式によって、垂直消失点Pvを当該偏角α分だけ回転移動させる。つまり、偏角αがα=0であると仮定したときの垂直消失点Pv”の画像座標値(Xi”,Yi”)を仮想する。 First, as shown in FIG. 28, a straight line 54 passing through the origin Oi of the image coordinate system and the vertical vanishing point Pv is assumed. Then, an angle α formed by the straight line 54 and the Yi axis of the image coordinate system is obtained. This angle α corresponds to the deviation angle in the horizontal direction of the captured image with respect to the horizontal direction of the real space. Then, the vertical vanishing point Pv is rotated by the declination α by the rotation determinant expressed by the following equation 19 using the declination α. That is, the image coordinate value (Xi ″, Yi ″) of the vertical vanishing point Pv ″ when the argument α is assumed to be α = 0 is assumed.
これと同様に、水平消失点Phについても、この数19によって、偏角α分だけ回転移動させる。つまり、偏角αがα=0であると仮定したときの水平消失点Ph”の画像座標値(Xi”,Yi”)を仮想する。そして、図29に示すように、これら仮想された各消失点Pv”およびPh”の画像座標値(Xi”,Yi”)に基づいて、各距離βおよびγを求め、ひいてはカメラキャリブレーションを実現すればよい。このようにすれば、カメラ14がロールしている状況下でも、正確なカメラキャリブレーションが実現される。
Similarly, the horizontal vanishing point Ph is also rotationally moved by the deviation angle α according to this equation 19. In other words, the image coordinate value (Xi ″, Yi ″) of the horizontal vanishing point Ph ″ when the argument α is assumed to be α = 0 is virtualized. As shown in FIG. Based on the image coordinate values (Xi ″, Yi ″) of the vanishing points Pv ″ and Ph ″, the distances β and γ can be obtained, and thus camera calibration can be realized. In this way, the
さらに、各指標AおよびBについては、それぞれ別々の物体(人間)を用いるのではなく、互いに共通の1つの物体を当該各指標AおよびBとして用いてもよい。具体的には、図30(a)に示すように、或る物体が或る場所に存在するとき(時刻ta)の撮影画像における当該物体(の像)を指標Aとし、同じ物体が移動して別の場所に存在するとき(時刻tb)の撮影画像における当該物体を指標Bとする。そして、これら互いに異なる時刻taおよびtbに撮影された同一物体に基づく2つの指標AおよびBを用いて、カメラキャリブレーションを行ってもよい。 Furthermore, for each index A and B, separate objects (human beings) may not be used, but one common object may be used as each index A and B. Specifically, as shown in FIG. 30A, when a certain object is present at a certain place (time ta), the object (the image thereof) in the captured image is used as an index A, and the same object moves. The object in the captured image when it exists in another place (time tb) is defined as an index B. Then, camera calibration may be performed using two indexes A and B based on the same object photographed at different times ta and tb.
また、各指標AおよびBとしては、上述の如く人間が好適であるが、これに限らない。例えば、互いに同じ長さ寸法DaおよびDbの2本の棒状体を、当該各指標AおよびBとして採用してもよい。勿論、互いの長さ寸法DaおよびDbが同じでなくても、図25を参照しながら説明した要領によれば、正確なカメラキャリブレーションを実現することができる。さらに、電柱やビル等のように直線部分を有する既存の構造物をも、各指標AおよびBとして採用してもよい。また、2つの指標AおよびBに代えて、図31に示すような矩形状の1つの枠体(または板状体)60を採用してもよい。具体的には、この枠体60の4辺のうち互いに対向する2辺が同図には示さない地面30に対して垂直を成し、他の2辺が地面30に平行を成す(または地面30に沿う)ように、当該枠体60が設置されればよい。要するに、上述した各消失点PvおよびPhが形成されればよく、そのための1つの手段として、本実施形態では、2つの指標AおよびBが採用されている。
Further, as the indicators A and B, humans are preferable as described above, but are not limited thereto. For example, two rod-like bodies having the same lengths Da and Db may be adopted as the respective indexes A and B. Of course, even if the lengths Da and Db are not the same, according to the procedure described with reference to FIG. 25, accurate camera calibration can be realized. Furthermore, an existing structure having a straight portion such as a utility pole or a building may be adopted as each of the indicators A and B. Further, instead of the two indexes A and B, one rectangular frame (or plate) 60 as shown in FIG. 31 may be adopted. Specifically, two opposite sides of the four sides of the
さらに、本実施形態においては、図24を参照しながら説明したように、各消失点PvおよびPhを特定するべく、各指標AおよびBの頂点PuaおよびPub,ならびに底点PdaおよびPdbを手動操作で特定することとしたが、これに限らない。例えば、ハフ変換法等の直線部分を抽出するための適宜の特徴抽出法を用いて、当該各指標AおよびB等の直線部分を自動的に抽出し、ひいては各消失点PvおよびPhを自動的に特定するようにしてもよい。また、各指標AおよびBが人間等の移動体である場合には、背景差分法等の適宜の移動体検出法を用いて、当該各指標AおよびBとしての移動体を自動的に検出し、ひいては各消失点PvおよびPhを自動的に特定してもよい。 Further, in the present embodiment, as described with reference to FIG. 24, the vertices Pua and Pub and the bottom points Pda and Pdb of each index A and B are manually operated to specify the vanishing points Pv and Ph. However, it is not limited to this. For example, by using an appropriate feature extraction method such as the Hough transform method for extracting a straight line portion, the straight line portions such as the indices A and B are automatically extracted, and the vanishing points Pv and Ph are automatically extracted. You may make it specify. In addition, when each of the indicators A and B is a moving body such as a human, the moving body as each of the indicators A and B is automatically detected using an appropriate moving body detection method such as a background difference method. As a result, the vanishing points Pv and Ph may be automatically specified.
そして、カメラパラメータのうち、水平画角θhおよび垂直画角θvについては、特段な必要性がなければ、求めなくてもよい。また、極端には、カメラ14の設置高さηについても、これを正確に求めなくてもよい場合がある。
Of the camera parameters, the horizontal field angle θh and the vertical field angle θv do not need to be obtained unless there is a special need. In extreme cases, the installation height η of the
即ち、数16に示した変換式において、Zw=0であるとき、当該数16は、上述の数17を用いて、次の数20のように表される。
That is, in the conversion equation shown in
この数20によれば、正確な設置高さηが不明であっても、これを1つの定数とみなすことで、スケールを持たない、言わば任意単位の世界座標値(Xw,Yw,Zw)が得られる。つまり、この世界座標値(Xw,Yw,Zw)そのものがどのようなスケール(単位)に基づくのかは不明であるものの、当該スケールを持たない世界座標系においても任意の2点間の距離(例えば線分の長さ)の比は分かる。従って、この距離の比が分かりさえすれば足りる、という用途においては、設置高さηの正確な値は不要である。例えば、撮影画像中の或る建物と別の建物との高さの比を求めたり、建物の高さに比べて人間の身長がどの程度であるのかを推定したり、さらには人間が移動した距離を任意の2点間の距離と比較して求めたりすることができる。
According to this
また、設置高さηとして、たとえ正確な値でなくとも、比較的に近似的な値が設定されれば、比較的に正確な世界座標値(Xw,Yw,Zw)が得られる。さらに、当該設置高さηを求めるための上述した数15において、指標Aの長さ寸法Daとして、正確な値ではなく、近似的な値が設定された場合でも、比較的に正確な設置高さηが求められ、ひいては比較的に正確な世界座標値(Xw,Yw,Zw)が得られる。このことは、指標Bの長さ寸法Dbに基づいて設置高さηが求められる場合にも、同様である。 Further, even if the installation height η is not an accurate value, if a relatively approximate value is set, a relatively accurate world coordinate value (Xw, Yw, Zw) can be obtained. Further, in the above-described equation 15 for obtaining the installation height η, even if an approximate value is set instead of an accurate value as the length dimension Da of the index A, a relatively accurate installation height is obtained. Then, η is obtained, and as a result, relatively accurate world coordinate values (Xw, Yw, Zw) are obtained. The same applies to the case where the installation height η is obtained based on the length dimension Db of the index B.
さらに、数16においては、Zw=0であるときに限らず、世界座標値(Xw,Yw,Zw)の各要素値Xw,YwおよびZwのいずれか1つが既知であれば、当該世界座標値(Xw,Yw,Zw)と画像座標値(Xi,Yi)との間での相互変換が可能である。例えば、Xwが既知であるとき、当該数16は、次の数21のように表される。つまり、この数21によって、相互変換が可能となる。
Furthermore, in
そして、Ywが既知であるときは、次の数22によって、相互変換が可能となり、Zwが既知であるときは、数23によって、相互変換が可能となる。
When Yw is known, mutual conversion is possible by the following
また、これら数21〜数23を利用すれば、世界座標値(Xw,Yw,Zw)を構成する3つの要素値Xw,YwおよびZwのうち少なくとも1つが既知である任意の2点PaおよびPb間の距離λを、求めることができる。 Further, if these formulas 21 to 23 are used, any two points Pa and Pb in which at least one of the three element values Xw, Yw, and Zw constituting the world coordinate values (Xw, Yw, Zw) is known are known. The distance λ between them can be determined.
具体的には、一方の点Paの世界座標値(Xw,Yw,Zw)が(Xwa,Ywa,Zwa)であり、他方の点Pbの世界座標値(Xw,Yw,Zw)が(Xwb,Ywb,Zwb)である、とする。すると、これら2点PaおよびPb間の距離λは、次の数24によって表される。 Specifically, the world coordinate value (Xw, Yw, Zw) of one point Pa is (Xwa, Ywa, Zwa), and the world coordinate value (Xw, Yw, Zw) of the other point Pb is (Xwb, Ywb, Zwb). Then, the distance λ between these two points Pa and Pb is expressed by the following equation (24).
ここで、例えば、一方の点Paについては、Xw軸の要素値Xwaが既知であり、他方の点Pbについても、Xw軸の要素値Xwbが既知である、と仮定する。この場合、一方の点Paの世界座標値(Xwa,Ywa,Zwa)が、数21の世界座標値(Xw,Yw,Zw)として代入され、他方の点Pbの世界座標値(Xwb,Ywb,Zwb)もまた、当該数21の世界座標値(Xw,Yw,Zw)として代入され、さらにこれらが数24に代入されることによって、つまり次の数25によって、2点PaおよびPb間の距離λが求められる。 Here, for example, it is assumed that the element value Xwa of the Xw axis is known for one point Pa, and the element value Xwb of the Xw axis is also known for the other point Pb. In this case, the world coordinate value (Xwa, Ywa, Zwa) of one point Pa is substituted as the world coordinate value (Xw, Yw, Zw) of Equation 21, and the world coordinate value (Xwb, Ywb, Zwb) is also substituted as the world coordinate value (Xw, Yw, Zw) of the equation 21 and further substituted into the equation 24, that is, the distance between the two points Pa and Pb by the following equation 25 λ is determined.
次に、一方の点Paについては、Xw軸の要素値Xwaが既知であり、他方の点Pbについては、Yw軸の要素値Ywbが既知である、と仮定する。この場合、一方の点Paの世界座標値(Xwa,Ywa,Zwa)が、数21の世界座標値(Xw,Yw,Zw)として代入され、他方の点Pbの世界座標値(Xwb,Ywb,Zwb)が、数22の世界座標値(Xw,Yw,Zw)として代入され、さらにこれらが数24に代入されることによって、つまり次の数26によって、2点PaおよびPb間の距離λが求められる。 Next, it is assumed that the element value Xwa of the Xw axis is known for one point Pa, and the element value Ywb of the Yw axis is known for the other point Pb. In this case, the world coordinate value (Xwa, Ywa, Zwa) of one point Pa is substituted as the world coordinate value (Xw, Yw, Zw) of Equation 21, and the world coordinate value (Xwb, Ywb, Zwb) is substituted as the world coordinate value (Xw, Yw, Zw) of the equation (22) and further substituted into the equation (24), that is, according to the following equation (26), the distance λ between the two points Pa and Pb becomes Desired.
さらに、一方の点Paについては、Xw軸の要素値Xwaが既知であり、他方の点Pbについては、Zw軸の要素値Zwbが既知である、と仮定する。この場合、一方の点Paの世界座標値(Xwa,Ywa,Zwa)が、数21の世界座標値(Xw,Yw,Zw)として代入され、他方の点Pbの世界座標値(Xwb,Ywb,Zwb)が、数23の世界座標値(Xw,Yw,Zw)として代入され、これらが数24に代入されることによって、つまり次の数27によって、2点PaおよびPb間の距離λが求められる。 Further, it is assumed that the element value Xwa of the Xw axis is known for one point Pa, and the element value Zwb of the Zw axis is known for the other point Pb. In this case, the world coordinate value (Xwa, Ywa, Zwa) of one point Pa is substituted as the world coordinate value (Xw, Yw, Zw) of Equation 21, and the world coordinate value (Xwb, Ywb, Zwb) is substituted as the world coordinate value (Xw, Yw, Zw) of Equation 23, and these are substituted into Equation 24, that is, the following Equation 27 obtains the distance λ between the two points Pa and Pb. It is done.
続いて、一方の点Paについては、Yw軸の要素値Ywaが既知であり、他方の点Pbについても、Yw軸の要素値Ywbが既知である、と仮定する。この場合、一方の点Paの世界座標値(Xwa,Ywa,Zwa)が、数22の世界座標値(Xw,Yw,Zw)として代入され、他方の点Pbの世界座標値(Xwb,Ywb,Zwb)もまた、数22の世界座標値(Xw,Yw,Zw)として代入され、これらが数24に代入されることによって、つまり次の数28によって、2点PaおよびPb間の距離λが求められる。
Subsequently, it is assumed that the element value Ywa of the Yw axis is known for one point Pa, and the element value Ywb of the Yw axis is also known for the other point Pb. In this case, the world coordinate value (Xwa, Ywa, Zwa) of one point Pa is substituted as the world coordinate value (Xw, Yw, Zw) of
そして、一方の点Paについて、Yw軸の要素値Ywaが既知であり、他方の点Pbについては、Zw軸の要素値Zwbが既知である、と仮定する。この場合、一方の点Paの世界座標値(Xwa,Ywa,Zwa)が、数22の世界座標値(Xw,Yw,Zw)として代入され、他方の点Pbの世界座標値(Xwb,Ywb,Zwb)が、数23の世界座標値(Xw,Yw,Zw)として代入され、これらが数24に代入されることによって、つまり次の数29によって、2点PaおよびPb間の距離λが求められる。
It is assumed that the element value Ywa on the Yw axis is known for one point Pa, and the element value Zwb on the Zw axis is known for the other point Pb. In this case, the world coordinate value (Xwa, Ywa, Zwa) of one point Pa is substituted as the world coordinate value (Xw, Yw, Zw) of
さらに、一方の点Paについて、Zw軸の要素値Zwaが既知であり、他方の点Pbについても、Zw軸の要素値Zwbが既知である、と仮定する。この場合、一方の点Paの世界座標値(Xwa,Ywa,Zwa)が、数23の世界座標値(Xw,Yw,Zw)として代入され、他方の点Pbの世界座標値(Xwb,Ywb,Zwb)もまた、数23の世界座標値(Xw,Yw,Zw)として代入され、これらが数24に代入されることによって、つまり次の数30によって、2点PaおよびPb間の距離λが求められる。
Further, it is assumed that the element value Zwa of the Zw axis is known for one point Pa, and the element value Zwb of the Zw axis is also known for the other point Pb. In this case, the world coordinate value (Xwa, Ywa, Zwa) of one point Pa is substituted as the world coordinate value (Xw, Yw, Zw) of Equation 23, and the world coordinate value (Xwb, Ywb, Zwb) is also substituted as the world coordinate value (Xw, Yw, Zw) of Equation 23, and by substituting these into Equation 24, that is, by the following
なお、これら数25〜数30を参照して分かるように、数25,数26および数28については、設置高さηが含まれていない。つまり、これら数25,数26および数28によれば、当該設置高さηが不明であっても、2点PaおよびPb間の距離λが求められる。これに対して、数27,数29および数30については、設置高さηが含まれている。つまり、これら数27,数29および数30によれば、当該設置高さηが判明することで、2点PaおよびPb間の距離λが一意に求められる。
As can be seen with reference to these formulas 25 to 30, the installation height η is not included in formulas 25, 26, and 28. That is, according to these formulas 25, 26, and 28, the distance λ between the two points Pa and Pb is obtained even if the installation height η is unknown. On the other hand, for the
ここで、1つの応用例として、上述した地面30上に細長い物体が垂直方向に延伸するように配置されている、と仮定し、この物体の長さ寸法λを求める場合について、説明する。この場合、当該物体の一端が点Paとして取り扱われ、他端が点Pbとして取り扱われる。
Here, as one application example, a case will be described in which it is assumed that an elongated object is arranged on the
例えば、今、物体の一端Paについて、Xw軸の要素値Xwaが既知である、とする。すると、当該物体が垂直方向に延伸していることから、当然に、他端Pbについても、Xw軸の要素値Xwbが既知となり、つまりXwa=Xwbとなる。この場合、上述の数25に基づいて、より詳しくは当該数25においてXwa=Xwbとされた次の数31に基づいて、物体の長さ寸法λが求められる。 For example, it is assumed that the element value Xwa of the Xw axis is already known for one end Pa of the object. Then, since the object extends in the vertical direction, naturally, the element value Xwb of the Xw axis is also known for the other end Pb, that is, Xwa = Xwb. In this case, the length dimension λ of the object is obtained based on the above-described equation 25, more specifically, based on the following equation 31 in which Xwa = Xwb in the equation 25.
これとは異なり、例えば、物体の一端Paについて、Yw軸の要素値Ywaが既知である、とすると、当該物体が垂直方向に延伸していることから、当然に、他端Pbについても、Yw軸の要素値Ywbが既知となり、つまりYwa=Ywbとなる。この場合、上述の数28に基づいて、より詳しくは当該数28においてYwa=Ywbとされた次の数32に基づいて、物体の長さ寸法λが求められる。
On the other hand, for example, if the element value Ywa of the Yw axis is known for one end Pa of the object, since the object extends in the vertical direction, naturally, the other end Pb also has Yw. The axis element value Ywb is known, that is, Ywa = Ywb. In this case, the length dimension λ of the object is obtained based on the above equation 28, more specifically, based on the following
さらに、物体の一端Paについて、Zw軸の要素値Zwaが既知である、とする。この場合は、次の要領による。即ち、この物体の一端Paの世界座標値(Xwa,Ywa,Zwa)が、上述した数23の世界座標値(Xw,Yw,Zw)として代入されることで、次の数33が得られる。また、他端Pbの世界座標値(Xwa,Ywa,Zwa)が、上述した数16の世界座標値(Xw,Yw,Zw)として代入されることで、数34が得られる。
Furthermore, it is assumed that the element value Zwa of the Zw axis is known for one end Pa of the object. In this case, follow the procedure below. That is, the following equation 33 is obtained by substituting the world coordinate value (Xwa, Ywa, Zwa) of one end Pa of this object as the above-described equation 23 (Xw, Yw, Zw). Further, the world coordinate value (Xwa, Ywa, Zwa) of the other end Pb is substituted as the world coordinate value (Xw, Yw, Zw) of the above-described
これら数33および数34に注目すると、Xwa=Xwbであることから、次の数35が成立する。同様に、Ywa=Ywbであることから、数36が成立する。
When attention is paid to these
そして、これら数35および数36の一方、例えば数35が、上述の数24に代入されることで、次の数37が得られる。同様に、数36が、数24に代入されることで、数38が得られる。
Then, by substituting one of these
つまり、これら数37および数38のいずれかに基づいて、物体の長さ寸法λが求められる。なお、これら数37および数38においては、上述の数31および数32とは異なり、カメラ14の設置高さηが必要となる。
In other words, the length dimension λ of the object is obtained based on either of these
さらにまた、上述の数30に注目すると、この数30において、例えばZwa=Zwb=0であるとき、当該数30は、次の数39のように表される。
Further, paying attention to the above-described
この数39において、平方根に含まれるベクトルVe(xe,ye,ze)の各要素値xe,yeおよびzeは、上述した数9によって求められることから、この平方根全体をNという係数として一括すると、当該数39は、次の数40のように表される。
In the equation (39), the element values xe, ye and ze of the vector Ve (xe, ye, ze) included in the square root are obtained by the above equation (9). The number 39 is expressed as the following
さらに、この数40において、λ=1とすると共に、当該数40を、高さ寸法ηについての式に変形し直すと、次の数41が導き出される。
Further, in this
即ち、この数41は、2点PaおよびPb間の距離λを単位として、設置高さηを表したものである。従って、この数41で表される高さηを用いれば、世界座標系に対して、当該2点PaおよびPb間の距離λを単位とするスケールを与えることができる。例えば、当該距離λを単位として、他の任意の2点間の距離等を求めることができる。 That is, the number 41 represents the installation height η with the distance λ between the two points Pa and Pb as a unit. Therefore, if the height η represented by this equation 41 is used, a scale in units of the distance λ between the two points Pa and Pb can be given to the world coordinate system. For example, the distance between any other two points can be obtained using the distance λ as a unit.
なお、上述の数40は、Zwa=Zwb=0であることを条件とするが、Zwa=Zwb=Zw’≠0であるときは、次の数42が成立する。
The above-mentioned
そして、この数42において、λ=1とすると共に、当該数42を、高さ寸法ηについての式に変形し直すと、次の数43が導き出される。
Then, in this
つまり、Zwa=Zwb=Zw’≠0であるときにも、2点PaおよびPb間の距離λを単位とするスケールを世界座標系に与えることができる。 That is, even when Zwa = Zwb = Zw ′ ≠ 0, a scale having the unit of the distance λ between the two points Pa and Pb can be given to the world coordinate system.
以上の実施形態で説明した内容は、飽くまでも本発明を実現するための一部の具体例であり、本発明を限定するものではない。例えば、上述の数30に注目するのに代えて、数27および数29に注目することで、2点PaおよびPb間の距離λを単位として設置高さηを表す式を求めてもよい。
The contents described in the above embodiments are merely specific examples for realizing the present invention, and are not intended to limit the present invention. For example, instead of paying attention to the above-described
そして、カメラキャリブレーションプログラムについては、適当な記録媒体16によって供給されることとしたが、インターネット等の電気通信回線を通じて供給されることとしてもよい。
The camera calibration program is supplied by an
また、このカメラキャリブレーションプログラムをいわゆる汎用のPC12に実行させることでカメラキャリブレーション装置を実現するのではなく、カメラキャリブレーションに特化した専用のカメラキャリブレーション装置を実現してもよい。
Further, instead of realizing the camera calibration device by causing the so-called general-
さらに、カメラキャリブレーションというものではなく、単にカメラ14の焦点距離f,俯角ρおよび設置高さηのいずれかを求めるのに、本発明を適用してもよい。これらの焦点距離f,俯角ρおよび設置高さηについては、カメラ14の設置時に或る程度の精度で定めることはできるが、その正確さは、作業者(人間)の力量による。従って、これら焦点距離f,俯角ρおよび設置高さηをより正確に求めるには、本発明が極めて有効である。
Further, the present invention may be applied not only to the camera calibration but simply to determine one of the focal length f, the depression angle ρ, and the installation height η of the
10 カメラキャリブレーションシステム
12 PC
14 カメラ
16 CPU
18 命令入力装置
24 ディスプレイ
30 地面
A,B 指標
Oc レンズ主点
f 焦点距離
ρ 俯角
10
14
18 Command input device 24
Claims (7)
上記カメラによる撮影画像上で上記基準平面に対する垂直消失点および水平消失点を特定することが可能な指標が上記撮影範囲内に存在する該撮影画像を該カメラから取得する画像取得手段と、
上記画像取得手段によって取得された上記撮影画像に基づいて該撮影画像を含む2次元領域における上記垂直消失点および上記水平消失点それぞれの位置を特定する位置特定手段と、
上記位置特定手段によって特定された上記垂直消失点および上記水平消失点それぞれの位置に基づいて上記カメラパラメータを求めるパラメータ演算手段と、
を具備する、カメラパラメータ特定装置。 A camera parameter specifying device that obtains camera parameters including a focal length of a camera that is installed obliquely with respect to a reference plane and whose shooting range is fixed, and an angle of a line of sight of the camera with respect to the reference plane,
An image acquisition means for acquiring, from the camera, an image capable of specifying a vertical vanishing point and a horizontal vanishing point with respect to the reference plane on the image captured by the camera within the imaging range;
Position specifying means for specifying the positions of the vertical vanishing point and the horizontal vanishing point in a two-dimensional region including the photographed image based on the photographed image obtained by the image obtaining means;
Parameter computing means for obtaining the camera parameters based on the positions of the vertical vanishing point and the horizontal vanishing point identified by the position identifying means;
A camera parameter specifying device.
請求項1に記載のカメラパラメータ特定装置。 The camera was installed so that the horizontal direction of the captured image was parallel to the reference plane,
The camera parameter specifying device according to claim 1.
上記撮影画像の水平方向の上記基準平面に対する偏角を求める偏角演算手段と、
上記偏角に基づいて該偏角がゼロであると仮定したときの上記垂直消失点および上記水平消失点それぞれの上記2次元領域における位置を仮想する位置仮想手段と、
をさらに具備し、
上記パラメータ演算手段は上記位置仮想手段によって仮想された上記垂直消失点および上記水平消失点それぞれの位置に基づいて上記カメラパラメータを求める、
請求項1に記載のカメラパラメータ特定装置。 The camera is installed so that the horizontal direction of the captured image is not parallel to the reference plane, and under these conditions,
A declination calculating means for obtaining a declination with respect to the reference plane in the horizontal direction of the captured image;
Position virtual means for virtualizing the positions of the vertical vanishing point and the horizontal vanishing point in the two-dimensional region when the declination is assumed to be zero based on the declination;
Further comprising
The parameter calculation means obtains the camera parameters based on the positions of the vertical vanishing point and the horizontal vanishing point virtualized by the position virtual means,
The camera parameter specifying device according to claim 1.
上記位置特定手段は上記垂直消失点および上記水平消失点それぞれの位置を上記画像座標系における座標値で特定する、
請求項1ないし3のいずれかに記載のカメラパラメータ特定装置。 A two-dimensional image coordinate system is set in the two-dimensional region,
The position specifying means specifies the position of each of the vertical vanishing point and the horizontal vanishing point by a coordinate value in the image coordinate system;
The camera parameter specifying device according to claim 1.
上記世界座標系における座標値を構成する3つの要素値のうち少なくとも1つが既知である上記3次元空間における任意の2点間の距離を基準距離として設定する基準距離設定手段と、
上記基準距離に基づいて上記基準平面から上記カメラまでの距離を含む上記3次元空間における該カメラの位置を求めるカメラ位置演算手段と、
上記カメラの位置を含む上記カメラパラメータに基づいて上記画像座標系および上記世界座標系の一方における任意の座標値に対応する他方における座標値を求める座標変換手段と、をさらに備える、
請求項4に記載のカメラパラメータ特定装置。 A three-dimensional world coordinate system is set in the three-dimensional space including the shooting range,
Reference distance setting means for setting, as a reference distance, a distance between any two points in the three-dimensional space in which at least one of three element values constituting coordinate values in the world coordinate system is known;
Camera position calculation means for determining the position of the camera in the three-dimensional space including the distance from the reference plane to the camera based on the reference distance;
Coordinate conversion means for obtaining a coordinate value in the other corresponding to an arbitrary coordinate value in one of the image coordinate system and the world coordinate system based on the camera parameters including the position of the camera;
The camera parameter specifying device according to claim 4.
上記カメラによる撮影画像上で上記基準平面に対する垂直消失点および水平消失点を特定することが可能な指標が上記撮影範囲内に存在する該撮影画像を該カメラから取得する画像取得過程と、
上記画像取得過程で取得された上記撮影画像に基づいて該撮影画像を含む2次元領域における上記垂直消失点および上記水平消失点それぞれの位置を特定する位置特定過程と、
上記位置特定過程で特定された上記垂直消失点および上記水平消失点それぞれの位置に基づいて上記カメラパラメータを求めるパラメータ演算過程と、
を具備する、カメラパラメータ特定方法。 A camera parameter specifying method for obtaining a camera parameter including a focal length of a camera installed to be inclined with respect to a reference plane and having a fixed shooting range and an angle of a line of sight of the camera with respect to the reference plane,
An image acquisition process for acquiring, from the camera, an image capable of specifying a vertical vanishing point and a horizontal vanishing point with respect to the reference plane on the image captured by the camera within the imaging range;
A position specifying process for specifying the positions of the vertical vanishing point and the horizontal vanishing point in a two-dimensional region including the photographed image based on the photographed image obtained in the image obtaining process;
A parameter calculation process for obtaining the camera parameters based on the positions of the vertical vanishing point and the horizontal vanishing point identified in the position identifying process;
A camera parameter specifying method comprising:
上記カメラによる撮影画像上で上記基準平面に対する垂直消失点および水平消失点を特定することが可能な指標が上記撮影範囲内に存在する該撮影画像を該カメラから取得する画像取得手順と、
上記画像取得手順で取得された上記撮影画像に基づいて該撮影画像を含む2次元領域における上記垂直消失点および上記水平消失点それぞれの位置を特定する位置特定手順と、
上記位置特定手順で特定された上記垂直消失点および上記水平消失点それぞれの位置に基づいて上記カメラパラメータを求めるパラメータ演算手順と、
をコンピュータに実行させる、カメラパラメータ特定プログラム。 A camera parameter specifying program for obtaining camera parameters including a focal length of a camera that is installed obliquely with respect to a reference plane and a shooting range is fixed, and an angle of a line of sight of the camera with respect to the reference plane,
An image acquisition procedure for acquiring, from the camera, the captured image having an index capable of specifying a vertical vanishing point and a horizontal vanishing point with respect to the reference plane on the captured image by the camera;
A position specifying procedure for specifying the position of each of the vertical vanishing point and the horizontal vanishing point in a two-dimensional region including the photographed image based on the photographed image obtained in the image obtaining procedure;
A parameter calculation procedure for obtaining the camera parameters based on the positions of the vertical vanishing point and the horizontal vanishing point identified by the position identifying procedure;
Is a camera parameter specifying program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008183589A JP5079614B2 (en) | 2008-07-15 | 2008-07-15 | Camera parameter specifying apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008183589A JP5079614B2 (en) | 2008-07-15 | 2008-07-15 | Camera parameter specifying apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010025569A true JP2010025569A (en) | 2010-02-04 |
JP5079614B2 JP5079614B2 (en) | 2012-11-21 |
Family
ID=41731561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008183589A Active JP5079614B2 (en) | 2008-07-15 | 2008-07-15 | Camera parameter specifying apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5079614B2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012181063A (en) * | 2011-02-28 | 2012-09-20 | Sogo Keibi Hosho Co Ltd | Calculation device, calculation method and calculation program |
JP2015070437A (en) * | 2013-09-27 | 2015-04-13 | サクサ株式会社 | Image processing device |
CN109685855A (en) * | 2018-12-05 | 2019-04-26 | 长安大学 | A kind of camera calibration optimization method under road cloud monitor supervision platform |
CN109916341A (en) * | 2019-04-22 | 2019-06-21 | 苏州华兴源创科技股份有限公司 | A kind of measurement method and system of product surface horizontal tilt angle |
US10348961B2 (en) | 2014-04-03 | 2019-07-09 | Hanwha Precision Machinery Co., Ltd. | Camera modeling system |
CN110211176A (en) * | 2019-05-31 | 2019-09-06 | 驭势科技(北京)有限公司 | A kind of Camera extrinsic number correction System and method for |
CN111508027A (en) * | 2019-01-31 | 2020-08-07 | 杭州海康威视数字技术股份有限公司 | Method and device for calibrating external parameters of camera |
JP2020173211A (en) * | 2019-04-12 | 2020-10-22 | 俊雄 川口 | Angle measuring device, distance measuring device, speed measuring device, altitude measuring device, coordinate measuring device, angle measuring method, and program |
JPWO2021079456A1 (en) * | 2019-10-24 | 2021-04-29 | ||
CN113421307A (en) * | 2021-06-22 | 2021-09-21 | 恒睿(重庆)人工智能技术研究院有限公司 | Target positioning method and device, computer equipment and storage medium |
CN113628238A (en) * | 2021-07-22 | 2021-11-09 | 中汽创智科技有限公司 | Target object positioning method, device and medium |
CN114446088A (en) * | 2022-02-16 | 2022-05-06 | 成都宜泊信息科技有限公司 | Parking space management method, management system, storage medium and electronic equipment |
WO2023249126A1 (en) * | 2022-06-24 | 2023-12-28 | 日立Astemo株式会社 | Image processing device and image processing method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105987683B (en) * | 2015-04-16 | 2018-03-27 | 北京蚁视科技有限公司 | A kind of vision positioning system and method based on high reflective infrared mark |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0798214A (en) * | 1993-09-29 | 1995-04-11 | Nippondenso Co Ltd | Method and device for three dimensional position and attitude recognition method based on sense of sight |
JPH09319896A (en) * | 1996-03-25 | 1997-12-12 | Hitachi Ltd | Three-dimensional image generating device |
-
2008
- 2008-07-15 JP JP2008183589A patent/JP5079614B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0798214A (en) * | 1993-09-29 | 1995-04-11 | Nippondenso Co Ltd | Method and device for three dimensional position and attitude recognition method based on sense of sight |
JPH09319896A (en) * | 1996-03-25 | 1997-12-12 | Hitachi Ltd | Three-dimensional image generating device |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012181063A (en) * | 2011-02-28 | 2012-09-20 | Sogo Keibi Hosho Co Ltd | Calculation device, calculation method and calculation program |
JP2015070437A (en) * | 2013-09-27 | 2015-04-13 | サクサ株式会社 | Image processing device |
US10348961B2 (en) | 2014-04-03 | 2019-07-09 | Hanwha Precision Machinery Co., Ltd. | Camera modeling system |
CN109685855B (en) * | 2018-12-05 | 2022-10-14 | 长安大学 | Camera calibration optimization method under road cloud monitoring platform |
CN109685855A (en) * | 2018-12-05 | 2019-04-26 | 长安大学 | A kind of camera calibration optimization method under road cloud monitor supervision platform |
CN111508027A (en) * | 2019-01-31 | 2020-08-07 | 杭州海康威视数字技术股份有限公司 | Method and device for calibrating external parameters of camera |
CN111508027B (en) * | 2019-01-31 | 2023-10-20 | 杭州海康威视数字技术股份有限公司 | Method and device for calibrating external parameters of camera |
JP2020173211A (en) * | 2019-04-12 | 2020-10-22 | 俊雄 川口 | Angle measuring device, distance measuring device, speed measuring device, altitude measuring device, coordinate measuring device, angle measuring method, and program |
JP7282578B2 (en) | 2019-04-12 | 2023-05-29 | 俊雄 川口 | Angle measuring device, distance measuring device, speed measuring device, altitude measuring device, coordinate measuring device, angle measuring method, and program |
CN109916341A (en) * | 2019-04-22 | 2019-06-21 | 苏州华兴源创科技股份有限公司 | A kind of measurement method and system of product surface horizontal tilt angle |
CN109916341B (en) * | 2019-04-22 | 2020-08-25 | 苏州华兴源创科技股份有限公司 | Method and system for measuring horizontal inclination angle of product surface |
CN110211176A (en) * | 2019-05-31 | 2019-09-06 | 驭势科技(北京)有限公司 | A kind of Camera extrinsic number correction System and method for |
WO2021079456A1 (en) * | 2019-10-24 | 2021-04-29 | 日本電気株式会社 | Camera calibration device, camera calibration method, and non-transitory computer-readable medium |
JPWO2021079456A1 (en) * | 2019-10-24 | 2021-04-29 | ||
CN113421307B (en) * | 2021-06-22 | 2022-11-22 | 恒睿(重庆)人工智能技术研究院有限公司 | Target positioning method and device, computer equipment and storage medium |
CN113421307A (en) * | 2021-06-22 | 2021-09-21 | 恒睿(重庆)人工智能技术研究院有限公司 | Target positioning method and device, computer equipment and storage medium |
CN113628238A (en) * | 2021-07-22 | 2021-11-09 | 中汽创智科技有限公司 | Target object positioning method, device and medium |
CN113628238B (en) * | 2021-07-22 | 2023-09-22 | 中汽创智科技有限公司 | Target object positioning method, device and medium |
CN114446088A (en) * | 2022-02-16 | 2022-05-06 | 成都宜泊信息科技有限公司 | Parking space management method, management system, storage medium and electronic equipment |
WO2023249126A1 (en) * | 2022-06-24 | 2023-12-28 | 日立Astemo株式会社 | Image processing device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP5079614B2 (en) | 2012-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5079614B2 (en) | Camera parameter specifying apparatus and method, and program | |
JP6011548B2 (en) | Camera calibration apparatus, camera calibration method, and camera calibration program | |
JP6573354B2 (en) | Image processing apparatus, image processing method, and program | |
WO2020098316A1 (en) | Visual point cloud-based semantic vector map building method, device, and electronic apparatus | |
US9495750B2 (en) | Image processing apparatus, image processing method, and storage medium for position and orientation measurement of a measurement target object | |
Scaramuzza et al. | Extrinsic self calibration of a camera and a 3d laser range finder from natural scenes | |
EP2615580B1 (en) | Automatic scene calibration | |
JP4886560B2 (en) | Information processing apparatus and information processing method | |
JP5746477B2 (en) | Model generation device, three-dimensional measurement device, control method thereof, and program | |
JP3977776B2 (en) | Stereo calibration device and stereo image monitoring device using the same | |
JP5586765B2 (en) | Camera calibration result verification apparatus and method | |
CN108052103B (en) | Underground space simultaneous positioning and map construction method of inspection robot based on depth inertia odometer | |
WO2012043045A1 (en) | Image processing device and image capturing device using same | |
US20100086218A1 (en) | Position and orientation measurement apparatus and method thereof | |
JP2015532077A (en) | Method for determining the position and orientation of an apparatus associated with an imaging apparatus that captures at least one image | |
JP6479296B2 (en) | Position / orientation estimation apparatus and position / orientation estimation method | |
EP3300025B1 (en) | Image processing device and image processing method | |
JP5079547B2 (en) | Camera calibration apparatus and camera calibration method | |
George et al. | Towards drone-sourced live video analytics for the construction industry | |
JP5019478B2 (en) | Marker automatic registration method and system | |
CN114536292A (en) | Error detection method based on composite identification and robot system | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
KR20140114594A (en) | Auto-Camera Calibration Method Based on Human Object Tracking | |
CN114536399A (en) | Error detection method based on multiple pose identifications and robot system | |
CN111898552B (en) | Method and device for distinguishing person attention target object and computer equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100803 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120229 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120529 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120814 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120829 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150907 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5079614 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |