JP2008109481A - Image generating apparatus - Google Patents
Image generating apparatus Download PDFInfo
- Publication number
- JP2008109481A JP2008109481A JP2006291467A JP2006291467A JP2008109481A JP 2008109481 A JP2008109481 A JP 2008109481A JP 2006291467 A JP2006291467 A JP 2006291467A JP 2006291467 A JP2006291467 A JP 2006291467A JP 2008109481 A JP2008109481 A JP 2008109481A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- unit
- calculated
- calculation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 claims description 120
- 230000009466 transformation Effects 0.000 claims description 69
- 239000011159 matrix material Substances 0.000 claims description 42
- 238000006243 chemical reaction Methods 0.000 claims description 20
- 238000000034 method Methods 0.000 description 36
- 230000008569 process Effects 0.000 description 23
- 230000003287 optical effect Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 241001465754 Metazoa Species 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000003702 image correction Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
この発明は、複数のカメラ等により撮影された多視点画像からスポーツ鑑賞や監視などの用途に有用な画像を生成する画像生成装置に関するものである。 The present invention relates to an image generation apparatus that generates images useful for applications such as sports appreciation and monitoring from multi-viewpoint images captured by a plurality of cameras or the like.
従来の画像生成装置では、ユーザにより指定された注視点を中心とする多視点画像を生成する場合、複数のカメラにより撮影された画像に対して、各カメラのカメラパラメータ(3次元空間の世界座標を映像の座標に変換するためのパラメータ)を用いて、カメラにより撮影された被写体の世界座標を各カメラの映像座標に変換するようにしている(例えば、特許文献1を参照)。
したがって、画像生成装置が多視点画像を生成するには、事前に、各カメラのカメラパラメータを得るために、各カメラに対して高精度のカメラキャリブレーションを実施する必要がある。
In a conventional image generation device, when generating a multi-viewpoint image centered on a gazing point designated by a user, camera parameters of each camera (world coordinates in a three-dimensional space) are obtained for images taken by a plurality of cameras. Are used to convert the world coordinates of the subject photographed by the camera into the video coordinates of each camera (see, for example, Patent Document 1).
Therefore, in order for the image generation apparatus to generate a multi-viewpoint image, it is necessary to perform high-precision camera calibration on each camera in advance in order to obtain camera parameters of each camera.
従来の画像生成装置は以上のように構成されているので、世界座標を映像座標に変換するためのカメラパラメータが事前に得られていれば、ユーザにより指定された注視点を中心とする多視点画像を生成することができる。しかし、カメラパラメータを得るには、各カメラに対して高精度のカメラキャリブレーションを実施しなければならないなどの課題があった。 Since the conventional image generating apparatus is configured as described above, if camera parameters for converting world coordinates to video coordinates are obtained in advance, a multi-viewpoint centered on a gaze point designated by the user An image can be generated. However, in order to obtain camera parameters, there has been a problem that high-precision camera calibration has to be performed for each camera.
この発明は上記のような課題を解決するためになされたもので、高精度のカメラキャリブレーションを実施することなく、被写体の大きさや位置などが一致している見易い臨場感のある画像を生成することができる画像生成装置を得ることを目的とする。 The present invention has been made to solve the above-described problems, and generates an easy-to-see and realistic image in which the size and position of the subject match without performing high-accuracy camera calibration. An object of the present invention is to obtain an image generation apparatus capable of performing the above.
この発明に係る画像生成装置は、位置指定手段により指定されたマルチビュー対象の物体の位置と平面射影変換行列算出手段により算出された平面射影変換行列から複数の画像に存在するマルチビュー対象の物体の位置を算出するとともに、位置指定手段により指定された垂直基準棒の床面位置と平面射影変換行列から複数の画像に存在する垂直基準棒の床面位置を算出する位置算出手段と、位置算出手段により算出されたマルチビュー対象の物体の位置及び垂直基準棒の床面位置を用いて、複数の画像におけるマルチビュー対象の物体の位置を揃え、かつ、マルチビュー対象の物体の大きさを同じにする画像倍率を複数の画像毎に算出する画像倍率算出手段とを設け、画像変換手段が画像倍率算出手段により算出された画像倍率にしたがって複数の画像を変換するようにしたものである。 The image generating apparatus according to the present invention includes a multi-view target object existing in a plurality of images from the position of the multi-view target object specified by the position specifying unit and the plane projective transformation matrix calculated by the plane projective transformation matrix calculating unit. Position calculating means for calculating the position of the vertical reference bar present in a plurality of images from the floor position of the vertical reference bar specified by the position specifying means and the plane projective transformation matrix, and position calculation Using the position of the object of the multi-view target calculated by the means and the floor position of the vertical reference bar, the positions of the objects of the multi-view target in the plurality of images are aligned, and the size of the object of the multi-view target is the same Image magnification calculation means for calculating the image magnification for each of a plurality of images, and the image conversion means according to the image magnification calculated by the image magnification calculation means. It is obtained so as to convert the plurality of images.
この発明によれば、位置指定手段により指定されたマルチビュー対象の物体の位置と平面射影変換行列算出手段により算出された平面射影変換行列から複数の画像に存在するマルチビュー対象の物体の位置を算出するとともに、位置指定手段により指定された垂直基準棒の床面位置と平面射影変換行列から複数の画像に存在する垂直基準棒の床面位置を算出する位置算出手段と、位置算出手段により算出されたマルチビュー対象の物体の位置及び垂直基準棒の床面位置を用いて、複数の画像におけるマルチビュー対象の物体の位置を揃え、かつ、マルチビュー対象の物体の大きさを同じにする画像倍率を複数の画像毎に算出する画像倍率算出手段とを設け、画像変換手段が画像倍率算出手段により算出された画像倍率にしたがって複数の画像を変換するように構成したので、高精度のカメラキャリブレーションを実施することなく、被写体の大きさや位置などが一致している見易い臨場感のある画像を生成することができる効果がある。 According to the present invention, the position of the multi-view target object existing in the plurality of images is determined from the position of the multi-view target object specified by the position specifying means and the plane projection transformation matrix calculated by the plane projection transformation matrix calculation means. The position calculating means calculates the floor position of the vertical reference bar existing in a plurality of images from the floor position of the vertical reference bar specified by the position specifying means and the plane projective transformation matrix, and the position calculating means An image in which the positions of the multi-view target objects in the plurality of images are aligned and the sizes of the multi-view target objects are the same using the position of the object of the multi-view target and the floor position of the vertical reference bar. An image magnification calculating means for calculating the magnification for each of the plurality of images, and the image converting means calculates the plurality of images according to the image magnification calculated by the image magnification calculating means; And then, is converted, without performing a highly accurate camera calibration, there is an effect that can produce an image with easy to see realistic that the size and position of the object match.
実施の形態1.
図1はこの発明の実施の形態1による画像生成装置を示す構成図である。
図1の画像生成装置の場合、N台のカメラを使用して、ある3次元領域をそれぞれ異なる方向から撮影した複数の画像に対して、上記領域内に存在するある物体が、全ての画像で同じ大きさになるように各画像を拡大または縮小し、かつ、画像内の同じ座標に位置するよう移動し、さらに、水平方向や垂直方向の歪を補正するようにしている。
なお、上記のような画像を、N台のカメラにより撮影されたN枚の画像を用いて生成した後、それらの画像をカメラの並びの順番に表示すると、ある物体を中心に等距離の視点をカメラの並びに沿って順番に移動させたような画像効果を得ることができる。以後、上記のような効果をマルチビュー効果または単にマルチビューと称する。
これ以降の説明では、N台のカメラで、水平な平面である床面にいくつかの物体が置かれている領域を撮影し、その領域に対してマルチビュー効果を有する画像を生成するものとする。
FIG. 1 is a block diagram showing an image generation apparatus according to
In the case of the image generating apparatus of FIG. 1, for a plurality of images obtained by photographing N-dimensional images from different directions using N cameras, an object existing in the region is all images. Each image is enlarged or reduced so as to have the same size, moved so as to be positioned at the same coordinates in the image, and further, distortion in the horizontal direction or the vertical direction is corrected.
In addition, after generating the above images using N images taken by N cameras, when these images are displayed in the order of camera arrangement, an equidistant viewpoint centered on an object It is possible to obtain an image effect such that the images are sequentially moved along the camera. Hereinafter, such an effect is referred to as a multi-view effect or simply a multi-view.
In the following description, it is assumed that an area in which several objects are placed on the floor surface, which is a horizontal plane, is captured by N cameras, and an image having a multi-view effect is generated for the area. To do.
図において、カメラ1−1〜1−Nは相互に異なる方向から同一の3次元領域を撮影し、その3次元領域の撮影結果であるオリジナル画像n(1≦n≦N)を出力する。
画像データ一時保存部2はカメラ1−n(1≦n≦N)から出力されたオリジナル画像n(1≦n≦N)を一時的に保存するメモリである。なお、画像データ一時保存部2は画像格納手段を構成している。
ただし、この実施の形態1では、以降、説明の簡単化のために、N=8であるものとして説明する。
In the figure, the cameras 1-1 to 1-N photograph the same three-dimensional area from different directions, and output an original image n (1 ≦ n ≦ N) that is a photographing result of the three-dimensional area.
The image data
In the first embodiment, however, it is assumed that N = 8 for the sake of simplicity.
マルチビュー位置指定部3は画像データ一時保存部2に保存されている8枚のオリジナル画像nの中から任意のオリジナル画像n1(1≦n1≦8)の選択を受け付け、そのオリジナル画像n1に存在するマルチビュー対象の物体(ユーザがマルチビューを希望する物体)の床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
マルチビュー位置指定部3における画像座標の読み取りは、ユーザがオリジナル画像n1を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
The multi-view
The image coordinates are read by the multi-view
基準位置指定部4は画像データ一時保存部2に保存されている8枚のオリジナル画像nの中から任意のオリジナル画像n2(1≦n2≦8)の選択を受け付け、そのオリジナル画像n2に存在する垂直基準棒が床面に垂直に接している床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
基準位置指定部4における画像座標の読み取りは、ユーザがオリジナル画像n2を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
なお、マルチビュー位置指定部3及び基準位置指定部4から位置指定手段が構成されている。
The reference
The reading of the image coordinates in the reference
The multi-view
床面座標読取部5は画像データ一時保存部2に保存されているオリジナル画像n(1≦n≦8)の床面上に共通に存在しているマーキング(図2を参照)の頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を読み取る処理を実施する。なお、床面座標読取部5はマーキング位置取得手段を構成している。
水平消失点算出部6は画像データ一時保存部2に保存されているオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの水平消失点(カメラ1−nの光軸を床面に垂直な方向に投影した床面上の直線の無限遠点を撮影画像に投影した消失点)の画像座標を算出する処理を実施する。
垂直消失点算出部7は画像データ一時保存部2に保存されているオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの垂直消失点(床面に垂直な直線の無限遠点を画像に投影した消失点)の画像座標を算出する処理を実施する。
なお、水平消失点算出部6及び垂直消失点算出部7から消失点算出手段が構成されている。
The floor surface
For each original image n (1 ≦ n ≦ 8) stored in the image data
For each original image n (1 ≦ n ≦ 8) stored in the image data
The vanishing point calculating means is composed of the horizontal vanishing
平面射影変換行列算出部8はオリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)間で、床面を構成する平面の平面射影変換行列Hn1-1〜Hn1-8(1≦n1≦8の7個)を算出する処理を実施する。
また、平面射影変換行列算出部8はオリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)間で、床面を構成する平面の平面射影変換行列Hn2-1〜Hn2-8(1≦n2≦8の7個)を算出する処理を実施する。
平面射影変換行列の算出方法は、例えば、非特許文献「出口光一郎 “ロボットビジョンの基礎”p47(本文献ではホモグラフィー行列と記載されている)」に記載されている。
なお、平面射影変換行列算出部8は平面射影変換行列算出手段を構成している。
The planar projective transformation
The plane projective transformation
The calculation method of the planar projective transformation matrix is described in, for example, a non-patent document “Koichiro Deguchi“ Basics of Robot Vision ”p47 (described as a homography matrix in this document)”.
The plane projection transformation
マルチビュー位置算出部9は平面射影変換行列算出部8により算出された平面射影変換行列Hn1-1〜Hn1-8を用いて、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する処理を実施する。即ち、平面射影変換行列Hn1-1〜Hn1-8を用いて、マルチビュー位置指定部3により指定が受け付けられたマルチビュー対象の物体の床面上の位置を示す画像座標(または、マルチビュー画像座標変換部22により変換された画像座標)を、オリジナル画像n(オリジナル画像n1を除く)の画像座標に変換することにより、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する処理を実施する。
Multi-view position calculating unit 9 using the homography matrix H n1-1 ~H n1-8 calculated by planar projective transformation
基準位置算出部10は平面射影変換行列算出部8により算出された平面射影変換行列Hn2-1〜Hn2-8を用いて、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する処理を実施する。即ち、平面射影変換行列Hn2-1〜Hn2-8を用いて、基準位置指定部4により指定が受け付けられたオリジナル画像n2内の垂直基準棒の床面位置を示す画像座標を、オリジナル画像n(オリジナル画像n2を除く)の画像座標に変換する処理を実施することにより、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する処理を実施する。
なお、マルチビュー位置算出部9及び基準位置算出部10から位置算出手段が構成されている。
The reference
The multi-view position calculation unit 9 and the reference
画像内倍率算出部11はマルチビュー位置算出部9により算出されたオリジナル画像nに存在するマルチビュー対象の床面位置を示す画像座標と、基準位置算出部10により算出されたオリジナル画像nに存在する垂直基準棒の床面位置を示す画像座標と、水平消失点算出部6により算出されたオリジナル画像nの水平消失点の画像座標とを用いて、マルチビュー対象の物体を垂直基準棒と同じ奥行きの床面位置まで移動させた場合のマルチビュー対象の物体の画像内倍率(マルチビュー対象の物体の大きさの見え方の変化倍率)を算出する処理を実施する。
The in-image
カメラ水平軸歪補正パラメータ算出部12は垂直消失点算出部7により算出されたオリジナル画像nの垂直消失点から、オリジナル画像nを撮影する際のカメラ1−nの傾きに起因する水平軸歪の補正パラメータを算出する処理を実施する。
透視投影歪補正パラメータ算出部13は垂直消失点算出部7により算出されたオリジナル画像nの垂直消失点から、カメラ1−nの撮影時に3次元空間を2次元平面に透視投影することに起因する画像の透視投影歪の補正パラメータを算出する処理を実施する。
The camera horizontal axis distortion correction
The perspective projection distortion correction
1次補正画像生成部14はカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータとを用いて、オリジナル画像nの水平軸歪と透視投影歪を補正し、補正後の画像を1次補正画像n(1≦n≦8)として出力する。
基準長読取部15は1次補正画像生成部14から出力された1次補正画像n内の垂直基準棒の見かけの長さを読み取る処理を実施する。
The primary correction image generation unit 14 uses the horizontal axis distortion correction parameter calculated by the camera horizontal axis distortion correction
The reference length reading unit 15 performs a process of reading the apparent length of the vertical reference bar in the primary correction image n output from the primary correction image generation unit 14.
画像間倍率算出部16は画像内倍率算出部11により算出されたマルチビュー対象の物体の画像内倍率と、基準長読取部15により読み取られた1次補正画像n内の垂直基準棒の見かけの長さを用いて、1次補正画像n(1≦n≦8)におけるマルチビュー対象の物体を同じ大きさで表示する場合の画像間倍率を1次補正画像n毎に算出する処理を実施する。
なお、画像内倍率算出部11及び画像間倍率算出部16から画像倍率算出手段が構成されている。なおこのとき、画像間倍率を用いて、1次補正画像を拡大または縮小して大きさを補正してもよい。
The inter-image magnification calculator 16 calculates the in-image magnification of the object to be viewed by the multi-view target calculated by the in-
The in-image
2次補正画像生成部17はカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを用いて、2次透視変換を実施することにより、オリジナル画像n(1≦n≦8)の歪や大きさを補正し、補正後の画像を2次補正画像n(1≦n≦8)として出力する。
なお、カメラ水平軸歪補正パラメータ算出部12、透視投影歪補正パラメータ算出部13及び2次補正画像生成部17から歪み補正手段が構成されている。
The secondary correction image generation unit 17 includes a horizontal axis distortion correction parameter calculated by the camera horizontal axis distortion correction
The camera horizontal axis distortion correction
2次透視変換座標算出部18は2次補正画像生成部17がカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを用いて、2次透視変換を実施した場合のマルチビュー対象の物体の画像座標(マルチビュー対象の物体の移動先の画像座標)を算出する処理を実施する。
移動パラメータ算出部19は2次透視変換座標算出部18により算出されたマルチビュー対象の物体の移動先の画像座標と、画像中心とのずれを移動パラメータとして算出する処理を実施する。
The secondary perspective transformation coordinate
The movement
マルチビュー画像生成部20は移動パラメータ算出部19により算出された移動パラメータにしたがって、2次補正画像生成部17から出力された2次補正画像n(1≦n≦8)を移動させることにより、マルチビュー対象の物体が画像の中心に存在するマルチビュー画像n(1≦n≦8)を生成する処理を実施する。
なお、2次透視変換座標算出部18、移動パラメータ算出部19及びマルチビュー画像生成部20から画像変換手段が構成されている。
The multi-view
The secondary perspective transformation coordinate
マルチビュー位置指定部21はマルチビュー画像生成部20により生成されたマルチビュー画像n(1≦n≦8)に対して、新たなマルチビューの位置の指定を受け付ける処理を実施する。
マルチビュー画像座標変換部22は移動パラメータ算出部19により算出された移動パラメータの逆移動パラメータと、2次透視変換座標算出部18により算出された2次透視変換の逆変換と、平面射影変換行列算出部8により算出された平面射影変換行列の逆変換行列とを用いて、マルチビュー位置指定部21により指定が受け付けられたマルチビュー画像n(1≦n≦8)上の座標位置を、オリジナル画像n(1≦n≦8)上の座標位置に変換する処理を実施する。
The multi-view
The multi-view image coordinate
図2は8台のカメラ1−n(1≦n≦8)を使用して画像を撮影している様子を示す説明図であり、図3はカメラ1−1,1−3,1−5,1−7により撮影された画像を示す説明図である。 FIG. 2 is an explanatory diagram showing a situation where images are taken using eight cameras 1-n (1 ≦ n ≦ 8), and FIG. 3 shows cameras 1-1, 1-3, and 1-5. , 1-7.
次に動作について説明する。
この実施の形態1では、図2に示すように、水平な平面で構成される床面を考え、その床面に「ぬいぐるみ」や「花瓶」を置き、「ぬいぐるみ」や「花瓶」の周囲を囲むように、ほぼ同じ大きさの三脚に固定された8台のカメラ1−n(1≦n≦8)を並べるものとする。
ただし、8台のカメラ1−n(1≦n≦8)の全てが、図2に示している「全カメラの視野に入る床面領域」を撮影できる位置に設置されているものとする。
図2では、8台のカメラ1−nの設置形態や「全カメラの視野に入る床面領域」を、円形又は楕円形の点線で示しているが、実際にはこの点線は存在しなくてよい。
Next, the operation will be described.
In the first embodiment, as shown in FIG. 2, a floor surface composed of a horizontal plane is considered, and a “stuffed animal” or “vase” is placed on the floor surface, and the surroundings of the “stuffed animal” or “vase” are arranged. It is assumed that eight cameras 1-n (1 ≦ n ≦ 8) fixed on a tripod of substantially the same size are arranged so as to surround.
However, it is assumed that all of the eight cameras 1-n (1 ≦ n ≦ 8) are installed at positions where the “floor surface area within the field of view of all cameras” shown in FIG.
In FIG. 2, the installation form of the eight cameras 1-n and the “floor area that falls within the field of view of all cameras” are indicated by a circular or elliptical dotted line. However, this dotted line does not actually exist. Good.
また、図2の例では、「全カメラの視野に入る床面領域」の枠一杯に収まる四角形のマーキングが施されており、8台のカメラ1−n(1≦n≦8)の全てが「ぬいぐるみ」や「花瓶」に邪魔されずにマーキングの4つの角を撮影できる状態にあるものとする。
図2の例では、四角形のマーキングを利用するものについて示しているが、4点以上を撮影できるものであれば、四角形のマーキングに限るものではない。
また、8台のカメラ1−nが4点を同時に撮影するものとしているが、少なくとも4つ以上の同じ点が、異なる2つのカメラで同時に撮影できればよく、4角形の4角でなくてよい。
Further, in the example of FIG. 2, a square marking that fits the frame of “a floor area that falls within the field of view of all cameras” is provided, and all eight cameras 1-n (1 ≦ n ≦ 8) It is assumed that the four corners of the marking can be photographed without being disturbed by “stuffed animals” or “vases”.
In the example of FIG. 2, a case using a quadrangular marking is shown, but it is not limited to a quadrangular marking as long as four or more points can be photographed.
In addition, although eight cameras 1-n are supposed to photograph four points simultaneously, it is sufficient that at least four or more of the same points can be photographed simultaneously by two different cameras, and it is not necessary to be a quadrangular quadrangular.
図2において、垂直基準棒は「全カメラの視野に入る床面領域」の中央付近に垂直に立てられた棒であり、全体の長さの2分の1の位置にマーキングが施されている。
この垂直基準棒の最上位の頂点と、中央のマーキングと、床面と接している接点は、8台のカメラ1−n(1≦n≦8)の全てが「ぬいぐるみ」や「花瓶」に邪魔されずに撮影できる状態にあるものとする。
また、この垂直基準棒は十分細く、カメラ1−n(1≦n≦8)により撮影された場合、直線と見なすことができるものとする。
In FIG. 2, the vertical reference bar is a bar that stands vertically near the center of the “floor area that enters the field of view of all cameras”, and is marked at a position that is half the total length. .
The topmost vertex of the vertical reference bar, the center marking, and the contact point in contact with the floor surface are all the eight cameras 1-n (1 ≦ n ≦ 8) are used as “stuffed animals” and “vases”. It is assumed that the camera can be photographed without interruption.
The vertical reference rod is sufficiently thin and can be regarded as a straight line when photographed by the camera 1-n (1 ≦ n ≦ 8).
図2の例では、垂直基準棒は、異なる方向毎に撮影された場合の大きさの読み取りと、平面に垂直な直線の無限遠点を画像に投影した消失点を算出することを目的に利用されるものである。
垂直基準棒は、精度を高めるため、上記のような形態をしているが、垂直基準棒を大きさの読み取りのみに使用し、消失点の算出には、後で述べるような別の方法で算出するようにしてもよい。この場合、垂直基準棒は、上記のような形態でなくてもよく、例えば、実際の人などで代用してもよい。
In the example of FIG. 2, the vertical reference rod is used for the purpose of reading the size when taken in different directions and calculating the vanishing point obtained by projecting the infinity point of a straight line perpendicular to the plane onto the image. It is what is done.
The vertical reference bar is shaped as described above to improve accuracy, but the vertical reference bar is used only for reading the size, and the vanishing point is calculated by another method as described later. You may make it calculate. In this case, the vertical reference rod does not have to have the form as described above, and may be substituted by, for example, an actual person.
図2の垂直基準棒は、全体の長さの2分の1の位置にマーキングが施されているが、2分の1の位置でなくてもよく、その比率が分っていればよい。
また、図2の垂直基準棒は、「全カメラの視野に入る床面領域」の中央付近に立てられているが、中央付近でなくてよい。
また、図2の垂直基準棒は、最上位の頂点と、床面と接している接点と、中央のマーキングが、全てのカメラ1−n(1≦n≦8)から撮影可能としているが、必ずしも同じ垂直基準棒が撮影可能でなくてもよい。例えば、カメラ1−1とカメラ1−2で共通に撮影された垂直基準棒Aと、カメラ1−1とカメラ1−3で共通に撮影された垂直基準棒Bとが同じでなくてもよい。この場合は、カメラ1−1において、垂直基準棒Aの大きさと、垂直基準棒Bの大きさが分ればよい。なお、この実施例では、垂直方向や大きさの基準として、棒である垂直基準棒を利用した。この場合、いったん設置してしまえば形が崩れにくく、直線を測定しやすいという利点がある。一方、この用途として、棒ではなく、紐などを利用しても良い。この場合、先端に錘などをつけ、それを垂直に垂らして、先端が床に接するようにすればよい。この場合、垂直方向の制度が高く、また長さを調整しやすいという効果がある。
The vertical reference bar in FIG. 2 is marked at a position of a half of the entire length, but may not be a position of a half, and it is sufficient that the ratio is known.
Further, the vertical reference bar in FIG. 2 is set near the center of the “floor surface area that enters the field of view of all cameras”, but it may not be near the center.
In addition, the vertical reference bar in FIG. 2 can be photographed from all the cameras 1-n (1 ≦ n ≦ 8), with the topmost vertex, the contact point in contact with the floor surface, and the central marking, It is not always necessary to photograph the same vertical reference rod. For example, the vertical reference bar A photographed in common by the camera 1-1 and the camera 1-2 and the vertical reference stick B photographed in common by the camera 1-1 and the camera 1-3 may not be the same. . In this case, it is only necessary to know the size of the vertical reference rod A and the size of the vertical reference rod B in the camera 1-1. In this embodiment, a vertical reference bar, which is a bar, is used as a reference for the vertical direction and size. In this case, once installed, there is an advantage that the shape is not easily lost and it is easy to measure a straight line. On the other hand, a string or the like may be used for this purpose instead of a stick. In this case, a weight or the like is attached to the tip, and it is hung vertically so that the tip contacts the floor. In this case, the vertical system is high and the length can be easily adjusted.
図2では、カメラ1−7用の水平基準棒が描かれている。
水平基準棒は、例えば、対象とするカメラ(図3の例では、カメラ1−7)の光軸が、床面に垂直な方向に沿って平面に投影した直線に平行となるように床面に設置されている。
また、水平基準棒の長さの2分の1の箇所にマーキングが施されている。この水平基準棒の両端と中央のマーキングは、カメラ1−7から「ぬいぐるみ」や「花瓶」に邪魔されず、撮影できる状態にあるものとする。
また、この水平基準棒は十分細く、カメラ1−7により撮影された場合、直線と見なすことができるものとする。
また、この水平基準棒は、全体の長さの2分の1の位置にマーキングが施されているが、2分の1の位置でなくてもよく、その比率が分っていればよい。また、水平基準棒は、例えば「カメラの光軸を床面に垂直な方向に沿って床面に投影した直線に平行になるよう、床面に設置されている」としたが、この場合、精度が向上しやすいという効果がある。このほか、水平基準棒は、どちらの方向でもよく、その水平基準棒を含む床面上の直線の無限遠点を、画像に投影した消失点を利用すればよい。この場合、カメラごとに、水平基準棒を移動させなくて良いという効果がある。さらに図2に示したように、「床面にマーキングされた四角形の辺」を利用しても良い。さらに、この四角形を正方形や長方形、平行四辺形としておき、その向かい合った2つの辺を用いて床面上の直線の無限遠点を求め、それを画像に投影した消失点を利用しても良い。
なお、この実施例では、水平基準棒という棒を水平方向の基準として利用したが、上記で記載した「垂直基準棒の替わりに紐を用いる例」のように、紐などで代替しても良い。その場合、紐が直線状になるよう張力をかけておく必要があるが、一方で垂直基準棒を紐で大体した場合と同じような利点がある。
In FIG. 2, a horizontal reference bar for the camera 1-7 is drawn.
The horizontal reference bar is, for example, a floor surface so that the optical axis of the target camera (camera 1-7 in the example of FIG. 3) is parallel to a straight line projected onto a plane along a direction perpendicular to the floor surface. Is installed.
In addition, marking is provided at a half of the length of the horizontal reference bar. It is assumed that the markings at both ends and the center of the horizontal reference bar are ready to be photographed without being disturbed by the “stuffed toy” or “vase” from the camera 1-7.
The horizontal reference rod is sufficiently thin and can be regarded as a straight line when photographed by the camera 1-7.
In addition, the horizontal reference bar is marked at a position that is a half of the entire length, but it may not be a position that is a half, and it is sufficient that the ratio is known. In addition, the horizontal reference rod is, for example, “installed on the floor so that the optical axis of the camera is parallel to a straight line projected onto the floor along a direction perpendicular to the floor”. There is an effect that the accuracy is easily improved. In addition, the horizontal reference bar may be in either direction, and a vanishing point obtained by projecting a straight infinity point on the floor surface including the horizontal reference bar onto the image may be used. In this case, there is an effect that it is not necessary to move the horizontal reference bar for each camera. Furthermore, as shown in FIG. 2, “a square side marked on the floor” may be used. Furthermore, this quadrangle may be a square, a rectangle, or a parallelogram, and an infinite point of a straight line on the floor surface may be obtained using the two sides facing each other, and a vanishing point obtained by projecting it on the image may be used. .
In this embodiment, a horizontal reference bar is used as a horizontal reference. However, as described above, an example using a string instead of a vertical reference bar may be used instead of a string. . In that case, it is necessary to apply tension so that the string becomes linear, but on the other hand, there is an advantage similar to the case where the vertical reference bar is roughly made of a string.
この実施の形態1では、カメラ1−1〜1−8は、外部からの同じ同期タイミングによってシャッターを切り、また、同じ同期タイミングのフレームによって画像を撮影する。
このような同期したタイミングによる撮影は、被写体が動く場合には必須であるが、例えば、「ぬいぐるみ」や「花瓶」、水平基準棒/垂直基準棒、床面のマーキングなどが動かない場合は、同期していなくてもよい。その場合は、カメラ1−1〜1−8を8台用意しないで、1台のカメラで順次撮影してもよい。
また、この実施の形態1では、「ぬいぐるみ」や「花瓶」などのマルチビューしたい被写体と、マルチビューするために必要なパラメータを得るための水平基準棒/垂直基準棒、床面のマーキングなどを撮影した後、カメラを移動させないままそれらを撤去して「ぬいぐるみ」などのマルチビューしたい被写体を設置して撮影してもよい。この場合、カメラを動かさないよう注意する必要があるが、一方で基準棒や床面のマーキングが、マルチビューしたい被写体に遮られること無く撮影できるという利点がある。
In the first embodiment, the cameras 1-1 to 1-8 release the shutter at the same synchronization timing from the outside, and shoot an image with a frame at the same synchronization timing.
Shooting with such synchronized timing is essential when the subject moves. For example, if the stuffed animal, vase, horizontal reference bar / vertical reference bar, floor marking, etc. do not move, It does not have to be synchronized. In that case, it is possible to sequentially shoot with one camera without preparing eight cameras 1-1 to 1-8.
In the first embodiment, a subject to be multi-viewed such as “stuffed toy” or “vase”, a horizontal reference bar / vertical reference bar for obtaining parameters necessary for multi-viewing, floor surface marking, etc. After taking a picture, they may be removed without moving the camera, and a subject to be multi-viewed such as “stuffed toy” may be placed and photographed. In this case, care must be taken not to move the camera, but on the other hand, there is an advantage that the reference bar and the marking on the floor surface can be taken without being obstructed by the subject to be multiviewed.
以下、画像生成装置の処理内容を具体的に説明する。
カメラ1−n(1≦n≦8)が相互に異なる方向から同一の3次元領域を撮影すると、画像データ一時保存部2がカメラ1−n(1≦n≦8)により撮影されたオリジナル画像n(1≦n≦8)を一時的に保存する。
Hereinafter, the processing content of the image generation apparatus will be specifically described.
When the camera 1-n (1 ≦ n ≦ 8) captures the same three-dimensional area from different directions, the image data
マルチビュー位置指定部3は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)の中から任意のオリジナル画像n1の選択を受け付け、そのオリジナル画像n1に存在するマルチビュー対象の物体(ユーザがマルチビューを希望する物体)の床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
マルチビュー位置指定部3における画像座標の読み取りは、ユーザがオリジナル画像n1を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
When the image data
The image coordinates are read by the multi-view
また、基準位置指定部4は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)の中から任意のオリジナル画像n2の選択を受け付け、そのオリジナル画像n2に存在する垂直基準棒が床面に垂直に接している床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
基準位置指定部4における画像座標の読み取りは、ユーザがオリジナル画像n2を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
床面座標読取部5は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)の床面上に共通に存在しているマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を読み取る処理を実施する。
床面座標読取部5における画像座標の読み取りは、ユーザがオリジナル画像nを見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
Further, when the image data
The reading of the image coordinates in the reference
When the image data
The reading of the image coordinates in the floor surface coordinate reading
また、水平消失点算出部6は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの水平消失点、即ち、例えば、カメラ1−nの光軸を床面に垂直な方向に投影した床面上の直線の無限遠点を撮影画像に投影した消失点の画像座標を算出する。
水平消失点の算出方法としては、例えば、上記床面の上記条件を満たす直線上におかれた水平基準棒を使用して求めることができる。
即ち、水平基準棒には、マーキングが施されており、そのマーキングの実際の位置と、画像上の見かけの位置から水平消失点を求めることができる(水平消失点の詳細な求め方は、垂直消失点の求め方と同様であるため、後述する垂直消失点の求め方を参照)。
この他、上記床面上の直線に平行な直線を2つ以上設定して、それらの直線を画像に投影した場合の交点を消失点として利用することもできる。
In addition, when the image data
As a method of calculating the horizontal vanishing point, for example, it can be obtained by using a horizontal reference bar placed on a straight line that satisfies the above-mentioned conditions of the floor surface.
That is, the horizontal reference bar is marked, and the horizontal vanishing point can be obtained from the actual position of the marking and the apparent position on the image. Since this is the same as the method for obtaining the vanishing point, see the method for obtaining the vertical vanishing point described later).
In addition, it is also possible to set two or more straight lines parallel to the straight line on the floor and use the intersection point when these straight lines are projected on the image as vanishing points.
垂直消失点算出部7は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの垂直消失点、即ち、床面に垂直な直線の無限遠点を画像に投影した消失点の画像座標を算出する。
以下、垂直消失点の算出方法の一例を説明する。
この実施の形態1では、全てのオリジナル画像n(1≦n≦8)に垂直基準棒が存在しており、垂直基準棒は、図6に示すように、その長さ方向の中央にマーキングが施されている。
垂直基準棒が図6に示すように画像に投影されている場合において、垂直基準棒上の3点X1、X2、X3と、3点X1、X2、X3を通る直線上の無限遠点X∞が、画像において、それぞれx1、x2、x3、x∞に投影されたものとする。
When the image data
Hereinafter, an example of a method for calculating the vertical vanishing point will be described.
In the first embodiment, a vertical reference bar exists in all original images n (1 ≦ n ≦ 8), and the vertical reference bar has a marking at the center in the length direction as shown in FIG. It has been subjected.
When the vertical reference bar is projected on the image as shown in FIG. 6, the three points X1, X2, and X3 on the vertical reference bar and the infinity point X ∞ on the straight line passing through the three points X1, X2, and X3. but in the image, respectively x1, x2, x3, and those projected to x ∞.
このとき、このような直線上の4点から計算される複比は、投影前後では不変であるので、以下の式(1)が成立する。
また、|x1−x2|/|x1−x3|は、画像座標から得ることができるので、垂直消失点x∞の座標(xvin,yvin)を算出することができる。
詳細は非特許文献「小島他 “消失点を用いた多視点カメラキャリブレーション”FIT2004」に開示されている。
この他、上記床面に垂直な直線(棒などで代用する)を2つ以上設定して、それらの直線を画像に投影した場合の2つの直線の交点を垂直消失点として利用することもできる。
At this time, since the cross ratio calculated from the four points on the straight line is unchanged before and after the projection, the following equation (1) is established.
Since | x 1 −x 2 | / | x 1 −x 3 | can be obtained from the image coordinates, the coordinates (x vin , y vin ) of the vertical vanishing point x ∞ can be calculated.
Details are disclosed in the non-patent document “Kojima et al.“ Multi-viewpoint camera calibration using vanishing points ”FIT 2004”.
In addition, it is possible to set two or more straight lines (substitute with a bar or the like) perpendicular to the floor surface and use the intersection of the two straight lines as a vertical vanishing point when these straight lines are projected on an image. .
平面射影変換行列算出部8は、床面座標読取部5がオリジナル画像n(1≦n≦8)の床面上に共通に存在しているマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を読み取ると、オリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)間で、床面を構成する平面の平面射影変換行列Hn1-1〜Hn1-8(1≦n1≦8の7個)を算出する。
また、平面射影変換行列算出部8は、オリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)間で、床面を構成する平面の平面射影変換行列Hn2-1〜Hn2-8(1≦n2≦8の7個)を算出する。
なお、平面射影変換行列の算出方法は、例えば、非特許文献「出口光一郎 “ロボットビジョンの基礎”p47(本文献ではホモグラフィー行列と記載されている)」に記載されている。
The planar projective transformation
Further, the plane projective transformation
The calculation method of the planar projective transformation matrix is described in, for example, the non-patent document “Koichiro Deguchi“ Basics of Robot Vision ”p47 (described as a homography matrix in this document)”.
マルチビュー位置算出部9は、平面射影変換行列算出部8が平面射影変換行列Hn1-1〜Hn1-8を算出すると、その平面射影変換行列Hn1-1〜Hn1-8を用いて、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する。
即ち、マルチビュー位置算出部9は、平面射影変換行列Hn1-1〜Hn1-8を用いて、マルチビュー位置指定部3により指定が受け付けられたマルチビュー対象の物体の床面上の位置を示す画像座標、または、マルチビュー画像座標変換部22により変換された画像座標を、オリジナル画像n(オリジナル画像n1を除く)の画像座標に変換することにより、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する。
なお、マルチビュー位置指定部3により指定が受け付けられたマルチビュー対象の物体の床面上の位置を示す画像座標を変換するか、あるいは、マルチビュー画像座標変換部22により変換された画像座標を変換するかは、例えば、システムの起動時のみ、前者を選択するようにしてもよいし、両者を常に監視しておいて、変化があった方を選択するようにしてもよい。
When the plane projection transformation
That is, the multi-view position calculation unit 9 uses the plane projection transformation matrices H n1-1 to H n1-8 to determine the position on the floor of the object to be multi-viewed that has been designated by the multi-view
Note that the image coordinates indicating the position on the floor surface of the object of the multi-view target that has been designated by the multi-view
基準位置算出部10は、平面射影変換行列算出部8が平面射影変換行列Hn2-1〜Hn2-8を算出すると、その平面射影変換行列Hn2-1〜Hn2-8を用いて、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する。
即ち、基準位置算出部10は、平面射影変換行列Hn2-1〜Hn2-8を用いて、基準位置指定部4により指定が受け付けられたオリジナル画像n2内の垂直基準棒の床面位置を示す画像座標を、オリジナル画像n(オリジナル画像n2を除く)の画像座標に変換することにより、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する。
When the plane projection transformation
That is, the reference
ここまでは、マルチビュー位置指定部3により選択が受け付けられたオリジナル画像がオリジナル画像n1であり、基準位置指定部4により選択が受け付けられたオリジナル画像がオリジナル画像n2であるものについて示したが、オリジナル画像n1とオリジナル画像n2が別々の画像でも、同一の画像でもよい。
オリジナル画像n1とオリジナル画像n2が同一のオリジナル画像であれば(n1=n2)、平面射影行列は、Hn1-1〜Hn1-8(1≦n1≦8)の7個のみでよい。
以後、n1=n2である場合について説明する。
Up to this point, the original image whose selection has been received by the multi-view
If the original image n 1 and the original image n 2 are the same original image (n 1 = n 2 ), there are seven plane projection matrices H n1-1 to H n1-8 (1 ≦ n 1 ≦ 8). Only need.
Hereinafter, a case where n 1 = n 2 will be described.
画像内倍率算出部11は、マルチビュー位置算出部9がオリジナル画像n(1≦n≦8)に存在するマルチビュー対象の床面位置を示す画像座標を算出し、基準位置算出部10がオリジナル画像nに存在する垂直基準棒の床面上の位置を示す画像座標を算出すると、それらの画像座標と、水平消失点算出部6により算出されたオリジナル画像nの水平消失点の画像座標とを用いて、マルチビュー対象の物体を垂直基準棒と同じ奥行きの床面位置まで移動させた場合のマルチビュー対象の物体の画像内倍率mn(マルチビュー対象の物体の大きさの見え方の変化倍率)を算出する。
The in-image
以下、画像内倍率の算出方法を説明する。
図4は水平消失点が画像中心にある場合で、カメラの光軸が床面に平行になるように、かつ、カメラ画像の横軸がほぼ床面に平行になるように設置されている例を示す説明図である。
また、図5は水平消失点が画像の中心より上方にある場合で、カメラ画像の横軸がほぼ床面に平行であるが、カメラの光軸を水平な床面に対して、やや下向きにして撮影している例を示す説明図である。
Hereinafter, a method for calculating the in-image magnification will be described.
FIG. 4 shows an example in which the horizontal vanishing point is at the center of the image, and the camera is installed so that the optical axis of the camera is parallel to the floor and the horizontal axis of the camera image is substantially parallel to the floor. It is explanatory drawing which shows.
FIG. 5 shows a case where the horizontal vanishing point is above the center of the image, and the horizontal axis of the camera image is substantially parallel to the floor surface, but the optical axis of the camera is slightly downward with respect to the horizontal floor surface. It is explanatory drawing which shows the example currently image | photographed.
図4及び図5において、水平消失点の座標を(xhin,yhin)、マルチビュー対象の物体の位置座標を(xmv,ymv)、垂直基準棒と同じ奥行きの位置座標を(xb,yb)とすると、マルチビュー対象の物体を垂直基準棒の位置に移動させた場合、マルチビュー対象の物体の大きさは以下の式(2)のように近似することができる。したがって、以下の式(2)から画像内倍率mnを算出することができる。
また、これらの垂直基準棒の位置や大きさ、および水平消失点の位置を図4や図5に示すように利用することで、被写体である物体の大きさや人物の身長などを精度よく推定することができる。またそれらの物体や人物の大きさがわかっている場合、その物体や人物が存在する床面上の位置を容易に知ることができる。
4 and 5, the coordinates of the horizontal vanishing point are (x hin , y hin ), the position coordinates of the multi-view target object are (x mv , y mv ), and the position coordinates of the same depth as the vertical reference bar are (x Assuming that b , y b ), the size of the multi-view target object can be approximated by the following equation (2) when the multi-view target object is moved to the position of the vertical reference bar. Therefore, the in-image magnification m n can be calculated from the following equation (2).
Further, by using the position and size of these vertical reference bars and the position of the horizontal vanishing point as shown in FIG. 4 and FIG. 5, the size of the object that is the subject, the height of the person, etc. can be accurately estimated. be able to. In addition, when the sizes of these objects and persons are known, it is possible to easily know the position on the floor where the objects and persons exist.
カメラ水平軸歪補正パラメータ算出部12は、垂直消失点算出部7がオリジナル画像n(1≦n≦8)の垂直消失点x∞の座標(xvin,yvin)を算出すると、オリジナル画像nの垂直消失点x∞の座標(xvin,yvin)を用いて、オリジナル画像nを撮影する際のカメラ1−nの傾きに起因する水平軸歪の補正パラメータを算出する。
即ち、カメラ水平軸歪補正パラメータ算出部12は、例えば、図6に示すような画像の垂直軸に対して、画像の中心点B(xsize/2,ysize/2)と垂直消失点x∞とを結ぶ直線の傾き(角度rz)をカメラ水平軸歪と近似できると見なして、その角度rzを算出する。
例えば、オリジナル画像の横サイズがxsize、縦サイズがysizeであり、垂直消失点x∞の座標が(xvin,yvin)であって、yvin≫xsize、yvin≫ysizeであるとすると、以下の式(3)が成立する。
That is, for example, the camera horizontal axis distortion correction
For example, the horizontal size of the original image is x size , the vertical size is y size , the coordinates of the vertical vanishing point x ∞ are (x vin , y vin ), and y vin >> x size , y vin >> y size If there is, the following equation (3) is established.
ここでは、画像の垂直軸に対して、画像の中心点B(xsize/2,ysize/2)と垂直消失点x∞とを結ぶ直線の傾き(角度rz)をカメラ水平軸歪と近似できると見なして、その角度rzを算出するものについて示したが、画像の垂直軸に対して、画像の上端の中点(xsize/2,0)や、画像の下端の中点(xsize/2,ysize)とを結ぶ直線の傾きをカメラ水平軸歪と近似できると見なしてもよい。
さらに、近似ではなく、正確な角度を算出して利用してもよい。
また、これ以外の画像の上端の中点(xsize/2,0)と、画像の下端の中点(xsize/2,ysize)を結ぶ直線上の点を用いてもよく、これ以外の画像内部の点を用いてもよい。さらには、画像を含む平面上の点を利用してもよい。
Here, with respect to the vertical axis of the image, the inclination (angle rz) of the straight line connecting the center point B (x size / 2, y size / 2) of the image and the vertical vanishing point x ∞ is approximated to the camera horizontal axis distortion. Assuming that it is possible to calculate the angle rz, the center point of the upper end of the image (x size / 2, 0) and the center point of the lower end of the image (x size are shown). / 2, y size ) may be regarded as being able to approximate the camera horizontal axis distortion.
Furthermore, instead of approximation, an accurate angle may be calculated and used.
Also, the other image of the upper end of the middle point (x size / 2,0), the midpoint of the lower end of the image (x size / 2, y size ) may be used a point on a line connecting the, other A point inside the image may be used. Furthermore, you may utilize the point on the plane containing an image.
透視投影歪補正パラメータ算出部13は、垂直消失点算出部7がオリジナル画像n(1≦n≦8)の垂直消失点x∞の座標(xvin,yvin)を算出すると、垂直消失点x∞の座標(xvin,yvin)を用いて、カメラ1−nの撮影時に3次元空間を2次元平面に透視投影することに起因する画像の透視投影歪の補正パラメータを算出する。
透視投影歪は、カメラで撮影することにより生じたと考えられる歪、即ち、3次元空間内の物体を平面に射影変換したことによって発生したと考えられる歪であり、例えば、3次元空間において、水平な床面に対して垂直な直線が複数ある場合、それらの直線を画像に透視投影した場合、画像上では直線が互いに平行でなくなる現象である。
The perspective projection distortion correction
The perspective projection distortion is a distortion that is considered to be caused by photographing with a camera, that is, a distortion that is considered to be generated by projective transformation of an object in a three-dimensional space to a plane. This is a phenomenon in which when there are a plurality of straight lines perpendicular to the floor surface and the straight lines are projected on the image, the straight lines are not parallel to each other on the image.
透視投影歪補正パラメータ算出部13では、図6に示すように、先にカメラ水平軸歪を補正した画像に対して、画像の中心点B(xsize/2,ysize/2)を含む画像の水平ラインの第1画素(0,ysize/2)と垂直消失点とを結ぶ直線と、カメラ水平軸歪を補正した後の画像の垂直軸とのなす角(角度rx)で透視投影歪が近似できると見なして、その角度rxを算出する。
例えば、オリジナル画像の横サイズがxsize、縦サイズがysizeであり、垂直消失点x∞の座標が(xvin,yvin)であって、yvin≫xsize、yvin≫ysizeであるとすると、以下の式(4)が成立する。
For example, the horizontal size of the original image is x size , the vertical size is y size , the coordinates of the vertical vanishing point x ∞ are (x vin , y vin ), and y vin >> x size , y vin >> y size If there is, the following equation (4) is established.
ここでは、水平軸歪の補正角度rzが十分小さいものとして、透視投影歪の補正角度rxを、「画像の中心点B(xsize/2,ysize/2)を含む画像の水平ラインの第1画素(0,ysize/2)における垂直軸の傾き(角度rx)で透視投影歪が近似できる」と見なしているが、図6に示すように、直線BX∞に垂直な画像の中心点を通る直線上の点の座標を利用してもよい。
また、「画像の中心点B(xsize/2,ysize/2)を含む画像の水平ラインの第xsize画素(xsize,ysize/2)における垂直軸の傾きで透視投影歪が近似できる」としてもよく、その他の画像の左右両端上の点を結ぶ直線を利用してもよく、これ以外の画像内の点を結ぶ直線を利用してもよい。
さらに、近似ではなく、正確な角度を算出して利用してもよい。
Here, assuming that the horizontal axis distortion correction angle rz is sufficiently small, the perspective projection distortion correction angle rx is defined as “the first horizontal line of the image including the center point B (x size / 2, y size / 2) of the image”. It is assumed that the perspective projection distortion can be approximated by the inclination (angle rx) of the vertical axis at one pixel (0, y size / 2). However, as shown in FIG. 6, the center point of the image perpendicular to the straight line BX ∞ The coordinates of a point on a straight line passing through may be used.
Further, “the perspective projection distortion is approximated by the inclination of the vertical axis at the x size pixel (x size , y size / 2) of the horizontal line of the image including the center point B (x size / 2, y size / 2) of the image. Can be used ", a straight line connecting points on the left and right ends of another image may be used, or a straight line connecting points in the other image may be used.
Furthermore, instead of approximation, an accurate angle may be calculated and used.
1次補正画像生成部14は、カメラ水平軸歪補正パラメータ算出部12が水平軸歪の補正パラメータを算出し、透視投影歪補正パラメータ算出部13が透視投影歪の補正パラメータを算出すると、その水平軸歪の補正パラメータと透視投影歪の補正パラメータとを用いて、オリジナル画像nの水平軸歪と透視投影歪を補正し、補正後の画像を1次補正画像n(1≦n≦8)として出力する。
即ち、1次補正画像生成部14は、図7に示すように、3次元座標の原点を画像中心とし、かつ、その画像がXY平面に含まれるように3次元座標軸を設定し、透視投影のスクリーンをZ軸に垂直な平面上に設定し、また、視点をZ軸上に設定する場合を考える。
このとき、画像をZ軸の周りにrz回転し、X軸の周りにrx回転した場合のスクリーンへの透視投影像を算出し、これを1次補正画像として出力する。
このとき、rzはカメラ水平歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータであり、rxは透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータである。
When the camera horizontal axis distortion correction
That is, as shown in FIG. 7, the primary corrected image generation unit 14 sets the three-dimensional coordinate axis so that the origin of the three-dimensional coordinate is the image center and the image is included in the XY plane, and performs perspective projection. Consider a case where the screen is set on a plane perpendicular to the Z axis and the viewpoint is set on the Z axis.
At this time, the image is rotated by rz around the Z axis, and a perspective projection image on the screen when the image is rotated by rx around the X axis is calculated and output as a primary correction image.
At this time, rz is a horizontal axis distortion correction parameter calculated by the camera horizontal distortion correction
図8は図7の3次元座標をX軸の正方向から見た説明図である。
図8の例では、カメラ水平軸歪補正パラメータ算出部12が画像中心における水平軸歪の補正パラメータを算出し、透視投影歪補正パラメータ算出部13が画像中心を含む画像の水平軸上の点における透視変換歪補正パラメータを算出し、1次補正画像生成部14が画像中心を原点とする透視投影変換を実施するが、画像中心でない点の水平軸歪の補正パラメータと透視変換歪の補正パラメータを算出しておき、その画像中心でない点を原点とする透視投影変換を実施してもよい。また、両者を一致させないで、透視変換を行ってもよい。
FIG. 8 is an explanatory view of the three-dimensional coordinates of FIG. 7 viewed from the positive direction of the X axis.
In the example of FIG. 8, the camera horizontal axis distortion correction
基準長読取部15は、1次補正画像生成部14が1次補正画像n(1≦n≦8)を出力すると、その1次補正画像n内の垂直基準棒の見かけの長さLnを読み取る。このとき、ユーザが1次補正画像nを見ながら読み取ってもよいし、何らかの方法で自動的に読み取ってもよい。
ここでは、1次補正画像n内の垂直基準棒の見かけの長さLnを読み取るものについて示したが、オリジナル画像n内の垂直基準棒の見かけの長さLnを読み取るようにしてもよい。
この場合、処理が単純になるため、処理速度の向上を図ることができる効果がある。
画像間倍率算出部16は、基準長読取部15が1次補正画像n内の垂直基準棒の見かけの長さLnを読み取ると、1次補正画像n内の垂直基準棒の見かけの長さLnと、画像内倍率算出部11により算出されたマルチビュー対象の物体の画像内倍率mnとを用いて、1次補正画像n(1≦n≦8)におけるマルチビュー対象の物体を同じ大きさで表示する場合の画像間倍率mo1nを1次補正画像n毎に算出する。
When the primary correction image generation unit 14 outputs the primary correction image n (1 ≦ n ≦ 8), the reference length reading unit 15 determines the apparent length L n of the vertical reference bar in the primary correction image n. read. At this time, the user may read while viewing the primary correction image n, or may automatically read by some method.
Here, the reading of the apparent length L n of the vertical reference bar in the primary correction image n is shown, but the apparent length L n of the vertical reference bar in the original image n may be read. .
In this case, since the process becomes simple, there is an effect that the processing speed can be improved.
When the reference length reading unit 15 reads the apparent length L n of the vertical reference bar in the primary correction image n, the inter-image magnification calculation unit 16 apparent length of the vertical reference bar in the primary correction image n The same multi-view target object in the primary correction image n (1 ≦ n ≦ 8) is used by using L n and the intra-image magnification m n of the multi-view target object calculated by the intra-image
式(5)のL1は、倍率molnを適当な範囲に収めるために使用される定数であるため、実際の基準棒の見かけの長さそのものでなくてもよく、全てのオリジナル画像nで同じであればよい。
Since L 1 in equation (5) is a constant used to keep the magnification moln within an appropriate range, it does not have to be the apparent length of the actual reference bar itself, and in all original images n If it is the same.
2次補正画像生成部17は、画像間倍率算出部16が画像間倍率mo1nを1次補正画像n毎に算出すると、その画像間倍率mo1nと、カメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータとを用いて、2次透視変換を実施することにより、オリジナル画像n(1≦n≦8)の歪や大きさを補正し、補正後の画像を2次補正画像n(1≦n≦8)として出力する。
即ち、2次補正画像生成部17は、1次補正画像生成部14と同様に、3次元座標軸を設定して、スクリーン上に透視変換画像を生成し、2次補正画像として出力する。
このとき、1次補正画像生成部14では、Z軸の回転rzとX軸の回転rx以外のパラメータである画像の倍率(スクリーン上に透視変換された画像の倍率)が1倍であるものを示したが、この2次補正画像生成部17では、上記スクリーン上の倍率をmo1nとしている。
When the inter-image magnification calculation unit 16 calculates the inter-image magnification m o1n for each primary correction image n, the secondary correction image generation unit 17 uses the inter-image magnification m o1n and the camera horizontal axis distortion correction
That is, like the primary correction image generation unit 14, the secondary correction image generation unit 17 sets a three-dimensional coordinate axis, generates a perspective transformation image on the screen, and outputs it as a secondary correction image.
At this time, the primary correction image generation unit 14 has an image magnification (magnification of the image perspective-transformed on the screen) which is a parameter other than the Z-axis rotation rz and the X-axis rotation rx being 1 ×. As shown, the secondary correction image generation unit 17 sets the magnification on the screen to m o1n .
2次透視変換座標算出部18は、2次補正画像生成部17がカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを用いて、2次透視変換を実施した場合のマルチビュー対象の物体の画像座標(マルチビュー対象の物体の移動先の画像座標)を算出する。
移動パラメータ算出部19は、2次透視変換座標算出部18がマルチビュー対象の物体の移動先の画像座標を算出すると、その移動先の画像座標と、画像中心(例えば、640×480の画像の場合、画像中心は(320,240))とのずれを移動パラメータとして算出する。
ここでは、画像中心にマルチビュー対象の物体が移動するように、画像中心とのずれを算出するものについて示したが、画像内の他の位置にマルチビュー対象の物体が移動するように、他の位置とのずれを算出するようにしてもよい。
The secondary perspective transformation coordinate
When the secondary perspective transformation coordinate
In this example, the deviation from the center of the image is calculated so that the multi-view target object moves to the center of the image. The deviation from the position may be calculated.
マルチビュー画像生成部20は、移動パラメータ算出部19が移動パラメータを算出すると、その移動パラメータにしたがって、2次補正画像生成部17から出力された2次補正画像n(1≦n≦8)を移動させることにより、マルチビュー対象の物体が画像の中心に存在するマルチビュー画像n(1≦n≦8)を生成する。
即ち、マルチビュー画像生成部20は、2次補正画像生成部17から出力された2次補正画像n(1≦n≦8)を移動パラメータが示す移動量だけ移動することにより、2次補正画像n(1≦n≦8)からマルチビュー画像n(1≦n≦8)を生成する。
When the movement
That is, the multi-view
図9は「ぬいぐるみ」の大きさが各画像で同じであり、かつ、「ぬいぐるみ」が各画像の中心に位置するように、図3の画像を変換している例を示す説明図である。
ただし、見易くするため、各画像に写っていた水平基準棒と垂直基準棒を省いている。
また、「花瓶に」ついては、図9のカメラ1−1の画像では、変形後でも画像の範囲に残っているが、カメラ1−3の画像、カメラ1−5の画像、カメラ1−7の画像では、画像の範囲外に移動しているため見えていない。「床面にマーキングされた四角形」については、画像の範囲外の部分は点線で示されている。
FIG. 9 is an explanatory diagram illustrating an example in which the image of FIG. 3 is converted so that the size of the “stuffed animal” is the same in each image and the “stuffed animal” is positioned at the center of each image.
However, for ease of viewing, the horizontal reference bar and the vertical reference bar that are shown in each image are omitted.
For “vase”, the image of the camera 1-1 in FIG. 9 remains in the range of the image even after the deformation, but the image of the camera 1-3, the image of the camera 1-5, and the image of the camera 1-7. The image is not visible because it has moved out of the image range. As for the “rectangle marked on the floor”, the portion outside the range of the image is indicated by a dotted line.
マルチビュー位置指定部21は、マルチビュー画像生成部20により生成されたマルチビュー画像n(1≦n≦8)に対して、新たなマルチビューの位置の指定を受け付ける処理を実施する。
新たなマルチビューの位置の指定は、ユーザがマルチビュー画像を見ながら指定してもよいし、何らかの方法で自動的に指定してもよい。
The multi-view
The new multi-view position may be specified while the user is viewing the multi-view image, or may be automatically specified by some method.
マルチビュー画像座標変換部22は、マルチビュー位置指定部21が新たなマルチビューの位置の指定を受け付けると、移動パラメータ算出部19により算出された移動パラメータの逆移動パラメータと、2次透視変換座標算出部18により算出された2次透視変換の逆変換と、平面射影変換行列算出部8により算出された平面射影変換行列の逆変換行列とを用いて、マルチビュー位置指定部21により指定が受け付けられたマルチビュー画像n(1≦n≦8)上の座標位置(新たなマルチビューの位置)を、オリジナル画像n(1≦n≦8)上の座標位置に変換する。
ここでは、平面射影変換行列算出部8により算出された平面射影変換行列の逆変換行列を用いて、マルチビュー画像n(1≦n≦8)上の座標位置をオリジナル画像n(1≦n≦8)上の座標位置に変換するものについて示したが、平面射影変換行列の逆変換行列を用いないことでオリジナル画像n(1≦n≦8)上の座標位置に変換された段階の座標位置を、マルチビュー位置算出部9により算出されるオリジナル画像n毎のマルチビュー位置に相当する座標位置の代用としてもよい。
When the multi-view
Here, using the inverse transformation matrix of the planar projection transformation matrix calculated by the planar projection transformation
以上で明らかなように、この実施の形態1によれば、マルチビュー位置算出部9により算出されたマルチビュー対象の物体の位置と基準位置算出部10により算出された垂直基準棒の床面位置と、基準長読取部15で算出された垂直基準棒の大きさを用いて、オリジナル画像n(1≦n≦8)におけるマルチビュー対象の物体の位置を揃え、かつ、マルチビュー対象の物体の大きさを同じにする画像倍率をオリジナル画像n毎に算出し、その画像倍率にしたがってオリジナル画像nを変換するように構成したので、高精度のカメラキャリブレーションを実施することなく、被写体の大きさや位置などが一致している見易い臨場感のある画像を生成することができる効果を奏する。
As is apparent from the above, according to the first embodiment, the position of the object to be multiviewed calculated by the multiview position calculation unit 9 and the floor position of the vertical reference bar calculated by the reference
即ち、この実施の形態1によれば、ある平面に接して置かれている物体がある方向から撮影された画像Aの変換後のマルチビュー画像と、その物体が別の方向から撮影された画像Bの変換後のマルチビュー画像とにおいては、上記物体の位置が同じで、かつ、大きさが等しいものになる。
また、マルチビュー画像を見ながら、平面上の異なる位置に置かれている別の物体の位置を指定することにより、その別の物体の位置が同じで、かつ、大きささが等しい新たなマルチビュー画像を、画像Aと画像Bから容易に生成することができる。
In other words, according to the first embodiment, an object placed in contact with a certain plane and a multi-view image after conversion of the image A photographed from a certain direction and an image obtained by photographing the object from another direction. In the multi-view image after the conversion of B, the position of the object is the same and the size is the same.
In addition, by specifying the position of another object placed at a different position on the plane while viewing the multi-view image, a new multi-view with the same position and the same size of the other object An image can be easily generated from images A and B.
例えば、上記カメラの光軸を床面に対して垂直に投影した直線である平面上の直線の無限遠点を撮影画像に投影した点である消失点(水平消失点)の位置と、画像Aと画像Bに写っている同じ物体Sの位置及び大きさと、物体Tの位置とから、物体Tの大きさが変換後の画像で同じになるような倍率を求めるので、物体Sと物体Tが上記平面内のどこにあっても、大きさを同じにするための倍率を精度良く求めることができる。
画像Aと画像Bのカメラの横方向の傾きに起因する歪と、撮影時の透視投影の原理に起因する歪とを、上記平面に対して垂直な直線の無限遠点を画像に投影した点である消失点(垂直消失点)と画像内部の点を結ぶ直線が画像の垂直軸となす角を、3次元空間に置いた画像の回転角として回転した後の透視投影変換を利用して、画像補正を行っているので、画像補正に伴って生じる物体の歪が少ない画像補正を行うことができる。また、補正に必要なパラメータを容易に決定することができる。
For example, the position of a vanishing point (horizontal vanishing point) that is a point obtained by projecting the infinity point of a straight line on a plane, which is a straight line obtained by projecting the optical axis of the camera perpendicular to the floor surface, and an image A And the position and size of the same object S appearing in the image B and the position of the object T, a magnification is obtained so that the size of the object T is the same in the converted image. The magnification for making the same size can be obtained with high precision anywhere in the plane.
A point obtained by projecting a distortion caused by the horizontal tilt of the camera of images A and B and a distortion caused by the principle of perspective projection at the time of photographing onto an image at a point at a straight line at infinity perpendicular to the plane. Using the perspective projection transformation after rotating the angle formed by the straight line connecting the vanishing point (vertical vanishing point) and the point inside the image with the vertical axis of the image as the rotation angle of the image placed in the three-dimensional space, Since image correction is performed, it is possible to perform image correction with less distortion of an object caused by image correction. In addition, parameters necessary for correction can be easily determined.
画像A内の物体が置かれている位置aの座標が分った場合に、画像B内の物体が置かれている位置bの座標を、上記平面に関する平面射影変換行列を用いて算出することで、位置aと位置bが画像内で同じ位置にくるような画像の移動を、平面上のすべての点に対し、精度よく、また効率よく行うことができる。 When the coordinates of the position a where the object in the image A is placed are known, the coordinates of the position b where the object in the image B is placed are calculated using the plane projective transformation matrix for the plane. Thus, the movement of the image such that the position a and the position b are at the same position in the image can be accurately and efficiently performed for all points on the plane.
なお、この実施の形態1では、カメラを“理想的なピンホールカメラモデル”と仮定している。この“理想的なピンホールカメラモデル”では、カメラの内部パラメータであるカメラの光学中心が撮影画像の画像中心と一致し、また、その他のカメラの内部パラメータも、カメラ座標のXYZ軸が互いに直交し、かつ、そのカメラ座標とそのカメラによって撮影された画像座標とが一致するような値であると仮定される。
これらの仮定が成立しないときは、上記仮定の誤差を考慮して、上記アルゴリズムを改良する必要がある。ただし、多くの場合、通常のカメラで撮影した画像を用いて、上記実施の形態1の処理内容を実施しても問題が生じることは少ない。
“理想的なピンホールカメラモデル”、“カメラの内部パラメータ”については、非特許文献「出口光一郎 ロボットビジョンの基礎 コロナ社」などに開示されている。
In the first embodiment, the camera is assumed to be an “ideal pinhole camera model”. In this “ideal pinhole camera model”, the camera optical center, which is an internal parameter of the camera, coincides with the image center of the captured image, and the XYZ axes of the camera coordinates are also orthogonal to each other for the internal parameters of the camera. In addition, it is assumed that the camera coordinates coincide with the image coordinates photographed by the camera.
When these assumptions do not hold, it is necessary to improve the algorithm in consideration of errors in the assumptions. However, in many cases, there are few problems even if the processing content of the first embodiment is performed using an image captured by a normal camera.
The “ideal pinhole camera model” and “internal parameters of the camera” are disclosed in non-patent documents such as Koichiro Deguchi Robot Vision Basic Corona.
また、この実施の形態1では、カメラの撮影画像に対して、レンズ歪(歪曲収差)を無視している。
この“レンズ歪”には、たる型歪や糸巻き型歪と呼ばれる歪が含まれるが、この“レンズ歪”は良いレンズを良い条件で使用する限り、無視できるものである。ただし、使用レンズの性能やカメラと被写体の距離、撮影後にカメラで行われる画像処理などによっては、必ずしも無視できない場合がある。
この“レンズ歪”が無視できない場合は、撮影画像に対してレンズ歪を補正してから、上記実施の形態1のオリジナル画像として使用すればよく、それ以降のアルゴリズムを改良する必要はない(画像データ一時保存部2以降は変わらない)。
レンズ収差歪の補正に関しては、非特許文献「出口光一郎 ロボットビジョンの基礎 コロナ社」などに開示されている。
In the first embodiment, lens distortion (distortion aberration) is ignored with respect to the image captured by the camera.
This “lens distortion” includes distortion called barrel distortion and pincushion distortion, but this “lens distortion” is negligible as long as a good lens is used under good conditions. However, it may not always be ignored depending on the performance of the lens used, the distance between the camera and the subject, and image processing performed by the camera after shooting.
If this “lens distortion” cannot be ignored, the lens distortion is corrected for the photographed image and then used as the original image of the first embodiment, and the subsequent algorithm does not need to be improved (image) The data is not changed after the temporary data storage unit 2).
The correction of lens aberration distortion is disclosed in a non-patent document “Koichiro Deguchi Robot Vision Basic Corona”.
1−1〜1−N カメラ、2 画像データ一時保存部(画像格納手段)、3 マルチビュー位置指定部(位置指定手段)、4 基準位置指定部(位置指定手段)、5 床面座標読取部(マーキング位置取得手段)、6 水平消失点算出部(消失点算出手段)、7 垂直消失点算出部(消失点算出手段)、8 平面射影変換行列算出部(平面射影変換行列算出手段)、9 マルチビュー位置算出部(位置算出手段)、10 基準位置算出部(位置算出手段)、11 画像内倍率算出部(画像倍率算出手段)、12 カメラ水平軸歪補正パラメータ算出部(歪み補正手段)、13 透視投影歪補正パラメータ算出部(歪み補正手段)、14 1次補正画像生成部、15 基準長読取部、16 画像間倍率算出部(画像倍率算出手段)、17 2次補正画像生成部(歪み補正手段)、18 2次透視変換座標算出部(画像変換手段)、19 移動パラメータ算出部(画像変換手段)、20 マルチビュー画像生成部(画像変換手段)、21 マルチビュー位置指定部、22 マルチビュー画像座標変換部。
1-1 to 1-N camera, 2 image data temporary storage unit (image storage unit), 3 multi-view position designation unit (position designation unit), 4 reference position designation unit (position designation unit), 5 floor coordinate reading unit (Marking position acquisition means), 6 horizontal vanishing point calculation section (vanishing point calculation means), 7 vertical vanishing point calculation section (vanishing point calculation means), 8 plane projection transformation matrix calculation section (plane projection transformation matrix calculation means), 9 Multi-view position calculation unit (position calculation unit), 10 reference position calculation unit (position calculation unit), 11 intra-image magnification calculation unit (image magnification calculation unit), 12 camera horizontal axis distortion correction parameter calculation unit (distortion correction unit), 13 perspective projection distortion correction parameter calculation unit (distortion correction unit), 14 primary correction image generation unit, 15 reference length reading unit, 16 inter-image magnification calculation unit (image magnification calculation unit), 17 secondary correction image generation Unit (distortion correction unit), 18 secondary perspective transformation coordinate calculation unit (image conversion unit), 19 movement parameter calculation unit (image conversion unit), 20 multi-view image generation unit (image conversion unit), 21 multi-view
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006291467A JP4860431B2 (en) | 2006-10-26 | 2006-10-26 | Image generation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006291467A JP4860431B2 (en) | 2006-10-26 | 2006-10-26 | Image generation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008109481A true JP2008109481A (en) | 2008-05-08 |
JP4860431B2 JP4860431B2 (en) | 2012-01-25 |
Family
ID=39442458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006291467A Expired - Fee Related JP4860431B2 (en) | 2006-10-26 | 2006-10-26 | Image generation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4860431B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009290664A (en) * | 2008-05-30 | 2009-12-10 | National Institute Of Advanced Industrial & Technology | Camera system, image information reproducing means therefor, and image information reproducing means |
JP2015012375A (en) * | 2013-06-27 | 2015-01-19 | 貞彦 寺川 | Multi-angle imaging system, swivel device, imaging apparatus and multi-angle imaging method |
JP2015127903A (en) * | 2013-12-27 | 2015-07-09 | ヤフー株式会社 | Image processor, image processing method and image processing program |
JP2015198374A (en) * | 2014-04-02 | 2015-11-09 | パナソニックIpマネジメント株式会社 | Calibration device, calibration method, camera having calibration function and program |
CN109367483A (en) * | 2017-08-09 | 2019-02-22 | 安波福电子(苏州)有限公司 | A kind of adaptive vehicle-mounted of angle gets a bird's eye view system and its implementation |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000057376A (en) * | 1998-08-11 | 2000-02-25 | Gen Tec:Kk | Method for generating new viewpoint image |
JP2002197452A (en) * | 2000-12-27 | 2002-07-12 | Oki Electric Ind Co Ltd | Processor for correcting image distortion |
JP2004355184A (en) * | 2003-05-28 | 2004-12-16 | Nippon Telegr & Teleph Corp <Ntt> | Extraction apparatus and extraction method for character/graphic region, program for the method, and recording medium for recording the program |
JP2005049999A (en) * | 2003-07-30 | 2005-02-24 | Ricoh Co Ltd | Image input system, image input method, program described to execute method on information processing device, and storage medium with program stored |
-
2006
- 2006-10-26 JP JP2006291467A patent/JP4860431B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000057376A (en) * | 1998-08-11 | 2000-02-25 | Gen Tec:Kk | Method for generating new viewpoint image |
JP2002197452A (en) * | 2000-12-27 | 2002-07-12 | Oki Electric Ind Co Ltd | Processor for correcting image distortion |
JP2004355184A (en) * | 2003-05-28 | 2004-12-16 | Nippon Telegr & Teleph Corp <Ntt> | Extraction apparatus and extraction method for character/graphic region, program for the method, and recording medium for recording the program |
JP2005049999A (en) * | 2003-07-30 | 2005-02-24 | Ricoh Co Ltd | Image input system, image input method, program described to execute method on information processing device, and storage medium with program stored |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009290664A (en) * | 2008-05-30 | 2009-12-10 | National Institute Of Advanced Industrial & Technology | Camera system, image information reproducing means therefor, and image information reproducing means |
JP2015012375A (en) * | 2013-06-27 | 2015-01-19 | 貞彦 寺川 | Multi-angle imaging system, swivel device, imaging apparatus and multi-angle imaging method |
JP2015127903A (en) * | 2013-12-27 | 2015-07-09 | ヤフー株式会社 | Image processor, image processing method and image processing program |
JP2015198374A (en) * | 2014-04-02 | 2015-11-09 | パナソニックIpマネジメント株式会社 | Calibration device, calibration method, camera having calibration function and program |
US10032274B2 (en) | 2014-04-02 | 2018-07-24 | Panasonic Intellectual Property Management Co., Ltd. | Calibration apparatus and calibration method |
CN109367483A (en) * | 2017-08-09 | 2019-02-22 | 安波福电子(苏州)有限公司 | A kind of adaptive vehicle-mounted of angle gets a bird's eye view system and its implementation |
Also Published As
Publication number | Publication date |
---|---|
JP4860431B2 (en) | 2012-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7004094B2 (en) | Fish length measurement system, fish length measurement method and fish length measurement program | |
CN105026997B (en) | Optical projection system, semiconductor integrated circuit and image correcting method | |
JP5596972B2 (en) | Control device and control method of imaging apparatus | |
JP2008217243A (en) | Image creation device | |
JPWO2004061387A1 (en) | Multi-view video capture system | |
JP2009017480A (en) | Camera calibration device and program thereof | |
JP7001145B2 (en) | Information processing equipment, object measurement system, object measurement method and computer program | |
JP7218435B2 (en) | CALIBRATION DEVICE, CALIBRATION CHART AND CALIBRATION METHOD | |
JP6981531B2 (en) | Object identification device, object identification system, object identification method and computer program | |
JP2009284188A (en) | Color imaging apparatus | |
JP4860431B2 (en) | Image generation device | |
JP6816773B2 (en) | Information processing equipment, information processing methods and computer programs | |
KR100596976B1 (en) | apparatus and method for correcting distorted image and image display system using it | |
US11196929B2 (en) | Signal processing device, imaging device, and signal processing method | |
JP6879375B2 (en) | Information processing equipment, length measurement system, length measurement method and computer program | |
JPWO2018167918A1 (en) | Projector, mapping data creation method, program, and projection mapping system | |
JP6409769B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
JP4998792B2 (en) | Camera, camera array and camera array system | |
JP2007033087A (en) | Calibration device and method | |
JP2006017632A (en) | Three-dimensional image processor, optical axis adjustment method, and optical axis adjustment support method | |
JP6257260B2 (en) | Imaging apparatus and control method thereof | |
JP2005031044A (en) | Three-dimensional error measuring device | |
JP2014096761A (en) | Image processing apparatus, and control method and control program of the same | |
JP2006309626A (en) | Arbitrary viewpoint image generation device | |
JP2012227700A (en) | Information processor and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080703 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090827 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111025 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111102 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141111 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |