JP2008109481A - Image generating apparatus - Google Patents

Image generating apparatus Download PDF

Info

Publication number
JP2008109481A
JP2008109481A JP2006291467A JP2006291467A JP2008109481A JP 2008109481 A JP2008109481 A JP 2008109481A JP 2006291467 A JP2006291467 A JP 2006291467A JP 2006291467 A JP2006291467 A JP 2006291467A JP 2008109481 A JP2008109481 A JP 2008109481A
Authority
JP
Japan
Prior art keywords
image
images
unit
calculated
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006291467A
Other languages
Japanese (ja)
Other versions
JP4860431B2 (en
Inventor
Minoru Wada
稔 和田
Hiroshi Ito
浩 伊藤
Kazuo Sugimoto
和夫 杉本
Shuichi Yamagishi
秀一 山岸
Etsuhisa Yamada
悦久 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2006291467A priority Critical patent/JP4860431B2/en
Publication of JP2008109481A publication Critical patent/JP2008109481A/en
Application granted granted Critical
Publication of JP4860431B2 publication Critical patent/JP4860431B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain an image generating apparatus capable of generating a clear image having presence because sizes, positions and the like of objects coincide without executing highly accurate camera calibration. <P>SOLUTION: The objects of multiview targets and a floor position of a vertical reference bar are used to arrange the positions of the objects of the multiview targets in an original image n (1≤n≤8), an image scale factor for making the sizes of the objects of the multiview targets the same is calculated for each original image n, and the original image n is converted according to the image scale factor. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、複数のカメラ等により撮影された多視点画像からスポーツ鑑賞や監視などの用途に有用な画像を生成する画像生成装置に関するものである。   The present invention relates to an image generation apparatus that generates images useful for applications such as sports appreciation and monitoring from multi-viewpoint images captured by a plurality of cameras or the like.

従来の画像生成装置では、ユーザにより指定された注視点を中心とする多視点画像を生成する場合、複数のカメラにより撮影された画像に対して、各カメラのカメラパラメータ(3次元空間の世界座標を映像の座標に変換するためのパラメータ)を用いて、カメラにより撮影された被写体の世界座標を各カメラの映像座標に変換するようにしている(例えば、特許文献1を参照)。
したがって、画像生成装置が多視点画像を生成するには、事前に、各カメラのカメラパラメータを得るために、各カメラに対して高精度のカメラキャリブレーションを実施する必要がある。
In a conventional image generation device, when generating a multi-viewpoint image centered on a gazing point designated by a user, camera parameters of each camera (world coordinates in a three-dimensional space) are obtained for images taken by a plurality of cameras. Are used to convert the world coordinates of the subject photographed by the camera into the video coordinates of each camera (see, for example, Patent Document 1).
Therefore, in order for the image generation apparatus to generate a multi-viewpoint image, it is necessary to perform high-precision camera calibration on each camera in advance in order to obtain camera parameters of each camera.

特開2006−115298号公報(段落番号[0015]から[0017]、図1)JP 2006-115298 A (paragraph numbers [0015] to [0017], FIG. 1)

従来の画像生成装置は以上のように構成されているので、世界座標を映像座標に変換するためのカメラパラメータが事前に得られていれば、ユーザにより指定された注視点を中心とする多視点画像を生成することができる。しかし、カメラパラメータを得るには、各カメラに対して高精度のカメラキャリブレーションを実施しなければならないなどの課題があった。   Since the conventional image generating apparatus is configured as described above, if camera parameters for converting world coordinates to video coordinates are obtained in advance, a multi-viewpoint centered on a gaze point designated by the user An image can be generated. However, in order to obtain camera parameters, there has been a problem that high-precision camera calibration has to be performed for each camera.

この発明は上記のような課題を解決するためになされたもので、高精度のカメラキャリブレーションを実施することなく、被写体の大きさや位置などが一致している見易い臨場感のある画像を生成することができる画像生成装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and generates an easy-to-see and realistic image in which the size and position of the subject match without performing high-accuracy camera calibration. An object of the present invention is to obtain an image generation apparatus capable of performing the above.

この発明に係る画像生成装置は、位置指定手段により指定されたマルチビュー対象の物体の位置と平面射影変換行列算出手段により算出された平面射影変換行列から複数の画像に存在するマルチビュー対象の物体の位置を算出するとともに、位置指定手段により指定された垂直基準棒の床面位置と平面射影変換行列から複数の画像に存在する垂直基準棒の床面位置を算出する位置算出手段と、位置算出手段により算出されたマルチビュー対象の物体の位置及び垂直基準棒の床面位置を用いて、複数の画像におけるマルチビュー対象の物体の位置を揃え、かつ、マルチビュー対象の物体の大きさを同じにする画像倍率を複数の画像毎に算出する画像倍率算出手段とを設け、画像変換手段が画像倍率算出手段により算出された画像倍率にしたがって複数の画像を変換するようにしたものである。   The image generating apparatus according to the present invention includes a multi-view target object existing in a plurality of images from the position of the multi-view target object specified by the position specifying unit and the plane projective transformation matrix calculated by the plane projective transformation matrix calculating unit. Position calculating means for calculating the position of the vertical reference bar present in a plurality of images from the floor position of the vertical reference bar specified by the position specifying means and the plane projective transformation matrix, and position calculation Using the position of the object of the multi-view target calculated by the means and the floor position of the vertical reference bar, the positions of the objects of the multi-view target in the plurality of images are aligned, and the size of the object of the multi-view target is the same Image magnification calculation means for calculating the image magnification for each of a plurality of images, and the image conversion means according to the image magnification calculated by the image magnification calculation means. It is obtained so as to convert the plurality of images.

この発明によれば、位置指定手段により指定されたマルチビュー対象の物体の位置と平面射影変換行列算出手段により算出された平面射影変換行列から複数の画像に存在するマルチビュー対象の物体の位置を算出するとともに、位置指定手段により指定された垂直基準棒の床面位置と平面射影変換行列から複数の画像に存在する垂直基準棒の床面位置を算出する位置算出手段と、位置算出手段により算出されたマルチビュー対象の物体の位置及び垂直基準棒の床面位置を用いて、複数の画像におけるマルチビュー対象の物体の位置を揃え、かつ、マルチビュー対象の物体の大きさを同じにする画像倍率を複数の画像毎に算出する画像倍率算出手段とを設け、画像変換手段が画像倍率算出手段により算出された画像倍率にしたがって複数の画像を変換するように構成したので、高精度のカメラキャリブレーションを実施することなく、被写体の大きさや位置などが一致している見易い臨場感のある画像を生成することができる効果がある。   According to the present invention, the position of the multi-view target object existing in the plurality of images is determined from the position of the multi-view target object specified by the position specifying means and the plane projection transformation matrix calculated by the plane projection transformation matrix calculation means. The position calculating means calculates the floor position of the vertical reference bar existing in a plurality of images from the floor position of the vertical reference bar specified by the position specifying means and the plane projective transformation matrix, and the position calculating means An image in which the positions of the multi-view target objects in the plurality of images are aligned and the sizes of the multi-view target objects are the same using the position of the object of the multi-view target and the floor position of the vertical reference bar. An image magnification calculating means for calculating the magnification for each of the plurality of images, and the image converting means calculates the plurality of images according to the image magnification calculated by the image magnification calculating means; And then, is converted, without performing a highly accurate camera calibration, there is an effect that can produce an image with easy to see realistic that the size and position of the object match.

実施の形態1.
図1はこの発明の実施の形態1による画像生成装置を示す構成図である。
図1の画像生成装置の場合、N台のカメラを使用して、ある3次元領域をそれぞれ異なる方向から撮影した複数の画像に対して、上記領域内に存在するある物体が、全ての画像で同じ大きさになるように各画像を拡大または縮小し、かつ、画像内の同じ座標に位置するよう移動し、さらに、水平方向や垂直方向の歪を補正するようにしている。
なお、上記のような画像を、N台のカメラにより撮影されたN枚の画像を用いて生成した後、それらの画像をカメラの並びの順番に表示すると、ある物体を中心に等距離の視点をカメラの並びに沿って順番に移動させたような画像効果を得ることができる。以後、上記のような効果をマルチビュー効果または単にマルチビューと称する。
これ以降の説明では、N台のカメラで、水平な平面である床面にいくつかの物体が置かれている領域を撮影し、その領域に対してマルチビュー効果を有する画像を生成するものとする。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an image generation apparatus according to Embodiment 1 of the present invention.
In the case of the image generating apparatus of FIG. 1, for a plurality of images obtained by photographing N-dimensional images from different directions using N cameras, an object existing in the region is all images. Each image is enlarged or reduced so as to have the same size, moved so as to be positioned at the same coordinates in the image, and further, distortion in the horizontal direction or the vertical direction is corrected.
In addition, after generating the above images using N images taken by N cameras, when these images are displayed in the order of camera arrangement, an equidistant viewpoint centered on an object It is possible to obtain an image effect such that the images are sequentially moved along the camera. Hereinafter, such an effect is referred to as a multi-view effect or simply a multi-view.
In the following description, it is assumed that an area in which several objects are placed on the floor surface, which is a horizontal plane, is captured by N cameras, and an image having a multi-view effect is generated for the area. To do.

図において、カメラ1−1〜1−Nは相互に異なる方向から同一の3次元領域を撮影し、その3次元領域の撮影結果であるオリジナル画像n(1≦n≦N)を出力する。
画像データ一時保存部2はカメラ1−n(1≦n≦N)から出力されたオリジナル画像n(1≦n≦N)を一時的に保存するメモリである。なお、画像データ一時保存部2は画像格納手段を構成している。
ただし、この実施の形態1では、以降、説明の簡単化のために、N=8であるものとして説明する。
In the figure, the cameras 1-1 to 1-N photograph the same three-dimensional area from different directions, and output an original image n (1 ≦ n ≦ N) that is a photographing result of the three-dimensional area.
The image data temporary storage unit 2 is a memory for temporarily storing an original image n (1 ≦ n ≦ N) output from the camera 1-n (1 ≦ n ≦ N). The image data temporary storage unit 2 constitutes image storage means.
In the first embodiment, however, it is assumed that N = 8 for the sake of simplicity.

マルチビュー位置指定部3は画像データ一時保存部2に保存されている8枚のオリジナル画像nの中から任意のオリジナル画像n1(1≦n1≦8)の選択を受け付け、そのオリジナル画像n1に存在するマルチビュー対象の物体(ユーザがマルチビューを希望する物体)の床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
マルチビュー位置指定部3における画像座標の読み取りは、ユーザがオリジナル画像n1を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
The multi-view position designating unit 3 accepts the selection of an arbitrary original image n 1 (1 ≦ n 1 ≦ 8) from the eight original images n stored in the image data temporary storage unit 2, and the original image n A process of accepting designation of image coordinates indicating the position on the floor surface of the multi-view target object (object that the user desires for multi-view) existing in 1 is performed.
The image coordinates are read by the multi-view position designating unit 3 while the user views the original image n 1 and, for example, operates the mouse to designate the position in the image, thereby reading the image coordinates at that position. Alternatively, it may be automatically specified by some method.

基準位置指定部4は画像データ一時保存部2に保存されている8枚のオリジナル画像nの中から任意のオリジナル画像n2(1≦n2≦8)の選択を受け付け、そのオリジナル画像n2に存在する垂直基準棒が床面に垂直に接している床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
基準位置指定部4における画像座標の読み取りは、ユーザがオリジナル画像n2を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
なお、マルチビュー位置指定部3及び基準位置指定部4から位置指定手段が構成されている。
The reference position specifying unit 4 accepts the selection of an arbitrary original image n 2 (1 ≦ n 2 ≦ 8) from the eight original images n stored in the image data temporary storage unit 2, and the original image n 2. The process of accepting designation of image coordinates indicating the position on the floor surface where the vertical reference bar present in FIG.
The reading of the image coordinates in the reference position specifying unit 4 may be performed by reading the image coordinates of the position by, for example, operating the mouse and specifying the position in the image while the user views the original image n 2. Alternatively, it may be automatically specified by some method.
The multi-view position specifying unit 3 and the reference position specifying unit 4 constitute position specifying means.

床面座標読取部5は画像データ一時保存部2に保存されているオリジナル画像n(1≦n≦8)の床面上に共通に存在しているマーキング(図2を参照)の頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を読み取る処理を実施する。なお、床面座標読取部5はマーキング位置取得手段を構成している。
水平消失点算出部6は画像データ一時保存部2に保存されているオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの水平消失点(カメラ1−nの光軸を床面に垂直な方向に投影した床面上の直線の無限遠点を撮影画像に投影した消失点)の画像座標を算出する処理を実施する。
垂直消失点算出部7は画像データ一時保存部2に保存されているオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの垂直消失点(床面に垂直な直線の無限遠点を画像に投影した消失点)の画像座標を算出する処理を実施する。
なお、水平消失点算出部6及び垂直消失点算出部7から消失点算出手段が構成されている。
The floor surface coordinate reading unit 5 is the vertex (1) of the marking (see FIG. 2) that exists in common on the floor surface of the original image n (1 ≦ n ≦ 8) stored in the image data temporary storage unit 2. ), Vertex (2), vertex (3) and vertex (4) are read. The floor coordinate reading unit 5 constitutes a marking position acquisition unit.
For each original image n (1 ≦ n ≦ 8) stored in the image data temporary storage unit 2, the horizontal vanishing point calculation unit 6 uses the horizontal vanishing point of the original image n (the optical axis of the camera 1-n as the floor surface). A process of calculating the image coordinates of a vanishing point obtained by projecting a straight infinity point on the floor surface projected in the vertical direction onto the captured image is performed.
For each original image n (1 ≦ n ≦ 8) stored in the image data temporary storage unit 2, the vertical vanishing point calculation unit 7 calculates a vertical vanishing point of the original image n (a straight line infinity point perpendicular to the floor surface). The process of calculating the image coordinates of the vanishing points projected on the image is performed.
The vanishing point calculating means is composed of the horizontal vanishing point calculating unit 6 and the vertical vanishing point calculating unit 7.

平面射影変換行列算出部8はオリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)間で、床面を構成する平面の平面射影変換行列Hn1-1〜Hn1-8(1≦n1≦8の7個)を算出する処理を実施する。
また、平面射影変換行列算出部8はオリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)間で、床面を構成する平面の平面射影変換行列Hn2-1〜Hn2-8(1≦n2≦8の7個)を算出する処理を実施する。
平面射影変換行列の算出方法は、例えば、非特許文献「出口光一郎 “ロボットビジョンの基礎”p47(本文献ではホモグラフィー行列と記載されている)」に記載されている。
なお、平面射影変換行列算出部8は平面射影変換行列算出手段を構成している。
The planar projective transformation matrix calculation unit 8 images the marking vertex (1), vertex (2), vertex (3), and vertex (4) in the original image n 1 and other original images n (excluding the original image n 1 ). Using the coordinates, a plane projective transformation matrix H n1-1 to H n1-8 (1 ≦ 1) of the plane constituting the floor surface between the original image n 1 and another original image n (excluding the original image n 1 ). The process of calculating 7 pieces of n 1 ≦ 8 is performed.
The plane projective transformation matrix calculation unit 8 also performs marking vertex (1), vertex (2), vertex (3), vertex (4) in the original image n 2 and other original images n (excluding the original image n 2 ). The plane projection transformation matrices H n2-1 to H n2-8 of the plane constituting the floor surface between the original image n 2 and another original image n (excluding the original image n 2 ) A process of calculating 7 of 1 ≦ n 2 ≦ 8 is performed.
The calculation method of the planar projective transformation matrix is described in, for example, a non-patent document “Koichiro Deguchi“ Basics of Robot Vision ”p47 (described as a homography matrix in this document)”.
The plane projection transformation matrix calculation unit 8 constitutes plane projection transformation matrix calculation means.

マルチビュー位置算出部9は平面射影変換行列算出部8により算出された平面射影変換行列Hn1-1〜Hn1-8を用いて、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する処理を実施する。即ち、平面射影変換行列Hn1-1〜Hn1-8を用いて、マルチビュー位置指定部3により指定が受け付けられたマルチビュー対象の物体の床面上の位置を示す画像座標(または、マルチビュー画像座標変換部22により変換された画像座標)を、オリジナル画像n(オリジナル画像n1を除く)の画像座標に変換することにより、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する処理を実施する。 Multi-view position calculating unit 9 using the homography matrix H n1-1 ~H n1-8 calculated by planar projective transformation matrix calculation unit 8, present in the original image n (excluding original image n 1) Multi A process of calculating image coordinates indicating the position of the object to be viewed on the floor surface is performed. That is, using the plane projection transformation matrices H n1-1 to H n1-8 , the image coordinates indicating the position on the floor surface of the object of the multi-view target accepted by the multi-view position designating unit 3 (or the multi-view By converting the image coordinates converted by the view image coordinate conversion unit 22 into the image coordinates of the original image n (excluding the original image n 1 ), the multi-image existing in the original image n (excluding the original image n 1 ) is converted. A process of calculating image coordinates indicating the position of the object to be viewed on the floor surface is performed.

基準位置算出部10は平面射影変換行列算出部8により算出された平面射影変換行列Hn2-1〜Hn2-8を用いて、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する処理を実施する。即ち、平面射影変換行列Hn2-1〜Hn2-8を用いて、基準位置指定部4により指定が受け付けられたオリジナル画像n2内の垂直基準棒の床面位置を示す画像座標を、オリジナル画像n(オリジナル画像n2を除く)の画像座標に変換する処理を実施することにより、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する処理を実施する。
なお、マルチビュー位置算出部9及び基準位置算出部10から位置算出手段が構成されている。
The reference position calculation unit 10 uses the plane projection transformation matrices H n2-1 to H n2-8 calculated by the plane projection transformation matrix calculation unit 8 to use the vertical reference existing in the original image n (excluding the original image n 2 ). A process of calculating image coordinates indicating the position of the bar on the floor is performed. That is, using the plane projection transformation matrices H n2-1 to H n2-8 , the image coordinates indicating the floor position of the vertical reference bar in the original image n 2 that has been designated by the reference position designating unit 4 are converted into the original coordinates. by carrying out the processing of converting the image coordinates of the image n (excluding the original image n 2), image coordinates indicating the position on the floor surface of the vertical reference rod present in the original image n (excluding the original image n 2) The process of calculating is performed.
The multi-view position calculation unit 9 and the reference position calculation unit 10 constitute position calculation means.

画像内倍率算出部11はマルチビュー位置算出部9により算出されたオリジナル画像nに存在するマルチビュー対象の床面位置を示す画像座標と、基準位置算出部10により算出されたオリジナル画像nに存在する垂直基準棒の床面位置を示す画像座標と、水平消失点算出部6により算出されたオリジナル画像nの水平消失点の画像座標とを用いて、マルチビュー対象の物体を垂直基準棒と同じ奥行きの床面位置まで移動させた場合のマルチビュー対象の物体の画像内倍率(マルチビュー対象の物体の大きさの見え方の変化倍率)を算出する処理を実施する。   The in-image magnification calculation unit 11 is present in the original image n calculated by the multi-view position calculation unit 9 and in the original image n calculated by the reference position calculation unit 10. The object of the multi-view target is the same as the vertical reference bar using the image coordinates indicating the floor position of the vertical reference bar and the horizontal vanishing point image coordinates of the original image n calculated by the horizontal vanishing point calculation unit 6. A process of calculating an in-image magnification (change magnification of how the size of the object of the multi-view target is viewed) when the object is moved to the floor position of the depth is performed.

カメラ水平軸歪補正パラメータ算出部12は垂直消失点算出部7により算出されたオリジナル画像nの垂直消失点から、オリジナル画像nを撮影する際のカメラ1−nの傾きに起因する水平軸歪の補正パラメータを算出する処理を実施する。
透視投影歪補正パラメータ算出部13は垂直消失点算出部7により算出されたオリジナル画像nの垂直消失点から、カメラ1−nの撮影時に3次元空間を2次元平面に透視投影することに起因する画像の透視投影歪の補正パラメータを算出する処理を実施する。
The camera horizontal axis distortion correction parameter calculation unit 12 calculates the horizontal axis distortion caused by the tilt of the camera 1-n when shooting the original image n from the vertical vanishing point of the original image n calculated by the vertical vanishing point calculation unit 7. A process for calculating a correction parameter is performed.
The perspective projection distortion correction parameter calculation unit 13 is based on perspective projection of a three-dimensional space onto a two-dimensional plane from the vertical vanishing point of the original image n calculated by the vertical vanishing point calculation unit 7 when the camera 1-n is photographed. Processing for calculating a correction parameter for perspective projection distortion of an image is performed.

1次補正画像生成部14はカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータとを用いて、オリジナル画像nの水平軸歪と透視投影歪を補正し、補正後の画像を1次補正画像n(1≦n≦8)として出力する。
基準長読取部15は1次補正画像生成部14から出力された1次補正画像n内の垂直基準棒の見かけの長さを読み取る処理を実施する。
The primary correction image generation unit 14 uses the horizontal axis distortion correction parameter calculated by the camera horizontal axis distortion correction parameter calculation unit 12 and the perspective projection distortion correction parameter calculated by the perspective projection distortion correction parameter calculation unit 13. Then, the horizontal axis distortion and the perspective projection distortion of the original image n are corrected, and the corrected image is output as a primary corrected image n (1 ≦ n ≦ 8).
The reference length reading unit 15 performs a process of reading the apparent length of the vertical reference bar in the primary correction image n output from the primary correction image generation unit 14.

画像間倍率算出部16は画像内倍率算出部11により算出されたマルチビュー対象の物体の画像内倍率と、基準長読取部15により読み取られた1次補正画像n内の垂直基準棒の見かけの長さを用いて、1次補正画像n(1≦n≦8)におけるマルチビュー対象の物体を同じ大きさで表示する場合の画像間倍率を1次補正画像n毎に算出する処理を実施する。
なお、画像内倍率算出部11及び画像間倍率算出部16から画像倍率算出手段が構成されている。なおこのとき、画像間倍率を用いて、1次補正画像を拡大または縮小して大きさを補正してもよい。
The inter-image magnification calculator 16 calculates the in-image magnification of the object to be viewed by the multi-view target calculated by the in-image magnification calculator 11 and the apparent vertical reference bar in the primary correction image n read by the reference length reader 15. Using the length, a process of calculating an image-to-image magnification for each primary correction image n in a case where an object to be multiviewed in the primary correction image n (1 ≦ n ≦ 8) is displayed with the same size is performed. .
The in-image magnification calculation unit 11 and the inter-image magnification calculation unit 16 constitute image magnification calculation means. At this time, the size may be corrected by enlarging or reducing the primary correction image using the inter-image magnification.

2次補正画像生成部17はカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを用いて、2次透視変換を実施することにより、オリジナル画像n(1≦n≦8)の歪や大きさを補正し、補正後の画像を2次補正画像n(1≦n≦8)として出力する。
なお、カメラ水平軸歪補正パラメータ算出部12、透視投影歪補正パラメータ算出部13及び2次補正画像生成部17から歪み補正手段が構成されている。
The secondary correction image generation unit 17 includes a horizontal axis distortion correction parameter calculated by the camera horizontal axis distortion correction parameter calculation unit 12, a perspective projection distortion correction parameter calculated by the perspective projection distortion correction parameter calculation unit 13, and an image. By performing secondary perspective transformation using the inter-image magnification calculated by the inter-image magnification calculation unit 16, the distortion and size of the original image n (1 ≦ n ≦ 8) are corrected, and the corrected image Is output as a secondary corrected image n (1 ≦ n ≦ 8).
The camera horizontal axis distortion correction parameter calculation unit 12, the perspective projection distortion correction parameter calculation unit 13, and the secondary correction image generation unit 17 constitute distortion correction means.

2次透視変換座標算出部18は2次補正画像生成部17がカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを用いて、2次透視変換を実施した場合のマルチビュー対象の物体の画像座標(マルチビュー対象の物体の移動先の画像座標)を算出する処理を実施する。
移動パラメータ算出部19は2次透視変換座標算出部18により算出されたマルチビュー対象の物体の移動先の画像座標と、画像中心とのずれを移動パラメータとして算出する処理を実施する。
The secondary perspective transformation coordinate calculation unit 18 is calculated by the secondary correction image generation unit 17 by the horizontal axis distortion correction parameter calculated by the camera horizontal axis distortion correction parameter calculation unit 12 and the perspective projection distortion correction parameter calculation unit 13. The image coordinates of the multi-view target object when the second perspective transformation is performed using the perspective projection distortion correction parameter and the inter-image magnification calculated by the inter-image magnification calculating unit 16 (the multi-view target object image coordinates). A process of calculating the image coordinates of the movement destination is performed.
The movement parameter calculation unit 19 performs a process of calculating, as a movement parameter, a shift between the image coordinates of the movement destination of the multi-view target object calculated by the secondary perspective transformation coordinate calculation unit 18 and the image center.

マルチビュー画像生成部20は移動パラメータ算出部19により算出された移動パラメータにしたがって、2次補正画像生成部17から出力された2次補正画像n(1≦n≦8)を移動させることにより、マルチビュー対象の物体が画像の中心に存在するマルチビュー画像n(1≦n≦8)を生成する処理を実施する。
なお、2次透視変換座標算出部18、移動パラメータ算出部19及びマルチビュー画像生成部20から画像変換手段が構成されている。
The multi-view image generation unit 20 moves the secondary correction image n (1 ≦ n ≦ 8) output from the secondary correction image generation unit 17 in accordance with the movement parameter calculated by the movement parameter calculation unit 19. A process of generating a multi-view image n (1 ≦ n ≦ 8) in which a multi-view target object exists at the center of the image is performed.
The secondary perspective transformation coordinate calculation unit 18, the movement parameter calculation unit 19, and the multi-view image generation unit 20 constitute an image conversion unit.

マルチビュー位置指定部21はマルチビュー画像生成部20により生成されたマルチビュー画像n(1≦n≦8)に対して、新たなマルチビューの位置の指定を受け付ける処理を実施する。
マルチビュー画像座標変換部22は移動パラメータ算出部19により算出された移動パラメータの逆移動パラメータと、2次透視変換座標算出部18により算出された2次透視変換の逆変換と、平面射影変換行列算出部8により算出された平面射影変換行列の逆変換行列とを用いて、マルチビュー位置指定部21により指定が受け付けられたマルチビュー画像n(1≦n≦8)上の座標位置を、オリジナル画像n(1≦n≦8)上の座標位置に変換する処理を実施する。
The multi-view position designation unit 21 performs a process of receiving designation of a new multi-view position for the multi-view image n (1 ≦ n ≦ 8) generated by the multi-view image generation unit 20.
The multi-view image coordinate conversion unit 22 is a reverse movement parameter of the movement parameter calculated by the movement parameter calculation unit 19, an inverse conversion of the secondary perspective conversion calculated by the secondary perspective conversion coordinate calculation unit 18, and a planar projection conversion matrix. Using the inverse transformation matrix of the planar projective transformation matrix calculated by the calculation unit 8, the coordinate position on the multi-view image n (1 ≦ n ≦ 8) received by the multi-view position specification unit 21 is converted into the original A process of converting to a coordinate position on the image n (1 ≦ n ≦ 8) is performed.

図2は8台のカメラ1−n(1≦n≦8)を使用して画像を撮影している様子を示す説明図であり、図3はカメラ1−1,1−3,1−5,1−7により撮影された画像を示す説明図である。   FIG. 2 is an explanatory diagram showing a situation where images are taken using eight cameras 1-n (1 ≦ n ≦ 8), and FIG. 3 shows cameras 1-1, 1-3, and 1-5. , 1-7.

次に動作について説明する。
この実施の形態1では、図2に示すように、水平な平面で構成される床面を考え、その床面に「ぬいぐるみ」や「花瓶」を置き、「ぬいぐるみ」や「花瓶」の周囲を囲むように、ほぼ同じ大きさの三脚に固定された8台のカメラ1−n(1≦n≦8)を並べるものとする。
ただし、8台のカメラ1−n(1≦n≦8)の全てが、図2に示している「全カメラの視野に入る床面領域」を撮影できる位置に設置されているものとする。
図2では、8台のカメラ1−nの設置形態や「全カメラの視野に入る床面領域」を、円形又は楕円形の点線で示しているが、実際にはこの点線は存在しなくてよい。
Next, the operation will be described.
In the first embodiment, as shown in FIG. 2, a floor surface composed of a horizontal plane is considered, and a “stuffed animal” or “vase” is placed on the floor surface, and the surroundings of the “stuffed animal” or “vase” are arranged. It is assumed that eight cameras 1-n (1 ≦ n ≦ 8) fixed on a tripod of substantially the same size are arranged so as to surround.
However, it is assumed that all of the eight cameras 1-n (1 ≦ n ≦ 8) are installed at positions where the “floor surface area within the field of view of all cameras” shown in FIG.
In FIG. 2, the installation form of the eight cameras 1-n and the “floor area that falls within the field of view of all cameras” are indicated by a circular or elliptical dotted line. However, this dotted line does not actually exist. Good.

また、図2の例では、「全カメラの視野に入る床面領域」の枠一杯に収まる四角形のマーキングが施されており、8台のカメラ1−n(1≦n≦8)の全てが「ぬいぐるみ」や「花瓶」に邪魔されずにマーキングの4つの角を撮影できる状態にあるものとする。
図2の例では、四角形のマーキングを利用するものについて示しているが、4点以上を撮影できるものであれば、四角形のマーキングに限るものではない。
また、8台のカメラ1−nが4点を同時に撮影するものとしているが、少なくとも4つ以上の同じ点が、異なる2つのカメラで同時に撮影できればよく、4角形の4角でなくてよい。
Further, in the example of FIG. 2, a square marking that fits the frame of “a floor area that falls within the field of view of all cameras” is provided, and all eight cameras 1-n (1 ≦ n ≦ 8) It is assumed that the four corners of the marking can be photographed without being disturbed by “stuffed animals” or “vases”.
In the example of FIG. 2, a case using a quadrangular marking is shown, but it is not limited to a quadrangular marking as long as four or more points can be photographed.
In addition, although eight cameras 1-n are supposed to photograph four points simultaneously, it is sufficient that at least four or more of the same points can be photographed simultaneously by two different cameras, and it is not necessary to be a quadrangular quadrangular.

図2において、垂直基準棒は「全カメラの視野に入る床面領域」の中央付近に垂直に立てられた棒であり、全体の長さの2分の1の位置にマーキングが施されている。
この垂直基準棒の最上位の頂点と、中央のマーキングと、床面と接している接点は、8台のカメラ1−n(1≦n≦8)の全てが「ぬいぐるみ」や「花瓶」に邪魔されずに撮影できる状態にあるものとする。
また、この垂直基準棒は十分細く、カメラ1−n(1≦n≦8)により撮影された場合、直線と見なすことができるものとする。
In FIG. 2, the vertical reference bar is a bar that stands vertically near the center of the “floor area that enters the field of view of all cameras”, and is marked at a position that is half the total length. .
The topmost vertex of the vertical reference bar, the center marking, and the contact point in contact with the floor surface are all the eight cameras 1-n (1 ≦ n ≦ 8) are used as “stuffed animals” and “vases”. It is assumed that the camera can be photographed without interruption.
The vertical reference rod is sufficiently thin and can be regarded as a straight line when photographed by the camera 1-n (1 ≦ n ≦ 8).

図2の例では、垂直基準棒は、異なる方向毎に撮影された場合の大きさの読み取りと、平面に垂直な直線の無限遠点を画像に投影した消失点を算出することを目的に利用されるものである。
垂直基準棒は、精度を高めるため、上記のような形態をしているが、垂直基準棒を大きさの読み取りのみに使用し、消失点の算出には、後で述べるような別の方法で算出するようにしてもよい。この場合、垂直基準棒は、上記のような形態でなくてもよく、例えば、実際の人などで代用してもよい。
In the example of FIG. 2, the vertical reference rod is used for the purpose of reading the size when taken in different directions and calculating the vanishing point obtained by projecting the infinity point of a straight line perpendicular to the plane onto the image. It is what is done.
The vertical reference bar is shaped as described above to improve accuracy, but the vertical reference bar is used only for reading the size, and the vanishing point is calculated by another method as described later. You may make it calculate. In this case, the vertical reference rod does not have to have the form as described above, and may be substituted by, for example, an actual person.

図2の垂直基準棒は、全体の長さの2分の1の位置にマーキングが施されているが、2分の1の位置でなくてもよく、その比率が分っていればよい。
また、図2の垂直基準棒は、「全カメラの視野に入る床面領域」の中央付近に立てられているが、中央付近でなくてよい。
また、図2の垂直基準棒は、最上位の頂点と、床面と接している接点と、中央のマーキングが、全てのカメラ1−n(1≦n≦8)から撮影可能としているが、必ずしも同じ垂直基準棒が撮影可能でなくてもよい。例えば、カメラ1−1とカメラ1−2で共通に撮影された垂直基準棒Aと、カメラ1−1とカメラ1−3で共通に撮影された垂直基準棒Bとが同じでなくてもよい。この場合は、カメラ1−1において、垂直基準棒Aの大きさと、垂直基準棒Bの大きさが分ればよい。なお、この実施例では、垂直方向や大きさの基準として、棒である垂直基準棒を利用した。この場合、いったん設置してしまえば形が崩れにくく、直線を測定しやすいという利点がある。一方、この用途として、棒ではなく、紐などを利用しても良い。この場合、先端に錘などをつけ、それを垂直に垂らして、先端が床に接するようにすればよい。この場合、垂直方向の制度が高く、また長さを調整しやすいという効果がある。
The vertical reference bar in FIG. 2 is marked at a position of a half of the entire length, but may not be a position of a half, and it is sufficient that the ratio is known.
Further, the vertical reference bar in FIG. 2 is set near the center of the “floor surface area that enters the field of view of all cameras”, but it may not be near the center.
In addition, the vertical reference bar in FIG. 2 can be photographed from all the cameras 1-n (1 ≦ n ≦ 8), with the topmost vertex, the contact point in contact with the floor surface, and the central marking, It is not always necessary to photograph the same vertical reference rod. For example, the vertical reference bar A photographed in common by the camera 1-1 and the camera 1-2 and the vertical reference stick B photographed in common by the camera 1-1 and the camera 1-3 may not be the same. . In this case, it is only necessary to know the size of the vertical reference rod A and the size of the vertical reference rod B in the camera 1-1. In this embodiment, a vertical reference bar, which is a bar, is used as a reference for the vertical direction and size. In this case, once installed, there is an advantage that the shape is not easily lost and it is easy to measure a straight line. On the other hand, a string or the like may be used for this purpose instead of a stick. In this case, a weight or the like is attached to the tip, and it is hung vertically so that the tip contacts the floor. In this case, the vertical system is high and the length can be easily adjusted.

図2では、カメラ1−7用の水平基準棒が描かれている。
水平基準棒は、例えば、対象とするカメラ(図3の例では、カメラ1−7)の光軸が、床面に垂直な方向に沿って平面に投影した直線に平行となるように床面に設置されている。
また、水平基準棒の長さの2分の1の箇所にマーキングが施されている。この水平基準棒の両端と中央のマーキングは、カメラ1−7から「ぬいぐるみ」や「花瓶」に邪魔されず、撮影できる状態にあるものとする。
また、この水平基準棒は十分細く、カメラ1−7により撮影された場合、直線と見なすことができるものとする。
また、この水平基準棒は、全体の長さの2分の1の位置にマーキングが施されているが、2分の1の位置でなくてもよく、その比率が分っていればよい。また、水平基準棒は、例えば「カメラの光軸を床面に垂直な方向に沿って床面に投影した直線に平行になるよう、床面に設置されている」としたが、この場合、精度が向上しやすいという効果がある。このほか、水平基準棒は、どちらの方向でもよく、その水平基準棒を含む床面上の直線の無限遠点を、画像に投影した消失点を利用すればよい。この場合、カメラごとに、水平基準棒を移動させなくて良いという効果がある。さらに図2に示したように、「床面にマーキングされた四角形の辺」を利用しても良い。さらに、この四角形を正方形や長方形、平行四辺形としておき、その向かい合った2つの辺を用いて床面上の直線の無限遠点を求め、それを画像に投影した消失点を利用しても良い。
なお、この実施例では、水平基準棒という棒を水平方向の基準として利用したが、上記で記載した「垂直基準棒の替わりに紐を用いる例」のように、紐などで代替しても良い。その場合、紐が直線状になるよう張力をかけておく必要があるが、一方で垂直基準棒を紐で大体した場合と同じような利点がある。
In FIG. 2, a horizontal reference bar for the camera 1-7 is drawn.
The horizontal reference bar is, for example, a floor surface so that the optical axis of the target camera (camera 1-7 in the example of FIG. 3) is parallel to a straight line projected onto a plane along a direction perpendicular to the floor surface. Is installed.
In addition, marking is provided at a half of the length of the horizontal reference bar. It is assumed that the markings at both ends and the center of the horizontal reference bar are ready to be photographed without being disturbed by the “stuffed toy” or “vase” from the camera 1-7.
The horizontal reference rod is sufficiently thin and can be regarded as a straight line when photographed by the camera 1-7.
In addition, the horizontal reference bar is marked at a position that is a half of the entire length, but it may not be a position that is a half, and it is sufficient that the ratio is known. In addition, the horizontal reference rod is, for example, “installed on the floor so that the optical axis of the camera is parallel to a straight line projected onto the floor along a direction perpendicular to the floor”. There is an effect that the accuracy is easily improved. In addition, the horizontal reference bar may be in either direction, and a vanishing point obtained by projecting a straight infinity point on the floor surface including the horizontal reference bar onto the image may be used. In this case, there is an effect that it is not necessary to move the horizontal reference bar for each camera. Furthermore, as shown in FIG. 2, “a square side marked on the floor” may be used. Furthermore, this quadrangle may be a square, a rectangle, or a parallelogram, and an infinite point of a straight line on the floor surface may be obtained using the two sides facing each other, and a vanishing point obtained by projecting it on the image may be used. .
In this embodiment, a horizontal reference bar is used as a horizontal reference. However, as described above, an example using a string instead of a vertical reference bar may be used instead of a string. . In that case, it is necessary to apply tension so that the string becomes linear, but on the other hand, there is an advantage similar to the case where the vertical reference bar is roughly made of a string.

この実施の形態1では、カメラ1−1〜1−8は、外部からの同じ同期タイミングによってシャッターを切り、また、同じ同期タイミングのフレームによって画像を撮影する。
このような同期したタイミングによる撮影は、被写体が動く場合には必須であるが、例えば、「ぬいぐるみ」や「花瓶」、水平基準棒/垂直基準棒、床面のマーキングなどが動かない場合は、同期していなくてもよい。その場合は、カメラ1−1〜1−8を8台用意しないで、1台のカメラで順次撮影してもよい。
また、この実施の形態1では、「ぬいぐるみ」や「花瓶」などのマルチビューしたい被写体と、マルチビューするために必要なパラメータを得るための水平基準棒/垂直基準棒、床面のマーキングなどを撮影した後、カメラを移動させないままそれらを撤去して「ぬいぐるみ」などのマルチビューしたい被写体を設置して撮影してもよい。この場合、カメラを動かさないよう注意する必要があるが、一方で基準棒や床面のマーキングが、マルチビューしたい被写体に遮られること無く撮影できるという利点がある。
In the first embodiment, the cameras 1-1 to 1-8 release the shutter at the same synchronization timing from the outside, and shoot an image with a frame at the same synchronization timing.
Shooting with such synchronized timing is essential when the subject moves. For example, if the stuffed animal, vase, horizontal reference bar / vertical reference bar, floor marking, etc. do not move, It does not have to be synchronized. In that case, it is possible to sequentially shoot with one camera without preparing eight cameras 1-1 to 1-8.
In the first embodiment, a subject to be multi-viewed such as “stuffed toy” or “vase”, a horizontal reference bar / vertical reference bar for obtaining parameters necessary for multi-viewing, floor surface marking, etc. After taking a picture, they may be removed without moving the camera, and a subject to be multi-viewed such as “stuffed toy” may be placed and photographed. In this case, care must be taken not to move the camera, but on the other hand, there is an advantage that the reference bar and the marking on the floor surface can be taken without being obstructed by the subject to be multiviewed.

以下、画像生成装置の処理内容を具体的に説明する。
カメラ1−n(1≦n≦8)が相互に異なる方向から同一の3次元領域を撮影すると、画像データ一時保存部2がカメラ1−n(1≦n≦8)により撮影されたオリジナル画像n(1≦n≦8)を一時的に保存する。
Hereinafter, the processing content of the image generation apparatus will be specifically described.
When the camera 1-n (1 ≦ n ≦ 8) captures the same three-dimensional area from different directions, the image data temporary storage unit 2 is an original image captured by the camera 1-n (1 ≦ n ≦ 8). n (1 ≦ n ≦ 8) is temporarily stored.

マルチビュー位置指定部3は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)の中から任意のオリジナル画像n1の選択を受け付け、そのオリジナル画像n1に存在するマルチビュー対象の物体(ユーザがマルチビューを希望する物体)の床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
マルチビュー位置指定部3における画像座標の読み取りは、ユーザがオリジナル画像n1を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
When the image data temporary storage unit 2 stores the original image n (1 ≦ n ≦ 8), the multi-view position specifying unit 3 stores an arbitrary original image n 1 from the original image n (1 ≦ n ≦ 8). A process of accepting selection and accepting designation of image coordinates indicating a position on the floor surface of an object to be viewed in the original image n 1 (an object for which the user desires multi-view) is performed.
The image coordinates are read by the multi-view position designating unit 3 while the user views the original image n 1 and, for example, operates the mouse to designate the position in the image, thereby reading the image coordinates at that position. Alternatively, it may be automatically specified by some method.

また、基準位置指定部4は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)の中から任意のオリジナル画像n2の選択を受け付け、そのオリジナル画像n2に存在する垂直基準棒が床面に垂直に接している床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
基準位置指定部4における画像座標の読み取りは、ユーザがオリジナル画像n2を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
床面座標読取部5は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)の床面上に共通に存在しているマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を読み取る処理を実施する。
床面座標読取部5における画像座標の読み取りは、ユーザがオリジナル画像nを見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
Further, when the image data temporary storage unit 2 stores the original image n (1 ≦ n ≦ 8), the reference position specifying unit 4 selects an arbitrary original image n 2 from the original image n (1 ≦ n ≦ 8). And a process of receiving designation of image coordinates indicating the position on the floor surface where the vertical reference bar existing in the original image n 2 is in contact with the floor surface.
The reading of the image coordinates in the reference position specifying unit 4 may be performed by reading the image coordinates of the position by, for example, operating the mouse and specifying the position in the image while the user views the original image n 2. Alternatively, it may be automatically specified by some method.
When the image data temporary storage unit 2 stores the original image n (1 ≦ n ≦ 8), the floor surface coordinate reading unit 5 exists in common on the floor surface of the original image n (1 ≦ n ≦ 8). Processing for reading the image coordinates of the vertex (1), vertex (2), vertex (3), and vertex (4) of the marking is performed.
The reading of the image coordinates in the floor surface coordinate reading unit 5 may be performed by, for example, operating the mouse to specify the position in the image while the user views the original image n, thereby reading the image coordinates at that position. Alternatively, it may be automatically specified by some method.

また、水平消失点算出部6は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの水平消失点、即ち、例えば、カメラ1−nの光軸を床面に垂直な方向に投影した床面上の直線の無限遠点を撮影画像に投影した消失点の画像座標を算出する。
水平消失点の算出方法としては、例えば、上記床面の上記条件を満たす直線上におかれた水平基準棒を使用して求めることができる。
即ち、水平基準棒には、マーキングが施されており、そのマーキングの実際の位置と、画像上の見かけの位置から水平消失点を求めることができる(水平消失点の詳細な求め方は、垂直消失点の求め方と同様であるため、後述する垂直消失点の求め方を参照)。
この他、上記床面上の直線に平行な直線を2つ以上設定して、それらの直線を画像に投影した場合の交点を消失点として利用することもできる。
In addition, when the image data temporary storage unit 2 stores the original image n (1 ≦ n ≦ 8), the horizontal vanishing point calculation unit 6 performs horizontal processing of the original image n for each original image n (1 ≦ n ≦ 8). The vanishing point, for example, the image coordinates of the vanishing point obtained by projecting the infinity point of a straight line on the floor surface obtained by projecting the optical axis of the camera 1-n in the direction perpendicular to the floor surface is calculated.
As a method of calculating the horizontal vanishing point, for example, it can be obtained by using a horizontal reference bar placed on a straight line that satisfies the above-mentioned conditions of the floor surface.
That is, the horizontal reference bar is marked, and the horizontal vanishing point can be obtained from the actual position of the marking and the apparent position on the image. Since this is the same as the method for obtaining the vanishing point, see the method for obtaining the vertical vanishing point described later).
In addition, it is also possible to set two or more straight lines parallel to the straight line on the floor and use the intersection point when these straight lines are projected on the image as vanishing points.

垂直消失点算出部7は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの垂直消失点、即ち、床面に垂直な直線の無限遠点を画像に投影した消失点の画像座標を算出する。
以下、垂直消失点の算出方法の一例を説明する。
この実施の形態1では、全てのオリジナル画像n(1≦n≦8)に垂直基準棒が存在しており、垂直基準棒は、図6に示すように、その長さ方向の中央にマーキングが施されている。
垂直基準棒が図6に示すように画像に投影されている場合において、垂直基準棒上の3点X1、X2、X3と、3点X1、X2、X3を通る直線上の無限遠点Xが、画像において、それぞれx1、x2、x3、xに投影されたものとする。
When the image data temporary storage unit 2 stores the original image n (1 ≦ n ≦ 8), the vertical vanishing point calculation unit 7 calculates the vertical vanishing point of the original image n for each original image n (1 ≦ n ≦ 8). That is, the image coordinates of the vanishing point obtained by projecting a straight line infinity point perpendicular to the floor surface to the image are calculated.
Hereinafter, an example of a method for calculating the vertical vanishing point will be described.
In the first embodiment, a vertical reference bar exists in all original images n (1 ≦ n ≦ 8), and the vertical reference bar has a marking at the center in the length direction as shown in FIG. It has been subjected.
When the vertical reference bar is projected on the image as shown in FIG. 6, the three points X1, X2, and X3 on the vertical reference bar and the infinity point X on the straight line passing through the three points X1, X2, and X3. but in the image, respectively x1, x2, x3, and those projected to x ∞.

このとき、このような直線上の4点から計算される複比は、投影前後では不変であるので、以下の式(1)が成立する。

Figure 2008109481
式(1)において、Xは無限に遠い点であるから|X−X2|/|X−X3|=1であり、また、垂直基準棒の実距離の比は|X1−X2|/|X1−X3|=2である。
また、|x1−x2|/|x1−x3|は、画像座標から得ることができるので、垂直消失点xの座標(xvin,yvin)を算出することができる。
詳細は非特許文献「小島他 “消失点を用いた多視点カメラキャリブレーション”FIT2004」に開示されている。
この他、上記床面に垂直な直線(棒などで代用する)を2つ以上設定して、それらの直線を画像に投影した場合の2つの直線の交点を垂直消失点として利用することもできる。 At this time, since the cross ratio calculated from the four points on the straight line is unchanged before and after the projection, the following equation (1) is established.
Figure 2008109481
In the formula (1), X infinitely distant point because it | X ∞ -X 2 | / | X ∞ -X 3 | a = 1, also, the ratio of the actual distance of the vertical reference rod | X 1 -X 2 | / | X 1 -X 3 | a = 2.
Since | x 1 −x 2 | / | x 1 −x 3 | can be obtained from the image coordinates, the coordinates (x vin , y vin ) of the vertical vanishing point x can be calculated.
Details are disclosed in the non-patent document “Kojima et al.“ Multi-viewpoint camera calibration using vanishing points ”FIT 2004”.
In addition, it is possible to set two or more straight lines (substitute with a bar or the like) perpendicular to the floor surface and use the intersection of the two straight lines as a vertical vanishing point when these straight lines are projected on an image. .

平面射影変換行列算出部8は、床面座標読取部5がオリジナル画像n(1≦n≦8)の床面上に共通に存在しているマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を読み取ると、オリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)間で、床面を構成する平面の平面射影変換行列Hn1-1〜Hn1-8(1≦n1≦8の7個)を算出する。
また、平面射影変換行列算出部8は、オリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)間で、床面を構成する平面の平面射影変換行列Hn2-1〜Hn2-8(1≦n2≦8の7個)を算出する。
なお、平面射影変換行列の算出方法は、例えば、非特許文献「出口光一郎 “ロボットビジョンの基礎”p47(本文献ではホモグラフィー行列と記載されている)」に記載されている。
The planar projective transformation matrix calculation unit 8 includes a marking vertex (1), a vertex (2), and a vertex that are commonly present on the floor surface of the original image n (1 ≦ n ≦ 8). (3) When the image coordinates of the vertex (4) are read, the marking vertex (1), vertex (2), vertex (3) in the original image n 1 and other original images n (excluding the original image n 1 ) , Using the image coordinates of the vertex (4), between the original image n 1 and another original image n (excluding the original image n 1 ), a plane projection transformation matrix H n1-1 of the plane constituting the floor surface H n1-8 (7 pieces of 1 ≦ n 1 ≦ 8) is calculated.
Further, the plane projective transformation matrix calculation unit 8 performs marking vertex (1), vertex (2), vertex (3), vertex (4) in the original image n 2 and other original images n (excluding the original image n 2 ). ), The plane projection transformation matrices H n2-1 to H n2-8 of the plane constituting the floor surface between the original image n 2 and another original image n (excluding the original image n 2 ) are used. (7 of 1 ≦ n 2 ≦ 8) is calculated.
The calculation method of the planar projective transformation matrix is described in, for example, the non-patent document “Koichiro Deguchi“ Basics of Robot Vision ”p47 (described as a homography matrix in this document)”.

マルチビュー位置算出部9は、平面射影変換行列算出部8が平面射影変換行列Hn1-1〜Hn1-8を算出すると、その平面射影変換行列Hn1-1〜Hn1-8を用いて、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する。
即ち、マルチビュー位置算出部9は、平面射影変換行列Hn1-1〜Hn1-8を用いて、マルチビュー位置指定部3により指定が受け付けられたマルチビュー対象の物体の床面上の位置を示す画像座標、または、マルチビュー画像座標変換部22により変換された画像座標を、オリジナル画像n(オリジナル画像n1を除く)の画像座標に変換することにより、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する。
なお、マルチビュー位置指定部3により指定が受け付けられたマルチビュー対象の物体の床面上の位置を示す画像座標を変換するか、あるいは、マルチビュー画像座標変換部22により変換された画像座標を変換するかは、例えば、システムの起動時のみ、前者を選択するようにしてもよいし、両者を常に監視しておいて、変化があった方を選択するようにしてもよい。
When the plane projection transformation matrix calculation unit 8 calculates the plane projection transformation matrices H n1-1 to H n1-8 , the multi-view position calculation unit 9 uses the plane projection transformation matrices H n1-1 to H n1-8. Then, the image coordinates indicating the position on the floor surface of the object of the multi-view target existing in the original image n (excluding the original image n 1 ) are calculated.
That is, the multi-view position calculation unit 9 uses the plane projection transformation matrices H n1-1 to H n1-8 to determine the position on the floor of the object to be multi-viewed that has been designated by the multi-view position designation unit 3. Or the image coordinates converted by the multi-view image coordinate conversion unit 22 is converted into the image coordinates of the original image n (excluding the original image n 1 ), thereby obtaining the original image n (original image n 1). Image coordinates indicating the position on the floor surface of the object of the multi-view target existing in (1) is calculated.
Note that the image coordinates indicating the position on the floor surface of the object of the multi-view target that has been designated by the multi-view position designating unit 3 are converted, or the image coordinates converted by the multi-view image coordinate converting unit 22 are converted. For conversion, for example, the former may be selected only when the system is activated, or both may be monitored constantly and the one that has changed may be selected.

基準位置算出部10は、平面射影変換行列算出部8が平面射影変換行列Hn2-1〜Hn2-8を算出すると、その平面射影変換行列Hn2-1〜Hn2-8を用いて、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する。
即ち、基準位置算出部10は、平面射影変換行列Hn2-1〜Hn2-8を用いて、基準位置指定部4により指定が受け付けられたオリジナル画像n2内の垂直基準棒の床面位置を示す画像座標を、オリジナル画像n(オリジナル画像n2を除く)の画像座標に変換することにより、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する。
When the plane projection transformation matrix calculation unit 8 calculates the plane projection transformation matrices H n2-1 to H n2-8 , the reference position calculation unit 10 uses the plane projection transformation matrices H n2-1 to H n2-8 . Image coordinates indicating the position of the vertical reference bar on the floor surface existing in the original image n (excluding the original image n 2 ) are calculated.
That is, the reference position calculation unit 10 uses the plane projection transformation matrices H n2-1 to H n2-8 to specify the floor position of the vertical reference bar in the original image n 2 that has been specified by the reference position specification unit 4. Is converted into the image coordinates of the original image n (excluding the original image n 2 ), so that the position on the floor surface of the vertical reference bar existing in the original image n (excluding the original image n 2 ) is converted. The image coordinates shown are calculated.

ここまでは、マルチビュー位置指定部3により選択が受け付けられたオリジナル画像がオリジナル画像n1であり、基準位置指定部4により選択が受け付けられたオリジナル画像がオリジナル画像n2であるものについて示したが、オリジナル画像n1とオリジナル画像n2が別々の画像でも、同一の画像でもよい。
オリジナル画像n1とオリジナル画像n2が同一のオリジナル画像であれば(n1=n2)、平面射影行列は、Hn1-1〜Hn1-8(1≦n1≦8)の7個のみでよい。
以後、n1=n2である場合について説明する。
Up to this point, the original image whose selection has been received by the multi-view position specifying unit 3 is the original image n 1 , and the original image whose selection has been received by the reference position specifying unit 4 is the original image n 2 . However, the original image n 1 and the original image n 2 may be separate images or the same image.
If the original image n 1 and the original image n 2 are the same original image (n 1 = n 2 ), there are seven plane projection matrices H n1-1 to H n1-8 (1 ≦ n 1 ≦ 8). Only need.
Hereinafter, a case where n 1 = n 2 will be described.

画像内倍率算出部11は、マルチビュー位置算出部9がオリジナル画像n(1≦n≦8)に存在するマルチビュー対象の床面位置を示す画像座標を算出し、基準位置算出部10がオリジナル画像nに存在する垂直基準棒の床面上の位置を示す画像座標を算出すると、それらの画像座標と、水平消失点算出部6により算出されたオリジナル画像nの水平消失点の画像座標とを用いて、マルチビュー対象の物体を垂直基準棒と同じ奥行きの床面位置まで移動させた場合のマルチビュー対象の物体の画像内倍率mn(マルチビュー対象の物体の大きさの見え方の変化倍率)を算出する。 The in-image magnification calculation unit 11 calculates image coordinates indicating the floor surface position of the multi-view target existing in the original image n (1 ≦ n ≦ 8) by the multi-view position calculation unit 9, and the reference position calculation unit 10 performs the original position calculation. When the image coordinates indicating the position on the floor surface of the vertical reference bar existing in the image n are calculated, the image coordinates and the image coordinates of the horizontal vanishing point of the original image n calculated by the horizontal vanishing point calculating unit 6 are obtained. Use this to move the multi-view target object to the floor position at the same depth as the vertical reference bar. In-image magnification m n of the multi-view target object (change in the appearance of the multi-view target object Magnification) is calculated.

以下、画像内倍率の算出方法を説明する。
図4は水平消失点が画像中心にある場合で、カメラの光軸が床面に平行になるように、かつ、カメラ画像の横軸がほぼ床面に平行になるように設置されている例を示す説明図である。
また、図5は水平消失点が画像の中心より上方にある場合で、カメラ画像の横軸がほぼ床面に平行であるが、カメラの光軸を水平な床面に対して、やや下向きにして撮影している例を示す説明図である。
Hereinafter, a method for calculating the in-image magnification will be described.
FIG. 4 shows an example in which the horizontal vanishing point is at the center of the image, and the camera is installed so that the optical axis of the camera is parallel to the floor and the horizontal axis of the camera image is substantially parallel to the floor. It is explanatory drawing which shows.
FIG. 5 shows a case where the horizontal vanishing point is above the center of the image, and the horizontal axis of the camera image is substantially parallel to the floor surface, but the optical axis of the camera is slightly downward with respect to the horizontal floor surface. It is explanatory drawing which shows the example currently image | photographed.

図4及び図5において、水平消失点の座標を(xhin,yhin)、マルチビュー対象の物体の位置座標を(xmv,ymv)、垂直基準棒と同じ奥行きの位置座標を(xb,yb)とすると、マルチビュー対象の物体を垂直基準棒の位置に移動させた場合、マルチビュー対象の物体の大きさは以下の式(2)のように近似することができる。したがって、以下の式(2)から画像内倍率mnを算出することができる。

Figure 2008109481

また、これらの垂直基準棒の位置や大きさ、および水平消失点の位置を図4や図5に示すように利用することで、被写体である物体の大きさや人物の身長などを精度よく推定することができる。またそれらの物体や人物の大きさがわかっている場合、その物体や人物が存在する床面上の位置を容易に知ることができる。 4 and 5, the coordinates of the horizontal vanishing point are (x hin , y hin ), the position coordinates of the multi-view target object are (x mv , y mv ), and the position coordinates of the same depth as the vertical reference bar are (x Assuming that b , y b ), the size of the multi-view target object can be approximated by the following equation (2) when the multi-view target object is moved to the position of the vertical reference bar. Therefore, the in-image magnification m n can be calculated from the following equation (2).
Figure 2008109481

Further, by using the position and size of these vertical reference bars and the position of the horizontal vanishing point as shown in FIG. 4 and FIG. 5, the size of the object that is the subject, the height of the person, etc. can be accurately estimated. be able to. In addition, when the sizes of these objects and persons are known, it is possible to easily know the position on the floor where the objects and persons exist.

カメラ水平軸歪補正パラメータ算出部12は、垂直消失点算出部7がオリジナル画像n(1≦n≦8)の垂直消失点xの座標(xvin,yvin)を算出すると、オリジナル画像nの垂直消失点xの座標(xvin,yvin)を用いて、オリジナル画像nを撮影する際のカメラ1−nの傾きに起因する水平軸歪の補正パラメータを算出する。
即ち、カメラ水平軸歪補正パラメータ算出部12は、例えば、図6に示すような画像の垂直軸に対して、画像の中心点B(xsize/2,ysize/2)と垂直消失点xとを結ぶ直線の傾き(角度rz)をカメラ水平軸歪と近似できると見なして、その角度rzを算出する。
例えば、オリジナル画像の横サイズがxsize、縦サイズがysizeであり、垂直消失点xの座標が(xvin,yvin)であって、yvin≫xsize、yvin≫ysizeであるとすると、以下の式(3)が成立する。

Figure 2008109481
When the vertical vanishing point calculating unit 7 calculates the coordinates (x vin , y vin ) of the vertical vanishing point x of the original image n (1 ≦ n ≦ 8), the camera horizontal axis distortion correction parameter calculating unit 12 calculates the original image n. Using the coordinates (x vin , y vin ) of the vertical vanishing point x , a correction parameter for the horizontal axis distortion caused by the tilt of the camera 1-n when the original image n is captured is calculated.
That is, for example, the camera horizontal axis distortion correction parameter calculation unit 12 performs the image center point B (x size / 2, y size / 2) and the vertical vanishing point x with respect to the vertical axis of the image as shown in FIG. Considering that the inclination (angle rz) of the straight line connecting can be approximated to the camera horizontal axis distortion, the angle rz is calculated.
For example, the horizontal size of the original image is x size , the vertical size is y size , the coordinates of the vertical vanishing point x are (x vin , y vin ), and y vin >> x size , y vin >> y size If there is, the following equation (3) is established.
Figure 2008109481

ここでは、画像の垂直軸に対して、画像の中心点B(xsize/2,ysize/2)と垂直消失点xとを結ぶ直線の傾き(角度rz)をカメラ水平軸歪と近似できると見なして、その角度rzを算出するものについて示したが、画像の垂直軸に対して、画像の上端の中点(xsize/2,0)や、画像の下端の中点(xsize/2,ysize)とを結ぶ直線の傾きをカメラ水平軸歪と近似できると見なしてもよい。
さらに、近似ではなく、正確な角度を算出して利用してもよい。
また、これ以外の画像の上端の中点(xsize/2,0)と、画像の下端の中点(xsize/2,ysize)を結ぶ直線上の点を用いてもよく、これ以外の画像内部の点を用いてもよい。さらには、画像を含む平面上の点を利用してもよい。
Here, with respect to the vertical axis of the image, the inclination (angle rz) of the straight line connecting the center point B (x size / 2, y size / 2) of the image and the vertical vanishing point x is approximated to the camera horizontal axis distortion. Assuming that it is possible to calculate the angle rz, the center point of the upper end of the image (x size / 2, 0) and the center point of the lower end of the image (x size are shown). / 2, y size ) may be regarded as being able to approximate the camera horizontal axis distortion.
Furthermore, instead of approximation, an accurate angle may be calculated and used.
Also, the other image of the upper end of the middle point (x size / 2,0), the midpoint of the lower end of the image (x size / 2, y size ) may be used a point on a line connecting the, other A point inside the image may be used. Furthermore, you may utilize the point on the plane containing an image.

透視投影歪補正パラメータ算出部13は、垂直消失点算出部7がオリジナル画像n(1≦n≦8)の垂直消失点xの座標(xvin,yvin)を算出すると、垂直消失点xの座標(xvin,yvin)を用いて、カメラ1−nの撮影時に3次元空間を2次元平面に透視投影することに起因する画像の透視投影歪の補正パラメータを算出する。
透視投影歪は、カメラで撮影することにより生じたと考えられる歪、即ち、3次元空間内の物体を平面に射影変換したことによって発生したと考えられる歪であり、例えば、3次元空間において、水平な床面に対して垂直な直線が複数ある場合、それらの直線を画像に透視投影した場合、画像上では直線が互いに平行でなくなる現象である。
The perspective projection distortion correction parameter calculation unit 13 calculates the vertical vanishing point x when the vertical vanishing point calculation unit 7 calculates the coordinates (x vin , y vin ) of the vertical vanishing point x of the original image n (1 ≦ n ≦ 8). Using the coordinates (x vin , y vin ) of , a correction parameter for the perspective projection distortion of the image resulting from the perspective projection of the three-dimensional space onto the two-dimensional plane at the time of photographing by the camera 1-n is calculated.
The perspective projection distortion is a distortion that is considered to be caused by photographing with a camera, that is, a distortion that is considered to be generated by projective transformation of an object in a three-dimensional space to a plane. This is a phenomenon in which when there are a plurality of straight lines perpendicular to the floor surface and the straight lines are projected on the image, the straight lines are not parallel to each other on the image.

透視投影歪補正パラメータ算出部13では、図6に示すように、先にカメラ水平軸歪を補正した画像に対して、画像の中心点B(xsize/2,ysize/2)を含む画像の水平ラインの第1画素(0,ysize/2)と垂直消失点とを結ぶ直線と、カメラ水平軸歪を補正した後の画像の垂直軸とのなす角(角度rx)で透視投影歪が近似できると見なして、その角度rxを算出する。
例えば、オリジナル画像の横サイズがxsize、縦サイズがysizeであり、垂直消失点xの座標が(xvin,yvin)であって、yvin≫xsize、yvin≫ysizeであるとすると、以下の式(4)が成立する。

Figure 2008109481
As shown in FIG. 6, the perspective projection distortion correction parameter calculation unit 13 includes an image including the center point B (x size / 2, y size / 2) of the image with respect to the image whose camera horizontal axis distortion has been corrected previously. Perspective projection distortion at an angle (angle rx) between the straight line connecting the first pixel (0, y size / 2) of the horizontal line and the vertical vanishing point and the vertical axis of the image after correcting the camera horizontal axis distortion Is approximated and the angle rx is calculated.
For example, the horizontal size of the original image is x size , the vertical size is y size , the coordinates of the vertical vanishing point x are (x vin , y vin ), and y vin >> x size , y vin >> y size If there is, the following equation (4) is established.
Figure 2008109481

ここでは、水平軸歪の補正角度rzが十分小さいものとして、透視投影歪の補正角度rxを、「画像の中心点B(xsize/2,ysize/2)を含む画像の水平ラインの第1画素(0,ysize/2)における垂直軸の傾き(角度rx)で透視投影歪が近似できる」と見なしているが、図6に示すように、直線BXに垂直な画像の中心点を通る直線上の点の座標を利用してもよい。
また、「画像の中心点B(xsize/2,ysize/2)を含む画像の水平ラインの第xsize画素(xsize,ysize/2)における垂直軸の傾きで透視投影歪が近似できる」としてもよく、その他の画像の左右両端上の点を結ぶ直線を利用してもよく、これ以外の画像内の点を結ぶ直線を利用してもよい。
さらに、近似ではなく、正確な角度を算出して利用してもよい。
Here, assuming that the horizontal axis distortion correction angle rz is sufficiently small, the perspective projection distortion correction angle rx is defined as “the first horizontal line of the image including the center point B (x size / 2, y size / 2) of the image”. It is assumed that the perspective projection distortion can be approximated by the inclination (angle rx) of the vertical axis at one pixel (0, y size / 2). However, as shown in FIG. 6, the center point of the image perpendicular to the straight line BX The coordinates of a point on a straight line passing through may be used.
Further, “the perspective projection distortion is approximated by the inclination of the vertical axis at the x size pixel (x size , y size / 2) of the horizontal line of the image including the center point B (x size / 2, y size / 2) of the image. Can be used ", a straight line connecting points on the left and right ends of another image may be used, or a straight line connecting points in the other image may be used.
Furthermore, instead of approximation, an accurate angle may be calculated and used.

1次補正画像生成部14は、カメラ水平軸歪補正パラメータ算出部12が水平軸歪の補正パラメータを算出し、透視投影歪補正パラメータ算出部13が透視投影歪の補正パラメータを算出すると、その水平軸歪の補正パラメータと透視投影歪の補正パラメータとを用いて、オリジナル画像nの水平軸歪と透視投影歪を補正し、補正後の画像を1次補正画像n(1≦n≦8)として出力する。
即ち、1次補正画像生成部14は、図7に示すように、3次元座標の原点を画像中心とし、かつ、その画像がXY平面に含まれるように3次元座標軸を設定し、透視投影のスクリーンをZ軸に垂直な平面上に設定し、また、視点をZ軸上に設定する場合を考える。
このとき、画像をZ軸の周りにrz回転し、X軸の周りにrx回転した場合のスクリーンへの透視投影像を算出し、これを1次補正画像として出力する。
このとき、rzはカメラ水平歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータであり、rxは透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータである。
When the camera horizontal axis distortion correction parameter calculation unit 12 calculates a correction parameter for horizontal axis distortion and the perspective projection distortion correction parameter calculation unit 13 calculates a correction parameter for perspective projection distortion, the primary correction image generation unit 14 calculates the horizontal correction. Using the correction parameter for axial distortion and the correction parameter for perspective projection distortion, the horizontal axis distortion and perspective projection distortion of the original image n are corrected, and the corrected image is defined as a primary corrected image n (1 ≦ n ≦ 8). Output.
That is, as shown in FIG. 7, the primary corrected image generation unit 14 sets the three-dimensional coordinate axis so that the origin of the three-dimensional coordinate is the image center and the image is included in the XY plane, and performs perspective projection. Consider a case where the screen is set on a plane perpendicular to the Z axis and the viewpoint is set on the Z axis.
At this time, the image is rotated by rz around the Z axis, and a perspective projection image on the screen when the image is rotated by rx around the X axis is calculated and output as a primary correction image.
At this time, rz is a horizontal axis distortion correction parameter calculated by the camera horizontal distortion correction parameter calculation unit 12, and rx is a perspective projection distortion correction parameter calculated by the perspective projection distortion correction parameter calculation unit 13.

図8は図7の3次元座標をX軸の正方向から見た説明図である。
図8の例では、カメラ水平軸歪補正パラメータ算出部12が画像中心における水平軸歪の補正パラメータを算出し、透視投影歪補正パラメータ算出部13が画像中心を含む画像の水平軸上の点における透視変換歪補正パラメータを算出し、1次補正画像生成部14が画像中心を原点とする透視投影変換を実施するが、画像中心でない点の水平軸歪の補正パラメータと透視変換歪の補正パラメータを算出しておき、その画像中心でない点を原点とする透視投影変換を実施してもよい。また、両者を一致させないで、透視変換を行ってもよい。
FIG. 8 is an explanatory view of the three-dimensional coordinates of FIG. 7 viewed from the positive direction of the X axis.
In the example of FIG. 8, the camera horizontal axis distortion correction parameter calculation unit 12 calculates a horizontal axis distortion correction parameter at the image center, and the perspective projection distortion correction parameter calculation unit 13 at a point on the horizontal axis of the image including the image center. The perspective transformation distortion correction parameter is calculated, and the primary correction image generation unit 14 performs the perspective projection transformation with the image center as the origin. The horizontal axis distortion correction parameter and the perspective transformation distortion correction parameter of the point that is not the image center are set. It may be calculated and perspective projection conversion with the point that is not the center of the image as the origin may be performed. Further, the perspective transformation may be performed without matching the two.

基準長読取部15は、1次補正画像生成部14が1次補正画像n(1≦n≦8)を出力すると、その1次補正画像n内の垂直基準棒の見かけの長さLnを読み取る。このとき、ユーザが1次補正画像nを見ながら読み取ってもよいし、何らかの方法で自動的に読み取ってもよい。
ここでは、1次補正画像n内の垂直基準棒の見かけの長さLnを読み取るものについて示したが、オリジナル画像n内の垂直基準棒の見かけの長さLnを読み取るようにしてもよい。
この場合、処理が単純になるため、処理速度の向上を図ることができる効果がある。
画像間倍率算出部16は、基準長読取部15が1次補正画像n内の垂直基準棒の見かけの長さLnを読み取ると、1次補正画像n内の垂直基準棒の見かけの長さLnと、画像内倍率算出部11により算出されたマルチビュー対象の物体の画像内倍率mnとを用いて、1次補正画像n(1≦n≦8)におけるマルチビュー対象の物体を同じ大きさで表示する場合の画像間倍率mo1nを1次補正画像n毎に算出する。
When the primary correction image generation unit 14 outputs the primary correction image n (1 ≦ n ≦ 8), the reference length reading unit 15 determines the apparent length L n of the vertical reference bar in the primary correction image n. read. At this time, the user may read while viewing the primary correction image n, or may automatically read by some method.
Here, the reading of the apparent length L n of the vertical reference bar in the primary correction image n is shown, but the apparent length L n of the vertical reference bar in the original image n may be read. .
In this case, since the process becomes simple, there is an effect that the processing speed can be improved.
When the reference length reading unit 15 reads the apparent length L n of the vertical reference bar in the primary correction image n, the inter-image magnification calculation unit 16 apparent length of the vertical reference bar in the primary correction image n The same multi-view target object in the primary correction image n (1 ≦ n ≦ 8) is used by using L n and the intra-image magnification m n of the multi-view target object calculated by the intra-image magnification calculation unit 11. An inter-image magnification ratio m o1n when displaying in size is calculated for each primary correction image n.

Figure 2008109481
ただし、L1はオリジナル画像n1の1次補正画像n1から基準長読取部15により読み取られ垂直基準棒の長さである。
式(5)のL1は、倍率molnを適当な範囲に収めるために使用される定数であるため、実際の基準棒の見かけの長さそのものでなくてもよく、全てのオリジナル画像nで同じであればよい。
Figure 2008109481
However, L 1 is the length of the vertical reference rod read by reference length reading unit 15 from the primary corrected image n 1 original image n 1.
Since L 1 in equation (5) is a constant used to keep the magnification moln within an appropriate range, it does not have to be the apparent length of the actual reference bar itself, and in all original images n If it is the same.

2次補正画像生成部17は、画像間倍率算出部16が画像間倍率mo1nを1次補正画像n毎に算出すると、その画像間倍率mo1nと、カメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータとを用いて、2次透視変換を実施することにより、オリジナル画像n(1≦n≦8)の歪や大きさを補正し、補正後の画像を2次補正画像n(1≦n≦8)として出力する。
即ち、2次補正画像生成部17は、1次補正画像生成部14と同様に、3次元座標軸を設定して、スクリーン上に透視変換画像を生成し、2次補正画像として出力する。
このとき、1次補正画像生成部14では、Z軸の回転rzとX軸の回転rx以外のパラメータである画像の倍率(スクリーン上に透視変換された画像の倍率)が1倍であるものを示したが、この2次補正画像生成部17では、上記スクリーン上の倍率をmo1nとしている。
When the inter-image magnification calculation unit 16 calculates the inter-image magnification m o1n for each primary correction image n, the secondary correction image generation unit 17 uses the inter-image magnification m o1n and the camera horizontal axis distortion correction parameter calculation unit 12. By performing secondary perspective transformation using the calculated horizontal axis distortion correction parameter and the perspective projection distortion correction parameter calculated by the perspective projection distortion correction parameter calculation unit 13, the original image n (1 ≦ 1) is obtained. n ≦ 8) is corrected, and the corrected image is output as a secondary corrected image n (1 ≦ n ≦ 8).
That is, like the primary correction image generation unit 14, the secondary correction image generation unit 17 sets a three-dimensional coordinate axis, generates a perspective transformation image on the screen, and outputs it as a secondary correction image.
At this time, the primary correction image generation unit 14 has an image magnification (magnification of the image perspective-transformed on the screen) which is a parameter other than the Z-axis rotation rz and the X-axis rotation rx being 1 ×. As shown, the secondary correction image generation unit 17 sets the magnification on the screen to m o1n .

2次透視変換座標算出部18は、2次補正画像生成部17がカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを用いて、2次透視変換を実施した場合のマルチビュー対象の物体の画像座標(マルチビュー対象の物体の移動先の画像座標)を算出する。
移動パラメータ算出部19は、2次透視変換座標算出部18がマルチビュー対象の物体の移動先の画像座標を算出すると、その移動先の画像座標と、画像中心(例えば、640×480の画像の場合、画像中心は(320,240))とのずれを移動パラメータとして算出する。
ここでは、画像中心にマルチビュー対象の物体が移動するように、画像中心とのずれを算出するものについて示したが、画像内の他の位置にマルチビュー対象の物体が移動するように、他の位置とのずれを算出するようにしてもよい。
The secondary perspective transformation coordinate calculation unit 18 is calculated by the correction parameter for the horizontal axis distortion calculated by the camera horizontal axis distortion correction parameter calculation unit 12 by the secondary correction image generation unit 17 and the perspective projection distortion correction parameter calculation unit 13. The image coordinates of the multi-view target object when the second perspective transformation is performed using the perspective projection distortion correction parameter and the inter-image magnification calculated by the inter-image magnification calculation unit 16 (multi-view target object). Image coordinates of the movement destination).
When the secondary perspective transformation coordinate calculation unit 18 calculates the image coordinates of the movement destination of the multi-view target object, the movement parameter calculation unit 19 and the image coordinates of the movement destination and the image center (for example, 640 × 480 image) are obtained. In this case, the deviation from the center of the image (320, 240) is calculated as a movement parameter.
In this example, the deviation from the center of the image is calculated so that the multi-view target object moves to the center of the image. The deviation from the position may be calculated.

マルチビュー画像生成部20は、移動パラメータ算出部19が移動パラメータを算出すると、その移動パラメータにしたがって、2次補正画像生成部17から出力された2次補正画像n(1≦n≦8)を移動させることにより、マルチビュー対象の物体が画像の中心に存在するマルチビュー画像n(1≦n≦8)を生成する。
即ち、マルチビュー画像生成部20は、2次補正画像生成部17から出力された2次補正画像n(1≦n≦8)を移動パラメータが示す移動量だけ移動することにより、2次補正画像n(1≦n≦8)からマルチビュー画像n(1≦n≦8)を生成する。
When the movement parameter calculation unit 19 calculates the movement parameter, the multi-view image generation unit 20 outputs the secondary correction image n (1 ≦ n ≦ 8) output from the secondary correction image generation unit 17 according to the movement parameter. By moving the object, a multi-view image n (1 ≦ n ≦ 8) in which the object to be multi-viewed exists at the center of the image is generated.
That is, the multi-view image generation unit 20 moves the secondary correction image n (1 ≦ n ≦ 8) output from the secondary correction image generation unit 17 by the movement amount indicated by the movement parameter, thereby correcting the secondary correction image. A multi-view image n (1 ≦ n ≦ 8) is generated from n (1 ≦ n ≦ 8).

図9は「ぬいぐるみ」の大きさが各画像で同じであり、かつ、「ぬいぐるみ」が各画像の中心に位置するように、図3の画像を変換している例を示す説明図である。
ただし、見易くするため、各画像に写っていた水平基準棒と垂直基準棒を省いている。
また、「花瓶に」ついては、図9のカメラ1−1の画像では、変形後でも画像の範囲に残っているが、カメラ1−3の画像、カメラ1−5の画像、カメラ1−7の画像では、画像の範囲外に移動しているため見えていない。「床面にマーキングされた四角形」については、画像の範囲外の部分は点線で示されている。
FIG. 9 is an explanatory diagram illustrating an example in which the image of FIG. 3 is converted so that the size of the “stuffed animal” is the same in each image and the “stuffed animal” is positioned at the center of each image.
However, for ease of viewing, the horizontal reference bar and the vertical reference bar that are shown in each image are omitted.
For “vase”, the image of the camera 1-1 in FIG. 9 remains in the range of the image even after the deformation, but the image of the camera 1-3, the image of the camera 1-5, and the image of the camera 1-7. The image is not visible because it has moved out of the image range. As for the “rectangle marked on the floor”, the portion outside the range of the image is indicated by a dotted line.

マルチビュー位置指定部21は、マルチビュー画像生成部20により生成されたマルチビュー画像n(1≦n≦8)に対して、新たなマルチビューの位置の指定を受け付ける処理を実施する。
新たなマルチビューの位置の指定は、ユーザがマルチビュー画像を見ながら指定してもよいし、何らかの方法で自動的に指定してもよい。
The multi-view position designation unit 21 performs a process of receiving designation of a new multi-view position for the multi-view image n (1 ≦ n ≦ 8) generated by the multi-view image generation unit 20.
The new multi-view position may be specified while the user is viewing the multi-view image, or may be automatically specified by some method.

マルチビュー画像座標変換部22は、マルチビュー位置指定部21が新たなマルチビューの位置の指定を受け付けると、移動パラメータ算出部19により算出された移動パラメータの逆移動パラメータと、2次透視変換座標算出部18により算出された2次透視変換の逆変換と、平面射影変換行列算出部8により算出された平面射影変換行列の逆変換行列とを用いて、マルチビュー位置指定部21により指定が受け付けられたマルチビュー画像n(1≦n≦8)上の座標位置(新たなマルチビューの位置)を、オリジナル画像n(1≦n≦8)上の座標位置に変換する。
ここでは、平面射影変換行列算出部8により算出された平面射影変換行列の逆変換行列を用いて、マルチビュー画像n(1≦n≦8)上の座標位置をオリジナル画像n(1≦n≦8)上の座標位置に変換するものについて示したが、平面射影変換行列の逆変換行列を用いないことでオリジナル画像n(1≦n≦8)上の座標位置に変換された段階の座標位置を、マルチビュー位置算出部9により算出されるオリジナル画像n毎のマルチビュー位置に相当する座標位置の代用としてもよい。
When the multi-view position specifying unit 21 receives the designation of a new multi-view position, the multi-view image coordinate converting unit 22 receives the reverse moving parameter of the moving parameter calculated by the moving parameter calculating unit 19 and the secondary perspective conversion coordinate. Using the inverse transformation of the secondary perspective transformation calculated by the calculation unit 18 and the inverse transformation matrix of the plane projection transformation matrix calculated by the plane projection transformation matrix calculation unit 8, designation is accepted by the multiview position designation unit 21. The coordinate position (new multi-view position) on the obtained multi-view image n (1 ≦ n ≦ 8) is converted to the coordinate position on the original image n (1 ≦ n ≦ 8).
Here, using the inverse transformation matrix of the planar projection transformation matrix calculated by the planar projection transformation matrix calculation unit 8, the coordinate position on the multi-view image n (1 ≦ n ≦ 8) is converted to the original image n (1 ≦ n ≦ 8). 8) Although shown about what is converted to the upper coordinate position, the coordinate position at the stage of being converted to the coordinate position on the original image n (1 ≦ n ≦ 8) by not using the inverse transformation matrix of the planar projective transformation matrix May be substituted for the coordinate position corresponding to the multi-view position for each original image n calculated by the multi-view position calculation unit 9.

以上で明らかなように、この実施の形態1によれば、マルチビュー位置算出部9により算出されたマルチビュー対象の物体の位置と基準位置算出部10により算出された垂直基準棒の床面位置と、基準長読取部15で算出された垂直基準棒の大きさを用いて、オリジナル画像n(1≦n≦8)におけるマルチビュー対象の物体の位置を揃え、かつ、マルチビュー対象の物体の大きさを同じにする画像倍率をオリジナル画像n毎に算出し、その画像倍率にしたがってオリジナル画像nを変換するように構成したので、高精度のカメラキャリブレーションを実施することなく、被写体の大きさや位置などが一致している見易い臨場感のある画像を生成することができる効果を奏する。   As is apparent from the above, according to the first embodiment, the position of the object to be multiviewed calculated by the multiview position calculation unit 9 and the floor position of the vertical reference bar calculated by the reference position calculation unit 10 Using the size of the vertical reference bar calculated by the reference length reading unit 15, the positions of the objects of the multi-view target in the original image n (1 ≦ n ≦ 8) are aligned, and Since the image magnification with the same size is calculated for each original image n and the original image n is converted according to the image magnification, the size of the subject can be determined without performing high-precision camera calibration. There is an effect that it is possible to generate an easy-to-see image with matching positions and the like.

即ち、この実施の形態1によれば、ある平面に接して置かれている物体がある方向から撮影された画像Aの変換後のマルチビュー画像と、その物体が別の方向から撮影された画像Bの変換後のマルチビュー画像とにおいては、上記物体の位置が同じで、かつ、大きさが等しいものになる。
また、マルチビュー画像を見ながら、平面上の異なる位置に置かれている別の物体の位置を指定することにより、その別の物体の位置が同じで、かつ、大きささが等しい新たなマルチビュー画像を、画像Aと画像Bから容易に生成することができる。
In other words, according to the first embodiment, an object placed in contact with a certain plane and a multi-view image after conversion of the image A photographed from a certain direction and an image obtained by photographing the object from another direction. In the multi-view image after the conversion of B, the position of the object is the same and the size is the same.
In addition, by specifying the position of another object placed at a different position on the plane while viewing the multi-view image, a new multi-view with the same position and the same size of the other object An image can be easily generated from images A and B.

例えば、上記カメラの光軸を床面に対して垂直に投影した直線である平面上の直線の無限遠点を撮影画像に投影した点である消失点(水平消失点)の位置と、画像Aと画像Bに写っている同じ物体Sの位置及び大きさと、物体Tの位置とから、物体Tの大きさが変換後の画像で同じになるような倍率を求めるので、物体Sと物体Tが上記平面内のどこにあっても、大きさを同じにするための倍率を精度良く求めることができる。
画像Aと画像Bのカメラの横方向の傾きに起因する歪と、撮影時の透視投影の原理に起因する歪とを、上記平面に対して垂直な直線の無限遠点を画像に投影した点である消失点(垂直消失点)と画像内部の点を結ぶ直線が画像の垂直軸となす角を、3次元空間に置いた画像の回転角として回転した後の透視投影変換を利用して、画像補正を行っているので、画像補正に伴って生じる物体の歪が少ない画像補正を行うことができる。また、補正に必要なパラメータを容易に決定することができる。
For example, the position of a vanishing point (horizontal vanishing point) that is a point obtained by projecting the infinity point of a straight line on a plane, which is a straight line obtained by projecting the optical axis of the camera perpendicular to the floor surface, and an image A And the position and size of the same object S appearing in the image B and the position of the object T, a magnification is obtained so that the size of the object T is the same in the converted image. The magnification for making the same size can be obtained with high precision anywhere in the plane.
A point obtained by projecting a distortion caused by the horizontal tilt of the camera of images A and B and a distortion caused by the principle of perspective projection at the time of photographing onto an image at a point at a straight line at infinity perpendicular to the plane. Using the perspective projection transformation after rotating the angle formed by the straight line connecting the vanishing point (vertical vanishing point) and the point inside the image with the vertical axis of the image as the rotation angle of the image placed in the three-dimensional space, Since image correction is performed, it is possible to perform image correction with less distortion of an object caused by image correction. In addition, parameters necessary for correction can be easily determined.

画像A内の物体が置かれている位置aの座標が分った場合に、画像B内の物体が置かれている位置bの座標を、上記平面に関する平面射影変換行列を用いて算出することで、位置aと位置bが画像内で同じ位置にくるような画像の移動を、平面上のすべての点に対し、精度よく、また効率よく行うことができる。   When the coordinates of the position a where the object in the image A is placed are known, the coordinates of the position b where the object in the image B is placed are calculated using the plane projective transformation matrix for the plane. Thus, the movement of the image such that the position a and the position b are at the same position in the image can be accurately and efficiently performed for all points on the plane.

なお、この実施の形態1では、カメラを“理想的なピンホールカメラモデル”と仮定している。この“理想的なピンホールカメラモデル”では、カメラの内部パラメータであるカメラの光学中心が撮影画像の画像中心と一致し、また、その他のカメラの内部パラメータも、カメラ座標のXYZ軸が互いに直交し、かつ、そのカメラ座標とそのカメラによって撮影された画像座標とが一致するような値であると仮定される。
これらの仮定が成立しないときは、上記仮定の誤差を考慮して、上記アルゴリズムを改良する必要がある。ただし、多くの場合、通常のカメラで撮影した画像を用いて、上記実施の形態1の処理内容を実施しても問題が生じることは少ない。
“理想的なピンホールカメラモデル”、“カメラの内部パラメータ”については、非特許文献「出口光一郎 ロボットビジョンの基礎 コロナ社」などに開示されている。
In the first embodiment, the camera is assumed to be an “ideal pinhole camera model”. In this “ideal pinhole camera model”, the camera optical center, which is an internal parameter of the camera, coincides with the image center of the captured image, and the XYZ axes of the camera coordinates are also orthogonal to each other for the internal parameters of the camera. In addition, it is assumed that the camera coordinates coincide with the image coordinates photographed by the camera.
When these assumptions do not hold, it is necessary to improve the algorithm in consideration of errors in the assumptions. However, in many cases, there are few problems even if the processing content of the first embodiment is performed using an image captured by a normal camera.
The “ideal pinhole camera model” and “internal parameters of the camera” are disclosed in non-patent documents such as Koichiro Deguchi Robot Vision Basic Corona.

また、この実施の形態1では、カメラの撮影画像に対して、レンズ歪(歪曲収差)を無視している。
この“レンズ歪”には、たる型歪や糸巻き型歪と呼ばれる歪が含まれるが、この“レンズ歪”は良いレンズを良い条件で使用する限り、無視できるものである。ただし、使用レンズの性能やカメラと被写体の距離、撮影後にカメラで行われる画像処理などによっては、必ずしも無視できない場合がある。
この“レンズ歪”が無視できない場合は、撮影画像に対してレンズ歪を補正してから、上記実施の形態1のオリジナル画像として使用すればよく、それ以降のアルゴリズムを改良する必要はない(画像データ一時保存部2以降は変わらない)。
レンズ収差歪の補正に関しては、非特許文献「出口光一郎 ロボットビジョンの基礎 コロナ社」などに開示されている。
In the first embodiment, lens distortion (distortion aberration) is ignored with respect to the image captured by the camera.
This “lens distortion” includes distortion called barrel distortion and pincushion distortion, but this “lens distortion” is negligible as long as a good lens is used under good conditions. However, it may not always be ignored depending on the performance of the lens used, the distance between the camera and the subject, and image processing performed by the camera after shooting.
If this “lens distortion” cannot be ignored, the lens distortion is corrected for the photographed image and then used as the original image of the first embodiment, and the subsequent algorithm does not need to be improved (image) The data is not changed after the temporary data storage unit 2).
The correction of lens aberration distortion is disclosed in a non-patent document “Koichiro Deguchi Robot Vision Basic Corona”.

この発明の実施の形態1による画像生成装置を示す構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the image generation apparatus by Embodiment 1 of this invention. 8台のカメラ1−n(1≦n≦8)を使用して画像を撮影している様子を示す説明図である。It is explanatory drawing which shows a mode that the image is image | photographed using eight cameras 1-n (1 <= n <= 8). カメラ1−1,1−3,1−5,1−7により撮影された画像を示す説明図である。It is explanatory drawing which shows the image image | photographed with the camera 1-1, 1-3, 1-5, 1-7. 水平消失点が画像中心にあり、カメラの光軸が床面に平行になるように、かつ、カメラ画像の横軸がほぼ床面に並行になるように設置されている例を示す説明図である。It is explanatory drawing which shows the example installed so that the horizontal vanishing point is in the center of the image, the optical axis of the camera is parallel to the floor surface, and the horizontal axis of the camera image is substantially parallel to the floor surface. is there. カメラ画像の横軸がほぼ床面に並行であるが、カメラの光軸を水平な床面に対して、やや下向きにして撮影している例を示す説明図である。It is explanatory drawing which shows the example which is making the horizontal axis of a camera image substantially parallel to a floor surface, and makes the optical axis of a camera face down slightly with respect to a horizontal floor surface. カメラの水平軸歪と透視投影歪の補正パラメータの算出を説明する説明図である。It is explanatory drawing explaining calculation of the correction parameter of the horizontal axis distortion of a camera, and perspective projection distortion. オリジナル画像nの水平軸歪と透視投影歪の補正を説明する説明図である。It is explanatory drawing explaining correction | amendment of the horizontal axis distortion and perspective projection distortion of the original image n. 図7の3次元座標をX軸の正方向から見た説明図である。It is explanatory drawing which looked at the three-dimensional coordinate of FIG. 7 from the positive direction of the X-axis. 図3の画像の変換例を示す説明図である。It is explanatory drawing which shows the example of a conversion of the image of FIG.

符号の説明Explanation of symbols

1−1〜1−N カメラ、2 画像データ一時保存部(画像格納手段)、3 マルチビュー位置指定部(位置指定手段)、4 基準位置指定部(位置指定手段)、5 床面座標読取部(マーキング位置取得手段)、6 水平消失点算出部(消失点算出手段)、7 垂直消失点算出部(消失点算出手段)、8 平面射影変換行列算出部(平面射影変換行列算出手段)、9 マルチビュー位置算出部(位置算出手段)、10 基準位置算出部(位置算出手段)、11 画像内倍率算出部(画像倍率算出手段)、12 カメラ水平軸歪補正パラメータ算出部(歪み補正手段)、13 透視投影歪補正パラメータ算出部(歪み補正手段)、14 1次補正画像生成部、15 基準長読取部、16 画像間倍率算出部(画像倍率算出手段)、17 2次補正画像生成部(歪み補正手段)、18 2次透視変換座標算出部(画像変換手段)、19 移動パラメータ算出部(画像変換手段)、20 マルチビュー画像生成部(画像変換手段)、21 マルチビュー位置指定部、22 マルチビュー画像座標変換部。   1-1 to 1-N camera, 2 image data temporary storage unit (image storage unit), 3 multi-view position designation unit (position designation unit), 4 reference position designation unit (position designation unit), 5 floor coordinate reading unit (Marking position acquisition means), 6 horizontal vanishing point calculation section (vanishing point calculation means), 7 vertical vanishing point calculation section (vanishing point calculation means), 8 plane projection transformation matrix calculation section (plane projection transformation matrix calculation means), 9 Multi-view position calculation unit (position calculation unit), 10 reference position calculation unit (position calculation unit), 11 intra-image magnification calculation unit (image magnification calculation unit), 12 camera horizontal axis distortion correction parameter calculation unit (distortion correction unit), 13 perspective projection distortion correction parameter calculation unit (distortion correction unit), 14 primary correction image generation unit, 15 reference length reading unit, 16 inter-image magnification calculation unit (image magnification calculation unit), 17 secondary correction image generation Unit (distortion correction unit), 18 secondary perspective transformation coordinate calculation unit (image conversion unit), 19 movement parameter calculation unit (image conversion unit), 20 multi-view image generation unit (image conversion unit), 21 multi-view position designation unit 22 Multi-view image coordinate conversion unit.

Claims (5)

相互に異なる方向から同一の3次元領域が撮影された複数の画像を格納する画像格納手段と、上記複数の画像の中の任意の画像に存在するマルチビュー対象の物体の位置を指定するとともに、任意の画像に存在する垂直基準棒が床面に接している床面位置を指定する位置指定手段と、上記複数の画像における床面上のマーキングの位置を取得するマーキング位置取得手段と、上記マーキング位置取得手段により取得されたマーキングの位置から上記複数の画像間の平面射影変換行列を算出する平面射影変換行列算出手段と、上記位置指定手段により指定されたマルチビュー対象の物体の位置と上記平面射影変換行列算出手段により算出された平面射影変換行列から上記複数の画像に存在するマルチビュー対象の物体の位置を算出するとともに、上記位置指定手段により指定された垂直基準棒の床面位置と上記平面射影変換行列から上記複数の画像に存在する垂直基準棒の床面位置を算出する位置算出手段と、上記位置算出手段により算出されたマルチビュー対象の物体の位置及び垂直基準棒の床面位置を用いて、上記複数の画像におけるマルチビュー対象の物体の位置を揃え、かつ、マルチビュー対象の物体の大きさを同じにする画像倍率を上記複数の画像毎に算出する画像倍率算出手段と、上記画像倍率算出手段により算出された画像倍率にしたがって上記複数の画像を変換する画像変換手段とを備えた画像生成装置。   An image storage means for storing a plurality of images in which the same three-dimensional region is photographed from different directions, a position of a multi-view target object existing in an arbitrary image among the plurality of images, and Position specifying means for specifying a floor surface position where a vertical reference bar existing in an arbitrary image is in contact with the floor surface, marking position acquiring means for acquiring a marking position on the floor surface in the plurality of images, and the marking A plane projection transformation matrix calculating means for calculating a plane projection transformation matrix between the plurality of images from the marking position obtained by the position obtaining means; a position of the object to be multi-view designated by the position designation means; and the plane. While calculating the position of the object of the multi view object which exists in the above-mentioned plurality of images from the plane projection transformation matrix computed by the projection transformation matrix calculation means Position calculating means for calculating the floor position of the vertical reference bar present in the plurality of images from the floor position of the vertical reference bar specified by the position specifying means and the planar projective transformation matrix; and calculating by the position calculating means The position of the multi-view target object in the plurality of images is aligned and the size of the multi-view target object is the same using the position of the object of the multi-view target and the floor position of the vertical reference bar. An image generation apparatus comprising: an image magnification calculation unit that calculates an image magnification for each of the plurality of images; and an image conversion unit that converts the plurality of images according to the image magnification calculated by the image magnification calculation unit. 画像倍率算出手段は、位置算出手段により算出されたマルチビュー対象の物体の位置と垂直基準棒の床面位置を用いて、マルチビュー対象の物体を上記垂直基準棒の床面位置まで移動させた場合のマルチビュー対象の物体の画像内倍率を複数の画像毎に算出する画像内倍率算出部と、上記画像内倍率算出部により算出された画像内倍率と垂直基準棒の長さを用いて、上記複数の画像におけるマルチビュー対象の物体を同じ大きさで表示する場合の画像間倍率を上記複数の画像毎に算出する画像間倍率算出部とから構成されていることを特徴とする請求項1記載の画像生成装置。   The image magnification calculation means moves the multi-view target object to the floor position of the vertical reference bar using the position of the object of the multi-view target calculated by the position calculation means and the floor position of the vertical reference bar. In this case, the in-image magnification calculating unit that calculates the in-image magnification of the object of the multi-view target for each of a plurality of images, the in-image magnification calculated by the in-image magnification calculating unit and the length of the vertical reference bar, 2. The inter-image magnification calculating unit that calculates an inter-image magnification for each of the plurality of images when the multi-view target objects in the plurality of images are displayed with the same size. The image generating apparatus described. 複数の画像における消失点を算出する消失点算出手段と、上記消失点算出手段により算出された消失点と上記画像倍率算出手段により算出された画像間倍率にしたがって上記複数の画像の歪みを補正する歪み補正手段とを設けたことを特徴とする請求項2記載の画像生成装置。   A vanishing point calculating unit that calculates vanishing points in a plurality of images, a vanishing point calculated by the vanishing point calculating unit, and an inter-image magnification calculated by the image magnification calculating unit, correct distortion of the plurality of images. The image generation apparatus according to claim 2, further comprising a distortion correction unit. 歪み補正手段は、消失点算出手段により算出された消失点からカメラの傾きに起因する水平軸歪の補正パラメータを算出するカメラ水平軸歪補正パラメータ算出部と、上記消失点算出手段により算出された消失点から透視投影に起因する画像の透視投影歪の補正パラメータを算出する透視投影歪補正パラメータ算出部と、上記カメラ水平軸歪補正パラメータ算出部及び上記透視投影歪補正パラメータ算出部により算出された補正パラメータと画像倍率算出手段により算出された画像間倍率にしたがって複数の画像の歪みを補正する補正画像生成部とから構成されていることを特徴とする請求項3記載の画像生成装置。   The distortion correction unit is calculated by the camera horizontal axis distortion correction parameter calculation unit that calculates the correction parameter of the horizontal axis distortion caused by the tilt of the camera from the vanishing point calculated by the vanishing point calculation unit and the vanishing point calculation unit. Calculated by a perspective projection distortion correction parameter calculation unit that calculates a correction parameter for perspective projection distortion of an image resulting from perspective projection from a vanishing point, the camera horizontal axis distortion correction parameter calculation unit, and the perspective projection distortion correction parameter calculation unit 4. The image generation apparatus according to claim 3, further comprising: a correction image generation unit that corrects distortion of a plurality of images in accordance with the correction parameter and the inter-image magnification calculated by the image magnification calculation means. 補正画像生成部は、複数の画像の垂直方向又は水平方向のずれを透視変換を使用して補正することを特徴とする請求項4記載の画像生成装置。   The image generation apparatus according to claim 4, wherein the correction image generation unit corrects vertical or horizontal shifts of the plurality of images using perspective transformation.
JP2006291467A 2006-10-26 2006-10-26 Image generation device Expired - Fee Related JP4860431B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006291467A JP4860431B2 (en) 2006-10-26 2006-10-26 Image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006291467A JP4860431B2 (en) 2006-10-26 2006-10-26 Image generation device

Publications (2)

Publication Number Publication Date
JP2008109481A true JP2008109481A (en) 2008-05-08
JP4860431B2 JP4860431B2 (en) 2012-01-25

Family

ID=39442458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006291467A Expired - Fee Related JP4860431B2 (en) 2006-10-26 2006-10-26 Image generation device

Country Status (1)

Country Link
JP (1) JP4860431B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290664A (en) * 2008-05-30 2009-12-10 National Institute Of Advanced Industrial & Technology Camera system, image information reproducing means therefor, and image information reproducing means
JP2015012375A (en) * 2013-06-27 2015-01-19 貞彦 寺川 Multi-angle imaging system, swivel device, imaging apparatus and multi-angle imaging method
JP2015127903A (en) * 2013-12-27 2015-07-09 ヤフー株式会社 Image processor, image processing method and image processing program
JP2015198374A (en) * 2014-04-02 2015-11-09 パナソニックIpマネジメント株式会社 Calibration device, calibration method, camera having calibration function and program
CN109367483A (en) * 2017-08-09 2019-02-22 安波福电子(苏州)有限公司 A kind of adaptive vehicle-mounted of angle gets a bird's eye view system and its implementation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057376A (en) * 1998-08-11 2000-02-25 Gen Tec:Kk Method for generating new viewpoint image
JP2002197452A (en) * 2000-12-27 2002-07-12 Oki Electric Ind Co Ltd Processor for correcting image distortion
JP2004355184A (en) * 2003-05-28 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> Extraction apparatus and extraction method for character/graphic region, program for the method, and recording medium for recording the program
JP2005049999A (en) * 2003-07-30 2005-02-24 Ricoh Co Ltd Image input system, image input method, program described to execute method on information processing device, and storage medium with program stored

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057376A (en) * 1998-08-11 2000-02-25 Gen Tec:Kk Method for generating new viewpoint image
JP2002197452A (en) * 2000-12-27 2002-07-12 Oki Electric Ind Co Ltd Processor for correcting image distortion
JP2004355184A (en) * 2003-05-28 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> Extraction apparatus and extraction method for character/graphic region, program for the method, and recording medium for recording the program
JP2005049999A (en) * 2003-07-30 2005-02-24 Ricoh Co Ltd Image input system, image input method, program described to execute method on information processing device, and storage medium with program stored

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290664A (en) * 2008-05-30 2009-12-10 National Institute Of Advanced Industrial & Technology Camera system, image information reproducing means therefor, and image information reproducing means
JP2015012375A (en) * 2013-06-27 2015-01-19 貞彦 寺川 Multi-angle imaging system, swivel device, imaging apparatus and multi-angle imaging method
JP2015127903A (en) * 2013-12-27 2015-07-09 ヤフー株式会社 Image processor, image processing method and image processing program
JP2015198374A (en) * 2014-04-02 2015-11-09 パナソニックIpマネジメント株式会社 Calibration device, calibration method, camera having calibration function and program
US10032274B2 (en) 2014-04-02 2018-07-24 Panasonic Intellectual Property Management Co., Ltd. Calibration apparatus and calibration method
CN109367483A (en) * 2017-08-09 2019-02-22 安波福电子(苏州)有限公司 A kind of adaptive vehicle-mounted of angle gets a bird's eye view system and its implementation

Also Published As

Publication number Publication date
JP4860431B2 (en) 2012-01-25

Similar Documents

Publication Publication Date Title
JP7004094B2 (en) Fish length measurement system, fish length measurement method and fish length measurement program
CN105026997B (en) Optical projection system, semiconductor integrated circuit and image correcting method
JP5596972B2 (en) Control device and control method of imaging apparatus
JP2008217243A (en) Image creation device
JPWO2004061387A1 (en) Multi-view video capture system
JP2009017480A (en) Camera calibration device and program thereof
JP7001145B2 (en) Information processing equipment, object measurement system, object measurement method and computer program
JP7218435B2 (en) CALIBRATION DEVICE, CALIBRATION CHART AND CALIBRATION METHOD
JP6981531B2 (en) Object identification device, object identification system, object identification method and computer program
JP2009284188A (en) Color imaging apparatus
JP4860431B2 (en) Image generation device
JP6816773B2 (en) Information processing equipment, information processing methods and computer programs
KR100596976B1 (en) apparatus and method for correcting distorted image and image display system using it
US11196929B2 (en) Signal processing device, imaging device, and signal processing method
JP6879375B2 (en) Information processing equipment, length measurement system, length measurement method and computer program
JPWO2018167918A1 (en) Projector, mapping data creation method, program, and projection mapping system
JP6409769B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP4998792B2 (en) Camera, camera array and camera array system
JP2007033087A (en) Calibration device and method
JP2006017632A (en) Three-dimensional image processor, optical axis adjustment method, and optical axis adjustment support method
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2005031044A (en) Three-dimensional error measuring device
JP2014096761A (en) Image processing apparatus, and control method and control program of the same
JP2006309626A (en) Arbitrary viewpoint image generation device
JP2012227700A (en) Information processor and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111102

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141111

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees